View Full Version : Aspettando Ati Radeon HD 4870X2
Andrea deluxe
07-07-2008, 13:06
Io l'avevo detto...
Cambierà il sistema di comunicazione fra le due gpu...
forse non sara' un semplice scambio di sincronizzazioni tra le due gpu ma la somma della potenza di calcolo delle 2 tramite bridge rinnovato....
chissa'!
Cooperdale
07-07-2008, 13:27
Infine ho trovato che in realtà, volendo, si potrebbe risolvere facilmente la questione via driver sincronizzando i frame (sia per la singola che per i multi-gpu). C'è in giro un tool che fa la cosa, fatto da un tipo che si dice fosse di ATI.
Ma si trova questo tool?
1Gb è la quantità giusta per le risoluzioni over full hd alle quali avrà senso usare questa scheda. Il problema è che, se si porterà dietro la stessa triste inefficienza del multigpu visto finora, paghi 2Gb di memoria per usarne 1 (che come offerta non è male).
:asd:
Beh pensa che in tal caso facendo un Crossfire di 4870X2 pagheresti 4Gb per usarne 1...
appleroof
07-07-2008, 13:27
Se AMD segue la sua roadmap, le "5800" sono previste a dicembre, anche se magari non si chiameranno 5800. I chip a 40nm di cui stiamo parlando sono quelli "DX11 -ready" anche se magari i DX11 non ce li abiliteranno mai su quelli per strategie commerciali.
cut
dici? eppure le dx11 dovrebbero essere al debutto per fine 2009, potrebbero al contrario sfruttare la pubblicità del "siamo troppo avanti" :asd: vediamo, cmq interessante quello che posti, in pratica avremmo il refresh a 55nm di g200, forse quello 45nm per rv770 (ma serve davvero ad Ati? forse solo per il solito celolunghismo -che sappiamo avere molti accoliti, tra l'altro :asd: - e costi ancora minori, tipo 2$ a chip :D ) e poi le nuove architetture a 40nm per entrambe....
nota personale, a questo punto sarei convinto che le schede migliori siano gtx260 e 4870, in attesa delle dx11...
Ma si trova questo tool?
Beh pensa che in tal caso facendo un Crossfire di 4870X2 pagheresti 4Gb per usarne 1...
si ma i 14k del quad crossfire x con cpu quad core a 6ghz al vantage extreme dove li metti :D
Zodd_Il_nosferatu
07-07-2008, 13:36
Magari utilizzassero il tessellatore nei game....
ATi ci ha già provato ai tempi di Radeon8500 senza particolare successo....
Qualche screens di Morrowind...
http://www.lauppert.ws/images2/after.jpg
http://tes.lanior.ru/tweaker/images/large/6.wireframe.before.jpg
http://tes.lanior.ru/tweaker/images/large/6.wireframe.after.jpg
Con l'avvento dello DX9 e le nuove possibilità concesse dagli shader programmabili si è preferito utilizzare nuove tecniche di mapping in grado di restituire immagini come se fossero generate da modelli poligonalmente più ricchi ...(ad es. Parallax Mapping non possibile con DX8)
Infatti da R300 in poi , il tessellatore non è presente...ricompare in R600...
Speriamo che questa volta, Nvidia permettendo, le cose vadano meglio...
stai confondendo il trueform con il tesselatore :O
appleroof
07-07-2008, 13:38
I 45nm ad ATi servirebbero solo per aumentare ulteriormente il numero di SIMD, allo stato attuale, e nella fascia alta, ma nella fascia bassa, con i bus a 128bit sarebbe un risparmio notevole, visto che è una fascia che invece che sul rapporto prestazioni/prezzo si basa unicamente sul prezzo...
mmmm...a parte i SIMD (celolunghismo, cmq legittimissimo) il resto lo potresti già fare....
chissà se i 55nm di rv770 sono quelli "performance" o no, sarebbe interessante saperlo...
HackaB321
07-07-2008, 13:47
stai confondendo il trueform con il tesselatore :O
il trueform è il "nonno" del tessellation engine. Il principio è lo stesso.
Io l'avevo detto...
Cambierà il sistema di comunicazione fra le due gpu...
Da PCI-E a PCI-E 2 Gen, speriamo che gli ingegneri non si siano stressati troppo. :p
il trueform è il "nonno" del tessellation engine. Il principio è lo stesso.
Ad ogni modo è inutile (ri)proporre tecnologie a sé stanti, solo qualora inserite nelle DX e dunque adottate da tutti i produttori sarebbero utilizzate.
Diversamente, finché una tecnologia per quanto ottima resta fuori dalle API o comunque presente in un solo marchio di schede, gli sviluppatori per ovvi motivi non la prendono in considerazione.
Nino Grasso
07-07-2008, 14:59
Che alimentatore ci vorrà per questa scheda?
Che alimentatore ci vorrà per questa scheda?
2000watt e sulla linea +12v 200A :D
scherzo secondo me un 850 watt con 80A sulla linea +12v va bene
Nino Grasso
07-07-2008, 15:06
Oddio, c'avevo fatto su un pensierino ma è fuori portata per me. Già la scheda non costa poco. Su un 625w con 3 linee da 25w l'una non c'è speranza?
cè in circolazione un dissipatore per due gpu stile thermaltake con es. 2x92mm sopra?
Oddio, c'avevo fatto su un pensierino ma è fuori portata per me. Già la scheda non costa poco. Su un 625w con 3 linee da 25w l'una non c'è speranza?
L'amperaggio condiviso quant'è? io con 50A sulla 12v non posso overcloccare tutto con il sitema in sign quindi fai un po te :) e senza dubbio la 4870x2 consumera di piu
sto benchando mi fa 90 fps con crysis
Konrad76
07-07-2008, 15:49
sto benchando mi fa 90 fps con crysis
Ripeto la domanda di questa mattina.....ma sicuro che stai parlando di una 4870x2??:confused:
Nino Grasso
07-07-2008, 15:54
si ovviamente 25a su ogni linea da 12v :stordita: . L'amperaggio condiviso dovrebbe essere di 50A
Ho visto che come wattaggio non c'è nessun problema. La ATi dice che bisogna avere un alimentatore generico da 600w per un Crossfire di HD4870 o sbaglio?
major1977
07-07-2008, 16:00
si ovviamente 25a su ogni linea da 12v :stordita: . L'amperaggio condiviso dovrebbe essere di 50A
Ho visto che come wattaggio non c'è nessun problema. La ATi dice che bisogna avere un alimentatore generico da 600w per un Crossfire di HD4870 o sbaglio?
esatto ;) ..quindi nn vedo il motivo di averne uno superiore..o sbaglio?
la super quando dovrebbe uscire invece?
Mercuri0
07-07-2008, 16:06
Ad ogni modo è inutile (ri)proporre tecnologie a sé stanti, solo qualora inserite nelle DX e dunque adottate da tutti i produttori sarebbero utilizzate.
A 'sto giro qualcuno ventilava che il tessellatore fosse previsto in una prima bozza delle DX10...
Va buò, comunque sia nelle DX11 è certo, nVidia quest'estate farà un bel pò di casino su "quanto è buono e utile il tessellatore".
Nino Grasso
07-07-2008, 16:13
Ho visto che 2 GTX260 in Sli vanno meglio di due HD4870 in CrossFire. Teoricamente la differenza "mediana" alle varie risoluzioni è per via dei driver acerbi e in molte situazioni il CF delle HD4870 va meno del Single GPU.
Questa è una situazione in cui non mi vorrei ritrovare da possessore di 9800GX2. Sapete se le HD4870x2 sfruttano lo stesso sistema per il CrossFire? Cioè sapete se siano strettamente legate ai driver e ai profili o finalmente la gestione del CF passa sul lato hardware?
appleroof
07-07-2008, 16:16
Ho visto che 2 GTX260 in Sli vanno meglio di due HD4870 in CrossFire. Teoricamente la differenza "mediana" alle varie risoluzioni è per via dei driver acerbi e in molte situazioni il CF delle HD4870 va meno del Single GPU.
Questa è una situazione in cui non mi vorrei ritrovare da possessore di 9800GX2. Sapete se le HD4870x2 sfruttano lo stesso sistema per il CrossFire? Cioè sapete se siano strettamente legate ai driver e ai profili o finalmente la gestione del CF passa sul lato hardware?
da quel poco che so e che ho capito finora, sì.
appleroof
07-07-2008, 16:19
La gestione del CF a livello HW sarà sicuramente diversa.
In ogni caso all'uscita della scheda avrai difficoltà a uscre indenne dalla valanga di recensioni che ci saranno in giro, quindi il mio consiglio è di aspettare e vedere, di certo il CF di due 4870 è sconsigliabile, visto che esce il 2in1 fra un mese con tutti i vantaggi della scheda singola.
L'unico CF standard valutabile può essere 2xHD4850, ma aspetterei cmq i Catalyst 8.8 per vederlo in azione e valutarne le prestazioni (gli 8.8 saranno quelli della 4870x2)
che intendi? :what:
o mi son perso qualcosa, oppure la 4870x2 sta al Cf di 4870 come 3870x2 stava a quello di 3870....
Mister Tarpone
07-07-2008, 16:22
che intendi? :what:
o mi son perso qualcosa, oppure la 4870x2 sta al Cf di 4870 come 3870x2 stava a quello di 3870....
forse il fatto che non servono due slot pci-e
Nino Grasso
07-07-2008, 16:23
Si, ma il problema è che da ex possessore di 9800GX2 mi sono un po' rotto di smanettare fra profili, vedere se si attiva SLi (o CF che dir si voglia). Non è tanto il fatto di "quanto" il CrossFire mi aumenti le prestazioni, ma pià un fattore di compatibilità, che a quanto pare non è stato migliorato.
Il suppporto alle Multi-GPU è purtroppo ancora molto acerbo sia da un lato che dall'altro. O forse è proprio il supporto via software che manca.
Quindi mi sa che la mia scelta ricadrà fra una GTX280 e una HD4870, ma ancora sono indecisissimo.
Konrad76
07-07-2008, 16:25
che intendi? :what:
o mi son perso qualcosa, oppure la 4870x2 sta al Cf di 4870 come 3870x2 stava a quello di 3870....
Intende che la 4870x2 come la 3870x2 vanno decisamente meglio dei CF delle relative schede con singola gpu inquanto essendo integrate sullo stesso pcb hanno un interconnessione migliore rendendo meglio...
appleroof
07-07-2008, 16:31
Scheda singola = meno rumore, meno affollamento nel case :>
ok
La 4870x2 dovrebbe distanziare di un tot (non si sa quanto) il CF di 4870, al contrario di quanto avveniva con la 3870x2 rispetto al CF di 3870.
Questo sarà dovuto al fatto che mentre con due 3870/4870 o una 3870x2 il CF è un normalissimo CF, nel caso della 4870x2 la comunicazione fra le due GPU dovrebbe essere più efficiente e quindi garantire prstazioni migliori (prendi pure il tutto come pura speculazione, perché di certezze non ce ne sono) :>
e ari-ok :D ;)
Foglia Morta
07-07-2008, 16:34
http://plaza.fi/s/f/editor/images/0707ati.jpg
scheda consegnata :D
HackaB321
07-07-2008, 16:36
Si, ma il problema è che da ex possessore di 9800GX2 mi sono un po' rotto di smanettare fra profili, vedere se si attiva SLi (o CF che dir si voglia). Non è tanto il fatto di "quanto" il CrossFire mi aumenti le prestazioni, ma pià un fattore di compatibilità, che a quanto pare non è stato migliorato.
Il suppporto alle Multi-GPU è purtroppo ancora molto acerbo sia da un lato che dall'altro. O forse è proprio il supporto via software che manca.
Quindi mi sa che la mia scelta ricadrà fra una GTX280 e una HD4870, ma ancora sono indecisissimo.
E penso che faresti un'ottima scelta.
Ma se puoi aspettare meno di un mese, aspetta, almeno per vedere se queste innovazioni ci sono e se ci sono, se servono a qualcosa. Oppure se non ci sono e il multigpu è ancora la solita aberrazione tecnologica che è stata finora.
major1977
07-07-2008, 16:37
http://plaza.fi/s/f/editor/images/0707ati.jpg
scheda consegnata :D
come fai ad averla già? :stordita:
Mister Tarpone
07-07-2008, 16:39
come fai ad averla già? :stordita:
ma mica l'hanno consegnata a lui eh... :asd:
Foglia Morta
07-07-2008, 16:39
come fai ad averla già? :stordita:
non a me :D
l'avevo detto mi pare venerdì che le stavano consegnando... quella è di Sampsa ( muropaketti )
Nino Grasso
07-07-2008, 16:41
ahahaha non credo che la scheda arrivi in mezzo al pagliume dentro una scatola indefinita. Penso anzi che chi compra una cosa del genere nemmeno gli viene consegnata dal corriere corre subito a spacchettarla in tempi record.
Comunque si, direi che aspetto prima le prime recensioni della HD4870x2 e poi vedrò cosa fare.
E penso che faresti un'ottima scelta.
Ma se puoi aspettare meno di un mese, aspetta, almeno per vedere se queste innovazioni ci sono e se ci sono, se servono a qualcosa. Oppure se non ci sono e il multigpu è ancora la solita aberrazione tecnologica che è stata finora.
e purtroppo se non cè finora è per colpa di programmatori di video giochi che fanno a cazzotti col codice. palese crysis che sfrutta i dual core e non riesce a smuovere i quad. si tratta di cpu pero' il succo è lo stesso... dovrebbero muovere un pochino di piu il :ciapet: perche le potenzialita' dell'hardware sono infinite
gianni1879
07-07-2008, 16:44
http://plaza.fi/s/f/editor/images/0707ati.jpg
scheda consegnata :D
:eek:
a chi??? :D
Mister Tarpone
07-07-2008, 16:48
:eek:
a chi??? :D
indovina :eek: :asd:
Penso sempre 27Cm.
http://img380.imageshack.us/img380/9483/vasellinaqk9.jpg
http://plaza.fi/s/f/editor/images/0707ati.jpg
scheda consegnata :D
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
scherzo raga eh :asd:
Foglia Morta
07-07-2008, 16:51
:eek:
a chi??? :D
Pare che qualche sito potrà fare una preview il 14 Luglio e il lancio ufficiale 2 o 3 settimane dopo ;)
gianni1879
07-07-2008, 16:52
indovina :eek: :asd:
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
scherzo raga eh :asd:
:asd: :asd:
gianni1879
07-07-2008, 16:53
Pare che qualche sito potrà fare una preview il 14 Luglio e il lancio ufficiale 2 o 3 settimane dopo ;)
però senza driver giusti la vedo un pelo duretta fare una recensione adesso
appleroof
07-07-2008, 16:53
indovina :eek: :asd:
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
scherzo raga eh :asd:
e via...notti d'amore :asd: :asd: :asd: :asd:
appleroof
07-07-2008, 16:56
però senza driver giusti la vedo un pelo duretta fare una recensione adesso
bè, hanno fatto quelle del CF ad esempio...
Foglia Morta
07-07-2008, 16:57
però senza driver giusti la vedo un pelo duretta fare una recensione adesso
magari i driver giusti li danno ai recensori :D
gianni1879
07-07-2008, 16:58
bè, hanno fatto quelle del CF ad esempio...
appunto, 8.6 e 8.6hotfix, ne che siano il max
Zodd_Il_nosferatu
07-07-2008, 17:03
appunto, 8.6 e 8.6hotfix, ne che siano il max
ci sono i driver 8.52 che sono dei sample appositi per r700 :)
Mercuri0
07-07-2008, 17:08
Si, ma il problema è che da ex possessore di 9800GX2 mi sono un po' rotto di smanettare fra profili, vedere se si attiva SLi (o CF che dir si voglia).
Adesso mi spiego perché nVidia ha tirato fuori la 9800GX2: il miglior modo per rompere le uova alla strategia multi-gpu di AMD.
Infatti in giro è pieno di possessori di 9800GX2 che dicono "mai più multi-gpu" e "il multi-gpu fa schifo". :D
Comunque aspettiamo e vediamo.
Su beyond3d il nostro "contatto" in AMD diceva che l'AFR è la miglior strategia per il multi-gpu, che sarebbe stata la metodologia di rendering del prossimo futuro, e che i produttori di videogiochi stanno cominciando a tenere in considerazione il multi-GPU.
I problemi di compatibilità e di driver ci sono anche per le GPU singole. A me della 4870x2 spaventano i consumi... non mi sono ancora appassionato all'"elettronica di potenza" di questi ultimi anni :rolleyes:
gianni1879
07-07-2008, 17:11
ci sono i driver 8.52 che sono dei sample appositi per r700 :)
si gli 8.7b ma qualcuno dice che non vanno benissimo
Enochian
07-07-2008, 17:24
Ho fatto la sciocchezza, ho disdetto la prenotazione di 2 radeon 4870 e adesso a settembre mi prendo un crossfire di 4870x2... secondo me crysis scappa dall'hd, non vuole fare brutte figure di superfluidità :)
Konrad76
07-07-2008, 17:26
Ho fatto la sciocchezza, ho disdetto la prenotazione di 2 radeon 4870 e adesso a settembre mi prendo un crossfire di 4870x2... secondo me crysis scappa dall'hd, non vuole fare brutte figure di superfluidità :)
Fatto bene.....;)
Enochian
07-07-2008, 17:29
Sperem intanto a fine luglio vediamo i primi mark e il gap con 2xhd4870.
beppe8682
07-07-2008, 20:46
esatto ;) ..quindi nn vedo il motivo di averne uno superiore..o sbaglio?
la super quando dovrebbe uscire invece?
io n eho uno +- "generico della Hyper da 580...
http://www.hipergroup.com/products.php?lv=4&cate=1&type=7&pid=15&action=Specification
gna fà?:rolleyes:
mmmm...a parte i SIMD (celolunghismo, cmq legittimissimo) il resto lo potresti già fare....
chissà se i 55nm di rv770 sono quelli "performance" o no, sarebbe interessante saperlo...
Sono quelli performance, era già stato appurato. :)
I problemi di compatibilità e di driver ci sono anche per le GPU singole. A me della 4870x2 spaventano i consumi... non mi sono ancora appassionato all'"elettronica di potenza" di questi ultimi anni :rolleyes:
Anche a me sti consumi fanno paura...:(
Sono sicuro che il mio ali in firma ci riderá sopra, peró l'idea di consumare una follia in full non mi piace per nulla.
Per l'idle se il powerplay non fa miracoli ci penso io a metter mano alle frequenze :O
Marko#88
08-07-2008, 06:36
Anche a me sti consumi fanno paura...:(
Sono sicuro che il mio ali in firma ci riderá sopra, peró l'idea di consumare una follia in full non mi piace per nulla.
Per l'idle se il powerplay non fa miracoli ci penso io a metter mano alle frequenze :O
Più che altro fa comodo abbassare i voltaggi, cosa che in teoria dovrebbe fare il powerplay...solo le frequenze cambiano di poco consumi e temperatura....anche se è comunque meglio di nulla...
HackaB321
08-07-2008, 07:23
Su beyond3d il nostro "contatto" in AMD diceva che l'AFR è la miglior strategia per il multi-gpu, che sarebbe stata la metodologia di rendering del prossimo futuro, e che i produttori di videogiochi stanno cominciando a tenere in considerazione il multi-GPU.
quelle di Demers per me sono frasi di circostanza. Non hanno alternative e quindi sponsorizzano quello che hanno, anche perchè per loro il multigpu visto finora è stato un gran vantaggio (dato che permette di abbattere i costi di sviluppo). Per gli utenti invece finora è stata solo una bella sòla.
Comunque aspettiamo e vediamo.
quoto:)
Ragazzi madonna mia come e' brutto aspettare
Konrad76
08-07-2008, 08:34
Ragazzi madonna mia come e' brutto aspettare
Come hai ragione:cry: :cry:
Come hai ragione:cry: :cry:
io non ho voluto prendere le 4870 per aspettare questa bambina che deve uscire ma sto impazzendo dalla voglia di averla tra le mani
io non ho voluto prendere le 4870 per aspettare questa bambina che deve uscire ma sto impazzendo dalla voglia di averla tra le mani
*
*
sei del mio stesso parere ???
ragà è così potente che mi ha bruciato il monitor sono dall' eee pc mi dispiace non posso èiù benchare:D
sei del mio stesso parere ???
esatto :D
ho una 8800 gtx e mi trovo bene ma ormai son 2 anni che sta li (il che non è un male) , pero' avendo un bel 24" e adoro godermi al max i dettagli dei giochi next gen :D
dobbiamo avere pasienza difficile dirlo ma ci dobbiamo riuscire
sto benchando mi fa 90 fps con crysis
ragà è così potente che mi ha bruciato il monitor sono dall' eee pc mi dispiace non posso èiù benchare:D
Non fai ridere.
DarKilleR
08-07-2008, 09:12
ragà è così potente che mi ha bruciato il monitor sono dall' eee pc mi dispiace non posso èiù benchare:D
OMG ma questo rinchiudetelo....
In caso invece di sparare stronzate, manda delle prove invece di fare il lamer...poi battute del tipo è così potente che mi si è bruciato il monitor :mc:
OMG ma questo rinchiudetelo....
In caso invece di sparare stronzate, manda delle prove invece di fare il lamer...poi battute del tipo è così potente che mi si è bruciato il monitor :mc:
lol
Mercuri0
08-07-2008, 09:29
quelle di Demers per me sono frasi di circostanza. Non hanno alternative e quindi sponsorizzano quello che hanno, anche perchè per loro il multigpu visto finora è stato un gran vantaggio (dato che permette di abbattere i costi di sviluppo). Per gli utenti invece finora è stata solo una bella sòla.
Io invece sono arcisicuro sia vero che hanno scelto la soluzione migliore che potevano. :D
Tra l'altro, leggiucchiando qui e là senza capirci troppo, m'è sembrato che il problema di "fare funzionare due GPU come una", o meglio fare renderizzare lo stesso frame senza cali d'efficienza, non sia tanto di condividere la memoria, ma di condividere la cache.
Ora, la cache è solo "memoria" messa dentro al chip per essere più veloce. Se devi "condividerla" fra più chip perde la ragion d'essere :)
Quindi a meno di cambiamenti sostanziali da qualche parte (API? Architettura? Videogiochi? - che so, magari in futuro potrebbero condividere gli SP ma non le TMU e ROP) l'AFR è la soluzione per il tempo a venire.
Tra l'altro, la "compatibilità" è un falso problema tecnico. Basta che facciano i giochi e di driver compatibili :D Piuttosto l'"input lag" potrebbe essere un fattore limitante quando si comincia ad aumentare il numero di GPU in maniera significativa.
Postilla: a dire il vero, i Core Quad di lntel riescono a condividere un livello di cache tra i die. Però...
- l'architettura è diversa e alla lntel, bisogna riconoscerlo, con la cache sono maestri
- sono su MCM - che perderebbe metà dei vantaggi del multi-GPU
- I Nehalem li fanno single die. ;)
HackaB321
08-07-2008, 10:17
Io invece sono arcisicuro sia vero che hanno scelto la soluzione migliore che potevano. :D
Anch'io. Solo che la soluzione migliore che potevano è stata finora una fregatura per gli utenti.
Tra l'altro, leggiucchiando qui e là senza capirci troppo, m'è sembrato che il problema di "fare funzionare due GPU come una", o meglio fare renderizzare lo stesso frame senza cali d'efficienza, non sia tanto di condividere la memoria, ma di condividere la cache.
Il problema della condivisione della cache per un multigpu sarebbe un problema minore una volta trovato il modo per le gpu di "dialogare" via hardware. Nel passaggio da R600 a RV770 si è verificato un passaggio opposto da texture cache condivise a texture cache non condivise tra i vari SIMD e texture block. Il problema è sempre quello: non sono ancora in grado di creare una gpu che ampli il parallelismo di calcolo da un livello di cluster ad un livello (anche) di core senza la necessità di gravare solo sui driver nel processo di bilanciamento del carico.
E comunque mi resta da capire perchè se la memoria è condivisa sembra comunque sempre necessario che i dati di ogni frame vengano duplicati nel framebuffer. Se la texture A viene caricata in una memoria condivisa ed è necessaria sia per renderizzare il frame 1 che il frame 2, perchè le due gpu non possono prelevarla entrambe dalla memoria senza bisogno che essa venga scritta due volte? A quel punto la cache può anche essere separata e le texel necessarie al mapping quindi duplicate nelle cache di ogni gpu, l'impatto sulle performance sarebbe certamente minore rispetto a due framebuffer che stanno lì a fare la stessa cosa 2 volte.
Più che altro fa comodo abbassare i voltaggi, cosa che in teoria dovrebbe fare il powerplay...solo le frequenze cambiano di poco consumi e temperatura....anche se è comunque meglio di nulla...
Si, metter mano ai voltaggi da più vantaggi.
Ma se il powerplay, quando funzionerà perfettamente, non mi soddisferà, metterò mano alle frequenze e le abbasso ancora :D
Tanto i guadagni non è che sono nulli, anzi. Il consumo è direttamente proporzionale alla frequenza, oltre che direttamente proporzionale al quadrato del voltaggio :)
raga ultimamente ho un po di confusione intesta, non mi ricordo se questa vga puo andare anche su chipset nvidia o serve il supporto crossfire?
io mi ricordavo che si potevano mettere ovunque e quindi che non fosse richiesto il supporto al crossfire , ricordo male??
raga ultimamente ho un po di confusione intesta, non mi ricordo se questa vga puo andare anche su chipset nvidia o serve il supporto crossfire?
io mi ricordavo che si potevano mettere ovunque e quindi che non fosse richiesto il supporto al crossfire , ricordo male??
Le dual card funzionano come se fossero una scheda sola (e infatti é quello che sono).
Il crossfire lo fanno via scheda e non via mobo.
Mercuri0
08-07-2008, 12:06
Il problema della condivisione della cache per un multigpu sarebbe un problema minore una volta trovato il modo per le gpu di "dialogare" via hardware.
Non ho tempo per ragionar e rispondere sul resto, ma su questo qualcosa da dire ce l'ho.
Il discorso multi-gpu a livello di architettura hardware ha *un solo limite*. E cioé la velocità delle interconnessioni. (sia latenza che banda)
Peccato che per un eventuale condivisione della cache questo sia un problema cruciale, che si risolve solo... mettendo le gpu sullo stesso die :D (cioè non facendo il multi-gpu). Oppure rimuovendo in qualche modo, se possibile, la necessità che la cache sia condivisa, cioé facendo in modo che la banda e la latenza dell'interconnessione basti.
Non c'è nessun altra soluzione, un "terzo chip" a far da ponte è solo un illusione ottica (perchè quel chip potrebbe essere integrato negli altri due) e la connessione con gli altri chip soffrirebbe dello stesso problema.
Ricordi bene.
Serve una mobo con un connettore PCIe x16 elettrici.
ottimo penso sia la mia prossima vga :)
Marko#88
08-07-2008, 12:38
Si, metter mano ai voltaggi da più vantaggi.
Ma se il powerplay, quando funzionerà perfettamente, non mi soddisferà, metterò mano alle frequenze e le abbasso ancora :D
Tanto i guadagni non è che sono nulli, anzi. Il consumo è direttamente proporzionale alla frequenza, oltre che direttamente proporzionale al quadrato del voltaggio :)
Esatto esatto...si possono sempre abbassare a piacimento se il powerplay non va come dovrebbe..:D
Cooperdale
08-07-2008, 12:54
Intanto che aspetto sto preparando un nuovo pc apposta per far viaggiare stabbelva... Spero proprio che non mi deluda. Andrò sulla Asus p5e64 ws evolution, 4 Gb di ram Corsair ddr3 (forse a 1800) e il QX9770.
E intanto sbavo attendendo il mostro...
HackaB321
08-07-2008, 13:07
Non ho tempo per ragionar e rispondere sul resto, ma su questo qualcosa da dire ce l'ho.
Il discorso multi-gpu a livello di architettura hardware ha *un solo limite*. E cioé la velocità delle interconnessioni. (sia latenza che banda)
Peccato che per un eventuale condivisione della cache questo sia un problema cruciale, che si risolve solo... mettendo le gpu sullo stesso die :D (cioè non facendo il multi-gpu). Oppure rimuovendo in qualche modo, se possibile, la necessità che la cache sia condivisa, cioé facendo in modo che la banda e la latenza dell'interconnessione basti.
Non c'è nessun altra soluzione, un "terzo chip" a far da ponte è solo un illusione ottica (perchè quel chip potrebbe essere integrato negli altri due) e la connessione con gli altri chip soffrirebbe dello stesso problema.
Ma il problema della condivisione della cache mi sembra secondario in questo momento rispetto a quello di condivisione della memoria. L'importante è evitare lo spreco di metà memoria con la duplicazione dei dati. L'eventuale mancata condivisione delle cache si traduce al più in maggiore utilizzo della banda (che nella 4870x2 con GDDr5 sarà cmq mostruosa). La condivisione della cache diventerà un problema da risolvere quando le forme di integrazione saranno diventatate un pò più raffinate di quelle attuali.
Mercuri0
08-07-2008, 13:52
Ma il problema della condivisione della cache mi sembra secondario in questo momento rispetto a quello di condivisione della memoria. L'importante è evitare lo spreco di metà memoria con la duplicazione dei dati.
Ti stavo per rispondere alla seconda parte e hai proprio messo in evidenza quello che volevo farti notare nel tuo ragionamento. :)
Intanto, noi non sappiamo ancora quale sarà il sistema usato dalla 4870x2. Potrebbe essere che alla fine sia più di "1x2 GiB" o anche forse di meno, a causa di overhead introdotto dal "Super"Crossfire. Boh, chissà.
Ma a parte questo, perché dovrebbe essere prioritario evitare lo spreco di metà memoria? Non possiamo saperlo a priori: condividere la memoria lo pagheresti sicuramente in latenza di accesso (o in transistor, o comunque da qualche altra parte)
Perché lo "spreco" di latenza per condividere la memoria non dovrebbe essere considerato? Se la memoria "costa" poco, da progettista "pago" in memoria anziché con qualcos'altro che magari mi costerebbe di più (sia in termini di soldi che di prestazioni). Magari i "costi" un domani potrebbero essere differenti, ma non oggi.
Ma poi scus, è opinione comune che nVidia abbia una gestione della memoria meno efficiente di AMD, cioé "ne spreca" di più, anche per le GPU singole. E questo non le ha impedito di sfornare ottimi prodotti, anzi la sua soluzione alla prova dei fatti era la migliore, e magari proprio per la gestione della memoria...
Infine faccio presente che se il contenuto delle RAM è replicato, e si usa l'AFR, si può considerare il bandwidth praticamente come raddoppiato: 512bit GDDR5. Se la memoria fosse anche parzialmente condivisa, non sarebbe lecito considerare in questo modo il bandwidth.
E visto che i piedini sarebbero comunque 512... sarebbe uno spreco di interconnessioni? :D
L'eventuale mancata condivisione delle cache si traduce al più in maggiore utilizzo della banda (che nella 4870x2 con GDDr5 sarà cmq mostruosa).
La differenza tra la velocità di accesso a una cache e a una memoria esterna è qualche ordine di grandezza mi sa. :D (10? 100?) Non penso le due cose si possano pareggiare.
HackaB321
08-07-2008, 14:37
Ma a parte questo, perché dovrebbe essere prioritario evitare lo spreco di metà memoria? Non possiamo saperlo a priori: condividere la memoria lo pagheresti sicuramente in latenza di accesso (o in transistor, o comunque da qualche altra parte)
Perchè tutte le x2 uscite nell'ultimo anno sono framebuffer limited con 1Gb di ram ad alte risoluzioni. Il divario tra la 280 e la 9800Gx2 ad esempio è funzione crescente (forse anche esponenziale:D ) della risoluzione a cui si gioca, e se uno compra una x2 non penso voglia giocarci a 1280.L'unica soluzione sembra essere quella di usare 2Gb di ram che però hanno un costo per l'utente, specie di GDDR5. Ed è chiaro come le aziende ci marciano su questa cosa visto che molti comprano guardando il quantitativo di ram senza sapere che quel numero va diviso per 2.
Perché lo "spreco" di latenza per condividere la memoria non dovrebbe essere considerato? Se la memoria "costa" poco, da progettista "pago" in memoria anziché con qualcos'altro che magari mi costerebbe di più (sia in termini di soldi che di prestazioni). Magari i "costi" un domani potrebbero essere differenti, ma non oggi.
La latenza va considerata ma la sua importanza è inferiore rispetto ad un quantitativo di memoria che mi limita in modo così evidente. Le GDDR5 ad esmpio hanno una latenza molto maggiore rispetto alle GDDR3, ma alla frequenza a cui vanno (e soprattutto possono andare) nessuno se ne accorge
Ma poi scus, è opinione comune che nVidia abbia una gestione della memoria meno efficiente di AMD, cioé "ne spreca" di più, anche per le GPU singole. E questo non le ha impedito di sfornare ottimi prodotti, anzi la sua soluzione alla prova dei fatti era la migliore, e magari proprio per la gestione della memoria...
ha sfornato buoni prodotti NONOSTANTE una gestione della memoria meno efficiente. E mi riferisco soprattutto a G92 che aveva nella gestione della memoria il primo fattore limitante e anche a GT200 che ha un' accoppiata GDDR3+512bit non certo efficientissima.
Infine faccio presente che se il contenuto delle RAM è replicato, e si usa l'AFR, si può considerare il bandwidth praticamente come raddoppiato: 512bit GDDR5. Se la memoria fosse anche parzialmente condivisa, non sarebbe lecito considerare in questo modo il bandwidth.
vero ma la banda non è un problema con le GDDR5 anche se R700 fosse (e non sarà di certo) una gpu unica. Basta vedere la 4870 singola che non è praticamente mai limitata dalla banda passante.
La differenza tra la velocità di accesso a una cache e a una memoria esterna è qualche ordine di grandezza mi sa. :D (10? 100?) Non penso le due cose si possano pareggiare.
Certo e un cache miss può portare via anche centinaia di cicli di clock prima che il risultato del conseguente accesso alla memoria sia disponibile (anche se le moderne gpu riescono ad ovviare a questo problema con una schedulazione sempre più efficiente e complessa dei threads attivi). Ma infatti non sto dicendo che una condivisione della cache sia cosa da buttare anzi. Dico soltanto che, allo stato attuale delle cose, è come costruire una casa partendo dal tetto.:D
yossarian
08-07-2008, 14:41
Tra l'altro, leggiucchiando qui e là senza capirci troppo, m'è sembrato che il problema di "fare funzionare due GPU come una", o meglio fare renderizzare lo stesso frame senza cali d'efficienza, non sia tanto di condividere la memoria, ma di condividere la cache.
Ora, la cache è solo "memoria" messa dentro al chip per essere più veloce. Se devi "condividerla" fra più chip perde la ragion d'essere :)
Quindi a meno di cambiamenti sostanziali da qualche parte (API? Architettura? Videogiochi? - che so, magari in futuro potrebbero condividere gli SP ma non le TMU e ROP) l'AFR è la soluzione per il tempo a venire.
Tra l'altro, la "compatibilità" è un falso problema tecnico. Basta che facciano i giochi e di driver compatibili :D Piuttosto l'"input lag" potrebbe essere un fattore limitante quando si comincia ad aumentare il numero di GPU in maniera significativa.
Postilla: a dire il vero, i Core Quad di lntel riescono a condividere un livello di cache tra i die. Però...
- l'architettura è diversa e alla lntel, bisogna riconoscerlo, con la cache sono maestri
- sono su MCM - che perderebbe metà dei vantaggi del multi-GPU
- I Nehalem li fanno single die. ;)
non è corretto: la cache non è solo memoria interna e non è necessariamente memoria interna, ma memoria interna o esterna che ha la caratteristica di avere ogni blocco è associabile ad un blocco della ram di sistema (o della vram per le vga) (associazione semplice, poco usata perchè semplice da implementare ma poco efficiente, in quanto soggetta ad elevato rischio di cache miss), a più blocchi della ram di sistema (set associative o n-way associative cache, spesso utilizzata con algoritmi di tipo predittivo per diminuire il rischio di cache miss), a tutti i blocchi della ram diu sistema (fully assciative, più complessa ma che rende praticamente nullo il rischio di cache miss). Il livello di cache condiviso nei quad core intel è esterno ai core stessi.
Ci sono 4 tipi di memoria utilizzati, ciascuno con caratteristiche e funzioni differenti: ram, cache, buffer e registri.
Il problema della condivisione della cache per un multigpu sarebbe un problema minore una volta trovato il modo per le gpu di "dialogare" via hardware. Nel passaggio da R600 a RV770 si è verificato un passaggio opposto da texture cache condivise a texture cache non condivise tra i vari SIMD e texture block.
con l'architettura dei MC di RV770 non sarebbe stato utile avere 2 livelli di texture cache condivisi. Molto meglio 4 cache dedicate ai MC di tipo fully associative e una cache dedicata per ogni gruppo di 4 tmu. In questo modo le 10 cache dedicate alle tmu sono ciascuna in comunicazione con ognuna delle 4 cache dei MC attraverso il crossbar. Per ogni accesso alla ram per caricare una texture, la richiesta di dma viene inoltrata al primo MC che ha spazio nel queue buffer; questo inoltra la richiesta alla ram di sistema che invia il dato richiesto alla cache del MC da cui viene inviato a quella della tmu che lo ha richiesto.
Il problema è sempre quello: non sono ancora in grado di creare una gpu che ampli il parallelismo di calcolo da un livello di cluster ad un livello (anche) di core senza la necessità di gravare solo sui driver nel processo di bilanciamento del carico.
il meccanismo descritto sopra si integra perfettamente in un'architettura in grado di autobilanciare i carichi di lavoro.
Credo ci sia un'equivoco di fondo: R600, RV670, RV770, così come tutti i chip della serie G8x, G9x e GT2x0, e come pure R500, sono perfettamente in grado di auto bilanciare i carichi di lavoro. Quello che camcsia è il modo di gestire il parallelismo. Con il bilanciamento dei carichi i driver non c'entrano niente.
E comunque mi resta da capire perchè se la memoria è condivisa sembra comunque sempre necessario che i dati di ogni frame vengano duplicati nel framebuffer. Se la texture A viene caricata in una memoria condivisa ed è necessaria sia per renderizzare il frame 1 che il frame 2, perchè le due gpu non possono prelevarla entrambe dalla memoria senza bisogno che essa venga scritta due volte? A quel punto la cache può anche essere separata e le texel necessarie al mapping quindi duplicate nelle cache di ogni gpu, l'impatto sulle performance sarebbe certamente minore rispetto a due framebuffer che stanno lì a fare la stessa cosa 2 volte.
per inizializzare un dma si ha bisogno di avere almeno l'indirizzo del primo blocco di memoria a cui accedere e, solitamente, questo è contenuto in una memoria di tipo cached (e non, ad esempio, in una ram locale, motivo per cui i spe del cell non possono inizializzare un dma ma deve farlo, per loro, il ppe che ha una memoria di tipo cached)
HackaB321
08-07-2008, 15:44
il meccanismo descritto sopra si integra perfettamente in un'architettura in grado di autobilanciare i carichi di lavoro.
Credo ci sia un'equivoco di fondo: R600, RV670, RV770, così come tutti i chip della serie G8x, G9x e GT2x0, e come pure R500, sono perfettamente in grado di auto bilanciare i carichi di lavoro. Quello che camcsia è il modo di gestire il parallelismo. Con il bilanciamento dei carichi i driver non c'entrano niente.
Mi riferivo soprattutto al bilanciamento di carico tra due gpu nel multi-gpu attuale dove il "chi fa cosa" è stabilito nei driver. Credo cmq di aver capito la tua precisazione riferita ad una singola gpu: un dispatch processor di una moderna gpu è in grado in automatico di bilanciare il workload tra i cluster gestendo in automatico l'ordine di priorità dei threads (anche se suppongo che i principi che sono alla base di questo meccanismo possono essere affinati via driver), mentre il parallelismo (cioè il modo in cui i thread sono assemblati per estrarre, nel caso di R600, il massimo ILP) viene direttamente gestito dai driver.
per inizializzare un dma si ha bisogno di avere almeno l'indirizzo del primo blocco di memoria a cui accedere e, solitamente, questo è contenuto in una memoria di tipo cached (e non, ad esempio, in una ram locale, motivo per cui i spe del cell non possono inizializzare un dma ma deve farlo, per loro, il ppe che ha una memoria di tipo cached)
questo spiega perchè è necessario duplicare le informazioni nella cache delle 2 gpu non nel framebuffer. Se le due gpu hanno un accesso indipendente ai dati di un'unica memoria condivisa è necessario secondo te, usando l'AFR, che i dati di ogni frame siano scritti due volte in memoria come accade adesso con framebuffer separati?
yossarian
08-07-2008, 16:06
Mi riferivo soprattutto al bilanciamento di carico tra due gpu nel multi-gpu attuale dove il "chi fa cosa" è stabilito nei driver. Credo cmq di aver capito la tua precisazione riferita ad una singola gpu: un dispatch processor di una moderna gpu è in grado in automatico di bilanciare il workload tra i cluster gestendo in automatico l'ordine di priorità dei threads (anche se suppongo che i principi che sono alla base di questo meccanismo possono essere affinati via driver), mentre il parallelismo (cioè il modo in cui i thread sono assemblati per estrarre, nel caso di R600, il massimo ILP) viene direttamente gestito dai driver.
si può fare in HW anche tra due o più gpu; in tal caso, o si fa uso di un thread dispatch processor esterno, oppure una delle gpu funge da master utilizzando l'altra o le altre come slave
questo spiega perchè è necessario duplicare le informazioni nella cache delle 2 gpu non nel framebuffer. Se le due gpu hanno un accesso indipendente ai dati di un'unica memoria condivisa è necessario secondo te, usando l'AFR, che i dati di ogni frame siano scritti due volte in memoria come accade adesso con framebuffer separati?
per far avere accesso indipendente alla vram da parte delle due gpu, bisognerà gestire la comunicazione in maniera diversa dall'attuale; in tal caso o si avrà un dispatch processor esterno con relativi buffer e cache, oppure una delle due farà da master e non sarà, comunque, necessario duplicare i dati all'interno del fb
Mercuri0
08-07-2008, 20:17
non è corretto: la cache non è solo memoria interna e non è necessariamente memoria interna ...
Lo zo che il termine "cache" indica una funzione logica e non una caratteristica fisica di una memoria, ma nel mio post precedente non credo che ci fosse ambiguità, su una scheda grafica una memoria usata come cache della RAM della GPU, fisicamente può stare solo all'interno del chip.
Il livello di cache condiviso nei quad core intel è esterno ai core stessi.
Zi ma qui è "core" che rappresenta una zona "logica", mentre io mi riferivo a "die", che è una cosa che si tocca :D
Il livello di cache condiviso nei Quad di lntel è sempre sullo stesso die, anche se la condivisione è anche possibile tra i due die. Che però sono vicini, e su un supporto che consente una maggior velocità e minor latenza rispetto a un PCB, come avevo accennato.
Non volevo entrare troppo nei dettagli architetturali (anche perché ci capisco un tubo). facevo solo presente che il limite del multi-gpu -l'interconnessione lenta e a latenza alta tra i chip- è da tenere in considerazione, e può essere un fattore limitante per la scelta dell'architettura per il multi-gpu, sopratutto se le parti che bisogna condividere adesso stanno dentro il chip.
Non le si può "portare fuori" (o condividere) senza fare i conti senza l'oste: la velocità dell'interconnessione.
per inizializzare un dma si ha bisogno di avere almeno l'indirizzo del primo blocco di memoria a cui accedere e, solitamente, questo è contenuto in una memoria di tipo cached (e non, ad esempio, in una ram locale, motivo per cui i spe del cell non possono inizializzare un dma ma deve farlo, per loro, il ppe che ha una memoria di tipo cached)
Devo essermi perso l'evoluzione dei dma in questi anni (è sempre il buon vecchio direct memory access? :confused: ) Cosa si intende per dma nelle GPU?
Invece nel caso del Cell, giusto per cincischiare, se avevo capito bene l'operazione di "dma" a cui ci riferisce è la copia veloce del contenuto della memoria locale da una SPE all'altro, una sorta di dma "interno". Googlando un pò si trova una pagina dettagliata di IBM a proposito http://www.ibm.com/developerworks/power/library/pa-celldmas/
Da quel che c'è scritto mi pare che anche le SPE possano inizializzare l'operazione facendo richiesta al controller di memoria (che è esterno alla PPE, a vedere i disegnini :D )
Del resto lo SpursEngine di Toshiba la PPE 'un ce la proprio, e qualche modo per fare il dma deve esserci comunque.
ma le avete costruite voi qua sopra le schede?
:D
tutti ing o appassionati? :D
michelgaetano
08-07-2008, 20:44
ma le avete costruite voi qua sopra le schede?
:D
tutti ing o appassionati? :D
So solo che mi fanno paura :asd:
yossarian
08-07-2008, 21:32
Lo zo che il termine "cache" indica una funzione logica e non una caratteristica fisica di una memoria, ma nel mio post precedente non credo che ci fosse ambiguità, su una scheda grafica una memoria usata come cache della RAM della GPU, fisicamente può stare solo all'interno del chip.
chi lo dice? Una cache ha la caratteristica particolare di avere una "mappatura interna" a cui corrisponde una mappatura della ram di sistema. La sua collocazione all'interno o al di fuori del chip non è importante ai fini della sua definizione. Il fatto di metterla all'interno è solo per questioni pratiche di collegamenti; se ho una cache condivisa da alcune unità interne al chip e non da altre, sarebbe problematico allocarla all'esterno e creare dei collegamenti solo con quelle unità. Viceversa, se ho una cache condivisa tra più chip posso anche metterla all'esterno.
Zi ma qui è "core" che rappresenta una zona "logica", mentre io mi riferivo a "die", che è una cosa che si tocca :D
Il livello di cache condiviso nei Quad di lntel è sempre sullo stesso die, anche se la condivisione è anche possibile tra i due die. Che però sono vicini, e su un supporto che consente una maggior velocità e minor latenza rispetto a un PCB, come avevo accennato.
il fatto che sia sullo stesso die non significa che sia interna ai core; in un quad i core sono unità fisiche separate, ognuna delle quali replica l'architettura delle altre. La cache condivisa è sul die ma esterna ai core. La velocità d'accesso e le latenze dipendono dalla tipologia dei canali di collegamento a dall'ampiezza della banda passante.
Non volevo entrare troppo nei dettagli architetturali (anche perché ci capisco un tubo). facevo solo presente che il limite del multi-gpu -l'interconnessione lenta e a latenza alta tra i chip- è da tenere in considerazione, e può essere un fattore limitante per la scelta dell'architettura per il multi-gpu, sopratutto se le parti che bisogna condividere adesso stanno dentro il chip.
Non le si può "portare fuori" (o condividere) senza fare i conti senza l'oste: la velocità dell'interconnessione.
infatti bisogna vedere cosa si vuole condividere; se si tratta semplicemente di creare un collegamento tra le due gpu che sia gestito in "automatico" si deve ricreare un'architettura analoga a quella interna che gestisce i vari cluster, con un arbiter con i suoi buffer in cui allocare le richieste di accesso alla ram condivisa e, possibilmente, una cache, anch'essa condivisa, possibilmente di tipo fully associative verso la vram.
Devo essermi perso l'evoluzione dei dma in questi anni (è sempre il buon vecchio direct memory access? :confused: ) Cosa si intende per dma nelle GPU?
anche all'interno delle gpu gli accessi alla vram sono gestiti tramite dma; ogni cluster di sp può inviare un certo numero di richieste di accesso alla vram che sono immagazzinate in un queue buffer gestito dal MC,
Invece nel caso del Cell, giusto per cincischiare, se avevo capito bene l'operazione di "dma" a cui ci riferisce è la copia veloce del contenuto della memoria locale da una SPE all'altro, una sorta di dma "interno". Googlando un pò si trova una pagina dettagliata di IBM a proposito http://www.ibm.com/developerworks/power/library/pa-celldmas/
Da quel che c'è scritto mi pare che anche le SPE possano inizializzare l'operazione facendo richiesta al controller di memoria (che è esterno alla PPE, a vedere i disegnini :D )
possono iniziare un dma, non inizializzarlo; nel cell si hanno 2 tipi di dma: quello che trasferisce dati da una memoria locale ad un'altra e quello che trasferisce dati da una memoria locale a quella centrale e viceversa. I spe hanno una ram locale non di tipo cached; questo da un lato è un vantaggio, perchè una ram di tipo cached, a meno che non si tratti di una cache di tipo fully associative, permette, per ogni blocco, l'associazione solo con un numero limitato di blocchi della ram centrale, mentre una memoria non cached è molto più flessibile; il contro è che una memoria non cached non ha associato alcun indirizzo della ram centrale e, di conseguenza, è da assimilarsi ad una pagina bianca. Se carichi un task su un spe e non gli fornisci almeno l'indirizzo del primo blocco di memoria in cui andarsi a cercare i dati un spe non potrà mai iniziare un dma.
Perciò, quando si carica ìno delle istruzioni in un spe bisogna anche fornirgli gli indirizzi che gli servono (e può farlo il ppe o chiunque altro li abbia a disposizione). A quel punto il MFC del SPE può iniziare il dma inviando la richiesta di accesso all'arbiter del ring bus del cell; l'arbiter ha un queue buffer in cui immagazzina tutti i dma ricevuti dai spe e/o dal ppe e decide le priorità. Questa operazione è gestita in modalità rigorosamente out of order.
Del resto lo SpursEngine di Toshiba la PPE 'un ce la proprio, e qualche modo per fare il dma deve esserci comunque.
se lo spursengine è adoperato come coprocessore è probabile che sia il processore del sistema a inizializzare i dma.
Vedendo che in questo thread ci sono molti esperti ne approfitto per fare una domanda:
dovendo usare più monitor contemporaneamente, due schede video non connesse in crossfire accellererebbero ciascuna per conto proprio il 3D o il lavoro sarebbe demandato ad una sola mentre l'altra avrebbe solo compiti di visualizzazione?
In modalità crossfire è possibile usare entrambe le uscite di DVI di una scheda video ATi o si è limitati solo ad una?
Grazie:)
HackaB321
09-07-2008, 08:55
da un rumor su Chiphell pare che RV730 sarà uguale ad una 3850 overcloccata con in più le migliorie della nuova architettura. Quindi la 3850, se così sarà, uscirà di produzione a breve
http://img78.imageshack.us/img78/7849/ef250f639f6a4f95a8c475dgz9.th.jpg (http://img78.imageshack.us/my.php?image=ef250f639f6a4f95a8c475dgz9.jpg)
Mercuri0
09-07-2008, 09:00
Uao che discorsi fighi :D
chi lo dice? Una cache ha la caratteristica particolare di avere una "mappatura interna" a cui corrisponde una mappatura della ram di sistema. La sua collocazione all'interno o al di fuori del chip non è importante ai fini della sua definizione. Il fatto di metterla all'interno è solo per questioni pratiche di collegamenti;
Yoss mi sa che hai un background più informatico che elettronico, nevvero? ;)
Le "questioni pratiche di collegamenti" sono una delle due ragioni per cui la cache esiste!
L'altra è che nelle memorie cache si preferisce la velocità alla densità. Non ci sono altri motivi per cui si usano.
Se non ci fossero questioni pratiche di collegamenti, potremmo felicemente fare a meno di usare cache, per la gioia di tutti. La "cache" è una delle scocciature che gli elettronici sono costretti a passare agli informatici.
I collegamenti sono estremamente importanti per l'accesso a una memoria (qualunque sia la sua funzione logica), perché la latenza e la banda che puoi ottenere aumentano mano a mano che accorci le interconnessioni e usi un substrato a bassa capacità.
Più il filo è lungo e la strada brutta, più vai lento :D Le capacità riducono le frequenze massime che puoi usare, a meno di non spararci correnti enormi, e hai alte latenze: gli elettroni, poretti, ci mettono un pò ad arrivare. (a dire il vero non sono gli elettroni ma è il campo elettromagnetico. Sempre pòretto, però)
In una scheda video se vuoi fare una zona di memoria più veloce della RAM, è ovvio che ce la metti dentro il chip :) Non è l'unica soluzione, eh, ma sicuramente la migliore finché ti basta lo spazio nel chip.
Se una memoria cache è più lenta della memoria a cui si riferisce, la cache perde la sua ragion d'essere.
il fatto che sia sullo stesso die non significa che sia interna ai core; in un quad i core sono unità fisiche separate, ognuna delle quali replica l'architettura delle altre. La cache condivisa è sul die ma esterna ai core. La velocità d'accesso e le latenze dipendono dalla tipologia dei canali di collegamento a dall'ampiezza della banda passante.
Ma anche dalla lunghezza dei collegamenti e dal materiale su cui ci passano. Per questo non mi interessava che fosse "esterna al core", purché sia sullo stesso die.
L'essere "esterna al core" riduce un pò la velocità, erò essere esterna al die è molto peggio, anche sen ei Core, i die sono saldati su un supporto particolare, non sul normale PCB.
I spe hanno una ram locale non di tipo cached; questo da un lato è un vantaggio
Ma non è strano che la ram locale degli SPE non abbia cache, perché essendo dentro al chip è già abbastanza veloce. (anche se probabilmente un livello di cache di qualche Kb ce l'hanno)
Quello che ha di particolare il Cell è che quella memoria non sia usata come cache della RAM di sistema, ma proprio come memoria locale che quindi deve essere gestita dal programmatore/compilatore in maniera non trasparente.
Curiosamente invece Larrabee non avrà memorie locali - o almeno, niente come il Cell - ma solo cache. Questo lo renderà più facile da programmare, ma probabilmente richiederà un enorme banda alla RAM. Chi funzionerà meglio tra Cell e Larrabee? Lo scopriremo nella prossima puntata. Magari a fine anno IBM tira fuori un Cell con 32 SPE. :cool:.
possono iniziare un dma, non inizializzarlo
Qualunque sia la differenza tra i due termini, penso di averla confusa. :D
se lo spursengine è adoperato come coprocessore è probabile che sia il processore del sistema a inizializzare i dma.
Lo SpursEngine lo usano anche nelle TV probabilmente come unico processore. Comunque mantiene il memory controller.
AMD commentando Roadrunner diceva che la PPE è un fattore limitante del Cell. Come dire, "meglio GPU + Opteron che Cell + Opteron" :asd:. E forse AMD non ha tutti i torti, il Cell con PPE è più flessibile ma finirà per essere utilizzato solo come coprocessore (eccetto che nella PS3). Tanto valeva togliere la PPE, come ha fatto Toshiba.
La cache dei Pentium II stava sul PCB che poi si connetteva al resto del sistema tramite Slot 1, e non nel die. Questa soluzione funzionava senza alcun problema, perché non dovrebbe essere possibile per una GPU?
E' solo un discorso di velocità, (e di spazio nel die) evidentemente al Pentium II bastava.
E io non ho detto che non sia possibile per una GPU - ma che forse richiederebbe un "PCB" particolare che farebbe perdere metà dei vantaggi del multi-GPU.
La controprova invece è l'Itanium, che pur avendo oltre il 50% della die superficie del coperta da memoria usata come cache, la mantiene all'interno, invece di averci un die esterno. Come anche i Barcellona, i futuri Shangai, i Nehalem... Se potessero usare un die esterno per la cache molto probabilmente lo farebbero.
Magari anche il solo numero di collegamenti richiesti rende difficile uscire dal die. Uscire da un die per un segnale elettrico è un mezzo trauma :)
leoneazzurro
09-07-2008, 10:40
da un rumor su Chiphell pare che RV730 sarà uguale ad una 3850 overcloccata con in più le migliorie della nuova architettura. Quindi la 3850, se così sarà, uscirà di produzione a breve
http://img78.imageshack.us/img78/7849/ef250f639f6a4f95a8c475dgz9.th.jpg (http://img78.imageshack.us/my.php?image=ef250f639f6a4f95a8c475dgz9.jpg)
CVD. Mi sembrava di averlo pronosticato :D Il die potrebbe essere anche leggermente più piccolo di RV670, e le prestazioni saranno molto limitate dalla banda (sarebbe interessante vedere un chip del genere con GDDR5, ma dubito che almeno inizialmente lo si vedrà) ma dovrebbero essere tutto sommato buone (IMHO minori delle 3850 nella amggior parte dei casi ma non troppo distanti, ad alte risoluzioni il divario si accentuerà)
Uao che discorsi fighi :D
Yoss mi sa che hai un background più informatico che elettronico, nevvero? ;)
Le "questioni pratiche di collegamenti" sono una delle due ragioni per cui la cache esiste!
L'altra è che nelle memorie cache si preferisce la velocità alla densità. Non ci sono altri motivi per cui si usano.
Adesso Yoss ti mena e c'ha pure ragione :fagiano:
HackaB321
09-07-2008, 11:02
CVD. Mi sembrava di averlo pronosticato :D Il die potrebbe essere anche leggermente più piccolo di RV670, e le prestazioni saranno molto limitate dalla banda (sarebbe interessante vedere un chip del genere con GDDR5, ma dubito che almeno inizialmente lo si vedrà) ma dovrebbero essere tutto sommato buone (IMHO minori delle 3850 nella amggior parte dei casi ma non troppo distanti, ad alte risoluzioni il divario si accentuerà)
Azz non avevo mica visto il bus a 128bit.
Quei 320sp sono un pò buttati al vento con 32G/sec di banda.
La Paura
09-07-2008, 11:11
Scusate ma forse mi è sfuggito qualche dettaglio: quando è prevista l'uscita di questo gioiello e più che prezzi avrà?
Azz non avevo mica visto il bus a 128bit.
Quei 320sp sono un pò buttati al vento con 32G/sec di banda.
Beh però ne gestiscono bene 800 con 64 gb/s.. magari con il nuovo MC 32 gb/s non sono un limite a risoluzioni convenzionali.
Mi chiedo a questo punto che denomicazione avrà RV740, che dovrebbe competere con la 9600GT e successive schede. HD4750/70?
Scusate ma forse mi è sfuggito qualche dettaglio: quando è prevista l'uscita di questo gioiello e più che prezzi avrà?
la morte nera è attesa nel mese di agosto... forse seconda meta' , probabile commercializzazione inizi settembre.... anche se spero prima :D
CVD. Mi sembrava di averlo pronosticato :D Il die potrebbe essere anche leggermente più piccolo di RV670, e le prestazioni saranno molto limitate dalla banda (sarebbe interessante vedere un chip del genere con GDDR5, ma dubito che almeno inizialmente lo si vedrà) ma dovrebbero essere tutto sommato buone (IMHO minori delle 3850 nella amggior parte dei casi ma non troppo distanti, ad alte risoluzioni il divario si accentuerà
HD4670 con GDDR5, un po' come con le HD2600 XT che avevano GDDR4. :)
gianni1879
09-07-2008, 12:49
HD4670 con GDDR5, un po' come con le HD2600 XT che avevano GDDR4. :)
probabile che la faranno, sicuramente una vga del genere andrebbe decisamente meglio della hd3870, e quindi superare agevolmente la 9600gt, ma a quanto le venderanno 100€ per la HD4670 e 80€ per HD4650?
yossarian
09-07-2008, 13:34
Uao che discorsi fighi :D
Yoss mi sa che hai un background più informatico che elettronico, nevvero? ;)
non mi risulta, però magari mi informo meglio :D
Le "questioni pratiche di collegamenti" sono una delle due ragioni per cui la cache esiste!
L'altra è che nelle memorie cache si preferisce la velocità alla densità. Non ci sono altri motivi per cui si usano.
la velocità dipende da diversi fattori e uno dei più importanti è la densità o meglio la densità giusta per bilanciare la necessità di rendere più rapido un cache hit e quella di ridurre al minimo il rischio di cache miss. Una cache deve contenere, per essere "veloce" tutti i dati ad accesso più frequente, in moido da ridurre i tempi di ricerca. Perchè ciò sia possibile, i blocchi all'interno di una cache non devono né essere pochi e di grandi dimensioni, perchè in tal modo li si potrebbero abbinare solo ad un numero ridotto di locazioni della memoria centrale e neppure piccoli e molto densi, perchè altrimenti avresti una buona "copertura" in fatto di abbinamenti ma ogni blocco della cache potrebbe contenere solo un numero limitato di dati. Quindi, in entrambi i casi, si può verificare un elevato rischio di cache miss.
Una cache ben dimensionata dà una velocità di accesso superiore alla ram sioprattutto perchè si perde meno tempo nella ricerca. Nelle cpu si usano più livelli di cache perchè, solitamente, L1 è di tipo a mappatura diretta per ridurre i tempi di cache hit; però una cache a mappatura diretta aumenta il rischio di cache miss, quindi si ha bisogno di più livelli per non dover, in caso di cache miss, accedere alla ram per cercare i dati. Per cui, gli altri livelli sono solitamente di tipo set associative abbinate ad algoritmi di tipo predittivo.
Altro motivo per cui una cache è più veloce è che si usa memoria di tipo sram anzichè sdram, il che riduce i tempi di accesso di circa un ordine di grandezza.
Se non ci fossero questioni pratiche di collegamenti, potremmo felicemente fare a meno di usare cache, per la gioia di tutti. La "cache" è una delle scocciature che gli elettronici sono costretti a passare agli informatici.
per quale motivo sarebbe una scocciatuura?
I collegamenti sono estremamente importanti per l'accesso a una memoria (qualunque sia la sua funzione logica), perché la latenza e la banda che puoi ottenere aumentano mano a mano che accorci le interconnessioni e usi un substrato a bassa capacità.
Più il filo è lungo e la strada brutta, più vai lento :D Le capacità riducono le frequenze massime che puoi usare, a meno di non spararci correnti enormi, e hai alte latenze: gli elettroni, poretti, ci mettono un pò ad arrivare. (a dire il vero non sono gli elettroni ma è il campo elettromagnetico. Sempre pòretto, però)
In una scheda video se vuoi fare una zona di memoria più veloce della RAM, è ovvio che ce la metti dentro il chip :) Non è l'unica soluzione, eh, ma sicuramente la migliore finché ti basta lo spazio nel chip.
Se una memoria cache è più lenta della memoria a cui si riferisce, la cache perde la sua ragion d'essere.
Ma anche dalla lunghezza dei collegamenti e dal materiale su cui ci passano. Per questo non mi interessava che fosse "esterna al core", purché sia sullo stesso die.
L'essere "esterna al core" riduce un pò la velocità, erò essere esterna al die è molto peggio, anche sen ei Core, i die sono saldati su un supporto particolare, non sul normale PCB.
è ovvio che una cache interna sia più veloce di una sullo stesso die che, a sua volta, è più veloce di una su pcb; però è anche vero che non è detto che i collegamenti debbano essere così lunghi e contorti e che non si possa usare, ad esempio, memoria sram anzichè sdram. Inoltre, ho detto "esterna alle gpu" ma non "per conto suo sul pcb". Si tratterebbe di una cache funzionale soprattutto all'eventuale dispatch processor che dovrebbe gestire il funzionamento delle due gpu e sarebbe posizionata sullo stesso die di quest'ultimo.
Ma non è strano che la ram locale degli SPE non abbia cache, perché essendo dentro al chip è già abbastanza veloce. (anche se probabilmente un livello di cache di qualche Kb ce l'hanno)
il fatto che sia veloce non serve a nulla se non contiene informazioni sugli indirizzi da fornire al MC per iniziare il DMA. Una memoria non cached non ha mappatura interna corrispondente alla ram di sistema e, di conseguenza, non può contenere indirizzi, a meno che qualcuno non glieli fornisca. Quando inizi un dma devi fornire al MC almeno l'indirizzo del primo blocco di memoria a cui devi accedere. Non mi risulta che i spe abbiano KB di cache interna. Hanno invece dei registri di controllo su cui il ppe carica gli indirizzi dei blocchi di ram di sistema relativi ai task che il spe deve eseguire.
Quello che ha di particolare il Cell è che quella memoria non sia usata come cache della RAM di sistema, ma proprio come memoria locale che quindi deve essere gestita dal programmatore/compilatore in maniera non trasparente.
in tal caso deve essere il compilatore a fornire gli indirizzi della ram di sistema; come vedi, avere una ram locale al posto di una cache è ancora peggio (per i programmatori)
Curiosamente invece Larrabee non avrà memorie locali - o almeno, niente come il Cell - ma solo cache. Questo lo renderà più facile da programmare, ma probabilmente richiederà un enorme banda alla RAM. Chi funzionerà meglio tra Cell e Larrabee? Lo scopriremo nella prossima puntata.
è il cell ad essere particolare: le cache sono la regola (sia nelle cpu che nelle gpu), la memoria locale è una cosa abbastanza rara; per il cell può andar bene che ci sia della ram locale al posto della cache; per una cpu GP usare ram locale al posto della cache sarebbe controproducente.
Magari a fine anno IBM tira fuori un Cell con 32 SPE. :cool:.
considerate le difficoltà che hanno nel gestire il traffico di dati nel ring bus con soli 8 spe, la vedo molto difficile :D
Qualunque sia la differenza tra i due termini, penso di averla confusa. :D
inizializzare un dma significa mettersi (o mettere) in condizione di avere a disposizione le istruzioni necessarie e i relativi indirizzi di memoria. Iniziare un dma significa fare richiesta di accesso alla memoria fornendo gli indirizzi relativi (quindi è il passo successivo).
Lo SpursEngine lo usano anche nelle TV probabilmente come unico processore. Comunque mantiene il memory controller.
non credo che sia l'unico processore e, comunque, all'interno di un TV è usato come dsp (o come cluster di dsp, per essere più precisi, visto che ogni spe può assimilarsi ad un dsp). Vorrei vedere che non avessero conservato il MC; in caso contrario mi sarei divertito a vedere come avrebbero organizzato anche solo la gestione del traffico di dati all'interno del bus :D
AMD commentando Roadrunner diceva che la PPE è un fattore limitante del Cell. Come dire, "meglio GPU + Opteron che Cell + Opteron" :asd:. E forse AMD non ha tutti i torti, il Cell con PPE è più flessibile ma finirà per essere utilizzato solo come coprocessore (eccetto che nella PS3). Tanto valeva togliere la PPE, come ha fatto Toshiba.
se lo usi come coprocessore può avere senso togliere il ppe; se lo usi come dsp puoi anche togliere il ppe; se lo usi come cpu (come in ps3) il ppe è opportuno tenerlo, magari non facendogli gestire per intero i dma ma limitandosi solo all'inizializzazione degli stessi.
E' solo un discorso di velocità, (e di spazio nel die) evidentemente al Pentium II bastava.
E io non ho detto che non sia possibile per una GPU - ma che forse richiederebbe un "PCB" particolare che farebbe perdere metà dei vantaggi del multi-GPU.
La controprova invece è l'Itanium, che pur avendo oltre il 50% della die superficie del coperta da memoria usata come cache, la mantiene all'interno, invece di averci un die esterno. Come anche i Barcellona, i futuri Shangai, i Nehalem... Se potessero usare un die esterno per la cache molto probabilmente lo farebbero.
Magari anche il solo numero di collegamenti richiesti rende difficile uscire dal die. Uscire da un die per un segnale elettrico è un mezzo trauma :)
su RV770 lo shader core ha la possibilità, qualora fosse necessario, di accedere direttamente alla vram senza dover caricare i dati nei registri; i tempi di accesso ad una cache esterna sarebbero comunque inferiori rispetto a quelli necessari per accedere alla ram di sistema. CPU, ram e schede varie sono installate su socket (e non saldate), il che, dal punto di vista "elettrico" è anche peggio; eppure i segnali elettrici viaggiano tranquillamente senza particolari traumi :D. Xenos (o R500), ha 10 MB di eDRAM come frame buffer su un die separato posto nello stesso package del chip "parent" su cui sono integrate anche le rop's o RBE che dir si voglia, ovvero un elemento funzionale di un chip grafico. Eppure non mi pare funzioni male, anzi ha permesso di ottimizzare la banda passante con le rop's, portandola a 256 GB/s (a detta dei programmatori che lavorano su x360, l'unico limite dell'eDRAM è che ce ne vorrebbe di più)
yossarian
09-07-2008, 14:07
Vedendo che in questo thread ci sono molti esperti ne approfitto per fare una domanda:
dovendo usare più monitor contemporaneamente, due schede video non connesse in crossfire accellererebbero ciascuna per conto proprio il 3D o il lavoro sarebbe demandato ad una sola mentre l'altra avrebbe solo compiti di visualizzazione?
In modalità crossfire è possibile usare entrambe le uscite di DVI di una scheda video ATi o si è limitati solo ad una?
Grazie:)
http://www.amd.com/us-en/0,,3715_15532_15533,00.html
vedi se può esserti utile (guarda l'M780G)
Mercuri0
09-07-2008, 15:14
non credo :D
la velocità dipende da diversi fattori e uno dei più importanti è la densità
Mi riferivo a "densità" in termini di spazio sul chip (cioé implicitamente al fatto che fosse sram anziché dram. E "sram" fatta con transistor grossi quanto serve)
per quale motivo sarebbe una scocciatuura?
In effetti è una scocciatura più per gli elettronici :D
O al massimo per chi programma i compilatori. Però qualche volta ho visto gente preoccuparsi di far stare i suoi dati nella cache della CPU.
Inoltre, ho detto "esterna alle gpu" ma non "per conto suo sul pcb". Si tratterebbe di una cache funzionale soprattutto all'eventuale dispatch processor che dovrebbe gestire il funzionamento delle due gpu e sarebbe posizionata sullo stesso die di quest'ultimo.
Non cambia granché dove sia la cache, se la gpu per accedere deve passare per il PCB. (sempre che la GPU debba accedervi)
Una memoria non cached
Non capisco come usi il termine "cached". Una memoria cache non è una memoria "cached". Pensavo che il termine "cached memory" si riferisse alle porzioni di memoria presenti in un certo momento nella cache, o al fatto che la memoria fosse accessibile mediante una memoria cache. La memoria cache non è "cached".
è il cell ad essere particolare: le cache sono la regola (sia nelle cpu che nelle gpu), la memoria locale è una cosa abbastanza rara; per il cell può andar bene che ci sia della ram locale al posto della cache; per una cpu GP usare ram locale al posto della cache sarebbe controproducente.
Eh ma il Cell rappresenta un antecedente a Larrabee, che ha lo stesso scopo. Quindi è l'lntel ad aver scelto una soluzione differente da IBM per risolvere lo stesso problema, perciò "curiosamente".
considerate le difficoltà che hanno nel gestire il traffico di dati nel ring bus con soli 8 spe, la vedo molto difficile :D
Se il Cell non può scalare gli SPE il progetto è bell'e'fallito.
se lo usi come coprocessore può avere senso togliere il ppe; se lo usi come dsp puoi anche togliere il ppe; se lo usi come cpu (come in ps3) il ppe è opportuno tenerlo, magari non facendogli gestire per intero i dma ma limitandosi solo all'inizializzazione degli stessi.
Zi, implicitamente intendevo che nella PS3 hanno fatto una cavolata ad usare il Cell, e che il posto futuro del Cell è come coprocessore, a quanto pare. Si vedrà
CPU, ram e schede varie sono installate su socket (e non saldate), il che, dal punto di vista "elettrico" è anche peggio; eppure i segnali elettrici viaggiano tranquillamente senza particolari traumi :D
Che ne sai... dopo quello che passano a venir sparati fuori dalla circuteria che pilota i pad, quando arrivano a destinazione gli ci vuole lo psicologo :D
esteticamente questa scheda video e' bellissima full nera,sembra la scheda video di dart fener(o dark vather che dir si voglia) :) se davvero verranno confermate le perfomance di un 15 per cento in piu di un cross di 4870 e ci sara l'adeguato supporto driver,e' sicuramente un must buy,visto che una scheda del genere avrebbe anche una longevita assurda,impaziente di vederla sotto torchio ;)
HackaB321
09-07-2008, 16:53
Beh però ne gestiscono bene 800 con 64 gb/s.. magari con il nuovo MC 32 gb/s non sono un limite a risoluzioni convenzionali.
Mi chiedo a questo punto che denomicazione avrà RV740, che dovrebbe competere con la 9600GT e successive schede. HD4750/70?
Magari, anche se la dipendenza di una gpu dalla banda a disposizione non è un fattore completamente lineare e 32Gb con i giochi moderni sono davvero pochi (è per fare un confronto la stessa banda della 8600 GTS). Certo è che se questa scheda permetterà una buona giocabilità a 1280 con gli ultimi titoli (crisi escluse), significa, a maggior ragione, che la gestione della memoria in queste gpu è veramente strepitosa. Anche perchè il suo prezzo sarà inferiore alla 3850 che attualmente si trova a 80e
yossarian
09-07-2008, 19:01
Mi riferivo a "densità" in termini di spazio sul chip (cioé implicitamente al fatto che fosse sram anziché dram. E "sram" fatta con transistor grossi quanto serve)
non è una questione di grandezza ma di numero; per una cella di sdram basta un solo transistor, per una cella di sram ne servono 6 (anche se esistono celle di sram di tipo asimmetrico con un numero inferiore di transitor)
Non cambia granché dove sia la cache, se la gpu per accedere deve passare per il PCB. (sempre che la GPU debba accedervi)
cambia in funzione di chi la deve gestire; l'esempio dell'eDRAM di xenos credo sia emblemtico: il fatto di avere un frame buffer di 10 MB, con rop's incluse, su un die separato rispetto a quello dello shader core ha permesso di avere una banda passante enorme là dove serve, ovvero per le operazioni di blending
Non capisco come usi il termine "cached". Una memoria cache non è una memoria "cached". Pensavo che il termine "cached memory" si riferisse alle porzioni di memoria presenti in un certo momento nella cache, o al fatto che la memoria fosse accessibile mediante una memoria cache. La memoria cache non è "cached".
una cache è una memoria che ha un requisito fondamentale (che è quello che ho descitto sopra): parlare di cache o di memoria cached è la stessa identica cosa
Eh ma il Cell rappresenta un antecedente a Larrabee, che ha lo stesso scopo. Quindi è l'lntel ad aver scelto una soluzione differente da IBM per risolvere lo stesso problema, perciò "curiosamente".
per gli scopi per cui è stato porgettato il cell, una memoria non cached va più che bene; anzi, l'utilizzo di una cache sarebbe forse risultato limitante
Se il Cell non può scalare gli SPE il progetto è bell'e'fallito.
il cell è stato ideato per lavorare in cluster con altri cell o con altri tipi di cpu o processori; non vedo per quale motivo lo si ìdebba considerare fallimentare qualora non fosse possibile scalare il numero di spe. Basta aggiungere un altro cell.
Zi, implicitamente intendevo che nella PS3 hanno fatto una cavolata ad usare il Cell, e che il posto futuro del Cell è come coprocessore, a quanto pare. Si vedrà
il cell non è nato come cpu GP (e non può esserlo perchè in order e single threaded). In una console può andare bene, poichè ci deve girare codice customizzato; magari richiederà degli sforzi in più ai programmatori ma può dare buoni risultato. Certo non lo utilizzerei mai come cpu per un pc :D
Che ne sai... dopo quello che passano a venir sparati fuori dalla circuteria che pilota i pad, quando arrivano a destinazione gli ci vuole lo psicologo :D
ne parlerò con la direzione :sofico:
Robertazzo
09-07-2008, 19:08
secondo voi approssimativamente quale sarà il prezzo di lancio di questa scheda?
michelgaetano
09-07-2008, 19:25
secondo voi approssimativamente quale sarà il prezzo di lancio di questa scheda?
sui 400 euro o poco meno
mircocatta
09-07-2008, 19:31
old?
http://www.centerzone.it/ati/ati-radeon-hd-4870-x2-disponibile-dal-14-luglio.html
madeofariseo
09-07-2008, 20:56
sui consumi si sa qualcosa ?
HackaB321
10-07-2008, 07:11
4870x2 superiore alla 280 di un 50% medio
As we know, AMD new generation flagship product R700 will be better than NVIDIA GTX280.
R700 (Radeon HD4870X2) 2GB will be 50% better than GTX280 at average while it will be 80% better than GTX280 at most.
Besides, 2GB GDDR3 R700PRO (Radeon HD4850X2) will be also better than GTX280.
We guess AMD will release R700 products at the end of this month or at the beginning of next month.
http://en.hardspell.com/doc/showcont.asp?news_id=3707
In effetti sembra che la data di lancio è stata anticipata al 14 luglio:
Source (http://gpucafe.com/?p=19)
Tuttavia le schede saranno disponibili solo a fine mese.
http://img503.imageshack.us/img503/1294/ativsnvidiadc3.jpg
:D
HackaB321
10-07-2008, 07:43
In effetti sembra che la data di lancio è stata anticipata al 14 luglio:
Source (http://gpucafe.com/?p=19)
Tuttavia le schede saranno disponibili solo a fine mese.
Sì è confermato, il 14 avremo delle preview come per la 4850. La disponibilità della scheda ci sarà solo a fine mese
Sì è confermato, il 14 avremo delle preview come per la 4850. La disponibilità della scheda ci sarà solo a fine mese
questa è un ottima notizia :D
forza e onore! :D
mokaverus
10-07-2008, 09:04
Sì è confermato, il 14 avremo delle preview come per la 4850. La disponibilità della scheda ci sarà solo a fine mese
come fanno senza driver con supporto ufficiale? :muro:
Mercuri0
10-07-2008, 09:14
non è una questione di grandezza ma di numero; per una cella di sdram basta un solo transistor, per una cella di sram ne servono 6 (anche se esistono celle di sram di tipo asimmetrico con un numero inferiore di transitor)
Rra sram e dram è una questione di numero di transistor, ma tra sram e sram è una questione della loro grandezza. (più grandi, maggiori correnti, più veloci)
il cell è stato ideato per lavorare in cluster con altri cell o con altri tipi di cpu o processori; non vedo per quale motivo lo si ìdebba considerare fallimentare qualora non fosse possibile scalare il numero di spe. Basta aggiungere un altro cell.
Perché dovrà vedersela con larrabee, anche nei cluster. Lo scontro sarà prima Cell vs Larrabee che Larrabee vs GPU.
In una console può andare bene, poichè ci deve girare codice customizzato; magari richiederà degli sforzi in più ai programmatori ma può dare buoni risultato. Certo non lo utilizzerei mai come cpu per un pc :D
Non è che in una console ci metti una soluzione inadatta perché tanto il codice è customizzato. Tra l'altro customizzato per l'Xbox, a sentir le malelingue. :asd:
Secondo voci il Cell doveva servire anche per fare la parte grafica. Ma se gli affianchi una GPU, non era meglio un bicore tradizionele? Il Cell sulla Ps3 (intesa come console) è una tristezza. Mah, magari faranno un videogioco "Doctor House" che sfrutterà al massimo la potenza della Ps3 per visualizzare le TAC :D
HackaB321
10-07-2008, 09:16
come fanno senza driver con supporto ufficiale? :muro:
I migliori recensori online di solito ricevono delle beta apposta per le review di nuovi prodotti che contengono già alcune ottimizzazioni che saranno poi inserite nelle future release. E comunque per il 14 dovrebbero esserci gli 8.7 definitivi che almeno la scheda la riconoscono.
Mercuri0
10-07-2008, 09:16
4870x2 superiore alla 280 di un 50% medio
Vero è?
Allora abbiamo scoperto come hanno risolto il problema dei consumi:
"Si consiglia l'uso di un alimentatore da 1200W"
Mah, le meraviglie della fascia "enthusiast".
gianni1879
10-07-2008, 09:43
4870x2 superiore alla 280 di un 50% medio
http://en.hardspell.com/doc/showcont.asp?news_id=3707
:eek:
ma tanto si sapeva già :D
un gtx280 va da un 10% ad un 30% (hi-res.) rispetto alla singola hd4870. complice anche il fatto della maggiore ram on-board
gianni1879
10-07-2008, 09:44
come fanno senza driver con supporto ufficiale? :muro:
beh usciranno credo in tempo +-, il 14 è metà del mese e si aspettano i cat 8.7 ufficiali
Vero è?
Allora abbiamo scoperto come hanno risolto il problema dei consumi:
"Si consiglia l'uso di un alimentatore da 1200W"
Mah, le meraviglie della fascia "enthusiast".
ahah speriamo di no :D
io ho un 850 e gia mi sembra troppo :mc:
Secondo voci il Cell doveva servire anche per fare la parte grafica. Ma se gli affianchi una GPU, non era meglio un bicore tradizionele? Il Cell sulla Ps3 (intesa come console) è una tristezza. Mah, magari faranno un videogioco "Doctor House" che sfrutterà al massimo la potenza della Ps3 per visualizzare le TAC :D
Mah non credo proprio. Il Cell permette di alleggerire moltissimo il lavoro della GPU.
In KZ2, un gioco first-party, hanno implementato anche una specie di global illumination semplice grazie al Cell.
Può essere usato per fare backface-culling molto velocemente e le SPE possono essere anche usate per fare tesselletion oltre che displacemente mapping e altre funzioni. Non ricordo se era nAo od un altro dei Ninja Theority (creatori di Heanvly Sword) che ha detto che il Cell è preferibile persino ad un Q6600 nel contesto console.
Comunque credo che il TDP di R700 sarà 275W.
halduemilauno
10-07-2008, 12:06
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8368&Itemid=1
August
R700, Radeon HD 4870 X2 with 2GB of GDDR5 will start selling at $549. The first retail cards should be expected in the second half of August. Nvidia has already dropped the price of Geforce GTX 280 to $499 in American etail and the cheapest one at newegg sells for $469.99 after a $30 mail in rebate.
According to VP of AMD's graphics marketing, the R700 should end up faster than Geforce GTX 280 and with 2GB memory it might look much more attractive than it would look with 1GB.
Nvidia is still enjoying the performance crown with this card but it will be interesting to see will people want to pay $50 to $100 more for ATI’s dual RV770XT card.
We also advise you not to underestimate Nvidia as 55nm GT200 is around the corner and this one might surprise us. Let's wait and see, but these will be the prices.
yossarian
10-07-2008, 12:19
Rra sram e dram è una questione di numero di transistor, ma tra sram e sram è una questione della loro grandezza. (più grandi, maggiori correnti, più veloci)
immagino tu stia scherzando, vero? Perchè in caso contrario bisognerebbe avvertire tutti i produttori di chip che si stanno precipitando a studiare soluzioni per ridurre il processo produttivo per aumentare le frequenze limitando le correnti parassite (8 o più strati di metallizzazioni, low-k, high-k, strained silicon, ecc) :D
Perché dovrà vedersela con larrabee, anche nei cluster. Lo scontro sarà prima Cell vs Larrabee che Larrabee vs GPU.
cell e larrabee non hanno esattamente lo stesso campo di impiego. Il primo è stato pensato per entrare in prodotti di elettronica di consumo al posto dei dsp, il secondo è un multicore destinato a calcoli di tipo scientifico, con ambizioni da gpu; al momento parlo di "ambizioni", perchè una gpu, oltre ad eseguire calcoli matematici fa anche altro ed è progettata per mascherare operazioni a latenza molto più alta di quelle tipiche di una cpu. Se effettivamente ciascuno dei core di Larrabee fosse in grado di operare solo su 4 thread, credo sia molto difficile che possa sostituire egregiamente una gpu, indipendentemente dalla potenza teorica di calcolo
Non è che in una console ci metti una soluzione inadatta perché tanto il codice è customizzato. Tra l'altro customizzato per l'Xbox, a sentir le malelingue. :asd:
il cell non è stato progettato per essere impiegato in una console, ma questo non lo rende una soluzione inadatta proprio perchè si fa uso di codice customizzato. Sicuramente è più difficile da programmare rispetto alla cpu dell'x360 ma, in alcuni ambiti, è anche decisamente superiore.
:read:
Mah non credo proprio. Il Cell permette di alleggerire moltissimo il lavoro della GPU.
In KZ2, un gioco first-party, hanno implementato anche una specie di global illumination semplice grazie al Cell.
Può essere usato per fare backface-culling molto velocemente e le SPE possono essere anche usate per fare tesselletion oltre che displacemente mapping e altre funzioni. Non ricordo se era nAo od un altro dei Ninja Theority (creatori di Heanvly Sword) che ha detto che il Cell è preferibile persino ad un Q6600 nel contesto console.
non so se regga il paragone con un Q6600 in ambito console; di certo per pc è preferibile, di gran lunga, un Q6600 (magari con una hd4870 e giochi dx10.1 :D )
Secondo voci il Cell doveva servire anche per fare la parte grafica. Ma se gli affianchi una GPU, non era meglio un bicore tradizionele? Il Cell sulla Ps3 (intesa come console) è una tristezza. Mah, magari faranno un videogioco "Doctor House" che sfrutterà al massimo la potenza della Ps3 per visualizzare le TAC :D
ci sono anche dei progetti in cui il cell integrava solo alcuni spe e una sorta di texture core; l'idea, però, è stata abbandonata quasi subito, perchè il cell, proprio a causa del fatto di essere in order e single threaded (e in questo larrabee rappresenta solo un piccolo passo in avanti), non è adatto a fare da gpu
madeofariseo
10-07-2008, 12:35
Vero è?
Allora abbiamo scoperto come hanno risolto il problema dei consumi:
"Si consiglia l'uso di un alimentatore da 1200W"
Mah, le meraviglie della fascia "enthusiast".
se è cosi è un FLOP totale
yossarian
10-07-2008, 12:38
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8368&Itemid=1
August
R700, Radeon HD 4870 X2 with 2GB of GDDR5 will start selling at $549. The first retail cards should be expected in the second half of August. Nvidia has already dropped the price of Geforce GTX 280 to $499 in American etail and the cheapest one at newegg sells for $469.99 after a $30 mail in rebate.
According to VP of AMD's graphics marketing, the R700 should end up faster than Geforce GTX 280 and with 2GB memory it might look much more attractive than it would look with 1GB.
Nvidia is still enjoying the performance crown with this card but it will be interesting to see will people want to pay $50 to $100 more for ATI’s dual RV770XT card.
We also advise you not to underestimate Nvidia as 55nm GT200 is around the corner and this one might surprise us. Let's wait and see, but these will be the prices.
se i prezzi fossero quelli
4870x2 superiore alla 280 di un 50% medio
http://en.hardspell.com/doc/showcont.asp?news_id=3707
e le prestazioni queste
allora ci sarebbe da chiedersi: ha più senso spendere 50-100 $ in più per avere un 50% di prestazioni in più in media o spendere 230-240 € in più per avere un 10-12% di prestazioni in più in media?
:D
se è cosi è un FLOP totale
Basterà sicuramente un alimentatore in grado di erogare senza problemi, tra scheda video e processore, 40 A sulla +12.
In altre parole un buon alimentatore da 700 W è più che sufficiente.
se i prezzi fossero quelli
e le prestazioni queste
allora ci sarebbe da chiedersi: ha più senso spendere 50-100 $ in più per avere un 50% di prestazioni in più in media o spendere 230-240 € in più per avere un 10-12% di prestazioni in più in media?
:D
:asd:
Se fossero vere queste percentuali dubito che GT200b riuscirà a ricucire i margini. Dovrebbe andare a 900Mhz core e 2000Mhz shader, di per se quasi impossibile,e sarebbe limitato dalla bandwidth delle GDDR3. Devono lanciare una GTX260X2.
Edit: Sia ben chiaro che intendo "devono" nel caso vogliano ancora essere i primi come performance. Potrebbero giocarsela sul prezzo in quanto effettivamente un GTX280 a 55nm a 290-300€ sarebbe una scheda molto molto appetibile e preferibile alle soluzioni dual-gpu del medesimo prezzo (HD4850X2?).
PS: Tranquilli, richiederà qualcosa di più delle specifiche di alimentazione di una GTX280. Quest'ultima richiede circa 600W, perciò con 700W si sta tranquilli.
HackaB321
10-07-2008, 12:57
se è cosi è un FLOP totale
i consumi saranno alti (altissimi per i miei gusti) ma in linea con le altre soluzioni di pari livello. Non penso ad esempio che uno SLI di 9800GTX consumerebbe tanto meno (visto che ha consumi simili ad un CF di 4870:http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_3.html).
E la 4870x2 avrà prestazioni superiori. Inoltre si aspettano i nuovi cata per una riduzione via power play dei consumi in idle (che su RV670 funziona a meraviglia).
i consumi saranno alti (altissimi per i miei gusti) ma in linea con le altre soluzioni di pari livello. Non penso ad esempio che uno SLI di 9800GTX consumerebbe tanto meno (visto che ha consumi simili ad un CF di 4870:http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_3.html).
E la 4870x2 avrà prestazioni superiori. Inoltre si aspettano i nuovi cata per una riduzione via power play dei consumi in idle (che su RV670 funziona a meraviglia).
Sono d'accordo. I consumi saranno troppo alti. Io credo che una GPU , qualsiasi fascia sia, non dovrebbe superare mai i 200W di TDP. Comunque sia ATI che Nvidia hanno fatto un buon lavoro in questa generazione su questo fronte. La GTX280 ha un TDP molto alto ma i consumi sotto sforzo sotto buoni rapportati alle prestazioni. La HD4850 va molto più veloce di una HD3870 e consuma solo poco di più. Mi preoccupa la prossima generazione, Larrabee potrebbe portare anche Nvidia e ATI a produrre schede con TDP molto alti.
Immortal
10-07-2008, 13:08
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8368&Itemid=1
August
R700, Radeon HD 4870 X2 with 2GB of GDDR5 will start selling at $549. The first retail cards should be expected in the second half of August. Nvidia has already dropped the price of Geforce GTX 280 to $499 in American etail and the cheapest one at newegg sells for $469.99 after a $30 mail in rebate.
According to VP of AMD's graphics marketing, the R700 should end up faster than Geforce GTX 280 and with 2GB memory it might look much more attractive than it would look with 1GB.
Nvidia is still enjoying the performance crown with this card but it will be interesting to see will people want to pay $50 to $100 more for ATI’s dual RV770XT card.
We also advise you not to underestimate Nvidia as 55nm GT200 is around the corner and this one might surprise us. Let's wait and see, but these will be the prices.
purtroppo però tutti conosciamo la poca attendibilità di fruitzilla..
se i prezzi fossero quelli
e le prestazioni queste
allora ci sarebbe da chiedersi: ha più senso spendere 50-100 $ in più per avere un 50% di prestazioni in più in media o spendere 230-240 € in più per avere un 10-12% di prestazioni in più in media?
:D
non penso siano in quel modo.... sarebbe tropop bello :D
_andrea_
10-07-2008, 14:04
volevo chiedere cosa ne pensate voi del thread, in particolare HackaB321 che ritengo uno dei più ferrati in ambito vga:
Secondo voi, montando questa 4870x2 in una p5k deluxe (p35) con pci-express 1.1 sarei limitato dalla banda? Il resto dell'hardware non dovrebbe avere problemi (ho un q6600 in grado di fornirmi 3800mhz in daily 475x8 con ram a 1191)
Una cosa che mi stavo chiedendo: su questa 4870x2 si possono montare 2 waterblock normali?
Cioé riesci a montare 2 wb compatibili con la 4870? O bisognerá prenderne uno apposta... :mbe:
Come é con la 3870x2?
Grazie mille :D
_andrea_
10-07-2008, 15:05
penso ce ne voglia uno apposta per fare le cose perbene..inoltre ci sarebbe il plx che non so quanto scaldi, rimarrebbe nudo.. senza contare la disposizione delle ram che nn credo sia uguale..questo però imho! magari qualcuno l'ha fatto e mi smentisce!
magnusll
10-07-2008, 15:14
penso ce ne voglia uno apposta per fare le cose perbene..inoltre ci sarebbe il plx che non so quanto scaldi, rimarrebbe nudo.. senza contare la disposizione delle ram che nn credo sia uguale..questo però imho! magari qualcuno l'ha fatto e mi smentisce!
Se il layout e' simile a quello delle 3870X2, c'era chi si era arrangiato usando due dissipatori swiftech che in teoria vengono usati per i chipset delle mobo (mcw 30) montati sulle due GPU.
penso ce ne voglia uno apposta per fare le cose perbene..inoltre ci sarebbe il plx che non so quanto scaldi, rimarrebbe nudo.. senza contare la disposizione delle ram che nn credo sia uguale..questo però imho! magari qualcuno l'ha fatto e mi smentisce!
Perché a occhio i fori dei 2 chip sembrano combaciare con quelli delle singole.
Ho giá un K7 e potrei prenderne un altro senza sborsare una barca di eurazzi per averne uno personalizzato (e che poi non useró piú...)
Per il plx, This is a bit of a Problem...spero qualcuno mi illumini :D
Anche se alla fine mi sa che prenderó la singola dopo aver visto i consumi nelle rece ... :stordita:
Ma spero che almeno il powerplay svolga bene il suo compito.
HackaB321
10-07-2008, 15:23
volevo chiedere cosa ne pensate voi del thread, in particolare HackaB321 che ritengo uno dei più ferrati in ambito vga:
Secondo voi, montando questa 4870x2 in una p5k deluxe (p35) con pci-express 1.1 sarei limitato dalla banda? Il resto dell'hardware non dovrebbe avere problemi (ho un q6600 in grado di fornirmi 3800mhz in daily 475x8 con ram a 1191)
Direi di no. Una 9800GX2 ad esempio passando da un PCI 2.0 16x ad un PCI 2.0 8x (che è = ad un PCI 1.1 16x) non ha praticamente mai cali di fps tranne un minimo in Flight Simulator:
http://www.tomshardware.com/reviews/pci-express-2-0,1915-10.html
per avere la certezza però bisogna aspettare le recensioni:)
_andrea_
10-07-2008, 16:01
allora vale il paragone che mi ero fatto mentalmente: se il pciex 2.0 ha il doppio della banda dell' 1.1 a pari velocità (16x) dimezzando la velocità del 2.0 si ha l'ampiezza di banda dell'1.1! In ogni caso apparte cod4 e flight simulator le differenze sono irrisorie. E le differenze in cod4 (120 contro 131fps) fanno davvero ridere..direi che se la situazione si ri-verificasse anche con la 4870x2 potrei allegramente tenere questa mobo che mi sta regalando molte soddisfazioni con il mio q6600. Grazie mille HackaB321!
appleroof
10-07-2008, 18:19
se i prezzi fossero quelli
e le prestazioni queste
allora ci sarebbe da chiedersi: ha più senso spendere 50-100 $ in più per avere un 50% di prestazioni in più in media o spendere 230-240 € in più per avere un 10-12% di prestazioni in più in media?
:D
di certo, se è vero che le dx11 sono alle porte, entrambe si presentano come un pessimo affare, a questo punto molto meglio la 4870 e le g200@55nm (che presumo avranno prezzi allineati alla concorrenza, sopratutto la gtx260@55nm rispetto alla 4870, se già ora le separano una 50ina di euro in Italia + o - ); cmq ne sapremo di più sotto tutti questi punti di vista a settembre, così uno può valutare meglio il da farsi, imho.
ad ogni modo, in generale, io sono dell'idea che se devi spendere così tanto per una top, e visto che è sempre un "rischio", molto meglio correrlo al debutto di una nuova architettura, sempre salvo esigenze/sfizi personali
4870x2 superiore alla 280 di un 50% medio
http://en.hardspell.com/doc/showcont.asp?news_id=3707
il 50% in + della gtx280 è abbastanza risaputo, o per lo meno si sa che andrà in media un +15% del cf di 4870 quindi da questo si arriva al +50% della 280 ;)
In effetti sembra che la data di lancio è stata anticipata al 14 luglio:
Source (http://gpucafe.com/?p=19)
Tuttavia le schede saranno disponibili solo a fine mese.
http://img503.imageshack.us/img503/1294/ativsnvidiadc3.jpg
:D
ma lol :asd: (manca intel chi usa photoshop)
cmq meglio almeno ci togliamo subito questi dubbi sulle performance
yossarian
10-07-2008, 20:01
di certo, se è vero che le dx11 sono alle porte, entrambe si presentano come un pessimo affare, a questo punto molto meglio la 4870 e le g200@55nm (che presumo avranno prezzi allineati alla concorrenza, sopratutto la gtx260@55nm rispetto alla 4870, se già ora le separano una 50ina di euro in Italia + o - ); cmq ne sapremo di più sotto tutti questi punti di vista a settembre, così uno può valutare meglio il da farsi, imho.
ad ogni modo, in generale, io sono dell'idea che se devi spendere così tanto per una top, e visto che è sempre un "rischio", molto meglio correrlo al debutto di una nuova architettura, sempre salvo esigenze/sfizi personali
alle porte perchè le dovrebbero presentare ufficilmente a fine luglio?
Ancora non si fa riferimento alle dx10, per non parlare delle 10.1 (che introducono molte delle novità che saranno presenti nelle 11), figuriamoci se vedremo a breve i primi motori o le prime vga dx11.
appleroof
10-07-2008, 20:13
alle porte perchè le dovrebbero presentare ufficilmente a fine luglio?
Ancora non si fa riferimento alle dx10, per non parlare delle 10.1 (che introducono molte delle novità che saranno presenti nelle 11), figuriamoci se vedremo a breve i primi motori o le prime vga dx11.
alle porte perchè (ovviamente da quello che leggo sulla rete) dovrebbero debuttare a fine 2009, per il resto è ovvio che non vedremo motori dx11 il giorno del debutto di queste (ancora non ci sono motori nativi dx10 :asd:, ammesso che siano mai stati pres in considerazione dagli sviluppatori, a questo punto e viste le consolle) ma questo fà il paio con la retrocompatibilità dx10.1 (e con il fatto che sappiamo il peso specifico che Nvidia ha nel mondo degli sviluppatori, per queste, piaccia o meno)
quanto alle vga, sempre stando ai rumors, leggo che Nvidia potrebbe presentare il nuovo chip dx11 (e dx10.1 compatibile) molto prima del dovuto, per (rozza spiegazione personale :D) tagliare la testa al toro, se mi spiego
ad ogni modo, per me (era ovvio pure prima che parlavo a titolo personale) è ancora molto presto per trarre conclusioni, ma tutto questo mi basta ad evitare di spendere troppo (che quantifico in più di 300€ al max, quindi nè 4870x2 nè l'attuale gtx280) per una vga dx10, almeno fino a questo autunno quando appunto credo che il quadro sarà meglio delineato
Rougequellovero
10-07-2008, 20:28
Credo che fino ad oggi, hanno avuto un grandissimo peso nella scelta delle DirectX da parte dei programmatori l'enorme diffusione delle console e quindi dei giochi multipiattaforma...
Fino a quando non uscirà la nuova Xbox, non credo che si avrà un cambio di DirectX.
D'ora in poi credo che il passo sarà sempre segnato da quello che succede nel mondo delle console, che avranno IMHO un bacino di utenza sempre maggiore.
ma lol :asd: (manca intel chi usa photoshop)
cmq meglio almeno ci togliamo subito questi dubbi sulle performance
Eheh, da notare 3dfx nel pozzo, inizialmente non ci avevo fatto caso :D
alle porte perchè le dovrebbero presentare ufficilmente a fine luglio?
Ancora non si fa riferimento alle dx10, per non parlare delle 10.1 (che introducono molte delle novità che saranno presenti nelle 11), figuriamoci se vedremo a breve i primi motori o le prime vga dx11.
Non a breve, ma per maggio-giugno 2009 credo che sia ATi che Nvidia avranno schede DirectX11.
Io mi aspetto che dopo la presentazione il discorso raytracing cadi nell'oblio in quanto certamente non ci sarà "supporto" nelle DirectX11.
Forse nelle DirectX12 o 13, sempre se ATi e Nvidia e la comunità di developers/artisti sarà d'accordo, potrà esserci qualcosa sul raytracing. Sentendo fek e altri developers mi sembra di capire che la rasterizzazione ha ancora molti anni davanti. Anzi fek ha parlato persino di engine ibridi anche tra decine di anni.. (anche se nell'informatica una decina di anni equivale ad un' era geologica. )
mm.. ma Valve? Il Source Engine è uno dei motori più belli che esistano imho. Ha ancora un impatto grafico rispettabile ed è molto flessibile. Aspetto con ansia il Source Engine 2 e logicamente Half Life 3. Ormai ho perso le speranze di vedere qualcosa nel 2008 (anche se saranno anni che ci lavorano sopra, HL2 è uscito nel 2004), speriamo di vedere qualcosa nel 2009 (con la speranza che sia persino un engine full DirectX11!).
yossarian
10-07-2008, 21:12
alle porte perchè (ovviamente da quello che leggo sulla rete) dovrebbero debuttare a fine 2009, per il resto è ovvio che non vedremo motori dx11 il giorno del debutto di queste (ancora non ci sono motori nativi dx10 :asd:, ammesso che siano mai stati pres in considerazione dagli sviluppatori, a questo punto e viste le consolle)
se consideriamo il mercato console, l'unica cosa che potrebbe spingere MS a forzare l'adozione delle DX11 è la presentazione di una nuova xbox a cavallo tra la fine del 2009 e l'inizio del 2010.
ma questo fà il paio con la retrocompatibilità dx10.1 (e con il fatto che sappiamo il peso specifico che Nvidia ha nel mondo degli sviluppatori, per queste, piaccia o meno)
il peso specifico di nVidia è direttamente proporzionale alla sua forza di penetrazione sul mercato; in questo momento sta perdendo terreno e sta anche perdendo la capacità di influenzare le SWHouse. Qualora qualcuno dovesse iniziare ad usare le DX10.1 e queste dovessero portare miglioramenti qualitativi, maggior velocità nel rendering (ovviamente per l'HW compatibile), più facilità nel programmare, questa influenza potrebbe subire un colpo durissimo (non dimenticare quanto successo con la serie NV3x e le DX9).
quanto alle vga, sempre stando ai rumors, leggo che Nvidia potrebbe presentare il nuovo chip dx11 (e dx10.1 compatibile) molto prima del dovuto, per (rozza spiegazione personale :D) tagliare la testa al toro, se mi spiego
si sente parlare di questo fantomatico chip (e qualcuno ha già iniziato a fare previsioni: 45 nm, 384 sp, ecc). Se veramente avessero intenzione di fare una cosa del genere, ovvero tirare fuori una nuova architettura (chi dice DX10.1 e chi DX11) a breve, non solo rischierebbe un salto nel buio a livello di riuscita del chip e di rese produttive (chip molto cpmplesso, nuova architettura, nuove API, nuovo processo produttivo, finora mai sperimentato), situazione il cui unico precedente, se non vado errato, è proprio NV30, ma rischierebbe di rendere obsoleti a breve G9x e GT2x0, molto più di quanto non lo diverrebbero RV670 e RV770.
ad ogni modo, per me (era ovvio pure prima che parlavo a titolo personale) è ancora molto presto per trarre conclusioni, ma tutto questo mi basta ad evitare di spendere troppo (che quantifico in più di 300€ al max, quindi nè 4870x2 nè l'attuale gtx280) per una vga dx10, almeno fino a questo autunno quando appunto credo che il quadro sarà meglio delineato
il problema dei costi si riproporrà anche in futuro, poichè processi produttivi più avanzati portano all'utilizzo di materiali più costosi (ad esempio con i 65 nm non meno di 8 layer di metallizzazioni, SSOI, high-k o low-k) che fanno lievitare i costi dei wafer di silicio; a questo aggiungi che chip grandi e complessi e senza la possibilità di inserire cluster ridondanti, presentano rese produttive molto basse.
Quindi, se si vogliono contenere i costi, poichè l'adozione di un determinato processo produttivo porta, per forza di cose ad adottare materiali più costosi, bisogna cercare di aumentare le rese produttive e cercare di mettere quanti più die possibili su un wafer. Operazioni che l'architettura scelta di nVidia non permette (il chip di cui si favoleggia, seppure fosse a 45 nm, sarebbe più grande di GT200 qualora ne mantenesse le caratteristiche)
yossarian
10-07-2008, 21:16
Non a breve, ma per maggio-giugno 2009 credo che sia ATi che Nvidia avranno schede DirectX11.
Io mi aspetto che dopo la presentazione il discorso raytracing cadi nell'oblio in quanto certamente non ci sarà "supporto" nelle DirectX11.
Forse nelle DirectX12 o 13, sempre se ATi e Nvidia e la comunità di developers/artisti sarà d'accordo, potrà esserci qualcosa sul raytracing. Sentendo fek e altri developers mi sembra di capire che la rasterizzazione ha ancora molti anni davanti. Anzi fek ha parlato persino di engine ibridi anche tra decine di anni.. (anche se nell'informatica una decina di anni equivale ad un' era geologica. )
mm.. ma Valve? Il Source Engine è uno dei motori più belli che esistano imho. Ha ancora un impatto grafico rispettabile ed è molto flessibile. Aspetto con ansia il Source Engine 2 e logicamente Half Life 3. Ormai ho perso le speranze di vedere qualcosa nel 2008 (anche se saranno anni che ci lavorano sopra, HL2 è uscito nel 2004), speriamo di vedere qualcosa nel 2009 (con la speranza che sia persino un engine full DirectX11!).
il raytracing è una delle cose sicuramente previste nelle dx11 (almeno per ora :D ); che poi non goda dei favori di gran parte degli sviluppatori che, per svariati motivi (molti dei quali sicuramente fondati) continuino a preferire la rasterizzazione e che questo possa portare al non utilizzo di questa tecnica per molto tempo è un altro discorso
cristian-BG
10-07-2008, 23:02
ciao a tutti ho provato la gtx280 e come singola gpu viaggia.. ma visto che ho una dfi x48 pensavo di metterci 2 4870x2 :) che alimentatore serve? io ho un ezcool 1050w 2 linee da 20A E 2 DA 36A
che dite? basta? anche xè 250w l'una sotto stress... quindi 500w di due + il mio sistema q9450 4hd 2 lettori 6ventole da 12 ecc...
penso che basti..
ma quando escono poi??? il 14 le presentano giusto? quindi x fine sett prox si incomincerà a trovare qualcosa?
ciao a tutti ho provato la gtx280 e come singola gpu viaggia.. ma visto che ho una dfi x48 pensavo di metterci 2 4870x2 :) che alimentatore serve? io ho un ezcool 1050w 2 linee da 20A E 2 DA 36A
che dite? basta? anche xè 250w l'una sotto stress... quindi 500w di due + il mio sistema q9450 4hd 2 lettori 6ventole da 12 ecc...
penso che basti..
ma quando escono poi??? il 14 le presentano giusto? quindi x fine sett prox si incomincerà a trovare qualcosa?
Sinceramente non conosco la ezcool...
ma quegli amperaggi mostruosi parlano da soli, certo che ce la fai :D
In pratica dovrebbero essere 160W per scheda piú il procio e il resto...piú l'eventuale carico extra da tener conto per non sforzare l'ali...ce ne puoi mettere anche 3 (e se la ezcool é davvero una marca buona anche 4) :ciapet:
cristian-BG
10-07-2008, 23:20
Sinceramente non conosco la ezcool...
ma quegli amperaggi mostruosi parlano da soli, certo che ce la fai :D
In pratica dovrebbero essere 160W per scheda piú il procio e il resto...piú l'eventuale carico extra da tener conto per non sforzare l'ali...ce ne puoi mettere anche 3 (e se la ezcool é davvero una marca buona anche 4) :ciapet:
come stabilità nelle linee è meglio del enermax 1000w che avevo... e costa anche poco! sui 160€ solamente che non è modulare.. ma avendo un case enorme armor+ i cavi non si vedono :)
The_max_80
11-07-2008, 00:00
alle porte perchè (ovviamente da quello che leggo sulla rete) dovrebbero debuttare a fine 2009, per il resto è ovvio che non vedremo motori dx11 il giorno del debutto di queste (ancora non ci sono motori nativi dx10 :asd:, ammesso che siano mai stati pres in considerazione dagli sviluppatori, a questo punto e viste le consolle) ma questo fà il paio con la retrocompatibilità dx10.1 (e con il fatto che sappiamo il peso specifico che Nvidia ha nel mondo degli sviluppatori, per queste, piaccia o meno)
quanto alle vga, sempre stando ai rumors, leggo che Nvidia potrebbe presentare il nuovo chip dx11 (e dx10.1 compatibile) molto prima del dovuto, per (rozza spiegazione personale :D) tagliare la testa al toro, se mi spiego
ad ogni modo, per me (era ovvio pure prima che parlavo a titolo personale) è ancora molto presto per trarre conclusioni, ma tutto questo mi basta ad evitare di spendere troppo (che quantifico in più di 300€ al max, quindi nè 4870x2 nè l'attuale gtx280) per una vga dx10, almeno fino a questo autunno quando appunto credo che il quadro sarà meglio delineato
in sostanza 2010 per le d11, beh in termini informatici sono una vita, non influenzerei l'acquisto a questo dato, praticamente giochi anceh con qualche effetto d11 si vedranno non prima della fine del 2010 /inizio 2011, mi accontenterei di vedere qualche gioco realmente d10 :D
Free Gordon
11-07-2008, 00:08
Perché?
La cache dei Pentium II stava sul PCB che poi si connetteva al resto del sistema tramite Slot 1, e non nel die. Questa soluzione funzionava senza alcun problema, perché non dovrebbe essere possibile per una GPU?
Quoto, che brutto lo slot1... :D
Free Gordon
11-07-2008, 00:59
La fase slot la saltai, mi sembrava una soluzione del tutto inelegante...
Invece io ho ancora un celeron 350, mi pare :D
Cmq sì, era decisamente "inelegante" :asd:
fanculium
11-07-2008, 07:28
:eek:
http://www.tomshw.it/news.php?newsid=14711
:eek:
http://www.tomshw.it/news.php?newsid=14711
Dalle slides sembra che il clock sarà 750 Mhz (che equivalgono a 2.4 TF) e che le schede saranno disponibili il 12 agosto.
Mercuri0
11-07-2008, 08:47
Mah non credo proprio. Il Cell permette di alleggerire moltissimo il lavoro della GPU.
In KZ2, un gioco first-party, hanno implementato anche una specie di global illumination semplice grazie al Cell.
Il Cell è una mezza GPU e sto seguendo gli sviluppi di un progetto importante per Linux che sta anche lavorando a un driver OpenGL per il Cell. Però, nel caso di una console, sarebbe da discutere se le funzionalità della GPU non dovrebbe farle la GPU, già che c'è. E' più furbo programmare il Cell per fare le funzioni del tessellatore, o metterci un tessellatore nella GPU come nella Xbox?
immagino tu stia scherzando, vero? Perchè in caso contrario bisognerebbe avvertire tutti i produttori di chip che si stanno precipitando a studiare soluzioni per ridurre il processo produttivo per aumentare le frequenze limitando le correnti parassite (8 o più strati di metallizzazioni, low-k, high-k, strained silicon, ecc) :D
:mbe: A parità di processo produttivo si usano comunque transistor con area maggiore e transistor più piccoli per lo stesso chip, a secondo delle velocità che servono.
cell e larrabee non hanno esattamente lo stesso campo di impiego. Il primo è stato pensato per entrare in prodotti di elettronica di consumo al posto dei dsp, il secondo è un multicore destinato a calcoli di tipo scientifico
Cell c'è pure sui supercomputer, dove vuole spingere lntel, e lntel proverà a spingere Larrabee ovunque, vista la sua strategia "x86 to rule them all".
Il fatto che l'unico Cell nell'elettronica di consumo di cui si parla, lo SpursEngine, non ha la PPU e ha un decodificatore video dedicato, dà da pensare :)
di certo, se è vero che le dx11 sono alle porte,
Non sono tanto alle porte, eh, e sperabilmente il salto non sarà drammatico.
Si parla di tessellatore, api per il GPGPU, multi-threading (che riguarda la CPU mi pare di aver capito).... A momenti sembra che RV770 possa supportare le DX11 con un aggiornamento driver! (Anche se fosse, non lo farebbero mai)
Io mi aspetto che dopo la presentazione il discorso raytracing cadi nell'oblio in quanto certamente non ci sarà "supporto" nelle DirectX11.
Leggiucchiando qua e là, i demo "Cinema 2.0" sembrano in effetti una forma di raytracing "ibrido" basati su voxel anziché poligoni, similmente a quello che teorizzava Carmack in una sua intervista recente.
E sono fatti in DX9. Non è l'API che fa l'effetto, anche se la maggior parte delle persone tende a pensare in questo modo.
Quindi di raytracing si parlerà, quest'estate, ma quella dei demo di AMD parrebbe una tecnologia inadatta per i giochi.
il raytracing è una delle cose sicuramente previste nelle dx11
A meno che tu non abbia altre fonti, l'unica notizia in cui si parlava di raytracing nelle DX11 risaliva al 1 aprile. Non ho visto altri riferimenti da nessuna parte, inclusi i programmi delle presentazioni del DX11 al Siggraph e all'nVision.
Cooperdale
11-07-2008, 09:01
L'Enermax Galaxy 1000W che ha 5 cavi (3 da 6 e 2 da 8) da 12V separati dagli altri, ognuno con 24A, basterà spero! Se no mi girano eh.
Immortal
11-07-2008, 09:09
:eek:
http://www.tomshw.it/news.php?newsid=14711
circa 7000 punti al vantage extreme.. com'è?
se non ricordo male era proprio quanto pronosticato da CJ mesi fa...sbaglio? :stordita:
Jason001
11-07-2008, 09:51
sembra veramente una bella bestiolina, molto bella esteticamente anche
Nikolaj Wojdelko
11-07-2008, 10:05
circa 7000 punti al vantage extreme.. com'è?
se non ricordo male era proprio quanto pronosticato da CJ mesi fa...sbaglio? :stordita:
7k extreme e 12k+ in CF ..
milanok82
11-07-2008, 11:20
news amici news, la 4870 x2 potrebbe essere piu veloce del 50% rispetto alla gtx280 e dell'80% in alcuni test:eek: :eek: :eek: :eek: , http://www.tomshw.it/news.php?newsid=14711
ho appena letto una news dove dicono che il modello da un giga adotterà GDDR5 mentre il modello da due giga adotterà GDDR3 :mbe:
che mi dite in merito?? sarebbe lo stesso una bella cosa anche se fossero GDDR3???
Mercuri0
11-07-2008, 11:35
ho appena letto una news dove dicono che il modello da un giga adotterà GDDR5 mentre il modello da due giga adotterà GDDR3 :mbe:
che mi dite in merito?? sarebbe lo stesso una bella cosa anche se fossero GDDR3???
Rischierebbe di essere meglio l'1GiB GDDR5 che il 2GiB GDDR3 :D
Comunque dalle slide AMD su tom si ventila 2GiB GDDR5
io credo che la HD4870X2 sarà solo GDDR5 mentre la HD4850X2 solo GDDR3.....
Rougequellovero
11-07-2008, 12:25
io credo che la HD4870X2 sarà solo GDDR5 mentre la HD4850X2 solo GDDR3.....
Si sarà così!
Il malinteso sta nel fatto che si accosta il progetto R700 sia alle 2 GPU RV770PRO che alle 2 GPU RV770XT, e tom's parla di di R700 con DDR3 ,intendendo il progetto con le 2 RV770PRO cioè la HD4850X2!!!
Il fatto che l'unico Cell nell'elettronica di consumo di cui si parla, lo SpursEngine, non ha la PPU e ha un decodificatore video dedicato, dà da pensare :)
Niente PhysX :D
Lo Spurscoso non ha la PPE ma solo 4 SPE e un decoder video.
Però mi sembra che non ha l'encoder video, mmh.
Leggiucchiando qua e là, i demo "Cinema 2.0" sembrano in effetti una forma di raytracing "ibrido" basati su voxel anziché poligoni, similmente a quello che teorizzava Carmack in una sua intervista recente.
E sono fatti in DX9. Non è l'API che fa l'effetto, anche se la maggior parte delle persone tende a pensare in questo modo.
Quindi di raytracing si parlerà, quest'estate, ma quella dei demo di AMD parrebbe una tecnologia inadatta per i giochi.
DX9? :eek: Potresti approfondire un po' di più?
E i voxel che sarebbero? :mbe:
Si sarà così!
Il malinteso sta nel fatto che si accosta il progetto R700 sia alle 2 GPU RV770PRO che alle 2 GPU RV770XT, e tom's parla di di R700 con DDR3 ,intendendo il progetto con le 2 RV770PRO cioè la HD4850X2!!!
Riassumendo:
R700 = 2x RV770XT = HD4870X2, 1GiB GDDR5
R700 = 2x RV770PRO = HD4850X2, 2GiB GDDR3
uscirà sicuramente la versione 2 giga GDDR5? se si in che periodo verrà rilasciata? dubito la vedremo a luglio o agosto.....:cry:
Cooperdale
11-07-2008, 13:11
uscirà sicuramente la versione 2 giga GDDR5? se si in che periodo verrà rilasciata? dubito la vedremo a luglio o agosto.....:cry:
Perché? Secondo me sarà la prima a uscire.
yossarian
11-07-2008, 13:16
Il Cell è una mezza GPU e sto seguendo gli sviluppi di un progetto importante per Linux che sta anche lavorando a un driver OpenGL per il Cell. Però, nel caso di una console, sarebbe da discutere se le funzionalità della GPU non dovrebbe farle la GPU, già che c'è. E' più furbo programmare il Cell per fare le funzioni del tessellatore, o metterci un tessellatore nella GPU come nella Xbox?
il cell può fare solo operazioni a basse latenze, tra quelle svolte normalmente da una cpu (calcoli geometrici e operazioni di post processing); ma non sarà mai in grado di sostituire una gpu. RSX non ha il tessellatore e un'altra GPU pr PS3 non era disponibile.
:mbe: A parità di processo produttivo si usano comunque transistor con area maggiore e transistor più piccoli per lo stesso chip, a secondo delle velocità che servono.
in un circuito sincrono la velocità è scandita dal clock
Cell c'è pure sui supercomputer, dove vuole spingere lntel, e lntel proverà a spingere Larrabee ovunque, vista la sua strategia "x86 to rule them all".
ho l'impressione che Larrabee abbia preso il posto del Cell :D . Prima sembrava che il Cell potesse fare tutto e sostituire qualsiasi altro dispositivo (cpu, gpu, dsp); adesso c'è Larrabee VS resto del mondo. Intanto se sono confermati i "soli" 4 thread per core, di sicuro non ha ambizioni di competere come gpu. Comunque ne riparleremo quando uscirà :sofico:
Il fatto che l'unico Cell nell'elettronica di consumo di cui si parla, lo SpursEngine, non ha la PPU e ha un decodificatore video dedicato, dà da pensare :)
dà da pensare al fatto che, evidentemente, su un elettrodomestico non serve una cpu ma un dsp :D
Non sono tanto alle porte, eh, e sperabilmente il salto non sarà drammatico.
Si parla di tessellatore, api per il GPGPU, multi-threading (che riguarda la CPU mi pare di aver capito).... A momenti sembra che RV770 possa supportare le DX11 con un aggiornamento driver! (Anche se fosse, non lo farebbero mai)
il tessellator nelle nuove api è previsto e RV770 può supportare in parte le DX11
Leggiucchiando qua e là, i demo "Cinema 2.0" sembrano in effetti una forma di raytracing "ibrido" basati su voxel anziché poligoni, similmente a quello che teorizzava Carmack in una sua intervista recente.
E sono fatti in DX9. Non è l'API che fa l'effetto, anche se la maggior parte delle persone tende a pensare in questo modo.
Quindi di raytracing si parlerà, quest'estate, ma quella dei demo di AMD parrebbe una tecnologia inadatta per i giochi.
A meno che tu non abbia altre fonti, l'unica notizia in cui si parlava di raytracing nelle DX11 risaliva al 1 aprile. Non ho visto altri riferimenti da nessuna parte, inclusi i programmi delle presentazioni del DX11 al Siggraph e all'nVision.
il raytracing non è un'esclusiva delle DX11 come l'hdr non è stato introdotto dallo SM3.0.
A detta di molti sviluppatori, per i giochi non è propriamente l'equivalente del graal e continuano a preferirgli la rasterizzazione per tutta una serie di motivazioni tecniche ben spiegate in un articolo pubblicato su B3D.
appleroof
11-07-2008, 14:13
se consideriamo il mercato console, l'unica cosa che potrebbe spingere MS a forzare l'adozione delle DX11 è la presentazione di una nuova xbox a cavallo tra la fine del 2009 e l'inizio del 2010.
ma anche no, e cmq di sicuro continuerà ad essere quello il mercato trainante, ormai è assodato a meno di grandi rivolgimenti, sono d'accordo...ma la mia riflessione aveva un altro senso :D
il peso specifico di nVidia è direttamente proporzionale alla sua forza di penetrazione sul mercato; in questo momento sta perdendo terreno e sta anche perdendo la capacità di influenzare le SWHouse. Qualora qualcuno dovesse iniziare ad usare le DX10.1 e queste dovessero portare miglioramenti qualitativi, maggior velocità nel rendering (ovviamente per l'HW compatibile), più facilità nel programmare, questa influenza potrebbe subire un colpo durissimo (non dimenticare quanto successo con la serie NV3x e le DX9).
se non sbaglio il programma di foraggiamento (ufficialmente candido e gratuito supporto) degli sviluppatori partì proprio a seguito della debacle nv30 no? cmq è ovvio che nulla è immutabile, sopratutto in questo campo, ma non credo che nel giro di pochi mesi la situazione odierna relativa agli aspetti di cui discutiamo possa essere ribaltata completamente (forse gli unici a crederlo davvero sono i dipendenti Ati :asd: )...insomma non bastano 6 mesi, se le cose prenderanno più stabilmente questa piega allora ci stà che il "peso specifico" non sia più quello attuale (e che cmq affonda "le sue radici" non certo da g80)
si sente parlare di questo fantomatico chip (e qualcuno ha già iniziato a fare previsioni: 45 nm, 384 sp, ecc). Se veramente avessero intenzione di fare una cosa del genere, ovvero tirare fuori una nuova architettura (chi dice DX10.1 e chi DX11) a breve, non solo rischierebbe un salto nel buio a livello di riuscita del chip e di rese produttive (chip molto cpmplesso, nuova architettura, nuove API, nuovo processo produttivo, finora mai sperimentato), situazione il cui unico precedente, se non vado errato, è proprio NV30, ma rischierebbe di rendere obsoleti a breve G9x e GT2x0, molto più di quanto non lo diverrebbero RV670 e RV770.
si, parliamo in ipotesi (forse addirittura pure fandonie), per quello (sempre sottolineando che non parlo per tutti ma per me :D ) direi cmq di aspettare almeno l'autunno (e qualche ulteriore conferma/smentita) prima di investire più di 300 eurozzi in una scheda top, ribadisco
il problema dei costi si riproporrà anche in futuro, poichè processi produttivi più avanzati portano all'utilizzo di materiali più costosi (ad esempio con i 65 nm non meno di 8 layer di metallizzazioni, SSOI, high-k o low-k) che fanno lievitare i costi dei wafer di silicio; a questo aggiungi che chip grandi e complessi e senza la possibilità di inserire cluster ridondanti, presentano rese produttive molto basse.
Quindi, se si vogliono contenere i costi, poichè l'adozione di un determinato processo produttivo porta, per forza di cose ad adottare materiali più costosi, bisogna cercare di aumentare le rese produttive e cercare di mettere quanti più die possibili su un wafer. Operazioni che l'architettura scelta di nVidia non permette (il chip di cui si favoleggia, seppure fosse a 45 nm, sarebbe più grande di GT200 qualora ne mantenesse le caratteristiche)
se parliamo di un chip nuovo non parliamo di un die-shrink di g200 a 45nm o 40nm...:) (inoltre la mia considerazione di non spendere più di 300 euri è legata alle dx10)
ho appena letto una news dove dicono che il modello da un giga adotterà GDDR5 mentre il modello da due giga adotterà GDDR3 :mbe:
che mi dite in merito?? sarebbe lo stesso una bella cosa anche se fossero GDDR3???
che 2 giga di ddr5 probabilmente, nonostante i sorrisi di Baumann, costano troppo e si rifletterebbero sul prezzo della scheda; seconda opzione: Baumann fà bene a sorridersela e non ne montano 2 giga solo per questioni di "carenza" di ddr5 allo stato attuale, il tutto imho
quanto alle prestazioni, visto il bus a 256bit (mi confermate?) credo che le ddr3 starebbero strettine in termini di banda complessiva, e cmq striderebbero non poco su una scheda come questa (anche per consumi eccetera)
yossarian
11-07-2008, 15:56
se non sbaglio il programma di foraggiamento (ufficialmente candido e gratuito supporto) degli sviluppatori partì proprio a seguito della debacle nv30 no? cmq è ovvio che nulla è immutabile, sopratutto in questo campo, ma non credo che nel giro di pochi mesi la situazione odierna relativa agli aspetti di cui discutiamo possa essere ribaltata completamente (forse gli unici a crederlo davvero sono i dipendenti Ati :asd: )...insomma non bastano 6 mesi, se le cose prenderanno più stabilmente questa piega allora ci stà che il "peso specifico" non sia più quello attuale (e che cmq affonda "le sue radici" non certo da g80)
programma di foraggiamento che ha già avuto e sta avendo sempre più crepe, se è vero che blizzard (e non solo) hanno annunciato l'utilizzo delle dx10.1 per i prossimi titoli. Forse non foraggia abbastanza :D
se parliamo di un chip nuovo non parliamo di un die-shrink di g200 a 45nm o 40nm...:) (inoltre la mia considerazione di non spendere più di 300 euri è legata alle dx10)
e chi ha parlato di uno shrink? E' sufficiente che si mantenga lo stesso rapporto alu/tex e le alu fp64 (che sono l'unico modo, per i chip NV di fare calcoli in dp) e, soprattutto, che resti invariata la logica di controllo (tanti registri e circuiti molto complessi per ogni alu). Per quale motivo pensi che ATi, pur avendo un chip con logica analoga a G80 (con la differenza che R500 ha alu vettoriali e, quindi meno complesse rispetto ad un'architettura scalare), ha optato per un'architettura vliw degli sp?
Una nuova architettura in autunno, a 40 o 45 nm, con 2 mld di transistor e millemila unità di calcolo esiste nei sogni di qualche fanboy, non certo di un'azienda che, per essere competitiva, è costretta ad abbassare i prezzi delle proprie gpu rischiando di vendere in perdita (un die di GT200 costa poco meno di una HD4850) e che sta perdendo partnership esclusive con ditte che le erano rimaste fedeli persino ai tempi di NV30.
Immortal
11-07-2008, 16:01
che dite di questo?
http://www.xtremesystems.org/forums/showpost.php?p=3132311&postcount=469
inoltre, una domandina per yossarian (la cui conoscenza tecnica di questi argomenti è spaventosa :D ): a livello di architettura, rv770 potrebbe già essere adatto a supportare dx11 o sono previste delle nuove features che richiederanno una nuova parte di hardware dedicato e che questo chip non ha già?
Mercuri0
11-07-2008, 16:08
Niente PhysX :D
Lo Spurscoso non ha la PPE ma solo 4 SPE e un decoder video.
Però mi sembra che non ha l'encoder video, mmh.
Magari a una televisione non serve l'encoder :D
DX9? :eek: Potresti approfondire un po' di più?
E i voxel che sarebbero? :mbe:
Ho cercato informazioni sul demo di AMD ma è una storia lunga dai contorni oscuri. Facciamo che ci passiamo qualche settimana di suspance e intanto mi evito di sparar cazzate preventive rivelando quel che ho trovato. :D
Comunque confermo che il motore del demo è basato sulle DX9. L'autore dice che al posto dei poligoni che si usano nel rendering attuale, il demo usa voxel, cioè la scena grafica è direttamente definita per ogni punto dello spazio 3d. (un voxel è un pixel nello spazio 3d). Trovi qualche info facile sui voxel e le loro applicazioni sulla wiki inglese.
in un circuito sincrono la velocità è scandita dal clock
La velocità delle porte logiche è data da caratteristiche geometriche ed elettriche di cui non è il caso di discorrere qui.
Il clock dei circuiti sincroni è un segnale di sincronismo, non di "velocità", e serve a fare in modo che il dato che entra nei registri di un sistema RTL contenga informazioni coerenti (cioé fa in modo che i registri aspettino i segnali più lenti)
Se il clock è troppo alto i segnali più lenti nella rete logica non ce la fanno ad arrivare in tempo al traguardo, i registri contengono dati incoerenti e il sistema comincia a sparar cazzate (il più delle volte si blocca) :D
Aumentare il voltaggio è uno dei modi per aumentare la velocità delle porte logiche, e quindi di conseguenza, consente un clock più alto.
In un circuito si usano tanti transistor a velocità e area diverse per ottimizzare area/prestazioni/consumi. Ci sono innumerevoli trucchi.
Anche la rete di distribuzione del clock usa transistor belli grossi ;) (che devono pilotare un alto numero di transistor)
Ho fatto una digressione giusto perché magari interessa gli overclockers, siamo andati completamente OT...
Nel caso di memorie cache conviene spostare il compromesso velocità/consumi/superficie più dalla parte della velocità, mentre le memorie DRAM lo spostano dalla parte della superficie (per consentire maggior megabyte per area). Anzi, gli stessi vari livelli di cache possono avere un diverso bilancio tra velocità/superficie.
Mercuri0
11-07-2008, 16:17
Edit: doppio post (che già uno mi pare assai e OT :D).
Ne approfitto per aggiungere che AMD sta pubblicizzando l'encoder video per GPU di cyberlink nelle slide della 4870x2.
Speriamo che questa volta sia una cosa seria... vorrei vedere i test di doom9.
appleroof
11-07-2008, 16:19
programma di foraggiamento che ha già avuto e sta avendo sempre più crepe, se è vero che blizzard (e non solo) hanno annunciato l'utilizzo delle dx10.1 per i prossimi titoli. Forse non foraggia abbastanza :D
già :asd:
e chi ha parlato di uno shrink? E' sufficiente che si mantenga lo stesso rapporto alu/tex e le alu fp64 (che sono l'unico modo, per i chip NV di fare calcoli in dp) e, soprattutto, che resti invariata la logica di controllo (tanti registri e circuiti molto complessi per ogni alu). Per quale motivo pensi che ATi, pur avendo un chip con logica analoga a G80 (con la differenza che R500 ha alu vettoriali e, quindi meno complesse rispetto ad un'architettura scalare), ha optato per un'architettura vliw degli sp?
Una nuova architettura in autunno, a 40 o 45 nm, con 2 mld di transistor e millemila unità di calcolo esiste nei sogni di qualche fanboy, non certo di un'azienda che, per essere competitiva, è costretta ad abbassare i prezzi delle proprie gpu rischiando di vendere in perdita (un die di GT200 costa poco meno di una HD4850) e che sta perdendo partnership esclusive con ditte che le erano rimaste fedeli persino ai tempi di NV30.
:eek: dovrò cominciare a non seguire più quei "fansiti" allora, se me ne indichi qualcuno Ati mi terrò alla larga anche da quelli allora :D (solo siti assolutamente imparziali come questo :O )
per il resto, se fossero veri quei rumors (che riassumo un attimo e velocemente: non parlano di una nuova architettura in autunno come dici, ma di un die-shrink a 55nm di g200 in autunno e del nuovo chip [dx11] primavera/estate prossima, ma sempre rumors sono, sufficienti però a farmi aspettare un attimo dagli acquisti suddetti, da cui tutto è partito e ritorno a dirlo per l'ennesima...) non credi che (come sai sicuramente meglio di me ), il nuovo chip non l'abbiano senz'altro cominciato a sviluppare ora o pochi mesi fà? Non c'è il caso che sia in sviluppo da tempo come ogni nuova architettura e che abbiano deciso di accellerare un pò i tempi o cmq sarebbe troppo presto estate 2009 per la nuova architettura?
yossarian
11-07-2008, 16:29
che dite di questo?
http://www.xtremesystems.org/forums/showpost.php?p=3132311&postcount=469
inoltre, una domandina per yossarian (la cui conoscenza tecnica di questi argomenti è spaventosa :D ): a livello di architettura, rv770 potrebbe già essere adatto a supportare dx11 o sono previste delle nuove features che richiederanno una nuova parte di hardware dedicato e che questo chip non ha già?
RV77'0 non è dx11; è un chip dx10.1.
Che poi le dx11 siano un'estensione delle precedenti API e RV770 possa supportarle in parte non ne fa, comunque un chip DX11.
Ha l'HW tessellator, ha la possibilità di utilizzare più render target per lo shader core e per lo operazioni di antialiasing, è strutturato per permettere di ricorrere ad algoritmi non lineari per il calcolo dell'AA con un impatto minimo sulle prestazioni, ha le RBE progettate per minimizzare limpatto prestazionale nel caso di applicazione di MSAA 4x o 8x. Molte di queste cose (più tante altre a livello di illuminazione globale, di qualità delle texture e di calcolo del LoD, ecc) sono previste dalle DX10.1; altre (ottimizzazione per il MSAA 8x e tessellator) vanno oltre le DX10.1
michelgaetano
11-07-2008, 16:31
RV77'0 non è dx11; è un chip dx10.1.
Che poi le dx11 siano un'estensione delle precedenti API e RV770 possa supportarle in parte non ne fa, comunque un chip DX11.
Ha l'HW tessellator, ha la possibilità di utilizzare più render target per lo shader core e per lo operazioni di antialiasing, è strutturato per permettere di ricorrere ad algoritmi non lineari per il calcolo dell'AA con un impatto minimo sulle prestazioni, ha le RBE progettate per minimizzare limpatto prestazionale nel caso di applicazione di MSAA 4x o 8x. Molte di queste cose (più tante altre a livello di illuminazione globale, di qualità delle texture e di calcolo del LoD, ecc) sono previste dalle DX10.1; altre (ottimizzazione per il MSAA 8x e tessellator) vanno oltre le DX10.1
:ave: :ave: :ave:
appleroof
11-07-2008, 16:38
:ave: :ave: :ave:
mi associo, sono sinceramente ammirato.
Tidus.hw
11-07-2008, 16:53
RV77'0 non è dx11; è un chip dx10.1.
Che poi le dx11 siano un'estensione delle precedenti API e RV770 possa supportarle in parte non ne fa, comunque un chip DX11.
Ha l'HW tessellator, ha la possibilità di utilizzare più render target per lo shader core e per lo operazioni di antialiasing, è strutturato per permettere di ricorrere ad algoritmi non lineari per il calcolo dell'AA con un impatto minimo sulle prestazioni, ha le RBE progettate per minimizzare limpatto prestazionale nel caso di applicazione di MSAA 4x o 8x. Molte di queste cose (più tante altre a livello di illuminazione globale, di qualità delle texture e di calcolo del LoD, ecc) sono previste dalle DX10.1; altre (ottimizzazione per il MSAA 8x e tessellator) vanno oltre le DX10.1
sei un pozzo di saggezza :D
ma come hai imparato tutte queste cose?
michelgaetano
11-07-2008, 16:57
sei un pozzo di saggezza :D
ma come hai imparato tutte queste cose?
Vero :eek:
Illuminaci, sommo :D
Magari a una televisione non serve l'encoder :D
Ma a un registratore? ;)
Non credo che monteranno lo Spurscoso solo sulle TV, cercheranno di metterlo un po' dappertutto :stordita:
Marko#88
11-07-2008, 17:01
mi associo, sono sinceramente ammirato.
*
yossarian
11-07-2008, 17:22
La velocità delle porte logiche è data da caratteristiche geometriche ed elettriche di cui non è il caso di discorrere qui.
stai parlando delle dimensione del canale source-drain? Perchè in tal caso, le dimensioni influiscono ma nel senso che più il canale è corto e largo e meglio è (come avviene per un comune conduttore). Il problema è che non è possibile ottenere un canale corto e largo a piacimento senza incorrere in problemi di varia natura. Per tua informazione, quando si parla di processo a xy nm si fa riferimento proprio alla larghezza minima di quel canale; ad esempio, nel processo a 65 nm, tipicamente i gate di un transistor sono sull'ordine dei 35 nm.
Il clock dei circuiti sincroni è un segnale di sincronismo, non di "velocità", e serve a fare in modo che il dato che entra nei registri di un sistema RTL contenga informazioni coerenti (cioé fa in modo che i registri aspettino i segnali più lenti)
il sincronismo serve a scandire i tempi con cui si devono eseguire le operazioni di load e store sui registri e stabilisce anche la volcità con cui il chip trasferisce dati al proprio interno e verso l'esterno. Hai esordito dicendo che in una cache servono transistor più grandi affinchè sia più veloce (cosa non vera, perchè canali più corti equivale a dire processo produttivo inferiore); hai continuato dicendo che le dimensioni geometriche contano: è vero, ma, ti ripeto, quello che si cerca di fare è aumentare il valore del rapporto tra larghezza e lunghezza del canale source-drain di un transistor (ovviamente, passando da un processo produttivo ad uno inferiore, si riducono entrambe le dimensioni, ma si cerca di ridurre la lunghezza in misura maggiore rispetto alla larghezza).
Se il clock è troppo alto i segnali più lenti nella rete logica non ce la fanno ad arrivare in tempo al traguardo, i registri contengono dati incoerenti e il sistema comincia a sparar cazzate (il più delle volte si blocca) :D
motivo per il quale il clock viene impostato prendendo come riferimento la velocità di trasferimento inferiore tra quella di tutti i circuiti presenti e considerando una certa tolleranza (in modo che un overclock non provochi immediatamente errori nell'elaborazione); motivo epr il quale il frazionamento degli stadi di elaborazione permette di aumentare di molto le frequenze di funzionamento (architetture pipelined e superpipelined).
Aumentare il voltaggio è uno dei modi per aumentare la velocità delle porte logiche, e quindi di conseguenza, consente un clock più alto.
quando si fa uno shrink a parità di clock, la tensione diminuisce, perchè con canali più corti e con un miglior rapporto larghezza/lunghezza si ha una resistenza inferiore. E solitamente, quando si fa overvolt di un chip con processo produttivo superiore (o inferiore se ci si riferisce alle dimenzioni), non si raggiungono le tensioni di alimentazione del chip di cui si è fatto shrink ma si ottengono frequenze superiori. :D
In un circuito si usano tanti transistor a velocità e area diverse per ottimizzare area/prestazioni/consumi.
certo, ma non è che uno è a 65 nm e l'altro è lungo 1 m :D
Ci sono innumerevoli trucchi.
qualcuno lo conosco :sofico:
Anche la rete di distribuzione del clock usa transistor belli grossi ;) (che devono pilotare un alto numero di transistor)
continua a sfuggirmi il significato della parola grossi
Nel caso di memorie cache conviene spostare il compromesso velocità/consumi/superficie più dalla parte della velocità, mentre le memorie DRAM lo spostano dalla parte della superficie (per consentire maggior megabyte per area).
non ti seguo. Come intendi spostare questi compromessi? Per una cache si utilizza memoria sram (e questo già la rende più veloce della sdram)
Anzi, gli stessi vari livelli di cache possono avere un diverso bilancio tra velocità/superficie.
non ha senso avere più livelli di cache tutti di uguali dimensioni
yossarian
11-07-2008, 17:28
:eek: dovrò cominciare a non seguire più quei "fansiti" allora, se me ne indichi qualcuno Ati mi terrò alla larga anche da quelli allora :D (solo siti assolutamente imparziali come questo :O )
così magari ti converti: miscredente :D
per il resto, se fossero veri quei rumors (che riassumo un attimo e velocemente: non parlano di una nuova architettura in autunno come dici, ma di un die-shrink a 55nm di g200 in autunno e del nuovo chip [dx11] primavera/estate prossima, ma sempre rumors sono, sufficienti però a farmi aspettare un attimo dagli acquisti suddetti, da cui tutto è partito e ritorno a dirlo per l'ennesima...) non credi che (come sai sicuramente meglio di me ), il nuovo chip non l'abbiano senz'altro cominciato a sviluppare ora o pochi mesi fà? Non c'è il caso che sia in sviluppo da tempo come ogni nuova architettura e che abbiano deciso di accellerare un pò i tempi o cmq sarebbe troppo presto estate 2009 per la nuova architettura?
uno shrink è la cosa più probabile; anche se per l'autunno mi sembra troppo presto. Dovranno prima mettere a punto il processo con lo shrink di G9x e cercare di ottenere rese produttive più elevate. Gli ultimi chip progettati da NV hanno una logica di controllo troppo complessa e questo non permette l'adozione di misure per aumentare le rese produttive (tipo l'adozione di un cluster inattivo in più all'interno del chip)
appleroof
11-07-2008, 17:37
così magari ti converti: miscredente :D
questa è una delle più belle battute che mi abbiano mai rivolto sul forum (se ho capito bene il sillogismo sottinteso :read: :D :D :D ) :asd:
uno shrink è la cosa più probabile; anche se per l'autunno mi sembra troppo presto. Dovranno prima mettere a punto il processo con lo shrink di G9x e cercare di ottenere rese produttive più elevate. Gli ultimi chip progettati da NV hanno una logica di controllo troppo complessa e questo non permette l'adozione di misure per aumentare le rese produttive (tipo l'adozione di un cluster inattivo in più all'interno del chip)
allora ricapitoliamo (chiedo scusa dell'Ot ma approfitto come fanno molti :D ): secondo te uno shrink di g200 a 55nm sarebbe troppo ottimistico per l'autunno...allora la mia impressione (che trae origine dai rumors di questi ultimi giorni) è che allora possano decidere di saltare questo (e rinunciare temporaneamente al celolunghismo? una 260gx2 la vedo un pò improbabile) e accellerare l'uscita del nuovo chip dx11 (e dx10.1 compatibile) per metà 2009...
Mercuri0
11-07-2008, 17:44
continua a sfuggirmi il significato della parola grossi
Con il canale più largo. Sto dicendo che non tutti i transistor si fanno a geometria minima, anche nello stesso processo produttivo.
Esempi sono i transistor per la rete di distribuzione del clock e quelli per il pilotaggio dei pad.
non ti seguo. Come intendi spostare questi compromessi? Per una cache si utilizza memoria sram (e questo già la rende più veloce della sdram)
Non facendo i transistor a geometria minima.
non ha senso avere più livelli di cache tutti di uguali dimensioni
Perché si fanno livelli di cache differenti all'interno di un die?
appleroof
11-07-2008, 18:24
non so se già postato:
http://www.tomshardware.tw/596,news-596.html
2x1gbddr5, un fantomatico "alcune funzionalità del powerplay non disponibile su tutte le 4800 (:what: ) "
non so se già postato:
http://www.tomshardware.tw/596,news-596.html
2x1gbddr5, un fantomatico "alcune funzionalità del powerplay non disponibile su tutte le 4800 (:what: ) "
Spegni una GPU in 2d? Sarebbe utile. :)
appleroof
11-07-2008, 18:29
Spegni una GPU in 2d? Sarebbe utile. :)
non la interpreterei proprio così....:stordita:
yossarian
11-07-2008, 18:31
questa è una delle più belle battute che mi abbiano mai rivolto sul forum (se ho capito bene il sillogismo sottinteso :read: :D :D :D ) :asd:
sei una persona intelligente, quindi......................:)
allora ricapitoliamo (chiedo scusa dell'Ot ma approfitto come fanno molti :D ): secondo te uno shrink di g200 a 55nm sarebbe troppo ottimistico per l'autunno...allora la mia impressione (che trae origine dai rumors di questi ultimi giorni) è che allora possano decidere di saltare questo (e rinunciare temporaneamente al celolunghismo? una 260gx2 la vedo un pò improbabile) e accellerare l'uscita del nuovo chip dx11 (e dx10.1 compatibile) per metà 2009...
una nuova architettura a cavallo tra il Q2 e il Q3 del 2009 ci può stare. C'è da vedere se sarà a 55 nm o se, nel frattempo, saranno riusciti a mettere a punto un processo rpoduttivo più raffinato
appleroof
11-07-2008, 18:39
sei una persona intelligente, quindi......................:)
grazie :)
una nuova architettura a cavallo tra il Q2 e il Q3 del 2009 ci può stare. C'è da vedere se sarà a 55 nm o se, nel frattempo, saranno riusciti a mettere a punto un processo rpoduttivo più raffinato
ohhhh....è quello che volevo sentire :D
la butto lì: a quel punto, se fosse nuova e se fosse 55nm chissene dei 45 o 40 subito (parlo dal punto di vista del consumatore finale, chiaro)...ok, grazie mille, non resta che aspettare qualche settimana e vedere il da farsi, per quanto mi riguarda
p.s.: qualche commento sulle slide della 4870x2 apparse su tm's taiwan? che significherebbe "alcune funzionalità del powerplay non sono disponibili su tutte le 4800? o chiedo troppo? :D :D
non la interpreterei proprio così....:stordita:
Cosa intendi? http://img90.imageshack.us/img90/7695/rincoht4.gif
appleroof
11-07-2008, 18:42
Cosa intendi? http://img90.imageshack.us/img90/7695/rincoht4.gif
quello che ho detto: che non è detto che sia come dici tu :D
Mercuri0
11-07-2008, 18:42
non so se già postato:
http://www.tomshardware.tw/596,news-596.html
2x1gbddr5, un fantomatico "alcune funzionalità del powerplay non disponibile su tutte le 4800 (:what: ) "
Boh, bisognerebbe vedere quali sono le funzionalità del poweplay.
Per esempio se c'è qualche funzione di risparimo nelle GDDR5, nelle GDDR3 non potrebbe essere abilitata. O robe così.
La parte più interessante di quelle slide, imo, è l'encoder video. Speriamo non sia una bufala, non conta solo la velocità ma anche la qualità di quello che sputa fuori.
quello che ho detto: che non è detto che sia come dici tu :D
Io mica ho detto che sarà così, la mia era un'ipotesi. http://img261.imageshack.us/img261/8351/kamehamepatqq4bd4.gif
appleroof
11-07-2008, 18:45
Boh, bisognerebbe vedere quali sono le funzionalità del poweplay.
Per esempio se c'è qualche funzione di risparimo nelle GDDR5, nelle GDDR3 non potrebbe essere abilitata. O robe così.
capito...cmq (anche da quello che leggo qui e su forum stranieri) non mi pare riuscitissimo finora, stò powerplay...
cmq si, mi pare proprio che le gddr5 abbiano funzinalità di risparmio che le ddr3 non hanno (cmq sempre in quelle slide si raccomanda un ali da 650W, meglio se di qualità....)
Mercuri0
11-07-2008, 18:47
capito...cmq (anche da quello che leggo qui e su forum stranieri) non mi pare riuscitissimo finora, stò powerplay...
Sulle 3870 a volte a dato problemi per questioni di immaturità dei driver. Sulle 4870 la funzione di scaling del clock non m'è sembrata abilitata ancora, ma è una cosa che si fa via driver.
Altra cosa interessante in quelle slide, e che non si conoscono i clock ma si sa dei 2.4 teraflop. Quindi magari i clock saranno più vicini alla 4870 che alla 4850.
appleroof
11-07-2008, 18:50
cut
Altra cosa interessante in quelle slide, e che non si conoscono i clock ma si sa dei 2.4 teraflop. Quindi magari i clock saranno più vicini alla 4870 che alla 4850.
bè...visto che i rumors la danno un 15% medio sopra un CF di 4870, a meno di migliorie di altro tipo credo fosse nelle cose che sarebbe stato così (ma come fanno a dissipare tutta quella roba? :eek: mi aspetto che sulla scheda mentre giochi ti ci puoi fare i tost :D )
Mercuri0
11-07-2008, 18:56
bè...visto che i rumors la danno un 15% medio sopra un CF di 4870, a meno di migliorie di altro tipo credo fosse nelle cose che sarebbe stato così (ma come fanno a dissipare tutta quella roba? :eek: mi aspetto che sulla scheda mentre giochi ti ci puoi fare i tost :D )
I rumor sono come il passa parola, e vanno letti tenendo conto di questo ;) Magari quel 15% in più "era l'efficienza del link crossfire su pcb rispetto a quello tradizionale" che è diventato "15% meglio di due 4870 in crossfire"
Comunque mi sono fatto l'idea che AMD ha dato ragione al nostro halduemilauno: per quella fascia i consumi arrivano fino a che il dissipatore regge :D . Che poi forse non dovrebbero essere troppo distanti dalla 9800GX2.
Domani se mi gira metto quelle slide in prima pagina con la traduzione dal marketingese.
edit: mah, l'unica info utile nuova è l'ampli da 650watt. Che sarà "veloce, sborona, high-tech, figa, con tanti SP, Flops, Cip, e ciop" già lo si sapeva.
michelgaetano
11-07-2008, 19:06
bè...visto che i rumors la danno un 15% medio sopra un CF di 4870, a meno di migliorie di altro tipo credo fosse nelle cose che sarebbe stato così (ma come fanno a dissipare tutta quella roba? :eek: mi aspetto che sulla scheda mentre giochi ti ci puoi fare i tost :D )
Beh con le soluzioni dual GPU sembra essere ormai una necessità :(
9800gx2 e 3870X2 i tost te li fanno davvero quasi :doh:
appleroof
11-07-2008, 19:09
I rumor sono come il passa parola, e vanno letti tenendo conto di questo ;) Magari quel 15% in più "era l'efficienza del link crossfire su pcb rispetto a quello tradizionale" che è diventato "15% meglio di due 4870 in crossfire"
già....
Comunque mi sono fatto l'idea che AMD ha dato ragione al nostro halduemilauno: per quella fascia i consumi arrivano fino a che il dissipatore regge :D . Che poi forse non dovrebbero essere troppo distanti dalla 9800GX2.
certo che è così, in quella fascia (di utenza, di conseguenza) i consumi non hanno l'importanza che hanno in quelle inferiori
cmq già il CF di 4870 è ben distante da una 9800gx2 (che consuma meno di una 3870x2)
http://www.hwupgrade.it/articoli/skvideo/2005/zotac-geforce-gtx-260-amp-edition_3.html
cut
edit: mah, l'unica info utile nuova è l'ampli da 650watt. Che sarà "veloce, sborona, high-tech, figa, con tanti SP, Flops, Cip, e ciop" già lo si sapeva.
si, a livello di utilità è l'unica a dire qualcosa di veramente nuovo (oltre alla conferma dei 2gb di ddr5 che sono state messe in dubbio)
cristian-BG
11-07-2008, 19:13
L'Enermax Galaxy 1000W che ha 5 cavi (3 da 6 e 2 da 8) da 12V separati dagli altri, ognuno con 24A, basterà spero! Se no mi girano eh.
sicuramente basta... l'avevo pure io.. ma l'ho cambiato già con un infinity 720 che avevo prima... oltre ad avere problemi con certe mobo che va in protezione... x quello che costa dovrebbe avere amperaggi piu consistenti... ora ho l'ali in firma.. si non è modulare ma 160€ x avere un 1050w e dai test che ho trovato lo danno meglio di un galaxy che quasi costa 100 in piu... nn lo trovo giusto!
Ordinato oggi: Corsair CMPSU-1000HXEU :D
http://www.corsairmemory.com/products/hx1000.aspx
dite che riuscirò a gestire :eek: due :eek: 4870x2 :eek: ???
forse è la volta buona che vedrò crysis girare in modo soddisfacente :D
cristian-BG
11-07-2008, 20:13
Ordinato oggi: Corsair CMPSU-1000HXEU :D
http://www.corsairmemory.com/products/hx1000.aspx
dite che riuscirò a gestire :eek: due :eek: 4870x2 :eek: ???
forse è la volta buona che vedremo crysis girare in modo soddisfacente :D
nn ho capito quanto ha nella 12v in Ampere... cmq 40A max? di 2? cmq dovresti riuscire a farle girare tutte e 2 senza problemi :D
nn ho capito quanto ha nella 12v in Ampere... cmq 40A max? di 2? cmq dovresti riuscire a farle girare tutte e 2 senza problemi :D
il fatto che non hai menzionato nulla in merito a crysis mi deve far pensare male???:mc:
spero che con due 4870x2 il gioco giri dignitosamente :D
cristian-BG
11-07-2008, 20:20
il fatto che non hai menzionato nulla in merito a crysis mi deve far pensare male???:mc:
spero che con due 4870x2 il gioco giri dignitosamente :D
nn ho detto nulla semplicemente xè come gioco è studiato male... e x farlo girare forse con 2 gira degnamente ... ma nn ne vale la pena spendere tutti quei soldi solo x crisys
yossarian
11-07-2008, 20:23
Con il canale più largo. Sto dicendo che non tutti i transistor si fanno a geometria minima, anche nello stesso processo produttivo.
Esempi sono i transistor per la rete di distribuzione del clock e quelli per il pilotaggio dei pad.
il che non equivale a dire transistor più grossi. Il processo produttivo indica la dimensione minima che si è ottenuta per il canale source-drain; ma non sta a significare che tutti i transistor hanno le medesime dimensioni. Quindi questa è un'ovvietà.
Non facendo i transistor a geometria minima.
ripeto: dipende dalle geometrie: per avere ram più veloci servono frequenze più alte che non si ottengono con transistor più grandi
Perché si fanno livelli di cache differenti all'interno di un die?
si mettono più livelli di cache sullo stesso die, oppure nello stesso package o all'interno dello stesso core o, se necessario, su uno stesso pcb.
E' ovvio che quanto più si può integrare meglio è. Ma non è sempre possibile integrare tutto.
Si utilizzano più livelli di cache per velocizzare l'accesso ai dati più utilizzati (la velocità di ricerca dipende dalle dimensioni della ram), per permettere a unità di calcolo facenti parte di differenti cluster di condividere dei dati (ma lo stesso vale anche per più core o per più die)
nn ho detto nulla semplicemente xè come gioco è studiato male... e x farlo girare forse con 2 gira degnamente ... ma nn ne vale la pena spendere tutti quei soldi solo x crisys
capito :rolleyes:
grazie per le risposte.... ciaoooo...
nel frattempo resto in attesa e leggo i vostri post
Immortal
11-07-2008, 22:14
quello che non capisco (scusate se è una cosa da n00b) è sempre in questa slide:
http://media.bestofmicro.com/J/M/116050/original/10Radeon4870X2.jpg
650W per una singola scheda, 1kw per 2 schede. vuol dire che una singola scheda consuma 350W? ma non doveva consumare meno di un CF di 4870? :confused:
quello che non capisco (scusate se è una cosa da n00b) è sempre in questa slide:
http://media.bestofmicro.com/J/M/116050/original/10Radeon4870X2.jpg
650W per una singola scheda, 1kw per 2 schede. vuol dire che una singola scheda consuma 350W? ma non doveva consumare meno di un CF di 4870? :confused:
Il tdp della singola scheda sarà di 270 W, infatti una slide menziona 8.8 GFlops / Watt, tenendo conto che la potenza di calcolo dichiarata è 2.4 TFlops:
2400/8.8=272 W
cristian-BG
11-07-2008, 22:30
capito :rolleyes:
grazie per le risposte.... ciaoooo...
nel frattempo resto in attesa e leggo i vostri post
una info ho visto che hai in signa la rampage... che dissi hai? lo zalman 9700 ci sta?
Il tdp della singola scheda sarà di 270 W, infatti una slide menziona 8.8 GFlops / Watt, tenendo conto che la potenza di calcolo dichiarata è 2.4 TFlops:
2400/8.8=272 W
Se non consuma meno di 30W in idle per compensare i 270W di full mi sa che mi prendo la singola, magari in versione super :(
una info ho visto che hai in signa la rampage... che dissi hai? lo zalman 9700 ci sta?
come dissi l'ho scritto in firma :D ho questo: Liquid Cooling Thermaltake Tribe CL-W0020D
http://www.thermaltakeusa.com/product/Liquid/DIY/cl-w0020/cl-w0020.asp
però se vuoi mi posso informare
ciao a presto
Ho ordinato proprio oggi l'alimentatore che si spera regga questa schedona, Corsair Tx750Watt. Che ne dite?? L'ho preso soprattutto perchè costa davvero poco e tutte le recensioni ne parlano benissimo, ottimo rapporto qualità prezzo insomma!:D
Ho ordinato proprio oggi l'alimentatore che si spera regga questa schedona, Corsair Tx750Watt. Che ne dite?? L'ho preso soprattutto perchè costa davvero poco e tutte le recensioni ne parlano benissimo, ottimo rapporto qualità prezzo insomma!:D
Bah...io sono sicuro che il mio in firma non si sforzerá neanche troppo....fai i conti :D
Bah...io sono sicuro che il mio in firma non si sforzerá neanche troppo....fai i conti :D
Azz.. dici?! Beh si magari sarai un po' al limite, basta che ha 2x 8+6 pin di alimentazione e in teoria la puoi sostenere! Questo che ho ordinato ne ha ben 4!:read:
Azz.. dici?! Beh si magari sarai un po' al limite, basta che ha 2x 8+6 pin di alimentazione e in teoria la puoi sostenere! Questo che ho ordinato ne ha ben 4!:read:
Non credo neanche che sará al limite :)
Piú che altro ritengo ingiustificata questa smania per alimentatori superdimensionati...
Vedo sempre piú gente che dice: "Devo comprare una 4850, dici che basta il mio ali da 2KW?"
Quando invece basta anche un 350W di qualitá.
La gente non capisce che ATi e nVidia dichiarano quei wattaggi (nel caso della 4870x2 sono 650W) perché il 90% degli utenti ha alimentatori di qualitá infima.
L'importante non é la potenza massima erogabile (la cui veridicitá si ha solo con i test), ma la distribuzione degli Ampere. E il mio ha ben 48A sulla 12V, reali, che direi vanno bene per qualsiasi configurazione di sistema + 4870x2 ;)
michelgaetano
12-07-2008, 00:51
Non credo neanche che sará al limite :)
Piú che altro ritengo ingiustificata questa smania per alimentatori superdimensionati...
Vedo sempre piú gente che dice: "Devo comprare una 4850, dici che basta il mio ali da 2KW?"
Quando invece basta anche un 350W di qualitá.
La gente non capisce che ATi e nVidia dichiarano quei wattaggi (nel caso della 4870x2 sono 650W) perché il 90% degli utenti ha alimentatori di qualitá infima.
L'importante non é la potenza massima erogabile (la cui veridicitá si ha solo con i test), ma la distribuzione degli Ampere. E il mio ha ben 48A sulla 12V, reali, che direi vanno bene per qualsiasi configurazione di sistema + 4870x2 ;)
Ben detto! :D :mano:
Non credo neanche che sará al limite :)
Piú che altro ritengo ingiustificata questa smania per alimentatori superdimensionati...
Vedo sempre piú gente che dice: "Devo comprare una 4850, dici che basta il mio ali da 2KW?"
Quando invece basta anche un 350W di qualitá.
La gente non capisce che ATi e nVidia dichiarano quei wattaggi (nel caso della 4870x2 sono 650W) perché il 90% degli utenti ha alimentatori di qualitá infima.
L'importante non é la potenza massima erogabile (la cui veridicitá si ha solo con i test), ma la distribuzione degli Ampere. E il mio ha ben 48A sulla 12V, reali, che direi vanno bene per qualsiasi configurazione di sistema + 4870x2 ;)
Esatto, il tuo ragionamento fila!:) Infatti io ne vengo da un 520watt di media bassa, anzi bassa qualità! Quindi ora che mi trovavo a cambiare ho deciso di abbondare un po' per stare al sicuro un bel po' di tempo!
Solo per completezza, posto il grafico di anandtech sui consumi delle schede attuali in full:
http://images.anandtech.com/graphs/atiradeonhd4870_062408145208/17144.png
Si dovrebbe avere un idea del consumo globale del sistema con una 4870x2 ;)
Ed é incluso un bel qx9770@3.20GHz...
Ottimo!:D Ci stiamo dentro alla grande!
Cooperdale
12-07-2008, 08:16
sicuramente basta... l'avevo pure io.. ma l'ho cambiato già con un infinity 720 che avevo prima... oltre ad avere problemi con certe mobo che va in protezione... x quello che costa dovrebbe avere amperaggi piu consistenti... ora ho l'ali in firma.. si non è modulare ma 160€ x avere un 1050w e dai test che ho trovato lo danno meglio di un galaxy che quasi costa 100 in piu... nn lo trovo giusto!
Io prima avevo un altro Enermax che però con lo sli di 7800gtx mi faceva impazzire con gli schermi blu. Idem con la 8800gtx. Così son passato a un altro, manco mi ricordo la marca (ah già, era un Fortron da 850), che si è fuso dopo due mesi, e allora son tornato a Enermax col Galaxy che non mi ha più dato problemi. So che ora i migliori sono i Corsair giusto? Però il mio dovrebbe davvero abbondare da ciò che leggo, anche se ho 7 hard disk...
Ah cosa vuol dire che con alcune mobo va in protezione?
halduemilauno
12-07-2008, 08:17
http://www.techtree.com/India/News/EXCLUSIVE_--_An_Interview_with_AMD/551-90984-579.html
Immortal
12-07-2008, 09:04
http://www.techtree.com/India/News/EXCLUSIVE_--_An_Interview_with_AMD/551-90984-579.html
davvero interessante...
poi, non so se avete notato questa frase:
As an aside, AMD has already built a computer that has four 4870X2s in it. So it has eight GPUs; drivers will not be supporting eight GPUs at this point of time.
:eek: :eek:
davvero interessante...
poi, non so se avete notato questa frase:
:eek: :eek:
Eccellente! I piccoli laboratori scientifici con un alimentatore da 2KW e una spesa di circa 2000$ si porterebbero a casa ben 9,6 Teraflops in single precision e 2 Teraflops in double precision. Entrerebbe nella Top500 dei supercomputer al 400ismo posto... e avrebbe un' efficenza energetrica 20 volte superiore al migliore processore prestazioni/consumi per super-computing esistente.
http://www.top500.org/lists/2008/06/highlights/power
Novità interessanti da Sampsa - xtremesystems
Good news! I can confirm that based on my own tests microstuttering is gone on R700!
I've tested with R700 (ATI Radeon HD 4870 X2) and R680 (ATI Radeon HD 3870 X2) in Crysis (1600x1200 and High settings). I used Fraps and enabled Frametimes logging. I recorded 2 seconds from exactly the same point in game (loaded from save game). Based on my recorded data, with ATI Radeon HD 3870 X2 frames are rendered after ~21,5 and every other frame after ~49,5 ms. With ATI Radeon HD 4870 X2 all framres are rendered after ~ 21,9 ms.
Link (http://www.xtremesystems.org/forums/showpost.php?p=3132311&postcount=469)
I'll make a better report about this issue during the weekend since I'm preparing my R700 preview to be published.
Link (http://www.xtremesystems.org/forums/showpost.php?p=3132912&postcount=492)
Riassumendo il microstuttering è assente e le recensioni, come anticipato, usciranno effettivamente lunedì.
Immortal
12-07-2008, 10:44
Novità interessanti da Sampsa - xtremesystems
Link (http://www.xtremesystems.org/forums/showpost.php?p=3132311&postcount=469)
Link (http://www.xtremesystems.org/forums/showpost.php?p=3132912&postcount=492)
Riassumendo il microstuttering è assente e le recensioni, come anticipato, usciranno effettivamente lunedì.
la prima parte l'ho postata già io ieri :)
la prima parte l'ho postata già io ieri :)
Scusa, ogni tanto mi perdo qualche post, sto invecchiando :D
michelgaetano
12-07-2008, 10:53
Se davvero è eliminato il microstuttering è ottimo :eek:
Ottimo anche il fatto che lunedì avremo le prime recensioni, non c'è nessuna NDA a riguardo?
Immortal
12-07-2008, 10:59
Se davvero è eliminato il microstuttering è ottimo :eek:
Ottimo anche il fatto che lunedì avremo le prime recensioni, non c'è nessuna NDA a riguardo?
quello che non ho ancora capito è se lunedì avremo i primi bench o avremo le prime info riguardo l'architettura della scheda e le sue innovazioni rispetto alal 3870x2 :confused: :confused:
Lunedì termina l'NDA, quindi dovremmo vedere sia i bench che i dettagli dell'architettura.
quando uscirà questa scehda?
michelgaetano
12-07-2008, 11:19
Lunedì termina l'NDA, quindi dovremmo vedere sia i bench che i dettagli dell'architettura.
Ottimo :)
quando uscirà questa scehda?
Agosto sembra
be ci sono solo che buone notizie bene :D
attendiamo adesso lunedì per vedere le innovazioni rispetto a r680 ed ovviamente i bench ;)
anche se cmq mi pare troppo elevato quello che si è detto sulle perfromance cioè addirittura un +50% con picchi dell'80...
bho ci credo poco.....
Immortal
12-07-2008, 12:28
be ci sono solo che buone notizie bene :D
attendiamo adesso lunedì per vedere le innovazioni rispetto a r680 ed ovviamente i bench ;)
anche se cmq mi pare troppo elevato quello che si è detto sulle perfromance cioè addirittura un +50% con picchi dell'80...
bho ci credo poco.....
beh..il 14 è circa metà mese...magari anticipando di qualche giorno i driver...almeno solo per le testate giornalistiche..chissà :sofico:
Cooperdale
12-07-2008, 12:49
Per Zeus, dopo questa notizia sul microstuttering sto salivando come un lama, tra un pò mi viene l'ascialia e finisco in ospedale per sta c@$$o di scheda!
beh..il 14 è circa metà mese...magari anticipando di qualche giorno i driver...almeno solo per le testate giornalistiche..chissà :sofico:
speriamo cmq è fondamentale che sviluppino driver in grado di sfruttare bene il potenziale del cf con i giochi che hanno problemi...
be ci sono solo che buone notizie bene :D
attendiamo adesso lunedì per vedere le innovazioni rispetto a r680 ed ovviamente i bench ;)
anche se cmq mi pare troppo elevato quello che si è detto sulle perfromance cioè addirittura un +50% con picchi dell'80...
bho ci credo poco.....
bè anche i rumors sull aHD4870 sparavano alto... però avevano ragione di esistere ;)
speriamo cmq è fondamentale che sviluppino driver in grado di sfruttare bene il potenziale del cf con i giochi che hanno problemi...
e' fondamentale il supporto driver
bè anche i rumors sull aHD4870 sparavano alto... però avevano ragione di esistere ;)
lo so :O ho seguito il 3d aspettando fino all'ultimo giorno (quasi)
ma quello che mi chiedo è come possa in certi casi andare l'80% in + della gtx280, cioè mi sembra davvero tanto, cmq credo che quando al consiglio di amministrazione di nvidia vedranno cosa è la x2 faranno recapitare un po' di promemoria con scritto "domani può fare a meno di presentarsi" :asd:
e' fondamentale il supporto driver
Quoto ;) ed è dove ati nn deve cannare!!!
infatti nemmeno la 2900xt era poi tanto malaccio (l'ho avuta) ma prima che ci fossero driver che nn davano bluescreen, errori nei giochi o prestazioni oscene (date dal nn supporto) sono passati mesi....
Tidus.hw
12-07-2008, 13:36
Quoto ;) ed è dove ati nn deve cannare!!!
infatti nemmeno la 2900xt era poi tanto malaccio (l'ho avuta) ma prima che ci fossero driver che nn davano bluescreen, errori nei giochi o prestazioni oscene (date dal nn supporto) sono passati mesi....
schermate blu, errori nei giochi? :mbe:
mai capitato xD
Eccellente! I piccoli laboratori scientifici con un alimentatore da 2KW e una spesa di circa 2000$ si porterebbero a casa ben 9,6 Teraflops in single precision e 2 Teraflops in double precision. Entrerebbe nella Top500 dei supercomputer al 400ismo posto... e avrebbe un' efficenza energetrica 20 volte superiore al migliore processore prestazioni/consumi per super-computing esistente.
http://www.top500.org/lists/2008/06/highlights/power
Attento: i flops della Top500 sono in doppia precisione ed ottenuti facendo girare un benchmark, mentre i 9.6 Gflops da te indicati sono in singola precisione e teorici.
I Gflops in doppia precisione di una R7xx sono 1/5 dei flops in singola precisione, quindi 4 R700 avrebbero una capacita' di calcolo teorica di 1.96 Gflops DP
Saluti
Tidus.hw
12-07-2008, 13:47
inoltre larabee in double preciosion fa circa un TeraFlops e probabilmente è in grado di fare girare il benchmark per entrare in classifica perchè sono dei veri e proprio core x86.
2 Larabee vs 4 4870x2, dov'è la convenienza ora? :D
Free Gordon
12-07-2008, 15:46
Attento: i flops della Top500 sono in doppia precisione ed ottenuti facendo girare un benchmark, mentre i 9.6 Gflops da te indicati sono in singola precisione e teorici.
I Gflops in doppia precisione di una R7xx sono 1/5 dei flops in singola precisione, quindi 4 R700 avrebbero una capacita' di calcolo teorica di 1.96 Gflops DP
Saluti
Ogni Rv770, arriva in DP ad 1/5 del picco teorico del SP.
Sono 800 unità (x2) x 750mhz = 1.2 Tflops, per cui 240 Gflops per chip. ;)
Un R700 è composto da 2 Rv770, per cui 480 Gflops.
4 R700 sono 1.92 Tflops ;) (quasi 2 teraflops teorici)
Free Gordon
12-07-2008, 15:49
inoltre larabee in double preciosion fa circa un TeraFlops e probabilmente è in grado di fare girare il benchmark per entrare in classifica perchè sono dei veri e proprio core x86.
2 Larabee vs 4 4870x2, dov'è la convenienza ora? :D
Bisognerà vedere quanto costerà 1 Larrabee e soprattutto quanto consumerà.. ;)
Cmq credo che per il calcolo scientifico, Larrabee sarà la cosa migliore sicuramente. ;)
Ma come GPU, ora come ora, penso proprio di no. :D
yossarian
12-07-2008, 16:16
Bisognerà vedere quanto costerà 1 Larrabee e soprattutto quanto consumerà.. ;)
Cmq credo che per il calcolo scientifico, Larrabee sarà la cosa migliore sicuramente. ;)
Ma come GPU, ora come ora, penso proprio di no. :D
neanche in futuro, se è vero che ogni core potrà elaborare solo 4 thread contemporaneamente. Come gpu sarebbe un "chiodo"
Mercuri0
12-07-2008, 17:12
inoltre larabee in double preciosion fa circa un TeraFlops e probabilmente è in grado di fare girare il benchmark per entrare in classifica perchè sono dei veri e proprio core x86.
2 Larabee vs 4 4870x2, dov'è la convenienza ora? :D
1 - Quale larrabee? Dov'è?
2 - Chi l'ha detto che fa 1 TF a precisione doppia?
3 - La classifica non la fanno solo gli x86, eh. In cima ora c'è il sistema ibrido Cell/Opteron di IBM. E AMD ha già in beta una versione delle ACML (AMD's Core Math Library) in grado di girare sulle GPU, pronta da scaricare. http://ati.amd.com/technology/streamcomputing/sdkdwnld.html
Le ACML, guardacaso, possono essere utilizzate (e probabilmente lo sono) per Linpack - che mi sembra sia il test standard per il top500.
Non volevo spegnere entusiasmi o fare paragoni, ma confrontare un prodotto in commercio con una slide di powerpoint di cui forse vedremo qualcosa tra oltre un anno mi sembra osare un pò troppo. ;)
schermate blu, errori nei giochi? :mbe:
mai capitato xD
fino ai driver 7.8 il sistema era molto instabile, mediamente in un anno formatto (a parte quando cambio pezzi) solo una volta, ma in 3 mesi avrò formattato 10/15 volte, poi alcuni giochi fino ai 7.7 avevano problemi (lost planet è quello che si ricorda meglio ma cmq anche altri) solo con i 7.9 o 8.1 (adesso nn ricordo bene) hanno iniziato ad aumentare le performance con AA.... :muro:
adesso sicuramente con Rv770 e R700 le cose sono cambiate ma cmq il punto debole di ATI sta proprio nel fatto che ha un supporto driver nn proprio veloce ed eccelso, sinceramente preferisco Nvidia che rilascia 100 beta in un anno e forse se va bene 4 o 5 whql ma che appena riscontra un problema lo risolve in tempi tutto sommato brevi (tranne particolari casi :stordita: )
cmq ho una domanda per yossarian e Mercuri0: ho sentito dire che le software house scelgono Nvidia nn solo/tanto perchè paga ma perchè mette a disposizione dei programmatori numerosi strumenti e utility che sono abbastaza fondamentali, è vero?
neanche in futuro, se è vero che ogni core potrà elaborare solo 4 thread contemporaneamente. Come gpu sarebbe un "chiodo"
In totale 128 thread per ciclo di clock, ma a 2 Ghz (assumendo come veri i rumor di 32 core@2ghz). Giusto per confrontarli.. quanti thread possono gestire RV770 e GT200?
Forse ricordo male.. ma ogni SIMD di R600/RV770 dovrebbe gestirne 64, quindi su RV770 dovrebbero essere 640 thread per ciclo di clock. Le ALU di G80/GT200 sono dual-thread e in totale quindi su GT200 sono 480 per ciclo di clock.
Mah mi sa che ricordo proprio male.. :stordita:
ragazzi secondo me stavolta e' la volta buona
dite che due di queste schedozze spingeranno di più di uno sli 280 gtx??? :mc:
PS: sono fissato con crysis :mbe:
non so se si era capito :sofico:
dite che due di queste schedozze spingeranno di più di uno sli 280 gtx??? :mc:
PS: sono fissato con crysis :mbe:
non so se si era capito :sofico:
Solo i bench ufficiali potranno appagare questa fissazione per crysis :D
Solo i bench ufficiali potranno appagare questa fissazione per crysis :D
speriamo di essere appagato al più presto :D
nel frattempo resto sintonizzato e mi metto in coda in attesa dei primi bench:Prrr:
Foglia Morta
12-07-2008, 21:20
http://www.techtree.com/India/News/EXCLUSIVE_--_An_Interview_with_AMD/551-90984-579.html
Riguardo a questo:
As an aside, AMD has already built a computer that has four 4870X2s in it. So it has eight GPUs; drivers will not be supporting eight GPUs at this point of time.
la 4870X2 ha un solo connettore per il crossfire quindi quello potrebbe essere solo un esperimento per soluzioni future. la prima cosa mi viene in mente è che se la prossima gpu derivata da RV770 sarà a 40nm ( magari 130-135mm2 ) potrebbero mettercene 2 in un package , 4 in 2 package e crossfire di 2 schede ( 8 gpu ) .
Riguardo i test:
http://plaza.fi/s/f/editor/images/ms_test.jpg
Ok, I finished testing with R700, 4870 CF, 3870 X2 and GeForce 9800 GX2 (Single and SLI mode) and recorded frametimes in Crysis and Unreal Tournament 3 demo:
The worst case scenario happened with 3870 X2 in Crysis when every other frame was rendered after ~21,5 ms and every other after ~49,5 ms. However in UT3 demo 3870 X2 provided stable ~11,5 - 12,6 ms rendering times between the frames.
R700 seems to be very strong and it rendered every frame after ~21,6 - 22,1 ms in Crysis and ~11,5 - 11,9 ms in UT3.
Also 4870 CF provided equally good results compared to R700 and rendered every frame after ~21,3 - 21,7 ms in Crysis and ~11,2 - 12,1 ms in UT3.
GeForce 9800 GX2 showed alot more variation in rendering times and frames were rendered after ~21,9 - 25,1 ms in Crysis and ~7,4 - 11,5 ms in UT3.
PLEASE NOTE!
These results are measured and analyzed with simple tools including Fraps and Excel. In my own conclusion, it seems that microstuttering depends on game engine and if we leave 3870 X2 in Crysis out from the results it looks like NVIDIA's SLI (9800 GX2) is suffering more from microstuttering than AMD's CrossFire.
http://www.xtremesystems.org/forums/showpost.php?p=3135424&postcount=529
Riguardo a questo:
la 4870X2 ha un solo connettore per il crossfire quindi quello potrebbe essere solo un esperimento per soluzioni future. la prima cosa mi viene in mente è che se la prossima gpu derivata da RV770 sarà a 40nm ( magari 130-135mm2 ) potrebbero mettercene 2 in un package , 4 in 2 package e crossfire di 2 schede ( 8 gpu ) .
Riguardo i test:
http://www.xtremesystems.org/forums/showpost.php?p=3135424&postcount=529
Non con un bus a 256bit :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.