View Full Version : [THREAD UFFICIALE] Aspettando R700
sono molto allettanti se escono per giugno e piu o meno con i prezzi delle 38xx.......vedremo le prestazioni piu avanti, non capisco perche non abbiano messo un bus leggermente superiore.....vabbe
comunque mi sa che segneranno il risveglio dell'ati, almeno per adesso pare che il planning funziona un po meglio di subito dopo l'acquisizione dell'amd ogni sei mesi chip grafgici nuovi!
Se usano le GDDR5 la banda passante sarà di 256 bit / 8 * 2200* 2 per la HD4870... cioè 158 Gigabyte/s e di 256/8 * 2 * 2200 * 2 per la HD4870X2 cioè 260 Gb/s.
Kharonte85
28-03-2008, 12:35
Le controindicazioni delle x2 AMD/ATI sono esattamente le stesse delle x2 Nvidia. Ovverosia ogni gioco per sfruttare al massimo l'x2 dev'essere inserito nei drivers (profiling) in caso contrario l'aumento di prestazioni non ce'.
mi riferivo anche ai consumi e ai problemi di incompatibilita' hardware, mentre nvidia ha schierato una sola Dual GPU (TOP di gamma) e contrapporra' alle x2 le sue single piu' potenti AMD a quanto pare prevede il raddoppio con altre soluzioni per andare a coprire la fascia alta e medio alta, e non mi sembra una strategia convincente specie per la hd3850x2...
http://resources.vr-zone.com/newzhunter/RV770/1.gif
http://resources.vr-zone.com/newzhunter/RV770/2.gif
http://resources.vr-zone.com/newzhunter/RV770/3.gif
http://forums.vr-zone.com/showthread.php?t=255294
ancora ste caxxate? GDDR5 :asd:
HackaB321
28-03-2008, 12:47
55nm TSMC process
480 SP (4D+1D) - 1D consists of 96 SP
32 TMU
800-900MHz core clock
PCB design similar to RV670
Replace current RV670 price point
Rumor credibili e positivi. 4 SIMD da 24 sp o 6 SIMD da 16 (più probabile quest'ultima) con 4 texture block da 8TFU l'uno. Rapporto ALU:TEX minore e GPU più equilibrata. Se sono veri i dati del consumo in idle hanno apportato grosse migliorie al power play visto che è ormai molto probabile che sarà a 55nm.
goldorak
28-03-2008, 12:48
mi riferivo anche ai consumi e ai problemi di incompatibilita' hardware, mentre nvidia ha schierato una sola Dual GPU (TOP di gamma) e contrapporra' alle x2 le sue single piu' potenti AMD a quanto pare prevede il raddoppio con altre soluzioni per andare a coprire la fascia alta e medio alta, e non mi sembra una strategia convincente specie per la hd3850x2...
Il problema dei consumi ci sono anche per la 9800gx2 o ti dimentichi che la scheda non parte proprio se non si usano 6 pin + 8 pin ? :rolleyes:
Mentre la 3870gx 2 parte anche con 2x6pin anche se non si puo' overclockare.
I problemi di incompatibilita' hardware quali sono ? Forse ti riferisci a certe schede madri asus ? Ma li basta un aggiornamento firmware del bios ed e' tutto risolto.
Secondo te perche' la Nvidia non ha tirato un altro chip monolitico dopo piu' di 2 anni o quasi ? (e no la colpa non e' solo della mancanza di concorrenza di ATI) Hanno toccato un limite tecnologico, ed e' per questo che vedrai le prossime gpu Nvidia fare lo stesso percorso delle schede AMD/ATI.
Multigpu a corta scadenza, e nel medio lungo termine gpu eterogenee.
ma alla fine dei conti una 4870 andrà quanto una 9800gtx consumando di più? :fagiano:
paolox86
28-03-2008, 12:49
Spettacolo se fosse così, <10 w in idle sarebbe davvero una gran cosa... Valuterò anche le proposte nvidia però la 4870 mi sembra una buona erede della mia attuale 3870:)
The_max_80
28-03-2008, 13:01
ma r700 non doveva essere multi core?
inoltre è normale che siano tutte a 256 bit contro i 384 do g80 e i 512 di r600?
goldorak
28-03-2008, 13:05
ma r700 non doveva essere multi core?
inoltre è normale che siano tutte a 256 bit contro i 384 do g80 e i 512 di r600?
Forse la tecnologia per il multicore e' ancora acerba.
Kharonte85
28-03-2008, 13:37
Il problema dei consumi ci sono anche per la 9800gx2 o ti dimentichi che la scheda non parte proprio se non si usano 6 pin + 8 pin ? :rolleyes:
Mentre la 3870gx 2 parte anche con 2x6pin anche se non si puo' overclockare.
Parlavo della quantita' dei consumi rispetto ad una singola GPU, il discorso dei pin non mi interessa e non rappresenta certo un problema per chi si decide a comprare schede del genere (rispettive TOP di gamma)
Mentre su una scheda di fascia altissima i consumi possono anche non venire considerati, sulla fascia media acquistano importanza per ovvie ragioni "economiche"
I problemi di incompatibilita' hardware quali sono ? Forse ti riferisci a certe schede madri asus ? Ma li basta un aggiornamento firmware del bios ed e' tutto risolto.
Si' mi riferivo a quelli...ma ce ne sono altri a sentire il thread (oltre ai malfunzionamenti o funzionamenti altalenanti della scheda stessa)
Secondo te perche' la Nvidia non ha tirato un altro chip monolitico dopo piu' di 2 anni o quasi ? (e no la colpa non e' solo della mancanza di concorrenza di ATI) Hanno toccato un limite tecnologico, ed e' per questo che vedrai le prossime gpu Nvidia fare lo stesso percorso delle schede AMD/ATI.
Multigpu a corta scadenza, e nel medio lungo termine gpu eterogenee.
per adesso l'iter è stato speculare a quello che si è visto in passato con la gx2 ma con tempi dilatatati, e c'è proprio l'impressione che nvidia faccia una marcatura a uomo su AMD conscia del vantaggio acquisito nel periodo della serie 8; ma non è da escludere la venuta di una nuova 8800gtx (nel senso di vera nuova generazione e non piu' evoluzione di quello che si è avuto fino ad ora ) dopo l'estate (in risposta a questa rv770 x2?)...di sicuro c'è che il piazzare una hd3850x2 per controbattere la 9800gts mi sembra una mossa azzardata e non pagante...un po' come i mostri visti in passato: 2600 dual e x1950 dual che difatto hanno riscontrato ovviamente successo prossimo allo zero...
appleroof
28-03-2008, 13:41
http://www.nordichardware.com/news,7575.html
Quello che ho notato come prima cosa é che la 4870x2 ha la stessa quantitá di memoria della 4870, quindi presumo che il nuovo crossfire condivida la memoria con i 2 chip...
Mr_Paulus
28-03-2008, 13:56
Quello che ho notato come prima cosa é che la 4870x2 ha la stessa quantitá di memoria della 4870, quindi presumo che il nuovo crossfire condivida la memoria con i 2 chip...
o che per contenere i costi e i consumi abbiano messo 512MB di ram x gpu nella X2..
HackaB321
28-03-2008, 13:59
di sicuro c'è che il piazzare una hd3850x2 per controbattere la 9800gts mi sembra una mossa azzardata e non pagante...un po' come i mostri visti in passato: 2600 dual e x1950 dual che difatto hanno riscontrato ovviamente successo prossimo allo zero...
Credo che la 3850x2 nasca più come progetto dei partner che di ATi. E comunque è anche l'unica mossa possibile per contrastare le prestazioni della GTS visto che prima di RV770 non usciranno refresh di RV670, a parte lo step A12 del chip che verso Maggio permetterà frequenze maggiori per la 3870 (e che comunque permetteranno di andare a insidiare la GT non la GTS)
Quello che ho notato come prima cosa é che la 4870x2 ha la stessa quantitá di memoria della 4870, quindi presumo che il nuovo crossfire condivida la memoria con i 2 chip...
l'ho notato anch'io e sarebbe una interessantissima novità. Ma esiste anche la possibilità che abbiano indicato la memoria per GPU e non totale
Io voglio una guerra dei prezzi :muro:
Speriamo non siano troppo alti qua da noi e cmq ci sai poco dopo un'abbassamento.
supercomputer1
28-03-2008, 19:38
Heard that R700 is not as simple R680 similar bridge CF, the hardware has to meet the R700 MEM share, if we can do this then MEM share dual GPU cards before they can call it the "single-card ", and R700 also is likely to be the first one to conquer CRYSIS
il collegamento dell'r700 non e' simile al ponte che vi e' nel r680 ma e' condivisa tra le 2 GPU con cio dovrebbe essere la prima GPU a far girare CRYSIS decentemente
ecco qua riportata la differenza architetturale della memori per gpu e della memoria condivisa. PS guardare i disegnini sotto riportati
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
sotto riporta l'architettura cluster dell' attuale 3800
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_08l.gif
Athlon 64 3000+
28-03-2008, 19:42
Heard that R700 is not as simple R680 similar bridge CF, the hardware has to meet the R700 MEM share, if we can do this then MEM share dual GPU cards before they can call it the "single-card ", and R700 also is likely to be the first one to conquer CRYSIS
il collegamento dell'r700 non e' simile al ponte che vi e' nel r680 ma e' condivisa tra le 2 GPU con cio dovrebbe essere la prima GPU a far girare CRYSIS decentemente
ecco qua riportata la differenza architetturale della memori per gpu e della memoria condivisa. PS guardare i disegnini sotto riportati
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
sotto riporta l'architettura cluster dell' attuale 3800
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_08l.gif
in questo schema però non si capisce se in R700 le 2 gpu avranno il controller di memoria condiviso oppure no.
Io spero che R700 sia una vera gpu multicore e che abbia un controller di memoria unico a 512 bit.
supercomputer1
28-03-2008, 19:48
Da quanto vedo la memoria e' condivisa per ambedue le GPU
mentre ogni GPU possiede il propio controller anche perche ogni GPU ha una necessita' di dialogare con la memoria differente dall'altra GPU in base al carico di lavoro , ed il bello e' che anche ogni GPU puo' andare in SLEEP
indipendentemente dall'altra se il carico di lavoro non e' eccessivo.
mircocatta
28-03-2008, 20:03
http://www.tomshw.it/news.php?newsid=13541
come ho già scritto nel mio commento, la fascia alta, la 4870 o la versione x2 saranno mie se le prestazioni rispecchiano le aspettative..l'unica cosa che preoccupa sono rops e tmu forse un po basse di numero??
supercomputer1
28-03-2008, 20:08
A qunto pare per la version x2 dovremmo avere 64 TMU and 32 ROP
che non sono niente male , se non sbaglioera la 7950gx2 che aveva 32 rop.
e meno tmu.
ma sono supposizioni queste ultime news........o c'è qualcosa di + concreto?
Inoltre se cosi fosse, quale sarebbe il il tipo di bus che connetterebbe le due gpu in R700??? Crossfire ancora??? o altro?
Mister Tarpone
29-03-2008, 00:49
A qunto pare per la version x2 dovremmo avere 64 TMU and 32 ROP
che non sono niente male , se non sbaglioera la 7950gx2 che aveva 32 rop.
e meno tmu.
e che confronto è???? con una scheda che è uscita anni fa... :asd:
il confronto lo devi fare con la 9800GX2... che ha 128tmu e 32rops...
Mister Tarpone
29-03-2008, 00:52
a parte lo step A12 del chip che verso Maggio permetterà frequenze maggiori per la 3870 (e che comunque permetteranno di andare a insidiare la GT non la GTS)
ma sei sicuro che basti una 3870 overcloccata (che imho chiameranno 3890...ci scommetterei..)per fronteggiare una 8800GT??
...per es. le 3870 occate a 850/2500 non vanno proprio come la 8800GT..
poi aggiungiamoci che nello stesso periodo probabilmente uscirà anche la 9800GT...che andrà cmq un pelo meglio della precedente.
poi magari sbaglio....o magari questa step A12 uscirà con core addirittura @ 1000mhz... e allora...
e allora... bohhhhh :boh:
halduemilauno
29-03-2008, 07:23
http://resources.vr-zone.com/newspics/Mar08/28/amdvsnv.gif
Here's how the products stack up for Q2 between AMD and Nvidia. In April, we
will see the introduction of HD 3850 X2, HD 3830, HD 3650 OC from AMD as well as
GeForce 9800 GTX.�HD 3830 is actually HD 3690 but the latter is meant for China market only while HD 3830 will be available worldwide. As for the rest of the GeForce 9800, 9600, 9500 and 9300
series, they are slated for June introduction. We have not include the RV770
series yet as we are in the midst of collecting more information on this new
architecture but they are on target to appear in late May.
questo quanto dicono qui: http://forums.vr-zone.com/showthread.php?t=255349
la 3830 deve essere per forza sotto i 150$.
due precisazioni in merito alla roadmap di nvidia non ci saranno tre schede tra la 9600gt e la 9800gtx. manca lo spazio di manovra per caratteristiche e prezzi ce ne saranno al massimo due 9800gt e 9800gts. dato che si parla di Q2 ovvero secondo trimestre a giugno usciranno le versioni G92B delle 9800gtx e 9800gx2 con 100/250 in + su core/shader.
ma sei sicuro che basti una 3870 overcloccata (che imho chiameranno 3890...ci scommetterei..)per fronteggiare una 8800GT??
...per es. le 3870 occate a 850/2500 non vanno proprio come la 8800GT..
poi aggiungiamoci che nello stesso periodo probabilmente uscirà anche la 9800GT...che andrà cmq un pelo meglio della precedente.
poi magari sbaglio....o magari questa step A12 uscirà con core addirittura @ 1000mhz... e allora...
e allora... bohhhhh :boh:
Link ?
Comunque lo step A12 dovrebbe consentire di salire oltre gli 850mhz, visto che questo risultato è facilmente raggiungibile da rv670 tant'è che sulla x2 il clock delle gpu è di 825mhz. Quindi se la revision A12 non consente almeno i 900mhz o più sarà una gran sola.
halduemilauno
29-03-2008, 08:16
Verificherò...
Comunque lo step A12 dovrebbe consentire di salire oltre gli 850mhz, visto che questo risultato è facilmente raggiungibile da rv670 tant'è che sulla x2 il clock delle gpu è di 850mhz. Quindi se la revision A12 non consente almeno i 900mhz o più sarà una gran sola.
sulla 3870x2 il clock default è 825.
sulla 3870x2 il clock default è 825.
:fagiano: sbagliato a scrivere
supercomputer1
29-03-2008, 11:20
128 TMU ?!? Puerca vacca sono davvero tanti, scusate mi sono fatto prendere dall'emozione mi chiedo se le notizie sono vere come mai AMD mette cosi poche TMU ?
Petizione online per spingere AMD a mettere 256 TMU sulla R700 :mc: :muro:
Costi?
Magari non gli interessa puntare su alte risoluzioni?
Ma più che altro a che servono ste TMU?
:D
supercomputer1
29-03-2008, 11:47
Le TMU sono le unita di gestione delle texture
texture = immagine che serve a creare la superficie di un oggetto
bidimensionale o tridimensionale; pero' pensandoci bene ATI usa un'altra tecnologia per poter farelo stesso lavoro che viene chiamato Tessellation
ovvero prendere un 'oggetto 3d composto da n poligoni aumentare il numero
dei poligoni originari con dei poligoni sempre piu piccoli in modo che piu poligoni piccoli si vengono a creare piu definita diventa l'immagine,
ricordo un comento da parte di NVIDIA quando usci la R600
Nvidia disse ATI is big on tessellation, cioe' le schede ATi sono buone nella realizzazione della tecnica tessellation , forse e' per questo che utilazzano pochie TMU.
anche io sto aspettando (in maniera relativamente impaziente) il nuovo chip grafico della casa del silicio AMD, ex ATI, in particolare R700
Le TMU sono le unita di gestione delle texture
texture = immagine che serve a creare la superficie di un oggetto
bidimensionale o tridimensionale; pero' pensandoci bene ATI usa un'altra tecnologia per poter farelo stesso lavoro che viene chiamato Tessellation
ovvero prendere un 'oggetto 3d composto da n poligoni aumentare il numero
dei poligoni originari con dei poligoni sempre piu piccoli in modo che piu poligoni piccoli si vengono a creare piu definita diventa l'immagine,
ricordo un comento da parte di NVIDIA quando usci la R600
Nvidia disse ATI is big on tessellation, cioe' le schede ATi sono buone nella realizzazione della tecnica tessellation , forse e' per questo che utilazzano pochie TMU.
:eek: :muro: :cry:
goldorak
29-03-2008, 11:55
Le TMU sono le unita di gestione delle texture
texture = immagine che serve a creare la superficie di un oggetto
bidimensionale o tridimensionale; pero' pensandoci bene ATI usa un'altra tecnologia per poter farelo stesso lavoro che viene chiamato Tessellation
ovvero prendere un 'oggetto 3d composto da n poligoni aumentare il numero
dei poligoni originari con dei poligoni sempre piu piccoli in modo che piu poligoni piccoli si vengono a creare piu definita diventa l'immagine,
ricordo un comento da parte di NVIDIA quando usci la R600
Nvidia disse ATI is big on tessellation, cioe' le schede ATi sono buone nella realizzazione della tecnica tessellation , forse e' per questo che utilazzano pochie TMU.
Peccato che l'unita' di tessellation funziona solo sotto directx 10 e visto che di giochi nativi dx 10 non ne esistono per il momento, le tmu sono fondamentali per garantire ottime prestazioni.
Sicuro che non tipenda dai programmatori?
Che magari non hanno voglia di usare questa tecnica?
goldorak
29-03-2008, 12:31
Sicuro che non tipenda dai programmatori?
Che magari non hanno voglia di usare questa tecnica?
Sicuro, solo l'api dx 10 rende disponibile l'unita' di tessellazione.
Le dx 9 no.
goldorak
29-03-2008, 12:46
L'xbox 360 è dx9 e usa la tassellation...
Si ma li' e' per motivi diversi.
A meno che la Microsoft non decida di rendere disponibile l'unita' di tessellation nelle dx 9 quello che ho detto e' corretto. Almeno per il pc.
supercomputer1
29-03-2008, 12:49
Si concordo goldorock la tassellatin 10 sono caratteristich delle dx 10
nelle Directx 11 si migliorera' di molto questa funzionalita' con una seconda generazione di tassellator
supercomputer1
29-03-2008, 13:00
con una dimensione simile dovrebbero consumare pochissimo
incredibile
http://forums.vr-zone.com/showthread.php?t=255724
:eek:
Free Gordon
29-03-2008, 13:18
Le TMU sono le unita di gestione delle texture
texture = immagine che serve a creare la superficie di un oggetto
bidimensionale o tridimensionale; pero' pensandoci bene ATI usa un'altra tecnologia per poter farelo stesso lavoro che viene chiamato Tessellation
ovvero prendere un 'oggetto 3d composto da n poligoni aumentare il numero
dei poligoni originari con dei poligoni sempre piu piccoli in modo che piu poligoni piccoli si vengono a creare piu definita diventa l'immagine,
ricordo un comento da parte di NVIDIA quando usci la R600
Nvidia disse ATI is big on tessellation, cioe' le schede ATi sono buone nella realizzazione della tecnica tessellation , forse e' per questo che utilazzano pochie TMU.
Ehmm.. hai un pò di confusione. :D
Il tessellator non ha grossa attinenza con le TMU.
Free Gordon
29-03-2008, 13:19
L'xbox 360 è dx9 e usa la tassellation...
Le X-api non sono granchè assimilabili alle dx9.. ;)
Chiedi a fek (ora lavora a Fable2).
Free Gordon
29-03-2008, 13:23
Si ma li' e' per motivi diversi.
A meno che la Microsoft non decida di rendere disponibile l'unita' di tessellation nelle dx 9 quello che ho detto e' corretto. Almeno per il pc.
Se una softhouse vuole usare il tessellator lo può fare anche in dx9 e può farlo anche ora senza aspettare Ms.. ;)
Il problema è che nVidia non ce l'ha sul G8/9x, per cui questa cosa non accadrà mai.
Sicuro che non tipenda dai programmatori?
Che magari non hanno voglia di usare questa tecnica?
Ciao frei.. :D
E' ovvio che sia così.
I coders non avrebbero nessun vantaggio ad usare il tessellator, in questo momento. Perchè solo ATI lo implementa.
goldorak
29-03-2008, 13:31
Se una softhouse vuole usare il tessellator lo può fare anche in dx9 e può farlo anche ora senza aspettare Ms.. ;)
Il problema è che nVidia non ce l'ha sul G8/9x, per cui questa cosa non accadrà mai.
Spiega un po' questa cosa, io sapevo che sotto windows l'unita' di tessellazione si poteva usare solo attraverso le dx 10.
E non mi pare che le dx 9 rendano disponibile tramite l'api il tessellator.
E possibile accedere all'unita' bypassando le dx ? :confused:
Dalla release note degli 8.3
ATI Catalyst driver: Tessellation support
* This release of Catalyst™ introduces Tessellation support in the Catalyst DirectX 9 driver for the ATI Radeon HD 3800 Series of products. Tessellation has the potential to simplify development efforts and improve application performance by creating high polygon models from low polygon models all within the GPU. Applications must also be designed to take advantage of this feature.
goldorak
29-03-2008, 13:43
Dalla release note degli 8.3
ATI Catalyst driver: Tessellation support
* This release of Catalyst™ introduces Tessellation support in the Catalyst DirectX 9 driver for the ATI Radeon HD 3800 Series of products. Tessellation has the potential to simplify development efforts and improve application performance by creating high polygon models from low polygon models all within the GPU. Applications must also be designed to take advantage of this feature.
:eek: ed io che pensavo che fosse una prerogativa delle dx 10.
Non e' che questa cosa e' stata cambiata di recente in vista del lento upgrade a Vista e alle dx 10 ? :mbe:
:eek: ed io che pensavo che fosse una prerogativa delle dx 10.
Non e' che questa cosa e' stata cambiata di recente in vista del lento upgrade a Vista e alle dx 10 ? :mbe:
Il supporto è stato introdotto di recente, gli 8.3 sono usciti a Marzo di quest'anno, ma è comunque una scelta di ATI, non vincolante dalle API.
goldorak
29-03-2008, 13:48
Il supporto è stato introdotto di recente, gli 8.3 sono usciti a Marzo di quest'anno, ma è comunque una scelta di ATI, non vincolante dalle API.
Ah ecco, quindi e' un accesso diretto all'hardware che non passa dalle dx 9.
Ho capito bene o ho fatto di nuovo confusione ? :fagiano:
Athlon 64 3000+
29-03-2008, 13:54
peccato che dica che la tesselazione sia disponibile per le HD 3800 series e non per le Hd 2900 visto che anche R600 ha l'unità di tessellazione.
mircocatta
29-03-2008, 13:59
Si concordo goldorock la tassellatin 10 sono caratteristich delle dx 10
nelle Directx 11 si migliorera' di molto questa funzionalita' con una seconda generazione di tassellator
e invida cosa proporra?? continuerà ad aumentare le tmu o si creerà qualcosa come ati?
Ah ecco, quindi e' un accesso diretto all'hardware che non passa dalle dx 9.
Ho capito bene o ho fatto di nuovo confusione ? :fagiano:
Non saprei.
peccato che dica che la tesselazione sia disponibile per le HD 3800 series e non per le Hd 2900 visto che anche R600 ha l'unità di tessellazione.
Evidentemente non sono implementate allo stesso modo. :boh:
e invida cosa proporra?? continuerà ad aumentare le tmu o si creerà qualcosa come ati?
Ma cosa c'entra la tessellation con le TMU ? Hai letto il resto dei post ?
mircocatta
29-03-2008, 14:04
Ma cosa c'entra la tessellation con le TMU ? Hai letto il resto dei post ?
non avevo ancora letto il resto ;)
QUando usciranno queste super nuove schede?
perché ho una 1900xt che per adesso mi è sufficiente ma voglio capire se sostituirla con le nuove schede oppure con una 3870, 3870X2 o 9800X2 o come si chiama :)
HackaB321
29-03-2008, 18:36
Il tessellation engine usa una tecnologia che non è attualmente inclusa in nessuna versione delle DirectX (altrimenti anche le gpu Nvidia dovrebbero avere qualcosa di simile). Probabilmente sarà supportata da versioni future delle DirectX. A quanto disse a suo tempo Demers (il "papà":D di R600)
fu inclusa solo per facilitare il porting di giochi XBox (il tessellation è già presente in Xenos ed è l'evoluzione della tecnologia TrueForm già presente addirittura nei chip Radeon 8500)
goldorak
29-03-2008, 18:45
Il tessellation engine usa una tecnologia che non è attualmente inclusa in nessuna versione delle DirectX (altrimenti anche le gpu Nvidia dovrebbero avere qualcosa di simile). Probabilmente sarà supportata da versioni future delle DirectX. A quanto disse a suo tempo Demers (il "papà":D di R600)
fu inclusa solo per facilitare il porting di giochi XBox (il tessellation è già presente in Xenos ed è l'evoluzione della tecnologia TrueForm già presente addirittura nei chip Radeon 8500)
Grande il trueform via hardware sulle 8500, peccato che non sia stato utilizzato in modelli successivi (R300).
Chissa' se e' una funzionalita' accessibile tramite le opengl in hardware e non via software come sulla R300 sulle schede x1000/2900/3800.
Il tessellation engine usa una tecnologia che non è attualmente inclusa in nessuna versione delle DirectX (altrimenti anche le gpu Nvidia dovrebbero avere qualcosa di simile). Probabilmente sarà supportata da versioni future delle DirectX. A quanto disse a suo tempo Demers (il "papà":D di R600)
fu inclusa solo per facilitare il porting di giochi XBox (il tessellation è già presente in Xenos ed è l'evoluzione della tecnologia TrueForm già presente addirittura nei chip Radeon 8500)
Anche se non inclusa nelle DirectX se qualche programmatore vuole usare questa tecnologia può farlo lo stesso. Inoltre fino all'anno scorso c'era un solo gioco per xbox360 che usava la tessellation. Vedremo se MS deciderà di includerla in una versione successiva delle sue API, allora ci sarà qualche speranza di vederla usata nei videogame altrimenti sarà "una tecnologia morta".
Per me è senza futuro.
nico88desmo
29-03-2008, 18:56
Anche se non inclusa nelle DirectX se qualche programmatore vuole usare questa tecnologia può farlo lo stesso. Inoltre fino all'anno scorso c'era un solo gioco per xbox360 che usava la tessellation. Vedremo se MS deciderà di includerla in una versione successiva delle sue API, allora ci sarà qualche speranza di vederla usata nei videogame altrimenti sarà "una tecnologia morta".
Per me è senza futuro.
Da qualche parte avevo letto che la tesselation sarà obbligatoria per le schede che avranno supporto alle librerie DX11.
Non mi ricordo se questa era solo una supposizione o una notizia concreta però :p
scusate. ma io scaricando il pdf della documentazione ufficiale , del service pack 1 di windows vista (scaricato dal sito microsoft) dice all'interno api dx 10.1 con supporto completo x queste api al motore di tassellazione.
C'è scritto nel pdf ufficiale.............dunque se è scritto cosi del doc. uff. del sp1................xchè dovrei credere il contrario????
cioe significa che solo le dx 10.1 , non le dx 10 , suportano la tassellazione:confused:
supercomputer1
29-03-2008, 21:59
Allora chiariamo la situazione, la r600 aveva l 'architettura tassellation
solo che pero' a causa dei driver directx 10 non era possibile poterla utilizzare
cioe' ce'ra l' hardware ma mancavano i driver per abilitarla , cio' e' stato possibile con l'introduzione delle 10.1
ed i driver di marzo cioe' i 8.3 crossfirex
anche se si diceva che questa caratteristica doveva essere abilitata solo con le dx 11, per fortuna gia e' stata introdotta con le dx10.1 catalyst 8.3 crossfirex
ecco alcune spiegazioni
http://209.85.135.104/search?q=cache:qtTo5RcTeFMJ:ati.amd.com/developer/gpumeshmapper.html+available+tessellation+ati&hl=it&ct=clnk&cd=3&gl=it
pierluigi86
29-03-2008, 22:08
la prima pagina dovrebbe essere aggiornata
scusate. ma io scaricando il pdf della documentazione ufficiale , del service pack 1 di windows vista (scaricato dal sito microsoft) dice all'interno api dx 10.1 con supporto completo x queste api al motore di tassellazione.
C'è scritto nel pdf ufficiale.............dunque se è scritto cosi del doc. uff. del sp1................xchè dovrei credere il contrario????
cioe significa che solo le dx 10.1 , non le dx 10 , suportano la tassellazione:confused:
No, c'è scritto che se vuoi che una scheda sia certificata dx 10.1 deve avere anche il tessellator engine. Ma come si può leggere dalle release note dei catalyst 8.3 il supporto a quest'unità è possibile anche tramite le dx9. Quindi le dx non sono vincolanti per il tessellator.
Inoltre quel pdf, se è lo stesso che ho letto io, è molto vecchio e non è definitivo. Cosa che invece è questo link (http://www.microsoft.com/downloads/details.aspx?FamilyID=572be8a6-263a-4424-a7fe-69cff1a5b180&DisplayLang=en#new)
Athlon 64 3000+
30-03-2008, 12:31
Quindi sembra che R600 anche con le dx9 si potra utilizzare la tesselation.
Un esempio di tessellation lo si ha col demo sulla neve di ruby, l ultimo fatto da ati per le hd 2900.
L effetto lo trovo splendido.Speriamo lo usino.
alla fine spero che sia una scheda ultrapotente ma economicissima è quello che vogliono tutti i clienti ATI AMD :)
alla fine spero che sia una scheda ultrapotente ma economicissima è quello che vogliono tutti i clienti ATI AMD :)
quoto
+Lonewolf+
30-03-2008, 14:49
ripensando all'unità di tassellazione stavo pensando che ad oggi l'unico gioco che sfrutta questa caratteristica è viva pinata
io possiedo una copia di viva pinata PC e ricordo che allora quando me lo regalarono non era possibile sfruttare il tassellatore di r600 in directx9, chissà con i cata 8.3 che rendono disponibile l'utilizzo della tassellation come girerebbe...
appleroof
30-03-2008, 19:28
ripensando all'unità di tassellazione stavo pensando che ad oggi l'unico gioco che sfrutta questa caratteristica è viva pinata
io possiedo una copia di viva pinata PC e ricordo che allora quando me lo regalarono non era possibile sfruttare il tassellatore di r600 in directx9, chissà con i cata 8.3 che rendono disponibile l'utilizzo della tassellation come girerebbe...
e visto che hai la scheda fai una prova no? (magari se ti riesce uppa qualcosa :D )
e visto che hai la scheda fai una prova no? (magari se ti riesce uppa qualcosa :D )
Giá, sono curiosissimo.
Ricordo ancora il truform...quasi mai utilizzato, ma nelle poche volte che l' ho visto in funzione... :eek:
Sperem che il tesselletor lo usino di piú, graficamente parlando é spledido...
+Lonewolf+
30-03-2008, 22:16
e visto che hai la scheda fai una prova no? (magari se ti riesce uppa qualcosa :D )
allora facciamo una cosa, dato che devo studiare un casino(dannato greco, e pensare che quest'anno ho anche la maturità:mc:)
domani la faccio, però se puoi mandami un privato in cui me lo ricordi, così non rimuovo tutto:D
ho ancora gli 8.2 su quindi faccio un raffronto viva pinata 8.2 quindi TU-off, 8.3 TU-on;)
+Lonewolf+
30-03-2008, 22:18
Giá, sono curiosissimo.
Ricordo ancora il truform...quasi mai utilizzato, ma nelle poche volte che l' ho visto in funzione... :eek:
Sperem che il tesselletor lo usino di piú, graficamente parlando é spledido...
di fatti non so se hai mai visto la demo di ati "whiteout"
lì le montagne usano il tassellatore di r600 e il tutto gira ad una fluidità pazzesca:eek:
se ottimizzassero i giochi così altrochè crysis:asd:
supercomputer1
01-04-2008, 14:56
Brutte notizi AMD ha dichiarato bancarotta dopo aver fatto l'aquisizione di ATI le cose non le sono andate nel verso giusto e di piu sono stati i soldi che
ha speso che quelli che ha guadagnato, il problema e' che ora il monopolio rimane in mano a 2 grandi compagnie come NVIDIA ed INTEL; cosa ne sara del futuro in ambito tecnologico ?
Ma speriamo bene ma la cosa non la vedo tanta buona.
ecco il link con la notizia riportata.
http://forums.vr-zone.com/showthread.php?t=257015
Nota bene:: cliccate anche sulla scritta " here " li vi e' riportata tutta la notizia di come sono andate le cose :muro:
non mi resta che piangere.
mircocatta
01-04-2008, 15:00
il link non va ma non ci vuole molto a capire che è un pessimo pesce d'aprile :sofico:
supercomputer1
01-04-2008, 15:14
Quanto ho visto la notizia mi sono seccate le balle,
poi incuriosito ho cliccato sulla scritta here e mi sono ammazzato dalle risate
Comunqu me lo aspettavo che era un pesce, anche perche qui i dati dicono altro.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6575&Itemid=1
e qui
http://www.tomshw.it/news.php?newsid=13568
Mi sto pisciando addosso, grandi :rotfl:
Bhairava
01-04-2008, 16:17
Per un attimo mi si è fermato il cuore.
Per un attimo mi si è fermato il cuore.
pure a me :sofico:
<^MORFEO^>
01-04-2008, 18:06
Per un attimo mi si è fermato il cuore.
pure a me :sofico:
Idem! :D
Brutta è però se fosse vera... :eek:
supercomputer1
01-04-2008, 19:18
AMD's Thunderstorm Rains On Intel's Larrabee
Written by Chris Tom
Monday, 31 March 2008 19:25
The Inquirer says AMD's Thunderstorm will cause problems for Intel's Larrabee. No foolin' it will.
The roadmap is this. AMD's Thunderstorm project, first published on my bog a few weeks ago, will put paid to Intel's Larrabee's plans by being released before the end of 2008. Intel is not ready to talk about Larrabee, but the bus driver said the project is far advanced and uses backward compatibility to achieve the same effects - as in 12 to 16 cores - far earlier than anything Chipzilla has up its corporate sleevies.
Fonte:
http://www.amdzone.com/index.php/news/laptops/44/9333-amds-thunderstorm-rains-on-intels-larrabee
AMD manda tuoni e pioggia sul progetto larrabee di Intel
qualcosa di buono dovrebbe uscire alla fine del 2008 per contrastare il progetto di intel chiamato larrabee. :cool:
Marko#88
01-04-2008, 19:49
attimi di terrore, il monopolio sarebbe una brutta bestia..:O
buon pesce d'aprile...:asd:
+Lonewolf+
01-04-2008, 19:55
AMD's Thunderstorm Rains On Intel's Larrabee
Written by Chris Tom
Monday, 31 March 2008 19:25
The Inquirer says AMD's Thunderstorm will cause problems for Intel's Larrabee. No foolin' it will.
The roadmap is this. AMD's Thunderstorm project, first published on my bog a few weeks ago, will put paid to Intel's Larrabee's plans by being released before the end of 2008. Intel is not ready to talk about Larrabee, but the bus driver said the project is far advanced and uses backward compatibility to achieve the same effects - as in 12 to 16 cores - far earlier than anything Chipzilla has up its corporate sleevies.
Fonte:
http://www.amdzone.com/index.php/news/laptops/44/9333-amds-thunderstorm-rains-on-intels-larrabee
AMD manda tuoni e pioggia sul progetto larrabee di Intel
qualcosa di buono dovrebbe uscire alla fine del 2008 per contrastare il progetto di intel chiamato larrabee. :cool:
mi sembra una cazzataenorme
Zodd_Il_nosferatu
01-04-2008, 19:57
attimi di terrore, il monopolio sarebbe una brutta bestia..:O
buon pesce d'aprile...:asd:
sai che divertimento schede a 600€ che non calano neanche dopo 1 anno? :sofico:
speriamo bene..... Sento il bisogno di vedere AMD "inzuppare" i rivali xD
Marko#88
01-04-2008, 20:05
sai che divertimento schede a 600€ che non calano neanche dopo 1 anno? :sofico:
:asd:
<^MORFEO^>
01-04-2008, 20:09
sai che divertimento schede a 600€ che non calano neanche dopo 1 anno? :sofico:
:asd: :rotfl: :rotfl: :rotfl:
:eek: NO, è bruttissimo... :Puke:
sai che divertimento schede a 600€ che non calano neanche dopo 1 anno? :sofico:
l'importante che la scheda sia ati!!!!!:D :D :D
supercomputer1
01-04-2008, 20:32
RV770 would actually feature 800 unified shaders. This may sound like a bizarre increase, but I will try to walk you through their reasoning.
First of all, their expecting an evolution much like the one we had when we moved from the R520 (X1800) to R580 (X1900). At the same time, they expect the texture unit:ALU ratio to increase from 1:4 to 1:5. Even if the shader ratio would remain 1:4, we would still be left with twice as many unified shaders, 640. R520 has a 1:1 ratio, R580 1:3, R600/RV670 1:4, while RV770 will go one step beyond with 1:5. Speculation of course, be they seem quite convinced that this is the way it is.
The extra shaders may also be able to improve the quite poor antialiasing performance as well. If implemented efficiently, they should be able to remedy at least parts of the lackluster performance during heavy AA. It is believed that an overall better optimized core should be able to boost AA performance substantially.
The number of transistors is expected to land in the 830 million area, a 25 percent increase of the 666 million transistors RV670 sport.
Sembrera' bizzarro ma R700 dovrebbe avere 800 Stream processor se si ragiona passo passo e si comparano i salti da gigante nelle nuove generazioni di schede video man mano cha siamo passati da R600/R670 la proporzione di incremento di shader e' 1:4 cioe' 1 su 4 quindi perche' per R700 la proporzione non dovrebbe essere 1:5 cioe' 1 su 5 ?
gli shader in piu ( o Stream processor ) serviranno per migliorare le prestazioni quando viene abilitato Anti aliasing ed i transistor dovrebbero essere 820 milioni . Sono sembre delle presupposizioni niente di ufficiale :cool:
Immortal
01-04-2008, 21:28
RV770 would actually feature 800 unified shaders. This may sound like a bizarre increase, but I will try to walk you through their reasoning.
First of all, their expecting an evolution much like the one we had when we moved from the R520 (X1800) to R580 (X1900). At the same time, they expect the texture unit:ALU ratio to increase from 1:4 to 1:5. Even if the shader ratio would remain 1:4, we would still be left with twice as many unified shaders, 640. R520 has a 1:1 ratio, R580 1:3, R600/RV670 1:4, while RV770 will go one step beyond with 1:5. Speculation of course, be they seem quite convinced that this is the way it is.
The extra shaders may also be able to improve the quite poor antialiasing performance as well. If implemented efficiently, they should be able to remedy at least parts of the lackluster performance during heavy AA. It is believed that an overall better optimized core should be able to boost AA performance substantially.
The number of transistors is expected to land in the 830 million area, a 25 percent increase of the 666 million transistors RV670 sport.
Sembrera' bizzarro ma R700 dovrebbe avere 800 Stream processor se si ragiona passo passo e si comparano i salti da gigante nelle nuove generazioni di schede video man mano cha siamo passati da R600/R670 la proporzione di incremento di shader e' 1:4 cioe' 1 su 4 quindi perche' per R700 la proporzione non dovrebbe essere 1:5 cioe' 1 su 5 ?
gli shader in piu ( o Stream processor ) serviranno per migliorare le prestazioni quando viene abilitato Anti aliasing ed i transistor dovrebbero essere 820 milioni . Sono sembre delle presupposizioni niente di ufficiale :cool:
fino a domani snobbo ogni notizia :sofico:
sai che divertimento schede a 600€ che non calano neanche dopo 1 anno? :sofico:
Se non le compri vedi come calano di prezzo...
+Lonewolf+
01-04-2008, 22:40
fino a domani snobbo ogni notizia :sofico:
perchè domani?
Marko#88
02-04-2008, 06:10
Perché da domani (oggi) non sarà (è) più il primo Aprile...
:asd:
supercomputer1
02-04-2008, 20:13
risultati interessanti
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/6/
una volta ho letto da qualche parte che nvidia ha speso 5 milioni di dollari per farsi publicita'
Booah non e' che con i soldi si aumentano anche i punteggi al benchmark nei giochi? :incazzed:
risultati interessanti
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/6/
una volta ho letto da qualche parte che nvidia ha speso 5 milioni di dollari per farsi publicita'
Booah non e' che con i soldi si aumentano anche i punteggi al benchmark nei giochi? :incazzed:
:eekk:
Ma che c'entra con R700 ?
E poi che ci sarebbe di interessante ?
:uh:
:eekk:
Ma che c'entra con R700 ?
E poi che ci sarebbe di interessante ?
:uh:
qui c'entra poco, però il dubbio che rimane è che spesso e volentieri i risultati di parecchi test differiscono di troppo uno dall'altro...... cqm aspetto con ansia sta nuova generazione... sperando bene
supercomputer1
02-04-2008, 23:05
C ' entra il fatto che R700 sara' multi GPU e dipendera' dai driver del CrossfireX cioe' dagli catalyst 8.3 in poi percio le prestazioni di R700 dipenderanno da come verranno sviluppati i crossfireX driver , quindi se i driver vengono fatti con i piedi andra piu lenta di una tartaruga nonostante abbia la potenza di 1000 cannoni.
Riguardo il link che ho mandato volevo solo dire che da un sito ad un'altro
e da un gioco ad un'altro le differenze prestazionali sono enormi:mc:
Poi Nota come scala in prestazioni con i driver multi GPU e con Il massimo di risoluzioni e con AA abilitati.
Poi la cosa discordante e' che un sito dice che un tipo di scheda da dei TOT risultati un'altro sito dice che la stessa scheda da + oppure - TOT risultati C'e' da fidarsi ? :incazzed:
goldorak
02-04-2008, 23:20
Ma lasciatele stare le soluzioni multigpu, io mi accontento di un solo chip Rv770 cosi' me ne frego dell'ottimizzazione dei drivers obbligatoria per ogni singolo titolo. :D
Spero che si diano una mossa nello sviluppare molto di più il software/driver arranca troppo ed è molto lacunoso.
Da quello che ho avuto modo di leggere in questi giorni mi sono fatto l'idea che anche se ATI con RV770 fosse il 40/50% più veloce di RV670 ugualmente sarebbe una GPU vecchia ..
Vecchia nell'accezione in cui con un boost del 50% (migliore delle ipotesi) si raggiunge o magari supera di pochissimo le attuali soluzioni Single GPU di Nvidia..trattandosi di architetture di ormai due anni , non sono particolarmente entusiasta...
Ovviamente va considerata la fascia si mercato in cui si inquadra e quindi il relativo prezzo....
goldorak
03-04-2008, 09:58
Da quello che ho avuto modo di leggere in questi giorni mi sono fatto l'idea che anche se ATI con RV770 fosse il 40/50% più veloce di RV670 ugualmente sarebbe una GPU vecchia ..
Vecchia nell'accezione in cui con un boost del 50% (migliore delle ipotesi) si raggiunge o magari supera di pochissimo le attuali soluzioni Single GPU di Nvidia..trattandosi di architetture di ormai due anni , non sono particolarmente entusiasta...
Ovviamente va considerata la fascia si mercato in cui si inquadra e quindi il relativo prezzo....
Parli di architettura vecchia e riciclata, ma cosa diavolo pensi che la Nvidia abbia fatto in questi quasi 2 anni ?
Venderti nuove architetture ? :rolleyes:
L'RV770 non e' una obsoleta, semmai sistema gli sbilanciamenti insiti nella architettura R600 ma da qui a dire che e' obsoleta ce ne passa. Per dio non esistono ancora giochi nativi dx 10 che sono quelli per cui l'R600 e' stata progettata e tu vieni a parlare di obsolescenza. Ma cosa bisogna sentire. :doh:
smoker83
03-04-2008, 10:25
C'è da considerare che si parla di 1 RV770 che sarà un 40-50% + veloce di 1 RV670. SE e ripeto SE i rumors che si leggono si dimostreranno veritieri, R700 dovrebbe essere multi-core e non multi gpu, e dovrebbe essere composto da 4X RV770...SE cosi sarà, fatevi un pò i conti...
Non è detto mica che multi-core voglia dire, in base ai tuoi calcoli, ottenere una vga che vada tra il 160% e il 200% più veloce di RV670. :asd:
Questa IMHO è pura follia...
follia che se almeno aspettiamo i bencg vedremo se si concretizzera o meno, comunque se andranno piu 160% rispetto alle 38xx sara un bel sorpasso alle nvidia ed è questo che è la cosa che potrebbe far muovere il mercato dopo 2 anni
HackaB321
03-04-2008, 10:49
Da quello che ho avuto modo di leggere in questi giorni mi sono fatto l'idea che anche se ATI con RV770 fosse il 40/50% più veloce di RV670 ugualmente sarebbe una GPU vecchia ..
Vecchia nell'accezione in cui con un boost del 50% (migliore delle ipotesi) si raggiunge o magari supera di pochissimo le attuali soluzioni Single GPU di Nvidia..trattandosi di architetture di ormai due anni , non sono particolarmente entusiasta...
Ovviamente va considerata la fascia si mercato in cui si inquadra e quindi il relativo prezzo....
Gli incrementi prestazionali ci saranno ma non saranno mostruosi perchè lo scopo principale del progetto RV770 sarà lo stesso di RV670, costi contenuti e incrementi dei margini. Prima di tornare a pensare ad una lotta per il top delle prestazioni, AMD deve uscire dalla crisi finanziaria attuale.
Il boost prestazionale di G80 rispetto alla generazione precedente è stato enorme ma G80 è costato a Nvidia 4 anni di sviluppo e mezzo miliardo di dollari (fonte:Anandtech),che corrisponde attualmente al 15% circa dell'intero capitale di tutta AMD. R600 (il cui sviluppo è partito a inizio 2004) è costato sicuramente meno (non è stata una architettura completamente nuova ma un'evoluzione di Xenos) e grazie ai 55nm è stato anche un progetto che comunque ha consentito un buon recupero dei costi (anche se non è ancora un progetto in attivo). Lo sviluppo di R700 è iniziato sicuramente quando ATi era ancora indipendente (quindi quando aveva la possibilità economica per progetti ben più ambiziosi) ma è stato altrettanto sicuramente corretto in corso d'opera per un'ovvia riduzione del budget a disposizione. Quindi qui il punto non è essere in grado tecnologicamente di tornare al top, ma averne le possibilità economiche.
Poi è chiaro che i progetti li fanno le persone e non (solo) i soldi: niente vieta che dall'immenso bagaglio tecnologico di ATi (la quale dall'acquisizione di ArtX nel 2000 è stata IMHO l'azienda tecnologicamente di gran lunga leader nella grafica discreta al mondo) escano fuori idee capaci di stupire tutti ma la situazione reale resta comunque questa.
Sono sempre più convito che se non si danno una mossa a sviluppare software multi-core e multi-gpu di salti prestazionali non li vedremo mai
http://www.pctuner.net/news/8347/L_elaborazione_parallela_secondo_Microsoft_ed_Intel/
e come dice articolo qualcuno si ne accorto per fortuna, ma i risultati tarderanno ad arrivare, spero di sbagliarmi :D
Parli di architettura vecchia e riciclata, ma cosa diavolo pensi che la Nvidia abbia fatto in questi quasi 2 anni ?
Venderti nuove architetture ? :rolleyes:
L'RV770 non e' una obsoleta, semmai sistema gli sbilanciamenti insiti nella architettura R600 ma da qui a dire che e' obsoleta ce ne passa. Per dio non esistono ancora giochi nativi dx 10 che sono quelli per cui l'R600 e' stata progettata e tu vieni a parlare di obsolescenza. Ma cosa bisogna sentire. :doh:
Probabilmente non ho articolato bene il mio pensiero ...non intendevo dire che Rv770 è un progetto vecchio e/o un chip obsoleto , anzi sono tuttora convinto che R600 (da cui discenderà) ha un architettrura più complessa e sostanzialmente "avveniristica" di G80 e derivati...
Intendevo dire che da un punto di vista strettamenete prestazionale non vedremo nulla di eccezionale o eclatante, nessuna novità in questo senso :nella migliore delle ipotesi avremo una VGA più o MENO allineata a quella Nvidia (nessun R300 o R520 per intendersi)..
Non parlavo di obsolescenza...:assolutamente!!!
Non usare toni così aggressivi , questo è uno dei 3d più tranquilli..:)
Gli incrementi prestazionali ci saranno ma non saranno mostruosi perchè lo scopo principale del progetto RV770 sarà lo stesso di RV670, costi contenuti e incrementi dei margini. Prima di tornare a pensare ad una lotta per il top delle prestazioni, AMD deve uscire dalla crisi finanziaria attuale.
Il boost prestazionale di G80 rispetto alla generazione precedente è stato enorme ma G80 è costato a Nvidia 4 anni di sviluppo e mezzo miliardo di dollari (fonte:Anandtech),che corrisponde attualmente al 15% circa dell'intero capitale di tutta AMD. R600 (il cui sviluppo è partito a inizio 2004) è costato sicuramente meno (non è stata una architettura completamente nuova ma un'evoluzione di Xenos) e grazie ai 55nm è stato anche un progetto che comunque ha consentito un buon recupero dei costi (anche se non è ancora un progetto in attivo). Lo sviluppo di R700 è iniziato sicuramente quando ATi era ancora indipendente (quindi quando aveva la possibilità economica per progetti ben più ambiziosi) ma è stato altrettanto sicuramente corretto in corso d'opera per un'ovvia riduzione del budget a disposizione. Quindi qui il punto non è essere in grado tecnologicamente di tornare al top, ma averne le possibilità economiche.
Poi è chiaro che i progetti li fanno le persone e non (solo) i soldi: niente vieta che dall'immenso bagaglio tecnologico di ATi (la quale dall'acquisizione di ArtX nel 2000 è stata IMHO l'azienda tecnologicamente di gran lunga leader nella grafica discreta al mondo) escano fuori idee capaci di stupire tutti ma la situazione reale resta comunque questa.
Analisi che condivido appieno , personalmente ritengo che in questo settore le acquisizioni giovino molto ..
goldorak
03-04-2008, 12:29
Probabilmente non ho articolato bene il mio pensiero ...non intendevo dire che Rv770 è un progetto vecchio e/o un chip obsoleto , anzi sono tuttora convinto che R600 (da cui discenderà) ha un architettrura più complessa e sostanzialmente "avveniristica" di G80 e derivati...
Intendevo dire che da un punto di vista strettamenete prestazionale non vedremo nulla di eccezionale o eclatante, nessuna novità in questo senso :nella migliore delle ipotesi avremo una VGA più o MENO allineata a quella Nvidia (nessun R300 o R520 per intendersi)..
Non parlavo di obsolescenza...:assolutamente!!!
Non usare toni così aggressivi , questo è uno dei 3d più tranquilli..:)
Scusa non era mia intenzione saltarti alla gola.
Il problema se cosi' si puo' dire di R600 e derivati non e' l'hardware ma e' il software che e' ancora scritto pensando ai vecchi paradigmi.
E da questo punto di vista la scelta di G80 e' stata vincente.
Una scelta di compromesso tra presente e futuro mentre la scelta di ATI e' totalmente rivolta al futuro.
Quando usciranno i giochi dx 10 che sfruttanto molto dippiu' gli shaders invece del multitexturing vedremo la R600 e derivati schiacchiare le schede a base di G80. Quindi la scelta ATI e' sicuramente premiante sulla lunga distanza, peccato che per tutta una serie di fattori esterni ad ATI (vedi sviluppatori software sfaticati, vedi un tasso di adozione di vista scandaloso etc...) non e' stata premiata.
Ma non ce' niente di sbagliato o di non funzionante o di obsoleto nella architettura R600.
Scusa non era mia intenzione saltarti alla gola.
Il problema se cosi' si puo' dire di R600 e derivati non e' l'hardware ma e' il software che e' ancora scritto pensando ai vecchi paradigmi.
E da questo punto di vista la scelta di G80 e' stata vincente.
Una scelta di compromesso tra presente e futuro mentre la scelta di ATI e' totalmente rivolta al futuro.
Quando usciranno i giochi dx 10 che sfruttanto molto dippiu' gli shaders invece del multitexturing vedremo la R600 e derivati schiacchiare le schede a base di G80. Quindi la scelta ATI e' sicuramente premiante sulla lunga distanza, peccato che per tutta una serie di fattori esterni ad ATI (vedi sviluppatori software sfaticati, vedi un tasso di adozione di vista scandaloso etc...) non e' stata premiata.
Ma non ce' niente di sbagliato o di non funzionante o di obsoleto nella architettura R600.
Concordo...:mano:
Probabilmente R600 e co. dovevano essere associati ad un programma di partenariato con le software house decisamente più robusto ( eccezion fatta per Valve ,oggi assente) , purtroppo l'acquisizione da parte di AMD non ha giovato da questo punto di vista...
Scusa non era mia intenzione saltarti alla gola.
Il problema se cosi' si puo' dire di R600 e derivati non e' l'hardware ma e' il software che e' ancora scritto pensando ai vecchi paradigmi.
E da questo punto di vista la scelta di G80 e' stata vincente.
Una scelta di compromesso tra presente e futuro mentre la scelta di ATI e' totalmente rivolta al futuro.
Quando usciranno i giochi dx 10 che sfruttanto molto dippiu' gli shaders invece del multitexturing vedremo la R600 e derivati schiacchiare le schede a base di G80. Quindi la scelta ATI e' sicuramente premiante sulla lunga distanza, peccato che per tutta una serie di fattori esterni ad ATI (vedi sviluppatori software sfaticati, vedi un tasso di adozione di vista scandaloso etc...) non e' stata premiata.
Ma non ce' niente di sbagliato o di non funzionante o di obsoleto nella architettura R600.
la potenza in shading tra R600 e G80 (e derivati) e' pressocche' equivalente, quindi G80 (e derivati) sara' sempre avvantaggiato rispetto al concorrente.
bYeZ!
la potenza in shading tra R600 e G80 (e derivati) e' pressocche' equivalente, quindi G80 (e derivati) sara' sempre avvantaggiato rispetto al concorrente.
bYeZ!
A livello di vertex shader e quasi il doppio , ma e un pò sotto nei pixel s.
Non so se è da imputarsi anche alle sole 16 tmu e rop del chip.Qualcuno sa dirmelo? Ciao
HackaB321
03-04-2008, 14:50
A livello di vertex shader e quasi il doppio , ma e un pò sotto nei pixel s.
Non so se è da imputarsi anche alle sole 16 tmu e rop del chip.Qualcuno sa dirmelo? Ciao
Tutti i test sintetici sulle capacità di shading dipendono più o meno dal texture fillrate della gpu (anche se sicuramente meno rispetto ai giochi). Quindi anche in questi test i limiti di texturing di R600 compaiono. R600 è sotto G80 nel ps soprattutto in quello più semplice. Va meglio nel vs e soprattutto nel geometry shading, peccato che non esistano giochi che usino questo tipo di shaders.
Ovviamente i test sintetici vanno presi con molta cautela soprattutto per architetture a shader unificati in quanto non mostrano come si comporta la gpu in caso di esecuzione contemporanea di thread di tipo diverso.
Athlon 64 3000+
03-04-2008, 16:02
che io sappia nei pixel shader R600 è molto competitivo soprattutto se gli shader hanno istruzioni molto lunghe.
Mentre nei giochi dove si fa molto uso di texture G80 è molto più veloce di R600.
HackaB321
03-04-2008, 16:25
che io sappia nei pixel shader R600 è molto competitivo soprattutto se gli shader hanno istruzioni molto lunghe.
Mentre nei giochi dove si fa molto uso di texture G80 è molto più veloce di R600.
Questi confronti sono con G80 in versione GTS. Confrontandola con una GTX sarebbe sempre inferiore, tranne nello Steep Parallax Mapping (ultimo test) che però non è usato, credo, in nessun gioco e nel test di illuminazione di Cook-Torrance che è un modello di Phong shading usato in TF2
http://www.ixbt.com/video3/images/r600/d3drm-ps-1.png
http://www.ixbt.com/video3/images/r600/d3drm-ps-2.png
http://www.ixbt.com/video3/images/r600/d3drm-ps2-1.png
http://www.ixbt.com/video3/images/r600/d3drm-ps2-2.png
http://www.ixbt.com/video3/images/r600/d3drm-ps3.png
supercomputer1
03-04-2008, 16:42
Hacka avevi mandato delle immagini ? Non si riescono a vedere.:mc:
*+*kekko*+*
04-04-2008, 19:47
data d'uscita??
albert75
04-04-2008, 21:55
raga se ho capito bene rv770 e' costituito da 2r700?? e una 4870x2 e' costituita da 4r700??
l'uscita e' per giugno??
Non lo so, ma se l'uscita è giugno andrà a concorrere ocn nuovi prodotti invidiosi o no?
Scusa non era mia intenzione saltarti alla gola.
Il problema se cosi' si puo' dire di R600 e derivati non e' l'hardware ma e' il software che e' ancora scritto pensando ai vecchi paradigmi.
E da questo punto di vista la scelta di G80 e' stata vincente.
Una scelta di compromesso tra presente e futuro mentre la scelta di ATI e' totalmente rivolta al futuro.
Quando usciranno i giochi dx 10 che sfruttanto molto dippiu' gli shaders invece del multitexturing vedremo la R600 e derivati schiacchiare le schede a base di G80. Quindi la scelta ATI e' sicuramente premiante sulla lunga distanza, peccato che per tutta una serie di fattori esterni ad ATI (vedi sviluppatori software sfaticati, vedi un tasso di adozione di vista scandaloso etc...) non e' stata premiata.
Ma non ce' niente di sbagliato o di non funzionante o di obsoleto nella architettura R600.
Ho un flashback, si dicevano le stesse cose quasi un anno fa dopo l'uscita dell'hd2900xt.
Se aspettano ancora un po a far uscire fuori "i giochi dx10", mi sa che avremo già cambiato tutti schede video (ormai questa generazione è andata, spero per ati che ci azzecchino con i tempi con rv770)
goldorak
04-04-2008, 22:36
Ho un flashback, si dicevano le stesse cose quasi un anno fa dopo l'uscita dell'hd2900xt.
Se aspettano ancora un po a far uscire fuori "i giochi dx10", mi sa che avremo già cambiato tutti schede video (ormai questa generazione è andata, spero per ati che ci azzecchino con i tempi con rv770)
Con la differenza che questa volta ne' Nvidia ne' ATI tireranno fuori una architettura completamente nuova.
Chi pensa che la Nvida offre refresh su refresh solo perche' ATI non presenta una scheda superiore alla top di gamma Nvidia e' in modalita' "deluded inside".
Da una parte e dall'altra si sono scontrati con un muro prestazionale che non sara' facile abbattere.
Guardate questa "notizia" :
For those wondering if the almost-just-launched GeForce 9800 GX2 would be sticking around for a while, don’t bet on it. Seems as if it will go EOL somewhere around the end of June or July, depending on sales, or lack thereof. The just-launched GeForce 9800 GTX will be evaluated for EOL in the same time frame. Should AMD’s RV700 performance look to be a threatening part to Team Green, we will then see the “9900 GTX” be brought to life. So this would all seem to tell us that we should expect AMD’s next-gen Radeon around the end of Q2 / beginning of Q3 time frame…this year. The ever-popular GeForce 8800 GT will be renamed the 9800 GT and be given some of the additional, but not yet functional features of Hybrid SLI. There will be some lower end migrations of 8600 series parts to GDDR3 memories and they will get bumped to 9500 series names. And certainly the GeForce 9600 GT will be left the hell alone through year end in order to continue its marathon sales crusade! And some of those 100,000 “8800 GS” GPUs are still floating around after having been out of the reach of even folks with 10 foot poles…enter the GeForce 9600 GSO (Gpu Still Offensive?).
Questo e' il piano della Nvidia, ancora refresh su refresh.
Fonte : http://www.hardocp.com/news.html?news=MzE1NjYsLCxoZW50aHVzaWFzdCwsLDE=
Chi aspetta un salto rivoluzionario com'e' stato quello da 7900 a G80 si illude alla grande.
Qual è il punto?
Dici che le 9900 soffriranno per questa architettura troppo "rivolta al passato"?
Quindi alla fine credete che effettivamente ci siano delle ragioni tecniche e non di mercato verso questi miglioramenti lenti ma progressivi, contro i "salti" prestazionali improvvisi del passato?
goldorak
04-04-2008, 22:46
Qual è il punto?
Dici che le 9900 soffriranno per questa architettura troppo "rivolta al passato"?
No.
Dico solo che da una parte e dall'altra ci saranno affinamenti ma niente schede uber-super-amazza-8800ultra.
La mancanza di concorrenza di Nvidia non e' dettata da una pigrizia nei confronti di ATI/AMD (che dal lato suo si e' tirata fuori dal ultra top end) ma perche' hanno secondo me problemi oggettivi a scalare in prestazioni con i chip monolitici.
Questa situazione ricorda molto da vicino i problemi di Intel con l'architettura Netburst che finalmente scoppio e si dovette correre al riparo.
Ecco perche' non solo non e' stata presentata una soluzione completamente nuova ma adirittura la vecchia top di gamma viene "ridimensionata" nei nuovi modelli (memoria, larghezza del bus, etc....).
supercomputer1
04-04-2008, 22:46
Ciao goldorak mi dispiace dirtelo ma ti sbagli, R700 e' un salto rivoluzionario.
Apena ricevuta email stamattina da fonte superaffidabilissimissima.
e ti diro' anche che uscira' con ritardo o verso l'estate o dopo :D
goldorak
04-04-2008, 22:48
Quindi alla fine credete che effettivamente ci siano delle ragioni tecniche e non di mercato verso questi miglioramenti lenti ma progressivi, contro i "salti" prestazionali improvvisi del passato?
Si penso che sia proprio cosi'.
A proposito di ATI e di quote di mercato... :)
http://www.xbitlabs.com/news/video/display/20080403230057_ATI_Begins_to_Fight_Back_Market_Share_from_Intel_Nvidia_JPR.html
Ma come mai allora AMD continuava a lamentarsi del rendimento della sezione ATI? io queste cose stento a comprenderle
E qui in teoria siamo d'accordo.
Ma si parlava di rendimento sul mercato, non di averla pagata troppo oh Ratatosk magnanimo
<^MORFEO^>
05-04-2008, 00:44
Ciao goldorak mi dispiace dirtelo ma ti sbagli, R700 e' un salto rivoluzionario.
Apena ricevuta email stamattina da fonte superaffidabilissimissima.
e ti diro' anche che uscira' con ritardo o verso l'estate o dopo :D
Non mi piace questa storia... :fagiano:
No..
Lessi un paio di mesi fa la news, si lamentavano del rendimento, lo ricordo ancora e mi sorprese affatto perché credo il settore che va male sia quello delle CPU non certo delle GPU..
supercomputer1
05-04-2008, 13:13
Non mi piace questa storia... :fagiano:
Beh MORFEO ti conviene fartela piacere. Comunque ne varra' la pena ;)
Bye Bye.
Kharonte85
05-04-2008, 13:21
Ciao goldorak mi dispiace dirtelo ma ti sbagli, R700 e' un salto rivoluzionario.
Apena ricevuta email stamattina da fonte superaffidabilissimissima.
e ti diro' anche che uscira' con ritardo o verso l'estate o dopo :D
Cioè? :mbe:
Ti dobbiamo inserire in quelli che la sparano grossa per poi svanire (e ce ne sono stati anche per r600) o hai davvero qualche contatto...
The_max_80
05-04-2008, 13:43
Beh MORFEO ti conviene fartela piacere. Comunque ne varra' la pena ;)
Bye Bye.
sembri l'oracolo :fagiano:
quindi,quando dovrebbe arrivare da noi?
The_max_80
05-04-2008, 13:44
Cioè? :mbe:
Ti dobbiamo inserire in quelli che la sparano grossa per poi svanire (e ce ne sono stati anche per r600) o hai davvero qualche contatto...
ti quoto, questi interventi alla 007 senza che si dice nulla non mi piacciono, o si dice o si evita di postare se non si vuole dire
supercomputer1
05-04-2008, 13:47
Tranquillo vacci piano , e' logico che qualcosa mi e' arrivata.
Se vuoi scommettiamo 100euro ti mando le foto delle mie email ci stai?:read:
The_max_80
05-04-2008, 13:55
Tranquillo vacci piano , e' logico che qualcosa mi e' arrivata.
Se vuoi scommettiamo 100euro ti mando le foto delle mie email ci stai?:read:
ma esattamente cosa ti sarebbe arrivato in merito a prestazioni e data d'uscita?
Bhairava
05-04-2008, 13:58
Ciao goldorak mi dispiace dirtelo ma ti sbagli, R700 e' un salto rivoluzionario.
Apena ricevuta email stamattina da fonte superaffidabilissimissima.
e ti diro' anche che uscira' con ritardo o verso l'estate o dopo :D
:doh:
La tua credibilità è oramai scesa sotto zero.
Ma r800 sarà ancora più rivoluzionario, mi è arrivata una mail adesso da una fonte affidabilerrima!!!!1!!!1!11!1
E se non ci credete scommettiamo 200€, gne gne gne.
Come potete dubitare dell'attendibilità di "supercomputer1"? E' niente meno che il figlio segreto di Ruiz, nonché un direttore tecnico di AMD.
Ironia a parte, certe uscite si potrebbero anche risparmiare (ad ogni nuovo prodotto c'è sempre qualcuno che se ne esce con "ho saputo..." o "l'altro giorno mi hanno detto..").
supercomputer1
05-04-2008, 14:15
Stasera chiarisco qualcosa adesso sto andando a studiare.
Ho alcuni integrali di funzioni razionali fratte da risolvere, quelli piu pallosi con il Delta < 0.
Se qualcuno puo' darmi una mano o si e' gia dato analisi matematica si faccia sentire. Poi stasera ritorno e discutiamo :muro:
supercomputer1
05-04-2008, 14:18
;) Non direttrore ne lavoratore , ma collaboratoresi questo e' il termine piu
corretto. Ciao
Bhairava
05-04-2008, 14:18
Stasera chiarisco qualcosa adesso sto andando a studiare.
Ho alcuni integrali di funzioni razionali fratte da risolvere, quelli piu pallosi con il Delta < 0.
Se qualcuno puo' darmi una mano o si e' gia dato analisi matematica si faccia sentire. Poi stasera ritorno e discutiamo :muro:
Ma che vuoi che ce ne importi delle tue funzioni? :rotfl:
The_max_80
05-04-2008, 14:25
Ma che vuoi che ce ne importi delle tue funzioni? :rotfl:
quoto, sembra che voglia dimostrare che fa cose "importanti" , questa è la dimostrazione che , se sente il bisogno di dimostrare, non sa un cazzo
Bhairava
05-04-2008, 14:42
quoto, sembra che voglia dimostrare che fa cose "importanti" , questa è la dimostrazione che , se sente il bisogno di dimostrare, non sa un cazzo
Vai a vedere le boutades che scrive nel 3d della 3870x2.
Mi sa che abbiamo trovato l'ennesimo cazzaro. :rolleyes:
Scusate, vi lascio. Vado a salvare il mondo.
Intanto la mia no R700 ma "R007" :sofico: al plutonio continua a far girare in loop 3DMark Vantage che ho avuto in esclusiva dai miei servizi segreti
Scusate l'Ot :oink:
Bhairava
05-04-2008, 14:52
Scusate, vi lascio. Vado a salvare il mondo.
Intanto la mia no R700 ma "R007" :sofico: al plutonio continua a far girare in loop 3DMark Vantage che ho avuto in esclusiva dai miei servizi segreti
Scusate l'Ot :oink:
:rotfl:
Direi che queste uscite si potrebbero evitare...vero supercomputer1? Successe la stessa cosa con r600 e sappiamo come é finita.
E dai!!! Non portatele sfiga!
Bon, esco per 2 orette, ho anche io le mie integrali da fare, oltre a studiare microelettronica :ciapet:
Kharonte85
05-04-2008, 16:06
Tranquillo vacci piano , e' logico che qualcosa mi e' arrivata.
Se vuoi scommettiamo 100euro ti mando le foto delle mie email ci stai?:read:
No, io uso un metodo differente...tu fai la tua previsione, io la leggo e la catalogo nella memoria come "attendibilita' zero"...poi quando la scheda sara' uscita la verifichero'.
Ti dico gia' che pero' in molti hanno tentato prima di te e in molti hanno fallito al momento della prova...
quoto, sembra che voglia dimostrare che fa cose "importanti" , questa è la dimostrazione che , se sente il bisogno di dimostrare, non sa un cazzo
Anche perché se per delta intende (grado numeratore - grado denominatore) se è <0 sono pure le più facili (dicasi anche strettamente proprie) :asd:
Bhairava
05-04-2008, 16:39
Anche perché se per delta intende (grado numeratore - grado denominatore) se è <0 sono pure le più facili (dicasi anche strettamente proprie) :asd:
Raga, lasciatelo perdere. Non ne vale la pena.
Raga, lasciatelo perdere. Non ne vale la pena.
Giá. :)
Dedichiamoci alle news, supposizioni, e pippe da appassionati :D
In quanto termine non italiano (latino, sì) non va coniugato secondo la lingua d'appartenenza della parola (a meno che tu non voglia scrivere fra virgolette un'intera frase di latino: nel caso, dovresti coniugarlo correttamente).
Bhairava
05-04-2008, 18:24
(il plurale di raptus è rapti?:confused: )
Raptus è un sostantivo latino della IV declinazione e il nominativo plurale non cambia: raptus.
Bhairava
05-04-2008, 18:25
In quanto termine non italiano (latino, sì) non va coniugato secondo la lingua d'appartenenza alla parola (a meno che tu non voglia scrivere fra virgolette un'intera frase di latino: nel caso, dovresti coniugarlo correttamente).
Come no, certo che si deve declinare (i verbi si coniugano, i sostantivi se declinano). Ad esempio non puoi dire i curriculum ma i curricula.
:ot:
Le parole di origine straniera (se consideriamo il latino una lingua straniera) di solito sono invariabili.
non si dice films, per dire.
Free Gordon
05-04-2008, 21:06
Chi aspetta un salto rivoluzionario com'e' stato quello da 7900 a G80 si illude alla grande.
Forse, questi, dimenticano che l'ultimo grosso salto nell'architettura fatto da Nvidia, è stato con NV40..
Da NV40 a G80 sono passati 2 anni e più...
Per il prossimo salto sarà lo stesso (per cui è probabile il 2009 come data).
ps.
Ati dal canto suo, segue un'evoluzione differente, in effetti più costante e con meno salti.
Tranquillo vacci piano , e' logico che qualcosa mi e' arrivata.
Se vuoi scommettiamo 100euro ti mando le foto delle mie email ci stai?:read:
Caro supercomputer..........se vuoi recuperare un pò di credibilità nel codesto forum , ti conviene mandare qualcosa di concreto in PVT.....altrimenti le tue uscite basate su nulla di concreto , adesso non faranno altro che farti cadere nel ghetto dell'indifferenza da parte di tutti.
Non me ne volere , ma quando qualcuno spara fesserie......fa solo decadere la qualità e la credibilità di un forum serio come questo.
Per cui è inevitabile che si venga ignorati o peggio, proprio x mantenere moralmente integro il forum.
insomma, taglio corto, o ci dai cose concrete oppure fai meglio , non a tacere, xchè nessuno può dire a nessuno ciò , ma a dire cose sensate.
Le fantasie qui, su questo forum, non ingannano nessuno.
Spero l'aabbia capito una volta x tutte......( x ora le tue xazzate finiscono nel pattume e basta).
goldorak
05-04-2008, 21:13
Forse, questi, dimenticano che l'ultimo grosso salto nell'architettura fatto da Nvidia, è stato con NV40..
Da NV40 a G80 sono passati 2 anni e più...
Per il prossimo salto sarà lo stesso (per cui è probabile il 2009 come data).
ps.
Ati dal canto suo, segue un'evoluzione differente, in effetti più costante e con meno salti.
Beh ad essere sinceri ATI fece il grosso salto rivoluzionario con R300.
Questo dimostra che da una parte e dall'altra non e' cosi' semplice tirare fuori architetture rivoluzionarie ogni 2x3.
Forse e dico forse il prossimo salto rivoluzionario non lo fara' ne' la ATI/AMD ne' la Nvidia ma Intel con Larrabee. :p
Beh ad essere sinceri ATI fece il grosso salto rivoluzionario con R300.
Questo dimostra che da una parte e dall'altra non e' cosi' semplice tirare fuori architetture rivoluzionarie ogni 2x3.
Forse e dico forse il prossimo salto rivoluzionario non lo fara' ne' la ATI/AMD ne' la Nvidia ma Intel con Larrabee. :p
Mbà..........io credo che nessuno, frà nessun salto, se mai quello nel buio, quello si.
Intel è la nuova arrivata in ambito vga! E' vero chè è una potenza economica e tecnologica, xò x ogni cosa conta spprattutto l'esperienza.
intel in campo vga ci arriva x la prima volta.
non credo che almeno nel primo anno, rivoluzionerà il mercato e la tecnologia delle vga.
D'altra parte , in giro si dice , che, si Larrabee , ha forse e dico forse, individuato nel raytracing , la cosiddettta "chiave di svolta" però i primi benchmark sono tutt'altro che entusiasmanti , si parlà di rendering in tempo reale a 25 fps, in raytracing, ma a risoluzioni ridicole al giorno d'oggi, tipo 1024x768.
Come se fossimo tornati indietri di 5 - 6 anni.
Poi, onestamente, la intel in concreto, su questa vga, non ha mostrato nessuna immagine in qualità visiva, su questo benedetto raytracing , nemmeno un demo tecnologico.
tranne un quake 4 o doom 3 in raytracing, dove io non ho visto nessuna differenza qualitativa rispetto al rendering in modalità rastering.
supercomputer1
05-04-2008, 21:43
Cari utenti invece di criticare, sfottere (comunque mi e' piaciuta la battuta quella dell' R007) dello e sparare cose con intendo maligno ( o
malvagio) se usaste un po di calma intuito e pazienza riusciresse ad ottenere la parte migliore delle persone non quella peggiore.
Per chi ha detto che vado a fare gli integrali solo perche' voglio far vedere di fare cose importanti non ha capito un cacchio.
Ho solo detto questo perche' nonostante avessi voluto intrattenermi nel forum
purtroppo dovevo andare a fare gli integrali che ammetto di non saperli fare ed approfittando che stavo andando via mi e' venuto in mente che se vi era qualcuno che li sapere fare poteva farsi avanti dandomi una mano ed ottenendo la mia disponibilita' e riconoscenza, anche questo commento si poteva evitare ( crede di sapere tutto ma non sa un cacchio ).
per WarDuck se mi spiegheresti alcuni passaggi te ne sarei grato; ricambiando come posso con il mio supporto.
Gli unici che hanno detto cose sensate sono stati Gervi e WarDuck questo lo terro' presente.
Cari utenti invece di criticare, sfottere (comunque mi e' piaciuta la battuta quella dell' R007) dello e sparare cose con intendo maligno ( o
malvagio) se usaste un po di calma intuito e pazienza riusciresse ad ottenere la parte migliore delle persone non quella peggiore.
Per chi ha detto che vado a fare gli integrali solo perche' voglio far vedere di fare cose importanti non ha capito un cacchio.
Ho solo detto questo perche' nonostante avessi voluto intrattenermi nel forum
purtroppo dovevo andare a fare gli integrali che ammetto di non saperli fare ed approfittando che stavo andando via mi e' venuto in mente che se vi era qualcuno che li sapere fare poteva farsi avanti dandomi una mano ed ottenendo la mia disponibilita' e riconoscenza, anche questo commento si poteva evitare ( crede di sapere tutto ma non sa un cacchio ).
per WarDuck se mi spiegheresti alcuni passaggi te ne sarei grato; ricambiando come posso con il mio supporto.
Gli unici che hanno detto cose sensate sono stati Gervi e WarDuck questo lo terro' presente.
Mbè allora ndò stanno le novità su r700????
Concretizza ! uhhhhh
Bhairava
05-04-2008, 21:50
Gli unici che hanno detto cose sensate sono stati Gervi e WarDuck questo lo terro' presente.
Uh che peccato: vuol dire che darai loro in regalo un CFX di R700??
Mannaggia......beati loro.
Intanto non hai detto nulla su questa presunta mail che ti è arrivata: siamo sempre più convinti che sia una cialtroneria. Fai qualcosa per convincerci no? O ti piace renderti ridicolo? Svelaci il contenuto di questa mail e dacci qualche prova.
Più che analisi matematica dovresti studiare grammatica, sintassi, ortografia e punteggiatura italiana. :rolleyes:
Uh che peccato: vuol dire che darai loro in regalo un CFX di R700??
Mannaggia......beati loro.
Intanto non hai detto nulla su questa presunta mail che ti è arrivata: siamo sempre più convinti che sia una cialtroneria. Fai qualcosa per convincerci no? O ti piace renderti ridicolo? Svelaci il contenuto di questa mail e dacci qualche prova.
Più che analisi matematica dovresti studiare grammatica, sintassi, ortografia e punteggiatura italiana. :rolleyes:
quoto
Marko#88
05-04-2008, 22:05
Dai gente, non diamogli peso e bona...altrimenti finisce che qualche mod arriva e s'incazza...:)
personalmente comunque non mi fido di gente che arriva dal nulla e pretende di sapere chissà cosa..:asd:
The_max_80
05-04-2008, 22:25
Cari utenti invece di criticare, sfottere (comunque mi e' piaciuta la battuta quella dell' R007) dello e sparare cose con intendo maligno ( o
malvagio) se usaste un po di calma intuito e pazienza riusciresse ad ottenere la parte migliore delle persone non quella peggiore.
Per chi ha detto che vado a fare gli integrali solo perche' voglio far vedere di fare cose importanti non ha capito un cacchio.
Ho solo detto questo perche' nonostante avessi voluto intrattenermi nel forum
purtroppo dovevo andare a fare gli integrali che ammetto di non saperli fare ed approfittando che stavo andando via mi e' venuto in mente che se vi era qualcuno che li sapere fare poteva farsi avanti dandomi una mano ed ottenendo la mia disponibilita' e riconoscenza, anche questo commento si poteva evitare ( crede di sapere tutto ma non sa un cacchio ).
per WarDuck se mi spiegheresti alcuni passaggi te ne sarei grato; ricambiando come posso con il mio supporto.
Gli unici che hanno detto cose sensate sono stati Gervi e WarDuck questo lo terro' presente.
guarda meglio che sto zitto va, discussioni di questo livello basso non li voglio fare :doh:
pierluigi86
06-04-2008, 09:25
povero thread. che fine hanno fatto Leoneazzurro, yossarian ecc.... Com' era bello leggere certi commenti tecnici che ti lasciavano senza parole e spiegavano alucune scelte delle case produttrici. Ora sono rimasti sono bimbiminkia e fanboy di 14 anni :mad: :mad: :mad: :mad:
River Phoenix
06-04-2008, 09:40
Questo forum, come tutta internet, è piena di cazzari che dicono cose campate in aria o talmente vaghe da essere comunque vere o indimostrabili. Tipo: nVidia ha pronto un chip di 7 metri quadri che può sbaragliare qualunque concorrenza da qui al 2724 ma non lo tira fuori perché non c'è concorrenza :asd:
Mmmm...la tua citazione mi ricorda qualcuno (non tu) :tapiro:
Ciao Thread!
Girando qua e là su internet ho trovato un po' di info riguardo RV770 (alcune sono in Inglese altre in Tedesco, comunque nel complesso rimangono rumors :D )
Io non ho seguito proprio tutto il Thread e non sò, magari sono già state postate :)
RV770 rumors from the East: http://www.nordichardware.com/news,7585.html
Geruchten over ATI RV770 3D-chip: http://www.hardware.info/nl-NL/news/ymickpqSwp2aaZY/Geruchten_over_ATI_RV770_3Dchip/
Meer details ATI RV770 GPU: http://www.hardware.info/nl-NL/news/ymickpqSwpmacJY/Meer_details_ATI_RV770_GPU/
Interessante il primo, il secondo mi sembra riprendere il primo, anche se è una valutazione intuitiva perché non comprendo la lingua, mentre il terzo mi è del tutto oscuro in quanto a lingua :>
Quoto..
Cmq evitiamo di trasformare il 3d in un banale flame ...quelli che considerano i post di supercomputer delle vere idiozie si astengano dal commentarli...,per cortesia :)
Bhairava
06-04-2008, 14:51
Quoto..
Cmq evitiamo di trasformare il 3d in un banale flame ...quelli che considerano i post di supercomputer delle vere idiozie si astengano dal commentarli...,per cortesia :)
Ciao caro, qui possiamo parlare. :doh: :stordita:
Sicuramente la polemica sterile è inutile, ma secondo me è necessario mettere subito all'angolo questi personaggi per evitare che il thread perda credibilità.
Se lasciamo che questi zimbelli dicano tutte le boutades che pare a loro, il thread diventa una barzelletta.
Se la gente va dietro a certe cose i primi a sbagliare siete voi..... ignorare è soggettivo, non oggettivo
supercomputer1
06-04-2008, 21:17
Ciao Giakkes il primo link l'avevo postato gia io a pagina 72 penultimo post.
riguardo gli altri 2 link non sono scritti in lingua Tedesca, ma bensi sono in
lingua Olandese che per fortuna e' simile al Tedesco in quanto parlo questa lingua posso fare una traduzine grossolana del secondo link nel terzo riporta piu o meno le stesse cose trovo invece piu interessante il secondo link oltre che piu lungo e completo.
Traduzione
Titolo = Rumors su ATI RV770 3d-chip
Si e' saputo che AMD ha una nuova serie di scheda video, la serie
ATI Radeon HD 4000, in Giugno dovrebbe essere portata sul mercato.
Su questa serie di scheda vdeo si sono sapute anche altre cose:
la scheda sara' basata sui core 55nm RV770, RV740 ed RV710 , supportera'
le directx 10.1 e le graphic double data rate 5. Inoltre avra' un buon risparmio di energia(come la funzione di risparmio di energia ATi Powerplay)proporzionato
in prezzo e prestazioni. Quindi il risultato e che ci e' stata la prima produzione.
Per piu dettagliate specificazioni referenti alla citata radeon hd 4000,abbiamo
sofferto un mese e mezzo. Questa settimana sono emerse specificazioni migliori pertando la RV770 non avra' 480 shader processor, ma 480 in piu della gia uscita serie rv670. Questo e' quello che dovrebbe essere la rv770
dovrebbe avere non meno di 800 shader processor. Riguardo il numero di
(TMU=texture managment unit) tuttora ancora una volta: ve ne dovrebbero essere 32 sulla rv770. La ragione di questo enorme incremento e' ambigua
la principale ragione di aggiungere extra shader e' dovuta alle scarse prestazioni che hanno afflitto la serie radeon con l' Anti Aliasing. Secondariamente disporre di un incremento delle prestazioni. Prendiamo come esempio dalle serie R520 (X1800) e dalle R580 (X1900).
Noi ci apettiamo che la proporzione delle textureunit/(ALU=aritmethic logic unit) vada diminuita da 1:4 a 1:5. anche la proporzionalita' di 1:4 potrebbe rimanere la intorno ad un intervallo di due cosi tanti shader dovrebbero rimanere per l'appunto 640 in totale. La r520 aveva una proporzionalita' di 1:1( cioe' 1 su 1) la r520 una proporzione di 1:3(1 su 3) e la r600 con la r670 una proporzione di 1:4. La rv770 peche' non dovrebbe avere una proporzionalita' di 1:5( 1 su 5) . Ci si aspetta comunque che la Rv770 dovrebbe avere il 25% in piu di transistor della serie RV670. 830 milioni in totale. Speculazioni o no
su questo nessuno puo' menzionare niente in merito sulle vere specificazioni.
Fine traduzione piu o meno le stesse cose che avevo gia detto su pagina 72 penultimo post.
Ciao Giakkes il primo link l'avevo postato gia io a pagina 72 penultimo post.
riguardo gli altri 2 link non sono scritti in lingua Tedesca, ma bensi sono in
lingua Olandese che per fortuna e' simile al Tedesco in quanto parlo questa lingua posso fare una traduzine grossolana del secondo link nel terzo riporta piu o meno le stesse cose trovo invece piu interessante il secondo link oltre che piu lungo e completo.
Traduzione
Titolo = Rumors su ATI RV770 3d-chip
Si e' saputo che AMD ha una nuova serie di scheda video, la serie
ATI Radeon HD 4000, in Giugno dovrebbe essere portata sul mercato.
Su questa serie di scheda vdeo si sono sapute anche altre cose:
la scheda sara' basata sui core 55nm RV770, RV740 ed RV710 , supportera'
le directx 10.1 e le graphic double data rate 5. Inoltre avra' un buon risparmio di energia(come la funzione di risparmio di energia ATi Powerplay)proporzionato
in prezzo e prestazioni. Quindi il risultato e che ci e' stata la prima produzione.
Per piu dettagliate specificazioni referenti alla citata radeon hd 4000,abbiamo
sofferto un mese e mezzo. Questa settimana sono emerse specificazioni migliori pertando la RV770 non avra' 480 shader processor, ma 480 in piu della gia uscita serie rv670. Questo e' quello che dovrebbe essere la rv770
dovrebbe avere non meno di 800 shader processor. Riguardo il numero di
(TMU=texture managment unit) tuttora ancora una volta: ve ne dovrebbero essere 32 sulla rv770. La ragione di questo enorme incremento e' ambigua
la principale ragione di aggiungere extra shader e' dovuta alle scarse prestazioni che hanno afflitto la serie radeon con l' Anti Aliasing. Secondariamente disporre di un incremento delle prestazioni. Prendiamo come esempio dalle serie R520 (X1800) e dalle R580 (X1900).
Noi ci apettiamo che la proporzione delle textureunit/(ALU=aritmethic logical
unit) vada diminuita da 1:4 a 1:5. anche la proporzionalita' di 1:4 potrebbe rimanere la intorno ad un intervallo di due cosi tanti shader dovrebbero rimanere per l'appunto 640 in totale. La r520 aveva una proporzionalita' di 1:1( cioe' 1 su 1) la r520 una proporzione di 1:3(1 su 3) e la r600 con la r670 una proporzione di 1:4. La rv770 peche' non dovrebbe avere una proporzionalita' di 1:5( 1 su 5) . Ci si aspetta comunque che la Rv770 dovrebbe avere il 25% in piu di transistor della serie RV670. 830 milioni in totale. Speculazioni o no
su questo nessuno puo' menzionare niente in merito sulle vere specificazioni.
Fine traduzione piu o meno le stesse cose che avevo gia detto su pagina 72 penultimo post.
Si queste news però. le sappiamo trovare anche noi caro supercomputer......googlando :D
Non devi arrivare tu come la cicogna , a portare i nuovi pargoletti......sparsi x la rete..............che ovviamente al 90% sono speculazioni.
ciao..........ahh aspettiamo tutti con trepidazione le tue mail segrete che ti sono state inviate dalla CIA:asd: :asd:
Bhairava
07-04-2008, 10:04
Cioè... fatemi capire,
quest'utente avrebbe foto super-segrete di R700?!
:rotfl: :rotfl: :rotfl:
Mi ricorda qualcuno che frequentava il thread di R600... :fagiano:
http://www.hwupgrade.it/forum/showpost.php?p=21871883&postcount=1477
http://www.hwupgrade.it/forum/showpost.php?p=21877697&postcount=1491
Aspettiamo i cento euro. :rolleyes:
HackaB321
07-04-2008, 10:59
quel tipo che era venuto a sparare cifre su market share e potere contrattuale di nVidia e AMD con le fonderie dov'è finito dopo che gli ho chiesto di farmi vedere dei link che provassero quelle cifre?
http://www.hwupgrade.it/news/skvideo/ati-in-crescita-nel-mercato-delle-gpu_24883.html
:D
Speriamo perlomeno che adesso abbia chiara la differenza tra quote di mercato, margini di guadagno e volumi di fatturato.
....
Nell'attesa di condividere con noi le informazioni in tuo possesso (per me anche in pvt va benissimo) potresti cominciare con usare il tasto quote per commentare le opinioni di un altro utente (come facciamo tutti) invece di scrivere per pincopallino nel titolo. Grazie;)
halduemilauno
07-04-2008, 11:15
http://www.hwupgrade.it/news/skvideo/ati-in-crescita-nel-mercato-delle-gpu_24883.html
:D
Speriamo perlomeno che adesso abbia chiara la differenza tra quote di mercato, margini di guadagno e volumi di fatturato.
Nell'attesa di condividere con noi le informazioni in tuo possesso (per me anche in pvt va benissimo) potresti cominciare con usare il tasto quote per commentare le opinioni di un altro utente (come facciamo tutti) invece di scrivere per pincopallino nel titolo. Grazie;)
ma tu non eri quello che diceva che ati fa vagonate di soldi perchè fa i chip piccoli.....
il link quotato parla in generale di chip video io parlavo e parlo delle sole schede video dedicate per pc desktop. per intenderci dove intel non vende nulla e il mercato lo fanno solo nvidia e ati.
http://www.tomshw.it/news.php?newsid=13369
cmq tenendo anche conto di intel sempre per il solo settore destop
http://www.tomshw.it/news.php?newsid=13633
"Nel comparto desktop sono state vendute 66,8 milioni di unità (+8.3%). In questo settore, che conta VGA dedicate e core grafici integrati, Intel guida con il 37,7%, nVidia si posiziona al 37,1% e AMD sale al 19%."
il 37,1 vs 19 fa quasi il doppio quindi se non si è a 71 vs 29 si è + o - a 66 vs 34.
se state pensando a questo primo trimestre 2008 nvidia ha rilasciato la 9600gt.
State parlando di mele e pere...postate dati diversi perché sono sezioni diverse ;)
Ratatosk sta parlando di quote di mercato nel comparto video, hal del solo settore desktop.
Dati alla mano:
Quote generali - intel 41,1 nvidia 31,8 amd 22,8
quote desktop - intel 37,7 nvidia 37,1 amd 19
quote mobile - intel 47 nvidia 22,8 amd 29
Se non ho sbagliato a trascrivere qualcosa :)
ALTRI RUMORS
La futura generazione di schede grafiche ATI e nVidia, basate su una nuova architettura, adotterà probabilmente le memorie GDDR5.
Le GDDR5 potrebbero offrire un miglioramento delle prestazioni future, grazie alla possibilità di raggiungere frequenze fino a 6 GHz.
Secondo ulteriori voci di corridoio, le GDDR5 sarebbero disponibili in due capacità, 128 MB e 64 MB, in un design multipackage. La frequenza iniziale dovrebbe essere pari a circa 2.5 GHz.
LINK:http://www.tomshw.it/news.php?newsid=13634
LINK Fonte Inglese:http://xbitlabs.com/news/video/display/20080404063030_Commercial_Introduction_of_GDDR5_to_Spur_Another_Round_of_Graphics_War.html
@supercomputer1
Io non sapevo che te le avevi già postate queste info (infatti io ho specificato: magari sono già state postate).
Comunque se gentilmente mi mandi anche a me (anche in PVT) qualche info Top Secret o foto o prototipo, ti sarei molto grato :D
HackaB321
07-04-2008, 12:26
:D
Speriamo perlomeno che adesso abbia chiara la differenza tra quote di mercato, margini di guadagno e volumi di fatturato.
ma tu non eri quello che diceva che ati fa vagonate di soldi perchè fa i chip piccoli.....
No, non è ancora chiara.
Kharonte85
07-04-2008, 12:26
Se fai i conti invece di inventarli viene 42% vs 58%, ben lontano da quanto dici.
Conti a parte credo che lui volesse riferirsi solo al mercato delle schede video Discrete (che in effetti è il tema di questa sezione) questo:
Jon Peddie Research ha presentato i dati, relativi al Q4 2007, sulle quote di mercato di ATI e nVidia nel settore delle schede video discrete, ovvero quelle dedicate, non integrate sulla scheda madre. In questa particolare fascia, nVidia è in netto vantaggio su ATI (azienda nelle mani di AMD) e negli ultimi tre mesi dell'anno ha aumentato ulteriormente il distacco.
Nvidia detiene infatti una quota del 71%, in crescita di 7 punti percentuali rispetto al trimestre precedente. Di contro, ATI è scesa al 29% rispetto al 36% precedente.
http://www.tomshw.it/news.php?newsid=13369
Anche se i dati presentati oggi fanno ben sperare per una ripresa da parte di AMD nella sua totalita' come produttore in tutti i settori: mobile, Schede madri ecc...
HackaB321
07-04-2008, 12:33
Conti a parte credo che lui volesse riferirsi solo al mercato delle schede video Discrete (che in effetti è il tema di questa sezione) questo:
Jon Peddie Research ha presentato i dati, relativi al Q4 2007, sulle quote di mercato di ATI e nVidia nel settore delle schede video discrete, ovvero quelle dedicate, non integrate sulla scheda madre. In questa particolare fascia, nVidia è in netto vantaggio su ATI (azienda nelle mani di AMD) e negli ultimi tre mesi dell'anno ha aumentato ulteriormente il distacco.
Nvidia detiene infatti una quota del 71%, in crescita di 7 punti percentuali rispetto al trimestre precedente. Di contro, ATI è scesa al 29% rispetto al 36% precedente.
http://www.tomshw.it/news.php?newsid=13369
Infatti i dati di ATi nel 4°trimestre dipendono molto poco dalle 38*0 che sono arrivate in volumi sul mercato solo ai primi di dicembre (quindi incidono solo per 1/3 del tempo). Dipendono molto invece dalla commercializzazione in volumi di schede con HD 2600/2400 in desktop da supermercato.
halduemilauno
07-04-2008, 12:42
Conti a parte credo che lui volesse riferirsi solo al mercato delle schede video Discrete (che in effetti è il tema di questa sezione) questo:
Jon Peddie Research ha presentato i dati, relativi al Q4 2007, sulle quote di mercato di ATI e nVidia nel settore delle schede video discrete, ovvero quelle dedicate, non integrate sulla scheda madre. In questa particolare fascia, nVidia è in netto vantaggio su ATI (azienda nelle mani di AMD) e negli ultimi tre mesi dell'anno ha aumentato ulteriormente il distacco.
Nvidia detiene infatti una quota del 71%, in crescita di 7 punti percentuali rispetto al trimestre precedente. Di contro, ATI è scesa al 29% rispetto al 36% precedente.
http://www.tomshw.it/news.php?newsid=13369
Anche se i dati presentati oggi fanno ben sperare per una ripresa da parte di AMD nella sua totalita' come produttore in tutti i settori: mobile, Schede madri ecc...
esatto.
;)
Infatti i dati di ATi nel 4°trimestre dipendono molto poco dalle 38*0 che sono arrivate in volumi sul mercato solo ai primi di dicembre (quindi incidono solo per 1/3 del tempo). Dipendono molto invece dalla commercializzazione in volumi di schede con HD 2600/2400 in desktop da supermercato.
anche questo è vero ma cmq in tutti i casi si stava proprio parlando del quarto trimestre del 2007. e poi ho anche aggiunto se state pensando al primo trimestre del 2008 nvidia in questo trimestre ha presentato la 9600gt...
fine ot.
Mi sfugge qualcosa oppure questo t3d si chiama così?!? :confused:
[THREAD UFFICIALE] Aspettando R700
Altrimenti si chiede all'autore della discussione di cambiare titolo e si apre un'altra discussione sul futuro R700 ;)
bye
Kharonte85
07-04-2008, 13:23
Mi sfugge qualcosa oppure questo t3d si chiama così?!? :confused:
[THREAD UFFICIALE] Aspettando R700
Altrimenti si chiede all'autore della discussione di cambiare titolo e si apre un'altra discussione sul futuro R700 ;)
bye
Che ci vuoi fare...in queste discussioni è pressoche' impossibile non andare OT, dato che il materiale su cui speculare è sempre poco e poco affidabile...e poi in un certo senso il destino di AMD è legato anche al successo dei suoi prodotti di oggi, come anche le scelte di marketing future e le scelte di progettazione...e l'unico modo per avere qualche possibilita' di capire come sara' il futuro è guardare con attenzione il presente.
ALTRI RUMORS
La futura generazione di schede grafiche ATI e nVidia, basate su una nuova architettura, adotterà probabilmente le memorie GDDR5.
Le GDDR5 potrebbero offrire un miglioramento delle prestazioni future, grazie alla possibilità di raggiungere frequenze fino a 6 GHz.
Secondo ulteriori voci di corridoio, le GDDR5 sarebbero disponibili in due capacità, 128 MB e 64 MB, in un design multipackage. La frequenza iniziale dovrebbe essere pari a circa 2.5 GHz.
LINK:http://www.tomshw.it/news.php?newsid=13634
LINK Fonte Inglese:http://xbitlabs.com/news/video/display/20080404063030_Commercial_Introduction_of_GDDR5_to_Spur_Another_Round_of_Graphics_War.html
Mi sono auto quotato :) nessuno crede che le nuove vga ATI possono avere gddr5, perchè?
http://images.vnu.net/gb/inquirer/news/2008/04/06/larrabee-memory-shows-idf/gddr5_hynix.jpg
Pare che le ha persino Larrabee (io non ci credo), quindi le può avere anche HD4000serie.
Kharonte85
07-04-2008, 16:18
Potrei sbagliarmi ma credo proprio che sia troppo presto per la produzione delle gddr5 in grossi volumi...tali da non far lievitare troppo i costi di produzione della scheda, inoltre non è detto che questo rappresenti un vantaggio, ne è stato un esempio l'utilizzo delle memorie gddr4 fatto da ATI, e che nvidia invece non ha mai considerato come convenienti...
HackaB321
07-04-2008, 16:29
Mi sono auto quotato :) nessuno crede che le nuove vga ATI possono avere gddr5, perchè?
http://images.vnu.net/gb/inquirer/news/2008/04/06/larrabee-memory-shows-idf/gddr5_hynix.jpg
Pare che le ha persino Larrabee (io non ci credo), quindi le può avere anche HD4000serie.
E' un problema di costi e di produzione in volumi. Larrabee è previsto per il 4Q08-1Q09 ( e quindi il rumor è attendibile), RV770 per giugno, quindi il rumor è un pò meno credibile.
Aggiungo poi che RV770 sarà una scheda di fascia media e le GDDR4 a 256bit (con le potenzialità del ringbus) hanno già dimostrato di garantire tutta la banda necessaria anche nei giochi più recenti. Non penso cioè che tra un RV770 con GDDR4 e uno con GDDR5 ci sarà tanta differenza come prestazioni.
La banda semmai sarà un problema su R700 se la nuova ammiraglia non sarà un cf (classico): nel caso in cui le due gpu (o i due cores?) condivideranno l'accesso alla memoria allora ci potranno essere problemi di banda, ma in questo caso sarà necessario un aumento del bus più che della freq della memoria.
L'ipotesi per me più probabile è che RV770-R700 saranno equipaggiati con GDDR4, per poi avere un refresh successivo con le nuove memorie (come accadde tra x1900 e x1950)
Convenienti o no nVidia avrebbe dovuto riprogettare il controller, ATi no...
Considerando che da un anno e mezzo ripropone sempre lo stesso chip in mille salse, si lascia presupporre che ci stiano lavorando, mentre ATi lo ha già finito.
goldorak
07-04-2008, 16:31
Potrei sbagliarmi ma credo proprio che sia troppo presto per la produzione delle gddr5 in grossi volumi...tali da non far lievitare troppo i costi di produzione della scheda, inoltre non è detto che questo rappresenti un vantaggio, ne è stato un esempio l'utilizzo delle memorie gddr4 fatto da ATI, e che nvidia invece non ha mai considerato come convenienti...
Non e' detto che sia una scelta non azzeccata solo perche' Nvidia non l'ha adottata.
appleroof
07-04-2008, 16:32
Potrei sbagliarmi ma credo proprio che sia troppo presto per la produzione delle gddr5 in grossi volumi...tali da non far lievitare troppo i costi di produzione della scheda, inoltre non è detto che questo rappresenti un vantaggio, ne è stato un esempio l'utilizzo delle memorie gddr4 fatto da ATI, e che nvidia invece non ha mai considerato come convenienti...
io in generale continuo a guardare queste evoluzioni con poca convinzione, visto che come accade per le ram di sistema all'aumento della frequenza si accompagna l'inevitabile aumento delle latenze in un gioco a somma zero o quasi...
vedo meglio il discorso sui consumi, questo di sicuro, però invece di fare le ddr18 potrebbero muoversi verso qualcosa del genere: http://www.hwupgrade.it/news/memorie/da-hynix-memorie-lpddr2-da-1gbit_24892.html
anche in questi ambiti, ad esempio...
Non e' detto che sia una scelta non azzeccata solo perche' Nvidia non l'ha adottata.
Però come ben dice HackaB321 se non si ha un'ammiraglia che saturi la già ottima banda passante che può permettere le ultime GDDR4, allora non si avrà convenienza nell'adottarla immediatamente.
goldorak
07-04-2008, 16:36
Però come ben dice HackaB321 se non si ha un'ammiraglia che saturi la già ottima banda passante che può permettere le ultime GDDR4, allora non si avrà convenienza nell'adottarla immediatamente.
Ma alcune scelte non devono essere dettate necessariamente da considerazioni tecniche, il marketing dove lo metti ?
Credi che se il costo della GDDR5 sia lo stesso della GDDR4 per AMD non convega usare le prime ? Anche per distanziarsi da Nvidia ?
Perche' credi che ATI/AMD abbia spinto sulle dx 10.1 benche' al momento non esista uno straccio di gioco nativo dx 10 ?
E' un problema di costi e di produzione in volumi. Larrabee è previsto per il 4Q08-1Q09 ( e quindi il rumor è attendibile), RV770 per giugno, quindi il rumor è un pò meno credibile.
Aggiungo poi che RV770 sarà una scheda di fascia media e le GDDR4 a 256bit (con le potenzialità del ringbus) hanno già dimostrato di garantire tutta la banda necessaria anche nei giochi più recenti. Non penso cioè che tra un RV770 con GDDR4 e uno con GDDR5 ci sarà tanta differenza come prestazioni.
La banda semmai sarà un problema su R700 se la nuova ammiraglia non sarà un cf (classico): nel caso in cui le due gpu (o i due cores?) condivideranno l'accesso alla memoria allora ci potranno essere problemi di banda, ma in questo caso sarà necessario un aumento del bus più che della freq della memoria.
L'ipotesi per me più probabile è che RV770-R700 saranno equipaggiati con GDDR4, per poi avere un refresh successivo con le nuove memorie (come accadde tra x1900 e x1950)
Ma alcune scelte non devono essere dettate necessariamente da considerazioni tecniche, il marketing dove lo metti ?
Credi che se il costo della GDDR5 sia lo stesso della GDDR4 per AMD non convega usare le prime ? Anche per distanziarsi da Nvidia ?
Perche' credi che ATI/AMD abbia spinto sulle dx 10.1 benche' al momento non esista uno straccio di gioco nativo dx 10 ?
Tutte e due le ipotesi possono essere vere (parecchio dipenderà dai costi delle Gddr5), vedremo cosa deciderà di fare AMD/ATI.
Kharonte85
07-04-2008, 18:30
Non e' detto che sia una scelta non azzeccata solo perche' Nvidia non l'ha adottata.
Non è per questo...col senno di poi oggettivamente i vantaggi si sono rivelati essere 0 a partire dalla x1950xtx fino a passare per le schede r600 fino ad arrivare ad oggi...fra l'altro le gddr4 sono stati fra i motivi del ritardo di r600...io spero che alla ATI abbiano imparato dai propri errori...non sempre essere all'avanguardia paga...
Ma alcune scelte non devono essere dettate necessariamente da considerazioni tecniche, il marketing dove lo metti ?
Credi che se il costo della GDDR5 sia lo stesso della GDDR4 per AMD non convega usare le prime ? Anche per distanziarsi da Nvidia ?
Perche' credi che ATI/AMD abbia spinto sulle dx 10.1 benche' al momento non esista uno straccio di gioco nativo dx 10 ?
Questi "trucchi" servono solo per attirare dei compratori sprovveduti...ma il marketing vero funziona se hai una forte partnership...e la partnership la ottieni facendo i prodotti migliori (e non sulla carta), formandoti un'immagine (vantando le prestazioni migliori) e di conseguenza facendoti pubblicita'...
Per le gddr5 pare tecnologicamente troppo presto...il costo non puo' essere lo stesso
io in generale continuo a guardare queste evoluzioni con poca convinzione, visto che come accade per le ram di sistema all'aumento della frequenza si accompagna l'inevitabile aumento delle latenze in un gioco a somma zero o quasi...
Infatti :D
vedo meglio il discorso sui consumi, questo di sicuro, però invece di fare le ddr18 potrebbero muoversi verso qualcosa del genere: http://www.hwupgrade.it/news/memorie/da-hynix-memorie-lpddr2-da-1gbit_24892.html
anche in questi ambiti, ad esempio...
Magari! ma probabilmente i costi lieviterebbero troppo...credo proprio che il futuro dei consumi e le uniche speranze di vedere un serio miglioramento da questo punto di vista siano riposte nei sistemi ibridi con scheda madre integrata che gestisce l'ON/OFF della discreta...
appleroof
07-04-2008, 18:40
Non è per questo...col senno di poi oggettivamente i vantaggi si sono rivelati essere 0 a partire dalla x1950xtx fino a passare per le schede r600 fino ad arrivare ad oggi...fra l'altro le gddr4 sono stati fra i motivi del ritardo di r600...io spero che alla ATI abbiano imparato dai propri errori...non sempre essere all'avanguardia paga...
Questi "trucchi" servono solo per attirare dei compratori sprovveduti...ma il marketing vero funziona se hai una forte partnership...e la partnership la ottieni facendo i prodotti migliori (e non sulla carta), formandoti un'immagine (vantando le prestazioni migliori) e di conseguenza facendoti pubblicita'...
Per le gddr5 pare tecnologicamente troppo presto...il costo non puo' essere lo stesso
Infatti :D
Magari! ma probabilmente i costi lieviterebbero troppo...credo proprio che il futuro dei consumi e le uniche speranze di vedere un serio miglioramento da questo punto di vista siano riposte nei sistemi ibridi con scheda madre integrata che gestisce l'ON/OFF della discreta...
quoto dall'inizio alla fine ;)
ragazzi nn ho voglia di leggere le ultime 20 pagine del 3d, novità?
Grazie
appleroof
07-04-2008, 19:55
ragazzi nn ho voglia di leggere le ultime 20 pagine del 3d, novità?
Grazie
nessuna...
Sempre Giugno l'ultimo mese ufficiale per far uscire la scheda o almeno i primi risultati definitivi da mettere in giro per la rete.
supercomputer1
07-04-2008, 21:34
Tranquillo Giakkes non era un rinprovero manda pure altre info che trovi
in giro in rete; se sono in lingua Tedesca o Olandese che e' molto simile al Tedesco te le traduco volentieri se non capisci qualcosa.
appleroof
07-04-2008, 21:45
nVidia attualmente è palesemente bandwidth limited sulle top, questo nonostante della GDDR3 mostruoamente tirata fuori specifica. Io dico che della GDDR4 gli avrebbe giovato, potrei anche sbagliarmi, eh, di certo non lo sapremo mai per certo, ma qualche speculazione in proposito viene.
Allo stesso tempo la gestione della bandwidth sembra migliore lato ATi, rendendo palesemente inutile le GDDR4 al posto delle GDDR3. Vedremo, sono convinto che comunque non sarà R700 ad avere la GDDR5, troppo presto :>
palesemente :confused: ? a me ad esempio un aumento della frequenza degli sp porta benefici in game molto maggiori che 100mhz in più sulle memorie, test alla mano.....
goldorak
07-04-2008, 21:46
nVidia attualmente è palesemente bandwidth limited sulle top, questo nonostante della GDDR3 mostruoamente tirata fuori specifica. Io dico che della GDDR4 gli avrebbe giovato, potrei anche sbagliarmi, eh, di certo non lo sapremo mai per certo, ma qualche speculazione in proposito viene.
Allo stesso tempo la gestione della bandwidth sembra migliore lato ATi, rendendo palesemente inutile le GDDR4 al posto delle GDDR3. Vedremo, sono convinto che comunque non sarà R700 ad avere la GDDR5, troppo presto :>
Si la scelta di castrare il bus sulla serie successiva a G80 e' stata disastrosa almeno sulle alte risoluzioni.
supercomputer1
07-04-2008, 21:48
sono convinto che comunque non sarà R700 ad avere la GDDR5, troppo presto :>
http://www.ubergizmo.com/15/archives/2007/12/gddr5_memory_from_samsung.html
http://www.eetasia.com/ART_8800492053_499486_NP_0ebd8875.HTM
Beh io non direi che e' troppo presto.
goldorak
07-04-2008, 21:49
palesemente :confused: ? a me ad esempio un aumento della frequenza degli sp porta benefici in game molto maggiori che 100mhz in più sulle memorie, test alla mano.....
Prova a fare i bench ad alte risoluzioni con filtri attivati e vedi come patiscono davanti alla vecchia 8800GTX/ULTRA.
Suvvia anche tu dovresti riconoscere che limitare il bus a 256 bit e' stata una scelta deleteria almeno sui modelli top di gamma.
La Nvidia doveva mantenere il bus a 384 bit sulla top di gamma e tagliare il bus sulle schede restanti, ma se avesse fatto cosi' non sarebbe potuta essere competitiva nel prezzo con i modelli 3870/3850 e varianti x2 della ATI. ;).
nessuna...
e di cosa avete parlato dalla 57 (pagina in cui mi sono fermato) alla 79???
cioè nn dirmi solo ddr5 e infodate ipotesi (lasciami passare il termine ma finchè nn ci sono romurs attendibili, crearne così nn ha proprio senso)
e di cosa avete parlato dalla 57 (pagina in cui mi sono fermato) alla 79???
cioè nn dirmi solo ddr5 e infodate ipotesi (lasciami passare il termine ma finchè nn ci sono romurs attendibili, crearne così nn ha proprio senso)
se non hai voglia di leggere (e se uno ha voglia di informarsi ha SEMPRE voglia di leggere, non si accontenta della pappa pronta) non venire a qui a smollare giudizi lollosi..
bYeZ!
Se i rumors saranno confermati, e r700 avrá 2 chip connessi alla stessa memoria, certo che le gddr5 serviranno :)
Se i rumors saranno confermati, e r700 avrá 2 chip connessi alla stessa memoria, certo che le gddr5 serviranno :)
si..............io credo che r700 rv770 avranno gddr5
a prescindre dalla micro architettura interna.
consideriamo , che, le gddr5 sono sono state in sviluppo , sia da samsung che quimonda........da circa 1 anno e mezzo e foese di più............ed hanno già la possibilità entro giugno, quindi a 3 mesi da ora , di sfornare chip in grandi volumi.
dato che rv770 uscirà allora + o meno, foese anche dopo.............mi sembra logico che monterà GDDR5.......................che all'inizio forse avranno frequenze non molto alte , questo si , forse.
Ma IMHO , r700 e derivati avranno GDDR5 , ne sono sicuro al 100%.
HackaB321
08-04-2008, 07:48
palesemente :confused: ? a me ad esempio un aumento della frequenza degli sp porta benefici in game molto maggiori che 100mhz in più sulle memorie, test alla mano.....
Questo non toglie che G80 e figli (soprattutto figli), con l'accoppiata crossbar (che è più semplice da implementare, consuma meno ma ha latenze maggiori) +ddr3 siano bandwidth limited in molte situazioni. Nvidia ha ovviato all'impossibilità di usare le ddr4, con aumenti di frequenza delle ddr3 e soprattutto con i "tagli intermedi" di bus che le hanno permesso almeno su G80 (con i 384 bit) di avere banda a sufficienza.
Ma g92/g94 avrebbero di che avvantaggiarsi dalle DDR4: basta guardare le differenze percentuali tra la 3870 e la 9600Gt (stesso bus) a 1280 e a 1920 (secondo hwupgrade ad es si passa da un +13% medio a 1280 a un +5% a 1920)
<^MORFEO^>
08-04-2008, 10:49
Anch'io credo che vedremo per la prima volta le GDDR5 sulla RV770... :O
appleroof
08-04-2008, 17:09
Prova a fare i bench ad alte risoluzioni con filtri attivati e vedi come patiscono davanti alla vecchia 8800GTX/ULTRA.
Suvvia anche tu dovresti riconoscere che limitare il bus a 256 bit e' stata una scelta deleteria almeno sui modelli top di gamma.
La Nvidia doveva mantenere il bus a 384 bit sulla top di gamma e tagliare il bus sulle schede restanti, ma se avesse fatto cosi' non sarebbe potuta essere competitiva nel prezzo con i modelli 3870/3850 e varianti x2 della ATI. ;).
La tua scheda va meglio di tutte le successive nVidia alle alte risoluzioni, e questo è dovuto ad un limite della banda. Chiaro poi che a 1600 non lo vedi, ma a 1900 si ;)
Questo non toglie che G80 e figli (soprattutto figli), con l'accoppiata crossbar (che è più semplice da implementare, consuma meno ma ha latenze maggiori) +ddr3 siano bandwidth limited in molte situazioni. Nvidia ha ovviato all'impossibilità di usare le ddr4, con aumenti di frequenza delle ddr3 e soprattutto con i "tagli intermedi" di bus che le hanno permesso almeno su G80 (con i 384 bit) di avere banda a sufficienza.
Ma g92/g94 avrebbero di che avvantaggiarsi dalle DDR4: basta guardare le differenze percentuali tra la 3870 e la 9600Gt (stesso bus) a 1280 e a 1920 (secondo hwupgrade ad es si passa da un +13% medio a 1280 a un +5% a 1920)
ok, l'equivoco è nato nel momento in cui si parlava di top e quindi (scusate, credetemi che sono sincero e non voglio tirarmela) ho pensato giocoforza alla mia
condivido la critica alla scelta, discutibile dal punto di vista prestazionale, di tagliare bus e quantità di v-ram, dettata solo dalla necessità di tagliare i costi (ancora più discutibile, anzi proprio inspiegabile dal momento in cui "la guerra dei prezzi" di Ati la poteva combattere solo con le 9600gt/8800gt in basso/fascia media e 8800gts512/9800gx2 in alto)
in realtà come da voi sottolineato è puro marketing, come il rinominare la 8800gs in 9800gso: la 9800gtx non è altro che una gts512 leggermente migliorata, non è certo la sostituta della 8800gtx (della quale lo è invece la 9800gx2, ma esce fuori gioco perchè dual e anch'essa in fondo solo marketing di risposta alla 3870x2) e sinceramente tutto questo mi pare superfluo: potevano star fermi (con i nomi) fino alla "vera" serie 9 e bona, ma tant'è...:boh:
Kharonte85
08-04-2008, 17:55
nVidia attualmente è palesemente bandwidth limited sulle top, questo nonostante della GDDR3 mostruoamente tirata fuori specifica. Io dico che della GDDR4 gli avrebbe giovato, potrei anche sbagliarmi, eh, di certo non lo sapremo mai per certo, ma qualche speculazione in proposito viene.
Allo stesso tempo la gestione della bandwidth sembra migliore lato ATi, rendendo palesemente inutile le GDDR4 al posto delle GDDR3. Vedremo, sono convinto che comunque non sarà R700 ad avere la GDDR5, troppo presto :>
ma questo non c'entra nulla con le ddr3, quello che limita (ma non in tutte le condizioni) col G92 è il bus a 256bit...se avesse usato le gddr4 sarebbe stato sempre lui il collo di bottiglia...
Kharonte85
08-04-2008, 18:03
si..............io credo che r700 rv770 avranno gddr5
a prescindre dalla micro architettura interna.
consideriamo , che, le gddr5 sono sono state in sviluppo , sia da samsung che quimonda........da circa 1 anno e mezzo e foese di più............ed hanno già la possibilità entro giugno, quindi a 3 mesi da ora , di sfornare chip in grandi volumi.
dato che rv770 uscirà allora + o meno, foese anche dopo.............mi sembra logico che monterà GDDR5.......................che all'inizio forse avranno frequenze non molto alte , questo si , forse.
Ma IMHO , r700 e derivati avranno GDDR5 , ne sono sicuro al 100%.
No, qui ti correggo...al max l'estate dell'anno scorso
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
3) GDDR5
GDDR5 is currently under development in JEDEC (JC-42.3 subcommittee), with an expected
specification release date of mid-to-late ’08. GDDR5 devices will range from 512 Mb to 2 Gb in
density (2X that of GDDR4), with the higher density offerings expected to be organized as 16
bank devices.
Key changes from GDDR4 include a target maximum data rate of 5 Gb/s per pin (is this still the
projected max data rate?), the use of a new clocking structure and increased data reliability via
the use of error detection. In addition, the new devices are targeting operation at clock speeds
as low as 50MHz, as well as the addition of address bus inversion capability, the inclusion of
data and address interface training, the inclusion of both x16 and x32 devices, increased low
power modes, an increase from 4 to 8 mode registers to accommodate the new features and
programmability, etc.
http://www.jedec.org/Home/press/press_release/MunichPR.pdf
il Jedec si occupa di definire lo standard per le memorie di questo tipo......
Ma i primi sample sono stati a Novembre...per una produzione in massa a costi non proibitivi è ragionevole pensare a non prima di fine 2008...è di oggi il rumors che forse GT200 avra' ancora le gddr3
Io ho forti dubbi che vedremo gia' delle gddr5 al prossimo giro...
Faustinho DaSilva
08-04-2008, 18:04
ma questo non c'entra nulla con le ddr3, quello che limita (ma non in tutte le condizioni) col G92 è il bus a 256bit...se avesse usato le gddr4 sarebbe stato sempre lui il collo di bottiglia...
quoto... probabilmente imho uscirà un ulteriore revision del nv92 con bus a 384 cm le 8800gtx e ultra... cosi avranno finito il giro;)
<^MORFEO^>
08-04-2008, 18:13
quoto... probabilmente imho uscirà un ulteriore revision del nv92 con bus a 384 cm le 8800gtx e ultra... cosi avranno finito il giro;)
Si, sarà la nuovissima serie 10800GT,GTS,GTX...
L'ennesimo riciclo di G80 da parte di nVidia! :asd: :rotfl: :sbonk: :Puke:
Kharonte85
08-04-2008, 19:54
Non è così semplice. La bandwidth si calcola moltiplicando i bytes dell'interfaccia di memoria per la frequenza operativa della stessa.
Per esempio, per un ipotetico bus a 256bit con GDDR4 a 2.4GHz:
BW = 32*2.4*10^9 = 76.8 GB/s
Con lo stesso bus, ma con GDDR3 a 2.0GHz:
BW = 32*2*10^9 = 64 GB/s
La bandwidth cambia, il bus no.
Appunto, quindi il bus rimane limitante se lo era anche prima :D
Non è un caso che anche se porti le memorie gddr3 delle G92 a 2.2 non ottieni grandi miglioramenti in quei casi in cui la scheda è limitata dal bus (cioè a risoluzioni molto alte)...
Appunto, quindi il bus rimane limitante se lo era anche prima :D
Non è un caso che anche se porti le memorie gddr3 delle G92 a 2.2 non ottieni grandi miglioramenti in quei casi in cui la scheda è limitata dal bus (cioè a risoluzioni molto alte)...
il bus limita la bandwith quindi se la frequenza delle ram aumenta aumenta anche la bandwith!!!!!!!!! quindi avere un bus a 256bit e ram a 1ghz e avere un bus a 512bit e ram a 500mhz è IDENTICO in termini di bandwith!!!!
Questo lo si può vedere benissimo tra R600 e RV670 XT che nonostante il bus dimezzato non è bandiwth limit perchè ha DDR4 spinte a 2.4ghz! :)
Kharonte85
08-04-2008, 20:44
il bus limita la bandwith quindi se la frequenza delle ram aumenta aumenta anche la bandwith!!!!!!!!! quindi avere un bus a 256bit e ram a 1ghz e avere un bus a 512bit e ram a 500mhz è IDENTICO in termini di bandwith!!!!
Quindi?
La bandwith non è mai stata un parametro per valutare le prestazioni della scheda, se l'ampiezza del bus è a 256bit, puoi sparare le memorie anche a 4ghz e avere una bandwith mostruosa (fra l'altro i valori che ci riportano sono sempre valori di bandwidth massimi teorici, i reali sono un'altro paio di maniche e devono fare i conti con i vari colli di bottiglia presenti in tutta l'architettura), ma se è quello il collo di bottiglia c'è poco da fare, avrai lo stesso le prestazioni strozzate :read:
Questo lo si può vedere benissimo tra R600 e RV670 XT che nonostante il bus dimezzato non è bandiwth limit perchè ha DDR4 spinte a 2.4ghz! :)
Appunto, la bandwith di R600 era oltremodo sproporzionata...era in eccesso rispetto alle prestazioni che offriva la scheda (mentre la hd3870 è piu' equilibrata e non arriva ad essere limitata dai 256bit, nel senso che collassa prima con tutto il resto :D )...come lo era per la 8800gts 640mb che ha molta piu' bandwith della 8800GT che pero' la supera di parecchio...ma è chiaro che piu' sali di prestazioni piu' c'è il rischio che ci si avvicini alla saturazione del bus a 256bit, che è in effetti quello che avviene in alcuni casi con le G92 (e ci tengo a precisare che stiamo parlando di risoluzioni folli), ed è chiaro che l'imputato principale è il bus...altrimenti non si spiega come la 8800gtx a parita' di SP e con frequenze inferiori in tutto abbia a volte prestazioni migliori...
Oddio cerca di capire. La bandwidth è una espressione diretta sia dell'ampiezza di bus sia della frequenza di lavoro della ram. Quindi il bus smette di essere limitante quando utilizzi memorie a frequenze maggiori. Infatti a risoluzioni molto alte il bus semplificato per ridurre i costi, abbinato a ram GDDR3 che più di tanto non può dare (da specifica il max è 1GHz, di più è overclock) porta un chip come G92, con potenzialità superiori al G80, ad essere strozzato e perdere il confronto. A questo si poteva ovviare utilizzando GDDR4 a 2.4/2.6GHz, ma non sul crossbar nVidia che non è compatibile con questa tecnologia.
Stringando molto il concetto la dimensione del bus non è un fattore che possa essere considerato in modo indipendente, solo il prodotto fra ampiezza di bus e frequenza della ram da UN parametro da considerare, perché il collo di bottiglia, se c'è, è la bandwidth, non la frequenza o l'ampiezza di bus.
Esatto, il concetto é questo.
No, qui ti correggo...al max l'estate dell'anno scorso
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
3) GDDR5
GDDR5 is currently under development in JEDEC (JC-42.3 subcommittee), with an expected
specification release date of mid-to-late ’08. GDDR5 devices will range from 512 Mb to 2 Gb in
density (2X that of GDDR4), with the higher density offerings expected to be organized as 16
bank devices.
Key changes from GDDR4 include a target maximum data rate of 5 Gb/s per pin (is this still the
projected max data rate?), the use of a new clocking structure and increased data reliability via
the use of error detection. In addition, the new devices are targeting operation at clock speeds
as low as 50MHz, as well as the addition of address bus inversion capability, the inclusion of
data and address interface training, the inclusion of both x16 and x32 devices, increased low
power modes, an increase from 4 to 8 mode registers to accommodate the new features and
programmability, etc.
http://www.jedec.org/Home/press/press_release/MunichPR.pdf
il Jedec si occupa di definire lo standard per le memorie di questo tipo......
Ma i primi sample sono stati a Novembre...per una produzione in massa a costi non proibitivi è ragionevole pensare a non prima di fine 2008...è di oggi il rumors che forse GT200 avra' ancora le gddr3
Io ho forti dubbi che vedremo gia' delle gddr5 al prossimo giro...
mà , io credo di si...........ricordiamo che dopo gddr3 x esempio, mi pare che gddr4 furono introdotte circa 1 anno dopo........condiderando , appunto che come tu riporti,,,,,,,sono in test dalla scorsa estate, a questa estate fà 1 anno...........1 anno e mezzo a fine 2008.
poi dipende da quando effettivamente uscirà R700!
magari con R780 potremo averle, se non con R700.
oppure può darsi che avremo primi moduli gddr5 a freq. non spinte.
comunque i prossimi 2 mesi , ci diranno la verità , credo.
Foglia Morta
09-04-2008, 08:18
Edit: comunque Samsung è messa bene con le gddr5: http://www.samsung.com/global/business/semiconductor/newsView.do?news_id=879
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6721&Itemid=1
We learned that RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone has expected. TSMC is already doing a pilot production and the chips are, as we reported earlier, developed in 55nm machitecture.
The way it looks now, there is a strong possibility that R700 should show its face at Computex (June 3) while the launch itself might be shortly before or after Computex. We still don’t have the final details.
RV770 is the based on R700 and R700 consists of two RV770 chips. From what we know, RV770 should be at least fifty percent faster than the RV670.
If all goes well there is a big chance that R700 will launch in Q2 but rather later than earlier. We are still in the dark about the real details of D10U 30 as this GPU(s) has a similar schedule and is ought to launch in Q2.
Edit: comunque Samsung è messa bene con le gddr5: http://www.samsung.com/global/business/semiconductor/newsView.do?news_id=879
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6721&Itemid=1
We learned that RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone has expected. TSMC is already doing a pilot production and the chips are, as we reported earlier, developed in 55nm machitecture.
The way it looks now, there is a strong possibility that R700 should show its face at Computex (June 3) while the launch itself might be shortly before or after Computex. We still don’t have the final details.
RV770 is the based on R700 and R700 consists of two RV770 chips. From what we know, RV770 should be at least fifty percent faster than the RV670.
If all goes well there is a big chance that R700 will launch in Q2 but rather later than earlier. We are still in the dark about the real details of D10U 30 as this GPU(s) has a similar schedule and is ought to launch in Q2.
infatti..e siccome dice in inglese. " Samples of Samsung's new GDDR5 chip have been delivered to major graphic processor companies last month and mass production is expected in the first half of 2007" ,
in altre parole capisco che i primi sample sono comparsi lo scorso anno , credo che a partire da giugno luglio 2008 , essendo passato 1 anno, samsung sia in grado di fornire in volumi gddr5 , a questo aggiungiamo pure quimonda che ha cominciato prima ed allora credo che su r700 vedremo gddr5.
ma domanda, si dice gddr5 a 6Gb x sec..
cioè a quale frequenza funzioneranno??? DDr ed effettiva??
Foglia Morta
09-04-2008, 08:51
infatti..e siccome dice in inglese. " Samples of Samsung's new GDDR5 chip have been delivered to major graphic processor companies last month and mass production is expected in the first half of 2007"
riguardo la produzione di massa imho è un errore di battitura e intendevano prima metà 2008.
se non saranno adottate le gddr5 con le prossime gpu è comunque probabile che il memory controller sia stato rivisto per supportarle a partire dal momento in cui il rapporto costi/benefici sia favorevole a queste memorie
Kharonte85
09-04-2008, 10:06
Oddio cerca di capire. La bandwidth è una espressione diretta sia dell'ampiezza di bus sia della frequenza di lavoro della ram. Quindi il bus smette di essere limitante quando utilizzi memorie a frequenze maggiori. Infatti a risoluzioni molto alte il bus semplificato per ridurre i costi, abbinato a ram GDDR3 che più di tanto non può dare (da specifica il max è 1GHz, di più è overclock) porta un chip come G92, con potenzialità superiori al G80, ad essere strozzato e perdere il confronto. A questo si poteva ovviare utilizzando GDDR4 a 2.4/2.6GHz, ma non sul crossbar nVidia che non è compatibile con questa tecnologia.
Stringando molto il concetto la dimensione del bus non è un fattore che possa essere considerato in modo indipendente, solo il prodotto fra ampiezza di bus e frequenza della ram da UN parametro da considerare, perché il collo di bottiglia, se c'è, è la bandwidth, non la frequenza o l'ampiezza di bus.
no quello è il modo per calcolare la bandwith teorica :read:
Non da' alcuna indicazione sulle possibili prestazioni della scheda perche' è sempre sovradimensionata rispetto alle reali capacita' della scheda quindi quel "numero" non è mai limitante, quello che invece conta è capire dove sta il collo di bottiglia e se c'è è proprio nel bus e/o nella frequenza, non nella bandwith teorica e questo lo vedi in OC con le memorie e lo vedi confrontando il g92 con il g80...altrimenti se fosse vero quello che dici tu le schede con bandwith teorica maggiore andrebbero SEMPRE di piu' cosa che nei fatti non si verifica.
Come fa il bus a smettere di essere limitante? all'aumentare di dati che deve trasportare se gia' prima era saturo lo sara' ancora dopo...cioè se il collo di bottiglia è li' in alcune situazioni e non puoi fare molto per compensare...
no quello è il modo per calcolare la bandwith teorica :read:
Non da' alcuna indicazione sulle possibili prestazioni della scheda perche' è sempre sovradimensionata rispetto alle reali capacita' della scheda quindi quel "numero" non è mai limitante, quello che invece conta è capire dove sta il collo di bottiglia e se c'è è proprio nel bus e/o nella frequenza, non nella bandwith teorica e questo lo vedi in OC con le memorie e lo vedi confrontando il g92 con il g80...altrimenti se fosse vero quello che dici tu le schede con bandwith teorica maggiore andrebbero SEMPRE di piu' cosa che nei fatti non si verifica.
Come fa il bus a smettere di essere limitante? all'aumentare di dati che deve trasportare se gia' prima era saturo lo sara' ancora dopo...cioè se il collo di bottiglia è li' in alcune situazioni e non puoi fare molto per compensare...
allora abbassa le frequenze delle tue memorie a 100 MHz e poi ritorna a dirci quanto ti diminuiscono le prestazioni.
bYeZ!
no quello è il modo per calcolare la bandwith teorica :read:
Non da' alcuna indicazione sulle possibili prestazioni della scheda perche' è sempre sovradimensionata rispetto alle reali capacita' della scheda quindi quel "numero" non è mai limitante, quello che invece conta è capire dove sta il collo di bottiglia e se c'è è proprio nel bus e/o nella frequenza, non nella bandwith teorica e questo lo vedi in OC con le memorie e lo vedi confrontando il g92 con il g80...altrimenti se fosse vero quello che dici tu le schede con bandwith teorica maggiore andrebbero SEMPRE di piu' cosa che nei fatti non si verifica.
Come fa il bus a smettere di essere limitante? all'aumentare di dati che deve trasportare se gia' prima era saturo lo sara' ancora dopo...cioè se il collo di bottiglia è li' in alcune situazioni e non puoi fare molto per compensare...
Fidati, non è come dici tu. La bandwidth è semplicemente il prodotto della frequenza delle memorie per l'ampiezza del bus verso le memorie. Avere un bus ampio 64 bit a 400 MHz, ampio 128 bit a 200 MHz o ampio 256 bit a 100 MHz è assolutamente la stessa cosa. E non è una questione teorica, io le ho testate queste cose per anni ;)
goldorak
09-04-2008, 11:02
no quello è il modo per calcolare la bandwith teorica :read:
Non da' alcuna indicazione sulle possibili prestazioni della scheda perche' è sempre sovradimensionata rispetto alle reali capacita' della scheda quindi quel "numero" non è mai limitante, quello che invece conta è capire dove sta il collo di bottiglia e se c'è è proprio nel bus e/o nella frequenza, non nella bandwith teorica e questo lo vedi in OC con le memorie e lo vedi confrontando il g92 con il g80...altrimenti se fosse vero quello che dici tu le schede con bandwith teorica maggiore andrebbero SEMPRE di piu' cosa che nei fatti non si verifica.
Come fa il bus a smettere di essere limitante? all'aumentare di dati che deve trasportare se gia' prima era saturo lo sara' ancora dopo...cioè se il collo di bottiglia è li' in alcune situazioni e non puoi fare molto per compensare...
Perche' quello che conta e' la quantita' di dati per unita' di tempo che transita sul bus.
Franx1508
09-04-2008, 11:11
Fidati, non è come dici tu. La bandwidth è semplicemente il prodotto della frequenza delle memorie per l'ampiezza del bus verso le memorie. Avere un bus ampio 64 bit a 400 MHz, ampio 128 bit a 200 MHz o ampio 256 bit a 100 MHz è assolutamente la stessa cosa. E non è una questione teorica, io le ho testate queste cose per anni ;)
mi sembrava scontato da anni...infatti credevo di avere sbagliato forum....:sofico:
HackaB321
09-04-2008, 11:18
altrimenti se fosse vero quello che dici tu le schede con bandwith teorica maggiore andrebbero SEMPRE di piu' cosa che nei fatti non si verifica.
Questo ovviamente non si verifica perchè la banda passante è uno dei tanti parametri che stabiliscono la velocità di una gpu.
Bus e frequenza presi singolarmente hanno però poca importanza: il primo dice quanti dati transitano nell'unità di tempo, il secondo a che velocità vanno. Possono essere paragonati ad un'autostrada, il bus ti dice quante corsie ci sono, la frequenza a che velocità vanno le auto che ci passano. Ma l'informazione che conta, affinche non ci sia traffico (:D ), è rappresntata da quante macchine passano nel complesso in ogni istante (cioè la bandwidth, cioè il prodotto tra i due elementi).
Avere 1 corsia con macchine che vanno a 100km/h o averne quattro con macchine che vanno a 25km/h alla fine ti porta gli stessi dati a destinazione per unità di tempo.
Kharonte85
09-04-2008, 11:44
mi sa che non mi sono spiegato...:stordita:
Fidati, non è come dici tu. La bandwidth è semplicemente il prodotto della frequenza delle memorie per l'ampiezza del bus verso le memorie. Avere un bus ampio 64 bit a 400 MHz, ampio 128 bit a 200 MHz o ampio 256 bit a 100 MHz è assolutamente la stessa cosa. E non è una questione teorica, io le ho testate queste cose per anni ;)
Ma infatti non ho detto di no.
ma come si fa a capire quanto di quella bandwith viene realmente sfruttata? E' quello che mi chiedo...altrimenti come è possibile che 2 schede a parita' di questa caratteristica abbiano prestazioni completamente diverse? :fagiano:
Risposta: perche' la bandwith conta poco o nulla oppure è ampiamente sufficiente (gia' da parecchie generazioni di schede)?
R600 aveva una bandwith mostruosa ma non andava nemmeno come una 8800GT che ne ha quasi la meta'...
Cioè qua è nato tutto da questa affermazione:
nVidia attualmente è palesemente bandwidth limited sulle top, questo nonostante della GDDR3 mostruoamente tirata fuori specifica. Io dico che della GDDR4 gli avrebbe giovato, potrei anche sbagliarmi, eh, di certo non lo sapremo mai per certo, ma qualche speculazione in proposito viene.
Quello che volevo puntualizzare è che la "caxxata" l'ha fatta col bus a 256bit non certo perche' non ha messo le gddr4 (che comunque non poteva mettere)
Questo ovviamente non si verifica perchè la banda passante è uno dei tanti parametri che stabiliscono la velocità di una gpu.
Ma infatti credo proprio che sia uno dei meno importanti...cioè non mi sembra che salendo anche parecchio di memoria sia con hd3870 che con g92 si ottengano risultati molto esaltanti (escludendo benchmark a risoluzione ridicole)
Bus e frequenza presi singolarmente hanno però poca importanza: il primo dice quanti dati transitano nell'unità di tempo, il secondo a che velocità vanno. Possono essere paragonati ad un'autostrada, il bus ti dice quante corsie ci sono, la frequenza a che velocità vanno le auto che ci passano. Ma l'informazione che conta, affinche non ci sia traffico (:D ), è rappresntata da quante macchine passano nel complesso in ogni istante (cioè la bandwidth, cioè il prodotto tra i due elementi).
Avere 1 corsia con macchine che vanno a 100km/h o averne quattro con macchine che vanno a 25km/h alla fine ti porta gli stessi dati a destinazione per unità di tempo.
Si ma se i piloti stanno male e vanno la meta' non sfrutteranno mai quella autostrada no? :D
scusate ma qual'è l'operazione x calcolare la banda passante in GB/s???
si bus x freq.ram
ma come esattamente???? e con che unità di misura???
goldorak
09-04-2008, 11:54
scusate ma qual'è l'operazione x calcolare la banda passante in GB/s???
si bus x freq.ram
ma come esattamente???? e con che unità di misura???
(ampiezza del bus in byte o bits / la frequenza nominale del bus) = bandwidth
scusate ma qual'è l'operazione x calcolare la banda passante in GB/s???
si bus x freq.ram
ma come esattamente???? e con che unità di misura???
Bhè il bus è in bit, quindi facendo bus*freq ottieni bit. Per calcolati i GB/s devi fare diviso 8192.
HackaB321
09-04-2008, 12:42
mi sa che non mi sono spiegato...:stordita:
Ma infatti non ho detto di no.
ma come si fa a capire quanto di quella bandwith viene realmente sfruttata? E' quello che mi chiedo...altrimenti come è possibile che 2 schede a parita' di questa caratteristica abbiano prestazioni completamente diverse? :fagiano:
Risposta: perche' la bandwith conta poco o nulla oppure è ampiamente sufficiente (gia' da parecchie generazioni di schede)?
R600 aveva una bandwith mostruosa ma non andava nemmeno come una 8800GT che ne ha quasi la meta'...
Cioè qua è nato tutto da questa affermazione:
Quello che volevo puntualizzare è che la "caxxata" l'ha fatta col bus a 256bit non certo perche' non ha messo le gddr4 (che comunque non poteva mettere)
Ma infatti credo proprio che sia uno dei meno importanti...cioè non mi sembra che salendo anche parecchio di memoria sia con hd3870 che con g92 si ottengano risultati molto esaltanti (escludendo benchmark a risoluzione ridicole)
Si ma se i piloti stanno male e vanno la meta' non sfrutteranno mai quella autostrada no? :D
Se la banda solo è uno dei parametri che determina le prestazioni di una scheda, il bus in sè per sè non è niente: è solo un numero.Avere un bus di x bit non ti dice nulla delle prestazioni di una scheda senza sapere a che frequenza funzionano le memorie. Quando dico che G92 è più band limited di Rv670, non voglio dire che va meno ma che perde più frames (in proporzione) al crescere della risoluzione. Se nvidia avesse potuto usare le DDR4 su G92-G94 probabilmente questo non sarebbe stato band limited (come in effetti è almeno alle alte risoluzioni) nonostante il bus a 256bit.
Kharonte85
09-04-2008, 13:33
Se la banda solo è uno dei parametri che determina le prestazioni di una scheda, il bus in sè per sè non è niente: è solo un numero.Avere un bus di x bit non ti dice nulla delle prestazioni di una scheda senza sapere a che frequenza funzionano le memorie. Quando dico che G92 è più band limited di Rv670, non voglio dire che va meno ma che perde più frames (in proporzione) al crescere della risoluzione. Se nvidia avesse potuto usare le DDR4 su G92-G94 probabilmente questo non sarebbe stato band limited (come in effetti è almeno alle alte risoluzioni) nonostante il bus a 256bit.
Secondo me no...almeno guardando i risultati dei bench ora le ddr3 le si possono tirare fino ai a 2200-2300Mhz in OC (vedere 9800gtx) ma le schede soffrono lo stesso (come soffriva anche la gts 512mb)...non è che mettendo le gddr4 e spingendo fino ai 2400-2500 in OC puoi sperare di recuperare molto...
http://www.tomshw.it/guides/hardware/graphic/20080401/images/wic2.jpg
http://www.tomshw.it/guides/hardware/graphic/20080401/images/crysis2.jpg
Comunque questi interrogativi sono destinati a rimanere tali (a meno che nvidia non ci regali un refresh g92 a 384bit :doh: ) e forse sono pure poco utili anche perche' le risoluzioni a cui si verificano questi cali prestazionali sono folli e molto spesso non si supera nemmeno la soglia della fluidita' :fagiano:
Certo è che vedere le G92 dietro al G80 fa un po' specie...pero' del resto il contenimento dei costi è stato favorevole un po' per tutti (a partire dal sottoscritto :D )
Comunque chiudiamola qua che siamo OT da un paio di pagine abbondanti :asd:
continuiamo a parlare di r700....
http://www.lightside.it/images/smiles/okkei22xl4.gif
NOTIZA (RUMORS o VERITA')
Il chip RV770, destinato ad equipaggiare la prossima serie di schede video di AMD/ATI sarebbe già entrato in fase di produzione: questo si traduce nella possibilità di vedere molto presto la generazione R700.
Da ricordare che i chip in questione sono costruiti con processo produttivo a 55nm.
E' quindi probabile che già durante il Computex del 3 Giugno AMD/ATI mostri la sua nuova serie di schede grafiche, e che le lanci sul mercato poco dopo.
RV770 è basato sul design di R700, che consiste in due chip RV770: questo dovrebbe essere circa il 50% più veloce dell'attuale RV670; non sono disponibili dettagli più precisi per ora.
LINK Notizia: http://www.pctuner.net/news/8544/RV770_e__gia_in_produzione/
halduemilauno
09-04-2008, 14:38
NOTIZA (RUMORS o VERITA')
Il chip RV770, destinato ad equipaggiare la prossima serie di schede video di AMD/ATI sarebbe già entrato in fase di produzione: questo si traduce nella possibilità di vedere molto presto la generazione R700.
Da ricordare che i chip in questione sono costruiti con processo produttivo a 55nm.
E' quindi probabile che già durante il Computex del 3 Giugno AMD/ATI mostri la sua nuova serie di schede grafiche, e che le lanci sul mercato poco dopo.
RV770 è basato sul design di R700, che consiste in due chip RV770: questo dovrebbe essere circa il 50% più veloce dell'attuale RV670; non sono disponibili dettagli più precisi per ora.
LINK Notizia: http://www.pctuner.net/news/8544/RV770_e__gia_in_produzione/
:old:
Old...pubblicata oggi.
O hai un'Ansa personale che ne dice 1000 al minuto, con la frequenza di un mitragliatore Vulcan? °_°
appleroof
09-04-2008, 15:11
Old...pubblicata oggi.
O hai un'Ansa personale che ne dice 1000 al minuto, con la frequenza di un mitragliatore Vulcan? °_°
la notizia del sito specifico sarà di oggi, ma i suoi contenuti sono noti da un mese circa ;)
halduemilauno
09-04-2008, 16:06
la notizia del sito specifico sarà di oggi, ma i suoi contenuti sono noti da un mese circa ;)
:mano:
Old...pubblicata oggi.
O hai un'Ansa personale che ne dice 1000 al minuto, con la frequenza di un mitragliatore Vulcan? °_°
Piú che altro la fase di produzione di rv770 é giá nota da circa un mese :)
Piú che altro la fase di produzione di rv770 é giá nota da circa un mese :)
chissa se ci fanno un regalo alla ati.....un bel 60-70% in piu di rv670 che con i nuovi giochi sta rendendo malissimo.......ovvero crysis 20 fps su hight con 3870 andrebbe a 50fps.......qui ci sarebbe la svolta attesa da tutti e finalmente ci sarebbe il sorpasso atteso
Kharonte85
10-04-2008, 14:45
chissa se ci fanno un regalo alla ati.....un bel 60-70% in piu di rv670 che con i nuovi giochi sta rendendo malissimo.......ovvero crysis 20 fps su hight con 3870 andrebbe a 50fps.......qui ci sarebbe la svolta attesa da tutti e finalmente ci sarebbe il sorpasso atteso
:sofico: qui le stime (gia' in positivo) parlano di un 40% che gia' non sarebbe niente affatto male...60-70 è oggettivamente improbabile...
:sofico: qui le stime (gia' in positivo) parlano di un 40% che gia' non sarebbe niente affatto male...60-70 è oggettivamente improbabile...
ho letto che sara gia il 50% piu veloce di rv670 fonte http://www.pctuner.net/news/8544/RV770_e__gia_in_produzione/
quindi ninente male certo che il 50 % sara un po meno in qualcosa e un po piu in qualcosa d'altro augurandomi che quel qualcosa in piu sia con crysis
chissa se ci fanno un regalo alla ati.....un bel 60-70% in piu di rv670 che con i nuovi giochi sta rendendo malissimo.......ovvero crysis 20 fps su hight con 3870 andrebbe a 50fps.......qui ci sarebbe la svolta attesa da tutti e finalmente ci sarebbe il sorpasso atteso
quoto!! speriamo davvero bene... alla fine alla lunga l'architettura R600 sta iniziando a dare i suoi frutti e se con R700 non l'hanno cambiata è perchè sarà davvero il futuro.
Aspetto hd4870 per cambiare la mia mitica x1950xt che ha quasi 1 anno e mezzo ma va ancora da dio.
quoto!! speriamo davvero bene... alla fine alla lunga l'architettura R600 sta iniziando a dare i suoi frutti e se con R700 non l'hanno cambiata è perchè sarà davvero il futuro.
Aspetto hd4870 per cambiare la mia mitica x1950xt che ha quasi 1 anno e mezzo ma va ancora da dio.
comunque se facesse girare perfettamente crysis a 1920x1200 con tutto su very hight con antialiasing attivo sarebbe una mazzata per nvidia e finalmente si duna mossa, e io ne prendero 2 non una!!!!:D
speriamo in bene
albert75
10-04-2008, 14:59
quoto!! speriamo davvero bene... alla fine alla lunga l'architettura R600 sta iniziando a dare i suoi frutti e se con R700 non l'hanno cambiata è perchè sarà davvero il futuro.
Aspetto hd4870 per cambiare la mia mitica x1950xt che ha quasi 1 anno e mezzo ma va ancora da dio.
a quando l' uscita di r700?? ossia 4870??:confused:
Kharonte85
10-04-2008, 15:00
ho letto che sara gia il 50% piu veloce di rv670 fonte http://www.pctuner.net/news/8544/RV770_e__gia_in_produzione/
quindi ninente male certo che il 50 % sara un po meno in qualcosa e un po piu in qualcosa d'altro augurandomi che quel qualcosa in piu sia con crysis
si' ma prendile con le pinze queste indiscrezioni...perche' chissa' in quale ambito intendono (anche il phenom era dato meglio dei dual core, salvo poi scoprire che lo era in un campo di applicazione particolare) io credo che sicuramente un miglioramento lo avremo se le specifiche trapelate (480sp ecc...[escluse gddr5 su cui nutro forti dubbi]) saranno reali ma il 50% mi sembra troppo visto che l'architettura di base probabilmente non subira' stravolgimenti particolari...
Kharonte85
10-04-2008, 15:06
a quando l' uscita di r700?? ossia 4870??:confused:
RV770 is already in production
Test one
We learned that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone has expected. TSMC is already in pilot production and the chips are, as we reported earlier, developed in 55nm machitecture.
The way it looks now, there is a strong possibility that R700 should show its face at Computex (June 3) while the launch itself might be shortly before or after Computex. We still don’t have the final details.
RV770 is the based on the R700 design and the R700 itself consists of two RV770 chips. From what we know, RV770 should be at least fifty percent faster than the RV670.
If all goes well there is a big chance that R700 will launch in Q2, but rather later than earlier. We are still in the dark about the real details of D10U 30 as this GPU(s) has a similar schedule and ought to launch in Q2.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6721&Itemid=34
albert75
10-04-2008, 15:10
RV770 is already in production
Test one
We learned that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone has expected. TSMC is already in pilot production and the chips are, as we reported earlier, developed in 55nm machitecture.
The way it looks now, there is a strong possibility that R700 should show its face at Computex (June 3) while the launch itself might be shortly before or after Computex. We still don’t have the final details.
RV770 is the based on the R700 design and the R700 itself consists of two RV770 chips. From what we know, RV770 should be at least fifty percent faster than the RV670.
If all goes well there is a big chance that R700 will launch in Q2, but rather later than earlier. We are still in the dark about the real details of D10U 30 as this GPU(s) has a similar schedule and ought to launch in Q2.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6721&Itemid=34
quindi sara' disonibilie prima del 3 giugno???
Kharonte85
10-04-2008, 15:17
quindi sara' disonibilie prima del 3 giugno???
la notizia dice intorno al 3 giugno...o prima o dopo...poi :boh: non è ancora sicuo chiaramente...
Comunque se la data fosse rispettata questa scheda avrebbe un discreto vantaggio temporale sulla prossima uscita di nvidia che si vocifera essere intorno al 25 agosto...
albert75
10-04-2008, 15:19
la notizia dice intorno al 3 giugno...o prima o dopo...poi :boh: non è ancora sicuo chiaramente...
ho ordinato una 8800 gts che differenza si pensa ci sia??
Kharonte85
10-04-2008, 15:27
ho ordinato una 8800 gts che differenza si pensa ci sia??
G92?
Tenendo presente che non abbiamo la
http://img88.imageshack.us/img88/2764/manoconsferagh1.gif
:boh: stando nel teorico per quello che si sa ora...un 30% considerando che la 8800gts è + veloce della hd3870, ma sono stime personali e forse verosimili come anche no...cmq se hai preso quella scheda è inutile stare a farsi paranoie goditela e basta, almeno fino a che non deciderai di cambiarla ;)
a quando l' uscita di r700?? ossia 4870??:confused:
la 4870 non é r700 ;)
É rv770. Quella che dici, é una versione probabilmente dual della prima. Non si sa ancora come saranno collegate le 2 gpu...
albert75
10-04-2008, 15:32
G92?
Tenendo presente che non abbiamo la
http://img88.imageshack.us/img88/2764/manoconsferagh1.gif
:boh: stando nel teorico per quello che si sa ora...un 30% considerando che la 8800gts è + veloce della hd3870, ma sono stime personali e forse verosimili come anche no...cmq se hai preso quella scheda è inutile stare a farsi paranoie goditela e basta, almeno fino a che non deciderai di cambiarla ;)
si g92
albert75
10-04-2008, 15:33
la 4870 non é r700 ;)
É rv770. Quella che dici, é una versione probabilmente dual della prima. Non si sa ancora come saranno collegate le 2 gpu...sapevo che r700 e' = a 2*rv770.....4870=2*rv770=r700:fagiano:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.