View Full Version : [THREAD UFFICIALE] Aspettando R700
secondo me r700 sara' una gpu dual core con due processori chiamati rv770...ovviamente e' un ipotesi
Dipende da cosa intendi per dual core :)
HackaB321
21-04-2008, 07:27
http://bbs.chiphell.com/viewthread.php?tid=20440
Se i dati di GPU-z sono veri da un punto di vista tecnologico sarebbero 96sp (organizzati penso sempre in 4SIMD) 16 Rops, 24 TFU e (credo) 48 TAU.
Stesso rapporto ALU:TEX di R600 (e sarebbe la prima volta che ATi non lo incrementa in una nuova architettura).
leoneazzurro
21-04-2008, 09:45
http://www.tgdaily.com/content/view/37025/135/
Qui si parla di 32 TU e frequenze di 800+ MHz per la versione 4850 e di oltre 1 GHz per la 4870...
(e di un lancio per Maggio)
Chissà. Alla fine l'unica cosa che pare certa è che le schede sembrano in produzione, quindi qualche leak più realistico dovrebbe arrivare tra non troppo.
HackaB321
21-04-2008, 10:04
http://www.tgdaily.com/content/view/37025/135/
Qui si parla di 32 TU e frequenze di 800+ MHz per la versione 4850 e di oltre 1 GHz per la 4870...
(e di un lancio per Maggio)
Chissà. Alla fine l'unica cosa che pare certa è che le schede sembrano in produzione, quindi qualche leak più realistico dovrebbe arrivare tra non troppo.
Interessante. 32TMU, se mantengono la stessa parità TFU-sp di R600, potrebbe significare 4 cluster da 32sp l'uno (totale 128sp e 640 ALU). Oppure un aumento del numero di SIMD con l'aggiunta di un altro gruppo di altre 4 texture block. Mantenere sempre 4 SIMD allungando le pipeline potrebbe avere effetti negativi nel dynamic branching ampliando il gap con GT200 (si parla di 10 cluster per la nuova architettura nvidia). Che ne pensi?
leoneazzurro
21-04-2008, 10:13
Interessante. 32TMU, se mantengono la stessa parità TFU-sp di R600, potrebbe significare 4 cluster da 32sp l'uno (totale 128sp e 640 ALU). Oppure un aumento del numero di SIMD con l'aggiunta di un altro gruppo di altre 4 texture block. Mantenere sempre 4 SIMD allungando le pipeline potrebbe avere effetti negativi nel dynamic branching ampliando il gap con GT200 (si parla di 10 cluster per la nuova architettura nvidia). Che ne pensi?
Se RV770 avesse una struttura ripresa da RV670, si potrebbero configurare diverse ipotesi, dai 4 SIMD con il doppio di SP (improbabile) a 5-6 SIMD con 4 blocchi di TU ma con ogni blocco contenente il doppio di unità rispetto a RV 670, oppur con 8 blocchi di TU ma aggregati al rispettivo "livello" nel SIMD a 2 a 2.
In questo caso si avrebbero sì "32 TU" ma con un numero di "SP" variabile da 400 a 480 (il che mi suona decisamente meglio)
Immortal
21-04-2008, 10:39
Se RV770 avesse una struttura ripresa da RV670, si potrebbero configurare diverse ipotesi, dai 4 SIMD con il doppio di SP (improbabile) a 5-6 SIMD con 4 blocchi di TU ma con ogni blocco contenente il doppio di unità rispetto a RV 670, oppur con 8 blocchi di TU ma aggregati al rispettivo "livello" nel SIMD a 2 a 2.
In questo caso si avrebbero sì "32 TU" ma con un numero di "SP" variabile da 400 a 480 (il che mi suona decisamente meglio)
tradotto per gli ignoranti :stordita: : nella seconda ipotesi andrebbe poco / mediamente / tanto meglio di rv670?
inoltre, se le voci fossero confermate di una frequenza superiore al ghz per la gpu..in caso di OC, saremmo già a fine corsa (in quanto il processo produttivo è il medesimo di rv670) o si possono prevedere dei buoni margini?
halduemilauno
21-04-2008, 10:42
Se RV770 avesse una struttura ripresa da RV670, si potrebbero configurare diverse ipotesi, dai 4 SIMD con il doppio di SP (improbabile) a 5-6 SIMD con 4 blocchi di TU ma con ogni blocco contenente il doppio di unità rispetto a RV 670, oppur con 8 blocchi di TU ma aggregati al rispettivo "livello" nel SIMD a 2 a 2.
In questo caso si avrebbero sì "32 TU" ma con un numero di "SP" variabile da 400 a 480 (il che mi suona decisamente meglio)
ma il numero dei SP non era gia stato "accertato" in 480? cosi mi pare.
halduemilauno
21-04-2008, 10:45
tradotto per gli ignoranti :stordita: : nella seconda ipotesi andrebbe poco / mediamente / tanto meglio di rv670?
inoltre, se le voci fossero confermate di una frequenza superiore al ghz per la gpu..in caso di OC, saremmo già a fine corsa (in quanto il processo produttivo è il medesimo di rv670) o si possono prevedere dei buoni margini?
come lo si ottenga lo si saprà alla presentazione per ora su questo argomento si sta sul famoso 40/50% in + della 4870 rispetto alla 3870.
HackaB321
21-04-2008, 10:59
Se RV770 avesse una struttura ripresa da RV670, si potrebbero configurare diverse ipotesi, dai 4 SIMD con il doppio di SP (improbabile) a 5-6 SIMD con 4 blocchi di TU ma con ogni blocco contenente il doppio di unità rispetto a RV 670, oppur con 8 blocchi di TU ma aggregati al rispettivo "livello" nel SIMD a 2 a 2.
In questo caso si avrebbero sì "32 TU" ma con un numero di "SP" variabile da 400 a 480 (il che mi suona decisamente meglio)
In questo caso potrebbero aver aggiunto un altro "texture cluster" (composto da 4 texture block, 16TFU e direttamente collegato al dispatch processor) con ognuno dei 2 "texture cluster" associato ai vari livelli di un sottoinsieme di 2 o più SIMD.
Certo che, pensando alle specifiche da te postate, se RV770 sarà la base per la futura X2, il suo TDP massimo non dovrebbe superare (ma proprio al massimo) i 150w. Con almeno 400ALU, 32 TMU, 1Ghz di frequenza e sempre a 55nm mi sembra difficile rispettare questo obiettivo a meno di notevoli ottimizzazioni interne. Vedremo.
In questo caso potrebbero aver aggiunto un altro "texture cluster" (composto da 4 texture block, 16TFU e direttamente collegato al dispatch processor) con ognuno dei 2 "texture cluster" associato ai vari livelli di un sottoinsieme di 2 o più SIMD.
Certo che, pensando alle specifiche da te postate, se RV770 sarà la base per la futura X2, il suo TDP massimo non dovrebbe superare (ma proprio al massimo) i 150w. Con almeno 400ALU, 32 TMU, 1Ghz di frequenza e sempre a 55nm mi sembra difficile rispettare questo obiettivo a meno di notevoli ottimizzazioni interne. Vedremo.
Non mi sembra così impossibile. Le GDDR5 consumano meno delle GDDR3, e dopotutto stiamo parlando di un TDP comunque di quasi il 40% superiore a RV670. Con qualche ottimizzazione credo sia un obiettivo raggiungibile. ;)
Free Gordon
21-04-2008, 12:27
p.s. in effetti quando mai s'è visto che una patch rimuove una cosa che funziona "perchè devono reimplementarla" :mbe: semmai si fa un patch direttamente con la reimplementazione.
è probabile che ci sia una manovra di marketing dietro.. succede spesso.
Kharonte85
21-04-2008, 12:41
dato che se ne era parlato anche qua se non sbaglio...
Assassin's Creed e DX 10.1: più veloce, per errore
http://www.tomshw.it/news.php?newsid=13797
Mah :stordita:
leoneazzurro
21-04-2008, 13:11
tradotto per gli ignoranti :stordita: : nella seconda ipotesi andrebbe poco / mediamente / tanto meglio di rv670?
inoltre, se le voci fossero confermate di una frequenza superiore al ghz per la gpu..in caso di OC, saremmo già a fine corsa (in quanto il processo produttivo è il medesimo di rv670) o si possono prevedere dei buoni margini?
Se prendiamo ad esempio un chip a 850 MHz/3600MHz (1800x2 DDR5), con 32 TU e 480 "SP" avremmo (considerate immutate le unità di esecuzione):
Potenza matematica shader: +64%
Potenza texturing: +120%
Pixel fill rate: +10%
bandwidth: +50%
Quindi le variazioni rispetto a RV700 si muoverebbero in questi ambiti, a seconda di dove si posiziona il collo di botiglia nell'applicazione. Poi, se le ROPs sono state riviste (es. Z fill rate raddoppiato e/o 4 sample per clock), il 10% potrebbe essere un bel pò in più.
Per un chip a 1,05 GHz quei numero si trasformerebbero rispettivamente in:
+103%, +170%, +35% e +50%. Siamo comunque su cifre derivate dai rumors.
In base a queste cifre, comunque, credo che per un ipotetico RV770 il 50% di prestazioni in più sia anche un pò conservativo (drivers permettendo). Bisogna vedere come sarà in realtà il chip che arriverà effettivamente in produzione.
In questo caso potrebbero aver aggiunto un altro "texture cluster" (composto da 4 texture block, 16TFU e direttamente collegato al dispatch processor) con ognuno dei 2 "texture cluster" associato ai vari livelli di un sottoinsieme di 2 o più SIMD.
Certo che, pensando alle specifiche da te postate, se RV770 sarà la base per la futura X2, il suo TDP massimo non dovrebbe superare (ma proprio al massimo) i 150w. Con almeno 400ALU, 32 TMU, 1Ghz di frequenza e sempre a 55nm mi sembra difficile rispettare questo obiettivo a meno di notevoli ottimizzazioni interne. Vedremo.
Dipende moltissimo dall'ingegnerizzazione del chip, ricordiamoci che la serie G8X/9X di Nvidia ha gran parte del chip che lavora a ben più di 1 GHz... In realtà poi dai rumors il TDP previsto per RV770 è proprio intorno ai 150 W per SKU.
HackaB321
21-04-2008, 13:11
dato che se ne era parlato anche qua se non sbaglio...
Assassin's Creed e DX 10.1: più veloce, per errore
http://www.tomshw.it/news.php?newsid=13797
Mah :stordita:
Da questo:
In addition to addressing reported glitches, the patch will remove support for DX10.1, since we need to rework its implementation. The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.
sembra di capire che il gioco supporterà anche in futuro le dx10.1 ("since we need to rework its implementation"), quindi si tratterà di capire quali saranno in futuro (se ci saranno) i vantaggi usando queste librerie.
L'aspetto buffo è che di questo effetto di postprocessing mancante nessuno se ne è accorto anzi quelli di rage3D hanno detto esplicitamente che il gioco con sp1 era graficamente più bello....Ma ovviamente il supporto va rimosso e anche alla svelta :D
Se qualcuno aveva dei dubbi su quale azienda produttrice di hardware video sponsorizzi AC:
:asd:
http://www.nzone.com/object/nzone_assassinscreed_home.html
Basta non mettere la patch :ciapet:
Cmq spero salti fuori comè sta benedetta R700 che deo capire se oltre ram e mobo devo cambiare anche l'ali o meno.
:stordita:
-Feanor-
21-04-2008, 15:11
dato che se ne era parlato anche qua se non sbaglio...
Assassin's Creed e DX 10.1: più veloce, per errore
http://www.tomshw.it/news.php?newsid=13797
Mah :stordita:
io trovo molto interessante il terzo commento fatto...
concordo pienamente con chi l ha scritto...;)
appleroof
21-04-2008, 16:33
dato che se ne era parlato anche qua se non sbaglio...
Assassin's Creed e DX 10.1: più veloce, per errore
http://www.tomshw.it/news.php?newsid=13797
Mah :stordita:
non ho capito, il gioco avrebbe "naturalmente" le dx10.1 ma così và male, quindi uscirà una patch per risolvere il "problema"? :confused:
Poveracci, su Tom's non riescono mai a dare una parvenza di competenza...
bisogna avere molta fiducia nelle proprie, di competenze, per esprimere giudizi così drastici....
non ho capito, il gioco avrebbe "naturalmente" le dx10.1 ma così và male, quindi uscirà una patch per risolvere il "problema"? :confused:
No va bene , prestazioni migliori che in DX10 base.
:rolleyes:
appleroof
21-04-2008, 16:44
No va bene , prestazioni migliori che in DX10 base.
:rolleyes:
ah ok, bè...mi sembra una buona notizia per i possessori di r600 & figli....no? :stordita:
perchè il :rolleyes:
Qualcuno ha degli screens comparativi tra dx10 e dx10.1? (o almeno una pagina che li abbia)
Per vedere se questo passaggio "mancante" davvero serve a qualcosa in termini di qualitá grafica...
L' unica differenza che ho notato in alcuni screens é che l' AA é migliore in dx10.1 ...
Comunque siamo OT, anche se le 10.1 saranno parte integrante di r700 :D
goldorak
21-04-2008, 16:54
ah ok, bè...mi sembra una buona notizia per i possessori di r600 & figli....no? :stordita:
perchè il :rolleyes:
Perche' appena e' uscita la notizia che le dx 10.1 davano un boost dell'ordine del 10/20% alle schede ATI la Ubisoft se ne uscita con la scusa che il supporto dx 10.1 non era ancora buono e quindi lo toglieranno dal gioco con la prossima patch.
Tutto nella norma visto che AC e' sponsorizzato Nvidia che guardacaso non ha uno straccio di scheda video dx 10.1 compliant visto che non servono.
Il :rolleyes: ci sta tutto, anzi ci starebbe bene anche :ciapet: :ciapet:
Perche' appena e' uscita la notizia che le dx 10.1 davano un boost dell'ordine del 10/20% alle schede ATI la Ubisoft se ne uscita con la scusa che il supporto dx 10.1 non era ancora buono e quindi lo toglieranno dal gioco con la prossima patch.
Tutto nella norma visto che AC e' sponsorizzato Nvidia che guardacaso non ha uno straccio di scheda video dx 10.1 compliant visto che non servono.
Il :rolleyes: ci sta tutto, anzi ci starebbe bene anche :ciapet: :ciapet:
Un po' Bastard Inside, ma del tutto probabile :D
appleroof
21-04-2008, 17:34
Perche' appena e' uscita la notizia che le dx 10.1 davano un boost dell'ordine del 10/20% alle schede ATI la Ubisoft se ne uscita con la scusa che il supporto dx 10.1 non era ancora buono e quindi lo toglieranno dal gioco con la prossima patch.
Tutto nella norma visto che AC e' sponsorizzato Nvidia che guardacaso non ha uno straccio di scheda video dx 10.1 compliant visto che non servono.
Il :rolleyes: ci sta tutto, anzi ci starebbe bene anche :ciapet: :ciapet:
ho capito, bè come detto è probabile, per questo tempo fà sostenevo che finchè Nvidia sponsorizza la maggior parte dei giochi gli sviluppatori "terranno molto conto" dei suoi "suggerimenti", quindi dx10.1 nisba :asd: :asd:
tanto di guadagnato per chi non ha schede dx10.1, almeno fino a quando non esce GT200 che pare avere supporto dx10.1 :Perfido:
inoltre "sarebbe" (io ci devo vedere chiaro in questa storia, non ho seguito bene) una prima applicazione delle stesse, torno a dire come 100 volte altre che fino a che avremo un gioco "full dx10.1" molto probabilmente rv670 sarà poco per farlo girare al max, almeno nella versione non dual
cmq r700 è alle porte, già con questo il supporto alle dx10.1 acquista finalmente senso secondo me....
cmq in generale anche io nutro una sincera curiosità verso le dx10.1, come The_San, vorrei finalmente vedere qualche differenza tangibile apportata dalle dx10.1, ma mi sà che è prestino ancora
EDIT: ho appena letto meglio, gli sviluppatori Ubisoft affermano che con le dx10.1 si ha sì un aumento di prestazioni, ma a scapito della qualità grafica, (nel gioco specifico almeno) quindi nulla ci può dire se sia per questo che le schede Ati avevavo un boost del 10/20%
dipende come al solito "con quali occhi" si leggono queste notizie :asd: :asd: :asd:
;)
EDIT: ho appena letto meglio, gli sviluppatori Ubisoft affermano che con le dx10.1 si ha sì un aumento di prestazioni, ma a scapito della qualità grafica, (nel gioco specifico almeno) quindi nulla ci può dire se sia per questo che le schede Ati avevavo un boost del 10/20%
dipende come al solito "con quali occhi" si leggono queste notizie :asd: :asd: :asd:
;)
Si, é proprio questo il passaggio "mancante" a cui mi riferisco :)
É un passaggio di post-processing che nella versione dx10.1 non c'é.
E vorrei sapere se davvero fa la differenza, perché io ho notato solo l'AA migliore in dx10.1
ho capito, bè come detto è probabile, per questo tempo fà sostenevo che finchè Nvidia sponsorizza la maggior parte dei giochi gli sviluppatori "terranno molto conto" dei suoi "suggerimenti", quindi dx10.1 nisba :asd: :asd:
tanto di guadagnato per chi non ha schede dx10.1, almeno fino a quando non esce GT200 che pare avere supporto dx10.1 :Perfido:
Con calma, la concorrenza c'è l'ha da un anno.
inoltre "sarebbe" (io ci devo vedere chiaro in questa storia, non ho seguito bene) una prima applicazione delle stesse, torno a dire come 100 volte altre che fino a che avremo un gioco "full dx10.1" molto probabilmente rv670 sarà poco per farlo girare al max, almeno nella versione non dual
cmq r700 è alle porte, già con questo il supporto alle dx10.1 acquista finalmente senso secondo me....
Full, middle, low che me frega se mi da un +20% ???
EDIT: ho appena letto meglio, gli sviluppatori Ubisoft affermano che con le dx10.1 si ha sì un aumento di prestazioni, ma a scapito della qualità grafica, (nel gioco specifico almeno) quindi nulla ci può dire se sia per questo che le schede Ati avevavo un boost del 10/20%
dipende come al solito "con quali occhi" si leggono queste notizie :asd: :asd: :asd:
;)
Il problema è che leggi dalla fonte sbagliata: http://www.rage3d.com/articles/assassinscreed/index.php?p=4
Questa è una scusa inventata da ubisoft per togliere il supporto alle dx10.1 con la patch.
Sappiamo tutti con quali occhi leggi tu le notizie...
Che poi vorrei sapere cosa hanno a che fare le ottimizzazioni dell'AA in dx10.1 con gli effetti di post-processing...
appleroof
21-04-2008, 18:51
Con calma, la concorrenza c'è l'ha da un anno.
mò è colpa sua se non ci sono giochi dx10.1, quasi ridicolo....
Full, middle, low che me frega se mi da un +20% ???
i fan boy ati non furono dello stesso parere quando uscirono i famigerati driver Nvidia per Crysis che a scapito della qualità faceva andare il gioco più veloce, ma tant'è, la tua affermazione ci sta tutta, in generale, quelle sono preferenze personali
Il problema è che leggi dalla fonte sbagliata: http://www.rage3d.com/articles/assassinscreed/index.php?p=4
Questa è una scusa inventata da ubisoft per togliere il supporto alle dx10.1 con la patch.
ok, la fonte sbagliata sono le parole di uno sviluppatore del gioco, mentre quella giusta è il redattore di rage3d (ma non è un sito storicamente pro-ati, o mi sbaglio? :what: non ricordo bene, ma mi pare proprio così....)
Sappiamo tutti con quali occhi leggi tu le notizie...
questo fà il paio con quanto appena detto 2 righe fà: con questa affermazione mi confermi di voler vedere per forza che la 3870 con le dx10.1 và da dio, io invece qualche dubbio l'ho avanzato, senza dire che è una bufala oppure no, non credo che il mio sia stato un atteggiamento da fanboy, mentre il tuo................
Il punto è che non solo va meglio, nel senso di più velocemente, quando ci si trova in DX10.1, ma anche con una qualità grafica miglioire.
Ergo, essendo un gioco TWINFGABNNSGDHEKLnVidia (potevano inventarsi una sigla più ricordabile, va detto), il supporto DX10.1 viene tolto in modo che il divario prestazionale con AA attivo non si accorci :>
qualità grafica migliore? se in questa ci metti l'aa, allora da quegli screen direi proprio di si, però dice che venivano levati alcuni effetti di post-processing contemporaneamente, quindi non saprei dire effettivamente se si può parlare di qualità grafica migliore o superiore.....tu per quale risposta propendi?
Basta essersi letti per qualche anno le news di Tom's per essere in grado di dare giudizi sulla loro incompetenza assoluta ;)
Questo ovviamente a pensar bene, c'è anche chi preferisce scegliere la via della teoria del complotto, ma per me son solo dei pezzenti...
:eek: addirittura........
vabbè, convinto tu convinti tutti, alla fine non mi pagano per difenderli, dico solo che il giorno in cui avrai un sito di quella portata, ed un certo livello di accesso a determinate informazioni, chiamami che sarò felice di verificare la competrenza dello stesso, altrimenti è facile fare i fenomeni
DX10.1 (http://www.rage3d.com/image.php?pic=/articles/assassinscreed/pics/aadx101.jpg&comment=AA%20as%20seen%20on%20the%203870X2%20with%20SP1%20installed)
DX10 (http://www.rage3d.com/image.php?pic=/articles/assassinscreed/pics/aadx10.jpg&comment=AA%20as%20seen%20on%20the%202900XT/3870X2%20without%20SP1)
no AA (http://www.rage3d.com/image.php?pic=/articles/assassinscreed/pics/noaa.jpg%20&comment=AA%20disabled)
Esattamente. Il punto è che i dev non hanno detto che peggiora la qualità grafica, ma che in DX10.1 è necessario un passo di post-processing in meno rispetto alle DX10, e questo passo è computazionalmente gravoso per la GPU, motivo per cui oltre a migliorare la qualità (vedi screen sopra) migliora anche la velocità di esecuzione.
Poi siccome la disinformazione comincia a dilagare grazie ai soliti noti finisce che tu leggi quei commenti e vieni a dirmi cose non vere, ovviamente non per malizia o colpa tua, ma il risultato è il medesimo :read:
a me sembra tutto chiaro: togli un effetto che migliora la qualità (per quanto ne sappiamo, potrebbe essere un DOF, un HDR o chissàcchè, quindi) l'aa pesa meno ed è migliore, il bilancio non è del tutto positivo
lo sarebbe se avessimo un aa perfetto nella resa senza effetti in meno...cosa che mi pare dalle tuew stesse parole non è....
p.s.: appena vi toccano gli affetti subito a sbraitare eh? :asd:
;)
albert75
21-04-2008, 19:17
spero che 4870 vada meno di una 8800gts (appena presa) o che se va di piu' costi almeno 280€:D :D
adesso mi killano
albert75
21-04-2008, 19:24
Mi pare che nella fascia sotto la 8800GTS ce ne ne siano fin troppe, di schede, sia nVidia che ATi, non abbiamo bisogno di un altra scheda che va l'1% in più o in meno di un'altra costando l'1% in più o in meno :asd:
cio so cio so:ciapet: .....ATI questa volta dara un piccolo schiaffetto morale a nvidia che a sua volta si dara' da fare e lancera' gt200 prima del tempo...:D spero che si sia decisa ad aumentare di molto le sp. tmu etc etc
appleroof
21-04-2008, 20:17
In quel caso la qualità peggiorava, qui migliora. Spero si noti la differenza fra le due situazioni...
certo che si nota: si nota talmente tanto che esce fuori tutta la contraddizione del tuo discorso
mi parli di qualità legata solo all'aa, quando in quel caso i driver sembrava agissero su alcuni effetti (dunque senza "toccare" l'aa) la mancanza dei quali rendeva possibile un maggiore frame rate: cioè l'identica cosa che è successa nel "caso" montato da rage3d
là (nvidia) era mancanza di qualità; qua (ati) sono superbe prestazioni con qualità migliorata, il miracolo tanto atteso insomma....
No, la fonte sbagliata sono le fallaci interpretazioni che sono state date di quelle parole, e la recensione sta li ad indicare quale sia quella giusta (e la recensione è stata pubblicata prima di quelle parole da parte dello sviluppatore), perché come si vede dagli screen che ho postato poco sopra la qualità migliora. Ed in effetti ci voleva uno sforzo ad interpretare la cosa in quel modo, visto che non lo dice.
le rece, viene da rage3d, venisse da altri 99 siti su una scala di 100 forse e dico forse peserebbero meno delle parole di uno sviluppatore, che non lasciano spazio ad interpretazioni: la scheda và più veloce perchè a fronte di un netto miglioramento dell'aa (cmq davvero ottimo dagli screen che hai postato) "elabora" meno, non mi esalterei per questo
Che potrebbe essere vero quello che dici. Gli screen dicono che la qualità dell'AA è migliorata e non si vedono peggioramenti nelle textures. I numeri dicono invece che l'esecuzione con AA abilitato è migliorata. A me sembrano features, non bug da eliminare per lesa maestà...
arifacce: il concetto di qualità che esprimi non è ssempre univoco...:asd:
inoltre non avendo tu visto, credo, il gioco in azione come quelli di rage3d, non vedo come tu possa valutare la qualità complessiva di un gioco da 3 screen che mostrano la mancanza di aliasing: e se l'immagine, nel complesso, non avesse aliasing minimo ma facesse cag@re per il resto mi parleresti di qualità ottima?
cut
Le nuove iterazioni di DX servono ad implementare in HW metodi altrimenti fattibili solo via software. Questo rende superflui passaggi di post-processing migliorando le prestazioni sia qualitativamente e quantitativamente. L'assenza di un passo non è quindi da interpretare come una riduzione della qualità ma come una ottimizzazione che rende possibile lo stesso risultato (in questo caso un risultato migliore) con prestazioni velocistiche migliorate.
si, sai che frequento da qualche tempo il forum ed in generale queste cose, e sono abbastanza aggiornato su questi argomenti, certo non sono un tecnico, ma sò cosa significano (sulla carta) le dx10.1 cmq qualche lezioncina di ripasso ci stà :asd:
chiudendo per quanto mi riguarda questo OT, faccio appena notare ancora una volta che qui parli di un'ottimizzazione ecc ecc, nel caso Nvidia/crysis (che era del tutto simile, nella sostanza, come ho ricordato) di qualche mese fà parlavi di furbata, di espediente ecc
c'è qualcosa che non torna, obiettivamente no? ;)
In quel caso la qualità peggiorava, qui migliora. Spero si noti la differenza fra le due situazioni...
No, la fonte sbagliata sono le fallaci interpretazioni che sono state date di quelle parole, e la recensione sta li ad indicare quale sia quella giusta (e la recensione è stata pubblicata prima di quelle parole da parte dello sviluppatore), perché come si vede dagli screen che ho postato poco sopra la qualità migliora. Ed in effetti ci voleva uno sforzo ad interpretare la cosa in quel modo, visto che non lo dice.
Che potrebbe essere vero quello che dici. Gli screen dicono che la qualità dell'AA è migliorata e non si vedono peggioramenti nelle textures. I numeri dicono invece che l'esecuzione con AA abilitato è migliorata. A me sembrano features, non bug da eliminare per lesa maestà...
In un sito che non dice le boiate che leggi li ci stai scrivendo in questo momento. Questo è il motivo per cui ci sono i miei commenti e di la non li vedi. In compenso certi PR di la li vedi molto attivi :>
Senza contare che spesso non sono nemmeno capaci di fare traduzioni che mantengano il senso della loro controparte nella lingua di Shakspeare...
Le nuove iterazioni di DX servono ad implementare in HW metodi altrimenti fattibili solo via software. Questo rende superflui passaggi di post-processing migliorando le prestazioni sia qualitativamente e quantitativamente. L'assenza di un passo non è quindi da interpretare come una riduzione della qualità ma come una ottimizzazione che rende possibile lo stesso risultato (in questo caso un risultato migliore) con prestazioni velocistiche migliorate.
Ma la mancanza di questo effetto non si nota, non è mica come i riflessi mancanti di Crysis :asd:, quindi se dagli screen non ci sono differenze allora perchè credere che l'effetto non venga applicato ? A questo punto che dimostrino che in DX10.1 manca qualcosa, perchè dagli screen fatti da chi ha la scheda (discussione sulla hd3870) non si notano differenze. A meno che sia in dx9 che in dx10/10.1 le schede ATI non sia in grado di elaborare questo effetto.
Per il resto sono d'accordo.
Foglia Morta
21-04-2008, 20:49
ulteriore fonte e tra parentesi: ( :asd: )
Secondo il test di PCGH le prestazioni della 3870 aumentano del 30% ed anche loro hanno messo uno screen in game che dimostra la maggior qualità dell' AA
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C640754%2FTest%2FBenchmark%2FAssassins_Creed_D3D-101-Modus_im_PCGH-Praxistest%2F&langpair=de%7Cen&hl=de&ie=UTF8
Edit: piacerebbe conoscere il parere di altri programmatori professionisti. Comunque l'unico che ho letto finora dice che i miglioramenti fatti notare da rage3d sono realistici se si considerano le feature delle DX10.1
Mister Tarpone
21-04-2008, 21:13
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C640754%2FTest%2FBenchmark%2FAssassins_Creed_D3D-101-Modus_im_PCGH-Praxistest%2F&langpair=de%7Cen&hl=de&ie=UTF8
ma nella parte finale di questo articolo cosa dice praticamente???
"
What comes next?
Der kommende erste Patch für Assassin's Creed wird den SM4.1-Pfad wieder entfernen , als Grund nennen die Entwickler einen Fehler während der Berechnungsphase des Post-Processings. The upcoming first patch for Assassin's Creed is the SM4.1 path remove mentioned as a reason the developers an error while calculating phase of the post-processing. Dieser Bug soll im Übrigen auch dafür verantwortlich sein, warum die Radeons so zulegen. This bug will also be responsible for why the Radeons so popular. Auf Anfrage bei Ubisoft teilte man uns mit, dass der SM4.1-Renderpfad in einem zweiten Patch wieder hinzugefügt werden soll. On request from Ubisoft man told us that the SM4.1-Renderpfad in a second patch to add. Detaillierte Antworten zum Thema erwarten wir diese Woche. Detailed answers on the issue, we expect this week. "
:confused: ??
ho capito solo error calculating post processing :asd: :asd: :asd:
Kharonte85
21-04-2008, 21:14
in sostanza l'unica cosa che si è capito è che nell'immediato futuro verra' rilasciata la patch per togliere gli SM 4.1 e dx10.1...per correggere un non meglio specificato bug (ma forse è solo nvidia a chiamarlo cosi'...:asd:) che sarebbe la causa dell'aumento di prestazioni nelle schede AMD :boh:
Onestamente io sospendo il giudizio fino a che non ci sara' un'altro titolo, anche perche' visivamente di differenze, forse son cieco io...ok :asd:, ma non ne vedo...
Comunque se non mi sbranate anche se fosse vero il miglioramento delle dx10.1 la 8800gt in quegli stessi test http://www.pcgameshardware.de/screenshots/original/2008/04/SP1_vs_no-SP1_1.PNG va abbastanza di piu' [non pensavo cosi' tanto]...sta sopra la soglia della fluidita' a differenza della hd3870...sarebbe forse piu' interessante vedere il confronto con la 9600gt :fagiano:
appleroof
21-04-2008, 21:22
ma nella parte finale di questo articolo cosa dice praticamente???
"
What comes next?
Der kommende erste Patch für Assassin's Creed wird den SM4.1-Pfad wieder entfernen , als Grund nennen die Entwickler einen Fehler während der Berechnungsphase des Post-Processings. The upcoming first patch for Assassin's Creed is the SM4.1 path remove mentioned as a reason the developers an error while calculating phase of the post-processing. Dieser Bug soll im Übrigen auch dafür verantwortlich sein, warum die Radeons so zulegen. This bug will also be responsible for why the Radeons so popular. Auf Anfrage bei Ubisoft teilte man uns mit, dass der SM4.1-Renderpfad in einem zweiten Patch wieder hinzugefügt werden soll. On request from Ubisoft man told us that the SM4.1-Renderpfad in a second patch to add. Detaillierte Antworten zum Thema erwarten wir diese Woche. Detailed answers on the issue, we expect this week. "
:confused: ??
ho capito solo error calculating post processing :asd: :asd: :asd:
si ma uno sviluppatore amico di mio cugggino dice che l'aa dx10.1 spacca davvero tanto :asd:
ma che è l'aa3x 1x? Perchè non i classici 2x e 4x (ma i driver ati contemplano l'1x e 3x? Lo chiedo davvero non avendo ovviamente una scheda Ati)
ma le dx10.1 non dovevano prevedere un aa "minimo di 4x"?
io dico che la questione è molto fumosa ancora (come per il test di coj in dx10 , i citati driver di crysis ecc), in mancanza di prove dirette e obiettive avanzo quelli che credo legittimi dubbi, sia pure non quelli più scontati (è chiaro che come al solito chi tifa Ati conclude solo per il solito complotto Verde, Nvidia sembra la Juve di Moggi, a proposito di tifo e complotti: tutti gli altri "innnnnocenti sono" :asd: )
secondo me bisogna aspettare conferme/smentite obiettive della storia, non nego cmq che potrebbe starci che le pressioni di Nvidia che foraggia Ubisoft abbiano contato qualcosa, ma non mi torna l'intera vicenda, poi ho visto alcuni screen nel tread della 3870, non ved miglioramenti apprezzabili della qualità d'immagine (forse l'aa non era 1x o 3x?)
e cmq quello che mi interessa di più è vedere i miglioramenti delle dx10.1, lo dico davvero, su qualunque scheda girino (e per ora questa sono solo Ati)
in sostanza l'unica cosa che si è capito è che nell'immediato futuro verra' rilasciata la patch per togliere gli SM 4.1 e dx10.1...per correggere un non meglio specificato bug (ma forse è solo nvidia a chiamarlo cosi'...:asd:) che sarebbe la causa dell'aumento di prestazioni nelle schede AMD :boh:
Onestamente io sospendo il giudizio fino a che non ci sara' un'altro titolo, anche perche' visivamente di differenze, forse son cieco io...ok :asd:, ma non ne vedo...
Comunque se non mi sbranate anche se fosse vero il miglioramento delle dx10.1 la 8800gt in quegli stessi test http://www.pcgameshardware.de/screenshots/original/2008/04/SP1_vs_no-SP1_1.PNG va abbastanza di piu' [non pensavo cosi' tanto]...sta sopra la soglia della fluidita' a differenza della hd3870...sarebbe forse piu' interessante vedere il confronto con la 9600gt :fagiano:
si però mi pare di capire che dopo verrà reintrodotta una patch dx10.1....mah, vediamo: d'accordissimo sulla tua conclusione in neretto
e anche sul resto :asd:
leoneazzurro
21-04-2008, 21:25
in sostanza l'unica cosa che si è capito è che nell'immediato futuro verra' rilasciata la patch per togliere gli SM 4.1 e dx10.1... :boh:
Onestamente io sospendo il giudizio fino a che non ci sara' un'altro titolo, anche perche' visivamente di differenze, forse son cieco io...ok :asd:, ma non ne vedo...
Comunque se non mi sbranate anche se fosse vero il miglioramento delle dx10.1 la 8800gt in quegli stessi test http://www.pcgameshardware.de/screenshots/original/2008/04/SP1_vs_no-SP1_1.PNG va abbastanza di piu' [non pensavo cosi' tanto]...sta sopra la soglia della fluidita' a differenza della hd3870...sarebbe forse piu' interessante vedere il confronto con la 9600gt :fagiano:
Trovi maggiori differenze qui, forse:
http://forum.beyond3d.com/showpost.php?p=1150816&postcount=62
in questi shot la resa grafica delle 3870 con DX10.1 è chiaramente superiore non solo alla 3870 DX10, ma anche alla 9800 GX2 con driver 174.74 (tra parentesi: la resa della GX2 in quegli shot è semplicemente oscena spero vivamente sia un bug presto risolto). Per il resto, si, la GT è avanti come frame rate, ma il discorso fatto dal recensore di rage 3D esulava da qualunque riferimento prestazionale con le schede nvidia, mirava solo a paragonare l'impatto delle DX10.1 rispetto alle DX10.
Invece sembra che qui si sia preso spunto per tirare fuori i celolunghismi più beceri da ambo le parti.
@appleroof: la situazione con i drivers nvidia per Crysis è diversa da quanto accaduto con le ATI per AC, non solo perchè invece di una diminuzione della qualità visiva abbiamo un miglioramento nel caso di AC, ma anche perchè nel caso di Crysis c'era un hack via driver da parte nvidia, mentre qui sono i programmatori del gioco ad avere "toppato", se vogliamo credere alle loro dichiarazioni ufficiali...
PS: l'AA "3X" è solo un modo abbastanza strambo per indicare il multisampling 4x, in gioco pare sia indicato come "3/3 multisampling".
PPSS: in questo thread questo discorso è ampiamente OT.
Chi fosse interessato alla faccenda può continuare qui se vuole -> http://www.hwupgrade.it/forum/showthread.php?t=1725014
appleroof
21-04-2008, 21:36
Trovi maggiori differenze qui, forse:
http://forum.beyond3d.com/showpost.php?p=1150816&postcount=62
in questi shot la resa grafica delle 3870 con DX10.1 è chiaramente superiore non solo alla 3870 DX10, ma anche alla 9800 GX2 con driver 174.74 (tra parentesi: la resa della GX2 in quegli shot è semplicemente oscena spero vivamente sia un bug presto risolto). Per il resto, si, la GT è avanti come frame rate, ma il discorso fatto dal recensore di rage 3D esulava da qualunque riferimento prestazionale con le schede nvidia, mirava solo a paragonare l'impatto delle DX10.1 rispetto alle DX10.
Invece sembra che qui si sia preso spunto per tirare fuori i celolunghismi più beceri.
@appleroof: la situazione con i drivers nvidia per Crysis è diversa da quanto accaduto con le ATI per AC, non solo perchè invece di una diminuzione della qualità visiva abbiamo un miglioramento nel caso di AC, ma anche perchè nel caso di Crysis c'era un hack via driver da parte nvidia, mentre qui sono i programmatori del gioco ad avere "toppato", se vogliamo credere alle loro dichiarazioni ufficiali...
giusto, richiamavo quell'episodio perchè in sostanza, al di là di tecnicismi sui quali non mi soffermo non essendo all'altezza, si trattava alla fine della fiera di un decadimento d'immagine dovuto appunto a quegli hack (tra l'altro lasciatelo dire da chi ha una vga nvidia, non ho notato alcun cambiamento in Crysis nella qualità d'immagine tra quei driver e precedenti/successivi, in game, certo non mi sono messo a giocare a "cerca il particolare" come facciamo in queste occasioni), non si parlava di aa e quindi, nel discorso di Ratatosk non capisco come in quel caso la qualità era pessima e adesso meravigliosa, parlando di aa
ora invece, non abbiamo nulla di certo al riguardo (anche le immagini da te postate onestamente non sò dove vogliono arrivare, anche e sopratutto in virtù del nostro discorso...) se vuoi ti posto immagini in game fatte da me, mi sai dire se l'aa ti risulti osceno, prontissimo, ma non so quanto sia utile al nostro discorso, visto che giustamente non parliamo di celolunghismi...
Mister Tarpone
21-04-2008, 21:54
ho letto un pò di post...
praticamente secondo alcuni il fatto che l'effetto di post processing non venga calco9lato non è un errore... ma viene saltato perchè in dx10.1 non c'è bisogno di quel passaggio...
quindi secondo voi lo sviluppatore della ubisoft spara cazzate quando parla di performance aumentate perchè manca sto effetto quando si attiva l'aa???? :confused:
imho la situazione non è chiara.... poi anche nell'articolo postato da foglia morta.. sbaglio??? o alla fine si parla sempre di questo errore nel post processing??? "error while calculating phase of the post-processing"
allora è effettivamente un errore??? o non viene calcolato perchè non serve??
bohh... :mad: :mad: :mad:
Mister Tarpone
21-04-2008, 22:00
L'unico grosso problema di questa vicenda è che nVidia ha troppo peso sui produttori che foraggia e frenerà lo sviluppo su DX10.1 perché non ha un'architettura che possa servirsene.
azz... però anche Ati non poteva stringere un pò più accordi???
che anche questa è una cosa importante!!
leoneazzurro
21-04-2008, 22:18
giusto, richiamavo quell'episodio perchè in sostanza, al di là di tecnicismi sui quali non mi soffermo non essendo all'altezza, si trattava alla fine della fiera di un decadimento d'immagine dovuto appunto a quegli hack (tra l'altro lasciatelo dire da chi ha una vga nvidia, non ho notato alcun cambiamento in Crysis nella qualità d'immagine tra quei driver e precedenti/successivi, in game, certo non mi sono messo a giocare a "cerca il particolare" come facciamo in queste occasioni), non si parlava di aa e quindi, nel discorso di Ratatosk non capisco come in quel caso la qualità era pessima e adesso meravigliosa, parlando di aa
ora invece, non abbiamo nulla di certo al riguardo (anche le immagini da te postate onestamente non sò dove vogliono arrivare, anche e sopratutto in virtù del nostro discorso...) se vuoi ti posto immagini in game fatte da me, mi sai dire se l'aa ti risulti osceno, prontissimo, ma non so quanto sia utile al nostro discorso, visto che giustamente non parliamo di celolunghismi...
Le immagini servono ad arrivare semplicemente a mostrare che con le DX10.1 l'AA è applicato meglio che negli altri due casi (basta guardare le seghettature sul lato verticale del mobile raffigurato) e quindi la qualità grafica è migliore. Detto questo, anche io ho una scheda Nvidia (una 8800 GTS 512) ma questo non vuole dire che devo essere per forza poco obiettivo.
Mister Tarpone
21-04-2008, 22:32
ma di certo non è la versione più verosimile, dai dati che abbiamo.
vabbè... ma alla fine che dati abbiamo????
3 screen zoomati.
dove si vede che l'aa è migliore su ati.... ma imho è troppo poco per vedere se poi in game qualche effetto che si nota poco è sparito veramente o no.... :stordita:
bohhhh..............
Pagina 788 della discussione ufficiale della ati 3870 ;)
...un utente ha fatto diversi screen, se non proprio identici nelle posizioni, si nota che non ci sono differenze....
io l ho giocato in dx10 fino a finirlo ed ora lo sto guardando in dx10.1 in ogni quadro per cercare effetti mancati...ma non ne trovo. Purtroppo ora, l'unica comparativa che posso fare è con il dx9 di XP :muro:
Spero solo che prima che esca la famigerata "patch" qualche testata faccia una bella comparativa :)
Comuque come abbondatemente detto siamo OT, quindi chiudo ;)
bye
Mister Tarpone
22-04-2008, 07:07
Oddio, per favore, cercate di sforzarvi di non vedere ogni cosa che viene scritta come una guerra ATi vs nVidia. L'articolo di Rage3D non menziona mai nVidia e nessun confronto è stato fatto con schede nVidia.
obiettivo.
ma che stai dicendo??
quando ho scritto aa migliore su ati mi riferivo all'articolo postato da foglia morta...dove c'è un confronto contro una 88GT... con alcuni screen con entrambe le schede con aa4x attivato su win. vista sp1...
eh!! d'altra parte ho visto quello di articolo..
..zzo centra il voler vedere la guerra tra ati nvidia in quello che ho scritto non lo so veramente... :asd:
Ergo, essendo un gioco TWINFGABNNSGDHEKLnVidia (potevano inventarsi una sigla più ricordabile, va detto), il supporto DX10.1 viene tolto in modo che il divario prestazionale con AA attivo non si accorci :>
leggendo quello che hai scritto qui mi è venuta in mente anche una cosa (poi so io quello che tira fuori le menate tra ati e nvidia :sbonk: vabbè...) ;)
se fosse come dici tu... che la ubisoft, per via di questi super accordi con nvidia è costretta a fare una patch castrante (o correttiva??)
ecco...allora io mi domando perchè questa ha sviluppato il gioco con il supporto dx10.1 ...con il rischio di far scappare fuori questa storia....
ma allora non facevan prima a sviluppare il gioco in dx10 e stop??? :asd: senza rischi??:asd: .
per questo mi sembra un pò strano il fatto che è per via del "TWINFGABNNSGDHEKLnVidia" che modificheranno un pò di cosette con la patch.... e non per altri motivi... :asd:
dai....ripeto... ;) imho,se non volevano avere problemi con nvidia come dici tu... avrebbero potuto fare il gioco solo per dx10 no??....e non dx10.1 + rischio sputtanamento = problemi con nvidia = patch per nascondere "il vantaggio".
concorderai con me che sarebbe stato + semplice così per tutti no?? :confused:
mokaverus
22-04-2008, 07:29
http://www.tomshw.it/news.php?newsid=13810
HackaB321
22-04-2008, 07:30
Mentre AMD soffre a causa del business dei microprocessori, la divisione grafica ATI conta di poter tornare all'inseguimento di nVidia con una nuova generazione di schede, in arrivo il mese prossimo. A maggio, ATI presenterà nuove soluzioni desktop di fascia media (RV770) e soluzioni mobile, conosciute con l'acronimo M88.
ATI dovrebbe presentare le soluzioni RV770 desktop con il nome Radeon HD 4800, adottando per prima le memorie GDDR5. Dal nuovo core grafico, analogamente a quanto successo con RV670, dovrebbero prendere forma due schede video: il modello 4850 e il modello 4870. Il primo, dovrebbe integrare un core con una frequenza superiore agli 800 Mhz, mentre il secondo dovrebbe superare addirittura il gigahertz. Prototipi di schede RV770, ad esempio, sono stati capaci di lavorare a 1,05 GHz. Il processore grafico integrerà 32 texture memory unit (TMU).
Per quanto concerne la memoria, l'azienda immetterà sui vari canali di vendita soluzioni con 256, 512 e 1024 MB di memoria, realizzando anche una versione con 256 MB GDDR3 che però dovrebbe essere esclusivamente fornita ai clienti OEM. Il modello principale sul canale retail sarà quello con 512MB GDDR5, sia per il modello 4850 che per quello 4870. Al momento anche la frequenza della memoria non è chiara, ma si parla un clock fisico compreso tra 1.8 - 2.2 GHz.
E così, grazie a un bus di memoria ancora a 256-bit, si parla di un bandwidth da 115 a 141 GB/s. Da questo progetto ATI ha intenzione di realizzare anche nuove schede FireStream e FireGL, quest'ultime attese non prima di agosto.
http://www.tomshw.it/news.php?newsid=13810
Non comprendo il motivo per il quale tutto venga ricondotto ad una guerra tra il bene e il male , i bianchi e i neri , guelfi e ghibellini etc etc etc....Questo forum è zeppo di fanboy le cui difese d'ufficio non so come giudicare....
Pe alcuni è più possible che gli asini icomincino a volare che piuttosto uno stupido pezzo di plastica e metallo possa renderizzare meglio e più velocemente con una path Dx10.1...
E' deludente constatare che con molti utenti non è possibile stabilire alcuna conversazione intelligente.... :(
Foglia Morta
22-04-2008, 08:25
In teoria il programma TWIMTBP non centra con la patch DX10.1 di AC perchè quel programma non prevede il pagamento in moneta della sponsorizzazione.
Semplicemente nVidia offre la garanzia di un tot ore/lavoro dei suoi programmatori per ciascun gioco sponsorizzato. Ovviamente i programmatori nVidia conoscono i vantaggi e svantaggi della loro architettura come quelli dell'architettura rivale. Ciò si traduce in una partecipazione ai costi di sviluppo del gioco in cambio della quale ottiene il marchio TWIMTBP.
Ma dato che il codice DX10 e DX10.1 sono diversi nVidia non dovrebbe proprio averlo toccato quel codice ( e se l'avesse fatto neanche sarebbe stato sollevato questo polverone perchè non sarebbe neppure mai uscito ).
Quindi alla fine per tirare le somme bisognerà attendere la prossima patch.
Per ora la situazione ricorda NWN che sfruttava bene il truform Ati e poi per i soliti "problemi" era stato rimosso ( e qui è logico pensare male = soldi ).
Ottimo x maggio, non vedo l'ora di di sapere il prezzo che secondo me sarà basso.....fascia media.
In teoria il programma TWIMTBP non centra con la patch DX10.1 di AC perchè quel programma non prevede il pagamento in moneta della sponsorizzazione.
Semplicemente nVidia offre la garanzia di un tot ore/lavoro dei suoi programmatori per ciascun gioco sponsorizzato. Ovviamente i programmatori nVidia conoscono i vantaggi e svantaggi della loro architettura come quelli dell'architettura rivale. Ciò si traduce in una partecipazione ai costi di sviluppo del gioco in cambio della quale ottiene il marchio TWIMTBP.
Ma dato che il codice DX10 e DX10.1 sono diversi nVidia non dovrebbe proprio averlo toccato quel codice ( e se l'avesse fatto neanche sarebbe stato sollevato questo polverone perchè non sarebbe neppure mai uscito ).
Quindi alla fine per tirare le somme bisognerà attendere la prossima patch.
Per ora la situazione ricorda NWN che sfruttava bene il truform Ati e poi per i soliti "problemi" era stato rimosso ( e qui è logico pensare male = soldi ).
:rolleyes: ha detto uno sviluppatore del gioco che mancava un effetto di post-processing :asd:
Ottimo x maggio, non vedo l'ora di di sapere il prezzo che secondo me sarà basso.....fascia media.
anche io vorro vedere il pèrezzo anche se è meglio aspettare gt200 prima di un acquisto......
sembra essere interessante come scheda,aspettiamo maggio per saperne di più..
Se seguono il trand delle HD3800 come preazzi la HD4850 potrebbe essere l'ideale.
Sperando ne prezzi, della gt200 poco mi cala...
HackaB321
22-04-2008, 09:45
Ma dato che il codice DX10 e DX10.1 sono diversi nVidia non dovrebbe proprio averlo toccato quel codice ( e se l'avesse fatto neanche sarebbe stato sollevato questo polverone perchè non sarebbe neppure mai uscito ).
Quindi alla fine per tirare le somme bisognerà attendere la prossima patch.
Per ora la situazione ricorda NWN che sfruttava bene il truform Ati e poi per i soliti "problemi" era stato rimosso ( e qui è logico pensare male = soldi ).
I punti fermi di questa storia per ora sono:
1)AC supporta attualmente le DX10.1; questa è già una notizia dato che spesso anche su questo forum si è detto a sproposito che le 10.1 sono inutili e che nessuno gioco ne avrebbe mai fatto uso.
2)Le 10.1 pur non applicando questo fantomatico effetto di postprocessing migliorano la grafica sia come QI che come fps con MSAA attivo con la differenza che questo miglioramento è stato notato mentre l'effetto di postprocessing mancante non è stato notato da nessuno (e questo ci porta a pensare male). Il programmatore di Ubisoft avrebbe potuto specificare quale effetto di postprocessing viene saltato e quali sono gli effetti negativi di questa mancanza se non voleva portarci a pensare male...
3)Da un punto di vista tecnico il punto 2 conferma che le 10.1 in caso di MSAA dei concreti benefici li apportano: viene quindi smentito il CEO di Crytek che sotto diktat di una nota azienda produttrice di schede video aveva smentito se stesso dicendo che queste 10.1 erano fuffa supplementare utile solo per il marketing.
4)Il paragone con la storia dei driver "ottimizzati" di Nvidia non c'entra nulla proprio perchè in questo caso non è un'"ottimizzazione" driver (con dubbi effetti sulla qualità dell'immagine) ma una tecnica di programmazione 3D diversa (tanto è vero che i miglioramenti non si riscontrano su schede ATi non 10.1).
Ottimo x maggio, non vedo l'ora di di sapere il prezzo che secondo me sarà basso.....fascia media.
Se il prezzo sarà da fascia media sarà un affare perchè se RV770 avrà queste specifiche non sarà una scheda di fascia media...Con 1.05Ghz, 480sp e 32TMU penso che starà stabilmente sopra la 3870x2
Boh dicevo cosi visto il calo costante delle due sorelle minori pensavo che potevano riproporle allo stesso prezzo di quando erano uscite...
Mister Tarpone
22-04-2008, 10:29
dato che spesso anche su questo forum si è detto a sproposito che le 10.1 sono inutili e che nessuno gioco ne avrebbe mai fatto uso.
e purtroppo pare proprio così... se è vero che all'unico gioco dx10.1 uscito fino adesso, verrà tolto tale supporto con la patch...... :stordita:
mo vediamo che succede dai.... ;) (:stordita:)
Bhairava
22-04-2008, 10:30
Non comprendo il motivo per il quale tutto venga ricondotto ad una guerra tra il bene e il male , i bianchi e i neri , guelfi e ghibellini etc etc etc....Questo forum è zeppo di fanboy le cui difese d'ufficio non so come giudicare....
Pe alcuni è più possible che gli asini icomincino a volare che piuttosto uno stupido pezzo di plastica e metallo possa renderizzare meglio e più velocemente con una path Dx10.1...
E' deludente constatare che con molti utenti non è possibile stabilire alcuna conversazione intelligente.... :(
Nel 3d di Assassin's Creed mi hanno dato del bugiardo perchè ho postato i miei risultati su quel gioco: "I tuoi risultati non sono attendibili, non puoi avere quel framerate con la 3870 :O ".
Ormai in questo forum avere Ati ti condanna al ghetto.
goldorak
22-04-2008, 10:34
Nel 3d di Assassin's Creed mi hanno dato del bugiardo perchè ho postato i miei risultati su quel gioco: "I tuoi risultati non sono attendibili, non puoi avere quel framerate con la 3870 :O ".
Ormai in questo forum avere Ati ti condanna al ghetto.
Che ci vuoi fare ?
Ce' gente talmente accecata dal fanboyismo che e' piu' semplice metterli in ignore list piuttosto che intavolare una discussione con loro.
HackaB321
22-04-2008, 10:48
e purtroppo pare proprio così... se è vero che all'unico gioco dx10.1 uscito fino adesso, verrà tolto tale supporto con la patch...... :stordita:
mo vediamo che succede dai.... ;) (:stordita:)
Non dovrebbe essere come dici tu: dalla risposta di Ubisoft la prossima patch rimuoverà temporaneamente il supporto alle DX10.1 nell'attesa di reimplementare tale supporto senza l'inconveniente del'effetto di postprocessing mancante;). Vediamo se sarà vero.
Bhairava
22-04-2008, 10:50
Non dovrebbe essere come dici tu: dalla risposta di Ubisoft la prossima patch rimuoverà temporaneamente il supporto alle DX10.1 nell'attesa di reimplementare tale supporto senza l'inconveniente del'effetto di postprocessing mancante;). Vediamo se sarà vero.
Sempre che questa mancanza sia effetivamente un inconveniente, e che non sia solo una scusa a favore di Nvidia.
Mister Tarpone
22-04-2008, 11:00
Nel 3d di Assassin's Creed mi hanno dato del bugiardo perchè ho postato i miei risultati su quel gioco: "I tuoi risultati non sono attendibili, non puoi avere quel framerate con la 3870 :O ".
Ormai in questo forum avere Ati ti condanna al ghetto.
nel 3d di assassin creed sono stati messi in dubbio molti risultati :asd: non solo quelli della 3870.. ma anche alcuni con schede nvidia...
rileggiti tutto il 3d prima di iniziare per l'ennesima volta con sta cantilena... :D
Non dovrebbe essere come dici tu: dalla risposta di Ubisoft la prossima patch rimuoverà temporaneamente il supporto alle DX10.1 nell'attesa di reimplementare tale supporto senza l'inconveniente del'effetto di postprocessing mancante;). Vediamo se sarà vero.
mahhh...
e perchè temporaneamente??? :confused: se in realtà (quella che ipotizzate voi) il discorso "" effetto post processing mancante "" non è un problema?? :confused:
bohhh..... qui mi sembra che è tutto uno sparà cazz... (non riferito a te eh ;)!! ) :stordita:
imho le cose son 2...
1 o sta patch completa uscirà quando vengan fuori gt200 e company (dx10.1 pure queste ) ... per il discorso detto da ratatosk e foglia morta..
2 o un problema di render effettivamente c'è veramente...
o no?? :confused:
gianni1879
22-04-2008, 11:02
Nel 3d di Assassin's Creed mi hanno dato del bugiardo perchè ho postato i miei risultati su quel gioco: "I tuoi risultati non sono attendibili, non puoi avere quel framerate con la 3870 :O ".
Ormai in questo forum avere Ati ti condanna al ghetto.
senza parole :rolleyes:
Bhairava
22-04-2008, 11:05
nel 3d di assassin creed sono stati messi in dubbio molti risultati :asd: non solo quelli della 3870.. ma anche alcuni con schede nvidia...
rileggiti tutto il 3d prima di iniziare per l'ennesima volta con sta cantilena... :D
Sta di fatto che non è bello dare del bugiardo, e che lì come in tutti gli altri 3d c'è gente tanto stupida da pensare "ti rode il mio super sli di xxx ultra gtx superoverclocked?". Guarda, mi vene il voltastomaco.
Ma poi non capisco, ma li pagano??? O sono loro che quando comprano le schede le pagano a peso d'oro e poi gli fanno anche una dannata pubblicità......Che quoziente intellettivo superlativo......
Mister Tarpone
22-04-2008, 11:11
Sta di fatto che non è bello dare del bugiardo
non è bello manco fare la vittima e dare del fanboy (o tifoso ecc..) però ;) e questo solo perchè il test di uno che ha la tua stessa scheda video ha reso scettico qualcuno ;)
cmq chiudiamo qui perchè altrimenti tra un ot e un altro alla fine ci mandano a caga.... :asd:
Sta di fatto che non è bello dare del bugiardo, e che lì come in tutti gli altri 3d c'è gente tanto stupida da pensare "ti rode il mio super sli di xxx ultra gtx superoverclocked?". Guarda, mi vene il voltastomaco.
Ma poi non capisco, ma li pagano??? O sono loro che quando comprano le schede le pagano a peso d'oro e poi gli fanno anche una dannata pubblicità......Che quoziente intellettivo superlativo......
alcuni utentiu dopo aver speso la bellezza di 500 soldoni bper una scheda video top di gamma gli rode il fatto che una scheda video da meno abbia delle prestazioni piu alte delle loro tutto qui.......solo nvidia
Bhairava
22-04-2008, 11:14
solo nvidia
:sbonk:
HackaB321
22-04-2008, 11:19
mahhh...
e perchè temporaneamente??? :confused: se in realtà (quella che ipotizzate voi) il discorso "" effetto post processing mancante "" non è un problema?? :confused:
bohhh..... qui mi sembra che è tutto uno sparà cazz... (non riferito a te eh ;)!! ) :stordita:
Temporaneamente perchè non potevano dire: il gioco supporta le DX10.1 ma dato che questo per ora non è compatibile con un effetto di pp allora rimuoviamo il supporto per sempre, la loro risposta ovvia è stata: lo rimuoviamo nell'attesa di reimplementare correttamente le 10.1 con tutti gli effetti compresi. In realtà che l'effetto di pp non è un problema lo diciamo noi (perchè nessuno ha notato la mancanza di questo effetto), Ubisoft ha detto che la mancanza dell'effetto era in realtà la causa principale per cui il gioco andava meglio con DX10.1 lasciando intendere che se ci fosse stato l'effetto il gioco in 10.1 avrebbe avuto più o meno gli stessi risultati di quello con DX10.
Non ci resta che aspettare sperando che qualcuno faccia un pò di chiarezza.
Mister Tarpone
22-04-2008, 11:21
Temporaneamente perchè non potevano dire: il gioco supporta le DX10.1 ma dato che questo per ora non è compatibile con un effetto di pp allora rimuoviamo il supporto per sempre, la loro risposta ovvia è stata: lo rimuoviamo nell'attesa di reimplementare correttamente le 10.1 con tutti gli effetti compresi. In realtà che l'effetto di pp non è un problema lo diciamo noi (perchè nessuno ha notato la mancanza di questo effetto), Ubisoft ha detto che la mancanza dell'effetto era in realtà la causa principale per cui il gioco andava meglio con DX10.1 lasciando intendere che se ci fosse stato l'effetto il gioco in 10.1 avrebbe avuto più o meno gli stessi risultati di quello con DX10.
Non ci resta che aspettare sperando che qualcuno faccia un pò di chiarezza.
e aspettiamo...sono curioso...
albert75
22-04-2008, 11:55
ma a maggio verra' presentata o sara' anche disponibile per la vendita??
tocchera i 300€:confused:
<^MORFEO^>
22-04-2008, 12:04
Leggendo la notizia e le specifiche apparse su Tom's, secondo voi che incremento di prestazioni ci sarà rispetto alla 3870? Ce la farà a superare la 9800GTX o è solo una mia vana speranza? :(
Ovviamente parlo della 4870 ;)
halduemilauno
22-04-2008, 12:18
Leggendo la notizia e le specifiche apparse su Tom's, secondo voi che incremento di prestazioni ci sarà rispetto alla 3870? Ce la farà a superare la 9800GTX o è solo una mia vana speranza? :(
Ovviamente parlo della 4870 ;)
si parlava del 40/50% in + rispetto alla 3870. credo che quando si dissero quelle % lo disse chi sapeva gia di quelle caratteristiche. personalmente mi sono fatto l'idea che la 4870 sarà + o - come l'attuale 3870x2.
solo un'idea in attesa di riscontri ovviamente.
Mister Tarpone
22-04-2008, 12:23
4870x2 = 2x 3870x2
4870 = 3870x2
4850 = 3850x2
4670-4650 256bit = 3870-3850
come dissi molte pagine fa... .. .
goldorak
22-04-2008, 12:33
si parlava del 40/50% in + rispetto alla 3870. credo che quando si dissero quelle % lo disse chi sapeva gia di quelle caratteristiche. personalmente mi sono fatto l'idea che la 4870 sarà + o - come l'attuale 3870x2.
solo un'idea in attesa di riscontri ovviamente.
Aparte che confrontare una soluzione single chip Rv770 con una dual chip 3870x2 non sta ne' in cielo ne' in terra. :rolleyes:
Perche' non confrontiamo la 4870x2 contro la 3870x2 e la 4870 contro la 3870. :p
Ma forse cosi' vengono fuori incrementi prestazionali troppo alti. :Perfido:
HackaB321
22-04-2008, 12:36
Aparte che confrontare una soluzione single chip Rv770 con una dual chip 3870x2 non sta ne' in cielo ne' in terra. :rolleyes:
e perchè? E' solo per farsi un 'idea delle prestazioni. Poi è chiaro che a parità di performance una single (parlo di gpu eh :D ) è da preferirsi per ragioni note.
halduemilauno
22-04-2008, 12:39
Aparte che confrontare una soluzione single chip Rv770 con una dual chip 3870x2 non sta ne' in cielo ne' in terra. :rolleyes:
Perche' non confrontiamo la 4870x2 contro la 3870x2 e la 4870 contro la 3870. :p
Ma forse cosi' vengono fuori incrementi prestazionali troppo alti. :Perfido:
io parlavo del risultato finale che è poi quello che interessa per la valutazione e il giudizio. per il resto dicendo pari alla 3870x2 credevo di darle una % superiore.
aspettiamo.
goldorak
22-04-2008, 12:44
io parlavo del risultato finale che è poi quello che interessa per la valutazione e il giudizio. per il resto dicendo pari alla 3870x2 credevo di darle una % superiore.
aspettiamo.
Infatti aspettiamo i primi bench.
Il mio punto di vista e' che AMD/ATI avendo riequilibrato l'architettura la serie 48xx sara' competitiva a livello prestazionale con le schede Nvidia.
nella speranza che i consumi in Watt siano minori :burp:
Bhairava
22-04-2008, 12:47
io parlavo del risultato finale che è poi quello che interessa per la valutazione e il giudizio. per il resto dicendo pari alla 3870x2 credevo di darle una % superiore.
aspettiamo.
Non ha molto senso prendere come metro di riferimento un Crossfire di due 3870x2, non per quello che diceva Goldorak, ma perchè per ora un CF di 3870x2 va esattamente come una singola 3870x2, anzi a volte peggio.
Quindi, pochè 2x 3870x2=3870x2, dire che:
4870x2 = 2x 3870x2
4870 = 3870x2
è uguale a dire che
4870x2=3870x2.
Mister Tarpone
22-04-2008, 12:56
Non ha molto senso prendere come metro di riferimento un Crossfire di due 3870x2, non per quello che diceva Goldorak, ma perchè per ora un CF di 3870x2 va esattamente come una singola 3870x2, anzi a volte peggio.
Quindi, pochè 2x 3870x2=3870x2, dire che:
4870x2 = 2x 3870x2
4870 = 3870x2
è uguale a dire che
4870x2=3870x2.
vabbè.... anche nel mio caso era solo per dare un idea della potenza che potrebbe avere..
ovviamente era inteso come 2 3870x2 se fossero sfruttate come si deve....
ps: in realtà l'ho scritto per mettere in cattiva luce la futura 4870x2 :D :sbonk:
Bhairava
22-04-2008, 12:58
vabbè.... anche nel mio caso era solo per dare un idea della potenza che potrebbe avere..
ovviamente era inteso come 2 3870x2 se fossero sfruttate come si deve....
ps: in realtà l'ho scritto per mettere in cattiva luce la futura 4870x2 :D :sbonk:
:eekk: Lo sapevo!! :asd: La massoneria Nvidia!!!
Mister Tarpone
22-04-2008, 13:01
:eekk: Lo sapevo!! :asd: La massoneria Nvidia!!!
ot
vai nel thread di Crysis ;)
fine ot :Perfido:
Free Gordon
22-04-2008, 13:07
Infatti aspettiamo i primi bench.
Il mio punto di vista e' che AMD/ATI avendo riequilibrato l'architettura la serie 48xx sara' competitiva a livello prestazionale con le schede Nvidia.
Dipende poi sempre da quanto sarà grosso il chip.... ;)
:eekk: Lo sapevo!! :asd: La massoneria Nvidia!!!
Attento!
Qualcuno potrebbe darti del disonesto! :D
Vero, Hal?
halduemilauno
22-04-2008, 13:22
Non ha molto senso prendere come metro di riferimento un Crossfire di due 3870x2, non per quello che diceva Goldorak, ma perchè per ora un CF di 3870x2 va esattamente come una singola 3870x2, anzi a volte peggio.
Quindi, pochè 2x 3870x2=3870x2, dire che:
4870x2 = 2x 3870x2
4870 = 3870x2
è uguale a dire che
4870x2=3870x2.
io parlavo di una singola 3870x2. e ripeto il tutto in attesa di riscontri.
Kharonte85
22-04-2008, 13:28
Continuano i rumors che danno le hd4xx0 dotate di gddr5 ma io non ci credo finche' non lo vedo...:O
se cosi' sara' mi viene da chiedermi quanto influira' questo sul prezzo finale? Pero' forse il tutto sara' bilanciato dal fatto di continuare ad usare il bus a 256bit...
HackaB321
22-04-2008, 13:31
Mi basta che vada come quella che ho attualmente ma a 1680x1050 invece che 1440x900 :>
stai valutando un salto 3870->4870? Io valuterò soprattutto in base al prezzo ma penso di restare con la 3870 dato che (giocando a 1280) mi dovrebbe bastare anche per i giochi di quest'anno.
HackaB321
22-04-2008, 13:35
Continuano i rumors che danno le hd4xx0 dotate di gddr5 ma io non ci credo finche' non lo vedo...:O
se cosi' sara' mi viene da chiedermi quanto influira' questo sul prezzo finale? Pero' forse il tutto sara' bilanciato dal fatto di continuare ad usare il bus a 256bit...
La 4850 sicuramente sarà con memorie GDDR3 o 4 proprio per questioni di prezzo. Il motivo delle GDDR5 comunque è proprio quello di poter continuare a usare il bus a 256bit vista la diffcoltà a gestire come consumi e calore un ringbus a 512 (che poi sono 1024).
Free Gordon
22-04-2008, 13:36
stai valutando un salto 3870->4870? Io valuterò soprattutto in base al prezzo ma penso di restare con la 3870 dato che (giocando a 1280) mi dovrebbe bastare anche per i giochi di quest'anno.
L'unico motivo per cambiarla, per me, è se questa scheda farà girare bene Crysis, alla 1680 in very high.
Ma non credo che accadrà.
Poi il prossimo metro di giudizio sarà Alan Wake, ma quello uscirà in autunno mi sa..
La 4850 sicuramente sarà con memorie GDDR3 o 4 proprio per questioni di prezzo. Il motivo delle GDDR5 comunque è proprio quello di poter continuare a usare il bus a 256bit vista la diffcoltà a gestire come consumi e calore un ringbus a 512 (che poi sono 1024).
"Il modello principale sul canale retail sarà quello con 512MB GDDR5, sia per il modello 4850 che per quello 4870"
Cosi riporta Tom's H.
E credo sia la più logica.
albert75
22-04-2008, 13:55
tutte cazz... se non aumentano il bus delle memorie...comunque mettetevi l' anima in pace 20 giorni di attesa e via alle danze...
HackaB321
22-04-2008, 14:01
"Il modello principale sul canale retail sarà quello con 512MB GDDR5, sia per il modello 4850 che per quello 4870"
Cosi riporta Tom's H.
E credo sia la più logica.
ATi presenterà gpu con GDDR5 poi sicuramente i partner faranno uscire anche schede con GDDR3. Dal link già postato:
Both GDDR3 and GDDR5 memory will be supported by the chip, but ATI itself will only be offering GDDR5 cards
http://www.tgdaily.com/content/view/37025/135
goldorak
22-04-2008, 14:02
tutte cazz... se non aumentano il bus delle memorie...comunque mettetevi l' anima in pace 20 giorni di attesa e via alle danze...
Ancora con questa storia ? :rolleyes:
Se mantieni i 256 bit e aumenti la frequenza a 2Ghz+ per la ram vedi come la larghezza di banda aumenta. :p
http://www.xtremehardware.it/notizie/notizie/rv770-in-arrivo-tra-breve-200804221343/
bus da 141GB/s ti bastano?
goldorak
22-04-2008, 14:03
ATi presenterà gpu con GDDR5 poi sicuramente i partner faranno uscire anche schede con GDDR3. Dal link già postato:
Both GDDR3 and GDDR5 memory will be supported by the chip, but ATI itself will only be offering GDDR5 cards
http://www.tgdaily.com/content/view/37025/135
Quindi almeno qui in europa le sapphire avranno tutte gddr 3 ? :(
Speriamo che usino le GDDR5 al piu' presto.
ATi presenterà gpu con GDDR5 poi sicuramente i partner faranno uscire anche schede con GDDR3. Dal link già postato:
Both GDDR3 and GDDR5 memory will be supported by the chip, but ATI itself will only be offering GDDR5 cards
http://www.tgdaily.com/content/view/37025/135
Beh non ha senso prenderla con GDDR3 punto.
Foglia Morta
22-04-2008, 14:12
imho attualmente girano pravalentemente speculazioni... se veramente esce a Maggio tra un po se ne dovrebbe sapere di più.
( in realtà questo post serve solamente a mostrare il mio primo avatar dal 2005 ad oggi :ciapet: )
HackaB321
22-04-2008, 14:24
Quindi almeno qui in europa le sapphire avranno tutte gddr 3 ? :(
Speriamo che usino le GDDR5 al piu' presto.
Avremo Sapphire con entrambi i tipi di memoria: il chip supporta entrambe le memorie ma ATi presenterà modelli reference solo con GDDR5.
Beh non ha senso prenderla con GDDR3 punto.
Se i partners ATi tireranno le DDR3 come Nvidia ne viene fuori una banda di 70Gb/s che è sufficiente per una fascia medio-alta a prezzo contenuto (sarebbe la stessa banda della 9800GTX per esempio)
imho attualmente girano pravalentemente speculazioni... se veramente esce a Maggio tra un po se ne dovrebbe sapere di più.
( in realtà questo post serve solamente a mostrare il mio primo avatar dal 2005 ad oggi :ciapet: )
:D
Kharonte85
22-04-2008, 14:30
( in realtà questo post serve solamente a mostrare il mio primo avatar dal 2005 ad oggi :ciapet: )
In effetti sono quasi shocckato :eek: complimenti... :asd:
@ HackaB321 credi davvero che i risparmi sui consumi delle gddr5 saranno notevoli? Io ho qualche dubbio...forse piu' che altro sperano di tirarle tanto ma cosi' almeno all'inizio la vedo dura...
Kharonte85
22-04-2008, 14:38
Edit...
doppio...sorry
HackaB321
22-04-2008, 15:07
@ HackaB321 credi davvero che i risparmi sui consumi delle gddr5 saranno notevoli? Io ho qualche dubbio...forse piu' che altro sperano di tirarle tanto ma cosi' almeno all'inizio la vedo dura...
I vantaggi delle GDDR5 sono frequenze e consumi, gli svantaggi sono costo e latenze. Il motivo per cui ATi è passata a queste memorie è chiaro, avere banda per una fascia alta anche con bus a 256 in modo da consumare meno e non dover implementare il "mostro" ringbus a 512bit come su R600. Il risparmio delle GDDR5 dipende dalla capacità di queste memorie di gestire il consumo con una sorta di PowerPlay: gestiscono un download dinamico dell' l'I/O data rate, in base al carico di lavoro, fino a un minimo di 200Mbit/s. Questo significa che il risparmio sarà maggiore con la scheda in idle, forse in RV770 vedremo un divario ancora maggiore rispetto a RV670 tra consumi in idle e in full.
appleroof
22-04-2008, 17:39
Temporaneamente perchè non potevano dire: il gioco supporta le DX10.1 ma dato che questo per ora non è compatibile con un effetto di pp allora rimuoviamo il supporto per sempre, la loro risposta ovvia è stata: lo rimuoviamo nell'attesa di reimplementare correttamente le 10.1 con tutti gli effetti compresi. In realtà che l'effetto di pp non è un problema lo diciamo noi (perchè nessuno ha notato la mancanza di questo effetto), Ubisoft ha detto che la mancanza dell'effetto era in realtà la causa principale per cui il gioco andava meglio con DX10.1 lasciando intendere che se ci fosse stato l'effetto il gioco in 10.1 avrebbe avuto più o meno gli stessi risultati di quello con DX10.
Non ci resta che aspettare sperando che qualcuno faccia un pò di chiarezza.
quoto tutto: alla fine poi la cosa che più mi incuriosisce è vedere quali belle novità apportino le dx10.1, dato che (cosa che dico da mesi) anche su rv770 & derivati esse cominceranno ad acquisire senso, da come la vedo io (in realtà se vogliamo già dalla 3870x2, sempre imho)
solo una curiosità mi viene da quando son cominciate a girare le caratteristiche di rv770: guardando queste, mi sembra, in sostanza e senza tecnicismi che ripeto non conosco bene, che rv770 "si sposti" verso g80 mantenendo le cose buone di r600....ma ora, visto che pare finalmente arrivato il momento dei "veri giochi" dx10, non sarebbe stato meglio mantenere e nat. potenziare le caratteristiche originarie e basta??
goldorak
22-04-2008, 17:53
quoto tutto: alla fine poi la cosa che più mi incuriosisce è vedere quali belle novità apportino le dx10.1, dato che (cosa che dico da mesi) anche su rv770 & derivati esse cominceranno ad acquisire senso, da come la vedo io (in realtà se vogliamo già dalla 3870x2, sempre imho)
solo una curiosità mi viene da quando son cominciate a girare le caratteristiche di rv770: guardando queste, mi sembra, in sostanza e senza tecnicismi che ripeto non conosco bene, che rv770 "si sposti" verso g80 mantenendo le cose buone di r600....ma ora, visto che pare finalmente arrivato il momento dei "veri giochi" dx10, non sarebbe stato meglio mantenere e nat. potenziare le caratteristiche originarie e basta??
Cosa dovevano potenziare visto che l'architetura R600 non e' mai stata sfruttata come si deve ?
Invece hanno fatto benissimo a riequilibrare l'architettura perche' come dimostra il mercato siamo ancora ben lontani dall'avere giochi dx 10/10.1 NATIVI quindi senza controparte dx 9 e pertanto che girano solo ed esclusivamente su Vista.
E visto che Vista (scusate il gioco di parole) non rappresenta la maggioranza del mercato ce ne passera' di acqua sotto i ponti prima di vedere giochi dx 10 nativi. Gli sviluppatori non sono scemi e non si tagliano via un 50-60% di mercato e questo la ATI lo ha imparato a sue spese.
appleroof
22-04-2008, 18:20
Cosa dovevano potenziare visto che l'architetura R600 non e' mai stata sfruttata come si deve ?
Invece hanno fatto benissimo a riequilibrare l'architettura perche' come dimostra il mercato siamo ancora ben lontani dall'avere giochi dx 10/10.1 NATIVI quindi senza controparte dx 9 e pertanto che girano solo ed esclusivamente su Vista.
E visto che Vista (scusate il gioco di parole) non rappresenta la maggioranza del mercato ce ne passera' di acqua sotto i ponti prima di vedere giochi dx 10 nativi. Gli sviluppatori non sono scemi e non si tagliano via un 50-60% di mercato e questo la ATI lo ha imparato a sue spese.
quindi deduco (e lo dico davvero senza polemica, credimi, sono sinceramente interessato perchè ho intenzione di cambiare la 88gtx quest'anno) che GT200, "provenendo" da g80, dovrebbe andare meglio anche di r700?
cmq secondo me hai ragione, la vera fortuna di Nvidia è anche dovuta a 2 importanti fattori, imho: la diffusione di Vista ben sotto le attese (immagina se le dx10 fossero state compatibili anche con xp, e a questo punto chissà...) e questo non potevano prevederlo
il fatto che la maggior parte dei giochi ora e presumibilmente ancora per un bel pò è pensato prima per le consolle (fondamentalmente dx9, anche la xbox), poi per il pc, e forse questo potevano prevederlo (il che spiegherebbe forse anche l'approccio più conservativo rispetto a r600)...
p.s.: quanto ai potenziamenti sulla parte "buona" di r600, perchè, + sp e affinamenti vari ti farebbero cmq schifo? :asd:
albert75
22-04-2008, 18:21
Ancora con questa storia ? :rolleyes:
Se mantieni i 256 bit e aumenti la frequenza a 2Ghz+ per la ram vedi come la larghezza di banda aumenta. :p
secondo me frquenza piu' alte maggiori problemi ed instabilita' nei giochi;)
appleroof
22-04-2008, 18:24
secondo me frquenza piu' alte maggiori problemi ed instabilita' nei giochi;)
non credo proprio, questo accade al limite con l'oc casalingo....
albert75
22-04-2008, 18:25
comunque ormai ci siamo...vediamo se ati si e' data una mossa...
comunque ormai ci siamo...vediamo se ati si e' data una mossa...
speriamo :O stavo x comprare gts 512
appleroof
22-04-2008, 18:29
comunque ormai ci siamo...vediamo se ati si e' data una mossa...
su questo non ci piove direi :)
Foglia Morta
22-04-2008, 18:41
rumour:
http://www.hardware-infos.com/news.php?news=2008
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
Bhairava
22-04-2008, 18:41
Cosa dovevano potenziare visto che l'architetura R600 non e' mai stata sfruttata come si deve ?
Invece hanno fatto benissimo a riequilibrare l'architettura perche' come dimostra il mercato siamo ancora ben lontani dall'avere giochi dx 10/10.1 NATIVI quindi senza controparte dx 9 e pertanto che girano solo ed esclusivamente su Vista.
E visto che Vista (scusate il gioco di parole) non rappresenta la maggioranza del mercato ce ne passera' di acqua sotto i ponti prima di vedere giochi dx 10 nativi. Gli sviluppatori non sono scemi e non si tagliano via un 50-60% di mercato e questo la ATI lo ha imparato a sue spese.
Si, si prospettano tempi lontani per le directx10.1, anche perchè Microsoft ha deciso di supportare Xp ancora per due anni, per via del boom dei mini-notebook (come Asus etc..). Questo si tradurrà in un ancora più lento passaggio degli utenti al nuovo sistema operativo (non ricordo un cambiamento più difficoltoso di questo)
E ancora una volta - a rischio di cadere nel luogo comune - è colpa di Microsoft, che non ha fornito il supporto dx10 a XP, ma non è stata in grado di dare all'utente medio validi motivi per passare a Vista .
goldorak
22-04-2008, 18:43
quindi deduco (e lo dico davvero senza polemica, credimi, sono sinceramente interessato perchè ho intenzione di cambiare la 88gtx quest'anno) che GT200, "provenendo" da g80, dovrebbe andare meglio anche di r700?
Io penso che ancora per un po' di tempo i giochi useranno motori basati sul UE 3 o come quello della ID che favoriscono dippiu' la scelta architetturale della schede Nvidia. Ma questa e' una mia impressione non vederci chissa' che'.
cmq secondo me hai ragione, la vera fortuna di Nvidia è anche dovuta a 2 importanti fattori, imho: la diffusione di Vista ben sotto le attese (immagina se le dx10 fossero state compatibili anche con xp, e a questo punto chissà...) e questo non potevano prevederlo
Infatti e' stato un colpo di fortuna per Nvidia il fatto che Vista non abbia soppiantato velocemente Xp come invece era successo nel passaggio da win 98 a win xp 6 anni fa.
il fatto che la maggior parte dei giochi ora e presumibilmente ancora per un bel pò è pensato prima per le consolle (fondamentalmente dx9, anche la xbox), poi per il pc, e forse questo potevano prevederlo (il che spiegherebbe forse anche l'approccio più conservativo rispetto a r600)...
La Nvidia ha tradizionalmente un approccio piu' conservativo nei progetti rispetto alla ATI. E sempre stato cosi', quando i cambiamente tecnologici sono improvvisi e veloci questo favorisce ATI quando invece la transizione e' piu' lunga la scelta conservativa premia dippiu' Nvidia.
p.s.: quanto ai potenziamenti sulla parte "buona" di r600, perchè, + sp e affinamenti vari ti farebbero cmq schifo? :asd:
No di certo, piu' ce ne sono meglio e' (in ottica benchmark :asd:).
Pero' prima di vedere piu' sp di qua, sp di la vorrei vedere un gioco che mette veramente sotto torchio l'architettura R600 e putroppo ancora non l'abbiamo visto. L'unico che avvicina un pochino e' Crysis, ma resta comunque un gioco dx 9.
rumour:
http://www.hardware-infos.com/news.php?news=2008
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
HD4850 :eek: magari 169euro :D
goldorak
22-04-2008, 18:51
Ma sono dati ufficiali quelli ? :stordita:
La RV770 pro e' allettante, 110W sotto sforzo. :eek:
Foglia Morta
22-04-2008, 18:54
Ma sono dati ufficiali quelli ? :stordita:
non sono dati ufficiali
HD4850 :eek: magari 169euro :D
magari atari:sofico:
halduemilauno
22-04-2008, 19:00
rumour:
http://www.hardware-infos.com/news.php?news=2008
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
frequenze chip e shader diverse in stile nvidia anche se non cosi diverse. e 349$ per la 4870...troppi nvidia potrebbe abbassare il prezzo della sua 9800gx2 di 50$.
aspettiamo ancora.
albert75
22-04-2008, 19:03
speriamo :O stavo x comprare gts 512
io l' ho fatto e per ben due volte ho bloccato l' ordine, mi sa che devo cambiare sito:Prrr:
magari atari:sofico:
Ho giusto 250euro su paypal fermi.., sarà x qst volta la corsa con la rossa :sofico:
io l' ho fatto e per ben due volte ho bloccato l' ordine, mi sa che devo cambiare sito:Prrr:
Infatti ora è il momento delicato :O @zzo trovato una xfx Alpha Dog @184euro nuova alla baia con zero acquisti :asd: ancora qualche settimana fa andavano via come il pane e ora………………........ HD4850PRO coming soon :sperem:
appleroof
22-04-2008, 19:10
Io penso che ancora per un po' di tempo i giochi useranno motori basati sul UE 3 o come quello della ID che favoriscono dippiu' la scelta architetturale della schede Nvidia. Ma questa e' una mia impressione non vederci chissa' che'.
Infatti e' stato un colpo di fortuna per Nvidia il fatto che Vista non abbia soppiantato velocemente Xp come invece era successo nel passaggio da win 98 a win xp 6 anni fa.
La Nvidia ha tradizionalmente un approccio piu' conservativo nei progetti rispetto alla ATI. E sempre stato cosi', quando i cambiamente tecnologici sono improvvisi e veloci questo favorisce ATI quando invece la transizione e' piu' lunga la scelta conservativa premia dippiu' Nvidia.
esatto sono d'accordo su tutto, per questo al 90% scommetto ancora su gt200 ma non voglio precludermi nessuna scelta, il contrario sarebbe stupido a dir poco, ovviamente, ma visto ripeto che sono d'accordo e se tanto mi dà tanto....mah, vediamo alla fine dovrò resistere all'ennesimo attacco al mio portafoglio (4870x2 ma anche 4870 sembra molto interessante, viste le spec. appena postate ed il prezzo ventilato, tutt'altro che un particolare...) e aspettare il confronto con GT200 per avere il quadro della situazione....
No di certo, piu' ce ne sono meglio e' (in ottica benchmark :asd:).
anche in ottica longevità direi, ben più importante dei bench che non faccio quasi mai (ma non giudico chi li fà spassionatamente, ci mancherebbe solo questa), come puoi vedere nei vari tread... :)
Pero' prima di vedere piu' sp di qua, sp di la vorrei vedere un gioco che mette veramente sotto torchio l'architettura R600 e putroppo ancora non l'abbiamo visto. L'unico che avvicina un pochino e' Crysis, ma resta comunque un gioco dx 9.
infatti se quello dovesse essere la pietra di paragone per r600.....:stordita:
appleroof
22-04-2008, 19:16
Quando si dice che R600 (e derivati) sono orientati alle DX10 lo si fa tenendo conto dello scarso numero di render back ends che si occupano di una fase dell'applicazione dell'AA, che in DX10 dovrebbe avvenire negli shaders e in DX10.1 deve obbligatoriamente avvenire negli shaders.
Questo, per inciso, spiegerebbe anche perché AC da DX10 a DX10.1, con AA attivo, migliora le sue prestazioni su RV670, non incontrando il muro sui pochi RBE perché l'AA viene applicato negli shader.
E in effetti, se quel che si dice è vero, gli shaders aumenterebbero e gli RBE rimarrebbero fermi al palo, esaltando ulteriormente quella scelta architetturale.
Ma il grosso collo di bottiglia rimangono le TMU, perché le textures vengono comunque filtrate da queste e sono obiettivamente poche. La speranza è che oltre al riequilibrio numerico che non fa male ci sia anche una ottimizzazione delle TMU stesse in modo che oltre che alla brutalità del numero ci sia anche la forza del singolo.
Guarda che l'UE3 è forse il motore più congeniale all'architettura ATi attuale, tant'è che UT3 mi girava a velocità impressionanti anche sulla vecchia 2600XT :>
ok, sapevo la "storia" dell'aa nelle dx10.1, alla fine è tra le più grosse novità di queste, rispetto alle dx10 come le abbiamo viste finora
quindi cmq secondo te questo dovrebbe apportare grossi benefici nei giochi, sia adesso che in quelli a venire....vediamo, ripeto, se riesco a resistere vorrei cmq vedere rv770 a confronto con gt200 prima di decidere, tanto la vga attuale ancora và bene come ho detto più volte
cmq buone info ;)
p.s.: come già giustamente notato, la cosa che mi è balzata subito all'occhio è la frequenza degli sp slegata da quella della gpu, proprio in stile g80.....
ok, sapevo la "storia" dell'aa nelle dx10.1, alla fine è tra le più grosse novità di queste, rispetto alle dx10 come le abbiamo viste finora
quindi cmq secondo te questo dovrebbe apportare grossi benefici nei giochi, sia adesso che in quelli a venire....vediamo, ripeto, se riesco a resistere vorrei cmq vedere rv770 a confronto con gt200 prima di decidere, tanto la vga attuale ancora và bene come ho detto più volte
cmq buone info ;)
quoto bisogna aspettare di paragonare rv770 con gt200 e poi scegliere che fare......
ok, sapevo la "storia" dell'aa nelle dx10.1, alla fine è tra le più grosse novità di queste, rispetto alle dx10 come le abbiamo viste finora
quindi cmq secondo te questo dovrebbe apportare grossi benefici nei giochi, sia adesso che in quelli a venire....vediamo, ripeto, se riesco a resistere vorrei cmq vedere rv770 a confronto con gt200 prima di decidere, tanto la vga attuale ancora và bene come ho detto più volte
cmq buone info ;)
secondo mè cedi non appena esce la nuova scheduzza di ati è da troppo che non cambi scheda video:oink:
quoto bisogna aspettare di paragonare rv770 con gt200 e poi scegliere che fare......
ma se non ce' dx10.1 in gt200 e consumi :rolleyes: :muro:
appleroof
22-04-2008, 19:22
quoto bisogna aspettare di paragonare rv770 con gt200 e poi scegliere che fare......
Vista la scheda che hai non dovresti avere tutta sta gran fretta, quindi hai tutto il tempo per vedere e decidere...
questa è la sacrosanta razionalità (che mi impongo spesso, o mi viene imposta da altre impellenze economiche :D :D )
ma non sò perchè, l'aria di novità vere comincia a farmi prudere le mani :asd:
non vedo l'ora di vedere i primi bench della 4870
secondo mè cedi non appena esce la nuova scheduzza di ati è da troppo che non cambi scheda video:oink:
eccalallà :D :D :D :D
appleroof
22-04-2008, 19:23
ma se non ce' dx10.1 in gt200 e consumi :rolleyes: :muro:
pare invece che gt200 supporti le dx10.1...
secondo mè cedi non appena esce la nuova scheduzza di ati è da troppo che non cambi scheda video:oink:
Cede..cede:D
appleroof
22-04-2008, 19:26
Cede..cede:D
:ciapet: :ciapet: :ciapet:
Immortal
22-04-2008, 20:56
mah..che dite.. con questa 4870 (magari facendo un po' di OC), riuscirò a sentire la differenza con la mia attuale scheda video? monto una ati 9700@ pro (R300)
:ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet:
+Lonewolf+
22-04-2008, 21:04
che news interessanti...ecco che ricomincerò a frequentare il forum:D
quan't è il TDP della mia 2900??
mokaverus
22-04-2008, 21:07
rumour:
http://www.hardware-infos.com/news.php?news=2008
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
se questi rumor fossero veri sarebbe veramente una bella scheda.
Immortal
22-04-2008, 21:12
se questi rumor fossero veri sarebbe veramente una bella scheda.
imho un po' troppo cara la 4870 rispetto alla 4850 gddr5, se i prezzi fossero confermati
mokaverus
22-04-2008, 21:19
imho un po' troppo cara la 4870 rispetto alla 4850 gddr5, se i prezzi fossero confermati
se fosse la top vga a singola gpu no, abbiamo avuto schede molto più costose.
Immortal
22-04-2008, 21:21
se fosse la top vga a singola gpu no, abbiamo avuto schede molto più costose.
si ma il top vga credo che ormai sia solo multi gpu (o magari multi chip) in casa ati/amd... infatti la sigla del chip è RV..questa dovrebbe essere il top della medio alta..vedendo cosa costa ora la 3870 magari se partivano da 300$ sarebbe stata una bella manna dal cielo.. ;)
HD4850 GDDR5 sperando non costi troppo con il cambio $/€
appleroof
22-04-2008, 21:39
imho un po' troppo cara la 4870 rispetto alla 4850 gddr5, se i prezzi fossero confermati
è proprio il prezzo alto che mi fà sperare in buone prestazioni :read:
purtroppo per noi utenti è così che va, almeno finchè qualche onlus comincia a produrre pezzi hw :D ;)
Athlon 64 3000+
22-04-2008, 21:55
Io sono molto curioso di sapere come andrà RV770XT alias HD 4870 e se ATI avrà reintegrato nelle rop's il circuito di resolve.
goldorak
22-04-2008, 21:57
Io sono molto curioso di sapere come andrà RV770XT alias HD 4870 e se ATI avrà reintegrato nelle rop's il circuito di resolve.
Questo non credo proprio e poi comunque non era il problema delle prestazioni deludenti di R600.
Mi incuriosisce il prezzo di lancio della hd4870, pensavo costasse almeno 50$ in meno.
Vuol dire che sanno già di avere una scheda più veloce dell'hd 3870x2.
Immortal
22-04-2008, 23:12
è proprio il prezzo alto che mi fà sperare in buone prestazioni :read:
purtroppo per noi utenti è così che va, almeno finchè qualche onlus comincia a produrre pezzi hw :D ;)
si ma allora anche la 4850, che è la stessa 4870 downclockata (e che credo costi produrla come la 4870), dovrebbe costare di più...a meno che la differenza non sia dovuta al fatto che la prima monti 1gb ddr5, la seconda "solo" 512...
Infatti sono interessanti gli 1GB di ram visto che la HD3870 in quei giochi dove si richiedevano + di 512MB era una tragedia, battuta anche dalla 8800GTS 640MB..... e sarebbe notevole la prospettiva doppia HD4870 e 2GB di ram.... o sarebbe ancora meglio 1GB ma con utilizzo svincolato per ogni GPU....
<^MORFEO^>
23-04-2008, 00:07
Ma 1GB di RAM per che risoluzioni serve??? 1920?
A 1680x1050 basteranno i fatidici 512MB?
Ma 1GB di RAM per che risoluzioni serve??? 1920?
A 1680x1050 basteranno i fatidici 512MB?
Oggi si, un domani non credo...
Come pensavo, il 3DMark06 presunto di RV770 postato qualche pagina fa era un fake. ;)
http://www.nordichardware.com/news,7659.html
albert75
23-04-2008, 04:06
al cambio la 4870 dovrebbe venire 170€:D e la 4870 220€:D ...al cambio...poi chissa a quanto le sparano....se la 4870 a quel prezzo sparasse 15.000 punti al 3dmark06 non so se ne varrebbe la pena...ovviamente per chi gia' possiede una 8800
albert75
23-04-2008, 04:10
mah..che dite.. con questa 4870 (magari facendo un po' di OC), riuscirò a sentire la differenza con la mia attuale scheda video? monto una ati 9700@ pro (R300)
:ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet:
diciamo che se montassi un frullatore gia' la sentiresti la differenza:Prrr:
scherzo la 9700 e' stata la migliore scheda del suo periodo restando in vetta per molto tempo.....diciamo che la 4870 dovrebbe essere almeno 8/10 volte piu' potente.la differenza la sentiresti..per non parlare poi degli effetti supportati da quest'ultima....
HackaB321
23-04-2008, 07:50
Cosa dovevano potenziare visto che l'architetura R600 non e' mai stata sfruttata come si deve ?
Invece hanno fatto benissimo a riequilibrare l'architettura perche' come dimostra il mercato siamo ancora ben lontani dall'avere giochi dx 10/10.1 NATIVI quindi senza controparte dx 9 e pertanto che girano solo ed esclusivamente su Vista.
La funzionalità più interessante delle Dx10 di cui ancora non si è vista la traccia nei giochi sono i geometry shaders. Il loro uso consentirebbe effetti grafici simili a quelli ottenibili oggi con effetti di per pixel lightening + bump/normal mapping ma ad un "costo" computazionale molto inferiore (anche di texture fillrate) e senza l'effetto copia-incolla che si vede spesso in alcuni oggetti (es alberi tutti uguali). In tutti i test sintetici sui geometry shaders R600 prevale nettamente su G80.
rumour:
http://www.hardware-infos.com/news.php?news=2008
]
Quel dettaglio mi fa dubitare dell'attendibilità della news, poi tutto è possibile ma non se ne era mai sentito parlare e mi sembra strano che un progetto che è comunque di semplice potenziamento dell'architettura precedente possa avere una differenza del genere.
Vedremo...
Anch'io sono scettico riguardo a frequenze maggiorate per gli shaders. In R600 non avrebbe avuto alcun senso (semmai erano le TMU e le Rops che avrebbero avuto bisogno di frequenze maggiori dato che il collo di bottiglia erano loro). Con una rapporto ALU:TEX di 3:1 forse la cosa acquista senso anche se si tratta di una modifica non certo facile da implementare (specie se la base di partenza della struttura di RV770 sarà, come sembra, RV670).
quan't è il TDP della mia 2900??
215w
diciamo che se montassi un frullatore gia' la sentiresti la differenza:Prrr:
:banned: per mancanza di rispetto verso sua maestà R300:D
scherzo la 9700 e' stata la migliore scheda del suo periodo restando in vetta per molto tempo.....
Bravo ora mi piaci:D
Immortal
23-04-2008, 08:57
diciamo che se montassi un frullatore gia' la sentiresti la differenza:Prrr:
scherzo la 9700 e' stata la migliore scheda del suo periodo restando in vetta per molto tempo.....diciamo che la 4870 dovrebbe essere almeno 8/10 volte piu' potente.la differenza la sentiresti..per non parlare poi degli effetti supportati da quest'ultima....
:sofico: :sofico: :sofico:
ma mi pare si capisse già da subito che stessi scherzando (anche se ce l'ho veramente e gioco quotidianamente a ut2004 o cod4 a 1680x1050 :Prrr: )
xò paragonare il mio cucciolo a un frullatore... :banned: :banned: :Prrr: :Prrr:
albert75
23-04-2008, 09:18
veramente e' stata la migliore scheda...stavo scherzando, ma vedere che oggi ci sono schede che vanno 10 volte in piu:eek:
Immortal
23-04-2008, 09:34
veramente e' stata la migliore scheda...stavo scherzando, ma vedere che oggi ci sono schede che vanno 10 volte in piu:eek:
e pensare che ci sono schede di fascia bassa che ancora devono arrivarci a tale potenza... :muro: e poi lo chiamano progresso... ho visto schede su alcuni portatili che davano punteggi ridicoli...era tanto se non scattava il menù start quando lo aprivi..
HackaB321
23-04-2008, 09:56
Ci sono giunte all'orecchio alcune interessanti indiscrezioni su R700, chip che dovrebbe dare vita alla nuova fascia alta di schede grafiche ATI. L'azienda dovrebbe presentarlo la settimana antecedente al Computex, quindi molto probabilmente sul finire di maggio dato che il Computex si terrà dal 3 al 7 giugno. La scheda integrerà 1 GB di memoria GDDR5 e il sistema di raffreddamento sarà dual slot, per permettere una migliore dissipazione del calore. Per il momento abbiamo queste informazioni, ma è probabile - se non scontanto - che il processo produttivo sarà ancora quello a 55 nanometri, utilizzato per l'attuale gamma HD 3000 e per l'attesa HD 4800 (RV770), che arriverà presumibilmente a maggio.
http://www.tomshw.it/news.php?newsid=13830
Quindi RV770 nel corso di maggio, R700 a fine maggio (una settimana prima del Computex)
Immortal
23-04-2008, 10:18
Ci sono giunte all'orecchio alcune interessanti indiscrezioni su R700, chip che dovrebbe dare vita alla nuova fascia alta di schede grafiche ATI. L'azienda dovrebbe presentarlo la settimana antecedente al Computex, quindi molto probabilmente sul finire di maggio dato che il Computex si terrà dal 3 al 7 giugno. La scheda integrerà 1 GB di memoria GDDR5 e il sistema di raffreddamento sarà dual slot, per permettere una migliore dissipazione del calore. Per il momento abbiamo queste informazioni, ma è probabile - se non scontanto - che il processo produttivo sarà ancora quello a 55 nanometri, utilizzato per l'attuale gamma HD 3000 e per l'attesa HD 4800 (RV770), che arriverà presumibilmente a maggio.
http://www.tomshw.it/news.php?newsid=13830
Quindi RV770 nel corso di maggio, R700 a fine maggio (una settimana prima del Computex)
ma sarà multi chip o multi gpu?
Ci sono giunte all'orecchio alcune interessanti indiscrezioni su R700, chip che dovrebbe dare vita alla nuova fascia alta di schede grafiche ATI. L'azienda dovrebbe presentarlo la settimana antecedente al Computex, quindi molto probabilmente sul finire di maggio dato che il Computex si terrà dal 3 al 7 giugno. La scheda integrerà 1 GB di memoria GDDR5 e il sistema di raffreddamento sarà dual slot, per permettere una migliore dissipazione del calore. Per il momento abbiamo queste informazioni, ma è probabile - se non scontanto - che il processo produttivo sarà ancora quello a 55 nanometri, utilizzato per l'attuale gamma HD 3000 e per l'attesa HD 4800 (RV770), che arriverà presumibilmente a maggio.
http://www.tomshw.it/news.php?newsid=13830
Quindi RV770 nel corso di maggio, R700 a fine maggio (una settimana prima del Computex)
E aggiungerei RV740 (fascia media) alla fine del Q3, secondo quanto dice un moderatore di Chiphell. Secondo lo stesso RV740 potrebbe addirittura essere prodotta a 45nm (ma a quel punto il lancio potrebbe slittare, imho), e dovrebbe avere 320SP e 24TMU, vs gli 800SP 32TMU di cui parlano loro nel loro forum. :boh:
4850 gddr5 spero non deluda cosi cambio la mia ottima x1950pro che per ora a 1440x900 regge bene anche se con qualche incertezza :ciapet: :ciapet: :ciapet:
:eek: :mbe:
ma ancora con ste schede R700, R740,45 uhauhauhauhauhauha
uhauhauhauhauhauhauhauhauhauhauhaauhuhaauh
Ray Tracing (http://www.tomshw.it/graphic.php?guide=20080325)
è questo che sta per arrivare ! altro che 10000GTX e R900
UHAUHAUHAAUHAUHAUHAUHAUHAUHUHAUHAUHAUHAUH
commento generale:
..."non si spamma"
..."ma cosa centra con il topic ?"
..."eccone un altro"
..."eh ma ora non ce n'è di queste schede.."
e c'havete ragione... ma oggi c'è il sole e io amo il Ray Tracing :D :D :D
..RASTERING PUAAAA' ... è storia... grande Intel !!
ps.. io mi bannerei almeno per 15gg, me lo sono meritato infondo uhauhauhauhaauhauhauhauhuhauha
<^MORFEO^>
23-04-2008, 11:36
:eek: :mbe:
ma ancora con ste schede R700, R740,45 uhauhauhauhauhauha
uhauhauhauhauhauhauhauhauhauhauhaauhuhaauh
Ray Tracing (http://www.tomshw.it/graphic.php?guide=20080325)
è questo che sta per arrivare ! altro che 10000GTX e R900
UHAUHAUHAAUHAUHAUHAUHAUHAUHUHAUHAUHAUHAUH
commento generale:
..."non si spamma"
..."ma cosa centra con il topic ?"
..."eccone un altro"
..."eh ma ora non ce n'è di queste schede.."
e c'havete ragione... ma oggi c'è il sole e io amo il Ray Tracing :D :D :D
..RASTERING PUAAAA' ... è storia... grande Intel !!
ps.. io mi bannerei almeno per 15gg, me lo sono meritato infondo uhauhauhauhaauhauhauhauhuhauha
No comment! :fagiano:
Foglia Morta
23-04-2008, 12:09
l'ultima di fudzilla...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6994&Itemid=1
Despite the claims
A German website posted an interesting article with a lot of RV770XT and PRO specs but we can now tell you that most of the stuff you can see here is unfortunately not the real deal.
Just as it was the case with RV670 there will be two SKUs RV770XT and RV770PRO. as we said many times before two RV770XT will make a high end R700 dual chip card.
We will also remind you that RV770XT supports GDDR5 memory and more important it comes with 512bit memory bus. With GDDR5 memory that is one of the key cards that ATI plays and GDDR5 will get the memory to much higher speeds than the cureent 2200MHz and we beleive that 2500MHz GDDR5 is a realistic number.
Once you match this with 512bit memory controller you end up with signigicantly more bandwith than with GDDR4 and GDDR3 chips.
<^MORFEO^>
23-04-2008, 12:22
-.-
Per sfruttare a dovere la banda di 512bit accoppiati con ram a 4GHz dovrebbero fare un chip tanto potente che dubiterei molto potrebbe costare meno di 500$.
Direi di bollarlo come sicura cazzata :>
Non ho ancora capito da dove saltano fuori queste frequenze così esagerate... :mbe:
Si parla sempre di 2,2-2,5GHz... :fagiano:
TheDarkAngel
23-04-2008, 12:49
Sono DDR :>
appunto 2.5ghz/2 = 1250mhz :asd:
... ancora un mesetto e sapremo la verità :O
Andando ot e leggendo le caxxate qui sparate direi che useranno XDDR a 8Ghz
dove X sta per seXy DDR cosi amd attira più acquirenti e frega nvidia :oink: :Prrr:
TheDarkAngel
23-04-2008, 13:06
Quando si parla di GDDR5 a 2.2GHz secondo te è possibile che siano a 2.2 DDR esattamente come fossero GDDR4 o addirittura GDDR3 tiratissime?
GDDR5 2.2GHz => 4.4GHz
direi proprio di si, non si è mai visto un tale salto di prestazioni
ps.. io mi bannerei almeno per 15gg, me lo sono meritato infondo uhauhauhauhaauhauhauhauhuhauha
mazza! così tanto? sei peggio di FreeMan :asd: .... :stordita:
cmq richiesta accolta :O
>bYeZ<
Quando si parla di GDDR5 a 2.2GHz secondo te è possibile che siano a 2.2 DDR esattamente come fossero GDDR4 o addirittura GDDR3 tiratissime?
GDDR5 2.2GHz => 4.4GHz
secondo invece non sarà cosi,,,anche xè pensateci bene, le gddr3 hanno un limite di 1000mhz e quindi un 2000mhz totali, le gddr4 hanno spostato sto limite sui 2400-2500mhz, mediamente si salta cosi di un 200-400mhz, non di un 2ghz a botta.
le prime gddr4 lavoravano a 2000mhz come le ultime gddr3, ergo ecco qui che una gddr5 lavori a 2200mhz come un ultima gddr4, solo che una gddr4 a 2.2ghz sta quasi al limite, una gddr5 invece sta agli inizi e si presume di avere altri 400-600mhz da dare.
evidentemente la scelta delle gddr5 è caduta per 2 motivi, 1 avere prima tecnologico visto che nvidia sta ancora ferma alle gddr3.
2 ovviamente per questione di ordini a samsung conviene prendere gddr5 e piazzarle ovunque.
immagino a pezzo la gddr5 costi maggiore di un gddr4 ma per ordini ingenti questa differenza cada, quindi magari invece di fare un ordine di 1000000 unita di gddr5 per le hd4870 e 1000000 gddr4 per le hd4850, evidentemente hanno valutato ovviamente insieme anche ai prezzi e sconti che gli fa samsung che conveniva un unico ordine da 2000000 pezzi di gddr5 e metterle ovunque.
(ovviamente i numeri da me citati non hanno riscontro pratico era solo per far un esempio sul funzionamento degli ordini dei componenti informatici)
Kharonte85
23-04-2008, 13:45
mazza! così tanto? sei peggio di FreeMan :asd: .... :stordita:
cmq richiesta accolta :O
>bYeZ<
:sbonk:
appunto 2.5ghz/2 = 1250mhz :asd:
Esatto...
Quando si parla di GDDR5 a 2.2GHz secondo te è possibile che siano a 2.2 DDR esattamente come fossero GDDR4 o addirittura GDDR3 tiratissime?
GDDR5 2.2GHz => 4.4GHz
Direi proprio di si', con un salto del genere altro che problemi di consumi...:asd:
leoneazzurro
23-04-2008, 13:56
Le GDDR5 partono da 1.8 GHz (reali) - 3.6 GHz (effettivi grazie al DDR)
gianni1879
23-04-2008, 13:57
Quando si parla di GDDR5 a 2.2GHz secondo te è possibile che siano a 2.2 DDR esattamente come fossero GDDR4 o addirittura GDDR3 tiratissime?
GDDR5 2.2GHz => 4.4GHz
non penso nemmeno io che abbiano 4.4GHz effettivi il salto tra le gddr4 sarebbe troppo elevato, più probabile che all'inizio partino da frequenze di 2.5GHz per poi magari arrivare ai 3GHz
Kharonte85
23-04-2008, 14:02
Le GDDR5 partono da 1.8 GHz (reali) - 3.6 GHz (effettivi grazie al DDR)
Quindi pensi che sia irrealistico parlare dei 4.4ghz o no?
appleroof
23-04-2008, 14:03
si ma allora anche la 4850, che è la stessa 4870 downclockata (e che credo costi produrla come la 4870), dovrebbe costare di più...a meno che la differenza non sia dovuta al fatto che la prima monti 1gb ddr5, la seconda "solo" 512...
può essere, visto che sicuramente avranno un prezzo maggiore delle ddr3, se non altro perchè sono al debutto...
cmq non sono le ddr5 che mi affascinano: come dico spesso, esattamente per le ram di sistema, le maggiori frequenze vengono ampiamente bilanciate (in peggio) dalle maggiori latenze, almeno all'inizio della produzione (mesi), a stò punto sarebbero di gran lunga meglio delle ddr3 a latenze più basse (così come per le ram di sistema oggi accade tra le migliori ddr2 e le ddr3)
Spero che detto da te possa essere accettato... tanta fatica... -.-
:friend: :D
HackaB321
23-04-2008, 14:05
Ma anche no. Samsung produce GDDR4 fino a 1600MHz, che a scanso di equivoci sono 3200MHz DDR.
In compenso ormai le specifiche delle GDDR5 sono abbondantemente presenti in rete e quindi è facilissimo verificare. Per esempio:
http://www.dinoxpc.com/News/news.asp?ID_News=13483&What=news&tt=Hynix+introduce+il+primo+modulo+1Gb+GDDR5+DRAM
20GB/s su interfaccia a 32bit significano 5GHz, che in realtà sono, come si è detto, 2.5GHz reali e 5GHz risultanti perché DDR.
Tutto corretto.Per chi volesse approfondire:
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
leoneazzurro
23-04-2008, 14:09
Quindi pensi che sia irrealistico parlare dei 4.4ghz o no?
Assolutamente no (se è intesa come frequenza efficace e non reale).
Come detto, il range previsto per le frequenze delle memorie GDDR5 è di
1.8 GHZ reali (3.6 Hz efficaci) - 3 GHZ reali (6 GHz efficaci). In più le GDDR5 hanno funzioni avanzate di power management.
goldorak
23-04-2008, 14:10
non penso nemmeno io che abbiano 4.4GHz effettivi il salto tra le gddr4 sarebbe troppo elevato, più probabile che all'inizio partino da frequenze di 2.5GHz per poi magari arrivare ai 3GHz
E questa sarebbe una giusitificazione ? :p
Ma da quando in qua i salti prestazionali devono essere piccoli ?
Guardate l'esempio del passaggio dell'architetture core a core 2 duo e ditemi che l'incremento prestazionale era nella norma. :Perfido:
Kharonte85
23-04-2008, 14:12
ah ok...quindi vedremo davvero memorie a 4ghz almeno inizialmente...:fagiano:
Ma a me sembra un salto pazzesco...io continuo a credere che x le gddr5 sia troppo presto e che vedremo montate le solite gddr4 (magari piu' tirate)...finche' non vedo non credo :O :D
leoneazzurro
23-04-2008, 14:12
può essere, visto che sicuramente avranno un prezzo maggiore delle ddr3, se non altro perchè sono al debutto...
cmq non sono le ddr5 che mi affascinano: come dico spesso, esattamente per le ram di sistema, le maggiori frequenze vengono ampiamente bilanciate (in peggio) dalle maggiori latenze, almeno all'inizio della produzione (mesi), a stò punto sarebbero di gran lunga meglio delle ddr3 a latenze più basse (così come per le ram di sistema oggi accade tra le migliori ddr2 e le ddr3)
Questo è vero ma nel caso delle GPU che lavorano più su degli stream di dati si può mascherare di più la maggiore latenza delle memorie rispetto al caso delle CPU.
Kharonte85
23-04-2008, 14:14
E questa sarebbe una giusitificazione ? :p
Ma da quando in qua i salti prestazionali devono essere piccoli ?
Guardate l'esempio del passaggio dell'architetture core a core 2 duo e ditemi che l'incremento prestazionale era nella norma. :Perfido:
non c'entra nulla...e comunque in questo caso non si parlerebbe di un salto ma di un raddoppio...:stordita:
appleroof
23-04-2008, 14:15
Questo è vero ma nel caso delle GPU che lavorano più su degli stream di dati si può mascherare di più la maggiore latenza delle memorie rispetto al caso delle CPU.
ok, resta il fatto che subito magari sarebbero preferibili delle ddr3 a latenze più basse, o delle ddr4 al limite (sempre affinate), credo che (sicuramente nel caso delle ddr3) costerebberop pure meno
insomma, minima spesa massima resa...
domanda: facevi riferimento alle funzioni di power management delle gddr5, sono esclusive di queste oppure anche ddr3 e ddr4 potrebbero implementarle (magari "più semplici")?
gianni1879
23-04-2008, 14:15
E questa sarebbe una giusitificazione ? :p
Ma da quando in qua i salti prestazionali devono essere piccoli ?
Guardate l'esempio del passaggio dell'architetture core a core 2 duo e ditemi che l'incremento prestazionale era nella norma. :Perfido:
non centra a me i 4.4GHz sembravano troppi cmq mi son andato a leggere adesso le specifiche, quindi può essere possibile una tale frequenza
Kharonte85
23-04-2008, 14:16
I rumor concordano tutti sull'intorno dei 4GHz. In realtà mi sembrava troppo presto per le GDDR5, quindi non credo andranno così in alto come 2.2GHz, 2GHz sembra credibile, di più direi di no, possibile anche leggermente meno, è comunque una banda mostruosa, e sono pronto a scommettere che se veramente utilizzeranno da ora le GDDR5 molto difficilmente cambieranno bus nelle prossime due generazioni di schede (visto il margine di incremento di frequenza sulle ram)
Abbiamo postato in contemporanea...rispondevo a leone...comunque stando cosi' le cose concordo, certamente il bus rimarrebbe a 256bit anche in futuro...
mircocatta
23-04-2008, 14:19
L'ultima volta Intel ha rivoluzionato il mondo della grafica con le mirabolanti doti dell' i740: una cagata disumana.
Prima di parlare di mirabolanti innovazioni che allo stato attuale non esistono nemmeno aspetterei...
E poi spiegami che ci faccio con il Larrabee quando con solo un chip di bridge posso far fare tutti i calcoli al mio cervello e vedere il risultato, interattivo, senza avere nemmeno le latenze della retina e del nervo ottico...
a me sembra buona questa tecnologia se realmente semplifica e migliora le cose...
ma questo ray tracing sarà in futuro implementabile anche da parte di ati e nvidia? altrimenti col cavolo che verrà sfruttato..i programmatori non penso faccino giochi per directx10 openg ray tracing ecc ecc:confused:
ma poi non ho capito, è una tecnologia che sfrutta SOLO i processori e zero la gpu?? come disse tempo fa intel
halduemilauno
23-04-2008, 14:19
a proposito di ram ma perchè questi valori...
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
avevate pensato di non raddoppiarli?
:boh:
appleroof
23-04-2008, 14:21
Sono funzioni create ex-novo per le GDDR5. Sul sito Qimonda c'è un whitepaper che non può dirsi esaustivo ma qualche idea la da abbastanza precisa. Banalizzando funziona similmente al powerplay della GPU, si prospettano consumi in idle veramente irrisori :>
ok grazie ;)
a proposito di ram ma perchè questi valori...
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
avevate pensato di non raddoppiarli?
:boh:
giusto nessuno se ne accorto.....
Foglia Morta
23-04-2008, 14:22
a proposito di ram ma perchè questi valori...
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
avevate pensato di non raddoppiarli?
:boh:
praticamente c'è già scritto nella tabella se guardi la banda passante... se ne accorgerebbe anche un niubbo
Kharonte85
23-04-2008, 14:23
a proposito di ram ma perchè questi valori...
http://img187.imageshack.us/img187/5397/germanrv770cy5.png
avevate pensato di non raddoppiarli?
:boh:
In effetti non hai tutti i torti...:asd:
Certo che quel Release: Mai 2008 fa un po' sorridere :D
appleroof
23-04-2008, 14:24
praticamente c'è già scritto nella tabella se guardi la banda passante... se ne accorgerebbe anche un niubbo
azz sono un niubbo :sob:
In effetti non hai tutti i torti...:asd:
Certo che quel Release: Mai 2008 fa un po' sorridere :D
:asd:
appleroof
23-04-2008, 14:26
Scusate l'OT, avevate visto Ruby al CeBit?
bè almeno qualche "atista" ha materiale migliore sul quale fare "fantasie" rispetto a dei pezzi di plastica :asd: :asd:
scusate, un pò da portuale ma non ho resistito :D :D
Kharonte85
23-04-2008, 14:27
Scusate l'OT, avevate visto Ruby al CeBit?
Un ciassomiglia pegnente...infatti è ancora meglio :oink: :D
Tidus.hw
23-04-2008, 14:27
certo che fa un certo effetto vedere a metà del 2008 vga di fascia alta con lo stesso bus delle gloriose 9700 :fagiano:
HackaB321
23-04-2008, 14:30
cmq non sono le ddr5 che mi affascinano: come dico spesso, esattamente per le ram di sistema, le maggiori frequenze vengono ampiamente bilanciate (in peggio) dalle maggiori latenze, almeno all'inizio della produzione (mesi), a stò punto sarebbero di gran lunga meglio delle ddr3 a latenze più basse (così come per le ram di sistema oggi accade tra le migliori ddr2 e le ddr3)
:friend: :D
Il problema delle alte latenze è più che compensato dalle frequenze che queste memorie possono raggiungere. Certo poi è vero che se paragoniamo un bus a 512bit+GDDR3 a 2GHz con un bus a 256bit+GDDR5 a 4Ghz anche se la banda è la stessa in entrambi i casi (128Gb/s) in realtà la prima soluzione è (leggermente) preferibile come pure performance proprio a causa delle alte latenze di queste memorie. Però ripeto il problema è trascurabile grazie alle frequenze che raggiungono.
Foglia Morta
23-04-2008, 14:35
azz sono un niubbo :sob:
se c'è scritto banda passante 127GB e 256bit di bus allora la memoria va a 1985Mhz * 2 . Un giorno imparerai ;)
Kharonte85
23-04-2008, 14:38
azz sono un niubbo :sob:
non dire cosi' :friend: basta guardare la Speicherbandbreite :O :D che infatti sarebbe troppo grossa senza il raddoppio della Speichertakt :sofico:
goldorak
23-04-2008, 14:38
certo che fa un certo effetto vedere a metà del 2008 vga di fascia alta con lo stesso bus delle gloriose 9700 :fagiano:
Certo che fa un certo effetto vedere la frequenze della ram aumentata di un ordine di grandezza dal tempo delle 9700. :p
supercomputer1
23-04-2008, 14:39
http://www.samsung.com/global/business/semiconductor/newsView.do?news_id=879
Samples of Samsung's new GDDR5 chip have been delivered to major graphic processor companies last month and mass production is expected in the first half of 2007.
Samsung expects that GDDR5 memory chips will become the de facto standard in the top performing segment of the market by capturing more than 50 percent of the high-end PC graphics market by 2010.
Campioni delle gddr5 sono state spedite alle maggiori compagnie produttori di
processori l'ultimo mese e la produzione di massa si aspetta a meta' del 2007
samung si aspetta che le gddr5 divntino uno standard di fatto nel segmento alto del mercato catturando piu del 50% del mercato fascia alta delle schede grafiche intorno al 2010
Fonte superaffidabilissimissima e' propio samsung a parlare :read:
supercomputer1
23-04-2008, 14:41
Ti prego ratatosk non mandare piu immagini di esemplari di femmine che mi sto eccitando come uno stallone puro sangue :help:
Kharonte85
23-04-2008, 14:47
Ti prego ratatosk non mandare piu immagini di esemplari di femmine che mi sto eccitando come uno stallone puro sangue :help:
:sbonk:
http://www.samsung.com/global/business/semiconductor/newsView.do?news_id=879
Samples of Samsung's new GDDR5 chip have been delivered to major graphic processor companies last month and mass production is expected in the first half of 2007.
Samsung expects that GDDR5 memory chips will become the de facto standard in the top performing segment of the market by capturing more than 50 percent of the high-end PC graphics market by 2010.
Campioni delle gddr5 sono state spedite alle maggiori compagnie produttori di
processori l'ultimo mese e la produzione di massa si aspetta a meta' del 2007
samung si aspetta che le gddr5 divntino uno standard di fatto nel segmento alto del mercato catturando piu del 50% del mercato fascia alta delle schede grafiche intorno al 2010
Fonte superaffidabilissimissima e' propio samsung a parlare :read:
San Jose, U.S.A on Dec 02, 2007
Un filino :old: ma solo un filo eh...:asd:
appleroof
23-04-2008, 14:51
se c'è scritto banda passante 127GB e 256bit di bus allora la memoria va a 1985Mhz * 2 . Un giorno imparerai ;)
mi impegno, promesso ;)
anche se i niubbi mi stanno più simpatici dei maestri
Il problema delle alte latenze è più che compensato dalle frequenze che queste memorie possono raggiungere. Certo poi è vero che se paragoniamo un bus a 512bit+GDDR3 a 2GHz con un bus a 256bit+GDDR5 a 4Ghz anche se la banda è la stessa in entrambi i casi (128Gb/s) in realtà la prima soluzione è (leggermente) preferibile come pure performance proprio a causa delle alte latenze di queste memorie. Però ripeto il problema è trascurabile grazie alle frequenze che raggiungono.
ok, mi aveva già "soddisfatto" la risposta di leoneazzurro e cmq ci siamo capiti, credo, insomma nelle vga "contano" di meno le latenze riepstto al resto del sistema
resta il fatto che se potessi avere 50/75 euri in meno di spesa, migliori prestazioni subito (anche se di poco/pochissimo, nel caso specifico delle v-ram, come abbiamo assodato) e magari aspettare che le ddr5 abbiano raggiunto costi/benefici molto più interessanti sarei più contento, come credo tutti, ma il marketing come al solito ci mette lo zampino....
abbiamo visto che fine hanno fatto le gddr4, per fare un esempio...
postilla necessaria, di questi tempi: stessa identica cosa avrei detto se le ddr5 avessero debuttato ora su Nvidia
non dire cosi' :friend: basta guardare la Speicherbandbreite :O :D che infatti sarebbe troppo grossa senza il raddoppio della Speichertakt :sofico:
:D :D
cmq dal tedesco al dialetto taiwanese almeno un minimo di progresso si è fatto...:D :D
gianni1879
23-04-2008, 14:54
cmq dal tedesco al dialetto taiwanese almeno un minimo di progresso si è fatto...:D :D
quì se non si capiscono almeno 5 lingue (Cinese/Taiwanese/Tedesco/Russo/Inglese) è tagliato fuori :D
appleroof
23-04-2008, 14:58
quì se non si capiscono almeno 5 lingue (Cinese/Taiwanese/Tedesco/Russo/Inglese) è tagliato fuori :D
infatti :asd: :asd:
Immortal
23-04-2008, 15:02
certo che fa un certo effetto vedere a metà del 2008 vga di fascia alta con lo stesso bus delle gloriose 9700 :fagiano:
segno che ati ha sempre avuto uno sguardo verso il futuro :winner: :winner:
Immortal
23-04-2008, 15:04
Scusate l'OT, avevate visto Ruby al CeBit?
http://i21.photobucket.com/albums/b299/Genocide737/girls042.jpg
:sbavvv: :sbavvv: :sbavvv: :sbavvv: :sbav: :sbav: :sbav: :sbav: :sbav:
la vogliooo....ha una gemella da mettere in crossfire?? :ave: :ave: :ave:
basta..la smetto con le stronzate..:ciapet:
Kharonte85
23-04-2008, 15:10
segno che ati ha sempre avuto uno sguardo verso il futuro :winner: :winner:
Nella speranza pero' che controlli la strada che si appresta a percorrere e che non inciampi sui sassi come ha fatto con R600...non basta avere lo sguardo lungimirante per mettersi al sicuro, perche' se guardi al futuro ma lo fai dalla parte sbagliata sono caxxi :stordita:
Immortal
23-04-2008, 15:14
Nella speranza pero' che controlli la strada che si appresta a percorrere e che non inciampi sui sassi come ha fatto con R600...non basta avere lo sguardo lungimirante per mettersi al sicuro, perche' se guardi al futuro ma lo fai dalla parte sbagliata sono caxxi :stordita:
si si appunto..la mia era sono una cosa detta più per sorridere che per essere realisti.. anche se ati si è già mostrata "pronta" (con r600 appunto) a buttare fuori un bus da 512bit, mentre la concorrenza si è fermata a 384...come detto qualche post fa..è solo una questione di filosofie diverse..
Kharonte85
23-04-2008, 15:17
si si appunto..la mia era sono una cosa detta più per sorridere che per essere realisti.. anche se ati si è già mostrata "pronta" (con r600 appunto) a buttare fuori un bus da 512bit, mentre la concorrenza si è fermata a 384...come detto qualche post fa..è solo una questione di filosofie diverse..
Non mi sembra un esempio felicissimo...anzi si puo' dire che è proprio un esempio dove la lungimiranza non ha per nulla pagato...tanto è vero che la stessa ATI sembra (ormai è quasi certo) voler tornare ad adottare il bus a 256bit anche in queste prossime schede...e questo è chiaramente il risultato di una riflessione interna o perlomeno di un bilancio fra i costi/benefici ecc...:)
HackaB321
23-04-2008, 15:29
Non mi sembra un esempio felicissimo...anzi si puo' dire che è proprio un esempio dove la lungimiranza non ha per nulla pagato...tanto è vero che la stessa ATI sembra (ormai è quasi certo) voler tornare ad adottare il bus a 256bit anche in queste prossime schede...e questo è chiaramente il risultato di una riflessione interna o perlomeno di un bilancio fra i costi/benefici ecc...:)
Più che quasi certo: Fuad ha detto a 512bit....:D
Raga non so cosa fare :stordita: i prezzi della GTS g92 sono calati si trova di gia a 180euro :O che faccio aspetto la HD4850 o mi butto sulla GTS..
Kharonte85
23-04-2008, 15:34
Edit: Doppio...scusate...
è che ho problemi di linea...[non che sto ingrassando eh :Prrr: ]
Kharonte85
23-04-2008, 15:38
ok, mi aveva già "soddisfatto" la risposta di leoneazzurro e cmq ci siamo capiti, credo, insomma nelle vga "contano" di meno le latenze riepstto al resto del sistema
resta il fatto che se potessi avere 50/75 euri in meno di spesa, migliori prestazioni subito (anche se di poco/pochissimo, nel caso specifico delle v-ram, come abbiamo assodato) e magari aspettare che le ddr5 abbiano raggiunto costi/benefici molto più interessanti sarei più contento, come credo tutti, ma il marketing come al solito ci mette lo zampino....
abbiamo visto che fine hanno fatto le gddr4, per fare un esempio...
postilla necessaria, di questi tempi: stessa identica cosa avrei detto se le ddr5 avessero debuttato ora su Nvidia
Aprendo una parentesi sulla "naturale risposta" a r700 che sara' gt200 (perche' l'avversario naturale sara' il g92b a 55nm)...pare che nvidia, se confermate le ultime indiscrezioni presentera' una evoluzione dell'architettura g80 con 192SP e molto probabilmente bus a 512bit, cosa che le consentirebbe di fare affidamento ancora una volta sulle gddr3...
Oh poi magari ci fa la sorpresa e ridivide gli Shader... :O :asd:
Più che quasi certo: Fuad ha detto a 512bit....:D
Certo...un' ulteriore ipotesi a favore dei 256bit :O ...:asd:
Scusate l'OT, avevate visto Ruby al CeBit?
http://i21.photobucket.com/albums/b299/Genocide737/girls042.jpg
La prossima VGA è cosi :eek: la compro di sicuro :sofico: anche se non mi fa 30frame con crysis ... vado io in crisi con sta scheda e faccio i 200frame :angel: :asd:
Kharonte85
23-04-2008, 15:43
Raga non so cosa fare :stordita: i prezzi della GTS g92 sono calati si trova di gia a 180euro :O che faccio aspetto la HD4850 o mi butto sulla GTS..
un'altro a cui servirebbe:
http://img294.imageshack.us/img294/5990/manoconsferaqy2.gif
:asd:
L'unica risposta sensata alla tua domanda è :boh:
appleroof
23-04-2008, 15:44
Aprendo una parentesi sulla "naturale risposta" a r700 che sara' gt200 (perche' l'avversario naturale sara' il g92b a 55nm)...pare che nvidia, se confermate le ultime indiscrezioni presentera' una evoluzione dell'architettura g80 con 192SP e molto probabilmente bus a 512bit, cosa che le consentirebbe di fare affidamento ancora una volta sulle gddr3...
Oh poi magari ci fa la sorpresa e ridivide gli Shader... :O :asd:
Appunto...un' ulteriore ipotesi a favore dei 256bit :O ...:asd:
si si, figurati se non lo so :D :D :sofico:
infatti aspetto innanzitutto di vedere la 4870 in azione (e la x2 se ci sarà) e se resisto (ovviamente mi deve convincere) aspetto anche gt200 e poi decido con quale sostituire la Gloriosa
cmq si discuteva poche :D pagine fà sul fatto che rv770 si stia (stando ai rumors) "avvicinando all'architettura di g80" mantenendo ciò che di buono ha r600 (solo architettura sp, fondamentalmente, per come la vedo io, chè se sfruttati a fondo varrebbero appunto più che quelli di g80)
questo quindi contrasta con l'architettura + "pro dx10" sempre vantata da ati (o meglio dai suoi ammiratori) rispetto a g80: proprio perchè ci dovremmo avvicinare ormai a giochi veri dx10 allora sembra un non-senso quello di ati; inoltre se gt200 mantiene le promesse è una bomba, e perfettamente attrezzata per i giochi a venire...
siccome cambio la vga solo per una che mi traghetti al meglio alle dx11, a questo punto, sono molto indeciso sul da farsi, non vedo l'ora innanzitutto di vedere la 4870 all'opera, per cominciare
Kharonte85
23-04-2008, 15:50
si si, figurati se non lo so :D :D :sofico:
infatti aspetto innanzitutto di vedere la 4870 in azione (e la x2 se ci sarà) e se resisto (ovviamente mi deve convincere) aspetto anche gt200 e poi decido con quale sostituire la Gloriosa
cmq si discuteva poche :D pagine fà sul fatto che rv770 si stia (stando ai rumors) "avvicinando all'architettura di g80" mantenendo ciò che di buono ha r600 (solo architettura sp, fondamentalmente, per come la vedo io, chè se sfruttati a fondo varrebbero appunto più che quelli di g80)
questo quindi contrasta con l'architettura + "pro dx10" sempre vantata da ati (o meglio dai suoi ammiratori) rispetto a g80: proprio perchè ci dovremmo avvicinare ormai a giochi veri dx10 allora sembra un non-senso quello di ati; inoltre se gt200 mantiene le promesse è una bomba, e perfettamente attrezzata per i giochi a venire...
siccome cambio la vga solo per una che mi traghetti al meglio alle dx11, a questo punto, sono molto indeciso sul da farsi, non vedo l'ora innanzitutto di vedere la 4870 all'opera, per cominciare
Concordo in pieno...del resto anche io sono curioso e poi sul fatto che la strategia di nvidia abbia pagato di piu' fino ad ora (ma non solo, probabilmente si è imposta grazie alla forte partnership che puo' vantare nvidia e di conseguenza non c'è ragione di prevedere un cambio di rotta) non ci dovrebbero essere piu' dubbi...l'unica cosa che rimane da chiarire sono le dx10.1 e il relativo supporto...
halduemilauno
23-04-2008, 16:08
Aprendo una parentesi sulla "naturale risposta" a r700 che sara' gt200 (perche' l'avversario naturale sara' il g92b a 55nm)...pare che nvidia, se confermate le ultime indiscrezioni presentera' una evoluzione dell'architettura g80 con 192SP e molto probabilmente bus a 512bit, cosa che le consentirebbe di fare affidamento ancora una volta sulle gddr3...
Oh poi magari ci fa la sorpresa e ridivide gli Shader... :O :asd:
Certo...un' ulteriore ipotesi a favore dei 256bit :O ...:asd:
tra le diverse opzioni che ha nvidia da non dimenticare la 9800gtx che sarebbe perfetta come avversaria della 4850 costando gia adesso pure di meno. mentre come avversaria della 4870 ci potrebbe essere la 9800gx2 che sempre in attesa di riscontri sarebbe fuori dalla portata della 4870 ma che sarebbe penalizzata sul fronte consumi ma non tanto nel prezzo in quanto basterebbe per essa una riduzione di un 50$. quindi come si vede diverse opzioni, le attuali riposizionate, le g92b, e infine il gt200 che nel confronto diretto con la 4870x2 ci sarebbe solo essa.
;)
HackaB321
23-04-2008, 16:09
si si, figurati se non lo so :D :D :sofico:
infatti aspetto innanzitutto di vedere la 4870 in azione (e la x2 se ci sarà) e se resisto (ovviamente mi deve convincere) aspetto anche gt200 e poi decido con quale sostituire la Gloriosa
cmq si discuteva poche :D pagine fà sul fatto che rv770 si stia (stando ai rumors) "avvicinando all'architettura di g80" mantenendo ciò che di buono ha r600 (solo architettura sp, fondamentalmente, per come la vedo io, chè se sfruttati a fondo varrebbero appunto più che quelli di g80)
questo quindi contrasta con l'architettura + "pro dx10" sempre vantata da ati (o meglio dai suoi ammiratori) rispetto a g80: proprio perchè ci dovremmo avvicinare ormai a giochi veri dx10 allora sembra un non-senso quello di ati; inoltre se gt200 mantiene le promesse è una bomba, e perfettamente attrezzata per i giochi a venire...
siccome cambio la vga solo per una che mi traghetti al meglio alle dx11, a questo punto, sono molto indeciso sul da farsi, non vedo l'ora innanzitutto di vedere la 4870 all'opera, per cominciare
Stando ai rumors, RV770 dovrebbe avere una capacità di calcolo più che doppia rispetto a Rv670 (1 TFlop contro 475GFlop sempre che la capacità di calcolo delle singole ALU sia la stessa). Penso continuerà ad avere il tessellation engine così come penso saranno mantenute (se non migliorate) le stesse capacità computazionali sui gs. L'unica cosa cambiata in senso "meno innovativo" sarà l'abbassamento del rapporto ALU:TEX, ma un rapporto 3:1 serve solo a correggere un errore di R600 ed andrà benissimo anche per i giochi futuri proprio perchè è stato ottenuto nonostante un notevole aumento delle capacità di calcolo. In sostanza penso che se le specifiche sono queste Rv770 è una gpu più equilibrata e anche più adatta ai giochi Dx10 di prossima generazione di R600. Quanto lo sarà + o - della prossima schedona Nvidia è ancora presto per dirlo (anche perchè su questa si hanno ancora meno indiscrezioni che su RV770/R700)
leoneazzurro
23-04-2008, 16:28
ok, resta il fatto che subito magari sarebbero preferibili delle ddr3 a latenze più basse, o delle ddr4 al limite (sempre affinate), credo che (sicuramente nel caso delle ddr3) costerebberop pure meno
insomma, minima spesa massima resa...
Dipende, GDDR3 da 4 GHZ ovviamente non ci sono e magari quelle da 2.2GHz costano di più delle GDDR5 da 4 GHz (per ragioni di rese produttive), mentre le GDDR3 da 2 GHz in giù sarebbero castranti per una GPU che dovrebbe essere sostanzialmente più potente di una RV670. Del resto quantola banda possa essere limitante lo si vede con le 8800 GTS512 ad alte risoluzioni, dove la 8800 GTX basata su G80 tende ad andare meglio non solo per il quantitativo di RAM ma anche per il bus a 384 bit (e le 24 ROPs) nonostante le potenze di calcolo e di texturing siano nettamente a favore del G92 (e al contrario il G80 paradossalmente ad alte risoluzioni tende ad essere un pò frenato dagli shader). Magari andrebbe meglio con le GDDR4 (ma non molto, dato che le GDDR4 oltre i 2.4 GHz costano ancora uno sproposito e gli incrementi di frequenza non sono sostanziali), ma forse ci sono fattori tecnici che consigliano il passaggio immediato alle GDDR5, come ad esempio la maggiore densità di memoria.
Poi, come detto, tieni presente che le latenze reali (in termini di ns e non di cicli di clock della memoria) non dovrebbero essere sostanzialmente più elevate nelle GDDR5 rispetto alle GDDR3, proprio per le elevate frequenze delle GDDR5 stesse.
domanda: facevi riferimento alle funzioni di power management delle gddr5, sono esclusive di queste oppure anche ddr3 e ddr4 potrebbero implementarle (magari "più semplici")?
A questo ti hanno già risposto ;)
appleroof
23-04-2008, 16:40
Dipende, GDDR3 da 4 GHZ ovviamente non ci sono e magari quelle da 2.2GHz costano di più delle GDDR5 da 4 GHz (per ragioni di rese produttive), mentre le GDDR3 da 2 GHz in giù sarebbero castranti per una GPU che dovrebbe essere sostanzialmente più potente di una RV670. Del resto quantola banda possa essere limitante lo si vede con le 8800 GTS512 ad alte risoluzioni, dove la 8800 GTX basata su G80 tende ad andare meglio non solo per il quantitativo di RAM ma anche per il bus a 384 bit (e le 24 ROPs) nonostante le potenze di calcolo e di texturing siano nettamente a favore del G92 (e al contrario il G80 paradossalmente ad alte risoluzioni tende ad essere un pò frenato dagli shader). Magari andrebbe meglio con le GDDR4 (ma non molto, dato che le GDDR4 oltre i 2.4 GHz costano ancora uno sproposito e gli incrementi di frequenza non sono sostanziali), ma forse ci sono fattori tecnici che consigliano il passaggio immediato alle GDDR5, come ad esempio la maggiore densità di memoria.
Poi, come detto, tieni presente che le latenze reali (in termini di ns e non di cicli di clock della memoria) non dovrebbero essere sostanzialmente più elevate nelle GDDR5 rispetto alle GDDR3, proprio per le elevate frequenze delle GDDR5 stesse.
A questo ti hanno già risposto ;)
ottimo, grazie mille della risposta (in particolare illuminante la parte in neretto) ;)
albert75
23-04-2008, 17:14
ragazzi so che non avete la palla di vetro, ma con il mio procio sarei limited??o basta che lo porto a 3.2ghz
Innanzitutto hai agp, e non si sa se usciranno (anche se la HD3850 e il bus a 256 non lo vietano).
Beh un pochino direi di si...
albert75
23-04-2008, 17:55
Innanzitutto hai agp, e non si sa se usciranno (anche se la HD3850 e il bus a 256 non lo vietano).
Beh un pochino direi di si...veramente ho ordinato questa:
http://www.dinoxpc.com/Tests/articoli/articolo/schedemadri_asus_p5k_premium_images/mobo.jpg
;)
asus p5k premium
veramente ho ordinato questa:
;)
asus p5k premium
il processore ti conviene comunque cambiarlo con un quad core .......un q6600 ora non costa troppo sulle 180 euro oppure potresti optareper un penryn q9450 o q9300......
albert75
23-04-2008, 18:09
il processore ti conviene comunque cambiarlo con un quad core .......un q6600 ora non costa troppo sulle 180 euro oppure potresti optareper un penryn q9450 o q9300......
:mbe:
e8400??
appleroof
23-04-2008, 18:14
:mbe:
e8400??
a sto punto ti tieni il tuo e lo oc, altrimenti anche secondo me prendi direttamente un quad di quelli consigliati
albert75
23-04-2008, 18:19
vabbe per adesso prendo mamma e vga...cocco il procio e se non rulla cambio di botto....:D
masterintheuniverse
23-04-2008, 18:28
La prossima VGA è cosi :eek: la compro di sicuro :sofico: anche se non mi fa 30frame con crysis ... vado io in crisi con sta scheda e faccio i 200frame :angel: :asd:
io con questa nel letto,sul divano,sul tavolo della cucina,in auto,al mac donald faccio oltre i 1000 fps....lol lol lol
Aspetta, la questione pro-DX10 si riferisce all'AA resolve negli shader, cosa che con l'aumento degli shader e gli RBE che rimangono al palo viene ancora più esaltata. Questo può funzionare più o meno bene secondo come è stato programmato il gioco in modo aderente alle raccomandazioni DX10 (in DX10 si raccomanda questo tipo di resolve, in DX10.1 è obbligatorio).
L'errore concettuale in R600 non è questo, ma le poche TMU che rallentano l'esecuzione in ogni contesto texturecentrico, e questa parte sarebbe toccata senza alterare la propensione DX10 che sarebbe mantenuta e amplificata.
In sostanza se i rumors saranno confermati io mi attendo che l'impatto di AA2x e AA4x rimangano gli stessi di RV670, pur partendo da una base migliore e togliendo l'ulteriore collo di bottiglia rappresentato dalla scarsa potenza di texturing. Poi magari hanno un po' reworkato il tutto rendendolo meno sensibile all'AA vecchia maniera in qualche modo che non riesco ad immaginare, ma mi sembra improbabile.
Visto che io non uso l'AA perché mi fa schifo, per me questo non è un problema, ma molti altri non possono fare a meno dell'AA. Vedremo le recensioni, quando ci saranno le schede :>
:eek: :muro: :nono:
Sicuro che in dx10.1 l'AA sarà possibile solo via shader ? Perchè mi sembra un cambiamento un :sofico: esagerato rispetto alle dx10.
appleroof
23-04-2008, 18:32
Aspetta, la questione pro-DX10 si riferisce all'AA resolve negli shader, cosa che con l'aumento degli shader e gli RBE che rimangono al palo viene ancora più esaltata. Questo può funzionare più o meno bene secondo come è stato programmato il gioco in modo aderente alle raccomandazioni DX10 (in DX10 si raccomanda questo tipo di resolve, in DX10.1 è obbligatorio).
L'errore concettuale in R600 non è questo, ma le poche TMU che rallentano l'esecuzione in ogni contesto texturecentrico, e questa parte sarebbe toccata senza alterare la propensione DX10 che sarebbe mantenuta e amplificata.
In sostanza se i rumors saranno confermati io mi attendo che l'impatto di AA2x e AA4x rimangano gli stessi di RV670, pur partendo da una base migliore e togliendo l'ulteriore collo di bottiglia rappresentato dalla scarsa potenza di texturing. Poi magari hanno un po' reworkato il tutto rendendolo meno sensibile all'AA vecchia maniera in qualche modo che non riesco ad immaginare, ma mi sembra improbabile.
Visto che io non uso l'AA perché mi fa schifo, per me questo non è un problema, ma molti altri non possono fare a meno dell'AA. Vedremo le recensioni, quando ci saranno le schede :>
ti fà schifo l'aa? com'è possibile? :stordita:
l'aliasing è una delle cose più fastidiose in assoluto in un gioco, secondo me
pensa che io a seconda del gioco l'aliasing lo vedo pure a 1920x1200, infatti dove possibile almeno un 2x è fisso, in molti casi riesco ancora a mettere 4x, ma cmq lo metto...
per il resto davvero non resta che aspettare a vedere le recensioni, uno degli aspetti che mi gusta di più e che si prepara, stando alle caratteristiche ventilate, è il ritorno ad una certa competitività di Ati, cosa che può fare solo bene a noi tutti
io con questa nel letto,sul divano,sul tavolo della cucina,in auto,al mac donald faccio oltre i 1000 fps....lol lol lol
soli :confused: :rolleyes: :asd:
appleroof
23-04-2008, 18:58
In DX10 è consigliato, in DX10.1 è obbligatorio. Ovviamente nessuno è perentoriamente tenuto a sviluppare in DX10.1, se non vuole :>
Il gioco con più antialiasing che abbia mai giocato è Pac-Man :>
Mi piace vedere la brutalità grafica dell'aliasing, perché esalta il fatto che è un gioco, non sono un patito del fotorealismo, certo questo effetto che adoro e che mi fa tornare bimbo tenderà ad essere meno evidente con il 22" che prima o poi mi deciderò a prendere, ma è un aut aut, e preferisco avere più risoluzione che avere l'aliasing :>
bè che dire? gusti ;)
albert75
23-04-2008, 19:07
io con questa nel letto,sul divano,sul tavolo della cucina,in auto,al mac donald faccio oltre i 1000 fps....lol lol lol
si ma colvsync scendi a 60:sofico:
se puo inrteressare
http://www.theinquirer.it/2008/04/23/ati_serie_4800_le_prime_info.html
raga secondo voi converrebbe prendere piu' la 4850pro o la 4870? se si prende la pro e la si fa salire
? tanto sono 200mhz....
e poi un altra cosa qui :
http://www.tomshw.it/news.php?newsid=13830
dice che a fine maggio uscira' r700 e a maggio la serie 4800....ma scusate r700 non e' la 4870??????
si ma colvsync scendi a 60:sofico:
se puo inrteressare
http://www.theinquirer.it/2008/04/23/ati_serie_4800_le_prime_info.html
raga secondo voi converrebbe prendere piu' la 4850pro o la 4870? se si prende la pro e la si fa salire
? tanto sono 200mhz....
e poi un altra cosa qui :
http://www.tomshw.it/news.php?newsid=13830
dice che a fine maggio uscira' r700 e a maggio la serie 4800....ma scusate r700 non e' la 4870??????
Per la prima domanda, lo si potrá sapere solo al lancio. Bisogna sapere di quanto si riuscirá a occare ogni scheda...
Alla seconda, invece, rispondo subito. R700 é la fascia alta/altissima, che probabilmente userá 2 chip rv770 (4850/4870) collegati tra di loro, non si sa ancora come.
La 4850/4870 é una scheda da fascia medio/alta, compresa tra i 250 e i 300$ (non voglio credere che il modello di punta single chip costi 349$ :D)
albert75
23-04-2008, 19:34
La 4870, ammesso che si chiami così, è RV770, R700 dovrebbe essere 2xRV770
quindi r700 sarebbe la 4870x2???...... se la possono tenere
quindi r700 sarebbe la 4870x2???...... se la possono tenere
Si, sarebbe una 4870x2.
Ma ancora non si sa se i 2 chip saranno collegati tramite crossfire convenzionale o con qualcosa di diverso.
Mi auguro la seconda ipotesi, avendo quindi memoria condivisa :)
Athlon 64 3000+
23-04-2008, 19:50
se giù RV770 con le unità shader in più e altre cose aumentera i consumi con un TDP di 150W pur essendo a 55 nm rispetto a RV670,non posso immaginare quanto possa consumare R700 se sarà fatto da 2 gpu collegate in crossfire visto il consumo della HD 3870x2.
Penso che comsumerebbe parecchio di più di R600(che consuma 160W sotto sforzo) e potrebbe andare sopra i 200W dissipati.
Leggendo in giro parlano di 50% in+ confronto a hd3870 , a sto punto andrà quanto uno GTS/GTX G92 :confused:
albert75
23-04-2008, 20:13
Leggendo in giro parlano di 50% in+ confronto a hd3870 , a sto punto andrà quanto uno GTS/GTX G92 :confused:
guarda spero un 20% in piu di gts sto aspettando apposta lo spero proprio:sofico:
A me basta che la HD4850 sia come o più potente delal GTS 512...sperare non costa niente...
albert75
23-04-2008, 20:25
io spero in 4870 se no vado di gts
mokaverus
23-04-2008, 22:26
si ma colvsync scendi a 60:sofico:
se puo inrteressare
http://www.theinquirer.it/2008/04/23/ati_serie_4800_le_prime_info.html
raga secondo voi converrebbe prendere piu' la 4850pro o la 4870? se si prende la pro e la si fa salire
? tanto sono 200mhz....
e poi un altra cosa qui :
http://www.tomshw.it/news.php?newsid=13830
dice che a fine maggio uscira' r700 e a maggio la serie 4800....ma scusate r700 non e' la 4870??????
da theinquirer
"Le GPU 4870 e 4850 (GDDR5) e la 4850 (GDDR3) sono prodotte in tecnologia 55 nanometri, hanno 480 stream processor, 32 TMU e 16 ROP. Le prime due saranno dotate di memorie GDDR5 di fascia alta per gli utenti che vogliono il massimo in ogni categoria di prodotti. Le reali differenze saranno date dalla velocità del chip e delle memoria: 850/1050MHz per il 4870 e 650/850MHz per il 4850."
ma i 1050 e 850 sono riferiti alle memorie o agli shader? mi sembra strano che le gddr5 vadano così piano.
albert75
23-04-2008, 22:30
da theinquirer
"Le GPU 4870 e 4850 (GDDR5) e la 4850 (GDDR3) sono prodotte in tecnologia 55 nanometri, hanno 480 stream processor, 32 TMU e 16 ROP. Le prime due saranno dotate di memorie GDDR5 di fascia alta per gli utenti che vogliono il massimo in ogni categoria di prodotti. Le reali differenze saranno date dalla velocità del chip e delle memoria: 850/1050MHz per il 4870 e 650/850MHz per il 4850."
ma i 1050 e 850 sono riferiti alle memorie o agli shader? mi sembra strano che le gddr5 vadano così piano.
http://www.dinoxpc.com/News/news.asp?ID_News=14355&What=News&tt=Svelate+le+specifiche+dei+nuovi+chip+grafici+ATI+RV770
mokaverus
23-04-2008, 22:34
http://www.dinoxpc.com/News/news.asp?ID_News=14355&What=News&tt=Svelate+le+specifiche+dei+nuovi+chip+grafici+ATI+RV770
da come è scritta la frase presa da theinquirer sembrerebbero le memorie anche se molto probabilmente sono gli shader come descritto da quella tabella, c'è ancora molta confusione.
albert75
23-04-2008, 22:38
da come è scritta la frase presa da theinquirer sembrerebbero le memorie anche se molto probabilmente sono gli shader come descritto da quella tabella, c'è ancora molta confusione.
fidati della tabella...un altro po' e ci divertiamo...vedremo anche la battaglia dei prezzi;)
maxmaster71
23-04-2008, 22:42
Eccovi un tebella precisa
http://img160.imageshack.us/img160/1161/4000seriesbz1.th.jpg (http://img160.imageshack.us/my.php?image=4000seriesbz1.jpg)
prezzi bassi potenza alta..almeno sulla carta
Kharonte85
23-04-2008, 22:56
Eccovi un tebella precisa
http://img160.imageshack.us/img160/1161/4000seriesbz1.th.jpg (http://img160.imageshack.us/my.php?image=4000seriesbz1.jpg)
prezzi bassi potenza alta..almeno sulla carta
Supermega OLD :D, io direi che la tabbella piu' affidabile e dettagliata è quella che ha postato Hal qualche pagina fa...;)
Supermega OLD :D, io direi che la tabbella piu' affidabile e dettagliata è quella che ha postato Hal qualche pagina fa...;)
Me la sono persa, o è la solita che gira?
Mister Tarpone
23-04-2008, 23:01
Supermega OLD :D, io direi che la tabbella piu' affidabile e dettagliata è quella che ha postato Hal qualche pagina fa...;)
e invece no. è meglio questa tabella. :fagiano:
:fagiano:
maxmaster71
23-04-2008, 23:04
La tabella che ho postato è datata 22/04 ed è la più recente...
http://img160.imageshack.us/img160/1161/4000seriesbz1.th.jpg (http://img160.imageshack.us/my.php?image=4000seriesbz1.jpg)
maxmaster71
23-04-2008, 23:19
28 Marzo: http://forums.vr-zone.com/showthread.php?t=255294
Io l'ho presa da un altro sito ed era datata così..anche perche non ho motivo di post datarla è comunque veritiera ed abbastanza esaustiva... mea culpa scusate l'errore.......
maxmaster71
23-04-2008, 23:39
nessun problema volevo solo puntualizzare..ciao e buona notte:)
HackaB321
24-04-2008, 08:02
Sicuro che in dx10.1 l'AA sarà possibile solo via shader ? Perchè mi sembra un cambiamento un :sofico: esagerato rispetto alle dx10.
In DX10 è consigliato, in DX10.1 è obbligatorio.
In realtà le DX10.1 non obbligano esplicitamente il resolve dell'AA via shaders.
Le Dx10.1 prevedono che l'hw compatibile supporti un minimo MSAA 4x dando la possibilità di implementare filtri personalizzati all'interno dell'applicazione.
Gli shaders, a differenza delle Rops, sono unità programmabili ed infatti il vantaggio di R600 rispetto a G80 riguardo all'AA sta nel fatto che, grazie al resolve via shaders, in R600 si possono aggiungere, modificare o togliere filtri AA via software, cosa impossibile sulle schede Nvidia (dove il resolve avviene nelle Rops e quindi, essendo queste delle unità fisse non programmabili, gestiscono solo i filtri per cui sono state predisposte via hardware).
Credo quindi che G80 e G92 non possono essere schede DX10.1 non perchè non gestiscono il resolve via shaders ma perchè non possono supportare i filtri personalizzati. Bisogna poi vedere (questo non lo so) se il resolve via shader è l'unico modo con cui possono essere supportati i filtri personalizzati (o si può fare in altro modo ad esempio creando Rops "programmabili") nel primo caso vedremo in futuro schede Nvidia Dx10.1 con il resolve via shaders nel secondo anche no.
la funzionalità più importante delle Dx10.1 comunque non è tanto questa quanto quella che permette l'accesso diretto da parte degli shaders allo Z-buffer di ogni subpixel nel caso di MSAA: con questa funzionalità è possibile migliorare la qualità e le performance del MSAA in caso di engine grafici basati sul deferred shading (come Stalker o Unreal). Ovviamente bisogna che il gioco supporti le DX10.1 (quindi non Stalker nè Unreal, forse AC).
HackaB321
24-04-2008, 08:29
http://www.tgdaily.com/content/view/37093/135/
Next month will be more important for AMD’s graphics division than any other month of this year: The company is set to release the (RV770) 4800-series of graphics cards, including the models 4850, 4870 and 4870 X2. While the launch is still very much a secret, TG Daily was able to receive details and the specifications of the new cards – which will put ATI back into the ring with Nvidia.
The product launch will be significant not just because of the availability of chips, but also because of the fact that AMD/ATI is returning to a true six-month refresh cycle of its graphics products. Looking back, the 2900/3800 series was not really a six-month refresh, since the 2900XT was eight months late. The Radeon 3800 series was launched in November of 2007 and since the Radeon 4800 is pretty much set for a May 2008 launch (cards went into production in March), the ATI team has returned to its traditional cycle. There is a good chance that the acquisition troubles have been digested and new products will be surfacing in a more predictable fashion from now on.
Specifications: 480 stream processors, 800+ million transistors
Let’s have a look at the general specifications of the Radeon 4800 series, which is based on the RV770 graphics processor. The new GPU has 480 stream processors or shader units (96+384), 32 Texture units (up from 16), 16 ROP (same as 2900/3800), a 256-bit memory controller and native GDDR3/4/5 support (expect GDDR3 and GDDR5 memory versions of RV770 cards).
The transistor count has jumped from 666 million in the RV670 to more than 800 million transistors in the RV770.
The manufacturing process has been carried over: TSMC is producing the GPUs in 55 nm (the process itself is called 55GC).
The Radeon 3800 series had a serious flaw called texture low fill-rate, which was addressed by ATI with an increased number of TMUs (Texture Memory Unit) from 16 to 32. The specifications indicate that 16 TMUs can address 80 textures on the fly, which means that 32 units should be able to fetch 160 in the RV770: This should allow the new GPU to catch up with Nvidia’s G92 design. However, the G92 has 64 TMUs that were enabled gradually (some SKUs shipped with 56), resulting in a fill-rate performance that beat the original 8800GTX and Ultra models.
ATI’s RV770 will be rated at a fill rate of 20.8-27.2 GTexel/s (excluding X2 version), which is on the lower end of the GeForce 9 series (9600 GT: 20.8; 9800 GTX: 43.2 9800 GX2: 76.8).
New for the 4800 series is AMD’s decision to split the clock of the GPU and shaders, following a move that Nvidia made with the GeForce 8800: Back then, the shaders were clocked at 1.35 GHz, while the rest of the chip ticked at 575 MHz.
Andrea deluxe
24-04-2008, 08:48
ok hanno deciso di dividere le frequenze di gpu e shader, perche' forse la frequenza degli shader non rendeva tanto, salendo limitatamente con la frequenza della gpu stessa!
se cosi fosse, prevedo overclock sfiziosi per le nuove ati:)
Foglia Morta
24-04-2008, 08:49
no... hanno solamente messo insieme i soliti rumours. Pratica molto diffusa per farsi clickare
leoneazzurro
24-04-2008, 09:53
In realtà le DX10.1 non obbligano esplicitamente il resolve dell'AA via shaders.
Le Dx10.1 prevedono che l'hw compatibile supporti un minimo MSAA 4x dando la possibilità di implementare filtri personalizzati all'interno dell'applicazione.
Gli shaders, a differenza delle Rops, sono unità programmabili ed infatti il vantaggio di R600 rispetto a G80 riguardo all'AA sta nel fatto che, grazie al resolve via shaders, in R600 si possono aggiungere, modificare o togliere filtri AA via software, cosa impossibile sulle schede Nvidia (dove il resolve avviene nelle Rops e quindi, essendo queste delle unità fisse non programmabili, gestiscono solo i filtri per cui sono state predisposte via hardware).
Credo quindi che G80 e G92 non possono essere schede DX10.1 non perchè non gestiscono il resolve via shaders ma perchè non possono supportare i filtri personalizzati. Bisogna poi vedere (questo non lo so) se il resolve via shader è l'unico modo con cui possono essere supportati i filtri personalizzati (o si può fare in altro modo ad esempio creando Rops "programmabili") nel primo caso vedremo in futuro schede Nvidia Dx10.1 con il resolve via shaders nel secondo anche no.
In realtà anche G80 potrebbe supportare filtri customizzati, essendo il resolve via shader possibile anche con g80 (non a caso nvidia nel caso di Call of Juarez accusava i programmatori di aver forzato esclusivamente questa modalità). Se non erro la possibilità di effettuare il resolve via shader è uno dei requisiti delle DX10 "base". Ma rispetto a R6XX, che nasce esclusivamente con il resolve via shader, sicuramente incorre in una penalità prestazionale piuttosto alta.
Nel caso delle DX10.1 il resolve via shader viene "esposto" nella API e sarà quindi programmabile direttamente dagli sviluppatori anzichè soltanto dai driver team delle rispettive aziende.
Paolobody
24-04-2008, 10:04
ma indicativamente la 4670 e la 4650 con che schede di nvidia andrebbero a competere.
Andrebbero come la 3870?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.