View Full Version : [THREAD UFFICIALE] Aspettando R700
HackaB321
29-04-2008, 11:05
:O
Ma visto che GT200 avrà quasi sicuramente le dx10.1, faranno uscire un'altra patch per riabilitare il supporto ?
Probabilmente sì per completare lo squallore dell'intera vicenda...
Basta che si sappia invece che si insabbii tutto.
E la giudico una concorrenza sleale quella di finanziare le SWh....
Comunque non ci vedo nulla di disonesto o squallido sono scelte di mercato. Nvidia più tosto che investire quei soldi nello sviluppo li investe nelle sponsorizzazioni ed è ovvio che poi abbia un riscontro nel software altrimenti cosa fa, beneficenza ?
Mercuri0
29-04-2008, 11:30
:O
Ma visto che GT200 avrà quasi sicuramente le dx10.1, faranno uscire un'altra patch per riabilitare il supporto ?
Ma come fate ad essere così sicuri di questa cosa?
Secondo me anche se il GT200 potesse supportare le 10.1 in hardware, non sarebbero attive nei driver.
Imo nVidia le 10.1 non le supporterà mai, a meno che le sue funzioni siano incluse nel DX11.
Se le supportasse sulla scheda di fascia alta, ucciderebbe il suo mercato per le schede di fascia media (il G92b) a favore di ATI. Impossibile, a meno di particolari condizioni di mercato e di inventario.
Per Assassin Creed staremo a vedere. Se la cosa fa abbastanza rumore la Ubisoft potrebbe dover tornare sui suoi passi. Chissà se qualche programmatore è stato licenziato per essere stato "troppo bravo".
Mercuri0
29-04-2008, 11:32
Comunque non ci vedo nulla di disonesto o squallido sono scelte di mercato. Nvidia più tosto che investire quei soldi nello sviluppo li investe nelle sponsorizzazioni ed è ovvio che poi abbia un riscontro nel software altrimenti cosa fa, beneficenza ?
Niente di disonesto o squallido, di sicuro anche AMD farebbe così, ma gli utenti e lo sviluppo della tecnologia lo prendono in quel posto, quindi secondo me è lecito ed utile indignarsi. :mad:
Mica si vuole giudicare la "moralità" del comportamento di nVidia.
Ehi noi qui siamo utenti vero, o azionisti nVidia o AMD?
Ma poi chi s'è comprato Assassin Creed come si sente? nVidia avrà pure sponsorizzato Ubisoft, ma i soldi di chi compra il gioco non meritano un minimo di rispetto?
HackaB321
29-04-2008, 11:33
Comunque non ci vedo nulla di disonesto o squallido sono scelte di mercato. Nvidia più tosto che investire quei soldi nello sviluppo li investe nelle sponsorizzazioni ed è ovvio che poi abbia un riscontro nel software altrimenti cosa fa, beneficenza ?
Un conto è ricevere una sponsorizzazione da una ditta di hw e ottimizzare il gioco per quella architettura, un altro è rifiutarsi di supportare (anzi togliere) una feature che apporta benefici evidenti (inventandosi oltre tutto una balla) solo perchè è sgradita a chi mi ha finanziato
appleroof
29-04-2008, 11:34
Comunque non ci vedo nulla di disonesto o squallido sono scelte di mercato. Nvidia più tosto che investire quei soldi nello sviluppo li investe nelle sponsorizzazioni ed è ovvio che poi abbia un riscontro nel software altrimenti cosa fa, beneficenza ?
quoto in pieno
aggiungo che la stragrande maggioranza di giochi "con marchio Nvidia" girano bene anche con vga Ati, questo elimina la concorrenza sleale
nessuno poi vieta ad Ati di fare lo stesso, che poi Ati non ha i soldi per farlo, o preferisce spenderli tutti in r&s è un problema suo, ma non arriverei a parlare di concorrenza sleale per questo, stiamo pur certi che se Ati avesse i mezzi farebbe lo stesso (come ha fatto in passato per altri giochi)
ricordo ancora una volta la "patch dx10" di Call of Juarez dove Ati attivò la stessa identica politica di Nvidia, con beffa ancora più grossa dato che il gioco "originale" lo aveva finanziato appunto Nvidia; così stavolta, se ti dò miliardi affinchè il gioco non sia dx10.1, visto che non ho schede dx10.1, non devi fare queste cappellate, perchè con i miei miliardi hai fatto un gioco che favorisce il mio concorrente...se è concorrenza sleale questa :asd: :asd:
quoto in pieno
aggiungo che la stragrande maggioranza di giochi "con marchio Nvidia" girano bene anche con vga Ati, questo elimina la concorrenza sleale
nessuno poi vieta ad Ati di fare lo stesso, che poi Ati non ha i soldi per farlo, o preferisce spenderli tutti in r&s è un problema suo, ma non arriverei a parlare di concorrenza sleale per questo, stiamo pur certi che se Ati avesse i mezzi farebbe lo stesso (come ha fatto in passato per altri giochi)
ricordo ancora una volta la "patch dx10" di Call of Juarez dove Ati attivò la stessa identica politica di Nvidia, con beffa ancora più grossa dato che il gioco "originale" lo aveva finanziato appunto Nvidia; così stavolta, se ti dò miliardi affinchè il gioco non sia dx10.1, visto che non ho schede dx10.1, non devi fare queste cappellate, perchè con i miei miliardi hai fatto un gioco che favorisce il mio concorrente...se è concorrenza sleale questa :asd: :asd:
puo' mai un possessore ATi essere d'accordo con cio' che sostieni? No perche' si sa che essere froci col culo degli altri... :)
Io non direi che il problema e' ATi che non foraggia gli sviluppatori, il problema e' semmai nVidia che non supporta Dx10.1 (che garantiscono benefici indipendentemente da chi le supporta). E si, concorrenza sleale e' quando si vuole imporre il proprio marchio anche a discapito di altre soluzioni che, all'utente finale, garantiscono benefici
bYeZ!
Faustinho DaSilva
29-04-2008, 11:37
Basta che si sappia invece che si insabbii tutto.
E la giudico una concorrenza sleale quella di finanziare le SWh....
quoto
Comunque non ci vedo nulla di disonesto o squallido sono scelte di mercato. Nvidia piu(t)tosto che investire quei soldi nello sviluppo li investe nelle sponsorizzazioni ed è ovvio che poi abbia un riscontro nel software altrimenti cosa fa, beneficenza ?
infatti anche nel caso di AC visto che le ati giravano meglio hanno fatto fare subito un comunicato ufficiale che dicesse che si erano sbagliati e le ati andavano meglio visto che il gioco non era completo e poi hanno creato un patch che facesse andare meglio le nv... insomma un ricatto visto che loro avevano foraggiato le casse ubisoft... non è proprio una pratica trasparente...
appleroof
29-04-2008, 11:38
Un conto è ricevere una sponsorizzazione da una ditta di hw e ottimizzare il gioco per quella architettura, un altro è rifiutarsi di supportare (anzi togliere) una feature che apporta benefici evidenti (inventandosi oltre tutto una balla) solo perchè è sgradita a chi mi ha finanziato
se uno sponsor ti paga, e tu hai tanti bei soldini quindi, mi sembra il minimo
altrimenti non accetti quei soldi e sei libero di fare quello che vuoi, non credi?
appleroof
29-04-2008, 11:39
puo' mai un possessore ATi essere d'accordo con cio' che sostieni? No perche' si sa che essere froci col culo degli altri... :)
bYeZ!
:asd:
lo so, ma questo non mi vieta di dire la mia lo stesso no? Non cerco mica il consenso di un possessore di schede Ati
cmq hai perfettamente ragione ;)
se uno sponsor ti paga, e tu hai tanti bei soldini quindi, mi sembra il minimo
altrimenti non accetti quei soldi e sei libero di fare quello che vuoi, non credi?
Mi sfugge il vantaggio per l'utente finale..e noi siamo tutti utenti finali, nVidiosi o ATisti, giusto? :)
bYeZ!
Mercuri0
29-04-2008, 11:40
Ehiiii noi siamo utenti! noi le schede le *compriamo*, questi ce lo mettono in quel posto e voi state a giudicare sulla "moralità"??? :mad: :mad:
Ok, ce lo prendiamo in quel posto, però loro sono moralmente integri.
E poi qui mi aspetto ci si entusiasmi per la tecnologia più che per le operazioni di marketing, e in questo caso la tecnologia piega la testa.
Farei lo stesso discorso per AMD, Intel o chicchessia.
A proposito: il mio contributo alla discussione su R700
Chissenefrega delle caratteristiche tecniche, tanto basta che facciano un buon marketing. Se fanno usare le 10.1 è già un 20% di prestazioni in più anche se rivendono R670.
:asd:
lo so, ma questo non mi vieta di dire la mia lo stesso no? Non cerco mica il consenso di un possessore di schede Ati
cmq hai perfettamente ragione ;)
ho editato ampliando il concetto :)
bYeZ!
Faustinho DaSilva
29-04-2008, 11:44
aggiungo che la stragrande maggioranza di giochi "con marchio Nvidia" girano bene anche con vga Ati, questo elimina la concorrenza sleale
quoto
nessuno poi vieta ad Ati di fare lo stesso, che poi Ati non ha i soldi per farlo, o preferisce spenderli tutti in r&s è un problema suo, ma non arriverei a parlare di concorrenza sleale per questo, stiamo pur certi che se Ati avesse i mezzi farebbe lo stesso (come ha fatto in passato per altri giochi)
quoto sono scelte di politica industriale opinabili o meno, comunque investire in r&s imho è sempre meglio se no ti ritrovi magari indietro... anche se in questo settore praticamente oligopolistico sicuramente è molto più redditizia la scelta di sponsorizzare direttamente le swh
ricordo ancora una volta la "patch dx10" di Call of Juarez dove Ati attivò la stessa identica politica di Nvidia, con beffa ancora più grossa dato che il gioco "originale" lo aveva finanziato appunto Nvidia; così stavolta, se ti dò miliardi affinchè il gioco non sia dx10.1, visto che non ho schede dx10.1, non devi fare queste cappellate, perchè con i miei miliardi hai fatto un gioco che favorisce il mio concorrente...se è concorrenza sleale questa :asd: :asd:
questa imho non è una politica trasparente ma mafiosa visto che c'è il ricatto
Ma come fate ad essere così sicuri di questa cosa?
Secondo me anche se il GT200 potesse supportare le 10.1 in hardware, non sarebbero attive nei driver.
Imo nVidia le 10.1 non le supporterà mai, a meno che le sue funzioni siano incluse nel DX11.
Se le supportasse sulla scheda di fascia alta, ucciderebbe il suo mercato per le schede di fascia media (il G92b) a favore di ATI. Impossibile, a meno di particolari condizioni di mercato e di inventario.
Per Assassin Creed staremo a vedere. Se la cosa fa abbastanza rumore la Ubisoft potrebbe dover tornare sui suoi passi. Chissà se qualche programmatore è stato licenziato per essere stato "troppo bravo".
:sbonk:
Ma quando nvidia presentò le 8800GTS e GTX quali altre schede Nvidia supportavano le dx10 (anzi quali altre schede nvidia supportavano pienamente le dx9 :asd:) poi usci la 8800gts 320mb a 300€ a Marzo scheda che va bhe lasciamo perdere, e poi a Maggio le 8600gt e gts orrore e raccapriccio (ne ho anche una). Quindi perché non potrebbe succedere di nuovo la stessa cosa (sperando che non si ripetano i prezzi assurdi del lancio).
ma dai stiamo ancora qui a discutere sulla concorrenza in questo campo? se ci sono 2 competitors nel campo delle vga discrete ati e nvidia e sottolineo solo due secondo me l'antitrust dovrebbe vietare nei videogiochi la sponsorizzazione di una marca o dell'altra......tra un po mi sa che o hai nvidia come scheda video oppure non giochi nemmeno piu a nulla, nvidia=microsoft
appleroof
29-04-2008, 11:51
Mi sfugge il vantaggio per l'utente finale..e noi siamo tutti utenti finali, nVidiosi o ATisti, giusto? :)
bYeZ!
ho editato ampliando il concetto :)
bYeZ!
esatto. letto dopo: i livelli di discussione sono 2, noi dicutevamo del comportamento di Nvidia in sè, che secondo me non ha nulla di mafioso o immorale, è solo mercato, ed il mercato è così
quanto al vantaggio per l'utente finale, cosa ti devo dire, alla fine pare che le prox gpu nvidia abbiano il supporto dx10.1, quindi cinicamente la cosa nei fatti si ridimensiona parecchio e anche i possessori di 3870 avranno il loro tornaconto ti pare? Non è una catastrofe perchè non è nulla di definitivo
cut
questa imho non è una politica trasparente ma mafiosa visto che c'è il ricatto
ripeto nulla di mafioso ( :eek: ) lo sarebbe se io non ti pago e lo stesso devi fare come dico io, altrimenti ti brucio la casa, l'attività o la moglie
se il tuo capo ti paga per fare quel lavoro, e pretende che tu lo faccia quando non lo fai, e se non lo fai non ti paga o si incazza, è un mafioso???
Faustinho DaSilva
29-04-2008, 11:54
Ehiiii noi siamo utenti! noi le schede le *compriamo*, questi ce lo mettono in quel posto e voi state a giudicare sulla "moralità"??? :mad: :mad:
Ok, ce lo prendiamo in quel posto, però loro sono moralmente integri.
E poi qui mi aspetto ci si entusiasmi per la tecnologia più che per le operazioni di marketing, e in questo caso la tecnologia piega la testa.
Farei lo stesso discorso per AMD, Intel o chicchessia.alla fine è vero ce la prendiamo nel :ciapet: sempre noi utenti finali... ^^
A proposito: il mio contributo alla discussione su R700
Chissenefrega delle caratteristiche tecniche, tanto basta che facciano un buon marketing. Se fanno usare le 10.1 è già un 20% di prestazioni in più anche se rivendono R670.
si ma devono fare una campagna di marketing seria... magari avendo un prodotto valido:D
magari sfruttando i rumors come nel caso di alcuni game e massacrando i consumatori per spingerli ad acquistare nel day one...
anche la politica di nv paga visto che cmq nella maggior parte dei game ci sono diverse schermate che riportano il logo... e c giochi spesso te lo subisci passivamente per molto tempo! viva il marketing è la sua forza di persuasione (forzata)
ciauz
Mercuri0
29-04-2008, 11:55
:sbonk:
Ma quando nvidia presentò le 8800GTS e GTX quali altre schede Nvidia supportavano le dx10
E quali altre ATI?
nVidia può immettere una scheda DX10.1 se è sicura di vendere comunque quelle DX10 che ha in inventario. E non mi sembra che in questo periodo sia il caso, anzi stanno producendo il G92b (che immagino non le supporti).
Tra l'altro proprio il G92 subirà la concorreza di AMD, con R700.
ma dai stiamo ancora qui a discutere sulla concorrenza in questo campo? se ci sono 2 competitors nel campo delle vga discrete ati e nvidia e sottolineo solo due secondo me l'antitrust dovrebbe vietare nei videogiochi la sponsorizzazione di una marca o dell'altra......tra un po mi sa che o hai nvidia come scheda video oppure non giochi nemmeno piu a nulla, nvidia=microsoft
:nono: già adesso tra il meant to played e l'altra iniziativa di cui non ricordo il nome, quella che ti fa trovare un programmatore nvidia dietro la porta se ne fai richiesta per aiutarti ad ottimizzare il gioco. In tutti i titoli degni di nota usciti in tra la fine del 2007 e l'inizio del 2008 e in tutti i titoloni in prossima uscita ci sarà di mezzo nvidia.
Faustinho DaSilva
29-04-2008, 11:58
esatto. letto dopo: i livelli di discussione sono 2, noi dicutevamo del comportamento di Nvidia in sè, che secondo me non ha nulla di mafioso o immorale, è solo mercato, ed il mercato è così completamente condividiamo la stessa visione
ripeto nulla di mafioso ( :eek: ) lo sarebbe se io non ti pago e lo stesso devi fare come dico io, altrimenti ti brucio la casa, l'attività o la moglie
se il tuo capo ti paga per fare quel lavoro, e pretende che tu lo faccia quando non lo fai, e se non lo fai non ti paga o si incazza, è un mafioso???
ok ma nv mica è il capo... un conto sono joint venture strategiche per singoli prodotti o progetti e qui avrebbe tutto senso e sarei pienamente d'accordo, un conto sono i contratti pubblicitari (anche se molto ben pagati) e allora è un altro discorso
appleroof
29-04-2008, 12:00
:nono: già adesso tra il meant to played e l'altra iniziativa di cui non ricordo il nome, quella che ti fa trovare un programmatore nvidia dietro la porta se ne fai richiesta per aiutarti ad ottimizzare il gioco. In tutti i titoli degli di nota usciti in tra la fine del 2007 e l'inizio del 2008 e in tutti i titoloni in prossima uscita ci sarà di mezzo nvidia.
e non sei contento? chissà se mai sarebbero usciti senza quei bei soldoni :)
E quali altre ATI?
nVidia può immettere una scheda DX10.1 se è sicura di vendere comunque quelle DX10 che ha in inventario. E non mi sembra che in questo periodo sia il caso, anzi stanno producendo il G92b (che immagino non le supporti).
Tra l'altro proprio il G92 subirà la concorreza di AMD, con R700.
Non vedo il nesso tra g92b e gt200. Il primo sarà in uscita prima dell'estate il secondo dopo almeno stando ai rumors attuali.
appleroof
29-04-2008, 12:04
completamente condividiamo la stessa visione
ok ma nv mica è il capo... un conto sono joint venture strategiche per singoli prodotti o progetti e qui avrebbe tutto senso e sarei pienamente d'accordo, un conto sono i contratti pubblicitari (anche se molto ben pagati) e allora è un altro discorso
va bene, mettila così: se ti sponsorizzo (e anche pesantemente, pare) devi farmi tornare qualcosa indietro o no? oppure ti dò i soldi, e tanti, te li prendi e poi esce fuori il gioco dx10.1 che favorisce (l'immagine alla fine) il mio concorrente.
Allora non mi incazzo, non pretendo da te un passo indietro, sono felice e anzi ti dò pure altri soldi come premio speciale per la sortita eccellente,
.................
se condividi la mia visione in termini di mercato (lasciamo da parte un attimo il discorso del vantaggio per l'utente finale) allora non puoi non capire il senso di quello che sto dicendo, credo...
HackaB321
29-04-2008, 12:49
se uno sponsor ti paga, e tu hai tanti bei soldini quindi, mi sembra il minimo
altrimenti non accetti quei soldi e sei libero di fare quello che vuoi, non credi?
No non credo. Il programma TWIMTP non prevede (almeno ufficialmente) una sponsorizzazione in denaro ma una semplice collaborazione privilegiata per ottimizzare il gioco per architetture Nvidia.
Fin qui tutto normale: il gioco avrà il solito uso sproporzionato di texture, non userà il tesselletion, nè i gs per fare felice la casamadre. Lo ha fatto anche ATi in passato per Prey, HL e tutti i giochi ATi games di ottimizzare i giochi per la propria architettura.
Poi inizia la collaborazione con ATi, viene individuata una situazione in cui le DX10.1 possono essere utili e si provvede a implementarle.
Risultato: il gioco va troppo bene, allora ci inventiamo una balla ed esce una bella patch che cancella tutto.
A me sembra che un danno per gli utenti finali sia stato arrecato come testimoniato da tutti i siti che si sono occupati della cosa. Visto che Nvidia è anche leader di mercato, almeno in europa ce ne sarebbe a sufficienza per abuso di posizione dominante.
P.s: Nota bene che non è una situazione di verdi contro rossi. L'esempio di COJ da te citato lo condivido appieno: era uno scandalo che un gioco non usasse su schede nvidia le Rops per il resolve dell'AA. Infatti ho più volte detto che i confronti tra schede non dovevano includere giochi dichiaratamente di parte come Coj o Lost Planet
Iantikas
29-04-2008, 12:58
io sinceramente credo ke la verità sa semplicemente ciò ke ha affermato ubisoft...ossia ke i guadagni dovute alle 10.1 son legati prinicipalmente ad un errore di programmazionne ke rimuove una passata di post procssing...
...guardate x es questo screen con e senza SP1 sulla HD3870X2... http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN18zX2wucG5n ...c'è una leggera differenza alivello d contrasto/luminosità, quello con SP1 è un pò "+ scuro"...
...e poi guardate questo con SP1 ke raffronta HD3870X2 e 9800GTX...http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN181X2wucG5n ...quello di ati è un pò + scuro...ma se si confronta quello co sp1 della 9800GTX e quello senza sp1 della hd3870x2 tutto diventa identico e sparisce la differenza a livello di contrasto/luminosità...
...daltronde differenze così marcate come si possono vedere in questi altri screen ... http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN184X2wucG5n ... http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV82X2wucG5n ...nn son affatto normali...
...quindi credo si stia alzando un gran polverone x nulla e le cose stanno semplicemente come son state riferite dalla Ubisoft e cioè ke vien meno un passaggio d post processing x un errore di programmazione nell'implementare le DX10.1...
...fare teorie su vari complotti imho ha poco senso xkè se davvero nvidia potesse influire sulla rimozione o meno del supporto DX10.1 sicuramente il gioco nn sarebbe uscito proprio con questo supporto...ciao
Io, che ho appena preso una scheda NVidia, devo dire che trovo più belleda guardare le immagini ATI.
Questo per dire che sono superpartes.
Certo, la differenza "da fermo" è pressocché nulla; ma se in movimento ci guadagnano quella fetta di percentuale, viene un pò da pensare.
appleroof
29-04-2008, 13:17
No non credo. Il programma TWIMTP non prevede (almeno ufficialmente) una sponsorizzazione in denaro ma una semplice collaborazione privilegiata per ottimizzare il gioco per architetture Nvidia.
altra prova su AC riguardo il caso formatosi qualche giorno fa... stavolta da HardOCP http://enthusiast.hardocp.com/article.html?art=MTQ5MywxLCxoZW50aHVzaWFzdA==
Kyle’s note: We think we have done our homework here and don’t see any reason for DX10.1 support to be taken away from Radeon 3800 series owners. This is the first time we have seen the ATI Radeon 3870 benefit from the heavily marketed DX10.1 support. To simply take that away is a travesty and we think that Ubisoft should at least leave the choice up to the end user. Obviously you don’t have to patch the game, so Ubisoft can’t really take it away from you, but don’t expect continued support for the DX10.1 version of the game, at least not for the time being. And that time being is very likely till NVIDIA gets its own DX10.1 GPU considering it has a reported US$4,000,000.00 in deals invested with Ubisoft at the moment. Time will tell.
Fin qui tutto normale: il gioco avrà il solito uso sproporzionato di texture, non userà il tesselletion, nè i gs per fare felice la casamadre. Lo ha fatto anche ATi in passato per Prey, HL e tutti i giochi ATi games di ottimizzare i giochi per la propria architettura.
Poi inizia la collaborazione con ATi, viene individuata una situazione in cui le DX10.1 possono essere utili e si provvede a implementarle.
Risultato: il gioco va troppo bene, allora ci inventiamo una balla ed esce una bella patch che cancella tutto.
A me sembra che un danno per gli utenti finali sia stato arrecato come testimoniato da tutti i siti che si sono occupati della cosa. Visto che Nvidia è anche leader di mercato, almeno in europa ce ne sarebbe a sufficienza per abuso di posizione dominante.
P.s: Nota bene che non è una situazione di verdi contro rossi. L'esempio di COJ da te citato lo condivido appieno: era uno scandalo che un gioco non usasse su schede nvidia le Rops per il resolve dell'AA. Infatti ho più volte detto che i confronti tra schede non dovevano includere giochi dichiaratamente di parte come Coj o Lost Planet
ma siamo così sicuri che le dx10.1 siano la perfezione assoluta? Io non ho ancora visto un gioco che sia veramente dx10, questo si che sarebbe un interessante tema di discussione, dal punto di vista dell'utente finale :read:
@Ratatosk: hai dichiarato mi pare su questo stesso tread che dell'aa te ne importa nulla, tanto che non lo attivi mai anche quando potresti; ora nel "caso AC dx10.1" il beneficio più evidente, a parità del resto, sarebbe un aa eccellente in game, per cosa ti strappi le vesti allora?
Marko#88
29-04-2008, 13:21
ma siamo così sicuri che le dx10.1 siano la perfezione assoluta? Io non ho ancora visto un gioco che sia veramente dx10, questo si che sarebbe un interessante tema di discussione, dal punto di vista dell'utente finale :read:
appunto, fin'ora le dx10 non sono servite a chissà cosa, figuriamoci le 10.1...l'unico gioco dove le dx10 danno qualche effetto serio è crysis...ma alla fine sono effetti quasi riproducibili con le 9, per di più con prestazioni migliori...boh, mi pare si corra troppo a volte...
appleroof
29-04-2008, 13:32
appunto, fin'ora le dx10 non sono servite a chissà cosa, figuriamoci le 10.1...l'unico gioco dove le dx10 danno qualche effetto serio è crysis...ma alla fine sono effetti quasi riproducibili con le 9, per di più con prestazioni migliori...boh, mi pare si corra troppo a volte...
esatto....io mi lamenterei più di questo, che di un rinvio (perchè di questo si tratta, davvero certe volte si esagera) di un supporto alle dx10.1
di tutte le meraviglie promesse dalle dx10 già di per se (e sono tantissime, sulla carta, rispetto alle dx9) ne ho viste all'opera si e no il 5%
tutta colpa delle consolle, secondo qualcuno (e della contemporanea scarsa diffusione di vista), ma queste non le fà (almeno non del tutto :asd: ) nvidia e allora nessuno si dispera
Per cosa ne sarà della concorrenza, se una feature che porta tali benefici (per la maggioranza delle persone, visto che io non uso l'AA, ma la maggior parte sì) viene cassata per ordini dall'alto...
come sopra
aggiungo solo che cose del genere accadono da anni, è giusto criticare ma non mi pare il caso, ripeto per l'ennesima, di gridare allo scandalo o rimpiangere la fine della concorrenza adesso
tanto più che nel caso specifico nulla, a meno che io sappia leggendo in giro e non lavorando alla Ubisoft o similari, dimostra a cosa sia effettivamente dovuto quel boost delle schede Ati in dx10.1: e se fosse proprio grazie alla mancanza di quell'effetto di post-processing come la mettete?
esatto....io mi lamenterei più di questo, che di un rinvio (perchè di questo si tratta, davvero certe volte si esagera) di un supporto alle dx10.1
di tutte le meraviglie promesse dalle dx10 già di per se (e sono tantissime, sulla carta, rispetto alle dx9) ne ho viste all'opera si e no il 5%
tutta colpa delle consolle, secondo qualcuno (e della contemporanea scarsa diffusione di vista), ma queste non le fà (almeno non del tutto :asd: ) nvidia e allora nessuno si dispera
come sopra
aggiungo solo che cose del genere accadono da anni, è giusto criticare ma non mi pare il caso, ripeto per l'ennesima, di gridare allo scandalo o rimpiangere la fine della concorrenza adesso
tanto più che nel caso specifico nulla, a meno che io sappia leggendo in giro e non lavorando alla Ubisoft o similari, dimostra a cosa sia effettivamente dovuto quel boost delle schede Ati in dx10.1: e se fosse proprio grazie alla mancanza di quell'effetto di post-processing come la mettete?
Ma veramente sono state fatte varie prove e gli screen sono chiari.
appleroof
29-04-2008, 14:12
Ma veramente sono state fatte varie prove e gli screen sono chiari.
chiari de che? a far vedere delle differenze, non a stabilire che le vga ati hanno un boost per le dx10.1 in sè o per la mancanza di quell'effetto (ma quale, poi?) di post-processing
davvero troppo poco, secondo me, per affermare una superiorità oggettiva o meglio benefici reali e costanti apportati dalle dx10.1 all'efficenza delle schede ati, e quindi alle loro prestazioni.
Free Gordon
29-04-2008, 14:30
Basta che si sappia invece che si insabbii tutto.
E la giudico una concorrenza sleale quella di finanziare le SWh....
Mah, è una cosa sempre accaduta... e cmq è impossibile proibirlo. :p
HackaB321
29-04-2008, 15:00
ma siamo così sicuri che le dx10.1 siano la perfezione assoluta? Io non ho ancora visto un gioco che sia veramente dx10, questo si che sarebbe un interessante tema di discussione, dal punto di vista dell'utente finale :read:
Le 10.1 sono un superset delle 10 che riguarda soprattutto il "come" più che il "cosa": vengono standardizzate e semplificate delle tecniche di programmazione riguardanti effetti riproducibili anche dalle directx10 ma ad un "costo" (computazionale o di workaround tecnici) maggiore. La cosa abbastanza scandalosa per noi utenti è che queste modifiche non siano state inserite nelle dx10 originali in modo da non avere due librerie incompatibili a livello hw a distanza così ravvicinata.
appunto, fin'ora le dx10 non sono servite a chissà cosa, figuriamoci le 10.1...l'unico gioco dove le dx10 danno qualche effetto serio è crysis...ma alla fine sono effetti quasi riproducibili con le 9, per di più con prestazioni migliori...boh, mi pare si corra troppo a volte...
Tra le 10 e le 10.1 il passo è molto più breve. In termini di programmazione "convertire" giochi tra le due librerie sarebbe relativamente semplice (in AC le feature 10.1 sono state inserite velocemente). Il problema è il poco hw che le supporta (lo stesso problema finora delle dx10)
e se fosse proprio grazie alla mancanza di quell'effetto di post-processing come la mettete?
Rage3d e HardoCP in entrambe le recensioni hanno affermato che la qualità dell'immagine nelle due versioni è sostanzialmente uguale.
Iantikas
29-04-2008, 16:03
La metto che la presenza/assenza di quel passo di post-processing non è visibile. Ergo inferisco che quel passo diventa inutile quando si faccia l'AA "alla DX10.1". Certo è un'ipotesi, ma non un'ipotesi come un'altra, visto che questa viene confermata sul campo, mentre quella secondo cui va meglio perché manca un passo e quindi è ridotta la qualità è contraddetta dall'esperienza sul campo.
Rage3d e HardoCP in entrambe le recensioni hanno affermato che la qualità dell'immagine nelle due versioni è sostanzialmente uguale.
veramente mi sembra dicano anke questo
This last comparison screenshot clearly shows the difference in contrast produced by these video cards in Assassin's Creed. On the left side, shown on AMD hardware, the lighting is so bright and overexposed that it begins to looks seriously washed out. The right side, shown on an NVIDIA video card, is much more reasonably lit in our opinion
ma sopratutto aldilà di ciò ke dicono io guardo essenzialmente gli screen (tipo questi http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV82X2wucG5n http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV80X2wucG5n http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN184X2wucG5n ) e,aldilà dallo star a definire ki sia migliore o peggiore, noto differenze notevoli ke nn son x niente normali dato ke solitamente le differenze son nulle o lievissime...
...ciao
veramente mi sembra dicano anke questo
ma sopratutto aldilà di ciò ke dicono io guardo essenzialmente gli screen (tipo questi http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV82X2wucG5n http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV80X2wucG5n http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN184X2wucG5n ) e,aldilà dallo star a definire ki sia migliore o peggiore, noto differenze notevoli ke nn son x niente normali dato ke solitamente le differenze son nulle o lievissime...
...ciao
Se impostazioni di gioco sono gli stessi (intendo i filtri ect) allora la differenza visiva è notevole :eek:
HackaB321
29-04-2008, 16:26
veramente mi sembra dicano anke questo
ma sopratutto aldilà di ciò ke dicono io guardo essenzialmente gli screen (tipo questi http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV82X2wucG5n http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfNV80X2wucG5n http://enthusiast.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN184X2wucG5n ) e,aldilà dallo star a definire ki sia migliore o peggiore, noto differenze notevoli ke nn son x niente normali dato ke solitamente le differenze son nulle o lievissime...
...ciao
Se in più punti della recensione dicono che non vi sono differenze nella qualità dell'immagine tra dx10 e dx10.1 significa che quelle immagini sovraesposte su scheda ATi non dipendono dalla libreria utilizzata. Può anche essere che il gioco abbia una qualità dell'immagine migliore su schede Nvidia: non è questo il punto.
Il punto è che tra dx10 e 10.1 la qualità dell'immagine è la stessa mentre le performance no: allora perchè rimuovere questo supporto?
E anche ammettendo che Ubisoft dica la verità e che manchi un effetto nella versione 10.1: che cosa impedisce gli sviluppatori di ripristinare l'effetto di postprocessing mantenendo il supporto alle DX10.1?
appleroof
29-04-2008, 16:32
Se in più punti della recensione dicono che non vi sono differenze nella qualità dell'immagine tra dx10 e dx10.1 significa che quelle immagini sovraesposte su scheda ATi non dipendono dalla libreria utilizzata. Può anche essere che il gioco abbia una qualità dell'immagine migliore su schede Nvidia: non è questo il punto.
Il punto è che tra dx10 e 10.1 la qualità dell'immagine è la stessa mentre le performance no: allora perchè rimuovere questo supporto?
E anche ammettendo che Ubisoft dica la verità e che manchi un effetto nella versione 10.1: che cosa impedisce gli sviluppatori di ripristinare l'effetto di postprocessing mantenendo il supporto alle DX10.1?
ma infatti è quello che è stato dichiarato, reintroduranno l'effetto e il supporto dx10.1
supercomputer1
29-04-2008, 16:34
Dalle immagini sembra che dove vi sia scritto 3870x2 le immagini siano overexposed = sovraespotte agli effetti di luce inoltre e' anche possibile notare in alcuni oggetti la mancanza degli stessi (guardare il pavimento del tetto vicino ai legnetti non viene creato la superficie ruvida del tetto) cosa che di solito succede impostando i dettagli su low.
se invece volete vedere la differenza di rendering delle immagini e riflessi di luce tra Ati e Nvidia usando le screenshot degli stessi identici giochi alla stessa risoluzione e settaggi vi manda un sito web tedesco dove e' possibile confrontare le immagini dei veari giochi in real time .
supercomputer1
29-04-2008, 16:43
Il punto è che tra dx10 e 10.1 la qualità
dell'immagine è la stessa mentre le performance no: allora perchè rimuover anche ammettendo che Ubisoft dica la verità e che manchi un effetto nella versione 10.1: che cosa impedisce gli sviluppatori di ripristinare l'effetto di postprocessing mantenendo il supporto alle DX10.1?
Esattamente vi e' dietro una questione di marketing propio ieri ho scoperto
le vecchie motherboard am2 che dovevano essere retrocompatibili con i nuovi processori AM2+(tipo i quadcore Phenom ad un tratto non lo sono piu bisogna acquistare una scheda madre am2+ che supporti i nuovi processori dicono loro. E' tutta una questione di marketing per vendere le nuove motherboard poi sono venuto a scoprire che aggiornanto il bios e' possibile montare un phenom su socket AM2 l'unica differenza sta ' che non viene sfruttato l Hipertranport versione 3 , quindi non poter usufruire della larghezza di banda che si dovrebbe avere a disposizione ; ma per il resto funziona tutto.
HackaB321
29-04-2008, 16:53
ma infatti è quello che è stato dichiarato, reintroduranno l'effetto e il supporto dx10.1
per ora di certo c'è che lo tolgono. Che lo reintrodurranno è il risultato dell' interpretazione di una frase.
appleroof
29-04-2008, 17:06
per ora di certo c'è che lo tolgono. Che lo reintrodurranno è il risultato dell' interpretazione di una frase.
boh, c'è poco da interpretare mi pare...
the patch will remove support for DX10.1, since we need to rework its implementation.
http://www.hwupgrade.it/forum/showpost.php?p=22117774&postcount=1904
Esattamente vi e' dietro una questione di marketing propio ieri ho scoperto
le vecchie motherboard am2 che dovevano essere retrocompatibili con i nuovi processori AM2+(tipo i quadcore Phenom ad un tratto non lo sono piu bisogna acquistare una scheda madre am2+ che supporti i nuovi processori dicono loro. E' tutta una questione di marketing per vendere le nuove motherboard poi sono venuto a scoprire che aggiornanto il bios e' possibile montare un phenom su socket AM2 l'unica differenza sta ' che non viene sfruttato l Hipertranport versione 3 , quindi non poter usufruire della larghezza di banda che si dovrebbe avere a disposizione ; ma per il resto funziona tutto.
:eek: :old:
appleroof
29-04-2008, 17:53
Scommetto che dopo sarà graficamente identico ma andrà come in DX10 :asd:
eh ma allora pensi sempre male....:asd: ;)
Mister Tarpone
29-04-2008, 18:06
non prendetela come flame.. ;)
maaa...
http://img168.imageshack.us/img168/7152/1209327136lbt4ywf2ib77lfr8.jpg
....ecco la migliore qualità Ati....
praticamente il gioco gira senza filtro AF.. che rende le texture tutte spappate... mentre con le nvida sono perfettamente nitide ;)
ovviamente pure i test prestazionali con questa magagna dei driver ati (che verrà corretta più in la.. ) sono sfalsati ;)
ma daiii... ma non ci prendiamo per il cu...altro che miglioramento visivo dx10.1 :asd:
cmq vabbè... ;)
appleroof
29-04-2008, 18:11
non prendetela come flame.. ;)
maaa...
cut
....ecco la migliore qualità Ati....
praticamente il gioco gira senza filtro AF.. che rende le texture tutte spappate... mentre con le nvida sono perfettamente nitide ;)
ovviamente pure i test prestazionali con questa magagna dei driver ati (che verrà corretta più in la.. ) sono sfalsati ;)
ma daiii... ma non ci prendiamo per il cu...altro che miglioramento visivo dx10.1 :asd:
cmq vabbè... ;)
non è possibile :nonsifa: , Ati queste cose non le fa :asd: :asd:
Mister Tarpone
29-04-2008, 18:13
non è possibile :nonsifa: , Ati queste cose non le fa :asd: :asd:
no ma infatti... è sempre la solita storia...
cioè che c'è sempre sto ca220 di complotto.. !!!!!!! :ops: :ops: :ops:
:asd:
appleroof
29-04-2008, 18:14
:asd:
mi giunge voce che hardocp è un portale "vicino" a nVidia! :ciapet:
come rage3d :D :D
no ma infatti... è sempre la solita storia...
cioè che c'è sempre sto ca220 di complotto.. !!!!!!! :ops: :ops: :ops:
:asd:
la maaaaaaafia :D :D :D
HackaB321
29-04-2008, 18:22
non prendetela come flame.. ;)
maaa...
....ecco la migliore qualità Ati....
praticamente il gioco gira senza filtro AF.. che rende le texture tutte spappate... mentre con le nvida sono perfettamente nitide ;)
ovviamente pure i test prestazionali con questa magagna dei driver ati (che verrà corretta più in la.. ) sono sfalsati ;)
ma daiii... ma non ci prendiamo per il cu...altro che miglioramento visivo dx10.1 :asd:
cmq vabbè... ;)
Sbagli termine di paragone.Il confronto non è ATi vs Nvidia ma Dx10 vs Dx10.1. Nvidia non c'entra niente.
non prendetela come flame.. ;)
maaa...
http://img168.imageshack.us/img168/7152/1209327136lbt4ywf2ib77lfr8.jpg
....ecco la migliore qualità Ati....
praticamente il gioco gira senza filtro AF.. che rende le texture tutte spappate... mentre con le nvida sono perfettamente nitide ;)
ovviamente pure i test prestazionali con questa magagna dei driver ati (che verrà corretta più in la.. ) sono sfalsati ;)
ma daiii... ma non ci prendiamo per il cu...altro che miglioramento visivo dx10.1 :asd:
cmq vabbè... ;)
Clearly, Anisotropic Filtering is not working on AMD hardware in Assassin's Creed using the in-game settings. Aside from that, the only other problems immediately apparent are the Shadow Artifacting which happens equally on NVIDIA and AMD hardware. There is a difference in contrast and perhaps HDR tone, but it is debatable which one looks better. Other than the above mentioned things, all the post processing effects and pixel shader qualities look exactly the same between NVIDIA and AMD hardware.
Perchè la gente non legge mai l'articolo completo? :mbe:
Mister Tarpone
29-04-2008, 18:25
Sbagli termine di paragone.Il confronto non è ATi vs Nvidia ma Dx10 vs Dx10.1. Nvidia non c'entra niente.
vabbè... cmq in quel confronto hanno messo una scheda ati da una parte e dall'altra una nvidia... . . .. .
appleroof
29-04-2008, 18:25
Sbagli termine di paragone.Il confronto non è ATi vs Nvidia ma Dx10 vs Dx10.1. Nvidia non c'entra niente.
hai ragione, rimane una qualità d'immagine peggiore nello screen della 3870x2 postato da Tarpo
Mister Tarpone
29-04-2008, 18:26
hai ragione, rimane una qualità d'immagine peggiore nello screen della 3870x2 postato da Tarpo
infatti... è evidente..
appleroof
29-04-2008, 18:26
Clearly, Anisotropic Filtering is not working on AMD hardware in Assassin's Creed using the in-game settings. Aside from that, the only other problems immediately apparent are the Shadow Artifacting which happens equally on NVIDIA and AMD hardware. There is a difference in contrast and perhaps HDR tone, but it is debatable which one looks better. Other than the above mentioned things, all the post processing effects and pixel shader qualities look exactly the same between NVIDIA and AMD hardware.
Perchè la gente non legge mai l'articolo completo? :mbe:
hai ragione, questo + la mancanza di quel famigerato effetto di post-processing sarebbero già più che sufficienti a spiegare il boost prestazionale, sulla carta
Mister Tarpone
29-04-2008, 18:28
hai ragione, questo + la mancanza di quel famigerato effetto di post-processing sarebbero già più che sufficienti a spiegare il boost prestazionale, sulla carta
che dice?? (non so tanto bene l'inglese) :confused:
conferma che manca il filtro af??? che se non sbaglio è anche il punto debole delle ati, a livello di performance?? :confused:
hai ragione, questo + la mancanza di quel famigerato effetto di post-processing sarebbero già più che sufficienti a spiegare il boost prestazionale, sulla carta
si vede come sono stati fatti i test tutto qui.
appleroof
29-04-2008, 18:28
infatti... è evidente..
qualità che invece migliora senza le dx10.1 (perchè in questo caso è attivabile l'af)
altro che disperarsi perchè la qualità con le dx 10.1 era migliore ecc....è esattamente il contrario :doh:
(ammetto che ero del tutto ignaro del discorso legato all'anisotropico finora)
non prendetela come flame.. ;)
maaa...
http://img168.imageshack.us/img168/7152/1209327136lbt4ywf2ib77lfr8.jpg
....ecco la migliore qualità Ati....
praticamente il gioco gira senza filtro AF.. che rende le texture tutte spappate... mentre con le nvida sono perfettamente nitide ;)
ovviamente pure i test prestazionali con questa magagna dei driver ati (che verrà corretta più in la.. ) sono sfalsati ;)
ma daiii... ma non ci prendiamo per il cu...altro che miglioramento visivo dx10.1 :asd:
cmq vabbè... ;)
AF in AC con le schede ati non funziona sia in dx9 che in dx10 che in dx10.1. Ed è una cosa nota quindi non vedo ne la scoperta, ne lo scandalo. Il miglioramento in dx10.1 c'è solo ed esclusivamente per quanto riguarda l'applicazione dell'AA e basta non migliora nessun altro aspetto grafico del gioco. Non si tratta di magagna solo di un bug con il gioco vedremo se sarà corretto con i prossimi driver o con una patch.
p.s. ma halduemilauno ?
Mister Tarpone
29-04-2008, 18:33
qualità che invece migliora senza le dx10.1 (perchè in questo caso è attivabile l'af)
altro che disperarsi perchè la qualità con le dx 10.1 era migliore ecc....è esattamente il contrario :doh:
(ammetto che ero del tutto ignaro del discorso legato all'anisotropico finora)
:doh: :doh: :doh:
:doh: :doh: :doh:
:doh: :doh: :doh:
e poi ci si scandalizza se nvidia con una release di driver beta ti fa girare crysis con qualche riflesso distorto dell'acqua... :mad: :mad: :bsod:
:sbonk:
appleroof
29-04-2008, 18:33
che dice?? (non so tanto bene l'inglese) :confused:
conferma che manca il filtro af??? che se non sbaglio è anche il punto debole delle ati, a livello di performance?? :confused:
dunque andiamo con calma sennò non ci capisco nulla nemmeno io
qui dice che l'anisotropico non funziona usando i settaggi del gioco (funziona da driver? boh)
Clearly, Anisotropic Filtering is not working on AMD hardware in Assassin's Creed using the in-game settings.
qui invece dice che, a parte settaggi dell'hdr diversi (e quindi una resa diversa, migliore o peggiore secondo loro dipende dall'osservatore) il resto sostanzialmente è identico
Aside from that, the only other problems immediately apparent are the Shadow Artifacting which happens equally on NVIDIA and AMD hardware. There is a difference in contrast and perhaps HDR tone, but it is debatable which one looks better. Other than the above mentioned things, all the post processing effects and pixel shader qualities look exactly the same between NVIDIA and AMD hardware.
tutti gli effetti di post-processing e pixel shader sono identici tra hw Nvidia e Amd
mi resta da capire se l'af può essere settato da driver e "sovrasrivere" quello del gioco, altrimenti appunto è un grave peggioramento della qualità d'immagine
Mister Tarpone
29-04-2008, 18:34
ho capito ;)
appleroof
29-04-2008, 18:39
:doh: :doh: :doh:
:doh: :doh: :doh:
:doh: :doh: :doh:
e poi ci si scandalizza se nvidia con una release di driver beta ti fa girare crysis con qualche riflesso distorto dell'acqua... :mad: :mad: :bsod:
:sbonk:
te l'ho detto, Ati non le fà queste cose :asd: :asd:
cmq sta storia merita approfondimenti, ma ho paura che alla fine della fiera non avverranno mai (intendo onesti ed oggettivamente verificabili) :rolleyes:
rimane un fatto: se non posso settare l'af, questo è un bug grosso come un condominio, altro che casa, quindi mi pare il minimo che Ubisoft intervenga, a meno che i possessori di vga Ati siano felici del progresso tecnologico che permette di far girare un gioco dx10.1 sulla loro scheda, a prezzo del regresso tecnologico di non poter settare l'af :D :stordita:
Marko#88
29-04-2008, 18:40
:doh: :doh: :doh:
:doh: :doh: :doh:
:doh: :doh: :doh:
e poi ci si scandalizza se nvidia con una release di driver beta ti fa girare crysis con qualche riflesso distorto dell'acqua... :mad: :mad: :bsod:
:sbonk:
:asd:
te l'ho detto, Ati non le fà queste cose :asd: :asd:
cmq sta storia merita approfondimenti, ma ho paura che alla fine della fiera non avverranno mai (intendo onesti ed oggettivamente verificabili) :rolleyes:
rimane un fatto: se non posso settare l'af, questo è un bug grosso come un condominio, altro che casa, quindi mi pare il minimo che Ubisoft intervenga, a meno che i possessori di vga Ati siano felici del progresso tecnologico che permette di far girare un gioco dx10.1 sulla loro scheda, a prezzo del regresso tecnologico di non poter settare l'af :D :stordita:
AF in AC con le schede ati non funziona sia in dx9 che in dx10 che in dx10.1. Ed è una cosa nota quindi non vedo ne la scoperta, ne lo scandalo. Il miglioramento in dx10.1 c'è solo ed esclusivamente per quanto riguarda l'applicazione dell'AA e basta non migliora nessun altro aspetto grafico del gioco. Non si tratta di magagna solo di un bug con il gioco vedremo se sarà corretto con i prossimi driver o con una patch.
p.s. ma halduemilauno ?
Non c'è peggior sordo di chi non vuol sentire...
appleroof
29-04-2008, 18:49
Non c'è peggior sordo di chi non vuol sentire...
oppure peggior cieco di chi non vuol vedere :D :D
mi era sfuggito questo post, a te se credermi o meno ;)
Dunque...
La questione era la seguente:
"Usando schede ATi, in DX10.1 la qualità dell'AA migliora con una velocità di esecuzione maggiorata rispetto al caso in cui venga utilizzata la modalità DX10."
Del confronto fra l'IQ nVidia e ATi si può discutere ma non era questo il problema, bensì per quale oscuro motivo venga tolto un path al gioco, path che risulta in una qualità migliore ed una esecuzione più veloce, ovvero solo vantaggi.
Il bug dell'AF è presente in tutte i path su schede ATi e deve essere abilitato da driver perché abilitarlo da gioco non ha effetto.
Da quanto ne so la sua attivazione comporta cmq una penalty in termini di performance piuttosto marcata.
Fin'ora tutto OT, la cosa in topic è che le 32 TMU che si prospettano per RV770 risolveranno il problema di decadimento prestazionale con AF, cosa che comunque non c'entra niente con il discorso DX10 vs DX10.1.
quindi l'af non si attiva cmq? nè in dx10 nè in dx10.1 nè dx9? :doh: (lascio perdere ogni commento che darebbe adito solo a flame, ma veramente è una cosa a dir poco...vabbè)
ok, io per ora lascio perdere, anche perchè in effetti siamo abbondantemente usciti OF rispetto a rv770
Iantikas
29-04-2008, 18:57
boh getto la spugna...qua sembra ke ognuno legge e vede esclusivamente ciò ke vuol leggere e vedere...
...x appleroof: l'af attivabile tramite gioco con ati nn funziona qualunque DX si usi (10.1, 10 o 9 cmq nn funziona)...ma è attivabile tramite pannello di controllo....questo xò (forzarlo tramite driver) comporta una severissima perdita prestazionale (come ben specificato dalla rece e spero nn te la prendi a male se te lo dico, ma prima di entrare in un discorso del genere leggersi gli articoli a riguardo è indispensabile) al punto ke hanno preferito lasciarlo disattivato e poter alzare ris, dettagli e aa piuttsoto ke dover scnedere d ris, abbassare molti dettagli e perdere l'AA giusto x avere l'AF...
...ciao
p.s.: kissà se un giorno imparerò mai ad aggiornare il 3d prima d postare :oink:
oppure peggior cieco di chi non vuol vedere :D :D
mi era sfuggito questo post, a te se credermi o meno ;)
quindi l'af non si attiva cmq? nè in dx10 nè in dx10.1 nè dx9? :doh: (lascio perdere ogni commento che darebbe adito solo a flame, ma veramente è una cosa a dir poco...vabbè)
ok, io per ora lascio perdere, anche perchè in effetti siamo abbondantemente usciti OF rispetto a rv770
Può capitare che una funzione implementata in un gioco non sia supportata da alcune schede non ci vedo nulla di strano, il problema prestazionale con le softshadow delle ati x19x0 rispetto alle 7xx0 a causa di una mancanza hw. Il mancato supporto hw di hdr+aa della serie 7 di nvidia. Sono cose che possono succedere, e sono ben diverse da hack driver che, ad oggi, ha fatto solo nvidia. O le ombre scalettate di nfs:mw che c'erano con le x8x0. Vedremo se ATI riuscirà a risolvere con driver o se il problema è del gioco e quindi andrà risolto con una patch, o ancora se le ATi non sono in grado di eseguire quel tipo di effetto.
Non è questione di essere ciechi o meno ma l'af in game con le ati non va. Più tardi installo il gioco (me l'hanno appena portato visto che a me non piace) e ti saprò dire se forzandolo via driver si attiva o meno.
halduemilauno
29-04-2008, 19:03
AF in AC con le schede ati non funziona sia in dx9 che in dx10 che in dx10.1. Ed è una cosa nota quindi non vedo ne la scoperta, ne lo scandalo. Il miglioramento in dx10.1 c'è solo ed esclusivamente per quanto riguarda l'applicazione dell'AA e basta non migliora nessun altro aspetto grafico del gioco. Non si tratta di magagna solo di un bug con il gioco vedremo se sarà corretto con i prossimi driver o con una patch.
p.s. ma halduemilauno ?
eccomi dimmi.
eccomi dimmi.
Mi aspettavo anche un tuo commento sulla faccenda.
Bisogna attivarlo da CCC perché da gioco non si attiva, probabilmente risolveranno con i prossimi catalyst, ammesso che il problema sia nei catalyst e non nel gioco, ma francamente su questo non saprei darti una risposta...
Ma le tmu di ati e nvidia hanno la stessa efficienza ? Perchè non sono cosi sicuro che 32 tmu bastino a colmare il gap sopratutto se i giochi continuano a far largo uso di istruzioni che devono essere elaborate dalle tmu.
HackaB321
29-04-2008, 19:29
Ma le tmu di ati e nvidia hanno la stessa efficienza ? Perchè non sono cosi sicuro che 32 tmu bastino a colmare il gap sopratutto se i giochi continuano a far largo uso di istruzioni che devono essere elaborate dalle tmu.
Prese singolarmente sono più efficienti. Nel complesso è come una guerra tra la Cina e Città del Vaticano.
in mezzo al discorso inerente ad AC e DX10.1 non mi ricordo se ci son già rumors di questo tipo.. io li posto lo stesso :D
Vejam as características de cada placa que será lançada com ele:
Radeon HD 4850: freqüências de 650/850/2.286 MHz, 256 MB de memória GDDR3, TDP < 100 W, preço: aproximadamente US$;
Radeon HD 4850: freqüências de 650/850/2.286 MHz, 512 MB de memória GDDR3, TDP = 110 W, preço: US$ 229;
Radeon HD 4850: freqüências de 650/850/3.456 MHz, 512 MB de memória GDDR5, TDP = 110 W, preço: US$ 249 a US$ 269;
Radeon HD 4870: freqüências de 850/1.050/3.870 MHz, 1 GB de memória GDDR5, TDP = 150 W, preço: US$ 329 a US$ 349;
Radeon HD 4870 X2: freqüências de 850/1.050/3.456 MHz, 2 × 1 GB de memória GDDR5, preço: US$ 499.
Os níveis de consumo das memórias GDDR5 são 34,5% menores que os da GDDR3 o que faz o TDP abaixar até 110W mesmo com clocks até 4GHz
Link (http://liveinfo.wordpress.com/)
HackaB321
29-04-2008, 19:31
Dunque...
La questione era la seguente:
"Usando schede ATi, in DX10.1 la qualità dell'AA migliora con una velocità di esecuzione maggiorata rispetto al caso in cui venga utilizzata la modalità DX10."
Del confronto fra l'IQ nVidia e ATi si può discutere ma non era questo il problema, bensì per quale oscuro motivo venga tolto un path al gioco, path che risulta in una qualità migliore ed una esecuzione più veloce, ovvero solo vantaggi.
Il bug dell'AF è presente in tutte i path su schede ATi e deve essere abilitato da driver perché abilitarlo da gioco non ha effetto.
Da quanto ne so la sua attivazione comporta cmq una penalty in termini di performance piuttosto marcata.
Fin'ora tutto OT, la cosa in topic è che le 32 TMU che si prospettano per RV770 risolveranno il problema di decadimento prestazionale con AF, cosa che comunque non c'entra niente con il discorso DX10 vs DX10.1.
sintesi perfetta, l'AF però penso sia un bug che non dipende dal numero di TMU
Mister Tarpone
29-04-2008, 19:38
oppure peggior cieco di chi non vuol vedere :D :D
mi era sfuggito questo post, a te se credermi o meno ;)
quindi l'af non si attiva cmq? nè in dx10 nè in dx10.1 nè dx9? :doh: (lascio perdere ogni commento che darebbe adito solo a flame, ma veramente è una cosa a dir poco...vabbè)
ok, io per ora lascio perdere, anche perchè in effetti siamo abbondantemente usciti OF rispetto a rv770
he he he he..... ma poi??? mi dici te di che sa l'aa 2x a 1600x??? se poi per girare bene devi tenere l'af (filtro importantissimo
per la qualità della grafica... anche + dell'aa.. :doh: ) ad off.... :doh: altrimenti le prestazioni diminuiscono di brutto....
vabbè... :stordita:
fine ot...... ( :bsod: )
gianni1879
29-04-2008, 20:32
ragazzi non vorrei essere fastidioso ma pagine e pagine di AC Dx10.1, direi che si è giusto un attimo OT
non si dovrebbe parlare di R700 e derivati??
ragazzi non vorrei essere fastidioso ma pagine e pagine di AC Dx10.1, direi che si è giusto un attimo OT
non si dovrebbe parlare di R700 e derivati??
quoto, siamo un pò OT..
E comunque voglio ripetere di ricordare (forse sarò pesante) che le DX 10.1 sono nate x sfruttare la TASSELLAZIONE , che vedremo forse si o forse no , nei titoli futuri.
Quindi, AC , che sia meglio o peggio in AF con ATI , non c'entra nulla con DX 10.1
Perchè il motore di AC è DX 9 nativo, con le dx 10.1 non c'entra un xazzo.
Poi possiamo fare tutti i discorsi di af + o - efficiente.
Ma qui le DX 10.1 , oggi non esistono in alcun gioco nemmeno col cannocchiale.
fine OT pure io.
+ che altro eco, ritornando ad rv770, mi interesserebbe sapere se, al dilà dei numeri di TMU , SHADER ecc, le stesse unità TMU e SHADER , prese singolarmente siano + efficienti e potenti di quelle in RV670.........oppure non cambierà una mazza.
Questo sarebbe interessante sapere.
Mi pare inoltre che a vedere le specifiche in prima pagina, RV770 ha 3 frequenze diverse.........cosa che RV670 non ha.
Questo già mi sembra una diversificazione architetturale di rv770 rispetto ad rv670, e quindi quanto questi ulteriorimetri, incideranno sulle prestazioni.
Indaghiamo!
Quasi sicuramente è un fake (mi sembrano prestazioni troppo più elevate di quelle di RV670), ma per "dovere di cronaca".... :D
http://www.bilgiustam.com/resimler/2008/04/test3dmark06.jpg
http://www.bilgiustam.com/resimler/2008/04/testcrysis1.jpg
http://www.bilgiustam.com/resimler/2008/04/testcrysis2.jpg
Test System
* Intel Core 2 Extreme QX9650 @ 3.00GHz
* ASUS P5E3 Deluxe
* 2×1GB OCZ DDR3 1333MHz 9-9-9-26
* Western Digital 250GB 16MB SATA2 7200RPM
* 1GB GeForce 9800 GX2 - 600/1500/2000mhz
* 512MB ATI HD 4870 - 800/3400mhz
Drivers NVidia: Forceware 174.74 WHQL
Drivers ATi: ?
Fonte: http://www.bilgiustam.com/512mb-ati-hd-4870rv770-1gb-geforce-9800-gx2-crysis-ve-3dmark-2006-testleri/
Piuttosto credo che qualche info possa essere corretta, per esempio il clock delle GDDR5 mi sembra raggiungibilissimo (visto che pare che già i primi chip di GDDR5 raggiungano senza eccessivi problemi i 2GHz).
Con 1700MHz/3400MHz effettivi RV770 avrebbe già a disposizione 108GB/s di banda.
Mister Tarpone
29-04-2008, 21:58
73fps di media con Crysis high dx10 :eek:
:eek:
:eek:
I risultati sono fuori dal mondo; però le memorie e le frequenze sono plausibili.
Mister Tarpone
29-04-2008, 22:03
se fossero risultato veri questa 4870 con un pò di OC sarebbe capace di fare anche + di 50fps a 1600x1200 con Crysis in dx10 very high..... mica male :eek: ;)
se fossero risultato veri questa 4870 con un pò di OC sarebbe capace di fare anche + di 50fps a 1600x1200 con Crysis in dx10 very high..... mica male :eek: ;)
Il fatto è che secondo me non sono veri... O meglio, i valori della 9800GX2 sembrano corretti, ma quelli della HD4870 mi sembrano completamente taroccati, a partire dal 3DMark: il punteggio finale non è mostrato non è compatibile coi valori di SM2 e SM3, visto che un Penryn Quad a 3GHz fa sui 4400/4500 punti cpu al 3DMark06. Ho fatto il check col 3DMark calculator. ;)
I clocks però mi sembrano possibili. :)
supercomputer1
29-04-2008, 22:11
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/april/atis_r700-gpus_juni/
mokaverus
29-04-2008, 22:14
quello che mi lascia più perplesso è la frequenza del core diversa da tutti i rumors e i 512mb di ram.
però se fosse vero
4870x2 60fps a crysis very high a 1920x1200 :sofico:
Mister Tarpone
29-04-2008, 22:17
Il fatto è che secondo me non sono veri... O meglio, i valori della 9800GX2 sembrano corretti, ma quelli della HD4870 mi sembrano completamente taroccati, a partire dal 3DMark: il punteggio finale non è mostrato non è compatibile coi valori di SM2 e SM3, visto che un Penryn Quad a 3GHz fa sui 4400/4500 punti cpu al 3DMark06. Ho fatto il check col 3DMark calculator. ;)
I clocks però mi sembrano possibili. :)
ho capito... ;)
aspettiamo veri test allora.... e sperando che vada forte.... ;)
è ora che cambio scheda video se veramente ha queste prestazioni la 4870
Ati stessa diceva che rv770 doveva andare circa il 50% in più di rv670....quindi quei valori sono un bel fake, anche se ati avesse risolto i problema tmu/rop's (non ricordo mai qual'er il problema nell'architettura ati :doh: ); anche se, per risollevare la stasi del mercato delle vga, sarei molto felice di vedere prestazioni simili :)
@supercomputer1: nulla di nuovo, sempre lo stesso pappone da una settimana
bye
Iantikas
29-04-2008, 22:26
Bisogna attivarlo da CCC perché da gioco non si attiva, probabilmente risolveranno con i prossimi catalyst, ammesso che il problema sia nei catalyst e non nel gioco, ma francamente su questo non saprei darti una risposta...
pare ke negli hotfix usciti x il 3dmark vantage anke se nn sia scritto nella RN abbiano aggiustato il difetto dell'AF in AC...
......nn funziona ancora implementandolo dal titolo ma n causa + una grave perdita d frame forzadolo da CCC...
...xò "pare", c vorrebbe qualcuno con una ati serie 3000 e ac ke faccia una prova...ciao
supercomputer1
29-04-2008, 22:32
Salve questa e' la parte piu interessante che riporta la news
(R700“ erscheinen, der zwei Grafikchips des Typs RV770 auf einer Platine vereint – ähnlich dem aktuellen Konzept der ATi Radeon HD3870 X2 bzw. 3850 X2.)
. riguardo il resto sono sempre le solite cose
In parole povere dice che le 2 GPU dell'R700 non sarannno collegate come l'approccio 3870 X2 ma saranno collegate 2 GPU in un singolo package o wafer.
Quindi penso che un raffreddamento maggiorato singol Gpu potrebbe essere impiegato per raffreddare ambedue le GPU.
Salve questa e' la parte piu interessante che riporta la news
(R700“ erscheinen, der zwei Grafikchips des Typs RV770 auf einer Platine vereint – ähnlich dem aktuellen Konzept der ATi Radeon HD3870 X2 bzw. 3850 X2.)
. riguardo il resto sono sempre le solite cose
In parole povere dice che le 2 GPU dell'R700 non sarannno collegate come l'approccio 3870 X2 ma saranno collegate 2 GPU in un singolo package o wafer.
Quindi penso che un raffreddamento maggiorato singol Gpu potrebbe essere impiegato per raffreddare ambedue le GPU.
Tradotto con google, sembra dica proprio il contrario....2 gpu sullo stesso pcb (board)
73fps di media con Crysis high dx10 :eek:
:eek:
:eek:
magari :O una singola vga di qst livello @350$ ti fa rimanere a :eekk:
<^MORFEO^>
29-04-2008, 23:33
Vedo quei grafici un pò pompati a favore di ATI...
Anche se però da un lato spero che siano veri! :asd:
.... e in quel caso :eek:
Iantikas
29-04-2008, 23:34
magari :O una singola vga di qst livello @350$ ti fa rimanere a :eekk:
ehh ma veramente magari :D ...
...una gpu del genere sarebbe capace di pilotare gran parte dei titoli attuali su un 30"...cosa finora appannaggio solo di sistemi multi-gpu...x 300€ sarebbe proprio :sofico:
-noxius-
30-04-2008, 00:16
risultati fuori dal mondo ... al massimo credo che una singola 4870 potrà fare sui 6600 shader2 e 7900 sugli shader3 con un q6600@3.6GHz (ad essere molto ma molto ottimisti ..) .. Per essere un 40-50% rispetto alla vecchia generazione qui sembra che sia più del 100% , per non parlare dell'aa ed af ..
A meno che non abbiano fatto seri miracoli , questi risultati mi sembrano a dir poco eccessivi ;)
Zodd_Il_nosferatu
30-04-2008, 00:22
per quanto riguarda ac, l'af viene applicato se si installano i driver 8.49 beta!! :O
quindi prima di cianciare provate gli ultimi driver disponibili per la scheda :O
Free Gordon
30-04-2008, 00:53
Le 10.1 sono un superset delle 10 che riguarda soprattutto il "come" più che il "cosa": vengono standardizzate e semplificate delle tecniche di programmazione riguardanti effetti riproducibili anche dalle directx10 ma ad un "costo" (computazionale o di workaround tecnici) maggiore. La cosa abbastanza scandalosa per noi utenti è che queste modifiche non siano state inserite nelle dx10 originali in modo da non avere due librerie incompatibili a livello hw a distanza così ravvicinata.
Se non ricordo male, una cosa simile mi pare sia accaduta anche con DirectX 8 e 8.1
Per cui mi sa che è una cosa perfettamente normale..purtroppo.
E alla fine sono usciti molti più giochi dx8.1, rispetto a quelli dx8 puri.
HackaB321
30-04-2008, 07:36
AMD's current low-end and mid-range cards, Radeon HD 3400 and 3600 series, have been criticized for really only being low-end parts. The performance of the cards is anything but impressive, but then the price of the cards reflects that. According to a recent story at Fudzilla, both of these series were compromised by ATI's goal to equip the cards with as many features as possible, which left little room for performance parts. The upcoming RV710 and RV740 chips are supposed to change this by keeping the features, but get more performance parts inside the cores.
http://www.nordichardware.com/news,7684.html
-noxius-
30-04-2008, 08:54
http://www.nordichardware.com/news,7682.html
Ottime notizie , questo significa che le ram staranno sui 3.5GHz o poco più mentre la data di uscita sembra molto vicina (maggio,inizi giugno al massimo)
Foglia Morta
30-04-2008, 09:11
praticamente non ci sarebbero tagli per Ati , saranno ottimisti per la nuova serie.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7107&Itemid=1
No one important
We were concerned that AMD will let many people of Markham Ontario go, especially on the graphic side but we learned that very few graphic people actually got the pink slip.
Over the years we've meet a lot of key guys in ATI and we learned that no one we know actually got fired in AMD's last raid.
So far, up to five percent of planned people got the layoff notice while additional five percent will have to go until September but we have to admit that AMD was really smart about the next round of layoffs.
Hector said that they will let the additional five percent of people go, based on performance which makes every lazy chap quite concerned and this is probably the best way to increase the operational efficiency, simply as everyone’s job is in stake.
As graphic is close to finally start making money, AMD clearly doesn’t want to shoot itself in that particular leg, and it will leave them be but don’t be fooled, AMD expect performance from these guys and upcoming RV770 shows a lot of optimism and the chipset graphic guys have already outdone their selves and the better and faster 790GX is just around the corner.
However if you are one of the AMD people with a pink slip please feel free to contact us with your story.
<^MORFEO^>
30-04-2008, 09:16
Speriamo che questo loro ottimismo sia fondato... :stordita:
supercomputer1
30-04-2008, 10:18
Ciao leggiti tutto questo per chiarirti le idee se qualcosa non ti e' chiaro chiedi pure.
…Multi-Chip GPUs May Be the Future
It is little known about products code-named ATI R700 today, but, according to an article at PC Watch web-site, the next generation of graphics solutions from AMD may utilize multi-chip module (MCM) concept instead of multi-GPU concept, at least, in the high-end. Even though both approaches have drawbacks compared to single-chip solutions, in case of homogeneous MCM some issues are easier to solve.
Intel Corp., the world’s largest maker of chips, puts two physical dice – each containing two processing engines – onto a single piece of substrate to create quad-core central processing units. This allows Intel to boost its yields, as monolith quad-core microprocessor would have larger size of the die and would be more expensive to manufacture, according to Intel. It is rumored that AMD’s GPG may think the same way and cease to develop large GPUs, but concentrate on making smaller chips working efficiently together.
But ATI/AMD MCM graphics solutions will not be similar to Intel’s MCM CPUs. Instead of using an external bus to connect the two dice, a special chip-to-chip interface (or high-speed link) is expected to be used, which should improve their performance when they act together. Besides, it is reported that AMD’s GPG will attempt to use shared memory on its multi-dice ATI R700 graphics solutions and rely on the link between GPUs to organize their access to each other’s memory pools. The GPU dice are projected to be able to enter idle mode when their computing power is not needed, thus, preserving power consumption.
At present graphics processors in multi-GPU configuration, or on a multi-chip graphics board, communicate using special multi-GPU interfaces – dubbed ATI CrossFire or Nvidia SLI – or via PCI Express bus. While the bandwidth of CrossFire and SLI is believed to be relatively low, the bandwidth of PCI Express 2.0 x16 bus is 8GB/s in each direction, still well below of graphics cards’ memory bandwidth that can be over 100GB/s. However, chip-to-chip interfaces like Rambus’ Flex IO can provide speeds of 76.8GB/s (32GB/s read and 44.8GB/s write) and beyond, therefore, the problem of chip to-chip interface can be solved.
But an obvious problem with homogeneous multi-die GPUs is that a high-end GPU consisting of two dice will nearly always be two times faster compared to a performance-mainstream GPU with one die. Of course, AMD GPG will still be able to sell lower-clocked dual-die GPUs, but is not obvious that such solution will be viable from financial standpoint.
Therefore, with a large gap between the price and performance of single-chip and dual-chip products, it may be hard to form a comprehensive graphics card lineup that would cover all the price and performance segments. If AMD decides to install four homogeneous chips/dice on a high-end graphics card, three onto a performance-mainstream board, two on a mainstream solution and one will serve the low-end, then its driver team will have to spend a substantial amount of time tweaking each video game for single-, dual-, triple- and quad-GPU/die graphics sub-system; a task that neither ATI, nor Nvidia have so far been truly successful in.
Performance of all modern [homogeneous] multi-GPU solutions depends on drivers and in case the driver does not recognize an application, performance of a dual-, tripe- or quad-GPU graphics solution may be similar to a single-chip graphics card. Theoretically, ATI Catalyst driver developers may force so-called alternate frame rendering (AFR) multi-GPU rendering technology for all unknown applications for CrossFire configurations, but this may add lag effects in numerous games.
Or May Not
While homogeneous graphics solutions have been widely discussed in the recent years, the first successful consumer 3D graphics accelerators as well as professional 3D boards for workstations until the recent years utilized heterogeneous multi-chip architecture, where all (or nearly all) the chips onboard had different functionality. Maybe, this is the way to go?
Nowadays different units within a graphics processor have different memory bandwidth requirements, moreover, certain parts of the chips do not communicate with others. As a result, a heterogeneous multi-GPU, or heterogeneous multi-die GPUs, may become feasible solutions against ultra-complex single-chip GPUs and triple-/quad-core homogeneous multi-GPU/multi-die solutions.
Unfortunately, heterogeneous multi-GPU/multi-die GPU solutions will almost certainly not be viable for mainstream and entry-level graphics cards, where price matters quite a lot. Thus, ATI/AMD will have to develop single-chip solutions for segments of the market where price matters and create heterogeneous multi-chip/multi-dic graphics products for those, who demand ultimate performance. In both cases the gap between the price and performance of mainstream and high-end graphics sub-systems is likely to be fairly high.
At the end, both homogeneous multi-GPU/multi-die GPUa as well as heterogeneous multi-GPU/multi-die GPUs have their advantages and disadvantages. So, maybe a single-chip high-performance graphics card has still a reason to live?
Officials for ATI, graphics product group of AMD, did not comment on the news-story.
Comunque la rv770 singol Gpu dara' prestazioni dal 40% al 70% in base alle applicazioni; ma quella che spacchera' di brutto e' la dual gpu cioe' la R700
anche perche' non ha niente a che vedere con l'architettura r670 gia i chip sono migliorati nel numero e tipo di istruzioni eseguibili ed non ha niente a che vedere con l'architettura 3870x2 difatti la 3870x2 e' molto castrata per via del PLX PCIe versione1.1 qui si ha un collo di bottiglia ENORME con memorie GDDR3 gia' se montassero' le GDDR4 ed il PLX PCIe versione 2 le prestazioni sarebbero quasi il doppio. Figuriamoci come dovrevrebbe andare
R700 che monta le 2 GPU collegate direttamente tra loro in modalita multi chip module e connesse ad una memoria condivisa 2GB Shared GDDR5 memory.
Le prestazioni raggiungibili da R700 se confrontate con la versione singol GPU cioe' la rv770 saranno di piu del doppio sempre dipendenti dal tipo di applicazioni che si utilizzano.
Mercuri0
30-04-2008, 11:32
quoto, siamo un pò OT..
E comunque voglio ripetere di ricordare (forse sarò pesante) che le DX 10.1 sono nate x sfruttare la TASSELLAZIONE , che vedremo forse si o forse no , nei titoli futuri.
Quindi, AC , che sia meglio o peggio in AF con ATI , non c'entra nulla con DX 10.1
1 - Il supporto alla tessellazione non c'è neanche nelle DX10.1. Come tante altre feature del DX10 è stato posticipato "a data da destinarsi" per la mancata implementazione di nVidia.
2 - Assassin Creed usa le DX10.1. Oltre ad essere stato confermato da fonti ufficiali, lo si è verificato dalla dissassemblazione del codice. E' vero comunque che tutti i giochi vengono ancora programmati in un ottica DX9, e che per questo le DX10 tendono a non essere efficienti quanto dovrebbero.
Ma se ho capito bene la funzionalità DX10.1 usata da AC è un qualcosa già presente sulle console, per questo forse non si sono fatti troppi problemi a supportarla nel porting. (e doveva essere presente nelle DX10, ma rimossa per motivo di sopra)
Quasi sicuramente è un fake (mi sembrano prestazioni troppo più elevate di quelle di RV670), ma per "dovere di cronaca".... :D
E' un fakissimo mi sa... RV770 è stimato avere una superficie inferiore al G92B a 55nm (!!!), e un TDP sui 100Watt. Quei numeri può farli forse GT200 (con TDP e superficie doppi!)
Tra l'altro il test sullo SM2.0 del 2dmark2006 dovrebbe essere ormai CPU-bound, no?
Mercuri0
30-04-2008, 11:37
Comunque la rv770 singol Gpu dara' prestazioni dal 40% al 70% in base alle applicazioni; ma quella che spacchera' di brutto e' la dual gpu cioe' la R700
anche perche' non ha niente a che vedere con l'architettura r670 gia i chip sono migliorati nel numero e tipo di istruzioni eseguibili ed non ha niente a che vedere con l'architettura 3870x2 difatti la 3870x2 e' molto castrata per via del PLX PCIe versione1.1 qui si ha un collo di bottiglia ENORME con memorie GDDR3 gia' se montassero' le GDDR4 ed il PLX PCIe versione 2 le prestazioni sarebbero quasi il doppio. Figuriamoci come dovrevrebbe andare
R700 che monta le 2 GPU collegate direttamente tra loro in modalita multi chip module e connesse ad una memoria condivisa 2GB Shared GDDR5 memory.
Le prestazioni raggiungibili da R700 se confrontate con la versione singol GPU cioe' la rv770 saranno di piu del doppio sempre dipendenti dal tipo di applicazioni che si utilizzano.
Ma no... R700 ci si aspetta abbia miglioramenti evolutivi nella gestione del multi-GPU, ma niente di rivoluzionario. Mi aspetto sarà sempre AFR con quel che ne consegue anche sulla gestione della memoria.
Poi non capisco perché il sito da te citato parli di FlexiIO quando AMD c'ha già l'HyperTransport in casa (che ha già usato sul 780G tra l'altro... che mi sa altro non è che una scheda grafica su HyperTransport)
cristian-BG
30-04-2008, 11:56
ciao a tutti io verso fine maggio inizio giugno dovrei comprare un pc... e capita giusto a fagiuolo.. ati quando dovrebbe far uscire le schede di punta?
ma uscirà la 4870x2? io sono indeciso se la 9800gx2 volevo aspettare la gt200 ma a luglio purtroppo non posso aspettare... quindi vedo come reagisce ati.. e spero che si risolleva un pò..
le date nn ci sono ancora? conferme di ati sulle schede in uscita? grazie :)
halduemilauno
30-04-2008, 12:05
ciao a tutti io verso fine maggio inizio giugno dovrei comprare un pc... e capita giusto a fagiuolo.. ati quando dovrebbe far uscire le schede di punta?
ma uscirà la 4870x2? io sono indeciso se la 9800gx2 volevo aspettare la gt200 ma a luglio purtroppo non posso aspettare... quindi vedo come reagisce ati.. e spero che si risolleva un pò..
le date nn ci sono ancora? conferme di ati sulle schede in uscita? grazie :)
conferme e tanto meno ufficiali non ce ne sono e ne ce ne possono essere. i rumors diciamo accreditati dicono fine maggio(inizialmente 3 giugno)per la 4850. probabilmente(non è sicuro)la 4870 dovrebbe uscire dopo e ancor + dopo la 4870x2. per i prezzi la 4870 sui 329/349$ per la 4870x2 sui 499$.
;)
E' un fakissimo mi sa... RV770 è stimato avere una superficie inferiore al G92B a 55nm (!!!), e un TDP sui 100Watt. Quei numeri può farli forse GT200 (con TDP e superficie doppi!)
Tra l'altro il test sullo SM2.0 del 2dmark2006 dovrebbe essere ormai CPU-bound, no?
Sul fatto che sia fake, sono d'accordo, e ne ho dato anche la prova con il 3DMark calculator.
Però i dati su RV770 non sono quelli che citi:
- il TDP dovrebbe attestarsi sui 150W (già RV670 ha un TDP di 105W)
- la superficie di GT200 in buona parte sarà dovuta al bus, quindi veri confronti si potranno fare quando saranno note le superfici di G92b e RV770. Un crossbar a 512bit con tutta probabilità occuperà un casino di spazio...
cristian-BG
30-04-2008, 12:23
conferme e tanto meno ufficiali non ce ne sono e ne ce ne possono essere. i rumors diciamo accreditati dicono fine maggio(inizialmente 3 giugno)per la 4850. probabilmente(non è sicuro)la 4870 dovrebbe uscire dopo e ancor + dopo la 4870x2. per i prezzi la 4870 sui 329/349$ per la 4870x2 sui 499$.
;)
grazie della info.. uff.. allora aspetterò fine maggio e se nn si muove nulla vado di gx2 visto che continua a calare di prezzo.. massimo che posso aspettare è metà giugno massimo!
Mercuri0
30-04-2008, 13:54
Sul fatto che sia fake, sono d'accordo, e ne ho dato anche la prova con il 3DMark calculator.
Però i dati su RV770 non sono quelli che citi:
- il TDP dovrebbe attestarsi sui 150W (già RV670 ha un TDP di 105W)
- la superficie di GT200 in buona parte sarà dovuta al bus, quindi veri confronti si potranno fare quando saranno note le superfici di G92b e RV770. Un crossbar a 512bit con tutta probabilità occuperà un casino di spazio...
Sul TDP ho detto circa "100" solo come metro di paragone (perché ovviamente dipenderà dalla scheda, e sopratutto perché ci si aspetta che la X2 sia al livello del GT200, non 300watt)
Sulla superficie di GT200, certo che se nVidia facesse un chip così grosso praticamente solo per il bus (mentre AMD userebbe le GDDR5) avrebbe veramente un handicap importante. :mbe:
(Ovviamente stiamo commentando rumors, nessuna certezza su niente)
p.s. una speculazione interessante da beyond3d: TSMC ha due processi a 55nm, uno per lo scaling e uno performance. Sembra che AMD abbia usato quello per lo scaling per R680, e ci sta che userà quello "performance" per R770. Viceversa, se il GT200 è stato progettato per i 65nm, ci sta che userà quello per lo scaling per la sua evoluzione a 55nm. Evidentemente usare quello performance richiede un ridisegno più complesso del layout.
E sul G92B? Boh :D
supercomputer1
30-04-2008, 13:57
Originariamente inviato da Mercuri0 [[ Ma no... R700 ci si aspetta abbia miglioramenti evolutivi nella gestione del multi-GPU, ma niente di rivoluzionario. Mi aspetto sarà sempre AFR con quel che ne consegue anche sulla gestione della memoria.
Poi non capisco perché il sito da te citato parli di FlexiIO quando AMD c'ha già l'HyperTransport in casa (che ha già usato sul 780G tra l'altro... che mi sa altro non è che una scheda grafica su HyperTransport) ]]
1) Sentiamo un po cosa intenti dire con miglioramenti evolutivi nella gestione del multi-GPU.
2)Dici niente di rivoluzionario ? Si vede che non segui L' AMD Developer Central Forum. Ad ogni generazione di scheda video ATi migliora il numero delle isruzioni eseguibili dagli Sp ed inoltre espande anche il TIPO DI ISTRUZIONI eseguibili da int a float, da float a double point ecc. vedi le differenti istruzioni eseguibili dalla R600 alla attuale R670 alla futura R700 che dovrebbe gestire il nuovo tipo di istruzioni sync .
3) La rivoluzione c'è; ma sulla RV770 vi sono solo miglioramenti nelle attuali istruzioni(Scaricati il GPU Analyzer crei una applicazione e ti vedi visualizzato un collo di bottiglia nella (ALU=Unita' logica aritmetica) in particolare sulle voci Anisotropic filter , trilinear filter, bilinear filter. Tutte cose che verranno migliorate in RV770) in + verranno introdotti nuovi set di struzioni che prima non vi erano oltre a montare un maggior numero di TMU e di SP.
4) La forte rivoluzione invece si fara' vedere in R700 che oltre ad avere questi
miglioramenti che introdurra' il chip Rv770 montera' le 2 GPU un po come ha fatto intel con i quad core in un singolo package solo che qui si parla di dual GPU in un singolo package con la stessa memoria condivisa.Infatti si vedra' in commercio verso l'estate se tutto procede bene o addirittura dopo .
RILEGGI l'articolo in Inglese che ho mandato solo che le cose non le leggete o se le leggete forse non le capite.
Rileggi questa parte dell' articolo in Inglese che ho postato a pagina 128 Post
n.8 Vedi qua sotto la parte piu importante racchiusa nelle (( )) .Sempre assumendo che tu capisca cosa vi e' scritto. :wtf:
(( Intel Corp., the world’s largest maker of chips, puts two physical dice – each containing two processing engines – onto a single piece of substrate to create quad-core central processing units. This allows Intel to boost its yields, as monolith quad-core microprocessor would have larger size of the die and would be more expensive to manufacture, according to Intel. It is rumored that AMD’s GPG may think the same way and cease to develop large GPUs, but concentrate on making smaller chips working efficiently together.
But ATI/AMD MCM graphics solutions will not be similar to Intel’s MCM CPUs. Instead of using an external bus to connect the two dice, a special chip-to-chip interface (or high-speed link) is expected to be used, which should improve their performance when they act together. Besides, it is reported that AMD’s GPG will attempt to use shared memory on its multi-dice ATI R700 graphics solutions and rely on the link between GPUs to organize their access to each other’s memory pools. The GPU dice are projected to be able to enter idle mode when their computing power is not needed, thus, preserving power consumption. ))
5) da te inviato non capisco perché il sito da te citato parli di FlexiIO quando AMD c'ha già l'HyperTransport in casa (che ha già usato sul 780G tra l'altro... che mi sa altro non è che una scheda grafica su HyperTransport).
Parla di flex input/output per fare una descrizione generale di come le 2 gpu comunicheranno con la memoria condivisa .
6)Schede grafiche su Hyper transport non ne esistono tranne se non vuoi inventarne una te.
Comunque prima di dire cose in modo Random=casuale leggi prima ti linko un un buon libro compralo e leggilo per incomincare a capire qualcosa sul funzionamento del computer.
http://www.catalogo.mcgraw-hill.it/catLibro.asp?item_id=2055
ma sto tipo imparera' a fare un quote come si deve o si limitera' sempre e solo ad un copia incolla dai vari siti?
bYeZ!
Bhairava
30-04-2008, 15:20
ma sto tipo imparera' a fare un quote come si deve o si limitera' sempre e solo ad un copia incolla dai vari siti?
bYeZ!
:rotfl: :rotfl: :rotfl: :rotfl:
supercomputer1
30-04-2008, 15:21
ma sto tipo imparera' a fare un quote come si deve o si limitera' sempre e solo ad un copia incolla dai vari siti?
bYeZ!
Eccoti il quote. sei contento?
E' cosi difficile quotare che ci vogliono 10 anni di studio prima di riuscirci:D
Bhairava
30-04-2008, 15:23
Eccoti il quote. sei contento?
E' cosi difficile quotare che ci vogliono 10 anni di studio prima di riuscirci:D
Complimenti. :D :cincin: :mano:
supercomputer1
30-04-2008, 15:29
Grazie dei complimenti. come se non avessi mai quotato.
per ATi7500 se guardi i miei post precedenti sono quotati.
Guardale le cose prima di sparare cavolate. :cincin: :mano:
Iantikas
30-04-2008, 16:14
Grazie dei complimenti. come se non avessi mai quotato.
per ATi7500 se guardi i miei post precedenti sono quotati.
Guardale le cose prima di sparare cavolate. :cincin: :mano:
ma la certezza ke R700 sia montata tipo i quad intel con mem condivisa etc etc dove la trovi?...
...dal rumor anzianotto ke hai linkato?...
...se è così ti vorrei giusto far notare ke tempo fa ci fù giusto un periodo di fantastikerie in tal senso ma poi d questo proggetto nn se ne è + sentito parlare e tutti i rumor + recenti si riferiscono ad R700 come ad una dual gpu basata sull'attuale tecnologia CF...
...con questo nn voglio dire ke è impossibile ke sia fatta in tal modo (anzi la speranza ke si nutre è proprio ke sia fatta così) ma purtroppo dalle info apparse finore c'è poco da sperare in tal senso...
...ciao
Bhairava
30-04-2008, 16:18
E dai, non ti incazzare. Sei un personaggio sopra le righe, con i tuoi segreti di stato e l'aria da tecnico ATI travestito...perciò ti sfottiamo. ;)
Iantikas
30-04-2008, 16:24
E dai, non ti incazzare. Sei un personaggio sopra le righe, con i tuoi segreti di stato e l'aria da tecnico ATI travestito...perciò ti sfottiamo. ;)
questa nn la sapevo (beh almeno si spiega come fa ad avere queste certezze su R700 :D )...ma nn'è ke potrei venire a conoscenza di qualke segreto pure io :stordita: ...giuro ke poi nn lo dico a nessuno :mc: :sofico:
Bhairava
30-04-2008, 16:29
questa nn la sapevo (beh almeno si spiega come fa ad avere queste certezze su R700 :D )...ma nn'è ke potrei venire a conoscenza di qualke segreto pure io :stordita: ...giuro ke poi nn lo dico a nessuno :mc: :sofico:
Ah non lo sapevi?
Lui sa delle cose da fonte segreta ma attendibile che non può rivelare per correttezza. :fagiano:
gianni1879
30-04-2008, 16:45
Ah non lo sapevi?
Lui sa delle cose da fonte segreta ma attendibile che non può rivelare per correttezza. :fagiano:
e fa bene :D
perchè poi su questo forum la notizia si diffonde peggio di un virus
Bhairava
30-04-2008, 16:47
e fa bene :D
perchè poi su questo forum la notizia si diffonde peggio di un virus
:wtf:
Il forum serve proprio a questo. :mbe:
Scusa, ma non riesco a capirti, forse non seguo bene io...
In pratica mi posti una news di computerbase, nella quale dici che vi é scritto che r700 sará composto da 2 die nello stesso wafer.
La apro, traduco con google visto che é tedesco e mi viene cosi:
In a few weeks, the new graphics cards from AMD officially presented. It goes from one appointment in the middle of June, so that the first graphics cards from July in the trade available.
The rumors of kitchen Fudzilla speaks to the start of two basic models. First, this would be the RV770 with its various versions, which we have repeatedly reported, which is a good year for the R600 debacle the ring for the fastest single-GPU solution enters. In parallel, but also an offshoot with the name "R700" appear, the two graphics chips of the type RV770 on a board together - similar to the current concept of ATi Radeon HD3870 X2 or 3850 X2. Whether R700 really the code name for a two-chip solution to the RV770, was once a moot point.
The 55-nm graphics chips from the R700-generation together with the appropriate reference boards, according Computex mid-June will be presented, possibly with a smaller distance between the single-and dual-GPU solution. With the start of the third quarter in July, the Board partners expect large quantities of the new cards in the trade - even if sales of these models thanks to the holiday season is not likely to be the largest so speculate the manufacturers date. As usual, however the price and performance of the strongest arguments, to the effect that ultimately the needs of the targeted trade and thus directly affect the availability for the buyer sloping effect. Deduco chiaramente che c'é scritto l' esatto contrario. Dice esplicitamente che sará fatta come la 3870x2.
Poi, per "chiarirmi le idee", mi mandi un articolo (bello, a dire la veritá :) ), ma che é stato fatto tanto, tanto tempo fa.
Quindi io darei piú credito alle ultime news...(compresa quella di computerbase in cui ti sei contraddetto)
PS: comunque spero sia multidie, davvero.
Bhairava
30-04-2008, 16:58
Io non dico niente...senò poi faccio flame.....:fiufiu:
Scusa, ma non riesco a capirti, forse non seguo bene io...
In pratica mi posti una news di computerbase, nella quale dici che vi é scritto che r700 sará composto da 2 die nello stesso wafer.
La apro, traduco con google visto che é tedesco e mi viene cosi:
Deduco chiaramente che c'é scritto l' esatto contrario. Dice esplicitamente che sará fatta come la 3870x2.
Poi, per "chiarirmi le idee", mi mandi un articolo (bello, a dire la veritá :) ), ma che é stato fatto tanto, tanto tempo fa.
Quindi io darei piú credito alle ultime news...(compresa quella di computerbase in cui ti sei contraddetto)
PS: comunque spero sia multidie, davvero.
Secondo me nell'immediato darebbe più risultati riuscire a condividere la memoria tra le due gpu che migliorare la comunicazione tra le stesse.
Iantikas
30-04-2008, 17:54
Scusa, ma non riesco a capirti, forse non seguo bene io...
In pratica mi posti una news di computerbase, nella quale dici che vi é scritto che r700 sará composto da 2 die nello stesso wafer.
La apro, traduco con google visto che é tedesco e mi viene cosi:
Deduco chiaramente che c'é scritto l' esatto contrario. Dice esplicitamente che sará fatta come la 3870x2.
Poi, per "chiarirmi le idee", mi mandi un articolo (bello, a dire la veritá :) ), ma che é stato fatto tanto, tanto tempo fa.
Quindi io darei piú credito alle ultime news...(compresa quella di computerbase in cui ti sei contraddetto)
PS: comunque spero sia multidie, davvero.
quoto...ke era appunto il dubbio ke avevo nel mio post precedente e ke tu ora hai esposto in maniera molto + kiara e completa...
...ciao
gianni1879
30-04-2008, 17:56
:wtf:
Il forum serve proprio a questo. :mbe:
scherzavo cmq ;)
Mercuri0
01-05-2008, 00:05
1) Sentiamo un po cosa intenti dire con miglioramenti evolutivi nella gestione del multi-GPU.
Intendo che ci si aspetta che R700 usi ancora l'Alternate Frame Rendering, ma che magari possa fare a meno di un chip switch esterno.
Secondo me questo è l'aspetto più importante da considerare, come siano appiccicati i chip e se la memoria sia o non sia condivisa sono aspetti che derivano da come viene separato il carico di lavoro sulle GPU.
4) La forte rivoluzione invece si fara' vedere in R700 che oltre ad avere questi
miglioramenti che introdurra' il chip Rv770 montera' le 2 GPU un po come ha fatto intel con i quad core in un singolo package solo che qui si parla di dual GPU in un singolo package con la stessa memoria condivisa.Infatti si vedra' in commercio verso l'estate se tutto procede bene o addirittura dopo
La differenza tra due interconnessi chip su pcb, su mcm, o addirittura sullo stesso die (cosa insensata per le GPU) sta solo nella velocità del collegamento tra i due chip, e nei costi del PCB. Io non ci vedo proprio niente da sbavarci sopra se viene usato un approccio piuttosto che un altro.
Tra l'altro non so se si possa esattamente parlare di "package" per le GPU, per cui (ad occhio) mi sembra che il chip sia saldato direttamente sulla scheda (forse con un approccio tipo flip-chip o robe simili) Mica c'è il socket, come nei proci!
Volendo, AMD potrebbe realizzare r700 su un MCM con un substrato che garantisca una velocità di collegamento maggiore rispetto al PCB. Ma questo, appunto, dipende dai costi della scheda, dalla banda di interconnessione che serve, e dal disegno del dissipatore. Ci sta che comunque per quanto vicini possano essere, ad occhio nudo si vedranno sempre 2 chip.
anche perche' non ha niente a che vedere con l'architettura r670 gia i chip sono migliorati nel numero e tipo di istruzioni eseguibili ed non ha niente a che vedere con l'architettura 3870x2 difatti la 3870x2 e' molto castrata per via del PLX PCIe versione1.1 qui si ha un collo di bottiglia ENORME con memorie GDDR3 gia' se montassero' le GDDR4 ed il PLX PCIe versione 2 le prestazioni sarebbero quasi il doppio.
Buh, su beyond3d persone autorevoli avevano stimato che non servisse poi tanta banda. Del resto non vedo perché AMD dovrebbe dannarsi con R700 se bastasse montare le GDDR4 e lo switch 2.0 su r680 per avere il doppio delle prestazioni :mbe:
Inoltre, se ho ben capito, il collegamento per il Crossfire non passa per lo switch. (ci sono altre piste sul PCB)
Secondo me nell'immediato darebbe più risultati riuscire a condividere la memoria tra le due gpu che migliorare la comunicazione tra le stesse.
Questa cosa è secondaria a come viene diviso il carico di lavoro sulle due GPU. E' molto probabile che ciascun chip di R700 possa vedere tutta la memoria anche perché, secondo quel che dicono su beyond3d, anche r680 può farlo o poco ci manca.
Il problema è che pero, se usi l'AFR, immagino (a non saper né leggere né scrivere) che tu debba avere in RAM 2 framebuffer, 2 z-buffer, 2 qualcos'altro buffer etc etc. Magari potresti condividere parte della memoria (boh, le texture?) ma non sarebbe a questo punto più efficiente replicarle, in modo che ogni GPU abbia la minor latenza d'accesso possibile, invece che lasciar RAM vuota? ...dipende dal costo della RAM e da quanta i giochi ne useranno.
La cosa più probabile è che ci siano oggetti in memoria condivisi e oggetti replicati. (perché il DX10 preve oggetti "statici" inter-frame)
Comunque questa è una scelta che di sicuro i tecnici di AMD faranno al meglio, per noi ci sarà solo il marketing (se "shared memory" fa più figo, "shared memory" sarà :asd: ).
Tutto quel che ho detto vale se davvero R700 userà ancora l'AFR. Non ci sono rumors a riguardo in nessun senso. Se RV770 fosse stato più piccolo, avrei creduto a qualche soluzione diversa, ma così come sembra, per la fascia di mercato più interessante ne basta uno, e francamente mi aspetto che AMD non si danni troppo per la 4870X2.
6)Schede grafiche su Hyper transport non ne esistono tranne se non vuoi inventarne una te.
Se non mi sbaglio il chip 780G di AMD è connesso tramite HyperTransport alla CPU, e sempre tramite HT fa le richieste alla memoria tramite il controller di memoria della CPU. (infatti dai test s'è visto che la velocità dell'Hypertransport è critica per le sue prestazioni grafiche)
Visto da fuori è proprio un chip grafico su Hypertransport, a meno che all'interno del chip non traduca prima su PCIe. Non so però se questo serva, e quanto sia efficiente il passaggio PCIe->ht->controller di memoria (CPU) -> memoria di sistema.
E si, ad essere pignoli non è solo un chip grafico.
Rileggi questa parte dell' articolo in Inglese che ho postato a pagina 128 Post
n.8 Vedi qua sotto la parte piu importante racchiusa nelle (( )) .Sempre assumendo che tu capisca cosa vi e' scritto. :wtf:
Comunque prima di dire cose in modo Random=casuale leggi prima ti linko un un buon libro compralo e leggilo per incomincare a capire qualcosa sul funzionamento del computer.
http://www.catalogo.mcgraw-hill.it/catLibro.asp?item_id=2055
Non so davvero cosa ho fatto per meritarmi questo attacco ad personam :mbe:
Qui più o meno tutti sparano stupidaggini dalla mattina alla sera con la pretesa di essere architetturisti AMD... io almeno sparo cazzate, ma lo dico :D
Si fa per divertirsi, peace & love :flower:
p.s. di libri un pò più specifici di quello che mi hai linkato m'è toccato, mio malgrado, di leggerne più d'uno. Il che mi consente di aver tanta fantasia nello sparar cazzate ^^''
<^MORFEO^>
01-05-2008, 00:11
Non so davvero cosa ho fatto per meritarmi questo attacco ad personam :mbe:
Qui più o meno tutti sparano stupidaggini dalla mattina alla sera con la pretesa di essere architetturisti AMD... io almeno sparo cazzate, ma lo dico :D
Si fa per divertirsi, peace & love :flower:
:asd: :rotfl:
Ma non è vero dai........................... :sofico:
....
Questa cosa è secondaria a come viene diviso il carico di lavoro sulle due GPU. E' molto probabile che ciascun chip di R700 possa vedere tutta la memoria anche perché, secondo quel che dicono su beyond3d, anche r680 può farlo o poco ci manca.
Il problema è che pero, se usi l'AFR, immagino (a non saper né leggere né scrivere) che tu debba avere in RAM 2 framebuffer, 2 z-buffer, 2 qualcos'altro buffer etc etc. Magari potresti condividere parte della memoria (boh, le texture?) ma non sarebbe a questo punto più efficiente replicarle, in modo che ogni GPU abbia la minor latenza d'accesso possibile, invece che lasciar RAM vuota? ...dipende dal costo della RAM e da quanta i giochi ne useranno.
La cosa più probabile è che ci siano oggetti in memoria condivisi e oggetti replicati. (perché il DX10 preve oggetti "statici" inter-frame)
Comunque questa è una scelta che di sicuro i tecnici di AMD faranno al meglio, per noi ci sarà solo il marketing (se "shared memory" fa più figo, "shared memory" sarà :asd: ).
Tutto quel che ho detto vale se davvero R700 userà ancora l'AFR. Non ci sono rumors a riguardo in nessun senso. Se RV770 fosse stato più piccolo, avrei creduto a qualche soluzione diversa, ma così come sembra, per la fascia di mercato più interessante ne basta uno, e francamente mi aspetto che AMD non si danni troppo per la 4870X2. ...
Un conto è vedere tutta la ram un conto è che in ram 512mb + 512mb ci siano le stesse trexture in questo modo si hanno due gpu che lavorano con la stessa quantità di ram di una gpu, fattore che potrebbe essere castrante alle alte risoluzioni. Per quanto riguarda i 2 framebuffer, 2 z-buffer, 2 qualcos'altro buffer non avviene già in r680 ? Se poi la gestione di r680 è diversa allora scusate.
appleroof
01-05-2008, 10:44
cut
Buh, su beyond3d persone autorevoli avevano stimato che non servisse poi tanta banda. Del resto non vedo perché AMD dovrebbe dannarsi con R700 se bastasse montare le GDDR4 e lo switch 2.0 su r680 per avere il doppio delle prestazioni :mbe:
:asd: :asd:
cut
Non so davvero cosa ho fatto per meritarmi questo attacco ad personam :mbe:
cut
non hai fatto nulla, (prova a vedere qualche pagina dietro, se hai voglia, come mi ci sono impelagato io :D ) ;)
p.s. di libri un pò più specifici di quello che mi hai linkato m'è toccato, mio malgrado, di leggerne più d'uno. Il che mi consente di aver tanta fantasia nello sparar cazzate ^^'':asd:
Iantikas
01-05-2008, 11:56
Qui più o meno tutti sparano stupidaggini dalla mattina alla sera
:winner: presente :D
molderfox
01-05-2008, 12:30
We buon primo maggio a tutti(cazzata):p
Il fatto è che secondo me non sono veri... O meglio, i valori della 9800GX2 sembrano corretti, ma quelli della HD4870 mi sembrano completamente taroccati, a partire dal 3DMark: il punteggio finale non è mostrato non è compatibile coi valori di SM2 e SM3, visto che un Penryn Quad a 3GHz fa sui 4400/4500 punti cpu al 3DMark06. Ho fatto il check col 3DMark calculator. ;)
I clocks però mi sembrano possibili. :)
No, il 3D Mark non sembra essere taroccato. Con il 3DMark Calculator inserendo SM 2.0 8847 e SM 3.0 10612 viene fuori che sarebbero necessari 4500 punti per arrivare a 21.000. Secondo me i valori sono giusti, e inizio a non credere che questi bench siano fake :D
halduemilauno
01-05-2008, 12:41
No, il 3D Mark non sembra essere taroccato. Con il 3DMark Calculator inserendo SM 2.0 8847 e SM 3.0 10612 viene fuori che sarebbero necessari 4500 punti per arrivare a 21.000. Secondo me i valori sono giusti, e inizio a non credere che questi bench siano fake :D
e non possono essere fake alla radice alla fonte cioè proprio i dati sm2/sm3? domanda...
e non possono essere fake alla radice alla fonte cioè proprio i dati sm2/sm3? domanda...
Si potrebbero, ma è già il terzo bench mostrato da fonti diverse che mostra sempre punteggi molto simili. Con un E6700 (2000 punti) si attesta intorno ai 18000 punti, usando 3Dmark calculator si vede che i punti sm 2.0 e sm 3.0 sembrano combaciare.
L'unica cosa che non capisco è la dimensione della ram che non combaciano con i rumor della 4870 ma della 4850. Beh aspettiamo...
Edit: sono risalito fino ala fonte originale della notizia, putroppo è considerata molto poco affidabile. Quindi con molta probabilità ha ragione A.L.M.. sono fake..
Si potrebbero, ma è già il terzo bench mostrato da fonti diverse che mostra sempre punteggi molto simili. Con un E6700 (2000 punti) si attesta intorno ai 18000 punti, usando 3Dmark calculator si vede che i punti sm 2.0 e sm 3.0 sembrano combaciare.
L'unica cosa che non capisco è la dimensione della ram che non combaciano con i rumor della 4870 ma della 4850. Beh aspettiamo...
Edit: sono risalito fino ala fonte originale della notizia, putroppo è considerata molto poco affidabile. Quindi con molta probabilità ha ragione A.L.M.. sono fake..
Se il 3dmark ci puó anche stare, il bench di crysis lo mando a c... (indizio: rima)
Sono dati TROPPO distanti dalla realtá ;)
paolox86
01-05-2008, 14:42
Per quanto abbia fiducia nel progetto R770 trovo impossibili quei bench...
-noxius-
01-05-2008, 15:18
Si potrebbero, ma è già il terzo bench mostrato da fonti diverse che mostra sempre punteggi molto simili. Con un E6700 (2000 punti) si attesta intorno ai 18000 punti, usando 3Dmark calculator si vede che i punti sm 2.0 e sm 3.0 sembrano combaciare.
L'unica cosa che non capisco è la dimensione della ram che non combaciano con i rumor della 4870 ma della 4850. Beh aspettiamo...
Edit: sono risalito fino ala fonte originale della notizia, putroppo è considerata molto poco affidabile. Quindi con molta probabilità ha ragione A.L.M.. sono fake..
Marko, parliamoci chiaro , questi bench sono troppo alti ; specialmente con un dual 18.000 punti solo di vga sarebbero già da soli un risultato molto elevato .
Staremo a vedere anche perchè , se così fosse , non oso pensare cosa possa tirare fuori allora la 9900GTX con bus a 512bit (scheda che molto probabilmente prenderò se fosse confermato l'andazzo e le specifiche ..)
No, il 3D Mark non sembra essere taroccato. Con il 3DMark Calculator inserendo SM 2.0 8847 e SM 3.0 10612 viene fuori che sarebbero necessari 4500 punti per arrivare a 21.000. Secondo me i valori sono giusti, e inizio a non credere che questi bench siano fake :D
Ma quale versione del calculator hai usato? :confused: A me con la 1.2 risulta che per arrivare a 21381 con quei punteggi servono più di 5000 punti cpu, e mi sa che un Penryn @ default non ci arriva... :boh:
Staremo a vedere anche perchè , se così fosse , non oso pensare cosa possa tirare fuori allora la 9900GTX con bus a 512bit (scheda che molto probabilmente prenderò se fosse confermato l'andazzo e le specifiche ..)
Quello non è detto, dato che la banda, oltre certi livelli (diciamo 100GB/s), è molto meno importante di quanto si possa immaginare. Tra l'altro G80/G92 ha già mostrato di scalare molto meno che proporzionalmente all'aumentare degli SP, oltre una certa soglia (64SP).
Mentre l'architettura R600/RV670 finora sembra scalare molto bene (ben più che proporzionalmente) all'aumentare delle shader units, senza contare l'incremento di banda ed il raddoppio di TMU, che dovrebbero essere i veri colli di bottiglia dell'architettura.
Ma quale versione del calculator hai usato? :confused: A me con la 1.2 risulta che per arrivare a 21381 con quei punteggi servono più di 5000 punti cpu, e mi sa che un Penryn @ default non ci arriva... :boh:
Per la precisione servono 4853 punti. Hai ragione te, un Penryn a 3 Ghz arriva solo a 4357, ne serve uno a 3,33 Ghz. Oltretutto anche su beyond3d sono stati postati, e hanno detto che con una cpu a 3 Ghz si è cpu-limited sullo shader model 2.0, è 8000 è un punteggio impossibile che un simile processore.
Quindi sono quasi certamente fake.
appleroof
01-05-2008, 17:32
cut
Quello non è detto, dato che la banda, oltre certi livelli (diciamo 100GB/s), è molto meno importante di quanto si possa immaginare. Tra l'altro G80/G92 ha già mostrato di scalare molto meno che proporzionalmente all'aumentare degli SP, oltre una certa soglia (64SP).
Mentre l'architettura R600/RV670 finora sembra scalare molto bene (ben più che proporzionalmente) all'aumentare delle shader units, senza contare l'incremento di banda ed il raddoppio di TMU, che dovrebbero essere i veri colli di bottiglia dell'architettura.
sempre fiducia in Nvidia eh? :asd:
cmq a parte tutto, nel 3d vantage una GX2 fà il doppio di una gts512, che sarà a dir tanto indicativo ma....
sempre fiducia in Nvidia eh? :asd:
Mi baso sui fatti... ;)
Digit-life aveva tempo fa pubblicato una prova interessantissima in cui faceva notare come le performance scalassero su una 8800GTX disattivando blocchi di SP.
Da 64SP in su l'incremento marginale diviene sempre più basso, ed infatti la 9800GTX in media non è veloce il doppio di una 9600GT, nè il quadruplo di una 8600GTS.
Non vedo perchè una scheda che ha il 50% delle specifiche in più di una 9800GTX (le rops non hanno un impatto enorme, e la banda oltre i 100GB/s non è strettamente necessaria, anche questo a suo tempo fu dimostrato) dovrebbe andare più del 50% di un G92 a 128SP... no? ;)
Mentre nel caso di RV670 (320 shader) vs RV635 (120), a fronte di un numero di shader units incrementato del 166.67%, ha prestazioni superiori del 260% in media (alle diverse risoluzioni e con e senza AA). Fonte: computerbase.de
Ecco perchè affermo quanto sopra. :)
cmq a parte tutto, nel 3d vantage una GX2 fà il doppio di una gts512, che sarà a dir tanto indicativo ma....
Molto indicativo il Vantage... :asd:
Se è per questo al 3DMark Vantage anche la tua scheda fa più punti di una GTS512, quando nel gioco reale spesso vanno uguale, anzi a volte la GTS512 va meglio (anche se non di molto). ;)
Mi baso sui fatti... ;)
Digit-life aveva tempo fa pubblicato una prova interessantissima in cui faceva notare come le performance scalassero su una 8800GTX disattivando blocchi di SP.
Da 64SP in su l'incremento marginale diviene sempre più basso, ed infatti la 9800GTX in media non è veloce il doppio di una 9600GT, nè il quadruplo di una 8600GTS.
Non vedo perchè una scheda che ha il 50% delle specifiche in più di una 9800GTX (le rops non hanno un impatto enorme, e la banda oltre i 100GB/s non è strettamente necessaria, anche questo a suo tempo fu dimostrato) dovrebbe andare più del 50% di un G92 a 128SP... no? ;)
Mentre nel caso di RV670 vs RV635, a fronte di un numero di shader units incrementato del 166.67%, ha prestazioni superiori del 260% in media (alle diverse risoluzioni e con e senza AA). Fonte: computerbase.de
Ecco perchè affermo quanto sopra. :)
Molto indicativo il Vantage... :asd:
Se è per questo al 3DMark Vantage anche la tua scheda fa più punti di una GTS512, quando nel gioco reale spesso vanno uguale, anzi a volte la GTS512 va meglio (anche se non di molto). ;)
Ho appena visto l' articolo di Digit-life.
Interessantissimo, non c'é che dire. :)
(e infatti mi sono sempre chiesto perché una 9600gt andasse cosi vicina alla 8800gt)
Mercuri0
01-05-2008, 22:16
Un conto è vedere tutta la ram un conto è che in ram 512mb + 512mb ci siano le stesse trexture in questo modo si hanno due gpu che lavorano con la stessa quantità di ram di una gpu, fattore che potrebbe essere castrante alle alte risoluzioni.
Zì, quello che dicevo è che se le due GPU lavorano in AFR e le texture si trovano solo in copia unica, un chip deve aspettare che l'altro gli liberi l'accesso alla memoria per poter usarla lui. (non che sia esperto di sistemi di accesso alla memoria, ma penso che da una cosa simile in principio non si possa sfuggire)
Allora gli ingegneri di AMD si faranno il conto: quanta memoria mi serve per le altre risoluzioni? Che latenza ho se adotto un approccio di memoria totalmente condivisa? Quanto mi costa montare più ram sulla scheda per le altre risoluzioni, piuttosto che cercare di aggirare il problema dell'accesso? Quanto ci vuole a copiare ogni volta i dati da una memoria all'altra? (E quali?)
Io semplicemente penso che questi conti li faranno meglio di noi ;)
Per quanto riguarda i 2 framebuffer, 2 z-buffer, 2 qualcos'altro buffer non avviene già in r680 ?
Se poi la gestione di r680 è diversa allora scusate.
Io infatti partivo dal presupposto che R700 usi ancora l'AFR come R680.
Anche se la memoria di R700 fosse totalmente "condivisa" (qualunque cosa questo voglia dire), non potresti comunque "sommarla" completamente proprio per la presenza di risorse doppie.
Intendiamoci, sono tutte speculazioni. Magari alla fine si scopre che R700 in realtà è una scheda audio :asd:
Mercuri0
01-05-2008, 22:31
Staremo a vedere anche perchè , se così fosse , non oso pensare cosa possa tirare fuori allora la 9900GTX con bus a 512bit (scheda che molto probabilmente prenderò se fosse confermato l'andazzo e le specifiche ..)
Xò quando fai il conto della banda di un bus, devi moltiplicare l'ampiezza del bus per la frequenza operativa.
(Se conti solo l'ampiezza, diresti che la vecchia porta parallela andava 16 o 32 volte più veloce delle attuali Usb, che usano un filo solo!)
Ci si aspetta che le schede r7xx usino la GDDR5 che dovrebbero dare un vantaggio importante usando meno "fili" (e la cosa conta eccome, soprattutto per il rapporto prestazioni/prezzo nella fascia performance)
Io penso che quei test siano un fake, se riferiti al singolo RV770, perché sarebbe miracoloso che un chip possa ottenere prestazioni di oltre due G92, usandone meno della metà di superficie* e TDP sensibilmente inferiore.
*I rumors danno le dimensioni di RV770 inferiori di quelle del G92B a 55m. Dimensioni e TDP stabiliscono il "target" in fase di progetto. GT200 e RV770 hanno target di prestazione differenti.
-noxius-
01-05-2008, 22:59
Guardate che non ho fatto nessun riferimento alla banda passante , è ovvio che il solo bandwidht non serve a nulla o meglio, può servire SOLO quando appunto non viene saturato . Guardate le GTS G80 con bandwidht superiore alle 8800GT , vale lo stesso discorso, anche in merito a seri OC sulle ram ;)
Iantikas
01-05-2008, 23:03
Mi baso sui fatti... ;)
Digit-life aveva tempo fa pubblicato una prova interessantissima in cui faceva notare come le performance scalassero su una 8800GTX disattivando blocchi di SP.
Da 64SP in su l'incremento marginale diviene sempre più basso, ed infatti la 9800GTX in media non è veloce il doppio di una 9600GT, nè il quadruplo di una 8600GTS.
Non vedo perchè una scheda che ha il 50% delle specifiche in più di una 9800GTX (le rops non hanno un impatto enorme, e la banda oltre i 100GB/s non è strettamente necessaria, anche questo a suo tempo fu dimostrato) dovrebbe andare più del 50% di un G92 a 128SP... no? ;)
Mentre nel caso di RV670 (320 shader) vs RV635 (120), a fronte di un numero di shader units incrementato del 166.67%, ha prestazioni superiori del 260% in media (alle diverse risoluzioni e con e senza AA). Fonte: computerbase.de
Ecco perchè affermo quanto sopra. :)
Molto indicativo il Vantage... :asd:
Se è per questo al 3DMark Vantage anche la tua scheda fa più punti di una GTS512, quando nel gioco reale spesso vanno uguale, anzi a volte la GTS512 va meglio (anche se non di molto). ;)
son sostanzialmente daccordo sul fatto ke il 50% di shader in + nn equivalgono x forza di cose al 50% di prestazioni in +...xò nn mi trovo tanto daccordo con tutto il resto...
...cioè RV670 nn ha solo tot shader in + ma ha anke tot rop, tmu, tau, bandwidth, cache etc in + rispetto ad RV635...e la differenza in tutti questi settori (contando anke le freq a cui operano le varie unità) ke c'è tra un RV670 e un RV635 è d gran lunga superiore alla differenza ke ci può essere tra un G92 e un G94...ed è normale quindi ke il divario ke ci può essere tra una HD3870 e una HD3650 e di grnal unga superiore a quello ke c'è tra una 9800GTX e una 9600GT...
...inoltre nn ha tanto senso neanke dire ke + di 100gb/s di banda nn servono xkè dipende da molteplici fattori (se il resto dell'arkitettura li può sfruttare e se l'applicazione e le impo usate ne fanno largo impiego)...fu dimostrato a suo tempo sulla HD2900XT ma ciò ke vale x questa gpu nn vale in egual modo x tutte le altre...
...tutto poi dipende dall'applicazione ke si sta facendo girare e da quante e quali risorse rikiede...l'articolo su cui basi le tue affermazioni è abb vekkioto (oltre a presentare poki titoli e poki scenari risultando già a suo tempo un analisi poco completa), nonostante questo si vede ke i due titoli + moderni tra quelli testati (CoJ e CoH entrambi in DX9, ke attualmente nn son certamente tra i + esosi) scalano abb bene con l'incremento di shader e texture units...cosa ke fa presuppore ke in titoli + moderni il divario diventi ancor + elevato...
...cmq la cosa ke + nn capisco è xkè x nividia ti basi su quella vekkia analisi d digit life mentre x il divario tra rv670 e rv635 ti basi sulle medie di computer base...
...xkè se ti basassi sulle medie di computer base anke x nvidia vedresti ke se tra una HD3650 e una HD3870 la differenza in media è di circa il 270%...tra una 8600GTS e una 9800GTX la differenza è del 340% senza filtri e di oltre il 400% con AA/AF...oppure tra una 8600GTS e una 8800GT a differenza è di circa il 270% senza filtri e tra il 300/350% con...http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/ ...
...ciao
p.s.: cmq l'altra cosa principale è ke nn ha senso, lmeno basandosi su quei test, dire ke G92 all'aumentare delle varie unità scala meno di RV670...quello ke si vede da quei test (quelli di digit-life) è ke quei test nn saturano appieno tutte le risorse di una G80 "full" e ke quindi anke un G80 con meno meno shader e texture units al proprio interno arriva ad essere limitato da altri fattori esterni alla gpu...e definire il 2 maggio 2008 quell'articolo di digit-life "interessantissimo" mi pare a dir poco surreale...
...cioè RV670 nn ha solo tot shader in + ma ha anke tot rop, tmu, tau, bandwidth, cache etc in + rispetto ad RV635...e la differenza in tutti questi settori (contando anke le freq a cui operano le varie unità) ke c'è tra un RV670 e un RV635 è d gran lunga superiore alla differenza ke ci può essere tra un G92 e un G94...ed è normale quindi ke il divario ke ci può essere tra una HD3870 e una HD3650 e di grnal unga superiore a quello ke c'è tra una 9800GTX e una 9600GT...
Ma cosa c'entra? Non credo tu abbia colto il punto del mio discorso. :)
Io sto facendo un paragone tra le diverse architetture, cercando di capire se un certo incremento di unità dà luogo ad un incremento prestazionale pari o meno (=proporzionale) all'incremento delle unità interne. Tra l'altro sto parlando di incrementi relativi, quindi che la differenza assoluta sia poca o molta non importa nulla ai fini dell'analisi, perchè le percentuali servono a questo. ;)
...inoltre nn ha tanto senso neanke dire ke + di 100gb/s di banda nn servono xkè dipende da molteplici fattori (se il resto dell'arkitettura li può sfruttare e se l'applicazione e le impo usate ne fanno largo impiego)...fu dimostrato a suo tempo sulla HD2900XT ma ciò ke vale x questa gpu nn vale in egual modo x tutte le altre...
Beh, la 8800 Ultra aveva dimostrato che pur avendo il 20% in più di banda rispetto alla GTX non è che avesse un incremento pari di prestazioni, anzi. Aveva un edge del 10% o poco più in media, in cui dovevi anche considerare le frequenze maggiori della Ultra per core e shaders. Tra l'altro in media tale differenza non cresceva tantissimo con l'aumentare della risoluzione o con l'AA attivato. Questo mi dice che evidentemente gli 86GB/s della GTX erano già abbastanza. ;)
...tutto poi dipende dall'applicazione ke si sta facendo girare e da quante e quali risorse rikiede...l'articolo su cui basi le tue affermazioni è abb vekkioto (oltre a presentare poki titoli e poki scenari risultando già a suo tempo un analisi poco completa), nonostante questo si vede ke i due titoli + moderni tra quelli testati (CoJ e CoH entrambi in DX9, ke attualmente nn son certamente tra i + esosi) scalano abb bene con l'incremento di shader e texture units...cosa ke fa presuppore ke in titoli + moderni il divario diventi ancor + elevato...
Il fatto che sia vecchio non cambia un tubo, visto che i drivers non è che migliorano le prestazioni solo a partire da un certo numero di unità interne, ma lo fanno indifferentemente o quasi per tutte le schede appartenenti ad una certa architettura. Sono d'accordo sul fatto che ovviamente più shader intensive è il gioco e più le differenze si notano e si noteranno, ma rimane il fatto che l'incremento non è proporzionale.
...cmq la cosa ke + nn capisco è xkè x nividia ti basi su quella vekkia analisi d digit life mentre x il divario tra rv670 e rv635 ti basi sulle medie di computer base...
Perchè sulle ATi non c'è un articolo del genere. Semplice, no? :)
Altrimenti avrei di certo usato quello.
...xkè se ti basassi sulle media di computer base anke x nvidia vedresti ke se tra una HD3650 e una HD3870 la differenza in media è di circa il 270%...tra una 8600GTS e una 9800GTX la differenza è del 340% senza filtri e di oltre il 400% con AA/AF...oppure tra una 8600GTS e una 8800GT a differenza è di circa il 270% senza filtri e tra il 300/350% con...http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/ ...
...ciao
L'incremento di prestazioni va visto in termini percentuali, non assoluti. E' anche naturale che una 9800GTX vada quattro volte tanto una 8600GTS (anche se nemmeno sempre), visto che ha il quadruplo degli SP (+300%)... Quindi parliamo di incrementi mediamente proporzionali.
Ma il 270% di cui parli pure tu per ATI è ottenuto con il 166% in più di shaders, quindi vuol dire che è più che proporzionale. Meglio di così non so come spiegartelo. :fagiano:
p.s.: cmq l'altra cosa principale è ke nn ha senso, lmeno basandosi su quei test, dire ke G92 all'aumentare delle varie unità scala meno di RV670...quello ke si vede da quei test (quelli di digit-life) è ke quei test nn saturano appieno tutte le risorse di una G80 "full" e ke quindi anke un G80 con meno meno shader e texture units al proprio interno arriva ad essere limitato da altri fattori esterni alla gpu...e definire il 2 maggio 2008 quell'articolo di digit-life "interessantissimo" mi pare a dir poco surreale...
:confused: :mbe:
A me pare che tu non abbia chiaro il significato di quell'articolo e di perchè io l'abbia citato. Delle performance assolute (perchè è quello che cambiano i drivers) me ne importa ben poco. Lì si mostra cosa succede attivando/disattivando gli shaders di un certo chip, ed è un comportamento che rimarrà così anche con i Forceware 999.99, perchè non è certo quello che vanno a modificare i drivers, e se mai dovessero farlo, lo farebbero in maniera trascurabile. Quindi non vedo perchè citare un articolo (tecnico, non una review prestazionale) del giugno dell'anno scorso sia addirittura surreale... :D
La validità di quell'articolo ancora oggi (e fin quando NVidia adotterà la stessa architettura di G80) è confermata dalle ottime prestazioni della 9600GT se confrontata con la 9800GTX, che è stata lanciata a fine febbraio, non 20 anni fa. ;)
Iantikas
01-05-2008, 23:48
nn mi è mai piaciuto questo modo di quotare "a pezzetti"...all'interno di tutto il post è rakkiuso un pensiero, nn ha senso rispondere frase x frase...
...cmq a parte questo ti faccio solo una domanda...x te esistono solo gli shader all'interno di una GPU?
p.s.: mi sembra stessi parlando di performance relative ed incrementi percentuali ank'io...
p.p.s.: stai confrontando un articolo dove a cambiare sono solo il numero d shader e texture units (quelo d digit-life...ke peraltro testa con gioki vekki ke nn sfruttano appieno un arkitettura a shader unificati come G80) e dove quindi le differenze son dovute solo a questo...con un altro alrticolo dove confronti due skede differenti dove le differenze nn son dovute solo al differente numero di shader e texture unit ma a tanti altri fattori...e pretendi di stabilire in base a ciò ke R600 e derivati scala maggiormente con l'aumento di shader rispetto a G80 e derivati...scusa ma a questo punto si può veramente dire qualunque cosa in questo forum
nn mi è mai piaciuto questo modo di quotare "a pezzetti"...all'interno di tutto il post è rakkiuso un pensiero, nn ha senso rispondere frase x frase...
Credo che invece sia più chiaro, anche per gli altri che leggono il thread, visto che non è un botta e risposta tra me e te. :)
...cmq a parte questo ti faccio solo una domanda...x te esistono solo gli shader all'interno di una GPU?
Certo che no. :)
Se infatti leggessi anche i miei interventi precedenti ti accorgeresti che considero anche il resto. ;)
p.s.: mi sembra stessi parlando di performance relative ed incrementi percentuali ank'io...
A me pare di no, visto che mettevi a confronto il 270% in più ottenuto con il 166% in più di unità shaders (e il 100% di TMU ed il 300% in più di ROPs, che ripeto non hanno grande impatto prestazionale oltre un certo limite, tutt'altro) con il 300% in più ottenuto con il 300% in più di SP, il 200% in più di ROPs ed il 100% in più di TMU. Il che è ben diverso.
Facevo un discorso di proporzioni...
p.p.s.: stai confrontando un articolo dove a cambiare sono solo il numero d shader e texture units (quelo d digit-life...ke peraltro testa con gioki vekki ke nn sfruttano appieno un arkitettura a shader unificati come G80) e dove quindi le differenze son dovute solo a questo...con un altro alrticolo dove confronti due skede differenti dove le differenze nn son dovute solo al differente numero di shader e texture unit ma a tanti altri fattori...e pretendi di stabilire in base a ciò ke R600 e derivati scala maggiormente con l'aumento di shader rispetto a G80 e derivati...scusa ma a questo punto si può veramente dire qualunque cosa in questo forum
E alura?
SP e TMU sono la cosa più importante al fine delle prestazioni (coi giochi odierni)...
Quali sarebbero i "tanti altri fattori"? La marmotta che confeziona la cioccolata? :asd:
Ho già scritto che ROPs e banda sono importanti, ma meno rispetto a TMU e SP.
Tra l'altro Call of Juarez rimane ancora oggi uno dei giochi più shader intensive (ergo "moderni") che esistano, e non me lo invento io. ;)
Per chiudere, non volevo certo fare un trattato, era una pura considerazione.
scusa ma a questo punto si può veramente dire qualunque cosa in questo forum
:confused:
A me pare che infatti lo si possa fare, visto che viviamo in un paese libero, e che nè io nè tu siamo dei veri esperti in materia. Ciononostante mi pare di aver sempre fatto interventi piuttosto tecnici (alcuni dei miei post sono ancora lì a dimostrarlo), e non tanto pour parler.
Vabbè, se non ti pare che la mia analisi sia plausibile, pace, non voglio certo ammorbare il thread con un inutile battibecco. :mano:
Goodnight. :ronf:
Iantikas
02-05-2008, 00:11
certamente pace :mano: ...
...cmq se il discorso lo si fa solo all'interno dei dati dell'articolo d computerbase può aver anke senso...
...quello ke proprio m'aveva fatto rimanere "così e così" era il basarsi x nividia sui dati ricavati da digit-life e x ati sui dati ricavati da computerbase ke nn avevano nessuna attinenza tra loro...ciao
Iantikas
02-05-2008, 00:46
stai confrontando un articolo dove a cambiare sono solo il numero d shader e texture units (quelo d digit-life...ke peraltro testa con gioki vekki ke nn sfruttano appieno un arkitettura a shader unificati come G80) e dove quindi le differenze son dovute solo a questo...con un altro alrticolo dove confronti due skede differenti dove le differenze nn son dovute solo al differente numero di shader e texture unit ma a tanti altri fattori...e pretendi di stabilire in base a ciò ke R600 e derivati scala maggiormente con l'aumento di shader rispetto a G80 e derivati
E alura?
vabbeh se x te prendere i dati x nvidia dall'articolo di digit-life e prendere i dati x ati dall'articolo di computer-base è un confronto lecito e valido son contento x te ma x me nn lo è...ma tanto parliamo "x parlare" quindi ke ce frega :D ...
Quali sarebbero i "tanti altri fattori"? La marmotta che confeziona la cioccolata?
la marmotta ke confenziona la cioccolata è fondamentale :D ...e infatti è solo grazia alla marmotta ka la confenziona e alla fata turkina ke la produce ke R600 è derivati scalano maggiormente con l'aumento degli shader rispetto a G80 è derivati come s'evince kiaramente dai test d pandistelle.com e novi.org...(questo siccome si può dire qualunque cosa)...
i tanti altri fattori (oltra alla marmotta e alla fata turkina :sofico: ) son tutte quelle altre magike cosette ke si trovano all'interno di una gpu (oltre a shader e texture units) e le freq a cui tutte queste magike cosette operano, ke siccome dici d'aver già dato + volte prova d sapere quali siano nn sto qui a ripeterle...
...ciao ;)
Mercuri0
02-05-2008, 11:47
Guardate che non ho fatto nessun riferimento alla banda passante , è ovvio che il solo bandwidht non serve a nulla o meglio, può servire SOLO quando appunto non viene saturato .
Non hai fatto un riferimento al bus a 512bit? Cosa servono i bit di una interfaccia di memoria se non ad aumentare la banda dell'interfaccia stessa? :wtf:
Non vedo perchè una scheda che ha il 50% delle specifiche in più di una 9800GTX (le rops non hanno un impatto enorme, e la banda oltre i 100GB/s non è strettamente necessaria, anche questo a suo tempo fu dimostrato) dovrebbe andare più del 50% di un G92 a 128SP... no? ;)
Questo però cozzerebbe con i rumors che danno il G200 a 512bit. Cosa servono questi bit se non ad aumentare la banda?
Tra l'altro da più parti (vabbé, sempre beyond3d) leggevo che il G92 pare essere molto bandwidth limited, e che per qualche motivo soffra questa cosa molto di più di R6xx. Però non ho approfondito :bimbo:
(forse la soffre semplicemente perché R6xx è più lento :asd: )
SP e TMU sono la cosa più importante al fine delle prestazioni (coi giochi odierni)...
Ho già scritto che ROPs e banda sono importanti, ma meno rispetto a TMU e SP.
Questo è un discorso interessantissimo, azzeccare la risposta ad una domanda come questa fa la differenza tra un chip di successo e uno da buttare. Di sicuro alla AMD/nVidia non fanno che ragionar su cose come queste (anche usando driver emulatori che monitorizzano l'attività dei giochi). Io perciò preferisco non esprimermi troppo sulla questione :)
Quali sarebbero i "tanti altri fattori"? La marmotta che confeziona la cioccolata? :asd:
Beh, un fattore potrebbe essere "dove fai l'antialiasing". Si dice che R6xx lo faccia usando gli SP. R7xx tornerà a farlo nelle ROP? Una cosa simile sposterebbe le prestazioni dell'AA dal numero/velocità di SP al numero/velocità delle ROP.
Inoltre da quel poco che ho capito l'uso delle ROP è molto legato alla risoluzione a cui si gioca, e per loro la banda verso la memoria è un collo di bottiglia cruciale. (perciò il loro numero/velocità va bilanciato con la banda)
p.s. Ho un pò paura che R7xx sarà per alcuni aspetti una involuzione rispetto a R6xx: per esempio design più tradizionale (anti-aliasing nelle ROP, quindi in hardware dedicato) per maggiori prestazioni nei giochi attuali.
Se invece i produttori avessero usato le tecniche stile DX10.1, (vedi esempio l'AA di Assassin Creed) la musica sarebbe stata forse diversa.
appleroof
02-05-2008, 11:49
Mi baso sui fatti... ;)
Digit-life aveva tempo fa pubblicato una prova interessantissima in cui faceva notare come le performance scalassero su una 8800GTX disattivando blocchi di SP.
Da 64SP in su l'incremento marginale diviene sempre più basso, ed infatti la 9800GTX in media non è veloce il doppio di una 9600GT, nè il quadruplo di una 8600GTS.
Non vedo perchè una scheda che ha il 50% delle specifiche in più di una 9800GTX (le rops non hanno un impatto enorme, e la banda oltre i 100GB/s non è strettamente necessaria, anche questo a suo tempo fu dimostrato) dovrebbe andare più del 50% di un G92 a 128SP... no? ;)
Mentre nel caso di RV670 (320 shader) vs RV635 (120), a fronte di un numero di shader units incrementato del 166.67%, ha prestazioni superiori del 260% in media (alle diverse risoluzioni e con e senza AA). Fonte: computerbase.de
Ecco perchè affermo quanto sopra. :)
ti ha risposto abbondantemente Iantikas, nel senso che sono d'accordo con lui sul fatto che limiti il discorso agli SP come se il resto non contasse nulla
a quanto ne sappiamo finora, inoltre, gli stessi componenti, compresi gli SP ma non solo, potrebbero (e anzi credo sia certo) avere avuto affinamenti tali da renderli più efficienti, quindi non ha molto senso parlare come fai tu di GT200 come se fosse "solo" un g80 con più sp, o meglio è molto riduttivo e per forza di cose aiuta a portare alle tue conclusioni
Molto indicativo il Vantage... :asd:
Se è per questo al 3DMark Vantage anche la tua scheda fa più punti di una GTS512, quando nel gioco reale spesso vanno uguale, anzi a volte la GTS512 va meglio (anche se non di molto). ;)
infatti, ma dovrebbe essere un test che spreme le capacità delle vga (in dx10, particolare non trascurabile anzi), quindi il fatto che la GX2 vada il doppio di una GTS512 è molto interessante, quantomeno, poi nei giochi che come sappiamo non sfruttano mai il 100% di una vga per una miriade di fattori è un altro discorso, d'acordo con te cmq che quello che conta in generale è come và una vga nei giochi, almeno per me
cut
L'incremento di prestazioni va visto in termini percentuali, non assoluti. E' anche naturale che una 9800GTX vada quattro volte tanto una 8600GTS (anche se nemmeno sempre), visto che ha il quadruplo degli SP (+300%)... Quindi parliamo di incrementi mediamente proporzionali.
Ma il 270% di cui parli pure tu per ATI è ottenuto con il 166% in più di shaders, quindi vuol dire che è più che proporzionale. Meglio di così non so come spiegartelo. :fagiano:
cut
Mi sembra sia tu che hai perso il senso del discorso: tutto è cominciato dalla tua osservazione (magari anche giusta) che un 50% di SP in + non significa automaticamente un 50% di prestazioni in più
da qua concludevi come conseguenza diretta che GT200 non possa andare il doppio di G80, ma allora non cogli che si parlava di una differenza complessiva, come quella cui fai riferimento tu stesso nel post che ho appena quotato
cmq mi/vi ricordo che questo è il tread di rv770 :D
Mister Tarpone
02-05-2008, 11:57
p.s. Ho un pò paura che R7xx sarà per alcuni aspetti una involuzione rispetto a R6xx: per esempio design più tradizionale (anti-aliasing nelle ROP, quindi in hardware dedicato) per maggiori prestazioni nei giochi attuali.
.
e quindi sarà meglio delle precedenti RV...
...perchè potrà fare l'aa usando i suoi 3000sp e anche tramite le rops ottimizzate..
di cosa devi aver paura scusa?? :asd: :D
lor68pdit
02-05-2008, 13:12
cmq mi/vi ricordo che questo è il tread di rv770 :D
Quoto.
Ma si sa la data ufficiale di uscita?
Quoto.
Ma si sa la data ufficiale di uscita?
no lord ma serie illazioni lo vogliono fuori tra la seconda metà di maggio e la prima metà di giugno. quindi praticamente dal 15 maggio al 15giugno tutte le date possono esser buone.
halduemilauno
02-05-2008, 13:22
Quoto.
Ma si sa la data ufficiale di uscita?
ma quando l'hanno mai data una data ufficiale di uscita?
:boh:
lor68pdit
02-05-2008, 13:28
Speriamo presto. :sperem:
Mercuri0
02-05-2008, 14:17
e quindi sarà meglio delle precedenti RV...
...perchè potrà fare l'aa usando i suoi 3000sp e anche tramite le rops ottimizzate..
di cosa devi aver paura scusa?? :asd: :D
Beh, dicevo nel senso che dal punto di vista del progetto bisognerebbe tornare indietro rispetto a soluzioni fighe e che avranno prospettiva in futuro, a causa di condizioni non tecnologiche (il fatto che gli sviluppatori di giochi siano "moralmente persuasi" a non usare le 10.1).
Questo è il motivo delle mie faccine ":mad:" a proposito del DX10.1 di Assassin Creed in questo thread... non era affatto un discorso OT.
Poi certo dal punto di vista dell'utente, l'importante è che vada più veloce, questo è ovvio.
p.s. se metti più transistor da una parte, devi toglierli da un'altra.
Mercuri0
02-05-2008, 15:19
Su beyond3d stanno giusto discutendo del discorso "memoria condivisa", almeno per le texture.
Qualcuno dice che le latenze introdotte potrebbero non essere critiche se AMD usasse la tecnica che usa negli Opteron.
http://forum.beyond3d.com/showthread.php?t=41377&page=58
Comunque, a me pare piuttosto improbabile. AMD dovrebbe modificare pesantemente driver e architettura di accesso alla memoria solo per risparmiare qualche chip di RAM.
Attualmente il gioco non mi sembra valere la candela, e non credo che AMD possa permettersi di aspettare un anno prima che i driver maturino.
Ma tutto può essere.
be i dati mostrati da quei grafici sono sconcertanti, cioè come può una singola gpu fare tanti punti, va be che ati dall'uscita di r600 ha pensato solo a correggere il tiro, ma mi sembrano davvero troppo eccessivi, è anche vero che è la seconda volta che arrivano risultati da :eek:
bho speriamo che ci siano presto dati ufficiali :)
cmq oggettivamente è possibile una cosa del genere?? e poi altra cosa strana se ha queste prestazioni la 4870 perchè ha un prezzo poco sopra la 9800gtx, quando straccia la gx2??????? impossibile, cioè amd nella situazione in cui è nn può fare la onlus
ti ha risposto abbondantemente Iantikas, nel senso che sono d'accordo con lui sul fatto che limiti il discorso agli SP come se il resto non contasse nulla
Se avessi letto l'articolo citato lì si parla anche di TMU. Ossia venivano disattivati blocchi di SP e TMU.
a quanto ne sappiamo finora, inoltre, gli stessi componenti, compresi gli SP ma non solo, potrebbero (e anzi credo sia certo) avere avuto affinamenti tali da renderli più efficienti, quindi non ha molto senso parlare come fai tu di GT200 come se fosse "solo" un g80 con più sp, o meglio è molto riduttivo e per forza di cose aiuta a portare alle tue conclusioni
Ti ricordo che anche G70 aveva parecchi affinamenti rispetto a NV40, ma alla fine della fiera una 7800GTX era potente un 50-60% in più di una NV40Ultra. E se guardi l'incremento di potenza di shading più o meno siamo su quel livello.
Mi sembra sia tu che hai perso il senso del discorso: tutto è cominciato dalla tua osservazione (magari anche giusta) che un 50% di SP in + non significa automaticamente un 50% di prestazioni in più
A maggior ragione non vedo perchè (se il 50% avrebbe a mio parere ben più di un fondamento) dovrebbe andare il 100% in più... :asd:
E' la logica che te lo suggerisce: sinceramente io non mi fido molto "dei soliti ben informati" di HWU, che se non sbaglio parlavano anche di un G92 "ben più veloce di una Ultra", a suo tempo... ;)
da qua concludevi come conseguenza diretta che GT200 non possa andare il doppio di G80, ma allora non cogli che si parlava di una differenza complessiva, come quella cui fai riferimento tu stesso nel post che ho appena quotato
Ho colto benissimo, ma non è che gli aumenti si sommino... ;)
Se una certa architettura è strutturata in un certo modo può avere bisogno di certi incrementi in modo maggiore di altri per raggiungere un certo incremento prestazionale. Alla fine ad esempio il taglio della banda e di ROPs in G92 vanifica quasi del tutto gli incrementi in termini di shader power e TAU/TFU.
Se io incremento tutto del 50%, se la mia architettura scala proporzionalmente (almeno a TMU e SP), avrò un incremento di prestazioni del 50%. Se lo fa più che proporzionalmente, avrò incrementi in performance superiori, e così via. Poi se invece il valore dell'incremento di unità è diverso da unità in unità, allora a seconda dell'importanza dell'elemento in questione tali incrementi quantitativi daranno un certo apporto prestazionale al chip.
Questo è ovviamente un discorso semplificato, perchè all'interno di una stessa architettura ogni elemento da' un certo apporto (anche se poi l'apporto prestazionale finale è dato anche dal modo in cui i giochi sfruttano una certa architettura o parte di essa).
cmq mi/vi ricordo che questo è il tread di rv770 :D
Il raffronto ed il discorso in generale infatti comprendeva anche RV770, almeno nel mio caso. ;)
Anche per RV770 vedo difficili incrementi prestazionali superiori al 50%, se le specifiche fossero quelle viste finora (questo ovviamente vale pure per GT200).
appleroof
02-05-2008, 15:35
Se avessi letto l'articolo citato lì si parla anche di TMU. Ossia venivano disattivati blocchi di SP e TMU.
Ti ricordo che anche G70 aveva parecchi affinamenti rispetto a NV40, ma alla fine della fiera una 7800GTX era potente un 50-60% in più di una NV40Ultra. E se guardi l'incremento di potenza di shading più o meno siamo su quel livello.
A maggior ragione non vedo perchè (se il 50% avrebbe a mio parere ben più di un fondamento) dovrebbe andare il 100% in più... :asd:
E' la logica che te lo suggerisce: sinceramente io non mi fido molto "dei soliti ben informati" di HWU, che se non sbaglio parlavano anche di un G92 "ben più veloce di una Ultra", a suo tempo... ;)
Ho colto benissimo, ma non è che gli aumenti si sommino... ;)
Se una certa architettura è strutturata in un certo modo può avere bisogno di certi incrementi in modo maggiore di altri per raggiungere un certo incremento prestazionale. Alla fine ad esempio il taglio della banda e di ROPs in G92 vanifica quasi del tutto gli incrementi in termini di shader power e TAU/TFU.
Se io incremento tutto del 50%, se la mia architettura scala proporzionalmente (almeno a TMU e SP), avrò un incremento di prestazioni del 50%. Se lo fa più che proporzionalmente, avrò incrementi in performance superiori, e così via. Poi se invece il valore dell'incremento di unità è diverso da unità in unità, allora a seconda dell'importanza dell'elemento in questione tali incrementi quantitativi daranno un certo apporto prestazionale al chip.
Questo è ovviamente un discorso semplificato, perchè all'interno di una stessa architettura ogni elemento da' un certo apporto (anche se poi l'apporto prestazionale finale è dato anche dal modo in cui i giochi sfruttano una certa architettura o parte di essa).
Il raffronto ed il discorso in generale infatti comprendeva anche RV770, almeno nel mio caso. ;)
Anche per RV770 vedo difficili incrementi prestazionali superiori al 50%, se le specifiche fossero quelle viste finora (questo ovviamente vale pure per GT200).
non entro più nel merito di quell'articolo, sulla questione ripeto è già stata espressa un'opinione con la quale concordo al 100% (questa volta assoluto, non relativo :asd: :asd: )
per il resto, alcuni rumors (e non solo più i soliti ben informati di HWU) cominciano a ventilare un prezzo ben maggiore di gt200 rispetto a GX2: banalmente, già questo dovrebbe farti riflettere, al di là di TAU TMU SP &c., sulle prestazioni che dovrebbe avere la 9900gtx
tornando in topic, su r700 si sà qualcosa? tutto tace, dovrebbe essere la grande novità Ati (ricordo i rumors più vecchi sul tipo di connessione fra le 2 gpu, non più CF con switch) e anche quella che mi interessa di più....
L'ultima che si legge è questa....ma a chiamarla novità ce ne vuole :)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7115&Itemid=1
bye
per il resto, alcuni rumors (e non solo più i soliti ben informati di HWU) cominciano a ventilare un prezzo ben maggiore di gt200 rispetto a GX2: banalmente, già questo dovrebbe farti riflettere, al di là di TAU TMU SP &c., sulle prestazioni che dovrebbe avere la 9900gtx
Tutto può essere, ovviamente. Ma ti ricordo che anche la 9800GTX costa più di una 8800GTS 512. E la Ultra costava all'uscita un casino più di una GTX (anche 200€ in più), pur essendo solo lievemente più veloce. Molto sicuramente dipenderà da come si posizionerà R700. ;)
tornando in topic, su r700 si sà qualcosa? tutto tace, dovrebbe essere la grande novità Ati (ricordo i rumors più vecchi sul tipo di connessione fra le 2 gpu, non più CF con switch) e anche quella che mi interessa di più....
Da quello che si legge sembra che sarà il solito bridge chip, seppure con caratteristiche migliori, anche se in alcuni forum parlano di una nuova connessione. Ma siamo ancora nella fase del si dice, visto che per R700 mancano ancora 2-3 mesi. :)
appleroof
02-05-2008, 15:47
L'ultima che si legge è questa....ma a chiamarla novità ce ne vuole :)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7115&Itemid=1
bye
cut
Da quello che si legge sembra che sarà il solito bridge chip, seppure con caratteristiche migliori, anche se in alcuni forum parlano di una nuova connessione. Ma siamo ancora nella fase del si dice, visto che per R700 mancano ancora 2-3 mesi. :)
quanto a r700 insomma nulla....vabbè aspettiamo...:)
Iantikas
02-05-2008, 16:49
dai rumors apparsi finora appare kiaro ke RV770 avrà 32 TFU anzikè le 16 d RV670...
...qualcuno sa se è uscito qualke rumor ke parlli ane del resto...cioè il raddoppio di TFU implica anke il raddoppio di TAU o quelle rimarranno tali e quali a prima (se raddoppiassero anke quelle sarebbe curioso il fatto ke RV770 avrebbe 32/64 TFU/TAU mentre G80 ne ha 64/32, esattamente l'opposto)...
...inoltre qualcuno sa se son state apportate modifike alle ROP (nn tanto come numero xkè quello pare rimarrà invariato ma x funzionalità di ogni ROP...cioè saranno sempre limitate a 16 samples e 32 Z-only x ciclo di clock o ci sarà qualke variazione?)...
...ciao
ma.... io se avesse quei risultati sarei contento e spero li raggiunga, uno perché è da un anno e mezzo che si va avanti a stenti, due perché non sarebbe la prima volta che una nuova generazione raddoppia le prestazioni di un gioco.....
appleroof
02-05-2008, 17:10
ma.... io se avesse quei risultati sarei contento e spero li raggiunga, uno perché è da un anno e mezzo che si va avanti a stenti, due perché non sarebbe la prima volta che una nuova generazione raddoppia le prestazioni di un gioco.....
il fatto è che rv770 non è una nuova generazione, ma un miglioramento, sia pure importante e sostanzioso (pare) della vecchia (rv670)
halduemilauno
02-05-2008, 17:20
dai rumors apparsi finora appare kiaro ke RV770 avrà 32 TFU anzikè le 16 d RV670...
...qualcuno sa se è uscito qualke rumor ke parlli ane del resto...cioè il raddoppio di TFU implica anke il raddoppio di TAU o quelle rimarranno tali e quali a prima (se raddoppiassero anke quelle sarebbe curioso il fatto ke RV770 avrebbe 32/64 TFU/TAU mentre G80 ne ha 64/32, esattamente l'opposto)...
...inoltre qualcuno sa se son state apportate modifike alle ROP (nn tanto come numero xkè quello pare rimarrà invariato ma x funzionalità di ogni ROP...cioè saranno sempre limitate a 16 samples e 32 Z-only x ciclo di clock o ci sarà qualke variazione?)...
...ciao
ma il g92 ha riportato la parità a 64/64 e superiori per le gt200.
dai rumors apparsi finora appare kiaro ke RV770 avrà 32 TFU anzikè le 16 d RV670...
...qualcuno sa se è uscito qualke rumor ke parlli ane del resto...cioè il raddoppio di TFU implica anke il raddoppio di TAU o quelle rimarranno tali e quali a prima (se raddoppiassero anke quelle sarebbe curioso il fatto ke RV770 avrebbe 32/64 TFU/TAU mentre G80 ne ha 64/32, esattamente l'opposto)...
...inoltre qualcuno sa se son state apportate modifike alle ROP (nn tanto come numero xkè quello pare rimarrà invariato ma x funzionalità di ogni ROP...cioè saranno sempre limitate a 16 samples e 32 Z-only x ciclo di clock o ci sarà qualke variazione?)...
...ciao
Le rops dovrebbero rimanere in numero uguale (poi delle eventuali modifiche funzionali non si sa nulla), mentre dovrebbero raddoppiare le texture units, quindi RV770 dovrebbe avere 64TAU, 32TFU e 160 texture samplers: anche qui di eventuali modifiche non si sa nulla.
G92 ha 64 TMU e 64 TFU, mentre stando all'immagine postata da Hal GT200 ne dovrebbe avere 96 e 96.
Comunque info così dettagliate e tecniche si sapranno solo al lancio, o poco prima, se qualche slide tecnica trapelerà prima della fine dell'NDA.
Black_Angel77
02-05-2008, 17:34
Ma ste bestiole :sofico: ma quando e che usciranno??
ho letto il grafico nella prima pagina e ci sta scritto MAI 2008 :sofico:
c'e da preoccuparsi :p
appleroof
02-05-2008, 17:43
Ma ste bestiole :sofico: ma quando e che usciranno??
ho letto il grafico nella prima pagina e ci sta scritto MAI 2008 :sofico:
c'e da preoccuparsi :p
:asd: :asd:
Mercuri0
02-05-2008, 17:52
L'ultima da theinquirer
http://www.theinquirer.net/gb/inquirer/news/2008/05/02/summer-bring-gpu-war
Tirando le somme dai miei pensieri precedenti, vedo nella mia sfera di cristallo: ogni R770 potrà accedere, in un modo o nell'altro, a tutta la memoria disponibile, ma il driver, almeno inizialmente, continuerà ad usare l'AFR, e quindi molte risorse saranno duplicate nella memoria. Evolvendosi, il driver potrebbe gestire al meglio memoria e latenze, e noi potremmo fare il simpatico gioco "indovina cosa è duplicato" e scoprire che magari 512+512=725 :D
Se AMD usasse tecniche più sofisticate dell'AFR al lancio per R700, mi stupirebbe in positivo (...sperando che funzionino :asd:)
appleroof
02-05-2008, 17:53
L'ultima da theinquirer
http://www.theinquirer.net/gb/inquirer/news/2008/05/02/summer-bring-gpu-war
Tirando le somme dai miei pensieri precedenti, vedo nella mia sfera di cristallo: ogni R770 potrà accedere, in un modo o nell'altro, a tutta la memoria disponibile, ma il driver, almeno inizialmente, continuerà ad usare l'AFR, e quindi molte risorse saranno duplicate nella memoria. Evolvendosi, il driver potrebbe gestire al meglio memoria e latenze.
Se AMD usasse tecniche più sofisticate dell'AFR al lancio per R700, mi stupirebbe in positivo (...sperando che funzionino :asd:)
Mah! perchè limitare da driver un qualcosa che porterebbe benefici? Perchè non è pronta?
ari-mah....
Mercuri0
02-05-2008, 17:57
Mah! perchè limitare da driver un qualcosa che porterebbe benefici? Perchè non è pronta?
Perché nuove tecniche differenti dall'AFR per le multi-GPU ancora non se ne son viste (le altre "storiche" del crossfire e sli sono state abbandonate), e per AMD tirar fuori ora un driver rivoluzionario sarebbe un bel rischio.
Meglio partire da una cosa che funziona, cercare di farla funzionare bene, venderla ed poi evolverla pian pianino.
Chissà, magari l'hanno fatto durante R600 :D
(Né noi possiamo sapere quale strategia porterebbe benefici.)
edit: ho letto male la tua domanda, tu hai scritto "limitare da driver". Non è una questione di "limitare da driver" ma di "implementare sul driver" che non è proprio la stessa cosa.
appleroof
02-05-2008, 18:04
Perché nuove tecniche differenti dall'AFR per le multi-GPU ancora non se ne son viste (le altre "storiche" del crossfire e sli sono state abbandonate), e per AMD tirar fuori ora un driver rivoluzionario sarebbe un bel rischio.
Meglio partire da una cosa che funziona, cercare di farla funzionare bene, venderla ed poi evolverla pian pianino.
Chissà, magari l'hanno fatto durante R600 :D
(Né noi possiamo sapere quale strategia porterebbe benefici.)
si ok tutto
ma poi, dal punto di vista hw, tutto rimarrebbe uguale -in sostanza- a r680?
insomma, non darei molto credito a quel rumor....
edit: si intendevo insomma: fai funzionare la scheda nel "modo vecchio" (limitare in tal senso), poi tramite driver appunto lo implementi quando sei sicuro che funzioni, mi sono espresso male
Mercuri0
02-05-2008, 18:05
Insomma, dai, realisticamente, se credessi ai bench fake postati in giro su un singolo R770, e al fatto che AMD tiri fuori al lancio di R700 un driver con un tipo di rendering nuovo e ultracompatibile rispetto all'AFR, sarei già a comprare azioni AMD :D
appleroof
02-05-2008, 18:08
Insomma, dai, realisticamente, se credessi ai bench fake postati in giro su un singolo R770, e al fatto che AMD tiri fuori al lancio di R700 un driver con un tipo di rendering nuovo e ultracompatibile rispetto all'AFR, sarei già a comprare azioni AMD :D
esatto, ci siamo finalmente capiti....:D
Mercuri0
02-05-2008, 18:11
ma poi, dal punto di vista hw, tutto rimarrebbe uguale -in sostanza- a r680?
Intendi "il crossfire" di R700 rispetto a quello di R680?
Come ho detto non mi aspetto rivoluzioni (ma certo miglioramenti su alcuni aspetti)
Comunque questo sarà un test facile, basterà fare la percentuale di R700/RV770 rispetto a R680/RV670... e confrontare R700 con un crossfire di RV770.
Staremo a vedere.
edit: A dire il vero i rumor di the inquirer promettono cose mirabolanti. Non li stavo commentando nel mio post precedente (praticamente li ho ignorati, anche perché poco attinenti al succo del discorso: AFR si, AFR no).
appleroof
02-05-2008, 18:18
Intendi "il crossfire" di R700 rispetto a quello di R680?
Come ho detto non mi aspetto rivoluzioni (ma certo miglioramenti su alcuni aspetti)
Comunque questo sarà un test facile, basterà fare la percentuale di R700/RV770 rispetto a R680/RV670... e confrontare R700 con un crossfire di RV770.
Staremo a vedere.
intendo: se fosse possibile potrebbe farlo già da ora, con r680; la naturale obiezione è che appunto non è pronto il sw...
può essere effettivamente che un domani ci sarà questa possibilità e potrebbe rivelarsi il sorpresone (verificando i benefici effettivi), ma insomma...cmq ipotesi quantomeno interessante
si ok tutto
ma poi, dal punto di vista hw, tutto rimarrebbe uguale -in sostanza- a r680?
Se quel rumour fosse vero no. Ci sarebbe un bridge chip o qualcosa di simile, che però credo verrebbe strutturato in maniera parecchio differente, visto che permetterebbe di condividere lo stesso quantitativo di memoria tra le 2 gpu. La scheda verrebbe vista come una gpu sola dal pc. :)
Mercuri0
03-05-2008, 10:11
Se quel rumour fosse vero no. Ci sarebbe un bridge chip o qualcosa di simile, che però credo verrebbe strutturato in maniera parecchio differente, visto che permetterebbe di condividere lo stesso quantitativo di memoria tra le 2 gpu. La scheda verrebbe vista come una gpu sola dal pc. :)
Ragionando su quel link che ho postato.
- Penso si possa condividere la memoria anche senza passare per un bridge chip (ma da una GPU all'altra). Prima o poi dovrò guardare bene come fanno gli Opteron, in cui ciascun processore è direttamente collegato ai suoi banchi di memoria ma tutti vedono tutto.
http://en.wikipedia.org/wiki/Non-Uniform_Memory_Access
La possibilità che R700 faccia nello stesso modo è tutt'altro che remota, a quanto dicono, perché l'architettura di R6xx sembra pronta per questo tipo di utilizzo (ma non chiedete a me perché :D)
- Di solito l'esistenza di un chip (e dimensioni e TDP) è una cosa che trapela bene nei rumors (perché i rumors più attendibili sono quelli che vengono fuori dopo le presentazioni interne ai produttori delle schede). E' strano che ancora non sia venuto fuori niente...
- Sul discorso se ne vede "una" o "due", mi pare chiaro che il driver "vedrà" 2 GPU con tutti i loro registri etc. Un bridge chip che "nasconda" le due GPU al sistema, oltre ad essere complesso, è anche completamente inutile, perché può essere emulato via software dal driver.
Il vero nocciolo del problema, al solito, è la compatibilità coi giochi e l'efficienza di utilizzo delle risorse. Ma ripeto, non mi aspetto rivoluzioni rispetto all'AFR.
Poi chissà, ma sul web è troppo facile farsi prendere dall'entusiasmo. :D
p.s. il bridge chip su R680 serve solo per consentire l'accesso ai registri delle GPU da parte del driver. Che questo sia discreto come in R680, o integrato nelle GPU, è solo un problema di spazio e natura economica. Già in R680 le 2 GPU dialogano tra loro senza passare da quel chip (a quanto dicono - non ho verificato personalmente). Certo nulla vieta che AMD tiri fuori per R700 un bridge chip che faccia anche qualcos'altro.
Andrea deluxe
03-05-2008, 11:48
MIZZICA!!!!:eek:
Se fossero veri sti bench sarebbe x me fantastico....
2 4870 in cross:eek:
http://www.techpowerup.com/59332/First_ATI_Radeon_HD_4870_Benchmarks_Appear.html
http://forums.vr-zone.com/showthread.php?t=270820
MIZZICA!!!!:eek:
Se fossero veri sti bench sarebbe x me fantastico....
2 4870 in cross:eek:
http://www.techpowerup.com/59332/First_ATI_Radeon_HD_4870_Benchmarks_Appear.html
http://forums.vr-zone.com/showthread.php?t=270820
Ne abbiamo discusso pagine fa. Solo quasi certamente fake, 8000 punti nello sm 2.0 al 3DMark06 non possono essere fatti da nessuna scheda con un processore a 3 Ghz, si è fortemente CPU-Limited. Oltretutto la fonte originale è inaffidabile, pubblicò bech della demo di Crysis mesi prima dell'uscita totalmente sbagliati.
Andrea deluxe
03-05-2008, 13:55
Ne abbiamo discusso pagine fa. Solo quasi certamente fake, 8000 punti nello sm 2.0 al 3DMark06 non possono essere fatti da nessuna scheda con un processore a 3 Ghz, si è fortemente CPU-Limited. Oltretutto la fonte originale è inaffidabile, pubblicò bech della demo di Crysis mesi prima dell'uscita totalmente sbagliati.
oooooookkkkkkkkeeeeeeeeiiiiiiiii
halduemilauno
03-05-2008, 15:27
http://www.nordichardware.com/news,7700.html
RV770 Pro GDDR3 in May, RV770XT GDDR5 in July
Written by Andreas G 03 May 2008 15:43
We earlier reported that the first card of the new R7x series family would use GDDR3, and according to the launch schedule we've seen, it's going to be RV770 Pro which is going to hit the streets first, I.e. in late May, contrary to previous stories. GDDR5 testing have gone extremely well, but there is still some time before the DRAM manufacturer can supply AMD with enough chips, which means that RV770 XT will have to wait until July, or late June at least. As we've mentioned in the past, AMD/ATI has mastered the 55nm node and the yields are good, very good. AMD is literally pumping out chips now.
;)
Quindi la scheda "figa" uscirà a Luglio, lasciando la versione mainstream per il tardo Maggio.
Insolito, ma ci può stare.
Se questo fosse confermato, vuol dire che probabilmente le gddr5 non sono ancora in volumi sufficienti.
lor68pdit
03-05-2008, 15:49
Mi sembra ovvio, vogliono vendere un pò di PRO....... vedere come tira il mercato e poi immetteranno l'XT ad un prezzo superiore.
+Lonewolf+
03-05-2008, 16:23
io spero solo che il prezzo sia umano...:D
TheDarkAngel
03-05-2008, 16:27
Quindi la scheda "figa" uscirà a Luglio, lasciando la versione mainstream per il tardo Maggio.
Insolito, ma ci può stare.
beh la nuova di nvidia sta stranamente in luglio ^_^
appleroof
03-05-2008, 19:35
Se quel rumour fosse vero no. Ci sarebbe un bridge chip o qualcosa di simile, che però credo verrebbe strutturato in maniera parecchio differente, visto che permetterebbe di condividere lo stesso quantitativo di memoria tra le 2 gpu. La scheda verrebbe vista come una gpu sola dal pc. :)
esatto, è quello che mi chiedevo e sarebbe la cosa più interessante....
Ne abbiamo discusso pagine fa. Solo quasi certamente fake, 8000 punti nello sm 2.0 al 3DMark06 non possono essere fatti da nessuna scheda con un processore a 3 Ghz, si è fortemente CPU-Limited. Oltretutto la fonte originale è inaffidabile, pubblicò bech della demo di Crysis mesi prima dell'uscita totalmente sbagliati.
Infatti. Stando a quanto si legge sui soliti forum cinesi, RV770 ha come target la 9800GTX, che potrebbe anche superare (ma forse non di molto). Bisognerebbe capire se già una RV770Pro o solo la XT. I prezzi ventilati farebbero supporre che già la Pro (HD4850) dovrebbe porsi in competizione con l'ultima declinazione di G92. Però ovviamente è tutto da vedersi. :)
esatto, è quello che mi chiedevo e sarebbe la cosa più interessante....
http://xtreview.com/addcomment-id-5090-view-RV770-Architectural-update.html
Questa è la notizia più recente in merito... :boh:
Notizia dal piú importante sito e forum Brasiliano di Hardware.
http://www.forumpcs.com.br/noticia.php?b=236493
Traduco per voi :)
I test con le memorie gddr5 sono stati talmente buoni che AMD aumenterá la produzione di chip rv770 e queste verranno implementate in tutti i modelli della nuova linea il prima possibile.
Anche se le gddr5 attuali possono superare i 4GHz, AMD dovrebbe mantenere le sue schede operando ad una frequenza inferiore, per non aumentare il consumo di energia. Probabile che i produttori, dopo una prima fornata di reference board, montino versioni overcloccate delle stesse, anche se spesso, questo si dimostra piú una mossa di marketing che un vero aumento delle prestazioni.
;)
<^MORFEO^>
04-05-2008, 00:35
Notizia dal piú importante sito e forum Brasiliano di Hardware.
http://www.forumpcs.com.br/noticia.php?b=236493
Traduco per voi :)
I test con le memorie gddr5 sono stati talmente buoni che AMD aumenterá la produzione di chip rv770 e queste verranno implementate in tutti i modelli della nuova linea il prima possibile.
Anche se le gddr5 attuali possono superare i 4GHz, AMD dovrebbe mantenere le sue schede operando ad una frequenza inferiore, per non aumentare il consumo di energia. Probabile che i produttori, dopo una prima fornata di reference board, montino versioni overcloccate delle stesse, anche se spesso, questo si dimostra piú una mossa di marketing che un vero aumento delle prestazioni.
;)
Loro abbassano le frequenza delle RAM e noi le rialzeremo! :O :asd:
A parte gli scherzi, queste buone notizie mi allietano la giornata e mi fanno ben sperare per il futuro... :D
gianni1879
04-05-2008, 09:02
Loro abbassano le frequenza delle RAM e noi le rialzeremo! :O :asd:
A parte gli scherzi, queste buone notizie mi allietano la giornata e mi fanno ben sperare per il futuro... :D
comunque nonostante si dica la breve introduzione si sa ben co di certo, la cosa è molto strana, nda d'acciaio o altro?
Infatti. Stando a quanto si legge sui soliti forum cinesi, RV770 ha come target la 9800GTX, che potrebbe anche superare (ma forse non di molto). Bisognerebbe capire se già una RV770Pro o solo la XT. I prezzi ventilati farebbero supporre che già la Pro (HD4850) dovrebbe porsi in competizione con l'ultima declinazione di G92. Però ovviamente è tutto da vedersi. :)
http://xtreview.com/addcomment-id-5090-view-RV770-Architectural-update.html
Questa è la notizia più recente in merito... :boh:
io credo che se il raddoppio delle TMUe' verificato, la scheda potrebbe andare anche piu' del 50% in piu' rispetto alla 3870. Se le TMU erano il vero collo di bottiglia nell'architettura RV670, si puo' ben sperare sotto questo punto di vista (esattamente come in passato passando da una scheda con bus a 64bit verso una a 128, o da 128 a 256, si assistiva ad un raddoppio netto delle prestazioni, pur con un solo elemento di differenza)
bYeZ!
pierluigi86
04-05-2008, 11:38
secondo me
4850 gddr3(fine maggio)= 9800gtx
4870 gddr5 (fine giugno)= g92@55nm (metà luglio)
4870x2 (fine luglio)= gt200
I prezzi delle schede ati saranno uguali a quelli delle rispettive vga nvidia.
halduemilauno
04-05-2008, 12:05
secondo me
4850 gddr3(fine maggio)= 9800gtx
4870 gddr5 (fine giugno)= g92@55nm (metà luglio)
4870x2 (fine luglio)= gt200
I prezzi delle schede ati saranno uguali a quelli delle rispettive vga nvidia.
giusto quelli sono i confronti corretti. ma perchè per il primo grassettato nell'altro thread fai lo schizzinoso?
Mercuri0
04-05-2008, 18:49
comunque nonostante si dica la breve introduzione si sa ben co di certo, la cosa è molto strana, nda d'acciaio o altro?
Questa è una cosa interessante. Qualcuno ventilava che alla AMD questa volta stiano prestando più attenzione a non far sfuggir niente. Le altre volte sembrava che nVidia sapesse tutto con mesi di anticipo :D
Tra l'altro la 4870 sarà prodotta inizialmente solo direttamente da Ati.
Della 4870x2 non si sa proprio niente, niet, zero. Altro che NDA... secondo me hanno usato impianti neurali questa volta :asd:
Io credo che i prezzi di ATI saranno + bassi di quelli nvidia.....
<^MORFEO^>
04-05-2008, 19:20
Io credo che i prezzi di ATI saranno + bassi di quelli nvidia.....
Beh,dirlo così mi sembra un pò azzardato...
Secondo me invece dipenderà tutto dalle prestazioni che offriranno nei confronti delle dirette concorrenti nVidia ;)
gianni1879
04-05-2008, 21:06
Questa è una cosa interessante. Qualcuno ventilava che alla AMD questa volta stiano prestando più attenzione a non far sfuggir niente. Le altre volte sembrava che nVidia sapesse tutto con mesi di anticipo :D
Tra l'altro la 4870 sarà prodotta inizialmente solo direttamente da Ati.
Della 4870x2 non si sa proprio niente, niet, zero. Altro che NDA... secondo me hanno usato impianti neurali questa volta :asd:
bah speriamo che abbiano usato un pò di criterio stavolta nel realizzarla, e prestando un pò più attenzione alle prestazioni pure ;)
Immortal
04-05-2008, 21:28
Questa è una cosa interessante. Qualcuno ventilava che alla AMD questa volta stiano prestando più attenzione a non far sfuggir niente. Le altre volte sembrava che nVidia sapesse tutto con mesi di anticipo :D
Tra l'altro la 4870 sarà prodotta inizialmente solo direttamente da Ati.
Della 4870x2 non si sa proprio niente, niet, zero. Altro che NDA... secondo me hanno usato impianti neurali questa volta :asd:
solo perché con i phenom sono stracarichi di lavoro..sennò potrebbe venirmi una strana idea..se le producesse direttamente amd? così magari tsmc non avendo nemmeno i sample, non potrebbe nemmeno avere info a riguardo... anche se cmq è solo una ipotesi alla "fudzilla" la mia..
Iantikas
05-05-2008, 00:20
Io credo che i prezzi di ATI saranno + bassi di quelli nvidia.....
se le gpu basate su RV770 si dimostreranno + prestanti delle dirette concorrenti nvidia stai certo ke costeranno di +...
...questa è proprio l'unica cosa di cui si può veramente essere sicuri :D (purtroppo)...ciao
io credo che se il raddoppio delle TMUe' verificato, la scheda potrebbe andare anche piu' del 50% in piu' rispetto alla 3870. Se le TMU erano il vero collo di bottiglia nell'architettura RV670, si puo' ben sperare sotto questo punto di vista (esattamente come in passato passando da una scheda con bus a 64bit verso una a 128, o da 128 a 256, si assistiva ad un raddoppio netto delle prestazioni, pur con un solo elemento di differenza)
bYeZ!
:boh: Tutto può essere... :)
Questa è una cosa interessante. Qualcuno ventilava che alla AMD questa volta stiano prestando più attenzione a non far sfuggir niente. Le altre volte sembrava che nVidia sapesse tutto con mesi di anticipo :D
Tra l'altro la 4870 sarà prodotta inizialmente solo direttamente da Ati.
Della 4870x2 non si sa proprio niente, niet, zero. Altro che NDA... secondo me hanno usato impianti neurali questa volta :asd:
Secondo me in R700 le 2 gpu sono collegato con canali Quantistici :)
Comunque è vero...altro che NDA...........TOP SECRET tipo AEREA 51 x gli alieni
Questa è una cosa interessante. Qualcuno ventilava che alla AMD questa volta stiano prestando più attenzione a non far sfuggir niente. Le altre volte sembrava che nVidia sapesse tutto con mesi di anticipo :D
Beh, mi pare giusto. Lo spionaggio può portare a danni gravissimi in certi settori. ;)
Detto questo, credo che comunque di RV770 ce ne sia già più di qualche sample in giro.
Della 4870x2 non si sa proprio niente, niet, zero. Altro che NDA... secondo me hanno usato impianti neurali questa volta :asd:
Si sa più o meno quanto di GT200. Il fatto è che uscirà con un certo ritardo rispetto a RV770 (fine maggio per la pro, mentre R700 a luglio): temo sia ancora troppo presto per sapere qualcosa di realistico.
Ovvio che una volta uscito RV770 le prestazioni saranno abbastanza facilmente intuibili (simili al Crossfire di HD4870).
Beh, mi pare giusto. Lo spionaggio può portare a danni gravissimi in certi settori. ;)
Detto questo, credo che comunque di RV770 ce ne sia già più di qualche sample in giro.
Si sa più o meno quanto di GT200. Il fatto è che uscirà con un certo ritardo rispetto a RV770 (fine maggio per la pro, mentre R700 a luglio): temo sia ancora troppo presto per sapere qualcosa di realistico.
Ovvio che una volta uscito RV770 le prestazioni saranno abbastanza facilmente intuibili (simili al Crossfire di HD4870).
certo però bisognerebbe anche portare la 4850 alle frequenze della 4870 ;)
certo però bisognerebbe anche portare la 4850 alle frequenze della 4870 ;)
Quello credo verrà fatto istantaneamente... :sofico:
Piuttosto rimarrà ancora il dubbio della banda: tra la pro GDDR3 e la XT GDDR5 ci saranno almeno una 30ina di GB/s di differenza. ;)
Mercuri0
05-05-2008, 09:41
Beh, mi pare giusto. Lo spionaggio può portare a danni gravissimi in certi settori. ;)
Detto questo, credo che comunque di RV770 ce ne sia già più di qualche sample in giro.
C'è di più: fuoco di sbarramento da parte di Fudzilla. (Fudzilla in questo periodo è sembrato molto vicino ad AMD.)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7153&Itemid=34
"Die shrink with minor changes" (die shrink rispetto a che? R670 è già a 55nm :rolleyes: )
Il tono dell'articolo è fatto per spegnere l'hype :D
E far "rilassare" il contro-hype che nVidia farà partire questo mese?
solo perché con i phenom sono stracarichi di lavoro..sennò potrebbe venirmi una strana idea..se le producesse direttamente amd? così magari tsmc non avendo nemmeno i sample, non potrebbe nemmeno avere info a riguardo... anche se cmq è solo una ipotesi alla "fudzilla" la mia..
Io mi riferivo alla produzione della scheda non del chip (la 4870 inizialmente sarà fatta solo da AMD)
Difficile che AMD possa farsi da se il chip per questioni di volume di produzione e anche di design del chip che andrebbe rifatto, buttando un bel pò di know-how degli ingegneri ATI sul processo di TMSC. (addirittura è più probabile che AMD segua la strada della produzione esterna dividendosi in due aziende, una di design e una di produzione...)
Non penso che ci sia fuga di informazioni a livello di fonderia. Di solito capita a livello di schede, ma questa volta sembra tutto molto "abbottonato".
C'è di più: fuoco di sbarramento da parte di Fudzilla. (Fudzilla in questo periodo è sembrato molto vicino ad AMD.)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7153&Itemid=34
"Die shrink with minor changes" (die shrink rispetto a che? R670 è già a 55nm :rolleyes: )
Il tono dell'articolo è fatto per spegnere l'hype :D
E far "rilassare" il contro-hype che nVidia farà partire questo mese?
In pratica in quell'articolo dicono tutto e niente... :D
Su Chiphell un utente parla di prestazioni simili a quelle della Ultra (e quindi anche alla HD3870X2) per RV770, ma non dice se la pro o la xt. :)
http://translate.google.co.uk/translate?u=bbs.chiphell.com&langpair=zh%7Cen&hl=en&ie=UTF-8
HackaB321
05-05-2008, 10:08
dai rumors apparsi finora appare kiaro ke RV770 avrà 32 TFU anzikè le 16 d RV670...
...qualcuno sa se è uscito qualke rumor ke parlli ane del resto...cioè il raddoppio di TFU implica anke il raddoppio di TAU o quelle rimarranno tali e quali a prima (se raddoppiassero anke quelle sarebbe curioso il fatto ke RV770 avrebbe 32/64 TFU/TAU mentre G80 ne ha 64/32, esattamente l'opposto)...
Penso raddoppieranno anche le TAU se verrà mantenuta la parità di R600 dove ci sono 4 TAU/4 TFU per texture block (le altre 4 TAU servono solo per l'indirizzamento di texture non filtrate)
...inoltre qualcuno sa se son state apportate modifike alle ROP (nn tanto come numero xkè quello pare rimarrà invariato ma x funzionalità di ogni ROP...cioè saranno sempre limitate a 16 samples e 32 Z-only x ciclo di clock o ci sarà qualke variazione?)...
...ciao
16 sample sono per RBE (64 totali), 32 Z sample sono in totale. Alcuni rumor parlavano di un raddoppio di quest'ultimo parametro (come vorrebbe anche la logica visto che è un grosso fattore limitante di R600)
Mercuri0
05-05-2008, 10:33
In pratica in quell'articolo dicono tutto e niente... :D
Su Chiphell un utente parla di prestazioni simili a quelle della Ultra (e quindi anche alla HD3870X2) per RV770, ma non dice se la pro o la xt. :)
http://translate.google.co.uk/translate?u=bbs.chiphell.com&langpair=zh%7Cen&hl=en&ie=UTF-8
A parte che spesso mi sembra che si dia retta ai post su Chiphell solo perché sono in cinese (:asd:) le prestazioni della Ultra per R770 sono verisimili, anche in merito ai primi rumors, che davano r770 un 50% in più rispetto a r670.
Più che altro bisognerà vedere il comportamento di R770 alle differenti risoluzioni e con le differenti impostazioni. Può darsi che sia quello il maggior discriminante tra la 4850 e la 4870.
A parte che spesso mi sembra che si dia retta ai post su Chiphell solo perché sono in cinese (:asd:) le prestazioni della Ultra per R770 sono verisimili, anche in merito ai primi rumors, che davano r770 un 50% in più rispetto a r670.
Più che altro bisognerà vedere il comportamento di R770 alle differenti risoluzioni e con le differenti impostazioni. Può darsi che sia quello il maggior discriminante tra la 4850 e la 4870.
Beh, in Cina e a Taiwan i sample delle vga arrivano molto prima (visto che la maggior parte delle schede è prodotta là), e per ATI sono abbastanza affidabili: da qualche tempo inoltre producono una loro versione in edizione limitata di diverse schede ATI. Molte delle foto leaked vengono dai soliti 3-4 forum o siti cinesi-taiwanesi, tra cui ci sono Chiphell, expreview, Pcinlife, Itocp e poco altro. ;)
Mercuri0
05-05-2008, 10:58
Molte delle foto leaked vengono dai soliti 3-4 forum o siti cinesi-taiwanesi, tra cui ci sono Chiphell, expreview, Pcinlife, Itocp e poco altro. ;)
Zi ma infatti li seguo anch'io. Solo che, per le ragioni che tu hai detto, mi fido di più quando parlano di caratteristiche esterne al chip (che hanno a che fare con dimensione e pcb, quindi al massimo la dimensione del bus verso la memoria) che quando sparano di numeri interni al chip. ;)
Mercuri0
05-05-2008, 11:03
ma lol! :asd:
http://www.theinquirer.net/gb/inquirer/news/2008/05/03/nvidia-reschedules-editors-day
Con un pò di fantasia, potrei pensare che i PR di nVidia e AMD stiano facendo una tesissima partita a scacchi :D
(che nVidia stia cercando di piazzare la sua press conference prima del lancio di R770, ma non troppo prima? E che stia cercando di indovinare la data?)
La volta scorsa il tempismo della 8800GT fu magistrale. Che alla AMD abbiano imparato la lezione, e stiano rilasciando rumors per confondere le acque sulla data del lancio? (oltre che NDA con impianto neurale)
Questo mese si preannuncia divertente :cool:
p.s. nVidia è una bestia veramente dura, non concedono un centimetro! Ma la volta scorsa tirò fuori il G92, questa volta solo parole mi sa.
Iantikas
05-05-2008, 11:28
16 sample sono per RBE (64 totali), 32 Z sample sono in totale. Alcuni rumor parlavano di un raddoppio di quest'ultimo parametro (come vorrebbe anche la logica visto che è un grosso fattore limitante di R600)
RADEON HD 2900 XT
Codename: R600
Process technology: 80 nm
~700 million transistors
Unified architecture with an array of common processors for stream processing of vertices and pixels as well as other data types
Hardware support for DirectX 10, including the new shader model - Shader Model 4.0, stream output
512-bit memory bus, eight 64-bit controllers connected with a ring bus
Core clock: 750 MHz
320 scalar floating point ALUs (integer and floating point formats, IEEE 754 FP32 support)
4 texture units, support for FP16 and FP32 components in textures
32 texture address units (see the details)
80 TMUs (see the details)
16 bilinear filtering units with FP16 texture filtering at full speed and support for trilinear and anisotropic filtering for all texture formats
Dynamic branching in pixel and vertex shaders
16 ROPs supporting antialiasing with software fetches of more than 16 samples per pixel, including FP16 and FP32 frame buffer formats. Peak performance is up to 16 samples per cycle, Z only mode - 32 samples per cycle
8 multiple render targets (MRT)
Integrated support for two RAMDACs, two Dual Link DVIs, HDMI (with audio), HDTV
boh...io la sapevo così...potresti spiegati meglio e linkare qualke articolo dove dice ke son 16 x rbe e 64 totali?...ciao
p.s.: mi sa ke ti stai confondendo con le texture samplers all'interno della TMU...le TMU son 4 e in ogni TMU ci sono 4 TFU, 8 TAU e 20 testure samplers...d questi, come hai fatto notare, 4 TAU e 4 texture samplers si occupano di texture nn filtrate...mntre le rimanenti si occupano di texture filtrate....quindi x le texture filtrate ci sono 16 TFU, 16 TAU e i 64 texture samplers (a cui penso ti riferisci tu; ke xò nn hanno niente a ke fare con le RBE)...ma in totale, tra filtrate e nn filtrate, ci sono 16 TFU, 32 TAU e 80 texture samplers...
...ciao
Quello credo verrà fatto istantaneamente... :sofico:
Piuttosto rimarrà ancora il dubbio della banda: tra la pro GDDR3 e la XT GDDR5 ci saranno almeno una 30ina di GB/s di differenza. ;)
ovviamente :D :oink:
HackaB321
05-05-2008, 13:59
boh...io la sapevo così...potresti spiegati meglio e linkare qualke articolo dove dice ke son 16 x rbe e 64 totali?...ciao
p.s.: mi sa ke ti stai confondendo con le texture samplers all'interno della TMU...le TMU son 4 e in ogni TMU ci sono 4 TFU, 8 TAU e 20 testure samplers...d questi, come hai fatto notare, 4 TAU e 4 texture samplers si occupano di texture nn filtrate...mntre le rimanenti si occupano di texture filtrate....quindi x le texture filtrate ci sono 16 TFU, 16 TAU e i 64 texture samplers (a cui penso ti riferisci tu; ke xò nn hanno niente a ke fare con le RBE)...ma in totale, tra filtrate e nn filtrate, ci sono 16 TFU, 32 TAU e 80 texture samplers...
...ciao
R600 ha un AA sample rate di 47488 Msample
http://www.beyond3d.com/resources/board/331
Se dividi questo valore per la sua frequenza (742Mhz) trovi i 64 sample per ciclo di clock.
In realtà però penso che questo valore sia sbagliato (:D ). Demers infatti ha detto che R600 ha lo stesso Z sample rate di 32 sample per clock con AA:
http://forum.beyond3d.com/showpost.php?p=1021537&postcount=155
mentre G80 ha un sample rate di 96 (con AA) e 192 senza.
Su Chiphell iniziano a fioccare le indiscrezioni sulle prestazioni. Ovviamente sono da prendere non con le pinze, di più... :D
Sono voci che potrebbero avere qualche fondamento, ma anche no... :fagiano: :boh:
Secondo qualche utente, la HD4850 dovrebbe andare il 20% in più di una 8800GT, ossia più o meno come una Ultra. La HD4870 invece potrebbe distaccare parecchio la sua "sorella minore", dato che si parla di un 25% in più di prestazioni, che la porrebbe tra la HD3870X2 e la 9800GX2.
Ripeto: non prendetele come oro colato, potrebbero pure essere fesserie. :stordita:
[..cut..] Their own version of the default frequency, RV770 512MB GDDR3 performance as "120 percent." Reference, the 8800 GT 512MB GDDR3 as "100 percent", which is now HD3870 512MB GDDR4 as "80 percent." [..cut..]
[..cut..] have reason to believe that the gap between the RV770XT will RV770PRO faster than about 25 percent [..cut..]
gianni1879
05-05-2008, 19:49
Su Chiphell iniziano a fioccare le indiscrezioni sulle prestazioni. Ovviamente sono da prendere non con le pinze, di più... :D
Sono voci che potrebbero avere qualche fondamento, ma anche no... :fagiano: :boh:
Secondo qualche utente, la HD4850 dovrebbe andare il 20% in più di una 8800GT, ossia più o meno come una Ultra. La HD4870 invece potrebbe distaccare parecchio la sua "sorella minore", dato che si parla di un 25% in più di prestazioni, che la porrebbe tra la HD3870X2 e la 9800GX2.
Ripeto: non prendetele come oro colato, potrebbero pure essere fesserie. :stordita:
speriamo sia oro colato invece ;)
cmq dubito fortemente una cosa del genere, anche se tutto è possibile
Mi auguro che queste indiscrezioni siano veritiere.....:sarebbe disarmante se ATI , dopo due anni circa dalla sua uscita non fosse in grado di superare le prestazioni di G80 e suoi refresh....pareggiare le performance delle VGA NVidia single GPU dovrebbe essere l'obbiettivo minimo...
Chissà...!?
HackaB321
06-05-2008, 08:29
Su Chiphell hanno messo su anche questo rumor su RV730 (la nuova fascia mainstream)
RV730, alternative RV635 (HD3650); SP: 320; TMU, ROP: 16, bandwidth: 128 bit, to support UVD2.UVD2 can support higher video resolution. (RV770 is UVD2)
Sarebbe un R600 con bus a 128 :boh:
Mr_Paulus
06-05-2008, 08:37
Su Chiphell hanno messo su anche questo rumor su RV730 (la nuova fascia mainstream)
RV730, alternative RV635 (HD3650); SP: 320; TMU, ROP: 16, bandwidth: 128 bit, to support UVD2.UVD2 can support higher video resolution. (RV770 is UVD2)
Sarebbe un R600 con bus a 128 :boh:
beh...guardando il prezzo a cui vendono adesso le 3870, forse significa che non ci perdono molto e riducendo il bus magari riescono a guadagnarci, mentre per compensare la banda mettono le ddr5...sempre se sn vere queste ipotesi...
Foglia Morta
06-05-2008, 08:42
e oltre al bus a 128bit sarebbe il caso di produrlo a 45nm così con un die più piccolo risparmiano ulteriormente.
Comunque , imho, girano speculazioni anche dai cinesi...
Foglia Morta
06-05-2008, 08:55
non sa più che scrivere... ora vuole dare lezioni su come si calcolano le percentuali :asd:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7180&Itemid=1
Maybe a bit more
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.
In the real world, this should mean that if one game gives 50FPS with RV670 that the new chip should be able to get you around 75FPS at the same settings. On average, the new chip will have to be at least 30 percent faster than the old one to make you even consider it but at least specification wise there is not anything that you might miss.
RV670 was a shrinked and better speced version of R600 with 512bit memory controller crippled to 256bit and it looks that R770 will get that memory upped to 512bit again. At least we know it will end up being fast but we still don’t know what's Nvidia’s real answer to this one.
taleboldi
06-05-2008, 08:55
ancora da FUD
RV770 to be 1.5 times faster than RV670
Maybe a bit more
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.
In the real world, this should mean that if one game gives 50FPS with RV670 that the new chip should be able to get you around 75FPS at the same settings. On average, the new chip will have to be at least 30 percent faster than the old one to make you even consider it but at least specification wise there is not anything that you might miss.
RV670 was a shrinked and better speced version of R600 with 512bit memory controller crippled to 256bit and it looks that R770 will get that memory upped to 512bit again. At least we know it will end up being fast but we still don’t know what's Nvidia’s real answer to this one.
ciauz
--edit--
OOOOPS, loooooooooooool
Immortal
06-05-2008, 09:03
ancora da FUD
RV770 to be 1.5 times faster than RV670
Maybe a bit more
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.
In the real world, this should mean that if one game gives 50FPS with RV670 that the new chip should be able to get you around 75FPS at the same settings. On average, the new chip will have to be at least 30 percent faster than the old one to make you even consider it but at least specification wise there is not anything that you might miss.
RV670 was a shrinked and better speced version of R600 with 512bit memory controller crippled to 256bit and it looks that R770 will get that memory upped to 512bit again. At least we know it will end up being fast but we still don’t know what's Nvidia’s real answer to this one.
ciauz
--edit--
OOOOPS, loooooooooooool
certo che fud ha annunciato rv770 con gddr3/4/5 e con 256/512bit..mi sa che anche stavolta avranno ragione :sofico:
ancora da FUD
RV770 to be 1.5 times faster than RV670
Maybe a bit more
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.
In the real world, this should mean that if one game gives 50FPS with RV670 that the new chip should be able to get you around 75FPS at the same settings. On average, the new chip will have to be at least 30 percent faster than the old one to make you even consider it but at least specification wise there is not anything that you might miss.
RV670 was a shrinked and better speced version of R600 with 512bit memory controller crippled to 256bit and it looks that R770 will get that memory upped to 512bit again. At least we know it will end up being fast but we still don’t know what's Nvidia’s real answer to this one.
ciauz
--edit--
OOOOPS, loooooooooooool
Sperem, i 512 maturi potrebbero essere molto positivi.
Mr_Paulus
06-05-2008, 09:08
certo che fud a furia di sparare tutto e il contrario di tutto prima o poi ci prende:sofico:
mokaverus
06-05-2008, 09:24
ancora da FUD
RV770 to be 1.5 times faster than RV670
Maybe a bit more
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.
In the real world, this should mean that if one game gives 50FPS with RV670 that the new chip should be able to get you around 75FPS at the same settings. On average, the new chip will have to be at least 30 percent faster than the old one to make you even consider it but at least specification wise there is not anything that you might miss.
RV670 was a shrinked and better speced version of R600 with 512bit memory controller crippled to 256bit and it looks that R770 will get that memory upped to 512bit again. At least we know it will end up being fast but we still don’t know what's Nvidia’s real answer to this one.
ciauz
--edit--
OOOOPS, loooooooooooool
rv770... ma che scheda? :confused:
Mercuri0
06-05-2008, 09:29
non sa più che scrivere... ora vuole dare lezioni su come si calcolano le percentuali :asd:
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.
1.5X è in linea con il 50% in più di cui si parlava nei primissimi rumors, e che dovrebbe portare R770 al livello di G80 (ma con la metà di TDP e area).
Imo la scelta delle prestazioni della 4850 e 4870 diventa poi un discorso più di marketing che tecnico (almeno fino a che la GDDR3 non fa da collo di bottiglia)
Secondo qualche utente, la HD4850 dovrebbe andare il 20% in più di una 8800GT, ossia più o meno come una Ultra. La HD4870 invece potrebbe distaccare parecchio la sua "sorella minore", dato che si parla di un 25% in più di prestazioni, che la porrebbe tra la HD3870X2 e la 9800GX2.
Ripeto: non prendetele come oro colato, potrebbero pure essere fesserie. :stordita:
Secondo me è verosimile. Del resto è facile [lol mode]: se raddoppiano il clock di R770 rispetto a R670, ottengono un 100% in più. Così dimezzandolo per la 4850 (-50%) ottengono +50% di prestazioni, allo stesso clock di R670, senza neanche cambiare chip :read: [/lol mode]
Scherzi a parte il conto coi % alla fine lascia il tempo che trova, sarà interessante vedere come si comporta la scheda nelle varie situazioni (AA, alte risoluzioni, Crysis...)
p.s. sul fatto che R770 abbia il bus di memoria a 512bit non ci credo minimamente :)
De facto prima o poi ai 512 si arriverà, il problema con 2900xt era secondo me che non rendeva in quella specifica architettura, e fu anche causa di ritardi.
In futuro ci sarà imho una scheda in grado di trarne beneficio, potrebbe essere r700, anche io comunque sono dubbioso.
gianni1879
06-05-2008, 10:16
De facto prima o poi ai 512 si arriverà, il problema con 2900xt era secondo me che non rendeva in quella specifica architettura, e fu anche causa di ritardi.
In futuro ci sarà imho una scheda in grado di trarne beneficio, potrebbe essere r700, anche io comunque sono dubbioso.
con le gddr5 il bus a 512bit non ha motivo di esistere
Athlon 64 3000+
06-05-2008, 10:24
se su RV770 mettono il bus a 512 bit con le gddr5 verrebbe fuori un banda passante di oltre 200 gb/s che sarebbe sovradimensionata anche per la HD 4870.
Mercuri0
06-05-2008, 10:44
De facto prima o poi ai 512 si arriverà
Non è mica detto.
Un letto a 2 piazze è comodo per molte cose (:D ) rispetto ad uno a piazza singola. I letti a 3 piazze non servono invece granché.
I 512 bit arriveranno se saranno il modo più economico per aumentare la banda verso la memoria. Per RV770 pare abbiano scelto di usare le GDDR5 che hanno questo effetto, a causa dei clock più alti che possono raggiungere.
Per il futuro io preferirei 16 bit su una guida d'onda ottica sul PCB :D
<^MORFEO^>
06-05-2008, 11:05
se su RV770 mettono il bus a 512 bit con le gddr5 verrebbe fuori un banda passante di oltre 200 gb/s che sarebbe sovradimensionata anche per la HD 4870.
Penso che sia sovradimensionata per qualsiasi scheda video attuale ;)
se su RV770 mettono il bus a 512 bit con le gddr5 verrebbe fuori un banda passante di oltre 200 gb/s che sarebbe sovradimensionata anche per la HD 4870.
Lo penso anche io ;) ma non lo escludo a priori, su 3xxx era chiaro come il bus a 256 Bit fosse la scelta migliore con ddr3 e 4, io dubito che si aumenti il bus ma una top con 512 non la vedo totalmente assurda, se è vero che avrà circa il 50% in più della top attuale.
Free Gordon
06-05-2008, 12:24
Sperem, i 512 maturi potrebbero essere molto positivi.
OT
Sei tornato al fisso? :sofico:
E' un discorso che abbiamo già affrontato pagine addietro, il bus, preso singolarmente non da alcuna indicazione. Il valore di riferimento è solo la banda passante. Per aumentarla ci sono due vie, aumentare il bus, aumentare la frequenza della ram o aumentare entrambi.
E' evidente che con ram a 3.6/4.0 GHz aumentare anche il bus dagli attuali 256bit non sembra particolarmente utile...
Sarà, l'ipotesi comunque è affascinante, anche perchè il controller a 512, secondo me, l'hanno bello che pronto. ;)
OT
Sei tornato al fisso? :sofico:
Non ho resistito cazzo [fine off topic]
Free Gordon
06-05-2008, 12:30
Il valore di riferimento è solo la banda passante.
Non penso sia così.
Ipotesi
Se prendi due memory controller, uno a 128bit con 35Gb di banda e uno a 256 con la stessa banda, quello a 256bit teoricamente dovrebbe essere più efficiente.
Iantikas
06-05-2008, 12:38
Non penso sia così.
Ipotesi
Se prendi due memory controller, uno a 128bit con 35Gb di banda e uno a 256 con la stessa banda, quello a 256bit teoricamente dovrebbe essere più efficiente.
nn dovrebbe cmq dipendere da quanti canali è composto il bus?...cioè se il 256 è 4x64bit e il 128 è 4x32bit l'efficenza nn dovrebbe essere la stessa?...
...boh :D
Non ho resistito cazzo [fine off topic]
:D ben tornato ...
HackaB321
06-05-2008, 13:17
.
Cmq un ringbus da 1024bit molto probabilmente introduce latenze maggiori di uno a 512bit, ma sono mie speculazioni :>
E' una speculazione corretta ma per me anche poco influente nel senso che le architetture ATi, grazie al ring bus (e anche alla cache "full associative" introdotta con R520), possono permettersi latenze maggiori sia del bus che della memoria. In questo senso non dovrebbero preoccupare neanche le alte latenze delle GDDR5 per RV770.
Il ringbus fino ai 256bit di interfaccia si è dimostrato per ora una scelta vincente rispetto al crossbar. A 512bit ha dimostrato (R600) grossi problemi di die-size, dissipazione e consumi anche se sarei curioso di vedere quali risultati potrebbe portare con i 55nm.
appleroof
06-05-2008, 17:45
con le gddr5 il bus a 512bit non ha motivo di esistere
sono d'accordo: il ring-bus a 512bit si è rivelato un disastro, per ora, allora credo che abbiano scelto la soluzione più facile, usare subito le gddr5 (che tra l'altro dovrebbero portare contemporaneamente altri benefici, ad esempio consumi) piuttosto che impazzire a rendere efficiente quel bus a 512bit e avere cmq banda passante a volontà
De facto prima o poi ai 512 si arriverà, il problema con 2900xt era secondo me che non rendeva in quella specifica architettura, e fu anche causa di ritardi.
In futuro ci sarà imho una scheda in grado di trarne beneficio, potrebbe essere r700, anche io comunque sono dubbioso.
pare molto "prima" che "poi": gt200 dovrebbe appunto avere 512bit di bus
E' una speculazione corretta ma per me anche poco influente nel senso che le architetture ATi, grazie al ring bus (e anche alla cache "full associative" introdotta con R520), possono permettersi latenze maggiori sia del bus che della memoria. In questo senso non dovrebbero preoccupare neanche le alte latenze delle GDDR5 per RV770.
Il ringbus fino ai 256bit di interfaccia si è dimostrato per ora una scelta vincente rispetto al crossbar. A 512bit ha dimostrato (R600) grossi problemi di die-size, dissipazione e consumi anche se sarei curioso di vedere quali risultati potrebbe portare con i 55nm.
concretamente, in cosa si sarebbe rivelato vincente? no perchè a me pare che nel complesso, fino a 256bit, le 2 soluzioni di fatto si equivalgono
;) e lo so e gddr5 anche per gt200, questo è un fattore ulteriore che apre la possibilità a una top a 512.
appleroof
06-05-2008, 21:26
;) e lo so e gddr5 anche per gt200, questo è un fattore ulteriore che apre la possibilità a una top a 512.
si queste erano le notizie di una volta :D
pare che gt200 si affiderà alle care vecchie gddr3 (ecco perchè secondo me il bus a 512bit, per questioni di banda) secondo il mio modesto parere per contenere i costi visto che pare abbiano problemi con i 55nm
magari dopo qualche mese uscirà gt202 con gddr5, bus 256 e 55nm...
il tutto ovviamente imho e basandomi sugli ultimi rumors assolutamente da confermare/smentire
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.