PDA

View Full Version : Specifiche tecniche delle schede Radeon HD 4800


Redazione di Hardware Upg
20-05-2008, 11:14
Link alla notizia: http://www.hwupgrade.it/news/skvideo/specifiche-tecniche-delle-schede-radeon-hd-4800_25362.html

Al debutto la memoria GDDR5, capace di valori di bandwidth massimi teorici particolarmente elevati, con la scheda Radeon HD 4870

Click sul link per visualizzare la notizia.

Pat77
20-05-2008, 11:18
12 Rop's? Non sono un po' poche?

ghiltanas
20-05-2008, 11:23
mi paiono piuttosto competitive, speriamo cosi si anima alla grande il mercato video :) . anche i prezzi sono buoni, cmq sono dubbioso per la differenza con top nvidia nuova. O hanno sparato un prezzo troppo alto per quest'ultima o c'è la probabilità che ci sia un gap prestazionale notevole

ghiltanas
20-05-2008, 11:23
12 Rop's? Non sono un po' poche?

quel discorso l'ho notato subito anch'io

Saragot
20-05-2008, 11:26
Quante rops avevano le hd 38x0?
Cmq, i prezzi sono invitanti, la hd4850 mi attira molto!
Ma le nuove schede nvidia saranno dx 10.1?

ghiltanas
20-05-2008, 11:27
Quante rops avevano le hd 38x0?
Cmq, i prezzi sono invitanti, la hd4850 mi attira molto!
Ma le nuove schede nvidia saranno dx 10.1?

sembra di no, e cmq data l'importanza la cosa nn mi tange granchè

mjordan
20-05-2008, 11:28
Sbaglio o i prezzi delle schede video sono in crollo?
Anche perchè alla fine si cambia scheda ma i giochi sono sempre quelli, almeno su PC... :asd:

ghiltanas
20-05-2008, 11:33
Sbaglio o i prezzi delle schede video sono in crollo?
Anche perchè alla fine si cambia scheda ma i giochi sono sempre quelli, almeno su PC... :asd:

giustamente direi, in pratica i progetti base sono quelli, e quindi i costi di sviluppo e ricerca sono piuttosto ridotti, e poi i produttori nn possono + permettersi di vendere vga a prezzi spropositati, neanche nelle fasce top, altrimenti tanti potrebbero prendere in considerazione l'idea di abbandonare il pc. Cmq il calo dei prezzi ha interessato gran parte dell'hardware in generale, ora già con 1000 euro ti fai un signor pc comprensivo di monitor 20 pollici, cosa impensabile fino a poco tempo fa :)

bs82
20-05-2008, 11:36
l'importanza della dx10.1 non ti tange? :-) LOL... solo un inesperto o un fan di nvidia potrebbe dire una cosa del genere.

Se nn ti tangono neanche le mazzette di nvidia a ubisoft per rimuovere il supporto dx10.1 da assassin creed che consentiva maggiore velocità e migliore qualità di AA e dell'HDR sulle hd38xx, allora vuol dire non saperne molto ed è meglio evitare quei commenti.

Cmq le hd3870 hanno 16 rops, ma bisogna vedere come "funzionano" queste 12 delle hd48xx.... sempre che siano veramente dodici visto che di info ufficiali ancora non ce ne sono.

Dexther
20-05-2008, 11:36
Bus a 256 bit? :(

EDIT : chiedo venia , non avevo letto l'abbinamento alle GDDR5 ;)

bjt2
20-05-2008, 11:38
480 stream processors a 1050 MHz... Finalmente anche ATI/AMD è passata all'asincrono... :) Considerando il margine delle celle di memoria, prevedo che qualche produttore possa cacciare una 4870 con memorie anche da 2,4-2,5GHz... Mi pare che le ROPs fossero 8 nella scorsa generazione... Ma il bus è sempre 256 bit, quindi 12 ROPs (probabilmente a frequenza superiore) dovrebbero bastare...

Fray
20-05-2008, 11:40
per i prezzi penso sia del tutto naturale anche grazie alla "concorrenza" spietata nel settore vg creata dalle console...
le rops anche a me 12 sembrano poche(non dovrebbero essere 16?).
il bus a 256 con le ddr5 è anche "troppo"...

ghiltanas
20-05-2008, 11:42
l'importanza della dx10.1 non ti tange? :-) LOL... solo un inesperto o un fan di nvidia potrebbe dire una cosa del genere.

Se nn ti tangono neanche le mazzette di nvidia a ubisoft per rimuovere il supporto dx10.1 da assassin creed che consentiva maggiore velocità e migliore qualità di AA e dell'HDR sulle hd38xx, allora vuol dire non saperne molto ed è meglio evitare quei commenti.

Cmq le hd3870 hanno 16 rops, ma bisogna vedere come "funzionano" queste 12 delle hd48xx.... sempre che siano veramente dodici visto che di info ufficiali ancora non ce ne sono.

evita certi commenti provocatori perfavore, io se permetti la penso come voglio e nn hai diritto di darmi dell'inesperto o fan nvidia, visto anche che nn mi conosci nemmeno.
Detto questo le storielle tientele per te, il problema li è stato un altro (veniva saltato un ciclo di rendering :doh: )e cmq nn ho intenzione di ridiscutere del disc ac .
HO detto che nn mi tange il disc dx10.1 perchè attualmente e in prospettiva futura nn mi pare ci sia un'esigenza effettiva delle dx10.1 in quanto nn ci sono gioco in sviluppo che ne fanno uso

sfoneloki
20-05-2008, 11:42
12 Rops ? Ma le 3850/3870 non hanno 16 Rops?(h**p://users.rcn.com/chare/video.htm)
Sinceramente mi aspettavo qualcosa di più dalle specifiche ma aspetto i bench per trarre le conclusioni.

Edo15
20-05-2008, 11:44
si va beh il bus a 256 bit...ma han 4Ghz di frequenza le ram!! penso basti e avanti...mettere il bus a 512bit avrebbe solo incrementato i costi e penso ben pochi privilegi con una banda passante del genere...

mjordan
20-05-2008, 11:55
L'avevo detto io che era un trade off. Qui abbiamo un bus da 256 bit con delle GDDR5, su nVidia abbiamo un bus da 512 bit con delle GDDR3 ...
Alla fine per giudicare ci vogliono i benchmark.

ATi7500
20-05-2008, 11:55
Bus a 256 bit? :(

e qual e' il problema scusa? :confused:

bYeZ!

ATi7500
20-05-2008, 11:56
L'avevo detto io che era un trade off. Qui abbiamo un bus da 256 bit con delle GDDR5, su nVidia abbiamo un bus da 512 bit con delle GDDR3 ...
Alla fine per giudicare ci vogliono i benchmark.

diciamo anche che date le due differenti architetture, non e' detto che siano entrambe bandwidth limited :)

bYeZ!

Dexther
20-05-2008, 11:58
e qual e' il problema scusa? :confused:

bYeZ!

il problema è che non avevo visto l'adozione delle GDDR5 , chiedo venia :D

halduemilauno
20-05-2008, 12:00
12 Rop's? Non sono un po' poche?


sapevo 16

Bus a 256 bit? :(


nel caso della 4870 che è dotata di ram gddr5 il problema non esiste.
;)

Dexther
20-05-2008, 12:01
il problema è che non avevo visto l'adozione delle GDDR5 , chiedo venia :D


nel caso della 4870 che è dotata di ram gddr5 il problema non esiste.
;)

si mi sono appena scusato , ora edito il post dato che appare in coda al testo della notizia ;)

Mparlav
20-05-2008, 12:03
Le rops sono 16 non 12. C'è un errore nel riporto della news.
Erano le stesse su HD38xx.
Le TMU passano da 16 a 32 e le SU da 64 vect 5 (320) a 96 vect 5 (480).

Il prezzo di lancio della HD4870 1Gb è di 349$, esattamente compreso tra l'attuale 9800 GTX e la HD 3870 X2, e sono convinto che le prestazioni sono comprese tra quelle. Anzi, se queste 2 schede scendono ancora di prezzo nel prossimo mese, per forza di cose Amd dovrà fare un ritocco.

Sui costi: non date per scontato che 256bit + gddr5 costino meno di 512bit + gddr3. Il pcb nel primo caso è già più complesso dei solito per gddr3/gddr4 per via della diversa piedinatura delle gddr5.

halduemilauno
20-05-2008, 12:10
si mi sono appena scusato , ora edito il post dato che appare in coda al testo della notizia ;)

addirittura scusarsi. cmq qui altre info con una comoda tabella...
http://www.hardware-infos.com/news.php?news=2075
;)

johnson
20-05-2008, 12:13
l'importanza della dx10.1 non ti tange? :-) LOL... solo un inesperto o un fan di nvidia potrebbe dire una cosa del genere.

Se nn ti tangono neanche le mazzette di nvidia a ubisoft per rimuovere il supporto dx10.1 da assassin creed che consentiva maggiore velocità e migliore qualità di AA e dell'HDR sulle hd38xx, allora vuol dire non saperne molto ed è meglio evitare quei commenti.

Cmq le hd3870 hanno 16 rops, ma bisogna vedere come "funzionano" queste 12 delle hd48xx.... sempre che siano veramente dodici visto che di info ufficiali ancora non ce ne sono.

Ma quindi, in parole povere, c'è o non c'è un gioco con supporto alle dx10.1? Ci sarà nel futuro prossimo?
Purtroppo se bisogna affidarsi al marketing ATi/AMD stiamo freschi. La vedo dura se aspettiamo che si accordino con le software house per implementare feature che hanno solo le loro schede video...

Saragot
20-05-2008, 12:18
sembra di no, e cmq data l'importanza la cosa nn mi tange granchè

A dire il vero è una cosa interessante, poichè se le nuove schede nvidia, non supporteranno le dx 10.1, gli sviluppatori si vedranno costretti ad usarle sempre meno, il che aumenta il ciclo di vita delle schede dx 10.0 (quindi, potrei comprarmi una geforce serie 8 a prezzi stracciati con la certezza che mi duri qualche anno). Dico questo, poichè in molti si sono trovati con una ottima ati x800 e l'hanno dovuta cambiare perchè gli ultimi giochi richiedevano "forzatamente" gli shader 3.0, anche se in realtà partono modificando leggermente l'engime (vedi bioshock).

TRF83
20-05-2008, 12:20
Sinceramente non ho seguito bene la questione (ho un pc vecchiotto..sono in attesa di nehalem), ma..sul sito della ubisoft, uno sviluppatore diceva qualcosa del genere "I miglioramenti osservati dai giocatori con hardware DX10.1 sono figli di un nostro errore, che che rimuove un passaggio di rendering durante gli effetti di post-processing". Quindi..prima di gridare al miracolo DX10.1, aspetterei ancora un po'..fornissero dei miglioramenti prestazionali del 10/20% come osservato, si sarebbero chiamate DX11..
Ah..io ho una scheda video ATi, giusto per non apaprire fanboy NVidia!

(http://www.hwupgrade.it/forum/showpost.php?p=22143536&postcount=16 per avere conferma dalla mia affermazione, oppure ti basta una googlata!)

ghiltanas
20-05-2008, 12:25
A dire il vero è una cosa interessante, poichè se le nuove schede nvidia, non supporteranno le dx 10.1, gli sviluppatori si vedranno costretti ad usarle sempre meno, il che aumenta il ciclo di vita delle schede dx 10.0 (quindi, potrei comprarmi una geforce serie 8 a prezzi stracciati con la certezza che mi duri qualche anno). Dico questo, poichè in molti si sono trovati con una ottima ati x800 e l'hanno dovuta cambiare perchè gli ultimi giochi richiedevano "forzatamente" gli shader 3.0, anche se in realtà partono modificando leggermente l'engime (vedi bioshock).

il disc è abbastanza differente. le dx10.1 sono un aggiornamento delle 10, ma nn è che se non hai una vga dx10 nn puoi giocare con un titolo dx10.1, solo che nn le sfrutti. Gli shader invece sono stati modificati in maniera + profonda ed era necessario possedere i 3.0 per giocare ad alcuni titoli. Cmq io ribadisco il fatto che nn ci sono titoli in uscita che utilizzano dx10.1 quindi il problema nn si pone, se qualcuno ne conosce qualcuno mi illumini. Inoltre mi pare una pecca di ati nn ungere un pò per imporre le lib grafiche aggiornate, quello è un mondo di squali, se alla ati nn lo sono nn è certo colpa mia

Marck
20-05-2008, 12:26
per quello che ho letto uno dei vantaggi delle 10.1 è dovuto appunto che viene eliminato un passaggio di rendering aumentando le prestazioni.
quindi non è quello il motivo per cui hanno eliminato le 10.1 da ac

sdjhgafkqwihaskldds
20-05-2008, 12:29
12 Rop's? Non sono un po' poche?
Le rops sono 16 non 12. C'è un errore nel riporto della news.
Erano le stesse su HD38xx.


che sono le rops ? :mbe:

v1doc
20-05-2008, 12:58
Io giochi che sfruttano le DX10.1 esistono, e l'aumento di prestazioni è significativo (circa 15/20%)

Per nostra sfortuna l'attuale leader del mercato, NVIDIA, supporta solo le DX10 e quindi ne ostacola la diffusione.

Un esempio è la Patch 1.02 di Assassin´s Creed che ha rimosso il supporto alle DX10.1 :

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7355&Itemid=1

johnson
20-05-2008, 12:59
Io giochi che sfruttano le DX10.1 esistono, e l'aumento di prestazioni è significativo (circa 15/20%)

Per nostra sfortuna l'attuale leader del mercato, NVIDIA, supporta solo le DX10 e quindi ne ostacola la diffusione.

Un esempio è la Patch 1.02 di Assassin´s Creed che ha rimosso il supporto alle DX10.1 :

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7355&Itemid=1

Mi dai qualche nome per cortesia?

MacCool
20-05-2008, 13:04
l'importanza della dx10.1 non ti tange? :-) LOL... solo un inesperto o un fan di nvidia potrebbe dire una cosa del genere.

Se nn ti tangono neanche le mazzette di nvidia a ubisoft per rimuovere il supporto dx10.1 da assassin creed che consentiva maggiore velocità e migliore qualità di AA e dell'HDR sulle hd38xx, allora vuol dire non saperne molto ed è meglio evitare quei commenti.

Ahahahahahahah lui sarà (a detta tua) inesperto ma tu sei un buffone.

principe081
20-05-2008, 13:05
Io dico che con una banda passante simile ci saranno delle belle prestazioni perchè secondo me se a casa ATI hanno pensato di costruirsi un'autostrada così bella grossa è perchè il chip è capace di tali prestazioni che dovrebbero surclassare la 3870x2 altrimenti secondo me non avrebbe senso.

Dexther
20-05-2008, 13:11
Ahahahahahahah lui sarà (a detta tua) inesperto ma tu sei un buffone.

smettiamola per favore ;)

Pikazul
20-05-2008, 13:18
*coff*
mi spiace deludervi, ma le directx10.1 non servono ad offrire maggiori prestazioni, ma una maggiore qualità dell'immagine, dando allo sviluppatore un maggior controllo sui filtri e su alcune feature già esistenti.
Inoltre obbliga ad usare alcune opzioni qualitativamente migliori dal punto di vista visivo, quindi è persino possibile, che le prestazioni diminuiscano, anche se immagino che l'hardware "aggiuntivo" serva proprio ad evitare questo calo (se no col c*** che gli sviluppatori si mettono ad usarle, secondo me :asd: )

Quindi o la sapete più lunga della microsoft, oppure l'aumento di prestazioni è effettivamente una bufala/un errore

zanardi84
20-05-2008, 13:21
Certo che con le memoria AMD è passata da un estremo all'altro..

Dalle DDR3 a 512 bit di R600 alle DDR5 a 256bit..

Speriamo che basti e che abbiano trovato il modo di comprimere come si deve!

v1doc
20-05-2008, 13:30
Mi dai qualche nome per cortesia?

Intendi oltre ad Assassin´s Creed ?
Se non erro era il primo gioco a sfruttarle seriamente.
E' difficile trovarne altri dopo quello che è successo, non credi?
Dovremo aspettare che NVidia tolga in veto (spero presto :( )

MaxFactor[ST]
20-05-2008, 13:46
Sarà meglio attendere una 4850?
o prendere ora una 3870 con i prezzi che hanno?

bs82
20-05-2008, 13:53
Sinceramente non ho seguito bene la questione (ho un pc vecchiotto..sono in attesa di nehalem), ma..sul sito della ubisoft, uno sviluppatore diceva qualcosa del genere "I miglioramenti osservati dai giocatori con hardware DX10.1 sono figli di un nostro errore, che che rimuove un passaggio di rendering durante gli effetti di post-processing". Quindi..prima di gridare al miracolo DX10.1, aspetterei ancora un po'..fornissero dei miglioramenti prestazionali del 10/20% come osservato, si sarebbero chiamate DX11..
Ah..io ho una scheda video ATi, giusto per non apaprire fanboy NVidia!
(http://www.hwupgrade.it/forum/showpost.php?p=22143536&postcount=16 per avere conferma dalla mia affermazione, oppure ti basta una googlata!)

Le spinte di nvidia per togliere il supporto alle 10.1 pensi si riscontrino solo nella patch che togli il supporto? No, anche gli sviluppatori in loro vece devono esporre una motivazione valida per l'assurda manovra.

E cmq sapere leggere l'inglese sarebbe utile: è stato "tolto un passo del rendering degli effetti di post processing". E l'affermazione non mi pare sia "sono stati tolti degli effetti di Post Processing quindi c'è meno calcolo da fare e va più veloce".

per quello che ho letto uno dei vantaggi delle 10.1 è dovuto appunto che viene eliminato un passaggio di rendering aumentando le prestazioni.
quindi non è quello il motivo per cui hanno eliminato le 10.1 da ac

Il vantaggio delle 10.1 è appunto quello, si possono usare shaderz lunghissimi che vengono elaborati con un solo di ciclo di clock, quindi in modo più rapido e non come dice un'altro inesperto come pikazul qua sotto. Senza contare l'accesso diretto alla profondità dei sample per l'AA. E il deferred shading quindi... Cose che nelle dx10 richiedono l'uso di altri "render target", quindi aumentano i cicli di clock, il consumo di risorse e ovviamente diminuiscono fli FPS. E questa è solo UNA delle cose della questione dx10 vs dx10.1.


*coff*
mi spiace deludervi, ma le directx10.1 non servono ad offrire maggiori prestazioni, ma una maggiore qualità dell'immagine, dando allo sviluppatore un maggior controllo sui filtri e su alcune feature già esistenti.
Inoltre obbliga ad usare alcune opzioni qualitativamente migliori dal punto di vista visivo, quindi è persino possibile, che le prestazioni diminuiscano, anche se immagino che l'hardware "aggiuntivo" serva proprio ad evitare questo calo (se no col c*** che gli sviluppatori si mettono ad usarle, secondo me :asd: )
Quindi o la sapete più lunga della microsoft, oppure l'aumento di prestazioni è effettivamente una bufala/un errore

Ecco appunto, secondo te se io aumento la qualità dell'immagine con cosa pago tutto ciò? Con le prestazioni ovvio. Quindi se aumento la IQ e le prestazioni non calano cosa vuol dire? MI pare che non serva essere geni per capire che le ottimizzazioni di questi strumenti in mano agli sviluppatori portini a migliorameti prestazionali.

In AC hanno tolto il supporto perchè secondo loro "mal implementato", mentre le decine di comparison uscite nei giorni del misfatto hanno ampiamente dimostrato come nelle dx10.1 sia stato possibile applicare l'AA con le HD38xx a superfici intersecate, e come in presenza di AA la hd38xx ha ricevuto una pompata di fps pari al 20% circa. E senza contare che l'HDR viene applicato con una precisione migliore in contemporanea all'AA, perchè grazie alle dx10.1 a parità di cicli di clock si poteva aumentare senza problemi la precizione dellHDR e allegerire il posto processing grazie a shaders un po' più complessi, shader complessi ma digeribili solo da hardware supportante dx10.1


Se invece si vuole andare sempre a parare su fanboysmi, andate a farvi un giro sul forum di beyond3d che è punto d'incontro di sviluppatori...e vedrete come stanno veramente le cose.

calabar
20-05-2008, 13:55
@Pikazul

Da quel che ho letto, con le dx10.1 è possibile effettuare un passaggio di rendering in meno perchè due passaggi vengono in pratica accorpati. Da qui l'effettivo aumento di prestazioni.
La notizia che questo passaggio in meno fosse un errore dei programmatori di assassin creed è dovuto ad una cattiva interpretazione della dichiarazione rilasciata a riguardo (in realtà non dicevano nulla del genere, ma se letta con poca attenzione poteva essere interpretata in tal senso), la cosa se non sbaglio era stata sviscerata nel topic della 4870.

bs82
20-05-2008, 13:59
@Pikazul

Da quel che ho letto, con le dx10.1 è possibile effettuare un passaggio di rendering in meno perchè due passaggi vengono in pratica accorpati. Da qui l'effettivo aumento di prestazioni.
La notizia che questo passaggio in meno fosse un errore dei programmatori di assassin creed è dovuto ad una cattiva interpretazione della dichiarazione rilasciata a riguardo (in realtà non dicevano nulla del genere, ma se letta con poca attenzione poteva essere interpretata in tal senso), la cosa se non sbaglio era stata sviscerata nel topic della 4870.

Esatto, si parla infatti di "passo di rendering in meno per avere uno stesso risultato", e "passo di rendering" in campo di engine 3d non è un "layer di post processing" in meno, ma un "ciclo di clock" in meno.

Alcune "piccole" differenze....

http://www.cupidity.f9.co.uk/b3da003.gif

http://www.cupidity.f9.co.uk/b3da004.gif

http://www.cupidity.f9.co.uk/b3da006.gif

Marko91
20-05-2008, 14:06
http://www.hardware-infos.com/bild.php?bild_datei=img/startseite/amd_hd4000_final_document.jpg&bild_name=AMD+RV770-Dokument+mit+finalen+Spezifikationen+vom+15.+Mai

Questo è il documento di AMD. Ufficiale. Le rops saranno 16, le TMU 32.
Gli shader hanno frequenze separate dal resto del chip, 1050 Mhz contro 850Mhz per la HD4870....

Whizkid
20-05-2008, 14:13
ma perchè ATI è 10.1 ready (mi pare già da adesso se non sbaglio) e NVIDIA se ne frega sia ora che per l'immediato futuro...

c'è qualcosa che mi sfugge riguardo le mosse di nvidia per cui sono 10.1 anche le loro schede ma io non lo sapevo perchè forse sono male informato riguardo compatibilità directx delle ultime nvidia? :)

...o invece quel misero .1 dopo il 10 non serve a nulla? per cui le differenze vere si sentiranno con le directx 11 secondo nvidia?:mbe:

insomma se si ostinano a non metterle è strano, molto strano...non credo che gli costi chissà quale fatica. E poi nel mondo dell'informatica mi sembra strano quando qualcuno si ostina a rimanere fermo su qualcosa di "meno aggiornato"...vuol dire che ci sono problemi in quella tecnologia...

leoneazzurro
20-05-2008, 14:22
l'importanza della dx10.1 non ti tange? :-) LOL... solo un inesperto o un fan di nvidia potrebbe dire una cosa del genere.

Se nn ti tangono neanche le mazzette di nvidia a ubisoft per rimuovere il supporto dx10.1 da assassin creed che consentiva maggiore velocità e migliore qualità di AA e dell'HDR sulle hd38xx, allora vuol dire non saperne molto ed è meglio evitare quei commenti.

Cmq le hd3870 hanno 16 rops, ma bisogna vedere come "funzionano" queste 12 delle hd48xx.... sempre che siano veramente dodici visto che di info ufficiali ancora non ce ne sono.

Evitiamo di buttarla in polemica, basta precisare le cose senza far partire un flame.

evita certi commenti provocatori perfavore, io se permetti la penso come voglio e nn hai diritto di darmi dell'inesperto o fan nvidia, visto anche che nn mi conosci nemmeno.
Detto questo le storielle tientele per te, il problema li è stato un altro (veniva saltato un ciclo di rendering :doh: )e cmq nn ho intenzione di ridiscutere del disc ac .
HO detto che nn mi tange il disc dx10.1 perchè attualmente e in prospettiva futura nn mi pare ci sia un'esigenza effettiva delle dx10.1 in quanto nn ci sono gioco in sviluppo che ne fanno uso

Ed evitiamo di rispondere con lgi stessi toni, altrimenti si alimenta un flame. Tralaltro la spiegazione alla questione la trovi più sotto e quello che hai scritto non è completo.

Sinceramente non ho seguito bene la questione (ho un pc vecchiotto..sono in attesa di nehalem), ma..sul sito della ubisoft, uno sviluppatore diceva qualcosa del genere "I miglioramenti osservati dai giocatori con hardware DX10.1 sono figli di un nostro errore, che che rimuove un passaggio di rendering durante gli effetti di post-processing". Quindi..prima di gridare al miracolo DX10.1, aspetterei ancora un po'..fornissero dei miglioramenti prestazionali del 10/20% come osservato, si sarebbero chiamate DX11..
Ah..io ho una scheda video ATi, giusto per non apaprire fanboy NVidia!

(http://www.hwupgrade.it/forum/showpost.php?p=22143536&postcount=16 per avere conferma dalla mia affermazione, oppure ti basta una googlata!)

*coff*
mi spiace deludervi, ma le directx10.1 non servono ad offrire maggiori prestazioni, ma una maggiore qualità dell'immagine, dando allo sviluppatore un maggior controllo sui filtri e su alcune feature già esistenti.
Inoltre obbliga ad usare alcune opzioni qualitativamente migliori dal punto di vista visivo, quindi è persino possibile, che le prestazioni diminuiscano, anche se immagino che l'hardware "aggiuntivo" serva proprio ad evitare questo calo (se no col c*** che gli sviluppatori si mettono ad usarle, secondo me :asd: )

Quindi o la sapete più lunga della microsoft, oppure l'aumento di prestazioni è effettivamente una bufala/un errore

In Assassin's Creed con il path DX 10.1+AA viene "saltato" un passaggio di rendering perchè non serve con le DX 10.1. Infatti l'accesso ai dati presenti nel depth buffer possibile con queste librerie fa sì che si debba renderizzare su un render target l'immagine "preliminare" per poi applicare una "seconda passata".
Nel path DX 10.1 c'era tuttavia un effetto su della polvere che non era applicato correttamente (colpa dei programmatori che non avrebbero usato l'istruzione corretta per l'implementazione) ma che comunque anche quando corretto non inficierebbe i miglioramenti prestazionali visti (la polvere in questione si trova solo in alcuni scenari). Per questo è stato eliminato il path DX 10.1 in toto, e la cosa è quantomento sospetta.
Ad ogni modo, vi sono delle features a livello delle DX 10.1 che possono migliorare sia le prestazioni sia la qualità di immagine, ma è ovvio che il loro impatto varia da caso a caso e dipende dalle tecniche di rendering usate.

Ahahahahahahah lui sarà (a detta tua) inesperto ma tu sei un buffone.

E sono 3 giorni di sospensione.

Mparlav
20-05-2008, 14:27
Okkio, che quel documento da cui è derivata la news è plausibile, ma tutt'altro che ufficiale.
Non ci vuole nulla a falsificare un documento del genere.

fantasma_diabolico
20-05-2008, 14:47
Non sono molto dentro il mondo schede video ultimamente... ma da quello che ho potuto intendere ad ati non è mai mancata banda verso le memorie, ma il problema è che l'architettura è lievemente sbilanciata...
sembra che con questa serie hd48xx si stia cercando di porre rimedio a questo handicap... miglioreranno le prestazioni, ma non mi aspetto nulla di eccezionale

smoker83
20-05-2008, 14:52
Le rops, stando ad altre fonti, dovrebbero essere 16, credo ci sia un errore nell'articolo.

LuiVul
20-05-2008, 15:09
Le rops, stando ad altre fonti, dovrebbero essere 16, credo ci sia un errore nell'articolo.
Se vai al articolo che fa riferimento la notizia sta scritto 16 rops e un errore di trascrizione

smoker83
20-05-2008, 15:11
Se vai al articolo che fa riferimento la notizia sta scritto 16 rops e un errore di trascrizione

E io che ho scritto? :confused: :D "credo ci sia un errore nell'articolo" di hwupgrade ovviamente

Mafio
20-05-2008, 15:21
se la hd4870 andrà forte e costerà meno di 300 euro sarà mia.

johnson
20-05-2008, 15:34
Personalmente, sarei molto contrariato se venisse confermato da un tribunale o da qualsiasi organismo di controllo, che nvidia abbia pagato ubisoft per togliere il supporto dx 10.1 da ac. Sarei molto contento se la multa fosse salatissima e sarei d'accordo su qualsiasi pena inflitta.
Resta il fatto che per ora, solo 1 gioco vantava questo supporto alle dx10.1 ed è stato subito cancellato (il supporto). E se devo badare alle prestazioni nei videogiochi, e non alle congiunture finanziarie o a fanboysmi vari o presunti, che me frega a me delle dx 10.1, se poi nvidia è talmente potente che non le farà supportare da nessuno :D ?

McGraw
20-05-2008, 15:36
A detta di qualcuno nei giorni scorsi si vociferava che :
"La memoria GDDR5 avrà frequenza di almeno 4600 o 5000 MHz???"

Si infatti, GDDR5 a 3870 MHz! come era logico aspettarsi!

Mafio
20-05-2008, 15:38
A detta di qualcuno nei giorni scorsi si vociferava che :
"La memoria GDDR5 avrà frequenza di almeno 4600 o 5000 MHz???"

Si infatti, GDDR5 a 3870 MHz! come era logico aspettarsi!

e ci sputi sopra???nvidia è rimasta ancora alle ddr3. :stordita:

McGraw
20-05-2008, 15:46
Si ma DDR3 a 2360 MHz nel caso della GTX280 con bus a 512bit, che equivale a 151 GBytes di banda passante contro i 123,8 della HD 4870! a parte questo prevedo un bel gap tra la HD 4870 e la GTX 280!

leoneazzurro
20-05-2008, 15:52
Si ma DDR3 a 2360 MHz nel caso della GTX280 con bus a 512bit, che equivale a 151 GBytes di banda passante contro i 123,8 della HD 4870! a parte questo prevedo un bel gap tra la HD 4870 e la GTX 280!

Non sono schede della stessa fascia di prezzo.
Ci sarà anche un bel gap tra HD 4870 e Geforce 9500 GT, ma non è che si deve ribadire l'ovvio in tutti i casi.

blackshard
20-05-2008, 16:01
Si ma DDR3 a 2360 MHz nel caso della GTX280 con bus a 512bit, che equivale a 151 GBytes di banda passante contro i 123,8 della HD 4870! a parte questo prevedo un bel gap tra la HD 4870 e la GTX 280!

Anche in consumi e COSTO ci sarà un bel gap probabilmente...

AndreaG.
20-05-2008, 16:03
Qualcuno ha già notato che il logo è sbagliato!? :asd: manca premium! (dai datemi vergnogna lo avrete detto in 20 :D )

LuiVul
20-05-2008, 16:09
E io che ho scritto? :confused: :D "credo ci sia un errore nell'articolo" di hwupgrade ovviamente

Non essere permaloso non volevo criticarti ma volevo confermare quello che dicevi tu.

McGraw
20-05-2008, 16:10
Si é vero, appare chiaro dai dati tecnici e dai prezzi che AMD non punta alle prestazioni in assoluto, ma allora non capisco la necessità di far uscire le novità AMD e Nvidia nello stesso periodo, visto che non appartengono alla stessa fascia di mercato! e inoltre non capisco la voglia di AMD di propporre qualcosa di nuovo con prestazioni superiori ai suoi standard se per la terza volta di fila in anticipo sappiamo che lancerà prodotti inferiori alla concorrenza! (X 2900 XT, HD 3870 e HD 4870!) é masochismo o strategia commerciale!

Mparlav
20-05-2008, 16:12
Prezzo, prestazioni e consumi, portano la HD4870 a confrontarsi con la 9800GTX, non con la GTX 280.
Così come la HD4850 con la 8800GT/GTS (oggi a 180 e 225$ rispettivamente).

Sarà interessante dare un'occhiata ai test delle HD4870 in Crossfire vs GTX 280 e GTX 260, per scoprire quante chance avrà la HD4870 X2, che per prezzo e consumi di certo sarà paragonabile.

Mafio
20-05-2008, 16:15
Prezzo, prestazioni e consumi, portano la HD4870 a confrontarsi con la 9800GTX, non con la GTX 280.
Così come la HD4850 con la 8800GT/GTS (oggi a 180 e 225$ rispettivamente).

Sarà interessante dare un'occhiata ai test delle HD4870 in Crossfire vs GTX 280 e GTX 260, per scoprire quante chance avrà la HD4870 X2, che per prezzo e consumi di certo sarà paragonabile.

forse ti sfugge che 9800gtx e 8800gts 512 vanno UGUALI...IMHO la 4870 sarà abbastanza più veloce della 9800gtx.

McGraw
20-05-2008, 16:23
Un tempo ATI puntava alle prestazioni come fa ora Nvidia! AMD invece sembra che punti a migliorare il prezzo di prestazioni che tutto sommato ci sono gia, o comunque verranno superate in concomitanza (tipo HD 4870 con GTX 260)! Preferivo la corsa alle prestazioni che la corsa ai prezzi! D'altronde AMD pare che non possa permettersela!

McGraw
20-05-2008, 16:33
Guardando i dati tecnici e i prezzi dovremmo stare cosi:

HD 4870 X2 vs GTX 280
HD 4870 vs GTX 260
HD 4850 vs 9800 GTX
HD 3870 vs 9800 GT

Anche se é tutto da vedere se la HD 4870 andrà come la GTX 260 e poi la HD 4870 X2 si vedrà a settembre! e chissà se vedremo la 9800 GT, io ormai non ci spero piu!

Defragg
20-05-2008, 16:33
Schede nuove... :oink:

leoneazzurro
20-05-2008, 16:34
Si é vero, appare chiaro dai dati tecnici e dai prezzi che AMD non punta alle prestazioni in assoluto, ma allora non capisco la necessità di far uscire le novità AMD e Nvidia nello stesso periodo, visto che non appartengono alla stessa fascia di mercato! e inoltre non capisco la voglia di AMD di propporre qualcosa di nuovo con prestazioni superiori ai suoi standard se per la terza volta di fila in anticipo sappiamo che lancerà prodotti inferiori alla concorrenza! (X 2900 XT, HD 3870 e HD 4870!) é masochismo o strategia commerciale!

Non vedo il nesso logico, se AMD ha sviluppato un prodotto migliore dei suoi prodotti precedenti e lo lancia, che c'è di male? E se punta a vendere molto nella fascia a maggior gettito (che non è quella delle schede da 400-500 Euro) evidentemente la convenienza ce l'avrà!
Poi che il prodotto sia inferiore alla concorrenza, bisogna vederlo, perchè la concorrenza di una HD 4870 non è certo la GT280, ma fino a che non ci saranno schede di fascia performance basate su GT200, le diretta concorrenti sono le 9800.

McGraw
20-05-2008, 16:50
Non vedo il nesso logico, se AMD ha sviluppato un prodotto migliore dei suoi prodotti precedenti e lo lancia, che c'è di male? E se punta a vendere molto nella fascia a maggior gettito (che non è quella delle schede da 400-500 Euro) evidentemente la convenienza ce l'avrà!
Poi che il prodotto sia inferiore alla concorrenza, bisogna vederlo, perchè la concorrenza di una HD 4870 non è certo la GT280, ma fino a che non ci saranno schede di fascia performance basate su GT200, le diretta concorrenti sono le 9800.

In definitiva é come un team che partecipa al campionato di formula1 e pensa soltanto alla classifica costruttori, magari il suo obiettivo é arrivare sempre terzo e qualche volta secondo al traguardo! però con due team iscritti e 6 auto in tutto! Evidentemente la classifica costruttori fa piu gola di quella piloti! ma per la gente i campioni sono quelli che vincono le gare! :)

Ginger79
20-05-2008, 16:53
Poi che il prodotto sia inferiore alla concorrenza, bisogna vederlo, perchè la concorrenza di una HD 4870 non è certo la GT280, ma fino a che non ci saranno schede di fascia performance basate su GT200, le diretta concorrenti sono le 9800.

Ma ci credi almeno in quello che scrivi ?

L'ultima frase poi è il massimo: "Finchè non ci saranno schede basate su GT200 le dirette concorrenti sono le 9800" !! Alber Einstein signori... Ma di cosa stiamo parlando secondo te da 3 settimane a questa parte ?? Non hai mai letto niente a riguardo del fatto che le nuove proposte di ENTRAMBE le aziende usciranno sul mercato in concomitanza ?

Dal tuo punto di vista potrei affermare l'esatto opposto allora: Finchè non ci saranno schede basate su RV700 (o come si chiama.. poco importa) le dirette concorrenti delle GT200 sono le 3870... mhmhmh... però...

Ginger79
20-05-2008, 16:59
In definitiva é come un team che partecipa al campionato di formula1 e pensa soltanto alla classifica costruttori, magari il suo obiettivo é arrivare sempre terzo e qualche volta secondo al traguardo! però con due team iscritti e 4 auto in tutto! Evidentemente la classifica costruttori fa piu gola di quella piloti! ma per la gente i campioni sono quelli che vincono le gare! :)

Il problema sai qual'è: non ammettere l'evidenza ed ostinarsi a difendere l'indifendibile... un problema purtroppo molto comune anche in politica.. tanto è vero che chi è scomparso si permette ancora di andare nelle trasmissioni a gridare boiate. La giusta icona è questa :mc:

Quotone cmq!

McGraw
20-05-2008, 17:09
Il problema sai qual'è: non ammettere l'evidenza ed ostinarsi a difendere l'indifendibile... un problema purtroppo molto comune anche in politica.. tanto è vero che chi è scomparso si permette ancora di andare nelle trasmissioni a gridare boiate. La giusta icona è questa :mc:

Quotone cmq!

... e di sventolare ancora le bandiere!
Cmq ho modificato le auto in totale da 4 a 6 cosi AMD ha ipoteticamente piu probabilità di vincere la classifica costruttori :asd:

Alla vostra :cincin:

Marko91
20-05-2008, 17:10
Ma ci credi almeno in quello che scrivi ?

L'ultima frase poi è il massimo: "Finchè non ci saranno schede basate su GT200 le dirette concorrenti sono le 9800" !! Alber Einstein signori... Ma di cosa stiamo parlando secondo te da 3 settimane a questa parte ?? Non hai mai letto niente a riguardo del fatto che le nuove proposte di ENTRAMBE le aziende usciranno sul mercato in concomitanza ?

Dal tuo punto di vista potrei affermare l'esatto opposto allora: Finchè non ci saranno schede basate su RV700 (o come si chiama.. poco importa) le dirette concorrenti delle GT200 sono le 3870... mhmhmh... però...

Non credo siano i toni adatti..perchè scaldarsi?
Leoneazzuro ha detto giustamente che le schede si confrontano nelle loro fasce.
AMD non avrà un high-end (fino a HD4870X2) , chiaro? HD4870 è una scheda da fascia media, che si scontrerà con la fascia media basata su GT200, che non so quando uscirà, forse a fine 2008 con il die-shrink a 55nm. Fino ad allora le uniche schede Nvidia in questa fascia sono le 9800Gtx e la futura 9800Gt. Con queste quindi Ati deve confrontarsi ora.

Marko91
20-05-2008, 17:14
In definitiva é come un team che partecipa al campionato di formula1 e pensa soltanto alla classifica costruttori, magari il suo obiettivo é arrivare sempre terzo e qualche volta secondo al traguardo! però con due team iscritti e 6 auto in tutto! Evidentemente la classifica costruttori fa piu gola di quella piloti! ma per la gente i campioni sono quelli che vincono le gare! :)

L'obiettivo di AMD è fare profitto. Se fare profitto significa progettare un chip con buone prestazioni e basso costo non vedo che male ci sia. Se AMD avesse lanciato la HD3870 a 500€ , oltre a venderne pochissime, ora avremmo una 9600GSO a 250€ e una 9800GTX a 400€.... L'azione di AMD ha fatto bene al mercato, a poi non interessa se AMD o NVIDIA si svenano per stare una dietro all'altra in quella fascia (200-300€), che ora risulta molto molto più competitiva che in passato.

leoneazzurro
20-05-2008, 17:17
In definitiva é come un team che partecipa al campionato di formula1 e pensa soltanto alla classifica costruttori, magari il suo obiettivo é arrivare sempre terzo e qualche volta secondo al traguardo! però con due team iscritti e 6 auto in tutto! Evidentemente la classifica costruttori fa piu gola di quella piloti! ma per la gente i campioni sono quelli che vincono le gare! :)

Eccetto che il mercato non è un campionato di Formula 1 e non è detto che vinca sempre il più veloce ma più spesso quello che ha il miglior rapporto prezzo/prestazioni.

Ma ci credi almeno in quello che scrivi ?

L'ultima frase poi è il massimo: "Finchè non ci saranno schede basate su GT200 le dirette concorrenti sono le 9800" !! Alber Einstein signori... Ma di cosa stiamo parlando secondo te da 3 settimane a questa parte ?? Non hai mai letto niente a riguardo del fatto che le nuove proposte di ENTRAMBE le aziende usciranno sul mercato in concomitanza ?

Dal tuo punto di vista potrei affermare l'esatto opposto allora: Finchè non ci saranno schede basate su RV700 (o come si chiama.. poco importa) le dirette concorrenti delle GT200 sono le 3870... mhmhmh... però...

Guarda, qui il curriculum di persona di parte e priva di argomenti non mi pare di essermelo fatto. Le schede basate su GT 200 di cui si hanno rumors si andrebbero a collocare in una fascia di prezzo superiore a quella occupata dalle schede ATI, perchè scordatevi di avere una GT200 a 300€, il costo di produzione di una simile scheda non è tale da permetterlo (e comunque difficilmente Nvidia rinuncerà ai margini, dato che sicuramente saranno schede in assoluto più veloci delle RV770).
Per contro, sembrano abbastanza definite caratteristiche e prezzi di due schede basate su RV770, che sono schede di fascia performance e costeranno come schede di fascia performance. E finchè non usciranno GT2XX con prezzi e caratteristiche da fascia performance, Nvidia userà quello che ha, ossia le 9800 GTX e GT, magari lo shrink basato sul G92b a 55nm che si rumoreggia anch'esso in lancio a breve (e lo si rumoreggia da un pò, mi sembra strano che manchi quest'informazione ad un appassionato Nvidia). Quando Nvidia deciderà di lanciare delle versioni cut-down di GT200 nella fascia da 200 a 300€, in quel momento quelle schede diventeranno le concorrenti delle HD48X0. Ma al momento non si sa NULLA di queste schede.
Le HD3870 non possono essere concorrenti delle schede GT200 perchè, ovviamente, non sono schede della stessa fascia di prezzo.

Dexther
20-05-2008, 17:19
In definitiva é come un team che partecipa al campionato di formula1 e pensa soltanto alla classifica costruttori, magari il suo obiettivo é arrivare sempre terzo e qualche volta secondo al traguardo! però con due team iscritti e 6 auto in tutto! Evidentemente la classifica costruttori fa piu gola di quella piloti! ma per la gente i campioni sono quelli che vincono le gare! :)

Così esposta la questione è troppo semplicistica, il mercato vive di logiche ben più complesse. Certo avere il top di gamma più performante è un gran ritorno d'immagine per un brand che beneficia di questo anche nelle fasce medie e basse. Ma mi sembra che nonostante ciò, in passato le vendite delle x1950pro prima e delle HD3870 dopo non siano andate poi così male.

mahui70
20-05-2008, 17:20
In definitiva é come un team che partecipa al campionato di formula1 e pensa soltanto alla classifica costruttori, magari il suo obiettivo é arrivare sempre terzo e qualche volta secondo al traguardo! però con due team iscritti e 6 auto in tutto! Evidentemente la classifica costruttori fa piu gola di quella piloti! ma per la gente i campioni sono quelli che vincono le gare! :)

E certo peccato che i campioni come li chiami tu sono pure quelli che costano di piu' e che la gente normale non si puo' permettere....... non capisco proprio perche' bisogna per forza dare addosso a una azienda(AMD/ATI) che cerca di vendere al meglio la sua fascia media,creando tra l'altro uno scontro sui prezzi con la rivale NVIDIA che fa solo bene al mercato e cioe' a NOI!

killer978
20-05-2008, 17:30
Io posso solo dire GRAZIE AMD, non si erano mai viste schede del calibro delle HD380 a 130€ :asd: oggi possiamo giocare a tutto senza rinunciare ai filtri con pochi euro , prima solo spendendo 500€ si poteva giocare!!!

Se Nvidia ha abbassato i prezzi è solo grazie ad AMD quindi GRAZIE AMD continua così

bs82
20-05-2008, 17:30
Si ma DDR3 a 2360 MHz nel caso della GTX280 con bus a 512bit, che equivale a 151 GBytes di banda passante contro i 123,8 della HD 4870! a parte questo prevedo un bel gap tra la HD 4870 e la GTX 280!

La gtx280 (dual gpu nvidia) si scontrerà con la hd4870x2...

Non credo siano i toni adatti..perchè scaldarsi?
Leoneazzuro ha detto giustamente che le schede si confrontano nelle loro fasce.
AMD non avrà un high-end (fino a HD4870X2) , chiaro? HD4870 è una scheda da fascia media, che si scontrerà con la fascia media basata su GT200, che non so quando uscirà, forse a fine 2008 con il die-shrink a 55nm. Fino ad allora le uniche schede Nvidia in questa fascia sono le 9800Gtx e la futura 9800Gt. Con queste quindi Ati deve confrontarsi ora.

EH? ma che cosa dite?

A metà giugno Ati presenta le HD48xx, due-tre giorni dopo Nvidia presenta la serie GT2xx a 55nm....

Mi sa che avete delle serie confusioni qua dentro :doh:

Le due nuove "generazioni" (mezze IMHO) escono praticamente in contemporanea dopo la presentazione di giugno. Non ci sono mah, forse o dubbi.

E' così e basta.... :read:

quindi..

HD48xx vs. GT2xx

Ma lo sa tutto il mondo a parte voi? :(

Mparlav
20-05-2008, 17:35
Se la strategia di Amd è quella di aumentare le vendite nel settore discrete, per ora non ha sortito nessun effetto, visto che Nvidia ha fatto in fretta ad adeguarsi.
Nel Q4 2007 ed il Q1 2008, il settore grafico (l'ex Ati) ha chiuso in leggera perdita, in linea con i valori registrati nel Q4 2006 e nel Q1-Q2 e Q3 2007. I bilanci sono pubblici.
Invece Nvidia ora più che mai sta' registrando recordo di vendite e di utili.
Vuol dire che c'è qualcosa che non va' nella strategia adottata da 1 anno a questa parte.

Quindi, è vero che la HD4870 non ha la pretesa di essere il top, ma è anche vero che Nvidia, così come ha fatto la 8800GT e 9600GT per contrastare le HD3870/3850, non penso che ci metterà molto a fare una GTX 240 con 160SU - 55nm, bus a 256bit con GDDR5 da vendere a 250$, se la 9800GTX ora (e la 9800GTS tra 1-2 mesi), non fossero all'altezza.
Fatta quella, torniamo esattamente alla situazione attuale.

sniperspa
20-05-2008, 17:39
Il problema sai qual'è: non ammettere l'evidenza ed ostinarsi a difendere l'indifendibile... un problema purtroppo molto comune anche in politica.. tanto è vero che chi è scomparso si permette ancora di andare nelle trasmissioni a gridare boiate. La giusta icona è questa :mc:

Quotone cmq!

:doh: :doh:

halduemilauno
20-05-2008, 17:42
quando ati presenterà tutte e tre le sue schede e lo stesso farà nvidia avremo questo scenario:
GTX280 vs 4870x2. 499$ vs 549$.
GTX260 vs 4870. 399$ vs 349$.
9800gtx vs 4850. 249$ vs 249$.
in attesa del pp a 55nm che produrrà la nuova GTS280 in sostituzione della 9800gtx e la GTS260 finora conosciuta come 9800gt da confrontarsi con la eventuale futura 4850 256.
;)


ps e c'è sempre la carta della terza GTX.

gabi.2437
20-05-2008, 17:53
480 Stream Processors? sbav, sta scheda su Folding@Home sarà un mostro!

McGraw
20-05-2008, 17:54
E certo peccato che i campioni come li chiami tu sono pure quelli che costano di piu' e che la gente normale non si puo' permettere....... non capisco proprio perche' bisogna per forza dare addosso a una azienda(AMD/ATI) che cerca di vendere al meglio la sua fascia media,creando tra l'altro uno scontro sui prezzi con la rivale NVIDIA che fa solo bene al mercato e cioe' a NOI!

Non mi sembra di aver dato contro AMD, ho soltanto detto perché quando si lanciano nuovi progetti che puntano a nuovi traguardi prestazionali oltre tutto lanciati in contemporanea con aspettative al di sopra della concorrenza da parte di Nvidia e AMD, si deve sempre arrivare alla conclusione che AMD verrà surclassata prestazionalmente da Nvidia aggiustando i prezzi alle minori prestazioni, facendo sparire dalla sua come per magia la fascia piu alta! Ma scusate é gia la terza volta che accade (x 2900 XT, HD 3870 e HD 4870) allora invece di dare di nuovo l'illusione di far uscire un prodotto migliore della concorrenza perché AMD non dichiara di non voler confrontarsi con Nvidia sulle prestazioni ma solo sul rapporto qualità/prezzo?

La storia é sempre la stessa, a questo punto le cose possibili sono 2:

1. O AMD tutte le volte prova a superare Nvidia e quando escono le specifiche del progetto concorrente si accorge di essere inferiore e adegua i prezzi di conseguenza!

2. O AMD imposta il progetto su livelli inferiori alla concorrenza in partenza, però dando tutte le volte l'illusione alla gente di poter competere alla pari visti i tempi di lancio e le aspettive pre specifiche! per poi buttarsi sul rapporto prestazioni/prezzo!

Io adotterei la politica della chiarezza :D

leoneazzurro
20-05-2008, 17:59
La gtx280 (dual gpu nvidia) si scontrerà con la hd4870x2...



EH? ma che cosa dite?

A metà giugno Ati presenta le HD48xx, due-tre giorni dopo Nvidia presenta la serie GT2xx a 55nm....


GT2XX, salvo novità dell'ultimo momento, è a 65 nm...
Mi sa che avete delle serie confusioni qua dentro :doh:



Le due nuove "generazioni" (mezze IMHO) escono praticamente in contemporanea dopo la presentazione di giugno. Non ci sono mah, forse o dubbi.

E' così e basta.... :read:

quindi..

HD48xx vs. GT2xx

Ma lo sa tutto il mondo a parte voi? :(

Veramente stai facendo un pò di confusione, perchè ATI punta sulla fascia media, e le HD48X0 saranno schede di fascia media con costi fino a 349$, mentre le GT2XX al momento saranno schede di fascia alta-altissima con prezzi fino ai 500+ Euro. Anche le caratteristiche tecniche non sono paragonabili: si parla di una superficie del chip di circa 250 mm^2 per RV770 e di (rumor) 575 mm^2 per GT200, con numero di transistors e caratteristiche tecniche (potenza di calcolo, texture e pixel fill rate) nettamente a vantaggio di GT200.
Ma ovviamente GT200 non può essere venduta ai prezzi di RV770, che costa nettamente meno sia come chip che come PCB.
Sono fasce di mercato diverse, e la scheda high-end di AMD sarà dual chip.

ghiltanas
20-05-2008, 18:01
GT2XX, salvo novità dell'ultimo momento, è a 65 nm...
Mi sa che avete delle serie confusioni qua dentro :doh:




Veramente stai facendo un pò di confusione, perchè ATI punta sulla fascia media, e le HD48X0 saranno schede di fascia media con costi fino a 349$, mentre le GT2XX al momento saranno schede di fascia alta-altissima con prezzi fino ai 500+ Euro. Anche le caratteristiche tecniche non sono paragonabili: si parla di una superficie del chip di circa 250 mm^2 per RV770 e di (rumor) 575 mm^2 per GT200, con numero di transistors e caratteristiche tecniche (potenza di calcolo, texture e pixel fill rate) nettamente a vantaggio di GT200.
Ma ovviamente GT200 non può essere venduta ai prezzi di RV770, che costa nettamente meno sia come chip che come PCB.
Sono fasce di mercato diverse, e la scheda high-end di AMD sarà dual chip.

ma come? la gt280 nn era data per 499 dollari? :confused: (che pompando anche le tasse fanno meno di 400 euro :mbe: )

leoneazzurro
20-05-2008, 18:05
Non mi sembra di aver dato contro AMD, ho soltanto detto perché quando si lanciano nuovi progetti che puntano a nuovi traguardi prestazionali oltre tutto lanciati in contemporanea con aspettative al di sopra della concorrenza da parte di Nvidia e AMD, si deve sempre arrivare alla conclusione che AMD verrà surclassata prestazionalmente da Nvidia aggiustando i prezzi alle minori prestazioni, facendo sparire dalla sua come per magia la fascia piu alta! Ma scusate é gia la terza volta che accade (x 2900 XT, HD 3870 e HD 4870) allora invece di dare di nuovo l'illusione di far uscire un prodotto migliore della concorrenza perché AMD non dichiara di non voler confrontarsi con Nvidia sulle prestazioni ma solo sul rapporto qualità/prezzo?

La storia é sempre la stessa, a questo punto le cose possibili sono 2:

1. O AMD tutte le volte prova a superare Nvidia e quando escono le specifiche del progetto concorrente si accorge di essere inferiore e adegua i prezzi di conseguenza!

2. O AMD imposta il progetto su livelli inferiori alla concorrenza in partenza, però dando tutte le volte l'illusione alla gente di poter competere alla pari visti i tempi di lancio e le aspettive pre specifiche! per poi buttarsi sul rapporto prestazioni/prezzo!

Io adotterei la politica della chiarezza :D

Non hai capito, AMD si sta focalizzando sulla fascia media, è una questione di strategia, RV770 è per forza già di progetto inferiore alla scheda di punta Nvidia, perchè è un chip di fascia media!
Stando ai rumors, è meno della metà di GT200, e costa molto meno.
Facendo il paragone automobilistico, è come se tu volessi paragonare FIAT e Ford metendo a confronto la Punto alla Mondeo, mentre la vettura dello stesso segmento di mercato della Ford è la Fiesta..

halduemilauno
20-05-2008, 18:08
GT2XX, salvo novità dell'ultimo momento, è a 65 nm...
Mi sa che avete delle serie confusioni qua dentro :doh:




Veramente stai facendo un pò di confusione, perchè ATI punta sulla fascia media, e le HD48X0 saranno schede di fascia media con costi fino a 349$, mentre le GT2XX al momento saranno schede di fascia alta-altissima con prezzi fino ai 500+ Euro. Anche le caratteristiche tecniche non sono paragonabili: si parla di una superficie del chip di circa 250 mm^2 per RV770 e di (rumor) 575 mm^2 per GT200, con numero di transistors e caratteristiche tecniche (potenza di calcolo, texture e pixel fill rate) nettamente a vantaggio di GT200.
Ma ovviamente GT200 non può essere venduta ai prezzi di RV770, che costa nettamente meno sia come chip che come PCB.
Sono fasce di mercato diverse, e la scheda high-end di AMD sarà dual chip.

appunto 349$ e contro i 399$ della gtx260 non mi pare tutta sta differenza nel collocarle per forza di cose in due fascie completamente diverse. certo son nate per esser collocate in maniera diversa ma se nvidia(in conseguenza del mercato)la colloca a quel prezzo(i rumors questo dicono)ovvero 50$ di differenza ovvero un 40€ di differenza mi dici tu chi è quello che si compra la ati? a parte ovviamente gli sprovveduti(ovvero coloro che non sanno)e i faziosi(ovvero coloro che sanno ma a prescindere comprano cmq ati)è chiaro. dimmi.

Marko91
20-05-2008, 18:08
ma come? la gt280 nn era data per 499 dollari? :confused: (che pompando anche le tasse fanno meno di 400 euro :mbe: )

Ne dubito seriamente. G80 era grande 484 mm^2 e costava molto ad nvidia, GT200 sarà 575mm^2. Si vocifera che sia il chip più costoso da produrre della storia. Imho sotto i 400€ non vedremo neppure le GTX260, ma sarò molto lieto di sbagliarmi. Dipende comunque anche dalle prestazioni di RV770 e dal suo prezzo.
Sicuramente RV770 non competerà direttamente con GT200 ma potrebbe farlo il crossfire.

leoneazzurro
20-05-2008, 18:08
ma come? la gt280 nn era data per 499 dollari? :confused: (che pompando anche le tasse fanno meno di 400 euro :mbe: )

E' uno dei rumors, un altro la dava a 549$, ad esempio. E sinceramente, considerando il costo del chip, del PCB (bus a 512 bit) e la mancanza di una vera concorenza nell'high-end fino a settembre, dubito che Nvidia almeno all'inizio la svenderà. A prescindere, comunque, il discorso contina a valere: le schede basate su GT200 saranno in una fascia di mercato differente da quelle basate su RV770...

leoneazzurro
20-05-2008, 18:10
appunto 349$ e contro i 399$ della gtx260 non mi pare tutta sta differenza nel collocarle per forza di cose in due fascie completamente diverse. certo son nate per esser collocate in maniera diversa ma se nvidia(in conseguenza del mercato)la colloca a quel prezzo(i rumors questo dicono)ovvero 50$ di differenza ovvero un 40€ di differenza mi dici tu chi è quello che si compra la ati? a parte ovviamente gli sprovveduti(ovvero coloro che non sanno)e i faziosi(ovvero coloro che sanno ma a prescindere comprano cmq ati)è chiaro. dimmi.

Se i prezzi saranno quelli, probabilmente la 4870 non avrà molto mercato.
SE. Altri rumors danno la 4870 a 299$, altri addirittura a 249$. Personalmente propendo per la cifra in mezzo. E ci saranno versioni di 4870 da 512 Mbyte.
E AMD avrà più margine di Nvidia per scendere di prezzo una volta che le GDDR5 saranno disponibili in volumi.

bs82
20-05-2008, 18:14
GT2XX, salvo novità dell'ultimo momento, è a 65 nm...
Mi sa che avete delle serie confusioni qua dentro :doh:

Sei tu che non sei aggiornato ehheehehe.

Le versioni GT saranno a 65nm e le versioni GTX*** a 55nn.
Le fonti sono svariate e ne hanno parlato dapperutto. Google ti può essere d'aiuto.



Veramente stai facendo un pò di confusione, perchè ATI punta sulla fascia media, e le HD48X0 saranno schede di fascia media con costi fino a 349$, mentre le GT2XX al momento saranno schede di fascia alta-altissima con prezzi fino ai 500+ Euro. Anche le caratteristiche tecniche non sono paragonabili: si parla di una superficie del chip di circa 250 mm^2 per RV770 e di (rumor) 575 mm^2 per GT200, con numero di transistors e caratteristiche tecniche (potenza di calcolo, texture e pixel fill rate) nettamente a vantaggio di GT200.
Ma ovviamente GT200 non può essere venduta ai prezzi di RV770, che costa nettamente meno sia come chip che come PCB.
Sono fasce di mercato diverse, e la scheda high-end di AMD sarà dual chip.


Sorry caro leoneazzurro ma sto giro per me stai toppando di brutto. :rolleyes:

Forse è meglio che leggi un po le news in giro...

GT200 (con D10U-30 e D10U-20) è il nome in codice del chip che starà dentro le nuove GTX280 e GTX260... cioè è persino scritto nelle vostre news eh!
"...Partiamo nell'analisi dalla soluzione top di gamma, modello GeForce GTX 280: questa scheda video integrerà GPU GT200 con 240 stream processors al proprio interno... ".

E la GTX280 verrà presentata il 18 giugno assiema alla GTX260, due giorni dopo la presentazione delle HD48xx.

leoneazzurro
20-05-2008, 18:15
Sorry caro leoneazzurro ma sto giro stai toppando di brutto. :rolleyes:

Forse è meglio che leggi un po le news in giro...

Ne leggo più di te, fidati ;)

mahui70
20-05-2008, 18:16
Non hai capito, AMD si sta focalizzando sulla fascia media, è una questione di strategia, RV770 è per forza già di progetto inferiore alla scheda di punta Nvidia, perchè è un chip di fascia media!
Stando ai rumors, è meno della metà di GT200, e costa molto meno.
Facendo il paragone automobilistico, è come se tu volessi paragonare FIAT e Ford metendo a confronto la Punto alla Mondeo, mentre la vettura dello stesso segmento di mercato della Ford è la Fiesta..

Ti quoto in tutto ;)

Mafio
20-05-2008, 18:17
certo che scannarsi per dei rumors che chiunque potrebbe aver scritto inventandosi tutto di sana pianta mi pare eccessivo... :rolleyes:
aspettiamo qualche settimana e commentiamo i primi bench... ;)

McGraw
20-05-2008, 18:18
Non entrerei nel discorso delle fascie, perché AMD é stata la prima a fare confusione e a specularci sopra! Ha lanciato la HD 3850 come fascia alta che poi viste le prestazioni poteva stare benissimo in fascia media, poi considera la HD 3870 di fascia alta quando la 9600 GT che é di fascia media ha le stesse prestazioni! Stando ai fatti l'unica di fascia alta potrebbe essere la HD 3870 X2 che ovviamente considera di fascia Altissima! Ora che con il nuovo progetto R700 AMD punti alla fascia media non ci credo neanche se lo dice Babbo Natale in persona figuriamoci un dirigente o portavoce AMD!

Marko91
20-05-2008, 18:21
Sorry caro leoneazzurro ma sto giro stai toppando di brutto. :rolleyes:

Forse è meglio che leggi un po le news in giro...

GT200 è a 65nm. A 55nm sarà G92b, la revisione di G92 che uscirà tra 1-2 mesi.
Non mi sembra di averti mai visto in sezione schede video, come mai tutta questa sacenza? :)

mahui70
20-05-2008, 18:26
Non entrerei nel discorso delle fascie, perché AMD é stata la prima a fare confusione e a specularci sopra! Ha lanciato la HD 3850 come fascia alta che poi viste le prestazioni poteva stare benissimo in fascia media, poi considera la HD 3870 di fascia alta quando la 9600 GT che é di fascia media ha le stesse prestazioni! Stando ai fatti l'unica di fascia alta potrebbe essere la HD 3870 X2 che ovviamente considera di fascia Altissima! Ora che con il nuovo progetto R700 AMD punti alla fascia media non ci credo neanche se lo dice Babbo Natale in persona figuriamoci un dirigente o portavoce AMD!

Questa e' proprio bella Amd farebbe confusione? Ma se Nvidia ha fatto uscire duemila schede quasi tutte uguali di sigle e di prestazioni solo per generare confusione tra gli acquirenti facendo passare per novita' minestre riscaldate dei suoi chip.......ma per favore siamo seri non e' che ci si fa una bella figura a fare il FAN BOY a tutti i costi

v1nline
20-05-2008, 18:34
il logo ati è sbagliato, ora le schede ati sono PREMIUM GRAPHICS :D

McGraw
20-05-2008, 18:34
X mahui70

Il Fan Boy sarai te! Nvidia ha fatto uscire la 8800GT, la 8800 GTS e la 9800 GTX tutte in fascia alta, va bene con prestazioni simili per la mancata concorrenza ma mai ha confuso le fasce! Potrai ridire sui nomi a volte poco appropriati ma non ha mai fatto confusione di fasce, proprio dove AMD ci specula di brutto compreso queste R700! Poi se te di schede video ci capisci poco e ti confondi é un altro discorso, io il quadro nomi/prestazioni ce l'ho ben chiaro!

leoneazzurro
20-05-2008, 18:35
Non entrerei nel discorso delle fascie, perché AMD é stata la prima a fare confusione e a specularci sopra! Ha lanciato la HD 3850 come fascia alta che poi viste le prestazioni poteva stare benissimo in fascia media, poi considera la HD 3870 di fascia alta quando la 9600 GT che é di fascia media ha le stesse prestazioni! Stando ai fatti l'unica di fascia alta potrebbe essere la HD 3870 X2 che ovviamente considera di fascia Altissima! Ora che con il nuovo progetto R700 AMD punti alla fascia media non ci credo neanche se lo dice Babbo Natale in persona figuriamoci un dirigente o portavoce AMD!

Ma perchè, le HD3870 erano schede di fascia alta? E quando sono state lanciate le HD3870, le 9600 GT esistevano?

Ti riporto il posizionamento delle HD 38XX:

http://ati.amd.com/products/hd3000series.html

sono considerate, a detta di AMD stessa, schede "performance", ossia di fascia media (medio-alta). R600 era stata lanciata come high-end (fascia alta) perchè all'epoca anche la GTS640 era una scheda di fascia alta.

Ti riporto per brevità le fasce in cui si divide il mercato (grossomodo)

Entry Level (Budget)
Mainstream
Performance
Enthusiast (High-end)

Le entry level sono le 3450-8500-9500
Le mainstream e le performance sono le schede che vanno dalle 3650 alle 3870, o dalle 9500 alle 8800 GT. C'è parziale sovrapposizione delle fasce a causa delle performance tutt'altro che irresistibili di ATI che hanno "livellato" i prezzi.
La fascia high end parte oggi dalle 9800 GTX, anche se in realtà questa scheda per prezzo si posiziona a metà strada tra performance e high end
Le schede high end oggi sono la 3870X2, 8800 Ultra, 9800 GX2

Domanda: la 8800 GT, che fascia è?

ghiltanas
20-05-2008, 18:36
certo che scannarsi per dei rumors che chiunque potrebbe aver scritto inventandosi tutto di sana pianta mi pare eccessivo... :rolleyes:
aspettiamo qualche settimana e commentiamo i primi bench... ;)

si hai ragione :), ogni volta che c'è un accenno di rumors sulle vga è il finimondo, anche leoneazzurro si sta facendo prendere dalla foga :sofico: .

bs82
20-05-2008, 18:37
GT200 è a 65nm. A 55nm sarà G92b, la revisione di G92 che uscirà tra 1-2 mesi.
Non mi sembra di averti mai visto in sezione schede video, come mai tutta questa sacenza? :)

Nessuna saccenza... la sezione video la lascio a voi, preferisco ben altri forum...
Cmq anche GT200 avrà il suo tapeout a 55nm per la versione che uscirà successivamente alla presentazione. E la veridicità di queste info è quanto la tua di dire che GT200 sarà SOLO a 65nm. Il che non è da escludere.

Ovviamente che g92b sarà a 55nm lo sanno tutti, ma non si parlava di questo.

Cmq si fa presto a ragionarci su: la doppia gpu nuova di nvidia ti pare la facciano con gpu uscenti da un vecchio processo a 65nm? Evidentemente no, per motivi di spazio, dissipazione, consumi e costi.

leoneazzurro
20-05-2008, 18:37
si hai ragione :), ogni volta che c'è un accenno di rumors sulle vga è il finimondo, anche leoneazzurro si sta facendo prendere dalla foga :sofico: .

Ma no, sono tranquillissimo :D

bs82
20-05-2008, 18:41
X mahui70

Il Fan Boy sarai te! Nvidia ha fatto uscire la 8800GT, la 8800 GTS e la 9800 GTX tutte in fascia alta, va bene con prestazioni simili per la mancata concorrenza ma mai ha confuso le fasce! Potrai ridire sui nomi a volte poco appropriati ma non ha mai fatto confusione di fasce, proprio dove AMD ci specula di brutto compreso queste R700! Poi se te di schede video ci capisci poco e ti confondi é un altro discorso, io il quadro nomi/prestazioni ce l'ho ben chiaro!

la 8800 GT è della stessa fascia della hd3870....
Ma scusa...la 8800gtx, la 8800gts nuova e la 9800gtx non ti sembrano un po' sovrapposte? :D

leoneazzurro
20-05-2008, 18:41
Nessuna saccenza... la sezione video la lascio a voi, preferisco ben altri forum...
Cmq anche GT200 avrà il suo tapeout a 55nm per la versione che uscirà successivamente alla presentazione. E la veridicità di queste info è quanto la tua di dire che GT200 sarà SOLO a 65nm. Il che non è da escludere.

Ovviamente che g92b sarà a 55nm lo sanno tutti, ma non si parlava di questo.

Cmq si fa presto a ragionarci su: la doppia gpu nuova di nvidia ti pare la facciano con gpu uscenti da un vecchio processo a 65nm? Evidentemente no, per motivi di spazio, dissipazione, consumi e costi.

Hmm... non è stata (ancora) annunciata nessuna versione dual GPU basata su GT200. E direi che se i consumi della versione a 65 nm verranno confermati, tecnicamente la vedo dura anche per una versione a 55 nm.

PS: ci sono poi voci contrastanti in rete, chi dice che le prossime GPU Nvidia di fascia alta saranno tutte dual, mentre il presidente stesso ha dichiarato che "we are going monolithic" per tutte le prossime GPU della stessa fascia...

ghiltanas
20-05-2008, 18:44
Ma no, sono tranquillissimo :D

si si certo :stordita: (scherzo ovviamente ;) )

cmq oggettivamente stanno mettendo in giro un pò di confusione su molti aspetti, a partire dai prezzi :(
è vero che la nvidia utilizza un bus a 512 però usa memorie di tipo gddr3 nn è che riesce a tenere i prezzi contenuti? xkè dovrebbero costare cosi tanto le sue nuove vga? in fondo anche amd le ha pompate parecchio le schede

halduemilauno
20-05-2008, 18:44
Prezzo, prestazioni e consumi, portano la HD4870 a confrontarsi con la 9800GTX, non con la GTX 280.
Così come la HD4850 con la 8800GT/GTS (oggi a 180 e 225$ rispettivamente).

Sarà interessante dare un'occhiata ai test delle HD4870 in Crossfire vs GTX 280 e GTX 260, per scoprire quante chance avrà la HD4870 X2, che per prezzo e consumi di certo sarà paragonabile.

veramente con la gtx260. certo la nvidia costerà di +(399$ vs 349$)ma si presume che andrà pure ben di +. e poi la prima con la prima 4870x2 vs gtx280 e la seconda con la seconda 4870 vs gtx260. la 4850 che è la terza contro la terza ovvero la 9800gtx.

leoneazzurro
20-05-2008, 18:45
Questa e' proprio bella Amd farebbe confusione? Ma se Nvidia ha fatto uscire duemila schede quasi tutte uguali di sigle e di prestazioni solo per generare confusione tra gli acquirenti facendo passare per novita' minestre riscaldate dei suoi chip.......ma per favore siamo seri non e' che ci si fa una bella figura a fare il FAN BOY a tutti i costi

X mahui70

Il Fan Boy sarai te! Nvidia ha fatto uscire la 8800GT, la 8800 GTS e la 9800 GTX tutte in fascia alta, va bene con prestazioni simili per la mancata concorrenza ma mai ha confuso le fasce! Potrai ridire sui nomi a volte poco appropriati ma non ha mai fatto confusione di fasce, proprio dove AMD ci specula di brutto compreso queste R700! Poi se te di schede video ci capisci poco e ti confondi é un altro discorso, io il quadro nomi/prestazioni ce l'ho ben chiaro!

Io direi di darci un taglio, che ne dite? Giusto prima di fare scattare qualche sanzione.

E concordo con l'ultimo post di BS82, c'è stata tanta sovrapposizione nella fascia performance sia da parte Nvidia che da parte ATI. La fascia high-end fino a poco tempo fa era appannaggio ancora della 8800 GTX-Ultra, mentre in fascia media avevamo con prezzi via via a salire HD 3850, 9600GT, HD 3870, 8800GT, 8800 GTS, per non parlare di HD3690, 8800 GS, 9600 GSO, giusto per "non fare confusione".

Non a caso Nvidia stessa ha detot che c'è troppa confusione e che quindi verranno ridotti i modelli presenti sul mercato.

E del resto non scordiamoci che queste sono aziende, che certo non badano al tifo.

halduemilauno
20-05-2008, 18:46
Hmm... non è stata (ancora) annunciata nessuna versione dual GPU basata su GT200. E direi che se i consumi della versione a 65 nm verranno confermati, tecnicamente la vedo dura anche per una versione a 55 nm.

PS: ci sono poi voci contrastanti in rete, chi dice che le prossime GPU Nvidia di fascia alta saranno tutte dual, mentre il presidente stesso ha dichiarato che "we are going monolithic" per tutte le prossime GPU della stessa fascia...

e per questo saranno dual. e cmq una gtx260 a 55nm dual non mi pare proprio impossibile e controproducente fare.

McGraw
20-05-2008, 18:48
Appunto le fasce in origine sono sempre state tre: alta, media e bassa, poi AMD ne ha tirate fuori quattro per evidenti motivi prestazionali! che a quanto pare si scontrano con le nomenclature adottate, per generarea lmeno una fascia a favore e creare confusione! la serie 38XX é una fascia, la serie 36XX é un altra fascia e la serie 34XX é un altra ancora, perché quattro fasce?! Secondo Nvidia 98XX, 96XX e 95XX, sono sempre tre fasce e cosi era e sarà! Appunto per generare confusione a proprio conto!

ghiltanas
20-05-2008, 18:54
basta con le fasce :rolleyes: , ormai nn ha + molto senso, il mercato video si è troppo evoluto ultimamente, prendiamo la 8800gt, ora costa 150 euro con ss incluse e mi fa girare tutto a palla a 1680*1050 con filtri. Secondo il vecchio metodo di catolagamento dovrebbe essere fascia media in virtù del prezzo, beh una volta per avere i risultati che ci puoi ottenere dovevi spendere il quadruplo...nn c'è + una distinzione marcata fra le fasce e la differenza fra una vga e quella superiore o inferiore a volte è veramente minima. In compenso adesso vi è una nettissima distinzione fra schede da gioco e schede entry level

blackshard
20-05-2008, 18:56
Appunto le fasce in origine sono sempre state tre: alta, media e bassa, poi AMD ne ha tirate fuori quattro per evidenti motivi prestazionali! che a quanto pare si scontrano con le nomenclature adottate, per generarea lmeno una fascia a favore e creare confusione! la serie 38XX é una fascia, la serie 36XX é un altra fascia e la serie 34XX é un altra ancora, perché quattro fasce?! Secondo Nvidia 98XX, 96XX e 95XX, sono sempre tre fasce e cosi era e sarà! Appunto per generare confusione a proprio conto!

:mc:

leoneazzurro
20-05-2008, 19:01
Appunto le fasce in origine sono sempre state tre: alta, media e bassa, poi AMD ne ha tirate fuori quattro per evidenti motivi prestazionali! che a quanto pare si scontrano con le nomenclature adottate, per generarea lmeno una fascia a favore e creare confusione! la serie 38XX é una fascia, la serie 36XX é un altra fascia e la serie 34XX é un altra ancora, perché quattro fasce?! Secondo Nvidia 98XX, 96XX e 95XX, sono sempre tre fasce e cosi era e sarà! Appunto per generare confusione a proprio conto!

Stai scherzando, vero? Da parte Nvidia con la serie 5 abbiamo avuto le 5800Ultra, 5900 da Ultra a XT, le 5600, 5700, 5200, 5300, 5500, con la serie 6 ci sono state 6800 Ultra, GT, GS, 6600 GT e GS, 6200 Ultra e liscia, con la serie 7 ci sono state 7800GTX normale e 512Mbyte e 7800 GT, 7900 GX2, GTX, GT e GS, 7950 GX2, GTX, GT, 7600 GT, 7600 GS, 7200, 7300, 7300 GT, ecc. ecc.
E con G80 ha coperto una fascia da 299$ a 599$ (8800 GTS 320 Mbyte-8800 Ultra).
Ma il concetto di "segmentazione del mercato" è così difficile?

McGraw
20-05-2008, 19:02
Va bene almeno su un punto siamo tutti d'accordo che ognuno la vede a modo suo! Intanto in rete ci sono le prime due foto della GTX 280, che dimostrano che il pcb al pc di qualche giorno fa non era un fake!

leoneazzurro
20-05-2008, 19:05
e per questo saranno dual. e cmq una gtx260 a 55nm dual non mi pare proprio impossibile e controproducente fare.

Se una single GPU GT200 ha 200+W di TDP, una dual andrebbe sui 400+W, ed è tanto (troppo per il raffreddamento ad aria). Anche una GT260 non credo consumi poco. A 55 nm, essendo uno shrink diretto dai 65 nm, si migliorano un pò i consumi ma non troppo. A 45 nm può darsi.
E Jen-Hsung ha detto "monolithic", può darsi che menta ma sarebbe strano.

ghiltanas
20-05-2008, 19:41
a me personalmente le soluzioni x2 concepite come adesso e come in passato (unendo alla carlona due vga in pratica) nn mi piacciono per nulla, anzi mi fanno proprio schifo, spero che le rimpiazzino con qualche soluzione migliore

vailord
20-05-2008, 20:33
a me personalmente le soluzioni x2 concepite come adesso e come in passato (unendo alla carlona due vga in pratica) nn mi piacciono per nulla, anzi mi fanno proprio schifo, spero che le rimpiazzino con qualche soluzione migliore

sono pienamente d'accordo e preferisco personalmente una scheda come gtx280 a una 4870x2 prestazioni a parte che si dovrebbero assomigliare preferisco una scheda singola

ghiltanas
20-05-2008, 20:44
benvenuto su hwu :)

Marko91
20-05-2008, 20:47
Nessuna saccenza... la sezione video la lascio a voi, preferisco ben altri forum...
Cmq anche GT200 avrà il suo tapeout a 55nm per la versione che uscirà successivamente alla presentazione. E la veridicità di queste info è quanto la tua di dire che GT200 sarà SOLO a 65nm. Il che non è da escludere.

Ovviamente che g92b sarà a 55nm lo sanno tutti, ma non si parlava di questo.

Cmq si fa presto a ragionarci su: la doppia gpu nuova di nvidia ti pare la facciano con gpu uscenti da un vecchio processo a 65nm? Evidentemente no, per motivi di spazio, dissipazione, consumi e costi.

Nessuno ha detto che GT200 sarà solo a 65nm. Il chip che uscirà il 18 giugno avrà un processo produttivo a 65nm, presumo che Nvidia userà il processo produttivo a 55nm per fine 2008. Anche se riflettendo dubito che lo farà direttamente su GT200 senza rimaneggiamenti sul progetto per il semplice fatto che anche a 55nm rimarebbe un chip improponibile per la fascia 200-300€, sia come costi per Nvidia ,sia come consumi.
Probabilmente adotteranno un bus a 256bit e GDDR5 da 2-2,5 Ghz (frequenze effettiva di 4-5 Ghz) per ridurre i costi produttivi e le dimensioni del chip. O magari useranno un nuovo chip più piccolo,derivato da GT200 ma con meno cluster / meno transistor e un bus più piccolo, e usaranno i 45nm su GT200 tra 9 mesi o più, lanciando una versione aggiornata con frequenze più alte, come fatto per G71. Va beh intanto godiamoci questi mostri di potenza.. :D

PS: Quoto leoneazzuro, i 55nm sono improponibili per una dual-gpu. Se a 65nm GT200 occupa 575mm^2, a 55nm dovrebbe occuparne un pò più di 400. 2 chip così grandi hanno bisogno di una portaerei e di una centrale nucleare per funzionare :D
Se AMD si rivelerà competitiva con R700 e successiva revisione a 45nm, allora potrebbero lanciare una dual-card basata magari su 2 chip nvidia per la fascia media, derivati da GT200 ma con meno transistor/ un bus da 256biy. Sempre che poi vengano fatti da nvidia chip simili.

Mafio
20-05-2008, 20:49
Nessuno ha detto che GT200 sarà solo a 65nm. Il chip che uscirà il 18 giugno avrà un processo produttivo a 65nm, presumo che Nvidia userà il processo produttivo a 55nm per fine 2008. Anche se riflettendo dubito che lo farà direttamente su GT200 senza rimaneggiamenti sul progetto per il semplice fatto che anche a 55nm rimarebbe un chip improponibile per la fascia 200-300€, sia come costi per Nvidia ,sia come consumi.
Probabilmente adotteranno un bus a 256bit e GDDR5 da 2-2,5 Ghz (frequenze effettiva di 4-5 Ghz) per ridurre i costi produttivi e le dimensioni del chip. O magari useranno un nuovo chip più piccolo,derivato da GT200 ma con meno cluster e meno transistor, e usaranno i 45nm su GT200 tra 9 mesi o più, lanciando una versione aggiornata con frequenze più alte, come fatto per G71. Va beh intanto godiamoci questi mostri di potenza.. :D

ddr5 per ridurre i costi??? :stordita:

beppe
20-05-2008, 20:56
tornando al discorso di ac

dopo la notizia dell' "errore" di ubisoft ho voluto vedere se si notava la differenza del presunto passaggio di rendering in meno.....ho pensato che visivamente si sarebbe notato subito....se fosse stato un errore grave di programmazione da incidere cosi' tanto da correre ai ripari con una patch.......

abbiamo provato ac su un pc con la 3870x2 e uno con la 8800 ultra.....

visivamente non abbiamo riscontrato nulla di nulla di differente.....e la cosa mi è parsa subito strana.....il che mi ha fatto pensare che quel passaggio sia inutile se ad occhio non si nota......oppure effettivamente è una funzione specifica delle dx10.1 ed nvidia non vuole che la si usi.......

mi ha puzzato da subito la cosa...

Marko91
20-05-2008, 21:09
ddr5 per ridurre i costi??? :stordita:

Per fine 2008 costeranno meno di ora. E di sicuro 256bit+GDDR5 costano meno di un crossbar a 512bit che occupa spazio e transistor che è un piacere. Anche in funzione consumi le GDDR5 sono superiori alle GDDR3 e permettono di abbassare il TDP.

fantasma_diabolico
20-05-2008, 23:43
io mi domando cosa la gente non riesca a comprendere...
radeon rv770 cosa vuol dire secondo voi???
rv sta per radeon value... quindi volete ammetterlo o meno quelle che sta presentando ati è fascia media... la fascia alta per ati non esiste più e verrà coperta dalle schede x2...

quindi queste due schede non vanno a scontrarsi con le nuove nvidia... ma con le vecchie top gamma che verranno ovviamente declassificate come fascia media

Critterix
20-05-2008, 23:59
Per fine 2008 costeranno meno di ora. E di sicuro 256bit+GDDR5 costano meno di un crossbar a 512bit che occupa spazio e transistor che è un piacere. Anche in funzione consumi le GDDR5 sono superiori alle GDDR3 e permettono di abbassare il TDP.

Quoto!
Anche secondo me risparmiare i transistor necessari ad implementare i 512bit portano ad una economia non indifferente in termini di dimensioni (e prezzo) della GPU (e quindi di TDP con un conseguente incremento di frequenze). Basti pensare alla riduzione del numero di transistor nel passare da HD2900xt a HD3870, circa 54 milioni di transistor in meno nonostante alcune aggiunte architetturali (tipo UVD e directx 10.1), solo che questa volta non verrà sacrificata la banda passante. (Tutto IMHO) Poi spero che le GDDR5 si svalutino in fretta...

Poi FINALMENTE si sono decisi ad implementare il clock asincrono per GPU e stream processor... ma dico io CI VOLEVA TANTO?? :rolleyes:

bs82
21-05-2008, 00:39
Hmm... non è stata (ancora) annunciata nessuna versione dual GPU basata su GT200. E direi che se i consumi della versione a 65 nm verranno confermati, tecnicamente la vedo dura anche per una versione a 55 nm.

PS: ci sono poi voci contrastanti in rete, chi dice che le prossime GPU Nvidia di fascia alta saranno tutte dual, mentre il presidente stesso ha dichiarato che "we are going monolithic" per tutte le prossime GPU della stessa fascia...

Scusa eh.. ma se i test (rumors) su GTX280 dicono che vada quasi il doppio di una 9800GX2.... credi che sia un unico chipettone a 65nm? Cos'è...grande come un cellulare intero? :sofico:

leoneazzurro
21-05-2008, 08:22
Scusa eh.. ma se i test (rumors) su GTX280 dicono che vada quasi il doppio di una 9800GX2.... credi che sia un unico chipettone a 65nm? Cos'è...grande come un cellulare intero? :sofico:

Grande più di 2 volte RV770 e quasi il doppio di G92, stando ai rumors (575 mm^2)...
E ci sono anche delle foto e un file CAD che girano che se non sono fake mostrano un pezzo di silicio piuttosto grosso...

Comunque per le prestazioni velocistiche aspettiamo i test, come al solito, prima di sbilanciarci in previsioni. Io per esempio noto che la banda passante per ogni ROP di GT200 è vicina a quella delle 9800 GTX, e il numero è raddoppiato, così come è quasi raddoppiata la potenza di shading, ma non quella di texturing (sempre per clock). Quindi a mio parere aspettarsi che GT200 possa andare molto più del doppio di G92 mi sembra molto difficile, io mi aspetto qualcosa nel range di 1.8x9800GTX, ad esempio, ma posso benissimo ammettere che è una mia aspettativa e che le prestazioni effettive sono qualcosa di molto difficile da quantificare in questo momento.

halduemilauno
21-05-2008, 08:37
Grande più di 2 volte RV770 e quasi il doppio di G92, stando ai rumors (575 mm^2)...
E ci sono anche delle foto e un file CAD che girano che se non sono fake mostrano un pezzo di silicio piuttosto grosso...

Comunque per le prestazioni velocistiche aspettiamo i test, come al solito, prima di sbilanciarci in previsioni. Io per esempio noto che la banda passante per ogni ROP di GT200 è vicina a quella delle 9800 GTX, e il numero è raddoppiato, così come è quasi raddoppiata la potenza di shading, ma non quella di texturing (sempre per clock). Quindi a mio parere aspettarsi che GT200 possa andare molto più del doppio di G92 mi sembra molto difficile, io mi aspetto qualcosa nel range di 1.8x9800GTX, ad esempio, ma posso benissimo ammettere che è una mia aspettativa e che le prestazioni effettive sono qualcosa di molto difficile da quantificare in questo momento.

si 576. personalmente è da tempo che dico il doppio di una 9800gtx.

Mparlav
21-05-2008, 09:18
Beh, dipende dalla situazione.
In CoD4, UT3-engine games, la vedo dura a battere la 9800GX2.
Ma lì non serve una scheda di nuova generazione, va' già bene una 9600GT :-)

Ma la GTX 280 in Crysis Very High con AA (potete contarci, è il primo test che andranno a leggere :-), non ci vuole molto a fare più del doppio della 9800GX2, unendo la potenza di calcolo, quantitativo di memoria e larghezza di banda.

Non dimentichiamo che non si parla solo delle 240 SU, ma anche di un'efficienza maggiore delle SU del 50% rispetto a G92 (fonte dailytech).

marco_zanna87
21-05-2008, 09:47
Nel frattempo usciranno le nuove nVidia...ATI ne ha di lavoro da fare per recuperare terreno...non mi paiono schede eccezionali dalla carta.
Ad ogni modo attendiamo dei test per giudicarle definitivamente.

leoneazzurro
21-05-2008, 10:12
Beh, dipende dalla situazione.
In CoD4, UT3-engine games, la vedo dura a battere la 9800GX2.
Ma lì non serve una scheda di nuova generazione, va' già bene una 9600GT :-)

Ma la GTX 280 in Crysis Very High con AA (potete contarci, è il primo test che andranno a leggere :-), non ci vuole molto a fare più del doppio della 9800GX2, unendo la potenza di calcolo, quantitativo di memoria e larghezza di banda.

Non dimentichiamo che non si parla solo delle 240 SU, ma anche di un'efficienza maggiore delle SU del 50% rispetto a G92 (fonte dailytech).

Dipende che cosa viene spacciato per "efficienza del 50% più alta" a proposito degli SP. L'utilizzazione degli SP in G8X/G9X è semrpre stata altissima (90%+) quindi migliorare l'utilizzazione del 50% non è possibile. Quindi si parla di potenza di shading più alta, il che ci porterebbe a pensare che per ogni SP ci siano più ALU, anche se io propendo per un "piccolo" artifizio di marketing, ossia il fatto che per ogni cluster ci siano 24 SP anzichè 16 ci dice che per cluster c'è il 50% di potenza in più di shading, guarda caso...

halduemilauno
21-05-2008, 10:19
Dipende che cosa viene spacciato per "efficienza del 50% più alta" a proposito degli SP. L'utilizzazione degli SP in G8X/G9X è semrpre stata altissima (90%+) quindi migliorare l'utilizzazione del 50% non è possibile. Quindi si parla di potenza di shading più alta, il che ci porterebbe a pensare che per ogni SP ci siano più ALU, anche se io propendo per un "piccolo" artifizio di marketing, ossia il fatto che per ogni cluster ci siano 24 SP anzichè 16 ci dice che per cluster c'è il 50% di potenza in più di shading, guarda caso...

si sono d'accordo.

Mparlav
21-05-2008, 10:54
xleoneazzurro: probabilmente la tua interpretazione è la più corretta, ma in ogni caso qualcosa è stato cambiato/ottimizzato.

Approposito: è stato ufficializzato da Amd che le memorie GDDR5 le fornirà Qimonda, e sarà il primo partner.
Si parla di "GDDR5 512Mbit components with a speed of 4.0Gbps", quindi su questo punto delle specifiche di RV770XT non ci sono dubbi.

Cmq Amd sta' discutendo anche con Hynix e Samsung per il futuro.

Un punto di merito per la rampante azienda tedesca ;-)

leoneazzurro
21-05-2008, 11:05
xleoneazzurro: probabilmente la tua interpretazione è la più corretta, ma in ogni caso qualcosa è stato cambiato/ottimizzato.


Beh, la potenza di texturing era sicuramente più che adeguata, logico che si siano focalizzati sulla potenza di calcolo, e certamente le cache on-chip devono essere state riviste in quell'ottica. I beninformati comunque dicono che le Texture unit saranno in stile G80 anzichè G92, ossia con le TAU pari ad 1/2 delle TFU.

LordNicol
23-05-2008, 09:04
Parlo da possessore di una 3870.
Cm HW sn a livello di una 9800GTX (anke superiore per via delle GDDR4), poi ke le prestazioni di nvidia siano un pelo superiori è da imputare ad una migliore gestione via software. I driver nvidia sn ottimizzati meglio per nn parlare ke la maggior parte dei giochi in circolazione sn "marchiati" dalla medesima.
Penso ke la serie RV770 nn abbia nulla da invidiare a GT200, anzi...
Staremo a vedere.

Mafio
23-05-2008, 14:04
Parlo da possessore di una 3870.
Cm HW sn a livello di una 9800GTX (anke superiore per via delle GDDR4), poi ke le prestazioni di nvidia siano un pelo superiori è da imputare ad una migliore gestione via software. I driver nvidia sn ottimizzati meglio per nn parlare ke la maggior parte dei giochi in circolazione sn "marchiati" dalla medesima.
Penso ke la serie RV770 nn abbia nulla da invidiare a GT200, anzi...
Staremo a vedere.

speriamo

johnson
23-05-2008, 15:55
Parlo da possessore di una 3870.
Cm HW sn a livello di una 9800GTX (anke superiore per via delle GDDR4), poi ke le prestazioni di nvidia siano un pelo superiori è da imputare ad una migliore gestione via software. I driver nvidia sn ottimizzati meglio per nn parlare ke la maggior parte dei giochi in circolazione sn "marchiati" dalla medesima.
Penso ke la serie RV770 nn abbia nulla da invidiare a GT200, anzi...
Staremo a vedere.

Ma ti consola il fatto di avere una vga con hw tipo 9800 per poi stargli sempre dietro nei giochi?
Ok il problema sono i driver, ok mancano le ottimizzazioni specifiche gioco per gioco, ok quando ci potrebbe essere un sorpasso grazie all'implementazione delle dx 10.1, a causa di "mafiate" o "mazzette" queste vengono tolte.
Ma in sostanza che te frega, il risultato purtroppo è sempre negativo.
Oltre al danno, la beffa.

LordNicol
23-05-2008, 22:02
Beh nn è un questione di consolazione. È ke io ho un ottima scheda ke mi permette di giocare a 1080p con tutti i filtri ke voglio senza ke ne risenta (troppo) e per il prezzo ke l'ho pagata kredo ke sia la miglior vga in rapporto qualità/prezzo. Nvidia dovrebbe preoccuparsi perkè nn potrà fare "mafiate" in eterno.

P.S.: Dai adesso ditemi "Prova Crysis cn tutti i filtri e poi vediamo" (me l'aspetto un commento del genere).

mjordan
23-05-2008, 22:21
Beh nn è un questione di consolazione. È ke io ho un ottima scheda ke mi permette di giocare a 1080p con tutti i filtri ke voglio senza ke ne risenta (troppo) e per il prezzo ke l'ho pagata kredo ke sia la miglior vga in rapporto qualità/prezzo. Nvidia dovrebbe preoccuparsi perkè nn potrà fare "mafiate" in eterno.

P.S.: Dai adesso ditemi "Prova Crysis cn tutti i filtri e poi vediamo" (me l'aspetto un commento del genere).

Prova Crysis con tutti i filtri e poi vediamo, altro che ottima scheda. :asd:

ghiltanas
23-05-2008, 23:44
Beh nn è un questione di consolazione. È ke io ho un ottima scheda ke mi permette di giocare a 1080p con tutti i filtri ke voglio senza ke ne risenta (troppo) e per il prezzo ke l'ho pagata kredo ke sia la miglior vga in rapporto qualità/prezzo. Nvidia dovrebbe preoccuparsi perkè nn potrà fare "mafiate" in eterno.

P.S.: Dai adesso ditemi "Prova Crysis cn tutti i filtri e poi vediamo" (me l'aspetto un commento del genere).

imho come qualità prezzo è migliore la 8800gt :O

LordNicol
24-05-2008, 08:20
Prova Crysis con tutti i filtri e poi vediamo, altro che ottima scheda. :asd:

Crysis mi gira a dettagli medi in Full con una 8600gts (POV). Per qnt il gioco nn sia ottimizzato per le AMD, vuoi ke nn faccio qualkosa in più??Nn skerziamo..

Whizkid
24-05-2008, 09:47
[Congiura mondiale mode= ON]
Secondo me hanno nascosto dentro al codice di Crysis il kernel intero del sistema operativo della prossima navicella della N.a.s.a. che deve andare su Marte...

...così tra ati amd, nvidia e matrox aspettano la prima che riesce a fare una scheda che fa girare a pieno crysis... quando esisterà questa scheda vorrà implicitamente dire che quella casa di gpu avrà trovato finalmente una tecnologia adeguata per riuscire a lanciare il prossimo missile Nasa su Marte e quindi la Nasa per mandare quel missile semplicemente andrà a comprare una geforce o una amd al supermercato e la montarè nel sistema, poi applicherà la semplice patch che "rimuove" il gioco che noi tutti vediamo girare intorno al motore crysis trasformandolo in Nasa Operative System 7 che è nascosto all'interno e il missile è pronto...
...con un paio di cento euri hanno risolto :D

[Congiura mondiale mode= OFF]

:sofico:

urios22
02-06-2008, 13:48
In giro per la rete si possono trovare specifiche provvisorie dei nuovi modelli Ati e Nvidia.
Penso che quest'anno la battaglia sarà più serrata e meno confusionaria delle generazioni precedenti e non mi stupirei se alla fine nessuna delle due case ne uscisse trionfante(penso che le hd saranno un 3-5% meno veloci delle controparti Nvidia a causa dei soliti driver, gap che verrà risolto in uno o due mesi dall'uscita)
Ati per la prima volta adotterà un clock differente e maggiore per gli SP e le nuove gddr5 Nvidia utilizzerà ancora il ben consolidato sistema gddr3 e frequenze di lavoro molto elevate.
poi si vedrà e speriamo bene :D