PDA

View Full Version : [THREAD UFFICIALE] Aspettando R700


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Brutale910
28-05-2008, 14:24
in attesa della mia nuova vga:D
sapete se uscirà una 3850 con ddr5?

Mister Tarpone
28-05-2008, 14:28
in attesa della mia nuova vga:D
sapete se uscirà una 3850 con ddr5?

non credo proprio :asd:

The_SaN
28-05-2008, 14:33
in attesa della mia nuova vga:D
sapete se uscirà una 3850 con ddr5?

e neanche le 4850 usciranno con gddr5

Freisar
28-05-2008, 15:41
Giocando solo a 1440x900 e con un E4300 la HD4850 potrebbe essere limitata?

The_SaN
28-05-2008, 16:01
Giocando solo a 1440x900 e con un E4300 la HD4850 potrebbe essere limitata?

Non credo, forse un pochino, ma se lo fosse basta cloccarlo di poco e si risolve tutto...

Mister Tarpone
28-05-2008, 16:13
Non credo, forse un pochino, ma se lo fosse basta cloccarlo di poco e si risolve tutto...

3ghz e via ;)

Mercuri0
28-05-2008, 16:27
Lato innovazione e supporto software che passi stanno facendo????
Io vedo che stanno messi maluccio!!!
(..)
Ripeto, Nvidia zitta zitta, toma toma,
nVidia "zitta zitta, torna torna?". Veramente, gervi, quello che hai scritto nel tuo post è solo perchè nVidia sta facendo tanto casino in questi tempi per le sue tecnologie, mentre AMD no.

Ati in tal senso, mi sembra sia davvero all'asciutto, insomma lato software e supporto delle sue Gpu, non ha nessun linguaggio standard simile a CUDA , che possa competere con Nvidia da questo punto di vista.

Alla AMD hanno già una piattaforma di sviluppo GPGPU chiamata CAL. Inoltre hanno già i backend per un linguaggio di alto livello Opensource chiamato brook, che loro hanno esteso e distribuiscono come brook+. Hanno assunto per questo parte del team di Folding@home.
nVidia fra un pò dovrebbe seguire, e si spera che brook possa essere una piattaforma libera e comune.

Inoltre, dulcis in fundo, AMD sta sviluppando una nuova versione delle sue librerie per il calcolo ad alte prestazioni (che sfruttano SSE e parenti delle CPU) in modo che possano sfruttare la GPU dove ha senso: così il programmatore usa le API, e le API usano l'hardware che c'è. E AMD sta rilasciando le sue api come OpenSource (e girano benissimo anche su hw non AMD!)

Insomma, anche se senza fanfare, si sta muovendo anche AMD.

Forse una differenza che noto è che mentre nVidia enfatizza e mira alla Uber-GPU, le strade di AMD sembrano essere dirette al Fusion: AMD sembra stia costruendo in questi anni una piattaforma di sviluppo comune per un sistema ibrido CPU/GPU ;)

M4R1|<
28-05-2008, 16:38
e poi se fanno più soldi magari hanno più possibilità di investirli nelle vga violente...:D :D

:asd: ovviamente :D

Giocando solo a 1440x900 e con un E4300 la HD4850 potrebbe essere limitata?

be a parte che ancora nn si sa quanto sarà cpu-dipendente, cmq a "naso" un pochino si.
se vuoi un consiglio porta il tutto a 3ghz (o giù di li) e stai tranquillo ;)

Mercuri0
28-05-2008, 16:39
In fondo è quello che si era prospettato. Bene, direi. :)

@ appleroof: le GX2 in USA costano così. ;)
http://computers.pricegrabber.com/video-cards/p/5/form_keyword=9800gx2/rd=1/st=query/

Anche il rapporto tra il costo della 9800GTX e quello stimato della 4850 è decisamente sproporzionato. AMD avrebbe potuto scegliere un prezzo superiore, evidentemente punta alla quota di mercato.

Non vedo invece come nVidia possa pensare di poter tirare avanti a G92 per almeno altri sei mesi. :confused:

Sempre se i grafici sono veri, eh.

Mister Tarpone
28-05-2008, 16:41
Anche il rapporto tra il costo della 9800GTX e quello stimato della 4850 è decisamente sproporzionato. AMD avrebbe potuto scegliere un prezzo superiore, evidentemente punta alla quota di mercato.

Non vedo invece come nVidia possa pensare di poter tirare avanti a G92 per almeno altri sei mesi. :confused:

Sempre se i grafici sono veri, eh.

per la fascia media medio/alta farà qualche 9800 con il g92b a 55nm con consumi migliorati, ottime prestazioni ecc... e le venderanno a 2lire... ;)

mentre nella fascia alta ci saranno la 2 GTX ;)

appleroof
28-05-2008, 16:41
Anche il rapporto tra il costo della 9800GTX e quello stimato della 4850 è decisamente sproporzionato. AMD avrebbe potuto scegliere un prezzo superiore, evidentemente punta alla quota di mercato.

Non vedo invece come nVidia possa pensare di poter tirare avanti a G92 per almeno altri sei mesi. :confused:

Sempre se i grafici sono veri, eh.

perchè?

Mercuri0
28-05-2008, 16:43
A proposito di R700 e R680 posto un disegno di Jawed (uno tra i più autorevoli di Beyond3d)

MC MC MC MC
\------/ \------/
| | bri | |
------- ========= -------
| | | dge | | |
| /------\ /------\ |
| MC MC MC MC |
| |
| |
---------------- ----------------
PCI Express | | PCI Express
PLX
|
|
CPU

Secondo Jawed (ed altri di beyond3d) su R700, ma anche su R680 il chip PLX non serve per far comunicare tra loro le due GPU, ma solo per poterle indirizzare dal processore.

Per la comunicazione dovrebbero usare un bus apposta

Mercuri0
28-05-2008, 16:47
perchè?
R770 è più piccolo (costa meno ad AMD) e più veloce, e non limitato dalla memoria perché supporta le GDDR5, e nella stessa fascia del g92.

Non dici che nVidia dovrebbe proporre qualcosa? Il G92B rischia di non poter superare l'attuale G92 a meno non cambino il bus. Ma come fanno per una revisione?

Alla nVidia dicevano di voler tirare avanti per altri 10 mesi con il G92 :mbe:

Invece il G94 sulla 9600GT per un pò se la caverà alla grande.

per la fascia media medio/alta farà qualche 9800 con il g92b a 55nm con consumi migliorati, ottime prestazioni ecc... e le venderanno a 2lire... ;)
Il succo del mio discorso è che mi sa che anche il G92B costerà più di R770 da produrre, e difficilmente potrà superare il G92 sulla 9800GTX a causa della banda verso la memoria.

Poi tutto può essere, eh.

The_SaN
28-05-2008, 16:47
per la fascia media medio/alta farà qualche 9800 con il g92b a 55nm con consumi migliorati, ottime prestazioni ecc... e le venderanno a 2lire... ;)

mentre nella fascia alta ci saranno la 2 GTX ;)

Potranno venderle a 2 lire solo se gli yield (che ultimamente sono il maggior freno di nVidia) saranno buoni come quelli di AMD.
Sará una bella battaglia, soprattutto per noi consumatori :)

Mister Tarpone
28-05-2008, 16:48
Sará una bella battaglia, soprattutto per noi consumatori :)

evviva :winner: :D

halduemilauno
28-05-2008, 16:49
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
cmq si noti la data.
;)

The_SaN
28-05-2008, 16:53
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
[IMG]http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif[/IMG
;)

Mi pareva di averla vista qualche mese fa, non ricordo dove.
Chissá se é vero...io ormai mi aspettavo qualcosa di simile a r680, con qualche miglioria del caso (come ad esempio la connessione pci-ex tra i 2 chip)

Edit:
cmq si noti la data.
A conferma :D

Mercuri0
28-05-2008, 16:55
L'avevo visto anche io, ma secondo me sono solo speculazioni.

Del resto non cambia niente averci lo switch integrato in una GPU piuttosto che esterno. AMD avrà scelto la soluzione che le costa meno, (sarebbero anche transistor buttati su ogni R770), per gli utenti tra il grafico centrale e quello di sinistra non cambia assolutamente nada. ;)

p.s. sappiamo già che i chip di R700 non saranno su un supporto MCM. E la cosa ha molto senso: AMD ha un brevetto per i dissipatori per GPU multiple. (veramente era un brevetto di ATI poco prima che AMD l'acquistasse). Inoltre risparmiano sul package.

Mister Tarpone
28-05-2008, 16:59
io non ho idea di quanto costa produrre ste schede... so solo che
una scheda con G92 a 65nm si trova a 140€ (8800GT)
giusto 20€+ rispetto ad un RV670XT con DDR4(3870)

quindi a sto punto immagino che le G92 a 55nm costranno veramente 2 lire.. anche i chip a 128sp.. anche perchè fondamentalmente il progetto è sempre quello..

mentre RV770 è ben più complesso rispetto ad RV670... e quindi costerà ben di + .....noooooooooooooooooooooooooooooo????? :confused: :stordita: :stordita:

bohhhh..... :confused: :mc: :mc: :mc:

Mercuri0
28-05-2008, 17:03
mentre RV770 è ben più complesso rispetto ad RV770... e quindi costerà ben di + .....noooooooooooooooooooooooooooooo????? :confused: :stordita: :stordita:

bohhhh..... :confused: :mc: :mc: :mc:
Il prezzo del singolo prezzo, (se si escludono i costi fissi, ricerca e tape-out) lo fanno dimensione e TDP. ;)
Ggli yeld non li conosciamo, di solito sono proporzionali alle dimensioni, anche se per le GPU conta in maniera diversa.

Imo AMD ha grossi margini di guadagno sulle 4850 e 4870 al lancio (mi pare normale)

gianni1879
28-05-2008, 17:04
io non ho idea di quanto costa produrre ste schede... so solo che
una scheda con G92 a 65nm si trova a 140€ (8800GT)
giusto 20€+ rispetto ad un RV670XT con DDR4(3870)

quindi a sto punto immagino che le G92 a 55nm costranno veramente 2 lire.. anche i chip a 128sp.. anche perchè fondamentalmente il progetto è sempre quello..

mentre RV770 è ben più complesso rispetto ad RV770... e quindi costerà ben di + .....noooooooooooooooooooooooooooooo????? :confused: :stordita: :stordita:

bohhhh..... :confused: :mc: :mc: :mc:

ognuno si complessa con se stesso :D
:p

The_SaN
28-05-2008, 17:04
io non ho idea di quanto costa produrre ste schede... so solo che
una scheda con G92 a 65nm si trova a 140€ (8800GT)
giusto 20€+ rispetto ad un RV670XT con DDR4(3870)

quindi a sto punto immagino che le G92 a 55nm costranno veramente 2 lire.. anche i chip a 128sp.. anche perchè fondamentalmente il progetto è sempre quello..

mentre RV770 è ben più complesso rispetto ad RV770... e quindi costerà ben di + .....noooooooooooooooooooooooooooooo????? :confused: :stordita: :stordita:

bohhhh..... :confused: :mc: :mc: :mc:

Il prezzo lo fanno sia il numero di chip per wafer (quindi piú piccolo il chip, meno costa) che gli yield. La complessitá c'entra poco, a parte per il fatto che piú il chip é complesso, piú gli yield possono essere bassi (ma non pare essere questo il caso di AMD, che vanta yield ottimi).
Il tutto escludendo i prezzi di ricerca...
Adesso devo cercarmi le dimensioni dei 4 chip per fare 2 calcoli :D

Mister Tarpone
28-05-2008, 17:04
Il prezzo del singolo prezzo, (se si escludono i costi fissi, ricerca e tape-out) lo fanno dimensione e TDP. ;)
(gli yeld non li conosciamo, di solito sono proporzionali alle dimensioni)

Imo AMD ha grossi margini di guadagno sulle 4850 e 4870 al lancio (mi pare normale)

si dovrebbe esser così.... ;)

ma per esempio la 9600GT se non sbaglio ha il chip più grande delle rv670... però costa uguale... perchè??
a sto punto non dovrebbe avere prezzi + alti?? :confused:

Mister Tarpone
28-05-2008, 17:06
ognuno si complessa con se stesso :D
:p

mi stanno a venì i complessi per quello che ho critto :asd: :sbonk:




:stordita:

gianni1879
28-05-2008, 17:07
si dovrebbe esser così.... ;)

ma per esempio la 9600GT se non sbaglio ha il chip più grande delle rv670... però costa uguale... perchè??
a sto punto non dovrebbe avere prezzi + alti?? :confused:

cmq mica le dimensioni sono tutto :D

centra anche la complessità progettuale, ridurre tutto alle sole dimensioni non è esattissimo

appleroof
28-05-2008, 17:08
R770 è più piccolo (costa meno ad AMD) e più veloce, e non limitato dalla memoria perché supporta le GDDR5, e nella stessa fascia del g92.

Non dici che nVidia dovrebbe proporre qualcosa? Il G92B rischia di non poter superare l'attuale G92 a meno non cambino il bus. Ma come fanno per una revisione?

Alla nVidia dicevano di voler tirare avanti per altri 10 mesi con il G92 :mbe:

Invece il G94 sulla 9600GT per un pò se la caverà alla grande.


Il succo del mio discorso è che mi sa che anche il G92B costerà più di R770 da produrre, e difficilmente potrà superare il G92 sulla 9800GTX a causa della banda verso la memoria.

Poi tutto può essere, eh.

esatto...non darei troppe cose per scontate da questo punto di vista, in realtà solo i piani alti delle rispettive aziende sanno come vanno davvero le cose...

lo penso perchè questo "problema" (lo metto tra virgolette perchè finora secondo me, visti i risultati aziendali e a quanto mettono le loro vga sul mercato, in realtà non è appunto un problema, ancora) è cmq ben presente ai vertici Nvidia (su questo credo possiamo metterci la mano sul fuoco :D ), che avranno studiato credo le opportune contromosse

infine, le top non occupano sicuramente fette importanti, in termini di volumi, ma sono molto remunerative (senza pensare al ritorno d'immagine che fà risparmiare soldoni in pubblicità), ovviamente per venderne molte devi offrire molto più del concorrente in termini di prestazioni, sotto questo punto di vista sono molto curioso di vedere cosa combina 4870x2 (che cmq è data sui 500$ mi pare), e chissà che per l'autunno non esca gt200 a 55nm....

http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
cut
;)

si era stata postata molto tempo fà, se non sbaglio

Mister Tarpone
28-05-2008, 17:09
cmq mica le dimensioni sono tutto :D

centra anche la complessità progettuale, ridurre tutto alle sole dimensioni non è esattissimo

vero.. non contano solo le dimensioni :asd:

beh ma allora un pò di ragione ce l'ho pure io!!! :confused:

The_SaN
28-05-2008, 17:11
vero.. non contano solo le dimensioni :asd:

beh ma allora un pò di ragione ce l'ho pure io!!! :confused:

Contano anche dissi, memorie (rv670 ha le ddr4 che sono + care), oltre ad una serie di altri fattori.
E non sappiamo quando le 2 aziende ci guadagnano rispettivamente per ogni chip.

gianni1879
28-05-2008, 17:12
vero.. non contano solo le dimensioni :asd:

beh ma allora un pò di ragione ce l'ho pure io!!! :confused:

certo per ambedue le cose.... :asd:


produrre un chip + complesso ma più piccolo potrebbe costare di più rispetto ad un chip più semplice ma più grande come dimensione.
Io tirerei anche in ballo il processo produttivo.

appleroof
28-05-2008, 17:13
vero.. non contano solo le dimensioni :asd:

beh ma allora un pò di ragione ce l'ho pure io!!! :confused:

:asd: :asd: :asd:

per la parte finale del post, si :)

Contano anche dissi, memorie (rv670 ha le ddr4 che sono + care), oltre ad una serie di altri fattori.
E non sappiamo quando le 2 aziende ci guadagnano rispettivamente per ogni chip.

quoto, e adesso si butta sulle ddr5 che a fronte di notevoli vantaggi (eliminazione di quel mostro di complessità del ringbus di r600 e cmq buona banda, consumi) ora costano necessariamente tanto (per quello credo che la 4850 non le abbia)

gianni1879
28-05-2008, 17:14
Contano anche dissi, memorie (rv670 ha le ddr4 che sono + care), oltre ad una serie di altri fattori.
E non sappiamo quando le 2 aziende ci guadagnano rispettivamente per ogni chip.

cmq si parlava penso del solo costo del chip lasciando da parte per un attimo il resto, cmq ovviamente dici bene, ci sono molti fattori che fanno il prezzo di una vga dal punto di vista dei costi.

Dire che per una vga un'azienda ha più margini di guadagno rispetto ad un'altra senza dati certi, mi pare un pò riduttivo.

The_SaN
28-05-2008, 17:16
cmq si parlava penso del solo costo del chip lasciando da parte per un attimo il resto, cmq ovviamente dici bene, ci sono molti fattori che fanno il prezzo di una vga dal punto di vista dei costi.

Dire che per una vga un'azienda ha più margini di guadagno rispetto ad un'altra senza dati certi, mi pare un pò riduttivo.

Piú che altro gli ho un po' risposto alla domanda di prima (sul perche le 2 vga costano uguale) ma ho quotato il suo ultimo post :D

Sull' ultima frase sicuramente hai ragione, infatti la mia era una "quasi domanda", la cui risposta non so. :)

appleroof
28-05-2008, 17:17
cmq si parlava penso del solo costo del chip lasciando da parte per un attimo il resto, cmq ovviamente dici bene, ci sono molti fattori che fanno il prezzo di una vga dal punto di vista dei costi.

Dire che per una vga un'azienda ha più margini di guadagno rispetto ad un'altra senza dati certi, mi pare un pò riduttivo.

amen, fratello.

Marko91
28-05-2008, 17:17
mmm.. Le specifiche che abbiamo visto circolare di R770 potrebbero essere in parte sbagliate, sopratutto per quanto riguarda gli sp. Almeno così qualcuno dice su Beyond3d, tra cui un'utente che ha informazioni da chi ha la scheda ora ("w0mbat "http://forum.beyond3d.com/showpost.php?p=1166805&postcount=2054)
Qualcun'altro parla di 800sp alla stessa frequenza del chip.. anche se io credo siano più ragionevoli 480sp: un chip di questa fascia non può essere troppo grosso, e finora nessuno ha parlato di un chip di oltre 300mm^2...

http://img382.imageshack.us/img382/14/coolersr700vsr680ci9.jpg

Dovrebbe essere un immagine già postata. Facendo i confronti tra i due die-size RV770 dovrebbe essere il 35% più grande di RV670, intorno quindi ai 275mm^2. I rumor parlano di 256mm^2...

Mister Tarpone
28-05-2008, 17:20
con il traduttore (ma correggetemi se sbaglio, visto che traduce in maniera pessima :stordita: ), a quanto ho capito su bejond3D qualcuno dubita che RV770 possa andare un 80% in + di RV670 (25% + di 98GTX) con le specifiche di 480sp e 32 TMU...

forse per questo motivo è saltata fuori l'ipotesi che in realta sto chip sia + pompato??? :confused:

halduemilauno
28-05-2008, 17:21
quando sento certi discorsi mi viene in mente il parallelismo con fiat e mercedes. una fa le auto piccole e/o cmq l'altra le fa ben + grosse e costose. chissa il fatturato più grande chi ce l'ha?
;)



ps per carità io lo so.

gianni1879
28-05-2008, 17:24
ma sotto i pad termici (sia delle memorie che del plx) nella hd3870x2 c'è il rame??

gianni1879
28-05-2008, 17:29
quando sento certi discorsi mi viene in mente il parallelismo con fiat e mercedes. una fa le auto piccole e/o cmq l'altra le fa ben + grosse e costose. chissa il fatturato più grande chi ce l'ha?
;)



ps per carità io lo so.
cmq non si parlva di fatturato globale dell'azienda ma di margini su una singola vga

The_SaN
28-05-2008, 17:30
cmq non si parlva di fatturato globale dell'azienda ma di margini su una singola vga

Che peraltro erano della stessa fascia. ;)

halduemilauno
28-05-2008, 17:35
cmq non si parlva di fatturato globale dell'azienda ma di margini su una singola vga

ma se io vendo 57 milioni di schede e la concorrenza 23 milioni ha ancora senso star li a parlare di quanto mi costa fare la scheda?
:boh:

Mister Tarpone
28-05-2008, 17:36
ma se io vendo 57 milioni di schede e la concorrenza 23 milioni ha ancora senso star li a parlare di quanto mi costa fare la scheda?
:boh:

effettivamente direi che conta TANTO pure questo...

halduemilauno
28-05-2008, 17:40
effettivamente direi che conta TANTO pure questo...

da quando si sono unite son sei trimestri fa e son sei trimestri in negativo. 4.5 miliardi $ in fumo. escluso il costo dell'acquisizione ovviamente. un settimo, quello in corso, è gia annunciato essere in perdita anch'esso.
stanno li a contare i cent.
;)

Mercuri0
28-05-2008, 17:42
quando sento certi discorsi mi viene in mente il parallelismo con fiat e mercedes. una fa le auto piccole e/o cmq l'altra le fa ben + grosse e costose. chissa il fatturato più grande chi ce l'ha?
;)

ps per carità io lo so.
Non volevo buttarla nVidia contro AMD, ma su G92 contro R770 (e sulle ipotesi di vita del G92 per altri 10mesi). Cosa vuoi che m'importi dei loro bilanci in questo thread?

Comunque la Fiat può far le Ferrari perché vende le Punto ;)

p.s. ehi, la Fiat fa anche le Maserati e le Ferrari, dovrebbe avere un fatturato più alto di Mercedes per questo?

Marko#88
28-05-2008, 17:43
ma se io vendo 57 milioni di schede e la concorrenza 23 milioni ha ancora senso star li a parlare di quanto mi costa fare la scheda?
:boh:

beh, dipende sempre dal margine di guadagno, credo che non si possano fare calcoli così semplicistici visto che non sappiamo esattamente nulla...poi è ovvio che una delle due che vende il doppio fa pensare...ma verità assolute non ne possiamo sparare...;)

halduemilauno
28-05-2008, 17:43
Direi non che è importante, ma che è determinante.

Se le vendo in pari e ne vendo 7 miliardi alla fine ho guadagnato la bellezza di 0$.

Il volume è importantissimo, ma il margine è determinante a far sì che tale volume possa tradursi in utile, che è la mission di qualunque corporate.

ok è ovviamente giusto ma è realistico? è il caso di nvidia? ovviamente no. tutt'altro.

halduemilauno
28-05-2008, 17:45
beh, dipende sempre dal margine di guadagno, credo che non si possano fare calcoli così semplicistici visto che non sappiamo esattamente nulla...poi è ovvio che una delle due che vende il doppio fa pensare...ma verità assolute non ne possiamo sparare...;)

ok. e quindi? allora perchè di questi aspetti ne parlate?

supercomputer1
28-05-2008, 17:45
nVidia "zitta zitta, torna torna?". Veramente, gervi, quello che hai scritto nel tuo post è solo perchè nVidia sta facendo tanto casino in questi tempi per le sue tecnologie, mentre AMD no.

Alla AMD hanno già una piattaforma di sviluppo GPGPU chiamata CAL. Inoltre hanno già i backend per un linguaggio di alto livello Opensource chiamato brook, che loro hanno esteso e distribuiscono come brook+. Hanno assunto per questo parte del team di Folding@home.
nVidia fra un pò dovrebbe seguire, e si spera che brook possa essere una piattaforma libera e comune.

Inoltre, dulcis in fundo, AMD sta sviluppando una nuova versione delle sue librerie per il calcolo ad alte prestazioni (che sfruttano SSE e parenti delle CPU) in modo che possano sfruttare la GPU dove ha senso: così il programmatore usa le API, e le API usano l'hardware che c'è. E AMD sta rilasciando le sue api come OpenSource (e girano benissimo anche su hw non AMD!)

Insomma, anche se senza fanfare, si sta muovendo anche AMD.

Forse una differenza che noto è che mentre nVidia enfatizza e mira alla Uber-GPU, le strade di AMD sembrano essere dirette al Fusion: AMD sembra stia costruendo in questi anni una piattaforma di sviluppo comune per un sistema ibrido CPU/GPU ;)

Concordo in pieno quello che dici:
Brook+ e' un linguaggio di alto livello come il linguaggio C
mentre CAL e' un intermediate language( cioe' un linguaggio intermedio tra il (linguaggio macchina=GPU Assembler) ed il linguaggio di alto livello cioe' il Brook+.
Inoltre a differenza di Nvidia trovo le soluzioni di ATI per il GPGPU=general purpose Gpu= Gpu utilizzate per eseguire per calcoli standard tipo come avviene coi processori.
certo non metto in dubbio che gia vi sono alcune applicazioni che girano su schede NVIDIA per il GPGPU mentre per ATI ancora non se parla affatto cio' deriva che IL GPGPU per ATI e' nato dopo il CUDA di NVIDIA ma anche che ATI si sta muovendo in quello strada=GPGPU ( addirittura meglio di NVIDIA quando tutto sara' maturo e' pronto all'incirca tra un annetto e mezzo poi si vedranno i risultati)
1) In Gigaflops le schede Ati hanno piu potenza di calcolo delle rispettive NVIDIA, quindi maggior potenza di calcolo= risultati in minor tempo.
2)Trovo le gpu Ati piu facili da programmare delle concorrenti Nvidia
altro motivo perche' ho scelto ATI per farmi il GPU Cluster=Supercomputer
3)Con una piattaforma del genere chiunque puo' farsi a casa una piattaforma per lo Stream Computing. Semplicemente montando 4 schede video su una singola motherboard

http://global.msi.com.tw/index.php?func=proddesc&prod_no=1332&maincat_no=1&cat2_no=171

come quella riportata nel link o meglio ancora su una motherboard che abbia una dual gigabit lan come questa

http://www.gigabyte.com.tw/Products/Motherboard/Products_Overview.aspx?ProductID=2690

e sfruttare tutte e 4 le GPU per il calcolo GPGPU o stream computing come dice ATI.
4)Di fatti e' da quanto e' uscito CAL per il GPGPU da parte di Ati che mi sto
assemblando un Supercomputer( come il nick name che mi sono messo
Suprcomputer1, perche' per ora sto assemblando il nodo 1 cioe' il master; per il nodo 2 aspetto la piattaforma Fusion dopodiche' avro' il mio Supercomputer bello pronto)
La mia idea e' di creare 2 nodi uno Master= maestro cioe' da dove partono i comandi e le istruzioni da essere eseguite ed uno Slave=schiavo dedicato solo ed esclusivamente al calcolo intensivo certo anche sul nodo 1 verranno eseguiti calcoli ma solo nelle aree libere della GPU e GPU visto che altre aree saranno occupate da altri programmi e dal Sistema operativo stesso mentre il nodo 2 CPU e GPU al 100% di utilizzo per il calcolo parallelo.
I 2 nodi si scambieranno informazioni sui vari processi che devono essere creati etcetera etcetera tramite rete Gigabit Lan.
Attualmente La piattaforma CAL e' ancora in versione beta; ma grazie ad una community di utenti che ne provano le caratteristiche verrannno aggiunte nuove funzionalita' supportera' altri sistema operativi tipo linux e verranno corretti alcuni bug con visual studio 2008 infine per l'estate dovrebbe uscire una revisione che supporti le future ATI 48XX ed in piu il supporto multi GPU su singola motherboard. ;)
Provare per credere andate su questo link e guardate come programmare le
GPU per il GPGPU=general purpose gpu=GPU per utilizzo standard
http://www.nvidia.com/object/cuda_learn_products.html
Per me troppo complesse da programmare.

Marko#88
28-05-2008, 17:48
ok. e quindi? allora perchè di questi aspetti ne parlate?

io non ne ho parlato, ho solo commentato il tuo post perchè è il primo che mi è capitato sotto mano, nulla di personale...:)
imho sono discorsi piuttosto complessi che fare a grandi linee ha poco senso visto che fondamentalmente nessuno di noi conosce i margini di guadagno di AMD ed Nvidia...:)

halduemilauno
28-05-2008, 17:48
Non volevo buttarla nVidia contro AMD, ma su G92 contro R770 (e sulle ipotesi di vita del G92 per altri 10mesi). Cosa vuoi che m'importi dei loro bilanci in questo thread?
Comunque la Fiat può far le Ferrari perché vende le Punto ;)

p.s. ehi, la Fiat fa anche le Maserati e le Ferrari, dovrebbe avere un fatturato più alto di Mercedes per questo?


ok e allora perchè parlarne? torniamo allo specifico anche se parlarne qui è off topic. g92/10 mesi. suvvia cercate di ragionarci un'attimino sopra.

gianni1879
28-05-2008, 17:52
ma se io vendo 57 milioni di schede e la concorrenza 23 milioni ha ancora senso star li a parlare di quanto mi costa fare la scheda?
:boh:

era per discutere visto che si parlava di questo, Nvida sta facendo i soldi, AMD è in perdita.... ma quelli sono i fatturati, come il tuo esempio che non era pertinente con la discussione.

(ovviamente non ho detto che non era così, ma quelli sono altri discorsi)


cmq non l'ho tirato io fuori il discorso di quanto costa una vga ad un'azienda, ho pure detto che senza dati certi non si va da nessuna parte...

The_SaN
28-05-2008, 17:53
Boh...sempre di rv770 si tratta...non vedo perché non parlarne...:)
Tanto per ora nulla di nuovo nel versante news :D

Mercuri0
28-05-2008, 17:54
Concordo in pieno quello che dici:

Continuo la sviolinata ad AMD (ovvia, ragazzi, che ne ha bisogno :asd:) dicendo che è stata appena rilasciata la CAL beta per Linux, che i programmatori sono entusiasti delle prestazioni delle R6xx coi calcoli a precisione doppia
http://forum.beyond3d.com/showthread.php?p=1167057,
che molto probabilmente sempre su quei tipi di calcoli r770 supererà il GT200, che il fatto che AMD rilasci le specifiche delle sue schede potrà favorire i programmatori frustati dall'oscurità di CUDA, e che le GDDR5 hanno un sistema di controllo degli errori importante in campo scientifico.

Non avevo detto queste cose nella mia risposta a gervi perché non le reputavo interessanti per la discussione, ma tutto sommato qui si parla di R700, mica solo di giochi ;)

p.s. che ci devi fare col supercomputer? Ho capito che i flash sui siti web i questi tempi.... :asd:

Mercuri0
28-05-2008, 17:57
ok e allora perchè parlarne? torniamo allo specifico anche se parlarne qui è off topic. g92/10 mesi. suvvia cercate di ragionarci un'attimino sopra.
Ma scusatemi, avevo accennato al costo di G92 come metro di confronto, dicendo che con l'uscita di R770 mi aspetterei che nVidia rilasciasse qualcosa di nuovo nella sua fascia.

Non ho parlato di bilanci, ma il costo è un metro per valutare un chip, eh.

Quando facciamo previsioni non possiamo far altro che ragionare "lato produttore".

Mister Tarpone
28-05-2008, 18:01
Ma scusatemi, avevo accennato al costo di G92 come metro di confronto, dicendo che con l'uscita di R770 mi aspetterei che nVidia rilasciasse qualcosa di nuovo nella sua fascia.


in 10 mesi oltre i G92B (questi subito) probabilmente usciranno anche qualche GTX 2X0 a 55nani ;)

però non pirma di 5-6mesi imho..


può essere no??

Foglia Morta
28-05-2008, 18:03
in d10 mesi oltre i G92B (questi subito) probabilmente usciranno anche qualche GTX 2X0 a 55nani ;)

però non pirma di 5-6mesi imho..

No. entro 4 mesi e non saranno GT200 , ma gpu ridimensionate nel numero di unità di calcolo.

The_SaN
28-05-2008, 18:06
in 10 mesi oltre i G92B (questi subito) probabilmente usciranno anche qualche GTX 2X0 a 55nani ;)

però non pirma di 5-6mesi imho..


può essere no??

Non dovrebbe essere cosi semplice fare un gt200 a 55nm...
Penso sia probabile che facciano alcune modifiche (come bus o sp) verso il basso e frequenze piú alte.

Mister Tarpone
28-05-2008, 18:09
No. entro 4 mesi e non saranno GT200 , ma gpu ridimensionate nel numero di unità di calcolo.


ma non saranno manco dei semplici g92... ;)

saranno delle GTX 160 e 180... con meno sp (ma frequenze + alte) ecc..quindi prestazioni un pò più basse (ma sempre superiori alle g92)
come il prezzo ed i consumi... ;)














ps: ovviamente mi sono inventato tutto ;) :asd:

Foglia Morta
28-05-2008, 18:12
ps: ovviamente mi sono inventato tutto ;) :asd:


non c'è bisogno di inventarsi nulla... nVidia ha già accennato qualcosa.

Mister Tarpone
28-05-2008, 18:13
Non dovrebbe essere cosi semplice fare un gt200 a 55nm...
Penso sia probabile che facciano alcune modifiche (come bus o sp) verso il basso e frequenze piú alte.

infatti ;)

se ci pensi hanno fatto così anche in passato ;)

vedi G80 @ G92.....

ed una 8800GT va quasi come una GTX G80 in molti giochi... nonostante le specifiche apparentemente parecchio inferiori...

succederà la stessa cosa... ;)

Mister Tarpone
28-05-2008, 18:15
non c'è bisogno di inventarsi nulla... nVidia ha già accennato qualcosa.

Ok perfetto ciao.

halduemilauno
28-05-2008, 18:16
ma non saranno manco dei semplici g92... ;)

saranno delle GTX 160 e 180... con meno sp (ma frequenze + alte) ecc..quindi prestazioni un pò più basse (ma sempre superiori alle g92)
come il prezzo ed i consumi... ;)














ps: ovviamente mi sono inventato tutto ;) :asd:


esatto. 120 shader, 256 bit, gddr5 e ovviamente a 55nm.

Mister Tarpone
28-05-2008, 18:17
esatto. 120 shader, 256 bit, gddr5 e ovviamente a 55nm.

manco 128?? AZZ... :stordita: :stordita: :stordita:

allora mi sa che ho ipotizzato male....(parlando di prestazioni di poco inferiori rispetto le GTX 260 e 280;) ) :stordita: :stordita: :stordita:

pensavo segassero gli shader ma non così tanti...:stordita: :stordita: :stordita:

rispetto a 240 sono la metà...

appleroof
28-05-2008, 18:20
Non volevo buttarla nVidia contro AMD, ma su G92 contro R770 (e sulle ipotesi di vita del G92 per altri 10mesi). Cosa vuoi che m'importi dei loro bilanci in questo thread?

Comunque la Fiat può far le Ferrari perché vende le Punto ;)

p.s. ehi, la Fiat fa anche le Maserati e le Ferrari, dovrebbe avere un fatturato più alto di Mercedes per questo?

bè. ad essere pignoli la Ferrari è tale perchè praticamente è indipendente :D

cmq nel mercato automobilistico è vero quello che dice Hal, ma qui ovviamente parliamo di vga: ebbene, anche le vga top sono molto remunerative come dicevo, di certo la 3870 non ha avuto il margine di guadagno di una 8800gtx (altrimenti come si spiegano i mega utili di Nvidia?) :)

e la testa di Dave Orton? :asd:

era per discutere visto che si parlava di questo, Nvida sta facendo i soldi, AMD è in perdita.... ma quelli sono i fatturati, come il tuo esempio che non era pertinente con la discussione.

(ovviamente non ho detto che non era così, ma quelli sono altri discorsi)


cmq non l'ho tirato io fuori il discorso di quanto costa una vga ad un'azienda, ho pure detto che senza dati certi non si va da nessuna parte...

è vero non abbiamo dati certi, questo vale per i margini (di cui tanti ultimamente si "riempiono la bocca") e quindi abbiamo più o meno la stessa capacità di analisi e previsione che ha il metereologo per il mese di dicembre prox, almeno io sicuramente, non so gli altri utenti di questo forum :asd:

però i risultati finanziari sono pubblici, e gli utili di Nvidia viaggiano a gonfie vele da quando è uscito g80 finora (piena era 3870, per chi dice che i soldi li ha fatti in mancanza di concorrenza, ovviamente non tu)

poi è chiaro che discutiamo a livelli infimi rispetto ai piani alti delle aziende, come dicevo, ma tanto si fà per dire, fondamentalmente (ma almeno se parliamo partiamo dai dati di pubblico dominio)

e non ci scanniamo, tanto io non ho azioni Nvidia o Ati :D

Mercuri0
28-05-2008, 18:21
Per gli amanti delle percentuali ho fatto un conticino :D

La 4870 è data al 30% in più della 4850 (e questo viene dal marketing ufficiale).

Stimando la 4850 pari alla 9800GTX come il marketing ci dice, e che il GTX280 vada al doppio del G92, la GTX280 dovrebbe superare la 4870 di un 50%, ma a meno di sorprese è una stima larga.

edit: 50% è anche la differenza di TDP che ci aspettiamo tra le due schede.

appleroof
28-05-2008, 18:24
edit doppio post

appleroof
28-05-2008, 18:25
esatto. 120 shader, 256 bit, gddr5 e ovviamente a 55nm.

ecco, se così fosse direi che tutte le preoccupazioni (non certo mie :D) riguardo ai margini, prezzi e competitività direi che possiamo rimandarli a data da destinarsi :D :D

Mister Tarpone
28-05-2008, 18:27
ecco, se così fosse direi che tutte le preoccupazioni riguardo ai margini, prezzi e competitività direi che possiamo rimandarli a data da destinarsi :D :D

andranno sicuramente meglio delle G92... ;)

però abb. distanti rispetto le GTX 2X0.. imho..

con 140 o 150 sp invece..... . . . .

appleroof
28-05-2008, 18:28
andranno sicuramente meglio delle G92... ;)

però abb. distanti rispetto le GTX 2X0.. imho..

con 140 o 150 sp invece..... . . . .

ne parliamo magari nell'altro tread :)

halduemilauno
28-05-2008, 18:29
Per gli amanti delle percentuali ho fatto un conticino :D

La 4870 è data al 30% in più della 4850 (e questo viene dal marketing ufficiale).

Stimando la 4850 pari alla 9800GTX come il marketing ci dice, e che il GTX280 vada al doppio del G92, la GTX280 dovrebbe superare la 4870 di un 50%, ma a meno di sorprese è una stima larga.

edit: 50% è anche la differenza di TDP che ci aspettiamo tra le due schede.

a tutto questo si aggiunga che la gtx280 è il 25% più potente della gtx260. ora non ci rimane altro che attendere e verificare tutto questo.

Mister Tarpone
28-05-2008, 18:29
ne parliamo magari nell'altro tread :)

hai ragione :) ;) ;) ;)

halduemilauno
28-05-2008, 18:30
ecco, se così fosse direi che tutte le preoccupazioni (non certo mie :D) riguardo ai margini, prezzi e competitività direi che possiamo rimandarli a data da destinarsi :D :D

e di certo manco le mie.
;)

The_SaN
28-05-2008, 18:35
a tutto questo si aggiunga che la gtx280 è il 25% più potente della gtx260. ora non ci rimane altro che attendere e verificare tutto questo.

Quindi supponendo questi calcoli come veri, la gtx260 andrebbe circa il 20% in piú della 4870.
Se la gtx260 costa $399 e la 4870 costa $329 come dicono i rumors anche la differenza di prezzo sarebbe del 20%.
Tutto perfettamente allineato.

appleroof
28-05-2008, 18:37
Quindi supponendo questi calcoli come veri, la gtx260 andrebbe circa il 20% in piú della 4870.
Se la gtx260 costa $399 e la 4870 costa $329 come dicono i rumors anche la differenza di prezzo sarebbe del 20%.
Tutto perfettamente allineato.

già...di certo i rapporti adesso sono molto più equilibrati che nel passato recente, stando così le cose


p.s.: perchè quella firma dai, che ti frega? :D :D

halduemilauno
28-05-2008, 18:43
Quindi supponendo questi calcoli come veri, la gtx260 andrebbe circa il 20% in piú della 4870.
Se la gtx260 costa $399 e la 4870 costa $329 come dicono i rumors anche la differenza di prezzo sarebbe del 20%.
Tutto perfettamente allineato.

ribadisco aspettiamo riscontri.



ps che fate si riapre il fronte dell'allineato?

The_SaN
28-05-2008, 18:54
già...di certo i rapporti adesso sono molto più equilibrati che nel passato recente, stando così le cose


p.s.: perchè quella firma dai, che ti frega? :D :D


Ho appena dato via la 2600xt che avevo in prestito, ho rimesso la mitica e insostituibile, oltre che potentissima, x300SE :asd:
Non é un qualcosa da mettere in firma con orgoglio :D

appleroof
28-05-2008, 19:13
Ho appena dato via la 2600xt che avevo in prestito, ho rimesso la mitica e insostituibile, oltre che potentissima, x300SE :asd:
Non é un qualcosa da mettere in firma con orgoglio :D


:asd:

io ho una 6200TC che ogni tanto appare in firma nei momenti di transizione :D

@ndrey
28-05-2008, 19:15
Quindi supponendo questi calcoli come veri, la gtx260 andrebbe circa il 20% in piú della 4870.
Se la gtx260 costa $399 e la 4870 costa $329 come dicono i rumors anche la differenza di prezzo sarebbe del 20%.
Tutto perfettamente allineato.

Xro da vedere anche i margini in oc!!
Le ddr3 sono quasi al limite, resta da vedere a quanto arriva la gpu :O ma ho dei grossi dubbi che salga bene con qst chip vediamo :stordita:

HackaB321
28-05-2008, 19:29
era per discutere visto che si parlava di questo, Nvida sta facendo i soldi, AMD è in perdita.... ma quelli sono i fatturati, come il tuo esempio che non era pertinente con la discussione.

(ovviamente non ho detto che non era così, ma quelli sono altri discorsi)


cmq non l'ho tirato io fuori il discorso di quanto costa una vga ad un'azienda, ho pure detto che senza dati certi non si va da nessuna parte...

Solo per precisazione: la divisione grafica di AMD ha chiuso il 1° trimestre 2008con un sostanziale pareggio (-11 milioni) con fatturato in crescita del 17% (230 milioni) rispetto allo stesso trimestre del 2007.
Questo nonostante la situazione finanziaria di AMD non abbia certo permesso investimenti (al di là delle chiacchere) in marketing o promozioni.
Le unità vendute sono aumentate mentre è diminuito considerevolmente l'ASP (average selling price). Il pareggio sostanziale è quindi dipeso da una riduzione dei costi di produzione. A testimonianza che i discorsi sui margini qualche validità ce l'hanno e se vengono ripetuti è solo perchè qualcuno confonde mele con pere.

Mister Tarpone
28-05-2008, 19:34
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:


cmq è bellina HackaB321 :D

tanto hai capito di che parlo... :D

M4R1|<
28-05-2008, 19:39
cut

p.s. che ci devi fare col supercomputer? Ho capito che i flash sui siti web i questi tempi.... :asd:

Hash cracking ;)
fidati che il tipo è in contatto con molta gente ;)
edit: scommneto che avrà almeno 4TB











Quindi supponendo questi calcoli come veri, la gtx260 andrebbe circa il 20% in piú della 4870.
Se la gtx260 costa $399 e la 4870 costa $329 come dicono i rumors anche la differenza di prezzo sarebbe del 20%.
Tutto perfettamente allineato.

tutti i calcoli tornano, bene nn è di certo un brutto segno!

gianni1879
28-05-2008, 19:43
Solo per precisazione: la divisione grafica di AMD ha chiuso il 1° trimestre 2008con un sostanziale pareggio (-11 milioni) con fatturato in crescita del 17% (230 milioni) rispetto allo stesso trimestre del 2007.
Questo nonostante la situazione finanziaria di AMD non abbia certo permesso investimenti (al di là delle chiacchere) in marketing o promozioni.
Le unità vendute sono aumentate mentre è diminuito considerevolmente l'ASP (average selling price). Il pareggio sostanziale è quindi dipeso da una riduzione dei costi di produzione. A testimonianza che i discorsi sui margini qualche validità ce l'hanno e se vengono ripetuti è solo perchè qualcuno confonde mele con pere.

Ho precisato AMD ovviamente riferito all'intera azienda, visto che si sbandierava sto discorso della perdita. (si tira sempre fuori quando non ci sono altre argomentazioni)

Se analizziamo la divisione grafica il discorso già ha più senso, ecco già tiriamo fuori qualche dato senza andare nello specifico ovviamente e non si parla in astratto tanto per dire, si sono pure fatti discorsi su Fiat e Mercedes che non ci azzeccavano nulla.

Che poi rv670 costava poco ad Ati (inteso come divisione grafica) lo sapevamo già, ma su rv770 sappiamo ben poco ancora e fare certe previsioni potrebbe essere non del tutto corretto.

Non solo pere e mele, ma pure banane nel mezzo. :D

Bella la gif ;)

The_SaN
28-05-2008, 19:50
Ho precisato AMD ovviamente riferito all'intera azienda, visto che si sbandierava sto discorso della perdita. (si tira sempre fuori quando non ci sono altre argomentazioni)

Se analizziamo la divisione grafica il discorso già ha più senso, ecco già tiriamo fuori qualche dato senza andare nello specifico ovviamente e non si parla in astratto tanto per dire, si sono pure fatti discorsi su Fiat e Mercedes che non ci azzeccavano nulla.

Che poi rv670 costava poco ad Ati (inteso come divisione grafica) lo sapevamo già, ma su rv770 sappiamo ben poco ancora e fare certe previsione potrebbe essere non del tutto corretto. Come non darti ragione ;)

Non solo pere e mele, ma pure banane nel mezzo. :D

Bella la gif ;)

:eek: :ops:

halduemilauno
28-05-2008, 19:51
Ho precisato AMD ovviamente riferito all'intera azienda, visto che si sbandierava sto discorso della perdita. (si tira sempre fuori quando non ci sono altre argomentazioni)

Se analizziamo la divisione grafica il discorso già ha più senso, ecco già tiriamo fuori qualche dato senza andare nello specifico ovviamente e non si parla in astratto tanto per dire, si sono pure fatti discorsi su Fiat e Mercedes che non ci azzeccavano nulla.

Che poi rv670 costava poco ad Ati (inteso come divisione grafica) lo sapevamo già, ma su rv770 sappiamo ben poco ancora e fare certe previsione potrebbe essere non del tutto corretto.

Non solo pere e mele, ma pure banane nel mezzo. :D

Bella la gif ;)

c'avete fatto caso quando si parla di ati, amd si è sempre alla frutta.

Sergio_Di_Rio
28-05-2008, 19:56
EDIT
:oink:

gianni1879
28-05-2008, 19:56
c'avete fatto caso quando si parla di ati, amd si è sempre alla frutta.

doppi sensi?? :D

Errik89
28-05-2008, 20:25
c'avete fatto caso quando si parla di ati, amd si è sempre alla frutta.
:sofico:
per forza... al posto di progettare bene R600 quelli di ATI se ne stavano lì a mangiare banane!! :D

no scherzo... cmq speriamo che RV770 si riveli abbastanza potente da far concorrenza nella maniera giusta ad nvidia. Non so se avete notato ma non è mai successo nel mondo delle VGA che una scheda video nel giro di 8 mesi arrivi a costare il 30% del prezzo originario!
Sapete bene di cosa sto parlando: di R600!
All'uscita costava 399€, con RV670 costava 199€, ora costa dai 100€ ai 120€!!
IDEM per NVIDIA, la 8800GTX costava 600€, la 8800GTS 512 ora costa 180€
Dopo un anno senza concorrenza 6 mesi agguerritissimi!!

A.L.M.
28-05-2008, 20:26
esatto. 120 shader, 256 bit, gddr5 e ovviamente a 55nm.

Originally Posted by Arun
G92b won't support GDDR4/5.

http://forum.beyond3d.com/showpost.php?p=1167250&postcount=1644

P.S.: Arun è uno degli editor di Beyond3D. :)

Mister Tarpone
28-05-2008, 20:30
http://forum.beyond3d.com/showpost.php?p=1167250&postcount=1644

P.S.: Arun è uno degli editor di Beyond3D. :)

infatti non parlavamo di G92b...


:)

appleroof
28-05-2008, 20:31
:sofico:
per forza... al posto di progettare bene R600 quelli di ATI se ne stavano lì a mangiare banane!! :D

no scherzo... cmq speriamo che RV770 si riveli abbastanza potente da far concorrenza nella maniera giusta ad nvidia. Non so se avete notato ma non è mai successo nel mondo delle VGA che una scheda video nel giro di 8 mesi arrivi a costare il 30% del prezzo originario!
Sapete bene di cosa sto parlando: di R600!
All'uscita costava 399€, con RV670 costava 199€, ora costa dai 100€ ai 120€!!
IDEM per NVIDIA, la 8800GTX costava 600€, la 8800GTS 512 ora costa 180€
Dopo un anno senza concorrenza 6 mesi agguerritissimi!!

quoto, la concorrenza non può che far bene, sempre ;)

http://forum.beyond3d.com/showpost.php?p=1167250&postcount=1644

P.S.: Arun è uno degli editor di Beyond3D. :)

per un discorso legato al pcb giusto?

cmq non sono del tutto sicuro che Hal si riferisse a g92 :)

Mister Tarpone
28-05-2008, 20:32
:sofico:
IDEM per NVIDIA, la 8800GTX costava 600€, la 8800GTS 512 ora costa 180€
Dopo un anno senza concorrenza 6 mesi agguerritissimi!!

e pensa che oltre la GTS 512 a 170€ c'è pure la 8800GT a 140€ e 9600GT a 105€ :oink:

A.L.M.
28-05-2008, 20:38
infatti non parlavamo di G92b...


:)

Uhm, allora mi pare un po' strana 'sta cosa.... :fagiano:
NVidia ha detto ufficialmente (http://www.beyond3d.com/content/news/642) che come minimo minimo G92 durerà altri 6-8 mesi (fino a 12). Ovviamente inclusa la sua declinazione a 55nm.
Come farebbe a tirare fuori una scheda che cannibalizzerebbe istantaneamente G92b? :stordita:
Penso che prima o poi una scheda del genere uscirà fuori, ma se verrà fuori G92b, per un derivato di GT200 come quello di cui parlava hal se ne parlerà a fine 2008 - inizio 2009.


per un discorso legato al pcb giusto?

cmq non sono del tutto sicuro che Hal si riferisse a g92 :)

Le GDDR4 perchè NVidia non le adotterà mai, la GDDR5 penso perchè non sono compatibili con le GDDR3. Serve un pcb specifico (e anche più complesso, in verità) per quelle memorie. E' più plausibile che partano ad adottarle non su un refresh, ma su una scheda tutta nuova o quasi.

appleroof
28-05-2008, 20:40
Uhm, allora mi pare un po' strana 'sta cosa.... :fagiano:
NVidia ha detto ufficialmente (http://www.beyond3d.com/content/news/642) che come minimo minimo G92 durerà altri 6-8 mesi (fino a 12). Ovviamente inclusa la sua declinazione a 55nm.
Come farebbe a tirare fuori una scheda che cannibalizzerebbe istantaneamente G92b? :stordita:
Penso che prima o poi una scheda del genere uscirà fuori, ma se verrà fuori G92b, per un derivato di GT200 come quello di cui parlava hal se ne parlerà a fine 2008 - inizio 2009.

si dicono tante cose....sopratutto ufficialmente :asd:

cmq può essere che non la vedremo prima del periodo da te detto

Mister Tarpone
28-05-2008, 20:44
si dicono tante cose....sopratutto ufficialmente :asd:

cmq può essere che non la vedremo prima del periodo da te detto
quoto..


imho cmq toccherà aspettare 6 mesi ;)

A.L.M.
28-05-2008, 20:51
Originally Posted by NH|Delph1
I'm not sure if I would call GT200 a significant overhaul. I'd say they fixed a part of the G8x/9x that was broken and threw in more of everything. Which is pretty much what ATI has done with RV770. So, none of the two chips that are coming are really "new". They're just faster and better than the previous generation, which should be enough though.

//Andreas

Link (http://www.xtremesystems.org/forums/showpost.php?p=3020561&postcount=1118)

L'opinione di Andreas di XtremeSystems (credo fosse invitato all'editor's day di NVidia e con tutta probabilità è uno dei fortunati che hanno già visto GT200 e RV770).
Se ne deduce che:
- la missing MUL di G80 ora funziona, come si era già ipotizzato.
- le ROPs e TMU di RV770 dovrebbero essere state migliorate oltre che aumentate. :)

Mister Tarpone
28-05-2008, 20:53
- le ROPs e TMU di RV770 dovrebbero essere state migliorate oltre che aumentate. :)

mooolto bene.
eh eh eh eh eh eh eh :Perfido: :)


;)

<^MORFEO^>
28-05-2008, 20:58
Giocando solo a 1440x900 e con un E4300 la HD4850 potrebbe essere limitata?

Non credo, forse un pochino, ma se lo fosse basta cloccarlo di poco e si risolve tutto...

E giocando a 1680x1050 con un P4 630, una 4870 potrebbe essere limitata? :asd:



:doh: :muro:

supercomputer1
28-05-2008, 21:02
Continuo la sviolinata ad AMD (ovvia, ragazzi, che ne ha bisogno :asd:) dicendo che è stata appena rilasciata la CAL beta per Linux, che i programmatori sono entusiasti delle prestazioni delle R6xx coi calcoli a precisione doppia
http://forum.beyond3d.com/showthread.php?p=1167057,
che molto probabilmente sempre su quei tipi di calcoli r770 supererà il GT200, che il fatto che AMD rilasci le specifiche delle sue schede potrà favorire i programmatori frustati dall'oscurità di CUDA, e che le GDDR5 hanno un sistema di controllo degli errori importante in campo scientifico.

Non avevo detto queste cose nella mia risposta a gervi perché non le reputavo interessanti per la discussione, ma tutto sommato qui si parla di R700, mica solo di giochi ;)

p.s. che ci devi fare col supercomputer? Ho capito che i flash sui siti web i questi tempi.... :asd:

Ci devo fare un programma .

A.L.M.
28-05-2008, 21:11
per un discorso legato al pcb giusto?

Riprendo questo tuo intervento per postare un po' di info sulle GDDR5, visto che AMD evidentemente le ha introdotte nella presentazione di RV770. :)
In una delle slides si vede chiaramente la diversità delle piste sul pcb (che nel caso della GDDR5 diventano più lineari). Un paio di cose interessanti: le GDDR5 potranno avere (è nello standard, ma è opzionale) un sensore della temperatura integrato nel chip. Ottima notizia per gli overclockers... :sofico:
Inoltre ad ExtremeTech dicono che le GDDR5 non costeranno molto più delle GDDR3 ad alte prestazioni (le 0.8ns che usa spesso NVidia, per capirci), circa il 10-20% in più. :)

http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=210978,00.jpg (http://common.ziffdavisinternet.com/util_get_image/18/0,1425,sz=1&i=185644,00.jpg) http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=210979,00.jpg (http://common.ziffdavisinternet.com/util_get_image/18/0,1425,sz=1&i=185645,00.jpg)
http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=210980,00.jpg (http://common.ziffdavisinternet.com/util_get_image/18/0,1425,sz=1&i=185646,00.jpg) http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=210981,00.jpg (http://common.ziffdavisinternet.com/util_get_image/18/0,1425,sz=1&i=185647,00.jpg)

Fonte: http://www.extremetech.com/article2/0,2845,2309996,00.asp

Mister Tarpone
28-05-2008, 21:14
ganzo il fatto di poter vedere le temperature :eek:

appleroof
28-05-2008, 21:16
Riprendo questo tuo intervento per postare un po' di info sulle GDDR5, visto che AMD evidentemente le ha introdotte nella presentazione di RV770. :)
In una delle slides si vede chiaramente la diversità delle piste sul pcb (che nel caso della GDDR5 diventano più lineari). Un paio di cose interessanti: le GDDR5 potranno avere (è nello standard, ma è opzionale) un sensore della temperatura integrato nel chip. Ottima notizia per gli overclockers... :sofico:
Inoltre ad ExtremeTech dicono che le GDDR5 non costeranno molto più delle GDDR3 ad alte prestazioni (le 0.8ns che usa spesso NVidia, per capirci), circa il 10-20% in più. :)

cut

Fonte: http://www.extremetech.com/article2/0,2845,2309996,00.asp

interessanti queste ddr5, c'è poco da dire e molto chiari ed esplicativi questi grafici ;)

sono ormai convinto ad attendere l'autunno per più motivi, tra cui queste (chissà che non vengano riproposte su un refresh di gt200, questo implicherebbe ridisegnare completamente il pcb) e vedere come và r700 :)

supercomputer1
28-05-2008, 21:23
Hash cracking ;)
fidati che il tipo è in contatto con molta gente ;)
edit: scommneto che avrà almeno 4TB



M4R1 Mi stupisci. Diciamo che ci sei un po vicino ( fuocherello ).
Vedo che sei molto sveglio con cio' non voglio mica dire che gli altri dormino;
ma vedo in te molta intuizione oltre che curiosita' ;)
I Teraflop saranno piu di 4teraflop per il nodo1 a progetto completato quanto sara' pronto fusion potranno anche triplicare unendo il nodo1 ed il nodo2 mentre la memoria 2 giga sul master=nodo1 non vi e' bisogno di grandi quantita' di memoria di sistema visto che il programma deve essere ottimizzato per diminuire il piu possibile l'accesso alla remote memory=memoria d sistema ed invece fare un uso massiccio della DPP memory=memoria del Data Parallel Processor o i cosidetti SP=stream processor o shader processor
perche molto piu veloce in fase di lettura dati e scrittura dati poi con le
GDDR5 come citava poco fa' Mercurio si possono fare miracoli ( vedi caratteristiche di correzione d'errori che le Gdr4 e le Gddr3 non hanno).

Mister Tarpone
28-05-2008, 21:28
scusate ma è possibile che le ddr3 arrivino a roba tipo 0.7, 0.6ns :confused: o no ?? :confused:

per curiosità... :confused:

A.L.M.
28-05-2008, 21:31
scusate ma è possibile che le ddr3 arrivino a roba tipo 0.7, 0.6ns :confused: o no ?? :confused:

per curiosità... :confused:

Direi che stando così le cose le GDDR3 nell'arco di massimo 1-2 anni verranno completamente abbandonate per la fascia alta. Non c'è più motivo perchè le società che producono ram investano per presentare GDDR3 più performanti, quando hanno le GDDR5 bell'e pronte... ;)

Mister Tarpone
28-05-2008, 21:37
Direi che stando così le cose le GDDR3 nell'arco di massimo 1-2 anni verranno completamente abbandonate per la fascia alta. Non c'è più motivo perchè le società che producono ram investano per presentare GDDR3 più performanti, quando hanno le GDDR5 bell'e pronte... ;)

capito.. ed è ovvio che per il futuro si punti a mem. più nuove.. ;)

ma volendo le potrebbero fare anche più veloci?? o oltre gli 0.8ns è impossibile per qualche limite di ste mem.??
ripeto è solo una curiosità... .. . .. . .. . . . .

jok3r87
28-05-2008, 21:43
M4R1 Mi stupisci. Diciamo che ci sei un po vicino ( fuocherello ).
Vedo che sei molto sveglio con cio' non voglio mica dire che gli altri dormino;
ma vedo in te molta intuizione oltre che curiosita' ;)
I Teraflop saranno piu di 4teraflop per il nodo1 a progetto completato quanto sara' pronto fusion potranno anche triplicare unendo il nodo1 ed il nodo2 mentre la memoria 2 giga sul master=nodo1 non vi e' bisogno di grandi quantita' di memoria di sistema visto che il programma deve essere ottimizzato per diminuire il piu possibile l'accesso alla remote memory=memoria d sistema ed invece fare un uso massiccio della DPP memory=memoria del Data Parallel Processor o i cosidetti SP=stream processor o shader processor
perche molto piu veloce in fase di lettura dati e scrittura dati poi con le
GDDR5 come citava poco fa' Mercurio si possono fare miracoli ( vedi caratteristiche di correzione d'errori che le Gdr4 e le Gddr3 non hanno).

... mio giovane Jedi... ...l'intuizione scorre forte in te...
:D

leoneazzurro
28-05-2008, 22:00
con il traduttore (ma correggetemi se sbaglio, visto che traduce in maniera pessima :stordita: ), a quanto ho capito su bejond3D qualcuno dubita che RV770 possa andare un 80% in + di RV670 (25% + di 98GTX) con le specifiche di 480sp e 32 TMU...

forse per questo motivo è saltata fuori l'ipotesi che in realta sto chip sia + pompato??? :confused:

Jawed pensa che RV770 abbia 16 TMU, ecco perchè pensa che non possa andare a circa 2x RV670.

Mister Tarpone
28-05-2008, 22:03
Jawed pensa che RV770 abbia 16 TMU, ecco perchè pensa che non possa andare a circa 2x RV670.

ah!! ecco...!!

ma come mai pensa che abbia solo 16TMU?? :confused:

leoneazzurro
28-05-2008, 22:12
ah!! ecco...!!

ma come mai pensa che abbia solo 16TMU?? :confused:

Perchè pensa che alla ATI siano piuttosto tradizionalisti in questo senso (e hanno avuto 16 TMU dai tempi di R420)

Errik89
28-05-2008, 22:23
Perchè pensa che alla ATI siano piuttosto tradizionalisti in questo senso (e hanno avuto a6 TMU dai tempi di R420)
beh, è l'unico che la pensa così, quindi non vedo perchè debba essere così quando tutto il mondo dice che RV770 avrà 32TMU... e penso proprio che se non fosse così ATI avrebbe potuto fare a meno anche di farlo RV770... :)

Mister Tarpone
28-05-2008, 22:25
Perchè pensa che alla ATI siano piuttosto tradizionalisti in questo senso (e hanno avuto a6 TMU dai tempi di R420)

ma mica è vero però...


io a sto punto credo proprio che ne abbia 32..

M4R1|<
28-05-2008, 22:28
M4R1 Mi stupisci. Diciamo che ci sei un po vicino ( fuocherello ).
Vedo che sei molto sveglio con cio' non voglio mica dire che gli altri dormino;
ma vedo in te molta intuizione oltre che curiosita' ;)
I Teraflop saranno piu di 4teraflop per il nodo1 a progetto completato quanto sara' pronto fusion potranno anche triplicare unendo il nodo1 ed il nodo2 mentre la memoria 2 giga sul master=nodo1 non vi e' bisogno di grandi quantita' di memoria di sistema visto che il programma deve essere ottimizzato per diminuire il piu possibile l'accesso alla remote memory=memoria d sistema ed invece fare un uso massiccio della DPP memory=memoria del Data Parallel Processor o i cosidetti SP=stream processor o shader processor
perche molto piu veloce in fase di lettura dati e scrittura dati poi con le
GDDR5 come citava poco fa' Mercurio si possono fare miracoli ( vedi caratteristiche di correzione d'errori che le Gdr4 e le Gddr3 non hanno).

davvero Grazie ;)
cmq a cosa ti serve sinceramente (in caso di ovvi motivi e/o per nn andare troppo ot usa i pvt ;))

ps: ma vuoi fare concorrenza a milw0rm??


Link (http://www.xtremesystems.org/forums/showpost.php?p=3020561&postcount=1118)
cut
- le ROPs e TMU di RV770 dovrebbero essere state migliorate oltre che aumentate. :)

interessante :cool: quindi forse le rop's potrebbero fare AA?

Jawed pensa che RV770 abbia 16 TMU, ecco perchè pensa che non possa andare a circa 2x RV670.

a ecco perchè :asd:
ma come mai ha ques'informazione errata?
edit: vista la risposta

The_SaN
28-05-2008, 23:12
... mio giovane Jedi... ...l'intuizione scorre forte in te...
:D

Ma gli altri non é che dormino :D
Scherzi a parte...

Perchè pensa che alla ATI siano piuttosto tradizionalisti in questo senso (e hanno avuto 16 TMU dai tempi di R420)Potrebbe anche aver ragione, non si sa mai...ma io ci credo davvero poco.
Ormai sembrano quasi confermate (almeno dalla stragrande maggioranza dei rumors) le 32 tmu. Oltre al fatto che con sole 16 tmu difficilmente si avrebbero gli incrementi postati da tutti :)

Fray
29-05-2008, 05:21
ma se le ddr5 costano davvero così poco in più rispetto alla ddr3 per quale assurdo motivo nvidia non le userà?

goldorak
29-05-2008, 05:52
ma se le ddr5 costano davvero così poco in più rispetto alla ddr3 per quale assurdo motivo nvidia non le userà?

Forse perche' non e' cosi' semplice riprogettare da capo il pcb per le sue schede video. E evidente che le varie gtx280 e 260 non sono altro che evoluzioni delle schede gia' presenti sul mercato. Quindi hanno seguito una strada del minimo sforzo massimo rendimento (almeno e' quello che si augurano). D'altra parte ATI e' meno conservativa di Nvidia e ovviamente questo si manifesta anche nella scelta di prediligere le GDDR5 sulle GDDR3.
A questo giro ATI ha fatto la scelta giusta, Nvidia no.

Foglia Morta
29-05-2008, 06:50
Ma gli altri non é che dormino :D
Scherzi a parte...

è la seconda volta che succede qui... The_San quota jok3r87 ma nel quote ci viene gianni1879.

Why ?

Fray
29-05-2008, 07:17
Forse perche' non e' cosi' semplice riprogettare da capo il pcb per le sue schede video. E evidente che le varie gtx280 e 260 non sono altro che evoluzioni delle schede gia' presenti sul mercato. Quindi hanno seguito una strada del minimo sforzo massimo rendimento (almeno e' quello che si augurano). D'altra parte ATI e' meno conservativa di Nvidia e ovviamente questo si manifesta anche nella scelta di prediligere le GDDR5 sulle GDDR3.
A questo giro ATI ha fatto la scelta giusta, Nvidia no.

Perchè, R700 non è altro che un evoluzione delle schede gia' presenti sul mercato?
Mi sono perso qualcosa?

gianni1879
29-05-2008, 07:44
è la seconda volta che succede qui... The_San quota jok3r87 ma nel quote ci viene gianni1879.

Why ?

infatti stavo leggendo proprio questo!!!!

ha sbagliato lui???

HackaB321
29-05-2008, 08:02
cmq è bellina HackaB321 :D

tanto hai capito di che parlo... :D

Bella la gif ;)


Grazie:)

davvero Grazie ;)
interessante :cool: quindi forse le rop's potrebbero fare AA?

Quasi sicuramente no


ma come mai ha ques'informazione errata?


E' una supposizione. Che sia errata non è ancora detto: tutti i rumor convergono sulle 32TMU ma non c'è ancora niente di uffciale

Tra l'altro i nuovi Cata (come è già stato postato) supportano RV770.

http://www.hardware-infos.com/img/startseite/catalyst_8.6_support_list.jpg

Il supporto è a 4 versioni in codice del chip (9440,9442,944E e 9446).
Secondo molti le 4 versioni sono due 4850 (da 1 Gb e da 512Mb di DDR3) e due versioni di 4870 (da 1 GB e 512Mb di DDR5). Lo strano è però che per altre architetture il supporto non prevede più modelli al cambiare del quantitativo di ram (es la 3870 è indicata una volta). Quindi cosa indicano i 4 modelli (magari future versioni AGP)?

Freisar
29-05-2008, 08:13
Hai l'esempio appena sopra su cosa sono.

:D

Dimetichi la fascia bassa.....

HackaB321
29-05-2008, 08:28
Hai l'esempio appena sopra su cosa sono.

:D

Dimetichi la fascia bassa.....

fascia bassa? strano che non la chiamino RV730 però:mbe:, le 3600 sono indicate a parte.
O sono versioni "minori" di RV770 (tipo la 3690 aka 3830 per RV670 vista però solo in Cina) o sono versioni AGP. Oppure sono davvero le due 48*0 con diversi quantitativi di mem

Freisar
29-05-2008, 09:09
Boh ma il chip non è sempre lo stesso castrato?

Va beh sarà quel che sarà....

Foglia Morta
29-05-2008, 09:19
infatti stavo leggendo proprio questo!!!!

ha sbagliato lui???

non so... però è la seconda volta che gli capita a jok3r , è un mistero :mbe:

<^MORFEO^>
29-05-2008, 09:32
ma se le ddr5 costano davvero così poco in più rispetto alla ddr3 per quale assurdo motivo nvidia non le userà?

Forse perche' non e' cosi' semplice riprogettare da capo il pcb per le sue schede video. E evidente che le varie gtx280 e 260 non sono altro che evoluzioni delle schede gia' presenti sul mercato. Quindi hanno seguito una strada del minimo sforzo massimo rendimento (almeno e' quello che si augurano). D'altra parte ATI e' meno conservativa di Nvidia e ovviamente questo si manifesta anche nella scelta di prediligere le GDDR5 sulle GDDR3.
A questo giro ATI ha fatto la scelta giusta, Nvidia no.

Ma poi, non mi pare che le DDR5 costassero meno delle DDR3... :stordita:
O sbaglio?

jok3r87
29-05-2008, 10:42
non so... però è la seconda volta che gli capita a jok3r , è un mistero :mbe:


http://img58.imageshack.us/img58/8945/alienkz6.jpg (http://img58.imageshack.us/img58/8945/alienkz6.jpg) :help: :lamer:

halduemilauno
29-05-2008, 11:11
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

gervi
29-05-2008, 11:23
Io quasi quasi al prossimo giro, passo all'azienda verde!

Che dite???

Sono tentato dalle verdi 280 GTX!

Oppure rimango alla rossa canadese??? :confused:

HackaB321
29-05-2008, 11:32
Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

Dovrebbero essere + o - realistiche considerando che

http://en.expreview.com/img/2008/04/30/vantage-extreme.png

bluefrog
29-05-2008, 11:40
Io quasi quasi al prossimo giro, passo all'azienda verde!

Che dite???

Sono tentato dalle verdi 280 GTX!

Oppure rimango alla rossa canadese??? :confused:

Ti consiglio perlomeno di attendere l'uscita di R700 per un confronto con la GTX 280. Per questo (R700) si parla di Agosto. Anch'io dovrò decidere tra le due per pensionare la mia HD 2900 XT, ma avendo una scheda CrossfireX pronta per l'assemblaggio del nuovo pc, punto decisamente più sulla rossa, sperando sia ai livelli della GTX 280. Se però per te è troppo tardi attendere fino ad Agosto vai sulla "verde", non te ne pentirai di sicuro...

mokaverus
29-05-2008, 11:42
Grazie:)
Il supporto è a 4 versioni in codice del chip (9440,9442,944E e 9446).
Secondo molti le 4 versioni sono due 4850 (da 1 Gb e da 512Mb di DDR3) e due versioni di 4870 (da 1 GB e 512Mb di DDR5). Lo strano è però che per altre architetture il supporto non prevede più modelli al cambiare del quantitativo di ram (es la 3870 è indicata una volta). Quindi cosa indicano i 4 modelli (magari future versioni AGP)?


secondo me il quarto è per una possibile 4830, un pò come per la 3830 che non si è mai vista.

The_SaN
29-05-2008, 12:24
infatti stavo leggendo proprio questo!!!!

ha sbagliato lui???

No...ho usato il tasto quote direttamente sul suo messaggio :confused:

Pat77
29-05-2008, 12:33
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

Sono quindi con 4x 16x, secondo me, come 3870, renderanno bene con fsaa 8x.

Capozz
29-05-2008, 12:46
These are of course in no way official and we can't say for certain where they come from.

Non ufficiali e fonte ignota, utili :asd:

@ndrey
29-05-2008, 13:11
http://www.nordichardware.com/news,7809.html

These are of course in no way official and we can't say for certain where they come from.


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

Ma hai capito cosa intende sta frase?? Prima di piazzare occhiolino!!
Mi faccio una giocata a lotto :asd:

@ndrey
29-05-2008, 13:12
Non ufficiali e fonte ignota, utili :asd:
Infatti lol

gutti
29-05-2008, 13:20
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

http://web.tiscali.it/maingutisite/Bench.GIF

grafico exel con i dati riportati dalla fonte di HAL.

Niente di ufficiale (ma fino al NDA di ufficiale mi sa che uscirà ben poco!)
però se fossero veri non mi sembrerebbe poi così male... anzi!
In più nella fonte è riportato che le prestazioni di ATI sono ottenute con driver acerbi (per cui con un margine di miglioramento) e certo mancano i prezzi, senza dei quali non si possono fare i "conti"...

Però, se i rumor che l'integrazione delle 2 GPU della 4870X2 sarà migliore che in 3850X2 facendo due conti nella fascia più alta...

okorop
29-05-2008, 13:24
grafico exel con i dati riportati dalla fonte di HAL.

Niente di ufficiale (ma fino al NDA di ufficiale mi sa che uscirà ben poco!)
però se fossero veri non mi sembrerebbe poi così male... anzi!
In più nella fonte è riportato che le prestazioni di ATI sono ottenute con driver acerbi (per cui con un margine di miglioramento) e certo mancano i prezzi, senza dei quali non si possono fare i "conti"...

Però, se i rumor che l'integrazione delle 2 GPU della 4870X2 sarà migliore che in 3850X2 facendo due conti nella fascia più alta...

su per giu quindi 2 4870 dovrebbero andare come la gtx260 da questi dati a quella risoluzione o sbaglio?

-noxius-
29-05-2008, 13:27
su per giu quindi 2 4870 dovrebbero andare come la gtx260 da questi dati a quella risoluzione o sbaglio?

No , > GTX 280 ma sono solo supposizioni .

Foglia Morta
29-05-2008, 13:27
su per giu quindi 2 4870 dovrebbero andare come la gtx260 da questi dati a quella risoluzione o sbaglio?

se la 4870 X2 nei confronti della 4870 ha la stessa scalabilità che ha la 3870 X2 nei confronti della 3870 allora deve essere un po superiore alla GTX 280

okorop
29-05-2008, 13:29
No , > GTX 280 ma sono solo supposizioni .

si si ho visto che sono supposizioni ma se 2 4870 costeranno meno di gtx280 la scelta per me obbligata è optare per ati semmai prendendone una in settembre-ottobre e un'altra a dicembre gennaio (penso che da quanto detto da nvidia il mercato delle gpu sta subendo una fase di stallo e quindi riesco a massimizzare il mio investimento) http://www.tomshw.it/news.php?newsid=14189

HackaB321
29-05-2008, 13:30
se la 4870 X2 nei confronti della 4870 ha la stessa scalabilità che ha la 3870 X2 nei confronti della 3870 allora deve essere un po superiore alla GTX 280

se scala come la 3870x2 (+84%), R700 farebbe 4800 punti e starebbe un 17% sopra la GTX 280. Ovviamente questi dati vanno presi con le pinze.

okorop
29-05-2008, 13:31
se scala come la 3870x2 (+84%), R700 farebbe 4800 punti e starebbe un 17% sopra la GTX 280. Ovviamente questi dati vanno presi con le pinze.

ma due 3870 in crossfire scalano di piu o meno della 3870x2?

gutti
29-05-2008, 13:41
su per giu quindi 2 4870 dovrebbero andare come la gtx260 da questi dati a quella risoluzione o sbaglio?

I dati di partenza non sono ufficiali e hanno la fonte è "marca pistola"... in più il fatto che dal bench le prestazioni delle TOP di nvidia sembrano un pò basse rispetto alle aspettative mi fa pensare a dati nobn propriamente attendibili...
però, se si applica alla 4870 lo stesso rapporto che si ha fra la 3870 e la 3870X2... :sofico:
http://web.tiscali.it/maingutisite/bench2.GIF

P.S.
Nell'altro thread non ho il coraggio di postarlo :ops:

@ndrey
29-05-2008, 13:44
:asd: Ma lol
Hai paura di qualcuno?!

http://www.pctunerup.com/up/results/_200805/20080529144328_richard_stallman_sign_ati.jpg

:rotfl:

gutti
29-05-2008, 13:50
:asd: Ma lol
Hai paura di qualcuno?!

[/img]...[/img]

:rotfl:

Ho paura degli squadroni della morte...

http://www.overclockers.ru/images/news/2003/01/29/blower_01.jpg

:rotfl:

Valdis
29-05-2008, 13:59
Da quelle indiscrezioni la differenza di prestazioni fra 4870 e 4850 è quello dei rumors...quindi circa un 30%, la cosa che non mi quadra è la minima differenza fra le due nvidia (gtx280/260) a conti fatti circa il 10% :confused:


ps: di la quel grafico con la 4870x2 non si può postare...il CF non scala nello stesso modo in quel t3d :Prrr:



bye

paolox86
29-05-2008, 14:04
Ma secondo voi quanto sono attendibili questi test?? Non siamo ancora un pò troppo lontani dalla data di uscita??

appleroof
29-05-2008, 14:10
Forse perche' non e' cosi' semplice riprogettare da capo il pcb per le sue schede video. E evidente che le varie gtx280 e 260 non sono altro che evoluzioni delle schede gia' presenti sul mercato. Quindi hanno seguito una strada del minimo sforzo massimo rendimento (almeno e' quello che si augurano). D'altra parte ATI e' meno conservativa di Nvidia e ovviamente questo si manifesta anche nella scelta di prediligere le GDDR5 sulle GDDR3.
A questo giro ATI ha fatto la scelta giusta, Nvidia no.

Ati ha scelto ora le gddr5 per questioni legate alla banda: era l'unico modo per averla abbondante rinunciando a quel mostro di complessità del ring bus 1024/512

è meno entusiasmante ma più aderente alla realtà ;)

Mister Tarpone
29-05-2008, 14:18
Ottime prestazioni per le 4800pro e xt ;)
e se sti test son veri effettivamente la 4870X2 starebbe sopra la GTX280, nel vantage :D

ma io voglio vedre i bench nei giochi però.. :asd:

inoltre non capisco come fa ad esserci ben 600pt di differenza tra 4850 e 4870... visto ch tra queste l'unica differenza sono le ddr5 ed il clock del core + tirato sulla seconda...ma poi per il resto sono identiche.

mentre tra gtx260 vs gtx 280 c'è giusto 300pt di differenza.. nonostante la 280 sia ben + pompata a livello di shader, bus, clock , tmu ecc.. rispetto la 260...
non mi torna mica tanto...

IMHO tra le 2 schede ci dovrebbe esssere una differenza maggiore di così :confused:

bohhh.. :confused:

goldorak
29-05-2008, 14:21
Ati ha scelto ora le gddr5 per questioni legate alla banda: era l'unico modo per averla abbondante rinunciando a quel mostro di complessità del ring bus 1024/512

è meno entusiasmante ma più aderente alla realtà ;)

Tutto vero, ma alla fine della fiera la scelta delle GDDR5 e' piu' lungimirante che quella di usare GDDR 3 con bus a 512 bit.
Vuoi per il costo, vuoi per la complessita' del pcb, vuoi per il fatto che le GDDR 5 consumano meno della GDDR 3, hanno sistemi di correzione degli errori integrata, riducono dinamicamente il consumo etc...
Le GDDR 3 sono tecnologia obsoleta, e sta sicuro che Nvidia correra' ai ripari per usare anche lei le GDDR 5 quanto prima. :p

gutti
29-05-2008, 14:22
Ati ha scelto ora le gddr5 per questioni legate alla banda: era l'unico modo per averla abbondante rinunciando a quel mostro di complessità del ring bus 1024/512

è meno entusiasmante ma più aderente alla realtà ;)

Direi che hai centrato il punto.
Oltre che mostro di complessità, direi anche di costo spropositato, almeno per una scheda che si presenta in una fascia di mercato che non è certo la enthusiast, dove gli utenti non badano troppo al prezzo.

goldorak
29-05-2008, 14:23
I dati di partenza non sono ufficiali e hanno la fonte è "marca pistola"... in più il fatto che dal bench le prestazioni delle TOP di nvidia sembrano un pò basse rispetto alle aspettative mi fa pensare a dati nobn propriamente attendibili...
però, se si applica alla 4870 lo stesso rapporto che si ha fra la 3870 e la 3870X2... :sofico:
http://web.tiscali.it/maingutisite/bench2.GIF

P.S.
Nell'altro thread non ho il coraggio di postarlo :ops:

Osa, tanto cosa puo' succederti ? :sofico:

HackaB321
29-05-2008, 14:26
Ottime prestazioni per le 4800pro e xt ;)
e se sti test son veri effettivamente la 4870X2 starebbe sopra la GTX280, nel vantage :D

ma io voglio vedre i bench nei giochi però.. :asd:

inoltre non capisco come fa ad esserci ben 600pt di differenza tra 4850 e 4870... visto ch tra queste l'unica differenza sono le ddr5 ed il clock del core + tirato sulla seconda...ma poi per il resto sono identiche.

mentre tra gtx260 vs gtx 280 c'è giusto 300pt di differenza.. nonostante la 280 sia ben + pompata a livello di shader, bus, clock , tmu ecc.. rispetto la 260...
non mi torna mica tanto...

IMHO tra le 2 schede ci dovrebbe esssere una differenza maggiore di così :confused:

bohhh.. :confused:

La differenza tra la 4870 e la 4850 ci sta tutta e dipende dalla banda che a quella risoluzione e con quelle impostazioni frena la 4850 (ci sono 50 Gb/s di differenza). La differenza tra le due GTX anche per me è un pò bassa, se i test sono veri potrebbe anche essere un problema di driver visto che sono architetture nuove.
Ovviamente nei giochi questi rapporti (ammesso che siano veri:D ) possono anche cambiare ma ricordo che il Vantage rispetto al 2006 è molto più vicino alle reali prestazioni delle schede.

Marko91
29-05-2008, 14:27
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)


Non male come risultato per Ati. La HD4870 sarebbe l'85% più veloce della 3870. Ricordiamoci che sono test effettuati a 1920x1200 con 4xAA e16AF, le schede Ati sono limitate dalle ROPS.
PS: In questo test emerge che tra GX2 e GTX280 c'è circa il 15% di differenza.

Mister Tarpone
29-05-2008, 14:29
anche cambiare ma ricordo che il Vantage rispetto al 2006 è molto più vicino alle reali prestazioni delle schede.

ma neanche questo in realtà ;)
parliamoci chiaro... per vedere le effettive performance bisogna vedere altre i bench nei giochi. ;)

Athlon 64 3000+
29-05-2008, 14:30
Ati ha scelto ora le gddr5 per questioni legate alla banda: era l'unico modo per averla abbondante rinunciando a quel mostro di complessità del ring bus 1024/512

è meno entusiasmante ma più aderente alla realtà ;)

Almeno nel breve-medio periodo saranno ottime per garantire banda sufficiente con il bus a 256 bit,ma non vorrei che tra qualche anno non dovranno tornare al ring bus 1024/512 bit

M4R1|<
29-05-2008, 14:35
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

hal forse avresti dovuto sottolineare il fatto che nn sono per niente affidabili ;)


se scala come la 3870x2 (+84%), R700 farebbe 4800 punti e starebbe un 17% sopra la GTX 280. Ovviamente questi dati vanno presi con le pinze.

va be se fossero veri si vedrebbe amd in testa alle performance, poi ovviamente bisogna vedere nei games ;)

I dati di partenza non sono ufficiali e hanno la fonte è "marca pistola"... in più il fatto che dal bench le prestazioni delle TOP di nvidia sembrano un pò basse rispetto alle aspettative mi fa pensare a dati nobn propriamente attendibili...
però, se si applica alla 4870 lo stesso rapporto che si ha fra la 3870 e la 3870X2... :sofico:
http://web.tiscali.it/maingutisite/bench2.GIF

P.S.
Nell'altro thread non ho il coraggio di postarlo :ops:

osa osa :asd:

Da quelle indiscrezioni la differenza di prestazioni fra 4870 e 4850 è quello dei rumors...quindi circa un 30%, la cosa che non mi quadra è la minima differenza fra le due nvidia (gtx280/260) a conti fatti circa il 10% :confused:


ps: di la quel grafico con la 4870x2 non si può postare...il CF non scala nello stesso modo in quel t3d :Prrr:



bye

però è un dato di fatto che i conti dicono questo :Prrr: :D

Ottime prestazioni per le 4800pro e xt ;)
e se sti test son veri effettivamente la 4870X2 starebbe sopra la GTX280, nel vantage :D

ma io voglio vedre i bench nei giochi però.. :asd:

inoltre non capisco come fa ad esserci ben 600pt di differenza tra 4850 e 4870... visto ch tra queste l'unica differenza sono le ddr5 ed il clock del core + tirato sulla seconda...ma poi per il resto sono identiche.

mentre tra gtx260 vs gtx 280 c'è giusto 300pt di differenza.. nonostante la 280 sia ben + pompata a livello di shader, bus, clock , tmu ecc.. rispetto la 260...
non mi torna mica tanto...

IMHO tra le 2 schede ci dovrebbe esssere una differenza maggiore di così :confused:

bohhh.. :confused:

mmh hai presente 6800gs e 6800gt??
lo scarto tra le due era bassissimo anche se la gt aveva un nv40 completo quindi con più vertex e pixel shader di nv40gs. allora perchè andava così? semplice per le maggiori frequenze della gs, quindi siccome mi pare che la gtx 260 abbia maggiori f della gtx280 ecco spiegato il tutto ;)


Osa, tanto cosa puo' succederti ? :sofico:

tipo freeman ti suggerisce qualcosa? :asd: :sofico: :sofico:

appleroof
29-05-2008, 14:37
Tutto vero, ma alla fine della fiera la scelta delle GDDR5 e' piu' lungimirante che quella di usare GDDR 3 con bus a 512 bit.
Vuoi per il costo, vuoi per la complessita' del pcb, vuoi per il fatto che le GDDR 5 consumano meno della GDDR 3, hanno sistemi di correzione degli errori integrata, riducono dinamicamente il consumo etc...
Le GDDR 3 sono tecnologia obsoleta, e sta sicuro che Nvidia correra' ai ripari per usare anche lei le GDDR 5 quanto prima. :p

come dico sempre, dipende con quali occhi guardi le cose.

Nvidia non deve correre ai ripari perchè non c'è nulla di rotto finora, (semmai, perdona se ovviamente finirò di ferire il tuo orgoglio, è esattamente il contrario :D ) infatti con il crossbar i 512bit sono più semplici (se hai bravi progettisti, perchè contribuiscono a dar vita ad un chippone che, come g80 all'inizio, è un gioiello di tecnologia [per inciso, ricordo come tanti sostenevano ridicolo ed impossibile piazzare quasi 700mln di transistor su un chip 90nm]) da implementare e non hai bisogno di riprogettare (costosamente) tutto il pcb, e poi ovviamente hai tonnellate di banda in abbinamento a grossi (ma ecnomici e testati) quantitativi di memoria gddr3 (semmai qualche problema da questo punto di vista si avrebbe con le fasce inferiori con meno bus, ma credo che verosimilmente per quando usciranno le versioni inferiori di gt200 ci sarà il refresh con gddr5).

con questo non voglio negare che le ddr5 siano il futuro e che apportino vantaggi sostanziosi rispetto alle ddr3, e mi auguro che si diffondano presto sicuramente; inoltre voglio riconoscere cmq un merito ad Ati per averle sperimentate per prima (così si rodano ben bene :Perfido: [qui giuro che scherzo :asd: ]) ma certo non per amor di scienza o perchè è meno conservativa, ma perchè le è convenuto così per i motivi detti

Direi che hai centrato il punto.
Oltre che mostro di complessità, direi anche di costo spropositato, almeno per una scheda che si presenta in una fascia di mercato che non è certo la enthusiast, dove gli utenti non badano troppo al prezzo.

esatto, magari lo riprenderanno in seguito, se servirà ;)

Almeno nel breve-medio periodo saranno ottime per garantire banda sufficiente con il bus a 256 bit,ma non vorrei che tra qualche anno non dovranno tornare al ring bus 1024/512 bit

come dicevo (ho letto questo tuo post dopo :p ) credo che per quando tornerà, è verosimile pensare che avranno superato le difficoltà di adesso, oppure ci sarà tutt'altra soluzione :D

Mister Tarpone
29-05-2008, 14:38
mmh hai presente 6800gs e 6800gt??
lo scarto tra le due era bassissimo anche se la gt aveva un nv40 completo quindi con più vertex e pixel shader di nv40gs. allora perchè andava così? semplice per le maggiori frequenze della gs, quindi siccome mi pare che la gtx 260 abbia maggiori f della gtx280 ecco spiegato il tutto ;)



dai non scherziamo su... ;)

quei punteggi non tornano.
poi la 260 non avrà frequenze + spinte della 280... e cmq la differenza tra queste 2 schede è più elevata rispetto a quella che c'è tra un 6800gs vs gt..

M4R1|<
29-05-2008, 14:38
il Vantage rispetto al 2006 è molto più vicino alle reali prestazioni delle schede.

si è vero, ma cmq ci possono essere situazioni un po' diverse nei giochi ;)

Non male come risultato per Ati. La HD4870 sarebbe l'85% più veloce della 3870. Ricordiamoci che sono test effettuati a 1920x1200 con 4xAA e16AF, le schede Ati sono limitate dalle ROPS.
PS: In questo test emerge che tra GX2 e GTX280 c'è circa il 15% di differenza.

si davvero niente male, oltre al fatto che c'è attivo AA (filto che in r600 & co. penalizza le performance mostruosamente)

M4R1|<
29-05-2008, 14:39
dai non scherziamo su... ;)

quei punteggi non tornano. poi la 260 non avrà frequenze + spinte della 280...

be queste sono mie considerazioni :D poi ovvio sinceramente mi fido solo dei bench di hw ;)

leoneazzurro
29-05-2008, 14:57
dai non scherziamo su... ;)

quei punteggi non tornano.
poi la 260 non avrà frequenze + spinte della 280... e cmq la differenza tra queste 2 schede è più elevata rispetto a quella che c'è tra un 6800gs vs gt..

CPU Limited? :asd:

halduemilauno
29-05-2008, 15:01
hal forse avresti dovuto sottolineare il fatto che nn sono per niente affidabili ;)




cosa essi sono o cosa essi non sono è chiaramente scritto. non devo sottolineare nulla. e in un thread aspettando...

A.L.M.
29-05-2008, 15:01
CPU Limited? :asd:

Che ne diresti invece di questa spiegazione (se fosse vera una differenza del genere tra le 2 schede)? :cool:

http://www.hwupgrade.it/forum/showpost.php?p=22669894&postcount=2666

Dopotutto tra GTX260 e GTX280 le differenze di capacità di texturing e banda non sono enormi... :)

leoneazzurro
29-05-2008, 15:09
Differenze tra GTX 280 e 260: Texturing 30%, banda 25%, shading 30%, differenza tra gli score 8%
G92 è limitato dalla banda passante, qui la differenza è notevole, quindi si tratta probabilmente della CPU che fa da collo di bottiglia o di un problema del test in sè.

appleroof
29-05-2008, 15:11
Molto improbabile, se non impossibile. Andando avanti la dimensione del die si ridurrà e questo renderà impossibili piedinature eccessivamente estese, Addirittura con il tempo si sarà costretti a ridurre il bus, se non si vorrà fare chip grossi come oggi ma a pp inferiori (e quindi a frequenze sempre più basse).

Più facile vedere un 128bit + GDDR7, secondo me ;)

infatti dicevo "...oppure ci sarà tutt'altra soluzione" :D

cmq molto probabilmente hai ragione, nel frattempo poi le gddr5 saranno sempre più affinate permettendo frequenze maggiori (e latenze minori)....

appleroof
29-05-2008, 15:13
Differenze tra GTX 280 e 260: Texturing 30%, banda 25%, shading 30%, differenza tra gli score 8%
G92 è limitato dalla banda passante, qui la differenza è notevole, quindi si tratta probabilmente della CPU che fa da collo di bottiglia o di un problema del test in sè.

ma in generale, le dx10 non promettevano di essere molto meno "cpu dipendenti" delle dx9?

Mister Tarpone
29-05-2008, 15:14
Differenze tra GTX 280 e 260: Texturing 30%, banda 25%, shading 30%, differenza tra gli score 8%
G92 è limitato dalla banda passante, qui la differenza è notevole, quindi si tratta probabilmente della CPU che fa da collo di bottiglia o di un problema del test in sè.

eh!!! ma infatti ;) !! ;) !!
Che ne diresti invece di questa spiegazione (se fosse vera una differenza del genere tra le 2 schede)? :cool:

http://www.hwupgrade.it/forum/showpost.php?p=22669894&postcount=2666

Dopotutto tra GTX260 e GTX280 le differenze di capacità di texturing e banda non sono enormi... :)

:tie: :)



ciaoooo!!! :ops:

okorop
29-05-2008, 15:15
notizia:http://www.digitimes.com/bits_chips/a20080529PD213.html
Having set a goal of a 30% share in the graphics DDR (GDDR) market, Qimonda is gearing up its pace to advance production process, with 58nm production slated to begin by 2009.

Ken Su, senior marketing manager of graphics department at Qimonda Taiwan, indicated that Qimonda is having half of its GDDR fabricated on 70nm, and that the company will move to 58nm production by 2009 in order to shrink costs further.

Allan Wee, vice president of Qimonda's Asia Pacific regional center, noted that the company aims to grab a 30% share in the GDDR market and that the company will dedicate more efforts to deploy into the high-end segment. In contrast to commodity DRAM that always demand higher memory densities, GDDR is about performance and Qimonda believes this is an area that it is strong at.

GDDR5 will be the focus of Qimonda GDDR in 2008, with most now shipping in 512Mb density. Volume production of 1Gb GDDR5 is slated for the second half of 2008, according to company executives.

Hynix Semiconductor, Samsung Electronics and Qimonda are the current three major high-end GDDR suppliers. Most of the chips produced are for use in high-end graphics cards and game consoles. In the game console segment, all three makers have secured orders from Sony, Nintendo and Microsoft, respectively.

-noxius-
29-05-2008, 15:18
GDDR5 will be the focus of Qimonda GDDR in 2008, with most now shipping in 512Mb density. Volume production of 1Gb GDDR5 is slated for the second half of 2008, according to company executives.


Quindi la 4870 potrebbe non essere ad 1gb, per adesso, a causa dell'impossibilità da parte dei fornitori di GDDR5 , di mantenere alti livelli di forniture .

leoneazzurro
29-05-2008, 15:19
ma in generale, le dx10 non promettevano di essere molto meno "cpu dipendenti" delle dx9?

No, di essere più veloci a parità di effetti grazie all'accesso più diretto all'hardware.

okorop
29-05-2008, 15:20
Quindi la 4870 potrebbe non essere ad 1gb, per adesso, a causa dell'impossibilità da parte dei fornitori di GDDR5 , di mantenere alti livelli di forniture .

è molto probabile che sia cosi comunque staremo a vedere

appleroof
29-05-2008, 15:25
No, di essere più veloci a parità di effetti grazie all'accesso più diretto all'hardware.

ma la riduzione dell'overhead, le minori chiamate ecc....intendi anche questo con la tua frase? io sapevo che (semplicisticamente) avrebbero dovuto sgravare il processore nonostante più effetti...sbaglio?

appleroof
29-05-2008, 15:26
Quindi la 4870 potrebbe non essere ad 1gb, per adesso, a causa dell'impossibilità da parte dei fornitori di GDDR5 , di mantenere alti livelli di forniture .

credo proprio di si, mi pare già prevista un 4870 1 giga per dopo l'estate (che per le risoluzioni alte faranno sempre più comodo)

gianni1879
29-05-2008, 15:29
dai non scherziamo su... ;)

quei punteggi non tornano.
poi la 260 non avrà frequenze + spinte della 280... e cmq la differenza tra queste 2 schede è più elevata rispetto a quella che c'è tra un 6800gs vs gt..

giustissimo anche a me è sembrato troppo poca come differenza per questo non guarderei nemmeno quei risultati che sono secondo me inventati pur basandosi sui rumors, ma niente di che

leoneazzurro
29-05-2008, 15:34
ma la riduzione dell'overhead, le minori chiamate ecc....intendi anche questo con la tua frase? io sapevo che (semplicisticamente) avrebbero dovuto sgravare il processore nonostante più effetti...sbaglio?

Riduzione dell'overhead non significa non essere dipendente dalla CPU. Significa fare meno lavoro per arrivare ad un certo risultato.

halduemilauno
29-05-2008, 15:36
giustissimo anche a me è sembrato troppo poca come differenza per questo non guarderei nemmeno quei risultati che sono secondo me inventati pur basandosi sui rumors, ma niente di che

ci può essere che tutto quel bendidio che ha in + gtx280 nei confronti della gtx260 sia inespresso. causa cpu limited. benchè il test sia stato fatto con i filtri attivi.

okorop
29-05-2008, 15:38
ci può essere che tutto quel bendidio che ha in + gtx280 nei confronti della gtx260 sia inespresso. causa cpu limited. benchè il test sia stato fatto con i filtri attivi.

si ma alle alte risoluzioni la cpu non conta molto nei giochi quindi non penso il divario cosi inifluente tra gtx260 e gtx280 sia dovuto dalla cpu, sempre pensando che abbiano utilizzato almeno un q6600 overcloccato o un dual core penryn a 4ghz

HackaB321
29-05-2008, 15:38
ci può essere che tutto quel bendidio che ha in + gtx280 nei confronti della gtx260 sia inespresso. causa cpu limited. benchè il test sia stato fatto con i filtri attivi.

o ottimizzazioni driver. Anche se quei test sono veri sono stati fatti con i driver attuali (che è già tanto se le riconoscono queste schede) e i 3dmark sono sempre stati molto sensibili a queste ottimizzazioni.

appleroof
29-05-2008, 15:39
Riduzione dell'overhead non significa non essere dipendente dalla CPU. Significa fare meno lavoro per arrivare ad un certo risultato.

e quindi essere in qualche modo molto meno dipendente del passato (dalla cpu)....:D proprio perchè l'overhead impatta sulla cpu e quindi ridurlo significa "essere più indipendenti" da essa...

o no? :stordita:

appleroof
29-05-2008, 15:41
o ottimizzazioni driver. Anche se quei test sono veri sono stati fatti con i driver attuali (che è già tanto se le riconoscono queste schede) e i 3dmark sono sempre stati molto sensibili a queste ottimizzazioni.

questo è vero, basta vedere il vantage e i driver rilasciati (non a caso) immediatamente alla sua uscita sia da nvidia che da ati (cmq non si tratta di incrementi formidabili...)

leoneazzurro
29-05-2008, 15:42
si ma alle alte risoluzioni la cpu non conta molto nei giochi quindi dire che sia cpu limited non penso che sia corretto

Quando la potenza della GPU sale, la risoluzione alla quali si è CPU limited sale.

o ottimizzazioni driver. Anche se quei test sono veri sono stati fatti con i driver attuali (che è già tanto se le riconoscono queste schede) e i 3dmark sono sempre stati molto sensibili a queste ottimizzazioni.

Anche.

leoneazzurro
29-05-2008, 15:46
e quindi essere in qualche modo molto meno dipendente del passato (dalla cpu)....:D proprio perchè l'overhead impatta sulla cpu e quindi ridurlo significa "essere più indipendenti" da essa...

o no? :stordita:

No, significa che sarai limitato dalla CPU "un pò più in là" di quanto saresti limitato con le DX9, a parità di effetti.

gianni1879
29-05-2008, 15:57
o ottimizzazioni driver. Anche se quei test sono veri sono stati fatti con i driver attuali (che è già tanto se le riconoscono queste schede) e i 3dmark sono sempre stati molto sensibili a queste ottimizzazioni.

certo anche però se non sono ottimizzati per la GT280 , alla stessa maniera non lo sono per la GT260 (forse ovviamente).

cmq manca poco ormai e vedremo realmente la verità

appleroof
29-05-2008, 16:31
certo anche però se non sono ottimizzati per la GT280 , alla stessa maniera non lo sono per la GT280 (forse ovviamente).

cmq manca poco ormai e vedremo realmente la verità

:D :D


No, significa che sarai limitato dalla CPU "un pò più in là" di quanto saresti limitato con le DX9, a parità di effetti.

ok adesso mi è più chiaro, grazie ;)

Milotto
29-05-2008, 19:44
Quando la potenza della GPU sale, la risoluzione alla quali si è CPU limited sale.



Concordo , ma stiamo parlando di 1900*1200 AA4X AF16X....:dubito che si tratti di una situazione in cui si è CPU-limited...ammenochè la CPU utilizzata sia tra le meno performanti..

Feidar
29-05-2008, 19:57
Ad esempio, col mio onesto 6400 x2, dite che sono CPU limited a 1600*1200?

leoneazzurro
29-05-2008, 19:57
Concordo , ma stiamo parlando di 1900*1200 AA4X AF16X....:dubito che si tratti di una situazione in cui si è CPU-limited...ammenochè la CPU utilizzata sia tra le meno performanti..

Magari sono le schede usate che sono tra le più performanti :)
O meglio, si sta parlando della sola GTX 280. Le altre schede sembrano limitate dal fill rate.

BieSseA
29-05-2008, 20:19
Quando la potenza della GPU sale, la risoluzione alla quale si è CPU limited sale.


Ma scusa chi dice questo? Io sapevo tutt'altro, sapevo che si è CPU limited alle basse risoluzioni, quando appunto serve la velocità della CPU piuttosto che della GPU, quindi se iniziamo a giocare sui 1650x1080 o anche più, la limitazione della CPU è sempre meno influente... vedi il mio X2 4800+ Toledo a 2,6 ghz che alle basse risoluzioni farebbe sentire la sua età mentre alle alte (vedi la mia default 1900x1200) sarebbe meno preso in causa....

gianni1879
29-05-2008, 20:23
:D :D


avevo messo un 8 di troppo :asd:

leoneazzurro
29-05-2008, 20:28
Ma scusa chi dice questo? Io sapevo tutt'altro, sapevo che si è CPU limited alle basse risoluzioni, quando appunto serve la velocità della CPU piuttosto che della GPU, quindi se iniziamo a giocare sui 1650x1080 o anche più, la limitazione della CPU è sempre meno influente... vedi il mio X2 4800+ Toledo a 2,6 ghz che alle basse risoluzioni farebbe sentire la sua età mentre alle alte (vedi la mia default 1900x1200) sarebbe meno preso in causa....

Si è CPU limited alle basse risoluzioni perchè la scheda video non funge da collo di bottiglia. Più si sale con le risoluzioni più il collo di bottiglia passa dalla CPU alla GPU, perchè la GPU deve processare molti più dati (es. circa 2,5 volte nel confronto 1600x1200 rispetto a 1024x768) mentre per la CPU il carico di lavoro sale meno esponenzialmente. Tuttavia, ciò non toglie che se la scheda video fosse estremamente potente, la risoluzione alla quale il collo di bottiglia passerebbe dalla CPU alla GPU salirebbe: se per ipotesi la scheda video fosse di potenza infinita, si sarebbe CPU limited a tutte le risoluzioni ;)
Quindi GTX280 potrebbe essere così potente da essere CPU limited anche a 1920x1200+AA, il che è notevole.

A.L.M.
29-05-2008, 20:57
Quindi GTX280 potrebbe essere così potente da essere CPU limited anche a 1920x1200+AA, il che è notevole.

Il che mi sembra anche estremamente unlikely... :D
Stiamo tra l'altro parlando di un benchmark molto pesante sugli shaders, con parecchi effetti, alla massima qualità, a 1920x1200, con AA4x poi... Mica Pong o PacMan.
Praticamente vorrebbe dire che con sta scheda si sarebbe sempre cpu limited tranne che a 2560x1600 AA8x o con Crysis? :sbonk:
Mi risulta un po' difficile crederlo. A quel punto è più facile che il test sia tarocco o siano i drivers a limitarla... ;)
A meno che non l'abbiano testato con un processore dell'anteguerra (il che è anch'esso abbastanza poco probabile, dato che chi di solito riesce a mettere le mani sull'hardware prima degli altri ha delle configurazioni di un certo tipo), la vedo mooolto difficile.

appleroof
29-05-2008, 21:04
Si è CPU limited alle basse risoluzioni perchè la scheda video non funge da collo di bottiglia. Più si sale con le risoluzioni più il collo di bottiglia passa dalla CPU alla GPU, perchè la GPU deve processare molti più dati (es. circa 2,5 volte nel confronto 1600x1200 rispetto a 1024x768) mentre per la CPU il carico di lavoro sale meno esponenzialmente. Tuttavia, ciò non toglie che se la scheda video fosse estremamente potente, la risoluzione alla quale il collo di bottiglia passerebbe dalla CPU alla GPU salirebbe: se per ipotesi la scheda video fosse di potenza infinita, si sarebbe CPU limited a tutte le risoluzioni ;)
Quindi GTX280 potrebbe essere così potente da essere CPU limited anche a 1920x1200+AA, il che è notevole.

notevole.....:eekk: :eekk:


perdonate il momento di piccola autocelebrazione: ho fatto proprio bene a prendere la cpu nuova mi sà :O :D

Milotto
29-05-2008, 21:11
Magari sono le schede usate che sono tra le più performanti :)
O meglio, si sta parlando della sola GTX 280. Le altre schede sembrano limitate dal fill rate.

Insisto , non credo che una GTX280 possa non essere fillrate-limited a 1900*1200 AA4X AF16X , mi sembra assurdo...inoltre come detto da A.L.M. in precedenza non parliamo di Quake3 et similia ma di un benchmark veramente notevole....

leoneazzurro
29-05-2008, 21:17
Il che mi sembra anche estremamente unlikely... :D
Stiamo tra l'altro parlando di un benchmark molto pesante sugli shaders, con parecchi effetti, alla massima qualità, a 1920x1200, con AA4x poi... Mica Pong o PacMan.
Praticamente vorrebbe dire che con sta scheda si sarebbe sempre cpu limited tranne che a 2560x1600 AA8x o con Crysis? :sbonk:
Mi risulta un po' difficile crederlo. A quel punto è più facile che il test sia tarocco o siano i drivers a limitarla... ;)
A meno che non l'abbiano testato con un processore dell'anteguerra (il che è anch'esso abbastanza poco probabile, dato che chi di solito riesce a mettere le mani sull'hardware prima degli altri ha delle configurazioni di un certo tipo), la vedo mooolto difficile.

Insisto , non credo che una GTX280 possa non essere fillrate-limited a 1900*1200 AA4X AF16X , mi sembra assurdo...inoltre come detto da A.L.M. in precedenza non parliamo di Quake3 et similia ma di un benchmark veramente notevole....

Allora, potrebbe anche essere benissimo che siano i drivers a limitare il risultato. Però non si capisce come mai non limitano anche la GTX 260. Potrebbe essere a questo punto l'applicazione.
Però, occhio che in molti casi a 1280x1024+AA con le schede attuali se non si è proprio CPU limited in alcuni scenari ci si va molto vicino. E 1920x1200+AA è 1.75 volte quella risoluzione. Quindi non scartiamo anche questa ipotesi, OK? :D

Errik89
29-05-2008, 21:23
è praticamente IMPOSSIBILE che sia la CPU-LIMITED in quel test a quella risoluzione QUALSIASI VGA immaginabile in questo momento. Nemmeno 4 G80 messi insieme sarebbero CPU-LIMITED in quella situazione.
Se è limitata da qualcosa IMHO è limitata dai driver, altrimenti va davvero solo il 10% in più della GTX260 o, cosa MOLTO PIÚ PROBABILE... il bench è un fake! :Prrr:

appleroof
29-05-2008, 21:26
è praticamente IMPOSSIBILE che sia la CPU-LIMITED in quel test a quella risoluzione QUALSIASI VGA immaginabile in questo momento. Nemmeno 4 G80 messi insieme sarebbero CPU-LIMITED in quella situazione.
Se è limitata da qualcosa IMHO è limitata dai driver, altrimenti va davvero solo il 10% in più della GTX260 o, cosa MOLTO PIÚ PROBABILE... il bench è un fake! :Prrr:

sarei portato senza dubbio anche io a dire così, pensare ad una vga cpu-limited a 1920x1200+AA sembra fantascienza, ma visto da dove proviene il parere (e non è lecchinaggio ad un mod :D, smettete subito di pensarlo :D :D solo che in genere leoneazzurro è molto preparato su questi argomenti) lo tengo molto in considerazione

A.L.M.
29-05-2008, 21:27
Allora, potrebbe anche essere benissimo che siano i drivers a limitare il risultato. Però non si capisce come mai non limitano anche la GTX 260. Potrebbe essere a questo punto l'applicazione.
Però, occhio che in molti casi a 1280x1024+AA con le schede attuali se non si è proprio CPU limited in alcuni scenari ci si va molto vicino. E 1920x1200+AA è 1.75 volte quella risoluzione. Quindi non scartiamo anche questa ipotesi, OK? :D

Ovviamente tutto può essere. :)
Però i casi che descrivi tu avvengono credo con giochi vecchi di qualche anno, non certo con un benchmark showcase delle DX10 di poche settimane fa... ;)

leoneazzurro
29-05-2008, 21:28
è praticamente IMPOSSIBILE che sia la CPU-LIMITED in quel test a quella risoluzione QUALSIASI VGA immaginabile in questo momento. Nemmeno 4 G80 messi insieme sarebbero CPU-LIMITED in quella situazione.
Se è limitata da qualcosa IMHO è limitata dai driver, altrimenti va davvero solo il 10% in più della GTX260 o, cosa MOLTO PIÚ PROBABILE... il bench è un fake! :Prrr:

Mai dire mai :Prrr:
Occhio, io non sto dicendo che è SICURAMENTE così, ma che potrebbe essere una delle ragioni possibili.

leoneazzurro
29-05-2008, 21:29
Ovviamente tutto può essere. :)
Però i casi che descrivi tu avvengono credo con giochi vecchi di qualche anno, non certo con un benchmark showcase delle DX10 di poche settimane fa... ;)

Sure? ;)

A.L.M.
29-05-2008, 21:38
Sure? ;)

Uhm, non saprei... Qualche esempio di gioco recente cpu limited a 1600x1200 con AA (lo chiedo perchè proprio lo ignoro)? :stordita:

Errik89
29-05-2008, 21:45
Mai dire mai :Prrr:
Occhio, io non sto dicendo che è SICURAMENTE così, ma che potrebbe essere una delle ragioni possibili.
si potrebbe essere... ma è molto più facile che quel grafico sia un fake piuttosto che GTX280 sia CPU-LIMITED in quel test! :D

appleroof
29-05-2008, 21:46
Uhm, non saprei... Qualche esempio di gioco recente cpu limited a 1600x1200 con AA (lo chiedo perchè proprio lo ignoro)? :stordita:

non ho assolutamente la pretesa della scientificità ma ti posso dire solo che in world in conflict, passando da un opteron 2,5giga ad un e2160 a 3,2 giga ho guadagnato, ovviamente a parità di vga di impostazioni e a 1920x1200 la bellezza di 8/10fps medi, come postai a suo tempo....

Errik89
29-05-2008, 21:53
non ho assolutamente la pretesa della scientificità ma ti posso dire solo che in world in conflict, passando da un opteron 2,5giga ad un e2160 a 3,2 giga ho guadagnato, ovviamente a parità di vga di impostazioni e a 1920x1200 la bellezza di 8/10fps medi, come postai a suo tempo....
azz... se GTX280 fosse davvero CPU-LIMITED in quel test penso che non c'è nessuna CPU in grado di non essere CPU-LIMITED con GTX280...
Considerate poi che il vantage dovrebbe usare tutti i core delle CPU...

appleroof
29-05-2008, 21:59
azz... se GTX280 fosse davvero CPU-LIMITED in quel test penso che non c'è nessuna CPU in grado di non essere CPU-LIMITED con GTX280...
Considerate poi che il vantage dovrebbe usare tutti i core delle CPU...

non lo so, la cosa sarebbe davvero impressionante non c'è dubbio

io riporto solo un esempio che come ho detto è solo tale e non pretende di dimostrare nulla: esempio opposto con crysis però come sappiamo la scheda crolla sui 20fps medi, a 1920x1200, non so se mi spiego....

leoneazzurro
29-05-2008, 22:09
si potrebbe essere... ma è molto più facile che quel grafico sia un fake piuttosto che GTX280 sia CPU-LIMITED in quel test! :D

I valori di GT2X0 sono stati confermati da CJ

Uhm, non saprei... Qualche esempio di gioco recente cpu limited a 1600x1200 con AA (lo chiedo perchè proprio lo ignoro)? :stordita:

Vedi sotto, poi come detto dipende dalla VGA. Chiaramente con una 8500 sei limitato dalla VGA anche a 800x600, con una 9800GX2 invece.. (Scaling dello SLI permettendo...)

non ho assolutamente la pretesa della scientificità ma ti posso dire solo che in world in conflict, passando da un opteron 2,5giga ad un e2160 a 3,2 giga ho guadagnato, ovviamente a parità di vga di impostazioni e a 1920x1200 la bellezza di 8/10fps medi, come postai a suo tempo....

Milotto
29-05-2008, 22:23
E se invece come sostiene A.L.M. l'aumento degli SP non implica un proporzionale aumento di performance..GTX280 potrebbe essere solo di un 10% superiore a GTX260....:mbe:
Il punto è che in un simile scenario non avrebbe senso l'acquisto dell'ammiraglia NVIDIA .....a discapito della "sorellina" GTX260...

Mister Tarpone
29-05-2008, 22:25
E se invece come sostiene A.L.M. l'aumento degli SP non implica un proporzionale aumento di performance..GTX280 potrebbe essere solo di un 10% superiore a GTX260....:mbe:
Il punto è che in un simile scenario non avrebbe senso l'acquisto dell'ammiraglia NVIDIA .....a discapito della "sorellina" GTX260...

dai mica sono idioti alla nvidia...che fanno 2 vga così diverse a livello hw per poi avere una differenza del 10% :sbonk: :sofico:

basta rifletterci un attimino per capire che non è possibile.. ;)

A.L.M.
29-05-2008, 22:30
E se invece come sostiene A.L.M. l'aumento degli SP non implica un proporzionale aumento di performance..GTX280 potrebbe essere solo di un 10% superiore a GTX260....:mbe:
Il punto è che in un simile scenario non avrebbe senso l'acquisto dell'ammiraglia NVIDIA .....a discapito della "sorellina" GTX260...

Così limitato però pare troppo pure a me... :stordita:
Diciamo che io non mi aspettavo più di un 20-25% in più.

dai mica sono idioti alla nvidia...che fanno 2 vga così diverse a livello hw per poi avere una differenza del 10% :sbonk: :sofico:

basta rifletterci un attimino per capire che non è possibile.. ;)

Beh, a livello gpu hanno la stessa gpu in realtà... :D
E non credo che pure a livello di pcb si debbano fare parecchi cambiamenti....
Da che è mondo è mondo anzi la produzione di versioni "castrate" costa quasi più che quella delle non "castrate" (se non fosse per la possibilità di usare anche chip che nel caso della top sarebbero da considerare fallati): il vantaggio che ne deriva è però allargare il mercato occupando un altro price point. ;)

A livello hw, mi corregga qualcuno se sbaglio, credo siano più diverse HD4850 e HD4870, visto che il pcb è completamente riprogettato.

Milotto
29-05-2008, 22:34
dai mica sono idioti alla nvidia...che fanno 2 vga così diverse a livello hw per poi avere una differenza del 10% :sbonk: :sofico:

basta rifletterci un attimino per capire che non è possibile.. ;)

Infatti quando dico che l'acquisto di una GTX280 , nello scenario ipotizzato, non avrebbe senso sto dicendo che quell'ipotetico 10% in più non mi convince: sarebbe una idiozia bella e buona proporre una VGA di questo tipo .
In ogni cosa continuo a sostenere l'assurdità del fatto che una VGA a 1900*1200 AA4x e AF16X possa essere CPU-limited con un bench che sfrutta le CPU QuadCore...

Mister Tarpone
29-05-2008, 22:41
Infatti quando dico che l'acquisto di una GTX280 , nello scenario ipotizzato, non avrebbe senso sto dicendo che quell'ipotetico 10% in più non mi convince: sarebbe una idiozia bella e buona proporre una VGA di questo tipo .


ok ;)





Beh, a livello gpu hanno la stessa gpu in realtà... :D
cut
.


dai hai capito quello che volevo dire... bus, rops, pcb e tutte quelle seghe li... :asd:

c'è più differenza tra la 260 vs 280 che tra la 4850 vs 4870... ;)
mi sembra evidente.

gtx280 e 260 mi ricordan tanto le 8800gts e gtx g80...
__
;)

Errik89
29-05-2008, 22:43
dai hai capito quello che volevo dire... bus, rops, pcb e tutte quelle seghe li... :asd:

c'è più differenza tra la 260 vs 280 che tra la 4850 vs 4870... ;)
mi sembra evidente.

gtx280 e 280 mi ricordan tanto le 8800gts e gtx g80...
__
;)
:rotfl: a forza di scrivere sigle alla fine ci si inceppa!! :D

Defragg
29-05-2008, 22:45
Il che mi sembra anche estremamente unlikely... :D
Stiamo tra l'altro parlando di un benchmark molto pesante sugli shaders, con parecchi effetti, alla massima qualità, a 1920x1200, con AA4x poi... Mica Pong o PacMan.
Praticamente vorrebbe dire che con sta scheda si sarebbe sempre cpu limited tranne che a 2560x1600 AA8x o con Crysis? :sbonk:
Mi risulta un po' difficile crederlo. A quel punto è più facile che il test sia tarocco o siano i drivers a limitarla... ;)
A meno che non l'abbiano testato con un processore dell'anteguerra (il che è anch'esso abbastanza poco probabile, dato che chi di solito riesce a mettere le mani sull'hardware prima degli altri ha delle configurazioni di un certo tipo), la vedo mooolto difficile.

Sono d'accordo, a mio avviso o i test lasciano il tempo che trovano oppure c'è qualche problema driver.

A.L.M.
29-05-2008, 22:48
dai hai capito quello che volevo dire... bus, rops, pcb e tutte quelle seghe li... :asd:

c'è più differenza tra la 260 vs 280 che tra la 4850 vs 4870... ;)
mi sembra evidente.

gtx280 e 280 mi ricordan tanto le 8800gts e gtx g80...
__
;)

Certo che ho capito. ;)
Quello che invece volevo dire io è che a livello di investimenti è costato più differenziare RV770Pro da RV770XT che GTX260 da GTX280. E che quindi per una società potrebbe paradossalmente avere senso anche avere schede molto vicine tra di loro, in price point abbastanza differenti. Ergo, evidenziavo che se NVidia (così come ATI, del resto), fa i chip cd. "castrati" non lo fa per noi, per avere performance molto diverse, ecc... bensì per giustificare la sua presenza (con di fatto la stessa scheda) in più price points, cosa che non fa altro che allargare il suo mercato potenziale (e volendo addentrarsi ulteriormente nella teoria economica, creare anche delle ulteriori barriere ai potenziali entranti... :sofico: ).

Detto questo, il 10% sembra poco pure a me, lo ripeto. :)

P.S. tra l'altro aggiungo anche: ma il 3DMark Vantage non era poco dipendente dalla cpu? Quindi testandolo con una cpu recente ma non potentissima o con una fighissima non cambiava molto a livello di punteggio finale, soprattutto in Extreme? :stordita:

Mister Tarpone
29-05-2008, 22:49
:rotfl: a forza di scrivere sigle alla fine ci si inceppa!! :D

che te ridi ?? :D guarda meglio il messaggio che hai quotato.. l'ho corretto subito :asd: :tie:

:D

Mister Tarpone
29-05-2008, 22:54
cut
Detto questo, il 10% sembra poco pure a me, lo ripeto. :)
;)

io la butto li... e dico il 30%... in alcuni casi forse pure un 35% +...

poi vedremo.. :fagiano: :stordita:

Milotto
29-05-2008, 23:46
Il senso è lo stesso della 8800U rispetto alla 8800GTX. Non darei per scontato che un incremento anche così piccolo con price premium direi cospicuo non abbia una sua nicchia...

Se le prestazioni di cui discutiamo dovessero rivelarsi veritiere non avrei difficoltà a pensarla come te...del resto il paragone di cui ti servi è corretto ... ;)

Mister Tarpone
29-05-2008, 23:52
Se le prestazioni di cui discutiamo dovessero rivelarsi veritiere non avrei difficoltà a pensarla come te...del resto il paragone di cui ti servi è corretto ... ;)

si cmq il 10% di differenza tra Ultra e GTX ci sta tutto.. visto che sono uguali ..solo che la prima ha frequenze + pompate.. ;)

halduemilauno
30-05-2008, 06:49
http://forums.vr-zone.com/showthread.php?t=282289
anche la 4870x2 sarà lunga 27cm.
;)

Valdis
30-05-2008, 07:25
S'immaginava facilmente visto che rispetto al dissi della 3870x2 ha solo le heatpipes in più...visto pure il processo produttivo penso che condivideranno anche lo stesso pcb (e spero non il chip plx per il bridge :( ).

bye

Mercuri0
30-05-2008, 08:24
Differenze tra GTX 280 e 260: Texturing 30%, banda 25%, shading 30%, differenza tra gli score 8%
G92 è limitato dalla banda passante, qui la differenza è notevole, quindi si tratta probabilmente della CPU che fa da collo di bottiglia o di un problema del test in sè.
Se il vantage fosse cpu-limited sarebbe un test da buttare.

Di solito un gioco diventa CPU-limited quando fa alti FPS vero?
In queste circostanze l'essere CPU-limited nei giochi è una cosa che interessa solo i barrettari.

Se invece per qualche motivo si è limitati dalla CPU con bassi FPS, il PC è semplicemente una piattaforma da buttare per i videogiochi.

Io mi aspetterei che i giochi futuri siano tutti shader-limited. Non che è la banda verso la memoria del GT200 non può essere usata efficientemente dagli SP come dalle ROP?

<^MORFEO^>
30-05-2008, 09:06
http://www.tomshw.it/news.php?newsid=14203

Sembra che nVidia corra ai ripari (chiamati 55nm) visto il basso rendimento in fatto di guadagni dei suoi chip già ad inizio autunno...
Allora non sono l'unico a pensare che abbia fatto un grosso errore a fare un mega chippone a 65nm :asd: Lo dice anche TheInquirer!
Strano è che secondo Tom i chip a 55nm costeranno 100 dollari... Non è un pò poca come riduzione di prezzo rispetto ai 110 dollari di quelli a 65nm? :confused:

Per carità, sarà anche una GPU estremamente performante, ma è proprio per questo motivo che va affiancata alle ultime tecnologie fin da subito... Vedi i 55nm e le DDR5!
Cosa che invece nella sua posizione di svantaggio riesce molto bene ad ATI...
Nonostante i suoi chip non saranno un mostro di potenza, se affiancati ai 55nm e alle DDR5, questi fattori danno poi un bel valore aggiunto alla scheda stessa secondo me... :rolleyes:

Milotto
30-05-2008, 09:28
E' molyo interessnate anche il link alla news fonte di Tom's HW...:

http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes

gianni1879
30-05-2008, 09:29
http://www.tomshw.it/news.php?newsid=14203

Sembra che nVidia corra ai ripari (chiamati 55nm) visto il basso rendimento in fatto di guadagni dei suoi chip già ad inizio autunno...
Allora non sono l'unico a pensare che abbia fatto un grosso errore a fare un mega chippone a 65nm :asd: Lo dice anche TheInquirer!
Strano è che secondo Tom i chip a 55nm costeranno 100 dollari... Non è un pò poca come riduzione di prezzo rispetto ai 110 dollari di quelli a 65nm? :confused:

Per carità, sarà anche una GPU estremamente performante, ma è proprio per questo motivo che va affiancata alle ultime tecnologie fin da subito... Vedi i 55nm e le DDR5!
Cosa che invece nella sua posizione di svantaggio riesce molto bene ad ATI...
Nonostante i suoi chip non saranno un mostro di potenza, se affiancati ai 55nm e alle DDR5, questi fattori danno poi un bel valore aggiunto alla scheda stessa secondo me... :rolleyes:
pienamente daccordo con te ;)

Stabile
30-05-2008, 09:35
secondo me siete troppo entusiasti...
ci tengo a precisare che non ho mai avuto schede nvidia in vita mia (forse solo una volta)
per cui vi parlo da un ATI convinto...anzi EX convinto...
io credo che il gap cosi' grande che si è riscontrato in questi anni non si possa colmare improvvisamente con un modello...
prima di poter parlare di AMD che supera Nvidia dovremmo a mio avviso aspettare altre due generazioni...
anche perchè io sono convintissimo che le prestazioni della 4870 non si discosteranno da quelle delle 8800gts 512 o 9800gtx

gianni1879
30-05-2008, 09:42
secondo me siete troppo entusiasti...
ci tengo a precisare che non ho mai avuto schede nvidia in vita mia (forse solo una volta)
per cui vi parlo da un ATI convinto...anzi EX convinto...
io credo che il gap cosi' grande che si è riscontrato in questi anni non si possa colmare improvvisamente con un modello...
prima di poter parlare di AMD che supera Nvidia dovremmo a mio avviso aspettare altre due generazioni...
anche perchè io sono convintissimo che le prestazioni della 4870 non si discosteranno da quelle delle 8800gts 512 o 9800gtx

nessuno ha detto il contrario il primato di vga più veloce sarà di Nvidia per ancora un pò, anche con un mega chippone, magari Amd raggiungerà le sue prestazioni con R700 (due piccoli rv770), però e pur vero che Amd sta lavorando bene e che sta applicando tecnologie all'avanguardia, nonostante la sua situazione finanziaria non bellissima.

Stabile
30-05-2008, 09:48
io pero' vorrei dire una cosa
chi mi risarcisce del danno che mi ha procurato la hd 2900xt???
mi verrebbe voglia di fargli causa!!!:muro:

halduemilauno
30-05-2008, 09:50
io pero' vorrei dire una cosa
chi mi risarcisce del danno che mi ha procurato la hd 2900xt???
mi verrebbe voglia di fargli causa!!!:muro:

cmq bastava non comprarla. sin dall'inizio si era rivelata un flop. e con essa tutta la serie 2000. le rece son state chiare sin dall'inizio.

gianni1879
30-05-2008, 09:56
io pero' vorrei dire una cosa
chi mi risarcisce del danno che mi ha procurato la hd 2900xt???
mi verrebbe voglia di fargli causa!!!:muro:

ti è esplosa e ti ha distrutto la casa??

Foglia Morta
30-05-2008, 10:01
Io sono convinto che la 4870 sarà sensibilmente superiore alla 9800GTX. Il mio dubbio è solo come si posizionerà rispetto a 260GTX e 280GTX, specificamente se riuscirà o meno a pareggiare con la prima o ad avvicinarvisi molto...

non penso... tra quelle gpu c'è un grosso divario del die e quindi dei limiti fisici. Anche se fosse a 55nm GT200 sarebbe enorme e anche se un 20% del die fosse disattivato avrebbe ugualmente una superficie utile molto più ampia di 256mm2.

Le performance per mm2 imho è un criterio importante.

Costi troppo diversi :)

HackaB321
30-05-2008, 10:06
io pero' vorrei dire una cosa
chi mi risarcisce del danno che mi ha procurato la hd 2900xt???
mi verrebbe voglia di fargli causa!!!:muro:

E la causa della causa quale sarebbe? Se uno non si informa colpa sua. Se si informa, si tratta di scelta responsabile e consapevole.

Io sono convinto che la 4870 sarà sensibilmente superiore alla 9800GTX. Il mio dubbio è solo come si posizionerà rispetto a 260GTX e 280GTX, specificamente se riuscirà o meno a pareggiare con la prima o ad avvicinarvisi molto...

Per me come perf assolute sarà sopra alla 9800 ma sotto sia alla GX2 sia alla 260. Le specifiche mi sembrano troppo sbilanciate numericamente verso Nvidia a meno di "miracoli tecnici" che nella storia di ATi ci sono comunque stati (ma non certo di recente). Sarà però credo superiore nettamente a entrambe come performance/watt.

Stabile
30-05-2008, 10:12
ti è esplosa e ti ha distrutto la casa??

solo di bolletta enel non so' quanto ho speso...e il mio pc era una fornace!!!:D

Bhairava
30-05-2008, 10:12
io pero' vorrei dire una cosa
chi mi risarcisce del danno che mi ha procurato la hd 2900xt???
mi verrebbe voglia di fargli causa!!!:muro:

Questa è bella.......:rotfl:

leoneazzurro
30-05-2008, 10:17
Se il vantage fosse cpu-limited sarebbe un test da buttare.

Di solito un gioco diventa CPU-limited quando fa alti FPS vero?
In queste circostanze l'essere CPU-limited nei giochi è una cosa che interessa solo i barrettari.

Se invece per qualche motivo si è limitati dalla CPU con bassi FPS, il PC è semplicemente una piattaforma da buttare per i videogiochi.

Io mi aspetterei che i giochi futuri siano tutti shader-limited. Non che è la banda verso la memoria del GT200 non può essere usata efficientemente dagli SP come dalle ROP?

Beh, CPU limited non significa alti FPS. Dipende da quello che fa la CPU e da quello che fa la GPU. Se la CPU deve elaborare una quantità estrema di vertici prima di passarli alla GPU per il rendering, si può essere CPU limited anche a 30 FPS. Per questo si studiano soluzioni come fisica e tessellazione. Ma forse non ci siamo capiti, il discorso è che si cercavano spiegazioni del perchè -con una data configurazione- il 3DMarkVantage desse 4100 punti con una GTX260 e 3800 con una GTX260, al che ho supposto che le ragioni potevano essere un limite dato dalla CPU oppure problemi con il test stesso (driver o applicazione). Quindi non ho detto che può essere soltanto la CPU la causa.

Milotto
30-05-2008, 10:38
solo di bolletta enel non so' quanto ho speso...e il mio pc era una fornace!!!:D

Con la prossima GTX280 hai trovato la VGA giusta per sostituirla... :) :D

halduemilauno
30-05-2008, 10:42
Io sono convinto che la 4870 sarà sensibilmente superiore alla 9800GTX. Il mio dubbio è solo come si posizionerà rispetto a 260GTX e 280GTX, specificamente se riuscirà o meno a pareggiare con la prima o ad avvicinarvisi molto...

dal test/rumors visto ieri si vede un quasi -50% rispetto alla gtx260. quindi credo che sia decisamente incolmabile.

gianni1879
30-05-2008, 10:50
dal test/rumors visto ieri si vede un quasi -50% rispetto alla gtx260. quindi credo che sia decisamente incolmabile.

io non mi fiderei su quelli cmq... li state prendendo come oro colato.

anche se certamente la differenza sarà enorme

<^MORFEO^>
30-05-2008, 10:52
io non mi fiderei su quelli cmq... li state prendendo come oro colato.

anche se certamente la differenza sarà enorme

Anche la differenza di prezzo sarà enorme mi sa :asd:

gianni1879
30-05-2008, 10:53
Anche la differenza di prezzo sarà enorme mi sa :asd:

e non solo quella ;)


Enel ringrazia

Milotto
30-05-2008, 10:55
dal test/rumors visto ieri si vede un quasi -50% rispetto alla gtx260. quindi credo che sia decisamente incolmabile.

Se fosse come dice la solo GTX260 sarebbe più performante di G80 del 80/90%...quindi siccome il best case scenario prevede GT200 migliorare le prestazioni di g80 del 100% la GTX280 sarebbe quasi pari (al max 10-15% in più) alla GTX260.....
Queste speculazioni numeriche non hanno alcun valore...

halduemilauno
30-05-2008, 10:56
io non mi fiderei su quelli cmq... li state prendendo come oro colato.

anche se certamente la differenza sarà enorme

ok ma cmq della differenza si stava parlando. per te enorme.

gutti
30-05-2008, 11:05
io non mi fiderei su quelli cmq... li state prendendo come oro colato.

anche se certamente la differenza sarà enorme

Spero proprio per NVidia che sia enorme, anche perchè altrimenti sarebbe una super cappella (di NVidia), dopotutto una (ATI4870) è fascia media, l'altra enthusiat (GTX260)...

gianni1879
30-05-2008, 11:06
ok ma cmq della differenza si stava parlando. per te enorme.

beh sulla carta rispetto a g80 siamo quasi al raddoppio, e facile pensare che forse solo un r700, e nemmeno al 100%, possa eguagliare le sue prestazioni.
Se guardiamo le sole prestazioni dei singoli chip grafici ci sarà più differenza adesso tra rv770 e gtx280, piuttosto che con r600 e g80.

solo che adesso amd può permettersi di fare un doppio chip rv770 che potrebbe infastidire gtx200, nvidia al momento sarà ferma lì.

halduemilauno
30-05-2008, 11:08
beh sulla carta rispetto a g80 siamo quasi al raddoppio, e facile pensare che forse solo un r700, e nemmeno al 100%, possa eguagliare le sue prestazioni.
Se guardiamo le sole prestazioni dei singoli chip grafici ci sarà più differenza adesso tra rv770 e gtx280, piuttosto che con r600 e g80.

solo che adesso amd può permettersi di fare un doppio chip rv770 che potrebbe infastidire gtx200, nvidia al momento saeà ferma lì.

quoto.

Immortal
30-05-2008, 11:37
Spero proprio per NVidia che sia enorme, anche perchè altrimenti sarebbe una super cappella (di NVidia), dopotutto una (ATI4870) è fascia media, l'altra enthusiat (GTX260)...

alla faccia del ca*** :sofico: ...scusate l'espressione... ma se va + della 3870x2 non è niente male come fascia "media"..io la considererei medio-alta..cioè..nel passato una fascia media che dava le pappe alla precedente top di gamma non la ricordo.. (ma magari ho una memoria troppo corta io :P)

paolox86
30-05-2008, 11:50
La differenza di PRESTAZIONI tra la 4870 e la gtx260 ci sarà eccome in favore della seconda, possibile anche che raggiunga vette del 50% a seconda dei giochi, ma d'altronde sappiamo che Amd in questo momento per quanto riguarda i single chip è competitiva per la fascia media/medio-alta. I punti di forza sono i consumi e i costi aggressivi.

Milotto
30-05-2008, 11:53
Ritengo più plausibile una differenza che oscilli tra il 20 e il 30% .....

goldorak
30-05-2008, 11:54
La differenza di PRESTAZIONI tra la 4870 e la gtx260 ci sarà eccome in favore della seconda, possibile anche che raggiunga vette del 50% a seconda dei giochi, ma d'altronde sappiamo che Amd in questo momento per quanto riguarda i single chip è competitiva per la fascia media/medio-alta. I punti di forza sono i consumi e i costi aggressivi.

Ma cos'e' questa, la previsione giornaliera di Nostradamus ? :stordita:

Stabile
30-05-2008, 11:54
quindi raga sapete che vi dico dopo tanti anni di ATI adesso mi prendo una bella GTS G92 e fancxxxx tutti:p

<^MORFEO^>
30-05-2008, 11:58
quindi raga sapete che vi dico dopo tanti anni di ATI adesso mi prendo una bella GTS G92 e fancxxxx tutti:p

Ottima scelta di questi tempi! :O





:asd:

M4R1|<
30-05-2008, 12:07
Si è CPU limited alle basse risoluzioni perchè la scheda video non funge da collo di bottiglia. Più si sale con le risoluzioni più il collo di bottiglia passa dalla CPU alla GPU, perchè la GPU deve processare molti più dati (es. circa 2,5 volte nel confronto 1600x1200 rispetto a 1024x768) mentre per la CPU il carico di lavoro sale meno esponenzialmente. Tuttavia, ciò non toglie che se la scheda video fosse estremamente potente, la risoluzione alla quale il collo di bottiglia passerebbe dalla CPU alla GPU salirebbe: se per ipotesi la scheda video fosse di potenza infinita, si sarebbe CPU limited a tutte le risoluzioni ;)
Quindi GTX280 potrebbe essere così potente da essere CPU limited anche
a 1920x1200+AA, il che è notevole.

:eek:

concordo cmq con i tuoi ultimi messaggi, ci devono essere dei problemi a livello software, cmq escluderei il vantage, perchè a parte tutto quelli della futuremark hanno fatto un bench che sfrutta bene tutti i core che si hanno ;)

http://www.tomshw.it/news.php?newsid=14203

Sembra che nVidia corra ai ripari (chiamati 55nm) visto il basso rendimento in fatto di guadagni dei suoi chip già ad inizio autunno...
Allora non sono l'unico a pensare che abbia fatto un grosso errore a fare un mega chippone a 65nm :asd: Lo dice anche TheInquirer!
Strano è che secondo Tom i chip a 55nm costeranno 100 dollari... Non è un pò poca come riduzione di prezzo rispetto ai 110 dollari di quelli a 65nm? :confused:

Per carità, sarà anche una GPU estremamente performante, ma è proprio per questo motivo che va affiancata alle ultime tecnologie fin da subito... Vedi i 55nm e le DDR5!
Cosa che invece nella sua posizione di svantaggio riesce molto bene ad ATI...
Nonostante i suoi chip non saranno un mostro di potenza, se affiancati ai 55nm e alle DDR5, questi fattori danno poi un bel valore aggiunto alla scheda stessa secondo me... :rolleyes:

vero ;) però se un bus a 512 bit nn ci sta sui 55nm nvidia dovrebbe rivedere alcune cose della gpu, quindi imho nn vedremo molto presto un gt200 a 55nm ;)

io pero' vorrei dire una cosa
chi mi risarcisce del danno che mi ha procurato la hd 2900xt???
mi verrebbe voglia di fargli causa!!!:muro:

nn vorrei sembrare stronzo ma hai fatto tu quella scelta quindi ne condividi pregi e difetti :rolleyes: :D

@ Stabile: Bravo :O