PDA

View Full Version : GeForce 7800 GTX a 512 Mbytes in arrivo


Redazione di Hardware Upg
27-10-2005, 08:46
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15674.html

NVIDIA prepara la risposta alle soluzioni Radeon X1800XT di ATI: una scheda 7800 GTX con 512 Mbytes di memoria video e presumibilmente frequenze incrementate

Click sul link per visualizzare la notizia.

Ema82
27-10-2005, 08:55
Scusate e cosa cambia aumentare il quantitativo di memoria? La X1800XT si è mostrata superiore nell'efficienza dell'architettura,cosa sperano di fare portando la scheda a 512 ??? Boh...

sslazio
27-10-2005, 09:00
sopperire al gap di prestazioni.
comunque sulla storia dell'efficenza sono daccordo in parte, del resto non si può dire che la X1800 sia più efficente quando monta ben 256 mb di memoria in più per altro a ben 300mhz in più.
Inoltre è vero che la scheda ATI ha "solo" 16 pippe attive, ma è vero anche che lavoro a 200mhz in più di quella Nvidia pertanto è come dire che nvidia ha un motore da 3000cc 8c che arriva a 8000rpm mentre ATI ha un 1600cc 4c ma Biturbo che arriva a 10000rpm.
Sono scelte progettuali diverse con vantaggi da un lato e svantaggi dall'altro per entrambe.

DjLode
27-10-2005, 09:05
I 512mb sono anche una soglia psicologica. Ati propone il top di gamma con quel quantitativo di ram, Nvidia deve fare lo stesso.

Sull'efficienza è stato detto tutto, frequenze e ram c'entrano ben poco.

avvelenato
27-10-2005, 09:16
mi ricordo quando la gente diceva che 128mb erano superflui e 64mb erano già sovrabbondanti... :)

Tefnut
27-10-2005, 09:23
bhe ora come ora 512 sono superflui :)

Apple80
27-10-2005, 09:27
Scusate e cosa cambia aumentare il quantitativo di memoria? La X1800XT si è mostrata superiore nell'efficienza dell'architettura,cosa sperano di fare portando la scheda a 512 ??? Boh...

non cambia nulla, mase mettessero ram più veloci da 1,2ns a 1500mhz le prestazioni si alzano. non sarà di molto ma un buon 10-15% di sicuro.se poi alzano anche le frequenze della gpu allora sono 15% sicuri.
In teoria quanto basta per raggiungere a pelo la 1800XT.

PS- 512 mb di ram video vengono sfruttati da quake4 doom3 (ad ultra qualità richiede 500Mb di ram video per le texture) ,forse anche fear e battlefield 2.

guglielmit
27-10-2005, 09:29
Scusate e cosa cambia aumentare il quantitativo di memoria? La X1800XT si è mostrata superiore nell'efficienza dell'architettura,cosa sperano di fare portando la scheda a 512 ??? Boh...


Ecco che i fan boy si buttano in picchiata :D :D :D
Non si sa' ancora praticamente nulla che gia' e' data per "flop" :eek:
Io mi continuo a chiedere ogni volta che leggo questi interventi...se nvidia o ati...o Amd o Intel vi passa qualche parcella o e' tutto amor proprio!!
Mi sembra come in politica..prima dei contenuti la bandiera! :rolleyes:

Apple80
27-10-2005, 09:36
Ecco che i fan boy si buttano in picchiata :D :D :D
Non si sa' ancora praticamente nulla che gia' e' data per "flop" :eek:
Io mi continuo a chiedere ogni volta che leggo questi interventi...se nvidia o ati...o Amd o Intel vi passa qualche parcella o e' tutto amor proprio!!
Mi sembra come in politica..prima dei contenuti la bandiera! :rolleyes:

:asd: si in effetti l'ha detto in un modo come se Bush dicesse all'afganistan "Che cosa pensate di fare.è inutile che reagiate. Noi abbiamo le bombe atomiche ,i gas nervini !! "

No vabbe, ho fatto per sdrammatizzare. :)

Kanon
27-10-2005, 09:38
Secondo voi (chiedo a qualcuno magari più ferrato) sarà possibile utilizzare la velocissima ram della scheda video, grazie anche al PCI-ex per il sistema? Le GDI sgauzzano in 16mb, il resto potrebbe essere adibito a ramdrive per la swap :) Del resto ho visto che le varie soluzioni di ramdrive sono su PCI-ex... boh magari dico una stronzata :D

Graphicmaniac
27-10-2005, 10:03
vedrete se i 512mb non contano nulla ..

la xt si mangia la xl ben + dellla differenza % delle frequenze di gpu e ram

Q4, FEAR, BF2, EQ2 e tutti i giochi che useranno l'unreal engine 3, senza dimenticare quelli che useranno HDR beneficeranno senz'altro dei 512MB

poi se serviranno ad Oblivion allora credo la compreranno in molti :D

Ema82
27-10-2005, 10:05
Ma mi spiegate cos'ho detto di cosi strano? Ho solo chiesto cosa poteva cambiare portando la scheda a 512,tutto li perchè non penso cambi molto.Se invece mi avessere detto che aumentavano le frequenze di un 20-30% allora neanche facevo la domanda...Se poi dovete vederci sempre qualcosa sotto è un problema vostro.Dare una spiegazione tecnica sarebbe stato molto più intelligente da parte vostra.E con questo chiudo la "polemica".

Wonder
27-10-2005, 10:37
Ecco che i fan boy si buttano in picchiata
Non si sa' ancora praticamente nulla che gia' e' data per "flop"
Io mi continuo a chiedere ogni volta che leggo questi interventi...se nvidia o ati...o Amd o Intel vi passa qualche parcella o e' tutto amor proprio!!
Mi sembra come in politica..prima dei contenuti la bandiera!
Perhcè?
Forse la Ferrari paga i suoi tifosi?
Eppure spendono un sacco di soldi per poterla seguire e comprando il merchandise
Forse le squadre di calcio pagano i loro tifosi?
Eppure arrivano addirittura alla violenza

Quindi perchè dici così se uno scrive un messaggino su un forum?
Ti stai lagnando dei pesci piccoli sai?
Un po di tifo non ha mai fatto malee quel commento mi sembra perfettamente equo e riporta solo ciò che OGGETTIVAMENTE è apparso dalla recensione di HU.
Semmai sarai tu il fanboy...o il fankid

actarus_77
27-10-2005, 10:39
ragazzi ancora si discute sulle prestazioni superiori o inferiori. Insomma L'Ati le dà all'Nvidia soprattutto sulle prestazioni con filtri attivati e a risoluzioni elevate. Le differenze sono importanti. 512 Mb laddovè possono fare la differenza cioè proprio con filtri attivati e alte risoluzioni dovrebbero ridurre il gap con l'Ati. Se aggiungiamo qualche mhz al core e memorie più veloci come probabile, allora l'Nvidia sarebbe ancora più vicina alla sua rivale. Ma dubito che il gap possa sparire. Inoltre l'Ati con i suoi 90 nm di tecnolgia produttiva può salire ancora di più di frequenza. Il core con reffreddamento ad azoto liquido è stato portatoa + di mille mhz. E' vero con l'azoto liquido ma comunque sono frequenze assurde!!!

Wonder
27-10-2005, 10:40
sopperire al gap di prestazioni.
comunque sulla storia dell'efficenza sono daccordo in parte, del resto non si può dire che la X1800 sia più efficente quando monta ben 256 mb di memoria in più per altro a ben 300mhz in più.
Inoltre è vero che la scheda ATI ha "solo" 16 pippe attive, ma è vero anche che lavoro a 200mhz in più di quella Nvidia pertanto è come dire che nvidia ha un motore da 3000cc 8c che arriva a 8000rpm mentre ATI ha un 1600cc 4c ma Biturbo che arriva a 10000rpm.
Sono scelte progettuali diverse con vantaggi da un lato e svantaggi dall'altro per entrambe.
Va di più e consuma meno = efficienza maggiore
Fisica 1, 1 anno, Ingegneria Informatica (o meccanica)(o materiali)

actarus_77
27-10-2005, 10:45
.... e poi contano le prestazioni finali chissenefrega se le raggiungo con un procio più efficiente o meno efficiente più veloce o meno veloce. Per adesso comunque l'efficienza dell'Ati può essere considerata superiore all'Nvidia perchè comunque le frequenze da questa raggiunte sono di gran lunga superiori a quelle nvidia e per adesso soprattutto con filtri attivati e risoluzioni elevate a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente

actarus_77
27-10-2005, 10:49
preciso ancora solo questo. Non sono fan di Ati. La mia simpatia tende vero il "verde" piuttosto che il "rosso". Però i dati sono quelli. I fatti sono fatti. Non si può negare l'evisenza...

yossarian
27-10-2005, 11:02
vedrete se i 512mb non contano nulla ..

la xt si mangia la xl ben + dellla differenza % delle frequenze di gpu e ram



chi l'ha detto? Un utente, su nV Italia, ha dimostrato come una XL, con clock analogo a quello di una XT (anzi con ram a frequenze inferiori) faccia registrare, nel 3dmark2005, risultati allineati a quelli della XT. La situazione in cui 512 MB di ram sono superflui è ancora, di gran lunga, la più frequente; uniche eccezioni, alcuni giochi tra gli ultimi usciti, con risoluzioni elevate, filtri attivi e impostazioni qualitative su valori massimi.
Sicuramente, in futuro, il quantitativo di ram avrà sempre più importanza; però è da escludere che un aumento di ram porti aumenti sensibili nella maggior parte delle applicazioni.

Discorso frequenza della ram: G70 ha 16 rop's; se queste lavorano a 430 Mhz, non si potranno mai avere più di 6880 MPixel/sec (valore massimo teorico), sia nel caso di ram a 1200 Mhz, sia nel caso di ram a 6000 Mhz.

http://www.hwupgrade.it/articoli/skvideo/1361/18.html

qui è riportato l'impatto prestazionale con AA attivo; valutando il rapporto bandwidth/fillrate, sulla carta, sia la XL (rapporto pari a 4) che la XT (4,8) sono più limitate in banda rispetto alla 7800 GTX (5,8). Eppure l'impatto sulle prestazioni, con AA e con AA+HDR, sulla XL (per fare un confronto a parità di quantitativo di ram) è molto minore rispetto a quello sulla GTX. In questo caso, il quantitativo e la frequenza delle ram non c'entrano affatto. Quindi, attaccarsi ai 512 MB di ram a 1500 Mhz per giustificare prestazioni più elevate non ha alcun senso.
Infine, sempre sulla stessa pagina linkata, vi invito a confrontare l'hit prestazionale di AA e HDR sulla GTX e sulla GT: tranne nel caso di applicazione del TAA (in cui si fa SS e si utilizzano i ps), la situazione appare piuttosto equilibrata, addirittura con una leggera prevalenza della GT (2-1)

Xile
27-10-2005, 11:03
Seconod me bisognerebbe sottolineare che adesso aumenterà la concorrenza a tutto vantaggio nostro. Questo vuol dire giocare con risoluzione maggiori con schede abordabili.

Sammy.73
27-10-2005, 11:55
yossarian for president ;)
ci voleva un po' di tecnica in un thread che stava per trasformarsi nella solita faida senza argomenti :D

Iantikas
27-10-2005, 12:41
.... e poi contano le prestazioni finali chissenefrega se le raggiungo con un procio più efficiente o meno efficiente più veloce o meno veloce. Per adesso comunque l'efficienza dell'Ati può essere considerata superiore all'Nvidia perchè comunque le frequenze da questa raggiunte sono di gran lunga superiori a quelle nvidia e per adesso soprattutto con filtri attivati e risoluzioni elevate a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente

ma ke cosa stai dicendo??? Lo sai come si calcola l'efficenza di una gpu rispetto ad un altra??? una gpu NON è + efficente di un altra xkè raggiunge freq. superiori!!! se fosse così l'architettura netburst sarebbe migliore di quella A64 o centrino :doh: !!! eccoti una rece dove ne testano l'efficenza dell'architettura e guarda un pò ke ne esce...

http://www.driverheaven.net/articles/efficiency/

...ciao

ghiandolo
27-10-2005, 12:45
Comunque e' vero sulla carta le nuove gpu della ati sono velocissime...di qualche punto(e non su tutto) ..ma sempre e solo sulla carta.
Ad oggi non si vede niente, neppure sui listini dei rivenditori.
Che bello era il PIII a 1133 ... era piu' veloce dell'ormai e sempre dipsonibile athlon 1000 :)

Wow viva i lanci sulla carta! Viva la ati!! Insuperabile!

Che bello fa 9000 nel 3dmark 2005 contro i 7600 della nvidia... WOW
MA CHI LI FA' QUEI PUNTI, VISTO CHE QUELLA SCHEDA NON ESISTE?

N.B. Presto tutti a comprarla... HA HA HAHA HAHA HAH AH HA HA
E' solo una mia opinione personale ma siamo quasi a phantom edition... ancora 15 gg..

actarus_77
27-10-2005, 12:59
Voglio precisare una cosa. Ho scritto:
"....a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente". AMD ha meno velocità in senso assoluto rispetto ad Intel ma offre maggiori prestazioni. Ma Nvidia con la stessa proporzione ha meno mhz della rivale Ati ma non offre maggiori prestazioni. Per cui questo non può dimostrare la maggiore-uguale efficienza dell'Nvidia. Anzi come già era così con la generazione precedente ancora di più con l'ultima, le prestazioni dell'Ati soprattutto quando i filtri vari sono attivati sono troppo superiori a quelle nvidia da giustificare il fatto che quest'ultima lavori con frequenze inferiori. Nvidia fa ottime schede ma quando il gioco si fa duro la Ati mostra i suoi muscoli e quindi secondo me ripeto, mostra più efficienza.

Graphicmaniac
27-10-2005, 13:00
yossarian

è solo questione di giorni poi vedremo chi ha avuto ragione :)
voglio proprio vedere se a parità di frequenze la 512 non si mangia la 256 a 1600*1200 e oltre ..

lepre84
27-10-2005, 13:05
i test che ho visto io mostravano la 7800gtx sempre superiore(almeno nei test che mi interessavano e quindi ricordo meglio) alla controparte ati tranne a risoluzioni di 1920x1600 (...)
e distattivando 8 pipeline su nvidia e portando la ati a 430mhz si vedeva come era nvidia a essere + veloce.

poi dipende dagli interessi. se uno vuole i filtri o non li vuole, le risoluzioni a cui gioca. io sceglierei nvidia in ogni caso :)

DjLode
27-10-2005, 13:15
Mi chiedo che test tu abbia visto a questo punto :asd:

picard88
27-10-2005, 13:30
http://www.hwupgrade.it/articoli/skvideo/1361/20.html
Dov'è avanti? senza i filtri..ma questo si sapeva già..poi se ti interessano solo i test dove nVidia va meglio allora.... :rolleyes:

actarus_77
27-10-2005, 13:33
Hai detto giusto lepre84 ma se si guardano anche solo i test di Hwupgrade stessa si evince che appena si abilitano i filtri solo 4x, alla sola risoluzione di 1024x768 in giochi non specifici per nessun tipo di architettura, nvidia accusa distacchi direi "pesanti" per una top di gamma. Far Cry con filtri a 1024x768 152,4 per ati a 135,8 fps per nvidia. Battelfield a 1280x1024, 198 contro 142 di nvidia. Etcc. 1280 x1024 ormai non è una risoluzone elevata soprattuto se si hanno lcd da 19" con risoluzione nativa a 1280x1024 appunto. E poi possono anche non essere indispensabili i filtri ma se posso attivarli riiscendo ad ottenere migliori prestazioni perchè non puntare su una scheda del genere. Sono differenze che magari non si notano ma visto che si dicuisisce sull'efficienza....

Lelevt
27-10-2005, 13:56
Pensate che la DELL vende un portatile con 1 GB!! di memoria VIDEO. A dir poco ridicolo. Poi quale sia la GPU non conta, l'importante è che abbia una vagonata di RAM (che rimarrà sempre inesorabilemente quasi completamente vuota).

yossarian
27-10-2005, 13:58
yossarian

è solo questione di giorni poi vedremo chi ha avuto ragione :)
voglio proprio vedere se a parità di frequenze la 512 non si mangia la 256 a 1600*1200 e oltre ..


i test che ho postato sono a 1600x1200, con filtri attivi e, in alcuni casi, con filtri e hdr, Il confronto tra XL (non XT) e GTX, a livello di hit prestazionale, vede sempre in nettissimo vantaggio la XL, a parità di quantitativo di ram e con frequenze delle memorie inferiori (minore bandwidth). In molti casi i valori di XT e XL sono molto vicini (sempre a livello di hit prestazionale), segno che i 256 MB in più non influiscono affatto.
Tranne rarissimi casi (forse FEAR e CoD2), i 512 MB di ram, al momento non danno vantaggi e sicuramente non aumentano l'efficienza del chip

http://www.hwupgrade.it/articoli/skvideo/1361/17.html

qui, nel confronto tra XL e XT, con hdr, si vede addirittura che, al salire delle risoluzioni, i due chip si avvicinano e, addirittura, a 1920, l'impatto sulla XL è inferiore a quello sulla XT (cosa abbastanza ovvia, a parità di architettura e con al XT che lavora a frequenze superiori).

yossarian
27-10-2005, 13:59
Comunque e' vero sulla carta le nuove gpu della ati sono velocissime...di qualche punto(e non su tutto) ..ma sempre e solo sulla carta.
Ad oggi non si vede niente, neppure sui listini dei rivenditori.
Che bello era il PIII a 1133 ... era piu' veloce dell'ormai e sempre dipsonibile athlon 1000 :)

Wow viva i lanci sulla carta! Viva la ati!! Insuperabile!

Che bello fa 9000 nel 3dmark 2005 contro i 7600 della nvidia... WOW
MA CHI LI FA' QUEI PUNTI, VISTO CHE QUELLA SCHEDA NON ESISTE?

N.B. Presto tutti a comprarla... HA HA HAHA HAHA HAH AH HA HA
E' solo una mia opinione personale ma siamo quasi a phantom edition... ancora 15 gg..

vero, infatti questa non esiste

http://www.nvitalia.net/forum/showthread.php?t=49932&page=4&pp=15

:sofico:

Ricky3D
27-10-2005, 14:51
Io non riesco a capire una cosa: un mio amico ha messo su un pc con AMD Athlon 64 3000+, scheda video GeForce 6600GT pci-express, 1GB di Ram scabeccia PC3200 da meno di 80 euri, montati su una MOBO da 110 euri nForce 4 Ultra, e gioca a Doom 3 (senza overclock) alla QUALITA' ULTRA in maniera fluida. Non è una balla, ho provato io stesso il suo pc... E l'abbiamo assemblato insieme.
Gli ho consigliato quei componenti, visto il suo budget, ad eccezione della ram...
Io ho finito Doom 3 a qualità alta 1024*768, con un computer basato su Radeon 9700 liscia e Athlon XP Palomino 1800+, con 512MB di vecchia RAM pc2100. Non fluidissimo, ma con qualche artificio e una buona gestione delle risorse di sistema giocabile tranquillamente e in maniera sufficientemente fluida. Senza necessità di overclock.
La domanda è: siete sicuri serva così tanta memoria video, anche tenendo conto della velocità del pci-express e dell'efficienza del controller della memoria integrato sul procio AMD?

Iantikas
27-10-2005, 15:17
Voglio precisare una cosa. Ho scritto:
"....a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente". AMD ha meno velocità in senso assoluto rispetto ad Intel ma offre maggiori prestazioni. Ma Nvidia con la stessa proporzione ha meno mhz della rivale Ati ma non offre maggiori prestazioni. Per cui questo non può dimostrare la maggiore-uguale efficienza dell'Nvidia. Anzi come già era così con la generazione precedente ancora di più con l'ultima, le prestazioni dell'Ati soprattutto quando i filtri vari sono attivati sono troppo superiori a quelle nvidia da giustificare il fatto che quest'ultima lavori con frequenze inferiori. Nvidia fa ottime schede ma quando il gioco si fa duro la Ati mostra i suoi muscoli e quindi secondo me ripeto, mostra più efficienza.

ma il link ke ti ho postato l'hai letto???...l'efficenza di un architettura rispetto ad un altra la si vede portando entrambe alle stesse specifike e in quel caso dal test emerge superiore il g70...se poi invece stiamo parlando con impostazioni di fabbrica ki "lavora" meglio con i filtri attivi allora è superiore ati...basta parlare kiaro e specifiacare di cosa si sta parlando...

p.s.: x il tuo ultimo quote "....a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente". a pari freq. e pari pipe nvidia è superiore...ripeto clicca il link...d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio...ciao

Dumah Brazorf
27-10-2005, 15:17
Con Doom3 non ci dovrebbero essere miglioramenti nelle prestazioni, visto che tempo fa, nella recensione di una Gefo6800Ultra 512MB, non ce ne sono stati, anche se non sono state usate risoluzioni maggiori di 1600x1200. Con gli altri giochi vedremo.
Ciao.

Ricky3D
27-10-2005, 15:33
[QUOTE=Ricky3D]Io non riesco a capire una cosa: un mio amico ha messo su un pc con AMD Athlon 64 3000+, scheda video GeForce 6600GT pci-express, 1GB di Ram scabeccia PC3200 da meno di 80 euri, montati su una MOBO da 110 euri nForce 4 Ultra, e gioca a Doom 3 (senza overclock) alla QUALITA' ULTRA in maniera fluida. Non è una balla, ho provato io stesso il suo pc... E l'abbiamo assemblato insieme.

Dimenticavo, un altro amico, dotato di 6800GT a 128MB AGP 8X, con Pentium 4 Northwood 2600, dice che per lui la qualità ultra di Doom 3 è off limits.
Potere del pci-express? O dell'Athlon 64?

bs82
27-10-2005, 15:34
Avete tratto una news da the inquirer e l'avete distorta!
Non viene assolutamente detto da nessuna parte che la 7800gtx con 512mb avrà frequenze più alte, e anzi su the inquirer dicono proprio il contrario, ossia che secondo le loro fonti non ci saranno incrementi!!!

gianni1879
27-10-2005, 15:35
vero, infatti questa non esiste

http://www.nvitalia.net/forum/showthread.php?t=49932&page=4&pp=15

:sofico:
ottima scheda ;)
... ma solo fantasia per alcuni eh eh eh ;)

Snyto
27-10-2005, 15:39
per non parlare di quando arriverà il gioco Sneak Peek 2. è gia avanti al unreal engine 3 quando quest'ultimo non è ancora uscito

yossarian
27-10-2005, 16:08
ma il link ke ti ho postato l'hai letto???...l'efficenza di un architettura rispetto ad un altra la si vede portando entrambe alle stesse specifike e in quel caso dal test emerge superiore il g70...se poi invece stiamo parlando con impostazioni di fabbrica ki "lavora" meglio con i filtri attivi allora è superiore ati...basta parlare kiaro e specifiacare di cosa si sta parlando...

p.s.: x il tuo ultimo quote "....a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente". a pari freq. e pari pipe nvidia è superiore...ripeto clicca il link...d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio...ciao

guarda i test con AA e AF; adesso, secondo il tuo metro, quale sarebbe più efficiente?

Altro esperimento interessante, sarebbe quello di prendere un G70, portarlo a 200/166, disabilitare 22 pipeline, affiancarci una cpu da non più di 1000 Mhz farci girare SW dx6/dx7 e confrontarlo con una radeon 256 o con un Kyro2. Io un'idea di chi possa essere più veloce ce l'avrei :D

guglielmit
27-10-2005, 16:13
Perhcè?
Forse la Ferrari paga i suoi tifosi?
Eppure spendono un sacco di soldi per poterla seguire e comprando il merchandise
Forse le squadre di calcio pagano i loro tifosi?
Eppure arrivano addirittura alla violenza

Quindi perchè dici così se uno scrive un messaggino su un forum?
Ti stai lagnando dei pesci piccoli sai?
Un po di tifo non ha mai fatto malee quel commento mi sembra perfettamente equo e riporta solo ciò che OGGETTIVAMENTE è apparso dalla recensione di HU.
Semmai sarai tu il fanboy...o il fankid


Avanti un altrooooo c'e' posto :D :D :D

ghiandolo
27-10-2005, 16:14
PRESTO PRESTO CORRETE PARE SIA STATO SCOPERTO UN NUOVO FOCOLAIO DOVE DISTRIBUISCONO SCHEDE VIDEO SERIE X1800 ATI...

LA SCHEDA VIDEO (FANTASMA) che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza SULLA CARTA...

PRIMA IN ASIA E ORA IN RUSSIA.... POI IL CANADA..
FORSE PRESTO ARRIVERA' IN EUROPA..

DjLode
27-10-2005, 16:22
Ma un troll detector su sto forum? Mai?

R@nda
27-10-2005, 16:25
Ghiandolo ma chi te lo fa fare? Che divertimento provi ? :D

Foglia Morta
27-10-2005, 16:31
io spero che ati si dia una mossa a rilasciare driver aggiornati con tutti i fix vari per il memory controller e il dispatch processor x tutti i giochi possibili , così la redazione potrà recensire queste nuove 7800 con una X1800 in assetto da competizione

ghiandolo
27-10-2005, 16:35
Be insomma vedere che processano una scheda a spese dell'altra che nemmeno e' distribuita non e' un motivo abbastanza valido? :) :) :)

Mi ricordo che quando nvidia sbagliava ( seria 5800/5900) tutti erono d'accordo a sentenziare fallimenti..ma ora?
All'epoca pure il dissipatore era insopportabile, ma ora che tutte le x850xt ne hanno uno simile , allora va tutto bene.

C'e' gente che per scelta politicha (???) non riesce a vedere poco dopo il proprio naso.

Se amd ora e' la migliore bene. Ma se domani intel tira fuori una cpu da paura, perche' negarlo e dargli contro?

mrt75
27-10-2005, 16:48
PRESTO PRESTO CORRETE PARE SIA STATO SCOPERTO UN NUOVO FOCOLAIO DOVE DISTRIBUISCONO SCHEDE VIDEO SERIE X1800 ATI...

LA SCHEDA VIDEO (FANTASMA) che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza SULLA CARTA...

PRIMA IN ASIA E ORA IN RUSSIA.... POI IL CANADA..
FORSE PRESTO ARRIVERA' IN EUROPA..

Dove!!!! Dove!!!! Sii + preciso cacchio!!!!!!!!!! :sbonk: :sbonk:







P.S: A parte gli scherzi ,quando uscira sugli scaffali sara un bel prodotto! ;)

^TiGeRShArK^
27-10-2005, 17:18
Be insomma vedere che processano una scheda a spese dell'altra che nemmeno e' distribuita non e' un motivo abbastanza valido? :) :) :)

Mi ricordo che quando nvidia sbagliava ( seria 5800/5900) tutti erono d'accordo a sentenziare fallimenti..ma ora?
All'epoca pure il dissipatore era insopportabile, ma ora che tutte le x850xt ne hanno uno simile , allora va tutto bene.

C'e' gente che per scelta politicha (???) non riesce a vedere poco dopo il proprio naso.

Se amd ora e' la migliore bene. Ma se domani intel tira fuori una cpu da paura, perche' negarlo e dargli contro?
:rotfl:
quindi secondo te il dissipatore sulle x850xt è simile a quello della 5800 ultra!
:rotfl::rotfl::rotfl:
pekkato ke ci sia una LIEVISSIMA differenza di decibel! :rotfl:
e xkè ora dovrebbe sbagliare ATI?
mi pare logico ke ancora non si trovi dato ke verrà lanciata i primi di novembre!
o magari x te dovevano fare un eccezione e dartela in anteprima? :rotfl:
e cmq è assolutamente IMPARAGONABILE la situazione delle 5800 ultra con quella delle 1800 xt...
le prime ritardarono di un casino e avevano prestazioni in dx 9 penose rispetto a R300 (x non parlare del rumore e della qualità :asd: )
le seconde hanno ritardato di meno e hanno prestazioni in alcuni casi MOLTO superiori alle concorrenti nvidia...
ah e dimenticavo... le vere potenzialità di %R520 si vedranno soprattutto con i gioki futuri e con i driver ottimizzati...
già gli incrementi prestazionali in doom 3 e in quake 4 dell'ordine di quasi il 30% la dicono tutta ;)

mrt75
27-10-2005, 17:25
Certo certo!!!, il rumore e minore ma la forma e le dimensioni..... Quando Nvidia fece i primi dissi a doppio slot,la gente sembrava impazzita,poi caso strano, sono cominciati a piacerre :D

lepre84
27-10-2005, 18:04
per non parlare di quando arriverà il gioco Sneak Peek 2. è gia avanti al unreal engine 3 quando quest'ultimo non è ancora uscito

per non parlare dell'unreal engine 4 eh :eek: :eek: :D

ghiandolo
27-10-2005, 18:19
caro TiGeRShArK hai perfettamente ragione la lievissima differenza c'e'.. qui si fanno paragoni su un oggetto che non c'e'.
Capito? Vogliamo paragonare un fx 57 con la cpu confidencial ( che da intel, per rispondere ad amd) ai tester?
Wow sulla carta fa il c..o a tutto peccato arrivi fra ... mah 20 gg, no 2 mesi.. boh?
Nvidia per ora presenta e rende disponibile. ok?
Ati presenta e tu aspetti... e quando arriva la concorrenza la supera.
Nvidia e' da luglio che ha in vendita il 7800gtc e fanno bene 5 mesi di DOMINIO incontrastato. (riferito al segmento massimo)

Sammy.73
27-10-2005, 18:57
Comunque e' vero sulla carta le nuove gpu della ati sono velocissime...di qualche punto(e non su tutto) ..ma sempre e solo sulla carta.
Ad oggi non si vede niente, neppure sui listini dei rivenditori.
Che bello era il PIII a 1133 ... era piu' veloce dell'ormai e sempre dipsonibile athlon 1000 :)

Wow viva i lanci sulla carta! Viva la ati!! Insuperabile!

Che bello fa 9000 nel 3dmark 2005 contro i 7600 della nvidia... WOW
MA CHI LI FA' QUEI PUNTI, VISTO CHE QUELLA SCHEDA NON ESISTE?

N.B. Presto tutti a comprarla... HA HA HAHA HAHA HAH AH HA HA
E' solo una mia opinione personale ma siamo quasi a phantom edition... ancora 15 gg..

PRESTO PRESTO CORRETE PARE SIA STATO SCOPERTO UN NUOVO FOCOLAIO DOVE DISTRIBUISCONO SCHEDE VIDEO SERIE X1800 ATI...

LA SCHEDA VIDEO (FANTASMA) che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza SULLA CARTA...

PRIMA IN ASIA E ORA IN RUSSIA.... POI IL CANADA..
FORSE PRESTO ARRIVERA' IN EUROPA..

:rolleyes: :nono:

complimenti, grandi argomentazioni ;)

effettivamente la ferrari di shumacher fa schifo...visto che la guida solo lui, barrichello (massa) e badoer...

ma visto che tu non la puoi provare, fa sicuramente schifo...

Iantikas
27-10-2005, 19:29
guarda i test con AA e AF; adesso, secondo il tuo metro, quale sarebbe più efficiente?

Altro esperimento interessante, sarebbe quello di prendere un G70, portarlo a 200/166, disabilitare 22 pipeline, affiancarci una cpu da non più di 1000 Mhz farci girare SW dx6/dx7 e confrontarlo con una radeon 256 o con un Kyro2. Io un'idea di chi possa essere più veloce ce l'avrei :D

gaurda ke ci si potrebbe anke innervosire!!!...ma LEGGETE QUELLO KE SCRIVO??? o vi piace solo creare flame??? meno male ke mi hai pure quotato...forse questa frase ti è sfuggita "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" (sempre riferito tra x1800xt e 7800gtx...magari impara a leggere, a pensare e poi a postare!!!...e con questo kiudo la discussione xkè nn ha senso postare delle opinioni quando alcuni nn sanno neanke capire ke c'è scritto...

yossarian
27-10-2005, 19:47
gaurda ke ci si potrebbe anke innervosire!!!...ma LEGGETE QUELLO KE SCRIVO??? o vi piace solo creare flame??? meno male ke mi hai pure quotato...forse questa frase ti è sfuggita "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" (sempre riferito tra x1800xt e 7800gtx...magari impara a leggere, a pensare e poi a postare!!!...e con questo kiudo la discussione xkè nn ha senso postare delle opinioni quando alcuni nn sanno neanke capire ke c'è scritto...


forse sarebbe il caso che imparassi tu a leggere prima di scrivere qualcosa: quei test sono fatti a parità di condizioni e non sulla base delle impostazioni di fabbrica. E non mi sembra che con i filtri la GTX sia avanti.
E meno male che le frequenze sono scritte belle grosse. :D
Guarda caso, si tratta anche lì di un test sull'efficienza, fatto nelle stesse condizioni di quello di driverheaven.
Tra l'altro, niente di più sbagliato che comparare R520 e G70 alla stregua di PIV e Athlon. Ma immagino che tu già conosca la differenza tra un'architettura ibrida CISC/RISC e una che nasce concettualmente come RISC. :sofico:
Se poi vuoi innervosirti fai pure: problemi tuoi. :rolleyes:

Crystal1988
27-10-2005, 20:24
chi l'ha detto? Un utente, su nV Italia, ha dimostrato come una XL, con clock analogo a quello di una XT (anzi con ram a frequenze inferiori) faccia registrare, nel 3dmark2005, risultati allineati a quelli della XT. La situazione in cui 512 MB di ram sono superflui è ancora, di gran lunga, la più frequente; uniche eccezioni, alcuni giochi tra gli ultimi usciti, con risoluzioni elevate, filtri attivi e impostazioni qualitative su valori massimi.
Sicuramente, in futuro, il quantitativo di ram avrà sempre più importanza; però è da escludere che un aumento di ram porti aumenti sensibili nella maggior parte delle applicazioni.

Discorso frequenza della ram: G70 ha 16 rop's; se queste lavorano a 430 Mhz, non si potranno mai avere più di 6880 MPixel/sec (valore massimo teorico), sia nel caso di ram a 1200 Mhz, sia nel caso di ram a 6000 Mhz.

http://www.hwupgrade.it/articoli/skvideo/1361/18.html

qui è riportato l'impatto prestazionale con AA attivo; valutando il rapporto bandwidth/fillrate, sulla carta, sia la XL (rapporto pari a 4) che la XT (4,8) sono più limitate in banda rispetto alla 7800 GTX (5,8). Eppure l'impatto sulle prestazioni, con AA e con AA+HDR, sulla XL (per fare un confronto a parità di quantitativo di ram) è molto minore rispetto a quello sulla GTX. In questo caso, il quantitativo e la frequenza delle ram non c'entrano affatto. Quindi, attaccarsi ai 512 MB di ram a 1500 Mhz per giustificare prestazioni più elevate non ha alcun senso.
Infine, sempre sulla stessa pagina linkata, vi invito a confrontare l'hit prestazionale di AA e HDR sulla GTX e sulla GT: tranne nel caso di applicazione del TAA (in cui si fa SS e si utilizzano i ps), la situazione appare piuttosto equilibrata, addirittura con una leggera prevalenza della GT (2-1)

Scusa un attimo...
sono un pò niubbo inmateria...
ma se le rops... di solito non scrivono quasi mai tutte un pixel per ciclo di clock... e con un filtro trilinear non ottimizzato scrivono 1 pixel ogni 2 cicli...
con i filtri in teoria ci mettono più cicli a scrivere un pixel giusto?
Ma allora non centra il fill rate in rapporto alla bandwithd o sbaglio?
Centra semplicemente il fatto che le rops di Ati lavorano più veloci delle rops di nvidia e che l'antialasing è applicato all'interno delle rops giusto?

yossarian
27-10-2005, 21:10
Scusa un attimo...
sono un pò niubbo inmateria...
ma se le rops... di solito non scrivono quasi mai tutte un pixel per ciclo di clock... e con un filtro trilinear non ottimizzato scrivono 1 pixel ogni 2 cicli...
con i filtri in teoria ci mettono più cicli a scrivere un pixel giusto?
Ma allora non centra il fill rate in rapporto alla bandwithd o sbaglio?
Centra semplicemente il fatto che le rops di Ati lavorano più veloci delle rops di nvidia e che l'antialasing è applicato all'interno delle rops giusto?

il rapporto bandwidth/fillrate serve a dimostrare che G70 è meno limitato in banda di quanto non lo sia R520 (sia in versione XT che in versione XL) e che, a fronte di un fillrate teorico di 6880, fa registrare un dato, nel pure fillrate, di circa 6400, che è molto vicino a quello della 6800 Ultra e al suo massimo teorico. All'aumentare della complessità dei calcoli, saranno le pixel pipeline a fare da freno al resto dell'elaborazione (il SSAA viene applicato dai ps, mentre il MSAA dalle rop's). Questo significa che aumentando la frequenza della ram, cioè aumentando la bandwidth, il rapporto banda/fillrate aumenta (se non si o/c il chip), però il limite sarà sempre imposto dalle rop's o dalle pixel pipeline (e già adesso G70 è vicinissimo al suo limite teorico, oltre il quale non può comunque andare).
Quindi il vantaggio che si può trarre da ram più veloci, quando invece i colli di bottiglia sono il numero di rop's o la velocità d'elaborazione degli shader, a seconda dei casi, non dà alcun vantaggio pratico. Il paragone con la XL è fatto apposta: la XL ha un rapporto bandwidth/fillrate più basso di quello della GTX (quindi meno banda passante) e ha lo stesso quantitativo di ram: quindi, in teoria, all'aumentare della complessità dei calcoli, se come qualcuno sostiene, il vantaggio della XT è dato dal quantitativo e dalla frequenza della ram a 1500 Mhz, la XL dovrebbe essere svantaggiata rispetto alla GTX. Invece si vede che l'hit prestazionale, proprio alle alte risoluzioni e con i filtri attivi (anche con hdr), è molto minore sulla XL che sulla GTX.
Conclusione: il collo di bottiglia non è la bandwidth ma, al limite, il modo in cui sono gestite le operazioni interne e gli accessi in memoria. Ma qui il problema si sposta sul piano dell'efficienza.
Inoltre, l'hit prestazionale con calcoli molto complessi, a parità di efficienza, è tanto maggiore, in percentuale, quanto più alta è la frequenza del chip o, in generale, quanto più alto è il framerate in condizioni di elaborazione normali. Infatti, la cosa si verifica puntualmente con la 1800XT e la 1800XL (con GTX e GT c'è la discrepanza apparente fornita dai test in cui si applica il TAA che è di tipo SS, ma li le 4 pipeline in più si fanno sentire).

Ginger79
27-10-2005, 21:51
Allora, tutti i commenti precedenti sui vari scontri ATI vs. NVIDIA servono a ben poco.
Il dato di fato qual'è?
Che nel segmento entusiast X1800XT è quasi sempre + veloce di 7800GTX, schede che tuttavia a causa dell'elevato prezzo costituiscono una % minima degli incassi delle rispettive case.

Nel segmento medio alto abbiamo invece una 7800GT che è leggermente superiore alla X1800XL ed è offerta allo stesso prezzo se non a meno. Ma qui Nvidia ha sempre fatto da padrona (Vedi le 6800GT) e in questa fascia i ricavi sono già + alti x entrambe le case.

Nel settore medio abbiamo 6800GS che sarà sicuramente superiore a X1600 e avranno prezzi allineati. Qui però i ricavi sono massimi!

Quindi quello che posso evincere da questo quadro è una situazione sicuramente + rosea per Nvidia che nei segmenti dove si fanno fatturati + alti dirige l'orchestra a fronte anche del fatto che l'azienda non manifesta alcuna preoccupazione per il segmento TOP altrimenti ci avrebbe messo molto poco a rilasciare una "ULTRA" a distanza di 5 mesi dalla DISPONIBILTA' della 7800GTX.

Ati dal canto suo ha delle ottime schede (sopratutto la X1800XT) che però non sono ancora disponibili ... e credo che Nvidia in questi 5 mesi non sia stata in poltrona a godersi il meritato successo quindi è auspicabile l'uscita di un prox refresh entro Natale e i conti sono presto fatti.

Tutto IMHO.

Iantikas
27-10-2005, 21:58
forse sarebbe il caso che imparassi tu a leggere prima di scrivere qualcosa: quei test sono fatti a parità di condizioni e non sulla base delle impostazioni di fabbrica. E non mi sembra che con i filtri la GTX sia avanti.
E meno male che le frequenze sono scritte belle grosse. :D
Guarda caso, si tratta anche lì di un test sull'efficienza, fatto nelle stesse condizioni di quello di driverheaven.
Tra l'altro, niente di più sbagliato che comparare R520 e G70 alla stregua di PIV e Athlon. Ma immagino che tu già conosca la differenza tra un'architettura ibrida CISC/RISC e una che nasce concettualmente come RISC. :sofico:
Se poi vuoi innervosirti fai pure: problemi tuoi. :rolleyes:

stiamo parlando dello stesso test??? (eccoti dinuovo il link ke ho postato prima e sul quale ho iniziato a discutere in questo 3d http://www.driverheaven.net/articles/efficiency/ ... di altri test, di cui tu parli come se ne stessimo discutendo da una vita, nn ne conosco nemeno l'esistenza!!!) in quell'articolo ci sono 2 game soltanto testati e in entrambi g70 è DAVANTI con i FILTRI ATTIVI!!!...HA PRESTAZONI MAGGIORI ci vedi??? o sei cieco???...poi io ho scritto "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" capisci il significato di questa frase??? significa ke nella vita reale contano come escono le skede dalla fabbrica con le impo di default e nn ha grande interesse cio ke succede a parità di freq. e pipe come in quel test...e ke con impo di fabbrica x1800xt (sempre in generale...poi ce il test ke va peggio/meglio o molto peggio/molto meglio) è SUPERIORE al 7800gtx...io ora kiudo la discussione xkè veramente sono rimasto scioccato dal tuo comportamento...A MAI PIU' RISENTIRCI

Crystal1988
27-10-2005, 22:17
il rapporto bandwidth/fillrate serve a dimostrare che G70 è meno limitato in banda di quanto non lo sia R520 (sia in versione XT che in versione XL) e che, a fronte di un fillrate teorico di 6880, fa registrare un dato, nel pure fillrate, di circa 6400, che è molto vicino a quello della 6800 Ultra e al suo massimo teorico. All'aumentare della complessità dei calcoli, saranno le pixel pipeline a fare da freno al resto dell'elaborazione (il SSAA viene applicato dai ps, mentre il MSAA dalle rop's). Questo significa che aumentando la frequenza della ram, cioè aumentando la bandwidth, il rapporto banda/fillrate aumenta (se non si o/c il chip), però il limite sarà sempre imposto dalle rop's o dalle pixel pipeline (e già adesso G70 è vicinissimo al suo limite teorico, oltre il quale non può comunque andare).
Quindi il vantaggio che si può trarre da ram più veloci, quando invece i colli di bottiglia sono il numero di rop's o la velocità d'elaborazione degli shader, a seconda dei casi, non dà alcun vantaggio pratico. Il paragone con la XL è fatto apposta: la XL ha un rapporto bandwidth/fillrate più basso di quello della GTX (quindi meno banda passante) e ha lo stesso quantitativo di ram: quindi, in teoria, all'aumentare della complessità dei calcoli, se come qualcuno sostiene, il vantaggio della XT è dato dal quantitativo e dalla frequenza della ram a 1500 Mhz, la XL dovrebbe essere svantaggiata rispetto alla GTX. Invece si vede che l'hit prestazionale, proprio alle alte risoluzioni e con i filtri attivi (anche con hdr), è molto minore sulla XL che sulla GTX.
Conclusione: il collo di bottiglia non è la bandwidth ma, al limite, il modo in cui sono gestite le operazioni interne e gli accessi in memoria. Ma qui il problema si sposta sul piano dell'efficienza.
Inoltre, l'hit prestazionale con calcoli molto complessi, a parità di efficienza, è tanto maggiore, in percentuale, quanto più alta è la frequenza del chip o, in generale, quanto più alto è il framerate in condizioni di elaborazione normali. Infatti, la cosa si verifica puntualmente con la 1800XT e la 1800XL (con GTX e GT c'è la discrepanza apparente fornita dai test in cui si applica il TAA che è di tipo SS, ma li le 4 pipeline in più si fanno sentire).

danke :)

ma quindi il fill rate reale è dovuto alle rops e non alle pixel pipe in quanto le rops riempiono il buffer?

Ma allora come fa una gtx ad eguagliare nel fillrate (3dmark) la x1800 xt?
non capisco... mi sa che mi serve una spiegazione ancora più approfondita per capire.. :( :cry:

inoltre mi vien da pensare a sto punto... che probabilmente se avesse avuto 24 rops... sarebbecambiato poco per nvidia...
giusto?
cioè se l'msaa è meno pesante dell'ssaa allora anche all'aumentare di rops... ci sarebbero sempre le pixel pipe a fare da collo di bottiglia giusto?

inoltre un fill rate basso cosa comporta rispetto ad uno più alto?

ma poi a parità di banda bandwithd... perché la gtx avendo un fill rate minore sarebbe avvantaggiata rispetto ad una xt che ha fill rate maggiore..?
mica fill rate maggiore è meglio e si hanno maggiori prestazioni?

^TiGeRShArK^
27-10-2005, 22:23
caro TiGeRShArK hai perfettamente ragione la lievissima differenza c'e'.. qui si fanno paragoni su un oggetto che non c'e'.
Capito? Vogliamo paragonare un fx 57 con la cpu confidencial ( che da intel, per rispondere ad amd) ai tester?
Wow sulla carta fa il c..o a tutto peccato arrivi fra ... mah 20 gg, no 2 mesi.. boh?
Nvidia per ora presenta e rende disponibile. ok?
Ati presenta e tu aspetti... e quando arriva la concorrenza la supera.
Nvidia e' da luglio che ha in vendita il 7800gtc e fanno bene 5 mesi di DOMINIO incontrastato. (riferito al segmento massimo)
1) il presler è dall'anno scorso ke è stato presentato se nn sbaglio :rotfl: (anke se nella versione a 2 ghz)
2)anke il presler e il cedar mill non possono competere con gli A64 dato ke sono l'ennesima evoluzione dell'arkitettura netburst migliorata un pò in overclokkabilità e nei consumi scesi di 40W (sai ke guadagno su 100 e passa W di consumo in più ancora ne mancano 60 x pareggiare con AMD)
3)ancora siamo ad ottobre .. e x ora fanno 4 mesi :p allora qdo era ATI ad avere tirato fuori la 9700 pro a settembre e nvidia l'ha presentata l'anno dopo quello skifo d nv 30?:P e anke dopo la sua presentazione ati continuava a regnare incontrastata fino all'arrivo di nv35 MOOOOLTOOO dopo ke ha messo una pezza (ma neanke tnt :p) Altro ke dominio incontrastato :D
4) a me non sbatte niente d comprare 'ste skede dato ke nn m va proprio d buttare i miei sudati soldi in questo modo :p x la cronaca x abbandonare la mia fidata 7500 ho trovato a ki venderla su ebay a 25 euro e ho acquistato una 9700 pro dall'america a 138 l'anno scorso.... non me ne frega niente di avere le massime prestazioni nei gioki di nuova generazione..
però seguo con molto interesse il panorama xkè prima o poi una d queste skede sarà nel mio case... e km stanno le ks ad oggi non sarà certo una skeda nvidia :Prrr:

yossarian
27-10-2005, 22:33
danke :)

ma quindi il fill rate reale è dovuto alle rops e non alle pixel pipe in quanto le rops riempiono il buffer?

Ma allora come fa una gtx ad eguagliare nel fillrate (3dmark) la x1800 xt?
non capisco... mi sa che mi serve una spiegazione ancora più approfondita per capire.. :( :cry:
inoltre mi vien da pensare a sto punto... che probabilmente se avesse avuto 24 rops... sarebbecambiato poco per nvidia...
giusto?
cioè se l'msaa è meno pesante dell'ssaa allora anche all'aumentare di rops... ci sarebbero sempre le pixel pipe a fare da collo di bottiglia giusto?

inoltre un fill rate basso cosa comporta rispetto ad uno più alto?

ma poi a parità di banda bandwithd... perché la gtx avendo un fill rate minore sarebbe avvantaggiata rispetto ad una xt che ha fill rate maggiore..?
mica fill rate maggiore è meglio e si hanno maggiori prestazioni?

si, sono le rop's che "scrivono" nel frame buffer, quindi il fillrate massimo va calcolato tenendo conto del loro numero, non di quello delle pixel pipeline. All'aumentare della complessità dei calcoli, poi, a fare da collo di bottiglia sono, per lo più, le pixel pipeline, in quanto sono quelle che compiono la maggior parte dei calcoli complessi. In ogni caso, se tu avessi un chip che, in teoria, avesse un numero di pixel shader tale da non lasciare le rop's in attesa dell'arrivo di nuovi dati (quindi da farle lavorare a ciclo continuo), comunque non si potrebbe superare il limite massimo dato dal prodotto n° di rop's*frequenza del chip (quindi tutti i dati in arrivo, in eccesso, sarebbero messi in coda).
Il fillrate del 3DMark è il texel fillrate, non il pixel fillrate. In quel caso entrano in gioco le tmu e la capacità del chip di gestire operazioni di shading e di texturing.

Se guardi il link qui sotto, alla voce fill rates, hai 3 diverse tabelle: la prima ti dà i valori relativi al pixel fillrate puro, con sole operazioni sull'asse z e poi con operazioni di texturing+alpha blending e con texture a fp16. Come puoi vedere, il valore indicato è MPixel/sec; quello del 3DMark, invece è Mtexel/sec (e il valore è preso in single e in multi, con fino a 8 texel per pixel).
Si tratta di due parametri diversi tra loro: il primo influenzato principalmente dalle rop's, il secondo in cui entrano in gioco anche le tmu.

Il massimo fillrate teorico rappresenta il valore massimo, in output, che il chip può raggiungere. Quindi, ipotizzando un comportamento ideale, un chip con 6000 MPixel/sec è meno veloce di uno con 8000 MPixel/sec di fillrate massimo.
In realtà, nell'elaborazione, entrano in gioco tanti altri fattori che possono rendere un chip più o meno efficiente e farlo allontanare dal suo valore di output teorico. Ad esempio, anche la 850XT ha un pixel fillrate superiore a quello della GTX, però, all'atto pratico è più lento. Questo eprchè l'effiicenza complessiva di G70 (o di NV40) è superiore a quella di R4x0 e, nel caso di G70, perchè i rallentamenti dovuti alle elaborazioni nelle pixel pipeline sono in parte compensati dal fatto che le pixel pipeline sono in numero maggiore rispetto alle rop's.
Per avere un chip senza colli di bottiglia si devono cercare di bilanciare tutti gli elementi; ad esempio, un più elevato numero di pixel pipleine permette di svolgere più velocemente operazioni matematiche e operazioni di texturing, semplicemente aumentando il numero delle unità di elaborazione. Questo, però, non rende autometicamente efficiente la singola pixel pipeline: si tratta di un approccio in stile "forza bruta": ossia, se le pp non sono in grado di inviare dati in maniera sufficientemente veloce da tenere le rop's impegnate, aumento il numero di pp. C'è poi il discorso rop's banda passante. Avere un fillrate elevato non serve se si ha poca bandwidth, perchè a quel punto, quello diventa il limite del chip (non mi serve avere delle rop's che "sparano fuori 10000 Mpixel/sec, se ho un canale di comunnicazione che permette il passaggio di soli 3000 MPixel/sec, a meno che non voglia creare un imbuto.
C'è, poi, il discorso relativo all'organizzazione del lavoro interno; qui possiamo parlare di efficienza in senso stretto del termine. Se ho un chip con 40 unità di calcolo dello stesso tipo, ma le impegno, in media, al 60% del loro potenziale, avrò prestazioni inferiori ad un chip che ha 30 ma con un'efficienza del 90%. In questo, gli approcci di G70 e R520 sono diametralmente opposti. G70 ha pixel pipeline molto lunghe, con tante unità dello stesso tipo che svolgono contemporanemente operazioni su più pixel; R520, invece ha "pipeline" molto corte, con unità disposte praticamente in parallelo, ognuna delle quali esegue molto velocemente un numero ridotto di operazioni. Quindi, mentre G70 ha un approccio di tipo CISC (istruzioni molto lunghe e complesse), pur avendo unità di calcolo adattate a lavorare in modalità RISC (le istruzioni lunghe sono frazionate e suddivise tra più unità di calcolo dello stesso tipo, per ridurre le latenze dovute alla complessità delle operazioni da svolgere), R520 nasce, concettualmente, come architettura RISC (istruzioni già frammentate in un gran numero di thread molto brevi, caricati nell'array di registri general pourpose delle pixel pipeline ed eseguite in sequenza, con il vantaggio di aver quasi azzerato le latenze ma, in compenso, eseguendo un numero molto minore di operazioni per ciclo, ha bisogno di compensare con le alte frequenze). Anche in questo caso, l'approccio è "forza bruta" per NV (si carica un gran numero di pixel all'interno e se ne elabora il più possibile in contemporanea: questo permette di aumentare l'output, anche non raggiungendo una elevata effiicenza, è inevitabile avere più unità in idle per ciclo), ricerca della masisma efficienza per ATi, carichiamo un numero piccolo di pixel per volta all'interno delle unità di calcolo, ma facciamo in modo che le psu siano sempre tutte occupate.

Nel confronto tra GTx e XT, la XT ha una maggiore bandwidth assoluta, ma la GTX, grazie al fillrate minore, ha un miglior rapporto bandwidth/fillrate. Questo significa che, semmai la banda dovesse diventare un limite, lo diverrebbe prima per la XT che non per la GTX.

Crystal1988
27-10-2005, 22:42
danke...

e per il resto?


inoltre mi vien da pensare a sto punto... che probabilmente se avesse avuto 24 rops... sarebbecambiato poco per nvidia...
giusto?
cioè se l'msaa è meno pesante dell'ssaa allora anche all'aumentare di rops... ci sarebbero sempre le pixel pipe a fare da collo di bottiglia giusto?

inoltre un fill rate basso cosa comporta rispetto ad uno più alto?

ma poi a parità di banda bandwithd... perché la gtx avendo un fill rate minore sarebbe avvantaggiata rispetto ad una xt che ha fill rate maggiore..?
mica fill rate maggiore è meglio e si hanno maggiori prestazioni?

^TiGeRShArK^
27-10-2005, 22:46
io ora kiudo la discussione xkè veramente sono rimasto scioccato dal tuo comportamento...A MAI PIU' RISENTIRCI
vero..
l'ho sempre detto ke yossarian non capisce una mazza di skede video :O

:sofico:

;)

Apple80
27-10-2005, 23:18
vedrete se i 512mb non contano nulla ..

la xt si mangia la xl ben + dellla differenza % delle frequenze di gpu e ram

Q4, FEAR, BF2, EQ2 e tutti i giochi che useranno l'unreal engine 3, senza dimenticare quelli che useranno HDR beneficeranno senz'altro dei 512MB

poi se serviranno ad Oblivion allora credo la compreranno in molti :D

dubito che anche una X1800 faccia girare bene un motore come l'unreal engine 3. Non per la quantità di ram ovvio. Il mio parere è che per l'unreal engine 3 , bisognerà prendere le schede video di prossima generazione per girare bene a 1280 e AA4x

yossarian
27-10-2005, 23:23
stiamo parlando dello stesso test??? (eccoti dinuovo il link ke ho postato prima e sul quale ho iniziato a discutere in questo 3d http://www.driverheaven.net/articles/efficiency/ ... di altri test, di cui tu parli come se ne stessimo discutendo da una vita, nn ne conosco nemeno l'esistenza!!!) in quell'articolo ci sono 2 game soltanto testati e in entrambi g70 è DAVANTI con i FILTRI ATTIVI!!!...HA PRESTAZONI MAGGIORI ci vedi??? o sei cieco???...poi io ho scritto "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" capisci il significato di questa frase??? significa ke nella vita reale contano come escono le skede dalla fabbrica con le impo di default e nn ha grande interesse cio ke succede a parità di freq. e pipe come in quel test...e ke con impo di fabbrica x1800xt (sempre in generale...poi ce il test ke va peggio/meglio o molto peggio/molto meglio) è SUPERIORE al 7800gtx...io ora kiudo la discussione xkè veramente sono rimasto scioccato dal tuo comportamento...A MAI PIU' RISENTIRCI

questo in basso è il tuo primo post, dal quale si evince chiaramente cosa vuoi intendere

ma ke cosa stai dicendo??? Lo sai come si calcola l'efficenza di una gpu rispetto ad un altra??? una gpu NON è + efficente di un altra xkè raggiunge freq. superiori!!! se fosse così l'architettura netburst sarebbe migliore di quella A64 o centrino :doh: !!! eccoti una rece dove ne testano l'efficenza dell'architettura e guarda un pò ke ne esce...

http://www.driverheaven.net/articles/efficiency/

...ciao

Ti ho riportato un link con lo stesso identico confronto fatto da driverheaven, ma con giochi diversi, in cui, a filtri attivi, la 1800XL sta davati alla GTX, a parità di condizioni. Ora, credo che anche un bambino di due anni, alla fine, riesca acapire cose come: stesso identico confronto e parità di condizioni (si, il bambino di due anni lo capisce :rolleyes: ).


questo è il tuo post successivo

ma il link ke ti ho postato l'hai letto???...l'efficenza di un architettura rispetto ad un altra la si vede portando entrambe alle stesse specifike e in quel caso dal test emerge superiore il g70...se poi invece stiamo parlando con impostazioni di fabbrica ki "lavora" meglio con i filtri attivi allora è superiore ati...basta parlare kiaro e specifiacare di cosa si sta parlando...

p.s.: x il tuo ultimo quote "....a parità di velocità Nvidia non sembra essere più performante anzi..... Quindi sembra meno efficiente". a pari freq. e pari pipe nvidia è superiore...ripeto clicca il link...d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio...ciao


nessun dubbio su quello che c'è scritto qui (però lo evidenzio, non si sa mai......visto che il bambino di due anni forse capirebbe......... :rolleyes: ); necessita una qualche traduzione per bambini inferiori a due anni che leggessero ( :sofico: ) questo forum?

qui c'è la tua terza "sparata"

gaurda ke ci si potrebbe anke innervosire!!!...ma LEGGETE QUELLO KE SCRIVO??? o vi piace solo creare flame??? meno male ke mi hai pure quotato...forse questa frase ti è sfuggita "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" (sempre riferito tra x1800xt e 7800gtx...magari impara a leggere, a pensare e poi a postare!!!...e con questo kiudo la discussione xkè nn ha senso postare delle opinioni quando alcuni nn sanno neanke capire ke c'è scritto...


e intanto, continui a dimostrare di non aver guardato il link che ti ho postato (sempre a parità di condizioni rispetto al test di driverheaven :sofico: ), oppure, se l'hai guardato, non sei riuscito a comprenderne il senso (eppure si tratta di guardare dei grafici, senza bisogno di leggere alcunchè :D ).

Quella in alto, infine, è la tua ultima uscita, nonchè la migliore di tutte :doh: .

Adesso, forse, può risultarti chiaro quello che il bambino ha già capito da tempo. Perciò, guarda il link con cui ti ho quotato la prima volta e rispondi: alla luce di quei test, come si giustifica la tua affermazione?

Ah, ovviamente, se devi continuare a renderti ridicolo con ulteriori "scenate" evita pure di rispondere; se uno deve trolleggiare, almeno lo faccia in maniera simpatica, anche se vedo che la cafonaggine ce l'hai nel sangue (basta guardare come hai risposto ad Actarus_77) :D

Aristocrat74
28-10-2005, 07:56
ma perche si finisce sempre ot :rolleyes: ......... ho letto tutti i post e solo 2 o 3 parlano dell argomento "512" qua invece si finisce sempre a chi ce l ha piu duro........ :doh:

e comunque "512" per i malati come me che vogliono giocare con tutti i dettagli al max e anche di più :D cominciano a servire....

e anche schede video piu potenti........ :sofico:

avete provato F.E.A.R. ?? mettere tutto al max . e la "sfumatura sulle ombre" ??

con il pc in sign a 1024 e s video cloccata a 590 /1280 in alcuni punti scatta !!!! :mbe:

avete provato QUAKE 4 in qualità ultra.......??. se nn si hanno 512 di ram..... il gioco non si muove.... :doh:

non oso immaginare cosa servaperil nuovo unreal engine :muro:

^TiGeRShArK^
28-10-2005, 08:40
ma fanno veramente skifo le soft shadow su fear almeno da quanto ho visto su anandtech..
ke senso ha metterle? x avere una qualità visiva peggiore e x fare andare il gioco + lento? :mbe:

yossarian
28-10-2005, 14:12
ma perche si finisce sempre ot :rolleyes: ......... ho letto tutti i post e solo 2 o 3 parlano dell argomento "512" qua invece si finisce sempre a chi ce l ha piu duro........ :doh:

e comunque "512" per i malati come me che vogliono giocare con tutti i dettagli al max e anche di più :D cominciano a servire....

e anche schede video piu potenti........ :sofico:

avete provato F.E.A.R. ?? mettere tutto al max . e la "sfumatura sulle ombre" ??

con il pc in sign a 1024 e s video cloccata a 590 /1280 in alcuni punti scatta !!!! :mbe:

avete provato QUAKE 4 in qualità ultra.......??. se nn si hanno 512 di ram..... il gioco non si muove.... :doh:
non oso immaginare cosa servaperil nuovo unreal engine :muro:

se giochi a 2048x1536 con filtri attivi, anche 512 MB con SLI servono a poco
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page9.asp

:D

Fino a 1280, invece, mi pare che con una GTX sia giocabile anche in UQ con i filtri

Iantikas
28-10-2005, 16:26
se giochi a 2048x1536 con filtri attivi, anche 512 MB con SLI servono a poco

con lo sli il framebuffer nn si raddoppia...x questo avere 2 6600gt o 6800 (lissie 128mb) in sli porta benefici ma fino ad un certo punto xkè appunto hai "soltanto" 128mb...ciao

yossarian
28-10-2005, 16:38
con lo sli il framebuffer nn si raddoppia...x questo avere 2 6600gt o 6800 (lissie 128mb) in sli porta benefici ma fino ad un certo punto xkè appunto hai "soltanto" 128mb...ciao

con lo sli, in modalità SFR, il frame è diviso in due parti in modo che siano bilanciate tra loro; quindi i dati caricati sulla vram si replicano solo relativamente a quello che è a cavallo della linea di demarcazione.
Questo vale sia per le texture che per gli altri dati. Quindi, ogni vga ha "soltanto" la ram on board su cui, però, elabora una parte del frame differente da quella elaborata dall'altra vga (al contrario di quello di 3Dfx, in cui c'era replicazione dei dati sulle ram di entrambe le vga)

questo è tratto da un'intervista fatta a Chris Daniel

Can you quickly take us over the advantages and disadvantages of SLI as compared to a supertiling solution?

NVIDIA has been working on SLI technology for many years. In fact, NVIDIA has been designing scalability logic into their GPUs since GeForce 3. However, an effective multi-GPU technology is non-trivial, requiring extensive research & development in both hardware and software. NVIDIA designed SLI technology with the flexibility to support multiple rendering algorithms, offering optimal performance for different types of applications. Our two primary algorithms are dynamic split frame rendering (SFR) and alternate frame rendering (AFR), but there are others.

Supertiling is another algorithm that may be used to scale performance. The problem with supertiling is that it isn’t able to scale geometry like AFR can. Supertiling also has a problem with over-fetching textures (as did scanline interleaving) because of the number of textures that cross the tiling boundaries. This means that each GPU would have to fetch the same texture for neighboring tiles. In SFR, we have one edge where textures can cross boundries. In supertiling, you have many, many more edges and the problem is multiplied linearly with the number of edges. These double-fetched textures can eat up valuable bandwidth.

When developing SLI technology a number of different algorithm options were investigated. In fact NVIDIA looked at supporting supertiling as well, however it simply wasn’t the optimal choice for delivering the highest scaling performance.


come vedi, lo sli non propone il problema dell'over-fetching texture. Questo significa che è vero che hai solo 128 (o 256) MB di ram per gpu, ma è anche vero che ogni vga carica quasi esclusivamente dati relativi alla sua parte di frame da renderizzare.

Apple80
28-10-2005, 17:09
se giochi a 2048x1536 con filtri attivi, anche 512 MB con SLI servono a poco
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page9.asp

:D

Fino a 1280, invece, mi pare che con una GTX sia giocabile anche in UQ con i filtri

Cmq è vero. per l'ultra qualità servono 500Mb di ram video per le texture. Senza contare i 2gb per il sistema anche.

Purtroppo devo ammettere che una 7800gtx non sarà abbastanza per l'unreal engine 3. Servirà 512MB di viedo e 2Gb di sistema. E ovviamnete la potenza per farlo girare con dettaglio su alta qualità

Iantikas
28-10-2005, 17:15
se fosse così allora x le 6600gt avresti 128 di framebuffer x skeda ke in sli (SFR) farebbero 256 in tutto (questo è quello ke hai lasciato intendere da ciò ke hai appena scritto...correggimi se intendevi altro)...ma nei test le risoluzioni e e l'attivazione dei filtri in sli rimangono "limitati" al framebuffer di 128... :stordita: ...ciao

yossarian
28-10-2005, 19:11
se fosse così allora x le 6600gt avresti 128 di framebuffer x skeda ke in sli (SFR) farebbero 256 in tutto (questo è quello ke hai lasciato intendere da ciò ke hai appena scritto...correggimi se intendevi altro)...ma nei test le risoluzioni e e l'attivazione dei filtri in sli rimangono "limitati" al framebuffer di 128... :stordita: ...ciao


forse ti sfugge che ogni vga ha ancora come limite fisico i 128 MB, ma per renderizzare metà frame, non uno intero. Se tutte e due le vga utilizzassero gli stessi dati e scrivessero gli stessi pixel su due fb diversi, a cosa servirebbe lo sli? A replicare due volte la stessa immagine? Bella invenzione sarebbe..........davvero; forse la più inutile dopo la tazzina da caffè per bevitori mancini :rotfl:

Tra l'altro, il problema non si pone relativamente alle dimensioni dell'immagine finale nel fb (10 MB sono più che sufficienti per un'immagine 800x600 con AA4x e ci avanza anche spazio), ma, soprattutto alle texture che vengono caricate prima delle operazioni di rendering. In questo caso, l'utilizzo della modalità SFR permette di dividere a metà tra le due vga le texture da caricare nella vram, esattamente come viene diviso a metà il frame.

yossarian
28-10-2005, 19:19
Cmq è vero. per l'ultra qualità servono 500Mb di ram video per le texture. Senza contare i 2gb per il sistema anche.

Purtroppo devo ammettere che una 7800gtx non sarà abbastanza per l'unreal engine 3. Servirà 512MB di viedo e 2Gb di sistema. E ovviamnete la potenza per farlo girare con dettaglio su alta qualità

il test su firingsquad è fatto in modalità UQ e, fino a 1600x1200, mi pare che sia giocabile anche con una GTX da 256 MB (a meno che 78 fps medi che a 1280 diventano circa 96, risultino ingiocabili).
che poi possano esserci altri colli di bottiglia (cpu, ram di sistema o altro, è un discorso diverso).
Però, dal dire "sarebbe meglio avere 512 MB" a dire "senza 512 MB neanche si muove" ce ne corre eccome (anche se lo svantaggio in UQ non è dovuto ai 256 MB in meno).
Per l'unreal engine, vedremo cosa succederà quando sarà ultimato e ottimizzato. Per ora è inutile fare valutazioni su ciò che potrà farlo girare la meglio

Crystal1988
28-10-2005, 20:52
mi sa che sono dureo d'orecchie... :D

ma non ho ancora capito alla fin fine che differenze ci sono quando il rapporto bandwithd/fill rate è maggiore o minore...

yossarian
28-10-2005, 20:54
mi sa che sono dureo d'orecchie... :D

ma non ho ancora capito alla fin fine che differenze ci sono quando il rapporto bandwithd/fill rate è maggiore o minore...

più è alto il rapporto (cioè più è la banda passante a disposizione, relativamente al fillrate di un chip), meno la vga rischia di diventare bandwidth limited al salire della frequenza e utilizzando i filtri.
Ad esempio, la 6800 LE ha un rapporto molto alto; questo significa che l'o/c delle ram non apporta benefici a livello di prestazioni, mentre, invece, quello del chip si. Al contrario, una vga con un rapporto molto basso potrebbe non trarre vantaggi dall'o/c del chip e trarne da quello della ram

alexlionheart
28-10-2005, 21:06
Cmq è vero. per l'ultra qualità servono 500Mb di ram video per le texture. Senza contare i 2gb per il sistema anche.

Purtroppo devo ammettere che una 7800gtx non sarà abbastanza per l'unreal engine 3. Servirà 512MB di viedo e 2Gb di sistema. E ovviamnete la potenza per farlo girare con dettaglio su alta qualità
io con la mia 7800gtx gioco anche a qualita' ultra e mi sembra che non scenda sotto i 60fps.magari devo disattivare vsinc e aa pero' va

Crystal1988
28-10-2005, 21:28
più è alto il rapporto (cioè più è la banda passante a disposizione, relativamente al fillrate di un chip), meno la vga rischia di diventare bandwidth limited al salire della frequenza e utilizzando i filtri.
Ad esempio, la 6800 LE ha un rapporto molto alto; questo significa che l'o/c delle ram non apporta benefici a livello di prestazioni, mentre, invece, quello del chip si. Al contrario, una vga con un rapporto molto basso potrebbe non trarre vantaggi dall'o/c del chip e trarne da quello della ram

ora capisco perché gddr3 più veloci servono a poco... danke

ora però mi spieghi perché di norma si tende a dire che più bandwithd hai più con filtri attivi vai veloce?

Iantikas
28-10-2005, 23:07
[QUOTE=yossarian] Se tutte e due le vga utilizzassero gli stessi dati e scrivessero gli stessi pixel su due fb diversi, a cosa servirebbe lo sli? A replicare due volte la stessa immagine? Bella invenzione sarebbe..........davvero; forse la più inutile dopo la tazzina da caffè per bevitori mancini :rotfl:QUOTE]

ma xkè mi metti in bocca cosa ke nn ho detto??? (ed è una certezza...nessun mio messaggio è editato)...guarda io ci rinuncio, ti ho kiesto solo se avevo capito bene ciò ke tu intendevi dire e te ne sei uscito xcon una marea di parole ke nn centravano na minkia...inoltre ti ho fatto presente nua cosa ke ho notato io stesso di persona...ossia ke x es. al 3dmark03/05 una 6600gt singola può arrivare fino ad una determinata risoluzione e con determinati filtri attivi...se ne metti DUE in sli i "limiti" rimangono identici...ora: dall'alto della tua sapienza puoi dirmi xkè a questo senza iniziare un altro discorso ke nn centra direttamente con il "problema" ke pongo io???...lo so come funziona l'sfr anke se sono un GRANDE IGNORANTE DI DUE ANNI e NON HO MAI DETTO KE LE DUE SKEDE IMMAGAZZINASSERO IN MEMORIA GLI STESSI DATI!!!...sempre peggio...saremo incompatibili...boh...ciao

yossarian
29-10-2005, 00:28
[QUOTE=yossarian] Se tutte e due le vga utilizzassero gli stessi dati e scrivessero gli stessi pixel su due fb diversi, a cosa servirebbe lo sli? A replicare due volte la stessa immagine? Bella invenzione sarebbe..........davvero; forse la più inutile dopo la tazzina da caffè per bevitori mancini :rotfl:QUOTE]

ma xkè mi metti in bocca cosa ke nn ho detto??? (ed è una certezza...nessun mio messaggio è editato)...guarda io ci rinuncio, ti ho kiesto solo se avevo capito bene ciò ke tu intendevi dire e te ne sei uscito xcon una marea di parole ke nn centravano na minkia...inoltre ti ho fatto presente nua cosa ke ho notato io stesso di persona...ossia ke x es. al 3dmark03/05 una 6600gt singola può arrivare fino ad una determinata risoluzione e con determinati filtri attivi...se ne metti DUE in sli i "limiti" rimangono identici...ora: dall'alto della tua sapienza puoi dirmi xkè a questo senza iniziare un altro discorso ke nn centra direttamente con il "problema" ke pongo io???...lo so come funziona l'sfr anke se sono un GRANDE IGNORANTE DI DUE ANNI e NON HO MAI DETTO KE LE DUE SKEDE IMMAGAZZINASSERO IN MEMORIA GLI STESSI DATI!!!...sempre peggio...saremo incompatibili...boh...ciao

cerchiamo di spiegarci allora.
La discussione è nata partendo dall'affermazione che la ram di due gtx in sli non conta come 512 MB.
Vediamo all'atto pratico, qual è il problema che si incontra nel renderizzare una scena complessa, con texture a dettaglio elevato.
Se la scena richiede di dover caricare texture e altri dati, per complessivi 360 MB e ho solo 256 MB, allora l'operazione dovrà essere compiuta con due accessi alla ram di sistema. Se ho 2 vga in sli, in sfr, con 256 MB di ram ciascuna, cosa succede? Entrambe le vga devono caricare 360 MB di dati sulla ram? Assolutamente no. Ogni vga carica solo i dati relativi alla sua porzione di schermo da elaborare, tranne quelli compresi in un certo range, variabile a seconda dell'applicazione, a cavallo della linea di demarcazione tra le due sezioni del frame e quelli relativi alle posizioni dei vertici dei poligoni. Quindi, le due gpu si comporteranno, in questa fase, esattamente come se ci fossero a disposizione 512 MB di ram, anche se non utilizzati al meglio, perchè dei dati sono replicati, o meglio, come se entrambe ne avessero 256 ma dovessero caricare la metà dei dati necessari ad elaborare il frame (che è quello che succede): quindi, divisione della ram (256+256) ma anche divisione dei dati da elaborare (180+180, senza considerare gli spiccioli e considerando, per brevità, la divisione effettuata al 50%; in realtà possiamo arrivare anche a 250-250 senza essere ancora obbligati a doppi accessi alla ram di sistema). In questo modo, si superano i limiti imposti dal minore quantitativo di ram rispetto ai dati da caricare (che era quello che, in pratica, ha fatto gridare a qualcuno che l'R520 è avvantaggiato dai 512 MB di ram).
Una volta che le due gpu hanno terminato l'elaborazione, la gpu slave passa la sua metà di frame a quella master, questa la ricompone e la invia al monitor. Poichè l'intera immagine è ricomposta da un'unica gpu. Inoltre, un'immagine già elaborata richiede relativamente poco spazio all'interno del fb (a 1024x768, considerando che si hanno 8 bit interi per canale e 24 bit di z + 8 di stencil) siamo a poco più di 6 MB (e non è certo quella che occupa spazio), mentre durante l'elaborazione lo spazio richiesto è molto maggiore (soprattutto quando si lavora con texture non compresse di alta qualità).

Per quanto riguarda il 3dmark, utilizza AFR, per cui il limite dei 128 MB rimane (ogni vga renderizza un frame intero ma, per farlo, può utilizzare solo la ram on board). Con l'AFR si ha il vantaggio che, nei giochi con molti poligoni, i dati geometrici non sono duplicati all'interno delle ram di entrambe le vga, ma ha lo svantaggio che ogni vga può fare affidamento solo sulla ram di cui dispone.

Forse se avessi letto tutto e non ti fossi fossilizzato sulla parte quotata, avresti capito il senso della risposta (che era esattamente quello che ho dato adesso, più in dettaglio, mentre prima avevo dato per scontate molte cose).

Iantikas
29-10-2005, 01:08
k kiaro ora...ma ho un altra domanda :p su una cosettina ke ancora nn mi è kiara...ma quando la slave passa la sua metà alla master gli passa gli ipotetici 180, o gli ipotetici 6??? xkè se gli passa gli ipotetici 6, allora nn capisco xkè sfori il fb... :confused: ...ciao

yossarian
29-10-2005, 01:33
k kiaro ora...ma ho un altra domanda :p su una cosettina ke ancora nn mi è kiara...ma quando la slave passa la sua metà alla master gli passa gli ipotetici 180, o gli ipotetici 6??? xkè se gli passa gli ipotetici 6, allora nn capisco xkè sfori il fb... :confused: ...ciao


gli passa i 6; per quanto riguarda il 3dmark ho appena scoperto che fa uso di AFR (e non di SFR) per cui le cose stanno in maniera molto semplice: ogni vga renderizza un intero frame; quindi si ha il vantaggio di non dover duplicare i dati geometrici nelle ram di entrambi i chip, l'elaborazione è più veloce, perchè in sfr le due vga comunicano di continuo e, qualora una delle due faticasse più del previsto, i carichi di lavoro devono essere bilanciati di nuovo istantaneamente, però si ha lo svantaggio che ogni vga può contare solo sulla sua ram per renderizzare una scena intera. Perciò, con l'utilizzo di AFR resta il limite dei 128 MB (oltre cui non puoi andare).
Alla fine, nessuno dei due metodi è esente da pecche, così come non lo è la terza modalità che ATi ha affiancato a queste due (il supertiling che sicuramente risente dell'over-fetching texture molto più dell'sfr, in quanto le linee di "confine" tra tile sono molte di più)

JohnPetrucci
29-10-2005, 09:59
Se Nvidia tira fuori una nuova scheda top 7800gtx con ram ipotetica a 1500mhz, e gpu più alta in frequenza, non dovrebbe essere diffcile rraggiungere i livelli prestazionali della X1800XT, se invece l'incremento sarà la sola quantità di ram da 256 a 512mb, la situazione rimarrà sostanzialmente invariata.
Quello che non cambierà in ogni caso sarà la qualità video e dei filtri, che rimarrà a favore di Ati.

Chissà se con la prox generazione di schede grafiche, Nvidia lavorerà seriamente su questo fronte incluso l'impatto prestazionale che hanno i filtri, oltre la loro qualità.
Io da parte mia, non posso che premiare la scelta di Ati che ha puntato tanto sulle prestazioni che sulla qualità, un punto quest'ultimo sul quale bisognerebbe indirizzarsi più incisivamente da parte di Nvidia in futuro.

P.S. Posseggo e uso attualmente una 6800Gt.

yossarian
29-10-2005, 10:27
Se Nvidia tira fuori una nuova scheda top 7800gtx con ram ipotetica a 1500mhz, e gpu più alta in frequenza, non dovrebbe essere diffcile rraggiungere i livelli prestazionali della X1800XT, se invece l'incremento sarà la sola quantità di ram da 256 a 512mb, la situazione rimarrà sostanzialmente invariata.
Quello che non cambierà in ogni caso sarà la qualità video e dei filtri, che rimarrà a favore di Ati.

Chissà se con la prox generazione di schede grafiche, Nvidia lavorerà seriamente su questo fronte incluso l'impatto prestazionale che hanno i filtri, oltre la loro qualità.
Io da parte mia, non posso che premiare la scelta di Ati che ha puntato tanto sulle prestazioni che sulla qualità, un punto quest'ultimo sul quale bisognerebbe indirizzarsi più incisivamente da parte di Nvidia in futuro.

P.S. Posseggo e uso attualmente una 6800Gt.

è molto probabile che la prossima vga NV esca con frequenze più alte, oltre che con 512 MB di ram; d'altra parte la rev2 di G70 sale decisamente meglio rispetto alla rev1, arrivando stabile (salvo casi sfortunati) con dissi stock a oltre 500 Mhz. Questo potrebbe far supporre che, in attesa della versione a 0,09, sia possibile, magari sostituendo lo stock cooling con uno più efficace, clockare il chip a frequenze dell'ordine di 500-520 Mhz.
Sembra, invece, da escludere, almeno per ora, incrementi dal punto di vista qualitativo e modifiche sostanziali al chip. Anzi ci sono alcuni elementi che farebbero pensare che G70 sia l'architettura definitiva che NV proporrà fino all'adozione dello sm2.0. In particolare, sia l'uscita di un chip a 0,11 con 512 MB adesso (è improbabile la proposizione di una nuova architettura a breve tempo), sia la prossima uscita delle versioni low e mid range a 0,09, sia il fatto che RSX (la gpu della ps3 che è a 0,09) sembrerebbe essere, né più né meno che un G70 (con qualche modifica per adattarlo a lavorare su consolle), con 550 Mhz di clock, farebbero pensare al fatto che nVIDIA non abbia intenzione di proporre altro, in futuro, che versioni del G70 con clock più elevati e maggiori quantitativi di ram. Credo siano da escludere sia le 32 pp che un aumento delle rop's; nel primo caso perchè 32 pp richiederebbero anche, almeno, 24 rop's, il che significa altri 100 mln di transistor in più, circa, nel secondo perchè l'aumento delle rop's, ad esempio da 16 a 24, con un clock a 500 Mhz, porterebbero la vga ad essere molto più bandwidth limited di quanto non sia ora, anche nell'ipotesi di ram a 1500 Mhz (il rapporto banda/fillrate scenderebbe da 5,8 a 4, oppure a 4,6 con 20 rop's a 520 Mhz). Per quanto riguarda la possibilità di utilizzo di MSAA+HDR, pare che anche su RSX ciò sia impossibile; questo significa che anche nel passaggio a 0,09, almeno per la gpu della ps3, non è stato rivisto l'assetto delle rop's (e ciò non depone bene neppure in previsione del chip a 0,09 per pc, poichè mi sembra improbabiòe che NV tenga in piedi più linee di produzione, con chip di facsia bassa che sembrano derivati da NV4x e chip di fascia alta e RSX a 0,09 troppo differenti tra loro. Ad esempio, nel caso di ATi, pare verosimile che le linee di produzione principale restino due: quella di R5x0 e derivati (comprendente anche le versioni RV), a cui dovrebbe appartenere anche il chip del Revolution e quella di R500 dedicato alla xbox).

Foglia Morta
29-10-2005, 10:33
è molto probabile che la prossima vga NV esca con frequenze più alte, oltre che con 512 MB di ram; d'altra parte la rev2 di G70 sale decisamente meglio rispetto alla rev1, arrivando stabile (salvo casi sfortunati) con dissi stock a oltre 500 Mhz. Questo potrebbe far supporre che, in attesa della versione a 0,09, sia possibile, magari sostituendo lo stock cooling con uno più efficace, clockare il chip a frequenze dell'ordine di 500-520 Mhz.
Sembra, invece, da escludere, almeno per ora, incrementi dal punto di vista qualitativo e modifiche sostanziali al chip. Anzi ci sono alcuni elementi che farebbero pensare che G70 sia l'architettura definitiva che NV proporrà fino all'adozione dello sm2.0. In particolare, sia l'uscita di un chip a 0,11 con 512 MB adesso (è improbabile la proposizione di una nuova architettura a breve tempo), sia la prossima uscita delle versioni low e mid range a 0,09, sia il fatto che RSX (la gpu della ps3 che è a 0,09) sembrerebbe essere, né più né meno che un G70 (con qualche modifica per adattarlo a lavorare su consolle), con 550 Mhz di clock, farebbero pensare al fatto che nVIDIA non abbia intenzione di proporre altro, in futuro, che versioni del G70 con clock più elevati e maggiori quantitativi di ram. Credo siano da escludere sia le 32 pp che un aumento delle rop's; nel primo caso perchè 32 pp richiederebbero anche, almeno, 24 rop's, il che significa altri 100 mln di transistor in più, circa, nel secondo perchè l'aumento delle rop's, ad esempio da 16 a 24, con un clock a 500 Mhz, porterebbero la vga ad essere molto più bandwidth limited di quanto non sia ora, anche nell'ipotesi di ram a 1500 Mhz (il rapporto banda/fillrate scenderebbe da 5,8 a 4, oppure a 4,6 con 20 rop's a 520 Mhz). Per quanto riguarda la possibilità di utilizzo di MSAA+HDR, pare che anche su RSX ciò sia impossibile; questo significa che anche nel passaggio a 0,09, almeno per la gpu della ps3, non è stato rivisto l'assetto delle rop's (e ciò non depone bene neppure in previsione del chip a 0,09 per pc, poichè mi sembra improbabiòe che NV tenga in piedi più linee di produzione, con chip di facsia bassa che sembrano derivati da NV4x e chip di fascia alta e RSX a 0,09 troppo differenti tra loro. Ad esempio, nel caso di ATi, pare verosimile che le linee di produzione principale restino due: quella di R5x0 e derivati (comprendente anche le versioni RV), a cui dovrebbe appartenere anche il chip del Revolution e quella di R500 dedicato alla xbox).
immagino intendessi sm4

in base alle tue considerazioni R580 dovrebbe essere il chip definitivo per le 9.0c ?

quanto tempo ci vorrà secondo te affinche i giochi sfruttino le successive directx una volta uscite ?

yossarian
29-10-2005, 10:45
immagino intendessi sm4

in base alle tue considerazioni R580 dovrebbe essere il chip definitivo per le 9.0c ?

quanto tempo ci vorrà secondo te affinche i giochi sfruttino le successive directx una volta uscite ?

immagini bene :D ; avevo in mente wgf2.0 e invece ho scritto sm2.0 :cry:

R580 potrebbe essere il chip definitivo; intanto va a colmare quella che, finora, è sembrata l'unica lacuna di R520 (la potenza di calcolo con i ps). In futuro, non è possibile escludere altri aggiustamenti, magari di poco conto. Di certo non si andrà a modificare la base dell'architettura: si rimarrà quindi con 512 thread suddivisi in 4 gruppi da 128 l'uno e con 16 tmu (di cui mi piacerebbe avere più dettagli, per sapere se sono tipo quelle di R500 che, di fatto, sono in realtà 32 unità, di cui 16 complete e 16 in grado di applicare solo point sampling, oppure di tipo tradizionale).

Non credo passerà molto tempo; MS propone una consolle con un chip che è quasi completamemnte wgf2.0, su cui lavoreranno molte SWHouse; è presumibile che, all'uscita dello sm4.0, ci saranno già molti motori grafici più o meno pronti da essere utilizzati con le nuove API.

Iantikas
29-10-2005, 11:22
premessa: grazie x le info/spiegazioni...

cmq a quanto ho potuto capire dalle varie news ke circolano in rete r580 sarà su socket e un progetto simile lo ha anke nvidia solo ke vi sono differenze su come implementeranno la ram...hai info a riguardo??? (asd, quanto domandine ke faccio... :D )...ciao

yossarian
29-10-2005, 11:55
premessa: grazie x le info/spiegazioni...

cmq a quanto ho potuto capire dalle varie news ke circolano in rete r580 sarà su socket e un progetto simile lo ha anke nvidia solo ke vi sono differenze su come implementeranno la ram...hai info a riguardo??? (asd, quanto domandine ke faccio... :D )...ciao

non ho informazioni, anche se alla fine non credo che si realizzerà qualcosa del genere. Un R580 su socket avrebbe poco senso, a meno che non si mettano su socket anche le ram e il socket di R580 non sia compatibile con quello della serie R600; a quel punto però, i costi di produzione del pcb lieviterebbero nel breve e medio periodo e si potrebbe incorrere nel problema della reperibiltà dei componenti (gpu e ram); ricordo le ultime vga (le G200 di Matrox, se non ricordo male), che davano la possibiltà teorica di espandere la ram, da 8 fino a 16 MB; la ram era pressochè introvabile e costava cifre spropositate. Dopo di allora, si è abbandonato l'esperimento e si è passati a pcb con ram saldate e non più su socket.

gainax75
30-10-2005, 00:37
Bene, quindi la mia nuova GTO sarà da buttare dopodomani...nooooo, vorrà dire che ci giocherò ancora a Diablo 1 e tra 2 annetti arriverò a comprare una da 512 magari a 300€ della famiglia 7800GTX2Ultimate Edition Pro....a proposito..è uscita anche una 7800gtx con un suffisso aggiunto che al momento non mi sovviene, chissà cosa propone in più..in negozio era appena arrivata ma i commessi, alla domanda dei curiosi, avevano strani simboli tipo The Sims sopra la testa....MAH!

yossarian
31-10-2005, 16:49
questo è un test con uno sli su singolo pcb, con 2 GT o/c, uno sli dual card con 2 GTX a frequenze standard e una singola X1800XT

Il sistema con 2 GT è più bandwidth limited rispetto a quello con 2 GTX

http://www.fjt2.net/gate/gb/www.hkepc.com/hwdb/en7800gtdual-4.htm

come si può vedere, non è il quantitativo o la frequenza delle ram a fare la differenza, ma il clock del chip: 2 GT, con 8 pixel pipeline complessive in meno ma 45 Mhz in più per GPU, battono sempre 2 GTX a frequenze standard.

Locutus
01-11-2005, 15:38
ragazzi ancora si discute sulle prestazioni superiori o inferiori. Insomma L'Ati le dà all'Nvidia soprattutto sulle prestazioni con filtri attivati e a risoluzioni elevate. Le differenze sono importanti. 512 Mb laddovè possono fare la differenza cioè proprio con filtri attivati e alte risoluzioni dovrebbero ridurre il gap con l'Ati. Se aggiungiamo qualche mhz al core e memorie più veloci come probabile, allora l'Nvidia sarebbe ancora più vicina alla sua rivale. Ma dubito che il gap possa sparire. Inoltre l'Ati con i suoi 90 nm di tecnolgia produttiva può salire ancora di più di frequenza. Il core con reffreddamento ad azoto liquido è stato portatoa + di mille mhz. E' vero con l'azoto liquido ma comunque sono frequenze assurde!!!

Hai un candore quasi verginale quando dici stè cose!

yossarian
01-11-2005, 16:42
visto che tutto è partito dall'inquisitore..................

http://www.theinquirer.net/?article=27368

Foglia Morta
01-11-2005, 16:45
visto che tutto è partito dall'inquisitore..................

http://www.theinquirer.net/?article=27368
ed è realistica quella prospettiva secondo te ? non me ne intendo ma mi ha lasciato perplesso , non so il core , ma le memorie a 1800Mhz mi hanno fatto sorridere un po

yossarian
01-11-2005, 16:53
ed è realistica quella prospettiva secondo te ? non me ne intendo ma mi ha lasciato perplesso , non so il core , ma le memorie a 1800Mhz mi hanno fatto sorridere un po

ram da 1800 Mhz ci sono: costano uno sproposito, però esistono.

Penso che se quelle saranno le frequenze con cui sarà presentata, non si vedranno molto presto sul mercato.
Questo mi sa tanto di vero e proprio paper launch; avviene due giorni dopo il lancio sul mercato della XT e serve a sviare l'attenzione su un prodotto che, IMHO, nVIDIA riuscirà a immettere sul mercato, in volumi, solo quando passerà a 0,09. Le rev.2 del chip salgono bene, ma non da funzionare stabili a 550 Mhz, con dissi stock (anche se dual slot)

Foglia Morta
01-11-2005, 16:56
ram da 1800 Mhz ci sono: costano uno sproposito, però esistono.

Penso che se quelle saranno le frequenze con cui sarà presentata, non si vedranno molto presto sul mercato.
Questo mi sa tanto di vero e proprio paper launch; avviene due giorni dopo il lancio sul mercato della XT e serve a sviare l'attenzione su un prodotto che, IMHO, nVIDIA riuscirà a immettere sul mercato, in volumi, solo quando passerà a 0,09
per i 0.09 di nvidia io avevo letto Gennaio , ma sempre solo rumors , i 550Mhz non è la stessa frequenza di RSX andato in tape out di recente ?

yossarian
01-11-2005, 18:35
per i 0.09 di nvidia io avevo letto Gennaio , ma sempre solo rumors , i 550Mhz non è la stessa frequenza di RSX andato in tape out di recente ?

si; infatti non escluderei l'eventualità di una presentazione di una vga, al momento, inesistente di fatto, in attesa del lancio del chip a 0,09 (che al momento, per la fascia alta, ancora non esiste).
Però, intanto, si crea l'hype sufficiente a sviare l'attenzione dal lancio della XT (anche la tempistica non è casuale).

DjLode
03-11-2005, 11:27
La XFX con 512mb pare avere queste frequenze:

- 3D : 580/1730MHz
- Throttle : 500/1730MHz
- 2D : 275/1730MHz

Estratte direttamente dal bios.

Iantikas
03-11-2005, 11:54
ma hai una 7800gtx 512mb tra le mani??? dove li hai trovati sti dati estratti direttamente dal bios??? cmq se fossero veri dovrebbe spaccare di brutto sta skeda con 1730mhz(!!!) alla memoria...ciao

DjLode
03-11-2005, 11:57
Ovviamente ho letto la notizia in giro :)
A me francamente fanno tornare in mente i fasti della 5800... spero di sbagliarmi :)