PDA

View Full Version : GeForce 7800GTX 512MB in vendita dalla prossima settimana?


Redazione di Hardware Upg
07-11-2005, 10:20
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15735.html

La nuova soluzione top di gamma della compagnia californiana dovrebbe entrare in commercio dalla prossima settimana. Ad un prezzo non esattamente popolare

Click sul link per visualizzare la notizia.

AndreaG.
07-11-2005, 10:26
Ci sono già dei bench in rete? non ho trovato niente...

zani83
07-11-2005, 10:33
Ecceziunale veremente!!!

Credo che con questa scheda si potrà fare un vero raffronto Ati X1800XT e nVidia 7800 GTX
avendole entrambe a 512 Mega

ally
07-11-2005, 10:33
...la parte geometrica a quanto sarebbe clockata?...

...ciao...

Hal2001
07-11-2005, 10:37
...la parte geometrica a quanto sarebbe clockata?...

Apparte che non ti serve conoscerla, fai una semplice equazione con il clock precedente ;)

Kerne
07-11-2005, 10:41
..... come dico: In overclock salirà ancora? Ok che non ce ne sarà bisogno ma si sa che l'overclock è come la droga. Voglio dire, è una GTX già overcloccata e tirata per il collo fino al limite (tipo Asus TOP o XFX) oppure hanno cambiato ram & soci e quindi loro te la danno a x ma poi si potrà fare x + qualcosina?

haveacigar
07-11-2005, 10:42
Bè questa scheda, se davvero fossero rispettate le specifiche appena accennate, dovrebbe ridurre ( o addirittura eliminare) il gap di Nvidia nei confronti di Ati.

Certo che 650 €mi sembrano davvero troppi.Per quella che dovrebbe essere una versione Ultra.

p.s. 1800 mhz per le memorie :eek:

Edo15
07-11-2005, 10:48
e io che mi sto schiantando per trovare una 6800GT agp...mi allungherà la vita al massimo di 2 giorni al pc se i prossimi giochi sfruttano del tutto quel "coso"...lo dico quasi con tono schifato perchè non mi potrò mai permettere un mostro simile :)

stesio54
07-11-2005, 10:49
verso i 2ghz sulle ram ed oltre :D
ammazza che mostriciattolo che è!!!:eek:
bench bench!!:O

Daytona
07-11-2005, 10:49
Bè questa scheda, se davvero fossero rispettate le specifiche appena accennate, dovrebbe ridurre ( o addirittura eliminare) il gap di Nvidia nei confronti di Ati.


Se le specifiche fossero quelle di 550 core e 1800 le mem Nvidia supererebbe tranquillamente ATI :eek:

1100000110100000
stiamo a vedere ;)

Alberello69
07-11-2005, 10:51
hemm... scusate, quale gap? lolll

Daytona
07-11-2005, 10:53
A proposito!...

...chi sa perchè non l'hanno chiamata ULTRA?! :sofico:

1100000110100000
;)

meridio
07-11-2005, 10:54
Voglio dire, è una GTX già overcloccata e tirata per il collo fino al limite (tipo Asus TOP o XFX) oppure hanno cambiato ram & soci e quindi loro te la danno a x ma poi si potrà fare x + qualcosina?
io la vedo al contrario invece. potrei sbagliarmi ma credo che non sia questa GTX512 ad essere una GTX256 tirata per il collo, ma al contrario. cioè, secondo me la GTX256 è una 512 depotenziata, in attesa magari di vedere cosa la controparte ATI avrebbe tirato fuori. ed adesso che ATI ha reso nota a tutti la X18000XT, nvidia s'è proposta come a dire l'ultima. chiaro che poi la differenza nelle vendite la farà solo l'effettiva disponibilità di queste schede nei negozi. staremo a vedè!

Foglia Morta
07-11-2005, 10:58
io la vedo al contrario invece. potrei sbagliarmi ma credo che non sia questa GTX512 ad essere una GTX256 tirata per il collo, ma al contrario. cioè, secondo me la GTX256 è una 512 depotenziata, in attesa magari di vedere cosa la controparte ATI avrebbe tirato fuori. ed adesso che ATI ha reso nota a tutti la X18000XT, nvidia s'è proposta come a dire l'ultima. chiaro che poi la differenza nelle vendite la farà solo l'effettiva disponibilità di queste schede nei negozi. staremo a vedè!
se una gtx 256mb da 430 arriva mediamente a 490 non è depotenziata ma va alla frequenza che può fare a default.

Magari questa è prodotta 0.09 oppure è uno step particolarmente ben riuscito che con il dual slot riesce a rendere parecchio

ghiandolo
07-11-2005, 11:01
e brava Nvidia... ecco i sei mesi di vantaggio!
Da luglio la 7800gtx fino a novembre, poi la gtx 512!!! Cosi potrà festeggiare un anno di dominio assoluto, come del resto AMD.
Ah naturalmente il 14 novembre sarà disponibile, credo invece alcuni stiano ancora aspettato la nuova P.E. della recensione di inizio mese.
Sono stufo di lanci sulla carta.

Sammy.73
07-11-2005, 11:01
mi sembra una delle sparate di The Inquirer...

staremo a vedere ;)

MiKeLezZ
07-11-2005, 11:02
Una scheda del genere è MOSTRUOSA!!!
Aspettiamo il 14 con impazienza.. Se tanto mi da tanto, probabilmente già dal 14 vedremo le schede in commercio :Q_
Però la 7800GT costa ancora troppo.. 380€.. e la 6800GT viene 250€ usata
Mi spiace troppo buttare via i soldi così

lordtytan
07-11-2005, 11:02
mh... io nn credo sia depotenziata la 256, anche perchè i primi test di overclock nn sono arrivati a quelle frequenze mostruose, cmq poi mi spiegano che cosa ce ne famo di ste schede se anche con una 7800GT siamo cpu limited :)
saluti

Hal2001
07-11-2005, 11:03
se una gtx 256mb da 430 arriva mediamente a 490 non è depotenziata ma va alla frequenza che può fare a default. Magari questa è prodotta 0.09 oppure è uno step particolarmente ben riuscito che con il dual slot riesce a rendere parecchio

Concordo come il buon senso può portare a credere. E' anche vero che con la nuova architettura sono stati un po' conservativi, forse per rendere subito disponibili le nuove schede video.

Un piccolo appunto, prima tutto quello che Fudo diceva era spazzatura, ed ora tutti a pendere dalle sue labbra? :asd:

Foglia Morta
07-11-2005, 11:13
... e tra l'altro se questa nuova 7800 sarà in commercio così presto allora si ripresenterebbe il dualismo della scorsa generazione ( da una parte il meglio della tecnologia e dall'altra il meglio delle prestazioni ) a parti invertite ( sempre in attesa di driver adeguati per le X1800 ) .
Magari con tutta questa concorrenza potremo vedere R580 prima del previsto

Maury
07-11-2005, 11:18
Beh se fosse reale allora ATI potrebbe ribattere con una 1800XT PE, già di suo il 520 sale da bestia figuriamoci scegliendo GPU selezionate di fabbrica :)

DjLode
07-11-2005, 11:18
Un piccolo appunto, prima tutto quello che Fudo diceva era spazzatura, ed ora tutti a pendere dalle sue labbra? :asd:

Dipende dalle notizie che da e per chi si fa il tifo ovviamente :)

A me fa ancora più ridere vedere quelli che accusavano Ati di fare un chip overclockato di fabbrica accogliere con sommo piacere una notizia del genere :asd:

dnarod
07-11-2005, 11:19
e io me la comprero quando costera 130 euro (fra x anni) :)

MiKeLezZ
07-11-2005, 11:20
... e tra l'altro se questa nuova 7800 sarà in commercio così presto allora si ripresenterebbe il dualismo della scorsa generazione ( da una parte il meglio della tecnologia e dall'altra il meglio delle prestazioni ) a parti invertite ( sempre in attesa di driver adeguati per le X1800 ) .
Magari con tutta questa concorrenza potremo vedere R580 prima del previsto
mha.. questo divario tecnologico alla fin fine è solo sulla carta..

DjLode
07-11-2005, 11:23
mha.. questo divario tecnologico alla fin fine è solo sulla carta..

Deduco che tu una recensione della X1800 non l'abbia letta manco di striscio...

Foglia Morta
07-11-2005, 11:24
mha.. questo divario tecnologico alla fin fine è solo sulla carta..
per gli analfabeti non è nemmeno lì o parlano per sentito dire perchè le rece lo spiegano

MiKeLezZ
07-11-2005, 11:31
Deduco che tu una recensione della X1800 non l'abbia letta manco di striscio...
ok, c'è le pipeline a blocchi, il bus ganzo, meno pipeline, bla bla bla
siamo tutti d'accordo
ma quando infilo la schedina e faccio partire il giochino, ha importanza sapere che c'ho tutte queste cosine ganze dentro?
o è importante vedere che mi regge meglio i giochini?
suvvia. siamo seri.

DjLode
07-11-2005, 11:42
ok, c'è le pipeline a blocchi, il bus ganzo, meno pipeline, bla bla bla
siamo tutti d'accordo
ma quando infilo la schedina e faccio partire il giochino, ha importanza sapere che c'ho tutte queste cosine ganze dentro?


Sei tu che hai detto che il vantaggio tecnologico è solo sulla carta. Non di certo io.


o è importante vedere che mi regge meglio i giochini?
suvvia. siamo seri.

Siamo seri. Comincia a esserlo tu. Vedi per caso la X1800 in difficoltà in qualche gioco? Siamo seri.
Oltretutto l'analisi dell'architettura ti aiuta pure a capire qualche può reggere meglio il tempo e se mi permetti la conclusione è alquanto semplice, siamo lì lì con driver praticamente non ufficiali. In alcuni casi le differenze sono abissali.

prova
07-11-2005, 11:43
ok, c'è le pipeline a blocchi, il bus ganzo, meno pipeline, bla bla bla
siamo tutti d'accordo
ma quando infilo la schedina e faccio partire il giochino, ha importanza sapere che c'ho tutte queste cosine ganze dentro?
o è importante vedere che mi regge meglio i giochini?
suvvia. siamo seri.

Allora, se queste cose non ti interessano poichè preferisci "vedere come girano i giochini", perchè ti riempi la bocca con parole come "divario tecnologico" se nemmeno sai cos'è?

E se nemmeno, come tu stesso ammetti, ti interessa studiarlo perchè vuoi solo vedere il risultato ultimo e cioè "come girano i giochini"?

Amo la gente che non sa di cosa parla.

MiKeLezZ
07-11-2005, 11:49
Allora, se queste cose non ti interessano poichè preferisci "vedere come girano i giochini", perchè ti riempi la bocca con parole come "divario tecnologico" se nemmeno sai cos'è?

E se nemmeno, come tu stesso ammetti, ti interessa studiarlo perchè vuoi solo vedere il risultato ultimo e cioè "come girano i giochini"?

Amo la gente che non sa di cosa parla.
Ciao!
Divario tecnologico = una ha i PS2, l'altra ha i PS3. una con i giochi PS3 funziona a cazzo... l'altra non ha problemi.
Divario prestazionale = una va veloce, l'altra meno.
Diversa architettura = una ha 24 pipe, l'altra funziona in maniera identica ma con 16 pipe.

Quale è il divario tecnologico con nvidia secondo voi?
Il fatto abbia uno schema a pipeline a blocchi di 4, si ripercuote in qualche modo nelle applicazioni reali?

Io vedo che le prestazioni alla fin fine sono simili. In tutti gli ambiti. Quindi anche se dicono siano tecnologicamente all'avanguardia, alla fine questo non si traduce in un divario prestazionale.

Ma siete capaci solo di offendere ed attaccare la gente?

MiKeLezZ
07-11-2005, 11:55
Allora, se queste cose non ti interessano poichè preferisci "vedere come girano i giochini", perchè ti riempi la bocca con parole come "divario tecnologico" se nemmeno sai cos'è?

E se nemmeno, come tu stesso ammetti, ti interessa studiarlo perchè vuoi solo vedere il risultato ultimo e cioè "come girano i giochini"?

Amo la gente che non sa di cosa parla.
Amo la gente rabbiosa..

A che serve la VGA?
Una volta che raggiunge i suoi fini, ha importanza come questi son stati raggiunti?

Per me potrebbero pure metterci un criceto in miniatura che gira una ruota, l'importante è che costi poco, scaldi poco, sia poco ingombrante, funzioni perfettamente con tutti i giochi presenti e futuri, e abbia una qualità dell'immagine perfetta.

DjLode
07-11-2005, 11:59
Ciao!
Divario tecnologico = una ha i PS2, l'altra ha i PS3. una con i giochi PS3 funziona a cazzo... l'altra non ha problemi.


Chiarisci questa frase, sa tanto di sparata. Perchè se ho capito dove vuoi arrivare (quindi evita di citare Splinter Cell per non essere corretto da me all'istante) eviterei di tirare in ballo certe cose di puro marketing :)


Diversa architettura = una ha 24 pipe, l'altra funziona in maniera identica ma con 16 pipe.


Quindi per te l'architettura di una scheda video si ferma al mero numero di pipelines?


Quale è il divario tecnologico con nvidia secondo voi?
Il fatto abbia uno schema a pipeline a blocchi di 4, si ripercuote in qualche modo nelle applicazioni reali?


Leggiti le recensioni, c'è spiegato ;)


Io vedo che le prestazioni alla fin fine sono simili. In tutti gli ambiti. Quindi anche se dicono siano tecnologicamente all'avanguardia, alla fine questo non si traduce in un divario prestazionale.


Vedi sopra.


Ma siete capaci solo di offendere ed attaccare la gente?

A parte che mi piacerebbe sapere chi ti ha offeso, è logico che se spari certe cose devi essere pronto ad assumerti le responsabilità di ciò che dici e venire corretto :) Quindi certe cose, magari pensaci due volte a scriverle se poi quando ti correggono ti offendi :)

MiKeLezZ
07-11-2005, 12:03
Erano esempi, le differenze è chiaro non si fermino lì.
Ho citato i PS, ma potevo dire "scheda DX8.1" e "scheda DX9".
Alla fine son quelli gli standard da seguire, COME vengano seguiti è poco importante.

Langley
07-11-2005, 12:20
Beh signori... la mia che ho in firma l'ho tirata a 530//1400 con dissi originale... senza artefatti... secondo me è uno step ben riuscito.. la 512 mega.... :D
Cmq ip ip urra' NVIDIA... :D

bartolino3200
07-11-2005, 12:30
Ciao!
Divario tecnologico = una ha i PS2, l'altra ha i PS3. una con i giochi PS3 funziona a cazzo... l'altra non ha problemi.
Divario prestazionale = una va veloce, l'altra meno.
Diversa architettura = una ha 24 pipe, l'altra funziona in maniera identica ma con 16 pipe.

Quale è il divario tecnologico con nvidia secondo voi?
...

Aggiungici il fatto che Ati non supporta Linux e OpenGL come dovrebbe e il gioco è fatto. Lo ripeterò fino alla morte in ogni 3D riguardo le schede video, perchè è giusto che la gente lo sappia, fa parte di una corretta informazione, visto che poi olti si ritrovano con un prodotto Ati inutilizzabile in determinati campi. Perchè togliersi una possibilità che nVidia offre?
Per me il divario tecnologico e di supporto c' è anche in questo, ed è importante almeno nel mio caso.
Non me ne vogliano i fanboy Ati sempre presenti a difendere la loro casamadre Ati in ogni dove.
Commento alla notizia? Semplice nVidia è daccapo al vertice prestazionale (anche se prima di questa 512 GTX era praticamente alla pari), del mondo delle gpu. E' daccapo al vertice, tutto qui, che sarà mai?
Sul prezzo non credo proprio che sarà così alto, visto che nel marketing ci hanno saputo fare molto meglio di Ati, saranno tenere la concorrenza anche nel prezzo.
Non dimentichiamo poi che nVidia è sempre disponibile sul mercato e che la nuova serie Ati X1xx ancora non si vede come dovrebbe. Un altro fantasma dell' opera aleggia sulla rete senza un degno riscontro negli shop :doh:

http://img179.imageshack.us/img179/7926/senzatitolo15bo.jpg (http://imageshack.us)

dwfgerw
07-11-2005, 12:37
gran parte del prezzo se ne va per le memorie, comuqnue la gtx attuale rimarrà la scheda dai volumi di vendita più alti, questa versione con clock maggiorato servirà solo per dire "io ho la vga più potente"

Quelo76
07-11-2005, 12:38
A parte il fatto che al max puoi dire che " Ati non supporta linux e opengl come IO vorrei"
Ti consiglio di dare un'occhiata ai test dell'r520 su doom3 con la patch per il memory controller programmabile
guarda gli incrementi di prestazioni con filtri attivati.
poi parli di fanboy...
io non ci vedo tutta questa differenza tenendo conto che d3 è "la punta di diamante" nvidia+opengl
rimane il fatto che se nvidia ha intenzione di far uscire una versione del genere un motivo ci sarà checchè ne dica qualcuno... :mc:

lordtytan
07-11-2005, 12:41
Aggiungici il fatto che Ati non supporta Linux e OpenGL come dovrebbe e il gioco è fatto. Lo ripeterò fino alla morte in ogni 3D riguardo le schede video, perchè è giusto che la gente lo sappia, fa parte di una corretta informazione, visto che poi olti si ritrovano con un prodotto Ati inutilizzabile in determinati campi. Perchè togliersi una possibilità che nVidia offre?
Per me il divario tecnologico e di supporto c' è anche in questo, ed è importante almeno nel mio caso.
Non me ne vogliano i fanboy Ati sempre presenti a difendere la loro casamadre Ati in ogni dove.
Commento alla notizia? Semplice nVidia è daccapo al vertice prestazionale (anche se prima di questa 512 GTX era praticamente alla pari), del mondo delle gpu. E' daccapo al vertice, tutto qui, che sarà mai?
Sul prezzo non credo proprio che sarà così alto, visto che nel marketing ci hanno saputo fare molto meglio di Ati, saranno tenere la concorrenza anche nel prezzo.
Non dimentichiamo poi che nVidia è sempre disponibile sul mercato e che la nuova serie Ati X1xx ancora non si vede come dovrebbe. Un altro fantasma dell' opera aleggia sulla rete senza un degno riscontro negli shop :doh:
:D :D :D Mammamia quanto quoto! nn potrei essere + daccordo lolol
io l'unica ati che ho è quella che sta sul mio portatile! ma con linux nn mi sono trovato granchè bene! mentre sul fisso la fx5600 256mbyte e ora la 6600gt si sono comportate + che benissimo :) e mo che prendo la 7800gt vi saprò dire!
ho anche avuto una brutta esperienza con un'ati 9800pro di un mio amiko che nel giro di 4 giorni l'ha sostituita 3 volte, e nell'overclok non ne voleva proprio sapere! figuriamoci del mod a 9800xt, lui l'aveva comprata apposta lol, invece nisba:)

DarKilleR
07-11-2005, 12:43
......no comment.....

Utenti con un minimo di cognizione e di razionalità dovrebbero praticare l'AUTO-BAN.


Se nVidia è costretta a tirar così tanto su le frequenze significa che sono proprio messi male...senza considerare il fatto che hanno quasi le metà delle tecnologie che ha proposto ATI adesso.

E' vero il fatto che espone bartolino su Linux per ora i driver sono scadenti...su Open GL...che dici??????? Si potrebbe dire che ATI non supporta gli OpenGL come nVidia non supporta i Direct3D.
Per certi ambiti di lavoro sia ATI che nVidia producono schede video professionali, ed IHMO in OpenGL vanno tutte più che egregiamente.

P.S. a mio avviso sono già esagerati i consumi adesso compresi quelli della 7800 GTX e soprattutto della 1800 XT che ha le memorie che puppano tantissimo....mi piacerebbe sapere questa nuova 7800 GTX 512 MB cpsa arriverà a fare....

bjt2
07-11-2005, 12:45
Il clock della GPU è del 27.9% in più. Non voglio fare il calcolo del clock delle RAM, primo, perchè non ricordo il clock precedente (1200 o 1300, chi se lo ricorda??? ), secondo, perchè dalle informazioni date da persone più esperte di me (tipo yossarian e fek), sembra che il clock della RAM non sia il peggior fattore limitante. Non voglio considerare il passaggio da 256 a 512 MB (visto che può influire solo in uno o due giochi e solo in Ultra Quality). Quindi ci possiamo aspettare un incremento di massimo 27.9% nel frame rate ed in situazioni non CPU limited (quindi a risoluzioni improponibili e filtri a palla).

Domanda: qual è il massimo vantaggio dell'X1800XT (in termini percentuali) ??? Mi pare che superasse il 30%...

Considerando che, FORSE, la banda in più può fare bene e che, FORSE, possiamo contare sull'effetto, più volte rilevato in OC, di incremento improvviso delle prestazioni e non proporzionale alle frequenze, NON possiamo dire che questa scheda superi sicuramente la X1800XT. Possiamo dire che, FORSE, la eguaglia, ma DOBBIAMO ASPETTARE I BENCH.

P.S.: se qualcuno posta i dati mancanti, tipo il divario massimo alle alte risoluzioni, così ci facciamo conti più precisi... ;) :D

bartolino3200
07-11-2005, 12:46
A parte il fatto che al max puoi dire che Ati non supporta linux e opengl come vorrei io
Ti consiglio di dare un'occhiata ai test dell'r520 su doom3 con la patch per il memory controller programmabile
guarda gli incrementi di prestazioni con filtri attivati.
poi parli di fanboy...
io non ci vedo tutta questa differenza tenendo conto che d3 è "la punta di diamante" nvidia+opengl

Non parlo solo di giochi ai quali gli affezionati di Ati sanno solo guardare e oltretutto non bastano due driver ottimizzati ad uopo a cambiare la situazione. nVidia è molto più aperta a piattaforme e sistemi alternativi a windows, non sono certo il primo a dirlo, è solo l' amara verità, fattene una ragione tu e chi per te.
OpenGl non significa per forza giochi, tutto qui.
Una gpu nVidia è ottima anche in campo professionale senza dover per forza ricorrere a prodotti dedicati e costosi di ambito professionale.
Mettiti nei panni di uno studentello di ing. edile al primo anno fuori sede, che si fa il pc per disegnarci e perchè no svagarsi su qualche gioco. Tu dici che sia così abbiente da potersi permettere FirGL o le migliori nVidia Quadro?
Io dico di no, e considera che i milgiori software scientifico/matematici quali MatLab girano meglio sotto Linux alias nVidia, e che Linux è molto ben visto in ambito accademico/universitario.
Ciao e buon appetito.

ardyp
07-11-2005, 12:49
ma voi ancora discutete, vi siete dimenticati i bench fatti da professionisti con azoto liquido sulla 7800gtx 1° edizione?Si vedeva chiaramente che superava la x1800xt in 3dmark05 a frequenze molto più basse, ora con questa nuova versione non oso immaginare.....
Mi sa che sta volta le 24 pipeline fanno la diferenza.....


ATI go buy skills! ;)

OverClocK79®
07-11-2005, 12:55
per gli analfabeti non è nemmeno lì o parlano per sentito dire perchè le rece lo spiegano

cerchiamo di restare tranquilli.....dare dell'analfabeta ad un altro utente nn contribuisce di certo ad una discussione civile.....e pacifica....
anzi....porta all'allonamento temporaneo dal forum.....

Aggiungici il fatto che Ati non supporta Linux e OpenGL

forse intendevi.....che Ati nn supporta Linux come nVidia....
perchè le OPGL nn hanno alcun problema con ATI......
forse NEI GAME ottimizzati per le nuove skede nVidia....nn VOLA!!! ma nn mi sembra si resetti o nn ti permetta di giokare con alcun gioko OPGL......

in campo professionale le FireGL nn mi sembrano poi così scarse.....

detto questo
voglio proprio vedere qlk bench.....
l'incremento di GPU nn è eccezzionale ma sensibile (nel resto nn si possono far miracoli)
le memorie sono state ben pompate......probabilmente o fuori specifica....
o con gli ultimi ritrovati......e forse questo spiega anke il prezzo nn propriamente basso.....

con le freq delle memorie così elevate
probabilmente il G70 recupererà quel gap che aveva con i filtri attivati....
visto che nn ha particolari ottimizzazioni delle memorie come la soluzione R520
....sono proprio curioso di vedere i bench.....

BYEZZZZZZZZZZZZZZZ :)

halduemilauno
07-11-2005, 13:01
......no comment.....

Utenti con un minimo di cognizione e di razionalità dovrebbero praticare l'AUTO-BAN.


Se nVidia è costretta a tirar così tanto su le frequenze significa che sono proprio messi male...senza considerare il fatto che hanno quasi le metà delle tecnologie che ha proposto ATI adesso.

E' vero il fatto che espone bartolino su Linux per ora i driver sono scadenti...su Open GL...che dici??????? Si potrebbe dire che ATI non supporta gli OpenGL come nVidia non supporta i Direct3D.
Per certi ambiti di lavoro sia ATI che nVidia producono schede video professionali, ed IHMO in OpenGL vanno tutte più che egregiamente.

P.S. a mio avviso sono già esagerati i consumi adesso compresi quelli della 7800 GTX e soprattutto della 1800 XT che ha le memorie che puppano tantissimo....mi piacerebbe sapere questa nuova 7800 GTX 512 MB cpsa arriverà a fare....


"Se nVidia è costretta a tirar così tanto su le frequenze significa che sono proprio messi male..."
430/1200 di nVidia vs i 625/1500 di ati. non credi che questa tua frase si adatti un pò di più ad ati?
consiglierei di aspettare riscontri e bench ufficiali.
;)

ardyp
07-11-2005, 13:08
Per info guardate :

http://www.tomshw.it/news.php?newsid=4941 Test x1800xt cloccata

http://www.tomshw.it/news.php?newsid=4687

7800gtx cloccata


ati max 12mila punti nvidia 17mila.... ups! :lol:

OverClocK79®
07-11-2005, 13:08
il discorso delle freq lascia il tempo che trova....
una è un 0.09 a 16pipe
l'altra utilizza ankora lo 0.11 con 24

per nn parlare di tutto il resto.....
le freq sono sono un dato per confrontare PARI MODELLI.....
nn serve a nulla dire.....
ma una va di + ma l'altra va di meno.....
guarda cosa fa X con 100mhz in meno ecc ecc

stesso discorso di adatta alle CPU ormai da anni....
si considera il prodotto finale e basta....

BYEZZZZZZZZZZZ

ulk
07-11-2005, 13:20
Appartiene ancora alla generazione di schede da saltare a mio modesto parere.

Aspetterò le 24 pipe di ATI.... :mc:

Quelo76
07-11-2005, 13:21
Non parlo solo di giochi ai quali gli affezionati di Ati sanno solo guardare e oltretutto non bastano due driver ottimizzati ad uopo a cambiare la situazione.

1- stai scrivendo su un forum in cui le schede grafiche si misurano con 3dmark e giochi quindi nn capisco la tua affermazione
2- parli di driver ottimizzati? peccato che io mi riferisco alla tecnologia che c'è dietro, il controllo della memoria programmabile nn ha niente a che vedere con l'ottimizzazione dei driver come la si intende di solito, se nn lo sai vai a rileggerti tutte le recensioni a riguardo.
ripeto: hai visto i test con la nuova patch?

nVidia è molto più aperta a piattaforme e sistemi alternativi a windows, non sono certo il primo a dirlo, è solo l' amara verità, fattene una ragione tu e chi per te.

non sono io a dovermene fare una ragione ma te.
l'amara verità è che il 90% dei computer in commercio usa un s.o. microsoft che piaccia o no.

OpenGl non significa per forza giochi, tutto qui.
Una gpu nVidia è ottima anche in campo professionale senza dover per forza ricorrere a prodotti dedicati e costosi di ambito professionale.
Mettiti nei panni di uno studentello di ing. edile al primo anno fuori sede, che si fa il pc per disegnarci e perchè no svagarsi su qualche gioco. Tu dici che sia così abbiente da potersi permettere FirGL o le migliori nVidia Quadro?
a parte il fatto che non capisco cosa c'entri questo tuo discorso, ATi fa le proprie strategie e decide di dividere il suo segmento in consumer e professional, mi sembra una scelta logica come fa altrettanto nvidia, non credo che il divario tra r520 e 7800x sia tanto esasperato in ambiente opengl come tu lo vorresti fare apparire

Io dico di no, e considera che i milgiori software scientifico/matematici quali MatLab girano meglio sotto Linux alias nVidia, e che Linux è molto ben visto in ambito accademico/universitario.
Ciao e buon appetito.
linux alias linux non nvidia.
nvidia dedica un supporto maggiore a linux, Ati non fa altrettanto.
tu sei libero di utilizzare linux se vuoi, ma per giocare mi spiace darti la brutta notizia devi installare winxp prima.
è da mesi che porti avanti sempre lo stesso discorso, ma fino a prova contraria i giochi vengono testati sotto o.s. winxp non linux, se nn ti va bene vai in un sito nei quali recensiscono schede testate con giochi sotto linux e divertiti con la varietà offerta...
non hai risposto alla domanda comunque: per quale motivo nvidia dovrebbe far uscire una scheda del genere se il divario secondo te nn esiste? ah si x girare meglio sotto linux...

bartolino3200
07-11-2005, 13:28
Linux esiste ed è sempre una opzione che in molti si perdono o si godono male con Ati.
Linux non è in primo luogo un SO per giochi, anzi.
Per giocare e basta si comprano giocattoli quali Ati o le costruzioni lego.
Se si vuole un sistema più flesibile e non solo come PC/giocattolo per adolescenti, si pensa ad nVdia solitamente.

Quelo76
07-11-2005, 13:31
Linux esiste ed è sempre una opzione che in molti si perdono o si godono male con Ati.
Linux non è in primo luogo un SO per giochi, anzi.
Per giocare e basta si comprano giocattoli quali Ati o le costruzioni lego.
Se si vuole un sistema più flesibile e non solo come PC/giocattolo per adolescenti, si pensa ad nVdia solitamente.
Evidentemente sono un adolescente hai ragione te.
:doh:
tu sei maturo invece facendo dei post del generee lo dimostri di certo.
p.s.: tocca Ati ma non toccarmi i lego.

JohnPetrucci
07-11-2005, 13:32
Considerando che la X1800XT è ancora un fantasma, e probabilmente quando non lo sarà più, sarà comunque poco diffusa sugli shop in perfetto stile Ati, e considerando che questa nuova 7800gtx a 512MB con frequenze pompate promette molto bene, io ridimensionerei il trionfo della nuova architettura Ati, che è si qualitativo e innovativo, ma che per adesso è affidato alla X1800XL che esiste, a differenza della sorella maggiore.

Dal mio punto di vista se le premesse e le caratteristiche della "nuova" 7800gtx verranno rispettate, le prestazioni torneranno in mano a Nvidia, pur essendo la tecnologia Ati più avanzata e programmabile, oltre che più qualitativa.
Insomma bisognerà scegliere tra la qualità Ati e le prestazioni di Nvidia. ;)

Raven
07-11-2005, 13:36
Linux esiste ed è sempre una opzione che in molti si perdono o si godono male con Ati.
Linux non è in primo luogo un SO per giochi, anzi.
Per giocare e basta si comprano giocattoli quali Ati o le costruzioni lego.
Se si vuole un sistema più flesibile e non solo come PC/giocattolo per adolescenti, si pensa ad nVdia solitamente.


Premesso che parlo da possessore nvidia (6800GT)...

Bartolino... lo abbiamo capito che preferisci nvidia... ma sarebbe possibile NON tirar fuori la storia del supporto ati per linux in TUTTI i santi thread sulle schede video?!?!

Ok.... Ati ha un pessimo supporto sotto linux... lo sai tu, lo so io, lo sappaimo TUTTI ormai... ma adesso basta!

Permettimi comunque di dire una cosa: vorrei proprio vedere quanti di coloro che usano linux, lo usano per giocare... e vorrei vedere anche quanti di coloro che usano linux per esigenze profesionali comprano una ati/nvidia di ultima generazione...
Detto questo, non giustifico il comportamento di ati, ma lo comprendo appieno: sono schede per giocare e come tali godono di ottimo sviluppo per piattaforme Microsoft... ambiente in cui la nuova nata X1800 è sicuramente "uno scalino sopra" alla diretta concorrente per le feature e le prestazioni offerte (vedi articolo di hwupgrade)...

Runfox
07-11-2005, 13:37
Basta, ho deciso che non leggerò più i commenti di hwupgrade, anche se a volte si trovano delle cose interessanti (e/o persone competenti). mi spiegate cosa centri il fatto (per esempio) dei driver linux di ATi con una news in cui si dice che la settimana prossima uscirà una nuova scheda Nvidia (che tra l'altro potrà permettersi una risicata % di persone) ?

Raven
07-11-2005, 13:39
Basta, ho deciso che non leggerò più i commenti di hwupgrade, anche se a volte si trovano delle cose interessanti (e/o persone competenti). mi spiegate cosa centri il fatto (per esempio) dei driver linux di ATi con una news in cui si dice che la settimana prossima uscirà una nuova scheda Nvidia (che tra l'altro potrà permettersi una risicata % di persone) ?

Per l'appunto... gradirei che si tornasse In topic evitando le solite diatribe ad opera dei soliti noti...

DjLode
07-11-2005, 13:45
430/1200 di nVidia vs i 625/1500 di ati. non credi che questa tua frase si adatti un pò di più ad ati?


Architettura diverse e ancora stai qui a confrontare le frequenze? Io guardo 430mhz->550mhz. Come mai non ti vedo fare gli stessi sproloqui che facevi quando erano stati annunciati i 625mhz per la X1800XT? Gpu overlcockata di fabbrica, tirata all'osso eccetera eccetera? Come vedi, ogni tanto, certe sparate è meglio tenersele per se ;)
Ah, non ti ho ancora visto criticare come non ho visto farlo a nessuno il dissipatore dual slot. Ma attendo fiducioso gli stessi commenti che queste persone hanno propinato in giro durante l'uscita dei rumors su R520. Così come chi parlava di consumi, calore eccetera eccetera. Come cambiano le opinioni ne? ;)

P.S. Ho scritto intanto che Raven intimava il ritorno in topic, sentiti libero di editare se vuoi o dimmelo che lo faccio ma gradirei che qualcuno leggesse ;)

fek
07-11-2005, 14:01
Linux esiste ed è sempre una opzione che in molti si perdono o si godono male con Ati.
Linux non è in primo luogo un SO per giochi, anzi.
Per giocare e basta si comprano giocattoli quali Ati o le costruzioni lego.
Se si vuole un sistema più flesibile e non solo come PC/giocattolo per adolescenti, si pensa ad nVdia solitamente.

Se vuoi una soluzione per grafica professionale, eccola qui:

ATI: http://www.ati.com/products/firegl.html


ATI’s FireGL cards — whether PCI Express x16 lane or AGP 8X — are designed to accelerate 3D workstation applications based on OpenGL® and Microsoft® DirectX® 9.0. With full certification on the leading computer aided design (CAD), architecture/ engineering/construction (AEC) and digital content creation (DCC) applications, FireGL is the high performance choice for graphics professionals working in Windows® or Linux® based systems.

NVIDIA: http://www.nvidia.com/page/quadrofx.html

The NVIDIA Quadro FX 3450, NVIDIA Quadro FX 3400, and NVIDIA Quadro FX 3000 are the industry-leading high-end workstation graphics solutions for CAD, DCC and scientific applications. Featuring outstanding performance and precision the NVIDIA Quadro high-end products deliver 256MB frame buffer memory, up to 28.8GB/s memory bandwidth, 256-bit memory interface and support for ultra high-resolution panels up to 3840x2400, blowing away all competitive workstation products in standard OpenGL workstation benchmarks.

Le schede grafiche della serie Radeon e GeForce sono dedicate al gaming. Se poi qualcuno cerca di adattarle a fare cio' per cui non sono state sviluppate (Linux e/o grafica professionale) e si lamenta, non e' un problema ne' di ATI ne' di NVIDIA. E' come attaccare un paio di ali ad una macchina e lamentarsi perche' non vola.

guglielmit
07-11-2005, 14:02
Alla fine Nvidia rimarra' sempre avanti.
Quando sara' disponibile in volumi la X1800XT la 7800GTX512 sara' gia' obsoleta e ci sara' gia' la nuova GPU nvidia. :Prrr: :Prrr: :Prrr:

yossarian
07-11-2005, 14:09
ok, c'è le pipeline a blocchi, il bus ganzo, meno pipeline, bla bla bla
siamo tutti d'accordo
ma quando infilo la schedina e faccio partire il giochino, ha importanza sapere che c'ho tutte queste cosine ganze dentro?
o è importante vedere che mi regge meglio i giochini?
suvvia. siamo seri.


quindi a te un NV3x che ti fa girare tutto con sm1.x anche impostando lo sm2.0 (facendo application detect e shader replacement) va più che bene, visto che l'importante è che il giochino funziona, anche se non conta come?
Domenda posta esclusivamente a titolo di chiarimento :mbe:

JohnPetrucci
07-11-2005, 14:10
Alla fine Nvidia rimarra' sempre avanti.
Quando sara' disponibile in volumi la X1800XT la 7800GTX512 sara' gia' obsoleta e ci sara' gia' la nuova GPU nvidia. :Prrr: :Prrr: :Prrr:
Non è uno scenario futuro del tutto improbabile... :D

3spass
07-11-2005, 14:13
Qualcuno saprebbe indicarmi un link dove vengono messe a confronto le prestazioni delle schede Radeon e Geforce con programmi di ambito professionale?
Non mi interessano nè le FireGL nè le Quadro.
Voglio vedere quanto è il gap delle Radeon di ATI in quest'ambito rispetto alle Geforce.
Grazie.

harlock10
07-11-2005, 14:13
Ma teoricamente la x1800xt non dovrebbe essere disponibile il 15 di novembre?
Se fosse così ati e nvidia se la giocherebbero molto sulla effettiva disponibilità nei negozi anche se credo che come al solito qualcuno presenti le solite schede fantasma........

Ps tutti quelli che dicono che la 7800gtx è obsoleta perchè supporta solo hdr singolo prima con le x800 dicevano che gli shader model 3.0 , hdr non servivano a nulla ....... se non è tirare l'acqua al proprio mulino .....

ciao a tutti

guglielmit
07-11-2005, 14:15
Non è uno scenario futuro del tutto improbabile... :D


E' un dato di fatto :D

yossarian
07-11-2005, 14:16
Non parlo solo di giochi ai quali gli affezionati di Ati sanno solo guardare e oltretutto non bastano due driver ottimizzati ad uopo a cambiare la situazione. nVidia è molto più aperta a piattaforme e sistemi alternativi a windows, non sono certo il primo a dirlo, è solo l' amara verità, fattene una ragione tu e chi per te.
OpenGl non significa per forza giochi, tutto qui.
Una gpu nVidia è ottima anche in campo professionale senza dover per forza ricorrere a prodotti dedicati e costosi di ambito professionale.
Mettiti nei panni di uno studentello di ing. edile al primo anno fuori sede, che si fa il pc per disegnarci e perchè no svagarsi su qualche gioco. Tu dici che sia così abbiente da potersi permettere FirGL o le migliori nVidia Quadro?
Io dico di no, e considera che i milgiori software scientifico/matematici quali MatLab girano meglio sotto Linux alias nVidia, e che Linux è molto ben visto in ambito accademico/universitario.
Ciao e buon appetito.

conosci SGI? Sai che molte workstation SGI montano vga con chip ATi della serie FireGL? Sai che molti simulatori in ambito militare utilizzano multiGPU con chip delle serie R3x0 e R4x0 (non è solo nVIDIA che ha un contratto per forniture militari o con la NASA o altri enti aerospaziali)?

Raven
07-11-2005, 14:21
Ultimo avvertimento basta OT e basta Ati vs Nvidia

hornet75
07-11-2005, 14:21
Basta, ho deciso che non leggerò più i commenti di hwupgrade, anche se a volte si trovano delle cose interessanti (e/o persone competenti). mi spiegate cosa centri il fatto (per esempio) dei driver linux di ATi con una news in cui si dice che la settimana prossima uscirà una nuova scheda Nvidia (che tra l'altro potrà permettersi una risicata % di persone) ?

quoto in pieno quanto scritto da Runfox

Alla fine Nvidia rimarra' sempre avanti.
Quando sara' disponibile in volumi la X1800XT la 7800GTX512 sara' gia' obsoleta e ci sara' gia' la nuova GPU nvidia. :Prrr: :Prrr: :Prrr:

commenti del genere fanno cadere le braccia a terra :muro:

Sarebbe più condivisibile un commento del tipo "compro ATI X1800XT oppure nVidia 7800GTX perchè è la scheda + costosa e presumibilmente la + potente in ambito videoludico". Il che è l'unico parametro in cui realmente una scheda supera un'altra (il prezzo).

Sarebbe un commento "sborronesco" ma che ha una certa logica.

Poi vorrei mettere i fanboy delle due fazioni davanti a due computer con gioco di ultima generazione in esecuzione e vedere se riescono a dirmi in quale computer gira una X1800XT e in quale gira una 7800GTX così ad occhio

Per chiudere non capisco i riferimentio a Linux come commento a questa news. Me la sarei aspettata in una news che titolava "nuovi driver nVidia oppure ATI per Linux". Qui invece non capisco che centri........forse che per utilizzare linux mi serve una scheda da 649 dollari?

halduemilauno
07-11-2005, 14:28
Architettura diverse e ancora stai qui a confrontare le frequenze? Io guardo 430mhz->550mhz. Come mai non ti vedo fare gli stessi sproloqui che facevi quando erano stati annunciati i 625mhz per la X1800XT? Gpu overlcockata di fabbrica, tirata all'osso eccetera eccetera? Come vedi, ogni tanto, certe sparate è meglio tenersele per se ;)
Ah, non ti ho ancora visto criticare come non ho visto farlo a nessuno il dissipatore dual slot. Ma attendo fiducioso gli stessi commenti che queste persone hanno propinato in giro durante l'uscita dei rumors su R520. Così come chi parlava di consumi, calore eccetera eccetera. Come cambiano le opinioni ne? ;)

P.S. Ho scritto intanto che Raven intimava il ritorno in topic, sentiti libero di editare se vuoi o dimmelo che lo faccio ma gradirei che qualcuno leggesse ;)

"Se nVidia è costretta a tirar così tanto su le frequenze significa che sono proprio messi male..."
430/1200 di nVidia vs i 625/1500 di ati. non credi che questa tua frase si adatti un pò di più ad ati?
consiglierei di aspettare riscontri e bench ufficiali.
;)

era solo una risposta a chi citava le frequenze elevate. certo architetture diverse chi l'ha mai negato?
non ho mai detto che i 625 erano un oc di fabbrica(anzi ci si aspettava i 700)ho solo detto che con frequenze gia cosi elevate l'oc sarebbe stato modesto. sempre riferito al valore default di 650 che era quello che in quel momento si sapeva e sempre di oc alla portata di tutti. era una mia opinione.
in quanto ai 550 ho sempre detto che l'NV47(ora G70) era nato a 500 di core quindi il proporlo a 430 è stata solo una mossa per non giocare l'asso fin da subito in attesa della risposta ati.
e a tal proposito prima ho concluso con questa frase:
"consiglierei di aspettare riscontri e bench ufficiali."
se questo è dire sparate, sproloqui.


PS non ho mai criticato il dissi dual slot. con tutto lo spazio che c'è nel case.

yossarian
07-11-2005, 14:50
gran parte del prezzo se ne va per le memorie, comuqnue la gtx attuale rimarrà la scheda dai volumi di vendita più alti, questa versione con clock maggiorato servirà solo per dire "io ho la vga più potente"


ho il sospetto che qualcuno, qui dentro, si aspetti la commercializzazione in volumi di questa vga. Forse ci si dovrebbe andare a guardare quello che la stessa nVIDIA sostiene a proposito delle rese possibili degli 0,11 u da poter tirare a 550 Mhz (siamo sull'ordine delle migliaia, non certo dei milioni).
Come avevo ipotizzato è solo un prodotto da bench, prodotto in quantità ridotte, estremamnete costoso e consumi sicuramente ben più elevati della versione a 256 MB 430/1200

haveacigar
07-11-2005, 15:04
ho il sospetto che qualcuno, qui dentro, si aspetti la commercializzazione in volumi di questa vga. Forse ci si dovrebbe andare a guardare quello che la stessa nVIDIA sostiene a proposito delle rese possibili degli 0,11 u da poter tirare a 550 Mhz (siamo sull'ordine delle migliaia, non certo dei milioni).
Come avevo ipotizzato è solo un prodotto da bench, prodotto in quantità ridotte, estremamnete costoso e consumi sicuramente ben più elevati della versione a 256 MB 430/1200


mi passeresti gentilmente il link?

ErPazzo74
07-11-2005, 15:05
Riguardo la news sinceramente son scettico di frequenze così elevate soprattutto riguardo le frequenze della GPU.
Sulla memoria posso crederci visto che anche quelle ati ptrebbero andare a 1600Mhz.
Comunque io come persona son sintonizzato sulla linea seguita da S3 buone prestazioni (speriamo) con bassi consumi (questo è + sicuro), per cui questa news non mi tange molto.

x yossarian: dove è scritta la resa della nvidia?

x Raven: io ho giocato a "Battle for Wesnoth" in linux e mi son divertito come quando giocavo al C128 coi giochi del C64. Certo la mia scheda è 2d solamente ma per divertirmi mi è bastato, ovviamente io sono come "1 ago in 1 pagliaio" :).

xXxCoKxXx
07-11-2005, 15:26
mauhauahuah ma dai vabene tt xò la prima cosa che m'è venuta in mente è: quanto consumerà questa scheda? ma ne avete una più pallida idea a 0.11 mic mauhauahuahu vabè contenti voi compratevela pure.. tanto i giochi andranno al massimo anche con una 7800gtx a 256mb.. che ve ne fate di una con 512mb... che è vero probabilmente andrà più della 1800xt.. ma che ha diverse tecnologie in meno e che consumerà DI SICURO UN MACELLO ? (sempre se queste saranno davvero le frequenze reali)

P.,S. COMPLIMENTI A BARTOLINO CHE TANTO X CAMBIARE A TIRATO FUORI IL DISCORSO DI LINUX-ATI ...

ricordo il titolo dell'articolo:

"GeForce 7800GTX 512MB in vendita dalla prossima settimana?"

xXxCoKxXx
07-11-2005, 15:34
scusate i diversi errori grammaticali ma sono letteralmente distrutto :| ah poi volevo commentare un'altra cosa:

nn mi ricordo più dove e da chi l'ho letta.. cmq a pari di frequenza r520 & g70 se nn ricordo male solo in pochissimi test vince g70.. poi c'è da considerare comunque la bontà delle nuove tecnologie offerte da ati.. trovo ingiustificato tt questo odio x la 1800 ^^ a me sembra una gran bella scheda..

johnson
07-11-2005, 15:35
ho il sospetto che qualcuno, qui dentro, si aspetti la commercializzazione in volumi di questa vga. Forse ci si dovrebbe andare a guardare quello che la stessa nVIDIA sostiene a proposito delle rese possibili degli 0,11 u da poter tirare a 550 Mhz (siamo sull'ordine delle migliaia, non certo dei milioni).
Come avevo ipotizzato è solo un prodotto da bench, prodotto in quantità ridotte, estremamnete costoso e consumi sicuramente ben più elevati della versione a 256 MB 430/1200

Mah, anche se fosse come dici tu, la situazione sarebbe uguale a quella della x1800xt pl (paper launch).

Io non credo che tu abbia ragione, e soprattutto non posso escludere che, come diceva halduemilauno, la 7800GTX 256 sia stata proposta con freq downcloccate per renderla giusto un po' più veloce dell'ammiraglia ATI del momento in TUTTI i giochi e a TUTTE le risoluzioni (cosa che ATI non è riuscita a fare nemmeno sulla carta con la x1800xt pl).

In ogni caso sono molto curioso di vedere i bench di questo nuovo mostro, ma non mi accontento hehe...
Fra qualche settimana vorrei vedere una bella x1800xt pe pl superpompata che magari ribalti di nuovo la situazione, a tutto vantaggio delle nostre tasche, che forse potrebbero permettersi i modelli più piccoli, dopo un adeguamento del prezzo :D

bjt2
07-11-2005, 15:41
Il clock della GPU è del 27.9% in più. Non voglio fare il calcolo del clock delle RAM, primo, perchè non ricordo il clock precedente (1200 o 1300, chi se lo ricorda??? ), secondo, perchè dalle informazioni date da persone più esperte di me (tipo yossarian e fek), sembra che il clock della RAM non sia il peggior fattore limitante. Non voglio considerare il passaggio da 256 a 512 MB (visto che può influire solo in uno o due giochi e solo in Ultra Quality). Quindi ci possiamo aspettare un incremento di massimo 27.9% nel frame rate ed in situazioni non CPU limited (quindi a risoluzioni improponibili e filtri a palla).

Domanda: qual è il massimo vantaggio dell'X1800XT (in termini percentuali) ??? Mi pare che superasse il 30%...

Considerando che, FORSE, la banda in più può fare bene e che, FORSE, possiamo contare sull'effetto, più volte rilevato in OC, di incremento improvviso delle prestazioni e non proporzionale alle frequenze, NON possiamo dire che questa scheda superi sicuramente la X1800XT. Possiamo dire che, FORSE, la eguaglia, ma DOBBIAMO ASPETTARE I BENCH.

P.S.: se qualcuno posta i dati mancanti, tipo il divario massimo alle alte risoluzioni, così ci facciamo conti più precisi... ;) :D


Mi quoto, visto che nessuno mi ha risposto...

Voi cosa ne pensate? Qualcuno può azzardare una previsione più precisa della mia? :D

xXxCoKxXx
07-11-2005, 15:42
quoto le tue ultime 3 righe jhonson ^^

xXxCoKxXx
07-11-2005, 15:44
allora quoto anche bjt2 ^^

leoneazzurro
07-11-2005, 15:51
Mi quoto, visto che nessuno mi ha risposto...

Voi cosa ne pensate? Qualcuno può azzardare una previsione più precisa della mia? :D

IMHO la 7800 512 Mega con quelle frequenze vincerà la gran parte dei test, perdendo solo in alcuni giochi in altissime risoluzioni e filtri attivati (e dove si è fill rate limited).
Il problema è che per ora appare come una press board, che difficilmente entrerà in commercio in quantità "papabili".

xXxCoKxXx
07-11-2005, 15:53
io leoneazzurro la penso diversamente ^^ cmq staremo a vedere... solo i test ci sapranno indicare chi ha torto e chi no :P

xXxCoKxXx
07-11-2005, 15:57
poi leo voglio farti una domanda... 100 euro in + per un pelo di fps in più, un consumo energetico che se ne metti 2 in sli ti serve minimo una cernobill x farla andare per 100 dollari in più rispetto alle 1800 e qualche tecnologia in meno rispetto a quest'ultima?

leoneazzurro
07-11-2005, 16:09
poi leo voglio farti una domanda... 100 euro in + per un pelo di fps in più, un consumo energetico che se ne metti 2 in sli ti serve minimo una cernobill x farla andare per 100 dollari in più rispetto alle 1800 e qualche tecnologia in meno rispetto a quest'ultima?

Nessuna delle due.
IMHO una 6800 GT/GS o una X800XL sono più che sufficienti per le esigenze della stragrande maggioranza dei videogiocatori e lo saranno per ancora un (bel, spero) pò di tempo.
A mio parere, spendere più di 400 Euro per una scheda video per giocare è pura follia.

bartolino3200
07-11-2005, 16:10
http://www.tomshw.it/news.php?newsid=5152

http://img179.imageshack.us/img179/7926/senzatitolo15bo.jpg (http://imageshack.us)

xXxCoKxXx
07-11-2005, 16:19
muahuaha si tu che nn sei un giocatore così accanito magari.. ^^ chiedilo a chi ogni 4-6 mesi da vero videogiocatore fa upgrade ;) p.s. io di certo nn lo sono .. mancano i din din :(

leoneazzurro
07-11-2005, 16:21
Io parlerei di "sboron mode" ad un certo punto, ma lasciamo perdere.
Chiaro che se vuoi giocare tutto a 1600x1200 con filtri a palla. Ma limitandosi a 1280x1024, e attivando i filtri dove si può, a cosa non è possibile giocare oggi con una 6800 GT o una X800 XL?

xXxCoKxXx
07-11-2005, 16:23
bartolino che vuoi indicare kn questo ? un'altra scheda che si aggiunge alle già 3000 presenti? xkè se nn vado errando nn c'era anche una 6800XT ... ?? che fine ha fatto ?

dwfgerw
07-11-2005, 16:25
intanto nvidia presenta il killer della x1600xt

http://www.hardware-mania.it/modules.php?name=News&file=article&sid=2246

xXxCoKxXx
07-11-2005, 16:27
si ok leone hai ragione concordo,, ma vedi di "sboron mode" ce ne sn :P e c'è chi lo fa anche per mestiere sai?
p.s. fra non molto nn basterà più nemmeno una x800xl i una 6800gt.. ti ricordo i giochi che stanno x uscire... "l'espansione di hl2 [nn mi ricordo il nome preciso, so solo che ha dei requisiti minimi da latte alle ginokkia] e ut2007 (beh ti dico solo che è ancora peggio.. ) quindi poveri noi

xXxCoKxXx
07-11-2005, 16:33
ahhh beh fascia media.. nn so voi ma io ho il presentimento che x1600 nn sarà gran che.. mi spiace davvero molto xkè nn mi piace mettere le mani avanti.. ma 128bit di bus sono decisamente tr deludenti e pochi. se questa 6800GS con una tecnologia non vecchia ma nemmeno recentissima dovesse superare in generale la nuova x1600... beh bella inculata.. evidentemente in casa ati nn si da molta importanza alla fascia MEDIA.

leoneazzurro
07-11-2005, 16:34
Dei due che citi solo UT2007 (che non uscirà certo subito, si parla di fine 2006-inizio 2007 salvo complicazioni) dovrebbe impensierire decisamente le schede citate.
Lost coast pare sia decisamente più leggero e dovrebbe essere giocabilissimo a 1024x768+HDR.

xXxCoKxXx
07-11-2005, 16:36
mah... nn ne sono così certo... vedremo..

yossarian
07-11-2005, 16:38
mi passeresti gentilmente il link?


la fonte è sempre T.I. e si parla di RSX (che è un G70 a 90 nm); e guarda caso, nVIDIA sostiene che G70 possa lavorare a 550 Mhz (la frequenze di RSX), ma di non poter assicurare la produzione di milioni di chip a quella frequenza con gli 0,11 u.

http://www.theinquirer.net/?article=27463

Per quanto possa essere inattendibile T.I., stavolta riporta qualcosa che si sa, ormai, da diverso tempo (d'altra parte, vi siete mai chiesti come mai Sony sta aspettando la transizione a 0,09 per avere un G70 a 550 Mhz?)

Fra qualche giorno riparlaremo di questa presunta invasione del mercato da parte di 7800 a 512 MB :D

Foglia Morta
07-11-2005, 16:39
Mah, anche se fosse come dici tu, la situazione sarebbe uguale a quella della x1800xt pl (paper launch).

Io non credo che tu abbia ragione, e soprattutto non posso escludere che, come diceva halduemilauno, la 7800GTX 256 sia stata proposta con freq downcloccate per renderla giusto un po' più veloce dell'ammiraglia ATI del momento in TUTTI i giochi e a TUTTE le risoluzioni (cosa che ATI non è riuscita a fare nemmeno sulla carta con la x1800xt pl).

In ogni caso sono molto curioso di vedere i bench di questo nuovo mostro, ma non mi accontento hehe...
Fra qualche settimana vorrei vedere una bella x1800xt pe pl superpompata che magari ribalti di nuovo la situazione, a tutto vantaggio delle nostre tasche, che forse potrebbero permettersi i modelli più piccoli, dopo un adeguamento del prezzo :D
Ecco perchè non si può parlare di phantom edition
Relativamente al discorso "disponibilità" di ATI, vorrei farvi notare una cosa. NVIDIA ha deciso di adottare una politica del tipo "presentazione al pubblico = disponibilità ai rivenditori". Bene, questa ovviamente è una politica che le fa onore e che fa molto piacere a coloro che non vedono l'ora di mettere mani ai nuovi mostri tecnologici (e che fortunatamente per loro possono permetterselo). Io ho incontrato sia ATI che NVIDIA allo SMAU e con la prima ho discusso molto di questo punto e sapete cosa mi hanno detto? Il termine "disponibilità in volumi" per ATI ha lo stesso significato che ha avuto per lei (e per praticamente tutte le aziende informatiche produttori di CPU, schede audio, ecc...) negli ultimi anni: "disponibilità in volumi del chip", cioè il chip è in produzione. Questa è una cosa ben diversa dalla disponibilià in commercio in quanto non conta i tempi tecnici di spedizione, assemblaggio delle schede, distribuzione, ecc..

Foglia Morta
07-11-2005, 16:45
la fonte è sempre T.I. e si parla di RSX (che è un G70 a 90 nm); e guarda caso, nVIDIA sostiene che G70 possa lavorare a 550 Mhz (la frequenze di RSX), ma di non poter assicurare la produzione di milioni di chip a quella frequenza con gli 0,11 u.

http://www.theinquirer.net/?article=27463

Per quanto possa essere inattendibile T.I., stavolta riporta qualcosa che si sa, ormai, da diverso tempo (d'altra parte, vi siete mai chiesti come mai Sony sta aspettando la transizione a 0,09 per avere un G70 a 550 Mhz?)
ma G70 in "versione pc" non penso che debba ( spero sia corretto :D )vendere milioni di schede , non so i volumi di vendita della fascia alta ma quando ne hanno vendute 200.000 di schede da 500-600 euro non penso sia tanto male

ardyp
07-11-2005, 16:46
Brutti niubbi guardate qua prima di parlare, ancora a discutere su questa inutile ati, nvidia è superiore e basta.

Per info guardate :

http://www.tomshw.it/news.php?newsid=4941
Test x1800xt cloccata

http://www.tomshw.it/news.php?newsid=4687

7800gtx cloccata

sono ben 5000 punti di differeza! :D

guglielmit
07-11-2005, 16:47
Riconfermo il mio pensiero.
Nvidia questa volta ha dato lezione di marketing :D

yossarian
07-11-2005, 16:49
ma G70 in "versione pc" non penso che debba ( spero sia corretto :D )vendere milioni di schede , non so i volumi di vendita della fascia alta ma quando ne hanno vendute 200.000 di schede da 500-600 euro non penso sia tanto male


certo che no, ma neppure poche migliaia, presumo.
Vero che gli alti costi non lo rendono un prodotto molto appetibile, però, visto che si parla di resa, la resa di un chip come R520 a 0,09 è sicuramente di vari ordini di grandezza più elevata di quella di un chip come G70 a 0,11; sia per il diverso processo produttivo, sia per la tipologia di chip.
Questo, ovviamente, non considerando prodotti portati già quasi al limite, con capacità di o/c prossime allo zero :D

Per rispondere a johnson, questa non sarà una phantom edition, però si può definire, a pieno titolo, una benchmark edition :D

leoneazzurro
07-11-2005, 16:51
Brutti niubbi guardate qua prima di parlare, ancora a discutere su questa inutile ati, nvidia è superiore e basta.

Per info guardate :

http://www.tomshw.it/news.php?newsid=4941
Test x1800xt cloccata

http://www.tomshw.it/news.php?newsid=4687

7800gtx cloccata

sono ben 5000 punti di differeza! :D

le 7800 GTX sono in SLI.

yossarian
07-11-2005, 16:52
Brutti niubbi guardate qua prima di parlare, ancora a discutere su questa inutile ati, nvidia è superiore e basta.

Per info guardate :

http://www.tomshw.it/news.php?newsid=4941
Test x1800xt cloccata

http://www.tomshw.it/news.php?newsid=4687

7800gtx cloccata

sono ben 5000 punti di differeza! :D

si, peccato che le 7800 GTX clockate siano 2 (quello è uno SLI) :D

ghiandolo
07-11-2005, 16:54
UN GENIO CHI HA SCRITTO LA SILGA GIUSTA PER PRIMO!!!

DA OGGI SI CHIAMERA' X1800XT ....P.L. OOOOEEEEEEEEE!!!!

LA PAPER LAUNCH... WOW!!!!! SEI UN MITO!!!! MA LOL LOL LOL

xXxCoKxXx
07-11-2005, 16:57
hey pezzo di ignoranza [ardyp] guarda che le 7800gtx che tu in quel test consideri così ECCEZIONALI è in SLi -.- sto sfigato

guglielmit
07-11-2005, 16:57
commenti del genere fanno cadere le braccia a terra :muro:



Prima di farti cadere le braccina impara a quotare :D Il primo QUOTE che hai fatto non e' un mio intervento!!

Foglia Morta
07-11-2005, 16:58
UN GENIO CHI HA SCRITTO LA SILGA GIUSTA PER PRIMO!!!

DA OGGI SI CHIAMERA' X1800XT ....P.L. OOOOEEEEEEEEE!!!!

LA PAPER LAUNCH... WOW!!!!! SEI UN MITO!!!! MA LOL LOL LOL
Buona Pasqua :D

ardyp
07-11-2005, 16:58
azz ho sbagliato link, aspettate ke lo cerco....


cmq il risultato non cambia... :D

xXxCoKxXx
07-11-2005, 17:00
mah dubito -.-

Foglia Morta
07-11-2005, 17:00
azz ho sbagliato link, aspettate ke lo cerco....


cmq il risultato non cambia... :D
allora è molto utile lo sli :rotfl: :rotfl:

AndreaG.
07-11-2005, 17:01
azz ho sbagliato link, aspettate ke lo cerco....


cmq il risultato non cambia... :D


Si ma certo... è chiaro.... :D :sofico:

xXxCoKxXx
07-11-2005, 17:03
nasconditi valà :-))) mauhauahuahauh

johnson
07-11-2005, 17:07
Ecco perchè non si può parlare di phantom edition

Mah, a me il quote di vifani non dice assolutamente nulla riguardo alle mie affermazioni.

Che Ati intenda per disponibilità in volumi "avere le schede in fabbrica ma doverle ancora passare ai distributori" a me non interessa molto. Il fatto è che per nvidia non è così e il giorno della presentazione della scheda la trov i già in vendita presso i migliori online shop.

Quindi alla luce di questo fatto, come cliente, che politica preferisci?

Quelo76
07-11-2005, 17:08
è bello leggere post come questi di lunedì, ti alleggeriscono l'inizio della settimana...
bartolino che dice che chi è "maturo" compra nvida e chi è un niubbo compra ati e questo che nn sa la differenza tra una 1 e 1+1...
io ancora aspetto di saxe x quale motivo nvdia dovrebbe far uscire una scheda portata a freq limite se il divario con ati nn esiste.

Foglia Morta
07-11-2005, 17:12
Mah, a me il quote di vifani non dice assolutamente nulla riguardo alle mie affermazioni.

Che Ati intenda per disponibilità in volumi "avere le schede in fabbrica ma doverle ancora passare ai distributori" a me non interessa molto. Il fatto è che per nvidia non è così e il giorno della presentazione della scheda la trov i già in vendita presso i migliori online shop.

Quindi alla luce di questo fatto, come cliente, che politica preferisci?
io preferisco sapere quando posso acquistare ciò che mi interessa (in base alla spiegazione di prima lo so ). Come è stato spiegato non è la regola il comportamento di nVidia ma l'eccezione , ha senz'altro merito , ma se nVidia fa una cosa Ati deve fare uguale ? Ha fatto scelte diverse che nel settore sono le più diffuse

Quindi è una tua fantasia la phantom edition in questo caso

T3d
07-11-2005, 17:12
è bello leggere post come questi di lunedì, ti alleggeriscono l'inizio della settimana...
bartolino che dice che chi è "maturo" compra nvida e chi è un niubbo compra ati e questo che nn sa la differenza tra una 1 e 1+1...
io ancora aspetto di saxe x quale motivo nvdia dovrebbe far uscire una scheda portata a freq limite se il divario con ati nn esiste.
:asd: ma ancora vi sorprendete di bartolino? ormai è una costante nel forum :asd: come la mozzarella sulla pizza :asd:

per quanto riguarda la scheda... gasp, che mostro. Purtroppo costerà uno sfacelo... come costerà uno sfacelo una presunta x1800xt pe... che pazzia :( rimane il fatto che il chip r520 è superiore tecnologicamente al chip g70.

xXxCoKxXx
07-11-2005, 17:13
ma caro quelo76 il più è farlo capire a gente dal cranio duro :P ahhh pazienza ^^

freerider79
07-11-2005, 17:17
Secondo me pur avendo numeri esagerati questa scheda non si distaccherà di molto dalla x1800xt.

Ricordiamo a tutti che l'architettura e processo produttivo è lo stesso del modello a 256mb quindi le prestazioni non potranno essere decisamente superiori.

INoltre a livello tecnologico del processo produttivo a 0.09 di ati sicuramente permette un overclock più produttivo.

Il prezzo comunuque non dovrebbe essere inferiore ai 630 euro sicuramente, da capogiro.
Per sfruttare questo modello g70 da 512mb bisogna avere un processore all'altezza, altrimeni il cpu limited detterà legge.

zani83
07-11-2005, 17:18
beh...niente da dire...G70 tira fuori i muscoli....e Ati ha un progetto più innovativo ma meno performante....

-consuma di più(e occupa 2 slot) e va praticamente tanto uguale...considerando il ritardo non è assolutamente un buon risultato!
-ora nVidia può gestire come meglio crede le uscite delle sue sk video massimizzando gli introiti

Ati loose!! almeno x questa generazione di skete....speriamo che nella prossima non sia così sfortunata(sempre se si possa parlare di fortuna/sfortuna)

T3d
07-11-2005, 17:23
perde? vince? ma de che parlate ahò??? mica sono squadre di calcio! veramente non vi capisco :O

johnson
07-11-2005, 17:34
io preferisco sapere quando posso acquistare ciò che mi interessa (in base alla spiegazione di prima lo so ). Come è stato spiegato non è la regola il comportamento di nVidia ma l'eccezione , ha senz'altro merito , ma se nVidia fa una cosa Ati deve fare uguale ? Ha fatto scelte diverse che nel settore sono le più diffuse

Quindi è una tua fantasia la phantom edition in questo caso

Scusami ma sei veramente fuori strada.

Il mercato è stuffo di presentazioni di schede che poi non si possono comprare per mesi. La goccia che ha fatto traboccare il vaso è stata la disponibilità praticamente nulla delle x800xt pe e quasi nulla delle 6800Ultra.
Nvidia sembra sia stata l'unica a cogliere le indicazioni del mercato, e ha presentato g70 solamente dopo averlo distribuito in tutto il mondo, pronto per essere venduto.
Sarebbe auspicabile che anche ATI si comportasse nella stessa maniera, saremmo noi i primi a guadagnarci non credi?

Oppure dovremmo sperare che Nvidia si riallinei alla brutta abitudine di presentare schede che non sono ancora disponibili?

johnson
07-11-2005, 17:42
perde? vince? ma de che parlate ahò??? mica sono squadre di calcio! veramente non vi capisco :O

Ah beh, perchè tifare per una squadra di calcio è molto più nobile... rofl

ranma over
07-11-2005, 17:51
Queste dovrebbero essere le frequenze della xfx che sembrano più spinte di quelle di defoult ni nvidia più presumibili di 560\1600.

http://www.tomshw.it/news.php?newsid=5124

Foglia Morta
07-11-2005, 17:52
Scusami ma sei veramente fuori strada.

Il mercato è stuffo di presentazioni di schede che poi non si possono comprare per mesi. La goccia che ha fatto traboccare il vaso è stata la disponibilità praticamente nulla delle x800xt pe e quasi nulla delle 6800Ultra.
Nvidia sembra sia stata l'unica a cogliere le indicazioni del mercato, e ha presentato g70 solamente dopo averlo distribuito in tutto il mondo, pronto per essere venduto.
Sarebbe auspicabile che anche ATI si comportasse nella stessa maniera, saremmo noi i primi a guadagnarci non credi?

Oppure dovremmo sperare che Nvidia si riallinei alla brutta abitudine di presentare schede che non sono ancora disponibili?
Se dicono una data x il lancio sai che questa deve essere traslata di 3 settimane circa ( a parte le BBA ) per vederle sul mercato , quindi phantom edition non c' entra proprio nulla perchè la data indica la disponibilità dei chip per i produttori non per gli utenti finali... L'alternativa è che tu inizi a sperare che Ati non comunichi la disponibilità dei chip per i produttori ma comunichi quella per gli utenti finali , alla fine ciò che importa è sapere cosa significa la data comunicata per farsi aspettative realistiche .
Ati comunica la disponibilità ai produttori e nVidia agli utenti finali , quando sai la data che comunica Ati trasli di 3 settimane e sei a posto , nVidia invece preferisce fare la sorpresa all' uscita... Semplicemente son scelte diverse , secondo me non c' è ne merito nè demerito

johnson
07-11-2005, 18:02
Se dicono una data x il lancio sai che questa deve essere traslata di 3 settimane circa ( a parte le BBA ) per vederle sul mercato , quindi phantom edition non c' entra proprio nulla perchè la data indica la disponibilità dei chip per i produttori non per gli utenti finali... L'alternativa è che tu inizi a sperare che Ati non comunichi la disponibilità dei chip per i produttori ma comunichi quella per gli utenti finali , alla fine ciò che importa è sapere cosa significa la data comunicata per farsi aspettative realistiche .
Ati comunica la disponibilità ai produttori e nVidia agli utenti finali , quando sai la data che comunica Ati trasli di 3 settimane e sei a posto , nVidia invece preferisce fare la sorpresa all' uscita... Semplicemente son scelte diverse , secondo me non c' è ne merito nè demerito

Il mondo è bello perchè è vario. Il mercato, che è composto da me e te e tutti gli altri, ha promosso la politica di nvidia e ha bocciato quella di ATI. Poi se per te è meglio presentare le schede e non sapere quando potrai effettivamente comprarle affari tuoi. Perchè le 3 settimane di cui tu parli sono assolutamente inventate. Senza contare che a parte il ritardo sulla effettiva reperibilità, ci sta anche un reale problema di scorte, che sembrano essere sempre minori alla domanda.

Foglia Morta
07-11-2005, 18:29
Il mondo è bello perchè è vario. Il mercato, che è composto da me e te e tutti gli altri, ha promosso la politica di nvidia e ha bocciato quella di ATI. Poi se per te è meglio presentare le schede e non sapere quando potrai effettivamente comprarle affari tuoi. Perchè le 3 settimane di cui tu parli sono assolutamente inventate. Senza contare che a parte il ritardo sulla effettiva reperibilità, ci sta anche un reale problema di scorte, che sembrano essere sempre minori alla domanda.
le 3 settimane non sono un periodo incontraddicibile ma di norma è una stima realistica , le eccezioni sono X800XT PE e 6800ULTRA e Crossfire .

Se io so che ad una certa data i chip sono disponibili al produttore conseguentemente PIU O MENO ( contento ? )so quando saranno disponibili le schede, è così difficile da capire ???Forse ti da fastidio il clima d'attesa che forma la presentazione perchè tanto ormai si sa che ( per l'ennesima volta ) si riferisce alla disponibilità x i produttori , ma questi son problemi tuoi ( e del resto del mondo forse )se dai tutta questa importanza a delle schede video.

Ti rendi conto che stai considerando delle schede grafiche come un ciclo mestruale ? se sfasa di un paio di giorni scleri .
Per me argomento chiuso , non ho altro da dire

giovanbattista
07-11-2005, 18:37
X lordtytan, la tua frase è priva di alcun nesso logico.

Sarai cpu limited a 800*600 ma dubito che con una risoluzione 1280*1024, con filtri e dettagli al top tirano tutte il fiato, credimi.

hornet75
07-11-2005, 18:56
Prima di farti cadere le braccina impara a quotare :D Il primo QUOTE che hai fatto non e' un mio intervento!!

hai ragione.......scusa.....errore nel copia/incolla.

comunque si dice le braccine ;)

dwfgerw
07-11-2005, 19:04
io non riesco ancora a capire per quale motivo vi dovete scannare....

dwfgerw
07-11-2005, 19:05
e aggiungo.... sono contento che ci sia nvidia ed ati, perchè se prima avevo un'ottima 9800PRO ed oggi ho una 7800GTX è grazie a questa entusiasmante guerra tecnologica.

ice72
07-11-2005, 19:12
Prima di tutto un saluto a tutti!! essendo questa la prima apparizione nel forum.

Nvidia7800gtx Atix1800xt chi e' la migliore? la piu' potente?
sara' sempre un gioco al massacro eheh
secondo me la migliore e' quella che offrira' di piu' al minor prezzo!!!
io ho una 6600gt agp e ritengo sia stato il piu' grosso affare che ho fatto.. ottime prestazioni ottima qualita' senza essermi svenato..
Perche' alla fine dei conti stiamo parlando di schede che costano meta' (se non di piu') dello stipendio mensile di un operaio!!!
Non e' il caso di infervorarsi in questo modo ,ognuno ha le sue "simpatie" per una marca od un 'altra.
Sia nvidia che ati stanno sfornando gioielli di tecnologia,che tutti noi vorremmo possedere.. ma 650 euro (1.300.000 lire circa )per giocare sono comunque un 'eresia!!!


ah dimenticavo: Forza Juve!!!

ardyp
07-11-2005, 19:26
http://service.futuremark.com/compare?3dm05=1002966

intanto leggete qua, poi appena trovo la news su hw o tom(non ricordo dove la lessi) ne riparliamo


p.s. a tutti quelli che non ci credevano :fuck:

ardyp
07-11-2005, 19:32
http://service.futuremark.com/compare?3dm05=1002966

intanto leggete qua, poi appena trovo la news su hw o tom(non ricordo dove la lessi) ne riparliamo


p.s. a tutti quelli che non ci credevano :fuck:


mi autoquoto per segnalare le frequenze:

ati 877.5MHz core/1980MHz memoria

nvidia 810 core/1521 memoria

:read: prima di parlare :read:

^TiGeRShArK^
07-11-2005, 20:04
mi autoquoto per segnalare le frequenze:

ati 877.5MHz core/1980MHz memoria

nvidia 810 core/1521 memoria

:read: prima di parlare :read:
:confused:
ma 6 serio???
http://www.tomshw.it/articles/20051010/maki.jpg

Name Single ** ASUS EN7800GTX ** VR-Zone Singapore
Description ASUS EN7800GTX @ 810/1521!!
Date 2005-07-07
Main Test Results
3DMark Score 11915 3DMarks
CPU Score Not enough CPU tests run

c'è un vantaggio di 300 punti circa per la skeda ATI....
e stai conforntando una skeda a 16 pipeline con una a 24 pipeline ricordo... :read:

TripleX
07-11-2005, 20:12
per chi ha linkato tom's hardware....

nvidia in SLI GF7800 gtx X 2 = 15xxx

ati x1800xt una vga = 12xxx

mi pare che ci sia una bella differenza a favore di ATi non credi...avevi forse "dimenticato" o visto male...dato che le geffo sono in SLI....ben 2 vga vs 1...in crossfire si ipotizza un raddoppio o giu' di li' quindi saremmo sui 22xxx e sono stato buono...eheh

inoltre al sempre piu' preparato ing.halduemilauno mi congratul o x la preparazione tecnica cosi' elevata da poter giudicare la qualita' di 2 progetti di gpu quali quello di ati e di nvidia dalla mera frequenza di clock...che dire...come era?! ..a si...quando 16 pipeline sono meglio di 24...che dire...che dire...

Apple80
07-11-2005, 21:06
......no comment.....

Utenti con un minimo di cognizione e di razionalità dovrebbero praticare l'AUTO-BAN.


Se nVidia è costretta a tirar così tanto su le frequenze significa che sono proprio messi male...senza considerare il fatto che hanno quasi le metà delle tecnologie che ha proposto ATI adesso.

E' vero il fatto che espone bartolino su Linux per ora i driver sono scadenti...su Open GL...che dici??????? Si potrebbe dire che ATI non supporta gli OpenGL come nVidia non supporta i Direct3D.
Per certi ambiti di lavoro sia ATI che nVidia producono schede video professionali, ed IHMO in OpenGL vanno tutte più che egregiamente.

P.S. a mio avviso sono già esagerati i consumi adesso compresi quelli della 7800 GTX e soprattutto della 1800 XT che ha le memorie che puppano tantissimo....mi piacerebbe sapere questa nuova 7800 GTX 512 MB cpsa arriverà a fare....


messa male sarà ati a sto punto. Visto che nvidia non si sarà sforzata più di tanto per alzare le frequenze. Come faccio a saperlo? semplice... è già pronta per il lancio , quindi questa schedina è da qualche mese che la stavano producendo. Ovviamente sapevano che R520 poteva essere stato più potente del G70 e quindi si sono preparati l'asso nella manica. Tutto questo avevano presupposto che accadesse e fortuna loro è accaduto. Quindi il 14 novembre ritornerà come leader. la gente che sarà disposta a prendere una X1800 si dirotteranno sulla 7800gtx da 512MB.


C'è solo una cosa. Non posso essere sicuro che sia più potente della X1800Xt fio a quando non vedro' qualche bencmark

Apple80
07-11-2005, 21:12
per chi ha linkato tom's hardware....

nvidia in SLI GF7800 gtx X 2 = 15xxx

ati x1800xt una vga = 12xxx

mi pare che ci sia una bella differenza a favore di ATi non credi...avevi forse "dimenticato" o visto male...dato che le geffo sono in SLI....ben 2 vga vs 1...in crossfire si ipotizza un raddoppio o giu' di li' quindi saremmo sui 22xxx e sono stato buono...eheh

inoltre al sempre piu' preparato ing.halduemilauno mi congratul o x la preparazione tecnica cosi' elevata da poter giudicare la qualita' di 2 progetti di gpu quali quello di ati e di nvidia dalla mera frequenza di clock...che dire...come era?! ..a si...quando 16 pipeline sono meglio di 24...che dire...che dire...




ma ti riferivi al 3dmark 2005?

se fose cosi a mè non sembra che la 1800xt faccia 12mila punti



http://www.tomshw.it/guides/graphic/20051006/images/image004.gif

Einhander
07-11-2005, 21:53
Salve a tutti!!!

Solo una domanda;Ma se era cosi' facile prevedere una contromossa da parte di nvidia nei confronti della x1800xt,chi vi assicura che nn sia gia' stata presa in considerazione da ati?
Infondo sono fatti talmente prevedibili ke nn sara' nvidia l'unica a possedere l'asso nella manica,nn credete?
Ricordo a tutti che c'e' un aspetto che ancora nn si conosce per cio' che concerne la casa canadese,ovvero il crossfire con due schede top di gamma,sbaglio?
Se mi devo rifare ai bench del test eseguito da hwupgrade in merito e all'efficienza delle due tecnologie,beh avoja a pompare g70 e a caricarla di ram...
Visto che qui si gioca per il dominio in fatto di massime prestazioni consiglierei di cominciare a pensare all'efficienza dello sli in relazione a quella gia' ottima del crossfire,per altro senza driver ottimizzati...
Oppure qualcuno nn si ricorda che spesso nei test passati 2 X850xt stavano spesso vicine a due 7800gtx\gt

E chissa' come sarebbero i risultai con due x850xt PE?
Aspettiamo i test in sli\crossfire prima di attribbuire ad nvidia il primato in fatto di prestazioni...sempre se questa nuova scheda nvidia sia relmente superiore alla x1800xt...

Forza bruta contro efficienza...mmmh sara' una bella battaglia eh eh

Einhander
07-11-2005, 21:55
Sempre che nn esista da qualche parte una x1800xt pe...

dm69
07-11-2005, 21:59
Riguardo alle possibili prestazioni della nuova scheda, potete farvi un'idea guardando la recensione di un 7800GTX overclokkato di fabbrica (Extreme N7800 GTX TOP):

http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html

gia' a queste frequenze (486MHz / 1.35GHz) il GTX ha colmato il ritardo

dm69
07-11-2005, 22:01
Ma come il 1800XT non e' ancora arrivato nei negozi e ATI avrebbe un asso nella manica?

OverClocK79®
07-11-2005, 22:09
gia' a queste frequenze (486MHz / 1.35GHz) il GTX ha colmato il ritardo

siamo ankora lontati dalla versione 512 (che magari avrei chiamato ULTRA)
tanto per fare marketing....

BYEZZZZZZZZZZ

MaBru
07-11-2005, 22:12
Tenete presente che questa 7800GTX 512 mb costerà 100$ in più della X1800XT.

Da non sottovalutare.

ardyp
07-11-2005, 22:19
:confused:
ma 6 serio???
http://www.tomshw.it/articles/20051010/maki.jpg

Name Single ** ASUS EN7800GTX ** VR-Zone Singapore
Description ASUS EN7800GTX @ 810/1521!!
Date 2005-07-07
Main Test Results
3DMark Score 11915 3DMarks
CPU Score Not enough CPU tests run

c'è un vantaggio di 300 punti circa per la skeda ATI....
e stai conforntando una skeda a 16 pipeline con una a 24 pipeline ricordo... :read:

e tu non consideri i 400mhz in meno della ram e i 60 del core....

Einhander
07-11-2005, 22:21
x dm69

Per asso nella manica intendevo il crossfire versione x1800xt,sbaglio o quello di nvidia funziona un po' maluccio con il g70?
Bisogna considerare anche le prestazioni con questa tecnologia,visto che si parla di massime prestazioni ai massimi livelli,inoltre comincerai anche a considerare-con giochi meno recenti-anche risoluzioni superiori a 1600 x 1200...


byezz

yossarian
07-11-2005, 22:22
Riguardo alle possibili prestazioni della nuova scheda, potete farvi un'idea guardando la recensione di un 7800GTX overclokkato di fabbrica (Extreme N7800 GTX TOP):

http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html

gia' a queste frequenze (486MHz / 1.35GHz) il GTX ha colmato il ritardo

in questi bench, dove era avanti è rimasto avanti, dove era indietro non ha colmato un bel niente e il guadagno massimo rispetto al GTX a frequenze standard non supera i 10-12 fps, in situazioni con framerate attorno ai 100 fps.

Se fosse come dici, nVIDIA si sarebbe accontentata di queste frequenze, invece di proporre quelle che sembra debba avere la 512 MB.

yossarian
07-11-2005, 22:25
Sempre che nn esista da qualche parte una x1800xt pe...

esiste, ma al momento non serve.
Tutto quanto visto finora era scontato e prevedibile, come è prevedibile un chip a frequenze più elevate da parte di ATi, come è prevedibile un G70 a 0,09 da parte di NV, come è prevedibile un chip con un maggior numero di fpu da parte di ATi.

yossarian
07-11-2005, 22:27
e tu non consideri i 400mhz in meno della ram e i 60 del core....


considera pure che G70 non raggiungerà mai le frequenze di R520 (che a lNO2, può arrivare oltre i 1000 Mhz di core).
Peccato che non sia una gara di overclock :D

OverClocK79®
07-11-2005, 22:31
si infatti...
mi sembra siamo OT da tempo
tra Freq massime...... OC questa fa così questa fa cosà

si parla di 7800GTX 512.....
nn di Ati Vs nVidia..... :rolleyes:

BYEZZZZZZZZZZZZ

ardyp
07-11-2005, 22:49
si infatti...
mi sembra siamo OT da tempo
tra Freq massime...... OC questa fa così questa fa cosà

si parla di 7800GTX 512.....
nn di Ati Vs nVidia..... :rolleyes:

BYEZZZZZZZZZZZZ


Hai ragiona andavamo OT, voglio solo dire che le prestazioni di una scheda video si dovrebbe testare con frequenze uguali, detto questo, pare evidente che il g70 è superiore e che quando uscirà questa nuova gefo ne avremo la prova definitiva..... :sofico:

yossarian
07-11-2005, 22:55
Hai ragiona andavamo OT, voglio solo dire che le prestazioni di una scheda video si dovrebbe testare con frequenze uguali, detto questo, pare evidente che il g70 è superiore e che quando uscirà questa nuova gefo ne avremo la prova definitiva..... :sofico:


hai dimenticato

NVIDIA rulez :D

OverClocK79®
07-11-2005, 23:03
Hai ragiona andavamo OT, voglio solo dire che le prestazioni di una scheda video si dovrebbe testare con frequenze uguali

scusa ma perchè mai???
i processori li testi a freq uguali???
nn mi pare...

le skede vanno testate alle freq che vengono vendute....
allora per lo stesso ragionamento testiamo anke a pipe uguali????

il test di parifreq può dimostrare (su architetture simili) magari la + efficiente.....
ma di + di questo nn mi sembra....

nn si testano manco le skede per ipotetiche mod o per possibili freq di OC raggiunte
ne si prendono le freq raggiunte in OC nei test
come freq massime di tutte le skede in commercio

poi fare le gare al3Dmark ormai è la cosa + inutile del mondo.....
soprattutto a livello di confronto.....

BYEZZZZZZZZZZZZZ

dm69
07-11-2005, 23:30
in questi bench, dove era avanti è rimasto avanti, dove era indietro non ha colmato un bel niente e il guadagno massimo rispetto al GTX a frequenze standard non supera i 10-12 fps, in situazioni con framerate attorno ai 100 fps.

Se fosse come dici, nVIDIA si sarebbe accontentata di queste frequenze, invece di proporre quelle che sembra debba avere la 512 MB.

Io ho contato tutti i test e dando alla pari quando c'e' uno scarto inferiore al 5 % (circa) abbiamo che senza filtri il G70 oc vince 27 test a 8, mentre attivando i filtri il G70 oc vince 22 a 18.
Percompletezza ho allegato il file excel che ho usato.

yossarian
07-11-2005, 23:40
Io ho contato tutti i test e dando alla pari quando c'e' uno scarto inferiore al 5 % (circa) abbiamo che senza filtri il G70 oc vince 27 test a 8, mentre attivando i filtri il G70 oc vince 22 a 18.
Percompletezza ho allegato il file excel che ho usato.


hai fatto un ottimo lavoro; però il problema è che quei test sono stati eseguiti con drivers vecchi sia per ATi che per NV e senza l'OpenGL che ha fatto guadagnare il 35% circa a R520 con Doom3 con filtri attivi (e dal 25% al 15% con altri giochi OGL).

Inoltre, quello che intendevo dire è che nei test dove era già in vantaggio la GTX, il fatto di avere aumentato le frequenze non fa migliorare la situazione di molto, mentre in quelli dove la GTX era in svantaggio, continua a restare in svantaggio anche con o/c.

Quindi, se l'uscita di questa nuova gpu deve servire a colmare il gap con i filtri, allora le frequenze proposte dal test di x-bit labs non servono allo scopo.

Nel caso non ti sia capitato di sentirne parlare, ancora, mi riferisco a questa patch

http://www.firingsquad.com/hardware/quake_4_high-end_performance/page3.asp

http://www.hexus.net/content/item.php?item=3668

MiKeLezZ
07-11-2005, 23:52
quindi a te un NV3x che ti fa girare tutto con sm1.x anche impostando lo sm2.0 (facendo application detect e shader replacement) va più che bene, visto che l'importante è che il giochino funziona, anche se non conta come?
Domanda posta esclusivamente a titolo di chiarimento :mbe:
Bhe, se il giochino funzionasse perfettamente con fluidità, e l'output fosse il medesimo (sia come qualità, che dettagli) .. perchè no!
Le VGA alla fine servono solo a far girare applicativi 3D e/o giochini, null'altro.
Come avevo ipotizzato è solo un prodotto da bench, prodotto in quantità ridotte, estremamnete costoso e consumi sicuramente ben più elevati della versione a 256 MB 430/1200
Forse. I consumi anche se fossero maggiori, contando che la serie 7 consuma meno della 6, e che consuma meno della nuova serie ATI, non sarebbero un problema.
Per le rese, io auspico usino chip a 0,9 , TSMC ha già ordini da nvidia per le C51, probabilmente è solo questione di tempo (gli 0,9 mica son solo esclusiva ATI).

MiKeLezZ
07-11-2005, 23:55
Io parlerei di "sboron mode" ad un certo punto, ma lasciamo perdere.
Chiaro che se vuoi giocare tutto a 1600x1200 con filtri a palla. Ma limitandosi a 1280x1024, e attivando i filtri dove si può, a cosa non è possibile giocare oggi con una 6800 GT o una X800 XL?
Per ora probabilmente nulla. Ma allo stesso tempo, quale applicativo risulta impossibile avviare con un processore 2600+? (domanda retorica, nessuno)
Allora che senso ha comprarsi un 3700+, un FX, e compagnia bella.
L'uomo è animalo :D
Pure io sono conscio dell'inutilità di spender tutti quei soldi.. però nonostante questo la voglia di farlo è grandissima (sarà proprio per codesta inutilità?)

dm69
08-11-2005, 00:01
sara' tutto quello che ti pare pero' quei test parlano abbastanza chiaro: senza filtri il G70 oc e' avanti in quasi tutti i test (per pareggiare da 22 a 7 ce ne vuole!); con i filtri il 1800XT e' un po' meglio (in quei test perde 22 a 18, se pero' togliamo qualche test open gl passa in vantaggio).

Quindi direi che sostanzialmente, il G70 oc ha pareggiato il conto.

MadRat
08-11-2005, 04:10
Prima della commercializzazione della GTX, ipotizzai che fosse solo una scheda "tampone", quanto bastasse per "battere" la top-gamma ATI, senza correre troppo avanti.
Insomma, quale sano di mente, disponendo di una certa potenza, immetterebbe sul mercato direttamente il top del prodotto se una versione "ridotta" gia' basta per dominare??
Semplice, nessuno!! Primo perche' cosi' si puo' avere una resa maggiore (e mantenere costi e soprattutto guadagni decenti), secondo perche' si puo' ri-vendere nel tempo la stessa tecnologia.
La sigla GTX dimostra chiaramente l'ambiguita' del prodotto, non e' GT, non e' Ultra, non e' nulla!! :)
Era un prodotto che si sarebbe ricavato la propria nicchia di mercato ed identita' con il tempo, "sfornato" lì in attesa del ritardatario ATI R520 (che non potevano sapere sarebbe stato cosi' tanto ritardatario da potersi permettere addirittura il lancio di una 7800GT nel frattempo).
La presentazione immediata e subitanea di questa nuova versione "pompata", fa capire chiaramente come fosse gia' disponibile, avvalorando la mia ipotesi di molti mesi fa.

Una considerazione invece riguardo la scheda in questione; e' indubbiamente un buon "tampone" che nVidia propone, l'R520 e' decisamente piu' "intrigante", anche se prestazionalmente non stupisce (ammesso che le ottimizzazioni SW non volino sempre sull'ordine del 30% e passa.. cosa che ritengo molto poco probabile soprattutto in ambito DX, ma anche in OGL).
Pertanto chi preferira' la potenza bruta, prendera' con ogni probabilita' questa nuova nVGA , chi preferira' le qualita' della X1800XT, allora optera' per quest'ultima.
Decisamente allo stato attuale delle cose nVidia non bissa il dominio d'immagine (non inteso come mappa di bit :D) che possedeva fino a pochi giorni fa, ma sicuramente si difende non bene, benissimo.

Teniamo presente anche che questi mesi di "rilassamento/dominio" hanno fatto si che non sia dovuta correre all'inseguimento di nulla e mentre ATI curava il progetto 360, 520 e revolution, nVidia stava(sta) preparando le nuove risposte future. Questi mesi sono molti, veramente molti, e' questa nuova proposta dimostra chiaramente come ancora non ci faccia grazia delle proprie "novità", dunque se ATi ha degli assi nella manica, nVidia ha indubbiamente delle risposte da non sottovalutare.


*yoss

Questa volta proprio non ti capisco, critichi la teorica indisponibilita' in volumi di tale scheda.. ma scherzi?? quali volumi?? ma a chi le vuoi vendere simili schede?? Sono giustamente delle BenchEdition, non hanno bisogno di volumetrie di produzione.
Comunque mi gioco i testicoli che saranno disponibili in volumi maggiori delle X1800XT (e magari anche prima) ;).
A parte questo, sai per caso se tante volte si son decisi ad incrementare la frequenza delle ROPs?? mi sa proprio di no.. ma a giudicare dall'incremento della frequenza delle ram, (a meno che non siano impazziti) parrebbe abbiano risolto o "aggirato" il limite del G70 (riscontrabile prevalentemente nel fillrate).
Dico questo perche' le Ram sono state incrementate in percentuale maggiore rispetto alla VPU (e non di poco), quando risulterebbe quasi inutile superare un valore di 1400-1500Mhz.

*chi diceva che le 6800Ultra sono delle Phantom Edition..
a me sono arrivate assieme alle GT, ovviamente erano richieste molto meno, io stesso le sconsigliavo/sconsiglio in favore proprio delle GT.
L'atra differenza con le X800XT pe e' che quando arrivavano (le ultra) funzionavano tutte.

halduemilauno
08-11-2005, 07:33
Prima della commercializzazione della GTX, ipotizzai che fosse solo una scheda "tampone", quanto bastasse per "battere" la top-gamma ATI, senza correre troppo avanti.
Insomma, quale sano di mente, disponendo di una certa potenza, immetterebbe sul mercato direttamente il top del prodotto se una versione "ridotta" gia' basta per dominare??
Semplice, nessuno!! Primo perche' cosi' si puo' avere una resa maggiore (e mantenere costi e soprattutto guadagni decenti), secondo perche' si puo' ri-vendere nel tempo la stessa tecnologia.
La sigla GTX dimostra chiaramente l'ambiguita' del prodotto, non e' GT, non e' Ultra, non e' nulla!! :)
Era un prodotto che si sarebbe ricavato la propria nicchia di mercato ed identita' con il tempo, "sfornato" lì in attesa del ritardatario ATI R520 (che non potevano sapere sarebbe stato cosi' tanto ritardatario da potersi permettere addirittura il lancio di una 7800GT nel frattempo).
La presentazione immediata e subitanea di questa nuova versione "pompata", fa capire chiaramente come fosse gia' disponibile, avvalorando la mia ipotesi di molti mesi fa.

Una considerazione invece riguardo la scheda in questione; e' indubbiamente un buon "tampone" che nVidia propone, l'R520 e' decisamente piu' "intrigante", anche se prestazionalmente non stupisce (ammesso che le ottimizzazioni SW non volino sempre sull'ordine del 30% e passa.. cosa che ritengo molto poco probabile soprattutto in ambito DX, ma anche in OGL).
Pertanto chi preferira' la potenza bruta, prendera' con ogni probabilita' questa nuova nVGA , chi preferira' le qualita' della X1800XT, allora optera' per quest'ultima.
Decisamente allo stato attuale delle cose nVidia non bissa il dominio d'immagine (non inteso come mappa di bit :D) che possedeva fino a pochi giorni fa, ma sicuramente si difende non bene, benissimo.

Teniamo presente anche che questi mesi di "rilassamento/dominio" hanno fatto si che non sia dovuta correre all'inseguimento di nulla e mentre ATI curava il progetto 360, 520 e revolution, nVidia stava(sta) preparando le nuove risposte future. Questi mesi sono molti, veramente molti, e' questa nuova proposta dimostra chiaramente come ancora non ci faccia grazia delle proprie "novità", dunque se ATi ha degli assi nella manica, nVidia ha indubbiamente delle risposte da non sottovalutare.


*yoss

Questa volta proprio non ti capisco, critichi la teorica indisponibilita' in volumi di tale scheda.. ma scherzi?? quali volumi?? ma a chi le vuoi vendere simili schede?? Sono giustamente delle BenchEdition, non hanno bisogno di volumetrie di produzione.
Comunque mi gioco i testicoli che saranno disponibili in volumi maggiori delle X1800XT (e magari anche prima) ;).
A parte questo, sai per caso se tante volte si son decisi ad incrementare la frequenza delle ROPs?? mi sa proprio di no.. ma a giudicare dall'incremento della frequenza delle ram, (a meno che non siano impazziti) parrebbe abbiano risolto o "aggirato" il limite del G70 (riscontrabile prevalentemente nel fillrate).
Dico questo perche' le Ram sono state incrementate in percentuale maggiore rispetto alla VPU (e non di poco), quando risulterebbe quasi inutile superare un valore di 1400-1500Mhz.

*chi diceva che le 6800Ultra sono delle Phantom Edition..
a me sono arrivate assieme alle GT, ovviamente erano richieste molto meno, io stesso le sconsigliavo/sconsiglio in favore proprio delle GT.
L'atra differenza con le X800XT pe e' che quando arrivavano (le ultra) funzionavano tutte.

completamente d'accordo. e adesso aspettiamo i riscontri mi pare di aver letto 560/1600.
;)

micio822
08-11-2005, 10:08
Completamente d'accordo con halduemilauno.
Però 1800mhz per le ram mi sembra eccessivo. Possono davvero andare così forte? E' vero che i processori vanno a 3,6ghz però per le ram è una cosa diversa o sbaglio?

Comunque ci dimentichiamo sempre di valutare il punteggio del 3dmark2005. E' vero che non conta niente, ma chi prende queste schede le prende per fare dei record, e quindi cosa c'è di meglio che un bel bench che da un punteggio finale per valutare una prestazione? E in questo caso mi sembra che l'attuale gtx sia indietro rispetto alla 1800xt come punti al 3dmark2005. Con questo nuovo cannone nividia vuole riprendersi il dominio del 3dmark.

OverClocK79®
08-11-2005, 11:40
Teniamo presente anche che questi mesi di "rilassamento/dominio" hanno fatto si che non sia dovuta correre all'inseguimento di nulla e mentre ATI curava il progetto 360, 520 e revolution, nVidia stava(sta) preparando le nuove risposte future. Questi mesi sono molti, veramente molti, e' questa nuova proposta dimostra chiaramente come ancora non ci faccia grazia delle proprie "novità", dunque se ATi ha degli assi nella manica, nVidia ha indubbiamente delle risposte da non sottovalutare.


nVidia è impegnata anke sul fronte PS3 ;)

BYEZZZZZZZZZZZZ

fek
08-11-2005, 12:31
Teniamo presente anche che questi mesi di "rilassamento/dominio" hanno fatto si che non sia dovuta correre all'inseguimento di nulla e mentre ATI curava il progetto 360, 520 e revolution, nVidia stava(sta) preparando le nuove risposte future.

L'R500 e' andato in tape out a Gennaio 2005.

JoeLatino
08-11-2005, 12:52
scusate ma che sapete voi si potrebbe mettere in sli una gtx7800 ed una nuova con frequenze e memoria superiore?

yossarian
08-11-2005, 13:03
*yoss

Questa volta proprio non ti capisco, critichi la teorica indisponibilita' in volumi di tale scheda.. ma scherzi?? quali volumi?? ma a chi le vuoi vendere simili schede?? Sono giustamente delle BenchEdition, non hanno bisogno di volumetrie di produzione.
Comunque mi gioco i testicoli che saranno disponibili in volumi maggiori delle X1800XT (e magari anche prima) ;).
A parte questo, sai per caso se tante volte si son decisi ad incrementare la frequenza delle ROPs?? mi sa proprio di no.. ma a giudicare dall'incremento della frequenza delle ram, (a meno che non siano impazziti) parrebbe abbiano risolto o "aggirato" il limite del G70 (riscontrabile prevalentemente nel fillrate).
Dico questo perche' le Ram sono state incrementate in percentuale maggiore rispetto alla VPU (e non di poco), quando risulterebbe quasi inutile superare un valore di 1400-1500Mhz.

*chi diceva che le 6800Ultra sono delle Phantom Edition..
a me sono arrivate assieme alle GT, ovviamente erano richieste molto meno, io stesso le sconsigliavo/sconsiglio in favore proprio delle GT.
L'atra differenza con le X800XT pe e' che quando arrivavano (le ultra) funzionavano tutte.

non mi fraintendere; non critico la disponibilità, ma ho solo precisato quello che tu hai ribadito e cioè che sono delle bench edition. Non mi apsetto la commercializzazione in volumi ed è da un po' che sostengo che se nVIDIA deve tirare fuori un nuovo prodotto non ha senso una vga "solo" con 512 MB di ram. Sul fatto che sarà presente in volumi superiori alla XT non credo per due motivi: la XT lavora a frequenze ben più basse di quelle teoricamente possibili; il chip del Revolution deriva dalla serie R5x0 (r520 o, più presumibilmente, r580), quindi gli esemplari prodotti saranno in gran numero. Inoltre, anche R520 è solo un chip che introduce una nuova architettura e una nuova famiglia di chip grafici e prelude a future ulteriori risposte da parte di ATi, sia relativamente alle frequenze (allo stato attuale non ha senso aumentarle troppo, perchè si finirebbe col diventare bandwidth limited, visto che le ram non possono salire oltre i 1800 Mhz), sia all'introduzione di nuove fpu nel fragment processor.

Per quanto riguarda G70, il mio dubbio è che le rop's lavorino sempre alla frequenza del chip e non ci siano frequenze differenziate (anche se nVIDIA ha sostenuto il contrario); questo perchè i dati relativi al puro fillrate sono troppo vicini a quelli teorici, cosa plausibile in un chip che ha la sua forza nella possibilità di far circolare centinaia di pixel per ogni ciclo, all'interno della pipeline e che perde efficienza all'aumentare della complessità dei calcoli ma che, con calcoli semplici, dovrebbe raggiungere un'efficienza prossima a quella teorica (come in effetti avviene con il pure e lo z fillrate).
Sulle frequenze di funzionamento, secondo me non è casuale la scelta di quelle indicate; sicuramente si è portato il chip alle massime frequenze possibili, per un funzionamento a default, che permettessero di riguadagnare, con calcoli complessi (alte risoluzini e filtri attivi), il terreno perduto in virtù della relazione di proporzionalità diretta tra complessità dei calcoli e inefficienza. Ci sono, invece, lacune che non possono essere colmate (come ad esempio quella relativa al dynamic branching), perchè dipendono dalla logica di funzionamento del chip, che da un lato determina i punti di forza e dall'altro quelli di debolezza di G70, come di qualunque altro prodotto.

^TiGeRShArK^
08-11-2005, 13:12
e tu non consideri i 400mhz in meno della ram e i 60 del core....
1) G70 è MENO limitato dalla larghezza di banda di quanto non sia R520
2) non puoi confrontare un'arikitettura a 16 pipeline con una a 24 pipelina lla stessa frequenza... sarebbe come confrontare un A64 a 3 ghz con un P4 a 3 ghz... non ci sarebbe paragone.... però nonostante i SOLI 60 mhz in meno e le 8 pipeline in + la skeda nvidia resta sotto... km lo spieghi???

^TiGeRShArK^
08-11-2005, 13:14
scusa ma perchè mai???
i processori li testi a freq uguali???
nn mi pare...

le skede vanno testate alle freq che vengono vendute....
allora per lo stesso ragionamento testiamo anke a pipe uguali????

il test di parifreq può dimostrare (su architetture simili) magari la + efficiente.....
ma di + di questo nn mi sembra....

nn si testano manco le skede per ipotetiche mod o per possibili freq di OC raggiunte
ne si prendono le freq raggiunte in OC nei test
come freq massime di tutte le skede in commercio

poi fare le gare al3Dmark ormai è la cosa + inutile del mondo.....
soprattutto a livello di confronto.....

BYEZZZZZZZZZZZZZ
ovviamente quoto in pieno...

leoneazzurro
08-11-2005, 13:15
non mi fraintendere; non critico la disponibilità, ma ho solo precisato quello che tu hai ribadito e cioè che sono delle bench edition. Non mi apsetto la commercializzazione in volumi ed è da un po' che sostengo che se nVIDIA deve tirare fuori un nuovo prodotto non ha senso una vga "solo" con 512 MB di ram. Sul fatto che sarà presente in volumi superiori alla XT non credo per due motivi: la XT non lavora a frequenze ben più basse di quelle teoricamente possibili; il chip del Revolution deriva dalla serie R5x0 (r520 o, più presumibilmente, r580), quindi gli esemplari prodotti saranno in gran numero. Inoltre, anche R520 è solo un chip che introduce una nuova architettura e una nuova famiglia di chip grafici e prelude a future ulteriori risposte da parte di ATi, sia relativamente alle frequenze (allo stato attuale non ha senso aumentarle troppo, perchè si finirebbe col diventare bandwidth limited, visto che le ram non possono salire oltre i 1800 Mhz), sia all'introduzione di nuove fpu nel fragment processor.

Per quanto riguarda G70, il mio dubbio è che le rop's lavorino sempre alla frequenza del chip e non ci siano frequenze differenziate (anche se nVIDIA ha sostenuto il contrario); questo perchè i dati relativi al puro fillrate sono troppo vicini a quelli teorici, cosa plausibile in un chip che ha la sua forza nella possibilità di far circolare centinaia di pixel per ogni ciclo, all'interno della pipeline e che perde efficienza all'aumentare della complessità dei calcoli ma che, con calcoli semplici, dovrebbe raggiungere un'efficienza prossima a quella teorica (come in effetti avviene con il pure e lo z fillrate).
Sulle frequenze di funzionamento, secondo me non è casuale la scelta di quelle indicate; sicuramente si è portato il chip alle massime frequenze possibili, per un funzionamento a default, che permettessero di riguadagnare, con calcoli complessi (alte risoluzini e filtri attivi), il terreno perduto in virtù della relazione di proporzionalità diretta tra complessità dei calcoli e inefficienza. Ci sono, invece, lacune che non possono essere colmate (come ad esempio quella relativa al dynamic branching), perchè dipendono dalla logica di funzionamento del chip, che da un lato determina i punti di forza e dall'altro quelli di debolezza di G70, come di qualunque altro prodotto.


Da quel che avevo letto il clock differenziato era per la parte geometrica (Vertex shaders)

^TiGeRShArK^
08-11-2005, 13:15
Bhe, se il giochino funzionasse perfettamente con fluidità, e l'output fosse il medesimo (sia come qualità, che dettagli) .. perchè no!
Le VGA alla fine servono solo a far girare applicativi 3D e/o giochini, null'altro.

Forse. I consumi anche se fossero maggiori, contando che la serie 7 consuma meno della 6, e che consuma meno della nuova serie ATI, non sarebbero un problema.
Per le rese, io auspico usino chip a 0,9 , TSMC ha già ordini da nvidia per le C51, probabilmente è solo questione di tempo (gli 0,9 mica son solo esclusiva ATI).
cosa che non era rispettata in alcune situazioni da NV30...

Foglia Morta
08-11-2005, 13:17
non mi fraintendere; non critico la disponibilità, ma ho solo precisato quello che tu hai ribadito e cioè che sono delle bench edition. Non mi apsetto la commercializzazione in volumi ed è da un po' che sostengo che se nVIDIA deve tirare fuori un nuovo prodotto non ha senso una vga "solo" con 512 MB di ram. Sul fatto che sarà presente in volumi superiori alla XT non credo per due motivi: la XT non lavora a frequenze ben più basse di quelle teoricamente possibili; il chip del Revolution deriva dalla serie R5x0 (r520 o, più presumibilmente, r580), quindi gli esemplari prodotti saranno in gran numero. Inoltre, anche R520 è solo un chip che introduce una nuova architettura e una nuova famiglia di chip grafici e prelude a future ulteriori risposte da parte di ATi, sia relativamente alle frequenze (allo stato attuale non ha senso aumentarle troppo, perchè si finirebbe col diventare bandwidth limited, visto che le ram non possono salire oltre i 1800 Mhz), sia all'introduzione di nuove fpu nel fragment processor.

Per quanto riguarda G70, il mio dubbio è che le rop's lavorino sempre alla frequenza del chip e non ci siano frequenze differenziate (anche se nVIDIA ha sostenuto il contrario); questo perchè i dati relativi al puro fillrate sono troppo vicini a quelli teorici, cosa plausibile in un chip che ha la sua forza nella possibilità di far circolare centinaia di pixel per ogni ciclo, all'interno della pipeline e che perde efficienza all'aumentare della complessità dei calcoli ma che, con calcoli semplici, dovrebbe raggiungere un'efficienza prossima a quella teorica (come in effetti avviene con il pure e lo z fillrate).
Sulle frequenze di funzionamento, secondo me non è casuale la scelta di quelle indicate; sicuramente si è portato il chip alle massime frequenze possibili, per un funzionamento a default, che permettessero di riguadagnare, con calcoli complessi (alte risoluzini e filtri attivi), il terreno perduto in virtù della relazione di proporzionalità diretta tra complessità dei calcoli e inefficienza. Ci sono, invece, lacune che non possono essere colmate (come ad esempio quella relativa al dynamic branching), perchè dipendono dalla logica di funzionamento del chip, che da un lato determina i punti di forza e dall'altro quelli di debolezza di G70, come di qualunque altro prodotto.
immagino intendessi la XT lavora a frequenze ben più basse di quelle teoricamente possibili , sono pignolo :D

yossarian
08-11-2005, 13:20
Da quel che avevo letto il clock differenziato era per la parte geometrica (Vertex shaders)

anche li se ne può discutere; facendo un rapido calcolo ci si rende conto che l'incremento relativo alle operazioni di vertex shading, rispetto a NV40, sono direttamente proporzionali all'incremento del numero delle unità.
Inoltre, il senso dell'aumento della frequenza dei vs, quando sappiamo che è, nella maggior parte dei casi, il fragment processor a limitare le prestazioni complessive, non ha molto senso (se non quello di spuntare qualcosa in più nei banch vsu dipendenti, come il 3dmark :D )

yossarian
08-11-2005, 13:22
immagino intendessi la XT lavora a frequenze ben più basse di quelle teoricamente possibili , sono pignolo :D


fai bene, perchè hai ragione; ero partito con l'idea di scriverlo in un modo, poi ho cambieto e non ho cancellato tutto. :D

Comunque mi fa piacere vedere che leggi con attenzione le ca@@ate che scrivo :D

ho editato :read:

Einhander
08-11-2005, 13:31
overclock79:

nVidia è impegnata anke sul fronte PS3

BYEZZZZZZZZZZZZ


Quale ps3? Quella che si fonde?
:)

leoneazzurro
08-11-2005, 13:32
anche li se ne può discutere; facendo un rapido calcolo ci si rende conto che l'incremento relativo alle operazioni di vertex shading, rispetto a NV40, sono direttamente proporzionali all'incremento del numero delle unità.
Inoltre, il senso dell'aumento della frequenza dei vs, quando sappiamo che è, nella maggior parte dei casi, il fragment processor a limitare le prestazioni complessive, non ha molto senso (se non quello di spuntare qualcosa in più nei banch vsu dipendenti, come il 3dmark :D )

Si, ho soltanto riferito ciò che si diceva (Asus definiva la GPU a 470 MHz anche se in realtà la GPU era a 430, perchè c'era un "delta geometric clock" di 40 MHz)

OverClocK79®
08-11-2005, 13:44
Quale ps3? Quella che si fonde?
:)


quella che uscirà tra quasi 1 anno ;)
con ampi margini di miglioramento....

BYEZZZZZZZZZZ

MiKeLezZ
08-11-2005, 13:49
cosa che non era rispettata in alcune situazioni da NV30...
Vero.. è una scheda che ho sempre odiato

yossarian
08-11-2005, 13:53
Si, ho soltanto riferito ciò che si diceva (Asus definiva la GPU a 470 MHz anche se in realtà la GPU era a 430, perchè c'era un "delta geometric clock" di 40 MHz)

ho il sospetto che sia una sorta di overdrive, invece. Comunque è una cosa che va approfondita

MadRat
08-11-2005, 13:57
nVidia è impegnata anke sul fronte PS3 ;)

BYEZZZZZZZZZZZZ

Sicuramente, ma il progetto RSX non doveva uscire cosi' rapidamente come l'R500, inoltre, per quanto l'R520 assomigli all'R500 sono due VPU differenti ed a quanto pare le differenze tra RSX e G70 (G71?? o qualunque sia) saranno piu' limitate. Dunque piu' tempo per un lavoro che si puo' portare avanti quasi parallelamente a quello delle soluzioni da PC e la possibilita' di "rimandare" la rivoluzione architetturale a quando i tempi saranno maturi per essa. :)

fek
08-11-2005, 13:58
Hai ragiona andavamo OT, voglio solo dire che le prestazioni di una scheda video si dovrebbe testare con frequenze uguali, detto questo, pare evidente che il g70 è superiore e che quando uscirà questa nuova gefo ne avremo la prova definitiva..... :sofico:

No. Perche' un'architettura puo' essere progettata per svolegere meno operazioni per colpo di clock, quindi poter salire piu' facilmente in frequenza, mentre un'altra architettura puo' essere progettate per svolgere piu' operazioni per colpo di clock quindi salire meno facilmente in frequenza.

Esempio classico: Pentium IV vs Athlon.

Quello che conta e' il numero di operazioni che una data architettura riesce a compiere in un dato lasso di tempo.

MadRat
08-11-2005, 14:06
1) G70 è MENO limitato dalla larghezza di banda di quanto non sia R520
2) non puoi confrontare un'arikitettura a 16 pipeline con una a 24 pipelina lla stessa frequenza... sarebbe come confrontare un A64 a 3 ghz con un P4 a 3 ghz... non ci sarebbe paragone.... però nonostante i SOLI 60 mhz in meno e le 8 pipeline in + la skeda nvidia resta sotto... km lo spieghi???


Ancora che parlate di pipeline?? Questo paragone che portati/ate avanti non sta nè in cielo nè in terra. Dovresti/e leggervi questo topic, sono giusto due paginette. :)
http://www.hwupgrade.it/forum/showthread.php?t=1036964&page=1&pp=20
(tra un po' lo rilegheranno in volumi.. ne faranno una trilogia!!)

haveacigar
08-11-2005, 14:12
Prima della commercializzazione della GTX, ipotizzai che fosse solo una scheda "tampone", quanto bastasse per "battere" la top-gamma ATI, senza correre troppo avanti.
Insomma, quale sano di mente, disponendo di una certa potenza, immetterebbe sul mercato direttamente il top del prodotto se una versione "ridotta" gia' basta per dominare??
Semplice, nessuno!! Primo perche' cosi' si puo' avere una resa maggiore (e mantenere costi e soprattutto guadagni decenti), secondo perche' si puo' ri-vendere nel tempo la stessa tecnologia.
La sigla GTX dimostra chiaramente l'ambiguita' del prodotto, non e' GT, non e' Ultra, non e' nulla!! :)
Era un prodotto che si sarebbe ricavato la propria nicchia di mercato ed identita' con il tempo, "sfornato" lì in attesa del ritardatario ATI R520 (che non potevano sapere sarebbe stato cosi' tanto ritardatario da potersi permettere addirittura il lancio di una 7800GT nel frattempo).
La presentazione immediata e subitanea di questa nuova versione "pompata", fa capire chiaramente come fosse gia' disponibile, avvalorando la mia ipotesi di molti mesi fa.

Una considerazione invece riguardo la scheda in questione; e' indubbiamente un buon "tampone" che nVidia propone, l'R520 e' decisamente piu' "intrigante", anche se prestazionalmente non stupisce (ammesso che le ottimizzazioni SW non volino sempre sull'ordine del 30% e passa.. cosa che ritengo molto poco probabile soprattutto in ambito DX, ma anche in OGL).
Pertanto chi preferira' la potenza bruta, prendera' con ogni probabilita' questa nuova nVGA , chi preferira' le qualita' della X1800XT, allora optera' per quest'ultima.
Decisamente allo stato attuale delle cose nVidia non bissa il dominio d'immagine (non inteso come mappa di bit :D) che possedeva fino a pochi giorni fa, ma sicuramente si difende non bene, benissimo.

Teniamo presente anche che questi mesi di "rilassamento/dominio" hanno fatto si che non sia dovuta correre all'inseguimento di nulla e mentre ATI curava il progetto 360, 520 e revolution, nVidia stava(sta) preparando le nuove risposte future. Questi mesi sono molti, veramente molti, e' questa nuova proposta dimostra chiaramente come ancora non ci faccia grazia delle proprie "novità", dunque se ATi ha degli assi nella manica, nVidia ha indubbiamente delle risposte da non sottovalutare.


*yoss

Questa volta proprio non ti capisco, critichi la teorica indisponibilita' in volumi di tale scheda.. ma scherzi?? quali volumi?? ma a chi le vuoi vendere simili schede?? Sono giustamente delle BenchEdition, non hanno bisogno di volumetrie di produzione.
Comunque mi gioco i testicoli che saranno disponibili in volumi maggiori delle X1800XT (e magari anche prima) ;).
A parte questo, sai per caso se tante volte si son decisi ad incrementare la frequenza delle ROPs?? mi sa proprio di no.. ma a giudicare dall'incremento della frequenza delle ram, (a meno che non siano impazziti) parrebbe abbiano risolto o "aggirato" il limite del G70 (riscontrabile prevalentemente nel fillrate).
Dico questo perche' le Ram sono state incrementate in percentuale maggiore rispetto alla VPU (e non di poco), quando risulterebbe quasi inutile superare un valore di 1400-1500Mhz.

*chi diceva che le 6800Ultra sono delle Phantom Edition..
a me sono arrivate assieme alle GT, ovviamente erano richieste molto meno, io stesso le sconsigliavo/sconsiglio in favore proprio delle GT.
L'atra differenza con le X800XT pe e' che quando arrivavano (le ultra) funzionavano tutte.


Io ti straquoto.

Capita raramente di leggere un commento così ponderato e misurato.

Condivido pressochè tutto quello che hai detto.

E penso che qualcuno su questo forum dovrebbe imparare.E mi riferisco soprattutto a chi, pur conoscendo molto del "3D", finisce miserabilmente per assumere atteggiamenti di parte.E soprattutto finisce per promuovere le proprie idee faziose mescolando le proprie cognizioni con i propri desideri.


Detto ciò ti faccio di nuovo i miei complimenti.

MadRat
08-11-2005, 14:14
anche li se ne può discutere; facendo un rapido calcolo ci si rende conto che l'incremento relativo alle operazioni di vertex shading, rispetto a NV40, sono direttamente proporzionali all'incremento del numero delle unità.
Inoltre, il senso dell'aumento della frequenza dei vs, quando sappiamo che è, nella maggior parte dei casi, il fragment processor a limitare le prestazioni complessive, non ha molto senso (se non quello di spuntare qualcosa in più nei banch vsu dipendenti, come il 3dmark :D )

Le prime 6800U arrivate, se analizzate con rivatuner davano 470Mhz (mi pare), questo perche' prendevano il clock da un segnale "sbagliato" di una parte della VPU che effettivamente funziona a quella (quella?? forse :D) frequenza.
Ricordo bene che nVidia dichiaro' di non aver dato ufficialmente quella come frequenza di funzionamento perche' il chip funzionava per la maggior parte ad con un altro clock e non voleva "fare brutte figure". :) Probabilmente sto parlando del "delta geometric clock" del quale parla leoneazzurro, non ho mai saputo quale parte della VPU funzionasse a tale freqenza.


L'R500 e' andato in tape out a Gennaio 2005.

Hai ragione, comunque li ha impegnati fino a tale data e non poco.
Comunque mi sono scordato di aggiungere i notevoli problemi avuti con l'R520. Fanno pur sempre parte di quello che per nVidia e' stato un vantaggio.

yossarian
08-11-2005, 14:15
No. Perche' un'architettura puo' essere progettata per svolegere meno operazioni per colpo di clock, quindi poter salire piu' facilmente in frequenza, mentre un'altra architettura puo' essere progettate per svolgere piu' operazioni per colpo di clock quindi salire meno facilmente in frequenza.

Esempio classico: Pentium IV vs Athlon.

Quello che conta e' il numero di operazioni che una data architettura riesce a compiere in un dato lasso di tempo.


una misura complessiva, magari grossolana, ma qualitativamente attendibile, sull'efficienza dei vari chip, si può fare, a parità di bandwidth (e nel caso attuale, G70 ha un rapporto banda/fillrate migliore di quello di R520), valutando i cali prestazionali all'aumentare della complessità dei calcoli.
G70 è un chip ideato per far circolare, per ogni ciclo, centinaia di pixel all'inerno delle pipeline, R520, invece, lavora su un numero ridotto di pixel. Di conseguenza, con calcoli meno gravosi, G70 si avvantaggia del fatto di potre lavorare sulla quantità e spesso si trova in vantaggio. All'aumentare della complessità delle operazioni (quando sono richiesti più cicli per terminare un'elaborazione), entrambi i chip, come è logico che sia, si allontanano dai valori massimi teorici. Mentre, però, il calo di R520 è più graduale, quello di G70 presenta un andamento irregolare, con vistosi cali improvvisi, tannto che, alle alte risoluzioni e con filtri attivi, finisce sempre dietro, a volte anche nettamente, tranne che nei titoli più NV friendly.
Questo significa che G70 ha un'architettura meno bilanciata che, in determinate situazioni, presenta dei colli di bottiglia che fanno aumentare l'inefficenza del chip, al crescere della complessità dei calcoli, molto più velocemente di quanto non sia imputabile al calo fisiologico dovuto al numero maggiore di operazioni per ogni elaborazione.
Aumentare le frequenze serve solo a mascherare certi problemi, aumentando il numero di operazioni svolte nell'unità di tempo, ma non migliora l'efficienza del chip (anzi, in alcuni casi, finisce con l'incidere in maniera negativa).

Ad esempio, un elemento importante, è il nuovo memory controller di R520 che, rispetto al crossbar tradizionale, risulta molto più efficace nel gestire operazioni con grandi quantitativi di ram ad elevato bit rate

MadRat
08-11-2005, 14:23
Qualcuno ricordera' che su un altro thread ho fatto notare come le immagini tratte da HF2 LC HDR di ATI fossero piu' "sbiadite" e meno contrastate di quella nVidia, bene, ho trovato una serie di immagini in un altro sito relative ad un raffronto ulteriore tra x1800 e 7800, dove questo fenomeno si manifesta SEMPRE, ma a fattori invertiti, cosi' come accade palesemente oggi con alcune applicazioni tipo "3dM2005", nVidia perde alcune "ombre".
Se qualcuno ne e' interessato possiamo anche aprire un topic apposito e discuterne, perche' ritengo (e ne ho le prove) che queste "mutilazioni" vadano avanti sin dai primi modelli ATI 8500 (antecedenti non ne ho provati), strada seguita magistralmente da nVidia.

Chiedo venia per l'eventuale OT. :)

yossarian
08-11-2005, 14:29
Qualcuno ricordera' che su un altro thread ho fatto notare come le immagini tratte da HF2 LC HDR di ATI fossero piu' "sbiadite" e meno contrastate di quella nVidia, bene, ho trovato una serie di immagini in un altro sito relative ad un raffronto ulteriore tra x1800 e 7800, dove questo fenomeno si manifesta SEMPRE, ma a fattori invertiti, cosi' come accade palesemente oggi con alcune applicazioni tipo "3dM2005", nVidia perde alcune "ombre".
Se qualcuno ne e' interessato possiamo anche aprire un topic apposito e discuterne, perche' ritengo (e ne ho le prove) che queste "mutilazioni" vadano avanti sin dai primi modelli ATI 8500 (antecedenti non ne ho provati), strada seguita magistralmente da nVidia.

Chiedo venia per l'eventuale OT. :)

se è per questo, si può anche parlare del finto trilinear che sia NV che ATi facevano sin dai tempi del Riva TnT e del Rage 128 GL (che poi è diventato brilinear, secondo una dicitura introdotta, se non ricordo male, da 3DCenter, durante l'analisi dell'AF di NV3x e R3x0)

MadRat
08-11-2005, 14:40
se è per questo, si può anche parlare del finto trilnear che sia NV che ATi facevano sin dai tempi del Riva TnT e del Rage 128 GL (che poi è diventato brilinear, secondo una dicitura introdotta, se non ricordo male, da 3DCenter, durante l'analisi dell'AF di NV3x e R3x0)

Che burloni che sono questi produttori, ma lo fanno per rallegrarci!! :D

yossarian
08-11-2005, 16:39
E penso che qualcuno su questo forum dovrebbe imparare.E mi riferisco soprattutto a chi, pur conoscendo molto del "3D", finisce miserabilmente per assumere atteggiamenti di parte.E soprattutto finisce per promuovere le proprie idee faziose mescolando le proprie cognizioni con i propri desideri.




io invece penso che qualcuno, su questo forum, debba imparare a non a fare affermazioni o asserzioni su cose di cui non ha cognizione e, tanto meno, a non fare morali quando non ne ha titolo.
In tal modo si risparmiano tante brutte figure e si evita di inquinare i thread con post di dubbia utilità

leoneazzurro
08-11-2005, 16:54
ho il sospetto che sia una sorta di overdrive, invece. Comunque è una cosa che va approfondita

Penso di no, sembra che il chip operi proprio a diversi livelli di clock.

MadRat
08-11-2005, 16:59
Penso di no, sembra che il chip operi proprio a diversi livelli di clock.

Me lo chiedo da piu' di un anno.. vediamo se finalmente salta fuori 'sta benedetta risposta. :) In fin dei conti e' possibilissimo che abbia dei clock differenziati.

leoneazzurro
08-11-2005, 17:04
Me lo chiedo da piu' di un anno.. vediamo se finalmente salta fuori 'sta benedetta risposta. :) In fin dei conti e' possibilissimo che abbia dei clock differenziati.

C'era una risposta ufficiale di Nvidia a riguardo (mi sembra sull'Inq). Ma adesso non ho il tempo di andarla a ritrovare :D

MadRat
08-11-2005, 17:19
C'era una risposta ufficiale di Nvidia a riguardo (mi sembra sull'Inq). Ma adesso non ho il tempo di andarla a ritrovare :D

Mi ero fermato a qualche loro chiarimento superficiale riguardo proiprio il dato rilevato da rivatuner. Comunqe grazie e se dovesse passarti per le mani rigiraci il collegamento.

johnson
08-11-2005, 17:34
Tenete presente che questa 7800GTX 512 mb costerà 100$ in più della X1800XT.

Da non sottovalutare.

Sembra che costerà solamente 50$ in più. Inquirer riporta infatti il prezzo di 599$ invece che 549$ come aveva annunciato ATI al momento della presentazione (link di newegg qui (http://www.newegg.com/Product/Product.asp?Item=N82E16814102624) )

yossarian
08-11-2005, 20:15
C'era una risposta ufficiale di Nvidia a riguardo (mi sembra sull'Inq). Ma adesso non ho il tempo di andarla a ritrovare :D


ho dato un'occhiata ai test sintetici sul processore geometrico di NV3x, NV40 e G70 e, al di là dell'aumento del numero di unità di calcolo e della differenza di frequenze del chip, non mi pare che ci siano variazioni che facciano presumere che, da un certo punto in poi, si siano adoperati clock differenti per le vertex pipeline rispetto al resto del chip. Inoltre, il rapporto tra dati sperimentali e dati teorici (che ognuno fornisce in base a parametri differenti, tra l'altro :D), restituisce un risultato, per tutti e tre i chip, allineato con quello che ci si aspetterebbe sulla base delle caratteristiche tecniche.

Altro dato da sottolineare; nVIDIA ha dichiarato che le vertex unit di G70 sono capaci di 2 MAD (sottintendendo che quelle di NV40 si fermano a 1) e i dati teorici dichiarati (637 MTrix/s per NV40 e 860 per G70), lascerebbero presupporre proprio che sia così (e che G70 abbia vs a 430 Mhz); però dai risultati sperimentali, al contrario, le difefrenze tra G70 e NV40 sembrerebbero imputabili solo all'aumento del numero di unità di calcolo (c'è solo un test in cui il vantaggio eccede il valore teorico che si attesta attorno al 25% rispetto alla 6800 U)

MadRat
09-11-2005, 01:26
c'è solo un test in cui il vantaggio eccede il valore teorico che si attesta attorno al 25% rispetto alla 6800 U
E dunque?? vi sara' una spiegazione..

Rivatuner dove lo pescava quel clock??

yossarian
09-11-2005, 01:33
E dunque?? vi sara' una spiegazione..

Rivatuner dove lo pescava quel clock??


le spiegazioni sono tre:
1) una sorta di overdrive
2) la vsu lavorano a frequenza differente ma i vantaggi sono minimi e limitati ad alcune tipologie di shader specifici
3) non sono le vsu a lavorare a frequenza diversa ma qualcos'altro: se così è, le possibili spiegazioni sono due: il memory controller (non sarebbe il primo caso; la stessa cosa avviene con i chip ATi delle serie R3x0 e R4x0), le rop's.
I risultati sperimentali porterebbero a escludere le rop's (a causa del valore del fillrate) e, con quasi certezza, le vsu (resta il dubbio su quegli specifici test); quindi, l'indiziato principale sembrerebbe il memory controller. Però, a questo punto, ci sarebbe da chiedersi come mai lo abbia rilevato il 3dmark (che non ha un test specifico).

Ne aggiungo una quarta: potrebbero essere le pixel pipeline a lavorare a frequenza diversa.

MadRat
09-11-2005, 02:57
le spiegazioni sono tre:
1) una sorta di overdrive
2) la vsu lavorano a frequenza differente ma i vantaggi sono minimi e limitati ad alcune tipologie di shader specifici
3) non sono le vsu a lavorare a frequenza diversa ma qualcos'altro: se così è, le possibili spiegazioni sono due: il memory controller (non sarebbe il primo caso; la stessa cosa avviene con i chip ATi delle serie R3x0 e R4x0), le rop's.
I risultati sperimentali porterebbero a escludere le rop's (a causa del valore del fillrate) e, con quasi certezza, le vsu (resta il dubbio su quegli specifici test); quindi, l'indiziato principale sembrerebbe il memory controller. Però, a questo punto, ci sarebbe da chiedersi come mai lo abbia rilevato il 3dmark (che non ha un test specifico).

Ne aggiungo una quarta: potrebbero essere le pixel pipeline a lavorare a frequenza diversa.

Sintetizzando, potrebbe essere qualunque parte del chip.. Non c'e' un modo per testare le frequenze di lavoro di ogni "parte"??

Qualche post fa ti ho chiesto se sapessi se in questo nuovo G7x fossero state aumentate le frequenze delle ROPs, non ho fatto caso se mi hai risposto (o meglio, mi sembra di no).. Sorry!! :) Hai qualche notizia al riguardo??

leoneazzurro
09-11-2005, 09:37
ho dato un'occhiata ai test sintetici sul processore geometrico di NV3x, NV40 e G70 e, al di là dell'aumento del numero di unità di calcolo e della differenza di frequenze del chip, non mi pare che ci siano variazioni che facciano presumere che, da un certo punto in poi, si siano adoperati clock differenti per le vertex pipeline rispetto al resto del chip. Inoltre, il rapporto tra dati sperimentali e dati teorici (che ognuno fornisce in base a parametri differenti, tra l'altro :D), restituisce un risultato, per tutti e tre i chip, allineato con quello che ci si aspetterebbe sulla base delle caratteristiche tecniche.

Altro dato da sottolineare; nVIDIA ha dichiarato che le vertex unit di G70 sono capaci di 2 MAD (sottintendendo che quelle di NV40 si fermano a 1) e i dati teorici dichiarati (637 MTrix/s per NV40 e 860 per G70), lascerebbero presupporre proprio che sia così (e che G70 abbia vs a 430 Mhz); però dai risultati sperimentali, al contrario, le difefrenze tra G70 e NV40 sembrerebbero imputabili solo all'aumento del numero di unità di calcolo (c'è solo un test in cui il vantaggio eccede il valore teorico che si attesta attorno al 25% rispetto alla 6800 U)


Non saprei dirti, le vecchie versioni di Rivatuner rilevavano i clock più elevati come quello della GPU, in seguito, come si può evincere dalle release notes di Rivatuner (il terzo link qui sotto) il programma rivela tutti i clock differenziati andando a prendere i registri corretti, poi se questo è ciò che accade realmente all'interno del chip lo sa solo nvidia...
L'ultimo link contiene una risposta da parte di Nvidia.

http://www.theinquirer.net/?article=24409

http://www.guru3d.com/newsitem.php?id=2827

http://www.guru3d.com/index.php?page=rivatuner&menu=8

http://www.xbitlabs.com/news/video/display/20050707175512.html

leoneazzurro
09-11-2005, 12:38
Qui c'è una spiegazione interessante e se Wavey ci mette le firma ce la metto pure io :D

http://www.beyond3d.com/reviews/leadtek/7800r/index.php?p=17

yossarian
09-11-2005, 13:32
Sintetizzando, potrebbe essere qualunque parte del chip.. Non c'e' un modo per testare le frequenze di lavoro di ogni "parte"??

Qualche post fa ti ho chiesto se sapessi se in questo nuovo G7x fossero state aumentate le frequenze delle ROPs, non ho fatto caso se mi hai risposto (o meglio, mi sembra di no).. Sorry!! :) Hai qualche notizia al riguardo??

si, il sistema c'è anche se la sua attendibilità non è elevatissima perchè si basa sul calcolo della quantità di dati in input e in output per ogni singolo blocco, ma questi valori possono essere alterati da altri elementi diversi dalla frequenza di funzionamento.

Per quanto riguarda la nuova vga, non credo che le frequenze delle rop's siano differenti da quelle del chip, però potrei anche sbagliarmi

MadRat
09-11-2005, 14:02
Ricordavo bene la frequenza allora ed ora abbiamo anche svelato l'arcano.

yossarian
09-11-2005, 15:01
Ricordavo bene la frequenza allora ed ora abbiamo anche svelato l'arcano.


siamo così sicuri di averlo svelato?
Abbiamo un comportamento +o- lineare delle vsu con la frequenza; un comportamento a "salti" delle psu e delle rop's. Fin qui niente di strano: il carico di lavoro per psu e rop's è superiore (soprattutto per le prime), quindi è normale che abbiano una "maggiore" inerzia" rispetto agli aumenti di frequenza.
Unico dato anomalo, il comportamento delle rop's tra 450 e 490 Mhz (un intervallo di 40 Mhz è abbastanza inconsueto). Ma questo spiega solo perchè la GT e la GTX di Leadtek hanno uguali valori nello z rate test e perchè le prestazioni con D3 aumentano di poco o niente in quel range di frequenze.
Dall'atra parte abbiamo un ipotetico maggiore clock per le vsu; in teroria si parla di 40 Mhz di diferenza, però, nei test relativi ai vs si vede che, se prendiamo a riferimento la versione GTX di leadtek, a fronte di un aumento del valore dato da maggior frequenza e maggior numero di vsu, pari all'87% circa, rispetto alla 6800 GT, il vantaggio relativo alle vertex ops si attesta tra il 92 e il 93% (quindi, all'incirca, a metà tra il valore di un chip a 490 Mhz e quello di un chip a 530 Mhz).
Consideriamo due cose: nel link di Guru3D e in quello di xbit, nVIDIA sostiene che le vsu di G70 lavorano a frequenze differenti; questo significa che lo stesso non vale per NV40 (anche perchè questo caso è scoppiato con G70 e non con NV40); d'altro canto, nVIDIA sostiene anche che le vsu di G70 hanno la capacità di eseguire 2 MAD (il che lascerebbe intendere che quelle di NV40 non sono in grado di farlo?) e che, comunque, in G70 sono state introdotte delle migliorie a livello di efficienza di vertex processor.
Ora, al di là dei proclami da pr (abbiamo visto anche l'algoritmo di hsr di R520 che, secondo ATi migliora le prestazioni rispetto a quello di R4x0 di un valore massimo del 60% e abbiamo anche visto, nei test reali, che quel valore è molto più basso: certo, non si è testato a 24000000x736000, ma non credo che abbia senso un test del genere :D ), i casi sono due: o effettivamente il vertex processor lavora ad una frequenza superiore di circa 40 Mhz ma i risultati finali sono inferiori a quelli teorici (il che fa escludere ottimizzazioni nei vs di G70 rispetto a quelli di NV40, a meno che gli interventi non siano stati "peggiorativi"); oppure ci sono state delle ottimizzazioni (ma questo esclude il clock differenziato tra varie parti del chip).
E resta, comunque, da chiarire il comportamento anomalo delle rop's tra 450 e 490 Mhz (poichè sembrerebbe un comportamento indotto da un collo di bottiglia e, poichè al salire della frequenza, oltre i 490, si ha un nuovo fronte di salita, sarei indotto a pensare ad un'insufficienza della z-cache interna alle rop's che, una volta superati i 490 Mhz viene "mascherata" dalla velocità complessiva delle operazioni, piuttosto che ad un problema di bandwidth)

leoneazzurro
09-11-2005, 15:44
siamo così sicuri di averlo svelato?
Abbiamo un comportamento +o- lineare delle vsu con la frequenza; un comportamento a "salti" delle psu e delle rop's. Fin qui niente di strano: il carico di lavoro per psu e rop's è superiore (soprattutto per le prime), quindi è normale che abbiano una "maggiore" inerzia" rispetto agli aumenti di frequenza.
Unico dato anomalo, il comportamento delle rop's tra 450 e 490 Mhz (un intervallo di 40 Mhz è abbastanza inconsueto). Ma questo spiega solo perchè la GT e la GTX di Leadtek hanno uguali valori nello z rate test e perchè le prestazioni con D3 aumentano di poco o niente in quel range di frequenze.
Dall'atra parte abbiamo un ipotetico maggiore clock per le vsu; in teroria si parla di 40 Mhz di diferenza, però, nei test relativi ai vs si vede che, se prendiamo a riferimento la versione GTX di leadtek, a fronte di un aumento del valore dato da maggior frequenza e maggior numero di vsu, pari all'87% circa, rispetto alla 6800 GT, il vantaggio relativo alle vertex ops si attesta tra il 92 e il 93% (quindi, all'incirca, a metà tra il valore di un chip a 490 Mhz e quello di un chip a 530 Mhz).
Consideriamo due cose: nel link di Guru3D e in quello di xbit, nVIDIA sostiene che le vsu di G70 lavorano a frequenze differenti; questo significa che lo stesso non vale per NV40 (anche perchè questo caso è scoppiato con G70 e non con NV40); d'altro canto, nVIDIA sostiene anche che le vsu di G70 hanno la capacità di eseguire 2 MAD (il che lascerebbe intendere che quelle di NV40 non sono in grado di farlo?) e che, comunque, in G70 sono state introdotte delle migliorie a livello di efficienza di vertex processor.
Ora, al di là dei proclami da pr (abbiamo visto anche l'algoritmo di hsr di R520 che, secondo ATi migliora le prestazioni rispetto a quello di R4x0 di un valore massimo del 60% e abbiamo anche visto, nei test reali, che quel valore è molto più basso: certo, non si è testato a 24000000x736000, ma non credo che abbia senso un test del genere :D ), i casi sono due: o effettivamente il vertex processor lavora ad una frequenza superiore di circa 40 Mhz ma i risultati finali sono inferiori a quelli teorici (il che fa escludere ottimizzazioni nei vs di G70 rispetto a quelli di NV40, a meno che gli interventi non siano stati "peggiorativi"); oppure ci sono state delle ottimizzazioni (ma questo esclude il clock differenziato tra varie parti del chip).
E resta, comunque, da chiarire il comportamento anomalo delle rop's tra 450 e 490 Mhz (poichè sembrerebbe un comportamento indotto da un collo di bottiglia e, poichè al salire della frequenza, oltre i 490, si ha un nuovo fronte di salita, sarei indotto a pensare ad un'insufficienza della z-cache interna alle rop's che, una volta superati i 490 Mhz viene "mascherata" dalla velocità complessiva delle operazioni, piuttosto che ad un problema di bandwidth)

Dai risultati di beyond3D mi parrebbe quasi che ci sia un meccanismo di "fix" del clock delle ROPs che blocca il clock all'interno di un certo intervallo di frequenze. Il perchè e il come di un tale meccanismo ovviamente mi sono oscuri (potrebbe essere un comportamento particolare del circuito che riporta i clock all'interno della GPU). Infatti il salto mi pare troppo brusco per essere dovuto ad un collo di bottiglia del tipo cache (anche perchè se fosse un problema di cache limitata non vedo come aumentando la frequenza possa risolversi, in ogni caso mi aspetterei un andamento più dolce e non quegli "scalini"), a meno che il comportamento a "scalino" sia dovuto ad un problema di sincronizzazione delle operazioni, che viene realizzato solo quando determinate parti della circuiteria si trovano in un ben determinato rapporto di frequenze.

yossarian
09-11-2005, 16:05
Dai risultati di beyond3D mi parrebbe quasi che ci sia un meccanismo di "fix" del clock delle ROPs che blocca il clock all'interno di un certo intervallo di frequenze. Il perchè e il come di un tale meccanismo ovviamente mi sono oscuri (potrebbe essere un comportamento particolare del circuito che riporta i clock all'interno della GPU). Infatti il salto mi pare troppo brusco per essere dovuto ad un collo di bottiglia del tipo cache (anche perchè se fosse un problema di cache limitata non vedo come aumentando la frequenza possa risolversi, in ogni caso mi aspetterei un andamento più dolce e non quegli "scalini"), a meno che il comportamento a "scalino" sia dovuto ad un problema di sincronizzazione delle operazioni, che viene realizzato solo quando determinate parti della circuiteria si trovano in un ben determinato rapporto di frequenze.

non avrebbe molto senso (se non masochismo puro) un meccanismo del genere.
Se fosse un collo di bottiglia dovuto ad una cache insufficiente, verrebbe temporaneamnete superato nel momento in cui la frequenza delle operazioni divenisse tale da far aumentare di quello che basta la velocità di caricamento e svuotamento dei dati, in modo da far tornare a salire il pixel fillrate.
Bisognerebbe vedere cosa accade dopo i 520 Mhz.
Tra l'altro, se confrontato con quello dello z rate, è strano anche il comportamento dei ps; salgono per un intervallo, restano fermi per 3, salgono per uno, restano fermi per tre salgono di 1 restano fermi per 1, salgono ancora per 1 e restano di nuovo fermi per 3.

Non mi sembra un problema di clock fix.

MadRat
09-11-2005, 17:01
siamo così sicuri di averlo svelato?
Abbiamo un comportamento +o- lineare delle vsu con la frequenza; un comportamento a "salti" delle psu e delle rop's. Fin qui niente di strano: il carico di lavoro per psu e rop's è superiore (soprattutto per le prime), quindi è normale che abbiano una "maggiore" inerzia" rispetto agli aumenti di frequenza.
Unico dato anomalo, il comportamento delle rop's tra 450 e 490 Mhz (un intervallo di 40 Mhz è abbastanza inconsueto). Ma questo spiega solo perchè la GT e la GTX di Leadtek hanno uguali valori nello z rate test e perchè le prestazioni con D3 aumentano di poco o niente in quel range di frequenze.
Dall'atra parte abbiamo un ipotetico maggiore clock per le vsu; in teroria si parla di 40 Mhz di diferenza, però, nei test relativi ai vs si vede che, se prendiamo a riferimento la versione GTX di leadtek, a fronte di un aumento del valore dato da maggior frequenza e maggior numero di vsu, pari all'87% circa, rispetto alla 6800 GT, il vantaggio relativo alle vertex ops si attesta tra il 92 e il 93% (quindi, all'incirca, a metà tra il valore di un chip a 490 Mhz e quello di un chip a 530 Mhz).
Consideriamo due cose: nel link di Guru3D e in quello di xbit, nVIDIA sostiene che le vsu di G70 lavorano a frequenze differenti; questo significa che lo stesso non vale per NV40 (anche perchè questo caso è scoppiato con G70 e non con NV40); d'altro canto, nVIDIA sostiene anche che le vsu di G70 hanno la capacità di eseguire 2 MAD (il che lascerebbe intendere che quelle di NV40 non sono in grado di farlo?) e che, comunque, in G70 sono state introdotte delle migliorie a livello di efficienza di vertex processor.
Ora, al di là dei proclami da pr (abbiamo visto anche l'algoritmo di hsr di R520 che, secondo ATi migliora le prestazioni rispetto a quello di R4x0 di un valore massimo del 60% e abbiamo anche visto, nei test reali, che quel valore è molto più basso: certo, non si è testato a 24000000x736000, ma non credo che abbia senso un test del genere :D ), i casi sono due: o effettivamente il vertex processor lavora ad una frequenza superiore di circa 40 Mhz ma i risultati finali sono inferiori a quelli teorici (il che fa escludere ottimizzazioni nei vs di G70 rispetto a quelli di NV40, a meno che gli interventi non siano stati "peggiorativi"); oppure ci sono state delle ottimizzazioni (ma questo esclude il clock differenziato tra varie parti del chip).
E resta, comunque, da chiarire il comportamento anomalo delle rop's tra 450 e 490 Mhz (poichè sembrerebbe un comportamento indotto da un collo di bottiglia e, poichè al salire della frequenza, oltre i 490, si ha un nuovo fronte di salita, sarei indotto a pensare ad un'insufficienza della z-cache interna alle rop's che, una volta superati i 490 Mhz viene "mascherata" dalla velocità complessiva delle operazioni, piuttosto che ad un problema di bandwidth)


Sarebbe tutto corretto e lineare se non fosse che i primi dati "falsati" da un secondo clock si sono avuti proprio con un NV40, dunque lavora in asincrono pure questo. Ergo, il miglioramento (ottimizzazione) nel G70 c'e' stato.
Se non erro tu hai dedotto che nel NV40 non vi fossero componenti lavoranti a frequenze differenti, dall'interpretazione solo di una frase. Penso che sia lì il punto.

leoneazzurro
09-11-2005, 17:04
non avrebbe molto senso (se non masochismo puro) un meccanismo del genere.
Se fosse un collo di bottiglia dovuto ad una cache insufficiente, verrebbe temporaneamnete superato nel momento in cui la frequenza delle operazioni divenisse tale da far aumentare di quello che basta la velocità di caricamento e svuotamento dei dati, in modo da far tornare a salire il pixel fillrate.
Bisognerebbe vedere cosa accade dopo i 520 Mhz.
Tra l'altro, se confrontato con quello dello z rate, è strano anche il comportamento dei ps; salgono per un intervallo, restano fermi per 3, salgono per uno, restano fermi per tre salgono di 1 restano fermi per 1, salgono ancora per 1 e restano di nuovo fermi per 3.

Non mi sembra un problema di clock fix.

A me pare più che vi sia un collo di bottiglia dovuto alla sincronizzazione tra le diverse parti della pipeline, per cui quando c'è un rapporto ottimale tra il clock di VS, PS e ROPs il fill rate sale (dato anche che ci sono 16 ROPs per 24 pipelines), ma in caso di discrepanze rispetto a questo rapporto ottimale alcune unità di esecuzione sono forzate ad attendere la sincronia per potere eseguire le operazioni. O forse è quello che intendi a proposito di "mancanza di cache", perchè forse non c'è un buffer abbastanza ampio da rendere indipendenti le operazioni svolte dalle ROPs dai PS (il che mi riporta al discorso della dipendenza delle ROPs dai PS... non è che c'entra qualcosa?)

yossarian
09-11-2005, 17:23
A me pare più che vi sia un collo di bottiglia dovuto alla sincronizzazione tra le diverse parti della pipeline, per cui quando c'è un rapporto ottimale tra il clock di VS, PS e ROPs il fill rate sale (dato anche che ci sono 16 ROPs per 24 pipelines), ma in caso di discrepanze rispetto a questo rapporto ottimale alcune unità di esecuzione sono forzate ad attendere la sincronia per potere eseguire le operazioni. O forse è quello che intendi a proposito di "mancanza di cache", perchè forse non c'è un buffer abbastanza ampio da rendere indipendenti le operazioni svolte dalle ROPs dai PS (il che mi riporta al discorso della dipendenza delle ROPs dai PS... non è che c'entra qualcosa?)


tra vs e ps e tra ps e rop's ci sono delle cache che permettono, ad esmepio, ai vs, di continuare a lavorare ancora per qualche ciclo, anche se i ps sono tutti occupati; discorso analogo tra ps e rop's. Questo serve anche per la sincronizzazione dei vari blocchi. Per questo lmi pare improbabile un problema di sincronizzazione; a questo aggiungi che all'interno delle rop's ci sono cahe di ridotte dimensioni utili ad eseguire alcuni calcoli (blending e MSAA), tra cui una mini-z cache che comunica con lo z-buffer e il MSAA

yossarian
09-11-2005, 17:26
Sarebbe tutto corretto e lineare se non fosse che i primi dati "falsati" da un secondo clock si sono avuti proprio con un NV40, dunque lavora in asincrono pure questo. Ergo, il miglioramento (ottimizzazione) nel G70 c'e' stato.
Se non erro tu hai dedotto che nel NV40 non vi fossero componenti lavoranti a frequenze differenti, dall'interpretazione solo di una frase. Penso che sia lì il punto.

While from functionality standpoint NVIDIA’s new graphics processing unit dubbed GeForce 7800 GTX has few differences compared to the GeForce 6800 architecture, the new chip features a number of enhancements beyond the previous family of products. One of such distinctions is ability of the processor to operate its different parts at different clock-speeds.

“As our chips become more advanced, we are implementing more complex clocking inside the chip. 430MHz is the primary clock speed of the chip and can be verified by fill rate tests. We can say that we have multiple clock domains, and that the reported core-clock frequency is based on the majority of the GPU's Logic. In the case of the GeForce 7800 GTX, this is 430 MHz,” NVIDIA’s spokesman Luciano Alibrandi told X-bit labs.


questa frase mi sembra abbastanza esplicativa. Inoltre, non mi risulta che il caso sia esploso con NV40, ma con G70 (e tutti i chip testati hanno presentato un comportamento analogo, cosa che non accadeva. prima, con NV40)

Apple80
09-11-2005, 17:41
scusate . mi stà scoppiando la testa. State parlando della frequnza della 7800gtx da 512 ? pensate che i 550mhz sono riferiti compreso del bust di frequenza come succede già ora con la 7800gtx da 256 ?

leoneazzurro
09-11-2005, 17:52
scusate . mi stà scoppiando la testa. State parlando della frequnza della 7800gtx da 512 ? pensate che i 550mhz sono riferiti compreso del bust di frequenza come succede già ora con la 7800gtx da 256 ?

No, più che altro stiamo parlando del comportamento anomalo del chip G70, che a 430 Mhz di frequenza nominale pare avere alcune parti (i VS secondo la versione ufficiale Nvidia) che lavorano a 470 MHz.
IMHO la versione a 512 MHz, se veramente lavorerà a 550/580 MHz, avrà frequenze uguali per tutte le parti del chip.

PS: che siano lotti di produzione particolarmente "tweakati" per le alte frequenze ma con yield bassissimi?

yossarian
09-11-2005, 17:54
PS: che siano lotti di produzione particolarmente "tweakati" per le alte frequenze ma con yield bassissimi?

immagino di si; anche perchè ci affiancano ram non facilmente reperibili al mercato dietro l'angolo :D

leoneazzurro
09-11-2005, 17:56
tra vs e ps e tra ps e rop's ci sono delle cache che permettono, ad esmepio, ai vs, di continuare a lavorare ancora per qualche ciclo, anche se i ps sono tutti occupati; discorso analogo tra ps e rop's. Questo serve anche per la sincronizzazione dei vari blocchi. Per questo lmi pare improbabile un problema di sincronizzazione; a questo aggiungi che all'interno delle rop's ci sono cahe di ridotte dimensioni utili ad eseguire alcuni calcoli (blending e MSAA), tra cui una mini-z cache che comunica con lo z-buffer e il MSAA

Può darsi che questi buffer siano troppo piccoli, oppure che vi sia qualche stranezza nella logica di instradamento dei dati (solo supposizioni, ovvio).

Apple80
09-11-2005, 18:07
No, più che altro stiamo parlando del comportamento anomalo del chip G70, che a 430 Mhz di frequenza nominale pare avere alcune parti (i VS secondo la versione ufficiale Nvidia) che lavorano a 470 MHz.
IMHO la versione a 512 MHz, se veramente lavorerà a 550/580 MHz, avrà frequenze uguali per tutte le parti del chip.

PS: che siano lotti di produzione particolarmente "tweakati" per le alte frequenze ma con yield bassissimi?

ah. bene ora ho capito..
in ogni caso si sule ram sono daccordo. sono davvero difficli da reperire o aolmeno non ce ne saranno di grosse quantità . cavolo voglio dire.. gddr3 a 1800mhx a 1,1ns. cioè..da capogiro. è come se fosse già uscita la nuova generazione di schede.

Cmq io sarei tentato di prenderla. solo se sarà al- un 20% più veloce della 7800gtx da 256.

MadRat
09-11-2005, 18:29
While from functionality standpoint NVIDIA’s new graphics processing unit dubbed GeForce 7800 GTX has few differences compared to the GeForce 6800 architecture, the new chip features a number of enhancements beyond the previous family of products. One of such distinctions is ability of the processor to operate its different parts at different clock-speeds.

“As our chips become more advanced, we are implementing more complex clocking inside the chip. 430MHz is the primary clock speed of the chip and can be verified by fill rate tests. We can say that we have multiple clock domains, and that the reported core-clock frequency is based on the majority of the GPU's Logic. In the case of the GeForce 7800 GTX, this is 430 MHz,” NVIDIA’s spokesman Luciano Alibrandi told X-bit labs.


questa frase mi sembra abbastanza esplicativa. Inoltre, non mi risulta che il caso sia esploso con NV40, ma con G70 (e tutti i chip testati hanno presentato un comportamento analogo, cosa che non accadeva. prima, con NV40)

Eppure ricordo chiaramente di tale problema con le versioni di rivatuner non aggiornate quando uscirono le prime 6800, puo' essere che ricordi male o mi confonda con qualcos'altro. Cerchero'.

yossarian
09-11-2005, 19:32
Può darsi che questi buffer siano troppo piccoli, oppure che vi sia qualche stranezza nella logica di instradamento dei dati (solo supposizioni, ovvio).


può darsi che sei sulla strada giusta per spiegare l'andamento a salti

;)

CubeDs
09-11-2005, 19:43
Aspetto di vedere un confronto su questa nuova versione di 7800 Gtx e la X1800xt. :)

leoneazzurro
09-11-2005, 21:45
può darsi che sei sulla strada giusta per spiegare l'andamento a salti

;)

Quindi ti riferivi ai buffer quando parlavi di "poca cache"? :D

yossarian
09-11-2005, 21:52
Quindi ti riferivi ai buffer quando parlavi di "poca cache"? :D

a quelli e alle mini cache interne alle rop's. Anche le cache disposte tra i vari blocchi, non sono molto grandi (su G70 siamo nell'ordine di poche centinaia di pixel, su NV40, addirittura sotto i cento).

Vedi che se ti applichi ottieni risultati soddisfacenti!? :D

leoneazzurro
09-11-2005, 22:16
a quelli e alle mini cache interne alle rop's. Anche le cache disposte tra i vari blocchi, non sono molto grandi (su G70 siamo nell'ordine di poche centinaia di pixel, su NV40, addirittura sotto i cento).

Vedi che se ti applichi ottieni risultati soddisfacenti!? :D


bbbllblllblblbllll :ciapet: :D

micio822
10-11-2005, 22:00
Stando alle ultime novità sembra che il core possa superare facilmente i 600mhz...
Vedremo...