View Full Version : RadeonX1900XT: acquistabile in USA
Redazione di Hardware Upg
20-01-2006, 10:06
Link alla notizia: http://www.hwupgrade.it/news/skvideo/16194.html
Un popolare negozio on line nord americano ha posto in vendita la nuova scheda video ATI, non ancora ufficialmente presentata dal produttore
Click sul link per visualizzare la notizia.
è giunta ordunque l'ora di pensionare la mia fida X800, spero di trovarle presto in italia...
Dumah Brazorf
20-01-2006, 10:13
Ma che succede hanno fregato un camion di schede alla Sapphire?
vincente
20-01-2006, 10:15
ma le specifiche tecniche non erano più elevate ?
rispetto alla serie x1800 non mi sembra quel salto generazionale che dicevano !
il 2005 non mi sembra sia stato per ati un anno memorabile , ma se il 2006 si apre con questa scheda allora saran dolori per i canadesi...
YaYappyDoa
20-01-2006, 10:22
Primi benchmark:
http://www.dailytech.com/article.aspx?newsid=310
Dolori? Non andiamo esagerando, su.
Che esisterà sempre una lotta tra nvidia e ati per la scheda dominante, è un fatto. Ed è un fatto come il 2005 sia stato migliore per nvidia, mentre il 2004 lo era stato per ati.
Ma da qui a fare commenti che sottintendono oggettivamente che ati sta facendo prodotti mediocri, ne passa ancora.
Gerardo Emanuele Giorgio
20-01-2006, 10:23
mah una volta ti pagavano per fare da cavia negli esperimenti... adesso devi pagare tu loro :D
610 dollari per una "beta"... ma dove siamo finiti? Colpa della gente che non sa aspettare
Io mi tengo la mia x800 gto, quando non va piu (ergo < 25fps nei giochi) la cambierò.
generals
20-01-2006, 10:24
e che differenze ci sono rispetto alla x1800? non doveva avere qualcosa in più, mah aspettiamo il lancio e vediamo se l'architettura è la stessa oppure no. Sarà pure che le pipe con architettura ati non contano più molto ma saranno sempre 16 per sempre.....
halduemilauno
20-01-2006, 10:27
Dolori? Non andiamo esagerando, su.
Che esisterà sempre una lotta tra nvidia e ati per la scheda dominante, è un fatto. Ed è un fatto come il 2005 sia stato migliore per nvidia, mentre il 2004 lo era stato per ati.
Ma da qui a fare commenti che sottintendono oggettivamente che ati sta facendo prodotti mediocri, ne passa ancora.
certamente intendevi il 2003. nel 2004 ad aprile è uscita la serie 6. una precisazione.
;)
@ vincente:
non sono di parte, anche perchè ho sempre avuto nvidia, solo ora ho una 9800pro momentanea in attesa che mi arrivi la configurazione nuova, però in quanto a qualità video l'ati è sopra, testato con i miei occhi, e cmq non è con le sole frequenze nude e crude! le 48 unità shader non sono mica pinoli!!!! per dare giudizi bisogna aspettare di vederla all'opera..a me ispira moltissimo sta scheda!!! fermo restando che non me la potrò mai permettere..
Foglia Morta
20-01-2006, 10:28
per una scheda OEM 610 dollari non sono pochi, ma è anche ovvio che il primo a venderla ci voglia fare la cresta. Tra un po vedremo qui :sperem:
ma le specifiche tecniche non erano più elevate ?
rispetto alla serie x1800 non mi sembra quel salto generazionale che dicevano !
il 2005 non mi sembra sia stato per ati un anno memorabile , ma se il 2006 si apre con questa scheda allora saran dolori per i canadesi...
semplicemente sei male informato, è da molti mesi che si parla del triplo di psu e per quanto riguarda le frequenze saranno circa 2 mesi che rumoreggiano quelle che ora sono realtà.
Gerardo Emanuele Giorgio
20-01-2006, 10:29
dai bench risulta dal 15 al 20% in piu rispetto una 7800gtx con 256mb. Bisognerebbe testare con una 512mb e una x1800 per fare qualche confronto serio.
piu di 350milioni di transistor... mamma mia :D che affollamento
a proposito, quel link con il primo test non mi è piaciuto per niente...non possono paragonarla alla 7800gtx 256MB!!!! se volevano fare il paragone dovevano avere la 512Mb...
Eraser|85
20-01-2006, 10:32
Per me è presto dire "sarà un brutto anno per ati".. considera che questa x1900 sarebbe la versione corretta e ottimizzata della serie x1800.. come la x850 lo è stata per la x800... come la 9800 per la 9700.. hanno aumentato di un bel po' la capacità di calcolo dei pixel shaders, che non è poco.. sicuramente ci saranno consumi inferiori e richieste di alimentazione meno esose (proprio perchè non hanno aumentato le frequenze..), inoltre il processo produttivo sarà stato affinato ulteriormente con ovvie conseguenze di OC --> una possibile XTX è già stata annunciata, scavalcando in frequenze la XT e penso anche di un bel margine.. ;)
a proposito, quel link con il primo test non mi è piaciuto per niente...non possono paragonarla alla 7800gtx 256MB!!!! se volevano fare il paragone dovevano avere la 512Mb...
quoto :mbe:
Gerardo Emanuele Giorgio
20-01-2006, 10:40
ho impressione cmq che stiano esaurendo anche le possibilità tecniche del processo a 90nm. Avete visto quant'è grande quel core? Mi sa che le prossime saranno a 65nm.
Sarei curioso di sapere a quanto possa salire in frequenza l'R580. 700mhz? 750mhz? Chissa i consumi poi.
non per dire, ma come fate a dire se sarà o no un buon anno per un produttore guardando il modello di punta e, ricordo, di nicchia?
non è certo su sto coso qui che faranno volumi e soldi
grazie al cielo gli affari non vengono fatti solo da nerds che guardano a chi c'ha il benchmark più lungo ... ma il portafoglio più gonfio :)
i primi bench sono stati fatti con una nvidia gtx 256, bisognerebbe confrontarla con la gtx 512, e poi al cebit g71...
NAM_Xavier
20-01-2006, 11:04
beh...io vado avanti con la mia 9700 Pro ...
quando mi si romperà o i giochi non riuscirò nemmeno più ad installarli...allora...acquisterò una schedina nuova... non di certo high end... quella la lascio ai nerds che cambiano scheda video ogni mese...
comunque sia....sono contento che continuino ad uscire schede...all'aumentare dell'offerta....diminuisce il prezzo!
ma avete letto tutto quell'articolo?
l'autore ha scritto chiaramente ce ha usato la gtx256 per chè nn aveva disponibilità della 512.
Si riserva la possibilità di farlo in futuro.
Tuttavia mi chiedo una cosa:
Si ve de che questa x1900xt è dal 15 al 20% più veloce della gtx256,
qual'è il margine tra la 256 e la gtx512?
si può pensare che la gtx512 e questa siano paragonabili?
se così fosse Ati avrebbe raggiunto solo ora le prestazioni della generazione Nvidia uscente!!!
o mi sto flashando?
sicuramente r580 non mi sembra che mostro di chip che veniva indicato a settembre da vari rumors, forse sono proprio le g7x di nvidia che lo hanno ridimensionato e, se effettivamente g71 sarà un 32pipes a 700Mhz, la vedo durissima per r580
ErminioF
20-01-2006, 11:21
Il 15-20% senza filtri...tant'è che in fear + filtri attivati si arriva a un 80% di vantaggio per l'r580 :)
Sicuramente interessante come scheda, se il salto fosse questo non ci sarebbe nulla di cui lamentarsi
Ian Hawke
20-01-2006, 11:29
Io volevo farmi un crossfire con le x1800, ma a sto punto non mi convince neanche questa x1900... Davvero, non ci si sta dentro dai...
1- Come gia' detto sopra, la pagina di test la rapporta alla 7800 256mb, il che' gia' fa ridere... Cioe', dai... La 512mb non ha solo della memoria in piu' da quanto avevo capito, era un mostro in tutti i punti... Prendete poi una XFX che sono fatte state of the art, e poi vediamo qual'e' la differenza...
2- Il G71 avra' 32 pipelines... 32!! Cioe' questa e' una capacita' di rendering SPAVENTOSA, ATI sara' davvero bene che mandi qualche cinese con macchina fotografica built-in alla progettazione nvidia e rubi un po di idee, perche' va bene che la loro gestione degli shaders e dei filtri e' molto superiore (ragione per cui volevo comprare le X1800), ma C'E' ASSOLUTO BISOGNO di bruteforce, senno gli shaders su cosa li applichi??
3- Resta il fatto che ATI mi piaccia di piu'... Se non altro perche' ATItool cloccka le schede da solo e te ti puoi fare un giro e tornare che te l'ha overclocckata e sta stabile... E poi mi piace di poter metter su i filtri a risoluzioni killer e vedere che tenga botta...
Aspettero' Vista per comprarmi il pc nuovo, quindi ottobre... Voglio vedere se ATI mi convincera' a comprare un bel crossfire... Che poi come nome e' piu' bello di SLi... IMHO...
Alucard83
20-01-2006, 11:35
Con l'attivazione dei filtri è ovvio che il vantaggio aumenti per una scheda con 512 mb di ram, dato che il carico su queste ultime è maggiore perchè maggiore è la chiamata in causa delle stesse, quindi, a mio parere, il test non ha senso se non con un paragone con la geffo7 a 512 mb di ram.
Aspetto quello prima di dare un giudizio su questa scheda.
Tengo a precisare che nei bench comparativi della geffo 7 con 256 e la 512, quest'ultima aveva dato vantaggi netti con filtri attivati e ad alte risoluzioni rispetto alla sorella minore
capitan_crasy
20-01-2006, 11:36
Siamo sicuri che non ti fanno cancellare anche questa notizia sulla X1900? :D :p
permaloso
20-01-2006, 11:36
occhio a valutare quel prezzo (610 dollari) come caro... controllate le altre cose che vendono in quello store... sono praticamente più care che in italia... per esempio vendono un noto mouse a 75 dollari quando in italia nello store ufficiale lo si trova a 69 euro e su kelkoo a 59 euro... se ci togliete l'iva c'è quasi un abisso
a proposito, quel link con il primo test non mi è piaciuto per niente...non possono paragonarla alla 7800gtx 256MB!!!! se volevano fare il paragone dovevano avere la 512Mb...
E' che volevano farlo. Solo che non l'hanno trovata in vendita e Nvidia le aveva finite :rotfl:
Resta il fatto che ATI mi piaccia di piu'... Se non altro perche' ATItool cloccka le schede da solo e te ti puoi fare un giro e tornare che te l'ha overclocckata e sta stabile... E poi mi piace di poter metter su i filtri a risoluzioni killer e vedere che tenga botta...
Lo fanno anche i forceware, mai provato coobits?
Se poi hai un chipset nForce, esiste anche nTune per tutto il sistema...
Aspettero' Vista per comprarmi il pc nuovo, quindi ottobre... Voglio vedere se ATI mi convincera' a comprare un bel crossfire... Che poi come nome e' piu' bello di SLi... IMHO...
In bocca al lupo! :D
Prendere un sistema operativo (microsozz soprattutto) appena uscito non mi pare una gran scelta...
Per quanto riguarda la qualità e le prestazioni, proverei a smanettare di più con driver e programmi, piuttosto che inseguire l'ultima chimera che tanto promette e dopo un mese è già da cambiare, magari vi accorgereste che, Ati o Nvidia che siano, offrono un buon supporto che molti ignorano.
Ad esempio, impostate la qualità alta nei profili driver nvidia e poi ne riparliamo...
Per quanto mi riguarda sono un felice possessore di x1800xt e devo dire che con i filtri attivati e' un vero mostro di potenza.
Nvidia sta a Ati come Intel sta' ad AMD.
La prima potenza bruta, la seconda potenza ragionata.
A voi la scelta, secondo me se uno deve spendere tutti questi soldi preferisce avere i filtri attivati a manetta...
Voi che dite... ;)
bartolino3200
20-01-2006, 12:02
Per quanto mi riguarda sono un felice possessore di x1800xt e devo dire che con i filtri attivati e' un vero mostro di potenza.
Nvidia sta a Ati come Intel sta' ad AMD.
La prima potenza bruta, la seconda potenza ragionata.
A voi la scelta, secondo me se uno deve spendere tutti questi soldi preferisce avere i filtri attivati a manetta...
Voi che dite... ;)
Dico ch è l' esatto contrario.
Una gpu Ati oggi per avere prestazioni simili a Nvidia deve andare a frequenze superiori.
Tu invece vedi il mondo al rovescio...
Dico ch è l' esatto contrario.
Una gpu Ati oggi per avere prestazioni simili a Nvidia deve andare a frequenze superiori.
Tu invece vedi il mondo al rovescio...
Ma dai lo sanno tutti che ATI con i filtri attivati e' superiore a nvidia :D
Poi tu ovviamente sarai un possessore Nvidia ed io ATI quindi :ahahah:
In tutti i casi le top di gamma sia per Nvidia che per ATI sono dei mostri di potenza, e nessuno si puo' lamentare ne dell'una ne dell'altra.
Sono delle ottime schede tutte e due, ovviamente se andiamo a trovare il pelo nell'uovo ci sono delle differenze ma tutto sommato minime.
Byezzz
I risultati del primo test sono davvero mostruosi, ma mi domando in quanti giochino anche solo a 1600x1200 xon AA attivato...
Il 2-3 % della popolazione degli hardcore gamers ?
Forse...
Ad ogni modo credo che ATI abbia trovato il modo giusto di procedere, a prescindere dalla frequenza del core, ovvero... sfruttare le pipelines in modo serio.
Mi domando che scheda verrà fuori quando ATI riuscirà a produrre (o meglio... a far produrre) chipset con20 o più pipelines, capaci magari di elaborare indifferentemente PS o VS...
Io intanto vado avanti molto più che egregiamente con la mia X800 XL...
bartolino3200
20-01-2006, 12:17
Ma dai lo sanno tutti che ATI con i filtri attivati e' superiore a nvidia :D
Affermazione discutibile.
Se prendi una 7800GTX 512 il quadro cambia e siamo su qualche punto in più per Nvidia. Se invece continui a comparare una scheda con 256MB con una con 512...fai pure convinciti di ciò che ti pare.
Intanto io aspetto di vedere cosa accadrà con l' ormai prossima 7900 di Nvidia a 90 nanometri, 32 pipe, 750 MHz... :sofico:
Ciao...
Affermazione discutibile.
Se prendi una 7800GTX 512 il quadro cambia e siamo su qualche punto in più per Nvidia. Se invece continui a comparare una scheda con 256MB con una con 512...fai pure convinciti di ciò che ti pare.
Intanto io aspetto di vedere cosa accadrà con l' ormai prossima 7900 di Nvidia a 90 nanometri, 32 pipe, 750 MHz... :sofico:
Ciao...
Se la 7800gtx 512 costa di piu' ci sara' un motivo...
Ma come rapporto qualita'/prezzo x me x1800xt ne esce vincente.
Io la mia l'ho pagata 540€
La 7800gtx 512 costava 100€ di piu' giustificati?
Sicuramente ma stanno meglio in tasca.
Affermazione discutibile.
Solo tu ci stai discutendo sopra :)
Se prendi una 7800GTX 512 il quadro cambia e siamo su qualche punto in più per Nvidia. Se invece continui a comparare una scheda con 256MB con una con 512...fai pure convinciti di ciò che ti pare.
Prendiamo la GT e la XL ok?
Ecco, vediti il test su hwupgrade. La GT con AA e Aniso è avanti in Doom3 e Riddick, HL2 Loast Coast e Serious Sam 2. Direi che cambia ben poco. Ma fai pure, convinciti di ciò che ti pare :asd:
Foglia Morta
20-01-2006, 12:23
tralasciando il 3dmark e in attesa della recensione però le prestazioni dovrebbero essere piuttosto buone. Se la X1300PRO sta alla X1600XT come la X1800XT sta alla X1900XTX ( la differenza principale dovrebbe essere "solo" il triplo di psu ) allora guardiamo a 1280x1024 :
X1300
http://www.hwupgrade.it/articoli/1410/fc_1.png
X1600
http://www.hwupgrade.it/articoli/1398/fc_1.png
Poi magari e forse probabile le differenze si attenueranno ma il triplo di pixel shader non possono far altro che ben sperare
Una gpu Ati oggi per avere prestazioni simili a Nvidia deve andare a frequenze superiori.
Tu invece vedi il mondo al rovescio...
Sai che non e' possibile fare confronti di frequenze su architetture differenti progettate con trade-off differenti. Non vuol dire nulla che ATI deve andare a frequenze superiori per avere prestazioni simili, perche' il chip e' stato progettato con lo scopo di poter andare a frequenze superiori per avere quelle prestazioni.
Sai che non e' possibile fare confronti di frequenze su architetture differenti progettare con trade-off differenti. Non vuol dire nulla che ATI deve andare a frequenze superiori per avere prestazioni simili, perche' il chip e' stato progettato con lo scopo di poter andare a frequenze superiori per avere quelle prestazioni.
Lo sa, lo sa. Solo che pur di fare propaganda se lo è dimenticato. Un pò come certa gente che accusa gli altri di aver agito in "conflitto di interessi" :asd:
ThePunisher
20-01-2006, 12:41
Il prezzo non mi sembra neanche alto a dir la verità.
Truelies
20-01-2006, 12:42
Ma cavolo esce una scheda video nuova ogni settimana!!!
Ma LOL!!! Comunque per ora la mia bella X850XT non si tocca!!!
melomanu
20-01-2006, 12:44
Onestamente non capisco alcune cose...
In primis, che senso ha scrivere praticamente 40 commenti, dove le uniche cose che leggo è " si ma tanto ati arrancherà nei confronti di nvidia g71 ( quando ancora sto g71 deve uscire ) " cioè, cosa significa "arrancherà" ? per l'acquisto di una scheda video del genere, vi basate solo sui grafici dei test, oppure sull'impatto che reale che certe schede hanno sui giochi?..
nel senso: se una scheda fa anche 10 fps in più di un'altra, ma in genere entrambe stanno ABBONDANTEMENTE sopra i minimi consentiti per giocare ( e per minimi intendo proprio quelli necessari a far girare un gioco ), la differenza AD OCCHIO NUDO SEDUTI DI FRONTE AL MONITOR CON IL GIOCO CHE RULLEGGIA, dove la vedete? come ve ne accorgete ?
Non credete che sia un tantino esagerato affermare che una scheda, arranca rispetto ad un'altra, solo basandosi sui numeri dei test, e non sulla reale differenza nel gioco?
Ora, visto che sicuramente, tutti quelli che si sentiranno punti dal mio commento, inizieranno a dirmi " eh mo è arrivato il cervellone, il spautello, lo scatena flames", dico subito che a me delle vostre scelte frega ben poco, la mia risposta si basa solo su un minimo di coerenza,tanto alla fine quì a noi in tasca non entra nulla se vince ati o nvidia, anzi dalla tasca ci esce casomai qualcosa...
Per quanto riguarda dal punto di vista tecnico, azzardo un'ipotesi , che sicuramente non sarà quella corretta: c'è chi afferma che ati stia percorrendo attualmente la strada della forza bruta ( qualità che nvidia ha seguito in pratica fino all'avvento di NV40, mi sembra ) . Io invece penso che, come ha giustamente evidenziato qualcun'altro, finalmente si assiste ad una biforcazione nelle sclete architetturali delle gpu.. ATI sta iniziando pian piano a seguire la strada dell'unificazione, nVidia al momento ancora no..
Per questo motivo, è magari possibile che ora ATI sia "costretta" a pompare sulle frequenze ( cosa che magari le viene anche facile, visto che probabilmente il tipo di architettura le permette di farlo ), per essere prestazionale, avendo in questo ciclo di progettazione, un'architettura che ancora non le garantisce prestazioni elevate, ma col tempo potrà garantirle più agevolmente...
Vorrei finire esprimendo una riflessione: in molti quì parlano di "progettazione", di "architettura", quando probabilmente l'85% ( magari me compreso ) , di "progettazione " non ne sanno proprio nulla..
Potere dei forum :D
Poi magari e forse probabile le differenze si attenueranno ma il triplo di pixel shader non possono far altro che ben sperare
Questo dipende dall'applicazione. Secondo me, al momento, il tripo dei pixel shader non fara' un'enorme differenza sulla maggior parte delle applicazioni che tendono ad essere fillrate limited piuttosto che shader limited.
halduemilauno
20-01-2006, 12:48
E' che volevano farlo. Solo che non l'hanno trovata in vendita e Nvidia le aveva finite :rotfl:
cmq per dovere di cronaca da bow ce ne sono disponibili a 749€ I.I. per dovere di cronaca. e sempre per dovere di cronaca un'utente di questo forum ha appena ordinato la x1900xt a 713€ I.I.
Mastromuco
20-01-2006, 12:50
2- Il G71 avra' 32 pipelines... 32!! Cioe' questa e' una capacita' di rendering SPAVENTOSA, ATI sara' davvero bene che mandi qualche cinese con macchina fotografica built-in alla progettazione nvidia e rubi un po di idee, perche' va bene che la loro gestione degli shaders e dei filtri e' molto superiore (ragione per cui volevo comprare le X1800), ma C'E' ASSOLUTO BISOGNO di bruteforce, senno gli shaders su cosa li applichi??
Io dubito fortemente che ATI non abbia idee, intanto lei ha impostato una tecnologia che rende meglio a parità di pipelines, penso che aumentando queste nelle prossime generazioni ATI ne vedremo delle belle.
Cioè la vedo così, Nvidia può giocarsela su una ottimizzazione dei filtri, ATI può ancora giocare sulle pipelines.
cmq per dovere di cronaca da bow ce ne sono disponibili a 749€ I.I. per dovere di cronaca. e sempre per dovere di cronaca un'utente di questo forum ha appena ordinato la x1900xt a 713€ I.I.
ma voi siete matti!!!!! €700+ per una scheda per giocare :sofico:
cmq per dovere di cronaca da bow ce ne sono disponibili a 749€ I.I. per dovere di cronaca. e sempre per dovere di cronaca un'utente di questo forum ha appena ordinato la x1900xt a 713€ I.I.
Sempre per dovere di cronaca io leggo 789€. E sempre per dovere di cronaca era una battuta. Posso capire che quando toccano Nvidia qualcuno se ne ha a male, ma la GTX 512Mb è una barzelletta ormai e io ci scherzo sopra :asd:
halduemilauno
20-01-2006, 12:56
Sempre per dovere di cronaca io leggo 789€. E sempre per dovere di cronaca era una battuta. Posso capire che quando toccano Nvidia qualcuno se ne ha a male, ma la GTX 512Mb è una barzelletta ormai e io ci scherzo sopra :asd:
io leggo 749€ I.I. sei pezzi disponibili.
http://www.bow.it/cgi-bin/bownew2.storefront/IT/Product/XF017115
io cmq non volevo fare ne battute, ne difese e ne barzellette. non a caso per par condicio ho citato la x1900xt.
Foglia Morta
20-01-2006, 12:57
Questo dipende dall'applicazione. Secondo me, al momento, il tripo dei pixel shader non fara' un'enorme differenza sulla maggior parte delle applicazioni che tendono ad essere fillrate limited piuttosto che shader limited.
come si calcola il fill rate ? c' è differenza con lo z-stencil fill rate o è la stessa cosa ?
Io leggo sul serio 789€ :eek:
XFX 7800GTX XXX Edition 512MB PCI-E Scheda Video Geforce 7800GTX 512MB DDR PCI-E TV Out Full Retail
maggiori dettagli...
Prodotto in offerta!
Nuovo prodotto a catalogo
€ 789,00 iva inc. Il prodotto è terminato
Di nuovo non ordinabile :)
EDIT: Quella che dici tu è però la normale che io a listino non vedo.
(IH)Patriota
20-01-2006, 12:59
... se una scheda fa anche 10 fps in più di un'altra, ma in genere entrambe stanno ABBONDANTEMENTE sopra i minimi consentiti per giocare ( e per minimi intendo proprio quelli necessari a far girare un gioco ), la differenza AD OCCHIO NUDO SEDUTI DI FRONTE AL MONITOR CON IL GIOCO CHE RULLEGGIA, dove la vedete? come ve ne accorgete ?
...
Ho una 7800 GTX 256 , a cod2 , (in multi) a 1024x768 AA 2X ANISO 4x e tutti i dettagli al massimo (DX9) con un 3800+X2 (a 2850Mhz) il framerate medio in spazi aperti balla tra gli 80 ed i 100.
Detto cosi' sembra che il framerate sia ampiamente sopra alla soglia di giocabilità ,nella realtà in scene di azione il framerate minimo scende anche al dis sotto dei 30fps il che si traduce in una scattosità evidente ed una perdita di precisione durante il gioco.
Forse quello che si intende per "rulleggia"è proprio questo , il framerate massimo o medio nei giochi non è affatto importante (tant'è che il comando set_maxfps viene usato molto spesso e da molti gamers per limitare verso l' alto le prestazioni delle schede) , una grande capacità di calcolo ti permette (o ti dovrebbe permettere) di non avere crolli improvvisi di fps , poi se il framerate massimo è di 280fps o 1200fps fa ben poca differenza (nell' atto pratico di giocare).
Ecco perchè sarebbe interessante sapere nei bench fatti con sequenze di gioco il framerate minimo oltre al framerate medio ;)
ma voi siete matti!!!!! €700+ per una scheda per giocare :sofico:
quando acquistai la mia (ex) GeForce 2 GTS da 32MB nel 2000 (o 2001, non ricordo) la pagai 750.000 lire, la versione Ultra con 64MB costava 1.450.000 lire, al cambio 748 €
non è una cosa nuova direi...
halduemilauno
20-01-2006, 13:04
Io leggo sul serio 789€ :eek:
XFX 7800GTX XXX Edition 512MB PCI-E Scheda Video Geforce 7800GTX 512MB DDR PCI-E TV Out Full Retail
maggiori dettagli...
Prodotto in offerta!
Nuovo prodotto a catalogo
€ 789,00 iva inc. Il prodotto è terminato
Di nuovo non ordinabile :)
EDIT: Quella che dici tu è però la normale che io a listino non vedo.
ti ho postato il link. lo riposto. che vuol dire la normale?
GiovanniGTS
20-01-2006, 13:07
come si calcola il fill rate ? c' è differenza con lo z-stencil fill rate o è la stessa cosa ?
Pixel Fill Rate =
(Frequenza GPU x Numero delle pipeline di rendering) e si esprime in MPixel/s
z-stencil fill rate? boh
come si calcola il fill rate ? c' è differenza con lo z-stencil fill rate o è la stessa cosa ?
Il pixel fillrate (abbreviato semplicemente con fillrate) si calcola come il numero di frammenti processati (pixel) che la GPU puo' scrivere sul framebuffer (la porzione di memoria che contiene l'immagine da mandare a schermo). Il fillrate massimo o di picco e' di solito limitato dal numero di ROP e dal formato del framebuffer e dal tipo di rendering (color+z o z-only).
ti ho postato il link. lo riposto. che vuol dire la normale?
La sigla non è la stessa quella da 789€ è la XXX Edition. Cosa voglia dire non lo so. Puoi postarmi il link anche 18 volte se non la vedo a listino significa che non c'è. A meno che ora Bow non abbia link nascosti per questa scheda video :D
Io dubito fortemente che ATI non abbia idee, intanto lei ha impostato una tecnologia che rende meglio a parità di pipelines, penso che aumentando queste nelle prossime generazioni ATI ne vedremo delle belle.
Cioè la vedo così, Nvidia può giocarsela su una ottimizzazione dei filtri, ATI può ancora giocare sulle pipelines.
Io penso piuttosto che Ati cerchi di sfruttare la "sua forza bruta" per giochi che offriranno visualizzazioni cinematografiche.
Quando qualche software house uscirà con un titolo che sfrutti appieno la capacità di gestione dei filtri da parte di Ati penso che sarà dura anche per il g71.
Io preferirei giocare a 30 frame fissi con qualità cinematografica, piuttosto che a 70 ma con una qualità più scadente.
Ed il primo che viene a dirmi il contrario (sull'ultima frase) significa che invece di seguire la scena sullo schermo ha l'occhio fisso sull'angolino che misura i frame\sec :doh:
Sia esso pro Ati o NVidia
halduemilauno
20-01-2006, 13:09
quando acquistai la mia (ex) GeForce 2 GTS da 32MB nel 2000 (o 2001, non ricordo) la pagai 750.000 lire, la versione Ultra con 64MB costava 1.450.000 lire, al cambio 748 €
non è una cosa nuova direi...
la ricordo era della hercules.
;)
OverClocK79®
20-01-2006, 13:09
sono vietati i link diretti a shoponline.
Per il resto diciamo che si attendeva per questo periodo del resto è un miglioramento di R520 ( o forse R520 doveva essere R580 ma veniva venduto castrato :D)
G71 credo sia più distantino
mi riservo di dare le mie impressioni dopo aver letto più recensioni :)
per ora ben venga questa scheda
25Mhz in più non stravolgeranno il mondo.
BYEZZZZZZZZZZ
Ho una 7800 GTX 256 , a cod2 , (in multi) a 1024x768 AA 2X ANISO 4x e tutti i dettagli al massimo (DX9) con un 3800+X2 (a 2850Mhz) il framerate medio in spazi aperti balla tra gli 80 ed i 100.
Detto cosi' sembra che il framerate sia ampiamente sopra alla soglia di giocabilità ,nella realtà in scene di azione il framerate minimo scende anche al dis sotto dei 30fps il che si traduce in una scattosità evidente ed una perdita di precisione durante il gioco.
Forse quello che si intende per "rulleggia"è proprio questo , il framerate massimo o medio nei giochi non è affatto importante (tant'è che il comando set_maxfps viene usato molto spesso e da molti gamers per limitare verso l' alto le prestazioni delle schede) , una grande capacità di calcolo ti permette (o ti dovrebbe permettere) di non avere crolli improvvisi di fps , poi se il framerate massimo è di 280fps o 1200fps fa ben poca differenza (nell' atto pratico di giocare).
Ecco perchè sarebbe interessante sapere nei bench fatti con sequenze di gioco il framerate minimo oltre al framerate medio ;)
:sofico:
halduemilauno
20-01-2006, 13:13
sono vietati i link diretti a shoponline.
Per il resto diciamo che si attendeva per questo periodo del resto è un miglioramento di R520 ( o forse R520 doveva essere R580 ma veniva venduto castrato :D)
G71 credo sia più distantino
mi riservo di dare le mie impressioni dopo aver letto più recensioni :)
per ora ben venga questa scheda
25Mhz in più non stravolgeranno il mondo.
BYEZZZZZZZZZZ
hai ragione. se l'ho fatto era perchè dovevo far vedere quanto asserivo.
tutto qui.
per il G71 si parla sempre del 9 marzo.
ciao.
;)
OverClocK79®
20-01-2006, 13:14
gli mandavi un PVT ed eri apposto ;)
gli altri ci credevano :p
nop dai.....
BYEZZZZZZZZZZ
halduemilauno
20-01-2006, 13:15
La sigla non è la stessa quella da 789€ è la XXX Edition. Cosa voglia dire non lo so. Puoi postarmi il link anche 18 volte se non la vedo a listino significa che non c'è. A meno che ora Bow non abbia link nascosti per questa scheda video :D
va beh io intendevo solo avvalorare ancor più quanto dicevo prima per il solo dovere di cronaca.
tutto qui. il link è li.
melomanu
20-01-2006, 13:16
patriota, è proprio ciò che volevo fare intendere io.. troppo spesso vedo che ci si basa sul massimo di frames possibili, quando invece ,secondo me, sarebbe meglio basarsi sul cosa quell'architettura/velocità riesce a garantirti nell'ambito medio del gioco.. se una certa scheda, riesce a garantirti una media di anche 35 fps in tutte le situazioni del gioco, allora quell è una grande scheda...
se invece te ne fa fare 2000 di picco ( cifra sborona, ovviamente :D ) , ma poi in altre scene te ne piazza 20 , allora non ci siamo...
detto questo, vorrei anche far notare che la stragrande maggioranza delle volte, sono proprio i giochi che sono fatti male, anzi malissimo..
di esempi ce ne sarebbero a bizzeffe, ma preferisco dire che con l'hardware disponibile oggi, se un gioco venisse realizzato con più accortezza, penso che non sarebbe necessario cambiare una scheda video neanche dopo 3 anni..
ma siccome i soldi piacciono, e una mano lava l'altra, ma entrambe lavano il viso :D , ecco che allora i giochi vengono fatti "ad minchiam" proprio per far uscire shcede grafiche sempre più potenti ..
halduemilauno
20-01-2006, 13:17
gli mandavi un PVT ed eri apposto ;)
gli altri ci credevano :p
nop dai.....
BYEZZZZZZZZZZ
il tono della polemica(come avrai notato) gia stava montando e quindi...
ciao e buona giornata.
;)
ma siccome i soldi piacciono, e una mano lava l'altra, ma entrambe lavano il viso :D , ecco che allora i giochi vengono fatti "ad minchiam" proprio per far uscire shcede grafiche sempre più potenti ..
Lo scrivi di proposito per scatenare le mie ire vero? :D
Foglia Morta
20-01-2006, 13:18
Il pixel fillrate (abbreviato semplicemente con fillrate) si calcola come il numero di frammenti processati (pixel) che la GPU puo' scrivere sul framebuffer (la porzione di memoria che contiene l'immagine da mandare a schermo). Il fillrate massimo o di picco e' di solito limitato dal numero di ROP e dal formato del framebuffer e dal tipo di rendering (color+z o z-only).
quindi il pixel rate è N° Rop's x frequenza , X1300 PRO: 600x4= 2400 che è uguale a quello della X1600 se guardiamo esclusivamente quelli che possono essere scritti nel frame buffer , però la X1600 ne può processare 590 x 4 = 7080 . Se non è dovuto a questo la differenza di prestazioni in quel caso allora è dovuta alla differenza di vertex shading praticamente
melomanu
20-01-2006, 13:18
Lo scrivi di proposito per scatenare le mie ire vero? :D
e che ne so, manco so il perchè dovresti incacchiarti :D
Il Creativo
20-01-2006, 13:21
Personalmente negli ultimi anni sono stato fedele ad ATI:
9500 PRO, X800XT PE e ora X1800XT perchè trovo che a livello qualitativo è leggermente migliore anche se NVIDIA sforna indubbiamente schede velocissime(sebbene con diverse ottimizzazioni), ma se vedo bene dai bench questa se la potevano benissimo risparmiare. I titoli tengono a mio avviso un framerate molto basso tenendo conto che la scheda ha 48 pixel units, tra l'altro è solo leggermente piu' veloce di una 7800 gtx 256, quindi con una 7800 gtx 512 potrebbe stare sulla parità... ergo quando uscira la nuova NVIDIA questa sarà velocisticamente obsoleta.
Ah le cose fatte di fretta!!! ultimamente ATI sta facendo alcune scelte un pò strambe(vedi uscita ultra posticipata della serie X1k).
Comunque è sempre un primo sample con drivers non ufficialmente supportati... staremo a vedere.
quando acquistai la mia (ex) GeForce 2 GTS da 32MB nel 2000 (o 2001, non ricordo) la pagai 750.000 lire, la versione Ultra con 64MB costava 1.450.000 lire, al cambio 748 €
non è una cosa nuova direi...
Scusa, ma col senno di poi rifaresti quell'acquisto ? :rolleyes:
Imho, comprare l'ultima scheda uscita, la più pompata, la più cara, è una grandissima... in :ciapet: ata.
Fa impressione vedere sull'ORB Futurmark i punteggi delle carissime 5900 Ultra, 9800XT... della fine 2003, non è passato un secolo, anche se per le skede video il tempo passa mooooolto in fretta...
quindi il pixel rate è N° Rop's x frequenza , X1300 PRO: 600x4= 2400 che è uguale a quello della X1600 se guardiamo esclusivamente quelli che possono essere scritti nel frame buffer , però la X1600 ne può processare 590 x 4 = 7080.
Esattamente. Ma questo e' solo il valore massimo teorico, non quello pratico. La pipeline grafica e' composta da diversi stadi e le prestazioni dipendono dallo stadio piu' lento (il collo di bottiglia).
melomanu
20-01-2006, 13:31
cmq stavo anche guardando i prezzi di sto shop americano.. oddio, non mi sembrano poi così economici :p
e che ne so, manco so il perchè dovresti incacchiarti :D
Perche' hai scritto un enorme fesseria sui giochi fatti "ad minchiam" per fare uscire schede grafiche sempre piu' potenti. E' vero l'esatto contrario :)
patriota, è proprio ciò che volevo fare intendere io.. troppo spesso vedo che ci si basa sul massimo di frames possibili, quando invece ,secondo me, sarebbe meglio basarsi sul cosa quell'architettura/velocità riesce a garantirti nell'ambito medio del gioco.. se una certa scheda, riesce a garantirti una media di anche 35 fps in tutte le situazioni del gioco, allora quell è una grande scheda...
se invece te ne fa fare 2000 di picco ( cifra sborona, ovviamente :D ) , ma poi in altre scene te ne piazza 20 , allora non ci siamo....
Ma di solito nei bench non si considerano proprio i valori medi per un determinato livello di gioco, spesso il più power demanding? :confused:
detto questo, vorrei anche far notare che la stragrande maggioranza delle volte, sono proprio i giochi che sono fatti male, anzi malissimo..
di esempi ce ne sarebbero a bizzeffe, ma preferisco dire che con l'hardware disponibile oggi, se un gioco venisse realizzato con più accortezza, penso che non sarebbe necessario cambiare una scheda video neanche dopo 3 anni..
ma siccome i soldi piacciono, e una mano lava l'altra, ma entrambe lavano il viso :D , ecco che allora i giochi vengono fatti "ad minchiam" proprio per far uscire shcede grafiche sempre più potenti ..
Gli esempi allora li faccio io : COD2 (voto alla scalabilità delle prestazioni 4, un gioco uscito a fine 2005 che costringe l'80% degli utenti ad impostare le DirectX7...) , F.E.A.R. (come si giustifica quello schifo di prestazioni? Il risultato non mi pare così superiore a Doom3 e HL2)...
Se qualcuno vuole illuminarmi su qualche altro titolo da non aggiungere alla mia collezione... :Prrr:
melomanu
20-01-2006, 13:39
Perche' hai scritto un enorme fesseria sui giochi fatti "ad minchiam" per fare uscire schede grafiche sempre piu' potenti. E' vero l'esatto contrario :)
ah si? ne sei sicuro?
fammi allora un elenco di tutti i giochi che sfruttano le architetture delle gpu a partire dalla radeon 9800 in poi..
:cool:
e per sfruttano, intendo che usano fino all'ultima goccia dell'architettura hardware, che hanno una struttura totalmente ottimizzata per directx 9 e compagnia bella.. etc etc etc :O
ah si? ne sei sicuro?
fammi allora un elenco di tutti i giochi che sfruttano le architetture delle gpu a partire dalla radeon 9800 in poi..
:cool:
e per sfruttano, intendo che usano fino all'ultima goccia dell'architettura hardware, che hanno una struttura totalmente ottimizzata per directx 9 e compagnia bella.. etc etc etc :O
I giochi di oggi escono per le schede di domani, e le schede di oggi per i giochi di domani... Ci vuole tanto a capirlo? Così tutti se ne lavano le mani... :ciapet:
ah si? ne sei sicuro?
Si' :)
fammi allora un elenco di tutti i giochi che sfruttano le architetture delle gpu a partire dalla radeon 9800 in poi..
:cool:
e per sfruttano, intendo che usano fino all'ultima goccia dell'architettura hardware, che hanno una struttura totalmente ottimizzata per directx 9 e compagnia bella.. etc etc etc :O
Tutti i piu' recenti. I giochi vengono ottimizzati alla morte per le architetture piu' diffuse sul mercato e molti presentano code path che sfruttano fino ad un certo punto le architetture piu' recenti per fornire una qualita' superiore. Esempi sono Fear, COD2, Quake4, Black&White 2.
Non avrebbe senso ottimizzare alla morte le architetture piu' recenti ai danni di quelle piu' diffuse perche' solo una percentuale irrisoria del mercato potrebbe goderne i benefici.
melomanu
20-01-2006, 13:46
boh non sono tanto tanto in accordo.. più per il fatto che spesso giochi a prima vista SPAZIALI , poi fanno cagare su schede nuovissime..
infatti: che senso ha che molti giochi, già stiano con l'acqua alla gola su schede recentissime ? per me ciò equivale a dire che i giochi son fatti male, proprio perchè nati per le schede di ora, ma ci girano male :D
I giochi di oggi escono per le schede di domani, e le schede di oggi per i giochi di domani... Ci vuole tanto a capirlo? Così tutti se ne lavano le mani... :ciapet:
I giochi escono sempre e solo ottimizzati per le piattaforme di ieri. Non avrebbe senso nulla di diverso.
che senso ha che molti giochi, già stiano con l'acqua alla gola su schede recentissime ? per me ciò equivale a dire che i giochi son fatti male, proprio perchè nati per le schede di ora, ma ci girano male :D
No, vuol dire semplicemente che il rendering path a qualita' maggiore e' dimensionato per un certo tipo di hardware che sara' diffuso dopo un certo periodo dall'uscita del titolo, di modo da fornire valore aggiunto all'utente. Ma su quel rendering path non si spende tempo perche' non e' quello importante.
Ma poi, se pensi che questo vuol dire che il gioco sia "fatto male" sei sempre libero di fare tu qualcosa di migliore :)
Si' :)
Tutti i piu' recenti. I giochi vengono ottimizzati alla morte per le architetture piu' diffuse sul mercato e molti presentano code path che sfruttano fino ad un certo punto le architetture piu' recenti per fornire una qualita' superiore. Esempi sono Fear, COD2, Quake4, Black&White 2.
Non avrebbe senso ottimizzare alla morte le architetture piu' recenti ai danni di quelle piu' diffuse perche' solo una percentuale irrisoria del mercato potrebbe goderne i benefici.
Scusa se insisto, tu ci lavori, quindi di sicuro ne sai...
Ma come mi spieghi il fatto che COD2 che citi debba ricorrere alle obsolete DX7 per girare decentemente sulle "architetture recenti"?
E con una scheda DX7 secondo te come farei girare il gioco, a 5fps?
Quante generazioni di skede ci sono state dopo l'abbandono delle DX7?
melomanu
20-01-2006, 13:55
No, vuol dire semplicemente che il rendering path a qualita' maggiore e' dimensionato per un certo tipo di hardware che sara' diffuso dopo un certo periodo dall'uscita del titolo
uhm.. ma scusa, se un gioco è fatto per un'architettura ATTUALE, che vuol dire che alcune parti sono dimensionate per " un hardware che verrà" ?
:mbe:
boh secondo me, i giochi son fatti male, e potrei portare l'esempio profano della xbox: hardware assimilabile ad un muletto, ma giochi decenti ( per il tempo, ovvio)..
nella 360 tutto lievità in qualità ( e l'hardware è simile a quello odierno, almeno quello video )..
Ma poi, se pensi che questo vuol dire che il gioco sia "fatto male" sei sempre libero di fare tu qualcosa di migliore :)
No, penso semplicemente che se spendo soldi per un gioco, e quei soldi vanno anche a chi il gioco lo realizza, posso anche criticarlo.. :D
Intendendo per architetture recenti, le 6600GT e 6800GT o GS, ad esempio... :D
yossarian
20-01-2006, 13:57
I giochi di oggi escono per le schede di domani, e le schede di oggi per i giochi di domani... Ci vuole tanto a capirlo? Così tutti se ne lavano le mani... :ciapet:
quindi diciamo che per trovarmi bene dovrei comprare una scheda oggi e un gioco domani, oppure un gioco oggi e aspettare domani per la scheda :D
Scusa se insisto, tu ci lavori, quindi di sicuro ne sai...
Ma come mi spieghi il fatto che COD2 che citi debba ricorrere alle obsolete DX7 per girare decentemente sulle "architetture recenti"?
E con una scheda DX7 secondo te come farei girare il gioco, a 5fps?
Quante generazioni di skede ci sono state dopo l'abbandono delle DX7?
io ci gioco con dx9, e anche bene...
perchè non menzionano i 48 pixel process unit?
quindi diciamo che per trovarmi bene dovrei comprare una scheda oggi e un gioco domani, oppure un gioco oggi e aspettare domani per la scheda :D
La prima a carissimo prezzo, e comunque un' in :ciapet: ata.
La seconda si, ma aspettare domani che palle...
Compra domani il gioco uscito ieri insieme alla scheda :D .
Oggi accontentati di giocare con la scheda di oggi e il gioco di ieri... :stordita:
Scusa se insisto, tu ci lavori, quindi di sicuro ne sai...
Ma come mi spieghi il fatto che COD2 che citi debba ricorrere alle obsolete DX7 per girare decentemente sulle "architetture recenti"?
E con una scheda DX7 secondo te come farei girare il gioco, a 5fps?
Quante generazioni di skede ci sono state dopo l'abbandono delle DX7?
Tre circa. A parte che scalando i dettagli mi gira tranquillo anche su una 9600 con il path normale. Se lo voglio al massimo dettaglio devo mettere in campo l'R580, ma questo e' assolutamente ovvio e normale. E in piu' offre un path DX7 per chi non riesce a far girare il path normale. E' strutturalmene la stessa cosa che abbiamo fatto in BW2, quindi la trovo una scelta logica.
EDIT: Quella che dici tu è però la normale che io a listino non vedo.
Quella che dice hal è quella giusta, costa 749€ I.I. ed è disponibile.
yossarian
20-01-2006, 14:08
La prima a carissimo prezzo, e comunque un' in :ciapet: ata.
La seconda si, ma aspettare domani che palle...
Compra domani il gioco uscito ieri insieme alla scheda :D .
Oggi accontentati di giocare con la scheda di oggi e il gioco di ieri... :stordita:
e se invece giocassi domani con la scheda di oggi e il gioco di ieri (visto che oggi non ho tempo)? :D
uhm.. ma scusa, se un gioco è fatto per un'architettura ATTUALE, che vuol dire che alcune parti sono dimensionate per " un hardware che verrà" ?
Faccio un esempio pratico. Quando ho scritto l'acqua di BW2 l'ho dimensionata e ottimizzata per girare su 59X0 e 9700/9800, le architetture piu' diffuse al momento del lancio. Avendo un NV40 a disposizione ho speso un po' di tempo (non troppo) per supportare SM3.0, aggiungere alcuni effetti e aumentare la qualita' per le schede GPU che sarebbero presumibilmente subentrate nel giro di un anno, un anno e mezzo.
Ma l'acqua e' dimensionata per le 9700.
boh secondo me, i giochi son fatti male,
No, i giochi sono fatti bene e dimensionati per l'hardware che e' il loro target.
No, penso semplicemente che se spendo soldi per un gioco, e quei soldi vanno anche a chi il gioco lo realizza, posso anche criticarlo.. :D
Ma sarebbe meglio criticarlo a ragion veduta, non tanto per criticare.
Domani? Sarebbe TROPPO TARDI... :) :D :cry:
Quella che dice hal è quella giusta, costa 749€ I.I. ed è disponibile.
Ok, allora invito tutti ad andare sul sito in questione, componenti, schede grafiche, gpu Nvidia e vedere se il listino la mostra o no. Perchè non è a listino. Punto.
bartolino3200
20-01-2006, 14:20
Ok, allora invito tutti ad andare sul sito in questione, componenti, schede grafiche, gpu Nvidia e vedere se il listino la mostra o no. Perchè non è a listino. Punto.
Forse la scheda video ATI che ti passa la casa madre per sponsor e che si trova nel tuo PC, non visualizza i listini per schede nVidia :asd:
Avrà un blocco hardware nel visualizzare la parola Nvidia :asd:
Scherzo ;)
Ciao DJ.
jappilas
20-01-2006, 14:21
Scusa se insisto, tu ci lavori, quindi di sicuro ne sai...
Ma come mi spieghi il fatto che COD2 che citi debba ricorrere alle obsolete DX7 per girare decentemente sulle "architetture recenti"?
E con una scheda DX7 secondo te come farei girare il gioco, a 5fps?
Quante generazioni di skede ci sono state dopo l'abbandono delle DX7?
non è un discorso di "quante generazioni", o "quanto tempo fa" ... se non sbaglio, directX (meglio , direct3d ) 7 equivale a "directx 8 / 9 senza shader programmabili", quindi una pipeline (nel senso di sequenza di operazioni) fixed function transform - lighting - triangle setup - texture fetch - blending
anche una GF7800 sarà pressochè indistinguibile da una "scheda DX7" se in nessun momento vi si faccia girare sopra uno shader, la differenza con le "schede DX7" di qualche anno fa sarà che un gioco scritto nel periodo in cui uscirono le Dx7 girerà con FPS a saturazione... ma sarà per via di un più ridotto numero di vertici da muovere e più scarsa risoluzione delle texture che impiega, conseguenze del design del gioco stesso in funzione del suo target, per i quali le unità di calcolo di una scheda del genere sono largamente sovrabbondanti
e se invece giocassi domani con la scheda di oggi e il gioco di ieri (visto che oggi non ho tempo)? :D
esattamente quello che faccio (meglio, facevo) io di solito :D
Domani? Sarebbe TROPPO TARDI... :) :D :cry:
e chisseneimporta, se il gioco è carino... :D
OverClocK79®
20-01-2006, 14:22
a proposito di sito nVidia l'altro giorno ci ho dato un okkio e sono stato attratto da un nome
il chip GELATO with SORBETTO tecnology :p
cmq ha ragione Fek
i giochi sono dimensionati per le schede di ieri, l'HW è sempre più avanti del SOFT
poi ci sono i giochi fatti con i piedi che pur non avendo nulla di speciale a video richiedono potenza superiore
ma vedo che bene o male tutto quello che è in commercio di un certo livello gira bene anche su schede di un anno fa o è scalabile ad un dettaglio accettabile.
Poi chiare che se volete sempre 1600x1200 AA AF è dura.
BYEZZZZZZZZZZZ
Forse la scheda video ATI che ti passa la casa madre per sponsor e che si trova nel tuo PC, non visualizza i listini per schede nVidia :asd:
Avrà un blocco hardware nel visualizzare la parola Nvidia :asd:
Scherzo ;)
Ciao DJ.
No perchè quelle non disponibili le vede, quindi il blocco non è sulla parola Nvidia ma sulle parole Nvidia e disponibile :asd:
Quella che dice hal è quella giusta, costa 749€ I.I. ed è disponibile.
non esiste quella scheda a listino, ho controllato di nuovo ora, esiste una quadro pny a 747 e la versione della 7800gtx512 a 789 euro non disponibile.
x evitare casini ho messo la ricerca in ordine di prezzo in maniera decrescente.
fatevene una ragione al momento non esiste a 749.
spero vivamente che tu nn stia confondendo la quadro con la 7800... :D
jappilas
20-01-2006, 14:34
OT:
a proposito di sito nVidia l'altro giorno ci ho dato un okkio e sono stato attratto da un nome
il chip GELATO with SORBETTO tecnology :p
e non hai letto del bellissimo plugin Amaretto (prodotto da Frantic Films Inc) :D
http://www.nvidia.it/page/gelato_home.html
La X1900 XT a 713€ non fa testo perchè quello che ce l'ha è l'unico negozio che l'ha messa in prevendita e quindi fa il prezzo che vuole. Siccome queste X1900 saranno disponibili al momento in grande quantità il prezzo reale al lancio sarà circa come il MSRP.
OverClocK79®
20-01-2006, 14:40
No perchè quelle non disponibili le vede, quindi il blocco non è sulla parola Nvidia ma sulle parole Nvidia e disponibile :asd:
se state parlando del link di prima vedo disp 6 pezzi della 7800GTX 512
mentre non disponibile vedo la XXX edition sempre 7800GTX
il problema che se accedi dal sito NON la vedi la 512 da 749
devi accederci da siti esterni :what:
BYEZZZZZZZZZZZ
yossarian
20-01-2006, 14:45
se state parlando del link di prima vedo disp 6 pezzi della 7800GTX 512
mentre non disponibile vedo la XXX edition sempre 7800GTX
il problema che se accedi dal sito NON la vedi la 512 da 749
devi accederci da siti esterni :what:
BYEZZZZZZZZZZZ
si, ma se vai sul listino, sotto la voce informatica-componenti-schede video-gpu NV, non compare neppure in elenco
bartolino3200
20-01-2006, 14:48
Siccome queste X1900 saranno disponibili al momento in grande quantità il prezzo reale al lancio sarà circa come il MSRP.
Dove hai letto di questa presunta grande quantità?
OverClocK79®
20-01-2006, 14:49
si, ma se vai sul listino, sotto la voce informatica-componenti-schede video-gpu NV, non compare neppure in elenco
e non è quello che ho scritto??
da t******zzi la vedi
da listino no. :what:
BYEZZZZZZZZZZ
ironmanu
20-01-2006, 14:50
quindi diciamo che per trovarmi bene dovrei comprare una scheda oggi e un gioco domani, oppure un gioco oggi e aspettare domani per la scheda :D
no,compri la scheda di oggi e i giochi di ieri.Trasli tutto indietro di un anno e se 6 uno a cui interessa il divertimento in un game allora avrai anche un notevole risparmio economico!
Dove hai letto di questa presunta grande quantità?
Lo dicono tutti. HKEPC dice che i negozi là hanno pronto per il lancio un numero di X1900 dieci volte superiore a quello di X1800 a ottobre o novembre.
Del resto si sa che R580 è in produzione da un pezzo ma ovviamente da ogni notizia si deduce sempre quello che fa comodo.
yossarian
20-01-2006, 14:58
e non è quello che ho scritto??
da t******zzi la vedi
da listino no. :what:
BYEZZZZZZZZZZ
e non ti pare strana questa cosa? O non è aggiornato il listino o non lo è il trovatruzzi
Lo dicono tutti. HKEPC dice che i negozi là hanno pronto per il lancio un numero di X1900 dieci volte superiore a quello di X1800 a ottobre o novembre.
Del resto si sa che R580 è in produzione da un pezzo ma ovviamente da ogni notizia si deduce sempre quello che fa comodo.
Quindi si avranno circa 10 schede per negozio? :D
yossarian
20-01-2006, 15:00
Quindi si avranno circa 10 schede per negozio? :D
la grande distribuzione anche 20 o 30 :D
OverClocK79®
20-01-2006, 15:05
e non ti pare strana questa cosa? O non è aggiornato il listino o non lo è il trovatruzzi
credo che il trovatruzzi ( :D ) abbia un link diretto che i signori di B hanno tolto
o c'è qualche errore bisognerebbe chiedere mandando una mail
ma era tanto per capire di cosa stavate parlando, per il resto i 6 pezzi di 7800GTX 512 mi sembravano troppi visto che parecchi la cercavano questa scheda.
Però come al soloto il TH parla di ATI e si finisce con le solite cose:
disponibilità
GTX 512 etc etc :D
io spero solo che la provino presto anche qui su HWUP
soprattutto in campi dove le 48 p.p si facciano sentire.
BYEZZZZZZZZZZ
diabolik1981
20-01-2006, 15:10
cmq ha ragione Fek
i giochi sono dimensionati per le schede di ieri, l'HW è sempre più avanti del SOFT
poi ci sono i giochi fatti con i piedi che pur non avendo nulla di speciale a video richiedono potenza superiore
ma vedo che bene o male tutto quello che è in commercio di un certo livello gira bene anche su schede di un anno fa o è scalabile ad un dettaglio accettabile.
Poi chiare che se volete sempre 1600x1200 AA AF è dura.
BYEZZZZZZZZZZZ
Ragionamento perfetto, come anche quello di FEK.
Premetto che non sono un esperto di programmazione e strutture hardware/software, ma capisco in pieno il ragionamento che fanno le gamehouse: se io oggi devo vendere un gioco, come è composto il mio bacino potenziale di utenza? Dal momento che si cercherà di vendere il gioco a quanta più gente possibile, di fatto il gioco verrà ottimizzato al massimo per la piattaforma che permette tale risultato, e che di certo non è composta da schede high-end ma da schede che hanno mediamente una architettura un po datata (intendi 6 mesi 1 anno). Questo non dipende tanto dai programmatori, che credo creerebbero dei mostri di giochi per sfruttare fino all'osso la potenza di elaborazione del'ultima scheda video prodotta, ma dai vertici aziendali che prendono le decisioni economico/finanziarie.
Quindi prima di dire che i giochi sono fatti male, c'è da chiedersi se non si ha speso troppi soldi per una scheda che verrà sfruttata in pieno solo dopo qualche tempo.
Questo non dipende tanto dai programmatori, che credo creerebbero dei mostri di giochi per sfruttare fino all'osso la potenza di elaborazione del'ultima scheda video prodotta, ma dai vertici aziendali che prendono le decisioni economico/finanziarie.
Questo mi ricorda un aneddoto divertente, mi soprannominavano in ufficio "SM3.0-only", perche' fosse stato per me BW2 sarebbe uscito solo per GPU con shader model 3.0 :D
diabolik1981
20-01-2006, 15:37
Questo mi ricorda un aneddoto divertente, mi soprannominavano in ufficio "SM3.0-only", perche' fosse stato per me BW2 sarebbe uscito solo per GPU con shader model 3.0 :D
Non ne avevo dubbi... :D ma credo sia così anche per gli altri sviluppatori software, solo che poi si devono scontrare con i dirigenti :mc:
Questo mi ricorda un aneddoto divertente, mi soprannominavano in ufficio "SM3.0-only", perche' fosse stato per me BW2 sarebbe uscito solo per GPU con shader model 3.0 :D
ghghh, x me ora come ora andrebbe bene...
ps: molto bello B&W2, ma quella creatura è matta fa di tutto... mi fa uscire di testa.. lol
jpjcssource
20-01-2006, 15:44
Questo mi ricorda un aneddoto divertente, mi soprannominavano in ufficio "SM3.0-only", perche' fosse stato per me BW2 sarebbe uscito solo per GPU con shader model 3.0 :D
Beh allora propongo un Fable 2 ottimizzato 7800 gt (casualmente) per la prossima volta :D :D :yeah: :yeah:
Non ne avevo dubbi... :D ma credo sia così anche per gli altri sviluppatori software, solo che poi si devono scontrare con i dirigenti :mc:
Lo pensavo anch'io ma poi ho scoperto che c'e' una nutrita schiera di programmatori che invece amano scrivere su hardware limitato, perche' piace la sfida di riuscire a fare qualcosa su un hardware sul quale sembrava impossibile perdendonci una marea di tempo. Sono molti piu' di quanto pensassi.
diabolik1981
20-01-2006, 15:49
Lo pensavo anch'io ma poi ho scoperto che c'e' una nutrita schiera di programmatori che invece amano scrivere su hardware limitato, perche' piace la sfida di riuscire a fare qualcosa su un hardware sul quale sembrava impossibile perdendonci una marea di tempo. Sono molti piu' di quanto pensassi.
effettivamente sono delle belle sfide alle proprie capacità, anhe perchè poi riuscirci credo dia delle belle soddisfazioni.
xXxCoKxXx
20-01-2006, 16:11
OT mauhauha bartolino e dj mi fan sempre smaialare dalle risate xkè si skannano sempre fineOT
muahauh passiamo al dunque: penso non ci sia da dire molto :D nn si sa niente ancora su questa scheda.. si han solo dati su carta e nint'altro .. quindi aspetto kn impazienza i test :sbav:
volevo solo fare una precisazione a bartolino..
come dice djlode queste gtx da 512 ormai han fatto la stessa pessima fine delle 800xt PE .. senza contare poi il fatto che hanno un rapporto prezzo/prestazioni PENOSO! è inutile rigirarci su tutte le volte ;) come si legge su un altro sito si spera e ormai si pensa che queste schede siano disponibili in grandi volumi :P se poi il prezzo sarà competitivo.. (visto che mi pare di aver capito sia già sotto al prezzo delle gtx di punta) beh nn c'è che ben sperare x noi e x le nostre tasche :D
Foglia Morta
20-01-2006, 17:49
la grande distribuzione anche 20 o 30 :D
yoss ma cosa intendevi quando avevi detto che lo shader core di R520 ti sembrava contenesse più transistor del dovuto ?
R580 ha 384 Ml di transistor in tutto , R520 ne ha 321 Ml . quei 63 Ml corrispondono alle 32 psu in più secondo te ?
yossarian
20-01-2006, 17:54
yoss ma cosa intendevi quando avevi detto che lo shader core di R520 ti sembrava contenesse più transistor del dovuto ?
R580 ha 384 Ml di transistor in tutto , R520 ne ha 321 Ml . quei 63 Ml corrispondono alle 32 psu in più secondo te ?
esattamente quello che hai concluso tu prima di farmi questa domanda. Fai il conto della serva: 70 mln è circa è anche la differenza tra R300 e R420 :D
OT mauhauha bartolino e dj mi fan sempre smaialare dalle risate xkè si skannano sempre fineOT
Io non mi scanno mai con nessuno :Prrr:
esattamente quello che hai concluso tu prima di farmi questa domanda. Una alu tipo quella di R520 impiega circa 3,8 - 4 mln di transistor :D
Non capisco fino in fondo il senso di questa frase, ma non sono dentro la testa di FogliaMorta quindi magari lui l'ha capita :)
4 milioni di transistor per una alu di R520, 63 milioni di transistor in più per 32 psu in più (che fanno circa 2 milioni per psu in più) quindi una alu di R580 conta 6 milioni di transistor?
O mi sfugge qualcosa e dentro a R520 ci sono già ma non sono attive e quei 63 milioni di transistor in più sono dovuti a qualche altra modifica?
yossarian
20-01-2006, 18:10
Non capisco fino in fondo il senso di questa frase, ma non sono dentro la testa di FogliaMorta quindi magari lui l'ha capita :)
4 milioni di transistor per una alu di R520, 63 milioni di transistor in più per 32 psu in più (che fanno circa 2 milioni per psu in più) quindi una alu di R580 conta 6 milioni di transistor?
O mi sfugge qualcosa e dentro a R520 ci sono già ma non sono attive e quei 63 milioni di transistor in più sono dovuti a qualche altra modifica?
le alu di R520 non sono diverse da quelle di R420 (se si esclude la parte relativa al branching, presente solo su R5x0, e ci si sofferma sulle sole unità di calcolo matematico).
L'idea è che su quei 321 mln di transistor dichiarati per R5x0, una parte non sia attiva. Sempre se le alu sono dello stesso tipo e sono organizzate allo stesso modo di quello di R520 (e RV530)
JOHNNYMETA
20-01-2006, 18:14
Niente male neanche il 3DMARK2005 (http://www.pcinpact.com/actu/news/25931-Radeon-X1900XTX-11-692-sous-3DMark-2005-.htm) considerando che la x1800xt a default e con le stesse frequenze faceva 9300.
L'idea è che su quei 321 mln di transistor dichiarati per R5x0, una parte non sia attiva. Sempre se le alu sono dello stesso tipo e sono organizzate allo stesso modo di quello di R520 (e RV530)
RV530, dal punto di vista delle alu, è molto più vicino a R580 di quanto non lo sia R520. Ho detto giusto? La accendiamo?:D
yossarian
20-01-2006, 18:21
RV530, dal punto di vista delle alu, è molto più vicino a R580 di quanto non lo sia R520. Ho detto giusto? La accendiamo?:D
R580 si dice che sia un RV530x4 (il si dice, però, è d'obbligo, almeno finchè non ci saranno informazioni ufficiali sull'architettura) :)
R580 si dice che sia un RV530x4 (il si dice, però, è d'obbligo, almeno finchè non ci saranno informazioni ufficiali sull'architettura) :)
Leggendo sul forum di Beyond3D mi pare di aver capito che ogni quad di RV530 sia configurato come segue:
4 pixel pipe
3 alu
1 tmu
2 Z-unit
mentre R520
4 pixel pipe
1 alu
1 tmu
1 Z-unit
Foglia Morta
20-01-2006, 18:31
R580 si dice che sia un RV530x4 (il si dice, però, è d'obbligo, almeno finchè non ci saranno informazioni ufficiali sull'architettura) :)
E come le vedi le frequenze di R580 ? Non sono basse ? Ora che le GDDR3 a 1.8Ghz sono prodotte in volumi che frequenze poteva avere R580 con quelle memorie senza crearsi colli di bottiglia eccessivamente penalizzanti ? Secondo te più avanti possono usare le GDDR4 ?
yossarian
20-01-2006, 18:37
E come le vedi le frequenze di R580 ? Non sono basse ? Ora che le GDDR3 a 1.8Ghz sono prodotte in volumi che frequenze poteva avere R580 con quelle memorie senza crearsi colli di bottiglia eccessivamente penalizzanti ? Secondo te più avanti possono usare le GDDR4 ?
per il momento è giusto ricorrere a frequenze "conservative"; in futuro si potranno utilizzare le gddr4
Foglia Morta
20-01-2006, 18:42
per il momento è giusto ricorrere a frequenze "conservative"; in futuro si potranno utilizzare le gddr4
quella domanda mi serviva solo x guadagnare tempo :D ma il tempo in più non mi è bastato per capire cosa c' entra che fra R300 e R420 ci siano 70 Mln di transistor :cry:
yossarian
20-01-2006, 18:56
quella domanda mi serviva solo x guadagnare tempo :D ma il tempo in più non mi è bastato per capire cosa c' entra che fra R300 e R420 ci siano 70 Mln di transistor :cry:
te ne faccio un'altra: tra RV515 e RV530 ci sono circa 50 mln di transistor di differenza di cui circa 13 riservati ai 3 vs in più
Foglia Morta
20-01-2006, 19:09
te ne faccio un'altra: tra RV515 e RV530 ci sono circa 50 mln di transistor di differenza di cui circa 13 riservati ai 3 vs in più
Ok mi gioco tutto... Praticamente hai detto che R520 contiene 32 psu di cui solo 16 sono abilitate ?
yossarian
20-01-2006, 19:15
Ok mi gioco tutto... Praticamente hai detto che R520 contiene 32 psu di cui solo 16 sono abilitate ?
potrebbe essere un'eventualità da non escludere.
Certo è che in futuro si vedranno varie versioni con un diverso numero di psu (e finalmente anche le vere versioni medie che hanno poco a che fare con la X1600)
Foglia Morta
20-01-2006, 19:28
potrebbe essere un'eventualità da non escludere.
Certo è che in futuro si vedranno varie versioni con un diverso numero di psu (e finalmente anche le vere versioni medie che hanno poco a che fare con la X1600)
bhe hai lasciato poco spazio all'immaginazione... psu RV530 - psu RV515 = 37Mln di transitor = 8 psu , R580-R520=63 Mln , quindi R520 contiene 64 Mln di transitor di troppo e R580 ha quelli più altri 63Mln = 48 psu .
Effettivamente poi c' è un divario esagerato tra l attuale fascia media e la fascia alta , manca qualche tassello.
diabolik1981
20-01-2006, 19:32
Effettivamente poi c' è un divario esagerato tra l attuale fascia media e la fascia alta , manca qualche tassello.
Non potrebbe essere che: x1900 sia la vera fascia alta, mantenuta con frequenze conservative in modo che ad eventuali risposte nVidia si possa rispondere con frequenze maggiori (come fatto da nVidia col 7800GTX); la serie x1800, nelle sue varie forme scala alla fascia media e medio alta; x1600 nelle varie forme alla fascia medio bassa e bassa; x1300 nelle varie forme alla fascia bassissima ed entry level?
Ok, forse l'ho sparata grossa questa volta. :D
yossarian
20-01-2006, 19:35
bhe hai lasciato poco spazio all'immaginazione
mi ci hai costretto; mi appello al V emendamento :D
Foglia Morta
20-01-2006, 19:39
Non potrebbe essere che: x1900 sia la vera fascia alta, mantenuta con frequenze conservative in modo che ad eventuali risposte nVidia si possa rispondere con frequenze maggiori (come fatto da nVidia col 7800GTX); la serie x1800, nelle sue varie forme scala alla fascia media e medio alta; x1600 nelle varie forme alla fascia medio bassa e bassa; x1300 nelle varie forme alla fascia bassissima ed entry level?
Ok, forse l'ho sparata grossa questa volta. :D
secondo me manca qualcosa tra i 200 e 300 euro oppure 170-250 euro. E la X1600 potrebbe avere un prezzo gonfiato per quel che rappresenta effettivamente, le X1800 massimo secondo me le possono far andare a 300-400 euro ( massimo poco sotto i 300 euro la XL ), non possono farle pagare di meno , sono delle gran belle schede.
Foglia Morta
20-01-2006, 19:43
mi ci hai costretto; mi appello al V emendamento :D
procurati un buon avvocato:tra un po qualcuno arriverà a sbandierare che the inquirer aveva ragione e allora si riverseranno fiumi di calunnie e qualcuno finirà lapidato :D
Edit: comunque l'avevo intuito e avrei voluto chiedertelo in pvt , ma poi il senso del dovere nei confronti degli altri forumisti ha prevalso :sofico:
yossarian
20-01-2006, 20:00
procurati un buon avvocato:tra un po qualcuno arriverà a sbandierare che the inquirer aveva ragione e allora si riverseranno fiumi di calunnie e qualcuno finirà lapidato :D
Edit: comunque l'avevo intuito e avrei voluto chiedertelo in pvt , ma poi il senso del dovere nei confronti degli altri forumisti ha prevalso :sofico:
fankulizzati :D
andreamarra
20-01-2006, 20:05
fankulizzati :D
segnalato :O :cool:!
Foglia Morta
20-01-2006, 20:32
fankulizzati :D
segnalato :O :cool: !
Voi scherzate ma con i cancheri che ci siamo tirati mesi fa ci sono un bel po di forumisti che goderanno come dei ricci :D :D , vabbhe tanto R520 si è dimostrato perfettamente all altezza anche così :fuck:
yossarian
20-01-2006, 20:37
Voi scherzate ma con i cancheri che ci siamo tirati mesi fa ci sono un bel po di forumisti che goderanno come dei ricci :D :D , vabbhe tanto R520 si è dimostrato perfettamente all altezza anche così :fuck:
perchè dovrebbero; era comunque sbagliato il discorso di fondo; in ogni caso, R520 non avrebbe avuto 24 pipeline (non le ha neppure R580 e questo testimonia il fatto che non è mai esistito un progetto a 24 o 32 pipeline, se mai ce ne fosse ancora bisogno) e la scelta di attivarne solo 16 non sarebbe stata comunque dettata da problemi di produzione.
Tra l'altro, si doveva prestare attenziona al commento di fek, quando ha detto che attualmente il numero di applicazioni anche solo parzialmente shader bounded è limitatissimo.
A tale proposito, vi invito a riguardare l'andamento del fillrate con ps longer, facendo il confronto tra l'andamento di RV530 e le altre.
Lo posto di nuovo per comodità soprattutto mia (voi so che lo conoscete a memoria)
questo è quello di R520 e gpu della stessa fascia
http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html
questo è quello di RV530 e gpu concorrenti
http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html
mi riferisco al primo grafico delle due pagine: notate l'andamento della curva della X1600 rispetto a tutte le altre. ;)
Foglia Morta
20-01-2006, 20:40
fankulizzati :D
no :nonsifa: c' è qualcosa che non torna ormai raccontacela tutta: Beyond3D sapeva del rapporto 1:1:1 quest'estate ,ma che mese di preciso ?
andreamarra
20-01-2006, 20:42
M il triplo di unità shader in R580 a livello prestazionale cosa potrebbe comportare?
Ad esempio, l'HDR fp16 è influenzato dalla potenza di elaborazione shader?
e pensare che la mia 9800pro ancora regge.. eheheh
chissà a quanto la faranno qua, almeno almeno 650€...
andreamarra
20-01-2006, 20:43
e pensare che la mia 9800pro ancora regge.. eheheh
chissà a quanto la faranno qua, almeno almeno 650€...
che considerando il prezzo della GTX512 non è neanche troppo anzi
infatti ho detto "ALMENO" :P
ah, benedetta italia!
Foglia Morta
20-01-2006, 20:45
perchè dovrebbero; era comunque sbagliato il discorso di fondo; in ogni caso, R520 non avrebbe avuto 24 pipeline (non le ha neppure R580 e questo testimonia il fatto che non è mai esistito un progetto a 24 o 32 pipeline, se mai ce ne fosse ancora bisogno) e la scelta di attivarne solo 16 non sarebbe stata comunque dettata da problemi di produzione.
giusto, ma molti ( a torto ) fanno confusione con i termini e potrebbero dire "quel che conta è quel 32" :doh: , anche nella recensione di questo sito della X1600 nella tabella delle specifiche tecniche c' è scritto 12 pipeline e 12 psu ed ogni pretesto è buono ( per alcuni )
yossarian
20-01-2006, 20:48
M il triplo di unità shader in R580 a livello prestazionale cosa potrebbe comportare?
Ad esempio, l'HDR fp16 è influenzato dalla potenza di elaborazione shader?
guarda l'edit del mio post precedente
no :nonsifa: c' è qualcosa che non torna ormai raccontacela tutta: Beyond3D sapeva del rapporto 1:1:1 quest'estate ,ma che mese di preciso ?
a volte capita di parlare anche più del dovuto (o potuto) :sofico:
andreamarra
20-01-2006, 20:50
giusto, ma molti ( a torto ) fanno confusione con i termini e potrebbero dire "quel che conta è quel 32" :doh: , anche nella recensione di questo sito della X1600 nella tabella delle specifiche tecniche c' è scritto 12 pipeline e 12 psu ed ogni pretesto è buono ( per alcuni )
la cosa divertente e che prima molti si "incazzano" dicendo che la ati va bene solo perchè pompa le frequenze video, poi quando la nvidia pompa le pipeline va tutto bene :asd:
ricordo i discorsi qua dentro per R420: "è un R380 pompato in frequenza e di pipeline, una minestra riscaldata!" :sofico:
Ora invece portano avanti la crociata delle "più pipeline per tutti!" :cool:!
Senza sorvolare sul fatto che l'aumento di frequenze spropositato da parte di GTX512 viene visto positivamente, quando per coerenza dovrebbe essere visto "negativamente".
Ah, la psiche umana :cool:!
diabolik1981
20-01-2006, 20:52
Ah, la psiche umana :cool:!
no, è quello che chiamo fanboysmo trolleggiante. :D
Tetsujin
20-01-2006, 23:28
anche qui...pagina non piu disponibile :sofico:
micio822
21-01-2006, 00:00
Sti 48 pixelvertexpipeshader o come diavolo si chiamano qualcosa faranno o no? Non dovevano fare la differenza soprattutto quando si gioca con tutti ifiltri a manetta?
Ma non avranno violato qualche NDA se la stanno vendendo prima della presentazione ufficiale? :confused:
Tetsujin
21-01-2006, 12:25
perchè dovrebbero; era comunque sbagliato il discorso di fondo; in ogni caso, R520 non avrebbe avuto 24 pipeline (non le ha neppure R580 e questo testimonia il fatto che non è mai esistito un progetto a 24 o 32 pipeline, se mai ce ne fosse ancora bisogno) e la scelta di attivarne solo 16 non sarebbe stata comunque dettata da problemi di produzione.
Tra l'altro, si doveva prestare attenziona al commento di fek, quando ha detto che attualmente il numero di applicazioni anche solo parzialmente shader bounded è limitatissimo.
A tale proposito, vi invito a riguardare l'andamento del fillrate con ps longer, facendo il confronto tra l'andamento di RV530 e le altre.
Lo posto di nuovo per comodità soprattutto mia (voi so che lo conoscete a memoria)
questo è quello di R520 e gpu della stessa fascia
http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html
questo è quello di RV530 e gpu concorrenti
http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html
mi riferisco al primo grafico delle due pagine: notate l'andamento della curva della X1600 rispetto a tutte le altre. ;)
Non è che avresti voglia di spiegarmelo in 2 righe / 5 secondi vero? :)
Non ci ho capito niente :fagiano:
andreamarra
21-01-2006, 13:23
Sti 48 pixelvertexpipeshader o come diavolo si chiamano qualcosa faranno o no? Non dovevano fare la differenza soprattutto quando si gioca con tutti ifiltri a manetta?
no, dovrebbe aumentare moltissimo la capacità di calcolo di shader :)
Foglia Morta
21-01-2006, 14:12
Non è che avresti voglia di spiegarmelo in 2 righe / 5 secondi vero? :)
Non ci ho capito niente :fagiano:
in parole povere ( perchè le altre non me le posso permettere :D ) con pixel complessi R520 perde il 50% di prestazioni e R580 perderà il 10% penso.
yossarian
21-01-2006, 15:07
Non è che avresti voglia di spiegarmelo in 2 righe / 5 secondi vero? :)
Non ci ho capito niente :fagiano:
se guardi i due grafici puoi renderti conto delle prestazioni di tutte le gpu con vari tipi di shader e con diverso impiego dei registri temporanei. Ogni alu ha a disposizione 4 registri temporanei per istruzione. I registri temporanei sono quelli che vengono uati per immagazzinare i dati intermedi delle elaborazioni; quindi, se ad esempio, si deve fare un'operazione di addizione, seguita da altre, la alu preleverà da due registri (ad esempio costanti) i due dati da addizionare e immagazzinerà il risultato in un registro temporaneo. In un secondo tempo potrà prelevare questo dato e compiere altre operazioni con dati prelevati da altri registri. Il fatto di avere più registri temporanei epr istruzione permette di switchare tra vari thread ed è utile quando si ha a che fare con operazioni che richiedono latenze elevate. Questo eprchè, se non fosse possibile parcheggiare temporaneamente i dati, ma si dovesse attendere il termine di tutte le operazioni relative ad una determinata istruzione, nel momento in cui qualcuna di queste operazioni richiedesse un numero elevato di cicli per, ad esempio, prelevare un dato, la pipeline resterebbe bloccata per tutto il tempo necessario a compiere l'operazione.
Per questo motivo è importante avere un buon numero di registri temporanei ed è importante riuscire ad utilizzarli nel modo migliore.
Il test con pixel shader longer è un test che richiede un forte impiego di registri temporanei (quello più gravoso dopo il test che coinvolge tutti e 4 i registri e quello "per pixel"); da questi test (pixel shader longer e pixel shaders 4 registers) si capisce quali siano le gpu che meglio riescono a gestire i registri temporanei e le conseguenti operazioni di switching.
Come si vede.l'andamento tra le varie gpu non è lo stesso; ci sono delle variazioni che, ad un occhio poco esperto possono sembrare di poco conto, mentre, invece, sono fondamentali per poter effettuare valutazioni sull'efficienza delle pipeline delle varie gpu in determinate operazioni.
In questo test, la X1600 è quella che se la cava, di gran lunga, meglio di tutte le altre gpu presenti nei due test (è quella che accusa i cali minori e, addirittura, è l'unica che passando da ps2.0 simple a ps2.0 longer, non accusa alcun calo di prestazioni)
Tetsujin
21-01-2006, 15:38
se guardi i due grafici puoi renderti conto delle prestazioni di tutte le gpu con vari tipi di shader e con diverso impiego dei registri temporanei. Ogni alu ha a disposizione 4 registri temporanei per istruzione. I registri temporanei sono quelli che vengono uati per immagazzinare i dati intermedi delle elaborazioni; quindi, se ad esempio, si deve fare un'operazione di addizione, seguita da altre, la alu preleverà da due registri (ad esempio costanti) i due dati da addizionare e immagazzinerà il risultato in un registro temporaneo. In un secondo tempo potrà prelevare questo dato e compiere altre operazioni con dati prelevati da altri registri. Il fatto di avere più registri temporanei epr istruzione permette di switchare tra vari thread ed è utile quando si ha a che fare con operazioni che richiedono latenze elevate. Questo eprchè, se non fosse possibile parcheggiare temporaneamente i dati, ma si dovesse attendere il termine di tutte le operazioni relative ad una determinata istruzione, nel momento in cui qualcuna di queste operazioni richiedesse un numero elevato di cicli per, ad esempio, prelevare un dato, la pipeline resterebbe bloccata per tutto il tempo necessario a compiere l'operazione.
Per questo motivo è importante avere un buon numero di registri temporanei ed è importante riuscire ad utilizzarli nel modo migliore.
Il test con pixel shader longer è un test che richiede un forte impiego di registri temporanei (quello più gravoso dopo il test che coinvolge tutti e 4 i registri e quello "per pixel"); da questi test (pixel shader longer e pixel shaders 4 registers) si capisce quali siano le gpu che meglio riescono a gestire i registri temporanei e le conseguenti operazioni di switching.
Come si vede.l'andamento tra le varie gpu non è lo stesso; ci sono delle variazioni che, ad un occhio poco esperto possono sembrare di poco conto, mentre, invece, sono fondamentali per poter effettuare valutazioni sull'efficienza delle pipeline delle varie gpu in determinate operazioni.
In questo test, la X1600 è quella che se la cava, di gran lunga, meglio di tutte le altre gpu presenti nei due test (è quella che accusa i cali minori e, addirittura, è l'unica che passando da ps2.0 simple a ps2.0 longer, non accusa alcun calo di prestazioni)
Ho capito, ti ringrazio molto per avermi dedicato un po di tempo a questa spiegazione :)
Nel primo link che avevi postato, se ho capito bene, è la 7800gtx che se la cava meglio, giusto?
Tetsujin
21-01-2006, 15:39
in parole povere ( perchè le altre non me le posso permettere :D ) con pixel complessi R520 perde il 50% di prestazioni e R580 perderà il 10% penso.
grazie mille x la risposta, effettivamente speriamo sia cosi con R580 :)
JohnPetrucci
21-01-2006, 16:37
Certo che è triste appurare quanto oggi una scheda video di fascia alta rimanga in produzione o cmq il modello di punta.
Sono curioso delle recensioni, almeno oramai ogni 4-5 mesi ce ne sono di nuove di zecca solo per la fascia top del mercato, che è pur sempre la più affascinante.
BlackBug
21-01-2006, 16:54
Interessante!Sinceramente ultimamente mi sta convincendo + nvidia!
micio822
21-01-2006, 17:18
cosa sono i pixel compressi? vuol dire quando gioco con l'antialiasing?
micio822
21-01-2006, 17:19
*complessi non compressi ho sbagliato a scrivere scusate
Ma dai lo sanno tutti che ATI con i filtri attivati e' superiore a nvidia :D
Poi tu ovviamente sarai un possessore Nvidia ed io ATI quindi :ahahah:
In tutti i casi le top di gamma sia per Nvidia che per ATI sono dei mostri di potenza, e nessuno si puo' lamentare ne dell'una ne dell'altra.
Sono delle ottime schede tutte e due, ovviamente se andiamo a trovare il pelo nell'uovo ci sono delle differenze ma tutto sommato minime.
Byezzz
Si si....
infatti io a casa di un mio amico,abbiamo fatto un 3DMark-05 con una X1800xl 256,poi l'lho tolta ed o montato una 7800GTX sempre 256Mb ,ed erano tutte e 2 a default come clock,indovina chi faceva + punti?
Unica cosa che o notato i colori sembrano + carichi con la Xl
yossarian
21-01-2006, 20:10
Ho capito, ti ringrazio molto per avermi dedicato un po di tempo a questa spiegazione :)
Nel primo link che avevi postato, se ho capito bene, è la 7800gtx che se la cava meglio, giusto?
si, è quella che risente per ultima dell'aumento del numero di registri richiesto (al contrario, NV40 è quella che si comporta peggio, poichè ha subito un netto crolo delle prestazioni; questo significa che tra NV40 e G70 è stato fatto anche un lavoro di ottimizzazione nella gestione dei registri temporanei).
andreamarra
21-01-2006, 20:15
Si si....
infatti io a casa di un mio amico,abbiamo fatto un 3DMark-05 con una X1800xl 256,poi l'lho tolta ed o montato una 7800GTX sempre 256Mb ,ed erano tutte e 2 a default come clock,indovina chi faceva + punti?
Unica cosa che o notato i colori sembrano + carichi con la Xl
cioè tu hai fatto il paragone tra la scheda meno potente della serie R520 con quella più potente di G70 :D? [tralasciando la GTX512 che costa un macello e non la si trova neanche]
E i punteggi del 3d mark sono quindi indicativi per valutare la potenza di una scheda video?
Tetsujin
21-01-2006, 20:30
si, è quella che risente per ultima dell'aumento del numero di registri richiesto (al contrario, NV40 è quella che si comporta peggio, poichè ha subito un netto crolo delle prestazioni; questo significa che tra NV40 e G70 è stato fatto anche un lavoro di ottimizzazione nella gestione dei registri temporanei).
che tu sappia il confronto diretto tra il G70 di una 7800GT e l'R520 montato su una X1800 XL vedrebbe ancora avanti la scheda nVidia come per la tabella tra 7800GTX e X1800XT ?
yossarian
21-01-2006, 20:39
che tu sappia il confronto diretto tra il G70 di una 7800GT e l'R520 montato su una X1800 XL vedrebbe ancora avanti la scheda nVidia come per la tabella tra 7800GTX e X1800XT ?
innanzitutto sarebbe da rifare il test con gli ultimi driver (quelli delle tabelle risalgono alla presentazione di R520, con driver che non riconoscevano neppure il chip). Se dovesse confermarsi in vantaggio G70, allora lo sarebbe, in quello specifico test, anche in un ipotetico confronto tra una GT e una XL, poichè l'utilizzo dei registri temporanei di una alu non dipende dal numero di pipeline
cioè tu hai fatto il paragone tra la scheda meno potente della serie R520 con quella più potente di G70 :D? [tralasciando la GTX512 che costa un macello e non la si trova neanche]
E i punteggi del 3d mark sono quindi indicativi per valutare la potenza di una scheda video?
A xche con cosa la dovevo confrontare? dopo la 1800Xl c'e' la XT,che xho a 512 Mb di memoria e va ad inserirsi nelle fascia alta con la 7800 gtx 512,quindi non saprei con quale confrontarla.Cmq se vuoi prendiamo in esame le due top di gamma attuali X1800XT VS 7800GTX 512,la storia non cambia :sofico:
andreamarra
21-01-2006, 22:13
A xche con cosa la dovevo confrontare? dopo la 1800Xl c'e' la XT,che xho a 512 Mb di memoria e va ad inserirsi nelle fascia alta con la 7800 gtx 512,quindi non saprei con quale confrontarla.Cmq se vuoi prendiamo in esame le due top di gamma attuali X1800XT VS 7800GTX 512,la storia non cambia :sofico:
il doppio di ram non cambia le prestazioni, soprattutto senza filtri e a 1024*768. Anzi, il doppio quantitativo di ram "affatica" la scheda video. Non è una novità che una scheda con 256 mega fa magari 100 e la stessa con 512 fa 98.
Infatti, se porti una XL alle frequenze di una XT vedrai che il risultato del 3D mark, incredibile dictu, sarà il medesimo.
Puoi fare un confronto tra una GT e una XL. E tra una GTX256 e una XT.
Puoi anche confrontare una XT e una GTX512 che trovi a 120 euro in più, se la trovi.
E di sicuro io non compro una scheda, nè faccio i paragoni guardando i numerini del 3d merd. Ma guardo principalmente qualità grafica, effetti, potenza.
wlamamma
21-01-2006, 22:37
azz, ma per alimentarla ci vuole la 220 ?
già la x1800xt arriva a 115W, hai voglia a mettere ventole nel case poi ?
:sofico:
Dobermann75
21-01-2006, 23:13
cmq per dovere di cronaca da bow ce ne sono disponibili a 749€ I.I. per dovere di cronaca. e sempre per dovere di cronaca un'utente di questo forum ha appena ordinato la x1900xt a 713€ I.I.
Non per fare pubblicità, però le trovi anche a meno, le Msi 7800gtx 512mb a 654,00 (12pz disp)
http://www.malvintech.net/e-shop/ItemDetail.asp?IDItem=757&IDCategory=222&
in quel negozio ho acquistato una volta l'anno scorso e mi sono trovato bene.
ciao
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.