PDA

View Full Version : Perchè ATI va peggio?


Crack92
05-09-2007, 13:43
Salve a tutti,

ormai è da un paio di mesi che ci sono le schede DX10 di ATI, la HD2900XT, non è stata quello che ci aspettavamo un pò tutti, lo stesso per la fascia media.

Ora mi chiedo perchè la HD2900XT è inferiore alla 8800GTX anche se su carta scritta risulterebbe essere MOLTO più potente?
su carta scritta la 2900XT dovrebbe essere superiore anche alla 8800 ultra invece non è così, all'inizio pensavo che fosse colpa del driver ed era solo questione di tempo, ma ormai il tempo è passato e non ci sono stati i miglioramenti che mi aspettavo.

qualcuno mi sa dire che differenze ci sono nell'architetura adottata da AMD rispetto a quella usata da nVidia?

lo stesso discorso vale per la fascia media di amd, infatti la hd2600xt ha ben 120 steam processor e va molto peggio della 8600GTS, mi spieghereste com'è possibile tutto ciò?

Tron0
05-09-2007, 15:55
Il fatto è che sono tutti nVidiosi e l'nVIDIA li attrae come una calamita.
Scherzi a parte soltanto l'ATI hd2900xt da 1024 MB surclassa la 8800 ultra.
Driver o non driver dipende molto dai giochi o dalle applicazioni.

Crack92
05-09-2007, 16:09
Il fatto è che sono tutti nVidiosi e l'nVIDIA li attrae come una calamita.
Scherzi a parte soltanto l'ATI hd2900xt da 1024 MB surclassa la 8800 ultra.
Driver o non driver dipende molto dai giochi o dalle applicazioni.

la hd2900xt da 1024 è meglio della ultra? :mbe: sicuro? puoi postare qualke screen?

lo so che dipende anche dalle applicazioni, infatti voglio solo capire cosa hanno di differente le due architetture

Tron0
05-09-2007, 16:22
la hd2900xt da 1024 è meglio della ultra? :mbe: sicuro? puoi postare qualke screen?

lo so che dipende anche dalle applicazioni, infatti voglio solo capire cosa hanno di differente le due architetture

Club 3D CGAX-XT2924 X2900 XT PCI-E 1024Mb GDDR4 512Bit CrossFire Ready DUAL DVI VIVO HDMI RETAIL

Extreme fast DirectX 10 performance with a massive 320 Unified stream processor engine. Ultra high performance gaming with the Club 3D Radeon HD 2900 XT. Running on 512-bit 8 channel 512MB GDDR3 memory. Built to get the best out of your games.
Bundled with:
1x DVI to HDMI Adapter, 2x DVI to CRT Adapter, Crossfire cables, HDTV cables, Cyberlink PowerPack, Driver CD & Installation Guide
and as Special:
Game vouchers for HALF LIFE 2: EPISODE 2 and TEAM FORTRESS 2

Performance
* GPU: ATI R600
* GPU speed: 740 MHz
* Shaders: 320 stream
* Memory Size: 1024 MB
* Memory Type: GDDR4
* Memory Speed: 2000 MHz
* Memory Bandwidth: 512 BIT
* Multi VGA Ready: 0
* DirectX: 10
* OpenGL: 2

Configuration
* DVI dual link: 2
* Video-IN
* TV-out
* HDTV 720p/1080i
* HDTV / /720p/1080p
* HDCP
* Cooling: Active
* PCB size: Full size
* Format: PCI-E x16

Operating system
* Windows 2000
* Windows XP
* Windows MCE
* Windows XP64
* Windows VISTA 32bit
* Windows VISTA 64bit


http://www.tecnocomputer.it/writable/foto/aggiuntive/prod_4057_5623.jpg

Crack92
05-09-2007, 16:24
per screen intendevo benchmark, :muro: non la foto della scheda :doh:

Tron0
05-09-2007, 16:28
per screen intendevo benchmark, :muro: non la foto della scheda :doh:

Ma se è appena uscita.
Io ho postato quello che ho trovato.

Billi16
05-09-2007, 16:33
gli steam processor delle ati hd,non sono paragonabili (perchè svolgono funzioni diverse) a quelli delle geforce 8000,quindi il fatto che le radeon ne abbiano di più delle nvidia non vuol dire niente...
anche il fatto che si chiamino "steam processor" è inesatto,questo termine viene usato per convenzione,ma in realtà sono unità di calcolo che hanno delle funzioni in comune tra loro,ma anche altre funzioni diverse;)
considera anche che gli steam processor delle geforce 8000 lavorano a frequenze molto alte,al di sopra del ghz in quasi tutti i modelli,mentre quelli delle radeon sono vincolati alla frequenza del core,che è ben più bassa del ghz.
ci sono anche altri motivi che portano a questa differenza,ma io non te li so spiegare:) ;)

Billi16
05-09-2007, 16:35
Ma se è appena uscita.
Io ho postato quello che ho trovato.

comunque l'hd2900xt 1gb,va esattamente uguale alla versione da 512mb e non è ai livelli della 8800 ultra,ma neanche gtx,tranne qualche caso...;)

Tron0
05-09-2007, 16:44
comunque l'hd2900xt 1gb,va esattamente uguale alla versione da 512mb e non è ai livelli della 8800 ultra,ma neanche gtx,tranne qualche caso...;)

E chi te lo ha detto?
Le hai viste le caratteristiche prima di parlare?

Billi16
05-09-2007, 16:48
E chi te lo ha detto?
Le hai viste la caratteristiche prima di parlare?

ancora con ste caratteristiche:muro:
partendo dal fatto che questa scheda non è ancora in commercio in italia
devi vedere i test veri e proprie non le caratteristiche tecniche di una vga (che sono solo teoria).
questa hd2900xt da 1gb,rispetto alla versione da 512mb ha solo in più 340mhz sulle ram,che se le danno il 5% di prestazioni in più è tanto!
e di bench della 512mb ce ne a bizzeffe!

Tron0
05-09-2007, 16:56
ancora con ste caratteristiche:muro:
partendo dal fatto che questa scheda non è ancora in commercio in italia
devi vedere i test veri e proprie non le caratteristiche tecniche di una vga (che sono solo teoria).
questa hd2900xt da 1gb,rispetto alla versione da 512mb ha solo in più 340mhz sulle ram,che se le danno il 5% di prestazioni in più è tanto!
e di bench della 512mb ce ne a bizzeffe!

Nvidioso!!!!!!!

Crack92
05-09-2007, 17:01
gli steam processor delle ati hd,non sono paragonabili (perchè svolgono funzioni diverse) a quelli delle geforce 8000,quindi il fatto che le radeon ne abbiano di più delle nvidia non vuol dire niente...
anche il fatto che si chiamino "steam processor" è inesatto,questo termine viene usato per convenzione,ma in realtà sono unità di calcolo che hanno delle funzioni in comune tra loro,ma anche altre funzioni diverse;)
considera anche che gli steam processor delle geforce 8000 lavorano a frequenze molto alte,al di sopra del ghz in quasi tutti i modelli,mentre quelli delle radeon sono vincolati alla frequenza del core,che è ben più bassa del ghz.
ci sono anche altri motivi che portano a questa differenza,ma io non te li so spiegare:) ;)

finalmente uno che mi capisce!! io volevo sapere che differenze ci sono tra gli steam delle nuove ati e gli steam delle nuove nvidia, tanto per acculturarmi un pò :stordita:

Billi16
05-09-2007, 17:02
Nvidioso!!!!!!!

prima avevo una x1900xtx (morta) e prima ho avuto una x1800 (venduta) ,quindi ho ben poco da essere nvidioso:D

Billi16
05-09-2007, 17:03
finalmente uno che mi capisce!! io volevo sapere che differenze ci sono tra gli steam delle nuove ati e gli steam delle nuove nvidia, tanto per acculturarmi un pò :stordita:

più di quello che ti ho detto non ti so spiegare,in caso aspetta altre risposte,oppure grazie a google ti cerchi una bella analisi approfondita;)

Tron0
05-09-2007, 17:25
più di quello che ti ho detto non ti so spiegare,in caso aspetta altre risposte,oppure grazie a google ti cerchi una bella analisi approfondita;)


Non mi sembra questo un dibattito ragionevole,lasciando stare che non ci dovrebbe essere nessun dibattito, molto meglio in rapporto qualità prezzo la 2900xt da 1024MB.

zanardi84
05-09-2007, 17:35
Allora: uno dei motivi principali per cui la HD2900XT non regge con le Geforce più potenti è la memoria. Ha sì interfaccia da 512bit, ma è ancora una ddr3 e non una ddr4. Come frequenza è inferiore addirittura alla X1950XTX (828MHz contro 1000MHz). Avrà sì una banda passante larghissima, ma questa è prodotto da: frequenza x bus, quindi (512/8byte)*828MHz*2)=105,984 GB/s (il *2 è dato dal fatto che è la memoria è DDR.

Per la X1950XTX è: (256/8byte)*1000MHz*2=64,000 GB/s

Ora: Osservando i calcoli, risulta chiaramente che il fattore che incide prevalentemente è il valore del bus. 512bit contro 256bit. A parità di bus sarebbe la banda sarebbe stata decisamente inferiore, 53 scarsi contro 64.

Si deduce che la banda, per essere sfruttata a dovere deve prevedere che i dati che la attraversano vadano ad alta velocità, cosa che su questa non succede. Il bus da 512 è addirittura esagerato ed è un numero che inganna.

La 8800GTX è molto più equilibrata. (384/8byte)*900MHz*2=86,400GB/s

E questo solo confrontando frequenze e tipi di ram. Poi ci saranno le differenze architetturali, ma non sono ancora pienamente valutabili perchè di titoli DX10 nativi non ce ne sono al momento, quindi non si può dire con precisione se ci sono problemi di architettura.

Tron0
05-09-2007, 17:41
Ma sapete leggere oltre che scrivere?

ATi7500
05-09-2007, 17:45
E chi te lo ha detto?
Le hai viste le caratteristiche prima di parlare?

le caratteristiche infatti sono IDENTICHE alla 2900XT, a parte i 512MB di memoria. Appurato che la 2900XT non è MAI memory limited, posso sapere da cosa deduci che la versione da 1GB sia così più veloce addirittura da superare la 8800Ultra?

bYeZ!

Billi16
05-09-2007, 18:14
Non mi sembra questo un dibattito ragionevole,lasciando stare che non ci dovrebbe essere nessun dibattito, molto meglio in rapporto qualità prezzo la 2900xt da 1024MB.

ma di quale dibattito stai parlando?:D
non c'è nessun dibattito,è un dato di fatto che la hd2900xt (sia la 512mb,che la 1gb) sia più lenta della 8800ultra.

_Aenea_
05-09-2007, 18:28
Ma sapete leggere oltre che scrivere?

Potrei farti la stessa domanda...

FreeMan
05-09-2007, 18:54
Ma sapete leggere oltre che scrivere?

hai cominciato male su sto forum e continui anche peggio..

3gg per vedere se ti chairisci le idee e per informarti su concetti come NO FLAME e rispetto per il prossimo .. al tuo ritorno vediamo se saprai dimostrare di non essere il troll che sembri ;)

>bYeZ<

Andala
05-09-2007, 20:45
Queste diatribe si limitano sempre a quanti frame in più fa chi, ma vorrei tanto sapere:

tra ATi e nVidia, quale delle due offre la migliore qualità di immagine nel 2D e nel 3D?

La qualità Matrox è stata finalmente raggiunta e superata nel 2D?
Chiunque abbia lumi potrebbe togliermi il dubbio perchè tra qualche mese vorrei acquistare una nuova scheda e per motivi professionali sono molto esigente. Grazie:) .

Ciao,

Andala


P.S.

Lo chiedo perchè non tutti usano le schede di fascia alta solo per giocare.

fukka75
05-09-2007, 21:57
Beh, una vga da 350€ (ATI) o 500€ (nVidia) la si usa esclusivamente per giocare,visto che vga di fascia medio/bassa da 100€ o meno, come le HD2400 o 8500, hanno ottima qualità d'immagine per usi 2D (fotoritocco, disegno vettoriale, video, ecc.) per nulla inferiore alle sorelle maggiori, anzi spesso contengono decoder dedicati all'uso con flussi video, per sgravare di calcoli la CPU, che le top gamma non hanno.
Una vga desktop multimediale da 500€ serve solo per giocare, altrimenti è una spesa inutile; oviamente per usi 3D professionali (CAD, simulazioni fisiche, ecc.) 500€, e anche più, si spendono per vga dedicate, e non per "giocattoli", per quanto costosi e potenti ;)

Vifani
06-09-2007, 00:44
Salve a tutti,

ormai è da un paio di mesi che ci sono le schede DX10 di ATI, la HD2900XT, non è stata quello che ci aspettavamo un pò tutti, lo stesso per la fascia media.

Ora mi chiedo perchè la HD2900XT è inferiore alla 8800GTX anche se su carta scritta risulterebbe essere MOLTO più potente?
su carta scritta la 2900XT dovrebbe essere superiore anche alla 8800 ultra invece non è così, all'inizio pensavo che fosse colpa del driver ed era solo questione di tempo, ma ormai il tempo è passato e non ci sono stati i miglioramenti che mi aspettavo.

qualcuno mi sa dire che differenze ci sono nell'architetura adottata da AMD rispetto a quella usata da nVidia?

lo stesso discorso vale per la fascia media di amd, infatti la hd2600xt ha ben 120 steam processor e va molto peggio della 8600GTS, mi spieghereste com'è possibile tutto ciò?

L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura. Non esiste altra spiegazione perché i numeri sulla carta ci sono in termini di potenza di calcolo e banda passante. Io penso che probabilmente abbiano fatto qualche errore e, in ogni caso, ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.

Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders. Non è un caso che i rumours su RV670 prevedono, oltre al processo produttivo a 55 nm, lo stesso numero di unità per gli shaders, ma un numero superiore di ROPs ed un bus a 256 bit. R600 probabilmente non satura mai la sua immensa banda passante e se la satura è sicuramente per qualche scelta poco felice (vedi AA non funzionante nelle ROPs). Non mi sorprenderebbe vedere un RV670 solo leggermente sotto a R600 come prestazioni, ma infinitamente migliore come costi di produzione e consumi.

blade9722
06-09-2007, 01:42
Queste diatribe si limitano sempre a quanti frame in più fa chi, ma vorrei tanto sapere:

tra ATi e nVidia, quale delle due offre la migliore qualità di immagine nel 2D e nel 3D?

La qualità Matrox è stata finalmente raggiunta e superata nel 2D?
Chiunque abbia lumi potrebbe togliermi il dubbio perchè tra qualche mese vorrei acquistare una nuova scheda e per motivi professionali sono molto esigente. Grazie:) .

Ciao,

Andala


P.S.

Lo chiedo perchè non tutti usano le schede di fascia alta solo per giocare.

Non voglio entrare nel merito della crociata Nvidia vs Ati, ma a questa domanda credo di poter rispondere.

La teoria secondo cui la Matrox ha un RAMDAC nettamente meno rumoroso era più o meno valida nel 1996, anno di lancio della prima Millennium.

Ora non è più applicabile, soprattutto in virtù del fatto che con l'interfaccia DVI il RAMDAC non viene nemmeno utilizzato.

Di fatto, in ambiente grafico ora è specializzata nel multi display (che è stata una sua invenzione) e nell'acquisizione video.

carver
06-09-2007, 03:05
MA CHI TE L'HA DETTO?
dove l'hai letto???

APPARTE I GIOCHI SCRITTI X ATI ( hl2 ) e quelli scritti x nvidia ( doom3)

CALCOLA QUANTO COSTA UNA VGA!!!

e' inutile che mi paragoni la 8800gtx (600€) alla 2900xt ( 359)

PARAGONAMELA ALLA GTS che costa uguale e guarda quantola gts sta dietro... ;)

jp77
06-09-2007, 09:11
L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura. Non esiste altra spiegazione perché i numeri sulla carta ci sono in termini di potenza di calcolo e banda passante. Io penso che probabilmente abbiano fatto qualche errore e, in ogni caso, ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.

Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders. Non è un caso che i rumours su RV670 prevedono, oltre al processo produttivo a 55 nm, lo stesso numero di unità per gli shaders, ma un numero superiore di ROPs ed un bus a 256 bit. R600 probabilmente non satura mai la sua immensa banda passante e se la satura è sicuramente per qualche scelta poco felice (vedi AA non funzionante nelle ROPs). Non mi sorprenderebbe vedere un RV670 solo leggermente sotto a R600 come prestazioni, ma infinitamente migliore come costi di produzione e consumi.

sempre di altissimo livello i tuoi interventi :ave: dovresti farti sentire più spesso...

Billi16
06-09-2007, 09:16
sempre di altissimo livello i tuoi interventi :ave: dovresti farti sentire più spesso...

quoto :ave:

Athlon 64 3000+
06-09-2007, 10:32
a fine agosto è uscito Bioshock e sono stati fatti vari test ed è venuto fuori che in dx9 la HD 2900XT come prestazioni si trova a metà tra la 8800GTX e la 8800Ultra staccando di netto la 8800GTS e forse questo è dovuto al fatto che il gioco non permette di attivare l'AA e secondo il gioco fa un uso intensivo di shader di lunghe istruzione dove R600 si esalta.
Di Contro le prestazioni in dx 10 crollano verticalmente facendola(la HD 2900XT)andare come prestazione leggermente sotto una 8800GTS 320.

Pat77
06-09-2007, 11:16
Secondo me l'anomalia di bioshock verrà corretta, o resterà un caso

blade9722
06-09-2007, 11:35
L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura. Non esiste altra spiegazione perché i numeri sulla carta ci sono in termini di potenza di calcolo e banda passante. Io penso che probabilmente abbiano fatto qualche errore e, in ogni caso, ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.

Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders. Non è un caso che i rumours su RV670 prevedono, oltre al processo produttivo a 55 nm, lo stesso numero di unità per gli shaders, ma un numero superiore di ROPs ed un bus a 256 bit. R600 probabilmente non satura mai la sua immensa banda passante e se la satura è sicuramente per qualche scelta poco felice (vedi AA non funzionante nelle ROPs). Non mi sorprenderebbe vedere un RV670 solo leggermente sotto a R600 come prestazioni, ma infinitamente migliore come costi di produzione e consumi.

Beh, ma questo potrebbe andar bene per i test con AA attivato. Per quelli con AA disattivato?

Pat77
06-09-2007, 11:52
L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura. Non esiste altra spiegazione perché i numeri sulla carta ci sono in termini di potenza di calcolo e banda passante. Io penso che probabilmente abbiano fatto qualche errore e, in ogni caso, ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.

Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders. Non è un caso che i rumours su RV670 prevedono, oltre al processo produttivo a 55 nm, lo stesso numero di unità per gli shaders, ma un numero superiore di ROPs ed un bus a 256 bit. R600 probabilmente non satura mai la sua immensa banda passante e se la satura è sicuramente per qualche scelta poco felice (vedi AA non funzionante nelle ROPs). Non mi sorprenderebbe vedere un RV670 solo leggermente sotto a R600 come prestazioni, ma infinitamente migliore come costi di produzione e consumi.

Che io sappia il FSAA è stato fatto volutamente via shaders, capisco che potrebbe essere benissimo un ripiego, ma credo che Ati avesse le capacità tecnologiche per non sbagliare così clamorosamente dopo i mille sample che ha prodotto.
E' vero che anche questo potrebbe essere un segnale di problemi (la gestazione travagliata), la mia idea è che abbia voluto tirare fuori un'architettura necessariamente più evoluta rinunciando un po' all'ambito dx9, sperando che il mercato si sarebbe spostato su dx10.
Prova ne è in parte il ritardo, oltre alla bontà della serie x1900, che quindi ha potuto in parte colmare il gap temporale, e i procalmi di voler lanciare prodotti quando effettivamente utili, un po' come la storia di sm2 e sm3 sulla serie x800.

Cfranco
06-09-2007, 17:12
Queste diatribe si limitano sempre a quanti frame in più fa chi, ma vorrei tanto sapere:

tra ATi e nVidia, quale delle due offre la migliore qualità di immagine nel 2D e nel 3D?

La qualità Matrox è stata finalmente raggiunta e superata nel 2D?
Chiunque abbia lumi potrebbe togliermi il dubbio perchè tra qualche mese vorrei acquistare una nuova scheda e per motivi professionali sono molto esigente. Grazie:) .

Ciao,

Andala


P.S.

Lo chiedo perchè non tutti usano le schede di fascia alta solo per giocare.

Credo che ormai siano passati i tempi in cui c' erano grosse differenze di qualità , ormai anche le schede più scarse hanno una immagine eccellente e stabile , Matrox è uscita dal mercato e le terrificanti Gf2 mx Sparkle di una volta sono ormai un ricordo .
Oltretutto le uscite digitali stanno rapidamente soppiantando l' analogico e il fattore di gran lunga più importante per la qualità dell' immagine è il monitor .
Anche spendere una barca di soldi per 8800 o 2900 non credo sia una grande scelta , schede di fascia media come le 8600 e le 2600 sono altrettanto curate da questo punto di vista .

Vifani
06-09-2007, 18:02
Che io sappia il FSAA è stato fatto volutamente via shaders, capisco che potrebbe essere benissimo un ripiego, ma credo che Ati avesse le capacità tecnologiche per non sbagliare così clamorosamente dopo i mille sample che ha prodotto.
E' vero che anche questo potrebbe essere un segnale di problemi (la gestazione travagliata), la mia idea è che abbia voluto tirare fuori un'architettura necessariamente più evoluta rinunciando un po' all'ambito dx9, sperando che il mercato si sarebbe spostato su dx10.
Prova ne è in parte il ritardo, oltre alla bontà della serie x1900, che quindi ha potuto in parte colmare il gap temporale, e i procalmi di voler lanciare prodotti quando effettivamente utili, un po' come la storia di sm2 e sm3 sulla serie x800.

Se è veramente così hanno letteralmente cannato il progetto perché l'azienda ATI si era fatta un nome in passato sulle prestazioni e sulla qualità del suo antialiasing che praticamente fin dai tempi di R300 ha sempre garantito un impatto sulle prestazioni inferiore a quello dei chip GeForce ed una qualità molto elevata. Oggi invece a causa di una "scelta" (?) di questo tipo si ritrovano una scheda che quando attivi l'AA muore letteralmente. Secondo me è un errore.

Tra l'altro tu ritieni veramente che abbia senso sviluppare un'architettura così dannatamente proiettata sul futuro sacrificando pesantemente il presente? Pensi veramente che le schede X2900 quando usciranno i giochi realmente DX10 (termine con il quale non intendo i giochi che "usano" i geometry shaders, ma proprio quelli che innovano con questi nuovi strumenti) potranno dire la loro?

Suvvia siamo seri, probabilmente la loro la diranno, ma tra 1 anno il confronto 2900 XT vs 8800 sarà già bello che morto ed allora non avrà più senso.

La verità è che hanno fatto un errore perché un'architettura vincente è una come quella di R300 che è stato velocissimo appena uscito ed ha permesso di giocare tranquillamente ai giochi veramente DX9 come Far Cry, usciti oltre 1 anno dopo la sua presentazione.

Beh, ma questo potrebbe andar bene per i test con AA attivato. Per quelli con AA disattivato?

E' proprio in questo senso che dico che indipendentemente dal discorso AA, il problema è che questa architettura è sbilanciata sulle operazioni sugli shaders e trascura texture e ROPs.

Io ho sempre ritenuto valido il principio secondo cui le operazioni sugli shaders siano da privilegiare ormai rispetto a quelle sulle texture e alle ROPs, ma non fino a questo punto. R580 aveva un rapporto tra unità sui pixel shaders e le TMU-ROPs di 4/1. Vogliamo fare tale rapporto in R600? Non c'è neanche bisogno di farlo per capire che è molto più spinto.

Insomma con R580 avevano avuto ragione e infatti è stato un chip eccezionale che ancora oggi è velocissimo (anche con l'AA), non di molto più lento di R600 ed all'altezza delle 8800 GTS 320 MB (DX10 a parte). Con R600 secondo me hanno sbagliato (o cmq hanno qualche problema le unità attuali) e se uscirà RV670 con più ROPs (o riviste) di R600 e solo di poco più lento, ne avremo la riprova

ohmaigod
06-09-2007, 18:12
e' inutile che mi paragoni la 8800gtx (600€) alla 2900xt ( 359)




veramente la gtx si trova a 450€

blade9722
06-09-2007, 18:27
Se è veramente così hanno letteralmente cannato il progetto perché l'azienda ATI si era fatta un nome in passato sulle prestazioni e sulla qualità del suo antialiasing che praticamente fin dai tempi di R300 ha sempre garantito un impatto sulle prestazioni inferiore a quello dei chip GeForce ed una qualità molto elevata. Oggi invece a causa di una "scelta" (?) di questo tipo si ritrovano una scheda che quando attivi l'AA muore letteralmente. Secondo me è un errore.

Tra l'altro tu ritieni veramente che abbia senso sviluppare un'architettura così dannatamente proiettata sul futuro sacrificando pesantemente il presente? Pensi veramente che le schede X2900 quando usciranno i giochi realmente DX10 (termine con il quale non intendo i giochi che "usano" i geometry shaders, ma proprio quelli che innovano con questi nuovi strumenti) potranno dire la loro?

Suvvia siamo seri, probabilmente la loro la diranno, ma tra 1 anno il confronto 2900 XT vs 8800 sarà già bello che morto ed allora non avrà più senso.

La verità è che hanno fatto un errore perché un'architettura vincente è una come quella di R300 che è stato velocissimo appena uscito ed ha permesso di giocare tranquillamente ai giochi veramente DX9 come Far Cry, usciti oltre 1 anno dopo la sua presentazione.



E' proprio in questo senso che dico che indipendentemente dal discorso AA, il problema è che questa architettura è sbilanciata sulle operazioni sugli shaders e trascura texture e ROPs.

Io ho sempre ritenuto valido il principio secondo cui le operazioni sugli shaders siano da privilegiare ormai rispetto a quelle sulle texture e alle ROPs, ma non fino a questo punto. R580 aveva un rapporto tra unità sui pixel shaders e le TMU-ROPs di 4/1. Vogliamo fare tale rapporto in R600? Non c'è neanche bisogno di farlo per capire che è molto più spinto.

Insomma con R580 avevano avuto ragione e infatti è stato un chip eccezionale che ancora oggi è velocissimo (anche con l'AA), non di molto più lento di R600 ed all'altezza delle 8800 GTS 320 MB (DX10 a parte). Con R600 secondo me hanno sbagliato (o cmq hanno qualche problema le unità attuali) e se uscirà RV670 con più ROPs (o riviste) di R600 e solo di poco più lento, ne avremo la riprova

Non puoi confrontare i 320 geometry shaders della HD2900XT con i 48 Pixel Shaders della X1900XT, come non puoi confrontare i 128 Stream Shaders della 8800GTX con i 24 Pixel Shaders della 7900GTX, in quanto sono strutture di calcolo diverse. Non voglio entrare nei dettagli di performance onde evitare di fomentare una flame war in un topic come questo, quindi faccio solo riferimento al prezzo a cui viene venduta la HD2900XT.

Ora come ora viene venduta allo stesso prezzo di una 8800GTS 640MB, ma questo secondo me non era nei piani della ATI. La mia impressione, visto le caratteristiche tecniche, é che in fase di progettazione l'obiettivo era di venderla al prezzo della Ultra, ma quando sono usciti i primi prototipi hanno dovuto ridimensionare le pretese.

Probabilmente l'architettura della GPU é risultata inefficiente, magari per un collo di bottiglia imprevisto (in fase di progettazione é difficile prevedere le performance ad alto livello con il software).

desmacker
06-09-2007, 18:56
Se è veramente così hanno letteralmente cannato il progetto perché l'azienda ATI si era fatta un nome in passato sulle prestazioni e sulla qualità del suo antialiasing che praticamente fin dai tempi di R300 ha sempre garantito un impatto sulle prestazioni inferiore a quello dei chip GeForce ed una qualità molto elevata. Oggi invece a causa di una "scelta" (?) di questo tipo si ritrovano una scheda che quando attivi l'AA muore letteralmente. Secondo me è un errore.

Tra l'altro tu ritieni veramente che abbia senso sviluppare un'architettura così dannatamente proiettata sul futuro sacrificando pesantemente il presente? Pensi veramente che le schede X2900 quando usciranno i giochi realmente DX10 (termine con il quale non intendo i giochi che "usano" i geometry shaders, ma proprio quelli che innovano con questi nuovi strumenti) potranno dire la loro?

Suvvia siamo seri, probabilmente la loro la diranno, ma tra 1 anno il confronto 2900 XT vs 8800 sarà già bello che morto ed allora non avrà più senso.

La verità è che hanno fatto un errore perché un'architettura vincente è una come quella di R300 che è stato velocissimo appena uscito ed ha permesso di giocare tranquillamente ai giochi veramente DX9 come Far Cry, usciti oltre 1 anno dopo la sua presentazione.



E' proprio in questo senso che dico che indipendentemente dal discorso AA, il problema è che questa architettura è sbilanciata sulle operazioni sugli shaders e trascura texture e ROPs.

Io ho sempre ritenuto valido il principio secondo cui le operazioni sugli shaders siano da privilegiare ormai rispetto a quelle sulle texture e alle ROPs, ma non fino a questo punto. R580 aveva un rapporto tra unità sui pixel shaders e le TMU-ROPs di 4/1. Vogliamo fare tale rapporto in R600? Non c'è neanche bisogno di farlo per capire che è molto più spinto.

Insomma con R580 avevano avuto ragione e infatti è stato un chip eccezionale che ancora oggi è velocissimo (anche con l'AA), non di molto più lento di R600 ed all'altezza delle 8800 GTS 320 MB (DX10 a parte). Con R600 secondo me hanno sbagliato (o cmq hanno qualche problema le unità attuali) e se uscirà RV670 con più ROPs (o riviste) di R600 e solo di poco più lento, ne avremo la riprova

Quoto,che ci sia stato un'errore di progettazione è evidente.

halduemilauno
06-09-2007, 19:01
Non puoi confrontare i 320 geometry shaders della HD2900XT con i 48 Pixel Shaders della X1900XT, come non puoi confrontare i 128 Stream Shaders della 8800GTX con i 24 Pixel Shaders della 7900GTX, in quanto sono strutture di calcolo diverse. Non voglio entrare nei dettagli di performance onde evitare di fomentare una flame war in un topic come questo, quindi faccio solo riferimento al prezzo a cui viene venduta la HD2900XT.

Ora come ora viene venduta allo stesso prezzo di una 8800GTS 640MB, ma questo secondo me non era nei piani della ATI. La mia impressione, visto le caratteristiche tecniche, é che in fase di progettazione l'obiettivo era di venderla al prezzo della Ultra, ma quando sono usciti i primi prototipi hanno dovuto ridimensionare le pretese.

Probabilmente l'architettura della GPU é risultata inefficiente, magari per un collo di bottiglia imprevisto (in fase di progettazione é difficile prevedere le performance ad alto livello con il software).


ma quello che tu dici è una conseguenza di quello che ha detto Vifani nei suoi due interventi(che ovviamente quoto). e aggiungo che son cose che si son gia dette molte volte e da molti(magari in termini diversi)e che alcuni non vogliono intendere.
;)

lordphoenix
06-09-2007, 19:12
Ora come ora viene venduta allo stesso prezzo di una 8800GTS 640MB, ma questo secondo me non era nei piani della ATI. La mia impressione, visto le caratteristiche tecniche, é che in fase di progettazione l'obiettivo era di venderla al prezzo della Ultra, ma quando sono usciti i primi prototipi hanno dovuto ridimensionare le pretese.

concordo pienamente con te, anche secondo me la prima impressione è stata un flop da parte della loro scheda migliore e per ricorrere ai ripari la stanno "svendendo" per non perdere ulteriore quota di mercato!!!

premetto che non me ne intendo di architetture di schede video, quello che mi chiedo io è: ma un team di ingegneri/programmatori come quelli della ati può commettere un errore così grave nel progettare un architettura del genere???
Ammesso che sia un errore di progettazione.... e questo lo si capirà meglio se ati butterà fuori una nuova scheda o revisione di scheda in tempi brevi.... cosa che ultimamente non avviene.... anzi è perennemente in ritardo!
oppure nvidia ha creato un architettura straordinaria, com'era r300 ai suoi tempi rispetto alla concorrenza. Che sia colpa anche dell'acquisizione di amd??? che ha distolto un pò d'attenzione al progetto???
se non erro il progetto r600 però era interamente ati e amd è subentrata dopo.....
che dite?
altra cosa da non sottovalutare: consumo e temperatura!!!
l'architettura ati scalda e consuma sempre di + di quella nvidia. succedeva anche nelle architetture precedenti?
r600 lo vedo come la ps3, troppo avanti come tecnologia e quindi non è sfruttata e forse non lo sarà mai perchè sostituita da un nuovo prodotto...

byez

halduemilauno
06-09-2007, 19:17
concordo pienamente con te, anche secondo me la prima impressione è stata un flop da parte della loro scheda migliore e per ricorrere ai ripari la stanno "svendendo" per non perdere ulteriore quota di mercato!!!

premetto che non me ne intendo di architetture di schede video, quello che mi chiedo io è: ma un team di ingegneri/programmatori come quelli della ati può commettere un errore così grave nel progettare un architettura del genere???
Ammesso che sia un errore di progettazione.... e questo lo si capirà meglio se ati butterà fuori una nuova scheda o revisione di scheda in tempi brevi.... cosa che ultimamente non avviene.... anzi è perennemente in ritardo!
oppure nvidia ha creato un architettura straordinaria, com'era r300 ai suoi tempi rispetto alla concorrenza. Che sia colpa anche dell'acquisizione di amd??? che ha distolto un pò d'attenzione al progetto???
se non erro il progetto r600 però era interamente ati e amd è subentrata dopo.....
che dite?
altra cosa da non sottovalutare: consumo e temperatura!!!
l'architettura ati scalda e consuma sempre di + di quella nvidia. succedeva anche nelle architetture precedenti?
r600 lo vedo come la ps3, troppo avanti come tecnologia e quindi non è sfruttata e forse non lo sarà mai perchè sostituita da un nuovo prodotto...

byez


no non erri. il progetto r600 è interamente di ati. amd è subentrata a cose fatte.
;)

nico88desmo
06-09-2007, 19:23
Mi inserisco nella discussione...perchè vorrei capire una cosa a riguardo di R600.
Questo chip ha 320SP divisi in 4 blocchi e ognuno di questi possiede una memoria cache. Questo blocco contiene quindi 80SP divise in altri sottoblocchi da 16SP ciascuno.
Ciascun SP è una unità di tipo vettoriale di dimensione 5(4+1 se non erro, 4 unità MAD/MUL e 1 di altro tipo).

Ora la mia domanda è questa. Questo SP riesce a eseguire in un ciclo di clock:
- 4 operazioni MAD+MUL e 1 di altro tipo(sin,cos,log)?
- 4 operazioni MAD+MUL?
- 1 operazione di altro tipo?

desmacker
06-09-2007, 19:43
Non puoi confrontare i 320 geometry shaders della HD2900XT con i 48 Pixel Shaders della X1900XT, come non puoi confrontare i 128 Stream Shaders della 8800GTX con i 24 Pixel Shaders della 7900GTX, in quanto sono strutture di calcolo diverse. Non voglio entrare nei dettagli di performance onde evitare di fomentare una flame war in un topic come questo, quindi faccio solo riferimento al prezzo a cui viene venduta la HD2900XT.

Ora come ora viene venduta allo stesso prezzo di una 8800GTS 640MB, ma questo secondo me non era nei piani della ATI. La mia impressione, visto le caratteristiche tecniche, é che in fase di progettazione l'obiettivo era di venderla al prezzo della Ultra, ma quando sono usciti i primi prototipi hanno dovuto ridimensionare le pretese.

Probabilmente l'architettura della GPU é risultata inefficiente, magari per un collo di bottiglia imprevisto (in fase di progettazione é difficile prevedere le performance ad alto livello con il software).

ATI ha sottovalutato il periodo di transizione da dx9 a dx10 ,l'architettura si è dimostrata del tutto inadeguata a questo periodo,Ati si accorta dell' errore ma ormai era troppo tardi ha dovuto per forza abbassare il prezzo della HD2900xt posizionandola come fascia a livello della 8800gts.
A livello di prestazioni per evitare montagne russe con i driver ha dovuto intervenire per mascherare i difetti dell' architettura.
Ati con le prossime GPU dovrebbe risolvere il collo di bottiglia delle texture e ROPs,permettendo così di sfruttare degnamente il bus a 512 bit.

Vifani
06-09-2007, 20:40
Mi inserisco nella discussione...perchè vorrei capire una cosa a riguardo di R600.
Questo chip ha 320SP divisi in 4 blocchi e ognuno di questi possiede una memoria cache. Questo blocco contiene quindi 80SP divise in altri sottoblocchi da 16SP ciascuno.
Ciascun SP è una unità di tipo vettoriale di dimensione 5(4+1 se non erro, 4 unità MAD/MUL e 1 di altro tipo).

Ora la mia domanda è questa. Questo SP riesce a eseguire in un ciclo di clock:
- 4 operazioni MAD+MUL e 1 di altro tipo(sin,cos,log)?
- 4 operazioni MAD+MUL?
- 1 operazione di altro tipo?

http://www.beyond3d.com/content/reviews/16/8 ;)

appleroof
06-09-2007, 22:51
cut

Suvvia siamo seri, probabilmente la loro la diranno, ma tra 1 anno il confronto 2900 XT vs 8800 sarà già bello che morto ed allora non avrà più senso.

cut

amen.

Pat77
07-09-2007, 00:08
Se è veramente così hanno letteralmente cannato il progetto perché l'azienda ATI si era fatta un nome in passato sulle prestazioni e sulla qualità del suo antialiasing che praticamente fin dai tempi di R300 ha sempre garantito un impatto sulle prestazioni inferiore a quello dei chip GeForce ed una qualità molto elevata. Oggi invece a causa di una "scelta" (?) di questo tipo si ritrovano una scheda che quando attivi l'AA muore letteralmente. Secondo me è un errore.

Tra l'altro tu ritieni veramente che abbia senso sviluppare un'architettura così dannatamente proiettata sul futuro sacrificando pesantemente il presente? Pensi veramente che le schede X2900 quando usciranno i giochi realmente DX10 (termine con il quale non intendo i giochi che "usano" i geometry shaders, ma proprio quelli che innovano con questi nuovi strumenti) potranno dire la loro?

Suvvia siamo seri, probabilmente la loro la diranno, ma tra 1 anno il confronto 2900 XT vs 8800 sarà già bello che morto ed allora non avrà più senso.

La verità è che hanno fatto un errore perché un'architettura vincente è una come quella di R300 che è stato velocissimo appena uscito ed ha permesso di giocare tranquillamente ai giochi veramente DX9 come Far Cry, usciti oltre 1 anno dopo la sua presentazione.

La questione, che abbiamo discusso anche via messanger, è se si potrà fare e come FSAA sui nuovi engine in vista e dx10, quello via rop's ha qualche limite di utilizzo, quello via shaders no.
Detto questo la scheda non muore con fsaa, ne' ha prestazioni scadenti in dx9, la scelta di incentrare tutto sulle nuove api è vero, ha penalizzato un po' le prestazioni assolute in questi ambiti, ma penso che sia più importante la longevità futura, e comunque si inserisce tra la 8800 640 e la gtx.
R300 penso che sia in assoluto, insieme a voodoo1, il chip meglio riuscito e longevo, r600 mi pare simile alla situazione delle 8500, anche loro perdevano con fsaa, anche loro si collocavanao tra la ti 200 e ti 500, ma come loro spero sia la longevità futura.

Tidus.hw
07-09-2007, 01:20
a fine agosto è uscito Bioshock e sono stati fatti vari test ed è venuto fuori che in dx9 la HD 2900XT come prestazioni si trova a metà tra la 8800GTX e la 8800Ultra staccando di netto la 8800GTS e forse questo è dovuto al fatto che il gioco non permette di attivare l'AA e secondo il gioco fa un uso intensivo di shader di lunghe istruzione dove R600 si esalta.
Di Contro le prestazioni in dx 10 crollano verticalmente facendola(la HD 2900XT)andare come prestazione leggermente sotto una 8800GTS 320.
Le prestazioni della scheda sotto vista NON crollano perchè ci sono le dx10 attivate, ma per colpa di vista, infatti se forzi il gioco in dx9 ottieni solo pocchissimi fps in più rispetto alle dx10... e molti meno rispetto a xp.

Athlon 64 3000+
07-09-2007, 09:44
Le prestazioni della scheda sotto vista NON crollano perchè ci sono le dx10 attivate, ma per colpa di vista, infatti se forzi il gioco in dx9 ottieni solo pocchissimi fps in più rispetto alle dx10... e molti meno rispetto a xp.

Interessante visto che questo non lo sapevo,può essere che oltre a vista possa anche essere un problema di Driver.

_Aenea_
07-09-2007, 09:49
Penso che alla fine sia un vero e proprio "cocktail" di problemi che vanno a minare questa gran bella scheda:

Windows Vista, che, diciamocelo, è un macigno con evidenti problemi di driver e ottimizzazioni;

I driver non ottimizzati nella dovuta maniera, anche se ultimamente hanno guadagnato ulteriore terreno;

L'architettura di questa scheda non è forse eccelsa;

:(

Pat77
07-09-2007, 09:58
Le prestazioni della scheda sotto vista NON crollano perchè ci sono le dx10 attivate, ma per colpa di vista, infatti se forzi il gioco in dx9 ottieni solo pocchissimi fps in più rispetto alle dx10... e molti meno rispetto a xp.

Io passo da 45 di media a 60 su -dx9, la differenza c'è, su xp si toccheranno i 75 di media a 1440x900.

ATi7500
07-09-2007, 10:10
La questione, che abbiamo discusso anche via messanger, è se si potrà fare e come FSAA sui nuovi engine in vista e dx10, quello via rop's ha qualche limite di utilizzo, quello via shaders no.
Detto questo la scheda non muore con fsaa, ne' ha prestazioni scadenti in dx9, la scelta di incentrare tutto sulle nuove api è vero, ha penalizzato un po' le prestazioni assolute in questi ambiti, ma penso che sia più importante la longevità futura, e comunque si inserisce tra la 8800 640 e la gtx.
R300 penso che sia in assoluto, insieme a voodoo1, il chip meglio riuscito e longevo, r600 mi pare simile alla situazione delle 8500, anche loro perdevano con fsaa, anche loro si collocavanao tra la ti 200 e ti 500, ma come loro spero sia la longevità futura.

io non capisco cosa esattamente ti fa valutare la longevita' di R600 superiore a quella di G80.. me lo spieghi?

bYeZ!

Athlon 64 3000+
07-09-2007, 10:21
La questione, che abbiamo discusso anche via messanger, è se si potrà fare e come FSAA sui nuovi engine in vista e dx10, quello via rop's ha qualche limite di utilizzo, quello via shaders no.
Detto questo la scheda non muore con fsaa, ne' ha prestazioni scadenti in dx9, la scelta di incentrare tutto sulle nuove api è vero, ha penalizzato un po' le prestazioni assolute in questi ambiti, ma penso che sia più importante la longevità futura, e comunque si inserisce tra la 8800 640 e la gtx.
R300 penso che sia in assoluto, insieme a voodoo1, il chip meglio riuscito e longevo, r600 mi pare simile alla situazione delle 8500, anche loro perdevano con fsaa, anche loro si collocavanao tra la ti 200 e ti 500, ma come loro spero sia la longevità futura.

personalmente ritengo che una 8800GTX e una HD2900XT hanno la stessa longevità sopratutto perchè nei giochi shader intensive come Bioshock R600 pareggio G80 e in dx 10 al massimo sarà poco più veloce.

Pat77
07-09-2007, 10:35
io non capisco cosa esattamente ti fa valutare la longevita' di R600 superiore a quella di G80.. me lo spieghi?

bYeZ!

Il fatto di essere un'architettura più evoluta, fattore che paga in longevità, vedesi le 6800 che oggi fanno girare titoli inaccessibili alle x800 a cuasa dei sm3.

ATi7500
07-09-2007, 11:00
Il fatto di essere un'architettura più evoluta, fattore che paga in longevità, vedesi le 6800 che oggi fanno girare titoli inaccessibili alle x800 a cuasa dei sm3.

In cosa e' piu' evoluta di G80 scusa? A me pare solo "diversa" e parecchio meno efficiente (mi ricorda lo stesso approccio usato da Intel per gli Itanium, parallelismo a livelli assurdi ma prestazioni molto ridotte rispetto alle potenzialita' su carta)

bYeZ!

Billi16
07-09-2007, 11:03
In cosa e' piu' evoluta di G80 scusa? A me pare solo "diversa" e parecchio meno efficiente (mi ricorda lo stesso approccio usato da Intel per gli Itanium, parallelismo a livelli assurdi ma prestazioni molto ridotte rispetto alle potenzialita' su carta)

bYeZ!

quoto
ora come ora non si può stabilire quale delle 2 architetture sia più avanzata
si può solo dire,in linea teorica,che ati dovrebbe essere favorità nel calcolo degli shader (discorso dell'aa a parte) e nvidia,invece,sul calcolo poligonale
concordo anche sul fatto che l'architettura delle schede ati è abbastanza sbilanciata...

nico88desmo
07-09-2007, 11:13
http://www.beyond3d.com/content/reviews/16/8 ;)

Se non ho capito male quindi riesce a fare 5 istruzioni per clock..però il problema principale è relativo alla programmazione del driver perchè deve mettere in ordine le operazioni che il thread deve eseguire.

R600 ha 256SP equiparabili con G80 (4 per cluster che hanno funzione di MAD,MUL,ADD,DP..come appunto quelli nVidia).
Le frequenze di G80 per gli SP sono di 1350Mhz mentre quelli di ATI 740Mhz.
Quindi la velocità di esecuzione delle operazioni ha un rapporto di 1350/740=1.82 operazioni per secondo in favore di nVidia. Se moltiplico questo rapporto per il numero di SP di G80 risulta 1.82*128 ~= 233.
Si può dire quindi che G80 ha 233 SP contro i 256 SP ATI? E' un paragone equo?
Tenendo in conto sempre che R600 possiede altri 80SP "speciali"...che permettono di fare in un ciclo di clock operazioni (sin, cos) in cui G80 impiega 5 cicli di clock.

Spero di essermi spiegato.

nico88desmo
07-09-2007, 11:17
quoto
ora come ora non si può stabilire quale delle 2 architetture sia più avanzata
si può solo dire,in linea teorica,che ati dovrebbe essere favorità nel calcolo degli shader (discorso dell'aa a parte) e nvidia,invece,sul calcolo poligonale
concordo anche sul fatto che l'architettura delle schede ati è abbastanza sbilanciata...

Non ricordo in quale sito...però mi sembra che con il prossimo chip high-end nVidia utilizzerà una struttura 2+1 per gli SP (2SP trad. + 1SP per funzioni speciali) raddoppiando gli SP attuali..quindi 256 di tipo 2+1.
Dovrebbe mantenere invariato il quantitavo di ROPS e TU invece.

Pat77
07-09-2007, 11:21
In cosa e' piu' evoluta di G80 scusa? A me pare solo "diversa" e parecchio meno efficiente (mi ricorda lo stesso approccio usato da Intel per gli Itanium, parallelismo a livelli assurdi ma prestazioni molto ridotte rispetto alle potenzialita' su carta)

bYeZ!

Nel memory controller, nei Geometry Shaders e parte avantaggiata in un possibile utilizzo futuro del fsaa via Shaders.

Billi16
07-09-2007, 11:24
Nel memory controller, nei Geometry Shaders e parte avantaggiata in un possibile utilizzo futuro del fsaa via Shaders.

secondo me si tratta pur sempre di un vantaggio teorico dell'architettura di ati...
dipende in che direzione si muoveranno i futuri giochi;da questo potrebbe dipendere la predominanza di una delle 2 archittetture sull'altra;)
ora come ora questa "predominanza" la possiede nvidia con la sua 8800,ovvio che non si tratti di chissà quale differenza...;)

Pat77
07-09-2007, 11:33
secondo me si tratta pur sempre di un vantaggio teorico dell'architettura di ati...
dipende in che direzione si muoveranno i futuri giochi;da questo potrebbe dipendere la predominanza di una delle 2 archittetture sull'altra;)
ora come ora questa "predominanza" la possiede nvidia con la sua 8800,ovvio che non si tratti di chissà quale differenza...;)

Sicuramente, io vedo più probabile uno scenario di titoli shaders intensive.

Billi16
07-09-2007, 11:41
Sicuramente, io vedo più probabile uno scenario di titoli shaders intensive.

probabile che sia così;)
ma anche la capacità poligonale di una scheda tutt'oggi,non è da sottovalutare...
se vai a vedere il fill rate di una hd2900xt non è altro che quello di una x1950xtx overcloccata...
da ciò deduco che ati a questa generazione abbi sottovalutato questo fattore
nvidia,invece,ha pensato anche ad aumentare le rops della sua scheda,passando da 24 a 32...,un aumento piuttosto esiguo,ma che secondo me a contribuito notevolmente alla velocità delle 8800...
credo che se la 8800 avesse le stesse capacità poligonali di r600 sarebbe indubbiamente la più lenta tra le due...

ATi7500
07-09-2007, 12:03
Nel memory controller, nei Geometry Shaders e parte avantaggiata in un possibile utilizzo futuro del fsaa via Shaders.

l'AA via shader puo' farlo anche G80, per via della totale programmabilita' degli stessi. Nel memory controller e' avvantaggiata solo da certi punti di vista, nel senso che R600 deve essere ottimizzato praticamente per ogni applicazione, mentre di "default" il Memory controller non rende come il Crossbar

bYeZ!

Pat77
07-09-2007, 12:14
l'AA via shader puo' farlo anche G80, per via della totale programmabilita' degli stessi. Nel memory controller e' avvantaggiata solo da certi punti di vista, nel senso che R600 deve essere ottimizzato praticamente per ogni applicazione, mentre di "default" il Memory controller non rende come il Crossbar

bYeZ!

La differenza è che g80 è pensato per farlo via rops, r600 via shaders, in quest'ambito è probabile che debba recuperare se il via shaders andrà per la maggiore.
Oltre a essere più sofisticato è anche più ampio.

ATi7500
07-09-2007, 13:44
La differenza è che g80 è pensato per farlo via rops, r600 via shaders, in quest'ambito è probabile che debba recuperare se il via shaders andrà per la maggiore.
Oltre a essere più sofisticato è anche più ampio.

guarda che l'antialiasing non deve essere "pensato" via shader o via ROPS, basta mettere la circuiteria e ci siamo. Cioe' al momento non c'e' nessuna recensione che dimostri che l'AA via shader di R600 sia piu' performante rispetto a quello di G80, non vedo quindi come fai ad essere cosi' sicuro..
Per l'ampiezza del bus, ti porto l'esempio dell'HyperTransport AMD. Un macello di banda passante, 2GHz di frequenza virtuale, e poi se lo abbassi a 600MHz non perdi NULLA :)
Insomma a che serve tutta questa banda se poi non e' sfruttata? non mi dirai che credi ancora ai numerini sparati per far scena :)

bYeZ!

Vifani
07-09-2007, 13:48
Se non ho capito male quindi riesce a fare 5 istruzioni per clock..però il problema principale è relativo alla programmazione del driver perchè deve mettere in ordine le operazioni che il thread deve eseguire.

R600 ha 256SP equiparabili con G80 (4 per cluster che hanno funzione di MAD,MUL,ADD,DP..come appunto quelli nVidia).
Le frequenze di G80 per gli SP sono di 1350Mhz mentre quelli di ATI 740Mhz.
Quindi la velocità di esecuzione delle operazioni ha un rapporto di 1350/740=1.82 operazioni per secondo in favore di nVidia. Se moltiplico questo rapporto per il numero di SP di G80 risulta 1.82*128 ~= 233.
Si può dire quindi che G80 ha 233 SP contro i 256 SP ATI? E' un paragone equo?
Tenendo in conto sempre che R600 possiede altri 80SP "speciali"...che permettono di fare in un ciclo di clock operazioni (sin, cos) in cui G80 impiega 5 cicli di clock.

Spero di essermi spiegato.

Diciamo che questo confronto è plausibile, però non tiene conto di una marea di fattori a noi non noti tra cui proprio l'ottimizzazione delle istruzioni VLIW che deve essere eseguita sull'hardware ATI dal driver. Tra l'altro questo discorso mette in evidenza che in linea di massima l'architettura di ATI è meno "generica" di quella di NVIDIA, nel senso che è troppo dipendente dal modo in cui sono fatti gli shader in ogni gioco e dal modo in cui il driver li ottimizza, mentre in G8x le possibilità di sfruttare al 100% le varie unità di calcolo sono superiori.

In ogni caso, ripeto, secondo me il problema non solo è nelle unità di calcolo degli shaders, ma anche nel sottodimensionamento di ROPs e TMUs.

Vifani
07-09-2007, 13:50
Nel memory controller, nei Geometry Shaders e parte avantaggiata in un possibile utilizzo futuro del fsaa via Shaders.

Quando si farà uso intensivo di geometry shaders, R600 sarà dimenticato. Un chip grafico che esce in un periodo deve essere competitivo nel suo ciclo di vita, non in quello di una o due generazioni dopo dove ci saranno chip molto più veloci e che scalderanno/consumeranno molto meno.

Vifani
07-09-2007, 13:54
guarda che l'antialiasing non deve essere "pensato" via shader o via ROPS, basta mettere la circuiteria e ci siamo. Cioe' al momento non c'e' nessuna recensione che dimostri che l'AA via shader di R600 sia piu' performante rispetto a quello di G80, non vedo quindi come fai ad essere cosi' sicuro..
Per l'ampiezza del bus, ti porto l'esempio dell'HyperTransport AMD. Un macello di banda passante, 2GHz di frequenza virtuale, e poi se lo abbassi a 600MHz non perdi NULLA :)
Insomma a che serve tutta questa banda se poi non e' sfruttata? non mi dirai che credi ancora ai numerini sparati per far scena :)

bYeZ!

Beh però ci sono situazioni di picco in cui tale banda può essere presente. Fare i test sul proprio sistemino di casa non ha molto senso. Prova a fare i test in sistemi multiprocessore dove il bus HT li collega tutti verso un gruppo di periferiche e vedi che la situazione si affolla, specie con tante periferiche veloci: dischi SCSI a 15.000 rpm, controller Gigabit di rete, ecc... AMD con i suoi processori ha scelto quella vita principalmente pensando al mercato server e workstation. Se ce li ritroviamo sul mercato desktop è perché il core K8 è lo stesso e l'HT ha il grande vantaggio di non essere un bus costoso, quindi adatto anche per le motherboard desktop.

ATi7500
07-09-2007, 14:02
Beh però ci sono situazioni di picco in cui tale banda può essere presente. Fare i test sul proprio sistemino di casa non ha molto senso. Prova a fare i test in sistemi multiprocessore dove il bus HT li collega tutti verso un gruppo di periferiche e vedi che la situazione si affolla, specie con tante periferiche veloci: dischi SCSI a 15.000 rpm, controller Gigabit di rete, ecc... AMD con i suoi processori ha scelto quella vita principalmente pensando al mercato server e workstation. Se ce li ritroviamo sul mercato desktop è perché il core K8 è lo stesso e l'HT ha il grande vantaggio di non essere un bus costoso, quindi adatto anche per le motherboard desktop.

sisi non l'ho detto ma l'ho pensato :D
Ovviamente mi riferivo all'utente consumer

bYeZ!

Athlon 64 3000+
07-09-2007, 14:06
Diciamo che questo confronto è plausibile, però non tiene conto di una marea di fattori a noi non noti tra cui proprio l'ottimizzazione delle istruzioni VLIW che deve essere eseguita sull'hardware ATI dal driver. Tra l'altro questo discorso mette in evidenza che in linea di massima l'architettura di ATI è meno "generica" di quella di NVIDIA, nel senso che è troppo dipendente dal modo in cui sono fatti gli shader in ogni gioco e dal modo in cui il driver li ottimizza, mentre in G8x le possibilità di sfruttare al 100% le varie unità di calcolo sono superiori.

In ogni caso, ripeto, secondo me il problema non solo è nelle unità di calcolo degli shaders, ma anche nel sottodimensionamento di ROPs e TMUs.

Quello di uscire cosi con R600 per ATI è stata un scelta precisa con un sbilanciamento verso il calcolo deglio shader di lunghe istruzioni e con una grande capacità poligonale ma carente per quanto rigurda le texture e le rop's e con l'incognità AA.
Per vedere come è ottimo la hd 2900XT basta vedere Bioshock dove riesce a pareggiare la 8800GTX e penso che nei giochi dove ci sarà un uso intensivo di Shader andrà molto bene.
IL G80 invece è venuto un chip molto equilibravo con una gran potenza riguardo le texture ma ottimo anche nell'uso intensivo degli shader.

Pat77
07-09-2007, 14:42
guarda che l'antialiasing non deve essere "pensato" via shader o via ROPS, basta mettere la circuiteria e ci siamo. Cioe' al momento non c'e' nessuna recensione che dimostri che l'AA via shader di R600 sia piu' performante rispetto a quello di G80, non vedo quindi come fai ad essere cosi' sicuro..
Per l'ampiezza del bus, ti porto l'esempio dell'HyperTransport AMD. Un macello di banda passante, 2GHz di frequenza virtuale, e poi se lo abbassi a 600MHz non perdi NULLA :)
Insomma a che serve tutta questa banda se poi non e' sfruttata? non mi dirai che credi ancora ai numerini sparati per far scena :)

bYeZ!

Semplicemente penso che se un architettura è stata pensata specificatamente per farlo via rop's sia performante in quella condizione, mentre un'altra che scegli la via degli Shaders sia avantaggiata in quell'ambito, anche solo per i mesi di vantaggio di sviluppo di tale modalità.

Pat77
07-09-2007, 14:46
Quando si farà uso intensivo di geometry shaders, R600 sarà dimenticato. Un chip grafico che esce in un periodo deve essere competitivo nel suo ciclo di vita, non in quello di una o due generazioni dopo dove ci saranno chip molto più veloci e che scalderanno/consumeranno molto meno.

Di certo non sarà sulla bocca di tutti, ma se fosse sufficentemente capace di garantire un buon gameplay, magari abbassando il dettaglio, non vedo perchè questo debba essere considerato meno del tutto-subito.
Per me la longevità è uno dei fattori più importanti, poi ognuno ha le sue priorità.

appleroof
07-09-2007, 14:51
Di certo non sarà sulla bocca di tutti, ma se fosse sufficentemente capace di garantire un buon gameplay, magari abbassando il dettaglio, non vedo perchè questo debba essere considerato meno del tutto-subito.
Per me la longevità è uno dei fattori più importanti, poi ognuno ha le sue priorità.

se sei disposto a compromessi, più o meno forti ora è impossibile quantficare con precisione per i lfuturo, allora g80 è longevo quanto r600, così come nel tuo esempio le x8xx lo sono state e lo sono quanto le 6xxx

se non sei disposto a compromessi, tanto r600 quanto g80 tra un anno o più di sicuro non sono nel tuo case

nico88desmo
07-09-2007, 15:30
R600 è stato un azzardo...e come tale ATI ha pagato.
Questo chip ha un'architettura sicuramente proiettata di più al futuro, però c'è troppo lavoro per l'ottimizzazione sia per la gestione del bus, sia per la gestione dei thread.
Come ha detto Vifani, in informatica è alquanto azzardato parlare di futuro, dato che nuovi chip e nuove schede verranno fuori entro un anno o meno.
G80 è da un anno che è in circolazione e ha permesso e permetterà,da come dicono, di giocare ai nuovi giochi in modo fluido(almeno spero...attendo crysis)..anche se forse ci vorrà qualche compromesso.
Questa la mia conclusione per questa gen. di schede video.

desmacker
07-09-2007, 20:23
In ogni caso, ripeto, secondo me il problema non solo è nelle unità di calcolo degli shaders, ma anche nel sottodimensionamento di ROPs e TMUs.


Quando si farà uso intensivo di geometry shaders, R600 sarà dimenticato. Un chip grafico che esce in un periodo deve essere competitivo nel suo ciclo di vita, non in quello di una o due generazioni dopo dove ci saranno chip molto più veloci e che scalderanno/consumeranno molto meno.

Quoto.

Kharonte85
07-09-2007, 23:19
Io credo che Vifani abbia ragione...e finalmente abbiamo sentito il suo parere (ma forse era sfuggito a me :fagiano: ) su una faccenda che si dibatte da quando è uscita la hd2900xt.

Fra l'altro aggiungo che a riprova di quanto detto che gli stessi difetti o limitazioni (chiamatele un po' come volete) sono state ereditate dalla fascia media e bassa uscite successivamente, quindi cosa poteva mai essere se non l'architettura?

Piu' difficile capire il perche' a questo giro ATI abbia un po' toppato...forse si spiega solo con

http://upload.wikimedia.org/wikipedia/commons/b/ba/Errare_humanum_est.jpg

ma stete certi che non ci sarà perseverazione alla prossima tornata (o almeno lo spero per il bene della concorrenza)

Vifani
07-09-2007, 23:29
Io credo che Vifani abbia ragione...e finalmente abbiamo sentito il suo parere (ma forse era sfuggito a me :fagiano: ) su una faccenda che si dibatte da quando è uscita la hd2900xt.

Fra l'altro aggiungo che a riprova di quanto detto che gli stessi difetti o limitazioni (chiamatele un po' come volete) sono state ereditate dalla fascia media e bassa uscite successivamente, quindi cosa poteva mai essere se non l'architettura?

Piu' difficile capire il perche' a questo giro ATI abbia un po' toppato...forse si spiega solo con

http://upload.wikimedia.org/wikipedia/commons/b/ba/Errare_humanum_est.jpg

ma stete certi che non ci sarà perseverazione alla prossima tornata (o almeno lo spero per il bene della concorrenza)

Beh però attenzione, io non penso che le schede 2600 e 2400 siano dei cattivi prodotti. Al contrario di R600, infatti, questi non solo hanno un ottimo rapporto prezzo/prestazioni (cosa che appunto hanno anche le schede 2900), ma consumano anche poco e risultano essere molto competitive nei confronti delle avversarie. Qui c'è anche da dire che le schede 8600 di NVIDIA non hanno decisamente convinto fin dalla loro introduzione. In ogni caso ATI sta avendo un buon successo commerciale nella fascia medio-bassa del mercato a riprova della bonta di questi prodotti.

ATi7500
07-09-2007, 23:50
Beh però attenzione, io non penso che le schede 2600 e 2400 siano dei cattivi prodotti. Al contrario di R600, infatti, questi non solo hanno un ottimo rapporto prezzo/prestazioni (cosa che appunto hanno anche le schede 2900), ma consumano anche poco e risultano essere molto competitive nei confronti delle avversarie. Qui c'è anche da dire che le schede 8600 di NVIDIA non hanno decisamente convinto fin dalla loro introduzione. In ogni caso ATI sta avendo un buon successo commerciale nella fascia medio-bassa del mercato a riprova della bonta di questi prodotti.

Iio credo invece che la 2900XT sia l'unica, nella gamma, ad avere il migliore rapporto prezzo prestazioni.. Le HD2600Pro e XT sono schede "budget" e sono "strette" nella morsa (di prezzo e di prestazioni) tra 8600GT e 8600GTS, e tra queste ultime non c'è chissà quale differenza. Per cui se uno vuole risparmiare, si fa direttamente la 8600GT ke va comunque di più rispetto alla 2600Pro, e per chi vuole "abbondare", beh, la 8600GTS scartavetra la 2600XT, sopratutto nei giochi che richiedono un fillrate ed un texrate elevato. Inoltre le 8600 perdono molto meno (in proporzione) con AA attivato. Gli unici due punti su cui le vedo in vantaggio sono le prestazioni migliorabili coi driver e l'eccelso UVD.


bYeZ!

Kharonte85
07-09-2007, 23:51
Beh però attenzione, io non penso che le schede 2600 e 2400 siano dei cattivi prodotti. Al contrario di R600, infatti, questi non solo hanno un ottimo rapporto prezzo/prestazioni (cosa che appunto hanno anche le schede 2900), ma consumano anche poco e risultano essere molto competitive nei confronti delle avversarie. Qui c'è anche da dire che le schede 8600 di NVIDIA non hanno decisamente convinto fin dalla loro introduzione. In ogni caso ATI sta avendo un buon successo commerciale nella fascia medio-bassa del mercato a riprova della bonta di questi prodotti.
Perche' sono meno le esigenze...viene meno l'esigenza di usare filtri ecc...ma le prove hanno dimostrato che le mancanze da te sottolineate si ripresentano ( il confronto con la precedente generazione è schiacciante...anche solo con una x1650xt si tiene testa ad una hd2600xt)

Il grande vantaggio di queste schede è che Nvidia ha fatto solo poco meglio...ma si fa pagare di piu'

Mister Tarpone
07-09-2007, 23:58
Beh però attenzione, io non penso che le schede 2600 e 2400 siano dei cattivi prodotti. Al contrario di R600, infatti, questi non solo hanno un ottimo rapporto prezzo/prestazioni (cosa che appunto hanno anche le schede 2900), ma consumano anche poco e risultano essere molto competitive nei confronti delle avversarie. Qui c'è anche da dire che le schede 8600 di NVIDIA non hanno decisamente convinto fin dalla loro introduzione[/U]. In ogni caso ATI sta avendo un buon successo commerciale nella fascia medio-bassa del mercato a riprova della bonta di questi prodotti.

a me delle 2600 han colpito questi risultati qui:

http://img408.imageshack.us/img408/3950/fearaa4an16averageph6.png (http://imageshack.us)

http://img529.imageshack.us/img529/7407/oblivion1024hdraaiy3.png (http://imageshack.us)

e una 8600gt costa nemmeno 100€, consuma uguale, va meglio nei giochi ed è mooooolto più compatta di una 2600xt ddr4 da 125€.

Anche in questa fascia sono meglio le nvidia.

desmacker
08-09-2007, 08:21
Se si usa l'AA nei bench qualsiasi scheda HD2xxx crolla come prestazioni.

desmacker
08-09-2007, 09:47
Beh però attenzione, io non penso che le schede 2600 e 2400 siano dei cattivi prodotti. Al contrario di R600, infatti, questi non solo hanno un ottimo rapporto prezzo/prestazioni (cosa che appunto hanno anche le schede 2900), ma consumano anche poco e risultano essere molto competitive nei confronti delle avversarie. Qui c'è anche da dire che le schede 8600 di NVIDIA non hanno decisamente convinto fin dalla loro introduzione. In ogni caso ATI sta avendo un buon successo commerciale nella fascia medio-bassa del mercato a riprova della bonta di questi prodotti.
Il mio punto di vista è diverso.
Questi non sono cattivi prodotti se non si gioca a titoli che usano motori grafici di ultima generazione.
I problemi in fatto di prestazioni sono gli stessi dell'R600 e non permettono l'utilizzo normale dell'AA anche con giochi già usciti,mentre con la 8600 riesci ad attivarli con fps almeno decenti,la fascia medio-bassa è più bassa che media , più escono titoli recenti e più risultano obsolete.
L'unico motivo per acquistare le HD2600 rispetto alle schede 8600 di Nvidia è per l' UVD,praticamente sono schede per sistemi Media Center.
Utilizzare queste schede con un motore come UE3 con fps accettabili può diventare un'impresa,che sia responsabilità dei produttori di GPU o delle software house il risultato è comunque negativo per gli utenti,che pensavano di avere tra le mani una buona scheda video e invece sono costretti a puntare sulla fascia medio-alta.

Vifani
08-09-2007, 10:19
Perche' sono meno le esigenze...viene meno l'esigenza di usare filtri ecc...ma le prove hanno dimostrato che le mancanze da te sottolineate si ripresentano ( il confronto con la precedente generazione è schiacciante...anche solo con una x1650xt si tiene testa ad una hd2600xt)

Il grande vantaggio di queste schede è che Nvidia ha fatto solo poco meglio...ma si fa pagare di piu'

Scusate ma su una scheda da 100 euro che senso ha fare i test con i filtri? Se uno si compra una scheda da 100 euro è molto più importante che vada bene senza filtri e non con i filtri. Quindi questi ultimi risultati non li considero minimamente in questa fascia di prezzo.

Gabriyzf
08-09-2007, 11:06
L'unico motivo per acquistare le HD2600 rispetto alle schede 8600 di Nvidia è per l' UVD,praticamente sono schede per sistemi Media Center.


io direi che è ora di sfatare il mito dell'uvd: il purevideo hd delle 8x00 è vicinissimo sia in qualità che in accelerazione video

http://www.guru3d.com/article/Videocards/443/

Mister Tarpone
08-09-2007, 12:15
Il mio punto di vista è diverso.
Questi non sono cattivi prodotti se non si gioca a titoli che usano motori grafici di ultima generazione.
I problemi in fatto di prestazioni sono gli stessi dell'R600 e non permettono l'utilizzo normale dell'AA anche con giochi già usciti,mentre con la 8600 riesci ad attivarli con fps almeno decenti,la fascia medio-bassa è più bassa che media , più escono titoli recenti e più risultano obsolete.
L'unico motivo per acquistare le HD2600 rispetto alle schede 8600 di Nvidia è per l' UVD,praticamente sono schede per sistemi Media Center.
Utilizzare queste schede con un motore come UE3 con fps accettabili può diventare un'impresa,che sia responsabilità dei produttori di GPU o delle software house il risultato è comunque negativo per gli utenti,che pensavano di avere tra le mani una buona scheda video e invece sono costretti a puntare sulla fascia medio-alta.


Mica vero!!! gli ultimi 2 giochi che ho provato girano perfettamente in 1280x con dettagli massimi, con una 8600.. e sono giochi nuovissimi!! Medal of honor airborne e Bioshock :oink: !! due titoli che sfruttano proprio UE3 ;)
mica male... un Colin dirt che è uscito molto prima è più pesante di questi per es...
Cmq vabbè... sicuramente quando arriverà un Crysis ci sarà da piange con ste schedine (ma anche con tante altre..) :asd:

nico88desmo
08-09-2007, 12:23
Scusate ma su una scheda da 100 euro che senso ha fare i test con i filtri? Se uno si compra una scheda da 100 euro è molto più importante che vada bene senza filtri e non con i filtri. Quindi questi ultimi risultati non li considero minimamente in questa fascia di prezzo.

Per fare un confronto più aggiornato...si potrebbe fare una mini-recensione con driver attuali o con la prossima release?
Includendo anche Bioshock magari :).
Giusto per capire il nuovo posizionamento delle schede AMD.

Mister Tarpone
08-09-2007, 12:28
Per fare un confronto più aggiornato...si potrebbe fare una mini-recensione con driver attuali o con la prossima release?
Includendo anche Bioshock magari :).
Giusto per capire il nuovo posizionamento delle schede AMD.

se vai nel thread tecnico di bioshock ..in prima pagina trovi i test in dx9/dx10 fatti con queste schedine :)

ciao :)

Kharonte85
08-09-2007, 12:39
Scusate ma su una scheda da 100 euro che senso ha fare i test con i filtri? Se uno si compra una scheda da 100 euro è molto più importante che vada bene senza filtri e non con i filtri.
Infatti, se rileggi quello che ho scritto vedi che la pensiamo uguale...anche se le 8600 c'è da dire che sono superiori anche senza filtri (in questo senso non hanno centrato l'obbiettivo (che doveva essere la nuova fascia media :doh: ), ma nonostante cio' le vendite vanno bene perche' l'hanno posizionata in una fascia + bassa di prezzo)

Quindi questi ultimi risultati non li considero minimamente in questa fascia di prezzo.
Questi risultati invece servono ad evidenziare che i difetti di architettura sono stati ereditati, ma siccome come hai detto tu le esigenze in questa fascia sono meno è piu' difficile che si verifichino quelle condizioni (ES: l'attivazione di AA)

PS: in quella fascia di prezzo è una buona scheda (tanto e' vero che questa estate ne ho fatta comprare una (hd2600xt a 100euri) per mio cugino :D )

nico88desmo
08-09-2007, 12:41
se vai nel thread tecnico di bioshock ..in prima pagina trovi i test in dx9/dx10 fatti con queste schedine :)

ciao :)

Bene...allora sono apposto! Grazie! :D

desmacker
08-09-2007, 19:34
io direi che è ora di sfatare il mito dell'uvd: il purevideo hd delle 8x00 è vicinissimo sia in qualità che in accelerazione video

http://www.guru3d.com/article/Videocards/443/

L'HD2600xt rispetto 8600gts e perdente nei giochi DX10 o abilitando l'AA da questo deriva la mia affermazione sull'UVD e sull'utilizzo come media center.

Pat77
08-09-2007, 20:20
L'HD2600xt rispetto 8600gts e perdente nei giochi DX10 o abilitando l'AA da questo deriva la mia affermazione sull'UVD e sull'utilizzo come media center.

Hd 2600xt in dx10, come hd2900xt, non è affatto perdente.
Sono usciti i 7.9 beta sotto forma di hotfix per quake wars e pare siano un'altro passo nella giusta direzione.

desmacker
08-09-2007, 20:59
Mica vero!!! gli ultimi 2 giochi che ho provato girano perfettamente in 1280x con dettagli massimi, con una 8600.. e sono giochi nuovissimi!! Medal of honor airborne e Bioshock :oink: !! due titoli che sfruttano proprio UE3 ;)
mica male... un Colin dirt che è uscito molto prima è più pesante di questi per es...
Cmq vabbè... sicuramente quando arriverà un Crysis ci sarà da piange con ste schedine (ma anche con tante altre..) :asd:

Ti ringrazio per il tuo intervento,ho visto i bench di Bioshock :oink: ma ritengo ugualmente che un livello prestazionale in dx10 più alto (questo discorso è valido sopratutto per la HD2600xt) per le schede di questa fascia sia necessario per aumentarne la longevità evitando così di chiamarle di fascia medio-bassa quando dovrebbero essere di fascia media.
Quando arriverà Crysis le metterà in crysi (:cry: ) tutte non solo quelle di questa fascia, spero però che il motore sia molto (:sofico: ) scalabile.

desmacker
08-09-2007, 21:16
Hd 2600xt in dx10, come hd2900xt, non è affatto perdente.
Sono usciti i 7.9 beta sotto forma di hotfix per quake wars e pare siano un'altro passo nella giusta direzione.
Vedremo se è vero che con questi driver risolvono i problemi di velocità in Dx10 e non solo per Quake Wars,se fosse così meriterebbero applausi,per ora i bench affermano il contrario.
Se qualcuno ha qualche link di prove comparative con i 7.9 beta le posti pure.

Pat77
08-09-2007, 21:57
Vedremo se è vero che con questi driver risolvono i problemi di velocità in Dx10 e non solo per Quake Wars,se fosse così meriterebbero applausi,per ora i bench affermano il contrario.
Se qualcuno ha qualche link di prove comparative con i 7.9 beta le posti pure.

Ma in dx10, per la verità, questa scheda viaggia rispetto alla concorrenza, bioshock invece pare pagare dal passaggio da xp a vista più che da dx9 a dx10.

desmacker
09-09-2007, 09:35
Ma in dx10, per la verità, questa scheda viaggia rispetto alla concorrenza, bioshock invece pare pagare dal passaggio da xp a vista più che da dx9 a dx10.
Bioshock è un titolo DX10 e la concorrenza in DX10 sta davanti.
La HD2600xt è una scheda DX10 se acquisto una scheda DX10 voglio che vada bene usando "queste" API che ha solo Vista,quindi con Vista deve fornire certe prestazioni (da fascia media :muro: ),che poi con XP vada meglio è un valore aggiunto.

Bioshock è programmato bene (non è mica STALKER) ed è un videogioco che usa le DX10,le Ati HD2600xt hanno prestazioni molto ridotte con le DX10 su Vista 32bit rispetto alla modalità DX9 compatibile sempre sotto Vista nonostante l'Hotfix.
Se il driver 7.9 migliorerà questa situazione non potrà che farmi piacere.

Gabriyzf
09-09-2007, 11:29
Ma in dx10, per la verità, questa scheda viaggia rispetto alla concorrenza, bioshock invece pare pagare dal passaggio da xp a vista più che da dx9 a dx10.

in ogni caso la 2600xt è sempre da paragonare alla 8600gt

Pat77
09-09-2007, 13:27
Bioshock è un titolo DX10 e la concorrenza in DX10 sta davanti.
La HD2600xt è una scheda DX10 se acquisto una scheda DX10 voglio che vada bene usando "queste" API che ha solo Vista,quindi con Vista deve fornire certe prestazioni (da fascia media :muro: ),che poi con XP vada meglio è un valore aggiunto.

Bioshock è programmato bene (non è mica STALKER) ed è un videogioco che usa le DX10,le Ati HD2600xt hanno prestazioni molto ridotte con le DX10 su Vista 32bit rispetto alla modalità DX9 compatibile sempre sotto Vista nonostante l'Hotfix.
Se il driver 7.9 migliorerà questa situazione non potrà che farmi piacere.

Bioshock crasha a random in dx10 su hd2600xt, almeno la demo, ed è l'unico esempio dx10 attualmente disponibile in cui le hd2xxx si trovano in svantaggio con quest'api, in company of heroes, Call of Juarez sempre in dx10 sono avanti, a volte anche di parecchio.
I 7.9 potrebbero migliorare la situazione in bioshock.

Pat77
09-09-2007, 13:28
in ogni caso la 2600xt è sempre da paragonare alla 8600gt

A livello di prezzo sì, di performance vedremo, essere fiduciosi non costa nulla.

Gabriyzf
09-09-2007, 13:50
A livello di prezzo sì, di performance vedremo, essere fiduciosi non costa nulla.

per le performance lo dice ati stessa, non io

Pat77
09-09-2007, 18:51
per le performance lo dice ati stessa, non io

Amd ha sempre parlato di fascia di prezzi, in questo caso sì, 8600gt sono nella stessa fascia, così come hd2900 xt è nella stessa di gts640.

desmacker
09-09-2007, 19:05
Bioshock crasha a random in dx10 su hd2600xt, almeno la demo, ed è l'unico esempio dx10 attualmente disponibile in cui le hd2xxx si trovano in svantaggio con quest'api, in company of heroes, Call of Juarez sempre in dx10 sono avanti, a volte anche di parecchio.
I 7.9 potrebbero migliorare la situazione in bioshock.

Non è che ci siano poi tanti titoli usciti nativamente in Dx10 per affermare che l'HD2600xt si trovi a suo agio con queste API (per questo attendo Crysis),uno di questi è Bioshock e crasha su certe configurazioni, ma non per molto grazie ai driver 7.9, però che fornisca prestazioni migliori della concorrenza ho i miei dubbi.
Queste continue uscite di hotfix per giochi in uscita poi mi lasciano perplesso,comincio a pensare che anche le Dx10.1 siano un'hotfix delle Dx10.

Pat77
09-09-2007, 20:08
Non è che ci siano poi tanti titoli usciti nativamente in Dx10 per affermare che l'HD2600xt si trovi a suo agio con queste API (per questo attendo Crysis),uno di questi è Bioshock e crasha su certe configurazioni, ma non per molto grazie ai driver 7.9, però che fornisca prestazioni migliori della concorrenza ho i miei dubbi.
Queste continue uscite di hotfix per giochi in uscita poi mi lasciano perplesso,comincio a pensare che anche le Dx10.1 siano un'hotfix delle Dx10.

Il primo gioco NATIVO dx10 sarà Alan Awake, a meno di sorprese da altre SH.
Tutti quelli visti finora sono dx9 hotfixati a dx10 :D

blade9722
09-09-2007, 21:13
Il primo gioco NATIVO dx10 sarà Alan Awake, a meno di sorprese da altre SH.
Tutti quelli visti finora sono dx9 hotfixati a dx10 :D

Di questo avrei qualche dubbio, visto che quando c'è stata la presentazione delle nuove features in DX9 all'IDF 2006, alla voce "geometry instancing" c'erano dei bravi screenshots di Oblivion e di una versione preliminare di Alan Wake.

Grey 7
09-09-2007, 22:21
Non è che ci siano poi tanti titoli usciti nativamente in Dx10 per affermare che l'HD2600xt si trovi a suo agio con queste API (per questo attendo Crysis),uno di questi è Bioshock e crasha su certe configurazioni, ma non per molto grazie ai driver 7.9, però che fornisca prestazioni migliori della concorrenza ho i miei dubbi.
Queste continue uscite di hotfix per giochi in uscita poi mi lasciano perplesso,comincio a pensare che anche le Dx10.1 siano un'hotfix delle Dx10.

manco crysis è dx10 nativo. Cmq sarà già un banco di prova più serio semplicemente perchè queste api verranno sfruttate adeguatamente. In altri giochi (vedi bioshock) cambia il fumo e l'acqua il resto è praticamente invariato.

Mister Tarpone
09-09-2007, 22:22
manco crysis è dx10 nativo. Cmq sarà già un banco di prova più serio semplicemente perchè queste api verranno sfruttate adeguatamente. In altri giochi (vedi bioshock) cambia il fumo e l'acqua il resto è praticamente invariato.

cambiano anche le ombre!! :ops:

desmacker
09-09-2007, 23:54
Di questo avrei qualche dubbio, visto che quando c'è stata la presentazione delle nuove features in DX9 all'IDF 2006, alla voce "geometry instancing" c'erano dei bravi screenshots di Oblivion e di una versione preliminare di Alan Wake.

Le Dx9 non ci lasceranno tanto facilmente,almeno fino a che XP non sara morto e sepolto.

desmacker
10-09-2007, 00:12
cambiano anche le ombre!! :ops:
E' già qualcosa,non abbiamo mica schede video da 1 Tetraflop di potenza :ops: piano,piano ci arriveranno a usare bene queste API

Pat77
10-09-2007, 09:18
Di questo avrei qualche dubbio, visto che quando c'è stata la presentazione delle nuove features in DX9 all'IDF 2006, alla voce "geometry instancing" c'erano dei bravi screenshots di Oblivion e di una versione preliminare di Alan Wake.

Quindi saprai che in fase di sviluppo hanno deciso il supporto esclusivo a windows vista e ai dual core, come requisiti minimi, oltre che adottare esclusivamente dx10 come Api.

desmacker
10-09-2007, 11:54
E' arrivato il momento di provare i nuovi driver per le Ati.:D