PDA

View Full Version : ATI Radeon HD 2900 XT: HDR e DirectX 10


Pagine : 1 [2]

xeal
18-05-2007, 02:06
Seeeeeeee vabbbbbeeeeeeeee........

Se dovessimo scartare un prodotto solo perchè fa questo effetto, allora i form li faremmo coi piccioni viaggiatori.... :Prrr:

xeal
18-05-2007, 02:06
Che cacchio di problemi ha il server? sono solo le due di notte :O :asd:

dannyhh
18-05-2007, 08:38
Bene ora a tutti i professori delle performance con scheda integrata nel case vorrei chiedere una cosa. Mettiamo il mio caso dove mi si è bruciata la vecchia scheda madre con ancora processore netburst ( scelta pessima all'epoca ) Provveduto a fare il cambio con p5n32-e sli e q6600 ed è giunto il momento di affrontare la scelta della scheda video avendo io una delle pochissime 6800 ultra con pci-e quindi per il momento non a piedi. Ora si può sapere quanto durerà il top di gamma nvidia cioè 8800 ultra ? Non è che io questo mese la compro e ad agosto mi esce un eventuale 8900 ? e inoltre ma dove volete che li facciano girare i giochi dx10 se non c'è niente di più potente ? Fermatevi a riflettere un secondo prima di sparare boiate. I giochi mica li fanno per farli girare su un hardware che ha un 0,2 % di base installata eh.

leoneazzurro
18-05-2007, 09:24
però AMD ha presentato "Teraflop in a Box".
Questo sistema è in grado di processare oltre 1 Teraflop, anche grazie all'integrazione tra le cpu ed i due stream processor rappresentati da due R600 in crossfire.
Inoltre l' R600 integra la tecnologia Il Command Processor (CP) ( anche se ci ho capito ben poco su questa tecnologia :( ) e infine ce questa immagine sul progetto "Torrenza":
http://www.hwupgrade.it/articoli/cpu/1621/Slide109.jpg

Torrenza non nasce tanto per le schede grafiche in sè, quanto per il GPGPU.

gianni1879
18-05-2007, 10:20
Solo una precisazione: in tutti i performance test interni e del testlab di EA, BW2 e' risultato sostanzialmente agnostico rispetto ai chip di fascia alta di quel periodo, con una leggera prevalenza per l'architettura NVIDIA, perche' e' era piu' adatta a quello che cercavamo di fare. Leggera prevalenza nell'ordine del 5% massimo a seconda delle scene.

Esisteva pero' un problema serio di incompatibilita' fra certi brand di 7800 e alcuni chipset di schede madri (mi sembra Asus) che causavano un busy loop nel driver NVIDIA e il conseguente crollo delle prestazioni.

Non ho mai provato BW2 con le nuove schede ATI.

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=5 ;)

ghiltanas
18-05-2007, 10:24
per dannyhh:

ascolta ti conviene aspettare ormai qualche mesetto almeno luglio cosi escono le vere dx10 perchè ho la brutta sensazione che queste vga sono si dx10 ma nn completamente..nn so spiegartelo bene cmq credo che r600 e g80 siano stati due "cavie" per le rispettive case

Gabriyzf
18-05-2007, 11:05
personalmente acquisterò la nuova vga, nvidia o ati che sia, in autunno inoltrato: R600 non mi convince sia in prestazioni che sopratutto in consumi e anche per G80 credo che ormai nvidia abbia pronta la naturale evoluzione (G81 o chi per essi)

Free Gordon
18-05-2007, 11:56
Ciao, rispondo io ;) la risposta è no, per svariate considerazioni legate soprattutto al fatto che lo sviluppo driver con Windows XP è di fatto fermo, mentre è molto attivo quello con Vista.
Sto guardando anche io le recensioni pubblicate con benchmark sotto Windows XP; chi ha fatto questa scelta, a mio avviso, è stato costretto in quanto non in possesso di tutte le schede al momento dei test e nella necessità di riciclare numeri ottenuti in precedenti articoli.

Non mi pare che sia così.
Ci sono articoli nuovi di zecca che sotto XP presentano dei valori interessanti.
Il fatto che, attualmente, lo sviluppo driver sia più intenso sotto Vista, non significa che i driver siano all'altezza del loro compito.

Oltretutto, queste scheda saranno utilizzate molto di più sotto XP che sotto Vista, perlomeno ancora oggi e fino al prossimo autunno. ;)

Free Gordon
18-05-2007, 12:07
veramente sono 80/90watt di differenza. non mi paiono pochi.
http://www.hwupgrade.it/articoli/skvideo/1725/power.png

Quì ce ne sono 65.
http://vr-zone.com/?i=4946&s=9
A chi crediamo? :D

Free Gordon
18-05-2007, 12:16
I giochi attuali invece utilizzano in maniera relativamente limitata la geometria e sono più limitati da pixel shading e texture, ambiti nei quali R600 al momento non sembra brillare granchè.


Non è mica vero, se guardi il perlin noise, vedi che anche nel pixel shader è davanti alla GTX/Ultra. Il problema grosso, è nel texturing (perlomeno con i driver attuali) e un pò nel settore ROPs (sopratutto ad alte res).

Poi c'è la questione dell'AA che non l'ho ancora capita, sinceramente..

Free Gordon
18-05-2007, 12:21
Si evince dal comportamento discordante tra shader complessi e quelli moderatamente carichi di texture, anche in condizioni che non sono texture fillrate limited.

L'avevo ipotizzato anche io :p ma pensavo avessi letto qualcosa in particolare (su B3D o altri) sulle TU.

Portocala
18-05-2007, 12:23
tasti edit e multiquote??? :)

Per la demo di lost planet sicuramente non potevano usare xp.

A me l'hdr non piace, se l'hdr è quel rosa ovunque guardi in oblivion :D

Io volevo anche le 8600GTS/GT visto che sono schede dx10 e non capisco perchè trascurarle.

Free Gordon
18-05-2007, 12:35
e comunque fino ad ora nessuna ATI ha mai superato NVIDIA di pari fascia su DOOM3 e derivati

Sei sicuro che da R520 in poi quest'affermazione sia sempre vera?

dannyhh
18-05-2007, 12:38
Il discorso è che se l'eventuale nuovo vero top di gamma ( Indipendentemnte dal fatto che sia NVidia o ATI ) verrà rilasciato nel terzo qudrimestre di quest'anno allora me la prendo subito stà 8800 ultra invece se devo uscire dal negozio mentre stà entrando il corriere con in braccio una 8900 o chi per essa il discorso cambia.

Free Gordon
18-05-2007, 12:41
Gia, ma G80 è molto più simile ad R500 di quanto non lo sia R600, quindi le ottimizzazioni non funzionano.

G80 e R500 condividono proprio poco della filosofia progettuale.
L'unica somiglianza è che sono chip a shader unificati...

Free Gordon
18-05-2007, 12:43
Il discorso è che se l'eventuale nuovo vero top di gamma ( Indipendentemnte dal fatto che sia NVidia o ATI ) verrà rilasciato nel terzo qudrimestre di quest'anno allora me la prendo subito stà 8800 ultra invece se devo uscire dal negozio mentre stà entrando il corriere con in braccio una 8900 o chi per essa il discorso cambia.

Se ti fai questo problema, non altro da fare che aspettare il prossimo ottobre e l'uscita di Crysis e UT 2007.

killer978
18-05-2007, 13:10
per dannyhh:

ascolta ti conviene aspettare ormai qualche mesetto almeno luglio cosi escono le vere dx10 perchè ho la brutta sensazione che queste vga sono si dx10 ma nn completamente..nn so spiegartelo bene cmq credo che r600 e g80 siano stati due "cavie" per le rispettive case

Per Nvidia è stata una Cavia che ha portato parecchi soldoni, in 6/7 mesi, x ATI bisogna vedere quante ne vende!!! quindi x le 8xxx può starci che non siano delle scheggie con i futuri DX 10 dopo 7 mesi dall'uscita, ovviamente hanno qualche VGA che sta x uscire ad 80nm o 65nm!!!!!

c'è da dire cmq che una GTS 320 mb è un affarone anche x chi l'acquista oggi, con poco + di 200€ ti porti a casa una signora VGA, la GTX manco la considero, io x una VGA non spenderei mai + di 200/230€ forse tra 5/6 mesi potrei acquistarne una usata!!!
Trovo assurdo spendere 600€ x qualcosa che svaluta dopo pochissimo tempo


Ooops dimenticavo di dire che non acquisterei mai nemmeno una VGA di fascia media , perche sono sempre troppo distanti dalle sorellone in performance :)

leoneazzurro
18-05-2007, 13:30
Non è mica vero, se guardi il perlin noise, vedi che anche nel pixel shader è davanti alla GTX/Ultra. Il problema grosso, è nel texturing (perlomeno con i driver attuali) e un pò nel settore ROPs (sopratutto ad alte res).

Poi c'è la questione dell'AA che non l'ho ancora capita, sinceramente..

Perlin noise ha un rapporto istruzioni:texture lookup di 10:1.
Il fatto è che negli shader più comunemente utilzzati oggi non è così (e si ritorna al discorso dell'accesso alle texture lento).

Per l'AA si ha che parte del lavoro per realizzarlo viene svolto negli shaders anzichè da hardware dedicato nelle ROPs, il che però giustifica solo in parte il calo prestazionale. Direi che si ritorna sempre al punto dell'accesso alle texture lento.

killer978
18-05-2007, 13:42
Non mi pare che sia così.
Ci sono articoli nuovi di zecca che sotto XP presentano dei valori interessanti.
Il fatto che, attualmente, lo sviluppo driver sia più intenso sotto Vista, non significa che i driver siano all'altezza del loro compito.

Oltretutto, queste scheda saranno utilizzate molto di più sotto XP che sotto Vista, perlomeno ancora oggi e fino al prossimo autunno. ;)

Hai propio ragione su XP sta scheda non va malaccio, secondo me ci sono ottime possibilità di ripresa anche su Vista con driver meno pre pre pre pre pre alpha beta gamma :asd:

http://img291.imageshack.us/img291/4687/sc2nk8.th.png (http://img291.imageshack.us/my.php?image=sc2nk8.png)

http://img526.imageshack.us/img526/4272/chdj1.th.png (http://img526.imageshack.us/my.php?image=chdj1.png)

http://img150.imageshack.us/img150/451/prhf0.th.png (http://img150.imageshack.us/my.php?image=prhf0.png)

Sembra che in OpenGL soffra meno delle precedenti VGA rispetto alle Nvidia ;)

dannyhh
18-05-2007, 14:27
Per Nvidia è stata una Cavia che ha portato parecchi soldoni, in 6/7 mesi, x ATI bisogna vedere quante ne vende!!! quindi x le 8xxx può starci che non siano delle scheggie con i futuri DX 10 dopo 7 mesi dall'uscita, ovviamente hanno qualche VGA che sta x uscire ad 80nm o 65nm!!!!!

c'è da dire cmq che una GTS 320 mb è un affarone anche x chi l'acquista oggi, con poco + di 200€ ti porti a casa una signora VGA, la GTX manco la considero, io x una VGA non spenderei mai + di 200/230€ forse tra 5/6 mesi potrei acquistarne una usata!!!
Trovo assurdo spendere 600€ x qualcosa che svaluta dopo pochissimo tempo


Ooops dimenticavo di dire che non acquisterei mai nemmeno una VGA di fascia media , perche sono sempre troppo distanti dalle sorellone in performance :)

Sì ma capirai anche che l'ovviamente detto da noi sul forum ha ben poca rilevanza, quello che voglio sapere è se Nvidia ha fatto sapere/trapelare qualcosa di semi-ufficiale perchè se se ne parla a ottobre la compro adesso se invece se ne parla ad agosto allora incomincia a essere differente la scelta. Anche perchè è ovvio che con l'attesa potrei sempre comprare qualcosa di più potente ma aspetterei in eterno.

ghiltanas
18-05-2007, 14:30
Per Nvidia è stata una Cavia che ha portato parecchi soldoni, in 6/7 mesi, x ATI bisogna vedere quante ne vende!!! quindi x le 8xxx può starci che non siano delle scheggie con i futuri DX 10 dopo 7 mesi dall'uscita, ovviamente hanno qualche VGA che sta x uscire ad 80nm o 65nm!!!!!

c'è da dire cmq che una GTS 320 mb è un affarone anche x chi l'acquista oggi, con poco + di 200€ ti porti a casa una signora VGA, la GTX manco la considero, io x una VGA non spenderei mai + di 200/230€ forse tra 5/6 mesi potrei acquistarne una usata!!!
Trovo assurdo spendere 600€ x qualcosa che svaluta dopo pochissimo tempo


Ooops dimenticavo di dire che non acquisterei mai nemmeno una VGA di fascia media , perche sono sempre troppo distanti dalle sorellone in performance :)


no ma infatti nn mi sento affatto di criticare nvidia anzi è stata molto intelligente ed è innegabile che la sua politica di lanciare subito le dx10 abbia pagato anche xkè finora si sono dimostrate ottime schede.Ati invece nn so forse si è sentita il fiato sul collo xkè nn vendeva + tanto in dx9 ( e nn tanto xkè nn aveva soluzioni dx10 che per ora nn sono sfruttate) ed è stata quasi costretta a lanciare r600 che forse (nonostante tutti sti mesi in + )nn era ancora completo xkè proiettato + per un'ottica futura.A mio modesto avviso ati avrebbe dovuto ritardare ancora a sto punto e uscire con delle soluzioni ottimizzate veramente e soprattutto lanciare le varie fasce in contemporanea, e anzi puntare soprattutto di + sulla fascia media e medio alta che è li che si fa i soldi nn sulle fasce alte

ghiltanas
18-05-2007, 14:32
per il disc delle fasce medie invece nn concordo affatto con te, io preferisco le vga di fascia media anche per una questione economica e xkè le fasce alte sono utili solo a chi ha le periferiche giuste per sfruttarle

ghiltanas
18-05-2007, 14:35
ho riletto ora il tuo post: ma ti contraddici xkè prima dici che la 8800gts è un'ottima scheda (anche secondo me, forse la meglio attule come rapporto prezzo/prestazioni) che nn compreresti mai una gtx e poi dici che nn compreresti mai una vga di fascia media?

halduemilauno
18-05-2007, 14:40
ho riletto ora il tuo post: ma ti contraddici xkè prima dici che la 8800gts è un'ottima scheda (anche secondo me, forse la meglio attule come rapporto prezzo/prestazioni) che nn compreresti mai una gtx e poi dici che nn compreresti mai una vga di fascia media?

è un rafforzativo. c'è solo la gts. via le medie via la gtx rimane solo la gts e in particolare la 320.

;)

killer978
18-05-2007, 14:53
ho riletto ora il tuo post: ma ti contraddici xkè prima dici che la 8800gts è un'ottima scheda (anche secondo me, forse la meglio attule come rapporto prezzo/prestazioni) che nn compreresti mai una gtx e poi dici che nn compreresti mai una vga di fascia media?

x fascia media intendo le varie 7500/9500/X1600/X2600 ecc... parlando di ATI!!

Appena uscite queste VGA costano mediamente sui 200€ o forse +, io da 7/8 anni a questa parte ho sempre puntato sulla fascia media alta tipo 9700liscia/X1800XL/8800GTS oppure la High End appena deposta :D tipo la X1900XTX dopo l'uscita della X1950XTX ;) cmq non compro mai hardware appena uscito aspetto sempre un po, e vado sull'usato nuovo ;) guarda se sei bravo con meno di 100€ prendi sempre il Top vendendo bene l'usato ;)

killer978
18-05-2007, 14:56
Tipo adesso ,che sono in trattativa x una GTS usata x fare delle recensioni :asd: prezzo 200€ (mi chiedono 230€ ma manco morto a quel prezzo) , se la prendo poi vendo la mia in sign ed ho una ottima VGA con meno di 100€ di differenza

:asd:

ghiltanas
18-05-2007, 14:59
ah capito no il fatto è che ho capito che con fascia media nn si può + intendere le vga da 200 euro quelle sono fascie stupide cessi di vga a caro prezzo. Con le nuove dx10 la potenza delle varie vga dovranno essere in proporzione alle precedenti + potenti, per questo io da un pò indico fascia media vga come la 8800 gts che presto andrà sotto i 250 euro. Il fatto è uno solo: se uno vuole giocare ed è disposto a spendere 200 euro ci aggiunge giustamente qualche euro in + e prende una vga tipo la 8800gts altrimenti resta sui 140-150 risparmiando veramente ( e nn 20 euro) e prende vga del tipo della gt.Schede come la 8600gts devono venire abolite servono solo per spillare soldi agli utonti xkè il loro rapporto prezzo/prestazioni è ridicolo.In pratica quoto in pieno il tuo ragionamento di prima

ghiltanas
18-05-2007, 15:01
Tipo adesso ,che sono in trattativa x una GTS usata x fare delle recensioni :asd: prezzo 200€ (mi chiedono 230€ ma manco morto a quel prezzo) , se la prendo poi vendo la mia in sign ed ho una ottima VGA con meno di 100€ di differenza

:asd:

il tuo sistema è il migliore di tutti, prendere buone vga e rivenderle dopo un pò però prima che si svalutino troppo, in modo da rimanere sempre aggiornato spendendo poco

killer978
18-05-2007, 15:02
è un rafforzativo. c'è solo la gts. via le medie via la gtx rimane solo la gts e in particolare la 320.

;)

Con un monitor 19" da 1440x900 non dovrei risentirne deisoli 320mb giusto? nemmeno con i filtri a palla?

killer978
18-05-2007, 15:04
il tuo sistema è il migliore di tutti, prendere buone vga e rivenderle dopo un pò però prima che si svalutino troppo, in modo da rimanere sempre aggiornato spendendo poco

Hai capito l'andazzo :D

ghiltanas
18-05-2007, 15:07
la ris è come la 1280*1024 quindi basta che guardi qualche benck a quella ris.
cmq fino 1600*1200 è identica alla 640 (talvolta la batte di poco) quindi vai tranqui

MG
18-05-2007, 15:18
oggi giorno con un 19 pollici lcd quale scheda è ottima x giocare con tutti i filtri attivi?
Grazie

appleroof
18-05-2007, 15:27
oggi giorno con un 19 pollici lcd quale scheda è ottima x giocare con tutti i filtri attivi?
Grazie

8800gts320mb: per quelle esigenze ha il miglior rapporto prezzo/prestazioni in assoluto, per ora ;)

prophet9000
18-05-2007, 15:58
Ati va ieccati na munizza

halduemilauno
18-05-2007, 16:50
Con un monitor 19" da 1440x900 non dovrei risentirne deisoli 320mb giusto? nemmeno con i filtri a palla?

no a quella ris. no. equivale alla 1280x1024.
;)

halduemilauno
18-05-2007, 16:51
oggi giorno con un 19 pollici lcd quale scheda è ottima x giocare con tutti i filtri attivi?
Grazie

8800gts320.
;)

killer978
18-05-2007, 17:09
Ati va ieccati na munizza

:rolleyes:

3DMark79
18-05-2007, 17:20
Salve ragazzi,
mi domandavo...ma alla risoluzione 1680x1050 che diciamo si trova tra la 1600x1200 e la 1280x1024 questa 8800gts a 320mb dovrebbe andare bene.Ma con il passar del tempo con giochi graficamente sempre più complessi non potrebbe avere problemi anche alle medesime risoluzioni?Dunque la 640 non dovrebbe essere più longeva?Ed invece sapete se la HD2900xt supporta le directx 10.1?:confused:
E pensare che vicino casa ancora non è disponibile ma il prezzo già c'è la hd2900xt verrà venduta a 370euro!Peccato!

Lud von Pipper
18-05-2007, 17:21
G80 e R500 condividono proprio poco della filosofia progettuale.
L'unica somiglianza è che sono chip a shader unificati...

Non ho detto: "G80 e R500" sono simili.
Ho detto: "ad R500 somiglia di più G80 che R600", intendendo con questo che R500 e R600 sono due chip lontanissimi come concezione.
Volevo sottolineare come l'architettura di R600 non riesca proprio a trarre vantaggio dalle ottimizzazioni di HL2 per le serie precendenti di ATI.

I driver di G80 hanno avuto tempo per essee adattati ad HL2, mentre quelli di R600 sono riscritti quasi sicuramente da zero rispetto ai vecchi Catalist.

Lud von Pipper
18-05-2007, 17:24
c'è da dire cmq che una GTS 320 mb è un affarone anche x chi l'acquista oggi, con poco + di 200€ ti porti a casa una signora VGA, la GTX manco la considero, io x una VGA non spenderei mai + di 200/230€ forse tra 5/6 mesi potrei acquistarne una usata!!!
Trovo assurdo spendere 600€ x qualcosa che svaluta dopo pochissimo tempo

Se la pensi cosi allora fai meglio a tirare fuori altri 50€ e a portare a casa una GTS 640 ;)

Ovvio che se hai un occasione per acquistare hardware a prezzi fuori mercato allora tutti i ragionamenti saltano.

Lud von Pipper
18-05-2007, 17:29
Ati va ieccati na munizza

Che espresso in lingua italiana che cosa vorrebbe significare? :confused:

3DMark79
18-05-2007, 17:38
Se è siciliano forse voleva scrivere:
Ati o iettiti na munnizza
tradotto Ati vatti a buttare nella spazzatura.

Portocala
18-05-2007, 17:50
Lud, ma il tasto multiquote ti fa schifo?

con un monitor come il mio da 19 che gira a 1280x1024 la 8800/320 mi garantisce gli fps per un annetto finchè non esce crysis 2 :asd:

halduemilauno
18-05-2007, 17:55
Lud, ma il tasto multiquote ti fa schifo?

con un monitor come il mio da 19 che gira a 1280x1024 la 8800/320 mi garantisce gli fps per un annetto finchè non esce crysis 2 :asd:

si.
;)

gianni1879
18-05-2007, 18:14
Ati va ieccati na munizza

26 messaggi in 4 anni! se sono tutti di questo calibro.... capisco il motivo di così pochi :(

complimenti ti sei veramente sforzato....

killer978
18-05-2007, 18:27
Se la pensi cosi allora fai meglio a tirare fuori altri 50€ e a portare a casa una GTS 640 ;)

Ovvio che se hai un occasione per acquistare hardware a prezzi fuori mercato allora tutti i ragionamenti saltano.

Veramente tra la 320 e la 640 ci sono 100€ di differenza :mbe: spendere + di 200/230€ x una VGA è contro la mia fede :asd:

Free Gordon
18-05-2007, 18:40
Non ho detto: "G80 e R500" sono simili.
Ho detto: "ad R500 somiglia di più G80 che R600", intendendo con questo che R500 e R600 sono due chip lontanissimi come concezione.

E' inesatto anche questo, dato che R600 è nato da una costola di R500.
Purtroppo però, estremizza un pò troppo i concetti introdotti con R500...aumentando ancora il divario proporzionale tra Texture Unit e ALU e cambiando la struttura interna delle ALU stesse.



Volevo sottolineare come l'architettura di R600 non riesca proprio a trarre vantaggio dalle ottimizzazioni di HL2 per le serie precendenti di ATI.

A dire il vero, da Lost Coast in poi, le ATI non vanno paticolarmente meglio delle nVidia in HL2.. ;) (anche parlando di R520 ad esempio).

Dato che quel gioco, nelle sue successive evoluzioni (LC, EP1 ecc), non sfrutta l'hw dedicato nelle ROPs per fare HDR, ma lo fa in un modo particolare, andando a togliere risorse dal settore Texture Unit, già leggermente più debole su ATI (16 TU vs 24 per nVidia), permettendo così di attivare l'AA in contemporanea, anche sulle 7800 (e a dire il vero, anche su X800/6800).

Camelvam
18-05-2007, 18:46
chiedo consiglio.
con amd 4600x2 e asus premium a8nsli 939, che meglio questa ati hd2900xt o una nvidia 8800gts

Camelvam
18-05-2007, 19:01
Originariamente inviato da: Camelvam
chiedo consiglio.
con amd 4600x2 e asus premium a8nsli 939, che meglio questa ati hd2900xt o una nvidia 8800gts



Monitor?
giusto domenticavo!!

ACER 17 AL732

prophet9000
18-05-2007, 19:11
26 messaggi in 4 anni! se sono tutti di questo calibro.... capisco il motivo di così pochi :(

complimenti ti sei veramente sforzato....

ma a te chi ti ha sciolto:cool: ?

se vuoi il mio parere su quest'articolo, dico soltanto che sono contento che sia stata una grande delusione questo R600...soprattutto per tutti quelli che aspettavano questa scheda allargando la bocca su R600 e dicendo "IO ASPETTO R600 CHE SARA' SICURAMENTE MEGLIO DEL G80 DI NVIDIA" e io gli rispondo così PRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR.
Ah ah ah...e nvidia vi fà Tiè:D

Mercuri0
18-05-2007, 19:14
PLEASE qualche sistema di ranking dei post anche su HWupgrade

-- Vostro affezionato disperato.

leoneazzurro
18-05-2007, 19:21
ma a te chi ti ha sciolto:cool: ?

se vuoi il mio parere su quest'articolo, dico soltanto che sono contento che sia stata una grande delusione questo R600...soprattutto per tutti quelli che aspettavano questa scheda allargando la bocca su R600 e dicendo "IO ASPETTO R600 CHE SARA' SICURAMENTE MEGLIO DEL G80 DI NVIDIA" e io gli rispondo così PRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR.
Ah ah ah...e nvidia vi fà Tiè:D

Ci vediamo tra 3 giorni. Speriamo senza continuare su questo tono.

Free Gordon
18-05-2007, 19:30
Monitor?
giusto domenticavo!!
ACER 17 AL732

Considerando la tua CPU (e il fatto che sei su 939), direi di andare su una 1950XT 256MB che è proporzionata.
Oppure se puoi spendere fino a 260 euro, vai sulla 8800GTS 320MB. ;)

Altre VGA te le sconsiglierei sul tuo sistema.

Camelvam
18-05-2007, 19:48
Considerando la tua CPU (e il fatto che sei su 939), direi di andare su una 1950XT 256MB che è proporzionata.
Oppure se puoi spendere fino a 260 euro, vai sulla 8800GTS 320MB.

Altre VGA te le sconsiglierei sul tuo sistema.


grazie MILLE! credo che farò proprio cosi ma regalandomi 8800GTS 640MB
visto che ho passato l'esame d'inglese :)

ghiltanas
18-05-2007, 20:14
Questa è una legganda, comunque sì, a 1440*900 va tranquillo come con 1280*1024, i 320MB sono sufficienti a giocare al top. Oggi. A 1600 no.

cosa è una leggenda?

xeal
18-05-2007, 20:29
Tutto è una leggenda. La vita è una leggenda. La leggenda di una vita vissuta avventurosamente, lottando contro il drago mangiasoldi per trovare la scheda migliore al prezzo più basso. Ecco, l'ho detto. Adesso mi sento meglio. E non perchè ho appena preso le mie pillole :nonsifa:

:asd:

P.S. Chissà se mi becco prima il nobel alla carriera per le mjnkj@te, o una raffica di mitra... secondo me la seconda :asd:

ghiltanas
18-05-2007, 22:01
io dicevo che a quella ris la 320 va come una 640, è a ris molto elevate che c'è differenza

ghiltanas
18-05-2007, 22:03
e cmq vai a vedere l'ultima rece sulla 2900xt e guarda come va la 320 a 1920*1200 con tutto attivato con oblivion -> 24 fps minimi e guarda che sono tanti con queste impostazioni a 1600*1200 vai tranquillo

Lud von Pipper
18-05-2007, 22:05
ma a te chi ti ha sciolto:cool: ?

se vuoi il mio parere su quest'articolo, dico soltanto che sono contento che sia stata una grande delusione questo R600...soprattutto per tutti quelli che aspettavano questa scheda allargando la bocca su R600 e dicendo "IO ASPETTO R600 CHE SARA' SICURAMENTE MEGLIO DEL G80 DI NVIDIA" e io gli rispondo così PRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR.
Ah ah ah...e nvidia vi fà Tiè:D

Please, don't feed the troll

pl[U]s.NOXx
18-05-2007, 23:05
scusate l'OT ma nn resisto

per la serie grandi potenzialità mal sfruttate:

per caso gli sviluppatori di Ps3/r600 sono gli stessi??

ghiltanas
18-05-2007, 23:46
nvidia -> ps3

ati -> xbox 360

gianni1879
19-05-2007, 00:14
Ci vediamo tra 3 giorni. Speriamo senza continuare su questo tono.

meno male che qualcuno vede certi elementi ;)

Albi80
19-05-2007, 01:06
Ati va ieccati na munizza


Beh ,se era in napoletano faceva anche presto a buttarsi nell immondizia. :rolleyes: :muro: .Dopo passavo io a prenderla per strada.

killer978
19-05-2007, 13:02
Beh ,se era in napoletano faceva anche presto a buttarsi nell immondizia. :rolleyes: :muro: .Dopo passavo io a prenderla per strada.

Scusa ma con questo cosa vuoi dire :confused:

:mbe:

ThePunisher
19-05-2007, 14:00
FLOP in ogni caso è un eufemismo e scusate ma che senso ha giustificare il tutto con "driver prematuri"? Ha mesi e mesi di ritardo, l'avere nonostante tutto "driver prematuri" non è affatto una giustificazione, piuttosto è un ulteriore punto a sfavore di questo schifo by ATI.

×§ñåkê×
19-05-2007, 14:23
ma a te chi ti ha sciolto:cool: ?

se vuoi il mio parere su quest'articolo, dico soltanto che sono contento che sia stata una grande delusione questo R600...soprattutto per tutti quelli che aspettavano questa scheda allargando la bocca su R600 e dicendo "IO ASPETTO R600 CHE SARA' SICURAMENTE MEGLIO DEL G80 DI NVIDIA" e io gli rispondo così PRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR.
Ah ah ah...e nvidia vi fà Tiè:D

contento? :rolleyes:

invece dovresti essere seriamente preoccupato, xke se nn c'è concorrenza tra ati e nvidia, le schede come 8800gtx non solo non caleranno di prezzo, ma forse anche aumenteranno.

cmq io non giurerei che la 2900 sia tanto male, con i driver del 22 sono sicuro che supererà la gtx in molti giochi :cool:

ThePunisher
19-05-2007, 17:08
contento? :rolleyes:

invece dovresti essere seriamente preoccupato, xke se nn c'è concorrenza tra ati e nvidia, le schede come 8800gtx non solo non caleranno di prezzo, ma forse anche aumenteranno.

Sono d'accordissimo... io preferisco NVIDIA però un po' di sana concorrenza deve esserci soprattutto visto che già è in atto un oligopolio.


cmq io non giurerei che la 2900 sia tanto male, con i driver del 22 sono sicuro che supererà la gtx in molti giochi :cool:

Su questo invece sono decisamente scettico... alla fine quella è la scheda...

The_SaN
19-05-2007, 17:51
Su questo invece sono decisamente scettico... alla fine quella è la scheda...

Beh la scheda nVidia é aumentata di un buon 20% rispetto a quando é uscita (in alcuni casi molto di piú).
Non vedo perché la ATi non potrebbe, visto anche che é una scheda molto piú complessa da gestire via driver. ;)

Liberissimo di sbagliarmi

xeal
19-05-2007, 18:25
@ ThePunisher

Ribadisco la mia idea che la scheda non sia uscita solo in ritardo (rispetto a Nvidia) ma soprattutto in anticipo (rispetto a se stessa). Secondo me avevano preparato tutto per arrivare con la gamma completa (e i driver a un buon livello di ottimizzazione) in contemporanea al lancio in volumi dei k10 e dei nuovi chipset; siccome però erano in ritardo rispetto alla concorrenza hanno tirato fuori quello che già avevano (me lo conferma il fatto che le fasce inferiori siano state presentate su carta e siano a 65 nm, così come dovrebbe essere R650 in autunno, mentre la top di gamma già in vendita è a 80 nm e consuma uno sproposito). Quanto ai driver i miracoli li faranno, fosse solo per la qualità che in alcuni casi ora manca: vedi gli artefatti in Lost Planet, non è solo una questione di prestazioni, ma di comportamento inesatto della scheda, segno che i driver la pilotano male, quindi di margine ce n'è in abbondanza ;)

Io mi aspetto che "risolvano" i limiti con le texture "emulando" via software, attraverso le unità shader eventualmente sottoutilizzate, le operazioni sulle texture per quei giochi che ne facciano largo uso e impegnino poco, invece, gli shader (la scheda punta molto più su una gestione al volo di geometrie complesse piuttosto che sull'uso di texture per definire i materiali e le superfici in dettaglio, cosa che i giochi attualmente non sfruttano), inserendo nei driver un profiler che tenga sottocontrollo le attività della scheda e bilanci al meglio il carico, riordinando/sostituendo le istruzioni (cosa che del resto sia Ati, sia Nvidia fanno dai tempi di G30 in poi). Ma per questo ci vorrà tempo; comunque, all'inizio anche G80 ha avuto i suoi problemi con Vista, quindi la situazione non mi sembra troppo tragica, è pur sempre una fase di transizione, e il punto di arrivo (dx 10) rappresenta uno stravolgimento totale rispetto al passato. La scelta di Nvidia è stata più conservativa, e ha pagato meglio nell'immediato (rimandando eventuali cambi troppo radicali nell'architettura al momento della bisogna); quella di Ati/AMD più radicale, e rischia di pagare solo sulla lunga distanza, del resto sulla lunga distanza sembrerebbero calibrati i piani di AMD (architettura gpu valida anche come coprocessore matematico a sè stante o integrato nella cpu multicore), e le scelte radicali previste da Ati già prima dell'acquisizione (quando è nato il progetto R600, insomma) si prestavano bene a questa "progressione" progettuale. Poi, sono il primo a parlare di "mezzo flop" (ma solo mezzo, non intero, perchè la "vera" r600 sarà r650, e allora vedremo le potenzialità grafiche di questo progetto, il quale è calibrato su più generazioni, quindi mi pare non corretto parlare subito di flop, anche se non devesse migliorare nulla a questo "giro di boa" ).

paolo.guidx
19-05-2007, 18:48
Che fregatura che è questo R600, ATI ha aspettato così tanto per proporre cosa? Queste schede hanno le stesse prestazioni delle controparti nVidia in DX10 e vanno peggio con le DX9..... Anche attivando l' HDR, da sempre cavallo di battaglia di ATI la situazione non cambia (anzi). E non credo che con dei nuovi driver la situazione possa cambiare radicalmente.

Pickwick85
19-05-2007, 22:09
Secondo me è presto per parlare ma comunque io ho una domanda da porre, ste nuove schede vanno su pci express normale o come si parlava qualche giorno fa su pci express 2.0?? questo è importante perchè fossero 2.0 non si sfrutterebbero al max con le sch madri normali e questo sarebbe uno svantaggio e mi farebbe scegliere x la controparte nvidia, anche se io ho scelto la mia asus p5w dh deluxe in attesa proprio dei nuovi r600 per poterci fare un bel crossfire ma se non sono pci express normale sono stato fregato!!!!

killer978
20-05-2007, 07:51
Che roba :eek:
Andatevi a guardare questi test tra GTS/GTX e 2900XT con driver + recenti!!

:eek:

http://www.xtremesystems.org/forums/showthread.php?t=144645

killer978
20-05-2007, 07:58
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

:asd: :asd:

sembra che il flop poi non sia così flop, alla ATI stanno lavorando notte e giorno sui driver

WarDuck
20-05-2007, 10:23
[...]E non credo che con dei nuovi driver la situazione possa cambiare radicalmente.

Questo dipende tutto dallo stadio di sviluppo dei drivers... ed essendo appena uscita il margine è cmq ampio, per come la vedo io i drivers fanno i miracoli in alcuni casi, del resto lo stesso è accaduto a nVidia molte volte, anche in passato...

Io resto a guardare (tanto nn ho esigenze di cambiare scheda video ora come ora), al momento è indubbio che le 8800 stiano sopra, e su questo nn ci piove, ma francamente nn sarei affatto meravigliato se tra meno di 1 mese la situazione si ribalti (a parità di schede).

Il vero problema nn sono le prestazioni, quanto i consumi invece.

A.L.M.
20-05-2007, 11:34
Questo dipende tutto dallo stadio di sviluppo dei drivers... ed essendo appena uscita il margine è cmq ampio, per come la vedo io i drivers fanno i miracoli in alcuni casi, del resto lo stesso è accaduto a nVidia molte volte, anche in passato...

R600 è tra l'altro una scheda molto complessa, ci sono varie parti che sono difficili da programmare e che possono trasformarne le prestazioni: il ringbus ancora più complesso che in passato, alcune componenti VLIW, l'AA via shaders possono secondo me essere influenzate in maniera determinante dai drivers, che probabilmente in futuro diventeranno sempre più determinanti data la programmabilità sempre più spinta di queste vga. ;)

gianlucaven1973
20-05-2007, 12:32
Il problema secondo me e' un altro aldila dei discorsi da fun boy di un' azienda che uno puo' fare e parte da una considerazione preoccupante:
Amd viene da un' acquisizione molto costosa e con una forte esposizione finanziaria (ati) , ha avuto dei ritardi nello sviluppo teconologico di processori , chip video e chipset nel confronto di aziende come intel che nvidia che nel frattempo, vendite alla mano, hanno preso il largo. Dovendo amd affrontare questa concorrenza fino a poco tempo fa con soluzioni di vecchia generazione anche con prezzi estremamente scontati , i risultati finanziari solo nel primo trimestre di quest' anno sono stati piuttosto pesanti;il che sarebbe stato giustificato se le uscite avessero compensato la lunga attesa , cosa che almeno nel settore chipset e video per ora non si puo' proprio dire.Il rischio di una crisi finanziaria per l' azienda californiana non e' poi cosi remoto se i processori che dovrebbero uscire a mesi non fossero almeno superiori alle soluzioni core duo di intel, ma mi domando se la scomparsa di un' azienda cosi importante e per ora la unica vera concorrente di intel e nvidia nei rispettivi settori sia una cosa positiva per noi acquirenti. che io sia un funboy di nvidia,ati,intel o amd se due di queste realta scomparissero il mercato sarebbe in mano ad un monopolio(cpu e gpu) con la diretta conseguenza che intel e nvidia potrebbero proporre quello che vogliono con tanti saluti alle innovazioni e ai prezzi concorrenziali degli ultimi anni.

killer978
20-05-2007, 12:57
R600 è tra l'altro una scheda molto complessa, ci sono varie parti che sono difficili da programmare e che possono trasformarne le prestazioni: il ringbus ancora più complesso che in passato, alcune componenti VLIW, l'AA via shaders possono secondo me essere influenzate in maniera determinante dai drivers, che probabilmente in futuro diventeranno sempre più determinanti data la programmabilità sempre più spinta di queste vga. ;)


Un po come succede x le X1900 oggi! dopo + di una anno dalla loro uscita vanno ancora da Dio in tutti i giochi con filtri a palla!! anzi se vojamo solo oggi sono sfruttate a dovere , ci sono giochi dove la X1900 con i filtri è sopra la 7950 GX2 ;) e parliamo di uno Sli contro singola VGA, la 7900GTX arranca in quasi tutti gli ultimi giochi con filtri 4x/16x

l'uniche schede prodotte da ATI, pensate + x il presente che x il futuro sono state la serie X800, poi ha sempre fatto schede mooolto proiettate al futuro!!!

L'unico vero neo di ste VGA sono il calore prodotto, credo che sia stato questo il problema principale ad evitare l'uscita della XTX (il consumo è vero solo in parte xche tra una 8800 ed un HD2900 ci saranno 30€ di differenza all'anno sulla bolletta)
Se la scheda fosse uscita 6 mesi fa assieme alle 8800 non staremmo a parlare di Flop anzi ;) se confrontiamo i test delle GTX di 6 mesi fa siamo li con le XT di oggi

ThePunisher
20-05-2007, 13:14
@ ThePunisher

Ribadisco la mia idea che la scheda non sia uscita solo in ritardo (rispetto a Nvidia) ma soprattutto in anticipo (rispetto a se stessa). Secondo me avevano preparato tutto per arrivare con la gamma completa (e i driver a un buon livello di ottimizzazione) in contemporanea al lancio in volumi dei k10 e dei nuovi chipset; siccome però erano in ritardo rispetto alla concorrenza hanno tirato fuori quello che già avevano (me lo conferma il fatto che le fasce inferiori siano state presentate su carta e siano a 65 nm, così come dovrebbe essere R650 in autunno, mentre la top di gamma già in vendita è a 80 nm e consuma uno sproposito). Quanto ai driver i miracoli li faranno, fosse solo per la qualità che in alcuni casi ora manca: vedi gli artefatti in Lost Planet, non è solo una questione di prestazioni, ma di comportamento inesatto della scheda, segno che i driver la pilotano male, quindi di margine ce n'è in abbondanza ;)

Io mi aspetto che "risolvano" i limiti con le texture "emulando" via software, attraverso le unità shader eventualmente sottoutilizzate, le operazioni sulle texture per quei giochi che ne facciano largo uso e impegnino poco, invece, gli shader (la scheda punta molto più su una gestione al volo di geometrie complesse piuttosto che sull'uso di texture per definire i materiali e le superfici in dettaglio, cosa che i giochi attualmente non sfruttano), inserendo nei driver un profiler che tenga sottocontrollo le attività della scheda e bilanci al meglio il carico, riordinando/sostituendo le istruzioni (cosa che del resto sia Ati, sia Nvidia fanno dai tempi di G30 in poi). Ma per questo ci vorrà tempo; comunque, all'inizio anche G80 ha avuto i suoi problemi con Vista, quindi la situazione non mi sembra troppo tragica, è pur sempre una fase di transizione, e il punto di arrivo (dx 10) rappresenta uno stravolgimento totale rispetto al passato. La scelta di Nvidia è stata più conservativa, e ha pagato meglio nell'immediato (rimandando eventuali cambi troppo radicali nell'architettura al momento della bisogna); quella di Ati/AMD più radicale, e rischia di pagare solo sulla lunga distanza (immagino qui volessi dire corta), del resto sulla lunga distanza sembrerebbero calibrati i piani di AMD (architettura gpu valida anche come coprocessore matematico a sè stante o integrato nella cpu multicore), e le scelte radicali previste da Ati già prima dell'acquisizione (quando è nato il progetto R600, insomma) si prestavano bene a questa "progressione" progettuale. Poi, sono il primo a parlare di "mezzo flop" (ma solo mezzo, non intero, perchè la "vera" r600 sarà r650, e allora vedremo le potenzialità grafiche di questo progetto, il quale è calibrato su più generazioni, quindi mi pare non corretto parlare subito di flop, anche se non devesse migliorare nulla a questo "giro di boa" ).


Potrei dirti, analogamente, che allora la vera serie 8 di NVIDIA sarà la 89XX... ed è già pronta. E li non ci sarebbe nuovamente più gara.

Comunque dal punto di vista tecnologico\economico spero tu abbia ragione, anche per le nostre tasche.

halduemilauno
20-05-2007, 13:29
Un po come succede x le X1900 oggi! dopo + di una anno dalla loro uscita vanno ancora da Dio in tutti i giochi con filtri a palla!! anzi se vojamo solo oggi sono sfruttate a dovere , ci sono giochi dove la X1900 con i filtri è sopra la 7950 GX2 ;) e parliamo di uno Sli contro singola VGA, la 7900GTX arranca in quasi tutti gli ultimi giochi con filtri 4x/16x

l'uniche schede prodotte da ATI, pensate + x il presente che x il futuro sono state la serie X800, poi ha sempre fatto schede mooolto proiettate al futuro!!!

L'unico vero neo di ste VGA sono il calore prodotto, credo che sia stato questo il problema principale ad evitare l'uscita della XTX (il consumo è vero solo in parte xche tra una 8800 ed un HD2900 ci saranno 30€ di differenza all'anno sulla bolletta)
Se la scheda fosse uscita 6 mesi fa assieme alle 8800 non staremmo a parlare di Flop anzi ;) se confrontiamo i test delle GTX di 6 mesi fa siamo li con le XT di oggi

parleremo di crollo. se l'hanno fatta uscire adesso significa che sei mesi fa non era assolutamente pronta.

ThePunisher
20-05-2007, 13:36
Analogamente a quanto hai quotato, fare un paragone fra due schede che non esistono mi pare un esercizio accademico un po' azzardato. Direi di mantenerci sul tecnico e lasciare le previsioni a Othelma... :)

La sua ancora non esiste e il fatto che via driver l'attuale guadagni il 20+% sono solo rumor, la 8900 by NVIDIA esiste eccome (anche se non è uscita è decisamente più prossima e tangibile, non credi?):

http://www.hwupgrade.it/news/skvideo/geforce-8900-5-nuove-schede-al-debutto_20161.html

Free Gordon
20-05-2007, 13:36
alla fine quella è la scheda...


Ma perchè, com'è la scheda? :D

Hai messo a confronto le due architetture? G80 e R600.

ThePunisher
20-05-2007, 13:48
Ma perchè, com'è la scheda? :D

Hai messo a confronto le due architetture? G80 e R600.

No, ho messo a confronto i risultati, se l'hanno fatta uscire ora e con quei driver vuol dire che alla fine tanto schifo non fanno, da qui deduco che i margini di miglioramento via driver non siano sicuramente tali da ribaltare i risultati.

In ogni caso la scheda richiede 200+W e non riesce a star dietro a una 8800GTX da 140W in full load e questo è un dato oggettivo (dato oggettivo che non cambierà con il solo intervento via driver).

ThePunisher
20-05-2007, 13:56
No, non credo. Quando uscirà la valuteremo, così come faremo con l'analogo respin di R600. Per ora le schede sono queste.

Non credi che la 8900 sia più prossima e tangibile di una scheda per cui ancora non si sa ancora il nome mentre per la prima abbiamo un annuncio ufficiale con tanto di frequenze, ecc.?

killer978
20-05-2007, 13:56
parleremo di crollo. se l'hanno fatta uscire adesso significa che sei mesi fa non era assolutamente pronta.

Era solo un ipotesi :D

Cmq sono convinto che la scheda funzioni solo da poco tempo e che i driver li hanno incominciati a fare da meno di quanto si possa immaginare! altrimenti come si spiegano differenze del 20/30% tra un beta e l'altro usciti in poco meno di una settimana tra loro ;)

Non credo che la VGA fosse pronta gia 4/5 mesi fa come dicono in mooolti, l'acquisizione di AMD ha scombussolato il tutto , come giusto che fosse visto il cambio radicale!!! secondo me AMD ha cambiato anche i piani iniziali di R600, che sembra mooooolto + una GP-GPU

killer978
20-05-2007, 14:07
Non credi che la 8900 sia più prossima e tangibile di una scheda per cui ancora non si sa ancora il nome mentre per la prima abbiamo un annuncio ufficiale con tanto di frequenze, ecc.?

Quando usciranno li valuteremo!! io fossi in ATI/Nvidia aspetterei a far uscire altre VGA, gia adesso siamo avanti anni luce rispetto al software

Free Gordon
20-05-2007, 14:22
Io mi aspetto che "risolvano" i limiti con le texture "emulando" via software, attraverso le unità shader eventualmente sottoutilizzate, le operazioni sulle texture per quei giochi che ne facciano largo uso e impegnino poco, invece, gli shader ,inserendo nei driver un profiler che tenga sottocontrollo le attività della scheda e bilanci al meglio il carico, riordinando/sostituendo le istruzioni (cosa che del resto sia Ati, sia Nvidia fanno dai tempi di G30 in poi).

Questo è possibile? :confused:
G80 elabora 32 texture filtered a ciclo, R600 16 filtered + 16 unfiltered.. (oppure 32 unfiltered, le quali sono utili con normal maps, vertex textures ecc).
Nei giochi attuali il limite maggiore viene proprio dalle texture filtrate. Come può ATI, recuperare un gap del 60% buono in quel settore (considerando il clock maggiore della XT) su una GTX, utilizzando gli shader??



Ma per questo ci vorrà tempo; comunque, all'inizio anche G80 ha avuto i suoi problemi con Vista, quindi la situazione non mi sembra troppo tragica, è pur sempre una fase di transizione, e il punto di arrivo (dx 10) rappresenta uno stravolgimento totale rispetto al passato.

In effetti, la sigla x00 rappresenta per ATI un cambio netto di architettura, penso ci vorrà molto tempo prima di avere dei driver ad hoc.



Poi, sono il primo a parlare di "mezzo flop" (ma solo mezzo, non intero, perchè la "vera" r600 sarà r650, e allora vedremo le potenzialità grafiche di questo progetto, il quale è calibrato su più generazioni, quindi mi pare non corretto parlare subito di flop, anche se non devesse migliorare nulla a questo "giro di boa" ).

R600 avrebbe potuto consumare di meno, se non avessero usato fast14 per la costruzione.
http://www.intrinsity.com/index.php?option=com_content&task=view&id=35&Itemid=28
In ottica consumi, questa scelta è stata scellerata. :D
Probabilmente non lo era nell'ottica di massimizzare le prestazioni in un certo settore.



(la scheda punta molto più su una gestione al volo di geometrie complesse piuttosto che sull'uso di texture per definire i materiali e le superfici in dettaglio, cosa che i giochi attualmente non sfruttano)

Anche per la fisica, R600 dovrebbe essere una bomba!!

halduemilauno
20-05-2007, 14:29
Era solo un ipotesi :D

Cmq sono convinto che la scheda funzioni solo da poco tempo e che i driver li hanno incominciati a fare da meno di quanto si possa immaginare! altrimenti come si spiegano differenze del 20/30% tra un beta e l'altro usciti in poco meno di una settimana tra loro ;)

Non credo che la VGA fosse pronta gia 4/5 mesi fa come dicono in mooolti, l'acquisizione di AMD ha scombussolato il tutto , come giusto che fosse visto il cambio radicale!!! secondo me AMD ha cambiato anche i piani iniziali di R600, che sembra mooooolto + una GP-GPU

per valutare in maniera corretta quello che tu(e moltissimi altri)dici bisogna valutare i nuovi driver in una stessa rece precedente. è impossibile fare discorsi quella rece ha ottenuto tot un'altra rece(di tutt'altro sito)ha ottenuto un'altro tot con altri driver(che nella massa delle rece son sempre gli stessi). ci deve essere uniformità di piattaforma.
;)

leoneazzurro
20-05-2007, 14:30
Era solo un ipotesi :D

Cmq sono convinto che la scheda funzioni solo da poco tempo e che i driver li hanno incominciati a fare da meno di quanto si possa immaginare! altrimenti come si spiegano differenze del 20/30% tra un beta e l'altro usciti in poco meno di una settimana tra loro ;)

Non credo che la VGA fosse pronta gia 4/5 mesi fa come dicono in mooolti, l'acquisizione di AMD ha scombussolato il tutto , come giusto che fosse visto il cambio radicale!!! secondo me AMD ha cambiato anche i piani iniziali di R600, che sembra mooooolto + una GP-GPU

Le prime R600 funzionanti risalgono almeno a Novembre. Detto questo, scrivere dei drivers per un'architettura complessa come quella di R600 (che è decisamente più difficile da "spremere" rispetto a G80) non è una cosa semplice e occorre parecchio tempo anche solo per fare funzionare il tutto (il che vale anche per G80, perchè magari qualcuno pensa che i drivers di lancio delle 8800 li hanno fatti in una settimana). Quindi i drivers per R600 si trovano ora in una situazione anche peggiore di quella dei drivers G80 al lancio, perchè se anche c'è stato forse un pò più di tempo per scrivere dei drivers, è anche vero che dal punto di vista dell'architettura è decisamente più difficile ottimizzare per R600, quindi le potenzialità del chip sono sicuramente sfruttate peggio rispetto ad un'architettura più "autobilanciante" e priva di punti deboli dal lato del texturing come G80.

halduemilauno
20-05-2007, 14:30
Quando usciranno li valuteremo!! io fossi in ATI/Nvidia aspetterei a far uscire altre VGA, gia adesso siamo avanti anni luce rispetto al software

esse non aspettano il software aspettano solo la concorrenza diretta.
;)

leoneazzurro
20-05-2007, 14:42
cQuesto è possibile? :confused:
G80 elabora 32 texture filtered a ciclo, R600 16 filtered + 16 unfiltered.. (oppure 32 unfiltered, le quali sono utili con normal maps, vertex textures ecc).
Nei giochi attuali il limite maggiore viene proprio dalle texture filtrate. Come può ATI, recuperare un gap del 60% buono in quel settore (considerando il clock maggiore della XT) su una GTX, utilizzando gli shader??

Dovrebbero essere 16 filtered o 64 unfiltered, visto che ci sono 80 texture samplers, di cui 16 dedicati ai vertex shader. In teoria R600 potrebbe far filtrare le texture anche negli shaders (coerenza dello scheduling permettendo) così come fa anche R580 per le texture FP16 o superiori. Certo è che se un gioco si basa unicamente sulle texture fitrate, allora R600 è limitato (anche se dovrebbe essere comunque a partire dal 15% più performante rispetto a R580, e se ciò non avviene è ovviamente a causa dei drivers.)



In effetti, la sigla x00 rappresenta per ATI un cambio netto di architettura, penso ci vorrà molto tempo prima di avere dei driver ad hoc.


Molto tempo si, direi almeno 4/5 mesi e comunque si dovrebbe fare profiling su ogni applicazione.




R600 avrebbe potuto consumare di meno, se non avessero usato fast14 per la costruzione.
http://www.intrinsity.com/index.php?option=com_content&task=view&id=35&Itemid=28
In ottica consumi, questa scelta è stata scellerata. :D
Probabilmente non lo era nell'ottica di massimizzare le prestazioni in un certo settore.


Anche il processo scelto diciamo che non era il massimo in termini di leakage (si tratta di un 80 nm ad alta performance, ma poco ottimizzato per i consumi)





Anche per la fisica, R600 dovrebbe essere una bomba!!

Sulla geometria si sa già che è più potente, poichè anche la fisica opera ingenere su grandezze vettoriali, R600 dovrebbe andare meglio in questo ambito. Tuttavia, sia per G80 che per R600 non vedo un utilizzo a breve del calcolo fisico se non per applicazioni particolari, e ancor meno un utilizzo del tessellatore HW se non in giochi sponsorizzati.

A.L.M.
20-05-2007, 15:07
e ancor meno un utilizzo del tessellatore HW se non in giochi sponsorizzati.

Ma qualcuno sa se e quanto il tessellatore HW venga usato su XBoX360? Perchè magari nel caso dei porting potrebbe essere agevole l'implementazione su PC...

Free Gordon
20-05-2007, 15:10
No, ho messo a confronto i risultati, se l'hanno fatta uscire ora e con quei driver vuol dire che alla fine tanto schifo non fanno, da qui deduco che i margini di miglioramento via driver non siano sicuramente tali da ribaltare i risultati.

Io credo che la 2900XT fosse la vittima più sacrificabile (piuttosto che non far uscire nulla...) e per questo è fuori, anche se i driver sono in pre-alpha. ;)



In ogni caso la scheda richiede 200+W e non riesce a star dietro a una 8800GTX da 140W in full load e questo è un dato oggettivo (dato oggettivo che non cambierà con il solo intervento via driver).

I dati sono questi (200W.. :rolleyes: ) ora non esageriamo:

http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

30W in più in full, non penso che siano un buon motivo per cambiare alimentatore (a meno che uno non sia già al limite con la GTX ;) ).


Inoltre, in idle e PEAK 2D, R600 consuma come (anzi meno) di una GTX, segno che i meccanismi implementati per regolare i consumi sono simili per le due case, sempre considerando chip di dimensioni paragonabili (circa 700mln di transist) ;) e frequenze più vicine (la GTS è un chip più piccolo ed ha un clock molto più basso di R600).

Ciò che si può imputare oggi ad ATI, è il fatto di avere sbagliato target, tarando questa nuova architettura su giochi/applicazioni che ad oggi sono una piccola percentuale del mercato (shader oriented) e di averla fatta uscire con driver primitivi.

Camelvam
20-05-2007, 15:23
sentite!!

visto che tutto sommato il prezzo della hd2900xt è aggressivo,su una scheda madre A8N-SLI PREMIUM potrebbe almeno dare buoni risultati?

Free Gordon
20-05-2007, 15:34
Dovrebbero essere 16 filtered o 64 unfiltered, visto che ci sono 80 texture samplers, di cui 16 dedicati ai vertex shader.

Mi basavo sul commendo di Anandtech:
This is definitely a step up for R600, as R5xx hardware doesn't have texture filtering hardware for floating point textures. All told, with each of its four texture units working, R600 can consume up to 32 unfiltered textures or 16 unfiltered textures plus 16 filtered textures (as long as they're fp16 or fewer bits and we're only using bilinear filtering).

In effetti nell'immagine però ci sono 16x4 TS (piccoli) + altri 4x4 fp32 Texture Samplers. :p
http://images.anandtech.com/reviews/video/ATI/2900XT/texture.jpg
Dall'immagine si potrebbe dedurre che sono 16 filtrate o 64 non filtrate.



In teoria R600 potrebbe far filtrare le texture anche negli shaders (coerenza dello scheduling permettendo) così come fa anche R580 per le texture FP16 o superiori. Certo è che se un gioco si basa unicamente sulle texture fitrate, allora R600 è limitato (anche se dovrebbe essere comunque a partire dal 15% più performante rispetto a R580, e se ciò non avviene è ovviamente a causa dei drivers.)

Praticamente l'80% dei giochi odierni si basa pesantemente sulle texture filtrate.. :D



Sulla geometria si sa già che è più potente, poichè anche la fisica opera in genere su grandezze vettoriali, R600 dovrebbe andare meglio in questo ambito. Tuttavia, sia per G80 che per R600 non vedo un utilizzo a breve del calcolo fisico se non per applicazioni particolari, e ancor meno un utilizzo del tessellatore HW se non in giochi sponsorizzati.

I giochi 360/pc potrebbero beneficiarne... (speranza).
C'è anche da dire che generalmente solo nei giochi esclusivi 360 il tessellatore è utilizzato, per cui magari avremo una conversione spettacolare di Halo3 e Fable2 ma poco altro... :D

leoneazzurro
20-05-2007, 16:40
Mi basavo sul commendo di Anandtech:
This is definitely a step up for R600, as R5xx hardware doesn't have texture filtering hardware for floating point textures. All told, with each of its four texture units working, R600 can consume up to 32 unfiltered textures or 16 unfiltered textures plus 16 filtered textures (as long as they're fp16 or fewer bits and we're only using bilinear filtering).

In effetti nell'immagine però ci sono 16x4 TS (piccoli) + altri 4x4 fp32 Texture Samplers. :p
http://images.anandtech.com/reviews/video/ATI/2900XT/texture.jpg
Dall'immagine si potrebbe dedurre che sono 16 filtrate o 64 non filtrate.


Si potrebbe essere limitati da qualche altro fattore e non riuscire a trasmettere tutti e 64 i campioni possibili, comunque 64 è il numero possibile di campioni per clock che R600 è in grado di elaborare, ad ogni modo il "potere filtrante" è decisamente più basso di G80.


Praticamente l'80% dei giochi odierni si basa pesantemente sulle texture filtrate.. :D

Intendo che non in tutti i giochi si è limitati dal fill rate delle texture. Altrimenti se i giochi fossero limitati dal fillrate delle texture, andrebbero tutti due volte più veloci su G80 rispetto a R600.




I giochi 360/pc potrebbero beneficiarne... (speranza).
C'è anche da dire che generalmente solo nei giochi esclusivi 360 il tessellatore è utilizzato, per cui magari avremo una conversione spettacolare di Halo3 e Fable2 ma poco altro... :D

La questione è che si dovrebbe codificare specificatamente un path per la versione R600 con il tessellatore e un path per tutte le altre schede video
senza. Per quanto XNA sia flessibile, bisogna vedere se gli sviluppatori vorrano spendere tempo e denaro per i due codici.

killer978
20-05-2007, 17:07
Ma qualcuno sa se e quanto il tessellatore HW venga usato su XBoX360? Perchè magari nel caso dei porting potrebbe essere agevole l'implementazione su PC...

Credo che difficilmente vedremo usarlo in un titolo, almeno nel breve termine, i giochi sono quasi tutti sponsorizzati da Nvidia, quindi quale matto userebbe una tecnica ad appannagio solo di ATI :rolleyes: ATI deve lavorare di + in questo senso se vuole far prevalere le propie tecnologie, il 3Dc mai visto in nessun titolo , il truform manco la puzza ecc.. ecc... le idee ci sono ma manca chi le usi nei giochi

homero
20-05-2007, 19:45
secondo la mia opinione le schede video ati sono superiori ad nvidia nella fascia media e nella fascia bassa, ossia inquelle di maggior importanza commerciale.
per quanto riguarda l'efficenza nei videogame, ormai si sta raggiungendo un risultato per cosi' dire idiosincratico.....
....nessun gioco supporta ancora a dovere le directx9.0 e gia' ci si preoccupa delle directx10, penso siamo al limite della demenza....
...ci hanno propinato aero come una interfaccia super per mesi...e adesso che la usiamo tutti i giorni ci accorgiamo che xgl su sistemi opensource garantiscono effetti di maggior qualità e velocità usando le openGL....

inoltre si scrive se abilitassimo tutto al massimo nemmeno la piu' potente scheda video in commercio riuscirebbe a superare i 5fps....
siamo alla follia pura.....

la scheda video ati 1950 è una grandissima scheda superiore a tutte le schede nvidia della serie 7 e 6.... costa 200 euro....
cosa volete di piu'?
ati non si aspetta nulla dal chip R600 semplicemente perche' non c'e' nulla da aspettarsi dalle directx10 nei prossimi mesi....allora ne riparliamo nel 2008 se non proprio nel 2009....
fino ad allora.......è soltanto speculazione commerciale....

xeal
20-05-2007, 21:40
Potrei dirti, analogamente, che allora la vera serie 8 di NVIDIA sarà la 89XX... ed è già pronta. E li non ci sarebbe nuovamente più gara.

Comunque dal punto di vista tecnologico\economico spero tu abbia ragione, anche per le nostre tasche.

Forse non mi sono spiegato bene, io non ne facevo una questione di prestazioni, ma solo ed esclusivamente tecnica, considerando che:

a) R650 vs R600 dovrebbe aver affinato il processo produttivo (non mi pare che Nvidia abbia particolari problemi attualmente con la produzione, quindi da questo punto di vista le vere G80 ci sono adesso :p - mentre per ati ho il sospetto che qualche problemino ci sia, visto che l'unica scheda in commercio è a 80nm, mentre le altre, da 65nm, sono state solo presentate)

b) quando uscirà R650 (e Nvidia tirerà fuori la 8900 in contemporanea, prima non avrebbe senso, visto che il primato è suo) Ati dovrebbe avere anche dei driver che pilotino decentemente tutte le funzioni dx10 sotto Vista (Nvidia è già a buon punto, quindi anche da questo punto di vista la vera serie 8 è già in commercio :p).

Poi, per le prestazioni bisognerà fare il confronto probabilmente tra una 2900 XTX e una 8900 GTX/Ultra, entrambe con un clock superiore rispetto alle schede attuali e forse anche 1GB di ram, e allora vedremo se sarà cambiato qualcosa oppure no; anzi, prevedo una serie di test massacranti per tutte le redazioni di settore, perchè in contemporanea arriveranno i k10 con i relativi chipset ati, quindi bisognerà anche testare amd vs intel, sia in condizioni cpu limited (oltre alle varie suite specifiche per i calcoli intensivi della cpu) per confrontare le prestazioni delle piattaforme cpu + chipset (magari in un secondo momento si valutano anche i chipset Nvidia per entrambe le piattaforme), sia in condizioni gpu limited per verificare se ci siano eventuali ottimizzazioni globali su una piattaforma full-amd, su quale piattaforma "viaggino meglio" R6x0 e G80, e come "scalino" (cioè, in definitiva, per vedere se c'è una piattaforma vincente o se i risultati saranno alterni).

E comunque, al momento le prestazioni pure non mi interessano molto, rispetto ai dati tecnici, per due motivi:

a) da un punto di vista squisitamente tecnico-teorico, se le indiscrezioni su R700 sono vere, allora r600 è solo una testa di ponte verso un chip ancora più estremo, multicore e pronto per essere integrato nella cpu, sia come gpu per sistemi embedded, sia come coprocessore matematico (quasi quasi prendo la macchina del tempo e vado nel 2009 a vedere come si comportano i processori Fusion, anzi vado un po' più avanti a vedere i processori con integrata gpu + altri coprocessori generici: alcune indiscrezioni - non so se smentite - vogliono una "migrazione" di alcune cpu Power sul socket degli Opteron, chissà che in futuro non ci sia una qualche fusione anche tra ibm e amd, o almeno dei progetti congiunti più spinti, con un processore con un paio di core x86 general purpose, o più, a gestire la baracca, uno o più coprocessori GPGPU e uno o più stream processor di derivazione power - tipo le sepu di Cell - per calcoli più generici rispetto alla gpgpu... sarebbe una bestiolina da server mica male...);

b) per essere molto più pratici, nessuna delle due schede entrerà nel mio case :D (ti dirò di più: per quel che ci faccio, resto fedelissimo alla mia GF4 Ti 4200 128MB AGP 8x, che forse farà "scandalizzare" qualcuno tra i più appassionati ed esigenti :D, ma che per me va ancora benone, e magari tra qualche anno diventa un pezzo da antiquariato, la vendo e col ricavato mi compro un sistema che mi fa raytracing two pass + radiosity in tempo reale su scene complicatissime e a qualsiasi risoluzione :sofico: )

No, ho messo a confronto i risultati, se l'hanno fatta uscire ora e con quei driver vuol dire che alla fine tanto schifo non fanno

Si, però tu stai guardando solo le prestazioni: devi guardare anche la qualità dell'immagine per capire quanto i driver siano maturi, e guardando Lost Planet, dove non solo le prestazioni sono basse, ma l'immagine è sbagliata, allora bisogna dedurre che o c'è un serio problema hardware, oppure i driver, al momento, un po di schifo lo fanno, e con la qualità dovrebbero arrivare un po' di prestazioni in più ;)

Comunque, c'è anche un'altra considerazione da fare: non ti sembra un po strano che in lost plante, attivando l'AA (e quindi complicando i calcoli per la gpu), ad entrambe le risoluzioni considerate, mentre le schede Nvidia accusino un leggero calo, per la scheda ati, pur essendo il frame rate troppo basso, questo non succeda? Non conoscendo l'engine grafico del gioco, mi vengono in mente un paio di ipotesi:

a) il gioco fa pesantemente uso di texture (sulle quali R600 è svantaggiata) e impegna poco gli shader; poichè R600 esegue l'AA attraverso gli shader, si trova "avvantaggiando" facendo lavorare delle parti che in precedenza "dormivano", e quindi le prestazioni non calano; ma non mi sembra un'interpretazione accettabile, perchè non giustifica gli artefatti, e inoltre, avendo delle unità dedicate, in teoria Nvidia dovrebbe essere (più o meno) avvantaggiata;

b) la gestione da parte del driver delle funzionalità richieste del gioco è pessima, così, oltre a produrre artefatti, non attiva correttamente l'AA/fa delle cose in meno rispetto alle rivali, e quindi, in entrambi i casi lavora in meno (e lavora anche male), per cui ci si possono aspettare piccoli miglioramenti, ma il risultato veritiero è quello senza AA, quindi nel test con AA i risultati dovrebbero essere peggiori;

c) come sopra, ma al contrario: il driver lavora male, ma solo sugli effetti specifici del gioco (alcune particolari funzioni dx10), mentre l'AA è operato correttamente, quindi il risultato nel test senza AA dovrebbe essere leggermente più alto (possibili ottimizzazioni a parte).

Naturalmente, finchè non ci saranno dei driver per vista decenti (tra un paio di mesi), saranno tutte e solo speculazioni della specie "mentalis pippae".

xeal
20-05-2007, 21:41
@FreeGordon

La mia era solo un'ipotesi: suppongo che, essendo gli shader "sovradimensionati" rispetto alle unità per l'elaborazione delle texture (filtered), allora in un gioco che si affidi pesantemente e prevalentemente alle texture, qualche unità tra gli shader rimarrà presumibilmente a rigirarsi i pollici, quindi, se possibile (e leoneazzurro mi conferma che potrebbe esserlo, scheduler permettendo) questi shader non utilizzati potrebbero dare una mano, o eseguendo operazioni "intere" sulle texture, o parti di esse (la sparo un po' così, non ho idea se ciò sia effettivamente possibile, nè se converrebbe: si potrebbe creare una specie di pipeline operativa - di tipo logico, non fisico ovviamente - tra gli shader e le unità per le texture, così che gli shader applichino i filtri e le unità specifiche facciano il resto, in modo da ottenere 64 texture filtered operations diciamo in 2-3 cicli di clock - non di più, altrimenti il gioco non varrebbe la candela - e colmare il gap, anche in considerazione del differente clock; ma ripeto, in questi termini potrebbe anche essere una caxxata). Si vedrà.

Rodtek
24-05-2007, 16:34
Azzarola, 363 commenti..
Non me li leggo certo tutti...

Volevo dire (magari l'ha già fatto qualcun'altro, spero di sì), che i driver fanno la loro parte, eccome.

Rileggendo i test della 8800 GTX (a questo indirizzo http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_index.html)
vedrete che a parità di sistema di prova otteneva frame inferiori della 2900XT di oggi. Con i driver ha ottenuto un bell'incremento.

Magari ATI non sà più fare i driver o sono già ottimizzati al massimo.

Cmq non sono in lista per comprare la R600, ma la sua uscita farà sicuramente calare i prezzi delle x1900.

Buon proseguimento.

Rod

aaasssdddfffggg
25-05-2007, 21:10
Michael Hara, in una recente conferenza, ha affermato che la prossima GPU fornirà prestazioni "prossime al teraflop".
NVidia rilascerà probabilmente il nuovo processore [G] a fine anno, per quanto riguarda la fascia alta, mentre, per tutte le altre fasce sottostanti si dovrà aspettare l´estate prossima.
Questa nuova GPU si pensa, potrebbe utilizzare la tecnologia a 65 nanometri. ilchè consentirebbe un miglior raffreddamento della stessa e nello stesso tempo maggiori possibilità in overclock.
Sono cazzi per ATI...

MiKeLezZ
26-05-2007, 01:25
OPS.
La X2900XT NON ha le funzionalità avanzate multimediale date dal chip UVD.
OPS.
La X2900XT NON ha il chip UVD, seppure in tutte le recensioni si è sperato il contrario (d'altronde era quello che ATI/AMD voleva far intendere).

In conclusione la X2900XT va male nei consumi, va male nella rumorosità, va male con i filtri attivati, vanno male i filtri stessi, è buggata nei driver, e non ha neppure le tanto sponsorizzate funzionalità avanzate multimediali.


http://www.dailytech.com/article.aspx?newsid=7447

MenageZero
26-05-2007, 10:17
Michael Hara, in una recente conferenza, ha affermato che la prossima GPU fornirà prestazioni "prossime al teraflop".
NVidia rilascerà probabilmente il nuovo processore [G] a fine anno, per quanto riguarda la fascia alta, mentre, per tutte le altre fasce sottostanti si dovrà aspettare l´estate prossima.
Questa nuova GPU si pensa, potrebbe utilizzare la tecnologia a 65 nanometri. ilchè consentirebbe un miglior raffreddamento della stessa e nello stesso tempo maggiori possibilità in overclock.
Sono cazzi per ATI...

(premesso che da ambo le parti quando si sparano queste cifre ci si riferisce al picco max teorico di potenza di calcolo, spesso molto diverso da quella effettivamente mediamemente sfruttabile durante il funzionamento pratico, in modo da poter dire il num. + alto possibile per fare marketing) circa 1 Tflop per singola gpu sembra veramente un picco molto elevato, specialmente se tale chip viene commercializzato entro l'anno (mi pare che si pubblicizzava un valore simile per un xfire di r600); d'altra parte però questo farebbe pensare che non ci sarà uno shrink di g80, e visto che probabilmente il nuovo chip anche se sarà a 65 avrà più transistor, sembra profilarsi la prospettiva che non ci sarà un calo dei consumi per la fascia medio-alta e alta, neanche temporaneo, so che non interessa molto chi compra quelle schede... però se non ci sarà neanche un minimo abbassamento peccato, imho un colpettino ogni tanto ai consumi servirebbe anche nelle gpu.

MenageZero
26-05-2007, 10:24
OPS.
La X2900XT NON ha le funzionalità avanzate multimediale date dal chip UVD.
OPS.
La X2900XT NON ha il chip UVD, seppure in tutte le recensioni si è sperato il contrario (d'altronde era quello che ATI/AMD voleva far intendere).

In conclusione la X2900XT va male nei consumi, va male nella rumorosità, va male con i filtri attivati, vanno male i filtri stessi, è buggata nei driver, e non ha neppure le tanto sponsorizzate funzionalità avanzate multimediali.


http://www.dailytech.com/article.aspx?newsid=7447
:eek:

e a me sembrava addirittura che uvd fosse stato pure recensito :stordita: (e non prendo allucinogeni :D )

a questo punto ad r600, nei confronti della concorrente gts, rimane solo la speranza in ottica futura nel campo delle prestazioni, attraverso gli attesi "miracoli" via drv :(

bollicina31
26-05-2007, 11:33
Direi buono ad nvidia per i consumi ela rumorosità, nale ad atiper le prestazioni carenti ( va bè che poi faranno la xtx e la xtx oc ecc... )
ma dati alla mano ovvero cosa offre sta gpu sulla carta deirei che è davvero nata male....
Altro brutto voto ad entrambe nella demo di LOST, anche se devo dire che le demo sono sempre state molto pesanti, altrimenti sarebbero già vecchi, ma 4/5 fps fanno davvero pena!!!!!!
per ora mi tengo le mie 2 7900gtx ( che col 99% dei giochi vanno alla grande) e sto a vedere come va il futuro di dx10 e delle due case di schede video....

Mister Tarpone
26-05-2007, 11:37
ma 6 una ragazza?

DVD2005
26-05-2007, 12:06
ma 6 una ragazza?

sta buono :oink:

:asd:

Mister Tarpone
26-05-2007, 12:13
sta buono :oink:

:asd:

..questa stagione risveglia l'istinto animale che c'è in me -----> Il :oink: one

MenageZero
26-05-2007, 12:14
ma 6 una ragazza?
già che su questo forum l'utenza femminile è una rarità.... una ragazza che disquisisce di vg e gpu e con un SLI nel case ? :asd: .... sarebbe un caso da studiare... :p

ghiltanas
26-05-2007, 12:45
Credo sia scappata :(

Cmq sarebbe divertente fare un sondaggio per vedere la percentuale maschile e femminile di questo forum.Sarebbe una cosa fattibile?

MenageZero
26-05-2007, 13:44
secondo me, al max è scappato :O :D

Mister Tarpone
26-05-2007, 13:57
secondo me, al max è scappato :O :D

infatti... ;)

A.L.M.
26-05-2007, 21:23
OPS.
La X2900XT NON ha le funzionalità avanzate multimediale date dal chip UVD.
OPS.
La X2900XT NON ha il chip UVD, seppure in tutte le recensioni si è sperato il contrario (d'altronde era quello che ATI/AMD voleva far intendere).

In conclusione la X2900XT va male nei consumi, va male nella rumorosità, va male con i filtri attivati, vanno male i filtri stessi, è buggata nei driver, e non ha neppure le tanto sponsorizzate funzionalità avanzate multimediali.


http://www.dailytech.com/article.aspx?newsid=7447

OPS, l'accelerazione video della GTS (e della GTX, perchè dal punto di vista del video vanno uguali) è peggiore di quella della XT anche con drivers che non supportano ancora l'Avivo HD... :rolleyes:

A proposito di quanto diceva DailyTech... :rolleyes:

http://www.driverheaven.net/reviews/r600reviewz/flashers/bluray.jpg

http://www.driverheaven.net/reviews/r600reviewz/flashers/hddvd.jpg

Questa la situazione con i drivers attuali. ;)

P.S.: entrambi i film sono a 1080p, il BluRay è AVC, l'HD-DVD VC-1.

Per maggiori info riguardo all'Avivo HD basta andarsi a leggere gli articoli di Beyond3D, XBitLabs e HardOCP, in cui si spiega che le mansioni dell'UVD in R600 vengono svolte dagli shaders.

http://www.hwupgrade.it/forum/showpost.php?p=17279929&postcount=2650

A.L.M.
26-05-2007, 21:31
Michael Hara, in una recente conferenza, ha affermato che la prossima GPU fornirà prestazioni "prossime al teraflop".
NVidia rilascerà probabilmente il nuovo processore [G] a fine anno, per quanto riguarda la fascia alta, mentre, per tutte le altre fasce sottostanti si dovrà aspettare l´estate prossima.
Questa nuova GPU si pensa, potrebbe utilizzare la tecnologia a 65 nanometri. ilchè consentirebbe un miglior raffreddamento della stessa e nello stesso tempo maggiori possibilità in overclock.
Sono cazzi per ATI...

Non mi pare una cosa tanto stupefacente. La potenza di calcolo, in vista dell'uso GPGPU aumenterà in maniera incredibile nei prossimi anni, quindi non è tanto peregrino pensare che in termini di potenza teorica di calcolo una scheda mainstream della prossima generazione (G92/R700) arriverà a 400 gigaflops, mentre una scheda high-end potrà superare gli 800-900 gigaflops tranquillamente. ;)

alienzero
27-05-2007, 00:14
Mi chiedo cosa occorra emozionarsi tanto se le 2900xt rosicano un 20% di carico in meno per la gestione dei flussi HD alle cpu rispetto le 8800.
Insomma quando si hanno processori dualcore a 3ghz (penso il minimo da associare a schede video di quella fascia), chi si pone il problema del carico...
ridicolo

MiKeLezZ
27-05-2007, 01:08
OPS, l'accelerazione video della GTS (e della GTX, perchè dal punto di vista del video vanno uguali) è peggiore di quella della XT anche con drivers che non supportano ancora l'Avivo HD... :rolleyes:



Per maggiori info riguardo all'Avivo HD basta andarsi a leggere gli articoli di Beyond3D, XBitLabs e HardOCP, in cui si spiega che le mansioni dell'UVD in R600 vengono svolte dagli shaders.

http://www.hwupgrade.it/forum/showpost.php?p=17279929&postcount=2650OPS: driverheaven è guardacaso proprietà AMD e guardacaso l'unica voce fuori dal coro... suggerisco la lettura anche dei commenti di DailyTech, e suggerisco anche di non avventurarsi in lunghe scalate su terreno specchioso...
Inoltre bisogna fare le prove non con le 8800, che anche loro "mancano un pezzo", ma con le 8600 e 8500... e guarda caso se lo son dimenticati ;)

MiKeLezZ
27-05-2007, 01:47
Le prove con le 8600/8500 andranno fatte con le 2600/2400.

Il motivo per cui l'accelerazione hw dei video HD non c'è completamente nella 2900 così come nella 8800 è presto detto. Una vga high-end sta in un PC high-end, che è talmente esuberante, come prestazioni, da non aver bisogno di un offload completo sulla GPU per riuscire a spingere contenuti HD. Diverso è il caso di un PC mainstream, in cui l'offload potrebbe essere essenziale per rendere possibile la riproduzione.

E non credo che qualcuno sia così folle da mettere una 2900/8800 dentro un PC da salotto, visto che l'esigenza è che sia silenzioso, consumi poco e faccia le poche operazioni per cui è pensato, tra cui la riprouzione dei filmati, quindi 2400/8500.Scusa ma chi vogliamo prendere in giro?
Nelle 8800 manca perchè il chip era grande ed è stato fatto uscire velocemente.
Nelle X2900XT manca perchè gli ingegneri ATI han creato un chip buggato all'inverosimile, e questo è l'ennesimo bug. Bug che oltretutto ATI sin dall'inizio aveva coperto, promettendo accelerazione a destra e manca (e addirittura qualche sito ci ha fatto pure la recensione!!! su una feature non funzionante!!!).... non è che "non voleva", ma che manca.
Un po' come il supporto HDCP nelle X1.... ATI giurava ci fosse... però guarda un po', ci mancava la chiave crittografata, e quindi non c'era...
Anche questo si è ripetuto nei commenti di Dailytech
Sono incredibili le fette di prosciutto che taluni di voi amano usare. Senza motivo fra l'altro (soprattutto quando poi ATI stessa ammette di aver fatto una cazzata...)
E prima "poverina i driver", e poi "poverina, è una scheda di fascia alta, mica ne ha bisogno", e poi "poverina ma tanto costa poco", questa x2900xt sembra il figlio drogato perso disoccupato che i genitori amano all'inverosimile pur con i suoi mille difetti... sputando sopra a quello dal lavoro onesto e meritevole (serie 8)

A.L.M.
27-05-2007, 09:39
OPS: driverheaven è guardacaso proprietà AMD e guardacaso l'unica voce fuori dal coro... suggerisco la lettura anche dei commenti di DailyTech, e suggerisco anche di non avventurarsi in lunghe scalate su terreno specchioso...
Inoltre bisogna fare le prove non con le 8800, che anche loro "mancano un pezzo", ma con le 8600 e 8500... e guarda caso se lo son dimenticati ;)

Di proprietà AMD? Prima di sparare giudizi credo che ci si debba informare... :rolleyes: LOL
Le prove vanno comunque fatte a parità di fascia, e comunque bisogna aspettare almeno i drivers che supportano ufficialmente HD2900, ossia i 7.5, visto che finora tutte le prove fatte sono state con 7.4 modificati.
Beyond3D e XBitLabs non bastano? Sono tra i siti tecnici più validi in assoluto, e possono confermartelo anche gli utenti più esperti di questo forum in materia di schede video, come leoneazzurro e yossarian.
Vabbè, allora piccola carrellata di spiegazioni tratte da vari siti, tra l'altro già 10 giorni fa chi era più attento aveva chiarito che HD2900 non aveva l'UVD, ma che gestiva le stesse operazioni con gli shaders...

Bjorn3d:
AMD has solved these problems with the new Unified Video Decoder, a little chip that sits on both the HD2400 and the HD2600 (the HD2900XT does not need it as it can handle all this by itself).

Guru3D:
Please understand that the entire AMD ATI Radeon HD 2000-family features the latest Avivo HD technology yet only the 2400 adn 2600 series actually have the UVD core logic.
[...]
We discovered that HD 2900 does not have proper UVD support; it'll be paried with HD video capable CPU's. The drivers used in this test don't yet have decode acceleration enabled either, first revision of that comes with 8.38


ecc....

E' poi ovvio che tutte le aziende cerchino di portare acqua al proprio mulino, quindi se non si è attenti si rischia di rimanere delusi: se si guarda il sito di nVidia non è che si capisca molto sulla differenza del PurevideoHD delle 8800 e delle 8600 (quando invece le differenze sono sostanziali, visto che in pratica le 8800 hanno lo stesso Purevideo di G70).

P.S.: mi complimento con te comunque per gli interventi obiettivi e utili alla discussione, come questo:

Scusa ma chi vogliamo prendere in giro?
Nelle 8800 manca perchè il chip era grande ed è stato fatto uscire velocemente.
Nelle X2900XT manca perchè gli ingegneri ATI han creato un chip buggato all'inverosimile, e questo è l'ennesimo bug. Bug che oltretutto ATI sin dall'inizio aveva coperto, promettendo accelerazione a destra e manca (e addirittura qualche sito ci ha fatto pure la recensione!!! su una feature non funzionante!!!).... non è che "non voleva", ma che manca.
Un po' come il supporto HDCP nelle X1.... ATI giurava ci fosse... però guarda un po', ci mancava la chiave crittografata, e quindi non c'era...
Anche questo si è ripetuto nei commenti di Dailytech
Sono incredibili le fette di prosciutto che taluni di voi amano usare. Senza motivo fra l'altro (soprattutto quando poi ATI stessa ammette di aver fatto una cazzata...)
E prima "poverina i driver", e poi "poverina, è una scheda di fascia alta, mica ne ha bisogno", e poi "poverina ma tanto costa poco", questa x2900xt sembra il figlio drogato perso disoccupato che i genitori amano all'inverosimile pur con i suoi mille difetti... sputando sopra a quello dal lavoro onesto e meritevole (serie 8)

Ciao.

halduemilauno
27-05-2007, 09:51
http://uk.theinquirer.net/?article=39884

MiKeLezZ
27-05-2007, 10:17
HIS released "UVD" on the retail box, but was not the only one, since Sapphire's promo text included UVD as well.
We tried to check what was going on and what could exactly be the source of confusion.
The answer is somewhat unlikely: AMD's own official slides.

Looking at the review from Hardspell with a AMD 2800+ it appears there is No, 0, nada, zilch, hardware decoding of any kind. Therefore, I need someone to explain to me how do you turn it on with a driver update?

If you look here you will know what I am talking about:
TESTBED
http://tinyurl.com/2va6xh

Results of Behind Enemy Line using AMD 2800 + 1.6 WinXP
http://tinyurl.com/355abx

Results of Open Season Line using AMD 2800 + 1.6 WinX
http://tinyurl.com/345g33

Results of X-men Last Stand Line using AMD 2800 + 1.6 WinX
http://tinyurl.com/2o43kd

As you can see, CPU utilization is at 100% (these are just a few H.264 movies...I didn't link them all). Now if there was something on the HD 2900XT that processes HD/BR content shouldn't it read something other then 100% CPU utilization?

When asked why AMD never contacted any trade publications to correct the misconception that UVD was included in Radeon 2900, our contact declined to comment. He did add that full HD acceleration is present on the R600 ASIC, and it will eventually be enabled via driver updates.

“Unfortunately, try as we might, we could not get UVD to work with the current drivers provided by AMD and the PowerDVD release that is supposed to enable the hardware acceleration on HD 2000 series parts,” states AnandTech Senior CPU and Graphics Editor Derek Wilson said. “We will have to take a second look at hardware decode when AMD and CyberLink or Intervideo get their software in order.”

AMD has not released a driver that takes advantage of the ATI Radeon HD 2000-series multimedia features nor has a software company released a player that takes advantage of the hardware.

http://ati.amd.com/products/radeonhd2900/specs.html
RADEON X2900XT SPECIFICATIONS:
- ATI Avivo™ HD Video and Display Platform

http://ati.amd.com/technology/avivo/features.html
ATI Avivo HD technology is designed for high-end, high definition video playback in home theater systems. Free your CPU to power other applications with new UVD (Unified Video Decoder) hardware processing of HD video formats.

UVD is a dedicated video decode processing unit on ATI Radeon HD 2000 series graphics processors that offloads both CPU and GPU rendering pipelines. UVD technology reduces power use, decreases system noise and increases notebook battery life during HD video playback.


Ma vedo che ancora volete coprire il figlio drogato e bugiardo (X2900XT) che ruba i soldi dal portafogli dei genitori


W AMD/ATI che è tanto brava e ha creato una scheda grandiosa

MiKeLezZ
27-05-2007, 10:20
Beyond3D e XBitLabs non bastano? Sono tra i siti tecnici più validi in assoluto, e possono confermartelo anche gli utenti più esperti di questo forum in materia di schede video, come leoneazzurro e yossarian.Cosa stai blaterando? Nessuno ha testato le funzionalità AVIVO (neppure hwupgrade), si sono limitati a descrivere l'architettura (e tutti si sono più o meno "dimenticati" di dire che manca del chip UVD... colpa non loro, chiaro) :rolleyes:
Veramente Leoneazzurro mi ha confermato che R600 è buggato, quantomeno nel AA :) , e mi pare facile immaginare non sia l'unica parte marcia :rolleyes:
Yossarian invece non si vede da parecchio, ma lui è sempre stato un amante ATI :rolleyes:
Comunque poi mi spiegherami che mi dovrebbero dire queste persone :)
Vabbè, allora piccola carrellata di spiegazioni tratte da vari siti, tra l'altro già 10 giorni fa chi era più attento aveva chiarito che HD2900 non aveva l'UVD, ma che gestiva le stesse operazioni con gli shaders...Però AMD ha pubblicizzato UVD sulla scheda :rolleyes: :rolleyes:
E grazie a questo, l'utente sprovveduto se l'è presa, cerchiamo di esser chiari, nel c*lo... mi ricordo infatti che molte persone all'epoca della recensione di X2900XT han detto "andrà più piano, però è perfetta per un HTPC".."che spettacolo mi sgrava del 100% il processore: uau".. se, come no.
E' poi ovvio che tutte le aziende cerchino di portare acqua al proprio mulino, quindi se non si è attenti si rischia di rimanere delusi: se si guarda il sito di nVidia non è che si capisca molto sulla differenza del PurevideoHD delle 8800 e delle 8600 (quando invece le differenze sono sostanziali, visto che in pratica le 8800 hanno lo stesso Purevideo di G70).
Eh sì, ma facciamo così, meno chiacchere e andiamo a guardare :) :
http://www.nvidia.com/page/purevideo_hd.html

NVIDIA® GeForce® 8600 and 8500 series GPUs feature NVIDIA® PureVideo™ HD under Windows Vista™ with a revolutionary new video processing engine. They are the world’s first video processors to offload from the CPU 100% of Blu-ray and HD DVD video decoding, enabling playback on mainstream CPUs and providing unsurpassed movie picture quality and low power consumption.

2 PureVideo HD support is currently only available on Microsoft Windows Vista for GeForce 8500 and 8600 graphics processors. Visit our drivers page for the latest information on upcoming Windows XP driver support.


Credo che bisogni esser scemi forte per non capire che le 8800 non hanno le stesse potenzialità PureVideo, perchè a differenza del sito AMD lì c'è scritto chiaro che più chiaro non si può :)


Ciao anche a te

MenageZero
27-05-2007, 10:25
Mi chiedo cosa occorra emozionarsi tanto se le 2900xt rosicano un 20% di carico in meno per la gestione dei flussi HD alle cpu rispetto le 8800.
Insomma quando si hanno processori dualcore a 3ghz (penso il minimo da associare a schede video di quella fascia), chi si pone il problema del carico...
ridicolo

probabilmente con r600 ora c'è ben poco da emozionarsi su tutti i fronti, cmq in generale se la gpu(magari insieme al chip audio se non ce l'ha integrato come r600) si accollasse il 100% o quasi del decoding audio/video, magari con il potente procio multi-core mentre ti guardi un film in hd potresti fare encoding in background oppure compilare decine di migliaia o più righe di codice o altro... ;)
... o meglio ancora magari in futuro le gpu potranno essere usate per fare encoding o altro ancora e allora mentre la gpu fa cose ancora più pesanti (in minor tempo della cpu) il film intanto lo guardi "con il processore" :sofico:

A.L.M.
27-05-2007, 10:28
Cosa stai blaterando? Nessuno ha testato le funzionalità AVIVO (neppure hwupgrade), si sono limitati a descrivere l'architettura (e tutti si sono più o meno "dimenticati" di dire che manca del chip UVD... colpa non loro, chiaro) :rolleyes:
Veramente Leoneazzurro mi ha confermato che R600 è buggato, quantomeno nel AA :) , e mi pare facile immaginare non sia l'unica parte marcia :rolleyes:
Yossarian invece non si vede da parecchio, ma lui è sempre stato un amante ATI :rolleyes:
Comunque poi mi spiegherami che mi dovrebbero dire queste persone :)
Però AMD ha pubblicizzato UVD sulla scheda :rolleyes: :rolleyes:
E grazie a questo, l'utente sprovveduto se l'è presa, cerchiamo di esser chiari, nel c*lo... mi ricordo infatti che molte persone all'epoca della recensione di X2900XT han detto "andrà più piano, però è perfetta per un HTPC".."che spettacolo mi sgrava del 100% il processore: uau".. se, come no.

Eh sì, ma facciamo così, meno chiacchere e andiamo a guardare :) :
http://www.nvidia.com/page/purevideo_hd.html

NVIDIA® GeForce® 8600 and 8500 series GPUs feature NVIDIA® PureVideo™ HD under Windows Vista™ with a revolutionary new video processing engine. They are the world’s first video processors to offload from the CPU 100% of Blu-ray and HD DVD video decoding, enabling playback on mainstream CPUs and providing unsurpassed movie picture quality and low power consumption.

2 PureVideo HD support is currently only available on Microsoft Windows Vista for GeForce 8500 and 8600 graphics processors. Visit our drivers page for the latest information on upcoming Windows XP driver support.


Credo che bisogni esser scemi forte per non capire che le 8800 non hanno le stesse potenzialità PureVideo, perchè a differenza del sito AMD lì c'è scritto chiaro che più chiaro non si può :)


Ciao anche a te

Ciao. Ti quoto solo per evitare che certe perle vadano perse. Byez.

MiKeLezZ
27-05-2007, 10:31
Per esempio al nostro utente amico Fibo farebbe molto comodo questo sgravo, visto che a lui piace guardare 2 film blu-ray contemporaneamente sullo stesso display (http://www.hwupgrade.it/forum/showpost.php?p=17254296&postcount=27)...

MiKeLezZ
27-05-2007, 10:33
Ciao. Ti quoto solo per evitare che certe perle vadano perse. Byez.Quale onore.. anche se avrei preferito risposte che evidentemente di fronte a FATTI CONCRETI non sei più capace di dare ;)

A.L.M.
27-05-2007, 10:37
Quale onore.. anche se avrei preferito risposte che evidentemente di fronte a FATTI CONCRETI non sei più capace di dare ;)

Già, in effetti dire "cosa stai blaterando" ad un altro utente è un fatto concreto. Mi spiace ma rispondere ai flame non è il mio sport preferito. Au revoir. ;)

MenageZero
27-05-2007, 10:39
...
Yossarian invece non si vede da parecchio, ma lui è sempre stato un amante ATI :rolleyes:
...
non vorrei che la memoria mi giochi pessimi scherzi, ma mi pare di aver letto in passato che più che un "amante" sia accreditato di essere un ingegnere di ati, per cui, apparte volergli attribuire mancanza di obbiettività o meno (che mi ricordi in passato io ho letto principalmente dei post con spiegazioni tecniche da parte sua, poi non so), potrebbe "raccontare" cose molte molto interessanti su r600 ma come anche sulle gpu in generale... :sofico:

MenageZero
27-05-2007, 10:44
Per esempio al nostro utente amico Fibo farebbe molto comodo questo sgravo, visto che a lui piace guardare 2 film blu-ray contemporaneamente sullo stesso display (http://www.hwupgrade.it/forum/showpost.php?p=17254296&postcount=27)...
ma è incluso nelle "specifiche" del cervello umano poter seguire 2 film contemporaneamente ? (HD o meno) :wtf:

WarDuck
27-05-2007, 10:47
Io vorrei capire cosa vi scannate a fare?!?!?

Se è realmente una questione di drivers occorre aspettare tempo (e neanche troppo visto che a quanto ho letto i 7.5 sono pianificati per la fine del mese), se non è una questione drivers (ma di hardware) allora tocca andare verso altri lidi o aspettare un R650...

E' indubbio che all'uscita la x2900xt abbia deluso in molti, come già è stato detto, ma già con nuove versioni di drivers la scheda ha guadagnato molto in termini percentuali...

I margini di miglioramento quindi ci sono, nn mi pare il caso di scannarsi tanto, alla fine ognuno fa le sue scelte e spende i propri soldi per acquistare ciò che reputa più adatto a lui.

ATi ha dimostrato in passato cosa è capace di fare, quindi nn vedo perché stare a sbraitare per un momento negativo...

Voglio ricordare che nelle 6800 il circuito del PureVideo proprio nn funzionava, e ove funzionava occorreva acquistare separatamente (tipo 30$) il codec per farlo girare...

Ora se è un problema hardware come ho detto sta scheda va evitata, ma se è un problema software basta aspettare.

Chi sbaglia nn è ATi, quanto chi acquista la scheda senza informarsi e poi si lamenta, oppure chi si lamenta a prescindere perché nn sa fare altro...

Valutate le cose con tranquillità, nn muore nessuno se la 8800gtx fa 10 fps in più della x2900 (è un esempio).

MiKeLezZ
27-05-2007, 11:05
Chi sbaglia nn è ATi, quanto chi acquista la scheda senza informarsi e poi si lamenta, oppure chi si lamenta a prescindere perché nn sa fare altro..Uno dei punti cardine della discussione odierna è proprio la mancanza di trasparenza di ATI, la quale ha parlato di supporto UVD per le X2900XT sin dalle prime slide di presentazione, continuando poi a indicarlo sullo stesso suo sito (di cui puoi trovare un estratto in un mio quote).
Non ha invece smentito che ci fosse, o dipanato la questione, e il fatto che molti partner commerciali indichino la presenza del UVD pure sulla scatola retail di vendita (e, di conseguenza, gli shop online li seguino a ruota nella descrizione) mi sembra estremamente rappresentativo di un problema che non è ovviamente colpa dei "non informati" o "lamentoni".

Foglia Morta
27-05-2007, 11:15
Veramente Leoneazzurro mi ha confermato che R600 è buggato, quantomeno nel AA :)

Io ero rimasto che è molto complicato ottimizzare i driver. Chiedo perchè forse qualcuno è rimasto indietro: te l'ha confermato prima o dopo aver letto questo?

We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

MiKeLezZ
27-05-2007, 11:22
Prima.

Ma quella non è altro che una giustificazione scritta da (penso) AMD stessa. Difficile che un'azienda dica "sì il mio prodotto è buggato", sarebbe autolesionistico.

D'altronde tutti noi sappiamo il motivo del ritardo di R600, i primi chip non erano funzionanti, quelli dopo avevano problemi con l'interfaccia di debug, quelli dopo ancora avevano problemi di artefatti grafici.

Per l'azienda, AMD, la giustificazione del ritardo è stata del "non esser in ritardo", ma una loro precisa volontà l'uscire così tardi.
Non è necessario esser "anti-AMD" per capire che ciò non può esser altro che un triste tentativo di paraculaggine. :)

halduemilauno
27-05-2007, 11:34
Prima.

Ma quella non è altro che una giustificazione scritta da (penso) AMD stessa. Difficile che un'azienda dica "sì il mio prodotto è buggato", sarebbe autolesionistico.

D'altronde tutti noi sappiamo il motivo del ritardo di R600, i primi chip non erano funzionanti, quelli dopo avevano problemi con l'interfaccia di debug, quelli dopo ancora avevano problemi di artefatti grafici.

Per l'azienda, AMD, la giustificazione del ritardo è stata del "non esser in ritardo", ma una loro precisa volontà l'uscire così tardi.
Non è necessario esser "anti-AMD" per capire che ciò non può esser altro che un triste tentativo di paraculaggine. :)

da chiarire poi che quella loro dichiarazione cozzava con la loro famosa slide che diceva che l'R600 sarebbe stata presentata per le vacanze(natalizie)del 2006.
;)

Kharonte85
27-05-2007, 11:49
http://uk.theinquirer.net/?article=39884
:eek:

siXecho
27-05-2007, 13:24
sono sempre stato fan di Ati, sono passato dalla 8500 alla 9600Xt alla X800Xt e da circa 4 mesi ho una X1950Xt e tutte queste schede mi hanno sempre dato grandi soddisfazioni!
...aspettavo r600/Crysis per passare a una DX10 ...maa...ca**o...sto giro mi sa che se entro l'uscita dei primi giochi DX10 Ati nn si rifà mi butto su una di queste grandi 8xxx di nVidia che sono davvero ottime schede!

Foglia Morta
27-05-2007, 13:54
Prima.

Se sai che quel commento l'ha fatto prima aggiornati prima di fare certe sparate a nome di altri, falle a nome tuo e bon.

MiKeLezZ
27-05-2007, 14:05
Se sai che quel commento l'ha fatto prima aggiornati prima di fare certe sparate a nome di altri, falle a nome tuo e bon.Cos'è, il commentino preparato a tavolino?
Tu basati pure sulle dicerie del reparto marketing ATI, che io parlo di FATTI CONCRETI ;) .

MiKeLezZ
27-05-2007, 14:13
Cos'è, il commentino preparato a tavolino?
Tu basati pure sulle dicerie del reparto marketing ATI, che io parlo di FATTI CONCRETI ;) .


Leoneazzurro
http://www.hwupgrade.it/forum/showpost.php?p=17112882&postcount=216
Quest'architettura dev'essere un incubo da ottimizzare, ma il PROBLEMA dell'Antialiasing rimarrà.


Beyond3D
Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases.


AnandTech
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=11
CFAA and No Fixed Resolve Hardware

That's right, R600 doesn't have hardware dedicated to resolving MSAA in the render back end - the only MSAA related tasks handled in the render back end are compression and evaluation of the subpixels. All antialiasing resolve is performed on the shader hardware. Certainly, AMD would prefer we start by telling you about the neat custom resolve filters that can be implemented on their shader hardware, but we would rather speculate about this for a moment first.
AMD has stated that, moving forward, in addition to allowing programmable sample patterns, future DX versions may allow for custom resolve filters as well. This is cited as one of the reasons why R600 uses shader hardware to resolve AA samples. AMD has given us a couple different resolve filters to play with, which we'll talk about in a minute. But at a point where we're seeing the first DX10 hardware from graphics makers, and at a time where competitive performance is paramount, it doesn't seem like the decision we would have made.


R600 è buggata, tanto in UVD quanto nel AA.


Ma poi basterebbe anche solo guardare i risultati, sono quelli che contano. I risultati non si fanno influenzare dalle paroline, e parlano chiaro.

WarDuck
27-05-2007, 14:37
Uno dei punti cardine della discussione odierna è proprio la mancanza di trasparenza di ATI, la quale ha parlato di supporto UVD per le X2900XT sin dalle prime slide di presentazione, continuando poi a indicarlo sullo stesso suo sito (di cui puoi trovare un estratto in un mio quote).
Non ha invece smentito che ci fosse, o dipanato la questione, e il fatto che molti partner commerciali indichino la presenza del UVD pure sulla scatola retail di vendita (e, di conseguenza, gli shop online li seguino a ruota nella descrizione) mi sembra estremamente rappresentativo di un problema che non è ovviamente colpa dei "non informati" o "lamentoni".

Ma vedi se è una questione di drivers il discorso è diverso, perché cmq la scheda è dotata della circuiteria necessaria, semplicemente per qualche bug nn è attiva... se invece è un difetto HARDWARE allora hai ragione tu, del resto nVidia pubblicizzava PureVideo delle 6800 senza che praticamente esso funzionasse.

E senza dire che il codec era a pagamento, lo scoprivi da te quando provavi a scaricarlo (e aggiungo che nn era infatti accessibile a tutti la procedura, gli utonti nn l'avrebbero mai saputo).

Come vedi il comportamento è similare, ma è solo questione di tempo per capire se è colpa di drivers immaturi o dell'hardware.

aaasssdddfffggg
27-05-2007, 14:46
NVIDIA DICE che la sua scheda grafica high-end G92 raggiungerà quasi un teraflop di potenza di calcolo.
[clicca qui]

Michael Hara di Nvidia ha dichiarato durante un webcast che il processore sarà pronto per Natale, secondo lo stesso ciclo che la società ha adottato con la G80: i modelli di fascia più alta per la fine dell'anno e quelli di fascia media e bassa entro l'estate del prossimo anno.La prevista potenza di calcolo della G92 può sorprendere qualcuno. La 8800 arriva a circa 330 Gflops, il che suggerisce che il nuovo prodotto di Nvidia possa essere tre volte più veloce. Se questo è vero, a che scopo? Quali giochi potranno avvantaggiarsi di simili prestazioni? La risposta è Crysis a 2560x1600, e Nvidia deve solo sperare che il gioco non slitti ulteriormente rispetto a quanto ha già fatto.

Lasciate perdere ATI..........è nVIDIA che ha imboccato la strada giusta e che ci darà le più belle soddisfazioni nei mesi a venire.

WarDuck
27-05-2007, 14:54
[...]Lasciate perdere ATI..........è nVIDIA che ha imboccato la strada giusta e che ci darà le più belle soddisfazioni nei mesi a venire.

Vedo che hai la palla di vetro... nVidia attualmente ha un vantaggio notevole, ma vista la nuova architettura delle gpu ATi nn mi stupirei se più in là si invertissero i ruoli...

Cmq la cosa migliore è vedere a GPU sfornata quali sono le prestazioni effettive, inutile farsi pippe mentali...

Oggi mi sento di consigliare le nVidia, ma domani chi lo sa... personalmente ho avuto brutte esperienze in passato con una 6800LE e i drivers, quindi nn ho tutta sta gran voglia di passare a nVidia, per il momento soprattutto (dato che cmq la x1900xt va egregiamente).

Free Gordon
27-05-2007, 15:30
Non è necessario esser "anti-AMD" per capire che ciò non può esser altro che un triste tentativo di paraculaggine. :)


No.

Se non fossi prevenuto e avessi capito che cosa ha scritto :Dne dedurresti che quella è la spiegazione su come è stata progettata l'architettura... (sbagliando i tempi, a parer mio.. ^_^ )

Il trend del resto era già iniziato con R580, grossa disparità tra potenzialità dello shader core ("math") e quello di altri settori (rops, tmu in primis).

Questo design, implica anche che G80 vada meglio di R600 nei giochi attuali, ma parlare di gap tecnologico o di chip buggato non ha senso.

Per quanto riguarda l'UVD, ATI nelle slide parlava di HD2000 series... la stessa identica cosa che ha fatto nVidia con la 8800 e le serie precedenti (anzi, con la 6800 era stato pure peggio).
Sono aziende e tirano l'acqua al loro mulino, e spesso sono reticenti dove invece dovrebbero parlare più chiaramente.
Ma sono tutte uguali da quel pdv. ;)

Free Gordon
27-05-2007, 15:33
Ma vedi se è una questione di drivers il discorso è diverso, perché cmq la scheda è dotata della circuiteria necessaria, semplicemente per qualche bug nn è attiva... se invece è un difetto HARDWARE allora hai ragione tu, del resto nVidia pubblicizzava PureVideo delle 6800 senza che praticamente esso funzionasse.
E senza dire che il codec era a pagamento, lo scoprivi da te quando provavi a scaricarlo (e aggiungo che nn era infatti accessibile a tutti la procedura, gli utonti nn l'avrebbero mai saputo).
Come vedi il comportamento è similare, ma è solo questione di tempo per capire se è colpa di drivers immaturi o dell'hardware.

Esatto.

Free Gordon
27-05-2007, 15:35
Lasciate perdere ATI..........è nVIDIA che ha imboccato la strada giusta e che ci darà le più belle soddisfazioni nei mesi a venire.

Ho come la netta impressione che tu compreresti nVidia qualsiasi cosa facesse... :asd:

Pr|ckly
27-05-2007, 16:09
A proposito di driver, sbaglio o questo mese non è uscita la solita versione dei Catalyst?

A.L.M.
27-05-2007, 16:22
NVIDIA DICE che la sua scheda grafica high-end G92 raggiungerà quasi un teraflop di potenza di calcolo.
[clicca qui]

Michael Hara di Nvidia ha dichiarato durante un webcast che il processore sarà pronto per Natale, secondo lo stesso ciclo che la società ha adottato con la G80: i modelli di fascia più alta per la fine dell'anno e quelli di fascia media e bassa entro l'estate del prossimo anno.La prevista potenza di calcolo della G92 può sorprendere qualcuno. La 8800 arriva a circa 330 Gflops, il che suggerisce che il nuovo prodotto di Nvidia possa essere tre volte più veloce. Se questo è vero, a che scopo? Quali giochi potranno avvantaggiarsi di simili prestazioni? La risposta è Crysis a 2560x1600, e Nvidia deve solo sperare che il gioco non slitti ulteriormente rispetto a quanto ha già fatto.

Lasciate perdere ATI..........è nVIDIA che ha imboccato la strada giusta e che ci darà le più belle soddisfazioni nei mesi a venire.

La storia del teraflop è plausibile, ma bisogna sempre tenere ben presente che sono cifre del tutto teoriche. La 8800GTX in realtà supera i 500 Gflops, ma sono un valore molto teorico, visto che Beyond3D ha provato che le unità aggiuntive MUL di G80 non funzionano quasi per nulla. Dunque all'atto pratico è leggermente meno potente (in termini di potenza teorica di calcolo) di una XT. Quindi occhio a prestare esclusiva attenzione ai dati teorici. ;)
Ciononostante rimane per me normale che con la prossima generazione si sfiori il Teraflop, ossia circa il doppio della potenza di calcolo attuale delle schede video high-end: ma questo avverrà sia con le schede nVidia che con quelle ATi.

MiKeLezZ
27-05-2007, 16:26
La storia del teraflop è plausibile, ma bisogna sempre tenere ben presente che sono cifre del tutto teoriche. La 8800GTX in realtà supera i 500 Gflops, ma sono un valore molto teorico, visto che Beyond3D ha provato che le unità aggiuntive MUL di G80 non funzionano quasi per nulla. Dunque all'atto pratico è leggermente meno potente (in termini di potenza teorica di calcolo) di una XT. Quindi occhio a prestare esclusiva attenzione ai dati teorici. ;) E' meno potente di una XT e va molto di più... deve esserci di mezzo Harry Potter e qualche sua magia
;)

Raven
27-05-2007, 18:30
E' meno potente di una XT e va molto di più... deve esserci di mezzo Harry Potter e qualche sua magia
;)

Eviatare toni sarcastici conditi da faccina "ipocrita", please...

WarDuck
27-05-2007, 20:01
No, non ancora, e quasto è il motivo per cui se ne parla tanto, di questi 7.5

Immagino vogliano prendersi quanto possono del mese per poter uscire con la migliore versione possibile.

Su rage3d mi pare di aver letto che escono a fine mese... il 31.

Più che altro sta cosa mi fa pensare che in ogni caso escano con i 7.5 (devono rispettare la scadenza mensile :sofico: ), anche se sono a metà opera con l'ottimizzazione di R600...

Apparte che avranno team diversi penso... speriamo che ci saranno novità per quanto riguarda Vista e le serie precedenti, c'è ancora da lavorare in tal senso.

Scrambler77
28-05-2007, 19:39
Scusa ma chi vogliamo prendere in giro?
Nelle 8800 manca perchè il chip era grande ed è stato fatto uscire velocemente.
Nelle X2900XT manca perchè gli ingegneri ATI han creato un chip buggato all'inverosimile, e questo è l'ennesimo bug. Bug che oltretutto ATI sin dall'inizio aveva coperto, promettendo accelerazione a destra e manca (e addirittura qualche sito ci ha fatto pure la recensione!!! su una feature non funzionante!!!).... non è che "non voleva", ma che manca.
Un po' come il supporto HDCP nelle X1.... ATI giurava ci fosse... però guarda un po', ci mancava la chiave crittografata, e quindi non c'era...
Anche questo si è ripetuto nei commenti di Dailytech
Sono incredibili le fette di prosciutto che taluni di voi amano usare. Senza motivo fra l'altro (soprattutto quando poi ATI stessa ammette di aver fatto una cazzata...)
E prima "poverina i driver", e poi "poverina, è una scheda di fascia alta, mica ne ha bisogno", e poi "poverina ma tanto costa poco", questa x2900xt sembra il figlio drogato perso disoccupato che i genitori amano all'inverosimile pur con i suoi mille difetti... sputando sopra a quello dal lavoro onesto e meritevole (serie 8)

Mi sono cappottato dalle risate!! :rotfl:

MiKeLeZz for president!! :asd:

homero
29-05-2007, 18:48
il miglior processore per la decodifica dei flussi video e il cell di sony-ibm-toshiba
li' si rulla alla grande ben oltre l'alta definizione....

ad ogni modo nvidia ha uno straordinario supporto linux, e questo mi basta per preferirla alle ATI.

Scrambler77
30-05-2007, 00:05
il miglior processore per la decodifica dei flussi video e il cell di sony-ibm-toshiba
li' si rulla alla grande ben oltre l'alta definizione....

ad ogni modo nvidia ha uno straordinario supporto linux, e questo mi basta per preferirla alle ATI.

Sante parole! :mano:

leoneazzurro
02-06-2007, 19:00
Leoneazzurro
http://www.hwupgrade.it/forum/showpost.php?p=17112882&postcount=216
Quest'architettura dev'essere un incubo da ottimizzare, ma il PROBLEMA dell'Antialiasing rimarrà.


Vero, tuttavia da quel post (e dagli altri che quoti) sono emerse diverse cose nuove, come riportato in altri miei più recenti post (e anche su B3d, non leggiamo solo quel che vogliamo ;) ), ossia che la scelta è stata a livello di progettazione e non di un bug hardware (come confermato ATI stessa), e che comunque i calcoli relativi all'AA in realtà non portano via una percentuale eccessiva della potenza di calcolo degli shaders (la prima stima di Rys è stata fatta con i drivers a disposizione, che evidentemente avevano qualche problema), visto anche che il limite principale di R600 sembra essere il rapporto unità shader: unità texture filtering, che in shaders relativamente corti e/o con molte operazioni sulle texture non permettono di sfruttare la potenza di calcolo a disposizione. Un altro fattore che entra in gioco è lo scheduling che diventa ancora più complicato, dovendo gestire vertex, gemoetric, pixel shading e Antialiasing tutto "insieme". Il deficit prestazionale può essere fortemente ridotto dai drivers (e non necessariamente "barando"): questa archietttura in base a come è programmata può avere performances notevolmente differenti Ritengo anche probabile che in alcuni casi si potrebbe ricorrere a degli shader replacement con operazioni equivalenti ma più "consone" all'architettura di R600, e in giochi limitati dal texture filtering si potrebbe addirittura pensare di filtrare le texture anche nello shader core. Questo non vuole dire che sia facile, anzi, non lo è.



R600 è buggata, tanto in UVD quanto nel AA.


In realtà qui credo che ci sia un grosso problema di personale del reparto marketing AMD che è andato nel pallone (una delle conseguenze della fusione, probabilmente), poichè UVD come è stato definito in realtà in R600 non c'è e probabilmente non c'è mai stato. C'è AVIVO HD, il che significa che c'è accelerazione H264, VC1, MPEG2, ecc. su filmati HD, tuttavia la CPU non è totalmente sgravata come con l'UVD propriamente detto, che è appannaggio delle 2600 e 2400. Il che accade anche con Nvidia: le scehde top di gamma non hanno una decodifica totalmente assistita, mentre le 8600 e 8500 si. E non è questione di "chip grande fatto uscire in fretta", G80 ha un chip esterno dedicato al video che non è affatto grande, e che poteva benissimo essere utilizzato allo scopo.

Comunque, eviterei i toni sarcastici se fossi in te, ad esempio per la faccenda dell'HDCP sulle schede X1XXX, dato che anche Nvidia aveva sbandierato a destra e manca che le proprie schede serie 7600 erano compatibili, ma guarda caso avevano anche esse bisogno di un chip per la chiave crittorgrafica esterno.

Entrambe le marche sono aziende che tirano acqua al proprio mulino e non a quello degli utenti, e gli aficionados dovrebbero ogni tanto ricordarselo.

MiKeLezZ
03-06-2007, 01:55
Sia chiaro, che non voglio, né era mia intenzione metterti magari in bocca parole non tue, o che non vedi più tue. Riportavo.

In ogni caso, riguardo AA, subito dopo aver letto la recensione della X2900XT, io fui uno dei primi (o il primo?) a criticare il grosso performance hit che si aveva alla sua attivazione.
Io neofita, senza conoscenza alcuna delle mancanze hardware, o presunte tali... e vederlo così, a occhio (da me!), significa che non è tanto sottovalutabile.

"Grosso" non tanto in relazione a quello delle 8800, ma "grosso" perchè il campo è stato sempre storicamente a favore delle architetture ATI (da situazione di vantaggio, a una di svantaggio, similmente a PureVideo/AVIVO).

Percui, SECONDO ME, non può esser giustificato. Che sia colpa dei tempi (ancora troppi giochi che sfruttano le vecchie modalità AA -e comunque le nuove modalità da shader, senza edge detect, fanno pena-), che sia colpa del progetto (visto che si basa sugli Shader, potevano mettercene un po' di più... -ancora!?-), che sia colpa dei driver (mha); io vedo comunque solo colpe.

Riguardo l'UVD, anche qua, e ancora SECONDO ME, non ci sono giustificazioni che tengano. AMD ha bollato la scheda come "HD", quando poi neppure vi è il chip preposto, e si basa sui vecchi AVIVO (tanto valeva chiamarla X2900XT, e basta), ha creato confusione nelle slide, che è stata poi rimacinata dalla quasi totalità dei siti (compreso hwupgrade, costretto a postume smentite), e addirittura (siamo ormai alla barzelletta) dai produttori di schede! In questo, non si è prodigata a correggere, se non, guarda caso, dopo un mese, a "inizio bufera" (e intanto si cavalcava l'onda).

Per l'annosa questione "bug, o non bug", siamo di fronte a qualcosa di probabilmente indipanabile. Sono noti a tutti i problemi del chip, funzionamento, rese, debug, tempi che stringevano (e come stringevano)... si può dire siano (quasi) certi.
Poi sta alla sensibilità di ognuno di noi "credere" a una delle due maggiori storie (un po' come la creazione del Mondo, c'è stato il Big-Bang o no? Unico Universo, o una moltitudine di paralleli? Dio esiste?):
a) si è cercato di velocizzare i tempi facendo fuori il sacrificabile (UVD posticipato, reparto AA semplificato sperando che il "valore 320" tenesse a bada tutto)
b) tutto voluto, vedi varie giustificazioni di AMD
c) metà/metà

Per quanto riguarda l' "aficionadamento" (termine or ora da me coniato), è dal 2003 che son qua, e in 4 anni sono stato etichettato sia come appartenente a uno, che l'altro, "schieramento". Quindi, credo, almeno nel mio caso, si tratti solo di "amplificazione".
Se mi regalano una X2900XT sono certo che comincerei ad esaltarne anche i pregi :)


p.s. preferisco farmi qualche vacanza ogni tanto (e ne ho fatte :D ), che rinunciare a un po' di ironia, o qualche discussione, tanto accesa quanto interessante... comunque il rispetto difficilmente l'ho mai mancato.

Scrambler77
03-06-2007, 03:13
Riguardo l'UVD, anche qua, e ancora SECONDO ME, non ci sono giustificazioni che tengano. AMD ha bollato la scheda come "HD", quando poi neppure vi è il chip preposto, e si basa sui vecchi AVIVO (tanto valeva chiamarla X2900XT, e basta), ha creato confusione nelle slide, che è stata poi rimacinata dalla quasi totalità dei siti (compreso hwupgrade, costretto a postume smentite), e addirittura (siamo ormai alla barzelletta) dai produttori di schede! In questo, non si è prodigata a correggere, se non, guarda caso, dopo un mese, a "inizio bufera" (e intanto si cavalcava l'onda).

Ci accomuna lo stesso pensiero... :mano:


p.s. preferisco farmi qualche vacanza ogni tanto (e ne ho fatte :D ), che rinunciare a un po' di ironia, o qualche discussione, tanto accesa quanto interessante... comunque il rispetto difficilmente l'ho mai mancato.

Quanto ti capisco... :asd:

leoneazzurro
03-06-2007, 10:40
Il chip R600 ha un'accelerazione per i film in HD, solo che è parziale (e non è esattamente lo stesso AVIVO dei chip X1xx0, ad esempio supporta HDCP nativamente e flussi audio/video nativamente in HDMI) e quindi non sgrava la CPU nello stesso modo di una scheda che supporta l'UVD, ma non è che non permetta di vedere film in HD (solo si avrà bisogno di una CPU più potente per farlo in maniera adeguata, bisogna vedere qual'è la base di partenza, se è un Core2 X6800 o se magari un Sempron 2800).

Per quanto riguarda la questione marketing e UVD su 2900XT, non credo che sia stato fatto di proposito, si sa che dichiarare il falso in genere genera un feedback molto negativo, e negli USA si possono facilmente generare delle "class actions" a questo proposito, non credo che un'azienda vorrebbe rischiare volotariamente di ottenere questi risultati.
Più probabile che R600 sia uscito in una fase di riassetto dell'azienda, con le prevedibili confusioni e i problemi che questo ha portato (il pessimo lancio, il marketing quasi inesistente, e penso anche la questione drivers).

Scrambler77
03-06-2007, 11:22
Per quanto riguarda la questione marketing e UVD su 2900XT, non credo che sia stato fatto di proposito, si sa che dichiarare il falso in genere genera un feedback molto negativo, e negli USA si possono facilmente generare delle "class actions" a questo proposito, non credo che un'azienda vorrebbe rischiare volotariamente di ottenere questi risultati.
Più probabile che R600 sia uscito in una fase di riassetto dell'azienda, con le prevedibili confusioni e i problemi che questo ha portato (il pessimo lancio, il marketing quasi inesistente, e penso anche la questione drivers).

Non voglio addentrarmi troppo nella discussione, anche perchè non l'ho iniziata io e può darsi che mi sbagli, ma non mi sembra che Mikelezz abbia detto che AMD/ATi abbia dichiarato il falso, anzi. In effetti non c'è scritto esplicitamente da nessuna parte del supporto UVD della 2900, ma forse ha lasciato volonariamente che i rivenditori, i costruttori di schede e, quindi, l'utente finale, "fraintendessero" ciò che alla fine c'era da fraintendere.

In effetti quel "HD" davanti al nome della scheda lascia intendere che abbia supporto nativo per l'HD e, stando alle diapositive di AMD, ad UVD... con completo sgravio della CPU nella riproduzione dei filmati HD. In questo caso, per evitare depistaggi (seppur involontari) dell'utenza, sarebbe stato più opportuno chiamarla X2900XT. Magari così facendo non si sarebbe sollevato un polverone dopo.

Infine c'è da considerare che anche AMD ha occhi e orecchie, ed in tutto questo tempo, nonostante l'errore sulle confezioni delle schede e sui siti web dei rivenditori, non ha emesso alcun comunicato ufficiale per smentire e chiarire attivamente questa storia, ma ha aspettato che l'utenza se ne accorgesse da sola prima di pronunciarsi. Questo atteggiamento fa trasparire un pizzico di malafede, equivocando volontariamente.

leoneazzurro
03-06-2007, 14:25
Il fatto è che comunque anche la pubblicità ingannevole è perseguibile, e comunque c'è già stato un feedback negativo per le problematiche legate alle errate informazioni circolate a proposito di R600. Non credo che un'azienda rischierebbe tanto di proposito, poi per cosa? Per incrementare di un imprecisato numero percentuale le vendite di una scheda che comunque costituirà una percentuale piuttosto bassa del venduto totale, e che comunque ha già una soluzione di decodifica che è superiore, come livello di features sulla carta, a quella delle schede dirette concorrenti (le 8800)? Certo, poteva diramare un comunicato ufficiale preciso (e sarebbe stato meglio farlo, questo si), ma d'altra parte ci sono le specifiche ufficiali sul loro sito. Ripeto, è sotto gli occhi di tutti che il reparto marketing di AMD/ATI è abbastanza allo sbando.

Free Gordon
03-06-2007, 21:02
Dunque all'atto pratico è leggermente meno potente (in termini di potenza teorica di calcolo) di una XT.

Beh, leggermente..
un 25% in più a favore della XT...

Free Gordon
03-06-2007, 21:06
E' meno potente di una XT e va molto di più...deve esserci di mezzo Harry Potter e qualche sua magia
;)

XT: 2x320x742= 475Gflps
Ultra: 2x128x1500= 384Gflps (c'è da considerare che in G80 c'è la MUL-phantom che può dare qualche incremento, ma non è indipendente, indi..).

100Gflps di differenza non sono pochi a parità di generazione. ^_^

Free Gordon
03-06-2007, 21:09
Vero, tuttavia da quel post (e dagli altri che quoti) sono emerse diverse cose nuove, come riportato in altri miei più recenti post (e anche su B3d, non leggiamo solo quel che vogliamo ;) ), ossia che la scelta è stata a livello di progettazione e non di un bug hardware (come confermato ATI stessa), e che comunque i calcoli relativi all'AA in realtà non portano via una percentuale eccessiva della potenza di calcolo degli shaders (la prima stima di Rys è stata fatta con i drivers a disposizione, che evidentemente avevano qualche problema), visto anche che il limite principale di R600 sembra essere il rapporto unità shader: unità texture filtering, che in shaders relativamente corti e/o con molte operazioni sulle texture non permettono di sfruttare la potenza di calcolo a disposizione. Un altro fattore che entra in gioco è lo scheduling che diventa ancora più complicato, dovendo gestire vertex, geometric, pixel shading e Antialiasing tutto "insieme". Il deficit prestazionale può essere fortemente ridotto dai drivers (e non necessariamente "barando"): questa archietttura in base a come è programmata può avere performances notevolmente differenti Ritengo anche probabile che in alcuni casi si potrebbe ricorrere a degli shader replacement con operazioni equivalenti ma più "consone" all'architettura di R600, e in giochi limitati dal texture filtering si potrebbe addirittura pensare di filtrare le texture anche nello shader core. Questo non vuole dire che sia facile, anzi, non lo è.

Mi dai il link a questa discussione?
E' nuova (del dopo uscita), oppure è la solita di B3D su R600?

Free Gordon
03-06-2007, 21:17
Riguardo l'UVD, anche qua, e ancora SECONDO ME, non ci sono giustificazioni che tengano. AMD ha bollato la scheda come "HD", quando poi neppure vi è il chip preposto, e si basa sui vecchi AVIVO (tanto valeva chiamarla X2900XT, e basta), ha creato confusione nelle slide... CUT-

E no... la scheda supporta la codifica HDCP tramite HDMI, le nVidia questa cosa non ce l'hanno e ATI ovviamente fa bene a metterlo tra le caratteristiche (ecco l'HD...). E' marketing...

Imho è sbagliato scrivere UVD senza avere lo sgravio sulla CPU, cmq non è la prima casa a fare cose simili.. :)

Il fatto poi che non ci sia lo sgravio per la cpu (mah, bisogna poi testare quale sarà l'effettivo load tra 8800 e 2900 prima di parlare) è il più classico dei trucchi di marketing, ma la scheda non è identica nelle funzionalità ad un nVidia di pari fascia.

A.L.M.
03-06-2007, 21:37
Beh, leggermente..
un 25% in più a favore della XT...

Io ho fatto il calcolo correggendo per l'efficienza maggiore di G80 nel calcolo MADD (grazie al molto parziale sfruttamento delle unità MUL aggiuntive). :)
Tra l'altro per le altre operazioni non MADD le 2 schede sono sullo stesso piano (con un leggerissimo vantaggio di ATi): ecco perchè ho parlato di vantaggio leggero. ;)

leoneazzurro
04-06-2007, 15:52
Mi dai il link a questa discussione?
E' nuova (del dopo uscita), oppure è la solita di B3D su R600?

La solita (ma e´taaanto lunga)

MiKeLezZ
04-06-2007, 17:51
ANANDTECH:

So strange, in fact, that combined with all the other experiences we've had with this rather surreal product launch we still just can't help but doubt what we're hearing.
TO US, THE MOST SENSIBLE EXPLANATION FOR ALL THIS IS THAT THE HARDWARE MUST BE THERE BUT IS SOMEHOW BROKEN - PERHAPS BROKEN TO THE POINT THAT IT WILL NEVER BE FIXED ON CURRENT SILICON (I.E. VIA DRIVERS) AND A NEW SPIN WOULD BE REQUIRED to address the problems.


Telepatia?
http://www.anandtech.com/video/showdoc.aspx?i=3000&p=2

:)

MiKeLezZ
04-06-2007, 18:26
No, ipotesi.

:)
Allora aspetta che te lo dica ATI.
Come per l'UVD.

:)

ninja750
04-06-2007, 18:27
ANANDTECH:

So strange, in fact, that combined with all the other experiences we've had with this rather surreal product launch we still just can't help but doubt what we're hearing.
TO US, THE MOST SENSIBLE EXPLANATION FOR ALL THIS IS THAT THE HARDWARE MUST BE THERE BUT IS SOMEHOW BROKEN - PERHAPS BROKEN TO THE POINT THAT IT WILL NEVER BE FIXED ON CURRENT SILICON (I.E. VIA DRIVERS) AND A NEW SPIN WOULD BE REQUIRED to address the problems.


Telepatia?
http://www.anandtech.com/video/showdoc.aspx?i=3000&p=2

:)

questa cosa è sconcertante :eek:

Athlon 64 3000+
04-06-2007, 18:45
Dico la mia dicendo quanto i driver della mia scheda facciano cagare tanto da dire che all'uscita di una scheda non mi ricordo di driver cosi penosi.
In Stalker a 1280x1024x32 tutto al massimo con le ombre completamente disattiva e illuminazione dinamica full se attivo l'af da pannello dei driver faccio 40 fps all'inizio del gioco invece se attivo l'af da gioco faccio 60 fps,stessa cosa succedi in Colin Mcrae Rally Dirt dove se attivo da driver l'af il frame cala parecchio.
Poi se disattivo il Catalist A.I. in Battlfield 2 mi compaiono vistosi bachi grafici mentre se è attivato nessun strano artefatto.

Grey 7
04-06-2007, 19:25
No, ipotesi.

:)

mah, secondo me pure...ipotesi che in attesa di conferme da piu fronti puo essere tanto giusta quanto sbagliata.

Sgremetor2000
09-06-2007, 08:52
Credo che come rapporto qualità/prezzo ci siamo,i prezzi sono allineati con le nvidia 8800gts 320mb come le prestazioni...tutto sommato non mi sembra che ne esca così male l'R600,senza contare i mesi di vantaggio di nvidia :-) vedremo con quelche versione nuova di driver

maggiore scia
09-06-2007, 11:23
sono sicuro che r600 con i giochi full directx 10 diventerà la gpu dominante...:D
imho

MenageZero
09-06-2007, 11:33
XT: 2x320x742= 475Gflps
Ultra: 2x128x1500= 384Gflps (c'è da considerare che in G80 c'è la MUL-phantom che può dare qualche incremento, ma non è indipendente, indi..).

100Gflps di differenza non sono pochi a parità di generazione. ^_^

però visto che la 8800 ultra genera prestazioni nettamente maggiori, vuol dire che r600 (magari tranne isolati picchi specifici tipo i test vertex del 3dm) per qualche motivo non ci arriva mai ad "esprimere" effettivamente x Gflops con x<= 475 e x>=y, dove y = 384 o quello che effettivamente la 8800ultra riece a "dare sul campo"... o no ? :wtf:

possibile che si siano affrettati a commercializzarlo a 399$ nonostante in ati pensassero di poter chiudere il gap con il lavoro sui drv ? (a "naso" sembrerebbe un po' strano)

maggiore scia
09-06-2007, 12:47
475 vs 384....però.

killer978
26-06-2007, 11:06
He he sta skeda comincia a stupirmi!! :p

http://www.tweaktown.com/articles/1122/asus_2900_xt_and_8800_ultra_compared/index.html

Si avvicina alla ultra e a volte la supera pur costando meno della metà, ormai se la gioca con la GTX!!!!!!!!!

Brava ATI adesso tocca stupirci con i titoli DX10 dove sicuramente la farà da padrona.

Kharonte85
26-06-2007, 11:15
He he sta skeda comincia a stupirmi!! :p

http://www.tweaktown.com/articles/1122/asus_2900_xt_and_8800_ultra_compared/index.html

Si avvicina alla ultra e a volte la supera pur costando meno della metà, ormai se la gioca con la GTX!!!!!!!!!

Brava ATI adesso tocca stupirci con i titoli DX10 dove sicuramente la farà da padrona.
:wtf:

Frena gli entusiasmi:

- E' da quando è uscita che si sa che le prestazioni sotto xp sono meglio

- Quei test sono fatti senza filtri, se vai a vedere i test con i filtri attivi te ne accorgi...http://www.tweaktown.com/articles/1122/14/page_13_benchmarks_high_quality_aa_and_af/index.html

halduemilauno
26-06-2007, 12:05
:wtf:

Frena gli entusiasmi:

- E' da quando è uscita che si sa che le prestazioni sotto xp sono meglio

- Quei test sono fatti senza filtri, se vai a vedere i test con i filtri attivi te ne accorgi...http://www.tweaktown.com/articles/1122/14/page_13_benchmarks_high_quality_aa_and_af/index.html

esatto. la 2900xt essendo fascia alta e dx 10 deve essere(o quantomeno è opportuno che sia) testata con i filtri attivi, (e vedendo la ram) da ris. a partire da 1920x1200 e sotto vista. diffidate(ihmo) di altre tipologie di test.
;)

Free Gordon
26-06-2007, 12:21
però visto che la 8800 ultra genera prestazioni nettamente maggiori, vuol dire che r600 (magari tranne isolati picchi specifici tipo i test vertex del 3dm) per qualche motivo non ci arriva mai ad "esprimere" effettivamente x Gflops con x<= 475 e x>=y, dove y = 384 o quello che effettivamente la 8800ultra riece a "dare sul campo"... o no ? :wtf:
possibile che si siano affrettati a commercializzarlo a 399$ nonostante in ati pensassero di poter chiudere il gap con il lavoro sui drv ? (a "naso" sembrerebbe un po' strano)

Il motivo che la Ultra và più forte in molti giochi è dovuto al fatto ha AA-hw completo e unità di texture filtering molto più veloci (con valori di fillrate molto più alti di R600). ;)

Dato che la maggior parte dei giochi attuali, è ancora molto più dipendente dal puro fillrate (texture e pixel) piuttosto che dalla capacità matematica, la Ultra gli è davanti. ;)

johnson
26-06-2007, 12:37
esatto. la 2900xt essendo fascia alta e dx 10 deve essere(o quantomeno è opportuno che sia) testata con i filtri attivi, (e vedendo la ram) da ris. a partire da 1920x1200 e sotto vista. diffidate(ihmo) di altre tipologie di test.
;)

Questa è una forzatura hal. Ognuno usa l'OS che vuole e la ris e il dettaglio che preferisce. C'è chi si accontenta di 30fps di media e gioca a 1920 e chi ne vuole 60 deve scendere di risoluzione. Chi come me ne vuole 60 di minimo gioca anche a 1280...

E' giusto che ognuno prenda in considerazione le recensioni che testano le schede sulla configurazione più simile alla propria.

halduemilauno
26-06-2007, 12:49
Questa è una forzatura hal. Ognuno usa l'OS che vuole e la ris e il dettaglio che preferisce. C'è chi si accontenta di 30fps di media e gioca a 1920 e chi ne vuole 60 deve scendere di risoluzione. Chi come me ne vuole 60 di minimo gioca anche a 1280...

E' giusto che ognuno prenda in considerazione le recensioni che testano le schede sulla configurazione più simile alla propria.

intanto ho usato i termini "opportuno" e "ihmo". io stavo parlando non tanto delle scelte di ognuno di noi che con i propri soldi ci fa quello che vuole fermo restando il diritto di opinione da parte di tutti. io stavo parlando della bontà delle rece. che poi alcuni/molti le usano per autoconvincimento e per autogiustificazione è un'altro discorso.
tutto qui.
;)

MiKeLezZ
26-06-2007, 14:09
He he sta skeda comincia a stupirmi!! :p

http://www.tweaktown.com/articles/1122/asus_2900_xt_and_8800_ultra_compared/index.html

Si avvicina alla ultra e a volte la supera pur costando meno della metà, ormai se la gioca con la GTX!!!!!!!!!

Brava ATI adesso tocca stupirci con i titoli DX10 dove sicuramente la farà da padrona.Fantastici i grafici tesi a fregare chi li legge, ponendo sempre la X2900XT in seconda posizione

Evangelion01
26-06-2007, 14:18
Fantastici i grafici tesi a fregare chi li legge, ponendo sempre la X2900XT in seconda posizione

Già.. :asd:
Di solito i grafici comparativi si ordinano per prestazioni... :mbe:

Evangelion01
26-06-2007, 14:20
Che poi, guardate che strano il grafico di Hl2 : a 1280 la gtx è più veloce della ultra... :eek:

tonyspacchio
16-08-2007, 12:31
Senza dubbio nn è ancora detta l'ultima per la hd 2900 xt, anche se difficilmente dei driver più maturi riescano a ribaltare la situazione, facendola diventare competitiva cn la 8800 gtx... Probabilmente da flop totale diventera semplicemente una scheda mediocre...
P.S. aspettando crysis...

×§ñåkê×
16-08-2007, 15:15
Senza dubbio nn è ancora detta l'ultima per la hd 2900 xt, anche se difficilmente dei driver più maturi riescano a ribaltare la situazione, facendola diventare competitiva cn la 8800 gtx... Probabilmente da flop totale diventera semplicemente una scheda mediocre...
P.S. aspettando crysis...

guarda che di driver migliori sono gia usciti, e direi che grazie al prezzo così, compete gia con la gtx, e non solo con il prezzo, visto che la ha raggiunta prestazionalmente

Evangelion01
16-08-2007, 17:49
guarda che di driver migliori sono gia usciti, e direi che grazie al prezzo così, compete gia con la gtx, e non solo con il prezzo, visto che la ha raggiunta prestazionalmente

Per il rapporto qualità - prezzo potrei anche essere d' accordo, ma l' ultima affermazione è tutta da dimostrare ;)

×§ñåkê×
16-08-2007, 19:13
Per il rapporto qualità - prezzo potrei anche essere d' accordo, ma l' ultima affermazione è tutta da dimostrare ;)

vai sul 3d della hd2900xt, con i catalyst 7.8 usciti 2gg fa la hd2900, non dico che stia sopra la gtx, ma molto mooolto vicino ;)

pep21
20-08-2007, 10:40
Cosa intendi per 3d? un topic sul forum? Mi puoi dare il link diretto che mi interessa?

grazie