PDA

View Full Version : ATI Radeon X1800: quando 16 pipeline sono meglio di 24


Pagine : 1 [2] 3 4 5

street
12-10-2005, 17:21
La situazione non sarebbe riallineata no, però diciamo che in alcune situazioni 512 mega avrebbero ridotto il divario da R520. Ma secondo me il discorso è un altro: serve guardare solo le prestazioni o anche le features? Quale dei due approcci è più adatto agli sviluppi futuri dei giochi?
Direi che da questo punto di vista R520 (e R580 migliorerà solamente la situazione, perchè pur essendo un "refresh", è un refresh sostanzioso) è sicuramente vincente.
Però a me sembra che si faccia troppo tifo e poco riferimento alla tecnologia: da un lato c'è chi tifa nvidia e dice che nonostante tutto le prestazioni non sono questo granchè, le nuove possibilità di queste schede non valgono granchè,ecc, chi tifa ATI sbandiera la superiorità delle nuove features dimentica che nonostante l'ottima architettura di R520 per oltre un anno e mezzo l'azienda canadese è rimasta indietro proprio nel supporto delle features.
Un pò di obiettività, diamine! Adesso la 1800XT è LA scheda di riferimento prestazionele E tecnologica (commercialmente, poi, trasformarla in un successo è un altro paio di maniche, però in questo momento si discute di tecnologia) come fino a ieri la 7800 GTX era LA scheda di riferimento prestazionale E tecnologica. E la scheda ATI lo rimarrà fino a che una nuova scheda, ATI o Nvidia che sia, la sorpasserà, ma sinceramente gli utenti dovrebbero esserne interessati solo dal punto di vista tecnologico e non certo farne una questione personale.
My 2 cents.

A me sembra che un lato molto importante sia il fatto che questa R520 abbia processori interni programmabili via driver.

Voglio dire: prima dell' arrivo della r520 non si poteva fare AA adattativo sulle Radeon (RIPETO, SULLE RADEON, NON DICO SU R520).

Ora, semplicemente utilizzando i nuovi drivers si. E anche su schede come 9800. E questo solo perché é programmabile.
Un pò come successe con il TAA, uscito se non erro quando uscì r4x0, ed usufruibile anche sulle 9800.

Mi sembra sia un argomento importante all' insegna di innovazione ma soprattutto longevità, accoppiato poi al fatto che questi due mostri (x1800 e 7800) sono quasi cpu-limited, e quindi saranno probabilmente sfruttabili per molto tempo.


(Le immagini seguenti sono prese dal thread sui nuovi catalist)

AdaptiveAA Off
http://img282.imageshack.us/img282/5867/d1canals0600000xt.th.jpg (http://img282.imageshack.us/my.php?image=d1canals0600000xt.jpg)
AdaptiveAA On
http://img93.imageshack.us/img93/268/d1canals0600023sc.th.jpg (http://img93.imageshack.us/my.php?image=d1canals0600023sc.jpg)

Off
http://img93.imageshack.us/img93/9306/d1canals0600010lb.th.jpg (http://img93.imageshack.us/my.php?image=d1canals0600010lb.jpg)
On
http://img93.imageshack.us/img93/9881/d1canals0600041vr.th.jpg (http://img93.imageshack.us/my.php?image=d1canals0600041vr.jpg)

hackboyz's:
Off
http://img255.imageshack.us/img255/4829/shot2adaptiveno6mm.th.jpg (http://img255.imageshack.us/my.php?image=shot2adaptiveno6mm.jpg)
On
http://img255.imageshack.us/img255/1238/shot2adaptivesi9ib.th.jpg (http://img255.imageshack.us/my.php?image=shot2adaptivesi9ib.jpg)

Mastromuco
12-10-2005, 17:22
E questo è ancora più incredibile, se si pensa che su C1 (volgarmente detto R500) di X360, il gioco girerà 60fps con vsync @720p, a detta della stessa Infinity Ward. ;)

Si vero e una TV che ti regga il 720 quanto costa? Perchè sennò giochi a 320x200 eh!

Comunque sia se ne è parlato parecchio, è un concetto semplice, quando i programmatori devono fare un gioco per una stazione complessa come il PC, il risultato è una non ottimizzazione generale.

Free Gordon
12-10-2005, 17:23
forse ti sfugge il fatto che l'anomalia è il bios con o/c bloccato; quelle che metteranno in commercio lo avranno sbloccato di default (e le rev successive saliranno oltre i 725 Mhz di core)


Cavoli però! Ormai siamo quasi a frequenze da "cpu".. :eek:

Free Gordon
12-10-2005, 17:33
Si vero e una TV che ti regga il 720 quanto costa? Perchè sennò giochi a 320x200 eh!

Comunque sia se ne è parlato parecchio, è un concetto semplice, quando i programmatori devono fare un gioco per una stazione complessa come il PC, il risultato è una non ottimizzazione generale.


Il cavo VGA (al costo di 39 euro) ti permetterà di settare queste res:
640 × 480, 848 × 480, 1024 × 768, 1280 × 720, 1280 × 768 and 1360 × 768
su qualsiasi monitor da pc, come quello che hai davanti ora. :D

Ottimizzazione console per un gioco nato e sviluppato per pc? :p Nah.. ;)

C1 è un bella bestia, punto e basta, ed inoltre il tricore del 360 l'aiuterà per bene (perlomeno in quelle due o tre cose che sa fare bene).

Pistolpete
12-10-2005, 17:33
Faccio i complimenti alla redazione di HWUPGRADE per la splendida recensione.
Siete davvero bravissimi!
Appena divento ricco vi finanzio direttamente io! :D
Davvero complimenti.
:mano:

Free Gordon
12-10-2005, 17:37
Gran bella rece ragazzi.

Siete come sempre i migliori! :D

andreamarra
12-10-2005, 17:37
Comunque vorrei far notare a quelli che dicono che le schede sono sostanzialmente alla pari che hanno una strana concezione del termine "sostanziale".

COn filtri attivati (come vuole la logica di queste schede high end) ci sono distacchi anche di 20-30% negli FPS (a risoluzioni alte).
Far Cry circa 15%
Splinter 25%
BF2 40%
UT2004 un po' meno di 30%

E avanti così...

Ora, 2 schede allineate lo sono quando siamo intorno al 3-5%.

Questo non per difendere Ati a tutti i costi ma semplicemente per onestà dei numeri.

Cioè con lo stesso discorso allora una GTX è sostanzialmente alla pari con una 6800Ultra, cosa evidentemente non vera

leoneazzurro
12-10-2005, 17:42
A me sembra che un lato molto importante sia il fatto che questa R520 abbia processori interni programmabili via driver.

Voglio dire: prima dell' arrivo della r520 non si poteva fare AA adattativo sulle Radeon (RIPETO, SULLE RADEON, NON DICO SU R520).

Ora, semplicemente utilizzando i nuovi drivers si. E anche su schede come 9800. E questo solo perché é programmabile.
Un pò come successe con il TAA, uscito se non erro quando uscì r4x0, ed usufruibile anche sulle 9800.

Mi sembra sia un argomento importante all' insegna di innovazione ma soprattutto longevità, accoppiato poi al fatto che questi due mostri (x1800 e 7800) sono quasi cpu-limited, e quindi saranno probabilmente sfruttabili per molto tempo.



Ehm.. non ho capito. Sicuramente un "adaptive AA" si può fare via software anche sulle 9800, ma credo che manchi il supporto hardware ai filtri su texture trasparenti, per esempio, e quindi non so se la qualità video sarà la medesima che non su R520 e che le prestazioni saranno soddisfacenti (il temporal AA finora non l'ho visto molto in giro.. probabilmente a causa della sua limitazione principale... ossia il disabilitarsi al di sotto di un certo numero di frame al secondo, su R520 sarà più applicabile). Il fatto è che strutturalmente R4X0 e R3X0 avevano moltissimo in comune (architettura interna praticamente identica), mentre R520 è completamente differente. che io sappia R3X0 o R4X0 non possono essere "programmati" per eseguire a velocità ragionevoli metodi di AA o filtri non supportati inizialmente dall'hardware, mentre le nuove caratteristiche di programmabilità di R520, se ho capito bene, si riferiscono alla possibilità di istruire il dispatch processor e altri elementi della struttura interna della GPU per ottimizzare le prestazioni in base all'applicazione.
(Ad esempio G70, pur derivando da NV4X, ha alcune migliorie HW che gli permettono di applicare il transparency AA, oltre che una unità MADD aggiuntiva per pixel pipeline, altrimenti se le unità fossero le medesime da domani Nvidia potrebbe anche da domani supportare il TAA su NV4X e derivati).

street
12-10-2005, 17:43
quegli screen sono di una 9800 ;)

yossarian
12-10-2005, 17:43
Tutto ciò sarebbe molto triste se fosse vero.
me ne sono fatto una ragione per BeOS, ma non credo che il futuro di LINUX sia così nero, solo perchè la maggior parte delle persone che si formano e lavorano in ambito informatico sentono il peso di doverlo supportare.
Linux, non è giochi è anche (in parte) giochi.
Sono le persone più preparate come te che dovrebbero appoggiare la politica dell' opensource e non abbatterla sia pure solo con le parole, per il solo motivo che non si abbia la voglia di dover studiare la propria materia su più fronti. In fondo fa comodo a molti avere una sola piattaforma, in primis alla tua amata ATI che tanto appoggi e per la quale diresti tranquillamente addio a LINUX. Io invece al tuo contrario direi benvenuta ad ATI qualora surclassasse nVidia in tali ambiti. Credimi e fidati che lo farei, l' ho fatto già una volta solo per un annuncio fasullo, figuriamoci se non lo rifaccio con dati alla mano.

non sono io e neppure tu a potre decidere quale sarà il destino dell'open source, ma proprio i maggiori produttori di HW e SW (compresa nVIDIA, quindi e non solo ATi; se infatti fai caso a ciò che ha scritto Raffaele, nell'implementazione dei filtri, entrambe mettono più cura nel D3D che nell'OpenGL). L'OpenGL board si è impantanato sulle specifiche ARB2 ed è rimasto indietro di anni (tanto che ormai va a rimorchio di MS e la OPenGL somigliano sempre più alle DX); Linux è ottimo in tanti ambiti, ma risente della situazione di tutto il sistema open source. E non è che comprando nVIDIA al posto di ATi si contribuisce a cambiare la situazione. nVIDIA, al pari di ATI, è salita da tempo sul carro di Bill Gates e soci (come pure Intel e AMD)

hackboyz
12-10-2005, 17:44
quegli screen sono di una 9800 ;)
Tranne i miei che sono di una X800XL :D

leoneazzurro
12-10-2005, 17:48
quegli screen sono di una 9800 ;)

Si, d'accordo, ma io non ho detto che non si può fare, ma "a che costo"?
Se poi tutto gira al meglio senza problemi, vuol dire che per anni ci hanno dato drivers incompleti :D
(e a questo punto potrebbe essere benissimo che NV cominci a supportare i TAA sulle 6800 )

Maury
12-10-2005, 17:49
non sono io e neppure tu a potre decidere quale sarà il destino dell'open source, ma proprio i maggiori produttori di HW e SW (compresa nVIDIA, quindi e non solo ATi; se infatti fai caso a ciò che ha scritto Raffaele, nell'implementazione dei filtri, entrambe mettono più cura nel D3D che nell'OpenGL). L'OpenGL board si è impantanato sulle specifiche ARB2 ed è rimasto indietro di anni (tanto che ormai va a rimorchio di MS e la OPenGL somigliano sempre più alle DX); Linux è ottimo in tanti ambiti, ma risente della situazione di tutto il sistema open source. E non è che comprando nVIDIA al posto di ATi si contribuisce a cambiare la situazione. nVIDIA, al pari di ATI, è salita da tempo sul carro di Bill Gates e soci (come pure Intel e AMD)

Soprattutto ora con l'arrivo di XBox 360 e la piattaforma XNA :)

Vifani
12-10-2005, 17:50
Non imputo la colpa ad Ati però sarebbe interessante fare luce sulla cosa, non vorrei dover immaginare che siano occate...

Non immaginare che le memorie siano overcloccate o overvoltate infatti. Si tratta delle specifiche rilasciate da Samsung per le GDDR3 lavoranti a quelle frequenze. Se Samsung dice che richiedono 0,2 V in più, che vogliamo farci? Non le usiamo altrimenti gli utenti pensano che siano overcloccate? Mah... Guarda che anche quando le userà NVIDIA il voltaggio sarà sempre lo stesso, è sicuro al 100%.

Vifani
12-10-2005, 17:53
nei test, con G70 avete forzato sempre l'utilizzo di fp32?

No, non è stata eseguita alcuna prova in merito. Effettivamente sarebbe interessante vedere cosa ne esce fuori, anche se ritengo sia assolutamente legittimo usare FP16 se una precisione superiore non è richiesta. Insomma alla fine la precisione FP32 serve in caso di elaborazioni molto complesse e nella maggioranza degli shaders assai sono sovrabbondanti.

rutto
12-10-2005, 17:54
allora prima c'era tra nVIDIA e MS, visto che per l'x-box ha utilizzato un chip NV.
Se MS utilizza R500 forse è anche perchè è il chip più avanzato in circolazione. Tanto che c'è persino il rischio che Carmack abbandoni la OPenGL per adoperare come piattaforma di riferimento R500

ehm... veramente è perché win vista non supporterà opengl se non in emulazione... e questa è una pessima notizia.

Vifani
12-10-2005, 17:54
Scusate, visto che non mi avete risposto, ripropongo la domanda (agli utenti, non al buon Raffaele che avra' tanto da fare): ma se l'architettura della GTX nasce a 24 pipeline, perche' penalizzarla del 33% (avevo scritto 50 pardon) nelle frequenze per misurare l'efficacia rispetto alle altre schede?
Voglio dire: 16pipe@450 vs 24pipe@450 capovolgono il titolo dell'articolo, ok l'architettura e' piu' efficiente, ma cosi' e' evidente che la frequenza del core ha un ruolo predominante!

A dire la verità la prova a 24 pipeline@300 Mhz è stata aggiunta semplicemente a titolo di curiosità. Ho riportato io stesso che le vertex unit sono ovviamente penalizzate in questo caso.

bartolino3200
12-10-2005, 17:58
Non immaginare che le memorie siano overcloccate o overvoltate infatti. Si tratta delle specifiche rilasciate da Samsung per le GDDR3 lavoranti a quelle frequenze. Se Samsung dice che richiedono 0,2 V in più, che vogliamo farci? Non le usiamo altrimenti gli utenti pensano che siano overcloccate? Mah... Guarda che anche quando le userà NVIDIA il voltaggio sarà sempre lo stesso, è sicuro al 100%.

Dubbio sciolto. Spero che nel frattempo escano chip pari prestazioni con minor voltaggio.

non sono io e neppure tu a potre decidere quale sarà il destino dell'open source, ma proprio i maggiori produttori di HW e SW (compresa nVIDIA, quindi e non solo ATi; se infatti fai caso a ciò che ha scritto Raffaele, nell'implementazione dei filtri, entrambe mettono più cura nel D3D che nell'OpenGL). L'OpenGL board si è impantanato sulle specifiche ARB2 ed è rimasto indietro di anni (tanto che ormai va a rimorchio di MS e la OPenGL somigliano sempre più alle DX); Linux è ottimo in tanti ambiti, ma risente della situazione di tutto il sistema open source. E non è che comprando nVIDIA al posto di ATi si contribuisce a cambiare la situazione. nVIDIA, al pari di ATI, è salita da tempo sul carro di Bill Gates e soci (come pure Intel e AMD)

Che tristezza. Spero davvero ci sia gente, talmente onesta e preparata per riuscire a portare avanti Linux in modo migliore di oggi.

Vifani
12-10-2005, 18:00
Scusate, nn sn riuscito a leggere tutte le 23 pagine discussione e nn so se è già stato chiesto......ma perché mancano i test con Half Life 2???????????

Verso la fine di Settembre Valve ha aggiornato attraverso Steam il motore Source Engine facendogli supportare l'HDR. Purtroppo a partire da quel momento qualsiasi tentativo di avviare Half-Life 2 o Counter strike Source si è tradotto in un errore irreversibile di hl2.exe con riferimento alla libreria datacache.dll. Se andate sul forum di Steam troverete che molte altre persone hanno lo stesso problema e sembrerebbe che sia diffuso specie sulle piattaforme AMD64+NFORCE4. Io stesso sul mio PC personale AMD64+VIA non ho questo problema.

Purtroppo fino a quando non rivolveranno questo bug siamo impossibilitati ad eseguire questo benchmark a meno di non cambiare piattaforma.

nj
12-10-2005, 18:01
Recensione impressionante. Bravi.
Purtroppo manca il motore grafico di Half-life 2, da cui dipenderanno tantissime mods, un vero peccato.
Anche se alla fine, ad ogni nuova scheda, le prestazioni tra nvidia e ati sono praticamente allineate. Chissà come se la ridono nello spartirsi il mercato in questo modo...

rutto
12-10-2005, 18:02
bartolino allroa tu nn hai capito come funziona la storia dei videogiochi...
premettendo che ati e nvidia facciano dei super driver per linux...

non bisogna fare giochi PER linux, basta farli in opengl invece che direct3d


chi vuole davvero giocare non userà MAI linux ;)


non la trovo una cosa simpatica tanto da farci l'occhiolino
perché no? ahh già... perché il 50% di produttori di schede video (per gamers) sul mercato non fornisce driver decenti per linux... chissà di chi è la colpa.


le directX contro quelle di lunux?


gates contro torvalds? celebrity deathmatch?
le librerie di lunux non sono altro che le OpenGL eh..


secondo te io .. proprietario di una nota industria di videogiochi.. sarò mai così folle da creare giochi ottimizzati per il sistema operativo linux.. che ricorpe si e no un 10% del mercato mondiale?


molto meno del 10%!!!
ma che vuol dire ottimizzare per linux??
cmq un certo john k. lo fa.

Andrea87
12-10-2005, 18:02
Ho letto tutto il post, e già questo è un'impresa..... cmq dopo tutto sto' ritardo finalmente ati ha sfornato un buon prodotto, con filtri attivati, come qualità d'immagine e come nuove features non c'è confronto con la 7800gtx. Oltretutto, nonostante si sia detto di tutto in questa discussione, è più efficiente della rivale alle stesse frequenze, come dimostrano i test fatti.

P.S. Vorrei fare solo un appunto a Bartolino3200: tu dici a tutti quelli che hanno elogiato r520 che sono fan di ati, ma l'unico che ha dimostrato di essere spudoratamente di parte sei tu, come per altro hai scritto nella tua firma........ oltretutto sei abbastanza ridicolo, hai scritto "fan nvidia" e poi come scheda hai una 9800pro......... :sofico:

bartolino3200
12-10-2005, 18:02
ehm... veramente è perché win vista non supporterà opengl se non in emulazione... e questa è una pessima notizia.

Pessima? Terribile. Scusa ma cosa significa queso e tutto il software grafico/professionale basato su openGL che fine farà? Sarà ricompilato per D3D, o girerà in emulazione OGL?
Non so se sia tecnicamente possibile, ma temo che cominceremo a vederne di crash sotto vista :doh:
Mazza un futuro sempre più nero, visto che da solo non riesco a rispondermi a tali dilemmi.

^TiGeRShArK^
12-10-2005, 18:12
Scusa ma questo cosa centra con quanto aveva detto jimmi3dita?
Oltre a farci capire che sei studente o laureato in ing. eletronica o simila?
Bho...:confused:
uno ti dice buongiorno e tu rispondi buonanotte?
.....
ma se non hai un MINIMO di background tecnico x discutere ke flammi a fare???
yoss ha spiegato CON ESTREMA KIAREZZA i punti forti di R520 rispetto a G70 ke vanno BEN OLTRE alle pikkole differenze ke vediamo coi gioki odierni....
già li 3dmark 2005 rappresenta meglio quali siano veramente le reali potenzialità di questa skeda....

Athlon 64 3000+
12-10-2005, 18:13
Tu sapresti dirmi se Battlefield 2 uso lo shader model 1.x o il 2.0 dal benchmark pubblicato sulla recensione?
http://www.hwupgrade.it/articoli/skvideo/1361/15.html

ForeverBlue
12-10-2005, 18:16
recensione superba, magari avrei gradito una superiorità di screen sull'HDR in FarCry, ma fa lo stesso

giusto a proposito degli screen di Far+HDR+AA volevo chiedere perchè nello screen qui sotto l'AA è applicato ovunque tranne che vicino alla fonte di luce
dato che è sicuramente un modello 3D quello

guardate sulla fonte di luce in alto....
http://www.hwupgrade.it/articoli/1361/hdr/r520/hdr+aa.jpg

andreamarra
12-10-2005, 18:17
io vorrei sapere come fa qualcuno a dire che dai test le prestazioni di R520 e G70 sono allineati...

in situazioni di render pesante (ovvero: la situazione chiave per la quale si comprano ste schede...) ci sono vantaggi enormi in favore di R520.

Far Cry circa 15%
Splinter 25%
BF2 40%
UT2004 un po' meno di 30%

^TiGeRShArK^
12-10-2005, 18:18
Devo ammettere di avere molte sensazioni in comune con te.
:rotfl:
quindi ovviamente hwupgrade è d parte xkè dice ke la x800xt è migliore di G70???
:rotfl:
fosse x te riscriveresti anke la storia x togliere le parti ke nn t piacciono... :mc:

Crystal1988
12-10-2005, 18:25
Scusate... ma le differenze in OpenGL a COSA sono dovute?
Mi spiego...
Nella mia opinione... credo che queste differenze in OpenGL riscontrabili in Doom-3 e Riddick siano dovute in primis al forte utilizzo di shaders semplici, campo dove Nividia primeggia... mentre Ati primeggia negli shaders complessi... Inoltre man forte dovrebbe darlo sia l'utilizzo della stencil shadows (tecnologia proprietaria Nvidia????non ne sono sicuro) dove Nvidia ha un'implementazione nativa e l'ultilizzo di Ultra Shadows che è una tecnologia Nvidia.
A questo punto mi sembra chiaro che in questo campo, se sono usate le stencil e shaders semplici, Nvidia primeggi...
Ma se ciò fosse proprio così... Non potrebbe Ati, implementare almeno le stencil e Ultra shadows? o sarebbe un lavoro troppo oneroso o forse addirittura non lo permette l'architettura?

PS... sapete dove posso trovare qualche bench d'ambito professionale che compari nvidia,ati,3Dlabs?

.

^TiGeRShArK^
12-10-2005, 18:26
Beh qualche cinese c'e' riuscito :D
Pero' "da piccolo" mi avevano spiegato che a parita' di frequenza il processore che fa piu' operazioni e' piu' efficiente. Tutto qui.
Se da un lato nVidia non riesce a raggiungere frequenze da paura, dall'altro Ati non ha messo lo stesso numero di pipeline. Ma questa e' un'altra storia, direi un tasto dolente, che e' meglio non toccare :D
si...
dimentichi però ke nei processori abbiamo UNA pipeline...
dual core e HT a parte...
e non considerando le pipe "ombra" ovviamente :Prrr:
cmq il concetto è quello...
a parità di PIPELINES e di FREUQENZE il processore ke fa più calcoli è il più efficiente...
e guarda caso è proprio quello ke si è visto nell'analisi di hwupgrade..
a parità di PIPELINES e di FREQUENZE R520 fa più operazioni di G70...ergo è + efficiente.

^TiGeRShArK^
12-10-2005, 18:31
Assolutamente no anzi, tanto di cappello e onore al merito per le tue di conoscienze, che fra l' altro ti invidio.
Il problema è che la maggioranza degli utenti come me le leggono a stento, per cui ci si può (deve) limitare all' analisi dei dati riportati nei vari bench.
In molti sono poco interessati alle finezze di qualità video in gaming, visto che sarebbero cmq poco percepibili, tranne ovvio quelle basilari e più evidenti.
Si bada quindi al risultato finale, che in sostanza non giustifica un esborso maggiore e delude in parte le lunghe attese degli appassionati e fan di Ati.

ah ok....
quindi nei bench con HDR+AA va + veloce R520 o G70??? :Prrr:
se proprio vuoi guardare i bench, l'unico ke in qualke modo stressa un pokino le caratteristike di R520 è il 3dmark 2005..
e infatti si vede qto ci perde G70 in quel bench...
http://www.hwupgrade.it/articoli/1359/3dmark_4.png
:read:

Dark Schneider
12-10-2005, 18:33
non mi pare sia dovuto alla banda passante la differenza perchè 7800GT e X1800XL l' hanno precisa spaccata identica, eppure :
http://www.hwupgrade.it/articoli/1361/fc_hdr_4.png
mi pare un abisso


L'HDR incide sulla banda passante. Ma bisogna considerare anche che la soluzione Ati adotta migliori algoritmi di risparmio banda. Inoltre diciamo che su FC viste le diverse versioni utilizzate..imho meglio pronunciarsi più in là. Splinter Cell invece già è minore il distacco. La stessa Ati nelle sue slide dichiara un 10% in più rispetto a nVidia in SC3 se ben ricordo con HDR. :) Ovvio che non è solo questione di banda. Ma incide si.

^TiGeRShArK^
12-10-2005, 18:39
io penso che appartengano (g70 e 520) a piani generazionali differenti per poter dire ha fatto meglio l'uno o l'altro (0.11 contro 0.09 e pure le memorie :1200 contro 1500).

Il raffronto è purtroppo obbligatorio perchè è quello che offre il mercato ora come ora (anche se per l'ati c'è da attendere ancora qualche giorno), però ,ripeto, ha un senso fino ad un certo punto.

Se davvero si vuole vedere chi architetturalmente sa sviluppare (e quindi in spiccioli chi va più veloce nei giochini) meglio un chip grafico, lo si deve fare partendo dagli stessi presupposti, quindi stesso processo produttivo e frequenze delle memorie alla pari.

questo il mio modesto parere
mi dispiace ma non ha senso il tuo ragionamento...
seguendo il tuo filo logico allora anke NV30 avrebbe dovuto essere generazionalmente avanti rispetto a R300 per via delle memorie a 1 ghz e del processo produttivo a .13...
invece ati con delle normalissime ddr e con il processo .15 era SEMPRE avanti...
alla fine non conta il processo produttivo..
conta la bontà dell'arkitettura..
e si è visto in questo frangenete qual'è l'arkitettura superiore, kekkè se ne dica...

^TiGeRShArK^
12-10-2005, 18:43
P.S.

Facendo vedere a dei perfetti ignoranti le immagini con hdr + aa attivati a confronto con quelle nvidia non hanno notato nulla

Ora crocifiggetemi pure
...
quindi tu compreresti una skeda gaming top level x giocare senza AA???
x me, una volta provato l'AA, è diventato irrinunciabile, ke sia in HDR o meno...

ciocia
12-10-2005, 18:48
Ottima rece ed ottima scheda, ma non mi piace per niente il suo consumo!!! ( ogni volta che mi arrivano bollette enel da oltre 200€ piango!!! )
NEL TEST DEL CONSUMO, POTETE INSERIRE UN CONFRONTO ANCHE CON 7800GT E GTX IN SLI?
Sarebbe bello vedere la differenza trea 2 nvidia sli e la 1800XT in fatto di consumo

^TiGeRShArK^
12-10-2005, 18:49
AMD ha preferito dotare i suoi chip di più pipeline con meno stadi, Intel di puntare su un numero ridotto di pipeline, riducendo le dimensioni degli stadi e aumentandone io numero.
ehm...
qui una correzione te la devo fare....
la pipeline nelle cpu x86 è essenzialmente una......
qdo si parla di processori single core...
quello ke varia è il numero delle unità di esecuzione...
inoltre i p4 HT "simulano" una seconda pipeline "raddoppiando" un certo numero delle unità di esecuzione e eseguendo un altro processo in questa "seconda pipeline".
gli unici processori ke hanno due pipe reali sono i dual-core...
ah.... e inoltre, se non erro, per tentare di limitare i branch mis-prediction e i conseguenti svuotamenti delle pipeline, vi sono delle pipeline "ombra" ke tentano di seguire i diversi branch in modo da svolgere correttamente l'operazione nonostante l'errore di predizione del branch...
anke se onestamente nn ricordo se questa feature è implementata nell'arkitettura x86 :fagiano:

Crystal1988
12-10-2005, 18:51
infatti si parla di pipe lunga o corta...

^TiGeRShArK^
12-10-2005, 18:52
Adesso è lecito il paragone mentre prima guai paragonare G70 con la serie X8xx
grazie...
era km paragonare la 9700 pro con la geforce ti 4600....
semplicemente non c'era paragone in quel caso....
e, km ti ho fatto già notare, nonostante NV30 fosse a .13 mentre R300 a .15 indovina un pò qual'era l'unica skeda REALMENTE DX 9 e ke rendeva MOLTO d + della controparte???? :fagiano:

andreamarra
12-10-2005, 18:53
ma che significa dire che si fanno vedere gli shot a degli ignoranti in materia non capiscono la differenza dell'AA attivo???? :asd:


ma qua siamo davvero oltre la barzelletta :sofico:!!!

^TiGeRShArK^
12-10-2005, 18:53
Per favore datevi una calmata...
scusa cionci... sto rsp a mano a mano ke scrivo e l'ho visto ora l'ammonimento... :fagiano:
cerkerò d essere un pò meno polemico, ma nonostante questo continuerò a correggere alcune castronerie sparate a zero.......

^TiGeRShArK^
12-10-2005, 18:57
le directX contro quelle di lunux? secondo te io .. proprietario di una nota industria di videogiochi.. sarò mai così folle da creare giochi ottimizzati per il sistema operativo linux.. che ricorpe si e no un 10% del mercato mondiale?

10% del mercato mondiale dei gioki??? forse 0,1 % sarebbe una stima + corretta..
c vorrebbe fek x una stima + precisa, ma x ora è in viaggio e non credo trovi il tempo x collegarsi e x leggere tutti questi post :p

^TiGeRShArK^
12-10-2005, 18:58
Quindi il solo uso che si può fare di un pc è il gioco.
Ottima notizia.
OpenGL sono librerie solo per giocare, non per software ottimizzati: qui mi sa che topolino è di moda...
Ati è buona solo per giocare, e vedere DVD altra interessante notizia.
A sto punto con 600 euro mi prendo una Playstation3 e in più una XBOX 360, che fino a quando vedremo la X1800XT saranno in commercio e magari pure in offerta speciale :asd: Scherzo...ma quasi quasi ...
l'uso di una skeda TOP GAMING è il gioco certo..
se devi fare altro ci sono le skede professionali..
mai sentito parlare di nvidia quadro e ati firegl???
......ma almeno informarti UN MINIMO prima di spararle ti costa davvero tanta fatica? :mbe:

^TiGeRShArK^
12-10-2005, 19:00
infatti un 68000Ultra con D3 fa meglio su Linux che su Windows in molti casi :rolleyes: e poi le librerie di Linux che tu disprezzi sono le OpenGL usate in The Chronicols of Riddik e D3 :O

guarda che i driver NVIDIA per Linux sono veramente ottimi :read:
vedi sopra...
qual'è il mercato dei videogioki x linux????
e cmq la superiorità di nvidia kn i due gioki da te nominati, non mi stankerò mai di ripeterlo, non è dovuto tanto alle open gl quanto all'uso delle stencil shadow....

bartolino3200
12-10-2005, 19:04
Chissà come andranno le vendite...

andreamarra
12-10-2005, 19:07
ma che c'etrano le vendite?

:confused:

perchè non dovrebbe vendere?

^TiGeRShArK^
12-10-2005, 19:08
La situazione non sarebbe riallineata no, però diciamo che in alcune situazioni 512 mega avrebbero ridotto il divario da R520. Ma secondo me il discorso è un altro: serve guardare solo le prestazioni o anche le features? Quale dei due approcci è più adatto agli sviluppi futuri dei giochi?
Direi che da questo punto di vista R520 (e R580 migliorerà solamente la situazione, perchè pur essendo un "refresh", è un refresh sostanzioso) è sicuramente vincente.
Però a me sembra che si faccia troppo tifo e poco riferimento alla tecnologia: da un lato c'è chi tifa nvidia e dice che nonostante tutto le prestazioni non sono questo granchè, le nuove possibilità di queste schede non valgono granchè,ecc, chi tifa ATI sbandiera la superiorità delle nuove features dimentica che nonostante l'ottima architettura di R520 per oltre un anno e mezzo l'azienda canadese è rimasta indietro proprio nel supporto delle features.
Un pò di obiettività, diamine! Adesso la 1800XT è LA scheda di riferimento prestazionele E tecnologica (commercialmente, poi, trasformarla in un successo è un altro paio di maniche, però in questo momento si discute di tecnologia) come fino a ieri la 7800 GTX era LA scheda di riferimento prestazionale E tecnologica. E la scheda ATI lo rimarrà fino a che una nuova scheda, ATI o Nvidia che sia, la sorpasserà, ma sinceramente gli utenti dovrebbero esserne interessati solo dal punto di vista tecnologico e non certo farne una questione personale.
My 2 cents.

in generale ocncordo..
però su una cosa t devo correggere...
gli shader 3.0 dovevano essere implementati dai programmatori...
l'AA x l'HDR no....
basta avere un gioco ke supporti l'HDR e con ATI avrai l'AA, con nvidia no...
e poi sappiamo benissimo ke gli shader 3 rispetto agli shader 2 non hanno portato nulla a livello di qualità o altro... permettevano semplicemente di effettuare delle operazioni più velocemente sfruttando soprattutto l'instancing (si kiamava ks??? :stordita: ) e nn mi ricordo cos'altro...
ma in linea di principio tutto ciò ke poteva essere fatto con gli shader 3 poteva anke essere fatto con gli shader 2....
se ricordo male fustigatemi pure...
sono tutto vostro...
basta ke nn intingete la frusta nel sale o nell'aceto.... :ops:

^TiGeRShArK^
12-10-2005, 19:21
Pessima? Terribile. Scusa ma cosa significa queso e tutto il software grafico/professionale basato su openGL che fine farà? Sarà ricompilato per D3D, o girerà in emulazione OGL?
Non so se sia tecnicamente possibile, ma temo che cominceremo a vederne di crash sotto vista :doh:
Mazza un futuro sempre più nero, visto che da solo non riesco a rispondermi a tali dilemmi.
ovviamente ti 6 perso l'interessantissima spiegazione di fek riguardo alle baggianate ke sono state dette sulla morte dell'open gl con vista....

LightForce
12-10-2005, 19:24
mi ha deluso molto la x1800xt sinceramente..cosi tanto tempo da aspettare e cosi poco distacco dalla 7800gtx...ke in certi casi nn c'è neanke.... 16 pipe sn meglio di 24? pfff ,solo xke le frequenze sono pompate al massimo,vorrei vedere la 7800 con quelle frequenze ;)

Duncan
12-10-2005, 19:27
mi ha deluso molto la x1800xt sinceramente..cosi tanto tempo da aspettare e cosi poco distacco dalla 7800gtx...ke in certi casi nn c'è neanke.... 16 pipe sn meglio di 24? pfff ,solo xke le frequenze sono pompate al massimo,vorrei vedere la 7800 con quelle frequenze ;)


Discorso ribaltabile...

Cosa farebbe la ATI con 24 pipeline?

Sono architetture diverse, vanno valutate con altri paramentri...

^TiGeRShArK^
12-10-2005, 19:27
Ottima rece ed ottima scheda, ma non mi piace per niente il suo consumo!!! ( ogni volta che mi arrivano bollette enel da oltre 200€ piango!!! )
NEL TEST DEL CONSUMO, POTETE INSERIRE UN CONFRONTO ANCHE CON 7800GT E GTX IN SLI?
Sarebbe bello vedere la differenza trea 2 nvidia sli e la 1800XT in fatto di consumo
due 7800gtx in sli ad okkio consumano un bel pò di +......
http://www.hwupgrade.it/articoli/1311/consumi.png
http://www.hwupgrade.it/articoli/1361/consumi.png
si parla di praticamente 100 W in + per l'SLI ... :eek:

zerothehero
12-10-2005, 19:27
mi ha deluso molto la x1800xt sinceramente..cosi tanto tempo da aspettare e cosi poco distacco dalla 7800gtx...ke in certi casi nn c'è neanke.... 16 pipe sn meglio di 24? pfff ,solo xke le frequenze sono pompate al massimo,vorrei vedere la 7800 con quelle frequenze ;)

Va bè ma che discorso..allora la x1800xt con 24 pipeline dove andrebbe...semplicemente sono da analizzare per come sono...tra l'altro l'overclock a 725/1600 è impressionante..pensavo fosse stata overcloccata allo stremo..

Recensione ottima per l'analisi dell'efficienza...completa in tutto.. :D complimenti alla redazione.

^TiGeRShArK^
12-10-2005, 19:29
Chissà come andranno le vendite...
sicuramente ki deve comprare ora una skeda video d fascia alta non andrà certo sulla 7800 gtx.....
a meno di non avere esigenze particolari (linux) o di non essere un fanboy.....
andando su G70 si giokerà tutte le features di R520 e avrà prestazioni peggiori nei gioki futuri km già detto da yoss e ampiamente dimostrato dal 3dmark 2005....

^TiGeRShArK^
12-10-2005, 19:32
mi ha deluso molto la x1800xt sinceramente..cosi tanto tempo da aspettare e cosi poco distacco dalla 7800gtx...ke in certi casi nn c'è neanke.... 16 pipe sn meglio di 24? pfff ,solo xke le frequenze sono pompate al massimo,vorrei vedere la 7800 con quelle frequenze ;)
e io vorrei vedere un A64 a 3.8 ghz...
:rolleyes:
arkitetture diverse NON possono essere confrontate a pairtà di frequenza.
ora km ora R520 è superiore a G70 già con i gioki attuali e con driver ancora acerbi...
in futuro, con driver ottimizzati, e soprattutto con i nuovi gioki ke utilizzeranno finalmente tutte le features messe a disposizione si vedrà veramente la potenza nascosta di R520...

P. S. ... ormai m sono stankato d ripeterlo.... un okkiata al 3dmark 2005 ke ho postato x vedere le prestazioni con i gioki futuri di R520 Vs G70 costa troppo darla? :asd:

dagon1978
12-10-2005, 19:33
ottima recensione e ottime analisi, davvero interessanti, anche se probabilmente non avrò mai la necessità di comprare una di queste schede

una considerazione invece sui post di personaggi pro-l'altro o pro-l'altro
mi da fastidio in genere chi parte col concetto miozio-rulez o mianonna-sbrega, ma alla fine certi messaggi si riconoscono subito e rispondere o considerarli significa solo abboccare al loro amo
ancora più fastidioso secondo me è l'atteggiamento di persone che hanno conoscenze superiori alla media (sull'argomento) e che si schierano velatamente o meno verso l'una o l'altra parte, a queste persone chiederei un po' più di obiettività, per lo meno chi (come me) non ha conoscenze sufficienti per un'analisi approfondita avrebbe modo di imparare qualcosa in più... andando avanti così invece faccio veramente fatica a leggere la stragrande maggioranza dei messaggi del forum

un elogio ulteriore vorrei farlo ai moderatori e al relatore dell'articolo che dal punto di vista dell'obiettività sono davvero encomiabili e fa sempre piacere leggerli

andreamarra
12-10-2005, 19:37
mi ha deluso molto la x1800xt sinceramente..cosi tanto tempo da aspettare e cosi poco distacco dalla 7800gtx...ke in certi casi nn c'è neanke.... 16 pipe sn meglio di 24? pfff ,solo xke le frequenze sono pompate al massimo,vorrei vedere la 7800 con quelle frequenze :)


ora, io vorrei evitare di essere polemico, perchè non parteggio per nessuno e non me ne frega nulla..

ma di fronte ad affermazioni di questo tipo... come fai a dire che c'è "poco" distacco dalla GTX? Come si fa a dire che "in certi casi non c'è nemmeno" (quale, 1024*768 senza mezzo filtro???).

Ci sono differenze in situazioni di render pesante (ovvero i casi per i quali uno compra ste schede video) in cui le differenze sono enormi a favore di R520.

Ma basterebbe leggere i grafici , eh! :D

COn filtri attivati (come vuole la logica di queste schede high end) ci sono distacchi anche di 20-30% negli FPS (a risoluzioni alte).

Far Cry circa 15%
Splinter 25%
BF2 40%
UT2004 un po' meno di 30%

sono pochi :D?

E poi, ovviamente, non consideriamo per nulla il fatto che con HDR va meglio.


Sul resto della tua affermazione: è un discorso inutile e fazioso... la nvidia ha una architettura che non richiede alte frequenze, la ati invece per la segmentazione delle pipeline le richiede. Poi che forza, voler vedere come va la nvidia con frequenze più alte... e perchè non vedere come va allora la R520 con quad pipeline in più, no??

senza polemica, eh, a scrivere è uno a cui non frega nulla delle diatribe ati-nvidia. Ma quando leggo inesattezze...

^TiGeRShArK^
12-10-2005, 19:41
senza polemica, eh, a scrivere è uno a cui non frega nulla delle diatribe ati-nvidia. Ma quando leggo inesattezze...
QUOTO IN PIENO! :D

bartolino3200
12-10-2005, 19:43
sicuramente ki deve comprare ora una skeda video d fascia alta non andrà certo sulla 7800 gtx.....
a meno di non avere esigenze particolari (linux) o di non essere un fanboy.....
andando su G70 si giokerà tutte le features di R520 e avrà prestazioni peggiori nei gioki futuri km già detto da yoss e ampiamente dimostrato dal 3dmark 2005....
Ahh, capito, ok ciao.

^TiGeRShArK^
12-10-2005, 19:43
ancora più fastidioso secondo me è l'atteggiamento di persone che hanno conoscenze superiori alla media (sull'argomento) e che si schierano velatamente o meno verso l'una o l'altra parte, a queste persone chiederei un po' più di obiettività, per lo meno chi (come me) non ha conoscenze sufficienti per un'analisi approfondita avrebbe modo di imparare qualcosa in più... andando avanti così invece faccio veramente fatica a leggere la stragrande maggioranza dei messaggi del forum

ehm...
nn credo ke yoss sia di parte ha semplicemente spiegato perchè a livello tecnico è migliore l'arkitettura di ati e ha anke detto ke con i gioki odierni è normale non vedere tutta questa differenza (anke se con i filtri la differenza c'è e si sente...e ki compra queste skede non le usa certo senza filtri) perkè le "marce in +" di R520 si sentiranno solo con i gioki di nuova generazione ke le sfrutteranno..
un pò com'è capitato con NV3X vs. R3XX la vera differenza si è iniziata a sentire con gioki ke facevano pesanetemente uso degli shader....

andreamarra
12-10-2005, 19:43
e poi, si. Tutti i recensori hanno fatto intendere che "16 pipeline sono meglio di 24".

tutti faziosi?

peccato che ai tempi di NV40 di elogiava, giustamente, la nvidia.

se volete discutere, invece di sparare cose del tipo "si ma se gli metti il mio criceto, si ma se overclocco le ram, si ma se alla R520 gli togli la ventola" e boiate simili, uno dovrebbe avere le giuste competenze tecniche.

Se non le si hanno, è del tutto fazioso sparare frasi come quello che leggo qua dentro.

Fazioso e inutile, tra l'altro.
Perchè in caso di eventuale acquisto, a fare errori sareste voi.

^TiGeRShArK^
12-10-2005, 19:43
Ahh, capito, ok ciao.
ciao :D

zerothehero
12-10-2005, 19:44
Assolutamente no anzi, tanto di cappello e onore al merito per le tue di conoscienze, che fra l' altro ti invidio.
Il problema è che la maggioranza degli utenti come me le leggono a stento, per cui ci si può (deve) limitare all' analisi dei dati riportati nei vari bench.
In molti sono poco interessati alle finezze di qualità video in gaming, visto che sarebbero cmq poco percepibili, tranne ovvio quelle basilari e più evidenti.
Si bada quindi al risultato finale, che in sostanza non giustifica un esborso maggiore e delude in parte le lunghe attese degli appassionati e fan di Ati.

Abbiamo avuto stessi insegnanti ;)
:

Non sono molto d'accordo..se uno per studio/passione ha degli elementi/conoscenze tecniche (come yossarian) "superiori" alla media li trovo cmq utili condividerli in un forum tecnico anche se magari personalmente capisco il 10% di quello che scrive.
Per dire un anno fa la pura analisi di bench tra 9800xt e 5950ultra ci restituivano dei valori più o meno allineati.
Solo un'analisi approfondita sull'architettura dei due chip ha potuto evidenziare le grandezza della 9800 e il mezzo fallimento delle fx, fallimento che si è evidenziato solo nella distanza.
Quindi non vedo perchè una persona si debba autolimitare nelle analisi ai soli bench.

bartolino3200
12-10-2005, 19:46
l'uso di una skeda TOP GAMING è il gioco certo..
se devi fare altro ci sono le skede professionali..
mai sentito parlare di nvidia quadro e ati firegl???
......ma almeno informarti UN MINIMO prima di spararle ti costa davvero tanta fatica? :mbe:

no guarda mai sentito parlare, grazie della info, come farei senza te.
Ciao buona cena.

^TiGeRShArK^
12-10-2005, 19:48
no guarda mai sentito parlare, grazie della info, come farei senza te.
Ciao buona cena.
:asd:
se inizi a rsp a tutti miei post tra un pò mi dirai buona colazione :Prrr:

bartolino3200
12-10-2005, 19:56
mi ha deluso molto la x1800xt sinceramente..cosi tanto tempo da aspettare e cosi poco distacco dalla 7800gtx...ke in certi casi nn c'è neanke.... 16 pipe sn meglio di 24? pfff ,solo xke le frequenze sono pompate al massimo,vorrei vedere la 7800 con quelle frequenze ;)

Io sono daccordo con te, ma stai attento mi sa che qualcuno ti manda i sicari a casa.
Oppure ti dicono che sei un buffone, ridicolo, esilarante, sprovveduto giusto per riassumere.
Il loro problema è che Ati produce solo schede gaming sotto windows, mentre nVidia produce schede universali maggiormente compatibili anche in ambito professionale, sia pure una 6800 o una 6600 ti ci troverai sempre meglio in tutto e con ogni sistema operativo del pianeta, non solo per fare pam pam pam (che ce vuoi fà i ragazzini).
Ma qui si pensa solo che Linux sia un OS da terzo mondo, che per fortuna ha questa alternativa gratuita per avere un accesso all' informatica ed ATI in questo non vuole dare la sua parte, bada solo ai profitti, che cmq ultimamente scarseggiano.
Mi sa che Microsoft è il boss ma voi tutti sembrate gli scagnozzi, insieme alla bassa politica di ATI, che ricordo non è nemmeno capace di far uscire i propri prodotti nelle date previste, figuriamoci driver per Linux.

LightForce
12-10-2005, 20:01
e poi, si. Tutti i recensori hanno fatto intendere che "16 pipeline sono meglio di 24".

tutti faziosi?

peccato che ai tempi di NV40 di elogiava, giustamente, la nvidia.

se volete discutere, invece di sparare cose del tipo "si ma se gli metti il mio criceto, si ma se overclocco le ram, si ma se alla R520 gli togli la ventola" e boiate simili, uno dovrebbe avere le giuste competenze tecniche.

Se non le si hanno, è del tutto fazioso sparare frasi come quello che leggo qua dentro.

Fazioso e inutile, tra l'altro.
Perchè in caso di eventuale acquisto, a fare errori sareste voi.

per fortuna ke nn volevi essere polemico eh

Crystal1988
12-10-2005, 20:02
Qui il discorso è semplicemente che:
prendendo in considerazione il fatto che nei 7 mesi d'attesa, il problema è stato per la produzione, l'architettura non è stata cambiata...
inoltre se nvidia con 24 pipes ha messo tali frequenze... e Ati con 16 pipes ha messo tali frequenze... vuol dire che quelle schede devono andare a tali frequenze!!! Non vi sembra più che LOGICO???
Inoltre... la x1800xl... in full consuma meno di tutte le altre... indi per cui anche in idle dovrebbe consumare di meno... indi percui c'è un problema di driver!
Inoltre la scheda da 512mb x1800xt consumerà si più di tutte... ma ha 512mb... a 1500mhz... con 0.2v in più sulle ram... la scheda a 256mb consumerà decisamente di meno... sempre poi contando il problema in idle dei driver...
Quindi anche dal punto di vista consumi non deve essere malvagia.

T3d
12-10-2005, 20:02
ebbasta bartolì... ormai ti conoscono pure i sassi :bsod: ti rendi conto che non sei più credibile e che ogni tuo post qua dentro lo si legge già sapendo cosa stai per dire? che gente :muro:

LightForce
12-10-2005, 20:04
Io sono daccordo con te, ma stai attento mi sa che qualcuno ti manda i sicari a casa.
Oppure ti dicono che sei un buffone, ridicolo, esilarante, sprovveduto giusto per riassumere.
Il loro problema è che Ati produce solo schede gaming sotto windows, mentre nVidia produce schede universali maggiormente compatibili anche in ambito professionale, sia pure una 6800 o una 6600 ti ci troverai sempre meglio in tutto e con ogni sistema operativo del pianeta, non solo per fare pam pam pam (che ce vuoi fà i ragazzini).
Ma qui si pensa solo che Linux sia un OS da terzo mondo, che per fortuna ha questa alternativa gratuita per avere un accesso all' informatica ed ATI in questo non vuole dare la sua parte, bada solo ai profitti, che cmq ultimamente scarseggiano.
Mi sa che Microsoft è il boss ma voi tutti sembrate gli scagnozzi, insieme alla bassa politica di ATI, che ricordo non è nemmeno capace di far uscire i propri prodotti nelle date previste, figuriamoci driver per Linux.

finalmente 1 ke capisce qlcs :D



cmq fare pam pam pam è bello eh :sofico:

yossarian
12-10-2005, 20:06
No, non è stata eseguita alcuna prova in merito. Effettivamente sarebbe interessante vedere cosa ne esce fuori, anche se ritengo sia assolutamente legittimo usare FP16 se una precisione superiore non è richiesta. Insomma alla fine la precisione FP32 serve in caso di elaborazioni molto complesse e nella maggioranza degli shaders assai sono sovrabbondanti.

sicuramente; però la mia domanda era in prospettiva futura (neppure tanto lontana), quando una maggior precisione di calcolo sarà più importante

T3d
12-10-2005, 20:06
finalmente 1 ke capisce qlcs :D



cmq fare pam pam pam è bello eh :sofico:
certo tutti scemi qui dentro :mbe: tutti ma proprio tutti. Solo voi due siete gli illuminati... ma fammi il piacere va!

bartolino3200
12-10-2005, 20:07
Inoltre la scheda da 512mb x1800xt consumerà si più di tutte... ma ha 512mb... a 1500mhz... con 0.2v in più sulle ram... la scheda a 256mb consumerà decisamente di meno... sempre poi contando il problema in idle dei driver...
Quindi anche dal punto di vista consumi non deve essere malvagia.

Il modello da 256 MB consuma cmq di più, anche per i voltaggi che hai indicato, lo abbiamo già chiarito con vifani.

andreamarra
12-10-2005, 20:08
per fortuna ke nn volevi essere polemico eh

se hai il dono di percepire la polemica in un freddo post... :D

più che altro, io ho risposto alle tue domande e alle tue osservazioni.

Hai detto che le prestazioni sono "quantomeno allineate".

Perdonami, ma anche un cieco vede che nelle situazioni importanti il G70 sta parecchio dietro. Ho anche postato dei numeri, che puoi verificare da solo. :)

Se poi dire le cose come stanno, numeri alla mano, vuol dire essere polemici... non ho idea di cosa significa scrivere cose senza fondamento concreto e senza fondamenti tecnici.

bartolino3200
12-10-2005, 20:10
Beh qualche cinese c'e' riuscito :D
Pero' "da piccolo" mi avevano spiegato che a parita' di frequenza il processore che fa piu' operazioni e' piu' efficiente. Tutto qui.
Se da un lato nVidia non riesce a raggiungere frequenze da paura, dall'altro Ati non ha messo lo stesso numero di pipeline. Ma questa e' un'altra storia, direi un tasto dolente, che e' meglio non toccare :D

;)

yossarian
12-10-2005, 20:10
ehm... veramente è perché win vista non supporterà opengl se non in emulazione... e questa è una pessima notizia.

e che ti aspetti? Le OGL si stanno sempre più appiattendo sulla DX come specifiche; l'ARB board è rimasto fermo oltre due anni per definire le specifiche dell'ARB2 (tanto che hanno dovuto tirare fuori la versione 1.5 solo per introdurre, con molto ritardo, il GLSL, sul modello dell'HLSL). Se non fosse per pochi irriducibili (ID in testa), le OGL sarebbero da tempo state abbandonate come API dedicate ai videogiochi

leoneazzurro
12-10-2005, 20:11
però su una cosa t devo correggere...
gli shader 3.0 dovevano essere implementati dai programmatori...
l'AA x l'HDR no....
basta avere un gioco ke supporti l'HDR e con ATI avrai l'AA, con nvidia no...
e poi sappiamo benissimo ke gli shader 3 rispetto agli shader 2 non hanno portato nulla a livello di qualità o altro... permettevano semplicemente di effettuare delle operazioni più velocemente sfruttando soprattutto l'instancing (si kiamava ks??? :stordita: ) e nn mi ricordo cos'altro...
ma in linea di principio tutto ciò ke poteva essere fatto con gli shader 3 poteva anke essere fatto con gli shader 2....
se ricordo male fustigatemi pure...
sono tutto vostro...
basta ke nn intingete la frusta nel sale o nell'aceto.... :ops:

Quella è l'implementazione HDR che richiede FP blending, pensavo anche io che fosse l'unica ma in realtà esistono altri modi, come in HL2: lost coast e che permettono di utilizzare HDR+AA anche sulle schede Nvidia e sulle X8X0... anche se la versione con FP blending mi sembra di aver capito sia più facile da implementare...

Inizio a fustigare? :D (scherzo!)

^TiGeRShArK^
12-10-2005, 20:13
Io sono daccordo con te, ma stai attento mi sa che qualcuno ti manda i sicari a casa.
Oppure ti dicono che sei un buffone, ridicolo, esilarante, sprovveduto giusto per riassumere.
Il loro problema è che Ati produce solo schede gaming sotto windows, mentre nVidia produce schede universali maggiormente compatibili anche in ambito professionale, sia pure una 6800 o una 6600 ti ci troverai sempre meglio in tutto e con ogni sistema operativo del pianeta, non solo per fare pam pam pam (che ce vuoi fà i ragazzini).
Ma qui si pensa solo che Linux sia un OS da terzo mondo, che per fortuna ha questa alternativa gratuita per avere un accesso all' informatica ed ATI in questo non vuole dare la sua parte, bada solo ai profitti, che cmq ultimamente scarseggiano.
Mi sa che Microsoft è il boss ma voi tutti sembrate gli scagnozzi, insieme alla bassa politica di ATI, che ricordo non è nemmeno capace di far uscire i propri prodotti nelle date previste, figuriamoci driver per Linux.
:rotfl:
ma fai finta d non capire??? :D
se uno ha tutti quei soldi da buttare per comprarsi una 7800 gtx o una x800 XT avrà esigenze da VIDEO-GIOCATORE.
Se vorrà usare software professionali comprerà una skeda PROFESSIONALE.
E per quello ci sono le fire-gl e le quadro...
e cmq io non gioco + d tnt, soprattutto agli sparatutto...
giocavo ai tempi a BG 2 e a Never Winter Nights e a volte a Warcraft 3 (o 4:confused: )
in compenso però ho giokikkiato con un certo programma kiamato 3dstudio max....e devo dire ke la mia 9700 pro@firegl mi ha dato delle belle soddisfazioni....
ricapitolando....
se vuoi una skeda x giocare t compri x1800xt o 7800 gtx...
se vuoi una skeda professionale una firegl o una quadro..
non ha alcun senso metttere il discorso dei driver open gl X LINUX SOPRATTUTTO nella recensione di una SKEDA LUDICA!
o ora mi vorrai venire a dire ke il market share del gaming sotto linux è arrivatto addirittura allo 0,5% e io me lo sono perso??? :asd:

andreamarra
12-10-2005, 20:14
poi, basterebbe vedere anche i test su HDR e HDR+AA per capire che le prestazioni non sono allineate per nulla.

Dai su, nel test di Far Cry con HDR e AA4X la XT fa esattamente quanto fa la GT senza filtri!

Se poi non sono cose da considerare, come le situazioni ad alto filtraggio e ad alte risoluzioni... allora vorrà dire che vi comprerete certe schede per giocarci senza effetti e a 1024*768 senza filtri...


ma lol, se continuo ancora un pò mi fanno diventare fanboy :asd:

Crystal1988
12-10-2005, 20:16
Il modello da 256 MB consuma cmq di più, anche per i voltaggi che hai indicato, lo abbiamo già chiarito con vifani.

devo essermi perso qualcosa allora.

Quindi quanto consumo in meno ci sarà? 10Watts?

Se fosse così non sarebbe poi chissà quale enromità un 10watts in più rispetto alla gtx (cmq 10 watts sono sempre 10watts in più che scaldano)

bartolino3200
12-10-2005, 20:18
poi, basterebbe vedere anche i test su HDR e HDR+AA per capire che le prestazioni non sono allineate per nulla.

Dai su, nel test di Far Cry con HDR e AA4X la XT fa esattamente quanto fa la GT senza filtri!

Se poi non sono cose da considerare, come le situazioni ad alto filtraggio e ad alte risoluzioni... allora vorrà dire che vi comprerete certe schede per giocarci senza effetti e a 1024*768 senza filtri...


ma lol, se continuo ancora un pò mi fanno diventare fanboy :asd:

...ok tutte considerazioni tecniche molto interessanti. Ma alla luce dei fatti, cioe' guardando come va alle risoluzioni di utilizzo quotidiano, sei d'accordo o no che sei mesi per tutto questo sono troppi? Potra' anche avere un sistema sofisticatissmo che mi parla, ma se poi quando devo giocare gli fps sono piu' o meno quelli, che ho aspettato a fare? Maggiore qualita' a video? Ok, ma potevo immaginarlo? E poi anche qui non mi sembra di vedere tutta questa differenza su immagini statiche, figuriamoci quelle dinamiche.
Quello che voglio dire e' che sulla carta ci siamo pure, ma c'e' come sempre troppo fumo (venduto a caro prezzo) intorno. Com'e' stato fatto con le Geforce, ma almeno e' arrivata prima!!!
.

^TiGeRShArK^
12-10-2005, 20:19
Quella è l'implementazione HDR che richiede FP blending, pensavo anche io che fosse l'unica ma in realtà esistono altri modi, come in HL2: lost coast e che permettono di utilizzare HDR+AA anche sulle schede Nvidia e sulle X8X0... anche se la versione con FP blending mi sembra di aver capito sia più facile da implementare...

Inizio a fustigare? :D (scherzo!)
ah già vero!
mi ero completamente dimenticato..
e il bello è ke avevo pure seguito l'interessante spiegazione nell'altro thread....
puoi iniziare a fustigare! :D
.....
......
:ops:

:sofico:

^TiGeRShArK^
12-10-2005, 20:21
Beh qualche cinese c'e' riuscito
Pero' "da piccolo" mi avevano spiegato che a parita' di frequenza il processore che fa piu' operazioni e' piu' efficiente. Tutto qui.
Se da un lato nVidia non riesce a raggiungere frequenze da paura, dall'altro Ati non ha messo lo stesso numero di pipeline. Ma questa e' un'altra storia, direi un tasto dolente, che e' meglio non toccare


;)

mi sa ke deve esserti sfuggito il mio post in cui spiegavo ke A PARITA' di frequenze e A PARITA' di pielines è più efficiente l'alrkitettura ke compie più operazioni nell'arco di tempo... :asd:

yossarian
12-10-2005, 20:22
ottima recensione e ottime analisi, davvero interessanti, anche se probabilmente non avrò mai la necessità di comprare una di queste schede

una considerazione invece sui post di personaggi pro-l'altro o pro-l'altro
mi da fastidio in genere chi parte col concetto miozio-rulez o mianonna-sbrega, ma alla fine certi messaggi si riconoscono subito e rispondere o considerarli significa solo abboccare al loro amo
ancora più fastidioso secondo me è l'atteggiamento di persone che hanno conoscenze superiori alla media (sull'argomento) e che si schierano velatamente o meno verso l'una o l'altra parte, a queste persone chiederei un po' più di obiettività, per lo meno chi (come me) non ha conoscenze sufficienti per un'analisi approfondita avrebbe modo di imparare qualcosa in più... andando avanti così invece faccio veramente fatica a leggere la stragrande maggioranza dei messaggi del forum
un elogio ulteriore vorrei farlo ai moderatori e al relatore dell'articolo che dal punto di vista dell'obiettività sono davvero encomiabili e fa sempre piacere leggerli

se ti riferisci a me puoi anche fare a meno di leggere i miei post: così ti fai un'idea più chiara e più consona a quelle che sono le tue aspettative/speranze. Se poi intendi darmi del fanboy, magari velatamente, porta le prove a sostegno di ciò che dici

Anche io sopporto molto poco chi fa accuse velate di parzialità senza avere prove a supporto

^TiGeRShArK^
12-10-2005, 20:22
.
:rotfl::rotfl::rotfl::rotfl::rotfl:
questa è troppo bella...
trovami un folle ke si compra la x1800 XT x giocare a "risoluzioni di uso quotidiano e senza filtri"!!!
:rotfl::rotfl::rotfl::rotfl::rotfl:

Arcangelit
12-10-2005, 20:22
scusate... in effetti la r520 è stata "pompata" parecchio dalla Ati in termini di velocità e poi non condivido i test di overclock fatti in questo articolo!! si poteva overcloccare pure il g70!! per vedere che differenza c'è!! ho letto articoli che con non troppo spinti overclock sono arrivati a ottenere 11000 punti in 3d mark 05 con il g70... Ora qualcuno dirà: ma sono tecnologie diverse!!! l'ati ha 16 pipeline... e allora??? se devo fare una scelta tra quale prendere (e amo fare overclock) devo vedere chi rende di più anche in futuro!!! nei test di questo articolo si vedono gap un pò pesantucci... ma se poi i driver non sono ben ottimizzati ancora per la g70?? e cmq stiamo parlando di differenza di frames che nn si possono notare all'occhio nudo!!! voglio vedere chi si diverte ad usare l'anti aliasing spinto a 1600x1200!!! voglio vedere tutta questa "enorme" differenza che si può notare... cmq... devo essere sincero... mi fa molto innervosire questo continuo creare schede sempre più potenti nell'arco di pochissimo tempo!!! già considerare una 6800 "vecchia" mi sembra un oltraggio a chi i soldi per comprarla se li è sudati parecchio!!! poi sinceramente vorrei sapere che "vita" utile hanno queste schede... mi sono sempre domandato se fosse meglio conprare una scheda di fascia media (ho un monitor lcd e non potrò mai sfruttare le alte risoluzioni.. ) e poi cambiarla dopo circa un paio di anni... oppure prenderne una di fascia alta (con circa il doppio della spesa!!) e cambiarla... dopo 3 anni??? penso che la max parte degli utenti non siano nella situazione o non hanno voglia di spendere circa 600 € per una scheda che dopo un mese è già superata!!! Specialmente con standard grafici che si aggiornano abbastanza velocemente (mi riferisco alle directx)... allora... qualcuno di mi sa rispondere?? ;) CIAO

andreamarra
12-10-2005, 20:22
ma perchè fammi capire, tu una scheda video del genere la prendi per giocarci a 1024*768 senza filtri?

Io con una scheda del genere, ma credo chiunque abbia un minimo di sale in zucca, userebbe questa scheda video ad almeno 1280*1024 e filtri al massimo.

E guarda caso, in queste situazioni, chi è più performante?

Poi se va ancora meglio a risoluzioni pazzesche meglio ancora: significherà che con giochi più potenti macinerà sempre e comunque di più.

leoneazzurro
12-10-2005, 20:26
ah già vero!
mi ero completamente dimenticato..
e il bello è ke avevo pure seguito l'interessante spiegazione nell'altro thread....
puoi iniziare a fustigare! :D
.....
......
:ops:

:sofico:

IMHO comunque se dal punto di vista tecnologico la leadership ATI ora è indiscutibile, rimane dal punto di vista commerciale la questione prezzi. Questo perchè lo street price delle schede NV è molto al di sotto degli MSRP che ATI ha stabilito per le sue nuove proposte. Visto anche il recente rialzo delle schede Crossfire (Le X850 dovevano essere propostea 349$ e son venute fuori a 399$) e che comunque soprattutto la X1800Xt non credo sia economicissima da produrre, IMHO credo che Nvidia controbatterà ATI sul piano dei prezzi, potendo contare comunque di alcuni mesi di permanenza sul mercato in più delle sue proposte (in attesa di un eventuale nuovo chip)

andreamarra
12-10-2005, 20:28
il test al R520 per overcloccare, perdio, non serve per vedere quanto meglio va...

ma serve per dare un'idea di quanto possa fare in termini di MHz in più.

Poi, prima parlate di "grandi prestazioni!!!", poi quando vi fa comodo "con certe prestazioni voglio vedere chi si mette a giocare con filtri e altro". Allora siccome con una NV40 ci gioco ancora bene, inutile far ucsire altre schede video. In fondo, i fps non li si nota da quanto sono.... :asd:

Anche a 1280*1024 con AA4X e Aniso16X (valori che pretendo da una vga del genere) si nota tantissimo come perdano a livello di prestazione i chip nvidia. Non mi venite a dire che non ci giocate a certe risoluzioni e certi filtri che scoppio a ridere :asd:

Allora, siccome vedo che molti fanno finta di nulla... con l'HDR la scheda ha una perdita prestazionale infima rispetto a G70. In più ci puoi mettere l'AA.

Se per alcuni è una stronzatina... :D

Vifani
12-10-2005, 20:29
scusate... in effetti la r520 è stata "pompata" parecchio dalla Ati in termini di velocità e poi non condivido i test di overclock fatti in questo articolo!! si poteva overcloccare pure il g70!! per vedere che differenza c'è!!

Il test di overclock lo abbiamo sempre eseguito in questo modo, in qualsiasi recensione di un lancio prodotto: overclocchiamo solo la scheda interessata e la confrontiamo con gli altri a default.

Andrea87
12-10-2005, 20:29
:rotfl:
ma fai finta d non capire??? :D
se uno ha tutti quei soldi da buttare per comprarsi una 7800 gtx o una x800 XT avrà esigenze da VIDEO-GIOCATORE.
Se vorrà usare software professionali comprerà una skeda PROFESSIONALE.
E per quello ci sono le fire-gl e le quadro...
e cmq io non gioco + d tnt, soprattutto agli sparatutto...
giocavo ai tempi a BG 2 e a Never Winter Nights e a volte a Warcraft 3 (o 4:confused: )
in compenso però ho giokikkiato con un certo programma kiamato 3dstudio max....e devo dire ke la mia 9700 pro@firegl mi ha dato delle belle soddisfazioni....
ricapitolando....
se vuoi una skeda x giocare t compri x1800xt o 7800 gtx...
se vuoi una skeda professionale una firegl o una quadro..
non ha alcun senso metttere il discorso dei driver open gl X LINUX SOPRATTUTTO nella recensione di una SKEDA LUDICA!
o ora mi vorrai venire a dire ke il market share del gaming sotto linux è arrivatto addirittura allo 0,5% e io me lo sono perso??? :asd:

Quoto tutto quello che ^TiGeRShArK^ ha scritto fino a qui, mi sa che non volete proprio capire.....e oltretutto non siamo noi che ci inventiamo le cose, ma ci sono i fatti che parlano e le recensioni, fatte da persone sicuramente competenti, che non fanno questo lavoro per gioco e che non ci traggono alcun vantaggio a paralre a fovore di uno o dell'altro.... un'ultima cosa x arcangelit: se dopo 7 mesi i driver delle 7800 non fossero ancora ottimizzati ci sarebbe da preoccuparsi.........

andreamarra
12-10-2005, 20:31
bene ragazzi, riuscire a dire che yossarian è velatamente di parte credo sia la cosa più idiota che si possa dire. A livello di chi dice "le differenze tra R520 e G70 sono minime, direi che sono allineate". ... :sofico:


quando è uscito NV40 yossarian non ha fatto altro, giustamente, ad elogiare quel gioiellino tecnologico.

Ora, è la ati ad avere un gioeillo tecnologico, e gli riserva il medesimo trattamento.


idem qua per i recensori... mi fate ridere perchè se uno dice che R520 è meglio, allora è di parte... :asd:

e quando parlavano di NV40, gli stessi recensori dicevano giustamente "NV40 è meglio di R420".

carver
12-10-2005, 20:32
ma con tutte queste nuove schede.... le vecchie schede potrebbero anche cadere drasticamente no???
Il dramma e' che si vendono ancora tante 9600pro a 110€!!!!!!!

MaBru
12-10-2005, 20:34
La cosa incredibile di questo bartolino3200 vs the world è che bartolino ha una 9800 Pro.

:rotfl:

^TiGeRShArK^
12-10-2005, 20:35
IMHO comunque se dal punto di vista tecnologico la leadership ATI ora è indiscutibile, rimane dal punto di vista commerciale la questione prezzi. Questo perchè lo street price delle schede NV è molto al di sotto degli MSRP che ATI ha stabilito per le sue nuove proposte. Visto anche il recente rialzo delle schede Crossfire (Le X850 dovevano essere propostea 349$ e son venute fuori a 399$) e che comunque soprattutto la X1800Xt non credo sia economicissima da produrre, IMHO credo che Nvidia controbatterà ATI sul piano dei prezzi, potendo contare comunque di alcuni mesi di permanenza sul mercato in più delle sue proposte (in attesa di un eventuale nuovo chip)
ah figurati qto me ne frega..
io ho tenuto la mi a fida 7500 fino all'agosto scorso xkè ho trovato una 9700 pro a 138 euro ai tempi :Prrr:
prima di cambiare la 9700 pro windows Vista sarà già vekkio! :sofico:

^TiGeRShArK^
12-10-2005, 20:36
scusate... in effetti la r520 è stata "pompata" parecchio dalla Ati in termini di velocità

km hai visto dai testi in overclock invece non è stata affatto pompata.... 100 mhz di incremento sarebbero stati possibili se la skeda fosse stata pompata?

e poi non condivido i test di overclock fatti in questo articolo!! si poteva overcloccare pure il g70!! per vedere che differenza c'è!! ho letto articoli che con non troppo spinti overclock sono arrivati a ottenere 11000 punti in 3d mark 05 con il g70...

non certo ad aria... cmq il test in overclock di G70 è già stato pubblicato... basta nn essere pigri e cercarsi la recensione... :rolleyes:
http://www.hwupgrade.it/articoli/1311/fc_oc1.png
km vedi AD ARIA non è assolutamente possibile raggiungere i risultati ke dici al 3dmark...
d'altronde credo ke invece R520 arrivi vicino a quei valori ad aria.....

Ora qualcuno dirà: ma sono tecnologie diverse!!! l'ati ha 16 pipeline... e allora??? se devo fare una scelta tra quale prendere (e amo fare overclock) devo vedere chi rende di più anche in futuro!!! nei test di questo articolo si vedono gap un pò pesantucci... ma se poi i driver non sono ben ottimizzati ancora per la g70?? e cmq stiamo parlando di differenza di frames che nn si possono notare all'occhio nudo!!!
voglio vedere chi si diverte ad usare l'anti aliasing spinto a 1600x1200!!! voglio vedere tutta questa "enorme" differenza che si può notare...

non credo proprio ke con un 17 pollici la puoi notare a quelle risoluzione... ma non credo nemmeno ke ki compri queste skede abbia un misero 17 pollici....

cmq... devo essere sincero... mi fa molto innervosire questo continuo creare schede sempre più potenti nell'arco di pochissimo tempo!!! già considerare una 6800 "vecchia" mi sembra un oltraggio a chi i soldi per comprarla se li è sudati parecchio!!! poi sinceramente vorrei sapere che "vita" utile hanno queste schede... mi sono sempre domandato se fosse meglio conprare una scheda di fascia media (ho un monitor lcd e non potrò mai sfruttare le alte risoluzioni.. ) e poi cambiarla dopo circa un paio di anni... oppure prenderne una di fascia alta (con circa il doppio della spesa!!) e cambiarla... dopo 3 anni??? penso che la max parte degli utenti non siano nella situazione o non hanno voglia di spendere circa 600 € per una scheda che dopo un mese è già superata!!! Specialmente con standard grafici che si aggiornano abbastanza velocemente (mi riferisco alle directx)... allora... qualcuno di mi sa rispondere?? ;) CIAO
è meglio comprarsi una skeda di fascia media se nn hai soldi da buttare..
una skeda TOP difficilmente raggiunge i 2 anni...
la più longeva fnora è stata la 9700 pro.

yossarian
12-10-2005, 20:38
ehm...
qui una correzione te la devo fare....
la pipeline nelle cpu x86 è essenzialmente una......
qdo si parla di processori single core...
quello ke varia è il numero delle unità di esecuzione...
inoltre i p4 HT "simulano" una seconda pipeline "raddoppiando" un certo numero delle unità di esecuzione e eseguendo un altro processo in questa "seconda pipeline".
gli unici processori ke hanno due pipe reali sono i dual-core...
ah.... e inoltre, se non erro, per tentare di limitare i branch mis-prediction e i conseguenti svuotamenti delle pipeline, vi sono delle pipeline "ombra" ke tentano di seguire i diversi branch in modo da svolgere correttamente l'operazione nonostante l'errore di predizione del branch...
anke se onestamente nn ricordo se questa feature è implementata nell'arkitettura x86 :fagiano:

gvazie amove, però mi riferisco al fatto che all'interno della pipeline, dopo lo scheduler, si hanno, nel PIV, 3 engine in parallelo, ognuno di essi multistadio; mi riferisco a quello relativo alle operazioni di LOAD/STORE, quello relativo alle operazioni in fp (che a sua volta è diviso in due parti, di cui una, quella contenente il set SSE, che si occupa dei calcoli) e quello relativo ai calcoli con interi (a sua volta divisa in tre pipeline di alu disposte serialmente). Nell'athlon, invece, il blocco relativo alle operazioni fp è composto da tre pipeline di unità di calcolo (contro l'unica del PIV). In un'architettura dual core, tutto ciò è raddoppiato. :)

^TiGeRShArK^
12-10-2005, 20:40
gvazie amove, però mi riferisco al fatto che all'interno della pipeline, dopo lo scheduler, si hanno, nel PIV, 3 engine in parallelo, ognuno di essi multistadio; mi riferisco a quello relativo alle operazioni di LOAD/STORE, quello relativo alle operazioni in fp (che a sua volta è diviso in due parti, di cui una, quella contenente il set SSE, che si occupa dei calcoli) e quello relativo ai calcoli con interi (a sua volta divisa in tre pipeline di alu disposte serialmente). Nell'athlon, invece, il blocco relativo alle operazioni fp è composto da tre pipeline di unità di calcolo (contro l'unica del PIV). In un'architettura dual core, tutto ciò è raddoppiato. :)
se non specifiki non è colpa mia! :Prrr:
cmq nn mi sono mai messo in effetti a controllare come viene suddiviso il flusso della pipeline nelle varie unità di esecuzione in effetti.... :D

LightForce
12-10-2005, 20:40
non credo proprio ke con un 17 pollici la puoi notare a quelle risoluzione... ma non credo nemmeno ke ki compri queste skede abbia un misero 17 pollici....


dire ke un 17 è misero è una grandissima caxxata...c'è gente ke si trova meglio col 17 ke con un 21 o un 19 , e c'è anke gente ke si compra quelle skede solo x giokare a doom1 e nn gli interessano filtri e robette varie

bartolino3200
12-10-2005, 20:42
scusate... in effetti la r520 è stata "pompata" parecchio dalla Ati in termini di velocità e poi non condivido i test di overclock fatti in questo articolo!! si poteva overcloccare pure il g70!! per vedere che differenza c'è!! ho letto articoli che con non troppo spinti overclock sono arrivati a ottenere 11000 punti in 3d mark 05 con il g70... Ora qualcuno dirà: ma sono tecnologie diverse!!! l'ati ha 16 pipeline... e allora??? se devo fare una scelta tra quale prendere (e amo fare overclock) devo vedere chi rende di più anche in futuro!!! nei test di questo articolo si vedono gap un pò pesantucci... ma se poi i driver non sono ben ottimizzati ancora per la g70?? e cmq stiamo parlando di differenza di frames che nn si possono notare all'occhio nudo!!! voglio vedere chi si diverte ad usare l'anti aliasing spinto a 1600x1200!!! voglio vedere tutta questa "enorme" differenza che si può notare... cmq... devo essere sincero... mi fa molto innervosire questo continuo creare schede sempre più potenti nell'arco di pochissimo tempo!!! già considerare una 6800 "vecchia" mi sembra un oltraggio a chi i soldi per comprarla se li è sudati parecchio!!! poi sinceramente vorrei sapere che "vita" utile hanno queste schede... mi sono sempre domandato se fosse meglio conprare una scheda di fascia media (ho un monitor lcd e non potrò mai sfruttare le alte risoluzioni.. ) e poi cambiarla dopo circa un paio di anni... oppure prenderne una di fascia alta (con circa il doppio della spesa!!) e cambiarla... dopo 3 anni??? penso che la max parte degli utenti non siano nella situazione o non hanno voglia di spendere circa 600 € per una scheda che dopo un mese è già superata!!! Specialmente con standard grafici che si aggiornano abbastanza velocemente (mi riferisco alle directx)... allora... qualcuno di mi sa rispondere?? ;) CIAO
.

Gig78
12-10-2005, 20:45
549,00 $ sono più o meno 430,00 €, prezzo molto concorrenziale viste le prestazioni!
Dovrebbero chiamarla Batistax1800, questa scheda è veramente un animale!
Ottimo colpo della Ati, comunque per giocare mi trovo bene con la mia 6800LE pagata meno della metà (è vero pure che le prestazioni sono la metà), però è facile dire "gioco a millemila fps quando hai la scheda video che costa più di tutto il resto del pc messo insieme!"
Bella davvero, sia la rece che la scheda !!!

Crystal1988
12-10-2005, 20:46
Scusate... ma le differenze in OpenGL a COSA sono dovute?
Mi spiego...
Nella mia opinione... credo che queste differenze in OpenGL riscontrabili in Doom-3 e Riddick siano dovute in primis al forte utilizzo di shaders semplici, campo dove Nividia primeggia... mentre Ati primeggia negli shaders complessi... Inoltre man forte dovrebbe darlo sia l'utilizzo della stencil shadows (tecnologia proprietaria Nvidia????non ne sono sicuro) dove Nvidia ha un'implementazione nativa e l'ultilizzo di Ultra Shadows che è una tecnologia Nvidia.
A questo punto mi sembra chiaro che in questo campo, se sono usate le stencil e shaders semplici, Nvidia primeggi...
Ma se ciò fosse proprio così... Non potrebbe Ati, implementare almeno le stencil e Ultra shadows? o sarebbe un lavoro troppo oneroso o forse addirittura non lo permette l'architettura?

PS... sapete dove posso trovare qualche bench d'ambito professionale che compari nvidia,ati,3Dlabs?


??

Crystal1988
12-10-2005, 20:47
549,00 $ sono più o meno 430,00 €, prezzo molto concorrenziale viste le prestazioni!
Dovrebbero chiamarla Batistax1800, questa scheda è veramente un animale!
Ottimo colpo della Ati, comunque per giocare mi trovo bene con la mia 6800LE pagata meno della metà (è vero pure che le prestazioni sono la metà), però è facile dire "gioco a millemila fps quando hai la scheda video che costa più di tutto il resto del pc messo insieme!"
Bella davvero, sia la rece che la scheda !!!

Quel prezzo è iva esclusa.... l'iva in america si conta solo all'atto di vendita al customer finale... quindi da noi si tramuta almeno in più di 500€... ma probabilmente saranno 550€...

andreamarra
12-10-2005, 20:53
certo che qualcuno qua è davvero assurdo... :D

fa domande e quando gli vengono date risposte esaurienti... le ripropone a trovare i peli dell'uovo che in realtà non ci sono.

continuate a trovare difetti dove non ci sono, vivrete meglio :asd:

invece di guardare le prestazioni effettive, vado a farmi le pippone (sbagliate, tra l'altro) del "se al posto di questo gli metti quello" "se lo overclocchi a 2000 giga"


nel progetto di ati risulta decisiva la frequenza di lavoro. Il chip regge anche frequenze esagerate.

nvidia ha un progetto in cui le frequenze di lavoro contano relativamente.

ma cosa ve ne frega se, in caso fosse vero (e non lo è) la ati pompa il chip?

Che minchia guardate voi, le prestazioni o cos'altro???

^TiGeRShArK^
12-10-2005, 20:53
dire ke un 17 è misero è una grandissima caxxata...c'è gente ke si trova meglio col 17 ke con un 21 o un 19 , e c'è anke gente ke si compra quelle skede solo x giokare a doom1 e nn gli interessano filtri e robette varie
e allora a ke pro buttare i propri soldi ???
x le loro esigenze andrebbe + ke bene una 9200 o una fx 5200...
non sono certamente loro il target a cui sono destinate questi due mostri di potenza.
Il loro target sono viedeogiocatori ke giocano ad elevate risoluzioni e con filtri a manetta a tutti i gioki di nuova generazione...

OverClocK79®
12-10-2005, 20:54
IMHO nn serve scannarsi tanto.....

Ati e nVidia hanno affrontato la sfida in maniera diversa.....
un po' come AMD e INTEL
ognuno ha scelto una sua strada.....

poi il titolo può essere azzeccato o meno.....
come sempre le skede si possono dire molto allineate
e come sempre ci sono applicativi dove una rende meglio dell'altra....

OPGL D3D ecc ecc

quello che posso vedere che il ring-core 512 funziona molto bene
e che questa skeda rende veramente bene in abbinata ad AA e AF

per il resto chi ha una 7800GTX ha in mano un'ottima skeda.....
e una piattaforma SLI + matura.....nel caso a qlkuno interessasse....

sul discorso OC
bhe
da che mondo e mondo io ho sempre visto nei test solo skede prese in esame OC
vedi 7800 Vs X850

se si facessero test con le 2 gpu OC nn sarebbero cmq indicativi.....
visto che l'OC nn è uguale per tutti.....
puoi beccare delle GTX poco OC e delle X1800 OC o viceversa.....
diciamo che sono test ormai che si fanno....tanto per vedere di quanto potrebbe salire la skeda....

sul discorso R580
credo che SE uscirà a breve....o + avanti
credo sarà da confrontare con [email protected]

e allora in quel caso si potrà vedere l'architettura migliore
anke se in questo caso possiamo farci un'idea :)

BYEZZZZZZZZZZZZZ

leoneazzurro
12-10-2005, 20:55
??


R420 non lo permetteva, R520 non saprei, ma ad ogni modo non è solo questione di ombre, ma anche di drivers OpenGL nettamente superiori da parte NV, perchè la cosa si ripete in TUTTI i giochi OpenGL, anche se non in maniera così netta come in Doom3. ATI aveva promesso drivers OpenGL migliori, ma non so se reputi che il gioco valga la candela.
In ogni caso le stencil shadows non sono l'unico modo per realizzare le ombre.

OverClocK79®
12-10-2005, 20:56
dire ke un 17 è misero è una grandissima caxxata...c'è gente ke si trova meglio col 17 ke con un 21 o un 19 , e c'è anke gente ke si compra quelle skede solo x giokare a doom1 e nn gli interessano filtri e robette varie

bhe IMHO un 17 nn è niente male.....anke per queste skede
del resto arriva a 1280x1024
che con filtri a manetta è un bel vedere :)
nn serve scomodare per forza la 1600x1200 o la 2048x1536 :p

BYEZZZZZZZZZZ

Pistolpete
12-10-2005, 21:17
bhe IMHO un 17 nn è niente male.....anke per queste skede
del resto arriva a 1280x1024
che con filtri a manetta è un bel vedere :)
nn serve scomodare per forza la 1600x1200 o la 2048x1536 :p

BYEZZZZZZZZZZ


Parole sante.
Quoto. Meno male che qualcuno che non ha voglia di flammare ma ha invece acceso il cervello per fare i commenti c'è. :)

Eddie666
12-10-2005, 21:17
scusate,forse dico una castroneria ma la dico ugualmente :D ...tanta gente dice che e' inutile fare test a 1600x1200 con AA e Af,o anche a 1920x1440 (entrambe risoluzioni che,per inciso,il mio lgf900p supporta tranquillamente...monitor che nuovo costa ormai sotto i 400euro),ma una scheda capace di renderezzare una scena 3d a quelle risoluzioni con un frame rate decente,e dotata delle piu' attuali feature grafiche,non dovrebbe garantire una maggiore longevita' anche nei confronti di giochi futuri?...mi spiego,la mia 9700pro con i giochi di un paio di anni fa mi permetteva di settare i valori relativi alla grafica quasi al max,mentre ora devo scendere a compromessi perche' il tutto sia giocabile:e la stessa cosa non vale anche nei confronti di queste schede,decisamente esuberanti in potenza attualmente,ma che almeno dovrebbero avere una maggiore longevita' futura?
ciao :)

Rufus86
12-10-2005, 21:23
Veramente un ottima rencesione, il tempo (molto) preso è stato ben speso. Complimenti. ;)

L'X1x00 può essere potenzialmente un grande successo commerciale per ATi, l'unico vantaggio di G70/nVIDIA è quello del numero di MAD (48 contro le 16 di R520).

Comunque sono del parere che nVIDIA non risponderà e per qualche mese le acque saranno relativamente calme. Poi verso, o poco dopo, il CeBIT del prossimo anno sarà il momento di un nuovo duello tra G75 (o come si chiamerà) ed R580. :sofico:

yossarian
12-10-2005, 21:24
??

la gestione delle ombre utilizzata in Doom3 fa riferimento ad una tecnica proprietaria di nVIDIA (e non è l'unica implementazione proprietaria NV in diversi giochi OpenGL); inoltre, a detta di fek, nel futuro dovrebbero prendere sempre più piede le tecniche di soft shadowing (e l'utilizzo delle stencil non è l'unico modo per ottenerle).

Crystal1988
12-10-2005, 21:29
Danke!
ma quindi... le soft shadow... da che parte stanno? è una tecnologia proprietaria di una delle 2 o è un campo "pestabile" da entrambi?

Gig78
12-10-2005, 21:34
Io ho comprato degli oggetti in Usa e ti assicuro che non ho pagato nulla più di quanto dovevo pagare.....normalmente si pagherebbe 20% d'iva + 4/5% dazi (almeno prima era così).
Poi dipende da tante cose.....

yossarian
12-10-2005, 21:36
scusate... in effetti la r520 è stata "pompata" parecchio dalla Ati in termini di velocità e poi non condivido i test di overclock fatti in questo articolo!! si poteva overcloccare pure il g70!! per vedere che differenza c'è!! ho letto articoli che con non troppo spinti overclock sono arrivati a ottenere 11000 punti in 3d mark 05 con il g70... Ora qualcuno dirà: ma sono tecnologie diverse!!! l'ati ha 16 pipeline... e allora??? se devo fare una scelta tra quale prendere (e amo fare overclock) devo vedere chi rende di più anche in futuro!!!



nel test di o/c di HWUpgrade il G70 non è arrivato a superare i 480 Mhz di core; 50 Mhz di aumento contro i 100 dell'R520 (fatto dalla stessa redazione). Tirata di fabbrica anche quella?

nei test di questo articolo si vedono gap un pò pesantucci... ma se poi i driver non sono ben ottimizzati ancora per la g70??

secondo te quelli di G70 sono immaturi (con un'architetura molto simile a quella di NV40 e il chip che è uscito da 4 mesi); invece quelli di R520 sono maturi (con un'architettura molto diversa da R4x0, molto più programmabiile e col chip appena uscito)? Volendo fare il conto della serva, secondo te, quale delle due architetture ha bisogno di una maggiore ottimizzazione dei driver?

e cmq stiamo parlando di differenza di frames che nn si possono notare all'occhio nudo!!! voglio vedere chi si diverte ad usare l'anti aliasing spinto a 1600x1200!!! voglio vedere tutta questa "enorme" differenza che si può notare...

secondo te come dovrebbero testare le nuove schede per valutarne le prestazioni? Magari, in un ipotetico confronto con quake (il primo) e con un P3 da 500 Mhz (al di là del fatto che le piattaforme sono diverse), rischi di vedere una GF4 MX fare più fps di un G70 :D

cmq... devo essere sincero... mi fa molto innervosire questo continuo creare schede sempre più potenti nell'arco di pochissimo tempo!!! già considerare una 6800 "vecchia" mi sembra un oltraggio a chi i soldi per comprarla se li è sudati parecchio!!! poi sinceramente vorrei sapere che "vita" utile hanno queste schede... mi sono sempre domandato se fosse meglio conprare una scheda di fascia media (ho un monitor lcd e non potrò mai sfruttare le alte risoluzioni.. ) e poi cambiarla dopo circa un paio di anni... oppure prenderne una di fascia alta (con circa il doppio della spesa!!) e cambiarla... dopo 3 anni??? penso che la max parte degli utenti non siano nella situazione o non hanno voglia di spendere circa 600 € per una scheda che dopo un mese è già superata!!! Specialmente con standard grafici che si aggiornano abbastanza velocemente (mi riferisco alle directx)... allora... qualcuno di mi sa rispondere?? ;) CIAO

il fatto che escano nuove vga non significa mica che le si deve comprare; se con una 6800 ti trovi ancora bene, non hai bisogno di passare ad una scheda di fascia superiore. A 1024x768, magari abbasando un po' la qualità in qualche gioco, un R3x0 va ancora più che bene.

yossarian
12-10-2005, 21:36
Danke!
ma quindi... le soft shadow... da che parte stanno? è una tecnologia proprietaria di una delle 2 o è un campo "pestabile" da entrambi?

ci possono "pestare" tutti :D

Foglia Morta
12-10-2005, 21:38
scusate... in effetti la r520 è stata "pompata" parecchio dalla Ati in termini di velocità e poi non condivido i test di overclock fatti in questo articolo!! si poteva overcloccare pure il g70!! per vedere che differenza c'è!! ho letto articoli che con non troppo spinti overclock sono arrivati a ottenere 11000 punti in 3d mark 05 con il g70... Ora qualcuno dirà: ma sono tecnologie diverse!!! l'ati ha 16 pipeline... e allora??? se devo fare una scelta tra quale prendere (e amo fare overclock) devo vedere chi rende di più anche in futuro!!! nei test di questo articolo si vedono gap un pò pesantucci... ma se poi i driver non sono ben ottimizzati ancora per la g70?? e cmq stiamo parlando di differenza di frames che nn si possono notare all'occhio nudo!!! voglio vedere chi si diverte ad usare l'anti aliasing spinto a 1600x1200!!! voglio vedere tutta questa "enorme" differenza che si può notare... cmq... devo essere sincero... mi fa molto innervosire questo continuo creare schede sempre più potenti nell'arco di pochissimo tempo!!! già considerare una 6800 "vecchia" mi sembra un oltraggio a chi i soldi per comprarla se li è sudati parecchio!!! poi sinceramente vorrei sapere che "vita" utile hanno queste schede... mi sono sempre domandato se fosse meglio conprare una scheda di fascia media (ho un monitor lcd e non potrò mai sfruttare le alte risoluzioni.. ) e poi cambiarla dopo circa un paio di anni... oppure prenderne una di fascia alta (con circa il doppio della spesa!!) e cambiarla... dopo 3 anni??? penso che la max parte degli utenti non siano nella situazione o non hanno voglia di spendere circa 600 € per una scheda che dopo un mese è già superata!!! Specialmente con standard grafici che si aggiornano abbastanza velocemente (mi riferisco alle directx)... allora... qualcuno di mi sa rispondere?? ;) CIAO
:rotfl: :rotfl:
fai cabaret ?
Come cavolo fanno i driver di g70 (evoluzione di NV40 ) ad essere più indietro di quelli di R520 (architettura nuova e uscita ora )?
:rolleyes:

yossarian
12-10-2005, 21:47
L'HDR incide sulla banda passante. Ma bisogna considerare anche che la soluzione Ati adotta migliori algoritmi di risparmio banda. Inoltre diciamo che su FC viste le diverse versioni utilizzate..imho meglio pronunciarsi più in là. Splinter Cell invece già è minore il distacco. La stessa Ati nelle sue slide dichiara un 10% in più rispetto a nVidia in SC3 se ben ricordo con HDR. :) Ovvio che non è solo questione di banda. Ma incide si.

ATi utilizza HW dedicato alle operazioni di compressione/decompressione all'interno delle rop's, nVIDIA no. Questo è uno degli elementi determinanti ai fini delle maggiori prestazioni ed è quello che permette di utilizzare MSAA e HDR insieme. :)

andreamarra
12-10-2005, 21:51
scusate,forse dico una castroneria ma la dico ugualmente ...tanta gente dice che e' inutile fare test a 1600x1200 con AA e Af,o anche a 1920x1440 (entrambe risoluzioni che,per inciso,il mio lgf900p supporta tranquillamente...monitor che nuovo costa ormai sotto i 400euro),ma una scheda capace di renderezzare una scena 3d a quelle risoluzioni con un frame rate decente,e dotata delle piu' attuali feature grafiche,non dovrebbe garantire una maggiore longevita' anche nei confronti di giochi futuri?...mi spiego,la mia 9700pro con i giochi di un paio di anni fa mi permetteva di settare i valori relativi alla grafica quasi al max,mentre ora devo scendere a compromessi perche' il tutto sia giocabile:e la stessa cosa non vale anche nei confronti di queste schede,decisamente esuberanti in potenza attualmente,ma che almeno dovrebbero avere una maggiore longevita' futura?
ciao

no, non dici male.

il problema qua e che a sentire alcuni pare che sia un "difetto" quello di R520 di andare nettamente meglio della G70 in quelle condizioni per le quali uno compra tali schede :asd:

naturale che quando poi certi giochi saranno non tanto facilmente giocabili con una X1800XL o XT con filtrazzi e risoluzioni clamorose, basterà diminuire le stesse. E ci sarà maggiore longevità come dici tu.

Foglia Morta
12-10-2005, 21:52
ATi utilizza HW dedicato alle operazioni di compressione/decompressione all'interno delle rop's, nVIDIA no. Questo è uno degli elementi determinanti ai fini delle maggiori prestazioni ed è quello che permette di utilizzare MSAA e HDR insieme. :)
R520 supporta 3DC+ , in più rispetto al 3DC ha la compressione anche in single texture mi pare . G70 non poteva supportare almeno 3DC ? oppure è incompatibile con la sua architettura ?

yossarian
12-10-2005, 22:00
R520 supporta 3DC+ , in più rispetto al 3DC ha la compressione anche in single texture mi pare . G70 non poteva supportare almeno 3DC ? oppure è incompatibile con la sua architettura ?

hanno scelto una tecnica simile ma proprietaria. Comunque non mi riferivo al 3Dc, ma alla compressione/decompressione logaritmica usata dall'algoritmo OpenEXR adottato sia da nVIDIA cha da ATi per l'HDR a fp16 (half hdr)

DODO
12-10-2005, 22:00
Scusate se arrivo in ritardo, ho letto solo adesso la rece..... BOIA DE CHE CENCIATA!!! (da leggere categoricamente in Livornese).
Torniamo seri, Ottimo prodotto ma non rivoluzionario, acquisterò la mia prossima scheda video dopo l'avvento di......Vista, continuo a tenermi la mia fida X800XT PE che tante soddisfazioni continua a darmi.

Ciauz!

Vifani
12-10-2005, 22:11
Danke!
ma quindi... le soft shadow... da che parte stanno? è una tecnologia proprietaria di una delle 2 o è un campo "pestabile" da entrambi?

Le stencil shadows sono una tecnica congeniale ai processori grafici NVIDIA che in alcuni stadi della loro generazione possono elaborare il doppio di quanto fanno normalmente. G70 elabora 24 pixel per ciclo di clock, ma arriva fino a 48 per ciclo di clock quando si utilizza lo stencil buffer (usato per la generazione delle stencil shadows). Le schede Radeon X800 e X1800 non vanno oltre i 16 pixel per ciclo di clock sia nel rendering verso il frame buffer che verso lo stencil buffer. Questo è il motivo per cui NVIDIA sarà sempre avanti ad ATI in Doom 3 e The Chrnonicles Of Riddick ed è bene precisare che anche se questi ultimi fossero stati programmati in Direct 3D, i valori in campo quasi sicuramente sarebbero stati gli stessi perché i miglioramenti nella gestione dello stencil buffer che possiedono i chip NVIDIA non sono legati ad una specifica API ma sono tanto presenti in OpenGL quanto in Direct 3D.

Per le soft shadows esistono molteplici tecniche, alcune delle quali basate sulle stencil shadows come quelle che troviamo in The Chrnonicles Of Riddick e FEAR. Altre tecniche, invece, sono basate sulle shadow map, come quelle che vedremo nell'Unreal Engine 3.

yossarian
12-10-2005, 22:17
Le stencil shadows sono una tecnica congeniale ai processori grafici NVIDIA che in alcuni stadi della loro generazione possono elaborare il doppio di quanto fanno normalmente. G70 elabora 24 pixel per ciclo di clock, ma arriva fino a 48 per ciclo di clock quando si utilizza lo stencil buffer (usato per la generazione delle stencil shadows). Le schede Radeon X800 e X1800 non vanno oltre i 16 pixel per ciclo di clock sia nel rendering verso il frame buffer che verso lo stencil buffer. Questo è il motivo per cui NVIDIA sarà sempre avanti ad ATI in Doom 3 e The Chrnonicles Of Riddick ed è bene precisare che anche se questi ultimi fossero stati programmati in Direct 3D, i valori in campo quasi sicuramente sarebbero stati gli stessi perché i miglioramenti nella gestione dello stencil buffer che possiedono i chip NVIDIA non sono legati ad una specifica API ma sono tanto presenti in OpenGL quanto in Direct 3D.

Per le soft shadows esistono molteplici tecniche, alcune delle quali basate sulle stencil shadows come quelle che troviamo in The Chrnonicles Of Riddick e FEAR. Altre tecniche, invece, sono basate sulle shadow map, come quelle che vedremo nell'Unreal Engine 3.

con R500 anche ATi ha adottato rop's con "doppia uscita" per gli z pixel. Chissà che la cosa non venga riproposta anche su pc

zerothehero
12-10-2005, 22:28
mi fa molto innervosire questo continuo creare schede sempre più potenti nell'arco di pochissimo tempo!!! già considerare una 6800 "vecchia" mi sembra un oltraggio a chi i soldi per comprarla se li è sudati parecchio!!!

Perdonami ma sono tuoi problemi...a me la competizione ati-nvidia che determina una corsa ad aumenti prestazionali e a miglioramenti tecnologici va benissimo.
Chi vuole una piattaforma stabile nel tempo si compri le console.

zerothehero
12-10-2005, 22:31
:rotfl: :rotfl:
fai cabaret ?
Come cavolo fanno i driver di g70 (evoluzione di NV40 ) ad essere più indietro di quelli di R520 (architettura nuova e uscita ora )?
:rolleyes:

A parte che sono problemi eventualmente della casa produttrice...

leoneazzurro
12-10-2005, 22:37
Le stencil shadows sono una tecnica congeniale ai processori grafici NVIDIA che in alcuni stadi della loro generazione possono elaborare il doppio di quanto fanno normalmente. G70 elabora 24 pixel per ciclo di clock, ma arriva fino a 48 per ciclo di clock quando si utilizza lo stencil buffer (usato per la generazione delle stencil shadows). Le schede Radeon X800 e X1800 non vanno oltre i 16 pixel per ciclo di clock sia nel rendering verso il frame buffer che verso lo stencil buffer. Questo è il motivo per cui NVIDIA sarà sempre avanti ad ATI in Doom 3 e The Chrnonicles Of Riddick ed è bene precisare che anche se questi ultimi fossero stati programmati in Direct 3D, i valori in campo quasi sicuramente sarebbero stati gli stessi perché i miglioramenti nella gestione dello stencil buffer che possiedono i chip NVIDIA non sono legati ad una specifica API ma sono tanto presenti in OpenGL quanto in Direct 3D.

Per le soft shadows esistono molteplici tecniche, alcune delle quali basate sulle stencil shadows come quelle che troviamo in The Chrnonicles Of Riddick e FEAR. Altre tecniche, invece, sono basate sulle shadow map, come quelle che vedremo nell'Unreal Engine 3.

Adesso non vorrei sbagliare, ma se non ricordo male la scrittura doppia avviene non nelle 24 PS pipeline, bensì nelle 16 ROP pipeline, per cui anche per G70 si dovrebbe arrivare al massimo ad elaborare 32 pixel per ciclo di clock.
Chiedo scusa nel caso ricordassi male :)

ForeverBlue
12-10-2005, 22:38
ma scusate, ma perchè un chip non deve essere ben sfruttato di fabbrica?: parlate delle frequenze di r520 come se fossero un difetto, ma se il chip le supporta senza alcun problema, anzi permette 150megahertz di OC, non è meglio a pari architettura?
E' dovere di ogni casa HW quello di sfruttare ciò che produce, se il chip più sfigato arriva a 650 mhz è normale far andare di default 625, no?

Mah.......e poi ancora chi si diverte a martoriare il tizio che sbatte la testa contro il muro :muro: parlando di fantomatici e quantomai "allegri" (leggesi "folli") confronti "a parità di pipe" "a parità di freq", quando non è possibile fare ciò.....

Essere un fanboy non è un male quando ci si limita alla simpatia, ma quando si sfocia oltre :rolleyes:

yossarian
12-10-2005, 22:48
Adesso non vorrei sbagliare, ma se non ricordo male la scrittura doppia avviene non nelle 24 PS pipeline, bensì nelle 16 ROP pipeline, per cui anche per G70 si dovrebbe arrivare al massimo ad elaborare 32 pixel per ciclo di clock.
Chiedo scusa nel caso ricordassi male :)

ricordi bene; infatti nel test relativo alle only z-ops NV40 e G70 fanno segnare valori pressochè identici

[AIRS]Rambo
12-10-2005, 22:59
Ottima scheda.... per quanto riguarda le dispute ati vs nvidia non mi espongo... io da consumatore quale sono valuto le opportunità che vi sono e prendo in considerazione quella più conveniente senza tifare per uno o per l'altro visto che i soldi sono i miei.

dm69
12-10-2005, 23:42
L'analisi dell'efficienza secondo me e' sbagliata.
Normalmente per efficienza si parla di quantita' di operazioni eseguite in un ciclo di clock, per cui e' sbagliato mettere un 7800GTX con 8 pipe disabilitate. Anche perche' alcune schede confrontate hanno 8 vertex shader, altre ne hanno 6, e nessun vertex shader e' stato disabilitato.
Quindi il 7800 GTX e' molto piu' efficiente (almeno nell'accezione comune) del X1800 XT.

dm69
12-10-2005, 23:45
A proposito di fill rate, da quanto ho letto il 7800 GTX ha 16 ROP, quindi il suo fill rate dovrebbe essere 430 * 16 = 6880
Pero' vedo sempre 430 * 24 = 10320
boh?

^TiGeRShArK^
12-10-2005, 23:59
L'analisi dell'efficienza secondo me e' sbagliata.
Normalmente per efficienza si parla di quantita' di operazioni eseguite in un ciclo di clock, per cui e' sbagliato mettere un 7800GTX con 8 pipe disabilitate. Anche perche' alcune schede confrontate hanno 8 vertex shader, altre ne hanno 6, e nessun vertex shader e' stato disabilitato.
Quindi il 7800 GTX e' molto piu' efficiente (almeno nell'accezione comune) del X1800 XT.
nei processori è kosì ke abbiamo un'unica pipeline (ke contiene DIVERSE unità di esecuzione x la gioia di yoss :Prrr: )
x le skede grafike andrebbero valutate anke a parità di pipeline oltre ke a parità di clock....
anke se in effetti l'unica analisi ke nadrebbe fatta è quella a default, quest'analisi dell'efficienza era solo x soddisfare una pure curiosità tecnica.

yossarian
13-10-2005, 00:28
L'analisi dell'efficienza secondo me e' sbagliata.
Normalmente per efficienza si parla di quantita' di operazioni eseguite in un ciclo di clock, per cui e' sbagliato mettere un 7800GTX con 8 pipe disabilitate. Anche perche' alcune schede confrontate hanno 8 vertex shader, altre ne hanno 6, e nessun vertex shader e' stato disabilitato.
Quindi il 7800 GTX e' molto piu' efficiente (almeno nell'accezione comune) del X1800 XT.

semmai si parla di quantità di operazioni per unità di tempo, non per ciclo di clock. Inoltre, la tua definizione non tiene conto delle fasi di idle e non considera neppure la qualità delle operazioni compiute.

se ho due architetture, A e B. La prima ha 4 pipeline, ognuna con 10 stadi; ogni 5 stadi servono a compiere un'operazione fissa (che chiamiamo a). B ha 4 pipeline, come A, ma ognuna con 3 stadi (diversi da quelli di A e tali che insieme ne servono due per calcolare a). Le unità di calcolo di B sono sempre occupate ad eseguire calcoli; quelle di A hanno un'occupazione media del 60%. Per ogni ciclo, A compie 24 operazioni, mentre B solo 12. Dopo un ciclo, l'output di A è di 4a, quello di B anche. Dopo due cicli, l'output di A è di 9a, quello di B è di 12a. Secondo la tua definizione, A è più efficiente di B perchè per ogni ciclo compie più operazioni

DarKilleR
13-10-2005, 00:30
Tornato dall'università e dall'allenamento mi son letto tutta la recenzione di un fiato e 31 pagine di post....
RECENZIONE ESEMPLARE...

Voglio il libro dei post di bartolino, non avete idea delle risate che mi sono fatto.

Cmq su alcuni aspetti sono d'accordo con lui, sul fatto che:
- le piattaforme NF4 sono dei forni simil prescott..
- che ATI non è riuscita a diminuire i consumi...
- che sia CrossFire che SLI non rientrano nella mia filosofia, ed a mio avviso inutili, almeno per i limiti che ci impongono ora.
- su linux....ma non è assolutamente colpa di ATI / nVidia (o meglio di entrambi, ma non certo per la qualità dei driver....manca l'appoggio delle case produttrici di software...

Per il resto un po' di coerenza a certe persone non farebbe male, considerando che stanno esaltando alcuni aspetti di nVidia che prima appartenevano a ATI nel confronto X800/6800...(vedi consumi).

E se devo essere sincero sono rimasto un po' sorpreso di questo R520, non mi aspettavo una così migliore qualità video, e pensavo che avesse prestazioni un po' + allineate con la 7800 GTX....invece sono ben più elevate...

dm69
13-10-2005, 01:01
Io dico che 7800 GTX e' piu' efficiente perche' a parita' di clock e' piu' veloce:
il 1800 XT ha un clock 625 / 430 = 1.45 volte piu' elevato del 7800 GTX e una banda 1.5 / 1.2 = 1.25 volte piu' alta e in tutti i test che abbiamo visto quasi mai ce' una differenza del 45 % e poche volte superiore al 25%.

Riformulo la definizione di efficienza: capacita' di eseguire piu' lavoro utile (mi sembra piu' corretto di operazione) a parita' di cicli di clock (non di unita' di tempo altrimenti sarebbe la potenza di calcolo nuda e cruda).

P.S
A suo tempo ho fatto impianti di elaborazione dati, quindi qualcosa di pipeline, effcienza etc. ne mastico

Ciao

Free Gordon
13-10-2005, 01:03
bhe IMHO un 17 nn è niente male.....anke per queste skede
del resto arriva a 1280x1024
che con filtri a manetta è un bel vedere :)
nn serve scomodare per forza la 1600x1200 o la 2048x1536 :p


Molto di più: col mio Philips 17" -107P5- sto a 1600x1200@85hz tranquillo tranquillo. :D

yossarian
13-10-2005, 01:19
Io dico che 7800 GTX e' piu' efficiente perche' a parita' di clock e' piu' veloce:
il 1800 XT ha un clock 625 / 430 = 1.45 volte piu' elevato del 7800 GTX e una banda 1.5 / 1.2 = 1.25 volte piu' alta e in tutti i test che abbiamo visto quasi mai ce' una differenza del 45 % e poche volte superiore al 25%.

Riformulo la definizione di efficienza: capacita' di eseguire piu' lavoro utile (mi sembra piu' corretto di operazione) a parita' di cicli di clock (non di unita' di tempo altrimenti sarebbe la potenza di calcolo nuda e cruda).

P.S
A suo tempo ho fatto impianti di elaborazione dati, quindi qualcosa di pipeline, effcienza etc. ne mastico

Ciao

ok, vediamo se questa seconda definizione va meglio. Nell'esempio precedente, sia A che B compiono lavoro "utile" e A ne compie di più rispetto a B in un singolo ciclo (4,8a, che potrebbero essre pixel contro 4,5a e 24 operazioni "utili" contro 12); però dopo due cicli B è in vantaggio. N.B. non ho ancora tirato in ballo le frequenze, quindi siamo a parità assoluta di frequenze. Direi che, al momento, anche la definizione di lavoro utile è aleatoria e imprecisa.
Veniamo all'esempio concreto. Inutile ripetere che la ram non c'entra un tubo con le prestazioni di R520 (se G70 fosse bandwidth limited, con filtri e alte risoluzioni sarebbe dietro anche in Riddick e Doom3, e non mi pare sia così). Inoltre il pixel fillrate test dà un valore di 6400 circa, molto prossimo a quel 6880 teorico che non sarebbe possibile superare neppure con ram da 6 Ghz. Assodato questo, veniamo alla comparazione che, secondo te, è male articolata, a parità di pipeline. Abbiamo detto che a 430 Mhz con tutte le pipleine attive, è limitata dalle 16 rop's. Con 16 pipeline attive non si ha più tale limite (le fragment pipleine lavorano di più delle rop's). Utilizzando i filtri, si ha una situazione ancora più texture o shader bounded. Eppure vediamo che, non avendo più le limitazioni imposte dalle rop's e a parità di bandwidth, proprio quando c'è da eseguire calcoli più pesanti, le 16 pp della GTX sono più lente (anche in maniera sensibile) rispetto a quelle della X1800XL. Questo, secondo te, è un indice del fatto che la pipeline di G70 è più efficiente? Oppure siamo nel caso dell'esempio che ti ho citato? Tanti calcoli poco effiicenti da un lato e meno calcoli per ciclo, ma molto più efficienti dall'altro? Da notare anche il clock della GTX: 450 Mhz, contro i 430 standard. Questo significa un fillrate teorico di 7200 Mpixel/sec, superiore ai 6880 teorici della GTX. Volendo si potrebbe parlare anche dell'unità di branching; in quel caso, la maggior efficienza di R520 oscilla tra il 70 e il 100% (che viene raggiunto in condizioni di heavy branching, guarda caso).

p.s. anche a parità di cicli di clock suona molto male: quanti cicli di clock? Tanti quanti se ne fanno nell'unità di tempo? Oppure prendiamo un numero a caso?

Free Gordon
13-10-2005, 01:25
Io dico che 7800 GTX e' piu' efficiente perche' a parita' di clock e' piu' veloce:
il 1800 XT ha un clock 625 / 430 = 1.45 volte piu' elevato del 7800 GTX e una banda 1.5 / 1.2 = 1.25 volte piu' alta e in tutti i test che abbiamo visto quasi mai ce' una differenza del 45 % e poche volte superiore al 25%.
Riformulo la definizione di efficienza: capacita' di eseguire piu' lavoro utile (mi sembra piu' corretto di operazione) a parita' di cicli di clock (non di unita' di tempo altrimenti sarebbe la potenza di calcolo nuda e cruda).


R520 è più efficiente di G70 (nelle rispettive config attuali) ad alte res e con i filtri attivati perchè Ati sfrutta meglio il fill rate a disposizione (che in linea teorica è identico per le due schede), tutto quì. ;)

E' inutile stare a girarci attorno facendo improbabili calcoli per parificare le due architetture.

Einhander
13-10-2005, 03:46
EEEhhh porka pupazza che fatica leggere tutti 'sti post!!
Oh cmq meno male che c'era bartolino7800 che mi allietava la lettura con i suoi mille commenti esilaranti e scoppiettanti nonche' privi di contatto con la realta'...
Nn ti preoccupare cmq bartolino mio che il signore ti perdonera' perche' tu parli senza sapere anzi senza vedere QUELLO CHE TI E' STATO MESSO DAVANTI AGLI OCCHI NEL CORSO DI TUTTA LA GIORNATA DI OGGI DA TANTISSIME PERSONE PER CENTINAIA DI POST,NONCHE',FATTO MENO TRASCURABILE,DALLA RECENSIONE DEL NOSTRO AMATO E VENERATO SITO;ORA VA BENE ESSERE DI PARTE,-E CMQ IN MODO ALTAMENTE SPUDORATO-MA QUI SI PASSA AL RIDICOLO FIGLIUOLO,NO TE LO DICO PERCHE' TANTO NN E' CHE CAMBIERAI OPINIONE MENCO NEL GIORNO IN CUI ARRIVASSE UNA ATI CHE VA' AL TRIPLO DELLA SUA CONTROPARTE NVIDIA,PERO' VOLEVO PROVARCI A FARTI APRIRE UN ATTIMO GLI OCCHI EVIDENTEMENTE A TE SI CREDO CHE NVIDIA A QUESTO PUNTO TI PAGHI ,SENNO' NN SO' COME SPIEGARE IL TUO ATTEGGIAMENTO E LE TUE INCREDIBILI AFFERMAZIONI-CMQ SEMPRE DIVERTENTI EH-
SPERO CHE LO SFORZO TI AIUTI A GIUNGERE AD UNA VISIONE UN PO' PIU' CONNESSA ALLA REALTA' DOVE TUTTI NOI CAMMINIAMO E VIVIAMO ...
CHE LO SFORZO SIA CON TE E TI GUIDI COME UNA LUCE NELLA NOTTE PIU' BUIA,AMEN

Come si dice:"Nn c'e' peggior cieco di chi nn vuol vedere"

ti invito a rileggere la recensione,pero',magari eh,quando sei riuscito a riportare il tuo spirito in questa realta',ovviamente con l'aiuto dello sforzo :)

Detto questo buonanotte a tutti e sappiate:E' STATA VERAMENTE UN'IMPRESA LEGGERE TUTTI QUESTI POST,QUINDI ME NE VADO A LETTO SODDISFATTO PER ESSERE RIUSCITO NELL'IMPRESA,SOPRATTUTTO A QUEST'ORA NOTTE A TUTTI,BYEEEZZZZZZZZZ

MadRat
13-10-2005, 04:30
Ve ne hanno fatti molti, ma aggiungo anche i miei complimenti, e' raro vedere una recensione cosi' completa. Bravi.

IL TITOLO..
E' sbagliato?? no.. e' sbagliatissimo!!
24 pipe non sono meglio di 16, ma l'architettura dell'R520, e' migliore di quella del G70.
Paragonare per numero di pipeline queste due GPU e' assurdo.
Quelle 16 pipeline non valgono nulla senza tutto il resto.. Dunque il vantaggio risiede nella mirabile architettura di tale GPU, non certo nelle pipeline.

cmq un'altra cosa a questo punto possiamo dire che la favola delle 24/32 pipe è stata appunto una favola magari alimentata(ad arte)dalla stessa ati per fuorviare nVidia sulla nuova architettura. nuova che magari anche nVidia sta pensando/studiando da tempo. ma che ati è stata la prima ad adottare.
il tutto mia modesta opinione.

E tu quale dei due fratelli Grimm sei per sapere che fosse solo una favola :p?? diciamo che piu' verosimilmente non ci sono riusciti e rimane un lodevole progetto. :)
Il non utilizzo di 24 o 32 pipeline (anche se non e' proprio corretto parlare ancora di pipeline) ha sicuramente permesso di scalare in freq maggiormente. Non tutti i mali vengono per nuocere.

Io credo che la recensione parli chiaro e chi nn si accorge dei fatti e' solo perche' nn vuole vedere l'evidenza...Prima tutti castigavano ati per il ritardo(e se lo merita) e per le presunte prestazioni con 16 pipe inferiori ad architetture con 24 che invece guarda un po' sono superiori,tuttavia mi preme ricordare che tale ritardo nn e' da imputare ad un progetto piu' nuovo rispetto a quello nvidia,bensi' a dei problemi di produzione con le fonderie taiwanesi,quindi,per favore,basta col dire che siccome ati e' uscita con 5 mesi di ritardo ci dovevano esssere prestazioni ancora maggiori,per favore basta,ricordiamoci che il progetto r520 ha gli stessi mesi alle spalle di quello nvidia e che i ritardi nn erano tanto per l'invalidita' del progetto,quanto per i problemi riscontrati nel produrlo.
Quindi basta con questa storia dei 5 mesi e delle prestazioni superiori "causa ritardo"( che cmq ci sono e sono li' davanti a tutti e nn diminuiranno con i gioche nuovi,vedi tast sulla demo di fear sparsi per la rete),l'unica colpa e che questi 5 mesi hanno permesso a certe persone di gettare fango su una azienda che nel bene e nel male ha sempre ricercato cmq le migliori prestazioni abbinate alla migliore efficienza(come nvidia del resto) e che questo ritardo senza dubbio nn ha fatto bene al mercato nella sua generalita'....Detto questo sottolineo anche come r580 sia gia' in fase di avanzato sviluppo e questo nn necessariamente vuol dire vita breve alle schede attuali,infondo dipende da quello che nvidia riuscira' a fare con le prossime gpu se r580 uscira' presto o no,pero' intanto e' li a fare test e ad essere perfezionato.
Byezzz

Ecco, queste sono favolette, prendo questo post, perche' e' il primo della lista in merito, ma vale un po' per tutti gli altri simili.
Le fonderie sono eccellenti, e perfettamente in grado di produrre cio' che gli viene commissionato. E' ovvio che se gli si commissiona di costruire un qualcosa che non puo' funzionare, questo non funzionera'. ATI, come Intel, ha avuto problemi con il processo produttivo a 90nm sicuramente per l'assenza di "soluzioni" come il SOI (di IBM, ma utilizzato anche da AMD ed Nvidia fin dal processo produttivo 0,13 µm) per limitare i problemi causati dalle correnti di leakage.
Il SOI si puo' applicare in qualunque catena di produzione, senza richiedere la sostituzione dei macchinari. Dunque non e' colpa delle fonderie, ma di cio' che gli viene commissionato.

km ti è già stato detto e ripetuto + volte il problema nn è l'open gl...
e lo stencil shadow....
e poi secondo te km avrebbero fatto a tirare fuori una skeda ke andasse il 50% + veloce di G70 nello spazio d qualke mese????
hai tu qualke formula magica da presentare agli ingegneri ATI???
Anche questo lo prendo a titolo di tutti gli altri che gli fanno coro.
Non e' vero, o meglio, e' vero in parte. Le Stencil Shadow aiutano molto, e' vero, ma il vantaggio si vede anche in giochi OGL che non ne utilizzano quasi (giochi non presenti in questa recensione). Anche io credevo che ATI avesse migliorato il proprio rapporto con le PGL (in game), ma a quanto pare non e' cosi' (per Doom3 al tempo ricorsero pure a diminuzioni di qualita' per riguadagnare un po' di FPS e di immagine in termini commerciali). Ma come detto, il mercato piu' importante e' quelle delle DX, (che a qualcuno piaccia o meno) e dunque il problema e' minore del margine di guadagno ottenibile in taluni giochi utilizzando Nvidia. :)

. G70 utilizza batch di 32x32 pixel, mentre R520 lavora su gruppi di 4x4 pixel.
Il G70 non ne utilizza da 64x64?? probabilmente ricordo male.

Qualcuno aveva portato un P4 a 6 GHz o una roba così anche, ma ;)
Se non erro non caricava nemmeno Windows.. mentre gli AMD a 4GHZ ed oltre, “Benciano” tranquillamente. ;) (scusate l'OT ma ci voleva)

aplo
13-10-2005, 07:05
Complimenti per la recensione sempre un passo avanti a tutti gli articoli che poi troveremo sulle sopravalutate riviste di settore.

Cmq archiviati i soliti commenti di parte del forum era chiaro che così come quando è uscita la 7800 molti fan ati sono apparsi per cercare di sminuire quella che di fatto si era posta come il top delle schede video Highend cosi ora i fan Nvidia fanno sentire le loro voci per rimarcare i pochi punti deboli di questo nuovo mostro.
Letta la recensione devo dire che sono davvero rimasto impressionato dalle novità che si trovano in questa Gpu tanto che molto probabilmente al lancio al contrario di quanto avevo deciso credo ne installerò una sul mio pc operazione non da poco visto che dovrò cambiare sia processore che memorie che MB, ma i risultati dei vari benckmark mi hanno convinto cosi come le nuove feature certo rimane la nota non poco dolente dei consumi piu alti, che in passato sono sempre stati un cavallo di battaglia per questa casa.
In pratica a Dicembre dovrò mettere in preventivo sia una NextGen che un sostanzioso upgrade prevedo che piangerò a lungo dopo la spesa molto a lungo :D

Cya

Maury
13-10-2005, 08:28
semmai si parla di quantità di operazioni per unità di tempo, non per ciclo di clock. Inoltre, la tua definizione non tiene conto delle fasi di idle e non considera neppure la qualità delle operazioni compiute.

se ho due architetture, A e B. La prima ha 4 pipeline, ognuna con 10 stadi; ogni 5 stadi servono a compiere un'operazione fissa (che chiamiamo a). B ha 4 pipeline, come A, ma ognuna con 3 stadi (diversi da quelli di A e tali che insieme ne servono due per calcolare a). Le unità di calcolo di B sono sempre occupate ad eseguire calcoli; quelle di A hanno un'occupazione media del 60%. Per ogni ciclo, A compie 24 operazioni, mentre B solo 12. Dopo un ciclo, l'output di A è di 4a, quello di B anche. Dopo due cicli, l'output di A è di 9a, quello di B è di 12a. Secondo la tua definizione, A è più efficiente di B perchè per ogni ciclo compie più operazioni

:eek: :eh:

Foglia Morta
13-10-2005, 08:36
Io dico che 7800 GTX e' piu' efficiente perche' a parita' di clock e' piu' veloce:
il 1800 XT ha un clock 625 / 430 = 1.45 volte piu' elevato del 7800 GTX e una banda 1.5 / 1.2 = 1.25 volte piu' alta e in tutti i test che abbiamo visto quasi mai ce' una differenza del 45 % e poche volte superiore al 25%.

Riformulo la definizione di efficienza: capacita' di eseguire piu' lavoro utile (mi sembra piu' corretto di operazione) a parita' di cicli di clock (non di unita' di tempo altrimenti sarebbe la potenza di calcolo nuda e cruda).

P.S
A suo tempo ho fatto impianti di elaborazione dati, quindi qualcosa di pipeline, effcienza etc. ne mastico

Ciao
Non so d'accordo sulla tua definizione di efficienza. Secondo me è : capacità di eseguire più lavoro utile a parità DI RISORSE .

Che senso ha discriminare la frequenza di clock piuttosto che le unità di calcolo in generale? E anche nella mia definizione c' è il problema dell' eterogeneità delle variabili da considerare ( questo problema c' è anche nella tua ), quindi andrebbe calcolato ogni contributo dato da ogni singola unità di calcolo nelle più diverse situazioni,calcolato come a loro volta si influenzano le diverse parti che compongono R520 e G70 , e poi considerato la frequenza di funzionamento in cui può andare un chip ( perchè è solo una questione di scelte che non influenza l'efficienza del chip in modo assoluto ) .E a parità di tempo si vede chi è in grado di restituire il risultato più soddisfacente.

Ma poi non tutto il software è uguale , dunque in teoria andrebbe scritto un software perfettamente ottimizzato per G70 e uno per R520 , quindi ci sarebbe da considerare anche lo sforzo dei programmatori , alla fine della storia è intuibile come una scelta pragmatica debba essere per forza approssimativa . IMHO

cionci
13-10-2005, 08:50
Nel campo delle CPU per efficienza si è sempre definita una quantità normalizzata rispetto alla frequenza (ad esempio si può affermare senza ombra di dubbio che l'Athlon è più efficiente del P4 indipendentemente dalla frequenza)... Mentre per potenza di calcolo una quantità dipendente dalla frequenza... Di conseguenza trovo giusto l'articolo...

Foglia Morta
13-10-2005, 09:06
Nel campo delle CPU per efficienza si è sempre definita una quantità normalizzata rispetto alla frequenza (ad esempio si può affermare senza ombra di dubbio che l'Athlon è più efficiente del P4 indipendentemente dalla frequenza)... Mentre per potenza di calcolo una quantità dipendente dalla frequenza... Di conseguenza trovo giusto l'articolo...
ok , ma quella definizione viene data in modo convenzionale , non "reale" .
si è scelto per una questione pratica che sia così anche se poi in effetti non lo è così. sempre secondo me.

AndreaG.
13-10-2005, 09:23
E se cominciassimo a ragionare, per quanto riguarda l'efficienza, in termini di fps/$ !? Sarebbe sicuramente un mondo migliore... :sofico:

^TiGeRShArK^
13-10-2005, 09:24
Io dico che 7800 GTX e' piu' efficiente perche' a parita' di clock e' piu' veloce:
il 1800 XT ha un clock 625 / 430 = 1.45 volte piu' elevato del 7800 GTX e una banda 1.5 / 1.2 = 1.25 volte piu' alta e in tutti i test che abbiamo visto quasi mai ce' una differenza del 45 % e poche volte superiore al 25%.

Riformulo la definizione di efficienza: capacita' di eseguire piu' lavoro utile (mi sembra piu' corretto di operazione) a parita' di cicli di clock (non di unita' di tempo altrimenti sarebbe la potenza di calcolo nuda e cruda).

P.S
A suo tempo ho fatto impianti di elaborazione dati, quindi qualcosa di pipeline, effcienza etc. ne mastico

Ciao
ambò....
ti faccio un esempio ke forse ti + piu' kiaro...
a parità di frequenza è piu' performante un P4 dual-core o un A64 single-core nelle applicazioni multi-threaded????
ovviamente il P4 dual-core...
ma qual'è l'arkitettura piu' efficiente???
quela del P4 o quella dell'A64???
ovviamente quella dell'A64 xkè A PARITA' di pipeline (singel core Vs. single core - dual core Vs. dual core) e A PARITA' di frequenza esegue piu' operazioni per unità di tempo.
Lo stesso ragionamento lo puoi fare per ATI vs. NVIDIA...
se ATI con 16 pipeline a una certa frequenza è meno performante di nvidia con 24 pipeline non vuol dire ke l'arkitettura ATI sia meno efficiente... vuol dire semplicemente ke ha meno pipeline.... Invece A PARITA' di frequenza E di pipeline risulta essere + veloce la GPU ATI, ergo R520 è piu' efficiente di G70...
so di essere un cesso a spiegare, ma spero di essere stato kiaro stavolta perchè nn ce la faccio piu' a ripetere questo concetto... :cry:

street
13-10-2005, 09:27
E se cominciassimo a ragionare, per quanto riguarda l'efficienza, in termini di fps/$ !? Sarebbe sicuramente un mondo migliore... :sofico:

imho purtroppo siamo davanti ad un ulteriore cambio generazionale.

come ai tempi 9800 / 5900 la qualità delle due soluzioni propendeva verso la 9800, mentre gli fps erano pari, a volte a favore della 5900, anche oggi é la stessa cosa.

Anche allora si disse "si, ma chi gioca coi filtri" "si, ma la 5900 é full dx9", poi quando uscirono giochi veramente dx9 la 5900 si sedeva, mentre la 9800 no.

Ora sarebbe ancora più difficile fare un confronto a parità di qualità, anche perché a nvidia mancano alcuni punti per esempio su aa+hdr, nonché sulla qualità stessa dell' AA.

street
13-10-2005, 09:29
ambò....
ti faccio un esempio ke forse ti + piu' kiaro...
a parità di frequenza è piu' performante un P4 dual-core o un A64 single-core nelle applicazioni multi-threaded????
ovviamente il P4 dual-core...
ma qual'è l'arkitettura piu' efficiente???
quela del P4 o quella dell'A64???
ovviamente quella dell'A64 xkè A PARITA' di pipeline (singel core Vs. single core - dual core Vs. dual core) e A PARITA' di frequenza esegue piu' operazioni per unità di tempo.
Lo stesso ragionamento lo puoi fare per ATI vs. NVIDIA...
se ATI con 16 pipeline a una certa frequenza è meno performante di nvidia con 24 pipeline non vuol dire ke l'arkitettura ATI sia meno efficiente... vuol dire semplicemente ke ha meno pipeline.... Invece A PARITA' di frequenza E di pipeline risulta essere + veloce la GPU ATI, ergo R520 è piu' efficiente di G70...
so di essere un cesso a spiegare, ma spero di essere stato kiaro stavolta perchè nn ce la faccio piu' a ripetere questo concetto... :cry:

si, ma poi, che senso ha? Sono talmente diverse come architetture che l' unica cosa che si può dire é che l' approccio ati sembra più azzeccato di quello nvidia.

sari
13-10-2005, 09:39
ho appena finito di leggere questo articolo.
ATI mi ha sopreso, pensavo non potesse raggiungere questi livelli, le 16 pipe le ha spremute ben bene. Al tempo stesso però ritengo le soluzioni Ati allineate a quelle Nvidia, niente di eclatante come suggerirebbe il titolo dell'articolo, ricordiamoci infatti che lavora a frequenze spropositate (certo che a quelle frequenze le GPU Nvidia fonderebbero ;) ). Ovviamente, come sempre, ATI pecca nei Driver non Windows/Mac, quindi anche sto giro è Nvidia a trovare il mio consenso.

halduemilauno
13-10-2005, 09:51
si, ma poi, che senso ha? Sono talmente diverse come architetture che l' unica cosa che si può dire é che l' approccio ati sembra più azzeccato di quello nvidia.

esatto. è inutile stare a lambicarsi il cervello nel tentativo di confrontare due chip che sono talmente differenti da essere inconfrontabili.
limitiamoci a confrontare le due schede.
quindi, se proprio si vuole, immaginatevi una 7800gtx con la ram della x1800xt.
il chip ati(come ormai sanno anche i sassi)è tecnologicamente più avanzato. quanto tutto questo paga nel campo delle prestazioni è sotto gli occhi di tutti e quindi tutti possono valutare.
quindi ora immaginatevi una 7800gtx con 10 giga di BW in più. la stessa della x1800xt.
;)

Sammy.73
13-10-2005, 09:52
Ovviamente, come sempre, ATI pecca nei Driver non Windows/Mac, quindi anche sto giro è Nvidia a trovare il mio consenso.

come fai a dirlo... non sono ancora usciti i driver maturi per win... dagli almeno qualche settimana :)

PS: poi mi spiegate cosa ci fate con una scheda così in un ambiente non windows...

mahui70
13-10-2005, 09:54
[QUOTE=bartolino3200]Io sono daccordo con te, ma stai attento mi sa che qualcuno ti manda i sicari a casa.
Oppure ti dicono che sei un buffone, ridicolo, esilarante, sprovveduto giusto per riassumere.
Il loro problema è che Ati produce solo schede gaming sotto windows, mentre nVidia produce schede universali maggiormente compatibili anche in ambito professionale, sia pure una 6800 o una 6600 ti ci troverai sempre meglio in tutto e con ogni sistema operativo del pianeta, non solo per fare pam pam pam (che ce vuoi fà i ragazzini).

bartolino3200 non si tratta di darti del buffone o del ridicolo la questione e' che sei palesemente una persona che quando parla di ati non e' serena e questo l'hanno capito tutti quelli che scrivono su questo forum e poi scusami se ho 35 anni e faccio ancora pam pam pam col pc mica siamo tutti scienziati come te :D

bist
13-10-2005, 10:13
come fai a dirlo... non sono ancora usciti i driver maturi per win... dagli almeno qualche settimana :)
Ma magari facessero driver per Linux all'altezza di quelli di nVidia! A quel punto per me il non ci sarebbe più alcun dubbio su cosa (eventualmente) comprare. Ci credo poco comunque, ancora le "vecchie" Radeon hanno un supporto abbastanza indecente.

PS: poi mi spiegate cosa ci fate con una scheda così in un ambiente non windows...
Tutto il discorso di "chi spende 500 € per una scheda video non gli interessa Linux e non ha limiti di budget" è anche sensato volendo, ma, dal mio punto di vista, se ne spendo 250 quando ci saranno anche le soluzioni di fascia media, conta molto il supporto per un sistema operativo in più (e non parlo necessariamente di videogiochi sotto Linux*, l'accelerazione 3d serve anche ad altro), anche se devo rinunciare a 10 fps... ognuno ha le sue esigenze.

Se non me ne fregasse nulla di Linux direi w le X1800 senza ombra di dubbio :cool:

* provate Cedega!

ripper71
13-10-2005, 10:16
complimenti vivissimi alla redazione per l'immane lavoro, davvero ben fatto... COMPLIMENTI !!

complimenti anche alla ati, una grande scheda, con grandi potenzialità e credo risulterà anche longeva.

poi mi sono divertito moltissimo a leggere i commenti dei fan boy da una parte e dall'altra.....bartolino complimenti...

però bartolino, scusami, mi sento di dirti questo: le tue affermazioni sono più o meno condivisibili (io non le condivido, ma non importa ). fai benissimo ad esporre le tue idee, e chi vuole è liberissimo di controbatterle. però, e torno a scusarmi, ti poni male... soprattutto imho soono i tuoi primi post in ogni discussione che ti rendono "antipatico" e oggetto di successive "bacchettature".... esordisci sempre con delle frasi troppo SECCHE, DURE, delle vere e proprie SENTENZE..... poi nei post successivi i tuoi toni si placano e cerchi di argomentare le tue preferenze... a mio modesto parere dovresti cercare di partire soft dando sempre delle spiegazioni a quanto affermi, e soprattutto cercando di non denigrare le idee o le preferenze altrui... credo rimmarresti molto più simpatico e nessuno ti "caccerebbe a calcioni dai thread"....

Arcangelit
13-10-2005, 10:33
toglietemi una curiosità... ma se comprassi ora la gtx... e in fututro ho bisogno di prestazioni maggiori, ne potrei comprare un altra e metterla in sli (ho la scheda madre asus premium), credo che lo stesso si possa fare con ati col crossfire... ora la mia questione è: avrebbe senso mettere in parallelo una scheda di ora con una che uscirà fra un anno (ammesso che sia possibile ed i driver lo permettano... e ho letto che nvidia nei futuri driver permetterebbe supporto in sli a schede di diverse marche...) che supporta i nuovi standard grafici (tipo directx 10) ? Secondo me ha senso la doppia scheda se c'è sopratutto questa condizione.
E poi vorrei rispondere a chi favoreggia sul discorso dell'overclok di 100 MHz dell'ati... il modello top ha un sistema di dissipazione che occupa uno slot in più e permette tali overclok... ma nvidia no... ricordo però che ci sono case come l'ASUS con il suo modello TOP e XFX (credo) che adottano sistemi simili e queste schede si posso overcloccare oltre 100 MHz AD ARIA senza tropppi problemi e con ottime prestazioni... vabbè... spero non escano commenti velatamente offensivi al mio post... non c'è bisogno di rispondere male... non sono un super esperto come molti qui dicono di essere... e accetto le critiche se fatte in maniera corretta. un saluto a tutti ;)

JohnPetrucci
13-10-2005, 10:47
Non c'è che dire.
Mi inchino ad Ati, ottima scheda, superiore in tutto alla controparte Nvidia.
Mi sa che una semplice 7800 gtx ultra con frequenze più alte come possibile contromossa Nvidia, non cambierà di molto la situazione, visto che la qualità visiva di R520 sarà sempre la migliore.
Staremo a vedere se in futuro quando uscirà R580, Nvidia sarà in grado di competere sulla qualità con la controparte.

dm69
13-10-2005, 11:34
Non capisco tutte le critiche che ho ricevuto riguardo alla questione dell'efficienza. Da sempre quando si parla di efficienza dei processori si intende quello che ho scritto nei miei post precedenti.
Perche' in questo caso si dovrebbe intendere qualche altra cosa?
Quando si dice che un Athlon e' piu' efficiente di un P4 si parla delle prestazioni a parita' di clock, mica si va' anche a disabilitare anche qualche unita' elaborativa.

Einhander
13-10-2005, 11:36
@MadRat:


Scusa ma se io presento un nuovo modello a delle fonderie,siano esse taiwanesi o cinesi o chi per loro,nn e' che loro prendono il progetto a occhi chiusi ed iniziano a produrlo cosi' tanto per vendere..Prima comunque vengono fornite delle garanzie ANCHE da parte della fonderia circa l'esito della realizzazione di tale progetto sia esso prodotto a 0.13,0.11 o 0.09,che poi in seguito OLTRE AI PROBLEMI DI RESA della fonderia si siano presentato anke un problema di natura progettuale questo nn lo so,nn ero li con gli ingegneri ati e cmq sia,come spiegare il fatto che Ati si sia poi successivamente rivolta ad un'altra fonderia?Che senso avrebbe fare una mossa del genere se il problema era esclusivamente progettuale??Nn sarebbe stata una mossa tanto furba visto che come minimo tra gli aspetti negativi ci sarebbe stato un ulteriore ritardo nel far uscire il prodotto?
Per carita' mie considerazioni,eh

P.s.:E poi PRECISO CHE IL PROGETTO R520 HA PIU' O MENO GLI STESSI MESI DI VITA DEL G70,o no?
Pero' ancora con questa storia delle prestazioni superiori causa ritardo-che poi ci sono e sono anche molto rilevanti proprio in quelle situazioni di forte stress dove le schede highend dovrebbero fare la differenza,ci sono i bench,li hai visti?-

Byezzz

johnson
13-10-2005, 12:29
Devo ammettere che non mi aspettavo dei risultati così eclatanti. I benchmark, soprattutto quelli effettuati ad alte risoluzioni con i filtri attivati sono molto eloquenti.

Però non bisogna avere le fette di prosciutto sugli occhi. Ci sono anche degli aspetti negativi che non si può far finta di vedere.

- la scheda per ora non esiste. Viene detto che sarà disponibile dal 5 novembre, ma vedendo com'è stata disponibile la x800xl dal 10 ottobre (non lo è stata infatti), non credo che la vedremo in italia tanto presto.

-non esiste che una vga di una generazione seguente alla g70 sia più lenta di una scheda vecchia in tutti i giochi opengl. Saranno anche pochi certo, ma non mi pare che nvidia faccia schede che hanno cali di prestazioni cosi elevati nel d3d rispetto ad opengl. Sarebbe auspicabile che ATi si impegnasse di più nel rendere meno marcata la deficenza sul piano opengl.

-il prezzo è una discriminante molto grande. A suo tempo dicevo che la 6800U e la x850xt pe erano sullo stesso livello di prestazioni, ma era da preferire la ATi perchè costava di media 100€ di meno. Ora i comunicati stampa di ATi comunicano prezzi di vendita che sono molto al di sotto dei prezzi di vendita reali. Lo abbiamo già visto col crossfire (100€ di differenza dai 349€ comunicati alla data di presentazione, ai 449€ del prezzo di vendita).

-un ultima considerazione sulle frequenze di funzionamento, calore e usura dei componenti.
Non mi intendo di queste cose, quindi la mia è più una domanda che una considerazione.
Ho sempre pensato che un componente elettronico rendesse di più a basse temperature. Ho anche sempre pensato che un componente elettronico che lavora ad alte temperature per molto tempo, si usurasse molto di più di un componente che lavora a temperature più basse.
Ora, considerando anche l'alto tasso di mortalità delle 9800pro, io vi domando, non è che queste schede ok vanno forte, ma tra 1 anno i condensatori si saranno fusi col pcb?

Per il resta la scheda è ottima :D

Sammy.73
13-10-2005, 12:32
* provate Cedega!

- semi impossibile da usare per un utente "medio" linux
(impossibile da usare per un utente Windows Avanzato)
- non va con tutti i giochi
- è a pagamento

no, grazie :D

andreamarra
13-10-2005, 12:42
che palle... non c'entrano nulla i giochi opengl! :D

le prestazioni inferiori (ma di quanto poi? non ci giocate bene lo stesso?) sono dovute al fatto che i programmatori hanno usato stencil shadows e shader ridicoli che danno vantaggi alla architettura nvidia.

Poi se per alcuni la discriminante è "prestazioni basse in opengl", personalmente mi sento di dire che non ci avete capito nulla :sofico: :)

Discorso diverso se la ati andava "male" con i DirecteD :D :sofico:!

e non è che sono pochi i giochi opengl... sono praticamente estinti.


per il resto.. inutile fare sempre l'analisi del tipo "in opengl la nvidia va meglio, la ati sbaglia a non puntarci" se poi è PALESE che in Direct3D la ati vada nettamente meglio di nvidia in situazioni di render pesante.


è come se io me la prendo con la ferrari perchè in condizione di nevischio a 4 gradi centigradi con vento trasversale alla pista mi va meno della mclaren... mentre in tutti gli altri casi (il 99.9%...) la Rossa gli è superiore. Cosa dire allora ipoteticamente della Mclaren?

halduemilauno
13-10-2005, 12:43
@MadRat:


P.s.:E poi PRECISO CHE IL PROGETTO R520 HA PIU' O MENO GLI STESSI MESI DI VITA DEL G70,o no?
Pero' ancora con questa storia delle prestazioni superiori causa ritardo-che poi ci sono e sono anche molto rilevanti proprio in quelle situazioni di forte stress dove le schede highend dovrebbero fare la differenza,ci sono i bench,li hai visti?-

Byezzz

certo che no. il G70 in origine si chiamava NV47 ed è semplicemente un refresh dell'NV40. l'R520 è un progetto nuovo. iniziato ben prima del G70. certo dopo l'inizio dell'NV40.
si può dire una mezza generazione di differenza quindi + o - un'anno.
;)

KuWa
13-10-2005, 12:54
anche se vado OT voglio spendere due parole per difendere bartolino... lui ha espresso la sua opinione, che può essere + o - condivisibile però mi sembra che l'aggressività con cui vi siete scagliati contro di lui mi sembra alquanto censurabile e offensivo (e mi stupisco che i moderatori non sono intervenuti chissà perchè :rolleyes: visto che qualcuno gli ha dato del buffone ecc ecc). Anche se fosse un fan di nvidia (e mi pare di aver letto che ha una 9800pro) non vedo cosa ci sia di male...

Lihid Zoil
13-10-2005, 12:56
http://search.ebay.it/search/search.dll?sofocus=bs&sbrftog=1&from=R10&satitle=x1800&sacat=160%26catref%3DC6&bs=Cerca&fsop=1%26fsoo%3D1&coaction=compare&copagenum=1&coentrypage=search&sargn=-1%26saslc%3D3&sadis=200&fpos=CAP&ftrt=1&ftrv=1&saprclo=&saprchi=

johnson
13-10-2005, 12:57
Non sono d'accordo con caro andrea.
Non sono praticamente estinti, almeno per ora. Doom3 ha venduto tantissimo e quake4 promette almeno gli stessi volumi di vendita. Non conosco i risultati di vendita di riddick, ma il paragone che fai con le condizioni climitatiche su strada è veramente esagerato.
Poi a parte rari casi, chi compra queste schede le userà per giocare a un fps. Non dirmi che per giocare a age3 (ti butti sotto? magari ci ribecchiamo a seul ;) ) hai bisogno di un r520/g70. E sinceramente nell' ambito degli fps che vendono, non sono poi cosi pochi gli fps in opengl.
Che dici sull'usura invece? E sulla non disponibilità del prodotto? E sul prezzo di vendita troppo alto?

MaBru
13-10-2005, 12:58
certo che no. il G70 in origine si chiamava NV47 ed è semplicemente un refresh dell'NV40. l'R520 è un progetto nuovo. iniziato ben prima del G70. certo dopo l'inizio dell'NV40.
si può dire una mezza generazione di differenza quindi + o - un'anno.
;)
Come tu faccia ad affermare simili cose rimane per me un mistero.

dagon1978
13-10-2005, 13:02
se ti riferisci a me puoi anche fare a meno di leggere i miei post: così ti fai un'idea più chiara e più consona a quelle che sono le tue aspettative/speranze. Se poi intendi darmi del fanboy, magari velatamente, porta le prove a sostegno di ciò che dici

Anche io sopporto molto poco chi fa accuse velate di parzialità senza avere prove a supporto

mi piacerebbe capire perché ti sei sentito tirato in causa dal mio discorso (sei l'unico tra l'altro)
vorrei precisare che non ho dato del fanboy a nessuno, ho solo chiesto, civilmente, se è possibile tenere un atteggiamento più distaccato a tutti quelli che hanno le competenze per parlare in maniera approfondita di queste cose

bartolino3200
13-10-2005, 13:03
Nn ti preoccupare cmq bartolino mio che il signore ti perdonera' perche' tu parli senza sapere anzi senza vedere QUELLO CHE TI E' STATO MESSO DAVANTI AGLI OCCHI NEL CORSO DI TUTTA LA GIORNATA DI OGGI DA TANTISSIME PERSONE PER CENTINAIA DI POST,NONCHE',FATTO MENO TRASCURABILE,DALLA RECENSIONE DEL NOSTRO AMATO E VENERATO SITO;ORA VA BENE ESSERE DI PARTE,-E CMQ IN MODO ALTAMENTE SPUDORATO-MA QUI SI PASSA AL RIDICOLO FIGLIUOLO,NO TE LO DICO PERCHE' TANTO NN E' CHE CAMBIERAI OPINIONE MENCO NEL GIORNO IN CUI ARRIVASSE UNA ATI CHE VA' AL TRIPLO DELLA SUA CONTROPARTE NVIDIA,PERO' VOLEVO PROVARCI A FARTI APRIRE UN ATTIMO GLI OCCHI EVIDENTEMENTE A TE SI CREDO CHE NVIDIA A QUESTO PUNTO TI PAGHI ,SENNO' NN SO' COME SPIEGARE IL TUO ATTEGGIAMENTO E LE TUE INCREDIBILI AFFERMAZIONI-CMQ SEMPRE DIVERTENTI EH-
SPERO CHE LO SFORZO TI AIUTI A GIUNGERE AD UNA VISIONE UN PO' PIU' CONNESSA ALLA REALTA' DOVE TUTTI NOI CAMMINIAMO E VIVIAMO ...
CHE LO SFORZO SIA CON TE E TI GUIDI COME UNA LUCE NELLA NOTTE PIU' BUIA,AMEN

Come si dice:"Nn c'e' peggior cieco di chi nn vuol vedere"

ti invito a rileggere la recensione,pero',magari eh,quando sei riuscito a riportare il tuo spirito in questa realta',ovviamente con l'aiuto dello sforzo :)



Strano che a quest' ora la madre superiora ti faccia stare sveglio davanti al pc del convento. :asd:
Ho notato che nella maggior parte dei tuoi post, ti rivolgi sempre in termini clericali...
Sarai mica una suora o un chierichetto? Magari vivi in seminario o sei una badessa :asd:
CMQ, ti ricordo che scrivere in MAIUSCOLO, equivale a gridare in questo forum, il che non si addice ai toni ecclesiastici con i quali ti esprimi. :asd:
Mi raccomando fatti un bel rosario, casomai ATI cominci a dare supporto a Linux tanto da farmi convertire.
Continua pure la tua missione di evangelizzazione, e guerra santa contro l' infedele :asd:
Che ridere...

andreamarra
13-10-2005, 13:08
Non sono d'accordo con caro andrea.
Non sono praticamente estinti, almeno per ora. Doom3 ha venduto tantissimo e quake4 promette almeno gli stessi volumi di vendita. Non conosco i risultati di vendita di riddick, ma il paragone che fai con le condizioni climitatiche su strada è veramente esagerato.
Poi a parte rari casi, chi compra queste schede le userà per giocare a un fps. Non dirmi che per giocare a age3 (ti butti sotto? magari ci ribecchiamo a seul ) hai bisogno di un r520/g70. E sinceramente nell' ambito degli fps che vendono, non sono poi cosi pochi gli fps in opengl.
Che dici sull'usura invece? E sulla non disponibilità del prodotto? E sul prezzo di vendita troppo alto?

possiamo dire che in futuro andranno estinguendosi, in ogni caso. Ma anche se ciò non fosse... perchè devo vedere utenti che manifestano insoddisfazione nei confronti di ati perchè non va bene quanto nvidia su giochi opengl? Premettendo che nei due giochi in questione va di meno a causa di altre componenti che ho descritto.

Cioè, a me sembra assurdo puntare l'attenzione sulle performance in opengl (sempre buone comunque) e prendersela con ati... quando in tutti gli altri giochi Direct3D (la stragrande maggioranza) la ati va nettamente meglio della nvidia in situazioni di render pesante (e anche con HDR e HDR+AAA).

Spero che si capisca il concetto. L'esempio della pista era per estremizzare, sicuramente, maper far capire in che senso mi sembra assurdo come discriminante prendere due giochi scritti appositamente per nvidia, quando poi la realtà dei giochi riporta l'esatto opposto.

nel frattempo, di tutti i giochi che stanno per uscire o usciranno, il solo quake 4 (che pare tra l'altro una mezza cagata a sentire i recensori) è opengl. Ma non c'entra il fatto che sia opengl. IL fatto per il quale questi due giochi vanno meglio su nvidia è a causa delle stencil shadows scritte appositamente per esaltare l'architettura nvidia, oltre agli shader ridicoli che premiano l'architettura nvidia.

Sul discorso prezzi-reperibilità: premetto che non me ne frega poi molto, io sto discutendo sulle potenzialità del chip. A qualcuno spesso piace buttarla sul marketing, sui tempi ecc. ecc. manco fossimo azionisti. IO guardao alle prestazioni. Le schede sono già disponibili in diversi posti, in Italia ovviamente siamo il terzo mondo ma arriveranno. I prezzi: dai listini ati (parlo dell'america, ma anche in germania) i prezzi sono perfettamente allineati. Se in Italia siamo ladroni, purtroppo.... :(

halduemilauno
13-10-2005, 13:13
Come tu faccia ad affermare simili cose rimane per me un mistero.

cosa c'è che non ti è chiaro?
;)

yossarian
13-10-2005, 13:13
Il G70 non ne utilizza da 64x64?? probabilmente ricordo male.



per fortuna no; anche batch di 32x32 risultano spesso, al limite dell'inefficienza. :)

bartolino3200
13-10-2005, 13:15
però bartolino, scusami, mi sento di dirti questo: le tue affermazioni sono più o meno condivisibili (io non le condivido, ma non importa ). fai benissimo ad esporre le tue idee, e chi vuole è liberissimo di controbatterle. però, e torno a scusarmi, ti poni male... soprattutto imho soono i tuoi primi post in ogni discussione che ti rendono "antipatico" e oggetto di successive "bacchettature".... esordisci sempre con delle frasi troppo SECCHE, DURE, delle vere e proprie SENTENZE..... poi nei post successivi i tuoi toni si placano e cerchi di argomentare le tue preferenze... a mio modesto parere dovresti cercare di partire soft dando sempre delle spiegazioni a quanto affermi, e soprattutto cercando di non denigrare le idee o le preferenze altrui... credo rimmarresti molto più simpatico e nessuno ti "caccerebbe a calcioni dai thread"....

Si intendo cosa vuoi dire.
Il problema è che in un forum non si potrà mai avere la giusta percezione della persona che si ha davanti. Per quanto si possano usare le faccine, interloquire faccia a faccia ha una dimensione più diretta e comprensibile.
Sono per natura un tipo polemico ma nella giusta misura e con i miei amici quando si discute, riesco tranquillamente ad esporre pareri contrari ai loro senza prenderci a cazzotti, ma al contrario ridendoci su. Un po' come qualche risata te la sei fatta tu leggendomi. Chiaramente nello scherzo e nella burla c' è sempre un fondo di verità, come nell' esposizione più seria e tecnica ci può sempre essere un fondo di faziosità. In quest' ultimo caso più difficile da controbattere se non si hanno le dovute basi a disposizione.
Sono due modi di dire la propria, l' importante è rimanere come minimo nella buona educaione e rispetto reciproco.
Su di un oggetto di plastica con un pezzo di metallo sopra si può dire tutto e il contrario di tutto, moralmente parlando, sulle persone (con le quali oltretutto non si ha un contatto diretto), è saggio mantenere il giusto margine nell ' utilizzare attribbuti e commenti. C' è chi ci rimane male e non ti nascondo che qualche volte mi è capitato, chi sorvola, chi si spazientisce e risponde anche peggio degradando la situazione al limite del sopportabile.
;) Ciao.

yossarian
13-10-2005, 13:22
mi piacerebbe capire perché ti sei sentito tirato in causa dal mio discorso (sei l'unico tra l'altro)
vorrei precisare che non ho dato del fanboy a nessuno, ho solo chiesto, civilmente, se è possibile tenere un atteggiamento più distaccato a tutti quelli che hanno le competenze per parlare in maniera approfondita di queste cose

forse perchè il tuo discorso era un po' troppo vago e generico? Provo a indovinare, non ho la certezza.
Magari potresti parlare più chiaramente, facendo anche qualche nome, senza sparare nel mucchio. Credo sia più corretto nei confronti di tutti.

yossarian
13-10-2005, 13:26
Non capisco tutte le critiche che ho ricevuto riguardo alla questione dell'efficienza. Da sempre quando si parla di efficienza dei processori si intende quello che ho scritto nei miei post precedenti.


non mi risulta

Quando si dice che un Athlon e' piu' efficiente di un P4 si parla delle prestazioni a parita' di clock, mica si va' anche a disabilitare anche qualche unita' elaborativa.

sono due architetture x86, con lo stesso tipo di pipeline e la stessa logica di funzionamento. Il fragment processor di R520 ha più in comune con il cell, pur avendo logica ooo, che non con il Pentium o l'Athlon.

p.s. non hai ancora risposto alla domanda: secondo te è più efficiente A o B

MaBru
13-10-2005, 13:31
cosa c'è che non ti è chiaro?
;)
Dici che l'R520 è uscito dopo rispetto al G70 perchè il primo è un progetto nuovo mentre il secondo un refresh. Dimostramelo.

Poi l'R520 è uscito in ritardo non perchè le prestazioni iniziali del chip non fossero entusiasmanti ma perchè gli ingegneri Ati hanno impiegato due mesi ad individuare un problema di perdita di tensione sul chip che impediva di innalzare la frequenza.
Two weeks ago today, Rich Heye, VP and GM of ATI's desktop business unit, stood up in front of a room full of skeptical journalists and attempted to defuse those concerns. The problem with R520, he told us, with neither a snag caused by TSMC's 90nm process tech nor a fundamental design issue. The chip was supposed to launch in June, he said, but was slowed by a circuit design bug—a simple problem, but repeated throughout the chip. Once ATI identified the problem and fixed it, the R520 gained 150MHz in clock frequency
http://techreport.com/news_archive_overview.x/2005/10/5

halduemilauno
13-10-2005, 13:43
Dici che l'R520 è uscito dopo rispetto al G70 perchè il primo è un progetto nuovo mentre il secondo un refresh. Dimostramelo.

Poi l'R520 è uscito in ritardo non perchè le prestazioni iniziali del chip non fossero entusiasmanti ma perchè gli ingegneri Ati hanno impiegato due mesi ad individuare un problema di perdita di tensione sul chip che impediva di innalzare la frequenza.

http://techreport.com/news_archive_overview.x/2005/10/5

ma io veramente rispondevo ad un utente che diceva che i due chip avevano gli stessi mesi di vita.
e io dicevo certo che no.
cosa ti devo dimostrare se è un'ovvietà?
:boh:

sanitarium
13-10-2005, 14:01
Recensione veramente faraonica, davvero un lavoro per il quale complimentarsi.

Dopo le grandi soddisfazioni datemi dalla 9700pro e dalla 6800gt, credo che il mio prossimo acquisto si orienterà verso una X1800XT.
Nuovo AF di qualità, AA sempre eccellente a livello qualitativo, AA+HDR, prestazioni al top, impatto prestazionale dei filtri contenutissimo anche in situazioni estreme, architettura innovativa: davvero non mi aspettavo così tanto da R520.
Complimenti ad ATi per il lavoro svolto, l'attesa è stata ripagata al meglio.

toca1979
13-10-2005, 14:01
Non voglio assolutamente entrare in materia, cmq ho letto ieri su un forum (non ricordo se hardocp e guru3d) che molte schede basate su R520 prodotte da terze parti, probabilmente avranno frequenze reali più basse di quelle dichiarate da ati, non riuscendo a portare chip e memoria a quelle frequenze.
Sinceramente non so quanto questa notizia possa essere reale ma se consideriamo che le prime 1800 Xl uscite hanno frequenze ridotte non penso che possa essere poi così lontano dal vero.
Detto questo ritengo che ati abbia prodotto un' architettura valida ,ma che avrebbe dovuto proporre prezzi più abbordabili per tentare di arginare le perdite dovute ai vari ritardi.

CIAOZZ

LightForce
13-10-2005, 14:01
Strano che a quest' ora la madre superiora ti faccia stare sveglio davanti al pc del convento. :asd:
Ho notato che nella maggior parte dei tuoi post, ti rivolgi sempre in termini clericali...
Sarai mica una suora o un chierichetto? Magari vivi in seminario o sei una badessa :asd:
CMQ, ti ricordo che scrivere in MAIUSCOLO, equivale a gridare in questo forum, il che non si addice ai toni ecclesiastici con i quali ti esprimi. :asd:
Mi raccomando fatti un bel rosario, casomai ATI cominci a dare supporto a Linux tanto da farmi convertire.
Continua pure la tua missione di evangelizzazione, e guerra santa contro l' infedele :asd:
Che ridere...


hahaha rotolo :asd:

Sammy.73
13-10-2005, 14:08
è come se io me la prendo con la ferrari perchè in condizione di nevischio a 4 gradi centigradi con vento trasversale alla pista mi va meno della mclaren... mentre in tutti gli altri casi (il 99.9%...) la Rossa gli è superiore. Cosa dire allora ipoteticamente della Mclaren?

OT
su questo potrei obbiettare :D : facciamo così, invertiamo i termini di paragone e ci siamo :Prrr:

McLaren forever :)

halduemilauno
13-10-2005, 14:08
Strano che a quest' ora la madre superiora ti faccia stare sveglio davanti al pc del convento. :asd:
Ho notato che nella maggior parte dei tuoi post, ti rivolgi sempre in termini clericali...
Sarai mica una suora o un chierichetto? Magari vivi in seminario o sei una badessa :asd:
CMQ, ti ricordo che scrivere in MAIUSCOLO, equivale a gridare in questo forum, il che non si addice ai toni ecclesiastici con i quali ti esprimi. :asd:
Mi raccomando fatti un bel rosario, casomai ATI cominci a dare supporto a Linux tanto da farmi convertire.
Continua pure la tua missione di evangelizzazione, e guerra santa contro l' infedele :asd:
Che ridere...

in tutti i casi questa è buona.
;)

MaBru
13-10-2005, 14:12
ma io veramente rispondevo ad un utente che diceva che i due chip avevano gli stessi mesi di vita.
e io dicevo certo che no.
cosa ti devo dimostrare se è un'ovvietà?
:boh:
Ok, non ci siamo capiti. :fagiano: :D

Sammy.73
13-10-2005, 14:22
Doom3 ha venduto tantissimo e quake4 promette almeno gli stessi volumi di vendita.
:nono:
se Q4 promette gli stessi volumi di vendita... per activision e ID sono grossi guai :asd:

yossarian
13-10-2005, 14:24
Non voglio assolutamente entrare in materia, cmq ho letto ieri su un forum (non ricordo se hardocp e guru3d) che molte schede basate su R520 prodotte da terze parti, probabilmente avranno frequenze reali più basse di quelle dichiarate da ati, non riuscendo a portare chip e memoria a quelle frequenze.
Sinceramente non so quanto questa notizia possa essere reale ma se consideriamo che le prime 1800 Xl uscite hanno frequenze ridotte non penso che possa essere poi così lontano dal vero.
Detto questo ritengo che ati abbia prodotto un' architettura valida ,ma che avrebbe dovuto proporre prezzi più abbordabili per tentare di arginare le perdite dovute ai vari ritardi.

CIAOZZ

http://www.sapphiretech.com/it/products/graphics_specifications.php?gpid=121

http://www.theinquirer.net/?article=26753

http://italy.hisdigital.com/html/product_sp.php?id=201

qui siamo nelle specifiche.

toca1979
13-10-2005, 14:43
Probabilmente mi so drogato oppure parlavano delle XT....

Cmq ottima scheda

CIAOZZ

yossarian
13-10-2005, 14:45
Probabilmente mi so drogato oppure parlavano delle XT....

Cmq ottima scheda

CIAOZZ

le XT non sono ancora ufficialmente sul mercato. E le specifiche delle XT, nei siti di Sapphire, Power Color, His, e Connect3D hanno le specifiche standard (625/750)

leoneazzurro
13-10-2005, 14:47
Probabilmente mi so drogato oppure parlavano delle XT....

Cmq ottima scheda

CIAOZZ

Qualche tempo fa è apparsa proprio qui su HWUpgrade una notizia seondo la quale la 1800XT di Powercolor (partner storico ATI) sarebbe stata cloccata a 600/1400. Però sul sito di Powercolor il prodotto è specificato a 625/1500 come tutti gli altri. Forse si trattava solo di rumors infondati :confused:

Maury
13-10-2005, 15:00
Qualche tempo fa è apparsa proprio qui su HWUpgrade una notizia seondo la quale la 1800XT di Powercolor (partner storico ATI) sarebbe stata cloccata a 600/1400. Però sul sito di Powercolor il prodotto è specificato a 625/1500 come tutti gli altri. Forse si trattava solo di rumors infondati :confused:


è anche vero che PowerC spesso scala le frequenze... :)

MadRat
13-10-2005, 15:50
Ora sarebbe ancora più difficile fare un confronto a parità di qualità, anche perché a nvidia mancano alcuni punti per esempio su aa+hdr, nonché sulla qualità stessa dell' AA.

Non e' esattamente vero, e' inferiore nei test perhe' applicata in modo "differente", ma nei giochi non e' peggiore. Se non ti piace e' solo questione di gusti.
Per quanto riguarda la possibilita' di utilizzarlo anche con HDR come quello implementato in FarCry, e' lodevole per ATI, quanto (e forse meno) lo era per Nvidia riuscire ad utilizzare l'HDR un anno fa.

http://search.ebay.it/search/search.dll?sofocus=bs&sbrftog=1&from=R10&satitle=x1800&sacat=160%26catref%3DC6&bs=Cerca&fsop=1%26fsoo%3D1&coaction=compare&copagenum=1&coentrypage=search&sargn=-1%26saslc%3D3&sadis=200&fpos=CAP&ftrt=1&ftrv=1&saprclo=&saprchi=
Non so se fosse tua intenzione indicarne il prezzo,ma sono aste, vedremo alla fine a quanto saranno arrivate. :)

nel frattempo, di tutti i giochi che stanno per uscire o usciranno, il solo quake 4 (che pare tra l'altro una mezza cagata a sentire i recensori) è opengl. Ma non c'entra il fatto che sia opengl. IL fatto per il quale questi due giochi vanno meglio su nvidia è a causa delle stencil shadows scritte appositamente per esaltare l'architettura nvidia, oltre agli shader ridicoli che premiano l'architettura nvidia.
Ancora con 'sta storia delle stencil.. Mah..

Sul discorso prezzi-reperibilità: premetto che non me ne frega poi molto, io sto discutendo sulle potenzialità del chip. A qualcuno spesso piace buttarla sul marketing, sui tempi ecc. ecc. manco fossimo azionisti. IO guardao alle prestazioni. Le schede sono già disponibili in diversi posti, in Italia ovviamente siamo il terzo mondo ma arriveranno. I prezzi: dai listini ati (parlo dell'america, ma anche in germania) i prezzi sono perfettamente allineati. Se in Italia siamo ladroni, purtroppo.... :(
La butto anche io su questioni di mercato, se non c'e' o non e' disponibile, mi crea casini. Se e' delicata come la xt pe, che specialmente all'inizio, arrivavano direttamente rotte dalla fabrica, mi crea ulteriormente casini. Tutto questo si vedra', speriamo bene.
@MadRat:
Scusa ma se io presento un nuovo modello a delle fonderie,siano esse taiwanesi o cinesi o chi per loro,nn e' che loro prendono il progetto a occhi chiusi ed iniziano a produrlo cosi' tanto per vendere..Prima comunque vengono fornite delle garanzie ANCHE da parte della fonderia circa l'esito della realizzazione di tale progetto sia esso prodotto a 0.13,0.11 o 0.09,che poi in seguito OLTRE AI PROBLEMI DI RESA della fonderia si siano presentato anke un problema di natura progettuale questo nn lo so,nn ero li con gli ingegneri ati e cmq sia,come spiegare il fatto che Ati si sia poi successivamente rivolta ad un'altra fonderia?Che senso avrebbe fare una mossa del genere se il problema era esclusivamente progettuale??Nn sarebbe stata una mossa tanto furba visto che come minimo tra gli aspetti negativi ci sarebbe stato un ulteriore ritardo nel far uscire il prodotto?
Per carita' mie considerazioni,eh
P.s.:E poi PRECISO CHE IL PROGETTO R520 HA PIU' O MENO GLI STESSI MESI DI VITA DEL G70,o no?
Pero' ancora con questa storia delle prestazioni superiori causa ritardo-che poi ci sono e sono anche molto rilevanti proprio in quelle situazioni di forte stress dove le schede highend dovrebbero fare la differenza,ci sono i bench,li hai visti?-
Byezzz
Ti dico solo che se fosse stato un problema di fonderie (e false illusioni create da esse) ora ATI sarebbe in causa con esse per cifre assurde. (e le avrebbe cambiate molto tempo prima). Fonderie molto efficienti per altro, che lavorano per fior di produttori. Che poi ve ne siano altre migliori (e costose), non v'e' dubbio, ma si tratta di percentuali di resa.
Per quanto riguarda l'R520, no, il G70 e' un aggiornamento dell'NV40. Sinceramente non so cosa Nvidia abbia in cantiere, c'e' sicuramente chi lo puo' sapere con piu' probabilita' di me in questo forum, ma non aveva senso tirar fuori un prodotto migliore del G70, non avendo concorenza. La tecnologia va dosata un po' per volta, ci si ricavano molti piu' soldi.
Non capisco tutte le critiche che ho ricevuto riguardo alla questione dell'efficienza. Da sempre quando si parla di efficienza dei processori si intende quello che ho scritto nei miei post precedenti.
Perche' in questo caso si dovrebbe intendere qualche altra cosa?
Quando si dice che un Athlon e' piu' efficiente di un P4 si parla delle prestazioni a parita' di clock, mica si va' anche a disabilitare anche qualche unita' elaborativa.
Io direi che il paragone che ti e' stato fatto tra un dual Intel ed un single AMD sia piu' che esplicativo e corretto. (anche se non c'entra piu' o meno nulla con il caso). Semmai fai un calcolo dell'energia consumata in situazioni di stress (per le quali si comprano simili schede) e del quantitativo (e qualita') dei dati forniti in output.

kosimiro
13-10-2005, 15:51
:nono:
se Q4 promette gli stessi volumi di vendita... per activision e ID sono grossi guai :asd:

perche doom 3 ha venduto poco ?... :rolleyes:

andreamarra
13-10-2005, 16:03
Ma se in due giochi (due...) peraltro "vecchi" e che vanno molto bene su nvidia e bene su ati continuate a farvi i problemi, allora ripeto:

che cosa dite nel vedere tutto il resto dei giochi che vanno molto meglio su ati?

perchè "ancora sta storia delle stencil"? Il motore di doom3 avvantaggia notevolmente la nvidia perchè sfrutta un punto di forza delle nvidia. Non ci vedo nessun problema.

Questo per rispondere a chi ritiene che il problema sia di ati che non va benissimo con due giochi. Non che il "problema" sia di nvidia che nel resto dei giochi benchati mostra in situazioni di render pesante (pvvero: rendere medio per chi usa queste schede video) dei ritardi ben superiori a quello di ati su nvidia nei due giochi. Che tra l'altro sono perfettamente giocabili.

Se poi uno ritiene che la discriminante per non comprare una scheda video ati del genere siano le prestazioni non "eccellenti" in Riddick o in Doom3, per quanto mi riguarda significa non capirci nulla e trovare peli nell'uovo che in realtà non esistono, anzichè vedere i problemi di altri.


La reperibilità: già le XL le vendono adesso. Fra un mese se non ci sarà la XT ci butteremo tutti da un ponte :D!

MadRat
13-10-2005, 16:04
per fortuna no; anche batch di 32x32 risultano spesso, al limite dell'inefficienza. :)

Mi suonava male anche solo scrivendolo, ma chiedere non costa nulla. :)
Sai nulla di nuove architetture Nvidia??


Mi viene da fare il paragone con il settore automoblistico,settore anch'esso caratterizzato da un rapido avvicendarsi:prendiamo le ferrarfi F40,F50 e Enzo...si puo' dire che ognuna abbia costituito un miglioramento del 50% rispetto alla precedente? in termini di velocita' pura,la Enzo va il 100% piu' della F40? non e' che piuttosto e' aumentata l'efficienza globale del progetto,talvonta compiendo scelte radicali (nel caso delle auto passaggio dal motore turbo all'aspirato),e che ha permesso cosi' di guadagnare in prestazioni globali?
saluti

Quello che hai detto prima (e non ho quotato) e' piu' o meno corretto, ma questo paragone (perdonami se te lo dico) e' assurdo. :) Per mandare un veicolo al doppio della velocita' serve una potenza esponenzialmente superiore, non basta il raddoppio di essa (una macchina puo' andare a 250 Kmh con 100 Cv (ed un buon CX), per andare a 300 ne servono circa 500, per andare a 400 ne servono 900-1000!! :)
I motori endotermici sono "dei cassoni", non vedono delle vere "innovazioni" da anni (e non ne vedranno mai piu' a meno che non si trovi "piu' o meno per sbaglio" qualcosa di economico e funzionale, come i condotti di pressione comune che tanto vanno di moda ora) per vari motivi, primo tra tutti la scarsa vita che essi avranno nel futuro (dunque scarso interesse nell'investire in costose rivoluzioni) ed altri che non e' il caso di elencare qui.
Una VPU per raddoppiare le prestazioni deve raddoppiare la propria "potenza", e la cosa e' piu' che auspicabile visto che si segue la via del progresso.


...
quindi tu compreresti una skeda gaming top level x giocare senza AA???
x me, una volta provato l'AA, è diventato irrinunciabile, ke sia in HDR o meno...
Punti di vista, io adoro l'HDR e piu' o meno me ne frego dell'AA.
Se c'e' ben venga, lodo molto la possibilita' di utilizzarlo con HDR attivo e le prestazioni generali che sfodera ATI in merito, ma a volte addirittura rovina l'immagine e fa perdere dettagli (esempio, io gioco spesso a C&C generals online, se attivo un AA superiore a 4x, comincio a perdere il dettaglio dei personaggi e vederli tutti sfocati).
Trovo che chi sostiene che sia indispensabile usarlo (l'AA) a 1600*1200, voglia lodare per forza questa nuova scheda e le sue indubbie capacita'. (poi sono sempre punti di vista).

ma che c'etrano le vendite?
:confused:
perchè non dovrebbe vendere?
Perche' costa (per ora) 600-700€, che Ati ne dica.
A 500€ venderebbe abbastanza. Consideriamo pero' che la piu' “commerciale” delle due e' la XL, sicuramente un ottimo prodotto che pero' si deve misurare contro un'agguerritissima 7800GT che si trova gia' ora a 380€ ivata!! Indubbiamente e' avanti la soluzione ATI, non considero gli FPS, ma le feature. Come consigliavo fino a ieri Nvidia per via dei MS3.0, ora consiglio ATI, che sicuramente e' un passetto (passetto e non passo, perche' parlo di XL) avanti in situazioni di calcolo pesante. C'e' pero' da dire che la XL (percio' la scheda che sicuramente portera' piu' soldini nelle tasche ATI), e' molto meno competitiva nei confronti delle 7800 di quanto non lo sia la XT.

in generale ocncordo..
però su una cosa t devo correggere...
gli shader 3.0 dovevano essere implementati dai programmatori...
l'AA x l'HDR no....
basta avere un gioco ke supporti l'HDR e con ATI avrai l'AA, con nvidia no...
ma che stai a di'?? :D ora attivo l'HDR dal pannello dei driver. :D

e poi sappiamo benissimo ke gli shader 3 rispetto agli shader 2 non hanno portato nulla a livello di qualità o altro... permettevano semplicemente di effettuare delle operazioni più velocemente sfruttando soprattutto l'instancing (si kiamava ks??? :stordita: ) e nn mi ricordo cos'altro...
ma in linea di principio tutto ciò ke poteva essere fatto con gli shader 3 poteva anke essere fatto con gli shader 2....
se ricordo male fustigatemi pure...
sono tutto vostro...
basta ke nn intingete la frusta nel sale o nell'aceto.... :ops:
Diciamo che gli SM3.0 non siano stai ancora utilizzati a dovere, anzi, direi che siano stati utilizzati poco e male (basti vedere il 3dm2005 che su NV40 e G70 totalizza piu' punti se si forzano gli SM2.0/2.0b e restituisce un immagine piu' bella che con i 3.0!!

andreamarra
13-10-2005, 16:07
ma che scheda hai visto a 600-700 euro? :confused:

in Italia?

MadRat
13-10-2005, 16:08
Basta con 'sta storia delle stencil ti prego, qualunque titolo OGL (e non sono solo due, che tu ne dica), gira molto, ma molto meglio su Nvidia di una generazione fa (6 mesi in questo campo sono una generazione) di quanto non lo faccia su ATI. Cio' non toglie che il progetto ATI sia eccezionale e migliore (e ci mancherebbe altro).

In europa in genere. Comunque e' presto per parlare di prezzi, spero nella furbizia di ATI, anche se dal punto di vista del marketing, ha molto da imparare da Nvidia.

andreamarra
13-10-2005, 16:16
ma non si discute del fatto che i giochi in opengl vadano meglio si nvidia che su ati.

su discorso stencil e shader semplici: ne hanno discusso più volte persone come vifani e yossarian, non i primi arrivati.

detto questo, però, mi apre altrettanto indiscutibile il fatto che non si può fare di questa un pregio, se poi nella stragrande maggioranza dei giochi che escono ci sarà il direct3D e in questi giochi si notano in determinate situazioni scarti anche più elevati tra ati su nvidia.

Tra l'altro, i vari giochi opengl sono sempre di meno con il passare del tempo a fronte di incrementi sempre maggiori di giochi direct3d.

Quindi io come punto a favore delle schede nvidia il supporto migliore a opengl lo posso anche mettere, ma ripeto che secondo me non è assolutamente un qualcosa di così positivo come molti lo vogliono vedere.

E ovviamente, un gioco opengl è fluido ugualmente anche su ati. Come un gico direct3d è fluido ugualmente su nvidia.

MadRat
13-10-2005, 16:17
sicuramente ki deve comprare ora una skeda video d fascia alta non andrà certo sulla 7800 gtx.....
a meno di non avere esigenze particolari (linux) o di non essere un fanboy.....
andando su G70 si giokerà tutte le features di R520 e avrà prestazioni peggiori nei gioki futuri km già detto da yoss e ampiamente dimostrato dal 3dmark 2005....
Ma per ora risparmia 130€.. Certo che a parita' di prezzo, non c'e' storia ed hai perfettamente ragione. Si vedra'.


P. S. ... ormai m sono stankato d ripeterlo.... un okkiata al 3dmark 2005 ke ho postato x vedere le prestazioni con i gioki futuri di R520 Vs G70 costa troppo darla? :asd:
Mi meraviglia come qualcuno utilizzi ancora questo BM come parametro determinante. Mah.


Sul resto della tua affermazione: è un discorso inutile e fazioso... la nvidia ha una architettura che non richiede alte frequenze, la ati invece per la segmentazione delle pipeline le richiede. Poi che forza, voler vedere come va la nvidia con frequenze più alte... e perchè non vedere come va allora la R520 con quad pipeline in più, no??

Perche' con processo produttivo a 90nm e tecnologia SOI, Nvidia “potrebbe” (molto probabilmente e logicamente) produrre un G70 con simili frequenze. ATI non e' in grado di produrre un R520 con 24 pipeline, almeno per ora.
Se Nvidia non lo ha ancora proposto e' quasi sicuramente perche' nella prossima generazione di VPU (e non parlo di 7800Ultra), rispondera' con sostanziali cambiamenti d'architettura che compenseranno alle eccellenti migliorie introdotte da ATI. (o almeno ci proveranno)
Non esiste anche perche', fino ad oggi, non vi era alcun bisogno di una VPU piu' potente del G70 che io ho sempre ritenuto una “upgrade” dell'NV30, introdotto per accaparrarsi anche le prestazioni, oltre che alle funzionalita' maggiori e di conseguenza, stima e mercato (cio' che e' riuscita perfettamente a fare). A riprova di questo, il nome GTX, che contiene la sigla GT delle quasi TOP ed anche la X che per Nvidia distingue le “economiche” come MX o XT. A seconda dell'imminente risposta ATI (che nessuno poteva sapere al tempo si sarebbe fatta attendere cosi' tanto) avrebbe scelto se tirar fuori prodotti piu' preformanti o meno e visto il ritardo della concorrenza ha scelto di tenerla al vertice. Almeno io la vedo cosi'.

Qui il discorso è semplicemente che:
prendendo in considerazione il fatto che nei 7 mesi d'attesa, il problema è stato per la produzione, l'architettura non è stata cambiata...

ATI ha ridisegnato il chip non si sa quante volte!! dai su, questi mesi sono sicuramente (e fortunatamente) serviti anche a migliorare il prodotto finale. :)

549,00 $ sono più o meno 430,00 €, prezzo molto concorrenziale viste le prestazioni!
Se me la trovi a quel prezzo e mi dici come averla (iva compresa), devo mettere i buttafuori davanti al negozio. :) Mi metto in fila pure io. :p

Io dico che 7800 GTX e' piu' efficiente perche' a parita' di clock e' piu' veloce:
il 1800 XT ha un clock 625 / 430 = 1.45 volte piu' elevato del 7800 GTX e una banda 1.5 / 1.2 = 1.25 volte piu' alta e in tutti i test che abbiamo visto quasi mai ce' una differenza del 45 % e poche volte superiore al 25%.


Diciamo che piu' o meno e' vero, se non fosse che i dati restituiti dal G70, come giustamente dice yossarian , sono “differenti”.
Quello che non approvo affatto e' che ora la precisione FP16 che Nvidia applica in alcune situazioni, conta molto, quando invece ATI calcolava tutto in FP24 anziche' 32, non contava nulla, (e quanto ci ho tribolato per i forum vari!!) contano entrami. E' un po' come quando tutti gridavano all'inutilita' degli SM3.0 di Nvidia (ATI per prima) come accade anche in questo thread ed ora sembrano la manna piovuta dal cielo.
Misteri della fede su rieducatiola channe!!. :D

andreamarra
13-10-2005, 16:18
poi io parlavo di due titoli semplicemente perchè mi sto riferendo a questi bench.

se volevamo, potevamo riprendere anche never winter nights :asd: :sofico:

Eddie666
13-10-2005, 16:36
Quello che hai detto prima (e non ho quotato) e' piu' o meno corretto, ma questo paragone (perdonami se te lo dico) e' assurdo. :) Per mandare un veicolo al doppio della velocita' serve una potenza esponenzialmente superiore, non basta il raddoppio di essa (una macchina puo' andare a 250 Kmh con 100 Cv (ed un buon CX), per andare a 300 ne servono circa 500, per andare a 400 ne servono 900-1000!! :)
I motori endotermici sono "dei cassoni", non vedono delle vere "innovazioni" da anni (e non ne vedranno mai piu' a meno che non si trovi "piu' o meno per sbaglio" qualcosa di economico e funzionale, come i condotti di pressione comune che tanto vanno di moda ora) per vari motivi, primo tra tutti la scarsa vita che essi avranno nel futuro (dunque scarso interesse nell'investire in costose rivoluzioni) ed altri che non e' il caso di elencare qui.
Una VPU per raddoppiare le prestazioni deve raddoppiare la propria "potenza", e la cosa e' piu' che auspicabile visto che si segue la via del progresso.




Il paragone era volutamente forzato:non sono un ingegnere ma un un semplice appassionato sia di elettronica che di motori :) ovviamente a livello di incremento di velocita' pura in un auto contano molte variabili,in primis il cx,poi il cz,ecc..ma infatti nel mio post mi riferivo all'effecienza globale del progetto come risultato finale,non ad un singolo parametro.
circa il fatto che ad una VPU,per raddoppiare le sue prestazioni basta solo raddoppiare la sua potenza e' vero,tuttavia bisogna vedere se tale raddoppio sia possibile,o se invece per attuare lo stesso non sia necessaria una riprogettazione completa del profotto.
ciao :)

MadRat
13-10-2005, 16:49
Il paragone era volutamente forzato:non sono un ingegnere ma un un semplice appassionato sia di elettronica che di motori :) ovviamente a livello di incremento di velocita' pura in un auto contano molte variabili,in primis il cx,poi il cz,ecc..ma infatti nel mio post mi riferivo all'effecienza globale del progetto come risultato finale,non ad un singolo parametro.
circa il fatto che ad una VPU,per raddoppiare le sue prestazioni basta solo raddoppiare la sua potenza e' vero,tuttavia bisogna vedere se tale raddoppio sia possibile,o se invece per attuare lo stesso non sia necessaria una riprogettazione completa del profotto.
ciao :)

Ma infatti il bello di questo nuovo chip, non e' la potenza bruta, sono i miglioramenti apportati, che restituiscono risultati notevoli.
L'elettronica ha come vantaggio che puo' cambiare strada e direzione in qualunque momento. La ricerca e' attivissima e non si fermera' mai.



________________________


Per finire la mia lunga serie di post (cavolo quanto avete scritto!!), vorrei dire solo che sono molto contento che ATI sia riuscita (nonostante i problemi) a sfornare un prodotto veramente degno di nota. Mi piace molto riuscendo a scostarmi concettualmente dal progetto a 32 (poi 24) pipe che avrebbero voluto creare (probabilmente e' stato un bene) e non la vedo piu' come "un ripiego".

Tuttavia, chi acclama al miracolo dovrebbe pensare che paragonare questa VPU con un G70 e' un errore, il G70 non deve ingannare con il nome differente dalla serie NV, ha veramente molto in comune, e' stata una (pesante) risposta alla cloccatissima PE di ATI.
Bisognera' vedere tra 5 mesi cosa sara' stato immesso sul mercato da parte di Nvidia e considerando che non dovrebbero avere tutti i problemi di produzione che ha riscontrato ATI, potrebbero aver passato molto tempo ad affinale la prossima “arma”. Un vantaggio notevole.
Mi piace quando succedono queste cose!! :D Insomma questa e' una vera e sana concorrenza che ci porta ad avere sempre prodotti migliori. Tra AMD ed Intel non e' sempre cosi' per esempio. Intel e' troppo potente economicamente e come immagine per preoccuparsi di sfornare prodotti veramente competitivi (ma per questo c'e' un altro thread, come non detto!! :p ;) ).

P.S. Capisco la correttezza politica e la legge da rispettare, ma vorrei proprio entrare nelle vostre casette belle e vedere quanti di voi non abbiano veramente SW pirata!! Ho avuto una sensazione di ipocrisia assurda, a partire da tutti coloro i quali usano programmi P2P (utilizzati per il SW o per altro, sempre di pirateria si tratta). Del resto anche il buon (??) vecchio Bill ha detto che se non fosse stato per la pirateria lui ora non sarebbe nessuno e Windows non sarebbe nelle case di tutti.
Se non esistesse la pirateria i computer per giocare (visto gia' quello che gia' costa comprarli, aggiungerci 50-80€ a gioco sarebbe assurdo) non sarebbero cosi' diffusi, nessuno avrebbe gandi interessi a produrre nuovo HW come queste fantastiche schede, non esisterebbero tante SW house (che tentano di accaparrarsi una percentuale che sicuramente in paesi economicamente meglio messi del nostro e' maggiore) e i redattori di HWUpgrade avrebbero un decimo dei lettori. ;)
Non e' un elogio alla pirateria, ma una critica all'ipocrisia.
Non voglio aprire una polemica, ma la cosa mi ha colpito un po', mi scusassero coloro i quali si fossero sentiti offesi, ma li rapporto alla realta' che vivo quotidianamente ovunque mi sposti, privati o aziende, realta' che vede il SW pirata costituire il 90 e passa percento della totalita' (e sono stato discherto nel dare la percentuale).

T3d
13-10-2005, 16:53
Perche' costa (per ora) 600-700€, che Ati ne dica.
A 500€ venderebbe abbastanza. Consideriamo pero' che la piu' “commerciale” delle due e' la XL, sicuramente un ottimo prodotto che pero' si deve misurare contro un'agguerritissima 7800GT che si trova gia' ora a 380€ ivata!!

478,90€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
559,90€ Connect3D Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe

quando la gente parla senza sapere niente :rolleyes: prezzi dalla germania!

MadRat
13-10-2005, 17:05
478,90€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
559,90€ Connect3D Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe

quando la gente parla senza sapere niente :rolleyes: prezzi dalla germania!

Questo e' quello che puoi comprare in germania OGGI, vendilo in italia, mettici il trasporto mettici il 20% di iva e magari un po' di guadagno (perche' no) e ti accorgi che quello che non sa nulla sei tu. :)

CiccoMan
13-10-2005, 17:07
478,90€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
559,90€ Connect3D Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe

quando la gente parla senza sapere niente :rolleyes: prezzi dalla germania!

Ecco appunto, come temevo, i prezzi sono assurdi :(

Togli il VAT, aggiungi l'IVA ed ecco che siamo sempre e cmq sopra i 600€ per la xt 512mb e poco sotto per il 256mb... speram che scendono alla svelta :stordita:

Manuele1000Ghz
13-10-2005, 17:08
Ma.... per avere X1800XT dovrei spendere oltre 500 €
senza contare che dovrei comprare un processore nuovo,memorie , HD... ecc insomma tutto ex novo.
Una spesa complessiva almeno di 1500 €.
Invece con soli 299 € compro un X-360 che monta una generazione di schede Radeon che ad andar bene vedremo tra un anno.
Senza contare che i giochi che stanno uscendo ed usciranno hanno ed avranno una grafica superiore su X-Box 360 e ridimensionata per Pc, vedi NFS most wanted per esempio.
Non ho voluto scomodare la PS 3 e il suo nuovo processore Cell, usato in alcuni supercomputer.
Meditate gente meditate

P.s.
Ottima recensione,
professionale e chiara come sempre complimenti.

MadRat
13-10-2005, 17:09
Vorrei attirare l'attenzione su questa rece.

http://www.xbitlabs.com/articles/video/print/radeon-x1800.html

Decisamente la situazione e' differente, in molte situazioni (non le ho contate, ma direi la meta') anche a risoluzioni elevate e filtri attivi la 7800GTX supera la x1800XT. Mi sembra un quadro molto piu' paritetico. Evviva la confusione.

Manuele1000Ghz
13-10-2005, 17:12
Ma per avere X1800XT dovrei spendere oltre 500 € senza contare che dovrei comprare un processore nuovo,memorie , HD...
insomma tutto ex novo. Una spesa complessiva almeno di 1500 € :cry: .
Invece con soli 299 € compro un X-360 che monta una generazione di schede Radeon che ad andar bene vedremo tra un anno :D .
Senza contare che i giochi che stanno uscendo ed usciranno hanno ed avranno una grafica superiore su X-Box 360 e ridimensionata per Pc, vedi NFS most wanted per esempio :doh: .
Non ho voluto scomodare la PS 3 e il suo nuovo processore Cell, usato in alcuni supercomputer.
Meditate gente meditate :muro:

7MFV
13-10-2005, 17:16
CREDO CHE IL VANTAGGIO DELLA X1800XT NON SI COSI' NOTEVOLE COME POTREBBE SEMBRARE PER LI SEMPLICE FATTO CHE QUEST'ULTIMA RIPSETTO ALLA 7800GTX LAVORA A FREQUENZE MOLTO PIU' ALTE.
QUINDI QUANDO NVIDIA ALZERA' LE FREQUENZE DI LAVORO DEL CORE ANCHE A 500MHZ E UTILIZZERA' MEMORIE GDDR3 DA 750x2 LE PRESTAZIONI ANDRANNO NETTAMENTE IN FAVORE DELLE 7800GTX ANCHE IN VIRTU' DELLE 24 PIPELINE CONTRO LE 16 DELLA X1800XT

bist
13-10-2005, 17:19
Decisamente la situazione e' differente, in molte situazioni (non le ho contate, ma direi la meta') anche a risoluzioni elevate e filtri attivi la 7800GTX supera la x1800XT. Mi sembra un quadro molto piu' paritetico. Evviva la confusione.
A me pare che ad alte risoluzioni + filtri le prenda solo con Doom3, Riddick,Pacific Fighters e Warhammer 40k.

andreamarra
13-10-2005, 17:25
CREDO CHE IL VANTAGGIO DELLA X1800XT NON SI COSI' NOTEVOLE COME POTREBBE SEMBRARE PER LI SEMPLICE FATTO CHE QUEST'ULTIMA RIPSETTO ALLA 7800GTX LAVORA A FREQUENZE MOLTO PIU' ALTE.
QUINDI QUANDO NVIDIA ALZERA' LE FREQUENZE DI LAVORO DEL CORE ANCHE A 500MHZ E UTILIZZERA' MEMORIE GDDR3 DA 750x2 LE PRESTAZIONI ANDRANNO NETTAMENTE IN FAVORE DELLE 7800GTX ANCHE IN VIRTU' DELLE 24 PIPELINE CONTRO LE 16 DELLA X1800XT

Non è così. Lo abbiamo spiegato un milione di volte.

Soprattutto per il comparto della ram: la G70 è fillrate limited, anche se ci metti dentro 2 giga di memoria da 2500 MHz le prestazioni NON migliorano.

Il discorso velocità del chip: non c'entra nulla, e se anche c'entrasse... demerito della nvidia non aver fatto un chip che a certe frequenze. In ogni caso, non è quella la discriminante per quei valori.

Tra l'altro i vantaggi grossi il R520 li ottiene proprio a grandi risuoluzione e tanti filtri: significa che è costruito sto chip per avere una resa con i filtri nettamente migliore degli altri chip grafici sia dal punto di vista qulitativo che prestazionale.

p.s. il discorso delle pipeline è fallato in partenza, non essendo vere e proprie pipeline quelle di R520

Athlon 64 3000+
13-10-2005, 17:26
CREDO CHE IL VANTAGGIO DELLA X1800XT NON SI COSI' NOTEVOLE COME POTREBBE SEMBRARE PER LI SEMPLICE FATTO CHE QUEST'ULTIMA RIPSETTO ALLA 7800GTX LAVORA A FREQUENZE MOLTO PIU' ALTE.
QUINDI QUANDO NVIDIA ALZERA' LE FREQUENZE DI LAVORO DEL CORE ANCHE A 500MHZ E UTILIZZERA' MEMORIE GDDR3 DA 750x2 LE PRESTAZIONI ANDRANNO NETTAMENTE IN FAVORE DELLE 7800GTX ANCHE IN VIRTU' DELLE 24 PIPELINE CONTRO LE 16 DELLA X1800XT

primo se scrivi in maiuscolo equivale ad urlare e secondo se ti sei letto le pagine precedenti che parlavano sull'architettura di R520.Mi sa proprio di no.
R520 ha delle frequenze alte perchè è stato progettato cosi.
Guardati i post di yoss e capirai tutto.
:muro: :muro: :muro: :muro: :muro:

andreamarra
13-10-2005, 17:29
cmq, come al solito... anzichè guardare le prestazioni di una scheda si dice che l'altra migliorerà appena metti frequenze da tremilioni di mhz e quando metti ram da diecimila mhz...

come se poi la ati non facesse nulla dopo.

poi, ovviamente, non è solo il discorso prestazionale ad essere migliore. Ma lo è anche quello tecnologico e qualitativo. Cose da non menzionare, ovviamente.

meglio pensare a come rimediare il gap inserendo cose che a un progetto in grande equilibrio come G70 non aumenterebbero un bel niente.

Athlon 64 3000+
13-10-2005, 17:31
cmq, come al solito... anzichè guardare le prestazioni di una scheda si dice che l'altra migliorerà appena metti frequenze da tremilioni di mhz e quando metti ram da diecimila mhz...

come se poi la ati non facesse nulla dopo.

poi, ovviamente, non è solo il discorso prestazionale ad essere migliore. Ma lo è anche quello tecnologico e qualitativo. Cose da non menzionare, ovviamente.

meglio pensare a come rimediare il gap inserendo cose che a un progetto in grande equilibrio come G70 non aumenterebbero un bel niente.

Quoto!

ripper71
13-10-2005, 17:38
non condivido totalmente le tue opinioni, ma sei stato un GRANDE quando hai affrontato gli ipocriti riguardo alla pirateria.... era ora che qualcuno sbattesse in faccia a lor signori che TUTTI nel ns. piccolo, un pò di pirateria a casa ce l'abbiamo... hai fatto bene, bravo, fermo restando che la pirateria è illegale e quindi non va elogiata, come hai perfettamente specificato.

andreamarra
13-10-2005, 17:43
poi sinceramente... un conto è vedere un processore come l'amd che va mediamente molto meglio (in diversi campi) nonostante frequenze "basse" rispetto a uno che ha frequenze assurde.

un conto è vedere scarti di frequenze (che tra l'altro non giustificano le differenze di prestazioni...), con una gpu con frequenze maggiori che va meglio rispetto a una gpu che ha frequenze minori...

E ripeto, perchè fare un torto alla ati se è riuscita a creare un chip che può avere clock clamorosi? Per di più, le architetture ati richiedono frequenze molto alte per via della frammentazione dei dati che le arrivano (detto molto alla "carlona"), mentre la nvidia non richiede frequenze assurde perchè i dati li elabora in maniera molto meno frammentata

per me è un discorso comunque assurdo, come si volessero trovare "scusanti". Come se io vedo una macchina di formula uno che taglia il traguardo per prima e dire "si vabbhè... ma ha il motore con più giri e le gomme migliori"... cazzi dell'altra scuderia se ha un motore meno performante e ruote inferiori, no?

andreamarra
13-10-2005, 17:47
Ati-Nvidia vs X-box 360-Ps3

Ma per avere X1800XT dovrei spendere oltre 500 € senza contare che dovrei comprare un processore nuovo,memorie , HD...
insomma tutto ex novo. Una spesa complessiva almeno di 1500 € .
Invece con soli 299 € compro un X-360 che monta una generazione di schede Radeon che ad andar bene vedremo tra un anno .
Senza contare che i giochi che stanno uscendo ed usciranno hanno ed avranno una grafica superiore su X-Box 360 e ridimensionata per Pc, vedi NFS most wanted per esempio .
Non ho voluto scomodare la PS 3 e il suo nuovo processore Cell, usato in alcuni supercomputer.
Meditate gente meditate

grazie per l'intervento, "nessuno" lo aveva mai notato :asd: :sofico:

a parte che sti discori li si fanno dai tempi della prima consolle...

ma io che ho un computer mezzo decente, nforce2+XP+9700pro... e che mi so destreggiare... vendo i pezzi. e con il ricavo mi prendo

scheda madre ULI (praticamente una nforce4, ma costa 60 euro...)
athlon64 3200+ e lo clocco
praticamente, solo vendendo scheda madre e processore recupero esattamente gli stessi soldi per prendere altri componenti...

basta usare un pò la testa e non esagerare nel comprare cose inutili.

johnson
13-10-2005, 17:51
Andrea la situazione è diversa da come la descrivi tu. I distacchi di nvidia in direct3d sono nettamente minori rispetto ai distacchi di ati nei titoli opengl.
Tant'è che quando è uscita G70, ed è stata paragonato alla x850xt pe, non c'è stato UN SOLO test dove g70 andava peggio della ati e non parlo di open gl, parlo di direct3d.
Per quel che mi riguarda, ati avrebbe dovuto sfornare una scheda che battesse nvidia in tutto, come ci si aspetterebbe da una scheda che esce 5 mesi dopo la concorrente ( se contiamo come data il 5 nov ), proprio come ha fatto nvidia a suo tempo con g70.

E' per questo che nonostante ATI abbia ora il dominio nelle prestazioni e nelle features, non si può dire che ATI sia così competitiva in tutto quello a cui può servire una scheda video high end.

La recensione di quake4 a cui ti riferisci è sul single player. Per quel che riguarda il multiplayer (quello che fa vendere il gioco, essendo necessaria la cd key originale), è già stato selezionato dalla CPL come il prossimo gioco di riferimento. Anche per quake3 fu così, ed infatti quake3 ha sempre vantato il maggior numero di giocatori e server nel mondo dopo cs (almeno nei primi 3 anni).

Rimane ancora da valutare quel discorso sulla longevità di un prodotto informatico che per rendere al meglio deve sopportare temperature di utilizzo più alte del normale a causa delle frequenze molto alte. E' possibile sta cosa? E' possibile che sia più soggetta a rotture, come sta succedendo ora con le 9800pro e le x800xt pe? E' un caso che ATI abbia abbassato proprio ora ad un 1 anno la garanzia sui prodotti build by ati?

Per i prezzi in germania posso solo dire che 2 mesi fa ho comprato la 7800GT della gainward a 359 € ivate, ora costeranno sicuramente meno. Ma qui si parla di disponibilità e prezzi in italia, tutto un altro discorso converrete.

bartolino3200
13-10-2005, 17:51
scheda madre ULI (praticamente una nforce4, ma costa 60 euro...)
athlon64 3200+ e lo clocco
praticamente, solo vendendo scheda madre e processore recupero esattamente gli stessi soldi per prendere altri componenti...

basta usare un pò la testa e non esagerare nel comprare cose inutili.

Su qualcosa dovevamo pur andare daccordo ;) :friend:

MadRat
13-10-2005, 17:54
A me pare che ad alte risoluzioni + filtri le prenda solo con Doom3, Riddick,Pacific Fighters e Warhammer 40k.

direi che Far Cry sia in parita'. anche se tende piu' ad ATI.
HF2, e' sostanzialmente alla pari.
F.E.A.R. con i filtri va meglio con ATI, ma e' ingiocabile, dunque senza filtri (come lo si userebbe) e' migliore su Nvidia, anche se marginalmente.
Pariah va meglio con Nvidia.
Project Snowblind, va meglio su ATI, ma non mi sembra nulla di cosi' eclatante.
UT2004 e' pesantemente migliore su Nvidia.
Prince of Persia va 10fps meglio su ATI, che su 130 direi che siano tollerabili.
Splinter Cell Cell e' in netto vantaggio su ATI (ma solo la XT).
Colin McRae e' ATI, ma mi stupisce quanto il fatto che Doom sia Nvidia. :)
Pacific Fighters e' decisamente Nvidia,
come lo e' Lock On: Modern Air Combat (che schifezza di gioco).
Perimeter e' decisamente ATI.
W40k e' Nvidia.
Final Fantasy XI Official Benchmark 3 e' piu' o meno pari (un po' piu' nvidia)

i 3dm2005/2003, non li considero.

Seguita a sembrarmi un po' differente. :)

Resta la miglior qualità ATI sia nel filtraggio anisotropico che nelle texture. E resta anche la possibilita' di attivare l'HDR e l'AA nelle implementazioni similari a quella di FarCry.

MadRat
13-10-2005, 18:01
non condivido totalmente le tue opinioni, ma sei stato un GRANDE quando hai affrontato gli ipocriti riguardo alla pirateria.... era ora che qualcuno sbattesse in faccia a lor signori che TUTTI nel ns. piccolo, un pò di pirateria a casa ce l'abbiamo... hai fatto bene, bravo, fermo restando che la pirateria è illegale e quindi non va elogiata, come hai perfettamente specificato.

Guarda che se mi dici anche cosa non condividi, non mi offendo mica. :)

Jedi_Master
13-10-2005, 18:07
UT2004 e' pesantemente migliore su Nvidia.

Ah si? ma dove??
http://www.hwupgrade.it/articoli/skvideo/1361/16.html

Resta la miglior qualità ATI sia nel filtraggio anisotropico che nelle texture. E resta anche la possibilita' di attivare l'HDR e l'AA nelle implementazioni similari a quella di FarCry.

Resta??

sari
13-10-2005, 18:08
come fai a dirlo... non sono ancora usciti i driver maturi per win... dagli almeno qualche settimana :)

PS: poi mi spiegate cosa ci fate con una scheda così in un ambiente non windows...

sopratutto quando è stato annunciato che quake 4 uscirà per linux... ;)

street
13-10-2005, 18:12
i 3dm2005/2003, non li considero.

Seguita a sembrarmi un po' differente. :)

Resta la miglior qualità ATI sia nel filtraggio anisotropico che nelle texture. E resta anche la possibilita' di attivare l'HDR e l'AA nelle implementazioni similari a quella di FarCry.

Scusa, non ho capito una cosa. Davvero, senza polemica

In un thread dici che é meglio una 6800 rispetto ad una x800 perché la tua fa di più nel 3dmark 2005.
Poi a me dici che la questione della qualità d' immagine é solo una mia opinione.

Poi, d' un colpo, mi confuti entrambe le tue opinioni precedenti...

Quindi alla fine quale é la tua posizione?

andreamarra
13-10-2005, 18:17
si ma io faccio un ragionamento molto semplice: i titoli opengl sono bene o male decisamente limitati. Più si va avanti, meno ce ne saranno. Dire "uscirà quake4" non mi sembra molto rappresentativo, in quanto per un gioco opengl ce ne saranno quanti in direct3D? :)

in ogni modo, io ritengo che anche se ci sono dei vantaggi prestazionali, ci giochi bene anche con una ati. No?

Esattamente come per i giochi Direct3D, in situazioni senza filtri e risoluzioni tipo 1024*768 la ati e la nvidia vanno praticamente uguali. Però io personalmente ci vorrei giocare almeno a 1280*1024 se non 1600*1200 con filtri AA4X e Aniso 16. Personalmente, vedendo i grafici di tutte le rece che ho letto, in queste situazioni di render (che sono quelle tipiche di chi compra una simile scheda) io trovo che sia nettamente meglio avere una ati. Attualmente.

E in più, come se non bastasse, a livello qualitativo nonostante tutto è meglio. Poi qualcuno mi farà notare che l'asinotropico non è che lo noti più di tanto, strano magari erano gli stessi che facevano notare il "brilinear" o cose del genere. In più, cosa per me molto importante per il futuro dei videogiochi, sono le prestazioni pure con HDR e con branching dinamico. Addirittura l'HDR va con AA, e non ci sono perdite di fps tanto gravi, anzi.

Da qui, dopo una attenta analisi di uno che scegli il modello di scheda video in base a qualità e performance longevità e non in base a tifoseria , ritengo che usare la questione driver opengl poco ottimizzati da parte di ati sia come andare da una gran figa e dirle che è allergica agli acari della polvere.


sulla qualità costruttiva: io la mia 9700 pro la tengo da 3 anni, sempre overcloccata e mai un problema. Non è un caso che le schede video a dare problemi siano state quelle con dissipatori osceni e che sono state anche tirate... vedi soprattutto le 9800pro. A default non credo che si brucino.

street
13-10-2005, 18:21
poi, se usi programmi che variano il vcore, magari mettendo valori in esadecimale sbagliati, si bruciano meglio :asd:

DarKilleR
13-10-2005, 18:33
Bartolino sembra strano ma su varie questioni ero d'accordo con te come detto inizialmente a Pag 39....

- concordo sulla questione linux (ma non è assolutamente colpa di ATI che non fa driver ottimizzatissimi su Linux..., è colpa sia di nVidia che ATI e di tutto il mondo computer che ruota solamente attorno a microsoft....al mondo i PC con linux saranno l'1.5%....e sto esagerando.
- concordo sul fatto che ahime l'NF4 è un fornetto simil prescott...e che è meglio l'ULI (penso a febbraio di passare a questa main aggiornando tutto il PC)
- concordo sul fatto che ATI non è riuscita a ridurre i consumi (cmq occhio che l'analisi di HW tiene conto del consumo complessivo di tutto il PC in idle e sotto sforzo...) e il confronto andrebbe fatto X1800XT 256 MB e GTX 256 MB...i 512 una quindicina di Watt in più li vanno a consumare...
Con le SK video sotto sforzo credo che siamo quasi a 90Watt di consumo un pochino meno forse.

Per il resto su tutto quello che hai detto sulla questione X1800XT vs 7800 GTX non sono d'accordo su niente :P

johnson
13-10-2005, 18:37
Le 9800pro che si bruciano non è una mia invenzione. Anche la mia ha funzionato bene per un anno, poi l'ho cambiata.
ma gli indizi che ti ho dato? la riduzione della garanzia? le elevate temperature di utilizzo? i rivenditori che abbassano le freq di default?


Tornando al discorso che ATI non è una scheda video che va bene a 360°, per me è come andare da una gran figa, spogliarla e trovarle il pelo che va dall'ombelico all'interno coscia, per restare in tema col tuo paragone. Alla fine basterebbe una bella depilazione ( non credo che sia cosi difficile ottimizzare la scheda an che per l'opengl+linux ) per sistemare tutto :D

andreamarra
13-10-2005, 18:43
lo so che le 9800pro si sono bruciate non sono tua invenzione, ma non credo che si siano bruciate senza che le si abbia overcloccato o messo sotto stress da bench.

In più, il dissipatore faceva realmente cagare. Normale che se il dissi fa cagare, e in più la clocchi... per inciso la mia 9700pro va a poco più delle frequenze di una 9800pro da 3 anni e passa ormai. Però con un dissi diverso, quello dual slot vga silencer.

Se hano abbassato la garanzia di un anno, può anche essere dovuto al fatto che per motivi di clock eccessivo o magari di cattivo progetto, sono stati costretti a fare una cosa del genere. Ma non so se ciò dipenderà anche per questa serie X1800.

Sul discorso dei distributori: singolare il fatto che praticamente solo la powercolor (per ora) abbia messo frequenze minori. Le altre case, sia per la XL che per la XT hanno utilizzato le frequenze date da ati.

Se poi leggi i post di chi ne capisce molto su certe cose, noti ad esempio che le gpu non sono cloccate nè overvoltate di fabbrica. Anzi.

In ogni caso, può anche essere che ci siano problemi strutturali. Vediamo se cominceranno a incendiarsi le x1800 :D

^TiGeRShArK^
13-10-2005, 18:54
Mi meraviglia come qualcuno utilizzi ancora questo BM come parametro determinante. Mah.

è stato il primo ke ha mostrato finalmente quanto facesse pena l'arkitettura NV3X... e a quanto pare dai risultati di R520 sembra un buon parametro per valutare le prestazioni dei gioki futuri.....

Perche' con processo produttivo a 90nm e tecnologia SOI, Nvidia “potrebbe” (molto probabilmente e logicamente) produrre un G70 con simili frequenze.

questo lo vedo MOLTO difficile... non ai livelli di inserire 24 pipeline in R520 ma siamo sempre là...
inoltre tra .11 e .09 non c'è assolutamente la differenza ke c'è tra .13 e 0.09...la seconda è il doppio della prima... tenendo conto ke con i processori abbiamo visto da .13 a 0.09 un certo margine di miglioramento, con le skede video passando da .11 a 0.09 questo margine *se va bene*, quindi correnti parassite permettendo, sarà solo della metà.

Quello che non approvo affatto e' che ora la precisione FP16 che Nvidia applica in alcune situazioni, conta molto, quando invece ATI calcolava tutto in FP24 anziche' 32, non contava nulla, (e quanto ci ho tribolato per i forum vari!!) contano entrami. E' un po' come quando tutti gridavano all'inutilita' degli SM3.0 di Nvidia (ATI per prima) come accade anche in questo thread ed ora sembrano la manna piovuta dal cielo.
Misteri della fede su rieducatiola channe!!. :D
non sono misteri della fede....
16 bit = 0...65535
24 bit = 0...16777215
32 bit = 0... 4 miliardi e passa....
permetti ke sia MOLTO più importante il passaggio dai 16 ai 24 bit ke dai 24 bit ai 32 bit???
già oggi i 16 bit sono più ke sufficienti in molti shader...
i 24 bit saranno più ke sufficienti anke per i gioki futuri..
per avere bisogno effettivamente dei 32 bit secondo me ne passerà di tempo...
e infatti non mi pare proprio ke tu abbia notato perdite di qualità in NV40 o in R400 a causa degli shader a 16 o 24 bit....
certo ke calcolare shader a 16 bit o a 32 bit ha una NOTEVOLE differenza nel tempo di esecuzione.....
differenza ke non è ks marcata nell'elaborazione 24 bit Vs. 32 bit

MadRat
13-10-2005, 18:59
Scusa, non ho capito una cosa. Davvero, senza polemica

In un thread dici che é meglio una 6800 rispetto ad una x800 perché la tua fa di più nel 3dmark 2005.
Poi a me dici che la questione della qualità d' immagine é solo una mia opinione.

Poi, d' un colpo, mi confuti entrambe le tue opinioni precedenti...

Quindi alla fine quale é la tua posizione?

Non ci siamo capiti, dico che e' un'ottima scheda (la 6800GT) inquanto riesce a totalizzare punteggi eccellenti pure nel 3dM2005, notoriamente pro ATI.
Tuttavia, non ritengo assolutamente che il 3dM sia un corretto metro di paragone prestazionale. Al massimo, puo' servire a vedere i margini di miglioramento derivanti da in OC o tra un sistema e l'altro, basati entrambi sulla stessa famiglia di VPU. Spero di aver dissipato ogni tuo dubbio in merito. :)

MadRat
13-10-2005, 19:14
si ma io faccio un ragionamento molto semplice: i titoli opengl sono bene o male decisamente limitati. Più si va avanti, meno ce ne saranno. Dire "uscirà quake4" non mi sembra molto rappresentativo, in quanto per un gioco opengl ce ne saranno quanti in direct3D? :)

in ogni modo, io ritengo che anche se ci sono dei vantaggi prestazionali, ci giochi bene anche con una ati. No?

Esattamente come per i giochi Direct3D, in situazioni senza filtri e risoluzioni tipo 1024*768 la ati e la nvidia vanno praticamente uguali. Però io personalmente ci vorrei giocare almeno a 1280*1024 se non 1600*1200 con filtri AA4X e Aniso 16. Personalmente, vedendo i grafici di tutte le rece che ho letto, in queste situazioni di render (che sono quelle tipiche di chi compra una simile scheda) io trovo che sia nettamente meglio avere una ati. Attualmente.

E in più, come se non bastasse, a livello qualitativo nonostante tutto è meglio. Poi qualcuno mi farà notare che l'asinotropico non è che lo noti più di tanto, strano magari erano gli stessi che facevano notare il "brilinear" o cose del genere. In più, cosa per me molto importante per il futuro dei videogiochi, sono le prestazioni pure con HDR e con branching dinamico. Addirittura l'HDR va con AA, e non ci sono perdite di fps tanto gravi, anzi.

Da qui, dopo una attenta analisi di uno che scegli il modello di scheda video in base a qualità e performance longevità e non in base a tifoseria , ritengo che usare la questione driver opengl poco ottimizzati da parte di ati sia come andare da una gran figa e dirle che è allergica agli acari della polvere.


sulla qualità costruttiva: io la mia 9700 pro la tengo da 3 anni, sempre overcloccata e mai un problema. Non è un caso che le schede video a dare problemi siano state quelle con dissipatori osceni e che sono state anche tirate... vedi soprattutto le 9800pro. A default non credo che si brucino.

I giochi OGL per ora sono in numero notevole, lo schema riassuntivo che ho fato poco fa chiarisce quale siua l'effettiva situazione atuale a livello prestazionale, anche con filtri attivi sia in OGL che dx (il vantaggio Nvidia in OGL e' nettamente superiore a quello ATI in DX, almeno con i driver attualmente disponibili).
Queste schede servono per giocare ora, non tra due anni, quando qualche profeta dice che non vi saranno piu' le OGL, dunque bisogna essere obbiettivi e riconoscere ad esempio che CoR e' uno dei giochi piu' belli che vi siano attualmente, che DoomIII come engine fa tutto tranne che schifo e che in FarCry ed HF2 (specialmente) la 7800 ha ancora molto da dire ed e' tutto tranne che eclissata.

Dunque lode ad ATI, ma aspettiamo a paragonarla con quello che tirera' fuori Nvidia nei prossimi mesi.
Come gia' detto da qualcuno precedentemente, quando Nvidia ha immesso la GTX ha superato in tutto e per tutto la concorrenza, cosa che, per ora, non e' accaduto con la x1800.
E' migliore sì, l'architettura mi entusiasma come le soluzioni adottate, ma non e' schiacciante.
Un po' di obbiettivita' non fa mai male.

Le 9800pro, ma molto di piu' le 9500 (specialmente sei portate a 9700) hanno dimostrato una vita media di un anno e mezzo, pensa che per un (bel) periodo, smisi di prenderle (io e molti altri miei coleghi), per le troppe rese in garanzia (non mi paga nessunoper dirlo :) ) .

T3d
13-10-2005, 19:25
qual'è la scheda che dà la migliore esperienza videoludica al di là dei puri numeri velocistici? ATI. Punto. Che mi frega se la scheda va 10fps meno o 10fps in più di Nvidia. Ora come ora la migliore immagine viene prodotta dalle schede ATi. Chi si vuole accontentare prende Nvidia. Tutto qui :) il resto sono chiacchere :rolleyes:

bye

MadRat
13-10-2005, 19:26
è stato il primo ke ha mostrato finalmente quanto facesse pena l'arkitettura NV3X... e a quanto pare dai risultati di R520 sembra un buon parametro per valutare le prestazioni dei gioki futuri.....

Un buon paramerto in base al punteggio maggiore assegnato ad ATI?? mi sembra una costante per questo Bench. Seguito a non ritenerlo un buon metro di paragone.
La scheda ATI e' sicuramente migliore, parere ho gia' espresso piu' volte, ma non certo valutandola con il 3dM.

questo lo vedo MOLTO difficile... non ai livelli di inserire 24 pipeline in R520 ma siamo sempre là...
inoltre tra .11 e .09 non c'è assolutamente la differenza ke c'è tra .13 e 0.09...la seconda è il doppio della prima... tenendo conto ke con i processori abbiamo visto da .13 a 0.09 un certo margine di miglioramento, con le skede video passando da .11 a 0.09 questo margine *se va bene*, quindi correnti parassite permettendo, sarà solo della metà.

Dipende anche dall'efficienza della tecnologia applicata, ricordi il passaggio a 90nm dei P4 da parte di Intel?? ATI non si trova esattamente a proprio agio con tali nanometrie.


non sono misteri della fede....
16 bit = 0...65535
24 bit = 0...16777215
32 bit = 0... 4 miliardi e passa....
permetti ke sia MOLTO più importante il passaggio dai 16 ai 24 bit ke dai 24 bit ai 32 bit???
già oggi i 16 bit sono più ke sufficienti in molti shader...
i 24 bit saranno più ke sufficienti anke per i gioki futuri..
per avere bisogno effettivamente dei 32 bit secondo me ne passerà di tempo...
e infatti non mi pare proprio ke tu abbia notato perdite di qualità in NV40 o in R400 a causa degli shader a 16 o 24 bit....
certo ke calcolare shader a 16 bit o a 32 bit ha una NOTEVOLE differenza nel tempo di esecuzione.....
differenza ke non è ks marcata nell'elaborazione 24 bit Vs. 32 bit

No, non permetto. :) 4 miliardi e' un abisso rispetto a 16milioni e non si parla solo di colori visualizzati (al che ti darei "quasi" ragione anche se pure li ci sarebbe molto da discutere), ma di precisione in genere. Comunue per questo c'e' tutt'altro thread e credo se ne sia parlato a sufficienza. Concordi??
Byez.

MadRat
13-10-2005, 19:33
qual'è la scheda che dà la migliore esperienza videoludica al di là dei puri numeri velocistici? ATI. Punto. Che mi frega se la scheda va 10fps meno o 10fps in più di Nvidia. Ora come ora la migliore immagine viene prodotta dalle schede ATi. Chi si vuole accontentare prende Nvidia. Tutto qui :) il resto sono chiacchere :rolleyes:
bye

Non mi sembra che si possa esprimere un parere cosi' assolutistico. E' migliore in alcuni frangenti, tra i quali sicuramente quello molto importante della qualita' (che comuqnue su Nvidia non fa decisamente schifo, anzi).
La shceda che dovrebbe coprire la maggior parte del mercato di questo settore e' la XL e nulla ha a che vedere con le prestazioni fenomelnali della XT.
Diciamo che il prezzo fara' pendere l'ago della bilancia da un lato o dall'altro.
Si vedra'.

T3d
13-10-2005, 19:40
Non mi sembra che si possa esprimere un parere cosi' assolutistico. E' migliore in alcuni frangenti, tra i quali sicuramente quello molto importante della qualita' (che comuqnue su Nvidia non fa decisamente schifo, anzi).
La shceda che dovrebbe coprire la maggior parte del mercato di questo settore e' la XL e nulla ha a che vedere con le prestazioni fenomelnali della XT.
Diciamo che il prezzo fara' pendere l'ago della bilancia da un lato o dall'altro.
Si vedra'.
forse non si sono spiegato bene :stordita: XL o XT, poco cambia. Il chip è lo stesso, gira a frequenze diverse, ma le immagini prodotte di un gioco mica sono diverse. Chi ha i soldi e vuole comprarsi la scheda migliore, compra l'ATi x1800xt 512mb! che faccia 10fps in più o in meno di nvidia non cambia niente. L'esperienza videoludica che fornisce ATi e migliore di quella di Nvidia. Non c'è niente di soggettivo o di assolutistico :rolleyes: è la realtà, chiedilo a qualsiasi recensore di queste schede. Ti risponderà così ;). Ora, se volete discutere pure questo... beh... lascio a voi il 3d! (scherzo eh :p )

^TiGeRShArK^
13-10-2005, 19:42
I giochi OGL per ora sono in numero notevole
ma onestamente non mi pare proprio ke possa essere definito notevole se paragonato a direct x ... e questo numero tenderà ulteriormente a calare in futuro....

Dunque lode ad ATI, ma aspettiamo a paragonarla con quello che tirera' fuori Nvidia nei prossimi mesi.
Come gia' detto da qualcuno precedentemente, quando Nvidia ha immesso la GTX ha superato in tutto e per tutto la concorrenza, cosa che, per ora, non e' accaduto con la x1800.
E' migliore sì, l'architettura mi entusiasma come le soluzioni adottate, ma non e' schiacciante.
Un po' di obbiettivita' non fa mai male.

appunto... dovrai confontare questa skeda nuova nvidia con R580... un pò di obiettività non guasta ;)

MadRat
13-10-2005, 19:50
forse non si sono spiegato bene :stordita: XL o XT, poco cambia. Il chip è lo stesso, gira a frequenze diverse, ma le immagini prodotte di un gioco mica sono diverse. Chi ha i soldi e vuole comprarsi la scheda migliore, compra l'ATi x1800xt 512mb! che faccia 10fps in più o in meno di nvidia non cambia niente. L'esperienza videoludica che fornisce ATi e migliore di quella di Nvidia. Non c'è niente di soggettivo o di assolutistico :rolleyes: è la realtà, chiedilo a qualsiasi recensore di queste schede. Ti risponderà così ;). Ora, se volete discutere pure questo... beh... lascio a voi il 3d! (scherzo eh :p )
Torno a dire che non puoi essere cosi' perentorio, in alcune cose e' migliore e nessuno (o quasi) lo nega. Senza problemi di spesa e' migliore ATI, anche se per esempio in CoR o tutti i giochi OGL, e' pesantemente in dietro, (sperando che nuovi driver migliorino la situazione). Allo stato attuale delel cose i gichi che girano meglio su ATI sono il 50% (circa) e solo in situaziuoni limite (che spesso portano per entrambe ad un frame rate inadeguato).
Dunque?!?! Gusti e preferenze, direi. Io propenderei per ATI questa volta, ma non mi da la "certezza" che mi dava la 7800GTX fino a pochi giorni fa.

Comunque non e' corretto parlare di "senza limiti di spesa", ti assicuro che non e' la realta' questa.

Ma tu sei della lazio, che vuoi capi'?!?! :p Forza MAGGGGICA!! (nun te la pija', scherzo!!)

^TiGeRShArK^
13-10-2005, 19:51
Un buon paramerto in base al punteggio maggiore assegnato ad ATI?? mi sembra una costante per questo Bench. Seguito a non ritenerlo un buon metro di paragone.
La scheda ATI e' sicuramente migliore, parere ho gia' espresso piu' volte, ma non certo valutandola con il 3dM.

il lo ritengo un buon parametro xkè è stato il primo a mostrare le deficienze di nv3x in directx 9.... quindi non vedo perkè non dovrebbe mostrare l'efficienza maggiore della GPU ATI ke con i gioki attuali si nota poco....

Dipende anche dall'efficienza della tecnologia applicata, ricordi il passaggio a 90nm dei P4 da parte di Intel?? ATI non si trova esattamente a proprio agio con tali nanometrie.

appunto.. e nonostante tutto ha prodotto una skeda a quelle frequenze a ancora molto overclokkabile.... xkè nvidia non dovrebbe affrontare gli stessi problemi secondo te???

No, non permetto. :) 4 miliardi e' un abisso rispetto a 16milioni e non si parla solo di colori visualizzati (al che ti darei "quasi" ragione anche se pure li ci sarebbe molto da discutere), ma di precisione in genere. Comunue per questo c'e' tutt'altro thread e credo se ne sia parlato a sufficienza. Concordi??
Byez.
ehm.... quantizzazione...
ti deice niente???
la perdita di precisione è dovuta essenzialmente alla quantizzazione....
si perde MOLTO di più passando da 24 a 16 bit ke da 32 a 24.... sono sempre 8 bit però.... tnt x farti un esempio..... dimmi ke secondo te un suono quantizzato a 8 bit ha la stessa qualità di uno quantizzato a 16 bit...
lì la deifferenza si vede eccome.....
mentre tra 16 e 24 bit la differenza è praticamente nulla...
esempio ancora + estremo...
suono a 12 bit - suono a 8 bit - suono a 4 bit
ci sono sempre gradini di 4 bit, ma la differenza tra 12 e 8 bit non è molto elevata... mentre quella tra 8 e 4 bit è semplicemente abissale...
tutto questo x dire ke??? se come dici tu c'è un abisso tra i 24 e i 32 bit allora i 16 bit dovrebbero essere veramente inguardabili....
ma sappiamo bene ke nn è ks visto quante persone osannavano la qualità di NV40 ...
qdi cosa ne deduci???
nella maggior parte dei casi 16 bit bastano.... qdi 24 bit bastano avanzano e avanzeranno anke x i gioki futuri... i 32 bit li vedremo sfruttati solo tra un bel pò di tempo.

^TiGeRShArK^
13-10-2005, 19:54
Dunque?!?! Gusti e preferenze, direi. Io propenderei per ATI questa volta, ma non mi da la "certezza" che mi dava la 7800GTX fino a pochi giorni fa.

e grazie! :p
fino a poki giorni fa paragonavi una skeda con la generazione precedente... ora stai paragonando due skede della stessa generazione...
volevi ke R520 andasse il doppio di G70... mi pare kiedere un pò troppo ;)

T3d
13-10-2005, 19:55
Torno a dire che non puoi essere cosi' perentorio, in alcune cose e' migliore e nessuno (o quasi) lo nega. Senza problemi di spesa e' migliore ATI, anche se per esempio in CoR o tutti i giochi OGL, e' pesantemente in dietro, (sperando che nuovi driver migliorino la situazione). Allo stato attuale delel cose i gichi che girano meglio su ATI sono il 50% (circa) e solo in situaziuoni limite (che spesso portano per entrambe ad un frame rate inadeguato).
Dunque?!?! Gusti e preferenze, direi. Io propenderei per ATI questa volta, ma non mi da la "certezza" che mi dava la 7800GTX fino a pochi giorni fa.

Comunque non e' corretto parlare di "senza limiti di spesa", ti assicuro che non e' la realta' questa.

Ma tu sei della lazio, che vuoi capi'?!?! :p Forza MAGGGGICA!! (nun te la pija', scherzo!!)
scusa, ma che certezza ti dava la 7800GTX che ora la x1800 non può darti? :confused:
Ma tu sei della roma, che vuoi capi'?!?! :p Forza LAZIO!! (nun te la pija', scherzo!!) e aggiungo :ciapet:

MadRat
13-10-2005, 19:55
ma onestamente non mi pare proprio ke possa essere definito notevole se paragonato a direct x ... e questo numero tenderà ulteriormente a calare in futuro....

appunto... dovrai confontare questa skeda nuova nvidia con R580... un pò di obiettività non guasta ;)
Non so quando entrambe le case rilasceranno un nuovo prodotto (veramente nuovo). Vedremo.
diciamo che la X1800 serve ad accaparrarsi una fetta di mercato natalizio, lo vedo un po' come ho visto il G70 (anche se, quest ultimo e' meno rivoluzionario, ma piu' "dominante" al tempo) . Mi sembra solo un chip di transizione.

MadRat
13-10-2005, 20:00
scusa, ma che certezza ti dava la 7800GTX che ora la x1800 non può darti? :confused:
Ma tu sei della roma, che vuoi capi'?!?! :p Forza LAZIO!! (nun te la pija', scherzo!!) e aggiungo :P

La 7800GTX fino a pochi giorni fa era assolutamente la piu' potente soluzione ludica al mondo in ogni campo, DX o OGL che fosse, aveva feature avanzate e migliori. La sua potenza era "indiscutibilmente superiore in tutto". La 1800 non da tutto questo, non cosi' come lo era per la 7800 intendo. Non voglio sminuirla, percarita', ma capisco alcune perplessita', forse ci si aspettava una super-rivincita ATI, degna della dominazione Nvidia dei mesi scorsi.

T3d
13-10-2005, 20:03
La 7800GTX fino a pochi giorni fa era assolutamente la piu' potente soluzione ludica al mondo in ogni campo, DX o OGL che fosse, aveva feature avanzate e migliori. La sua potenza era "indiscutibilmente superiore in tutto". La 1800 non da tutto questo, non cosi' come lo era per la 7800 intendo. Non voglio sminuirla, percarita', ma capisco alcune perplessita', forse ci si aspettava una super-rivincita ATI, degna della dominazione Nvidia dei mesi scorsi.
uhm ho capito il tuo ragionamento. Però devi pensare che le due schede vengono definite "della stessa generazione". Come lo è stata la 6800ultra e la x850xt. Logico che l'ATi uscendo dopo, possa trarre in inganno. Sono della stessa generazione e la scelta di un appassionato di informatica che vuole giocare al massimo ricade su una scheda ATi, ora come ora. In passato magari no, ma ora non vi è alcun dubbio non credi? Non ci sono altri discorsi. :) bye

Apple80
13-10-2005, 20:10
bene bene. chissà cosa potrà fare l'R580 con 32 pipe. mmh... spero che l'anno prossimo escano in contemporanea i nuovi modelli di ati e nvidia cosi valuto cosa acquistare.

MadRat
13-10-2005, 20:25
bene bene. chissà cosa potrà fare l'R580 con 32 pipe. mmh... spero che l'anno prossimo escano in contemporanea i nuovi modelli di ati e nvidia cosi valuto cosa acquistare.
Chissa' cosa potra' fare una S3 con 48pipeline. :)

T3d
13-10-2005, 20:31
ti faccio una domanda diretta madrat: :Prrr:
mettiamo caso che devi comprarti una vga e ti regalassi 600€ per comprartela :p, con l'unica condizione che il resto me lo devi ridare.

Quali delle due schede compreresti, la 7800gtx o la x1800xt?

yossarian
13-10-2005, 20:32
Mi suonava male anche solo scrivendolo, ma chiedere non costa nulla. :)
Sai nulla di nuove architetture Nvidia??



forse............. :cool:

Sammy.73
13-10-2005, 20:38
perche doom 3 ha venduto poco ?... :rolleyes:
secondo te?

io so. :D
(fa paura detta così :asd: )

Pistolpete
13-10-2005, 20:54
Questo e' quello che puoi comprare in germania OGGI, vendilo in italia, mettici il trasporto mettici il 20% di iva e magari un po' di guadagno (perche' no) e ti accorgi che quello che non sa nulla sei tu. :)


NO NO non è T3D quello che non sa nulla, SEI TU!
Glisso va, mi sembra di leggere i post di uno che non ha le orecchie....
Non sai proprio nulla di prezzi.
Piccolo esempio: Germania ->Athlon X2 4400+ 523€ (uno dei prezzi migliori)
Italia ->Athlon X2 4400+ 586€ (sempre tra i migliori che ho trovato)

Variazione 12%

Credimi che in fatto di schede video le differenze non saranno molto maggiori (o, perchè no, inferiori).In ogni caso, per chi vuole risparmiare, c'è sempre la possibilità di ordinare in Germania (con spedizione).

:rolleyes:

T3d
13-10-2005, 20:58
ti faccio una domanda diretta madrat: :Prrr:
mettiamo caso che devi comprarti una vga e ti regalassi 600€ per comprartela :p, con l'unica condizione che il resto me lo devi ridare.

Quali delle due schede compreresti, la 7800gtx o la x1800xt?
madrat, che fai non mi rispondi? :p

MadRat
13-10-2005, 21:13
il lo ritengo un buon parametro xkè è stato il primo a mostrare le deficienze di nv3x in directx 9.... quindi non vedo perkè non dovrebbe mostrare l'efficienza maggiore della GPU ATI ke con i gioki attuali si nota poco....

Sei uno dei pochi a ritenerlo tale, ma rispetto al tua posizione.

appunto.. e nonostante tutto ha prodotto una skeda a quelle frequenze a ancora molto overclokkabile.... xkè nvidia non dovrebbe affrontare gli stessi problemi secondo te???
No, utilizzando la tecnologia SOI, non avranno problemi di questo tipo.

ehm.... quantizzazione...
ti deice niente???
la perdita di precisione è dovuta essenzialmente alla quantizzazione....
si perde MOLTO di più passando da 24 a 16 bit ke da 32 a 24.... sono sempre 8 bit però.... tnt x farti un esempio..... dimmi ke secondo te un suono quantizzato a 8 bit ha la stessa qualità di uno quantizzato a 16 bit...
lì la deifferenza si vede eccome.....
mentre tra 16 e 24 bit la differenza è praticamente nulla...
esempio ancora + estremo...
suono a 12 bit - suono a 8 bit - suono a 4 bit
ci sono sempre gradini di 4 bit, ma la differenza tra 12 e 8 bit non è molto elevata... mentre quella tra 8 e 4 bit è semplicemente abissale...
tutto questo x dire ke??? se come dici tu c'è un abisso tra i 24 e i 32 bit allora i 16 bit dovrebbero essere veramente inguardabili....
ma sappiamo bene ke nn è ks visto quante persone osannavano la qualità di NV40 ...
qdi cosa ne deduci???
nella maggior parte dei casi 16 bit bastano.... qdi 24 bit bastano avanzano e avanzeranno anke x i gioki futuri... i 32 bit li vedremo sfruttati solo tra un bel pò di tempo.

Grazie per la spiegazione, ma credo di sapere bene (e fino alla nausea) come si ragioni in bit. :)
Direi solo che non e' vero che nella maggior parte dei casi 16 bit bastino, anzi!! con 24 ci si puo' accontentare, 32 mi sembrano gia' un traguardo ragionevole (ovviamente da superare presto, come avverra' presumibilmente con la PS3).

MadRat
13-10-2005, 21:14
forse............. :cool:
'Nfame!! :D