PDA

View Full Version : [THREAD UFFICIALE] ATI Radeon X1800XT/XL


Pagine : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

Maury
08-10-2005, 15:24
non lo si può fare direttamente presidente del consiglio :D???

ma magari!! più pipe per tutti :sofico: :oink:

shodan
08-10-2005, 15:34
si, RV530 ha un'unità quad del tipo di quelle che dovremmo vedere su R580 RV515 ha unità quad del tipo di quelle di R520, ossia da 4 MAD

E gli altri 2 quads presenti in RV530 quindi cosa fanno? Le TMU sono esterne, le psu sono tutte nel primo quad... :confused:


no, lo z-buffer non c'entra; il principio del multisampling è, in parte, simile a quello del supersampling. Riferendosi al 4x, le dimensioni dell'immagine iniziale sono moltiplicate x4, si prende il pixel su cui si vuole applicare l'AA e si selezionano 4 subpixel adiacenti, scelti in base al tipo di algoritmo utilizzato (RG, OG, ecc). Qui i due procedimenti si differenziano. Nel MS ai 4 subpixel viene attribuito lo stesso valore del pixel da trattare (il che equivale a prendere 4 "immagini" del pixel nelle 4 posizioni diverse individuate dai 4 campioni), nel supersampling, invece, si fa l'interpolazione dei valori del pixel da trattare con ciscuno dei 4 subpixel e si salvano questi valori; nel momento in cui si riduce l'immagine alle dimensioni originali, si fa una seconda operazione di interpolazione tra i 4 valori trovati e il risultato finale da il valore del pixel trattato.
Poichè tutta l'operazione avviene suddividendo l'immagine in tessere (tipicamente si opera sulle primitive o, al più, su tile di dimensioni ridotte), l'operazione, se si hanno cache sufficientemente capienti, può essere svolta interamente on chip. Solo che il SS obbliga a ricorrere a 5 operazioni di interpolazione e al salvataggio temporaneo dei dati relativi a 4 subpixel, mentre il MS non prevede operazioni di interpolazione e permette di salvare un unico valore per tutti e 4 i subpixel. Per questo motivo, gli attuali chip sono attrezzati per effettuare filtraggio di tipo MS on chip, mentre il SS avviene ricorrendo al frame buffer per i salvataggi dei dati intermedi dell'elaborazione (salvo applicarlo su porzioni ridottissime dell'immagine stessa).
R42o ha due punti di uscita dei dati a valle del circuito di AA (come NV40 li ha all'uscita delle ROP's)
Mmm... quindi il MS ha maggiori prestazioni per due motivi:
-) utilizzando sempre lo stesso colore per sample basta fare un solo accesso a texture/framebuffer;
-) le operazioni di interpolazioni sono assenti, quindi il chip grafico fa meno lavoro.

Qualche giorno fa però lessi un'articolo (un po' vecchiotto per la verità) che metteva le cose in una luce diversa. Il link è: http://firingsquad.com/hardware/multisamp/page3.asp
Qui viene riportato come il MS consumi fill-rate per eseguire i campionamenti sull'asse Z, che deve essere renderizzato alla risoluzione imposta dal numero di sample (il che mi sembra sensato... se l'immagine viene renderizzata a una dimensione 4 volte più elevata, i valori z dei singoli subpixel non possono essere condivisi, ma ognuno avrà un suo proprio valore; giusto?).

Mi sono espresso da cani ma vado un po' di fretta... spero che mi riuscirai a capire! ;)

Ciao. :)

yossarian
08-10-2005, 15:40
ciao yoss..non ho capito peò ancora una cosa..come mai le prestazioni delle radeon x1600 calano così tanto (quasi ai livelli delle X1300) quando si appicano i filtri?

ho guardato qualche rece in cui sono comparate direttamente sullo stesso sistema e non ho riscontrato prestazioni allineate tra X1600 e X1300. Perciò, non sapendo a quali risultati fai riferimento, non so proprio cosa risponderti.
L'unica cosa che mi viene in mente è una situazione in cui le operazioni di texturing sono preponderanti (frequenti texture fetche e shader non molto lunghi) e quindi lo è, in particolare, l'impatto dell'anisotropic; in tal caso può dipendere dal fatto che entrambi i chip sono dotati di sole 4 tmu. Anche se, sinceramente, non ho avuto modo di vedere situazioni del tipo da te descritte (è anche vero che non ho guardato tutte le recensioni messe in rete :D ).

davestas
08-10-2005, 15:58
scusate ma questo non dovrebbe essere anche il thread ufficiale della GTO2, che è anch'essa una nuova scheda in commercio???Non se ne parla da nessuna parte, spero che Corsini e Vifani la considerino nei loro bench... :D :cry:

yossarian
08-10-2005, 16:01
E gli altri 2 quads presenti in RV530 quindi cosa fanno? Le TMU sono esterne, le psu sono tutte nel primo quad... :confused:




oh bella :D : eseguono calcoli matematici
Guarda i risultati di RV530 e RV515 con i ps1.1 e i ps2.0 (o successivi). Con shader meno complessi (1.x) si ha un andamento analogo, con grafico piatto. Nel passaggio agli shader 2.0, mentre RV515, R520, G70 accusano un sensibile calo nel fillrate, RV530 mantiene lo stesso fillrate fatto registrare con gli shader 1.x. Perchè avviene questo? Perchè uno shader più lungo e complesso ha bisogno di una maggior mole di calcoli, mentre con lo sm1.1 il limite è imposto dalle operazioni di texturing. Quindi, il rapporto 3:1, nei casi in cui si è shader bounded, rappresenta il valore minimo per conservare prestazioni analoghe al modello 1.x.
Il lavoro di fpu e tmu non è subordinato l'uno all'altro, ma sono unità che lavorano indipendentemente, salvo, poi, utilizzare una i dati delle elaborazioni dell'altra. Di conseguenza, il numero delle fpu è indipendente da quello delle tmu. La scelta che il progettista deve fare è solo quella di bilanciare il numero di entrambe le unità, tenendo conto del tipo di elaborazione da fare.
Non è un caso che su R500, il rapporto alu/tmu è pari a 3:1.



Mmm... quindi il MS ha maggiori prestazioni per due motivi:
-) utilizzando sempre lo stesso colore per sample basta fare un solo accesso a texture/framebuffer;
-) le operazioni di interpolazioni sono assenti, quindi il chip grafico fa meno lavoro.

Qualche giorno fa però lessi un'articolo (un po' vecchiotto per la verità) che metteva le cose in una luce diversa. Il link è: http://firingsquad.com/hardware/multisamp/page3.asp
Qui viene riportato come il MS consumi fill-rate per eseguire i campionamenti sull'asse Z, che deve essere renderizzato alla risoluzione imposta dal numero di sample (il che mi sembra sensato... se l'immagine viene renderizzata a una dimensione 4 volte più elevata, i valori z dei singoli subpixel non possono essere condivisi, ma ognuno avrà un suo proprio valore; giusto?).

Mi sono espresso da cani ma vado un po' di fretta... spero che mi riuscirai a capire! ;)

Ciao. :)

oddio, l'articolo a cui fai riferimento è un po' vecchiotto e risale al periodo in cui i chip non eseguivano early z-test. I dati relativi allo z-buffer rappresentano un problema relativo nelle operazioni di filtraggio. Il vecchio procedimento di MS prevedeva la creazione di un'immagine 4x nel frame buffer e il successivo trasferimento di dati verso la gpu; e in ogni caso, i dati relativi all'asse z erano solo 4 per pixel, mentre quelli relativi al colore sono comunque 3 (RGB)x4 per ogni pixel, più 1 relativo al canale alpha che trasporta le funzioni peso (luninanza) per ogni subpixel. Allo stato attuale, tutta l'operazione avviene on chip, senza occupazione inutile di banda.

yossarian
08-10-2005, 16:06
scusate ma questo non dovrebbe essere anche il thread ufficiale della GTO2, che è anch'essa una nuova scheda in commercio???Non se ne parla da nessuna parte, spero che Corsini e Vifani la considerino nei loro bench... :D :cry:

no, questo è il thread ufficiale dell'X-Box360

:D

andreamarra
08-10-2005, 16:07
no, questo è il thread ufficiale dell'X-Box360

:D

:rotfl:

andreamarra
08-10-2005, 16:27
questa recensione in prima pagina non c'è, non so se qualcuno l'ha fatta notare

http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm

solo che mi sembra che i valori dello SLI siano quantomeno strani, poichè a volte due GTX in SLI vanno pochissimo di più di una scheda singola. Addirittura in molti test una singola X1800XT in alcuni casi (tanti filtri e risoluzioni altissime) va meglio di due schede in SLI... :confused: [le nvidia sono testate con gli ultimi driver)

C'è anche un bench su Lost Coast dove con HDR la ati va nettamente meglio (ok, hl2 è un gioco scritto per ati...) soprattutto nei frames medi (che è l'importante).
In più, se in una rece COD2 aveva una leggera preferenza per le schede nvidia, qua la situazione è ribaltata con un enorme margine a favore della R520.
Ma anche nei fps massimi e minimi la differenza è anche troppa a favore di ati.

In sintesi: aspetto lunedì la review di Raffaele :D!

neopazzo
08-10-2005, 16:49
ragazzu...dopodomani sarà il 10 ottobre e ancora nn si sa nulla delle skede madri con supporto crossfire...nn sarà che pure stavolta arriveranno con anni di ritardo?

ciao

MaBru
08-10-2005, 16:53
Yoss,
stavo guardando le foto che ci sono nel secondo post. Mi spiegheresti perchè sul PCB del G70 c'è un discreto numero di condensatori, mentre in quello dell'R520 non ce ne sono (per quello che si può vedere)?

andreamarra
08-10-2005, 16:55
Yoss,
stavo guardando le foto che ci sono nel secondo post. Mi spiegheresti perchè sul PCB del G70 c'è un discreto numero di condensatori, mentre in quello dell'R520 non ce ne sono (per quello che si può vedere)?

tra l'altro se non sbaglio la GT ha condensatori numerosi, la versione GTX ne ha pochissimi :confused:

yossarian
08-10-2005, 17:12
Yoss,
stavo guardando le foto che ci sono nel secondo post. Mi spiegheresti perchè sul PCB del G70 c'è un discreto numero di condensatori, mentre in quello dell'R520 non ce ne sono (per quello che si può vedere)?

ci sono; sono di tipo SMD. Per curiosità, cerca in rete qualche immagine della diamond viper V550. Anche quella vga aveva condensatori smd per disaccoppiare le linee di alimentazione da quelle che trasportano il segnale.
Tra le altre cose, l'efficacia di questo tipo di disaccoppiamento diminuisce all'aumentare della frequenza.

JENA PLISSKEN
08-10-2005, 17:15
Mi...mi sta venendo il mal di testa a leggere queste ulyime pagine...complimenti a yossarian :D :D

Maury
08-10-2005, 17:29
Yoss,
stavo guardando le foto che ci sono nel secondo post. Mi spiegheresti perchè sul PCB del G70 c'è un discreto numero di condensatori, mentre in quello dell'R520 non ce ne sono (per quello che si può vedere)?

li ha rubati nVidia per analizzarli :Prrr: :D

massimomarc
08-10-2005, 17:32
http://www.driverheaven.net/reviews/r520reviewxvxv/flashers/bf2.jpg




se questi dati vengono confermati da altre rece, la x1800xt vince e non di poco rispetto alla 7800gtx.

notate anche i frame minimi, se il minimo per la gtx è di 24, per la x1800xt è di 48, il doppio.

solo 2 7800GT in sli fanno gli stessi frame medi della x1800xt. che dire, aspettiamo crossfire :D

andreamarra
08-10-2005, 17:41
http://www.driverheaven.net/reviews/r520reviewxvxv/flashers/bf2.jpg




se questi dati vengono confermati da altre rece, la x1800xt vince e non di poco rispetto alla 7800gtx.

notate anche i frame minimi, se il minimo per la gtx è di 24, per la x1800xt è di 48, il doppio.

solo 2 7800GT in sli fanno gli stessi frame medi della x1800xt. che dire, aspettiamo crossfire :D

bho... a me pare che l'unica cosa che si può dare per acquisista è che questa X1800XT prende lettaralmente il largo quanto più i giochi sono nuovi e con soprattutto risoluzioni assurde e filtri al massimo.

Però, voglio sapere come va in OC (per quel che può servire... :D) e soprattutto sapere con HDR attivo-disattivo quanto va rispetto alla GTX, e ovviamente abbinando HDR e filtri.

ma credo che per certe domande dovremo aspettare, quando una architettura è nuova i driver possono ribaltare qualuque discorso.

andreamarra
08-10-2005, 17:45
uhm... domandina...

il chip R520 riesce a gestire (non sappiamo ancora come in freddi numeri, ma lo sapremo :D) HDR e AA...

E l'Anisotropico lo si può mettere oppure no insieme al AA?

yossarian
08-10-2005, 18:02
uhm... domandina...

il chip R520 riesce a gestire (non sappiamo ancora come in freddi numeri, ma lo sapremo :D) HDR e AA...

E l'Anisotropico lo si può mettere oppure no insieme al AA?

l'anisotropico è gestito dalle tmu, l'AA dalle pixel pipeline e l'HDR dalle ROP's.
Un chip che ha tutte queste unità indipendenti può gestire i tre effetti contemporaneamente. I chip fino a G70 hanno indipendenti solo tmu e fpu, mentre le ROP's, per le operazioni in fp, dipendono dalle fpu delle pixel pipeline. Le operazioni di blending con notazione intera sono invece eseguite da un'unità a parte presente nelle rop's. I chip ATi della serie 4x0, hanno tutte e i gruppi di unità indipendenti, però solo perchè le rop's non gestiscono operazioni in floating point ma solo su interi (anche i chip NV, se consideriamo solo le operazioni su interi, hanno le rop's indipendenti dalle fpu).

Riepilogando

NV40/G70: tmu e fpu indipendenti (vero in parte perchè sappiamo che la prima fpu funge anche da texture address processor, però qui il riferimento è alla capacità di applicare o menoo i filtri); rop's indipendenti per le operazioni int, dipendenti dalle fpu per quelle in fp.
R3x0/R4x0: fpu, tmu e rop's indipendenti, con queste ultime in grado solo di eseguire operazioni int.
R520: fpu, tmu e rop's indipendenti per operazioni int e fp.

andreamarra
08-10-2005, 18:06
l'anisotropico è gestito dalle tmu, l'AA dalle pixel pipeline e l'HDR dalle ROP's.
Un chip che ha tutte queste unità indipendenti può gestire i tre effetti contemporaneamente. I chip fino a G70 hanno indipendenti solo tmu e fpu, mentre le ROP's, per le operazioni in fp, dipendono dalle fpu delle pixel pipeline. Le operazioni di blending con notazione intera sono invece eseguite da un'unità a parte presente nelle rop's. I chip ATi della serie 4x0, hanno tutte e i gruppi di unità indipendenti, però solo perchè le rop's non gestiscono operazioni in floating point ma solo su interi (anche i chip NV, se consideriamo solo le operazioni su interi, hanno le rop's indipendenti dalle fpu).


praticamente, su R520 si possono mettere insieme HDR, AA e Aniso :D, vero?

Maury
08-10-2005, 18:14
praticamente, su R520 si possono mettere insieme HDR, AA e Aniso :D, vero?


Sto R520 fa le orgie con sti effetti, se li fa tutti insieme :sofico:

è troppo perverso :D

yossarian
08-10-2005, 18:18
praticamente, su R520 si possono mettere insieme HDR, AA e Aniso :D, vero?

si; tutto sta a vedere con quale hit prestazionale

Taurus19-T-Rex2
08-10-2005, 18:28
Ati X1800XL disponibili in USA 387 euro :eek:

ma dai forse è il preordine............................cmq............. link in PVT??

T3d
08-10-2005, 18:31
Ati X1800XL disponibili in USA 387 euro :eek:
veramente c'è uno shop online USA che la vende a 345,82€ :read:

JENA PLISSKEN
08-10-2005, 18:41
Sto R520 fa le orgie con sti effetti, se li fa tutti insieme :sofico:

è troppo perverso :D

Beh...un' orgia di ELEVATA QUALITA' :O :O

andreamarra
08-10-2005, 18:48
qua un'altra rece, non mi pare sia in prima pagina nè sia stata segnalata.
Non so se è di parte o meno

http://www.tbreak.com/reviews/article.php?cat=grfx&id=407&pagenumber=1

Maury
08-10-2005, 18:49
Beh...un' orgia di ELEVATA QUALITA' :O :O

:cool: :cool: :cool: :cool: :cool:

Jaguar64bit
08-10-2005, 18:54
Sto R520 fa le orgie con sti effetti, se li fa tutti insieme :sofico:

è troppo perverso :D

E' la prima vga erotica della storia.... :D :D :O

shodan
08-10-2005, 19:36
oh bella :D : eseguono calcoli matematici
Guarda i risultati di RV530 e RV515 con i ps1.1 e i ps2.0 (o successivi). Con shader meno complessi (1.x) si ha un andamento analogo, con grafico piatto. Nel passaggio agli shader 2.0, mentre RV515, R520, G70 accusano un sensibile calo nel fillrate, RV530 mantiene lo stesso fillrate fatto registrare con gli shader 1.x. Perchè avviene questo? Perchè uno shader più lungo e complesso ha bisogno di una maggior mole di calcoli, mentre con lo sm1.1 il limite è imposto dalle operazioni di texturing. Quindi, il rapporto 3:1, nei casi in cui si è shader bounded, rappresenta il valore minimo per conservare prestazioni analoghe al modello 1.x.
Il lavoro di fpu e tmu non è subordinato l'uno all'altro, ma sono unità che lavorano indipendentemente, salvo, poi, utilizzare una i dati delle elaborazioni dell'altra. Di conseguenza, il numero delle fpu è indipendente da quello delle tmu. La scelta che il progettista deve fare è solo quella di bilanciare il numero di entrambe le unità, tenendo conto del tipo di elaborazione da fare.
Non è un caso che su R500, il rapporto alu/tmu è pari a 3:1.

Mmm... aspetta, fammi capire... che tmu e psu siano indipendenti è assodato (nel senso che si capisce molto bene dalle slide che circolano in rete), quello che volevo capire è se in RV530 anche gli altri quads compiono operazioni di shading oppure no. Il mio dubbio nasce dal fatto che ho letto che RV530 ha si 12 unità ps, ma tutte concentrate in un unico quad. Dato che di quad ne ha altri 2 (o così mi è parso di capire), questi 2, essendo senza unità ps, cosa fanno? Oppure ho capito male io e RV530 ha 1 solo quad, che però è equipaggiato con 12 ps unit? In rete pare esserci un po' di confusione al riguardo...


oddio, l'articolo a cui fai riferimento è un po' vecchiotto e risale al periodo in cui i chip non eseguivano early z-test. I dati relativi allo z-buffer rappresentano un problema relativo nelle operazioni di filtraggio. Il vecchio procedimento di MS prevedeva la creazione di un'immagine 4x nel frame buffer e il successivo trasferimento di dati verso la gpu; e in ogni caso, i dati relativi all'asse z erano solo 4 per pixel, mentre quelli relativi al colore sono comunque 3 (RGB)x4 per ogni pixel, più 1 relativo al canale alpha che trasporta le funzioni peso (luninanza) per ogni subpixel. Allo stato attuale, tutta l'operazione avviene on chip, senza occupazione inutile di banda.
Interessante, non avevo preso in considerazione l'early z per la rimozione delle superfici nascoste... vedrò di documentarmi meglio. Hai un qualche articolo aggiornato sull'AA MS?

Ciao grazie come al solito! :)

andreamarra
08-10-2005, 20:52
ovviamente sarebbe interessante sapere anche la rumorosità delle ventole!

A me non frega, primo perchè non c'ho i soldi per prenderle :asd:, e poi perchè se la prendessi metterei un dissipatore migliore e silenzioso.

neopazzo
08-10-2005, 20:56
ovviamente sarebbe interessante sapere anche la rumorosità delle ventole!

A me non frega, primo perchè non c'ho i soldi per prenderle :asd:, e poi perchè se la prendessi metterei un dissipatore migliore e silenzioso.

pensa te che rosicamento..io tengo i soldi e nn posso prenderla sta benedetta x1800xt.... quando arriva novembre!! ! ! !

andreamarra
08-10-2005, 20:59
pensa te che rosicamento..io tengo i soldi e nn posso prenderla sta benedetta x1800xt.... quando arriva novembre!! ! ! !

:D

che scheda hai attualmente?

neopazzo
08-10-2005, 21:01
:D

che scheda hai attualmente?


S3 TRIO :muro: :muro: :muro: ho venduto la mia 6600gt

adesso riesco malapena a scrivere sul forum ...questa skeda ha risoluzioni da graffiti tipo cavernicolo...le lettere sono giganti :D

devo mettermi infondo alla stanza per leggere i post!

andreamarra
08-10-2005, 21:06
S3 TRIO :muro: :muro: :muro: ho venduto la mia 6600gt

adesso riesco malapena a scrivere sul forum ...questa skeda ha risoluzioni da graffiti tipo cavernicolo...le lettere sono giganti :D

devo mettermi infondo alla stanza per leggere i post!


vabbhè dai, la s3 trio va ancora bene per il software presente... :) basta giusto eliminare i filtri e i giochi vanno bene :)



:rotfl:



bhè, un mesetto passa in fretta, spero però che non ci siano problemi di reperibilità delle schede :sperem:

beato te che però poi tra un mese la brandisci tra le mani :D!

neopazzo
08-10-2005, 21:21
vabbhè dai, la s3 trio va ancora bene per il software presente... :) basta giusto eliminare i filtri e i giochi vanno bene :)



:rotfl:



bhè, un mesetto passa in fretta, spero però che non ci siano problemi di reperibilità delle schede :sperem:

beato te che però poi tra un mese la brandisci tra le mani :D!
mha..sono scettico...nn arrivano nemmeno le skede madre per il crossfire
bha...sono scettico, nn sulle potenzialità di questa scheda che mi appare bestiale, masul supporto in generale ....
as esempio devo cmabiare la mia a8n sli deuxe con una dfi per sfruttare bene le rammettine...bha...vuoi mettere che se prendo una x1800 nn volgio castrarmi l'opportunità di fare il crossfire?...invece ..nn si sa nulla di nulla :(

uff uff

andreamarra
08-10-2005, 21:25
mha..sono scettico...nn arrivano nemmeno le skede madre per il crossfire
bha...sono scettico, nn sulle potenzialità di questa scheda che mi appare bestiale, masul supporto in generale ....
as esempio devo cmabiare la mia a8n sli deuxe con una dfi per sfruttare bene le rammettine...bha...vuoi mettere che se prendo una x1800 nn volgio castrarmi l'opportunità di fare il crossfire?...invece ..nn si sa nulla di nulla :(

uff uff

io sono aperto alle nuove tecnologie, ma sia lo SLI che il Crossfire le considero tecnologie inutili.

T3d
08-10-2005, 21:31
mha..sono scettico...nn arrivano nemmeno le skede madre per il crossfire
bha...sono scettico, nn sulle potenzialità di questa scheda che mi appare bestiale, masul supporto in generale ....
as esempio devo cmabiare la mia a8n sli deuxe con una dfi per sfruttare bene le rammettine...bha...vuoi mettere che se prendo una x1800 nn volgio castrarmi l'opportunità di fare il crossfire?...invece ..nn si sa nulla di nulla :(

uff uff
in un forum del settore, stanno aspettando a giorni le schede crossfire prodotte da DFI. Alcuni utenti hanno contattato persone dentro alla casa taiwanese e hanno sentito che stanno preparando due tipi di schede crossfire, una a 4 layer e un'altra a 6 layer. Hanno aggiunto che erano miglliori delle controparti nforce.
Questo è il post:
http://www.xtremesystems.org/forums/showpost.php?p=1074405&postcount=479
una manna per chi ha intenzione di farsi un sistemino crossfire :D
bye

maxpower21
09-10-2005, 00:09
io sono aperto alle nuove tecnologie, ma sia lo SLI che il Crossfire le considero tecnologie inutili.
Più che inutili le trovo dannose per i consumatori.
Già i costi di una singola scheda sono altissimi.. Se si offre la possibilità agli sviluppatori di poter sfruttare in fondo 2 schede non ci si starà veramente più dietro..
Quando ho visto come gira il demo di F.E.A.R. sulla mia bella 6800GT mi sono un po' alterato :muro:

yossarian
09-10-2005, 00:26
Mmm... aspetta, fammi capire... che tmu e psu siano indipendenti è assodato (nel senso che si capisce molto bene dalle slide che circolano in rete), quello che volevo capire è se in RV530 anche gli altri quads compiono operazioni di shading oppure no. Il mio dubbio nasce dal fatto che ho letto che RV530 ha si 12 unità ps, ma tutte concentrate in un unico quad. Dato che di quad ne ha altri 2 (o così mi è parso di capire), questi 2, essendo senza unità ps, cosa fanno? Oppure ho capito male io e RV530 ha 1 solo quad, che però è equipaggiato con 12 ps unit? In rete pare esserci un po' di confusione al riguardo...



forse è il caso di impostare il ragionamento su basi diverse; è opportuno ragionare in termini di thread.
R520 gestisce 512 thread contemporaneamente, suddivisi, in 4 gruppi da 128 ciascuno.
Ognuno di questi thread è assegnato a un gruppo di 4 fpu (quad).Quindi, un quad, composto di 4 fpu, opera su 128 thread.
RV530 gestisce solo 128 thread e, per farlo, ha a disposizione 3 quad. Sgombriamo il campo da ogni equivoco: le 12 alu non sono tutte raggruppate in un quad (che allora non sarebbe più tale, poichè quad è un termine mutuato dall'inglese che sta per quartetto). Le 12 alu di RV530 sono suddivise in 3 quad. Quindi RV530 ha 12 fpu che si occupano di 128 thread, con un rapporto di 3:1 rispetto a R520.
R580, pur gestendo ancora 512 thread, dovrebbe avere una configurazione tipo quella di RV530: ossia 3 quad, ossia 12 fpu, per ogni 128 thread. Quindi, 4 gruppi di unità di calcolo, ognuna dedicata a 128 thread come R520, ma ogni gruppo composto da 12 unità, come RV530

BoogeyMan
09-10-2005, 00:55
forse è il caso di impostare il ragionamento su basi diverse; è opportuno ragionare in termini di thread.
R520 gestisce 512 thread contemporaneamente, suddivisi, in 4 gruppi da 128 ciascuno.
Ognuno di questi thread è assegnato a un gruppo di 4 fpu (quad).Quindi, un quad, composto di 4 fpu, opera su 128 thread.
RV530 gestisce solo 128 thread e, per farlo, ha a disposizione 3 quad. Sgombriamo il campo da ogni equivoco: le 12 alu non sono tutte raggruppate in un quad (che allora non sarebbe più tale, poichè quad è un termine mutuato dall'inglese che sta per quartetto). Le 12 alu di RV530 sono suddivise in 3 quad. Quindi RV530 ha 12 fpu che si occupano di 128 thread, con un rapporto di 3:1 rispetto a R520.
R580, pur gestendo ancora 512 thread, dovrebbe avere una configurazione tipo quella di RV530: ossia 3 quad, ossia 12 fpu, per ogni 128 thread. Quindi, 4 gruppi di unità di calcolo, ognuna dedicata a 128 thread come R520, ma ogni gruppo composto da 12 unità, come RV530


sara l'orario, ma ci credi k nn c'ho capito na mazza? :muro: :muro: :muro: :help:

andreamarra
09-10-2005, 01:13
sara l'orario, ma ci credi k nn c'ho capito na mazza? :muro: :muro: :muro: :help:

non ti preoccupare, anche se lo rileggi domani mattina quando sarai riposato... non ci capirai una minchia lo stesso :sofico:!


cmq te lo semplifico io il tutto :)

با تمام مزايا ومعايبش ما را دوسال تحمل کرد . چيز های زيادی از اين ديار توشه راهم


:asd: :D

picard88
09-10-2005, 08:04
non ho avuto modo di vedere situazioni del tipo da te descritte (è anche vero che non ho guardato tutte le recensioni messe in rete :D ).
no bè..ho esagerato un po' col paragone alla X1300 :D ..era solo xkè avevo notato un consistente calo di framerate attivando i filtri...quindi questo può essere imputato alle 4 tmu o anche al controller a 128 bit che limita la banda di memoria?

lups79
09-10-2005, 09:53
é mattina ho fatto una bella dormita ma non ci ho capito nulla neanche io!!! :D :D

halduemilauno
09-10-2005, 10:41
x1800xt.
http://www.xbitlabs.com/articles/video/display/radeon-x1800.html
x1600xt.
http://www.xbitlabs.com/articles/video/display/radeon-x1600.html
;)

Tetsujin
09-10-2005, 11:09
signori mieri, con 90 fps a SC3, ho trovato la mia prossima scheda :eek:

http://www.xbitlabs.com/images/video/radeon-x1800/Scell_candy.gif

ora resta solo piu da trovare i soldi :asd:

edit: ma in sta tabella, gli fps sono quelli scritti in nero o quelli in bianco? :mbe:

andreamarra
09-10-2005, 11:22
in quella rece postata da hal2001 trovo alcune cose strane.

Ad esempio, sta cosa del "pure speed"... lo stesso gioco con pure speed ha risultati di un certo tipo (pareggio o vittoria di misura della nvidia), però poi nei benchmarks effettivi, soprattutto ad alta risoluzione e con tanti filtri, la X1800XT prende letteralmente a schiaffi qualunque scheda.

Poi, non capisco perchè usare il multiplayer beta di Fear e non anche il single player di fear.

In alcuni test, la X850PE va addirittura meglio della X1800XL, e va pari alla nvidia più potente.

Riddick: se non ho capito male, la ati non va male per il fatto degli OGL, quanto per il fatto che il gioco non riconosce la scheda video. Si apettano patch. Ma anche se mi fa quei fps... va bene lo stesso.

Hl2: qua la rece dà vantaggio alla nvidia, in tutte le altre è il contrario :confused:

poi come conclusioni, il sito dice che la nuova ati è più potente e tecnologicamente più avanzata.

bho, non ci capisco na fava :sofico:!

DevilMalak
09-10-2005, 11:24
signori mieri, con 90 fps a SC3, ho trovato la mia prossima scheda :eek:

http://www.xbitlabs.com/images/video/radeon-x1800/Scell_candy.gif

ora resta solo piu da trovare i soldi :asd:

edit: ma in sta tabella, gli fps sono quelli scritti in nero o quelli in bianco? :mbe:

probabilmente gli fps scritti in bianco sono gli fps minimi.

halduemilauno
09-10-2005, 11:25
altra rece. in italiano.
http://hardware.multiplayer.it/articoli.php3?id=12413
;)

Tetsujin
09-10-2005, 11:28
in quella rece postata da hal2001 trovo alcune cose strane.

Ad esempio, sta cosa del "pure speed"... lo stesso gioco con pure speed ha risultati di un certo tipo (pareggio o vittoria di misura della nvidia), però poi nei benchmarks effettivi, soprattutto ad alta risoluzione e con tanti filtri, la X1800XT prende letteralmente a schiaffi qualunque scheda.

Poi, non capisco perchè usare il multiplayer beta di Fear e non anche il single player di fear.

In alcuni test, la X850PE va addirittura meglio della X1800XL, e va pari alla nvidia più potente.

Riddick: se non ho capito male, la ati non va male per il fatto degli OGL, quanto per il fatto che il gioco non riconosce la scheda video. Si apettano patch. Ma anche se mi fa quei fps... va bene lo stesso.

Hl2: qua la rece dà vantaggio alla nvidia, in tutte le altre è il contrario :confused:

poi come conclusioni, il sito dice che la nuova ati è più potente e tecnologicamente più avanzata.

bho, non ci capisco na fava :sofico:!

anche io ho notato delle stranezze, e per esperienza possi dirvi che gli fps a SC3 1024x768 AA4x AF16x su una X850 XT PE non sono assolutamente quelli della tabella (magari!) quindi mi sa che è una rece un po farlocca :mbe:

Tetsujin
09-10-2005, 11:30
probabilmente gli fps scritti in bianco sono gli fps minimi.

si puo' essere pero' in altre tabelle (ad esempio BF2) non ci sono i numeretti in bianco, secondo me puo' essere un errore di impaginazione

andreamarra
09-10-2005, 11:31
altra rece. in italiano.
http://hardware.multiplayer.it/articoli.php3?id=12413
;)

ottimo!

peccato però che a quanto vedo siano pochi i giochi usati per il bench :( (delle ati non dicono se usano i 5.9 o i 5.10 beta)

però la parte tecnica in italiano fa sempre bene da leggere :D!

belin
09-10-2005, 11:32
...aggiunte tutte le recensioni, un grazie a chi le ha segnalate. ;)

...ciao!

Andrea87
09-10-2005, 11:42
mai viste delle immagini tanto belle!!!!! E anche le prestazioni sono veramente buone, smentiscono tutti i gufi che davano l'r520 come un preogetto già fallito!
L'unica cosa che mi viene da chiedere è: PERCHè NON AGP??? capisco che ci possano essere dei colli di bottiglia per via dei proci non troppo potenti, ma io che ho un ottimo barton-m@2700mhz e che non voglio cambiare tutto il pc, se ci fosse stata agp ci avrei fatto + di un pensierino.....

belin
09-10-2005, 11:58
...aggiornato il secondo post in prima pagina con un pò d'immagini delle nuove X1800.

...ciao!

andreamarra
09-10-2005, 12:02
mai viste delle immagini tanto belle!!!!! E anche le prestazioni sono veramente buone, smentiscono tutti i gufi che davano l'r520 come un preogetto già fallito!
L'unica cosa che mi viene da chiedere è: PERCHè NON AGP??? capisco che ci possano essere dei colli di bottiglia per via dei proci non troppo potenti, ma io che ho un ottimo barton-m@2700mhz e che non voglio cambiare tutto il pc, se ci fosse stata agp ci avrei fatto + di un pensierino.....

puoi fare come me... via l'nforce2+barton e prendo l'asrock ULI (che praticamente va come una nforce4, a volte anche di più) e un venice. Ovviamente vendendo il vecchio processore e a vecchia mainboard su ebay.

la asrock in questione ha doppio slot agp/pciexpress, socket 939 ma si potranno montare anche i proci nuovi 940 e DDRII...

costa meno della metà di una DFI ultra... :D

MaBru
09-10-2005, 12:24
Poi, non capisco perchè usare il multiplayer beta di Fear e non anche il single player di fear.
Solo nel multiplayer c'è l'utility di benchmark

andreamarra
09-10-2005, 12:31
Solo nel multiplayer c'è l'utility di benchmark

ah, non lo sapevo :sofico:

cmq sono strani lo stesso quei valori, non in linea con tutte le altre rece che dichiaravano prestazioni assurde in fear per la ati.

vabbò, domani ne sapremo di più!

Vifani
09-10-2005, 13:22
Allora ragazzi un piccolo aggiornamento sullo stato dell'articolo.

Non usciremo domani perché abbiamo aggiunto una serie test che ci stanno portando via un bel po di tempo. Vi posso anticipare qualcosa che troverete nell'articolo e che non abbiamo mai fatto prima e, in alcuni casi, non ho visto da nessuna altra parte.

-test a 1920x1440 con e senza filtri
-test di Splinter Cell Chaos Theory con HDR
-screenshots e test di Far Cry con HDR
-screenshots e test di Far Cry con HDR + AA
-test con Call Of Duty 2 Demo
-analisi efficienza, scalabilità, overclock, rumorosità e consumi

Non troverete i test con FEAR. Dopo una lunga analisi abbiamo constatato che non si tratta di una demo molto stabile: il comportamento di alcune schede era anomalo con alcuni settaggi e a volte c'erano anche degli artefatti grafici (specie con le soft shadows). Inoltre NVIDIA stessa ci ha chiesto di non usare la demo in quanto la versione finale del gioco avrà prestazioni ben differenti (e noi pensiamo che questo valga anche per R520 visto che stiamo usando i primissi driver che lo supportano e sono solo beta).

Non troverere alcuna analisi di AVIVO in quanto i driver attuali purtroppo hanno una qualità di riproduzione video molto scadente. Ovviamente si tratta di una problematica dovuta alla immaturità dei driver e alla nuova architettura del processore video di R520. Valuteremo questo aspetto con un articolo dedicato alla riproduzione video una volta che la situazione si stabilizzerà.

Eddie666
09-10-2005, 13:35
Allora ragazzi un piccolo aggiornamento sullo stato dell'articolo.

Non usciremo domani perché abbiamo aggiunto una serie test che ci stanno portando via un bel po di tempo. Vi posso anticipare qualcosa che troverete nell'articolo e che non abbiamo mai fatto prima e, in alcuni casi, non ho visto da nessuna altra parte.

-test a 1920x1440 con e senza filtri
-test di Splinter Cell Chaos Theory con HDR
-screenshots e test di Far Cry con HDR
-screenshots e test di Far Cry con HDR + AA
-test con Call Of Duty 2 Demo
-analisi efficienza, scalabilità, overclock, rumorosità e consumi

Non troverete i test con FEAR. Dopo una lunga analisi abbiamo constatato che non si tratta di una demo molto stabile: il comportamento di alcune schede era anomalo con alcuni settaggi e a volte c'erano anche degli artefatti grafici (specie con le soft shadows). Inoltre NVIDIA stessa ci ha chiesto di non usare la demo in quanto la versione finale del gioco avrà prestazioni ben differenti (e noi pensiamo che questo valga anche per R520 visto che stiamo usando i primissi driver che lo supportano e sono solo beta).

Non troverere alcuna analisi di AVIVO in quanto i driver attuali purtroppo hanno una qualità di riproduzione video molto scadente. Ovviamente si tratta di una problematica dovuta alla immaturità dei driver e alla nuova architettura del processore video di R520. Valuteremo questo aspetto con un articolo dedicato alla riproduzione video una volta che la situazione si stabilizzerà.

non c'e' problema:abbiamo aspettato tanto per questa scheda,che qualche giorno in piu' non costituisce certo un problema (a maggior ragione se il ritardo e' dovuto al fatto di analizzare ancora piu' nel dettaglio la stessa) ;)
personalmente "-analisi efficienza, scalabilità, overclock, rumorosità e consumi' e' un insieme di elementi che mi interessano molto,e sono contento che siano stato tenuti in conto in sede di test....
acc..certo che test a 1920x1440...impensabili fino a poco tempo fa! :eek:

andreamarra
09-10-2005, 13:36
ottimo ottimo :oink:!


buon lavoro!

maxpower21
09-10-2005, 14:41
-test a 1920x1440 con e senza filtri

Ottimo! Finalmente dei test con quelle risoluzioni! Devo proprio decidere in questi giorni l'acquisto di un monitor 24" Widescreen e quei numeri saranno di grande aiuto

yossarian
09-10-2005, 14:54
no bè..ho esagerato un po' col paragone alla X1300 :D ..era solo xkè avevo notato un consistente calo di framerate attivando i filtri...quindi questo può essere imputato alle 4 tmu o anche al controller a 128 bit che limita la banda di memoria?

all'uno o alle altre a seconda dei casi; quando non ci sono molti calcoli matematici da eseguire (shader meno complessi) e, al contrario, ci sono molte operazioni di texturing, le 4 tmu possono limitare le prestazioni. Con i filtri attivi e le alte risoluzioni, si può essere anche bandwidth limited, anche se questo secondo limite, proprio in virtù dell'esiguo numero di tmu, incide molto meno (comunemente sono le operazioni di texturing a richiedere più banda passante), come di mostra il fatto che ad alte risoluzioni le prestazioni calano ma non al punto da allinearsi a quelle della X1300.

JENA PLISSKEN
09-10-2005, 15:52
Allora ragazzi un piccolo aggiornamento sullo stato dell'articolo.

Non usciremo domani perché abbiamo aggiunto una serie test che ci stanno portando via un bel po di tempo. Vi posso anticipare qualcosa che troverete nell'articolo e che non abbiamo mai fatto prima e, in alcuni casi, non ho visto da nessuna altra parte.

-test a 1920x1440 con e senza filtri
-test di Splinter Cell Chaos Theory con HDR
-screenshots e test di Far Cry con HDR
-screenshots e test di Far Cry con HDR + AA
-test con Call Of Duty 2 Demo
-analisi efficienza, scalabilità, overclock, rumorosità e consumi

Non troverete i test con FEAR. Dopo una lunga analisi abbiamo constatato che non si tratta di una demo molto stabile: il comportamento di alcune schede era anomalo con alcuni settaggi e a volte c'erano anche degli artefatti grafici (specie con le soft shadows). Inoltre NVIDIA stessa ci ha chiesto di non usare la demo in quanto la versione finale del gioco avrà prestazioni ben differenti (e noi pensiamo che questo valga anche per R520 visto che stiamo usando i primissi driver che lo supportano e sono solo beta).

Non troverere alcuna analisi di AVIVO in quanto i driver attuali purtroppo hanno una qualità di riproduzione video molto scadente. Ovviamente si tratta di una problematica dovuta alla immaturità dei driver e alla nuova architettura del processore video di R520. Valuteremo questo aspetto con un articolo dedicato alla riproduzione video una volta che la situazione si stabilizzerà.


Interessante...x la demo di FEAR ne ero praticamente convinto...troppo acerba ;)

Captain_mason
09-10-2005, 16:09
credevo che il chip r520 avrebbe fatto miracoli e invece dai primi test si nota che i risultati sono uguali a quella della 7800gtx :O
e perfortuna ho scelto la soluzione di nvidia a quella di ati,per nn parlare dei risultati finanziari negativi per ati,a me invece interesserebe una cosa quali sono i bench di 2 x1800xt?qualcuno ne sa qualcosa?

andreamarra
09-10-2005, 16:24
Interessante...x la demo di FEAR ne ero praticamente convinto...troppo acerba ;)

in effetti, troppo disavanzo tra la ati e la nvidia in questa demo.

Gioco ancora non ultimato, driver ati ancora acerbi, idem per nvidia anche se è da questo punto di vista sta volta è messa meglio rispetto a NV40.

T3d
09-10-2005, 16:31
credevo che il chip r520 avrebbe fatto miracoli e invece dai primi test si nota che i risultati sono uguali a quella della 7800gtx :O
e perfortuna ho scelto la soluzione di nvidia a quella di ati,per nn parlare dei risultati finanziari negativi per ati,a me invece interesserebe una cosa quali sono i bench di 2 x1800xt?qualcuno ne sa qualcosa?
ma sei proprio sicuro che siano uguali le prestazioni :asd:? io aspetterei la recensione di HWU per giudicare :asd:.
Una cosa vorrei capire... ma tu scegli i prodotti da comprare in base alla situazione finanziaria della società produttrice? :rolleyes:
Rispondendo alla tua domanda... ati non ha ancora distribuitola versione crossfire della x1800xt... quindi ciccia :read:

bye

andreamarra
09-10-2005, 16:34
credevo che il chip r520 avrebbe fatto miracoli e invece dai primi test si nota che i risultati sono uguali a quella della 7800gtx :O
e perfortuna ho scelto la soluzione di nvidia a quella di ati,per nn parlare dei risultati finanziari negativi per ati,a me invece interesserebe una cosa quali sono i bench di 2 x1800xt?qualcuno ne sa qualcosa?

Sinceramente per me ha fatto un miracolo la ati, esattamente come lo aveva fatto la nvidia con NV40.

L'architettura dell'R520 è la più tecnologicamente avanzata in questo momento. Ed è anche il chip grafico più potente nel settore PC per ora. Non è vero che le prestazioni sono uguali come dici tu, in vari test a certe risoluzioni e filtri la scheda ati prende letteralmente il largo in diversi game. Con driver ancora non definitivi.

Costruttivamente hanno fatto il grande salto dei 0.09 micron, e non è una bazzecola.

Ha una efficienza superiore, e non di poco, rispetto alla scheda nvidia (questo l'ho tratto da un post di yossarian su nvitalia, con circa il 20-25% di efficienza in più per il chip R520 rispetto a G70).

Ha una qualità grafica superiore grazie al suo anisotropico per qualunque angolazione. Avere una scena a cento fps e poi non avere applicato bene l'anisotropico.. non è che me ne freghi molto.

Ha implementato finalmente gli shader 3.0 che adesso cominciano ad essere utilizzati.

Gestisce (da vedere come) HDR e AAA simultaneamente, cosa che non fa la G70.

Lavora a fp32 invece dei vecchi 24fp degli altri chip ati (fino al R420). La G70 invece, come gli altri chip nvidia, lavora ancora in modalità mista fp32/fp16. [se non c'è banding, nessun problema comunque. E mi pare non ci sia banding]

Ha finezze tecniche come il rig bus 512 e controllo di memoria configurabile da driver in base al gioco.

Ha inserito l'AVIVO.

Dei dati finanziari: a noi da utenti non credo interessi molto, in fondo la nvidia ha il vantaggio di avere da diversi anni chip nforce e lo sli con la versione 4 di nforce, la ati sta uscendo ora con il crossfire e il suo nuovo chip di scheda madre. Ha un chip, il R500 per xbox360 che è ancora più avanzato di R520, quindi ha già pronto un chip a pipeline e vertex unificate.

Se non si può parlare di "miracolo"... :D

se ne uscita con un progetto altamente innovativo (non rivoluzionario, ma innovativo), colmando le lacune del chip precedente (anzi addirittura facendo meglio di nvidia, vedi HDR e AAA insieme), diminuendo ancora il dazio dei filtri (la scheda è rocciosa anche con filtraggi assurdi e risoluzioni da capogiro), migliorando la qualità visiva. E il tutto facendoci giocare a frame rate disumani. Cosa doveva fare di più?

dalle voci paventate in estate e fino a settembre, la ati sembrava aver fatto un enorme buco nell'acqua. A me non pare.

Maury
09-10-2005, 16:47
A me non pare.

manco a me pare :mano:

T3d
09-10-2005, 16:48
:ave:

ottimo post :cool:
per me era un messaggio di autoconvincimento quello di Captain_mason :asd:

andreamarra
09-10-2005, 16:59
io cmq non capisco, sarò strato io...

ai tempi di NV40, e il v-bulletin mi è testimone, ero titubante perchè volevo vedere bene con il tempo come questo chip andava a livello prestazionale e soprattutto a livello tecnologico. Avevo timori (vedi banding e problematiche con giochi sm3.0). Ho aspettato e dato un giudizio: tra un R420 e un NV40 meglio sicuramente NV40. Punto.

Se dovevo consigliare una scheda video, e l'ho fatto, consigliavo la 6800GT, la migliore scheda video per prestazioni-prezzo. La cloccavi, e andava come una Ultra. Fantastica!

Ora vedendo bench, caratteristiche tecniche e supporto dei gioci, esattamente come allora ho dei dubbi (come andrà con HDR? -anche sei test sintetici dicoo che la scheda va da dio, anche nel branching- e HDR +AA lo regge o sprofonda?), aspetto ancora la rece di HWUpgrade ma mi sento fin da adesso di dire che il R520 è meglio di G70.

E se devo consigliare una scheda video, consiglio la X1800XT.


una cosa da dire: nella fascia in mezzo credo che le nvidia ancora siano migliori come prestazioni prezzo.

andreamarra
09-10-2005, 17:04
in ogni caso tra tutte le review che ho letto (e sono tante) tutte quante concludono con un "senza alcun dubbio la X1800XT è la più avanzata per quanto concerne l'architettura grafica, oltre che essere la più potente".

Un motivo ci sarà, no?

Anche per R420 dicevano le review che la ati era sostanzialmente in vantaggio a livello di performance, ma la NV40-G70 avevani una architettura più avanzata e potevano gestire effetti e render che la ati non poteva affrontare".

shodan
09-10-2005, 17:08
forse è il caso di impostare il ragionamento su basi diverse; è opportuno ragionare in termini di thread.
R520 gestisce 512 thread contemporaneamente, suddivisi, in 4 gruppi da 128 ciascuno.
Ognuno di questi thread è assegnato a un gruppo di 4 fpu (quad).Quindi, un quad, composto di 4 fpu, opera su 128 thread.
RV530 gestisce solo 128 thread e, per farlo, ha a disposizione 3 quad. Sgombriamo il campo da ogni equivoco: le 12 alu non sono tutte raggruppate in un quad (che allora non sarebbe più tale, poichè quad è un termine mutuato dall'inglese che sta per quartetto). Le 12 alu di RV530 sono suddivise in 3 quad. Quindi RV530 ha 12 fpu che si occupano di 128 thread, con un rapporto di 3:1 rispetto a R520.
R580, pur gestendo ancora 512 thread, dovrebbe avere una configurazione tipo quella di RV530: ossia 3 quad, ossia 12 fpu, per ogni 128 thread. Quindi, 4 gruppi di unità di calcolo, ognuna dedicata a 128 thread come R520, ma ogni gruppo composto da 12 unità, come RV530

Perfetto, ora ci siamo... è che in diverse recensioni ho letto che tutte le 12 unità ps fossero raggruppate in un unico quad (che ovviamente a questo punt o non doveva chiamarsi più quad... :D) e quindi non capivo cosa potevano fare gli altri 2 quad "inutilizzati"! ;)
Per il discorso MS AA, hai qualche link di carattere tecnico da fornirmi?

Ciao grazie mille! :)

Felle
09-10-2005, 17:15
ma la x1800xt da quanto visto nella prima pagina e gironzolando in rete sembra che tutti i produttori utilizzeranno il super e ingombrante dissipatore...

ci sarà mai una versione a singolo slot......???

per me sarebbe un problema con la mia asus a8n - sli deluxe visto che al posto della ventolina del Northbridge ho messo un dissipatore passivo
ZALMAN ZM-NB47J :mc: .....

sapete per caso se la scheda si potrà montare sullo slot pci-express sotto???

visto che la mia scheda madre ne ha 2 di slot???

mi scoccerebbe smontare il dissi passivo per rimpiazzarlo con una ventolina ronzante per poterci far stare la x1800xt e il suo sitema di raffreddamento gigante...... :muro:

T3d
09-10-2005, 17:23
@Felle
http://www.sapphiretech.com/en/products/graphics_specifications.php?gpid=122
Single slot cooling solution :D

bye

Vifani
09-10-2005, 17:24
ma la x1800xt da quanto visto nella prima pagina e gironzolando in rete sembra che tutti i produttori utilizzeranno il super e ingombrante dissipatore...

ci sarà mai una versione a singolo slot......???

per me sarebbe un problema con la mia asus a8n - sli deluxe visto che al posto della ventolina del Northbridge ho messo un dissipatore passivo
ZALMAN ZM-NB47J :mc: .....

sapete per caso se la scheda si potrà montare sullo slot pci-express sotto???

visto che la mia scheda madre ne ha 2 di slot???

mi scoccerebbe smontare il dissi passivo per rimpiazzarlo con una ventolina ronzante per poterci far stare la x1800xt e il suo sitema di raffreddamento gigante...... :muro:

Sapphire afferma di fare una versione a singolo slot: http://www.sapphiretech.com/en/products/graphics_specifications.php?gpid=122

andreamarra
09-10-2005, 17:28
forse la sapphire intende dire che il sistema di raffredamento è a un singolo slot... peccato però poi che la scheda ne occupa un'altro :D :sofico:!!!

cmq in trasperenza si vede la scheda sulle specifiche tecniche, singolo slot.

yossarian
09-10-2005, 17:36
Perfetto, ora ci siamo... è che in diverse recensioni ho letto che tutte le 12 unità ps fossero raggruppate in un unico quad (che ovviamente a questo punt o non doveva chiamarsi più quad... :D) e quindi non capivo cosa potevano fare gli altri 2 quad "inutilizzati"! ;)
Per il discorso MS AA, hai qualche link di carattere tecnico da fornirmi?
Ciao grazie mille! :)

purtroppo al momento non ho niente al riguardo

ciao

JENA PLISSKEN
09-10-2005, 17:37
Sapphire afferma di fare una versione a singolo slot: http://www.sapphiretech.com/en/products/graphics_specifications.php?gpid=122

Cmq quella che si vedo sullo sfondo ...la 512mb x intenderci è a doppio ;)...e qui la 5800 ha fatto SCUOLA...incredibile...quella scheda ha segnato il futuro delle VGA :eekk: :eekk: :eekk: :eekk: col dual slot cooling :O :O


e dire che l' abbiamo schifata TUTTI :O :O


















:sofico: :sofico:

Teschio
09-10-2005, 17:41
-test a 1920x1440 con e senza filtri
-test di Splinter Cell Chaos Theory con HDR
-screenshots e test di Far Cry con HDR
-screenshots e test di Far Cry con HDR + AA
-test con Call Of Duty 2 Demo
-analisi efficienza, scalabilità, overclock, rumorosità e consumi



E alla risoluzione di 2048x1536 nulla ??? :(

A chi ha un CRT da 19 o 21" può interessare.
...O almeno a me interesserebbe.

Captain_mason
09-10-2005, 17:49
bhe io nn ho detto che la 7800 è una scheda di ultima generazione e nn ho nemmeno detto che la x1800 lo sia,infatti nn lo è..è questo quello che volevo dire,e nn ho detto nemmeno che la 7800 sia + potente della x1800 se no che l'avrebbero fatta a fare? :sofico:,ho semplicemente detto che la scheda in questione nn è una scheda di ultima generazione e nn dimostra di essere cosi potente cm molti si aspettavano che fosse(o almeno pe me :O )
chiaro? :)

shodan
09-10-2005, 17:51
purtroppo al momento non ho niente al riguardo

ciao

Grazie lo stesso! :)

maxpower21
09-10-2005, 17:52
bhe io nn ho detto che la 7800 è una scheda di ultima generazione e nn ho nemmeno detto che la x1800 lo sia,infatti nn lo è..è questo quello che volevo dire,e nn ho detto nemmeno che la 7800 sia + potente della x1800 se no che l'avrebbero fatta a fare? :sofico:,ho semplicemente detto che la scheda in questione nn è una scheda di ultima generazione e nn dimostra di essere cosi potente cm molti si aspettavano che fosse(o almeno pe me :O )
chiaro? :)
Dacci un esempio di scheda di ultima generazione! :doh:

Felle
09-10-2005, 17:53
thx.....

e sul secondo slot avrò modo di montarla???

visto che la soluzione a singolo slot è poco chiara???

grazie

Maury
09-10-2005, 17:54
Dacci un esempio di scheda di ultima generazione! :doh:


sn curioso pure io :D

Captain_mason
09-10-2005, 18:02
infatti nn vi posso dare un esempio per il semplice motivo che nn ci sono ancora :D
ciau

T3d
09-10-2005, 18:03
infatti nn vi posso dare un esempio per il semplice motivo che nn ci sono ancora :D
ciau
e allora secondo il tuo ragionamento la 7800GTX e la x1800xt *SONO* di ultima generazione in quanto non ce ne sono di + nuove :mbe:

Captain_mason
09-10-2005, 18:05
e allora secondo il tuo ragionamento la 7800GTX e la x1800xt *SONO* di ultima generazione in quanto non ce ne sono di + nuove :mbe:
nn hai capito una mazza,ho detto che le 2 schede in questione NN SONO DI ULTIMA GENERAZIONE :(
http://www.hwupgrade.it/articoli/skvideo/1359/10.html
guardatevi i bench

andreamarra
09-10-2005, 18:06
:confused:?

T3d
09-10-2005, 18:07
nn hai capito una mazza,ho detto che le 2 schede in questione NN SONO DI ULTIMA GENERAZIONE :(
http://www.hwupgrade.it/articoli/skvideo/1359/10.html
guardatevi i bench
io eh? :sofico:

maxpower21
09-10-2005, 18:08
nn hai capito una mazza,ho detto che le 2 schede in questione NN SONO DI ULTIMA GENERAZIONE :(
http://www.hwupgrade.it/articoli/skvideo/1359/10.html
guardatevi i bench
Mi sa che devi dare una ripassatina all'italiano.
Con ultima generazione si intende le schede più avanzate attualmente presenti nel mercato.
Tu potrai anche essere insoddisfatto del salto prestazionale, MA sia la 7800GTX che la X1800 sono DELL'ULTIMA GENERAZIONE

yossarian
09-10-2005, 18:10
alcune indicazioni sull'utilità dei bench sintetici (chi dice che non servono?) e sul modo di leggerli

http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html

http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html


date un'occhiata soprattutto ai primi due di ogni pagina linkata; vediamo che conclusioni vengono fuori

:D

Captain_mason
09-10-2005, 18:11
Mi sa che devi dare una ripassatina all'italiano.
Con ultima generazione si intende le schede più avanzate attualmente presenti nel mercato.
Tu potrai anche essere insoddisfatto del salto prestazionale, MA sia la 7800GTX che la X1800 sono DELL'ULTIMA GENERAZIONE

sei sicuro che la 7800 sia di ultima generazione se ne è parlato molto e tutti dicono che nn è di ultima generazione,cmq quello che volevo dire io è che le prestazioni delle 2 schede nn solo sono quasi identiche ma nn sono nemmeno cosi prestazionali

Captain_mason
09-10-2005, 18:13
io eh? :sofico:
se mi stai dicendo che io ho detto che le schede erano di ultima generazione se invece ho detto il contrario :D

andreamarra
09-10-2005, 18:13
alcune indicazioni sull'utilità dei bench sintetici (chi dice che non servono?) e sul modo di leggerli

http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html

http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html


date un'occhiata soprattutto ai primi due di ogni pagina linkata; vediamo che conclusioni vengono fuori

:D

Ma è chiarissimo, mio caro :cool:!

:sofico:

cmq ho letto il tuo intervento su questa cosa dei bench sintetici su altro forum...

interessante anche la parte in cui prevedi che sul discorso gestione shader e unità adatte a questo scopo (un pò carenti in R520) l'R580 attingerà da R530.

Praticamente, sarà una bestia assetata di sangue :D!

T3d
09-10-2005, 18:16
sei sicuro che la 7800 sia di ultima generazione se ne è parlato molto e tutti dicono che nn è di ultima generazione,cmq quello che volevo dire io è che le prestazioni delle 2 schede nn solo sono quasi identiche ma nn sono nemmeno cosi prestazionali
http://www.vocinelweb.it/faccine/cartelli/53.gif

Taurus19-T-Rex2
09-10-2005, 18:16
diciamo che ho fatto la scelta giusta :D ............................................................................................................................ho la 7800GTX :ciapet: :D

maxpower21
09-10-2005, 18:16
sei sicuro che la 7800 sia di ultima generazione se ne è parlato molto e tutti dicono che nn è di ultima generazione,cmq quello che volevo dire io è che le prestazioni delle 2 schede nn solo sono quasi identiche ma nn sono nemmeno cosi prestazionali
Mi sembra normale che 2 schede che escono con 4 mesi di differenza l'una dall'altra non possano dare prestazioni "radicalmente" diverse.
Tuttavia mi sembra, dai primi bench, che la ATI abbia qualcosina in più..
Per prestazioni ancora più spinte bisognerà aspettare le schede della "prossima" generazione

andreamarra
09-10-2005, 18:18
Bho, a me pare che non li leggiate i bench ma andiate a tifo :confused: !

eppure quando esco dalla tasca un milione di lire personalmente valuto a prestazioni/qualità e non la simpatia.

Captain_mason
09-10-2005, 18:18
Mi sembra normale che 2 schede che escono con 4 mesi di differenza l'una dall'altra non possano dare prestazioni "radicalmente" diverse.
Tuttavia mi sembra, dai primi bench, che la ATI abbia qualcosina in più..
Per prestazioni ancora più spinte bisognerà aspettare le schede della "prossima" generazione
bhe è ovvio che la scheda di ati deve avere qualcosa in +se no era una delusione totale

maxpower21
09-10-2005, 18:19
Bho, a me pare che non li leggiate i bench ma andiate a tifo :confused: !

eppure quando esco dalla tasca un milione di lira valuto a prestazioni/qualità e non simpatia.
Quoto in pieno.
Mai andato a "tifo" in vita mia, infatti ho posseduto sia schede ATI che nVidia

andreamarra
09-10-2005, 18:19
bhe è ovvio che la scheda di ati deve avere qualcosa in +se no era una delusione totale

mica tanto ovvio che la ati andava anche solo l'un per cento in più :)!

maxpower21
09-10-2005, 18:20
bhe è ovvio che la scheda di ati deve avere qualcosa in +se no era una delusione totale
Vai a dirlo a chi diceva che la ATI avrebbe buttato fuori una scheda già superata..

T3d
09-10-2005, 18:20
che dialogo paraplegico :muro:

andreamarra
09-10-2005, 18:22
Vai a dirlo a chi diceva che la ATI avrebbe buttato fuori una scheda già superata..

ti ricordi i post di alcuni per commentare le news di 16 pipeline e non 24 o 32 o dei ritardi per la produzione o altro?

Gli "nvidia rulez!" e i "la ati fallisce :)!" erano frequentissimi.

Senza considerare alla "disgrazia" che subiremmo noi consumers in caso sparisse o la ati o la nvidia....

Vifani
09-10-2005, 18:26
alcune indicazioni sull'utilità dei bench sintetici (chi dice che non servono?) e sul modo di leggerli

http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html

http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html


date un'occhiata soprattutto ai primi due di ogni pagina linkata; vediamo che conclusioni vengono fuori

:D

Morale della favola: con il dynamic branching le prestazioni della nuova architettura ATI volano :)

andreamarra
09-10-2005, 18:31
Morale della favola: con il dynamic branching le prestazioni della nuova architettura ATI volano :)

effettivamente :eek: .... non credevo davvero, essendo la prima implementazione di ati sul DB..

http://www.xbitlabs.com/images/video/radeon-x1000/x1600/Xbitmark_x16.gif

http://www.xbitlabs.com/images/video/radeon-x1000/x1800/Xbitmark_x18.gif

ma a livello concreto e non "sintetico"... i giochi attualmente non sfruttano sto DB vero? Ricordo che fek lo amava sto coso :asd: :sofico:!

ho notato inoltre che le prestazioni nella gestione degli shader in R520 è peggiore che G70, questo per una carenza di architettura. Eppure nei giochi per altri motivi questa differenza grande viene spesso e volentieri ribaltata.

Captain_mason
09-10-2005, 18:43
ti ricordi i post di alcuni per commentare le news di 16 pipeline e non 24 o 32 o dei ritardi per la produzione o altro?

Gli "nvidia rulez!" e i "la ati fallisce :)!" erano frequentissimi.

Senza considerare alla "disgrazia" che subiremmo noi consumers in caso sparisse o la ati o la nvidia....

io sono il primo a tifare ati anche xkè ho avuto solo e escusivamente ati prima di passare a nvidia ;)

Captain_mason
09-10-2005, 18:44
io sono il primo a tifare ati anche xkè ho avuto solo e escusivamente ati prima di passare a nvidia ;)

ps:nel tifare intendo a dare la mia fiducia :)

andreamarra
09-10-2005, 19:09
per chi era interessato al crossfire... qua c'è una rece vecchia, non c'è l'R520.

http://www.anandtech.com/video/showdoc.aspx?i=2477&p=1

ce ne sono altre di rece del genere ma con X1800XT?

cmq se fosse vero, anche se me ne sbatto letteralmente :asd:, questo crossfire è davvero massiccio.

Captain_mason
09-10-2005, 19:13
scusate..ma la x1800 xkè nn ha 24 pipe? :O

Maury
09-10-2005, 19:15
scusate..ma la x1800 xkè nn ha 24 pipe? :O

:mbe:

Captain_mason
09-10-2005, 19:17
:mbe:

aspettavo risposte nn embè :O

yossarian
09-10-2005, 19:17
Morale della favola: con il dynamic branching le prestazioni della nuova architettura ATI volano :)

esatto; e non solo; in un test (di hot hardware, se non ricordo male), eseguito con lo shadermark, si ripropone una situazione analoga anche con l'utilizzo di HDR.
Inoltre, è il caso di prestare un po' di attenzione ai risultati dell'RV530 con i ps2.0: ha un andamento alquanto diverso da quello di tutti gli altri chip, iniziando ad accusare un calo solo con l'impiego d 4 registri per istruzione (che è la situazione più pesante). RV530 ha 3 gruppi di quad che lavorano su "soli" 128 thread. Se ricordi lo schema di R500, si vede che le 48 alu sono organizzate in 3 gruppi di 16 ciascuno che sembrano predisposti per lavorare in serie (torna il numero di 3 unità di shading per elaborazione). Infine, R520 ha, nell'array di registri, molto più spazio di quello necessario a "supportare" il lavoro di 16 unità MAD (o di 4 quad che dir si voglia); anzi, ha addirittuta spazio a sufficienza per immagazzinare dati per 48 MAD (ossia 3 quad ogni 128 thread, esattamente come RV530). Torna ancora il numero 3 ;)

Che sia un caso? :sofico:

T3d
09-10-2005, 19:23
scusate..ma la x1800 xkè nn ha 24 pipe? :O
:muro:

yossarian
09-10-2005, 19:26
scusate..ma la x1800 xkè nn ha 24 pipe? :O

no, ne ha 4, ma sono estreme; sono le uniche pipeline in grado di fare texture climbing e pixel jumping

Captain_mason
09-10-2005, 19:29
no, ne ha 4, ma sono estreme; sono le uniche pipeline in grado di fare texture climbing e pixel jumping

ooooooooook :D

geminibruni
09-10-2005, 19:30
Da appassionato fan di Nvidia devo ammettere che ATI per questo R520 ha fatto davvero un ottimo lavoro, tirando fuori finalmente qualcosa di nuovo (dopo anni passati a migliorare architetture "vecchie") introducendo davvero molte migliorie come il controllo della memoria ad anello ecc.... questo è INNEGABILE :O
Quindi da una persona (quasi) di parte vorrei fare i complimenti ad AMD..

Però devo sottolieare come per poter fare questo salto hanno lasciato a Nvidia 4 mesi di vantaggio, che prima che venga commercializzata la 1800XT diventeranno 5, che se visti nell'ottica di "schede video" sono davvero un enormità. Inoltre sono convinto che a fare davvero la differenza trà 7800Gtx e 1800Xt sia in parte i 512Mb di ram e in parte le frequenze ASSURDE (io non avevo mai sentito parlare di schede video che si spingono oltre i 600Mhz di clok), quindi sarei molto curioso di vedere una sfida trà l'ultima Radeon e una futura 7800Ultra con il core sui 540Mhz (le normali 7800Gxt si spingono fino a quasi 500), e 512Mb di ram........

PS: si sà nulla sui prezzi delle 1800XT...

Foglia Morta
09-10-2005, 19:39
Da appassionato fan di Nvidia devo ammettere che ATI per questo R520 ha fatto davvero un ottimo lavoro, tirando fuori finalmente qualcosa di nuovo (dopo anni passati a migliorare architetture "vecchie") introducendo davvero molte migliorie come il controllo della memoria ad anello ecc.... questo è INNEGABILE :O
Quindi da una persona (quasi) di parte vorrei fare i complimenti ad AMD..

Però devo sottolieare come per poter fare questo salto hanno lasciato a Nvidia 4 mesi di vantaggio, che prima che venga commercializzata la 1800XT diventeranno 5, che se visti nell'ottica di "schede video" sono davvero un enormità. Inoltre sono convinto che a fare davvero la differenza trà 7800Gtx e 1800Xt sia in parte i 512Mb di ram e in parte le frequenze ASSURDE (io non avevo mai sentito parlare di schede video che si spingono oltre i 600Mhz di clok), quindi sarei molto curioso di vedere una sfida trà l'ultima Radeon e una futura 7800Ultra con il core sui 540Mhz (le normali 7800Gxt si spingono fino a quasi 500), e 512Mb di ram........

PS: si sà nulla sui prezzi delle 1800XT...
:D Proprio non ce la fai a fare i complimenti ad ATI eh ? :tapiro:

andreamarra
09-10-2005, 19:40
io sinceramente non capisco sta cosa del "ritardo", manco fossero mestruazioni.

La ati ha fatto un progetto innovativo, molto. Solo pensare ai 0.09 dovrebbe far riflettere sul progetto difficoltoso.

Poi, in questi 4-5 mesi quale gioco non andava con una R420 o una NV40?

Chi aveva una NV40 o una R420 sentiva il bisogno di avere altro?

Altra cosa, il "se mio nonno avesse 20 pipeline e 4000 MHz"... il progetto ati prevede una cosa, quello nvidia altre cose. Che senso ha sempre far uscire sta cosa del "voglio vedere se"... cosa cambia? E come se io dico "voglio vedere la McLaren se gli metto le ruote da camper...".

Io guardo alla potenza effettiva e al livello di qualità dell'immagine. Me ne fotto, sinceramente, se una richiede tot MHz e l'altra meno.

Per inciso, il paragone poi non li si può fare perchè se è vero che la ati ha maggiori frequenze, è anche vero che le pipeline sono di meno.

T3d
09-10-2005, 19:40
Però devo sottolieare come per poter fare questo salto hanno lasciato a Nvidia 4 mesi di vantaggio, che prima che venga commercializzata la 1800XT diventeranno 5, che se visti nell'ottica di "schede video" sono davvero un enormità. Inoltre sono convinto che a fare davvero la differenza trà 7800Gtx e 1800Xt sia in parte i 512Mb di ram e in parte le frequenze ASSURDE (io non avevo mai sentito parlare di schede video che si spingono oltre i 600Mhz di clok), quindi sarei molto curioso di vedere una sfida trà l'ultima Radeon e una futura 7800Ultra con il core sui 540Mhz (le normali 7800Gxt si spingono fino a quasi 500), e 512Mb di ram........

PS: si sà nulla sui prezzi delle 1800XT...
a fare la differenza è l'architettura del r520. Ha un efficienza maggiore del 20%-25% con i filtri attivati rispetto alla 7800GTX. Non è solo una questione di frequenze. Inoltre sono scettico sul fatto che i 512mb di ram disponibile facciano così tanta differenza, come in un precedente articolo qui in hwupgrade ha dimostrato. Ma poi, solo le gtx si possono overcloccare? e se quando questa fantomatica 7800ultra uscisse, secondo te non potrebbe uscire una X1800xt PE? sono tutte congetture. Per adesso la scheda più veloce è la x1800xt. Punto e basta. bye

andreamarra
09-10-2005, 19:43
la ram in più fa la differenza in giochi che la sfruttano.

ma non ci sono giochi che sfruttano tutta sta ram attualmente :D!

Forse questo può avvenire con risoluzioni elevatissime, ma mi pare che yossarian abbia già detto che non c'entra il quantitativo di ram.

Ricky78
09-10-2005, 19:46
Qualcuno sa se sulle nuove schede X1800XT andrà bene il dissipatore per GPU Zalman VF700CU?

Anche in germania si deve attendere Novembre per vedere la commercializzazione della X1800XT?



Grazie per le info.

T3d
09-10-2005, 19:56
Qualcuno sa se sulle nuove schede X1800XT andrà bene il dissipatore per GPU Zalman VF700CU?
Anche in germania si deve attendere Novembre per vedere la commercializzazione della X1800XT?
Grazie per le info.
1) credo di si, dovresti cmq aspettare qualche giorno per vedere aggiornata la lista di compatibilità delle vga nel sito dello zalman
2) si anche in germania a novembre

bye

Foglia Morta
09-10-2005, 19:56
Però devo sottolieare come per poter fare questo salto hanno lasciato a Nvidia 4 mesi di vantaggio, che prima che venga commercializzata la 1800XT diventeranno 5, che se visti nell'ottica di "schede video" sono davvero un enormità. Inoltre sono convinto che a fare davvero la differenza trà 7800Gtx e 1800Xt sia in parte i 512Mb di ram e in parte le frequenze ASSURDE (io non avevo mai sentito parlare di schede video che si spingono oltre i 600Mhz di clok), quindi sarei molto curioso di vedere una sfida trà l'ultima Radeon e una futura 7800Ultra con il core sui 540Mhz (le normali 7800Gxt si spingono fino a quasi 500), e 512Mb di ram........

PS: si sà nulla sui prezzi delle 1800XT...
Altra cosa... le 6800ULTRA con processo a 0.13 occate vanno 400 di base e 450-460 occate mi pare ,
7800GTX processo a 0.11 ,430 a default e di solito 490-500 occate .Un ipotetico 0.09 cosa farebbe mai a default ? 470 default e 550 occate ? Le possibilità in oc della X1800 ancora non si son viste e secondo me tutt'ora hanno problemi a salire quanto potrebbero veramente sempre a causa della sfiga del problema elettrico

andreamarra
09-10-2005, 20:13
ma le schede video sono strutturate in modi differenti.

La ati ha un tipo di architettura molto efficiente che per dare il meglio di sè richiede uno scambio veloce di dati in memoria ram (ad esempio), e quindi la velocità delle ram è decisivo.

La nvidia ha scelto una strada differente e il suo chip non raggiunge certe frequenze.

Adesso poi non si può neanche fare il discoro "numero pipeline" perchè la ati ha "sorpassato" il concetto di pipeline che avevamo.

Risultato: il discorso di "se mio nonno avesse il pene di 25 cm sarebbe meglio di rocco" per me nelle schede video o in altre cose non conta. Io vedo i freddi numeri, vedo le prestaizioni, vedo le innovazioni, vedo i giochi cosa richiedono, e vedo la qualità e il prezzo.

Sapere se la nvidia avesse un milione di Mhz o la ati 512 pipeline extreme performance nun me frega :D!

A livello teorico cmq sono discussioni affascinanti, ma non essendo progettisti ritengo che dovremmo soffermarci sulle potenzialità nude e crude :)!

andreamarra
09-10-2005, 20:16
il discordo del "MHz in più" ecc. ecc. lo potrei fare se la ati andasse peggio.

Es. un A64 nonostante una frequenza molto più bassa (quasi di un terzo) va nettamente meglio di un pentiumEE.

Ma se il pentium in questione andava nettamente meglio di un Athlon 64, allora non me ne fregava nulla se aveva egemonia con frequenza ben più alte. Peggio per gli altri se non l'hanno fatto così il progetto.

andreamarra
09-10-2005, 20:17
Qualcuno sa se sulle nuove schede X1800XT andrà bene il dissipatore per GPU Zalman VF700CU?

Anche in germania si deve attendere Novembre per vedere la commercializzazione della X1800XT?



Grazie per le info.

no so, la scheda è molto lunga... credo che per mettere lo zalman sarebbe necessario eliminare qualche dentino del dissipatore... :(

andreamarra
09-10-2005, 20:19
cmq certi discorsi che leggono mi sembrano quelli dell'amico mio interista che durante Juventus-Inter frignava cose del tipo "...vorrei vedere la Juventus se non avesse Vieira e Ibrahimovic"...

:D

andreamarra
09-10-2005, 20:24
Inoltre sono convinto che a fare davvero la differenza trà 7800Gtx e 1800Xt sia in parte i 512Mb di ram e in parte le frequenze ASSURDE (io non avevo mai sentito parlare di schede video che si spingono oltre i 600Mhz di clok), quindi sarei molto curioso di vedere una sfida trà l'ultima Radeon e una futura 7800Ultra con il core sui 540Mhz (le normali 7800Gxt si spingono fino a quasi 500), e 512Mb di ram........

PS: si sà nulla sui prezzi delle 1800XT...

chi è molto tecnico in questo (yossarian) ha spiegato che a fare andare meglio questa scheda non sono nè le memorie in più, nè le frequenze. Complessivamente il merito è della grandissima efficienza.

E anche se fossero le frequenze a dargli maggior potenza... è una caratteristica del progetto. Se loro puntano sulla frequenza superiore per un determinato processo, che fai? Lo elimini per vedere come va? Come se io a una squadra con una difesa abile nel far fuorigioco... cambio la regola eliminando il fuorigioco. Gli togli un punto di forza, no?
A sto punto, togli un punto di forza della G70 e fai le prove.

Invece qua vedo che si vorrebbero togliere punti di forza della ati (frequenze, anche se non sono loro le responsabili di simili prestazioni), e sistemare punti deboli di nvidia (minori frequenze) e quindi, solo dopo, fare il raffronto....

"Togli 200 MHz alla ati e mettile alla nvidia, anzitoglici anche le quad pipeline e aggiungi altre 24 pipeline alla nvidia"

Se per voi è una analisi imparziale :D...


il "a me piacerebbe vedere la G70 con 48 pipeline" non mi viene da dirlo... non le ha e basta ;)

inoltre, io guardo molto bene la scheda che mi fa giocare ad altissima risoluzione e con la migliore qualità visiva ai giochi nuovi, con magari effetti nuovi. In questo caso, a questo giro, X1800XT con l'anisotropico migliore e HDR +AA. Al giro precedente, NV40 tutta la vita :)!

T3d
09-10-2005, 20:27
io credo che molta gente (nvidisti) abbia tanta rabbia repressa nel loro corpo contro ati. non so per quale diavolo di motivo :rolleyes: se qualcuno me lo spiega gli offro una bella birra ghiacciata :ubriachi:

T3d
09-10-2005, 20:28
forse... forse... speravano così tanto in questo flop di ati, che ora si mangiano le mani? :confused:

andreamarra
09-10-2005, 20:31
forse... forse... speravano così tanto in questo flop di ati, che ora si mangiano le mani? :confused:

non lo so, so solo che io all'epoca del NV40 e del R420 ero semplicemente cagato sotto del fatto che la nvidia avesse potuto fare un buco nell'acqua..

dopo l'NV3X la paura era tanta...

e ho sudato freddo quando ho percepito problemi alla ati...

forse molti non si rendono conto del gravissimo danno che avremmo tutti noi consumatori in caso una casa tra queste due dovesse fare il buco nell'acqua per due volte di fila.... :cry:

Captain_mason
09-10-2005, 20:37
a fare la differenza è l'architettura del r520. Ha un efficienza maggiore del 20%-25% con i filtri attivati rispetto alla 7800GTX. Non è solo una questione di frequenze. Inoltre sono scettico sul fatto che i 512mb di ram disponibile facciano così tanta differenza, come in un precedente articolo qui in hwupgrade ha dimostrato. Ma poi, solo le gtx si possono overcloccare? e se quando questa fantomatica 7800ultra uscisse, secondo te non potrebbe uscire una X1800xt PE? sono tutte congetture. Per adesso la scheda più veloce è la x1800xt. Punto e basta. bye

quando la gente si punta su qualcosa nn ci sta niente da fare...lasciamoli perdere adesso convinti che la x1800 sia chissà cosa...
poi questa novità dei nvidisti che dovrebbe rappresentare? dove siamo andati a finire.. :mc:

Captain_mason
09-10-2005, 20:38
non lo so, so solo che io all'epoca del NV40 e del R420 ero semplicemente cagato sotto del fatto che la nvidia avesse potuto fare un buco nell'acqua..

dopo l'NV3X la paura era tanta...

e ho sudato freddo quando ho percepito problemi alla ati...

forse molti non si rendono conto del gravissimo danno che avremmo tutti noi consumatori in caso una casa tra queste due dovesse fare il buco nell'acqua per due volte di fila.... :cry:

xkè tutti sti problemi??? :)

andreamarra
09-10-2005, 20:44
quando la gente si punta su qualcosa nn ci sta niente da fare...lasciamoli perdere adesso convinti che la x1800 sia chissà cosa...
poi questa novità dei nvidisti che dovrebbe rappresentare? dove siamo andati a finire.. :mc:

mettiamola così: se la X1800Xt non è chissà che cosa, allora la 7800GTX è una merdina... :D


e la 7800GTX NON è una merdina... ;)

andreamarra
09-10-2005, 20:46
xkè tutti sti problemi??? :)

perchè alcuni, non capisco razionalmente il motivo, pare che godano se la nvidia è in difficoltà o se la ati è in difficoltà.

Io da utente super partes, almeno credo, mi rendo conto che se la ati non ci fosse ancora staremmo con surrogati di NV30 iperriscaldati, a prezzi esorbitanti.

Idem se la nvidia avesse fallito, ci ritroveremmo con R300 triti e ritriti con prezzi assurdi.

E per un terzo inserirsi qua dentro è attualmente impossibile.

belin
09-10-2005, 20:46
Captain_mason, fammi un favore... smettila di inquinare il thread con discorsi senza senso; inoltre, prima di dare giudizi, leggiti bene le varie recensioni e i commenti tecnici che hanno scritto persone competenti in materia... trovi tutto in queste pagine.

...mi sorge il dubbio che tu non ne abbia letta manco una... anzi, più che un dubbio, è una certezza. :rolleyes:

...non vorrei aggiungere altro, grazie.

andreamarra
09-10-2005, 20:48
ma perchè il 3D deve degenerare... :confused: ?

dai, stava andando tanto bene :D!

Ricky78
09-10-2005, 20:57
no so, la scheda è molto lunga... credo che per mettere lo zalman sarebbe necessario eliminare qualche dentino del dissipatore... :(
Cioè?
Lo Zalman VF700CU non sarebbe compatibile?

Captain_mason
09-10-2005, 20:59
Captain_mason, fammi un favore... smettila di inquinare il thread con discorsi senza senso; inoltre, prima di dare giudizi, leggiti bene le varie recensioni e i commenti tecnici che hanno scritto persone competenti in materia... trovi tutto in queste pagine.

...mi sorge il dubbio che tu non ne abbia letta manco una... anzi, più che un dubbio, è una certezza. :rolleyes:

...non vorrei aggiungere altro, grazie.

a me che sei uno fan di ati nn è che mi importi molto io sto solo esprimendo le mie opinioni,problemi a riguardo?io sto dicendo la mia cm gli altri dicono la sua
a me nn interessa propio niente ne di ati e ne di nvidia e nn sto dalla parte di nessuno io stavo solo discutendo di quello che si pressupone sia la scheda di nuova generazione ovvero la x1800 senza arrampicarci sugli specchi... :mc:
e ti posso assicurare che li ho letti tutti :D

Captain_mason
09-10-2005, 21:00
ma perchè il 3D deve degenerare... :confused: ?

dai, stava andando tanto bene :D!

:mbe:

neopazzo
09-10-2005, 21:03
mah...sul sito di tecno trallala...sta scritto che dal 10 ottobre (DOMANI) saranno disponibili le schede dfi con crossfire....mha...mha...siamo sicuri?

cioè domani le vendono e ancora niente recinzioni?

Catan
09-10-2005, 21:04
Signori ri riporto un mio post che ho gia scritto su nvitalia:


"ragazzi ora so che mi ucciderete ma ieri sera stavo pensado ad un pò di cose....vorrei entrare nella diatriba di g70 che cloccato a 500mhz sta dietro a r520 cloccato as 625...ora secondo me confrontare 7800gtx e x1800xt è un confronto troppo impari e se vogliamo per certi versi impoponibile per le frequenze e le scelte tecniche adottate in entrambe le parti...
quindi trovo inutile parlare di aria fritta dle tipo una 7800gtx 500-1500 apparerebbe il presunto(dico presunto xè una vera recensione di un prodotto come si deve non la ho ancora vista aspetto quella di HWup)divario prestazionale.

eppure il confronto seplice lo abbiamo davanti alla faccia e nessuno ci ha pensato...
7800gt contro x1800xl...
entrambe hanno ram che vanno a 1000mhz quindi il discorso banda passante è da escludere al massimo si puo disquisire quale controler è meglio(e quello ati ad 8 da 32bitvie mi pare + efficenti del classico nviai a 4 vie da 64bit)

a questo punto possiamo dire che la 7800gt ha tutte le caratteristiche della sorella maggiore tranne le frequense e 4 pieps in meno ma cmq ha sempre 16 rop's...
ora pare che la x1800xl vada meglio nsomma sui valori del 3dmark dati alla mano(purtroppo ho solo questi) la scheda ati è superiore nell'ordine di 300-400pnt...

ora entrambe hanno parita di fillrate 400x20=16x500 ergo gia da questo confronto si evince che l'archidettura ati è migliore di g70 a 20pipes...
ora visto che si parla di overclock(che cmq per queste cose è sempre aria fritta) una 7800gt arriva anche lei a 500mhz(ci sono e le ho viste) ma è almeno probabile pensare che una x1800xl arrivi almeno a 600mhz...
in questo caso raggiungerebbe un livello tale di capacità matematiche che bisognerebbe come detto da voi prima per contrastarlo un g70 a 500mhz ma a 24pieps invece che 20...

ergo se avete seguito questo mio ragiomaneto è facile evincere che nonostante le 16 pipes(se si possono chiamare cosi) l'archidettura di r520 è migliore in molti casi(non sempre in questo campo non c'è mai un vincitore assoluto)di quella di g70 ed è una cosa che trascende dalle mere frequenze..."

picard88
09-10-2005, 21:05
all'uno o alle altre a seconda dei casi; quando non ci sono molti calcoli matematici da eseguire (shader meno complessi) e, al contrario, ci sono molte operazioni di texturing, le 4 tmu possono limitare le prestazioni. Con i filtri attivi e le alte risoluzioni, si può essere anche bandwidth limited, anche se questo secondo limite, proprio in virtù dell'esiguo numero di tmu, incide molto meno (comunemente sono le operazioni di texturing a richiedere più banda passante), come di mostra il fatto che ad alte risoluzioni le prestazioni calano ma non al punto da allinearsi a quelle della X1300.
grazie mille x le delucidazioni!! :)

Wizard77
09-10-2005, 21:05
a me che sei uno fan di ati nn è che mi importi molto io sto solo esprimendo le mie opinioni,problemi a riguardo?io sto dicendo la mia cm gli altri dicono la sua
a me nn interessa propio niente ne di ati e ne di nvidia e nn sto dalla parte di nessuno io stavo solo discutendo di quello che si pressupone sia la scheda di nuova generazione ovvero la x1800 senza arrampicarci sugli specchi... :mc:
e ti posso assicurare che li ho letti tutti :D

mi fai un esempio di sk di ultima generazione??? visto che per te le 7800 e le x1000 non lo sono

Poi per giudicare una sk non si deve solo guardare la parte prestazionale (oddio non fa neanche 1000fps a doom3, che sk di merda), ma anche tutte le altre tecnologie che hanno implementato.

A me onestamente sembra che ATI abbia fatto un buon lavoro, come del resto lo ha fatto anche nVidia con la 7800.

T3d
09-10-2005, 21:17
quando la gente si punta su qualcosa nn ci sta niente da fare...lasciamoli perdere adesso convinti che la x1800 sia chissà cosa...
poi questa novità dei nvidisti che dovrebbe rappresentare? dove siamo andati a finire.. :mc:
quando una persona si richiama in prima persona plurare, secondo me, ha qualche problemino :Prrr:
a me che sei uno fan di ati nn è che mi importi molto io sto solo esprimendo le mie opinioni,problemi a riguardo?io sto dicendo la mia cm gli altri dicono la sua
a me nn interessa propio niente ne di ati e ne di nvidia e nn sto dalla parte di nessuno io stavo solo discutendo di quello che si pressupone sia la scheda di nuova generazione ovvero la x1800 senza arrampicarci sugli specchi... :mc:
e ti posso assicurare che li ho letti tutti :D
ma scusa se le tue opinioni sono sbagliate, non te lo si può dire? te l'hanno detto in mille modi diversi che quello che stai dicendo è falso... perchè non dai retta a persone (vedi yossarian) più esperte di te?

andreamarra
09-10-2005, 21:18
mah...sul sito di tecno trallala...sta scritto che dal 10 ottobre (DOMANI) saranno disponibili le schede dfi con crossfire....mha...mha...siamo sicuri?

cioè domani le vendono e ancora niente recinzioni?

recinzioni :D??

scherzi a parte, io ti premetto che dello sli e crossfire non importa nulla... non ho due milioni e passa per due schede video..

ma questo crossfire mi interessa perchè vorrei sapere come la scheda va... il chip è all'altezza di nforce e ULI (che è uscito adesso)? Driver?

solo per questo la prenderei sta scheda madre :)

le recensioni non so se si possono ancora rilasciare, credo che ci sia NDA sul chip crossfire se non sbaglio :confused: !

Captain_mason
09-10-2005, 21:21
mi fai un esempio di sk di ultima generazione??? visto che per te le 7800 e le x1000 non lo sono

Poi per giudicare una sk non si deve solo guardare la parte prestazionale (oddio non fa neanche 1000fps a doom3, che sk di merda), ma anche tutte le altre tecnologie che hanno implementato.

A me onestamente sembra che ATI abbia fatto un buon lavoro, come del resto lo ha fatto anche nVidia con la 7800.

haha io nn ho detto che ati e nvidia nn hanno fatto un buon lavoro anzi hanno fatto un ottimo lavoro..quando usci la 7800 ero rimasto balordito dalle prestazioni...avendo letto sulla sua recensione codeste parole "anche con questi questi ottimi risultati la g70 nn si può definire una scheda di ultima generazione"mi era sorto un dubbio,ma la r520 cosa avrà in +? :eek: ..
finalmente è uscito e dalle prestazioni nn si può certo dire che l'r520 sia una scheda di ultima generazione e la g70 no per il semplice motivo che le prestazioni dei 2 prodotti nn sono molto differenti..
e quindi nn reputo queste due schede della scheda di ultima generazione dal fatto che nn hanno prestazioni chen fanno gridare al miracolo


ps:ricordiamo che io ho una asus 7800gtx che lavora a 510/1350(nn per vantarmi ma per dimostrare che possiedo questa scheda e che posso dirvi i lati positici e negativi di questa scheda)

Captain_mason
09-10-2005, 21:21
togli "ahaha" che mi è venuto spontaneo :sofico:

T3d
09-10-2005, 21:23
ps:ricordiamo che io ho una asus 7800gtx che lavora a 510/1350(nn per vantarmi ma per dimostrare che possiedo questa scheda e che posso dirvi i lati positici e negativi di questa scheda)
aho... ci avrei scommesso 10miliari di € :rolleyes:

Captain_mason
09-10-2005, 21:23
quando una persona si richiama in prima persona plurare, secondo me, ha qualche problemino :Prrr:

ma scusa se le tue opinioni sono sbagliate, non te lo si può dire? te l'hanno detto in mille modi diversi che quello che stai dicendo è falso... perchè non dai retta a persone (vedi yossarian) più esperte di te?


per me puoi dire quello che vuoi per carità xkè come hai ragione tu ho ragione anche io :D

Captain_mason
09-10-2005, 21:23
e con questo ho chiuso xkè mi sono rotto :O

neopazzo
09-10-2005, 21:28
Allora da domani si avranno le prime notizie di queste skede dfi cross fire...spero propio di si, nn reggo piu la mia asus.

cmq ..io nn ho subito 1200€ per farmi due x1800xt...ma se compro questa skeda..e visto che devo cambiare mobo per clokkare un pò vorrei lasciarmi la possibilità di fare il crossfire...visto che è molto piu semplice dello sli..chi sa che un domani nn trovi una skeda da skiaffare dentro senza spednere altri 500€ o poco piu




ciao e grazie

Captain_mason
09-10-2005, 21:30
Allora da domani si avranno le prime notizie di queste skede dfi cross fire...spero propio di si, nn reggo piu la mia asus.

cmq ..io nn ho subito 1200€ per farmi due x1800xt...ma se compro questa skeda..e visto che devo cambiare mobo per clokkare un pò vorrei lasciarmi la possibilità di fare il crossfire...visto che è molto piu semplice dello sli..chi sa che un domani nn trovi una skeda da skiaffare dentro senza spednere altri 500€ o poco piu




ciao e grazie
beato te :eek:

T3d
09-10-2005, 21:30
su xtremesystems hanno parlato molto bene di questa scheda madre DFI. Cmq credo proprio che settimana prossima sarà in vendita su uno shop online italiano, ma sta sulle 210€. Per vedere le caratteristiche complete vai qui:
http://www.dfi.com.tw/Product/xx_product_spec_details_r_us.jsp?PAGE_TYPE=US&PRODUCT_ID=3669&SITE=US
anche io penso di prenderla :sofico:

bye

Captain_mason
09-10-2005, 21:30
aho... ci avrei scommesso 10miliari di € :rolleyes:

era da precisare :sofico:

neopazzo
09-10-2005, 21:34
su xtremesystems hanno parlato molto bene di questa scheda madre DFI. Cmq credo proprio che settimana prossima sarà in vendita su uno shop online italiano, ma sta sulle 210€. Per vedere le caratteristiche complete vai qui:
http://www.dfi.com.tw/Product/xx_product_spec_details_r_us.jsp?PAGE_TYPE=US&PRODUCT_ID=3669&SITE=US
anche io penso di prenderla :sofico:

bye

Ma c'è gia una recinzione in via di sviluppo da parte di HU ?

guarda 210€ se va davvero bene nn sono spesi male...
a saperlo prima..quando comprai l'asus..160€ mettevo 50€ in piu e mi compravo la dfi lan parti sli dr...adesso nn avrei il problema di cambiare skeda madre :(

belin
09-10-2005, 21:36
credevo che il chip r520 avrebbe fatto miracoli e invece dai primi test si nota che i risultati sono uguali a quella della 7800gtx :O
bhe io nn ho detto che la 7800 è una scheda di ultima generazione e nn ho nemmeno detto che la x1800 lo sia,infatti nn lo è..è questo quello che volevo dire,e nn ho detto nemmeno che la 7800 sia + potente della x1800 se no che l'avrebbero fatta a fare?
scusate..ma la x1800 xkè nn ha 24 pipe?

...da questi tuoi (inutili) post si capisce benissimo che non hai letto nulla su R520 (e credo nulla anche su G70).
...non ti sei accorto (perchè non hai letto?) che l'architettura di R520 è la più tecnologicamente avanzata in questo momento.
...non ti accorto che il concetto di pipeline è stato superato da R520, e sono stati introdotti i Quad Pixel Shader Core e gli Ultra-Threading Dispatch Processor... ma tu ovviamente avevi letto tutto vero? infatti ci chiedi perchè la X1800 non ha 24 pipeline... :rolleyes:
...non ti sei accorto che R520 è avanti per tante cose: 0.09 micron, anisotropico per ogni angolazione, HDR e AAA simultanei, rig bus a 512 bit, nuovo controllo di memoria configurabile da driver, AVIVO, 3DC+, alcune caratteristiche che riconducono al futuro R500... ma tu ovviamente avevi letto gà tutto... infatti ci dici che X1800XT non è di "ultima generazione"... :rolleyes:

...te lo richiedo gentilmente... smettila di inquinare il thread con queste belinate, grazie.

Captain_mason
09-10-2005, 21:38
...da questi tuoi (inutili) post si capisce benissimo che non hai letto nulla su R520 (e credo nulla anche su G70).
...non ti sei accorto (perchè non hai letto?) che l'architettura di R520 è la più tecnologicamente avanzata in questo momento.
...non ti accorto che il concetto di pipeline è stato superato da R520, e sono stati introdotti i Quad Pixel Shader Core e gli Ultra-Threading Dispatch Processor... ma tu ovviamente avevi letto tutto vero? infatti ci chiedi perchè la X1800 non ha 24 pipeline... :rolleyes:
...non ti sei accorto che R520 è avanti per tante cose: 0.09 micron, anisotropico per ogni angolazione, HDR e AAA simultanei, rig bus a 512 bit, nuovo controllo di memoria configurabile da driver, AVIVO, 3DC+, alcune caratteristiche che riconducono al futuro R500... ma tu ovviamente avevi letto gà tutto... infatti ci dici che X1800XT non è di "ultima generazione"... :rolleyes:

...te lo richiedo gentilmente... smettila di inquinare il thread con queste belinate, grazie.

oooooooook hai pienamente ragione(se no nn si smette mai) :O



:D

T3d
09-10-2005, 21:40
oooooooook hai pienamente ragione(se no nn si smette mai) :O
:D
ohhhh finalmente ti sei accorto della "belinate" che hai scritto :rolleyes:

Captain_mason
09-10-2005, 21:41
ohhhh finalmente ti sei accorto della "belinate" che hai scritto :rolleyes:



certo







:D

FreeMan
09-10-2005, 21:47
booooni :O

sono solo schede video :)

>bYeZ<

Captain_mason
09-10-2005, 21:50
booooni :O

sono solo schede video :)

>bYeZ<


finalmente uno che capisce :doh:

neopazzo
09-10-2005, 21:50
su xtremesystems hanno parlato molto bene di questa scheda madre DFI. Cmq credo proprio che settimana prossima sarà in vendita su uno shop online italiano, ma sta sulle 210€. Per vedere le caratteristiche complete vai qui:
http://www.dfi.com.tw/Product/xx_product_spec_details_r_us.jsp?PAGE_TYPE=US&PRODUCT_ID=3669&SITE=US
anche io penso di prenderla :sofico:

bye

ho appena fatto una domandina al noto shop italiano che ne promette la vendita da domani in poi.

ho chiesto .... domani ...sarà disponibile?

vediamo che risponderanno :)

ciao ciao

Captain_mason
09-10-2005, 21:52
ho appena fatto una domandina al noto shop italiano che ne promette la vendita da domani in poi.

ho chiesto .... domani ...sarà disponibile?

vediamo che risponderanno :)

ciao ciao

facci sapere ;)

KenMasters
09-10-2005, 21:53
booooni :O

sono solo schede video :)

>bYeZ<

http://www.cinemavvenire.it/magazine/pic/3220a3.jpg

:asd:

neopazzo
09-10-2005, 22:01
su xtremesystems hanno parlato molto bene di questa scheda madre DFI. Cmq credo proprio che settimana prossima sarà in vendita su uno shop online italiano, ma sta sulle 210€. Per vedere le caratteristiche complete vai qui:
http://www.dfi.com.tw/Product/xx_product_spec_details_r_us.jsp?PAGE_TYPE=US&PRODUCT_ID=3669&SITE=US
anche io penso di prenderla :sofico:

bye

Dal sito dfi sono sparite le immagini della scheda ...... strano
ieri erano visualizzabili :mbe:

Sawato Onizuka
09-10-2005, 22:53
:muro: :mc:
e manco il manuale si può scaricare, ero curioso x leggere le features ...

intanto quel chip ALC882 promette bene :sofico: :ciapet:

Catan
09-10-2005, 23:03
da tecno la hanno gia disponibile...

neopazzo
09-10-2005, 23:06
da tecno la hanno gia disponibile...

Davvero?...cioè se domani caccio fuori la moneta loro me la mandano...sia la crossi fire che la sli expert...
sticazzi ...urge recinzione subito della crossfire... :muro:

neopazzo
09-10-2005, 23:08
da tecno la hanno gia disponibile...

dimenticavo...
come fai a saperlo?...io pensavo che a loro..nn arrivassero prima del 10 ottobre :O

Taurus19-T-Rex2
09-10-2005, 23:36
dimenticavo...
come fai a saperlo?...io pensavo che a loro..nn arrivassero prima del 10 ottobre :O


ma siamo il 10 ottobre....................... :D :D :D :sofico: :ciapet: :p

neopazzo
09-10-2005, 23:40
ma siamo il 10 ottobre....................... :D :D :D :sofico: :ciapet: :p

questo lo capisco

ma nn penso domani mattina appena aprono il negozio trovono le schede madri ad aspettarli davanti alla porta in braccio ai corrieri :D

Taurus19-T-Rex2
09-10-2005, 23:48
io penso di si :D , i corrieri sono dei simpaticoni :sofico: ............no dai, al pomeriggio si però :ciapet:

neopazzo
09-10-2005, 23:49
io penso di si :D , i corrieri sono dei simpaticoni :sofico: ............no dai, al pomeriggio si però :ciapet:

si ma ...senza test chi se le accolla 210€ a scatola chiusa!

ciao

Taurus19-T-Rex2
10-10-2005, 00:06
ah bhè, di sicuro nn io.......................... :D :D :D :ciapet:

andreamarra
10-10-2005, 00:14
recensione, si dice recensione :D! :)

cmq prima di comprare questa DFi crossfire, io consiglierei di valutarne il chip... se va come un nforce4 o ULI allora si può fare, se va di meno no. Parlo di chip, non di sistema crossfire (che pare rendere più di un sistema sli).

Se poi va di più, tanto meglio :D!

geminibruni
10-10-2005, 00:15
Ma scusate, io ho fatto i complimenti alla ATI perchè questa volta ha fatto le cose per bene e voi mi criticate...... :confused: :confused:

Vi ho detto che siccome leggendo le recensioni su internet ho notato che il distacco (calcolabile intorno a un massimo del 15%) frà una 1800Xt e una 7800Gxt si ha SOLTANTO quando si usano risoluzioni sovraumane con filtri sparati a vanvera (robe del tipo di utilizzare un 65pollici LCD e non vedere un pixel squadrettato.. :mbe: ), cosa che mi ha fatto pensare a un vantaggio dato dalla grande (il doppio) quantità di ram e dalla frequenza a dir poco da inferno (dite quello che dite ma sono curioso di sapere quanto fà una 7800Gxt ad alte frequenze tipo 500mhz)...


Poi lo sò che ATI ed Nvidia hanno intrapreso strade completamente differenti ne costruire i loro Chip, però tutto questo astio nei confronti delle persone che non dicono come voi che la 1800xt e la supermegaipermeglio scheda video che c'è sul mercato, ma che è leggermente meglio della controparte Nvidia, che presenta pregi e difetti (come la 7800 per altro) mi fà pensare che quelli che fino a poco tempo fà erano colmi di rabbia eravate proprio voi...... :ciapet: :ciapet: :sofico:

andreamarra
10-10-2005, 00:18
booooni :O

sono solo schede video :)

>bYeZ<

e io gliel'ho detto, ma quando si parla di schede video e processori sembra che si mettono nel mezzo le proprie mamme :sofico:

Ricky78
10-10-2005, 00:47
no so, la scheda è molto lunga... credo che per mettere lo zalman sarebbe necessario eliminare qualche dentino del dissipatore... :(
Cioè?
Lo Zalman VF700CU non sarebbe compatibile?

neopazzo
10-10-2005, 07:20
infatti attendo questo benedetto....."articolo"
:stordita:

DjLode
10-10-2005, 08:56
Si comincia a lavorare sulle schede, per i pochi che ancora ce l'hanno.
Interessante questo test di Sampsa con la X1800XL:

http://www.xtremesystems.org/forums/showpost.php?p=1075680&postcount=72

"In my opinion it looks like these Radeon X1800 XLs are pretty much the same as Radeon X1800 XTs but running with lower voltage. XT's 1,2ns memory might overclock better. Looks good for overclockers!"

Si è fermato a 705/705 per gpu e ram, non sapeva come aumentare il voltaggio delle ram e ha tenuto il voltaggio della gpu allo standard come la XT. Direi tutto sommato non male per delle gpu che tutti davano tirate all'osso :asd:

Qui un altro post di un utente sempre con una XL. Stock cooling e niente overvolt:

http://www.hardforum.com/showthread.php?t=962221&page=1&pp=20

Ha raggiunto 575mhz per la gpu e 550mhz per le ram. Poi il CCC di più non permetteva :)

Catan
10-10-2005, 09:56
Si comincia a lavorare sulle schede, per i pochi che ancora ce l'hanno.
Interessante questo test di Sampsa con la X1800XL:

http://www.xtremesystems.org/forums/showpost.php?p=1075680&postcount=72

"In my opinion it looks like these Radeon X1800 XLs are pretty much the same as Radeon X1800 XTs but running with lower voltage. XT's 1,2ns memory might overclock better. Looks good for overclockers!"

Si è fermato a 705/705 per gpu e ram, non sapeva come aumentare il voltaggio delle ram e ha tenuto il voltaggio della gpu allo standard come la XT. Direi tutto sommato non male per delle gpu che tutti davano tirate all'osso :asd:

Qui un altro post di un utente sempre con una XL. Stock cooling e niente overvolt:

http://www.hardforum.com/showthread.php?t=962221&page=1&pp=20

Ha raggiunto 575mhz per la gpu e 550mhz per le ram. Poi il CCC di più non permetteva :)

ti coreggo un attimo nel secondo test è errivatoa 575 per il core e 650 per le mem...non male considerato il limite fisico di essere circa 1430...
nsomma a meno di cose astruse dovremmo aspettarci overclock a stock coling e a voltaggi default di 575-625mhz per il core e 1300-1450mhz per le ram se si va oltre si ha culo...certo la possibilità di poter aumentare i voltaggi da ccc non è male mettere i voltaggi della XT e cmq restare in tranquillità vuol dire arrivare di core fino a 700-730mhz visti gli oc medi delle XT

andreamarra
10-10-2005, 10:59
... a quanto leggo in giro pare che la X1800XL altro non sia che una X1800XT con minori frequenze a causa di voltaggi a core e ram più bassi di fabbrica.

Se non ho capito male queste schede video le si possono overvoltare tramite software, no?

andreamarra
10-10-2005, 11:25
ma in rete non ci sono articoli e recensioni del chip di ati per le schede madri crossfire??? :confused:

PESCEDIMARZO
10-10-2005, 11:27
Grazie a Yoss. per le sue spiegazioni e grazie ad Ati per aver prodotto una scheda del genere che abbina alte prestazioni ad una qualità grafica senza precedenti.
Chissà dove sono finiti quelli che dicevano: R520=Fx 5800??? Di sicuro stanno muorendo di Nvidia :D
Peccato che una simile meraviglia tecnologica sia lontana dalle tasche dei comuni mortali, non resta che aspettare....
IMHO la GTO2 che si modda a x850xt è la miglior skeda prezzo-prestazioni del momento e forse di sempre.
Premesso che non parteggio per nessuna delle due case, visto che quando metto mano al portafoglio, non vado certo a simpatia, ora come ora dico:
Nvidia? No grazie! :D

yossarian
10-10-2005, 11:54
... a quanto leggo in giro pare che la X1800XL altro non sia che una X1800XT con minori frequenze a causa di voltaggi a core e ram più bassi di fabbrica.

Se non ho capito male queste schede video le si possono overvoltare tramite software, no?

la XT è a 1,3 volt, mentre la XL a 1,08 (questo fa anche cadere le ipotesi di overvolt della gpu per il mantenimento di certe frequenze di funzionamento).
L'apparente elevato consumo della XT è, in realtà, rilevato attraverso il pci-xpress, che alimenta anche i 512 MB di ram (alimentate con tensione pari a 2V); per cui, il consumo complessivo della gpu della XT è di circa 44 W, mentre la XL, con 256 MB (e 1,8 Volt per la ram), assorbe circa 22 W.

neopazzo
10-10-2005, 12:30
ma in rete non ci sono articoli e recensioni del chip di ati per le schede madri crossfire??? :confused:


no no no sembra di no.

ma qualcuno della redazione ...che possa dirci qualcosa... accendere in noi un barlume di speranza...

ps: quelli di Tecnozzoz nn mi hanno risposto alla mail :mad:

andreamarra
10-10-2005, 12:31
la XT è a 1,3 volt, mentre la XL a 1,08 (questo fa anche cadere le ipotesi di overvolt della gpu per il mantenimento di certe frequenze di funzionamento).
L'apparente elevato consumo della XT è, in realtà, rilevato attraverso il pci-xpress, che alimenta anche i 512 MB di ram (alimentate con tensione pari a 2V); per cui, il consumo complessivo della gpu della XT è di circa 44 W, mentre la XL, con 256 MB (e 1,8 Volt per la ram), assorbe circa 22 W.

uhm... praticamente a leggere questi voltaggi ram-core si direbbe che in realtà i chip e le memorie di queste schede video ati non siano pompati di brutto per avere frequenze assurde.

Quindi, dovrebbero essere garantiti OC in quanto il chip e le ram non sono stirati di fabbrica e overvoltati.

Chissà con un impianto a liquido e overvoltando ram e core della XT a quanto può arrivare :sofico:

halduemilauno
10-10-2005, 12:32
http://www.theinquirer.net/?article=26818
877.5/1980=12278.
http://www.theinquirer.net/images/articles/maki.jpg

;)

yossarian
10-10-2005, 12:37
uhm... praticamente a leggere questi voltaggi ram-core si direbbe che in realtà i chip e le memorie di queste schede video ati non siano pompati di brutto per avere frequenze assurde.

Quindi, dovrebbero essere garantiti OC in quanto il chip e le ram non sono stirati di fabbrica e overvoltati.

Chissà con un impianto a liquido e overvoltando ram e core della XT a quanto può arrivare :sofico:


un primo esperimento è quello postato da hal. In quel caso, il core è a 2,1. Si può andare anche oltre e le prossime revisioni del chip dovrebbero permettere di salire di più.
Come dicevo, questo non è un chip overclockato per ottenere determinate prestazioni, ma è un chip progettato per lavorare ad alte frequenze.
Non è possibile fare un paragone con le frequenze di funzionamento dell'architettura a pipeline di tipo tradizionale.

halduemilauno
10-10-2005, 12:46
un primo esperimento è quello postato da hal. In quel caso, il core è a 2,1. Si può andare anche oltre e le prossime revisioni del chip dovrebbero permettere di salire di più.
Come dicevo, questo non è un chip overclockato per ottenere determinate prestazioni, ma è un chip progettato per lavorare ad alte frequenze.
Non è possibile fare un paragone con le frequenze di funzionamento dell'architettura a pipeline di tipo tradizionale.

e le frequenze dovevano essere in origine ancor più elevate.
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page16.asp
un update.
http://www.anandtech.com/video/showdoc.aspx?i=2556&p=1
;)

~Mr.PartyHut~
10-10-2005, 12:51
Ragazzi, siamo il 10 Ottobre e queste schede video ancora non si vedono sul mercato italiano :cry:

Devo comprarmi entro una settimana una 7800 GTX, ma non so a sto punto se vale la pena spendere 470€ per questa scheda video o aspettare la X1800XT. Cmq credo che quest'ultima avrà un prezzo di almeno 550€, non credete?

Mannaggia, non so che fare :cry: :cry: :cry:

Cmq di sicuro una 7800 GTX è più performante di una X1800XL, quindi il confronto di prezzo lo farei solo con le XT da 256 e 512 Mb di RAM.

:help:


Ciao
~» Mr.Party`Hut «~

halduemilauno
10-10-2005, 12:55
Ragazzi, siamo il 10 Ottobre e queste schede video ancora non si vedono sul mercato italiano :cry:

Devo comprarmi entro una settimana una 7800 GTX, ma non so a sto punto se vale la pena spendere 470€ per questa scheda video o aspettare la X1800XT. Cmq credo che quest'ultima avrà un prezzo di almeno 550€, non credete?

Mannaggia, non so che fare :cry: :cry: :cry:

Cmq di sicuro una 7800 GTX è più performante di una X1800XL, quindi il confronto di prezzo lo farei solo con le XT da 256 e 512 Mb di RAM.

:help:


Ciao
~» Mr.Party`Hut «~

certo che non si vedono. è ufficiale le x1800xt saranno disponibili dal 5 novembre.
alcuni utenti l'hanno vista(in prenotazione)a oltre 600€. alcuni utenti. la xl avvistata a 511€.
di più non so.
;)

~Mr.PartyHut~
10-10-2005, 12:59
certo che non si vedono. è ufficiale le x1800xt saranno disponibili dal 5 novembre.
alcuni utenti l'hanno vista(in prenotazione)a oltre 600€. alcuni utenti. la xl avvistata a 511€.
di più non so.
;)

:doh: madonna, il 5 Nov è troppo tardi :doh:

Mi sa che mi prendo una 7800 GTX allora :)

Cmq non sarebbe dovuta uscire la mega Rece di HU oggi? :)
Aspetto con ansia :) E se vedo che i risultati sono sbalorditivi, allora faccio un sacrificio e magari aspetto :(


Ciao
~» Mr.Party`Hut «~

Maury
10-10-2005, 12:59
http://www.theinquirer.net/?article=26818
877.5/1980=12278.
http://www.theinquirer.net/images/articles/maki.jpg

;)

:eek: :eek: :eek: :eek:

Mio Dio che mostro :eek:

yossarian
10-10-2005, 13:00
e le frequenze dovevano essere in origine ancor più elevate.
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page16.asp
un update.
http://www.anandtech.com/video/showdoc.aspx?i=2556&p=1
;)

lo so ;) ;
non per niente, in riferimento ai problemi incontrati da ATi, ho parlato espressamente dei disturbi dovuti alle interferenze che, a frequenza più elevata, danno molti più problemi. E per lo stesso motivo sono convinto che le prossime revisioni del chip, adesso che i problemi sono stati risolti, saliranno più facilmente in frequenza.

halduemilauno
10-10-2005, 13:01
:doh: madonna, il 5 Nov è troppo tardi :doh:

Mi sa che mi prendo una 7800 GTX allora :)

Cmq non sarebbe dovuta uscire la mega Rece di HW oggi? :)
Aspetto con ansia :) E se vedo che i risultati sono sbalorditivi, allora faccio un sacrificio e magari aspetto :(


Ciao
~» Mr.Party`Hut «~

mi pare di aver capito che esce domani. come vedi i risultati se sono sbalorditivi??? son gia state postate almeno 10 rece. ormai il valore è gia stato bello che stabilito.
;)

Vifani
10-10-2005, 13:04
mi pare di aver capito che esce domani. come vedi i risultati se sono sbalorditivi??? son gia state postate almeno 10 rece. ormai il valore è gia stato bello che stabilito.
;)

No no, non è stato attribuito niente... la nostra recensione è più bella e figa delle altre :sofico:

Scherzo ovviamente :)

~Mr.PartyHut~
10-10-2005, 13:06
mi pare di aver capito che esce domani. come vedi i risultati se sono sbalorditivi??? son gia state postate almeno 10 rece. ormai il valore è gia stato bello che stabilito.
;)

sisi, infatti le ho viste (un pò superficilamente ma le ho viste). E' solo che voglio dar maggior peso alla rece di HU, visto che le altre più o meno si contraddicono in certi aspetti :(

Secondo te halduemilauno, andrebbe bene una 7800 GTX al posto di una X1800XL o X1800XT 256Mb ?? :help: :help: :help:

Ciao
~» Mr.Party`Hut «~

T3d
10-10-2005, 13:07
sisi, infatti le ho viste (un pò superficilamente ma le ho viste). E' solo che voglio dar maggior peso alla rece di HU, visto che le altre più o meno si contraddicono in certi aspetti :(

Secondo te halduemilauno, andrebbe bene una 7800 GTX al posto di una X1800XL o X1800XT 256Mb ?? :help: :help: :help:

Ciao
~» Mr.Party`Hut «~
guarda io mi devo prendere una x1800XL visti gli increbili overclock che riesci a fargli con lo stock cooling, dicono QUI (http://www.hwupgrade.it/forum/showpost.php?p=9773713&postcount=432) che si arriva anche a 700mhz. Sempre ad aria.
Poi la storia dei 511€ per la versione XL mi sembra un po' eccessiva... non credo che la venderanno a quel prezzo, anche perchè su uno shop online americano che fa spedizioni internazionali la vendono a 345€+s.s.
bye

DevilMalak
10-10-2005, 13:12
No no, non è stato attribuito niente... la nostra recensione è più bella e figa delle altre :sofico:


Beh io ne ho viste decine però aspetto quella di hwu per fare la scelta finale, anche se la vga la prendo verso fine dicembre :cool:
Tutto il mondo aspetta la rece di hwu ! :sofico:
Spero anche che la x1800xt 512mb stia sui 500€ per fine dicembre... magari poco più, ma sotto i 550

andreamarra
10-10-2005, 13:15
:doh: madonna, il 5 Nov è troppo tardi :doh:

Mi sa che mi prendo una 7800 GTX allora :)

Cmq non sarebbe dovuta uscire la mega Rece di HU oggi? :)
Aspetto con ansia :) E se vedo che i risultati sono sbalorditivi, allora faccio un sacrificio e magari aspetto :(


Ciao
~» Mr.Party`Hut «~


ascolta... che scheda video hai attualmente?

in ogni caso, io sono dell'idea che la scheda video da scegliere debba essere quella che sia tecnologicamente più evoluta e con qualità grafica migliore. Alla fine una XL è meno performante di una GTX, ma la differenza tra 90 fps e 80 a risoluzioni pazzesche e filti tu le vedi :D?

se non hai una scheda video tipo S3 Virge io aspetterei un mesetto. Altrimenti, molto meglio prendere una 6800GT da portare a Ultra.

~Mr.PartyHut~
10-10-2005, 13:18
No no, non è stato attribuito niente... la nostra recensione è più bella e figa delle altre :sofico:

Scherzo ovviamente :)

Perfavore Vifani, partorisci questa rece il prima possibile :help:
è una pecorella smarrita che ti parla :help:

Ciao
~» Mr.Party`Hut «~

~Mr.PartyHut~
10-10-2005, 13:18
ascolta... che scheda video hai attualmente?

Ciao,
avevo una Radeon 9800 Pro 128 Mb,
or sono con un muletto piccolo piccolo :)

Ciao
~» Mr.Party`Hut «~


PS: ho capito perfetaamente cosa voi dire Andreamarra. In effetti hai ragione :( Mannaggia aspettare un mese è distruttivo :cry:

halduemilauno
10-10-2005, 13:23
sisi, infatti le ho viste (un pò superficilamente ma le ho viste). E' solo che voglio dar maggior peso alla rece di HU, visto che le altre più o meno si contraddicono in certi aspetti :(

Secondo te halduemilauno, andrebbe bene una 7800 GTX al posto di una X1800XL o X1800XT 256Mb ?? :help: :help: :help:

Ciao
~» Mr.Party`Hut «~

ma da quello che si vede la 7800gtx è superiore alla x1800xl in tutto e per tutto. e quanto mi risulta costa(la 7800gtx)anche meno, la si trova sui 470€ I.I.
per chi dice che la x1800xl si oc si certo. ma vale anche per la 7800gtx. con quest'ultima si raggiungono anche valori notevoli. e a quanto visto dovrebbe superare anche la x1800xt. certo anche quest'ultima si oc. ovviamente sto parlando di oc umani nel senso ottenibili dalla massa con molta facilità. non le mostruosità(tipo quella che ho postato poc'anzi)ottenibile solo con materiali, condizioni e capacità fuori dall'ordinario.
valuta tu. il chip R520 è il chip più avanzato del momento in più aiutato da quel popò di ram...non tanto della quantità ma della frequenza.(si potrebbe fare la battuta "tutta ram e distintivo"). è una battuta. che, spero per i più attenti, chiara e quindi divertente.
cmq certo aspetta domani, uscirà la rece.
;)

andreamarra
10-10-2005, 13:26
Ciao,
avevo una Radeon 9800 Pro 128 Mb,
or sono con un muletto piccolo piccolo :)

Ciao
~» Mr.Party`Hut «~


uhm... la GTX è più performante di una XL, questo è chiaro.

però la differenza in FPS è talmente "piccola" a occhio umano (e diventa risicatissima poi a risoluzioni e filtri esagerati) che io personalmente prendo quella che mi dà una qualitò media di immagine superiore.

Io fossi in te aspetterei un mesetto, anche per vedere come i nuovi giochi con driver più definiti si comportano.

Se poi si vede che questo R520 gestisce ancora meglio l'HDR di G70, e se le prestazioni con HDR+AAA sono soddisfacenti, considerando che adesso cominciano a uscire titoli con render HDR... io punterei sulla R520.

Oppure potresti prendere a prezzo molto più basso una 6800GT da portare tranquillamente a Ultra o anche di più. Spendi anche la metà di una 7800GTX, a livello qualitativo sono uguali, a livello tecnologico non ci sono cambiamenti sostanziali, cambia la potenza ma a meno di non mettere giochi a risoluzioni proibitive e filtraggi clamorosi...

~Mr.PartyHut~
10-10-2005, 13:27
ma da quello che si vede la 7800gtx è superiore alla x1800xl in tutto e per tutto. e quanto mi risulta costa(la 7800gtx)anche meno, la si trova sui 470€ I.I.
per chi dice che la x1800xl si oc si certo. ma vale anche per la 7800gtx. con quest'ultima si raggiungono anche valori notevoli. e a quanto visto dovrebbe superare anche la x1800xt. certo anche quest'ultima si oc. ovviamente sto parlando di oc umani nel senso ottenibili dalla massa con molta facilità. non le mostruosità(tipo quella che ho postato poc'anzi)ottenibile solo con materiali, condizioni e capacità fuori dall'ordinario.
valuta tu. il chip R520 è il chip più avanzato del momento in più aiutato da quel popò di ram...non tanto della quantità ma della frequenza.
cmq certo aspetta domani, uscirà la rece.
;)

Grazie, sei stato molto chiaro :)
Credo che domani sarà il giorno decisivo per il bonifico che devo fare :D

Cmq per l'overclock no problem. Devo prendere uno Zalman per schede video completamente in Rame, quindi potrei anche azzardare overclock abbastanza spinti :)


Ciao
~» Mr.Party`Hut «~

andreamarra
10-10-2005, 13:28
Ciao,
avevo una Radeon 9800 Pro 128 Mb,
or sono con un muletto piccolo piccolo :)

Ciao
~» Mr.Party`Hut «~


PS: ho capito perfetaamente cosa voi dire Andreamarra. In effetti hai ragione :( Mannaggia aspettare un mese è distruttivo :cry:

ti ho dato altro materiale su cui riflettere, valutando qualità/prezzo/prestazioni ;)

un mese da aspettare è distruttivo :D? Pensa a me che ho la 9700Pro da quando è uscita e non la cambio ancora :sofico:!!!

~Mr.PartyHut~
10-10-2005, 13:29
uhm... la GTX è più performante di una XL, questo è chiaro.

però la differenza in FPS è talmente "piccola" a occhio umano (e diventa risicatissima poi a risoluzioni e filtri esagerati) che io personalmente prendo quella che mi dà una qualitò media di immagine superiore.

Io fossi in te aspetterei un mesetto, anche per vedere come i nuovi giochi con driver più definiti si comportano.

Se poi si vede che questo R520 gestisce ancora meglio l'HDR di G70, e se le prestazioni con HDR+AAA sono soddisfacenti, considerando che adesso cominciano a uscire titoli con render HDR... io punterei sulla R520.

Oppure potresti prendere a prezzo molto più basso una 6800GT da portare tranquillamente a Ultra o anche di più. Spendi anche la metà di una 7800GTX, a livello qualitativo sono uguali, a livello tecnologico non ci sono cambiamenti sostanziali, cambia la potenza ma a meno di non mettere giochi a risoluzioni proibitive e filtraggi clamorosi...

Anche il tuo ragionamento non fa una piega Andrea :)
Mi sa che sarà molto dura la scelta :(



ODDIOOOOOOOO, pensate quando devo prendere moglie, odddiiiiiiiiiooooo :doh:
Ciao
~» Mr.Party`Hut «~

neopazzo
10-10-2005, 13:32
No no, non è stato attribuito niente... la nostra recensione è più bella e figa delle altre :sofico:

Scherzo ovviamente :)


mmm chiedo a te....si sa qualcosa delle skede madri dfi crossfire?

ciao

halduemilauno
10-10-2005, 13:33
Anche il tuo ragionamento non fa una piega Andrea :)
Mi sa che sarà molto dura la scelta :(



ODDIOOOOOOOO, pensate quando devo prendere moglie, odddiiiiiiiiiooooo :doh:
Ciao
~» Mr.Party`Hut «~

non ti preoccupare. in questo nel forum ci sono degli utenti veramente davestanti.
;)

Jedi_Master
10-10-2005, 13:38
Anche il tuo ragionamento non fa una piega Andrea :)
Mi sa che sarà molto dura la scelta :(

Giusto per confonderti meglio le ideee........ ;)
Io direi che la 7800 GT è ottima come prezzo/prestazioni!!
Se invece vuoi la miglior qualita' video vai sulla x1800xl che ha ben poco
da 'nviadiare' all'altra se non il prezzo!!
Buona scelta.
:D

andreamarra
10-10-2005, 13:41
Giusto per confonderti meglio le ideee........ ;)
Io direi che la 7800 GT è ottima come prezzo/prestazioni!!
Se invece vuoi la miglior qualita' video vai sulla x1800xl che ha ben poco
da 'nviadiare' all'altra se non il prezzo!!
Buona scelta.
:D

vero, anche la 7800GT e non GTX sarebbe da prendere, costa di meno e a livello di performance pure non va tanto malaccio rispetto a una GTX :D

un pò come quando è uscita la 9700.... la 9700 liscia costava molto di meno della 9700PRO. Ma la differenza tra una 9700 liscia e una pro in concreto, bench a parte... la si notava????

se uno vuole spendere tanto, ma proprio tanto, io prenderei senza ombra di dubbio la 1800XT, se vuole spendere un pò di meno, scelta tra 7800GT e 1800XL, se vuoi spendere relativamente poco e avere una scheda video formidabile e valida per molto tempo... 6800GT tutta la vita!

~Mr.PartyHut~
10-10-2005, 13:42
Giusto per confonderti meglio le ideee........ ;)
Io direi che la 7800 GT è ottima come prezzo/prestazioni!!
Se invece vuoi la miglior qualita' video vai sulla x1800xl che ha ben poco
da 'nviadiare' all'altra se non il prezzo!!
Buona scelta.
:D

Grazie Jedi, in questo modo hai gratificato in parte il mio sado-masochismo :D :sofico:

la 7800 GT la trovo a 411 € (a questo punto con 474 mi ci sparo la 7800 GTX :( )


Ciao
~» Mr.Party`Hut «~

andreamarra
10-10-2005, 13:54
io voglio aspettare per vedere come si muove il lato software... :D

però sono curioso di vedere una cosuccia sulla XL... a quanto pare queste R520 non hanno frequenze assurde e non sono overvoltate... in realtà le frequenze sono ridimensionate!

Quindi, voglio vedere se la XL è una XT "sfortunata" oppure se la XL altro non è che una XT con voltaggi inferiori.

Se si scopre che la XL da software la si può portare tranquillamente a XT, sarebbe una scelta azzeccatissima.

però.. voglio vedere l'efficienza con HDR e con HDR+AAA :D....

~Mr.PartyHut~
10-10-2005, 13:54
cmq ragazzi, grazie mille per gli interventi, mi sono stati tutti molto utili per farmi aprire gli occhi su certi punti oscuri :)

Ora devo scappare al'univ.
Mi piacerebbe se possibile magari riprendere questo discorso stasera dopo cena :) per chiarire gli ultimi dubbi. oppure domani dopo la mega rece di HWU :)

Ora scappo :ops:

Ciao
~» Mr.Party`Hut «~

Jedi_Master
10-10-2005, 13:57
oppure domani dopo la mega rece di HWU

Ottima idea!
;)

R@nda
10-10-2005, 14:13
La 1800XL dovrebbe andare introno ai 430€ (ve lo do praticamente per certo)
Anche io aspetto la rece Hwu
Ma sopratutto aspetto R580 e la prossima mossa Nvidia, la Vga attuale mi va ancora benone.
Cmq l'R520 è un ottima scheda, anche se mi aspettavo qualcosina in più....che può darsi arrivi con dei driver sicuramente più adatti a lei.

OvErClOck82
10-10-2005, 14:24
La 1800XL dovrebbe andare introno ai 430€ (ve lo do praticamente per certo)
Anche io aspetto la rece Hwu
Ma sopratutto aspetto R580 e la prossima mossa Nvidia, la Vga attuale mi va ancora benone.
Cmq l'R520 è un ottima scheda, anche se mi aspettavo qualcosina in più....che può darsi arrivi con dei driver sicuramente più adatti a lei.
quoto.

p.s. bel cane :)

OvErClOck82
10-10-2005, 14:25
Ottima idea!
;)
si, ma questa rece quando la fanno ? :mbe:

Jedi_Master
10-10-2005, 14:29
si, ma questa rece quando la fanno ? :mbe:

Credevo uscisse in giornata, ma a sto' punto credo domani....
:cry:

davestas
10-10-2005, 15:36
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso....
Ora ovviamente non è che intendo mantenere la GTO2 per 5 anni, ma per un paio d'annetti per poi cambiarla con una WFG 2.0...
Che mi consigliate? Spero che nei bench di hwupgrade verrà considerata anche la GTO2,deve essere considerata visto che è nuova... :D

TheDarkAngel
10-10-2005, 15:40
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso....
Ora ovviamente non è che intendo mantenere la GTO2 per 5 anni, ma per un paio d'annetti per poi cambiarla con una WFG 2.0...
Che mi consigliate? Spero che nei bench di hwupgrade verrà considerata anche la GTO2,deve essere considerata visto che è nuova... :D

:cry: :cry: :cry:

Maury
10-10-2005, 15:42
:cry: :cry: :cry: :cry:

T3d
10-10-2005, 15:44
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso....
Ora ovviamente non è che intendo mantenere la GTO2 per 5 anni, ma per un paio d'annetti per poi cambiarla con una WFG 2.0...
Che mi consigliate? Spero che nei bench di hwupgrade verrà considerata anche la GTO2,deve essere considerata visto che è nuova... :D
ma non ti dovevi comprare la xbox360???? :ncomment:

:ahahah:

[-tommi-]
10-10-2005, 15:48
OMG !!
avete visto un overclockers ha portato la x1800xt sotto dry ice a 877/1980 mhz ? :fagiano: e ha fatto 12278 punti :mc: :mc:

e ad aria lha portata a 868mhz di core :mc: :mc: e 10100 punti circa

:eek:

R@nda
10-10-2005, 15:50
A me sembra di aver capito che solo la Cpu era cloccata a ghiaccio secco....mentre la Vga era ad aria e overvoltata soltanto.
o no? :mbe:

T3d
10-10-2005, 15:51
A me sembra di aver capito che solo la Cpu era cloccata a ghiaccio secco....mentre la Vga era ad aria e overvoltata soltanto.
o no? :mbe:
esattamente... la cosa incredibile sono le frequenze del core raggiunte ad aria :sofico:

DjLode
10-10-2005, 15:53
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso....
Ora ovviamente non è che intendo mantenere la GTO2 per 5 anni, ma per un paio d'annetti per poi cambiarla con una WFG 2.0...
Che mi consigliate? Spero che nei bench di hwupgrade verrà considerata anche la GTO2,deve essere considerata visto che è nuova... :D

Aaaaancora tu.... ma non dovevamo vederci più? :help:

DevilMalak
10-10-2005, 15:58
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso....
Ora ovviamente non è che intendo mantenere la GTO2 per 5 anni, ma per un paio d'annetti per poi cambiarla con una WFG 2.0...
Che mi consigliate? Spero che nei bench di hwupgrade verrà considerata anche la GTO2,deve essere considerata visto che è nuova... :D

nonono assolutamente no, fa schifo
Ti consiglio un xbox360, prendila al volo è fantastica e supera tutte le vga esistenti ciao!!

andreamarra
10-10-2005, 16:09
La 1800XL dovrebbe andare introno ai 430€ (ve lo do praticamente per certo)
Anche io aspetto la rece Hwu
Ma sopratutto aspetto R580 e la prossima mossa Nvidia, la Vga attuale mi va ancora benone.
Cmq l'R520 è un ottima scheda, anche se mi aspettavo qualcosina in più....che può darsi arrivi con dei driver sicuramente più adatti a lei.

430 euro? E' sempre un prezzo molto alto, ma per quello che offre è un "ottimo prezzo". Credevo che il prezzo si aggirasse intorno ai 500-550 euro la XL fino a 550-600 Euro per la XT... hai informatori segreti :D?

R580, dalle premesse, e considerando che prenderà dal R530 la gestione shader (migliore, avendo più unità rispetto al R520) sarà sicuramente una belva... e anche nvidia ovviamente.

Io sinceramente quando ho saputo del problema di resa del chip e delle 16 pipeline anzichè 24 o 32 (sapendo adesso che questa ati il concetto di pipeline lo "stravolge" essendo molto simile a R500 da questo punto di vista) credevo in un flop. Perchè la nvidia era troppo potente e aveva una architettura moderna, credendo che la ati sfornasse un altro chip ultra pompato con poche varianti dal R420.

A giudicare dall'architettura: sono sbalordito.

Prestazioni: in linea con G70 ma con vantaggi per ati ad alte risoluzioni e filtri (una scheda da 500 euro la prendo per alte risoluzioni e tantissimi filtri).

Alla fine: nei giochi già una 6800 basta e avanza, con queste qui hai performance superiori, qualità visiva superiore, HDR e AAA insieme, e credo che 100fps a un gioco nuovo a 1600*1200 con AAA4X e Aniso 16X siano anche troppi... che chiedere di più? 200 fps?

Rammaricato per: le dimensioni, il consumo e il nome (X1800XT fa cagare :D)

In dubbio: valutare le prestazioni di HDR e AAA insieme. Se la scheda regge l'impatto allora sarà davvero una scheda formidabile. E il solo HDR + AAA (non si vive di soli FPS, e in più ste schede i FPS li macinano non è che siano stitiche...) per me la rende più appetibile di G70.
Come tra NV40 e R420 era più appetibile la soluzione nvidia.

andreamarra
10-10-2005, 16:10
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso....
Ora ovviamente non è che intendo mantenere la GTO2 per 5 anni, ma per un paio d'annetti per poi cambiarla con una WFG 2.0...
Che mi consigliate? Spero che nei bench di hwupgrade verrà considerata anche la GTO2,deve essere considerata visto che è nuova... :D

http://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gif http://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gifhttp://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gif

Maury
10-10-2005, 16:18
Cmq parlare di ritardo è ridicolo... è un progetto nuovo, ha avuto bisogno di più tempo per essere sviluppato, non è un R420 con SM3... come si ventilava :)

Tecnologia che emoziona, questo è R520 :)

andreamarra
10-10-2005, 16:24
Cmq parlare di ritardo è ridicolo... è un progetto nuovo, ha avuto bisogno di più tempo per essere sviluppato, non è un R420 con SM3... come si ventilava :)

Tecnologia che emoziona, questo è R520 :)

per me non ha senso, in ogni caso, parlare di "ritardi".

Se la ati ha avuto problemi nel progetto, meglio 5 mesi di ritardo ma con una scheda del genere, che presentare il giorno stesso di G70 na mezza sola.

Io credo che uno dovrebbe pensare che fare una scheda video non sia poi così tanto semplice, basta sbagliare una stronzatina e ti compromette il progetto con danni gravissimi all'azienda. Il solo passare ai 0.09 micron NON è una cosa da poco, assolutamente. Il dedicarsi anche al chip di Xbox360 non è una cosa da poco, mi sembra che la play3 avrà un chip grafico praticamente uguale al G70. La ati ha già un chip con vertex e pixel unificati, full WFG2.0.

Era meglio far uscire la scheda il giorno stesso ma mettere dentro solo i sm3.0 e frequenze e pipeline pompate? Andare avanti a 0.13?

anche la nvidia avrà i suoi problemi con i prossimi chip e con il passaggio ai 0.09. Ma la nvidia per sua fortuna dispone di grandissime risorse.

Come non ha senso dire "vorrei vedere la G70 con le frequenze della R520...". A me non viene in mente di voler vedere il G70 con 8 pipeline in meno.

La scheda è così e basta.

picard88
10-10-2005, 16:25
Ragazzi io vorrei prendere la GTO2 e cercarla di overcloccarla a 850XT od addirittura PE, il problema pero' è che le recensioni enfatizzano tutte sto benedetto pixel shader 3.0 definito indispensabile nei nuovi giochi ed anche per Vista che ne farà grande uso.... :old: :boh: :nono: :friend:
che davestamento.... :D

andreamarra
10-10-2005, 16:35
cmq ragazzi, grazie mille per gli interventi, mi sono stati tutti molto utili per farmi aprire gli occhi su certi punti oscuri :)

Ora devo scappare al'univ.
Mi piacerebbe se possibile magari riprendere questo discorso stasera dopo cena :) per chiarire gli ultimi dubbi. oppure domani dopo la mega rece di HWU :)

Ora scappo :ops:

Ciao
~» Mr.Party`Hut «~

ciao :D

se vuoi, apri un 3D su consigli per gli acquisti ;)

io quello che mi sento di dirti è questo, facendo esempi:

tra una 6800GT/Ultra e una X850XTPECazz&Mazz qual è la migliore a livello di prestazioni? La soluzione Ati. Mediamente, va meglio, soprattutto a risoluzioi elevate e tanti filtri (e se compri una scheda del genere, ci vai senza filtri e a 1024*768? :D). Quale dovresti comprare, quindi? La X850XTPECazz&Mazz.
Io ti dico: no.

Perchè se a livello di prestazioni pure la R420 è più performante (e la differenza la noti solo nei bench, se in un gioco con nvidia fai 85 e con ati fai 90...), NON lo è dal punto di vista tecnico. E visivo, dunque. Quindi, 6800GT/Ultra.

Idem qui con l'R520 e G70. Però qua a livello di prestazioni è un pò meglio la ati, ma a livello qualitativo e tecnico la ati è superiore.

però, ripeto, io aspetterei di vedere come si comporta sta scheda con HDR, e con HDR+AAA. Questo per me è basilare per un futuro acquisto.

R@nda
10-10-2005, 16:37
430 euro? ... hai informatori segreti ?

No,il listino distributori :D
E a loro viene molto meno,poi ovviamente c'è il 20% iva e qualcosa di guadagno....più o meno viene a costare quella cifra li.

andreamarra
10-10-2005, 17:06
No,il listino distributori :D
E a loro viene molto meno,poi ovviamente c'è il 20% iva e qualcosa di guadagno....più o meno viene a costare quella cifra li.

:D

in giro vedo la 7800GT a 410 euro circa, considerando che è uscita diversi mesi fa il prezzo sarebbe allineato alla XL.

la 7800GTX anche 520 euro...

bho, per me una differenza così alta di euro tra una versione GTX e GT NON è paragonabile allo scarto prestazionale... idem per la sicura differenza tra XL e XT.

[ho preso i prezzi di un negozio on-line, ovviamente le si troverà anche a meno]

halduemilauno
10-10-2005, 17:27
cmq per par condicio.
7800gtx da 430/1200 a 810/1521 = 11.915 ottenuto con una cpu simile. 3729 vs 3617.
http://service.futuremark.com/compare?3dm05=1002966

1) CPU - x1800xt = 3617, 7800gtx = 3729
2) GPU - x1800xt = 877/1980 , 7800gtx = 810/1521
3) 3dm05 - x1800xt = 12,278, 7800gtx = 11,915

a questo punto ribadisco una battuta (battuta). il valore tecnologico non è mai stato messo in discussione. sta x1800xt è tutta ram e distintivo.
ciao.
;)

T3d
10-10-2005, 17:34
hal... ci stà una bella differenza tra i due overclock! l'overclock della gtx è tirato al massimo... mentre per la x1800xt si prevede di superare il ghz (1GHZ) nel core e 2GHZ nelle memorie, a detta dei più grandi del settore. Inoltre gli 880mhz della scheda ati sono stati fatti sotto dryice, circa -80°C a differenza della gtx fatta sicuramente sotto LN2 (-190°C)

halduemilauno
10-10-2005, 17:39
hal... ci stà una bella differenza tra i due overclock! l'overclock della gtx è tirato al massimo... mentre per la x1800xt si prevede di superare il ghz (1GHZ) nel core e 2GHZ nelle memorie, a detta dei più grandi del settore. Inoltre gli 880mhz della scheda ati sono stati fatti sotto dryice, circa -80°C a differenza della gtx fatta sicuramente sotto LN2 (-190°C)

a che si preveda di superare i 1000/2000 ne dubito, ma di certo questo non lo sapevo.
come si dice in questi casi complimenti in anticipo.
;)

andreamarra
10-10-2005, 17:40
hal... ci stà una bella differenza tra i due overclock! l'overclock della gtx è tirato al massimo... mentre per la x1800xt si prevede di superare il ghz (1GHZ) nel core e 2GHZ nelle memorie, a detta dei più grandi del settore. Inoltre gli 880mhz della scheda ati sono stati fatti sotto dryice, circa -80°C a differenza della gtx fatta sicuramente sotto LN2 (-190°C)

credo che hal intendesse mettere in rilievo non l'OC pesantissimo della GTX, ma il fatto che a frequenze quasi simili (ma più basse nelle ram) la scheda nvidia praticamente fa come una XT overcloccata ne 3dmark.

Dicendo quindi che le ram della scheda ati danno quella marcia in più.

Io avevo cmq letto in alcuni post di yossarian che nonostante tutto la ram non era quel qualcosa che rendeva sta scheda ati una potenza, e neanche le frequenze. Ma grazie alla maggiore efficenza.

Ovvio che le ram che ha la ati siano mostruose, mi chiedo allora perchè non le abbia usate anche la nvidia :D!

Ricky78
10-10-2005, 17:44
Rammaricato per: le dimensioni, il consumo e il nome (X1800XT fa cagare :D)
Ma scusa come fai a dire che è più lunga?... Dove sta scritto?
Nel caso più di una 6800 Ultra?... altrimenti mi sbatterebbe contro gli hard disk...

Il prezzo della XT presumo sia poco sopra i 500 €...

halduemilauno
10-10-2005, 17:46
credo che hal intendesse mettere in rilievo non l'OC pesantissimo della GTX, ma il fatto che a frequenze quasi simili (ma più basse nelle ram) la scheda nvidia praticamente fa come una XT overcloccata.

Dicendo quindi che le ram della scheda ati danno quella marcia in più.

Io avevo cmq letto in alcuni post di yossarian che nonostante tutto la ram non era quel qualcosa che rendeva sta scheda ati una potenza, e neanche le frequenze. Ma grazie alla maggiore efficenza.

Ovvio che le ram che ha la ati siano mostruose, mi chiedo allora perchè non le abbia usate anche la nvidia :D!

esatto. non a caso ho fatto la battuta in quel senso.
sulla maggior efficienza ormai neanche si discute. cmq quella ram da una bandwidth di 10 giga in più che qualcosa devono pur dare.
perchè credo che 5 mesi fa quando è stata congelata la scheda la ram più veloce era la 1200. poi cmq è anche una questione di prezzi e di necessità.
quindi si mi piacerebbe(per curiosità)vedere una 7800gtx con la ram della x1800xt. per carità mi va bene anche in dual slot.
;)

T3d
10-10-2005, 17:47
allora sarebbe interessante mettere su un sistema esattamente identico, con le stesse frequenze nella ram, nella cpu e le frequenze core e ram vga. Sta di fatto che quei 100mhz in più fanno una bella differenza quando le cpu deve stare dietro alla vga ;)

bye

Intel-Inside
10-10-2005, 17:57
Dunque io ho visto in uno shop italiano la XT 256MB e la XT 512MB :

667€ la prima e 768€ la seconda :eek: ( markiate Club3D )

Ribastisco : :eek:

Taurus19-T-Rex2
10-10-2005, 17:59
Dunque io ho visto in uno shop italiano la XT 256MB e la XT 512MB :

667€ la prima e 768€ la seconda :eek: ( markiate Club3D )

Ribastisco : :eek:


e io riquoto :eek:


mi dai il link in PVT...................thx

T3d
10-10-2005, 18:00
Dunque io ho visto in uno shop italiano la XT 256MB e la XT 512MB :

667€ la prima e 768€ la seconda :eek: ( markiate Club3D )

Ribastisco : :eek:
:doh: ma chi se le compra??? cioè questi sono pazzi :D di certo la mia me la faccio spedire dagli USA dove costeranno un 200€ in meno! :muro:

p.s. anche a me il link in PVT grazie :rolleyes:

MaBru
10-10-2005, 18:00
Dunque io ho visto in uno shop italiano la XT 256MB e la XT 512MB :

667€ la prima e 768€ la seconda :eek: ( markiate Club3D )

Ribastisco : :eek:
Dove?

Intel-Inside
10-10-2005, 18:04
Cioè ok ke l'arkitettura del chip sia ottima e va più veloce della 7800gtx ma quei prezzi sono semplicemente troppo alti... il rapporto prezzo/prestazione lo vince nvidia...