PDA

View Full Version : [THREAD UFFICIALE] ATI Radeon X1800XT/XL


Pagine : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

T3d
10-10-2005, 18:05
Cioè ok ke l'arkitettura del chip sia ottima e va più veloce della 7800gtx ma quei prezzi sono semplicemente troppo alti... il rapporto prezzo/prestazione lo vince nvidia...
se tutti facessero quei prezzi avresti perfettamente ragione :D per adesso è il primo prezzo che vedo in italia. bisogna aspettare per giudicare ;)

bye

andreamarra
10-10-2005, 18:06
ok che le ram sono costosissime... però un prezzo del genere è assurdo.

Spero che le vendano a molto meno, la XL non può costare più di 450 euro!!!

Posso capire la XT con 512 mega di ram, allora li il prezzo purtroppo deve essere elevato, ma non oltre 700 euro!

andreamarra
10-10-2005, 18:12
nello stesso negozio vendono HL2 in versione normale a 50 euro....

vabbhè va....

davestas
10-10-2005, 18:13
Aaaaancora tu.... ma non dovevamo vederci più? :help:

fate ironia....quando veramente con una x1800xt si compra una xbox360+ ps3 e si dà pure una mancia al commesso del negozio... :Prrr: :ciapet:
cmq seriamente, io ho solo chiesto di considerare nei bench anche la GTO2... e di paragonarla appunto alla 6800gt, ed ovviamente alle nuove, semplicemente questo...

ForeverBlue
10-10-2005, 18:17
fate ironia....quando veramente con una x1800xt si compra una xbox360+ ps3 e si dà pure una mancia al commesso del negozio... :Prrr: :ciapet:
cmq seriamente, io ho solo chiesto di considerare nei bench anche la GTO2... e di paragonarla appunto alla 6800gt, ed ovviamente alle nuove, semplicemente questo...

non è che tu abbia torto a voler vedere le performance di una scheda senza dubbio interessante, ma devi pur comprendere che dopo 6 mesi della solita minestra ci hai veramente scassato i santissimi.....


vabeh ridiamo va :D

Intel-Inside
10-10-2005, 18:17
nello stesso negozio vendono HL2 in versione normale a 50 euro....

vabbhè va....

Guarda bene è l'edizione speciale quella... mentre quella normale sta a 33 euro ;)

emax81
10-10-2005, 18:20
GeCube GC-X1800XLD-VID3
Retail
256 MB
Radeon X1800XL
PCIe x16
256 Bit
in den Warenkorb
zum Produktvergleich
€ 439,-*
Neues Produkt. Lieferzeiten noch nicht bekannt.

Sapphire Radeon X1800XL
Retail
256 MB
Radeon X800XL
PCIe x16
256 Bit
in den Warenkorb
zum Produktvergleich
€ 449,-*
Neues Produkt. Lieferzeiten noch nicht bekannt.

GeCube GC-X1800XTD-VID3
Retail
256 MB
Radeon X1800XT
PCIe x16
256 Bit
in den Warenkorb
zum Produktvergleich
€ 539,-*
Neues Produkt. Lieferzeiten noch nicht bekannt.

GeCube GC-X1800XTD-VIE3
Retail
512 MB
Radeon X1800XT
PCIe x16
256 Bit
in den Warenkorb
zum Produktvergleich
€ 599,-*

*Alle unsere Preise enthalten 7%, bzw. 16% Mehrwertsteuer und verstehen sich zzgl.

T3d
10-10-2005, 18:22
allora nuove notizie sui prezzi di queste vga dalla germania:
- 478,99€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
- 431,99€ Connect3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe

sembrano prezzi più ragionevoli :D

Intel-Inside
10-10-2005, 18:23
Meno male ke cè emax81 ke ci tranquillizza tutti :D ... un bell'ordine collettivo in germania ci starà proprio bene :D

Intel-Inside
10-10-2005, 18:23
allora nuove notizie sui prezzi di queste vga dalla germania:
- 478,99€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
- 431,99€ Connect3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe

sembrano prezzi più ragionevoli :D

Decisamente molto piu' abbordabili... ;)

DevilMalak
10-10-2005, 18:24
beh ora sono le prime, speriamo che tra 1-2 mesetti i prezzi calino ancora e magari ci sia qualche marca "economica" :D

T3d
10-10-2005, 18:25
inoltre:
589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe
sempre dalla germania :) questa è mia :sofico:

emax81
10-10-2005, 18:25
Meno male ke cè emax81 ke ci tranquillizza tutti :D ... un bell'ordine collettivo in germania ci starà proprio bene :D

Abbasseranno prima o poi qua in ITA quei prezzi....la vedo malepure x le BBA,,,il solo anno d garanzia ( fino ai primi d settembre 2005 erano ben 3) nn attirerà molta clientela :rolleyes:

T3d
10-10-2005, 18:26
questa :eek::
389,57€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe

pazzesco!!!!!!!!!!!!!!!!!!!!!!! :sbav: :sbav:

emax81
10-10-2005, 18:27
Decisamente molto piu' abbordabili... ;)

confermo :D

T3d
10-10-2005, 18:31
riassumendo i prezzi dalla Germania:

389,57€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
430,36€ GeCube Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
431,99€ Connect3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe

478,99€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe

589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe

:D

andreamarra
10-10-2005, 18:31
Guarda bene è l'edizione speciale quella... mentre quella normale sta a 33 euro ;)

vero!

Cmq i negozi online quando esce un prodotto nuovo sparano cifre clamorose, ricordo ai tempi della 9800PRO certi prezzi da sentirsi male, anche 600 euro...

poi quel negozio dice che hanno già disponibile la XT... che esce fra 25 giorni...

io come sempre aspetterei, e a questo punto se devo prendere schede del genere, ordine collettivo in germania da negozi AFFIDABILI ;)

neopazzo
10-10-2005, 18:36
riassumendo i prezzi dalla Germania:

389,57€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
430,36€ GeCube Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
431,99€ Connect3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe

478,99€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe

589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe

:D

mi manderesti un pò di link in privato? :stordita:

andreamarra
10-10-2005, 18:36
cmq come al solito, tempo un mese e i prezzi già si assestano a livelli più umani

succede sempre così.

certo che guardando i prezzi in germania...

neopazzo
10-10-2005, 18:37
a questo punto se devo prendere schede del genere, ordine collettivo in germania da negozi AFFIDABILI ;)


mi unisco pure io .... :fagiano:



ps: ancora nessuna novità dal fronte Cross fire

andreamarra
10-10-2005, 18:39
cmq mi sembra che adesso il regolamento preveda che non si possano più fare ordini collettivi all'estero (niente 3D), confermate?

ricordo ancora con terrore quanto successo a molti utenti con un ordine collettivo in germania per le x800pro... :(

Foglia Morta
10-10-2005, 18:41
cmq mi sembra che adesso il regolamento preveda che non si possano più fare ordini collettivi all'estero (niente 3D), confermate?

ricordo ancora con terrore quanto successo a molti utenti con un ordine collettivo in germania per le x800pro... :(
cos'era successo?

andreamarra
10-10-2005, 18:45
cos'era successo?

praticamente il negozio che le vendeva è "misteriosamente" fallito, i soldi erano stati versati... tanti soldi.

hanno avuto anche problemi con l'avvocatessa...

in pratica sono in causa con una azienda fallita, non so ancora se sono riusciti a recuperare i soldi versati. In ogni caso, si parlava di diversi anni per poterli avere.

non so come è finita la vicenda... :(

Ricky78
10-10-2005, 18:51
Cioè ok ke l'arkitettura del chip sia ottima e va più veloce della 7800gtx ma quei prezzi sono semplicemente troppo alti... il rapporto prezzo/prestazione lo vince nvidia...
Ma che prezzi troppo alti... io a 680 € (1.400.000 Lire) di 1800XT me ne compro 5 non 1... :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

Sempre i soliti furbi-coglioni noi italiani...

Foglia Morta
10-10-2005, 18:52
praticamente il negozio che le vendeva è "misteriosamente" fallito, i soldi erano stati versati... tanti soldi.

hanno avuto anche problemi con l'avvocatessa...

in pratica sono in causa con una azienda fallita, non so ancora se sono riusciti a recuperare i soldi versati. In ogni caso, si parlava di diversi anni per poterli avere.

non so come è finita la vicenda... :(
grazie dell'info , brutta storia davvero

andreamarra
10-10-2005, 18:57
LOL HO SBAGLIATO :asd:!!!

T3d
10-10-2005, 18:58
io sapevo che le X1800 erano solo pciexpress!!!
infatti è così... qual'è il problema? :mbe:

p.s. heeheheheheheh :ubriachi:

andreamarra
10-10-2005, 19:00
infatti è così... qual'è il problema? :mbe:

p.s. heeheheheheheh :ubriachi:

avevo letto X1800XT agp


invece era X800XT :sofico:

Intel-Inside
10-10-2005, 19:12
Io ragazzi mi godo ancora per un pò la mia X850XT faccio bene? :D
Con i prezzi di lancio sicuramente non farei un buon affare...

Maury
10-10-2005, 19:15
Io ragazzi mi godo ancora per un pò la mia X850XT faccio bene? :D
Con i prezzi di lancio sicuramente non farei un buon affare...


hai una scheda di mer@@ che vuoi godere :(
























:sofico: :p

Intel-Inside
10-10-2005, 19:21
Vabbè maury... come si dice? ... godo xè mi accontento :D :p

conan_75
10-10-2005, 19:30
cos'era successo?
Mi ricordo bene la vicenda...qualcuno sospettava che un'utente si fosse messo in tasca qualcosa (anzi tutto), poi c'era l'avvocato fantasma etc.
Brutta storia, meglio lasciar perdere questi acquisti di gruppo.
Concordo con lo staff per il proibizionismo.

yossarian
10-10-2005, 19:30
esatto. non a caso ho fatto la battuta in quel senso.
sulla maggior efficienza ormai neanche si discute. cmq quella ram da una bandwidth di 10 giga in più che qualcosa devono pur dare.
perchè credo che 5 mesi fa quando è stata congelata la scheda la ram più veloce era la 1200. poi cmq è anche una questione di prezzi e di necessità.
quindi si mi piacerebbe(per curiosità)vedere una 7800gtx con la ram della x1800xt. per carità mi va bene anche in dual slot.
;)

sbagliato; non è la ram a dare 4 mila punti in più alla GTX nel 3DMark, ma l'verclock della gpu. La GTX è fortemente fillrate limited a causa delle sole 16 rop's

http://www.xbitlabs.com/articles/video/display/radeon-x1000_20.html

basta dare un'occhiata ai dati del fillrate per rendersi conto che la 7800 GTX fa registrare gli stessi valori della 6800 Ultra. Stesso numero di rop's, stesse frequenze di gpu, risultati identici.
Un caso?

bartolino3200
10-10-2005, 19:36
Ragazzi vi riporto una notiziola, vorrei sapere se corrisponde a verità...

ATI's X1800 XT Crossfire may require 800W
"As you have probably read in the reviews, the new ATI X1000 series require a lot of power, and it looks like these cards in CrossFire will use a lot more than we expected.
According to NGOHQ a typical AMD64 based system with some peripherals and two ATI Radeon X1800XT cards may use up to 740W!
Now that's a lot."

Link alla pagina: http://www.dvhardware.net/article7559.html

Azz, dunque Ati contribuisce al riscaldamento globale del pianeta ed a farci spegnere i termosifoni questo inverno, come mai nessuno si lamenta? Ah già, forse perchè a scaldare come il forno di una pizzeria non è NVidia, allora nessuno parla. La faziosità, che bella cosa...

IL tutto è riportato pari pari dal forum di Tom's.

andreamarra
10-10-2005, 19:39
ma se io avrò scritto venti volte che di questa scheda mi hanno deluso i consumi (e le dimensioni) :D!

andreamarra
10-10-2005, 19:41
poi l'articolo parla di crossfire.

Quanto consuma una GTX e quanto una XT? lo chiedo perchè non lo so.

pandyno
10-10-2005, 19:43
perchè la GTX è un condizionatore invece?
Mai avuta una scheda che scalda così tanto anche a riposo.

Stà semplicemente alla vostra intelligenza non fare commenti di questo tipo.
"si, ma a quelle frequenze, si, ma se si OC fa 2000 punti in più, si, ma se avesse le memorie..., il record appartiene a, e quando è uscita memorie pinco pallino non c' erano..."

Altro che Zelig :D

yossarian
10-10-2005, 19:44
Ragazzi vi riporto una notiziola, vorrei sapere se corrisponde a verità...

ATI's X1800 XT Crossfire may require 800W
"As you have probably read in the reviews, the new ATI X1000 series require a lot of power, and it looks like these cards in CrossFire will use a lot more than we expected.
According to NGOHQ a typical AMD64 based system with some peripherals and two ATI Radeon X1800XT cards may use up to 740W!
Now that's a lot."

Link alla pagina: http://www.dvhardware.net/article7559.html

Azz, dunque Ati contribuisce al riscaldamento globale del pianeta ed a farci spegnere i termosifoni questo inverno, come mai nessuno si lamenta? Ah già, forse perchè a scaldare come il forno di una pizzeria non è NVidia, allora nessuno parla. La faziosità, che bella cosa...

IL tutto è riportato pari pari dal forum di Tom's.

il che equivarrebbe a dire che 2 GTX in sli avrebbero bisogno di 690/700 Watt?

:D

baila
10-10-2005, 19:44
Ma quando esce la rece di Hwupgrade?
Ps:spero non sia già stato chiesto! :D

andreamarra
10-10-2005, 19:46
Ma quando esce la rece di Hwupgrade?
Ps:spero non sia già stato chiesto! :D

assolutamente no fidati :sofico:!

pandyno
10-10-2005, 19:46
Ma quando esce la rece di Hwupgrade?
Ps:spero non sia già stato chiesto! :D

sei il 1.000 utente che lo chiede, hai vinto una X1800XT :D

neopazzo
10-10-2005, 19:47
poi l'articolo parla di crossfire.

Quanto consuma una GTX e quanto una XT? lo chiedo perchè non lo so.


ragazzi.....ma apparte...il calore....chi se ne frega?...sia se è nividea che ati.. che consuma e scalda ...chi se ne frega..basta che si gioca a bestia!!!! :D

Intel-Inside
10-10-2005, 19:58
ragazzi.....ma apparte...il calore....chi se ne frega?...sia se è nividea che ati.. che consuma e scalda ...chi se ne frega..basta che si gioca a bestia!!!! :D


Parole Sante :ave:

T3d
10-10-2005, 20:02
bla bla bla blu blim blu
ecco si è rivelato il nostro amico, noto figlio del CEO di nvidia :mbe:
:muro:
ti hanno già risposto altri, quindi evito :sofico:
ragazzi.....ma apparte...il calore....chi se ne frega?...sia se è nividea che ati.. che consuma e scalda ...chi se ne frega..basta che si gioca a bestia!!!! :D
assolutamente vero :ave:
bye

ForeverBlue
10-10-2005, 20:05
ragazzi.....ma apparte...il calore....chi se ne frega?...sia se è nividea che ati.. che consuma e scalda ...chi se ne frega..basta che si gioca a bestia!!!! :D

oh beh dopo giorni e giorni di S3 ne avrai da giocare a bestia eh... :D

Ricky78
10-10-2005, 20:20
ragazzi.....ma apparte...il calore....chi se ne frega?...sia se è nividea che ati.. che consuma e scalda ...chi se ne frega..basta che si gioca a bestia!!!! :D
Sì... dillo a chi come me ha la ventolina del chipset della mobo proprio dove c'è la gpu... ti parlo di DFI... io con la mia 6800Ultra ho fissi i 48° in idle e i 55° in full del chipset... con sistema a defautl... vedi che c'è a chi frega?

Ma scalda più di una 6800 Ultra la x1800XT?
Io in idle sto a 59° e in full a 75°(con Zalman VF700cu).
Sapevo che chi ha la x850XT aveva molti meno problemi, con mobo DFI, perchè il core della gpu è più distanziato... Di questa nuova che mi dite?

andreamarra
10-10-2005, 20:23
Sì... dillo a chi come me ha la ventolina del chipset della mobo proprio dove c'è la gpu... ti parlo di DFI... io con la mia 6800Ultra ho fissi i 48° in idle e i 55° in full... con sistema a defautl... vedi che c'è a chi frega?

Ma scalda più di una 6800 Ultra? Io in idle sto a 59° e in full a 75°(con Zalman VF700cu).
Sapevo che chi ha la x850XT aveva molti meno problemi, con DFI, perchè il core della gpu è più distanziato... Di questa nuova che mi dite?

con la recensione di HWU che uscirà presto, sapremo le temperature :)!

T3d
10-10-2005, 20:23
http://www.dvhardware.net/article7559.html
ragazzi leggete bene, c'è un update che smentisce la notizia, hanno sbagliato le misure :rolleyes:
ne sarà dispiaciuto bartolino :asd:

Taurus19-T-Rex2
10-10-2005, 20:24
Ma allora nn si può proprio fare, un ordine collettivo??...........vi prego :cry:

neopazzo
10-10-2005, 20:26
oh beh dopo giorni e giorni di S3 ne avrai da giocare a bestia eh... :D

guarda....appena capito sotto mano una vga mi metto in malattina per 7 giorni
ho da terminare
guerre stellari
max pine 2
e da provare
fable
final fantasy xi
gtr

cmq ...stanotte dovro pensare su .... sulle domande importanti della vita!
mi sa che domani mi compro una x850xt per acocmodare questo mesetto
perche con questo andazzo...tra prezzi di presentazione....Mobo corss fire che nn esistono e altre perdite di tempo..prima di 45 - 60 giorni..di vedere una o due 1800xt nel mio pc nn se ne parla manco per tutti i santi del paradiso.

al max compro sta x850...la utilizzo fin che mi va...e poi la rivendo o la schiaffo in cross fire fin che nn la vendo. piu di rimetterci 100€ nn posso...
in ogni caso li risparmio di salute...nn ce la faccio piu a vedere lettere grandi come castagne e scorrere destra e sinistra le pagine web per leggere 4 parole.... :cry:

andreamarra
10-10-2005, 20:27
ragazzi.....ma apparte...il calore....chi se ne frega?...sia se è nividea che ati.. che consuma e scalda ...chi se ne frega..basta che si gioca a bestia!!!! :D


io personalmente a queste cose ci bado, nel senso che una scheda video/processore che scaldano poco e consumano poco non fanno per nulla male anzi. Meno rumore!

Ad esempio io vado pazzo per AMD non solo per le prestazioni, ma anche per i consumi che sull'A64 sono praticamente ridicoli. E la cpu rullazza di bestia.

Ora, se un chip video fa paura e scalda tanto, pazienza. Ma se c'è un chip video che fa praticamente lo stesso e consuma molto di meno... io prendo il secondo :D

in questo caso però pare che la X1800XL/XT consumino più di un R420, ma mi sembra sempre meno di una G70 (non vorrei sbagliarmi).

yossarian
10-10-2005, 20:28
Ma allora nn si può proprio fare, un ordine collettivo??...........vi prego :cry:

ho ordinato 3 pizze e 2 birre, ma non sono ancora arrivate

:sofico:

Intel-Inside
10-10-2005, 20:31
Sì... dillo a chi come me ha la ventolina del chipset della mobo proprio dove c'è la gpu... ti parlo di DFI... io con la mia 6800Ultra ho fissi i 48° in idle e i 55° in full del chipset... con sistema a defautl...


Dunque... togli quella skifezza di ventolina del chipset e mettici uno Zalman passivo... sposa la vga nel secondo slot... ho la tua stessa mobo e ho anke io il VF700 sulla vga... il chipset mi sta a 30° in idle, la vga 38° in idle, 65° in full...

bartolino3200
10-10-2005, 20:36
il che equivarrebbe a dire che 2 GTX in sli avrebbero bisogno di 690/700 Watt?

:D
consumano meno è un dato di fatto...
ps non sono io l' utente di tom's che ha postato quel popo di roba.
NOn sarei così meschino come coloro che hanno malignato in merito...

yossarian
10-10-2005, 20:39
consumano meno è un dato di fatto...
ps non sono io l' utente di tom's che ha postato quel popo di roba.
NOn sarei così meschino come coloro che hanno malignato in merito...

consumano poco meno e hanno solo 256 MB di ram; anche questo è un dato di fatto

Taurus19-T-Rex2
10-10-2005, 20:39
ho ordinato 3 pizze e 2 birre, ma non sono ancora arrivate

:sofico:


no dai dico sul serio....................Porchetta e funghi per me grazie :sofico:

bartolino3200
10-10-2005, 20:41
ecco si è rivelato il nostro amico, noto figlio del CEO di nvidia :mbe:
:muro:
ti hanno già risposto altri, quindi evito :sofico:

assolutamente vero :ave:
bye

Si tanto figlio, che quando vedo nelle vostre sign da fanboy ATI la sigla nForce4 come minimo :Puke:
Belle cagate di chipset tostapane che ha fatto nVidia e voi ve li comprate pure magari prodotti da DFI che con quel dissy di :Puke: e layout penoso danno come risultato un forno mostruosamente rumoroso e che consuma una cifra. Adesso metteteci quella specie di scheda video X1800XT (pompata come le tette di una pornostar in quanto a frequenze) che è più dissy che scheda... :Puke:

T3d
10-10-2005, 20:44
Si tanto figlio, che quando vedo nelle vostre sign da fanboy ATI la sigla nForce4 come minimo :Puke:
Belle cagate di chipset tostapane che ha fatto nVidia e voi ve li comprate pure magari prodotti da DFI che con quel dissy di :Puke: e layout penoso danno come risultato un forno mostruosamente rumoroso e che consuma una cifra. Adesso metteteci quella specie di scheda video X1800XT (pompata come le tette di una pornostar in quanto a frequenze) che è più dissy che scheda... :Puke:
si è liberato tutto il tuo animo fanboy!!! ohhh finalmente... hai resistito fino adesso prima di rivelarti, i miei complimenti :read:

~Mr.PartyHut~
10-10-2005, 20:45
...pant...pant... eccomi ragazzi; mi sono letto le pagine che venivano dopo il mio ultimo post e ci ho voluto un bel pò :)

mmm... ho visto i prezzi delle nuove ATI, e sono esagerati, ma scenderanno in men che non si dica (entro 2 mesi).

Grazie Andreamarra per gli esempi che mi hai fatto alcuni post fa :)
Sto valutando ed elaborando il tutto. Cmq credo che una Radeon X1800XT 512 Mb anche se scende di prezzo, credo di non potermela comprare, quindi la scelta si orienterebbe su:

X1800XT 256 Mb (se me la sento di aspettare)
X1800XL 256 Mb (se me la sento di aspettare)
7800 GTX 256 Mb (470 €)
6800 GT 256 Mb (330 €)

Basta che mi permettano di giocare in queste condizioni:

ALMENO 1024x768 32bit (non un pixel sotto) :D
con i seguenti giochi presi come esempio:

Unreal Tournament 2007
Quake 4
Fear
Serious Sam 2
BattleField 2 con la nuova espansione
Vietcong 2

con ALMENO un Antialias di 4x ed un anisotropico di 8x (non pretendo di più :D )
Si vede che mi piaciono gli FPS ? :sofico:

Che dite, la 6800 GT ce la farebbe? :D


Ciao
~» Mr.Party`Hut «~

neopazzo
10-10-2005, 20:47
...pant...pant... eccomi ragazzi; mi sono letto le pagine che venivano dopo il mio ultimo post e ci ho voluto un bel pò :)

mmm... ho visto i prezzi delle nuove ATI, e sono esagerati, ma scenderanno in men che non si dica (entro 2 mesi).

Grazie Andreamarra per gli esempi che mi hai fatto alcuni post fa :)
Sto valutando ed elaborando il tutto. Cmq credo che una Radeon X1800XT 512 Mb anche se scende di prezzo, credo di non potermela comprare, quindi la scelta si orienterebbe su:

X1800XT 256 Mb (se me la sento di aspettare)
X1800XL 256 Mb (se me la sento di aspettare)
7800 GTX 256 Mb (470 €)
6800 GT 256 Mb (330 €)

Basta che mi permettano di giocare in queste condizioni:

ALMENO 1024x768 32bit (non un pixel sotto) :D
con i seguenti giochi presi come esempio:

Unreal Tournament 2007
Quake 4
Fear
Serious Sam 2
BattleField 2 con la nuova espansione
Vietcong 2

con ALMENO un Antialias di 4x ed un anisotropico di 8x (non pretendo di più :D )
Si vede che mi piaciono gli FPS ? :sofico:

Che dite, la 6800 GT ce la farebbe? :D


Ciao
~» Mr.Party`Hut «~

leggi il mio ultimo post...io domani mi compro una x850xt...e taglio la testa al toro...tanto la si rivende discretamente bene...e se nn riesco a venderla la metto in crossfire

ciao ciao

bartolino3200
10-10-2005, 20:48
consumano poco meno e hanno solo 256 MB di ram; anche questo è un dato di fatto

La X1800XT da 256 MB consuma più di una 7800GTX 256MB, ha un dissy che fa cagare (per essere buoni) fattene una ragione.
Io sono fanboy, e voi aprite 3d di ATI a destra e manca; quando si parla di ATI siete sempre presenti e in prima linea e guai dire che fa cagare una scheda ATI.
Per me fa cagare la x1800xt un prodotto truccato e oocato in fabbrica uscito solo per poter affermare di fare 2 fps in piu di nVidia, poi ce ne usciamo con evoluzione e filtri migliori qualità video...come ha già detto qualcuno l' importante è giocarci a mostro, non vedere filtri migliori al microscopio, oltretutto da verificare...

FreeMan
10-10-2005, 20:48
bartolino3200 e T3d, smettetela

>bYeZ<

T3d
10-10-2005, 20:51
La X1800XT da 256 MB consuma più di una 7800GTX 256MB, ha un dissy che fa cagare (per essere buoni) fattene una ragione.
Io sono fanboy, e voi aprite 3d di ATI a destra e manca; quando si parla di ATI siete sempre presenti e in prima linea e guai dire che fa cagare una scheda ATI.
Per me fa cagare la x1800xt un prodotto truccato e oocato in fabbrica uscito solo per poter affermare di fare 2 fps in piu di nVidia, poi ce ne usciamo con evoluzione e filtri migliori qualità video...come ha già detto qualcuno l' importante è giocarci a mostro, non vedere filtri migliori al microscopio, oltretutto da verificare...
ma lo sai che sapphire farà uscire una x1800xt con soluzione singli slot cooling?

bartolino3200
10-10-2005, 20:53
si è liberato tutto il tuo animo fanboy!!! ohhh finalmente... hai resistito fino adesso prima di rivelarti, i miei complimenti :read:

edit rispondo in pvt letto adesso l' avviso del mod.

Foglia Morta
10-10-2005, 20:54
La X1800XT da 256 MB consuma più di una 7800GTX 256MB, ha un dissy che fa cagare (per essere buoni) fattene una ragione.
Io sono fanboy, e voi aprite 3d di ATI a destra e manca; quando si parla di ATI siete sempre presenti e in prima linea e guai dire che fa cagare una scheda ATI.
Per me fa cagare la x1800xt un prodotto truccato e oocato in fabbrica uscito solo per poter affermare di fare 2 fps in piu di nVidia, poi ce ne usciamo con evoluzione e filtri migliori qualità video...come ha già detto qualcuno l' importante è giocarci a mostro, non vedere filtri migliori al microscopio, oltretutto da verificare...
si ma che palle con sta storia che è occata di fabbrica!! chi ne sa ha già smontato ( più di una volta mi pare ) questa balla... inventane un altra

T3d
10-10-2005, 20:57
si ma che palle con sta storia che è occata di fabbrica!! chi ne sa ha già smontato ( più di una volta mi pare ) questa balla... inventane un altra
:rolleyes: meglio tornare in topic va.
Cmq, parlando di mobo crossfire si parla molto bene delle mobo dfi crossfire edition. dovrebbero essere disponibili in vendita da settimana prossima... speriamo

yossarian
10-10-2005, 20:57
La X1800XT da 256 MB consuma più di una 7800GTX 256MB, ha un dissy che fa cagare (per essere buoni) fattene una ragione.
Io sono fanboy, e voi aprite 3d di ATI a destra e manca; quando si parla di ATI siete sempre presenti e in prima linea e guai dire che fa cagare una scheda ATI.
Per me fa cagare la x1800xt un prodotto truccato e oocato in fabbrica uscito solo per poter affermare di fare 2 fps in piu di nVidia, poi ce ne usciamo con evoluzione e filtri migliori qualità video...come ha già detto qualcuno l' importante è giocarci a mostro, non vedere filtri migliori al microscopio, oltretutto da verificare...

tutte cose che si smentiscono facilmente:

il core della XT è alimentato a 1,3 V e le ram a 2 V, esattamente entro le specifiche della casa costruttrice e la XL consuma meno della 7800 GTX.
Dopo le scarse possibilità in o/c, il fatto che sarebbe overvoltata (affermazioni già abbondantemente smentite), il fatto che sarebbe rumorosa e il fatto che va meno con Doom3 (nota coproduzione nVIDIA-ID software), a cos'altro pensi di attaccarti? Ah, già aspettiamo i drivers miracolosi (i famosi 8086).
E' rumorosa? Può darsi; sicuramente lo sono di più certi "rosicamenti"
:D

andreamarra
10-10-2005, 20:57
La X1800XT da 256 MB consuma più di una 7800GTX 256MB, ha un dissy che fa cagare (per essere buoni) fattene una ragione.
Io sono fanboy, e voi aprite 3d di ATI a destra e manca; quando si parla di ATI siete sempre presenti e in prima linea e guai dire che fa cagare una scheda ATI.
Per me fa cagare la x1800xt un prodotto truccato e oocato in fabbrica uscito solo per poter affermare di fare 2 fps in piu di nVidia, poi ce ne usciamo con evoluzione e filtri migliori qualità video...come ha già detto qualcuno l' importante è giocarci a mostro, non vedere filtri migliori al microscopio, oltretutto da verificare...

se l'importante è giocarci a mostro come dici tu, allora perchè farsi le paranoie su "trucchi e OC di fabbrica" (che in realtà non ci sono)? Ci vai o no a "mostro"? :D ? Se per te l'importante è giocarcia mostro, allora non dovrebbe fregartene nulla di eventuali OC di fabbrica e frequenze altissime, no :)?

Io sinceramente tra una scheda che mi fa 100 e una che mi fa 102 guardo principalmente la qualità video e il supporto. Se la ati a sto giro mi offre una qualità di filtri migliori (anisotropico) e mi offre la possibilità (da verificare come vanno) di giocare con HDR e AAA insieme... dovendo spendere tanti soldi spendo per quella che mi fa fare certe cose, no?

bartolino3200
10-10-2005, 20:57
si ma che palle con sta storia che è occata di fabbrica!! chi ne sa ha già smontato ( più di una volta mi pare ) questa balla... inventane un altra
Se er te è una balla ok.
Per me non lo è, ok?
Non ho da invetarmi nulla, semplicemente io non grido al successo che evidentemente questa nuova scheda Ati non riscuoterà. Ci scommetterei tutte le figurine dei giocatori... :D

T3d
10-10-2005, 21:00
Se er te è una balla ok.
Per me non lo è, ok?
Non ho da invetarmi nulla, semplicemente io non grido al successo che evidentemente questa nuova scheda Ati non riscuoterà. Ci scommetterei tutte le figurine dei giocatori... :D
uff :rolleyes: non è che potresti inquinare di meno questo 3d? grazie, se hai qualcosa da dire sull'r520 fallo senza fanatismi

bartolino3200
10-10-2005, 21:01
se l'importante è giocarci a mostro come dici tu, allora perchè farsi le paranoie su "trucchi e OC di fabbrica" (che in realtà non ci sono)? Ci vai o no a "mostro"? :D

Io sinceramente tra una scheda che mi fa 100 e una che mi fa 102 guardo principalmente la qualità video e il supporto. Se la ati a sto giro mi offre una qualità di filtri migliori (anisotropico) e mi offre la possibilità (da verificare come vanno) di giocare con HDR e AAA insieme... dovendo spendere tanti soldi spendo per quella che mi fa fare certe cose no?

A me piacciono i filtri e le risoluzioni alte, la ati riesce a darmi frames maggiori in questi casi, e ci giochi anche "a mostro". Perchè farsi le paranoie?

Perchè non h bisogno di spendere il doppio per SLI o crossfire quando basta una sola 7800GTX, che costa mediamente 100 euro meno di una X1800XT da 256MB.
Non ho bisognmo di 2 schede rumorose e che scaldano al doppio, chiaramente e on ho bisogno di una X1800XT che consuma più di una 7800GTX.
Non ho bisogno di tutto questo per giocare a mostro...
Se poi per te vale la pena spendere 200.000 lire in più per 3/ fps in più e questa famigerata qualità video (ammesso che te ne accorgi, se esiste, mentre giochi) fai pure, ma io non ne ho bisogno...

T3d
10-10-2005, 21:03
una Connect3D Radeon X1800 XT, 256MB GDDR3 costa 478,99€ in germania :rolleyes:

Foglia Morta
10-10-2005, 21:04
Se er te è una balla ok.
Per me non lo è, ok?
Non ho da invetarmi nulla, semplicemente io non grido al successo che evidentemente questa nuova scheda Ati non riscuoterà. Ci scommetterei tutte le figurine dei giocatori... :D
le tue opinioni te le formi da solo , ma cerca almeno di formarle in base a fatti concreti, altrimenti si può dire tutto e il contrario di tutto anche su fatti oggettivi , e non è il caso. I fatti concreti ti danno torto ( vedi il post di yossarian ).
byez

bartolino3200
10-10-2005, 21:06
uff :rolleyes: non è che potresti inquinare di meno questo 3d? grazie, se hai qualcosa da dire sull'r520 fallo senza fanatismi

Non ho bisogno di leggere i tuoi commenti a ciò che scrivo, fino a quando c' è buona educazione e rispetto, (senza mandare pvt da 4 soldi come hai fatto),
rimanendo in 3d la parola non me la può togliere nessuno.
Da ora in poi, tutto ciò che scriverai commentandomi, sarà da me palesemente ignorato, e continuerò a scrivere ciò che ritengo opportuno.
Non mi terrorizza l' idea di essere considerato in un certo modo da determinate persone che io non considero affatto.

bartolino3200
10-10-2005, 21:07
le tue opinioni te le formi da solo , ma cerca almeno di formarle in base a fatti concreti, altrimenti si può dire tutto e il contrario di tutto anche su fatti oggettivi , e non è il caso. I fatti concreti ti danno torto ( vedi il post di yossarian ).
byez

Quello che dice yossarian, per me vale quanto quello che dicono gli altri.
Se dice lui una cosa è oro colato?
Per me no, tutto qui. La penso diversamente.
Ciao.

T3d
10-10-2005, 21:09
per dovere di cronoca e prima che mi si addossino colpe inesistenti, ecco il pvt che ho mandato a bartolino:
http://www.hwupgrade.it/forum/showpost.php?p=9783168&postcount=549

a bartolì... leggi eh... e non usare altri nick per commentare le news in tom's :D t'ho sgamato eh :rolleyes:
non mi sembra che sia un pvt fuori dal comune o maleducato, lo avvisavo soltanto che l'info che aveva dato era sbagliata.

FreeMan
10-10-2005, 21:11
Abbassiamo i toni.. e questo vale per tutti ;)

>bYeZ<

Maury
10-10-2005, 21:12
Quello che dice yossarian, per me vale quanto quello che dicono gli altri.
Se dice lui una cosa è oro colato?
Per me no, tutto qui. La penso diversamente.
Ciao.

Dal punto di vista tecnico Yoss è un mostro, non ho mai visto nessuno capace di insegnarli qualcosa, dovresti seguire di più quello che insegna per vari forum, è un conoscitore assoluto delle tecnologie video ;)

E' oro colato... nell'argomento che ama trattare dispensa oro colato, vai tranquillo ;)

yossarian
10-10-2005, 21:21
Quello che dice yossarian, per me vale quanto quello che dicono gli altri.
Se dice lui una cosa è oro colato?
Per me no, tutto qui. La penso diversamente.
Ciao.

perfettamente d'accordo su quasto punto; perciò ti invito a smentire, portando dei fatti a supporto delle tue tesi, quello che sto dicendo.

p.s. è inutile che cerchi in rete documenti che provino che sono un venduto o che lavoro per ATi, come hai fatto nel caso di fek che, oltre a essere un mio amico, è una persona corretta e preparata. Te lo do come consiglio, perchè perderesti tempo, non sapendo neppure da dove cominciare :D

Ti invito solo a rispondere con fatti concreti.
Hai detto che R520 è overclockato e overvoltato di fabbrica? Dimostralo. Hai detto che è già tirato a morte e che, perciò, nonsale in frequenza: dimostra anche questo (a parte il fatto che, in entrambi i casi, sei già stato smentito, perchè l'R520 sale tranquillamente già adesso almeno a 750 Mhz e lavora con soli 1,3 V di alimentazione).
Però, visto che parli di opinioni, le opinioni si formano con i fatti

DjLode
10-10-2005, 21:21
Ragazzi è un thread ufficiale che ha già parecchie pagine e post interessanti.

Foglia Morta
10-10-2005, 21:22
Quello che dice yossarian, per me vale quanto quello che dicono gli altri.
Se dice lui una cosa è oro colato?
Per me no, tutto qui. La penso diversamente.
Ciao.
non esisto da molto in questo forum ma yossarian , fra le persone che ho letto , mi pare che sia fra le più preparate in materia assieme a Vifani e Fek.

Comunque pacificamente cerco di spiegarti nel modo più chiaro possibile come la vedo io...

c' è la possibilità e l'impossibilità . La possibilità si definisce come la condizione di assenza di contraddizione interna , ciò che non è possibile per esclusione è impossibile; dunque un esempio : un quadrato rotondo è chiaramente un impossibilità perchè c' è contraddizione interna e non è possibile rispettare le 2 condizioni contemporaneamente ( "quadrato" e "rotondo" ).

Portando la stessa logica al caso in questione : se la gpu ha un voltaggio standard e per overclockare una scheda video oltre delle specifiche non previste originariamente è per forza necessario variare quelle specifiche ma non sono variate come cavolo te lo spieghi ?
Posso anche cambiare idea ma ci vuole un motivo valido per farlo . Per ora le cose più sensate le ha dette yossarian.
byez

neopazzo
10-10-2005, 21:25
ragazzi...io nn ho intenzione di scorre con il mouse questa pagina lunga kilometri (mi costa fatica...800x600 sox) per leggere i vostri litigi...
se magari il modo prende e cancella tt sta storia e riprendiamo da dove eravamo rimasti?...nn sarebbe una cattiva idea
visto che ..per me è piu importate adesso reperire una skeda video con risoluzione decente ...e accomodare fino all'uscita della x1800xt ..della quale nn mi frega nulla se è calda se puzza se va a batterie o se devo dargli lo strappo per farla partire....la aspetto solo perche mi è girato storto di cambiare qualche pezzo di pc e ho venduto la mia nvidea solo per provare altre cose e passare tempo a smontare il pc e rimontare.

bon...ora parliamo di ste bendette mobo corssfire che tra un pò arrivano appiedi dalla korea

bartolino3200
10-10-2005, 21:28
Portando la stessa logica al caso in questione : se la gpu ha un voltaggio standard e per overclockare una scheda video oltre delle specifiche non previste originariamente è per forza necessario variare quelle specifiche ma non sono variate come cavolo te lo spieghi ?
Posso anche cambiare idea ma ci vuole un motivo valido per farlo . Per ora le cose più sensate le ha dette yossarian.
byez

OK la filosofia...:)
Ma se per ottenere quei risultati mi fai più tape out e ritardi di 6 mesi, lo fai per spremere al max quella tecnologia costruttiva a parità di vcore.
Questo è spremere, ossia accellerare i tempi di affinamento del processo produttivo, cosa che magari nVidia farà in modo più soft e con tempi dovuti.
Il motivo è che ati non è stata capace di raggiungere la concorrenza nelle prestazioni battendo la strada dell' aumento delle pipe, decidendo di utilizzare quella delle frequenze ed efficienza.
Lodevole certo, ma non uno spavento di prestazioni ripsetto a ciò che nVidia ha presentato e commercializzato immediatamente mesi prima.

T3d
10-10-2005, 21:28
@neopazzo
allora, se vuoi prenderti una x850xt per il periodo che aspetti la x1800xt è un'ottima idea, infatti la trovi anche a 335,88€ qui in italia in un shop online.

Per quanto riguarda le mobo crossfire sono per adesso una incognita. Tutti ne parlano bene, sono molto performanti... ma mancano ancora nel mercato retail. Quello che penso io è che cmq da settimana prossima potrai già trovarle.

Bye

neopazzo
10-10-2005, 21:31
@neopazzo
allora, se vuoi prenderti una x850xt per il periodo che aspetti la x1800xt è un'ottima idea, infatti la trovi anche a 335,88€ qui in italia in un shop online.

Per quanto riguarda le mobo crossfire sono per adesso una incognita. Tutti ne parlano bene, sono molto performanti... ma mancano ancora nel mercato retail. Quello che penso io è che cmq da settimana prossima potrai già trovarle.

Bye

Teo ...per i 330€ ...tu sai cosa devi fare...:D intando vado in bagno a fare pipi...e quadno torno controllo i messaggi privati..sai....quelli con il link della x850xt a 330€
:sofico:

per quanto riguarda le mobo cross fire...usciranno sett prossima e ci vorrano i test....dopo i primi test la compro se mi convince...e poi prendo la x1800xt...tanto ...mi sa che arriva insieme alla tredicesima :fagiano:

ciao

ForeverBlue
10-10-2005, 21:32
bart3200, spero di poter parlare civilmente anzitutto: se tu mi dai una definizione valida di "overcloccato di fabbrica", poichè io la ritengo inesistente, sono disposto a darti ragione sul fatto che "R520 sia occato di fabbrica facendo la fame per 2 fps"

yossarian
10-10-2005, 21:34
OK la filosofia...:)
Ma se per ottenere quei risultati mi fai più tape out e ritardi di 6 mesi, lo fai per spremere al max quella tecnologia costruttiva a parità di vcore.
Questo è spremere, ossia accellerare i tempi di affinamento del processo produttivo, cosa che magari nVidia farà in modo più soft e con tempi dovuti.
Il motivo è che ati non è stata capace di raggiungere la concorrenza nelle prestazioni battendo la strada dell' aumento delle pipe, decidendo di utilizzare quella delle frequenze ed efficienza.
Lodevole certo, ma non uno spavento di prestazioni ripsetto a ciò che nVidia ha presentato e commercializzato immediatamente mesi prima.

tutto quello contenuto in queste 9 righe, parlando da un punto di vista tecnico, non ha alcun senso.
Potresti dare una definizione di efficienza?

Vifani
10-10-2005, 21:37
tutto quello contenuto in queste 9 righe, parlando da un punto di vista tecnico, non ha alcun senso.
Potresti dare una definizione di efficienza?

Si si, datela anche a me che sto scrivendo proprio questo pezzo dell'articolo. :D

Ren
10-10-2005, 21:38
x yoss
L'HDR da quali unità viene calcolato ?
rop's ?
pixel-unit ?
entrambe ?

DjLode
10-10-2005, 21:39
Si si, datela anche a me che sto scrivendo proprio questo pezzo dell'articolo. :D

'stardo :D

T3d
10-10-2005, 21:40
secondo me bartolino si è dato alla macchia :Prrr:

:ops2:

Maury
10-10-2005, 21:40
Si si, datela anche a me che sto scrivendo proprio questo pezzo dell'articolo. :D

Dicesi efficienza la capacità di ottenere un risultato con uno sforzo limitato :blah:

va bene ? voglio comparire tra i crediti della rece adesso :read: :p

yossarian
10-10-2005, 21:40
Si si, datela anche a me che sto scrivendo proprio questo pezzo dell'articolo. :D

ammazza, stai ancora all'inizio :sofico:
comunque, per la definizione, sto aspettando bartolino :D

T3d
10-10-2005, 21:41
Dicesi efficienza la capacità di ottenere un risultato con uno sforzo limitato :blah:

va bene ? voglio comparire tra i crediti della rece adesso :read: :p
:ave: sottoscrivo, ottima definizione :sofico:

~Mr.PartyHut~
10-10-2005, 21:47
nooo Vifani, non aspettare che ti diano nulla (a parte la fig@ vabbè :rolleyes: ), domani c'è la mega rece...



... e guarda caso è la tua :D

Tanto di cappello :ave:


Ciao
~» Mr.Party`Hut «~

yossarian
10-10-2005, 21:50
x yoss
L'HDR da quali unità viene calcolato ?
rop's ?
pixel-unit ?
entrambe ?

teoricamente, l'hdr dovrebbe essere calcolato nelle rop's. L'HDR, in realtà non è altro che il calcolo dei valori da scrivere nel frame buffer a fp16 anzichè con la solita notazione a 8 bit interi per canale. All'atto dell'invio delle immagini nel frame buffer, le stesse, indipendentemente dalla precisione di calcolo interna delle unità ps, sono convertite in immagini a 8 bit per canale, di tipo INTEGER. Questo vuol dire minor accuratezza nella rappresentazione. Il fatto che avvenga come ultimo step dell'elaborazione crea meno problemi, perchè si traduce in una minore accuratezza ma senza il rischio di propagazione degli errori (motivo per cui si ricercano precisioni di caloclo sempre più elevate: immagina un errore di arrotondamento all'inizio di una serie molto lunga di istruzioni, con il risultato ottenuto da questo arrotondamento che viene utilizzato per i successivi calcoli, dando origine a un termine d'errore sempre più grande). NV40, G70 e R520 sono in grado di "scrivere" il frame buffer utilizzando una precisione più elevata: ossia a 16 bit per canale, in virgola mobile. Per farlo, però, mentre R520 ha una sua circuiteria all'interno delle rop's, dedicata a tale scopo, NV40 e G70 si appoggiano alle unità di shading, avendo indipendente solo la circuiteria in grado di effettuare blending a 8 bit interi (ossia quella tradizionale).

Maury
10-10-2005, 21:50
:ave: sottoscrivo, ottima definizione :sofico:

:Perfido: :yeah:

Psiche
10-10-2005, 21:51
Si si, datela anche a me che sto scrivendo proprio questo pezzo dell'articolo. :D
efficiènza: efficiènza

s. f., l'essere efficiente; capacità di produrre un certo effetto; rispondenza alle proprie funzioni.

Sinonimi

efficacia, effetto, attività, validità, utilità, funzionalità, valore, capacità, bravura, virtù, potere, influenza
forza, potenza, energia, vigore, incisività
funzionamento, rendimento, resa, produttività

:D

T3d
10-10-2005, 21:52
sto aspettando bartolino :D
uhm... credo che è scappato :cry:

yossarian
10-10-2005, 21:54
uhm... credo che è scappato :cry:


peccato, niente definizione, niente articolo. Inutile prendersela con Vifani se neppure domani è pronto :D

Maury
10-10-2005, 21:54
uhm... credo che è scappato :cry:

Bartolino torna :cry:

T3d
10-10-2005, 21:55
peccato, niente definizione, niente articolo. Inutile prendersela con Vifani se neppure domani è pronto :D
ma no :doh: arghhhh :banned:
bartolino!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

ForeverBlue
10-10-2005, 21:56
e io che aspettavo la rece da una settimana.....ignorando che l'attesa era completamente in funzione della DEFINIZIONE DI BARTOLINO :ave:

Athlon 64 3000+
10-10-2005, 22:02
uhm... credo che è scappato :cry:

Per forza dopo tutte quelle cretinate che ha sparato senza dimostrare niente è completamente sparito.

T3d
10-10-2005, 22:03
Per forza dopo tutte quelle cretinate che ha sparato senza dimostrare niente è completamente sparito.
io ho detto che parlava a vanvera, ma mi sono beccato un ammonimento :cry: cattivi :D

neopazzo
10-10-2005, 22:07
su ragazzi adesso calmiamoci e torniamo a parlare delle nostre vga

ho quasi comprato una x850xt da muletto...

tra un mese la rivendo:D..il tempo che arrivi la x1800xt... :D

HaCKeR.InSiDe
10-10-2005, 22:09
e tu kiami una X850XT muletto :D
minkia quando la vendi dimmelo ke te la prendo io poi la rivendo :O

HaCKeR.InSiDe
10-10-2005, 22:11
cmq il nome X1800XT a me nn spiace lo trovo "CARINO"
anke se vedevo piu grintoso e accattivante un X900XT :mad:
poi voi nn so ke ne pensate del nome
ma mi pare ke alla maggior parte faccia C_G_R_ :D

neopazzo
10-10-2005, 22:12
e tu kiami una X850XT muletto :D
minkia quando la vendi dimmelo ke te la prendo io poi la rivendo :O

sarà messa dovuta inserzione .... :)


cosi nn faccio nulla con fretta...aspetto la mobo e la vga con calma..si calmano i prezzi spuntano i test e le verità...etc etc etc

T3d
10-10-2005, 22:12
cmq il nome X1800XT a me nn spiace lo trovo "CARINO"
anke se vedevo piu grintoso e accattivante un X900XT :mad:
poi voi nn so ke ne pensate del nome
ma mi pare ke alla maggior parte faccia C_G_R_ :D
secondo me non hanno continuato con quella nomenclatura per evidenziare il fatto che l'architettura è stata completamente rinnovata. Un semplice x900 sembra più un upgrade che un chip completamente nuovo :stordita: sbaglio? :D

HaCKeR.InSiDe
10-10-2005, 22:17
ANKE IO la vedo esattamente come te ;)
difatti dire X900XT era come dire ke avevanoi implementato solo un miglioramento come X800XT -> X850XT :)
invece ora con un nome cosi vogliono dire RIVOLUZIONE TOTALE :cool:
cmq potevano spremere meglio la fantasia col nome :mbe:

DjLode
10-10-2005, 22:17
X-800
X1-800
X2-800

E via discorrendo :)
La X sta per 10, X1 sta per 11. Togliete il trattino e ottenete i nomi.

Maury
10-10-2005, 22:21
su ragazzi adesso calmiamoci e torniamo a parlare delle nostre vga

ho quasi comprato una x850xt da muletto...

tra un mese la rivendo:D..il tempo che arrivi la x1800xt... :D


io sul muletto ho una tnt a dissi passivo fai tu :sofico:

HaCKeR.InSiDe
10-10-2005, 22:22
quello e un muletto...ma una X850XT :D

~Mr.PartyHut~
10-10-2005, 22:26
cosi nn faccio nulla con fretta...aspetto la mobo e la vga con calma..si calmano i prezzi spuntano i test e le verità...etc etc etc

hehe, saggia decisione neopazzo :)
Così aspettiamo che queste nuova ATI scendano proprio BENE :D

E poi le schede che sono compatibili con lo SLi si rivenderanno che è una meraviglia perchè tra 6 mesi non si trovano più in commercio e chi ne vuole 2 deve andare in un mercatino dell'usato per forza :D

EDIT: sperem :oink:

Ciao
~» Mr.Party`Hut «~

neopazzo
10-10-2005, 22:26
quello e un muletto...ma una X850XT :D

uuhuh ma io mi riferivo alla vga muletto :D sul pc muletto...nn si può mettere:D


cioè vga tampone...tanto per far passare sto periodo...la s3 va bene 5 giorni ..poi impazzisci...a meno che nn recupero un vecchio ctr a 14" allora si :D

HaCKeR.InSiDe
10-10-2005, 22:28
penso ke con una 9800pro potevi cavartela no :D
poi de ognuno i soldi li spende come vuole :Prrr:
tengo la camisa nera :doh:

neopazzo
10-10-2005, 22:36
penso ke con una 9800pro potevi cavartela no :D
poi de ognuno i soldi li spende come vuole :Prrr:
tengo la camisa nera :doh:


tengo il pci ex :D....avrò un putiferio di vga agp dai tempi della voodoo 2

ho anche la mia prima ati ...rage 128 16mb lol

ma ho solo pci - ex sul pici..allora qualè il problema :(

Maury
10-10-2005, 22:38
tengo il pci ex :D....avrò un putiferio di vga agp dai tempi della voodoo 2

ho anche la mia prima ati ...rage 128 16mb lol

ma ho solo pci - ex sul pici..allora qualè il problema :(

metti tt le tue vga in crossfire :p

Ricky78
10-10-2005, 22:40
con la recensione di HWU che uscirà presto, sapremo le temperature :)!
Sì... ma le misure della X1800XT???


E' più lunga di una 6800Ultra?

neopazzo
10-10-2005, 22:41
metti tt le tue vga in crossfire :p


lo sapevo io avrei dovuto comprare un ArsRock con ci ALU ULI ... cosi metto in GrossSli tutte le vga che trovavo sotto in garage! :D

bha...staim degenrando...

intato ..appena arriva la x850...subito sotto con FFxi...e WOW uhhu

T3d
10-10-2005, 22:44
Sì... ma le misure della X1800XT???


E' più lunga di una 6800Ultra?
http://img311.imageshack.us/img311/8673/x180016gy.jpg

Ren
10-10-2005, 22:47
teoricamente, l'hdr dovrebbe essere calcolato nelle rop's. L'HDR, in realtà non è altro che il calcolo dei valori da scrivere nel frame buffer a fp16 anzichè con la solita notazione a 8 bit interi per canale. All'atto dell'invio delle immagini nel frame buffer, le stesse, indipendentemente dalla precisione di calcolo interna delle unità ps, sono convertite in immagini a 8 bit per canale, di tipo INTEGER. Questo vuol dire minor accuratezza nella rappresentazione. Il fatto che avvenga come ultimo step dell'elaborazione crea meno problemi, perchè si traduce in una minore accuratezza ma senza il rischio di propagazione degli errori (motivo per cui si ricercano precisioni di caloclo sempre più elevate: immagina un errore di arrotondamento all'inizio di una serie molto lunga di istruzioni, con il risultato ottenuto da questo arrotondamento che viene utilizzato per i successivi calcoli, dando origine a un termine d'errore sempre più grande). NV40, G70 e R520 sono in grado di "scrivere" il frame buffer utilizzando una precisione più elevata: ossia a 16 bit per canale, in virgola mobile. Per farlo, però, mentre R520 ha una sua circuiteria all'interno delle rop's, dedicata a tale scopo, NV40 e G70 si appoggiano alle unità di shading, avendo indipendente solo la circuiteria in grado di effettuare blending a 8 bit interi (ossia quella tradizionale).

xciò il fantomatico hdr128 comparso tempo fa in una sli di nvidia è riferito alla precisione di calcolo all'interno delle sole unità shader ?

Quando dici che nv40 e g70 si appoggiano sulle unità di shading cosa intendi ?

Perchè nel chip canadese si può usare hdr+aa ed invece nel chip nvidia no ?

Quanto incide l'hdr sulla banda passante ? (+ o - dell'aa)

La quantità di ram montata può variare le performance con l'hdr ?

http://www.nvitalia.com/articoli/Anteprima_G70/immagini/rops_units.jpg

Quali sono le unità che applicano l'hdr in questa rop ? (sempre se ci sono)

Athlon 64 3000+
10-10-2005, 22:48
io ormai non posso più tornare indietro perchè mi dovrebbero spedire in questi giorni la 7800GTX della Point of View.
Però dico che Ati con R520 ha fatto un gran bel lavoro riuscendo a fare una architettura davvero ottima e efficiente meglio di G70 e questo mi ricorda quello che Ati fece con R300 che ritengo il miglior progetto fatto da Ati e il più rivoluzionario.
Certamente è molto innovativo R520 ma non rivoluzionario come è stato R300.
Io poi vedo Ati in vantaggio per lo sviluppo della gpu directx 10 visto che ha già una solida basa di partenza chiamata R500.
Domanda per Yoss,spero di spiegarmi bene.
L'HDR per essere eseguito nelle specifiche SM 3.0 deve essere calcolato in floating point a fp16?

Athlon 64 3000+
10-10-2005, 22:49
xciò il fantomatico hdr128 comparso tempo fa in una sli di nvidia è riferito alla precisione di calcolo all'interno delle sole unità shader ?

Quando dici che nv40 e g70 si appoggiano sulle unità di shading cosa intendi ?

Perchè nel chip canadese si può usare hdr+aa ed invece nel chip nvidia no ?

credo che R520 abbia le ROP'S e le unita shading separate a differenza di G70.
Spero di non avere detto una fesseria.

shodan
10-10-2005, 23:17
teoricamente, l'hdr dovrebbe essere calcolato nelle rop's. L'HDR, in realtà non è altro che il calcolo dei valori da scrivere nel frame buffer a fp16 anzichè con la solita notazione a 8 bit interi per canale. All'atto dell'invio delle immagini nel frame buffer, le stesse, indipendentemente dalla precisione di calcolo interna delle unità ps, sono convertite in immagini a 8 bit per canale, di tipo INTEGER. Questo vuol dire minor accuratezza nella rappresentazione. Il fatto che avvenga come ultimo step dell'elaborazione crea meno problemi, perchè si traduce in una minore accuratezza ma senza il rischio di propagazione degli errori (motivo per cui si ricercano precisioni di caloclo sempre più elevate: immagina un errore di arrotondamento all'inizio di una serie molto lunga di istruzioni, con il risultato ottenuto da questo arrotondamento che viene utilizzato per i successivi calcoli, dando origine a un termine d'errore sempre più grande). NV40, G70 e R520 sono in grado di "scrivere" il frame buffer utilizzando una precisione più elevata: ossia a 16 bit per canale, in virgola mobile. Per farlo, però, mentre R520 ha una sua circuiteria all'interno delle rop's, dedicata a tale scopo, NV40 e G70 si appoggiano alle unità di shading, avendo indipendente solo la circuiteria in grado di effettuare blending a 8 bit interi (ossia quella tradizionale).


Ciao yoss,
scusa la domanda banale, ma poi il RAMDAC non legge comunque i dati con una precisione di 8-10 bit per canale (utilizzando interi, non numeri in virgola mobile)?
E' proprio per questo che da 8 bit si è passati a 10 bit per canale anche nel RAMDAC? In un pannello DVI invece, bypassando il RAMDAC, al monitor potrebbe (in via teorica) anche arrivare un segnale con notazione decimale?

Scusa la raffica di domande, ma ti spremo quanto più posso! :sofico:

yossarian
10-10-2005, 23:17
xciò il fantomatico hdr128 comparso tempo fa in una sli di nvidia è riferito alla precisione di calcolo all'interno delle sole unità shader ?



non ho visto la slide, ma se faceva riferimento alla possibilità di eseguire hdr in fp128 (che vuol dire 32 bit per canale), quasto non è semplicemente possibile, perchè, anche le pp, eseguono hdr a fp16 (ossia fp64 complessivo).

?

Quando dici che nv40 e g70 si appoggiano sulle unità di shading cosa intendi ?



che G70 non ha tutta la circuiteria per eseguire blending a 16 bit in floating point nelle rop's; quindi deve ricorrere all'ausilio delle pixel pipeline. I dati tornano nei ps, si eseguono le operazioni di blending in fp e, quindi, escono attraverso le rop's


Perchè nel chip canadese si può usare hdr+aa ed invece nel chip nvidia no ?



in R520, invece, le rop's sono in condizione di svolgere operazioni di blending a 8 e 10 bit INT e a fp16, indipendentemente dalle pixel pipeline. Quindi, i risultati dell'elaborazione interna (eseguita sempre a 32 bit, poichè R520 non ha la modalità mista fp16/fp32), passa alle rop's, dove è convertita in fp16 e dove si eseguono tutte le operazioni necessarie a scrivere i dati nel framebuffer. Al contrario, la dipendenza in G70, fa si che, dovendosi, le pixel pipeline, occuparsi di svolgere le operazioni in fp, la stessa immagine deve essere processata due volte (non può essere passata da un blocco all'altro per elaborazioni differenti) e, in più, viene sovrascritta nel frame buffer (quindi, comunque, un effetto esclude l'altro).


Quanto incide l'hdr sulla banda passante ? (+ o - dell'aa)



abbastanza, se si tiene conto che i dati in fp16 occupano il doppio esatto di spazio rispetto a quelli in INT8. Per ogni pixel si adoperano 16 bit per canale, mentre con la notazione classica se ne adoperano solo 8.


La quantità di ram montata può variare le performance con l'hdr ?

http://www.nvitalia.com/articoli/Anteprima_G70/immagini/rops_units.jpg

)

no; è vero che l'immagine nel frame buffer occupa il doppio dello spazio, ma è anche vero che 128 MB e, ancora di più, 256 MB, sono un quantitativo di ram più che sufficiente per gestire immagini in HDR (anche con i filtri attivi).


http://www.nvitalia.com/articoli/Anteprima_G70/immagini/rops_units.jpg

Quali sono le unità che applicano l'hdr in questa rop ? (sempre se ci sono)

quelle denominate z-rop e c-rop

yossarian
10-10-2005, 23:21
Ciao yoss,
scusa la domanda banale, ma poi il RAMDAC non legge comunque i dati con una precisione di 8-10 bit per canale (utilizzando interi, non numeri in virgola mobile)?
E' proprio per questo che da 8 bit si è passati a 10 bit per canale anche nel RAMDAC? In un pannello DVI invece, bypassando il RAMDAC, al monitor potrebbe (in via teorica) anche arrivare un segnale con notazione decimale?

Scusa la raffica di domande, ma ti spremo quanto più posso! :sofico:

infatti; per questo continuo a ripetere di non enfatizzare troppo le migliorie visive introdotte dall'hdr.
Anche nei pannelli LCD si ha lo stesso problema; al momento, tranne quelli che usano la tecnologia oled e quelli che fanno ricorso ad una notazione 8 bit random (scelti a caso tra 16 possiibli valori, in modo analogo a quanto avviene con il TAA di ATi), un monitor LCD non riesce a rappresentare più di 256 livelli di segnale di crominanza e luminanza per canale.

shodan
10-10-2005, 23:26
infatti; per questo continuo a ripetere di non enfatizzare troppo le migliorie visive introdotte dall'hdr.
Anche nei pannelli LCD si ha lo stesso problema; al momento, tranne quelli che usano la tecnologia oled e quelli che fanno ricorso ad una notazione 8 bit random (scelti a caso tra 16 possiibli valori, in modo analogo a quanto avviene con il TAA di ATi), un monitor LCD non riesce a rappresentare più di 256 livelli di segnale di crominanza e luminanza per canale.

Ok i conti tornano... ;)
Altra domanda: sopra scrivi che in pratica un'immagine HDR elaborata dal G70 deve essere processata 2 volte; immagino quindi che si tratti di un effetto applicato in multipass (elaborazione - scrittura del fb - rilettura - rielaborazione - nuova scrittura nel fb). Giusto? Se si, non si potrebbe applicare HDR e AA semplicemente elaborando prima l'HDR e quindi rileggere l'immagine dal fb e applicare un filtro di AA? E' teoricamente impossibile o sarebbe "semplicemente" improponibile da un punto di vista prestazionale?

Ciao. :)

Ricky78
10-10-2005, 23:32
http://img311.imageshack.us/img311/8673/x180016gy.jpg
Ma quella è la 7800GT e la seconda la 7800GTX?
Rispetto alla 6800 Ultra della Gainward è più lunga?... e di quanto?



thx

yossarian
10-10-2005, 23:33
Ok i conti tornano... ;)
Altra domanda: sopra scrivi che in pratica un'immagine HDR elaborata dal G70 deve essere processata 2 volte; immagino quindi che si tratti di un effetto applicato in multipass (elaborazione - scrittura del fb - rilettura - rielaborazione - nuova scrittura nel fb). Giusto? Se si, non si potrebbe applicare HDR e AA semplicemente elaborando prima l'HDR e quindi rileggere l'immagine dal fb e applicare un filtro di AA? E' teoricamente impossibile o sarebbe "semplicemente" improponibile da un punto di vista prestazionale?

Ciao. :)

bisognerebbe anche cambiare l'indirizzo, per evitare la sovrascrittura, cosa non molto semplice avendo a che fare con registri a mappatura diretta. Cioè, dovresti leggere da una locazione del fb e scrivere in un'altra, diversa dalla prima. Il fatto è che i dati sono inviati al fb attraverso indirizzi prelevati dai registri temporanei di quel particolare blocco di calcolo; per ottenere indirizzi diversi va riprogrammata la mappatura in base a quella specifica esigenza.
Dal punto di vista prestazionale, poi, sarebbe inaccettabile

shodan
10-10-2005, 23:34
bisognerebbe anche cambiare l'indirizzo, per evitare la sovrascrittura, cosa non molto semplice avendo a che fare con registri a mappatura diretta. Cioè, dovresti leggere da una locazione del fb e scrivere in un'altra, diversa dalla prima. Il fatto è che i dati sono inviati al fb attraverso indirizzi prelevati dai registri temporanei di quel particolare blocco di calcolo; per ottenere indirizzi diversi va riprogrammata la mappatura in base a quella specifica esigenza.
Dal punto di vista prestazionale, poi, sarebbe inaccettabile

Grazie mille, chiaro e impeccabile come al solito! :)

Vifani
10-10-2005, 23:48
infatti; per questo continuo a ripetere di non enfatizzare troppo le migliorie visive introdotte dall'hdr.
Anche nei pannelli LCD si ha lo stesso problema; al momento, tranne quelli che usano la tecnologia oled e quelli che fanno ricorso ad una notazione 8 bit random (scelti a caso tra 16 possiibli valori, in modo analogo a quanto avviene con il TAA di ATi), un monitor LCD non riesce a rappresentare più di 256 livelli di segnale di crominanza e luminanza per canale.

Si però yossarian ti invito a non sminuire l'importanza dell'HDR. E' vero che alla fine il numero di colori visualizzati sono sempre 8 bit per canale, però è altrettanto vero che l'HDR non è un banale calcolo dell'illuminazione in floating point. Quella avviene anche adesso, basta fare una banale illuminazione per pixel via pixel shaders. Il discorso è un altro. L'HDR consente di avere una "distribuzione" dell'illuminazione dinamica e differente a seconda della scena visualizzata, della posizione delle camera rispetto alle fonti di luce, ecc... Nel complesso anche se il numero di colori è lo stesso, l'HDR riesce a rendere l'illuminazione estremamente più realistica perché la gestione dinamica del range gli consente di emulare il comportamento dell'occhio umano e di esaltare determinate zone chiare e/o scure. Insomma l'effetto è un decisivo passo in avanti rispetto alle tecniche classiche. Di fatto i 16,8 milioni di colori a disposizione per la visualizzazione finale della scena sono più che sufficienti a livello gaming ed è la gestione dinamica interna in floating point a fare la differenza. Poi naturalmente aggiungendo i vari effetti di blooming, si aggiunge un tocco di spettacolarità al tutto.

andreamarra
11-10-2005, 00:18
Allora, vi si sono raffreddati i transistor :D :sofico:???

cmq se si vuole discutere tranquillamente e far capire perchè si ritiene di avere ragione o altro, per avere una discussione costruttiva da mabo le parti, il modo peggiore è di accerchiare qualcuno e fargli battutine e risatine...


;)

andreamarra
11-10-2005, 00:22
Si però yossarian ti invito a non sminuire l'importanza dell'HDR. E' vero che alla fine il numero di colori visualizzati sono sempre 8 bit per canale, però è altrettanto vero che l'HDR non è un banale calcolo dell'illuminazione in floating point. Quella avviene anche adesso, basta fare una banale illuminazione per pixel via pixel shaders. Il discorso è un altro. L'HDR consente di avere una "distribuzione" dell'illuminazione dinamica e differente a seconda della scena visualizzata, della posizione delle camera rispetto alle fonti di luce, ecc... Nel complesso anche se il numero di colori è lo stesso, l'HDR riesce a rendere l'illuminazione estremamente più realistica perché la gestione dinamica del range gli consente di emulare il comportamento dell'occhio umano e di esaltare determinate zone chiare e/o scure. Insomma l'effetto è un decisivo passo in avanti rispetto alle tecniche classiche. Di fatto i 16,8 milioni di colori a disposizione per la visualizzazione finale della scena sono più che sufficienti a livello gaming ed è la gestione dinamica interna in floating point a fare la differenza. Poi naturalmente aggiungendo i vari effetti di blooming, si aggiunge un tocco di spettacolarità al tutto.


Io glielo dico sempre.. "yossarian, non sottovalutare l'importanza dell'HDR..." ma lui niente, irremovibile come un mulo :O!


:sofico:

Jack 85
11-10-2005, 01:49
Che dire, ottima la soluzione ati, mi sembra di tornare al mitico R300, come prestazioni mi sembrano quasi allineate con la 7800gtx.

andreamarra
11-10-2005, 09:40
minchia... da quello che che leggo in giro pare che sto chip anche con i primi step ha oc sicuri davvero ottimi!

in più, se non ho capito male, pare che la XL se la si overvolta da bios ai valori della XT... si può OC fino a XT e anche di più. Anche con dissy di fabbrica.

sebbene a me non freghi molto, la prima cosa che faccio dopo aver scartato la scheda dalla scatola è togliere il dissy, togliere la plasticaccia sopra il core e mettere un diddy silenzioso e performante :D!

pare inoltre che i problemi dovuti ai vari tape out falliti siano serviti non tanto per questo R520, quanto per R580. In fondo fatto R520, il più è fatto e R%80 vien da sè. Ipoteticamente potrebbe avere un numero di quad pipeline mostruoso, paragonabili a 48 pipeline normali (se non ho capito male... :D)!

Ren
11-10-2005, 10:30
x yoss

Secondo te come saranno ripartite le unità del futuro r580 ?
1. 3vec3+scalar(2 mul/mad e 1 add/input) + unità di branch.
2. Mini-alu "MAD" stile g70.

bartolino3200
11-10-2005, 11:26
efficiènza: efficiènza

s. f., l'essere efficiente; capacità di produrre un certo effetto; rispondenza alle proprie funzioni.

Sinonimi

efficacia, effetto, attività, validità, utilità, funzionalità, valore, capacità, bravura, virtù, potere, influenza
forza, potenza, energia, vigore, incisività
funzionamento, rendimento, resa, produttività

:D


Per il resto avete ragione voi, parlo a vanvera.
Ma sai che 00 se non ci fossi io, tutti ad elogiare Ati e la sua nuova creatura:
" ohh che bella " di qua " ma quanto è potente di là " ecc. ecc.
In fondo vi infervoro gli animi, e vi ci faccio appassionare ancora di più ;)
Ad ognuno la sua.

belin
11-10-2005, 11:33
...vorrei dire due cose che mi sono venute in mente leggendo alcuni post.
...in questa sezione si parla di schede video, scannarsi e prendersi in giro per un argomento del genere è pura follia infantile. ci sono cose ben più importanti nella vita che un componente di un pc. ho aperto questo ed altri thread perchè sono un appassionato di pc, in particolare di schede video, e dato che la vita e gli studi mi hanno portato a fare cose ben diverse, cerco di soddisfare la mia passione e le mie curiosità partecipando a forum come questi. chi viene qui per scatenare flame non ha capito nulla. proprio nulla...
...da certi inutili post si capisce che c'è gente che non ha letto nulla su R520.
...gente che non si è accorta che l'architettura di R520 è la più tecnologicamente avanzata in questo momento.
...gente (e mi ripeto) che non si è accorta che il concetto di pipeline è stato superato da R520, introducendo i Quad Pixel Shader Core e gli Ultra-Threading Dispatch Processor, che non si è accorta dei 0.09 micron, dell'anisotropico per ogni angolazione, dell'HDR e AAA simultanei, del rig bus a 512 bit, del nuovo controllo di memoria configurabile da driver, di AVIVO, del 3DC+, delle caratteristiche che riconducono al futuro R500.
...ci sono persone "molto vicine" ad nVIDIA, come halduemilauno, che hanno capito tutte queste cose e partecipano a questo thread facendo commenti intelligenti o battute simpatiche; ci sono altre persone che si divertono a scatenare flame o prendere in giro chi si limita a dare giudizi tecnici... a queste persone chiedo, se ce la fanno, di smetterla di inquinare il thread, grazie.

...ciao!

yossarian
11-10-2005, 11:39
Si però yossarian ti invito a non sminuire l'importanza dell'HDR. E' vero che alla fine il numero di colori visualizzati sono sempre 8 bit per canale, però è altrettanto vero che l'HDR non è un banale calcolo dell'illuminazione in floating point. Quella avviene anche adesso, basta fare una banale illuminazione per pixel via pixel shaders. Il discorso è un altro. L'HDR consente di avere una "distribuzione" dell'illuminazione dinamica e differente a seconda della scena visualizzata, della posizione delle camera rispetto alle fonti di luce, ecc... Nel complesso anche se il numero di colori è lo stesso, l'HDR riesce a rendere l'illuminazione estremamente più realistica perché la gestione dinamica del range gli consente di emulare il comportamento dell'occhio umano e di esaltare determinate zone chiare e/o scure. Insomma l'effetto è un decisivo passo in avanti rispetto alle tecniche classiche. Di fatto i 16,8 milioni di colori a disposizione per la visualizzazione finale della scena sono più che sufficienti a livello gaming ed è la gestione dinamica interna in floating point a fare la differenza. Poi naturalmente aggiungendo i vari effetti di blooming, si aggiunge un tocco di spettacolarità al tutto.

lungi da me l'intenzione di sminuire l'importanza dell'HDR. Mi limito, semplicemente, a prendere atto di una serie di cose. Innanzitutto del fatto che, tecnicamente parlando, il vero HDR è ancora lontano dall'essere realizzato (si può parlare di HDR quando si hanno almeno 32 bit per colore, cosa che del resto prevede anche l'algoritmo ideato da OpenEXR e utilizzato da nVIDIA e ATi; solo che le operazioni di blending a 32 bit non sono compatibili con l'HW attuale; quindi sarebbe più corretto parlare di half HDR); in secondo luogo, che, a causa delle limitazioni imposte dalle periferiche di visualizzazione (o di acquisizione, in caso di HDR ralizzato su immagini "reali"), più che la rappresentazione a fp16 per canale, che sicuramente fornisce un range più ampio di valori e quindi la possibilità di rappresentare in maniera più dettagliata un'immagine, oltre a quella di avere una più ampia gamma di valori di luminanza (cosa fondamentale per quello che dirò in seguito), assumono un'importanza preponderante gli algoritmi di tone mapping scelti per la compressione delle immagini a 8 bit. Questo perchè l'occhio umano non è facilmente rappresentabile mediante una semplice funzione matematica e, di conseguenza, non esiste un solo algoritmo di compressione del range, ma ne esistono diversi, in base a ciò che si vuole rappresentare e mettere in risalto. In particolare, questi algoritmi di compressione si basano sul principio che l'occhio è molto sensibile ai contrasti e molto poco alle sfumature di uno stesso colore. Quindi, per cercare di mantenere il massimo realismo visivo, si tende, nel momento in cui un'immagine a 64 bit si riduce a 32, a comprimere il più possibile lo spazio dedicato alle sfumature di uno stesso colore, per dedicare uno spazio più ampio alle transizioni di colore (operazione che coinvolge anche la luminanza, motivo per cui, le immagini trattate in HDR presentano anche un maggior contrasto tra zone illuminate e zone d'ombra).
In pratica, si fa un'operazione inversa rispetto a quella dei filtri di AA e AF, in cui, invece, si tende a ridurre l'impatto delle "scalettature" o delle "transizioni" da texture a maggior dettaglio a texture a minor dettaglio aumentando la scala delle sfumature di uno stesso colore e riducendo, di conseguenza il contrasto tra una zona e l'altra.
Per quanto possano essere efficaci, però, gli algoritmi di tone mapping non permetteranno mai una rappresentazione veramente realistica, in quanto, comunque, nell'operazione di compressione si deve sacrificare qualcosa a vantaggio di qualcos'altro.

yossarian
11-10-2005, 11:44
x yoss

Secondo te come saranno ripartite le unità del futuro r580 ?
1. 3vec3+scalar(2 mul/mad e 1 add/input) + unità di branch.
2. Mini-alu "MAD" stile g70.

3vect3+scalar + una minialu (3MUL/MAD + 1 ADD/input) + unità di branching

Quello che cambierebbe sarebbe, essenzialmente, il numero di unità MAd, che passerebbe da 4 per gruppo di 128 thread (o una per ciascuna delle 16 pp, se vogliamo mantenere la notazione a pipeline) a 12 per gruppo di 128 thread (3 per pp)

halduemilauno
11-10-2005, 11:56
...vorrei dire due cose che mi sono venute in mente leggendo alcuni post.
...in questa sezione si parla di schede video, scannarsi e prendersi in giro per un argomento del genere è pura follia infantile. ci sono cose ben più importanti nella vita che un componente di un pc. ho aperto questo ed altri thread perchè sono un appassionato di pc, in particolare di schede video, e dato che la vita e gli studi mi hanno portato a fare cose ben diverse, cerco di soddisfare la mia passione e le mie curiosità partecipando a forum come questi. chi viene qui per scatenare flame non ha capito nulla. proprio nulla...
...da certi inutili post si capisce che c'è gente che non ha letto nulla su R520.
...gente che non si è accorta che l'architettura di R520 è la più tecnologicamente avanzata in questo momento.
...gente (e mi ripeto) che non si è accorta che il concetto di pipeline è stato superato da R520, introducendo i Quad Pixel Shader Core e gli Ultra-Threading Dispatch Processor, che non si è accorta dei 0.09 micron, dell'anisotropico per ogni angolazione, dell'HDR e AAA simultanei, del rig bus a 512 bit, del nuovo controllo di memoria configurabile da driver, di AVIVO, del 3DC+, delle caratteristiche che riconducono al futuro R500.
...ci sono persone "molto vicine" ad nVIDIA, come halduemilauno, che hanno capito tutte queste cose e partecipano a questo thread facendo commenti intelligenti o battute simpatiche; ci sono altre persone che si divertono a scatenare flame o prendere in giro chi si limita a dare giudizi tecnici... a queste persone chiedo, se ce la fanno, di smetterla di inquinare il thread, grazie.

...ciao!
concordo su tutto.
non a caso io non ho mai toccato l'argomento tecnologico perchè mi è parso evidente fin d'all'inizio che l'R520 era molto più avanzato dei suoi predecessori.
poi basta riflettere su un aspetto il G70 in origine si chiamava NV47 e questo fa capire ancor di più lo stretto legame di parentela tra i due chip nVidia NV40 NV47(G70). invece come gia detto tra l'R420/480 e l'R520 magari non sono nemmeno parenti.
io ho sempre parlato di ritardo commerciale. e se ho insistito su questo punto è perchè alcuni utenti lo ignoravano, lo minimizzavano, lo negavano.
certo la scheda ora è stata presentata a fra una mesata sarà in vendita ma quell'aspetto credo che non andava ne trascurato e ne sottaciuto . IHMO.
sul lato prestazionale le due schede x1800xt/7800gtx stanno sul livello che ciascuno di noi ha potuto vedere attraverso le decine di rece.
ciao.
;)

Grazie per i miei commenti e le mie battute. qualcuno le ha notate.

yossarian
11-10-2005, 12:02
io ormai non posso più tornare indietro perchè mi dovrebbero spedire in questi giorni la 7800GTX della Point of View.
Però dico che Ati con R520 ha fatto un gran bel lavoro riuscendo a fare una architettura davvero ottima e efficiente meglio di G70 e questo mi ricorda quello che Ati fece con R300 che ritengo il miglior progetto fatto da Ati e il più rivoluzionario.
Certamente è molto innovativo R520 ma non rivoluzionario come è stato R300.
Io poi vedo Ati in vantaggio per lo sviluppo della gpu directx 10 visto che ha già una solida basa di partenza chiamata R500.
Domanda per Yoss,spero di spiegarmi bene.
L'HDR per essere eseguito nelle specifiche SM 3.0 deve essere calcolato in floating point a fp16?

l'hdr non c'entra con le specifiche sm3.0; si tratta semplicemente di una tecnica che permette di ampliare il range di valori dedicabili alla rappresentazione dei tra colori RGB e della luminanza. E' nato molto prima delle DX (addirittura, i primi esperimenti risalgono agli anni '80 e l'algoritmo di OPenEXR utilizzato da ATi e nVIDIA) è del 1999, anche se è stato ufficialmente presentato nel 2003 al SIGGRAPH).
Esistono varie tecniche per realizzare HDR; una delle più comune è una compressione/decompressione di tipo logaritmica; ce ne sono altre che utilizzano algoritmi di tipo lineare (ma sono meno precisi e affidabili). Alcuni prevedono l'utilizzo di interi, altri di valori in floating point.
In particolare, quello di OPenEXR, prevede 3 modalità: fp32 (il vero e proprio HDR che, però, non è compatibile con l'HW attuale che può eseguire blending solo a fp16); fp16 (quello che, comunemente, viene definito HDR ma che sarebbe più corretto definire halfHDR); una modalità a 32 bit INT per canale.
C'è la possibilità, comunque, di fare HDR anche utilizzando 12 bit o 16 bit INT per canale

Athlon 64 3000+
11-10-2005, 12:02
lungi da me l'intenzione di sminuire l'importanza dell'HDR. Mi limito, semplicemente, a prendere atto di una serie di cose. Innanzitutto del fatto che, tecnicamente parlando, il vero HDR è ancora lontano dall'essere realizzato (si può parlare di HDR quando si hanno almeno 32 bit per colore, cosa che del resto prevede anche l'algoritmo ideato da OpenEXR e utilizzato da nVIDIA e ATi; solo che le operazioni di blending a 32 bit non sono compatibili con l'HW attuale; quindi sarebbe più corretto parlare di half HDR); in secondo luogo, che, a causa delle limitazioni imposte dalle periferiche di visualizzazione (o di acquisizione, in caso di HDR ralizzato su immagini "reali"), più che la rappresentazione a fp16 per canale, che sicuramente fornisce un range più ampio di valori e quindi la possibilità di rappresentare in maniera più dettagliata un'immagine, oltre a quella di avere una più ampia gamma di valori di luminanza (cosa fondamentale per quello che dirò in seguito), assumono un'importanza preponderante gli algoritmi di tone mapping scelti per la compressione delle immagini a 8 bit. Questo perchè l'occhio umano non è facilmente rappresentabile mediante una semplice funzione matematica e, di conseguenza, non esiste un solo algoritmo di compressione del range, ma ne esistono diversi, in base a ciò che si vuole rappresentare e mettere in risalto. In particolare, questi algoritmi di compressione si basano sul principio che l'occhio è molto sensibile ai contrasti e molto poco alle sfumature di uno stesso colore. Quindi, per cercare di mantenere il massimo realismo visivo, si tende, nel momento in cui un'immagine a 64 bit si riduce a 32, a comprimere il più possibile lo spazio dedicato alle sfumature di uno stesso colore, per dedicare uno spazio più ampio alle transizioni di colore (operazione che coinvolge anche la luminanza, motivo per cui, le immagini trattate in HDR presentano anche un maggior contrasto tra zone illuminate e zone d'ombra).
In pratica, si fa un'operazione inversa rispetto a quella dei filtri di AA e AF, in cui, invece, si tende a ridurre l'impatto delle "scalettature" o delle "transizioni" da texture a maggior dettaglio a texture a minor dettaglio aumentando la scala delle sfumature di uno stesso colore e riducendo, di conseguenza il contrasto tra una zona e l'altra.
Per quanto possano essere efficaci, però, gli algoritmi di tone mapping non permetteranno mai una rappresentazione veramente realistica, in quanto, comunque, nell'operazione di compressione si deve sacrificare qualcosa a vantaggio di qualcos'altro.

Ottima spiegazione.
Secondo te le architetture directx 10 che usciranno a fine 2006 potranno eseguire L'HDR con precisione a 32 bit?

yossarian
11-10-2005, 12:11
Ottima spiegazione.
Secondo te le architetture directx 10 che usciranno a fine 2006 potranno eseguire L'HDR con precisione a 32 bit?

può anche darsi; non è detto che ci si arrivi con i primi chip wgf2.0, però, sicuramente, uno degli obiettivi futuri sarà quello (se ti interessa, si stanno già studiando soluzioni a 48 bit per canale, che propongono una gamma infinitamente più ampia di sfumature). Il principale problema da affrontare sarà quello della banda passante e dell'occupazione di spazio in memoria. Oltre, naturalmente, al problema relativo ai dispositivi di visualizzazione. Se non si sbrigano a far uscire monitor che utilizzano più di 8/12 bit per canale, va da sé che maggiore è il range a disposizione per la "costruzione" delle immagini, maggiori saranno i sacrifici, in fase di comressione dati a cui si dovrà andare incontro. Se già si perde qualcosa nel passaggio da fp16 a INT8, immagina quanto si potrebbe perdere nel passaggio da 32 a 8 bit (anche alla luce del fatto che gli attuali algoritmio permettono una compressione lossless solo in casi specifici e con rapporto di 2:1

belin
11-10-2005, 12:12
...per chi è interessato all'aspetto commerciale (in poche parole, dove comprare le X1K) consiglio di tenere d'occhio questa nuova pagina comparsa sul sito ATI: Where to buy (http://www.ati.com/Products/RadeonX1K/WhereToBuy.html) (c'è anche l'Italia tra le nazioni disponibili).

...ciao!

edit: ho inserito il link in prima pagina.

yossarian
11-10-2005, 12:23
Per il resto avete ragione voi, parlo a vanvera.
Ma sai che 00 se non ci fossi io, tutti ad elogiare Ati e la sua nuova creatura:
" ohh che bella " di qua " ma quanto è potente di là " ecc. ecc.
In fondo vi infervoro gli animi, e vi ci faccio appassionare ancora di più ;)
Ad ognuno la sua.

io non dico che parli a vanvera; ti sto solo chiedendo di motivare le tue affermazioni. Se dici che l'R520 è overclockato e overvoltato di fabbrica per permettergli di raggiungere e superare la GTX e poi si scopre che è alimentato a 1,3 V e che in o/c può salire di oltre 200 Mhz ad aria, vuol dire che hai fatto due affermazioni smentite dai fatti.
Se vuoi fare delle critiche, qualunque sia il motivo (fosse anche anipatia verso ATi o simpatia verso nVIDIA), falle motivate.
Se, ad esempio, avessi detto che R520 ha prestazioni inferiori a G70 nel calcolo dei ps, nessuno avrebbe avuto niente da obiettare, perchè è un dato di fatto che risulta evidente da tutti i bench sintetici (e c'è una motivazione tecnica ben precisa sotto)

hIRoShIMa
11-10-2005, 12:27
Scusate ma la rece a quando?


byz

Ricky78
11-10-2005, 13:21
Scusate ma la rece a quando?


byz
al 2025... :D

Jedi_Master
11-10-2005, 13:42
Scusate ma la rece a quando?

deve tardare tanto quanto le schede.....quindi qualche mese!!
:D

T3d
11-10-2005, 13:52
può anche darsi; non è detto che ci si arrivi con i primi chip wgf2.0, però, sicuramente, uno degli obiettivi futuri sarà quello (se ti interessa, si stanno già studiando soluzioni a 48 bit per canale, che propongono una gamma infinitamente più ampia di sfumature). Il principale problema da affrontare sarà quello della banda passante e dell'occupazione di spazio in memoria. Oltre, naturalmente, al problema relativo ai dispositivi di visualizzazione. Se non si sbrigano a far uscire monitor che utilizzano più di 8/12 bit per canale, va da sé che maggiore è il range a disposizione per la "costruzione" delle immagini, maggiori saranno i sacrifici, in fase di comressione dati a cui si dovrà andare incontro. Se già si perde qualcosa nel passaggio da fp16 a INT8, immagina quanto si potrebbe perdere nel passaggio da 32 a 8 bit (anche alla luce del fatto che gli attuali algoritmio permettono una compressione lossless solo in casi specifici e con rapporto di 2:1
ma nella realtà avere dei monitor che utilizzano più di 8bit per canale può migliorare notevolmente la qualità e il realismo delle immagini? se si che progressi si stanno facendo in questo senso? cioè... quando li potremo comprare :sofico: ?

grazie :D

emax81
11-10-2005, 13:59
...per chi è interessato all'aspetto commerciale (in poche parole,
...ciao!

edit: ho inserito il link in prima pagina.

Ottima idea. ;)

picard88
11-10-2005, 14:05
Se, ad esempio, avessi detto che R520 ha prestazioni inferiori a G70 nel calcolo dei ps, nessuno avrebbe avuto niente da obiettare, perchè è un dato di fatto che risulta evidente da tutti i bench sintetici (e c'è una motivazione tecnica ben precisa sotto)
yoss..mi sono sempre chiesto qual'è questa motivazione tecnica...nn è che puoi farmi luce?? grazie in anticipo :)

DevilMalak
11-10-2005, 14:07
raga ma la rece ?? sto facendo continuamente F5 :sofico: :sofico:

~Mr.PartyHut~
11-10-2005, 14:08
raga ma la rece ?? sto facendo continuamente F5 :sofico: :sofico:

Io ho un picchio che col becco schiaccia F5 in automatico che si muove col moto perpetuo :D

:sofico:

Ciao
~» Mr.Party`Hut «~

picard88
11-10-2005, 14:10
VOGLIAMO LA RECEEEEE!!!!!! :D :D :D

yossarian
11-10-2005, 14:23
ma nella realtà avere dei monitor che utilizzano più di 8bit per canale può migliorare notevolmente la qualità e il realismo delle immagini? se si che progressi si stanno facendo in questo senso? cioè... quando li potremo comprare :sofico: ?

grazie :D

si? Ci sono già alcuni monitor che utilizzano 12 bit al posto degli 8 consueti (il che fa salire il numero di livelli a 4096, contro i 256 degli 8 bit); altra tecnologia interessante è quella che prevede l'utilizzo di 8 bit per canali scelti, tra un frame e il successivo, in modalità random, tra 16 possibili valori (in maniera simile a quanto accade per il temporal antialiasing); questo permette di simulare l'impiego di 16 bit, sfruttando i limiti della capacità di risoluzione spazio-temporale dell'occhio umano.

yossarian
11-10-2005, 14:33
yoss..mi sono sempre chiesto qual'è questa motivazione tecnica...nn è che puoi farmi luce?? grazie in anticipo :)

la motivazione è che R520 ha molte meno unità matematiche rispetto a G70.
Computendo le sole MAD, R520 ha 16 unità di calcolo, raggruppate a 4 a 4, mentre G70 ne ha 48. L'architettura ideata da ATi è molto flessibile anche in fatto di "configurazione" della pipeline. Ad esempio, RV530 ha 12 unità raggruppate in una unica "pipeline" (con un potenziale di calcolo matematico superiore a quello di G70, se si fa riferimento al singolo quad (ossia 4 pipeline), in quanto si hanno 12 MAD contro 8 (2 per pipeline) di G70. L'avere un solo quad per gruppo di thread è vantaggioso ai fini del dynamic branching (una granularità di soli 4x4 pixel risulta estremamente vantaggiosa rispetto alla coerenza minima richiesta da G70, di 32x32 pixel), però rende meno veloce l'elaborazione dei calcoli matematici. Con R580 si dovrebbe avere un'architettura del tipo di quella di RV530, moltplicata per 4; il che significa 48 MAD, raggruppate a 12 a 12. Questo permette di avere un potenziale, per gruppo di thread, superiore a quello di G70 (12 contro 8), però riduce un po' l'efficienza nelle operazioni di branching (granularità pari a 4x12 pixel), rispetto a quella di R520

picard88
11-10-2005, 14:37
la motivazione è che R520 ha molte meno unità matematiche rispetto a G70.
Computendo le sole MAD, R520 ha 16 unità di calcolo, raggruppate a 4 a 4, mentre G70 ne ha 48. L'architettura ideata da ATi è molto flessibile anche in fatto di "configurazione" della pipeline. Ad esempio, RV530 ha 12 unità raggruppate in una unica "pipeline" (con un potenziale di calcolo matematico superiore a quello di G70, se si fa riferimento al singolo quad (ossia 4 pipeline), in quanto si hanno 12 MAD contro 8 (2 per pipeline) di G70. L'avere un solo quad per gruppo di thread è vantaggioso ai fini del dynamic branching (una granularità di soli 4x4 pixel risulta estremamente vantaggiosa rispetto alla coerenza minima richiesta da G70, di 32x32 pixel), però rende meno veloce l'elaborazione dei calcoli matematici. Con R580 si dovrebbe avere un'architettura del tipo di quella di RV530, moltplicata per 4; il che significa 48 MAD, raggruppate a 12 a 12. Questo permette di avere un potenziale, per gruppo di thread, superiore a quello di G70 (12 contro 8), però riduce un po' l'efficienza nelle operazioni di branching (granularità pari a 4x12 pixel), rispetto a quella di R520capito..grazie :)

Maury
11-10-2005, 15:00
si ma al rece ? :oink:

DevilMalak
11-10-2005, 15:02
si ma al rece ? :oink:

Io sono da oltre 1 ora a fare f5 :cry:

T3d
11-10-2005, 15:52
si ma al rece ? :oink:
per me hanno rotto la scheda :asd:
:sofico:

baila
11-10-2005, 16:13
Per una recensione di qualità occorre il suo tempo........ :read:

DevilMalak
11-10-2005, 16:22
si ma se mi dicevan la rece esce mercoledi non stavo tutto il giorno qua ad aspettare.. :|

ForeverBlue
11-10-2005, 16:22
si lo so ma la sto aspettando da quando sono uscite tutte quelle di siti stranieri........ :eek:

LAVOGLIOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO!!!!!

PS: vado a recuperare della morfina :asd: .....

Vifani
11-10-2005, 16:23
yossarian sei sicuro del discorso che non supportano blending FP32? Io lessi sulla presentazione di G70 e di R520 che supportano il rendering su texture FP32 solo che non supportano alcun tipo di filtraggio (niente bilineare), ma solo point sample. Quindi poi bisognerebbe implementarsi i filtri a mano con i pixel shaders.

Maury
11-10-2005, 16:33
yossarian sei sicuro del discorso che non supportano blending FP32? Io lessi sulla presentazione di G70 e di R520 che supportano il rendering su texture FP32 solo che non supportano alcun tipo di filtraggio (niente bilineare), ma solo point sample. Quindi poi bisognerebbe implementarsi i filtri a mano con i pixel shaders.


a che punto siamo ? :fagiano:

Athlon 64 3000+
11-10-2005, 16:38
a che punto siamo ? :fagiano:

Quoto!
:D

MaBru
11-10-2005, 16:39
Altra ottima rece
http://www.digit-life.com/articles2/video/r520-part2.html

T3d
11-10-2005, 16:39
arrghhhhhhhhhhhhhhhhhhhhhhhhhhhh :muro:

non ce la faccio più ad aspettare :cry:

ok chiamo l'ospedale :sofico:

Vifani
11-10-2005, 16:40
a che punto siamo ? :fagiano:

Riguardo cosa ? :D

xpiuma
11-10-2005, 16:41
Speravo di leggerla entro stasera, la competenza che ci metti (Raffaele) è sempre lodevole. :(

Vabbè, ma Raffaele sbrigati, altrimenti rischi che la finisca prima io la recensione di sta scheda. ;) :p

Maury
11-10-2005, 16:42
Riguardo cosa ? :D

all'arrivo dell'inverno ovvio :cry:

T3d
11-10-2005, 16:43
Riguardo cosa ? :D
:ncomment:

eehhehe :p

DevilMalak
11-10-2005, 16:52
Riguardo cosa ? :D
:ncomment: :p

Vifani
11-10-2005, 16:55
Mannaggia... me ne ero completamente dimenticato.... :doh:

Scherzo ovviamente. Ragazzi non aspettatela per oggi. Mi dispiace di fare un po il CEO ATI della situazione :D con continui annunci e ritardi, ma vi chiedo un po di pazienza. Io e Paolo stiamo lavorando come buoi dalla mattina alla sera per offrirvi un articolo completo e curato in ogni sua parte.

E poi che volete scusa? Tanto non potete mica comprarla :D Mamma mia che cattiveria oggi.... vabbè mi rifarò nell'articolo ;)

T3d
11-10-2005, 16:55
chissà come gli fischiano le orecchie al nostro editore :Prrr:

edit: oooooooooook vaaaaaaaa bene! a domani allora :cool:
...Mamma mia che cattiveria oggi.... vabbè mi rifarò nell'articolo ;)
vuol dire che la stai elogiando allora? :sofico:

ForeverBlue
11-10-2005, 16:57
Mannaggia... me ne ero completamente dimenticato.... :doh:

Scherzo ovviamente. Ragazzi non aspettatela per oggi. Mi dispiace di fare un po il CEO ATI della situazione :D con continui annunci e ritardi, ma vi chiedo un po di pazienza. Io e Paolo stiamo lavorando come buoi dalla mattina alla sera per offrirvi un articolo completo e curato in ogni sua parte.

E poi che volete scusa? Tanto non potete mica comprarla :D Mamma mia che cattiveria oggi.... vabbè mi rifarò nell'articolo ;)

allora vado a ibernarmi :asd:
a domani :p

andreamarra
11-10-2005, 17:00
edit: oooooooooook vaaaaaaaa bene! a domani allora :cool:




e chi ha parlato di domani... :(???



:sofico:

T3d
11-10-2005, 17:01
arghhhh :nera: come domani no!!!

va bene va, vado ad ibernarmi anche io :huh:

ihih :hic:

DevilMalak
11-10-2005, 17:02
Mannaggia... me ne ero completamente dimenticato.... :doh:

Scherzo ovviamente. Ragazzi non aspettatela per oggi. Mi dispiace di fare un po il CEO ATI della situazione :D con continui annunci e ritardi, ma vi chiedo un po di pazienza. Io e Paolo stiamo lavorando come buoi dalla mattina alla sera per offrirvi un articolo completo e curato in ogni sua parte.

E poi che volete scusa? Tanto non potete mica comprarla :D Mamma mia che cattiveria oggi.... vabbè mi rifarò nell'articolo ;)

ok allora posso uscire dal thread, grazie di tutto a domani con la recensione spero :sofico:

DjLode
11-10-2005, 17:04
Ok, in attesa dell'articolo (fate con calma, meglio un giorno in più che una qualità più bassa, tanto ogni giorno in più che passa sono solo 10 frustrate in più) facciamoci un pò di risate:

http://www.techpowerup.com/reviews/ATI/WhatToExpect/1

Chi di slide ferisce, di slide perisce :D

(anche se ci sono un paio di inesattezze o cose prese per i capelli)

yossarian
11-10-2005, 17:08
yossarian sei sicuro del discorso che non supportano blending FP32? Io lessi sulla presentazione di G70 e di R520 che supportano il rendering su texture FP32 solo che non supportano alcun tipo di filtraggio (niente bilineare), ma solo point sample. Quindi poi bisognerebbe implementarsi i filtri a mano con i pixel shaders.

nelle operazioni di render to texture sono coinvolte le tmu e le psu; in tal caso è supportata la precisione fp32; quello che G70 e R520 non supportano è il frame buffer blending a fp32.
Le texture fp32 possono essere aggiunte ad un'immagine renderizzata a 8 bit INT, attraverso un'operazione di blending che prevede, come filtraggio, il solo point sampling.
In un secondo tempo, si può, in alternativa, procedere con un'ulteriore operazione di blending con la stessa immagine a cui è stato applicato il MSAA, ottenendo un'immagine con notazione INT nel frame buffer, con HDR e MSAA, oppure procedere direttamente con il filtraggio bilineare, trilineare o anisotropico, utilizzando i pixel shader.

Quello di cui parlavo era, invece, il supporto HW al frame buffer blending, che è la capacità di eseguire blending in fp16 da parte delle color rop's (che non sono in grado di utilizzare fp32 ma, al più, 32 bit INT con il solo point sampling; ad essere precisi, R4x0 non supporta neppure INT16 blending a livello di fb, questo, almeno, a detta di ATi :D )

p.s. Nell'HDR di lost coast si fa ricorso a 16 bit INT per canale

andreamarra
11-10-2005, 17:14
Ok, in attesa dell'articolo (fate con calma, meglio un giorno in più che una qualità più bassa, tanto ogni giorno in più che passa sono solo 10 frustrate in più) facciamoci un pò di risate:

http://www.techpowerup.com/reviews/ATI/WhatToExpect/1

Chi di slide ferisce, di slide perisce :D

(anche se ci sono un paio di inesattezze o cose prese per i capelli)

quando si scrivono certe cose, si è al "canto del cigno" :(






:sofico:

CS25
11-10-2005, 17:43
Cose prese per i capelli tipo la questione prezzi e la questione SM 3.0 compliance ;)

shodan
11-10-2005, 18:01
la motivazione è che R520 ha molte meno unità matematiche rispetto a G70.
Computendo le sole MAD, R520 ha 16 unità di calcolo, raggruppate a 4 a 4, mentre G70 ne ha 48. L'architettura ideata da ATi è molto flessibile anche in fatto di "configurazione" della pipeline. Ad esempio, RV530 ha 12 unità raggruppate in una unica "pipeline" (con un potenziale di calcolo matematico superiore a quello di G70, se si fa riferimento al singolo quad (ossia 4 pipeline), in quanto si hanno 12 MAD contro 8 (2 per pipeline) di G70. L'avere un solo quad per gruppo di thread è vantaggioso ai fini del dynamic branching (una granularità di soli 4x4 pixel risulta estremamente vantaggiosa rispetto alla coerenza minima richiesta da G70, di 32x32 pixel), però rende meno veloce l'elaborazione dei calcoli matematici. Con R580 si dovrebbe avere un'architettura del tipo di quella di RV530, moltplicata per 4; il che significa 48 MAD, raggruppate a 12 a 12. Questo permette di avere un potenziale, per gruppo di thread, superiore a quello di G70 (12 contro 8), però riduce un po' l'efficienza nelle operazioni di branching (granularità pari a 4x12 pixel), rispetto a quella di R520

Aspe'... mi sono perso qualcosa allora!
Non si era detto che le 12 unità PS erano distribuite 4 a 4 nei 3 quad pixel shader core di RV530? :confused: Se ricordo bene, RV530 distribuisce 128 thread su 3 quad, avendo un rapporto più alto di quello di R520 (512 thread su 4 quad).
Inoltre, anche sulle varie recensioni, non ho capito al 100% il discorso della granularità... in pratica le psu di uno stesso quad core non possono eseguire istruzioni diverse? Se no, allora si spiega il discorso della granularità relativa al dinamic branching; altrimenti, non mi manca qualche fondamento per capire questo discorso...

Ciao. :)

~Mr.PartyHut~
11-10-2005, 18:33
Ok, in attesa dell'articolo (fate con calma, meglio un giorno in più che una qualità più bassa, tanto ogni giorno in più che passa sono solo 10 frustrate in più) facciamoci un pò di risate:

http://www.techpowerup.com/reviews/ATI/WhatToExpect/1

Chi di slide ferisce, di slide perisce :D

(anche se ci sono un paio di inesattezze o cose prese per i capelli)

oddio, mi ha fatto venire i brividi a leggere quelle slide :(
Quanto sono veritiere da 1 a 10? :cry: :cry: :cry:

Ciao
~» Mr.Party`Hut «~

yossarian
11-10-2005, 18:37
Aspe'... mi sono perso qualcosa allora!
Non si era detto che le 12 unità PS erano distribuite 4 a 4 nei 3 quad pixel shader core di RV530? :confused: Se ricordo bene, RV530 distribuisce 128 thread su 3 quad, avendo un rapporto più alto di quello di R520 (512 thread su 4 quad).



infatti è così: RV530 ha 128 thread elaborati da 3 quad, R520 ha 512 thread elaborati da 4 quad (128 per ogni quad); non vedo il problema nel passaggio ad un'architettura con 12 quad, tale che ogni 128 thread usufruiscono di 3 quad. Ci sino 4 gruppi, ognuno composto da 3 quad; ogni gruppo si occupa di 128 thread; totale: 48 quad per 512 thread, distribuiti a 12 a 12.

Inoltre, anche sulle varie recensioni, non ho capito al 100% il discorso della granularità... in pratica le psu di uno stesso quad core non possono eseguire istruzioni diverse? Se no, allora si spiega il discorso della granularità relativa al dinamic branching; altrimenti, non mi manca qualche fondamento per capire questo discorso...

Ciao. :)

è solo un problema di dimensioni di batch; NV40 e G70 lavorano su batch dell'ordine di 32x32 pixel che entrano nella pipeline e vengono "splittati" tra i vari quad del fragment processor. Questo significa che i chip NV dividono l'immagine in tile di 32x32 pixel di dimensione (la logica, nel passaggio da NV40 a G70, anche aumentando il numero di quad da 4 a 6 non è cambiata). Al contrario, R520 frammenta l'immagine in tile di 4x4 pixel. Questo significa che per arrivare ai 1024 pixel di nVIDIA ha bisogno di 64 thread. I dati, ovviamente, non entrano di volta in volta nel pixel shader processor, ma sono immagazzinati nei registri general pourpose e vengono, di volta in volta rimpiazzati, man mano che escono per essere elaborati. Vantaggi di questo tipo di elaborazione: tutte le unità sono sempre occupate a fare qualcosa e le operazioni di branching (e non solo) sono più veloci perchè si lavora su tessere di dimensioni minori); svantaggi, servono un gran numero di cicli per elaborare le stesse informazioni elaborabili in thread non frazionati (ergo, servono frequenze di lavoro elevate).
Il motivo per cui, nelle operazioni di branching, aumenta l'efficienza è piuttosto banale. Un'operazione di tipo if...then...else ha come aree critiche quelle di "confine", in cui la due probabilità hanno valori pressochè simili. Con batch di misure ridotte si riduce enormemente anche il numero di zone con valori di probabilità prossimi o tali da indurre in un'errata previsione. Inoltre sono estremamente rapide le operazioni di svuotamento e riempimento in caso di errata previsione.

yossarian
11-10-2005, 18:40
l'ufficio è chiuso :ronf:

DjLode
11-10-2005, 18:50
oddio, mi ha fatto venire i brividi a leggere quelle slide :(
Quanto sono veritiere da 1 a 10? :cry: :cry: :cry:

Ciao
~» Mr.Party`Hut «~

Tutte vere. Nel senso che (vedi discorso driver) nel tempo (passato o passato remoto) lo sono state. Ora direi qualche punto in meno :)
I prezzi con ogni probabilità sono quelli consigliati da Nvidia al momento del lancio, ora ovviamente (ma quasi da subito credo) si trovano più bassi. E via discorrendo.
Non riesco solo a capire la parte dell'HDR e della 9700, parla di superfici in floating point che R300 (e successivi fino a R520 escluso) non possono renderizzare. Le ho lette però velocemente :)

Ren
11-10-2005, 18:55
Ma nell'r500(xenos) il branching è così efficiente ?
Se non sbaglio nel chip microsoft si hanno 48 unità mad/mul, inoltre il rapporto texture-unit_pixel-unit è di 3:1 come nel presunto R580...

http://www.ati.com/developer/eg05-xenos-doggett-final.pdf (regalo x yoss) :sofico:

andreamarra
11-10-2005, 18:55
intanto a giorni qualcuno avrà a disposizione le schede madri con ship ati crossfire...

spero in una recensione, come ho detto del crossfire me ne impippo :asd:, ma le prestazioni del chip le devo conoscere :oink:!!!

MaBru
11-10-2005, 19:09
Scusate ma oggi non dovevano essere disponibili le prime schede? :confused:

neopazzo
11-10-2005, 19:40
Scusate ma oggi non dovevano essere disponibili le prime schede? :confused:


continuo a dirlo da giorni e nn mi da retta nessuno... :muro:

shodan
11-10-2005, 21:04
infatti è così: RV530 ha 128 thread elaborati da 3 quad, R520 ha 512 thread elaborati da 4 quad (128 per ogni quad); non vedo il problema nel passaggio ad un'architettura con 12 quad, tale che ogni 128 thread usufruiscono di 3 quad. Ci sino 4 gruppi, ognuno composto da 3 quad; ogni gruppo si occupa di 128 thread; totale: 48 quad per 512 thread, distribuiti a 12 a 12.

Perfetto... allora ci siamo! :p
E' solo che prima ha accennato a RV530, dicendo che ha 12 unità in un'unica pipeline... allora ho pensato che parlassi di quad. Ma ora credo di aver capito cosa intendi: ha 12 unità che sharano tutte lo stesso gruppo di thread.

è solo un problema di dimensioni di batch; NV40 e G70 lavorano su batch dell'ordine di 32x32 pixel che entrano nella pipeline e vengono "splittati" tra i vari quad del fragment processor. Questo significa che i chip NV dividono l'immagine in tile di 32x32 pixel di dimensione (la logica, nel passaggio da NV40 a G70, anche aumentando il numero di quad da 4 a 6 non è cambiata). Al contrario, R520 frammenta l'immagine in tile di 4x4 pixel. Questo significa che per arrivare ai 1024 pixel di nVIDIA ha bisogno di 64 thread. I dati, ovviamente, non entrano di volta in volta nel pixel shader processor, ma sono immagazzinati nei registri general pourpose e vengono, di volta in volta rimpiazzati, man mano che escono per essere elaborati. Vantaggi di questo tipo di elaborazione: tutte le unità sono sempre occupate a fare qualcosa e le operazioni di branching (e non solo) sono più veloci perchè si lavora su tessere di dimensioni minori); svantaggi, servono un gran numero di cicli per elaborare le stesse informazioni elaborabili in thread non frazionati (ergo, servono frequenze di lavoro elevate).
Il motivo per cui, nelle operazioni di branching, aumenta l'efficienza è piuttosto banale. Un'operazione di tipo if...then...else ha come aree critiche quelle di "confine", in cui la due probabilità hanno valori pressochè simili. Con batch di misure ridotte si riduce enormemente anche il numero di zone con valori di probabilità prossimi o tali da indurre in un'errata previsione. Inoltre sono estremamente rapide le operazioni di svuotamento e riempimento in caso di errata previsione.
Ma questo batch è slegato dal numero di unità PS? Ti chiedo questo perchè mi domando come mai R520 abbia un batch di 4x4 pixel, mentre RV530 e probabilmente R580 hanno/avranno un batch di 4x12...

Ciao grazie mille! :)

Vifani
11-10-2005, 21:57
Scusate ma oggi non dovevano essere disponibili le prime schede? :confused:

Ma no è ovvio... stanno aspettando la nostra recensione :sofico:

~Mr.PartyHut~
11-10-2005, 21:58
Scusate ma oggi non dovevano essere disponibili le prime schede? :confused:

Sono slittate al 13 Ottobre :(
(mi riferisco alle schede madri Crossfire con chipset ATI)


Ciao
~» Mr.Party`Hut «~

DevilMalak
11-10-2005, 22:02
Ma no è ovvio... stanno aspettando la nostra recensione :sofico:

Per domani pensate di farcela ? :)

Vifani
11-10-2005, 22:13
Tra un paio d'ore vi faccio un piccolo report e vi saprò dire di più :)

yossarian
11-10-2005, 22:15
Ma nell'r500(xenos) il branching è così efficiente ?
Se non sbaglio nel chip microsoft si hanno 48 unità mad/mul, inoltre il rapporto texture-unit_pixel-unit è di 3:1 come nel presunto R580...

http://www.ati.com/developer/eg05-xenos-doggett-final.pdf (regalo x yoss) :sofico:

il branching di R500 è al livello di quello di un ipotetico R580 (leggermento meno di quello di R520, ma nettamente superiore a quello di G70)

Grazie per il regalo, ho apprezzato molto :)

yossarian
11-10-2005, 22:19
Perfetto... allora ci siamo! :p
E' solo che prima ha accennato a RV530, dicendo che ha 12 unità in un'unica pipeline... allora ho pensato che parlassi di quad. Ma ora credo di aver capito cosa intendi: ha 12 unità che sharano tutte lo stesso gruppo di thread.



esatto


Ma questo batch è slegato dal numero di unità PS? Ti chiedo questo perchè mi domando come mai R520 abbia un batch di 4x4 pixel, mentre RV530 e probabilmente R580 hanno/avranno un batch di 4x12...

Ciao grazie mille! :)

non è slegato: 4x4 in R520 = 4 gruppi di quad, ognuno con 4 unità di shading; 4x12 in R580 = 4 gruppi di quad, ognuno formato da tre quad e, di conseguenza, con 12 unità di shading. Non può essere altrimenti per essere certi di introdurre sempre all'interno della "pipeline" o del gruppo di quad, il numero minimo di pixel necessario a tenere occupate tutte le unità di calcolo.

La logica del dynamic branching è tarata sulle dimensioni delle tessere in cui è suddivisa l'immagine. La scelta di nVIDIA è stata quella di utilizzare tessere di grandi dimensioni (non meno di 32x32) quella di ATi di spezzettare l'immagine in tessere molto piccole (della dimensione minima indispensabile).

p.s.: quello di RV530 è 12x1 (o meglio, 3x4 :), come è probabile che quello di R580, che ho definito 4x12, possa essere un 6x8 (quello che conta è il nhumero complessivo di pixel per tile))

shodan
11-10-2005, 22:34
esatto



non è slegato: 4x4 in R520 = 4 gruppi di quad, ognuno con 4 unità di shading; 4x12 in R580 = 4 gruppi di quad, ognuno formato da tre quad e, di conseguenza, con 12 unità di shading. Non può essere altrimenti per essere certi di introdurre sempre all'interno della "pipeline" o del gruppo di quad, il numero minimo di pixel necessario a tenere occupate tutte le unità di calcolo.

La logica del dynamic branching è tarata sulle dimensioni delle tessere in cui è suddivisa l'immagine. La scelta di nVIDIA è stata quella di utilizzare tessere di grandi dimensioni (non meno di 32x32) quella di ATi di spezzettare l'immagine in tessere molto piccole (della dimensione minima indispensabile).

p.s.: quello di RV530 è 12x1 (o meglio, 3x4 :), come è probabile che quello di R580, che ho definito 4x12, possa essere un 6x8 (quello che conta è il nhumero complessivo di pixel per tile))

Ho capito, ma quindi ogni pixel elaborato dallo stesso quad è soggetto necessariamente alle stesse operazioni, giusto? Non è possibile quindi, all'interno dello stesso quad, applicare un "calcolo" a 2 pixel mentre ai restanti 2 si applica qualche altro algoritmo. Corretto?

Ciao. :)

PS: se passi a Pescara e ti senti solo, fammi un fischio! Così potrò rubarti in anteprima qualche segreto su R500... :sofico: :p

yossarian
11-10-2005, 23:26
Ho capito, ma quindi ogni pixel elaborato dallo stesso quad è soggetto necessariamente alle stesse operazioni, giusto? Non è possibile quindi, all'interno dello stesso quad, applicare un "calcolo" a 2 pixel mentre ai restanti 2 si applica qualche altro algoritmo. Corretto?

Ciao. :)



non necessariamente; una volta effettuato il branching e verificato il realizzarsi o meno della condizione di salto, i 4 pixel sono caricati nel quad; a quel punto, molto dipende dalla coerenza all'interno del quad 2x2 di pixel. E' molto probabile che per pixel contenuti all'interno di una tessera di dimensioni 2x2, molte operazioni siano in comune o siano soggetti a trattamenti analoghi; ma non è una regola: per ogni pixel possono anche essere avviati uno o più thread differenti, fino ad un massimo di 128 per un gruppo di 4 pixel. Addirittura, se il numero di operazioni relative ad un singolo pixel (o a 2 o 3, ecc) dovesse eccedere il limite dei 128 thread, il controller può riprogrammarsi e impedire che altri pixel entrino nel quad, finchè quel pixel non è stato completamente elaborato (i dati relativi alle successive elaborazioni finiscono all'interno dell'array di registri).
In ogni caso, la coerenza richiesta per le operazioni di branching va distinta da quella relativa al gruppo di pixel all'interno di un quad. Si tratta di due fasi successive e distinte.

http://www.xbitlabs.com/misc/picture/?src=/images/video/radeon-x1000/branching_bg.png&1=1

il modello di R520 e derivati, rientra nella prima categoria (ogni quadratino rappresenta una tessera di 16 pixel); il modello di NV40 e G70 è a cavallo tra la seconda (256 pixel) e la terza (4096), essendo di 1024 pixel.


PS: se passi a Pescara e ti senti solo, fammi un fischio! Così potrò rubarti in anteprima qualche segreto su R500... :sofico: :p

il fatto che possa trovarmi a passare dalle parti di Pescara è un'eventualità tutt'altro che remota :) molto meno probabile che porti con me qualcosa relativo a R500 :sofico:

T3d
11-10-2005, 23:44
l'ufficio è chiuso :ronf:
:sofico:
sei troppo buono yossarian

eeheheheh :D

Ren
12-10-2005, 00:08
Grazie per il regalo, ho apprezzato molto

Parlando sempre di r500 non ho capito bene le capacità di color fillrate...
Dallo schema pare che il main-chip sia capace di inviare solo 8pixel o 16z-pixel al Dcore che però può eseguire più calcoli del necessario.

Perchè il setup dei triangoli è limitato solo a 500mil di trinagoli ?
Un'unità 4+1 come si comporta nel calcolo dei pixel shader ? (le situzioni + frequenti non sono 3+1 o 1+1+1+1?)

Maury
12-10-2005, 08:25
9:24 e qua non si vede nulla :O :cry:

Jedi_Master
12-10-2005, 09:38
Tra un paio d'ore vi faccio un piccolo report e vi saprò dire di più :)

Siamo cosi' giunti a mercoledi' mattina e.....
l'attesa continua!!
:cry:

Vifani
12-10-2005, 09:45
Siamo cosi' giunti a mercoledi' mattina e.....
l'attesa continua!!
:cry:

Ho completato il tutto intorno alle 5 del mattino (senza andare a dormire). L'articolo arriverà oggi :)

DjLode
12-10-2005, 09:51
Ho completato il tutto intorno alle 5 del mattino (senza andare a dormire). L'articolo arriverà oggi :)

:winner: :yeah: :gluglu: :ubriachi: :happy:

P.S. A che ora? :D

Vifani
12-10-2005, 10:03
:winner: :yeah: :gluglu: :ubriachi: :happy:

P.S. A che ora? :D

Adesso :D

Maury
12-10-2005, 10:15
:D

Commento tecnico post lettura recensione: che scheda della bestia, nVidia asfaltata sotto un metro di catrame :sofico: :read:

Rece favolosa complimenti ;)

wiltord
12-10-2005, 10:29
:eek: spettacolo!!! :eek:

Milotto
12-10-2005, 10:29
Complimenti al Vifani per la rece: ricca di shoots per una accurata analisi qualitativà e mai eccessivamente tecnica.. ;)
Però mi domando che senso abbia proporre come bench UT2004 e tralasciare HL2 , Fear , SS2 etc....

Eddie666
12-10-2005, 10:32
Ottima rece! ho potuto dargli solo una letturina veloce,perche' devo uscire,ma mi sembra davvero bene fatta e soprattutto tesa ad analizzare tutti i molteplici aspetti della scheda.
complimenti alla redazione! ;)

Jedi_Master
12-10-2005, 10:34
Ho completato il tutto intorno alle 5 del mattino (senza andare a dormire). L'articolo arriverà oggi :)

Vista adesso!! :)
Ottimo lavoro, complimenti e.......Buona notte.

Se nn hai dormito fino alle 5 ne avrai bisogno! ;)


:ronf:

Vifani
12-10-2005, 10:48
Complimenti al Vifani per la rece: ricca di shoots per una accurata analisi qualitativà e mai eccessivamente tecnica.. ;)
Però mi domando che senso abbia proporre come bench UT2004 e tralasciare HL2 , Fear , SS2 etc....

Half-Life 2 purtroppo lo abbiamo dovuto escludere a causa dell'ultimo aggiornamento fatto da Valve attraverso Steam che mandava sempre in crash il gioco, con qualsiasi scheda video. Nel forum di Steam ci sono tantissime persone con questo problema e fino a quando non lo risolvono, non lo possiamo utilizzare.

Fear non è stato usato perché ci è stato sconsigliato da NVIDIA: le prestazioni della demo che gira non sono indicative del gioco finale secondo loro e quindi abbiamo preferito attendere il gioco finale.

Per il resto la quantità di benchmark mi sembra sufficiente.

halduemilauno
12-10-2005, 10:50
Half-Life 2 purtroppo lo abbiamo dovuto escludere a causa dell'ultimo aggiornamento fatto da Valve attraverso Steam che mandava sempre in crash il gioco, con qualsiasi scheda video. Nel forum di Steam ci sono tantissime persone con questo problema e fino a quando non lo risolvono, non lo possiamo utilizzare.

Fear non è stato usato perché ci è stato sconsigliato da NVIDIA: le prestazioni della demo che gira non sono indicative del gioco finale secondo loro e quindi abbiamo preferito attendere il gioco finale.

Per il resto la quantità di benchmark mi sembra sufficiente.

lo ribadisco anche qui. ottima rece e ottima scheda.
;)

Milotto
12-10-2005, 10:57
Half-Life 2 purtroppo lo abbiamo dovuto escludere a causa dell'ultimo aggiornamento fatto da Valve attraverso Steam che mandava sempre in crash il gioco, con qualsiasi scheda video. Nel forum di Steam ci sono tantissime persone con questo problema e fino a quando non lo risolvono, non lo possiamo utilizzare.

Fear non è stato usato perché ci è stato sconsigliato da NVIDIA: le prestazioni della demo che gira non sono indicative del gioco finale secondo loro e quindi abbiamo preferito attendere il gioco finale.

Per il resto la quantità di benchmark mi sembra sufficiente.


Non vi era vena polemica nelle mie valutazioni.. :)
A questo punto , presumo ,che da qui a un mese sarà possibile riproporre la review con HL Lost Coast , Q4 , Fear e lo stesso Serious Sam2....
Ciao ciao

Jedi_Master
12-10-2005, 11:01
Fear non è stato usato perché ci è stato sconsigliato da NVIDIA: le prestazioni della demo che gira
non sono indicative del gioco finale secondo loro

Peccato sarebbe stato interessante vedere un prima e dopo.
Spero cmq che la final viaggi meglio del demo con TUTTE le skede!
:)

street
12-10-2005, 11:02
scusate non mi é chiara una cosa:

L’utilizzo di un processore di sistema dotato di una potenza di calcolo insufficiente a garantire i dati con un certa continuità alla scheda video, porta ad un appiattimento delle prestazioni che, quindi, non varieranno più al variare della scheda video o della risoluzione, ma saranno completamente limitate dalla CPU. Tale situazione si definisce appunto “CPU Limited” e può dipendere dall’applicazione utilizzata (che può poggiarsi in misura più o meno rilevante sulla CPU e sulla GPU), dalle impostazioni (se troppo poco pesanti per la scheda video) e, più in generale, da uno squilibrio tra la potenza di calcolo della scheda video e quella del processore.


Ma se al variare della cpu (in frequenza) gli fps restano praticamente inchiodati (SC), non siamo in regime di gpu limited?
Altrimenti, fossimo cpu limited, passando da 1600 a 2200 dovrebbero aumentare gli fps, no?

o magari vi riferivate solo alla xt, che in effetti scala all' aumentare della frequenza della cpu, mentre la xl resta uguale?

Oppure non ho capito molto io, altra cosa probabile :D

Vifani
12-10-2005, 11:03
Peccato sarebbe stato interessante vedere un prima e dopo.
Spero cmq che la final viaggi meglio del demo con TUTTE le skede!
:)

Beh è presumibile pensare che se la demo non è ottimizzata per un'architettura nota come quella di G70, non lo è nemmeno per una nuova come quella di R520.


Ringrazio tutti per i complimenti :)

Vifani
12-10-2005, 11:07
scusate non mi é chiara una cosa:



Ma se al variare della cpu (in frequenza) gli fps restano praticamente inchiodati (SC), non siamo in regime di gpu limited?


Esatto. In realtà tutte le situazioni non CPU limited, sono GPU limited nei benchmark. Il discorso fatto in quel paragrafo è a livello generico. E' ovvio che le schede video + potenti come la X1800 XT mostrino un degrado più evidente: richiedono più dati dalla CPU.

Maury
12-10-2005, 11:07
Cmq non trovo giusto che nVidia chieda di non usare un demo, il demo c'è ed è uguale per tutti, vai peggio ? cavoli tuoi :)

geminibruni
12-10-2005, 11:15
Davvero una ottima scheda questa X1800Xt, sopratutto per le novità di architettura e tecnologia implementate...... Brava ATI :O

Devo dire che però il distacco (che in alcuni giochi non c'è nemmeno) in termini velocistici rispetto alla 7800Gxt non corrisponde all'enorme ritardo che c'è stato trà R520 e G70, ovvero la bellezza di 5 mesi.
Cioè l'ATI rischia seriamente di venire attaccata da Nvidia con una architettura nuova (o relativamente nuova) a soltanto due o tre mesi dalla effettiva vendita delle schede X1000.....

street
12-10-2005, 11:15
Esatto. In realtà tutte le situazioni non CPU limited, sono GPU limited nei benchmark. Il discorso fatto in quel paragrafo è a livello generico. E' ovvio che le schede video + potenti come la X1800 XT mostrino un degrado più evidente: richiedono più dati dalla CPU.

ok, tutto chiaro ora :)

Bella rece, in ogni caso.

Un suggerimento: avete provato per caso dod:s? magari quello non fa crashare hl2, ed in più ha anche l'hdr.

DjLode
12-10-2005, 11:15
Cmq non trovo giusto che nVidia chieda di non usare un demo, il demo c'è ed è uguale per tutti, vai peggio ? cavoli tuoi :)

Dai si è sempre usato così, come quella volta che era uscita la recensione del demo (o dell'alpha) di un test di Doom3 con cui le Ati facevano fisse 10 fps :rotfl:

Cmq se te la devo dire tutta, dal punto di vista di HwUpgrade ha senso, tanto tra un pò esce il gioco intero se non sbaglio. Ovviamente da quanto vedo Fear va abbastanza bene con le X1800 quindi... magari... boh... qualcuno di malizioso potrebbe pensare che... :asd:

DjLode
12-10-2005, 11:16
Cioè l'ATI rischia seriamente di venire attaccata da Nvidia con una architettura nuova (o relativamente nuova) a soltanto due o tre mesi dalla effettiva vendita delle schede X1000.....

Assolutamente da escludere, fidati :)
Non si produce un'architettura nuova in due o tre mesi :)

Maury
12-10-2005, 11:20
Dai si è sempre usato così, come quella volta che era uscita la recensione del demo (o dell'alpha) di un test di Doom3 con cui le Ati facevano fisse 10 fps :rotfl:

Cmq se te la devo dire tutta, dal punto di vista di HwUpgrade ha senso, tanto tra un pò esce il gioco intero se non sbaglio. Ovviamente da quanto vedo Fear va abbastanza bene con le X1800 quindi... magari... boh... qualcuno di malizioso potrebbe pensare che... :asd:


L'alpha di Doom 3 era trafugata, FEAR è un demo ufficiale, quando è uscito la GTX era in giro da un pezzo, della 1800XT nessuna traccia.

Io lo avrei usato :) :D

Milotto
12-10-2005, 11:25
La stessa demo di Serious Sam2 è secondo me molto interessante, se non sbaglio anche con questo game è possibile usufruire di HDR...

andreamarra
12-10-2005, 11:27
letta tutta la rece, complimenti a chi ci ha sudato sopra, davvero ben fatta.

Sinceramente sono rimasto anche troppo soddisfatto dai test che più mi interessavano: HDR+AAA. Mettendo AA4X a risoluzioni mediamente elevate (1280*1024) la scheda gestisce il tutto a frame rate alti, insomma non c'è un pesante abbassamento di prestazioni. Se pensiamo che va più di una 6800Ultra con semplice HDR...

La scheda con HDR è sempre più potente e non di poco, nel branchyng fa letteralmente paura.

OC: dai primi test in giro e voci affidabili è trapelato il fatto che la scheda è molto overcloccabile. Nonostante siano le prime versioni.

Il test in SLI mi ha interdetto... è semplicemente assurdo vedere che in molti test la nuova ati tenga testa perfettamente addirittura a due 7800GTX in sli...

Qualitativamente sono superiori e non di poco alla controparte nvidia.

Solo che leggendo certi commenti, sinceramente mi domando se siano state lette le recensioni soprattutto questa.
Riuscire a dire "si però" "si vabbhè" nei confronti di questo R520 per me significa non scegliere il migliore in base alle prestazioni qualità ma in base alla simpatia... o autoconvincersi.

geminibruni
12-10-2005, 11:34
Assolutamente da escludere, fidati :)
Non si produce un'architettura nuova in due o tre mesi :)


Due o tre mesi??????
ma scusa dalla presentazione e conseguente vendita della 7800GXT (intorno a metà giugno) sono passati ben 4 mesi, e un altro lo dovremo aspettare per LA scheda che mette in crisi l'Nvidia ovvero la X1800XT (infatti la Xl è leggermente inferiore della 7800GT), quindi praticamente si è concesso alla Nvidia il tempo di un ulteriore ricambio generazionale...

Questo secondo me è l'unica pecca fatta dagli uomini della ATI, infatti se fosse uscita in cocomitanza con la rivale, allora si sarebbe stata in vantaggio, ma messa così la situazione si capovolge!!

andreamarra
12-10-2005, 11:34
Ma io vedo certi commenti in giro che mi lasciano interdetto...

come minchia si fa a dire "si, carina, prestazioni allineate a G70 se non un cicinin migliori ma niente di che"...

:confused: !!

Maury
12-10-2005, 11:37
Ma io vedo certi commenti in giro che mi lasciano interdetto...

come minchia si fa a dire "si, carina, prestazioni allineate a G70 se non un cicinin migliori ma niente di che"...

:confused: !!


il San Giovese in belle dosi fa miracoli :D

geminibruni
12-10-2005, 11:41
:cool: Il test in SLI mi ha interdetto... è semplicemente assurdo vedere che in molti test la nuova ati tenga testa perfettamente addirittura a due 7800GTX in sli...

Qualitativamente sono superiori e non di poco alla controparte nvidia.

Solo che leggendo certi commenti, sinceramente mi domando se siano state lette le recensioni soprattutto questa.
Riuscire a dire "si però" "si vabbhè" nei confronti di questo R520 per me significa non scegliere il migliore in base alle prestazioni qualità ma in base alla simpatia... o autoconvincersi.


Ma scusa nel test della comparativa X1800xt e due 7800gtx in SLI si vede TROPPO bene che a risoluzioni basse e senza filtri (ovvero dove si equivalgono) siamo in CPU-GPU limited, mentre alzando la posta in gioco (filtri e res) allora lo SLI premia davvero facendo vedere scarti considerevoli....

PS: mi sarebbe piaciuto vedere nella sezione Overclok come si comportava anche la 7800gtx confrontata contro la rivale..... :) Sarà per la prox

halduemilauno
12-10-2005, 11:42
una considerazione(visto che si è molto dibattuto)sull'oc. da 625/1500 a 700/1540 a me pare un oc sul modesto. poi con la mod. del bios a 725/1600 un oc certo più adeguato.
io dissi(quando si supponeva il core a 650)che l'oc sarebbe stato di questa portata. ovviamente parlo sempre di oc alla portata e possibilità di tutti. quindi niente mostri o estremismi. è gia tanto che si debba modificare il bios.
cmq un'altra cosa a questo punto possiamo dire che la favola delle 24/32 pipe è stata appunto una favola magari alimentata(ad arte)dalla stessa ati per fuorviare nVidia sulla nuova architettura. nuova che magari anche nVidia sta pensando/studiando da tempo. ma che ati è stata la prima ad adottare.
il tutto mia modesta opinione.
ciao.
;)

Maury
12-10-2005, 11:45
una considerazione(visto che si è molto dibattuto)sull'oc. da 625/1500 a 700/1540 a me pare un oc sul modesto. poi con la mod. del bios a 725/1600 un oc certo più adeguato.
io dissi(quando si supponeva il core a 650)che l'oc sarebbe stato di questa portata. ovviamente parlo sempre di oc alla portata e possibilità di tutti. quindi niente mostri o estremismi. è gia tanto che si debba modificare il bios.
cmq un'altra cosa a questo punto possiamo dire che la favola delle 24/32 pipe è stata appunto una favola magari alimentata(ad arte)dalla stessa ati per fuorviare nVidia sulla nuova architettura. nuova che magari anche nVidia sta pensando/studiando da tempo. ma che ati è stata la prima ad adottare.
il tutto mia modesta opinione.
ciao.
;)


Sn sempre 100 mhz su uan base di 625... insomma mica poco ;)

street
12-10-2005, 11:47
beh, considerando che non é proprio come allora, visto che la 7800 ha veramente potenza di calcolo, e non solo nei bench, sembra di tornare al vecchio:

ati con un occhio alla qualità (hdr+aa, aa adattativo anche su superfici non a 45° etc) , nvidia improntata alla potenza pura (che comunque a questa ati non manca).

Ciò porterebbe magari ad una rev della 7800 pompata in potenza, ma senza alcune caratteristiche della x1800.

Oltretutto, se ho letto bene tra le righe, l' aa adattativo potrebbe essere attivato anche su R3x0 visto che si tratta di programmazione via drivers del sample di AA?

ATi7500
12-10-2005, 11:47
Sn sempre 100 mhz su uan base di 625... insomma mica poco ;)
oltretutto l'overclock è l'ultimo parametro da considerare su una scheda che porta innovazioni del genere..

bYeZ!

ATi7500
12-10-2005, 11:49
Oltretutto, se ho letto bene tra le righe, l' aa adattativo potrebbe essere attivato anche su R3x0 visto che si tratta di programmazione via drivers del sample di AA?
questa è una delle cose che mi fa apprezzare la politica driver ATi più di quella della controparte (oltre alla frequenza del rilascio dei driver)

si è visto mai nVidia fare una cosa del genere su schede più vecchie? ergo supportare nuove funzionalità e metterle appannaggio di schede precedenti?

bYeZ!

DjLode
12-10-2005, 11:50
Due o tre mesi??????
ma scusa dalla presentazione e conseguente vendita della 7800GXT (intorno a metà giugno) sono passati ben 4 mesi, e un altro lo dovremo aspettare per LA scheda che mette in crisi l'Nvidia ovvero la X1800XT (infatti la Xl è leggermente inferiore della 7800GT), quindi praticamente si è concesso alla Nvidia il tempo di un ulteriore ricambio generazionale...


Ma sai quanto ci vuole per progettare un'architettura nuova?


Questo secondo me è l'unica pecca fatta dagli uomini della ATI, infatti se fosse uscita in cocomitanza con la rivale, allora si sarebbe stata in vantaggio, ma messa così la situazione si capovolge!!

Sì, come no...

geminibruni
12-10-2005, 11:51
Ma io vedo certi commenti in giro che mi lasciano interdetto...

come minchia si fa a dire "si, carina, prestazioni allineate a G70 se non un cicinin migliori ma niente di che"...

:confused: !!


Scusa ma te come considereresti che una nuova scheda, per altro con alcune caratteristiche come il quantitativo di ram, che non ne permetterebbero il confronto diretto (che potrà venire con la 1800xt 256Mb), che confrontata a una "vecchia" di 4 mesi, non riesce a tirare fuori più del 7-10% di scarto.... :confused: :rolleyes:


Io la considero un ottima scheda, oggi il top, ma che in termini puramente numerici (chi in fondo sono quelli che contano) non riesce a distaccare l'avversaria.. :read:

Se poi TUTTI dobbiamo dire "questa è la più meglio super mega iper astro scheda video che si sia mai vista dai tempi di quando ci fù il bigbang" allora ok :muro: :mc:

DjLode
12-10-2005, 11:51
Oltretutto, se ho letto bene tra le righe, l' aa adattativo potrebbe essere attivato anche su R3x0 visto che si tratta di programmazione via drivers del sample di AA?

Ancora non l'hai fatto? Vai nella sezione driver, thread dedicato ai Catalyst 5.9. Sono stato il primo (in quel thread) a dire che si poteva fare, altri hanno spiegato come :)

andreamarra
12-10-2005, 11:55
il San Giovese in belle dosi fa miracoli :D


ognuno i dati li legge come gli pare, per carità.

Solo che alcune cose mi lasciano interdetto.

Leggo spesso "si, però le prestazioni sono allineate e c'è un vantaggio di r520 con tanti filtri e risoluzioni elevate.."

Minchia, hai detto niente! E poi, fosse solo un piccolo vantaggio... Che mi compro a fare una scheda da 500-600 euro? Per giocarci a 1024*768 senza filtri?


Altra cosa che mi sfugge... come si fa a non considerare un fatto decisivo? Cioè che questo chip gestisce meglio l'HDR con prestazioni migliori? E con AAA non crolla miseramente?
Che faccio, mi compro una scheda video per farmi andare un gioco a 100 e poi nuove features come l'HDR lo gestisco peggio della controparte? Proprio adesso che cominciano a uscire titoli HDR? Però posso dire che TCOR lo gioco a 15 fps in più?

Eppure pare che la discriminante per prendere la scheda sia il tempo intercorso e la velocità sui giochi opengl...

street
12-10-2005, 11:55
no, non la frequento troppo come sezione... corrooooo

street
12-10-2005, 11:58
ognuno i dati li legge come gli pare, per carità.

Solo che alcune cose mi lasciano interdetto.

Leggo spesso "si, però le prestazioni sono allineate e c'è un vantaggio di r520 con tanti filtri e risoluzioni elevate.."

Minchia, hai detto niente! E poi, fosse solo un piccolo vantaggio... Che mi compro a fare una scheda da 500-600 euro? Per giocarci a 1024*768 senza filtri?


Altra cosa che mi sfugge... come si fa a non considerare un fatto decisivo? Cioè che questo chip gestisce meglio l'HDR con prestazioni migliori? E con AAA non crolla miseramente?
Che faccio, mi compro una scheda video per farmi andare un gioco a 100 e poi nuove features come l'HDR lo gestisco peggio della controparte? Proprio adesso che cominciano a uscire titoli HDR? Però posso dire che TCOR lo gioco a 15 fps in più?

Eppure pare che la discriminante per prendere la scheda sia il tempo intercorso e la velocità sui giochi opengl...

ti sei scordato le prestazioni in linux

ATi7500
12-10-2005, 12:02
ti sei scordato le prestazioni in linux
eggià tutti i gamer di questo mondo preferiscono linux a windows :rolleyes: :rotfl:

bYeZ!

DjLode
12-10-2005, 12:02
ti sei scordato le prestazioni in linux

E il fatto che consumi di più (quando una XL consuma meno di una GT, ma intanto la XT consuma di più della GTX, pazienza che abbia il doppio della ram, se si dimentica questo per loro è una parziale vittoria) , che le prestazioni siano dovute ai 512mb di ram (quando fino a ieri si diceva il contrario ma pazienza), al fatto che faccia casino (anzi, questo lo si diceva ai tempi in cui si è saputo che era dual slot cooling, poi una volta uscite le recensioni l'argomento si è eclissato), al fatto che scaldi molto (argomento sparito quando si è misurata la temperatura), al fatto che non si overclock e che le frequenze siano tirate all'osso (non male 100mhz su una gpu tirata all'inverosimile) eccetera.
Ah, questo lo dicono in 2 o in 3, guarda caso i soliti :)

andreamarra
12-10-2005, 12:03
Scusa ma te come considereresti che una nuova scheda, per altro con alcune caratteristiche come il quantitativo di ram, che non ne permetterebbero il confronto diretto (che potrà venire con la 1800xt 256Mb), che confrontata a una "vecchia" di 4 mesi, non riesce a tirare fuori più del 7-10% di scarto.... :confused: :rolleyes:


Io la considero un ottima scheda, oggi il top, ma che in termini puramente numerici (chi in fondo sono quelli che contano) non riesce a distaccare l'avversaria.. :read:

Se poi TUTTI dobbiamo dire "questa è la più meglio super mega iper astro scheda video che si sia mai vista dai tempi di quando ci fù il bigbang" allora ok :muro: :mc:


No, ognuno può dirsi quello che gli pare per autoconvicersi che la scheda che si compra sia la migliore.

Il discorso ram in più non c'entra nulla, è stato ampiamente smentito qua dentro.

In termini numerici non distacca l'avversaria... A me invece pare proprio che in moltissime sitauzioni gli passi sopra e di brutto. Risoluzioni elevate e tanti filtri (con maggior qualità), ammesso che uno si compri una scheda video da 500-600 euro per girarci a 1024*768 senza filtri.

Come si fa a non considerare poi che la scheda video in features nuove e che stanno uscendo adesso ha una resa sia qualitativa che prestazionale nettamente superiore alla controparte nvidia? Ora escono titoli con HDR, e la ati lo gestisce molto meglio. Oppure devo autoconvincermi che la scheda sia solo buona perchè in opengl va meglio la G70? :D

altra cosa: per NV40 tutti, io compreso, a dire che i driver erano acerbi perchè l'architettura era nuova. Ora il discorso driver non viene considerato, come se il progetto fosse vecchio...

per esempio, vai a vedere megli questa parte dell'articolo "High Dynamic Range: analisi prestazioni".

non mi pare che le prestazioni siano superiori "di pochissimo". A si parla di HDR, e decadimento prestazionale (bassissimo) su R520 e molto più alto su G70. Per me è una discriminante per l'acquisto. Non di certo vedere 400 fps a unreal tournament.

andreamarra
12-10-2005, 12:07
per inteso, vi sta a scrivere uno che praticamente ha fatto comprare a tutti i propri amici schede video nvidia come le 6800le, 6800gt, 6600. E che tutt'ora consiglia 6800GT.

E uno che ai tempi di NV40 era leggermente titubante (per il fatto che di nvidia dopo la serie FX non mi fidavo tanto...) ma poi è stato rapito da questo chip che tutt'ora esalto.