View Full Version : Radeon serie X1000: le nuove GPU ATI
Redazione di Hardware Upg
05-10-2005, 15:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1359/index.html
Dopo una lunga attesa, ATI presenta le prime soluzioni video basate su architetture R520, RV530 e RV515, destinate a rivoluzionare tutti e 3 i principali segmenti di mercato. Architettura Shadel Model 3.0 e processo produttivo a 90 nanometri caratterizzano queste tecnologie, qui analizzate nell'architettura
Click sul link per visualizzare l'articolo.
halduemilauno
05-10-2005, 15:04
tanto tuonò che piovve.
;)
(IH)Patriota
05-10-2005, 15:06
Per quanto possano essere poco significativi i bench sintetici credo che ATI possa giocarsi la carta del segmento high end con la rivale 7800GTX che ha dalla sua parte parecchi mesi di presenza sul mercato (nella speranza che le X1800 non tardino come le X800XT).
Contando che sono riusciti ad abilitare solo 16 pipe su 32 o 24 mi sembra che come risultati non siamo messi troppo male..
E pensare che quelche settimana fa c'era chi dava per certo che ATI sarebbe stata inferiore ;) .
Per quanto riguarda le prestazioni mi sembra ancora poco chiara la situazione. Aspettiamo benchmark più approfonditi.
beh almeno le schede,apparentemente,al momento sembrano all'altezza della situazione,il che già mi sembra positivo,molti di noi pensavano peggio:)
a questo punto è ipotizzibale a parità di pipeline una superiorità dell'architettura Ati?
UltimaWeapon
05-10-2005, 15:12
Quasi 9200 punti a default.... è una cifra altissima. Aspettiamo i benchmark dei giochi per giudicare meglio, ma se il buongiorno si vede dal mattino... :D
halduemilauno
05-10-2005, 15:14
il dato della banda passante della 7800gtx posto a pagina tre è errato.
aspettiamo la vostra rece completa.
;)
Lucrezio
05-10-2005, 15:14
Wow! Speriamo che calino le 6800 adesso! :D
non vorrei che le schede fossero già un pò tirate di serie e che quindi quel 9200 non sia un defaul vero... :(
Divorata la preview. :D
Attento anch'io la recensione completa, dato che valutare ora R520 è piuttosto difficile. Comunque sembra promettere bene. ;)
Dumah Brazorf
05-10-2005, 15:20
Mai avrei immaginato che le 16 pipeline di R520 avessero una "coppia" tanto maggiore di quelle della precedente generazione.
Quindi per la versione a 32 pipe si dovrà aspettare R580?
:mbe:
halduemilauno
05-10-2005, 15:21
qui una rece completa.
http://www.hothardware.com/viewarticle.cfm?articleid=734&cid=2
;)
Bella preview, aspettiamo le prove complete.
kosimiro
05-10-2005, 15:22
gran scheda.
leoneazzurro
05-10-2005, 15:22
Mai avrei immaginato che le 16 pipeline di R520 avessero una "coppia" tanto maggiore di quelle della precedente generazione.
625 MHz non sono lì per nulla.
PS: al posto dello schema a blocchi dell'R515 è ripetuto quello dell'RV530
bartolino3200
05-10-2005, 15:23
nVidia sarà costretta a rilanciare con un nuovo prodotto top di gamma e un ritocco dei prezzi di fascia medioalta lo vedo di nuovo probabile ;)
L' anteprima dei bench non è che dia proprio un netto vincitore. Considerando che si tratta di 3d mark, e che in alcuni test come nel Pixel Shader nVidia sta sopra del 25%...
Il fill rate è più o meno lo stesso, mentre nei restanti Ati è sopra anche se non tantissimo, prevedo che generalmente nei giochi ci saranno differenze non degne di nota, tranne forse che nei titoli ottimizzati.
Se nVidia, come a questo punto credo sia auspicabile, tirerà fuori una 7800 Ultra con frequenze pompate come la X1800XT di Ati allora credo che il gioco si farà davvero duro. Oltretutto ha ancora un mese a disposizione visto che per ora la x1800xt è solo sulla carta.
a questo punto è ipotizzibale a parità di pipeline una superiorità dell'architettura Ati?
Meglio dire differente, soprattutto le frequenze pompate.
Prova a far salire una 7800GTX a quelle frequenze (magari con un dissy così poco ci manca che le raggiunga) e vedi che risultati ottieni ;)
qui una rece completa.
http://www.hothardware.com/viewarticle.cfm?articleid=734&cid=2
;)
Interessante. La dove ci sono delle differenze prestazionali marcate, è nVidia che si fa maggiormente sentire. Per il resto sono più o meno sullo stesso livello. Interessanti i consumi e il rumore prodotto dalla X1800XT definita in poche parole un asciugacapelli :nonsifa:
Ecco le tabbelle dei consumi:
Penso basti questo per dedurre che mediamente la X1800XT consuma quasi 40 watt in più della 7800GTX di nVidia.
http://img378.imageshack.us/img378/8082/image31kc.gif (http://imageshack.us)
Insomma prestazioni allineate, ma con l' inconveniente di Ati di consumare di più, generare più calore e più rumore, consumare un quantitativo di energia in più che fa la differenza. E non dimientichiamolo ATI COSTA DI PIU'. Per quanto mi riguarda non ci siamo proprio, visto che non saranno 2 fps o qualità dell' immagine leggermente superiore (voglio vedere chi fa screenshot quando deve giocare per notare la differenza al microscopio), a farmi propendere per ATI.
Se ci aggiungiamo il supporto per Linux e in ambito OpenGL davvero discutibile, il verdetto è dato : BOCCIATA!!!
Inutile infine tornare sui ritardi e sulle aspettative mancate da questi nuovi prodotti ati che per me rimangono solo un biglietto da visita a R580, immessi sul mercato per forza vista la necessità di contrastare nVidia e 7800GTX.
Alias un reale vantaggio prestazionale in X1800XT non ce lo vedo (almeno dai test effettuati nel link riportato da Halduemilauno), dunque bisognerebbe accontentarsi di prestazioni al più simili (se non inferiori), a patto di sorbirsi il fastidio del dissipatore, davvero rumoroso, e consumi più elevati. Per quanto mi riguarda visto che tengo molto al fattore rumorosità e consumo preferirei rimanere su soluzione nVdia 7800GTX.
Tutto ciò mi fa pensare che in realtà la X1800XT abbia un certo boost forzatamente voluto nelle impostazioni di clock rispetto alla X1800XL.
Magari una rece sulle possibilità in overclock della XT potrebbe meglio illuminarci sulla cosa.
La fascia media ancora una volta è la pecca di ATI dove con prezzi poco aggressivi offre davvero poco se paragonata alla concorrenza. Tutti sappiamo quanto importante sia questa fascia di mercato, ove la maggior parte si muovono per un acquisto. E' improponibile pensare di spendere di più per ATI con un bus a 128bit e prestazioni poco convincenti, quando allo stesso prezzo nVidia ti offre una 6800GT ;)
http://img352.imageshack.us/img352/5334/93375gl.png (http://imageshack.us)
http://img352.imageshack.us/img352/425/93402cx.png (http://imageshack.us)
V4n{}u|sH
05-10-2005, 15:26
C'è un errore nella Tabella Riepilogativa... La banda passante delle RAM della 7800GTX è stata invertita con quella della X1800XL...
Complimenti x tutta le recensione ragazzi ;)
Ed ecco li... Vabbè dai, meno male per ATI... ;)
Certo che se queste sono le premesse (comunque col beneficio del dubbio) la versione a 32 pipe si preannuncia devastante...
Ma a che costo? :confused: :confused: :confused:
:mbe:
^TiGeRShArK^
05-10-2005, 15:33
dove sono tutti quelli ke fino a ieri davano x spacciata ATI??? (soprattuto dopo aver visto quei bench fasulli ke venivano ancora riproposti a sproposito dopo ke era saputo e risaputo ke erano tarokki? :asd: )
Cmq...ovviamente ATI non poteva proporre una skeda inferiore alla 7800gtx ...
ennesima dimostrazione ke considerare un unico dato quale il numero delle pipeline non ha ALCUN senso.
Bisogna valutare l'arkitettura nel complesso (INTEL e AMD docet).
Ora non resta ke vedere i bench completi x valutare appieno i pregi e i difetti d questa skeda rispetto alla 7800 gtx (tnt a me ke 'mme frega??? ankora la 9700 pro m basta e avanza.... ho cambiato la 7500 giusto giusto x doom 3 :asd: )
spero cmq ke questa skeda sia leggermente + prestante della controparte nvidia in modo da mantenere accesa la competizione tra le 2 case....
leoneazzurro
05-10-2005, 15:33
Sicuramente la cosa più interessante di tutte è (finalmente) la ricerca della migliore qualità dell'immagine. Mi aspetto che anche i prossimi prodotti della concorrenza sfoggino migliori sistemi di filtraggio e HDR+AA, visto che la potenza ormamai sta diventando persino sovrabbondante.
^TiGeRShArK^
05-10-2005, 15:38
già ke c sono ecco un paio d bench! :Prrr:
http://www.theinquirer.net/?article=26720
Da HardOCP: Well, ATI one-upped them on this front as the R520 (Radeon X1800 XT and XL) boasts a total of 321 million transistors. The Radeon X1600 has 157 million transistors and the X1300 breaks the 100 million transistor mark.
A questo punto penso: considerando che l'attuale versione ha 321 mln di transistor non è lecito pensare che sia stato ideato sin dall'inizio per uscire con 16 Pixel Pipeline? Anche perché, scusate, ma mi sembra ridicolo pensare che ATi possa aver anche solo pensato per un secondo di rilasciare a Marzo-Giugno scorso una GPU con oltre 400-450 mln di transistor (per 24 PP, per 32 forse sfioriamo i 500mln), problemi di rese o meno.
yossarian
05-10-2005, 15:39
Sicuramente la cosa più interessante di tutte è (finalmente) la ricerca della migliore qualità dell'immagine. Mi aspetto che anche i prossimi prodotti della concorrenza sfoggino migliori sistemi di filtraggio e HDR+AA, visto che la potenza ormamai sta diventando persino sovrabbondante.
oltre alla qualità d'immagine direi che finalmente si sta migrando verso architetture più efficienti e funzionali.
Con le dovute differenze, l'R520 può iniziare a dare un'idea di quella che potrebbe essere l'efficienza complessiva di un'architettura a shader unificati
UltimaWeapon
05-10-2005, 15:40
Recensione su DriverHeaven: http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm
not real
05-10-2005, 15:40
c'è da dire però che nVidia qualche tempo fa, non negava l'ipotesi di un G71 per la 7800Ultra nel caso la soluzione di Ati si fosse rivelata superiore alle apsettative. e poi bisogna vedere che risultati si hanno nei giochi.
tanto tuonò che piovve.
;)
Acuto questo tuo commento tecnico.
Non ti smentisci proprio mai eh...
leoneazzurro
05-10-2005, 15:45
oltre alla qualità d'immagine direi che finalmente si sta migrando verso architetture più efficienti e funzionali.
Con le dovute differenze, l'R520 può iniziare a dare un'idea di quella che potrebbe essere l'efficienza complessiva di un'architettura a shader unificati
Intendevo più interessanti per l'utente finale, a cui poco può importare come tecnicamente è riprodotta un'immaggine su schermo, ma a cui molto importa il risultato in termini di prestazioni e qualità d'immagine ;)
pistolino
05-10-2005, 15:46
sinceramente mi aspettavo di più dalla X1600XL....mi sembra leggermente inferiore alla 6600GT di Nvidia che è della scorsa generazione :(
Il RingBus è estremamente interessante, unito alle nuove ottimizzazioni apportate all'Hyper-Z, che dovrebbero far risparmiare oltre il 25% di bandwidth, potrebbe fare la differenza.
Interessante notare come le Pixel Pipeline, all'interno delle Quad, siano state quasi fuse in un tutt'uno tanto che più che 16PP si dovrebbe parlare di 4QP. Ho l'impressione che R5x0 sia stato creato pensando ai titoli di domani e darà il meglio di se in presenza di shader lunghi e complessi e, quindi, più tempo passerà e più il divario tra il GeForce 7800 potrebbe ampliarsi in favore delle nuove GPU ATi.
Devo dire che R520 è più promettente ed interessante di quanto immaginassi, ATi secondo me si è (in buona parte) fatta perdonare il posticipo che ha subito codesta GPU. Ricordo, come detto nel precedente post, che ha 321 mln di transistor, quindi è MOLTO ma MOLTO complessa, non certo pochi. Aspetto fiducioso i benchmark della recensione. ;)
Parto dal presupposto che voglio essere obiettivo e non creare stupidi flames.
Da possessore di una Gainward 6800 Ultra osservo il tutto, forse, da un punto di vista differente.
L'acquisto di una nuova scheda deve risolvermi i problemi che ho.
Attualmente c'è un solo gioco che non mi gira a 1280x1024 (senza filtri) ed è "The Chronicles Of Riddick".
Se prendiamo per buona e attendibile la recensione di cui halduemilauno ci ha fornito il link devo dire che a dispetto dei 9000 e rotti punti del 3dmark05, un grande risultato, mi sembra che all'atto pratico questa scheda non risolva i miei problemi.
La 7800 GTX, invece sì e con filtri attivati:
http://www.hothardware.com/viewarticle.cfm?articleid=734
Ok, OpenGL ed nVidia che è avvantaggiata, ma ripeto, io parto dal presupposto che una scheda (ATi o nVidia) debba quantomeno risolvere le pecche della mia attuale. Lo ritengo il minimo... con due anni di esperienza in più sulle spalle.
Tutto IMHO.
bartolino3200
05-10-2005, 15:50
sinceramente mi aspettavo di più dalla X1600XL....mi sembra leggermente inferiore alla 6600GT di Nvidia che è della scorsa generazione :(
Sinceramente io mi aspettavo almeno nel modello di punta di fascia media bus a 256 bit. Questi se ne vengono ancora con 128 :doh:
halduemilauno
05-10-2005, 15:53
Acuto questo tuo commento tecnico.
Non ti smentisci proprio mai eh...
voleva essere solo una battuta. lo stesso Corsini ha esordito con un "dopo lunga attesa".
si doveva ridere o quantomeno sorridere.
;)
yossarian
05-10-2005, 15:56
Intendevo più interessanti per l'utente finale, a cui poco può importare come tecnicamente è riprodotta un'immaggine su schermo, ma a cui molto importa il risultato in termini di prestazioni e qualità d'immagine ;)
questo nell'immediato; però all'utente finale, anche non estremamente competente, potrebbe interessare sapere (e qui mi riallaccio a quanto detto da Luck) che le architetture old style non sono molto efficienti e non è che i problemi si risolvano continuando ad aggiungere pipeline. Il numero di pipeline e di unità di calcolo sono importanti, ma ancora più importante è il come il quanto e il quando vengono fatte lavorare tali unità
picard88
05-10-2005, 15:58
complimenti ad ATI che nonostante i numerosi problemi è riuscita a tirare fuori un'architettura molto efficente..che dire...aspettiamo i bench...una cosa...ma quei 4 blocchi da 4 pipe...da come sono disposti a me sembra che il chip sia stato progettato x avere 16 pipe e nn 32...qualcuno può illuminarmi???...ah complimentoni x la rece...aspetto la prox
micheloner
05-10-2005, 16:01
Scuasate, qualcuno sa dirmi se esistono adattatori esterni su porta USB per schede PCMCIA?
pistolino
05-10-2005, 16:01
Sinceramente io mi aspettavo almeno nel modello di punta di fascia media bus a 256 bit. Questi se ne vengono ancora con 128 :doh:
quoto in pieno...la X1600XL ha il bus a 128bit e frequenze inferiori alla 6600GT..ha solo più unità di pixeling e shading :(
Very most impressive (riporto quello con i filtri, dato che senza non ha senso per una GPU High End):
http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png
pistolino
05-10-2005, 16:04
Scuasate, qualcuno sa dirmi se esistono adattatori esterni su porta USB per schede PCMCIA?
sezione e thread sbagliati :rolleyes:
halduemilauno
05-10-2005, 16:04
Very most impressive (riporto quello con i filtri, dato che senza non ha senso per una GPU High End):
http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page15.asp
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/
;)
Very most impressive (riporto quello con i filtri, dato che senza non ha senso per una GPU High End):
http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png
Capperino... ;)
pistolino
05-10-2005, 16:05
Very most impressive (riporto quello con i filtri, dato che senza non ha senso per una GPU High End):
http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png
mi puzza un po' di fake :) non credo che R520 riesca a superare la 7800GTX del 100% :eek:
bartolino3200
05-10-2005, 16:05
questo nell'immediato; però all'utente finale, anche non estremamente competente, potrebbe interessare sapere (e qui mi riallaccio a quanto detto da Luck) che le architetture old style non sono molto efficienti e non è che i problemi si risolvano continuando ad aggiungere pipeline. Il numero di pipeline e di unità di calcolo sono importanti, ma ancora più importante è il come il quanto e il quando vengono fatte lavorare tali unità
In effetti è vero, il nuovo memory controller potrebbe fare la differenza nella nuova GPU ati. Dal punto di vista tecnologico è sicuramente più innovativo, all' atto pratico è ancora da vedere.
Oltretutto in molti hanno definito G70 semplicemente un' architettura di passaggio o anche una rivisitazione di quella precedente.
Sta di fatto che aggiungere pipeline avrebbe certamente giovato anche ad Ati, il problema è che non ci è riuscita per il momento.
Io invece ho trovato questo:
http://img187.imageshack.us/img187/2600/aa4bb.png (http://imageshack.us)
...che ovviamente è un fake fatto da me.
Paolo Corsini
05-10-2005, 16:06
Refusi vari: grazie delle segnalazioni, sto correggendo
Very most impressive (riporto quello con i filtri, dato che senza non ha senso per una GPU High End):
http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png
Mo la Mado@@@ :sbavvv: ...se questi bench fossero confermati X1800 avrebbe una architettura che spacca!!!!!
...stiamo a vedere :eek:
1100000110100000
:)
ottimi score... :eek: devo dirlo non me li sarei mai aspettati :) anche se attendo benchmark con i giochi più che quelli sintetici :O
comunque considerando che la 7800GTX ha già "qualche" mese sulle spalle non la vedo male, soprattutto se NVidia decidesse (e a questo punto credo che lo farà) di far debuttare una 7800Ultra ;) con frequenze "pompate"
vedo con piacere che anche il "bug" del CrossFire che non permetteva nulla di superiore a 1600*1200@60Hz è finalmente stato eliminato :) ottimo!!!
Foglia Morta
05-10-2005, 16:15
Ottimo pre-articolo.
Questa X1800XT sta all X850XT PE come la 7800GTX sta alla 6800ULTRA , intendo prestazionalmente in base a quel che si vede in giro.
Certo essendo rimasti a 16 pipeline è un gran bel risultato , ma nulla di eclatante.
Il bello di questa scheda è l' AVIVO, Crossfire nettamente migliorato e l' AA + HDR , in confronto ( prestazioni a parte ) la 7800gtx è già obsoleta e nettamente limitata.
comunque sono bruttine come schede :(
bartolino3200
05-10-2005, 16:19
Refusi vari: grazie delle segnalazioni, sto correggendo
Ciao scusa ma il prezzo della X1800XT è davvero lo stesso della XL o c' è un errore? Grazie.
La x1300 Hm con memorie da 1 GHz?
bartolino3200
05-10-2005, 16:21
comunque sono bruttine come schede :(
Sei al solito magnanimo, bruttine è dire poco ;)
Ciao Phil :)
yossarian
05-10-2005, 16:21
In effetti è vero, il nuovo memory controller potrebbe fare la differenza nella nuova GPU ati. Dal punto di vista tecnologico è sicuramente più innovativo, all' atto pratico è ancora da vedere.
Oltretutto in molti hanno definito G70 semplicemente un' architettura di passaggio o anche una rivisitazione di quella precedente.
Sta di fatto che aggiungere pipeline avrebbe certamente giovato anche ad Ati, il problema è che non ci è riuscita per il momento.
anche R520 è solo un chip di transizione
Demetrius
05-10-2005, 16:23
guardando le varie rencensioni si nota che come al solito a secondo dei giochi prevale l'una o l'altra, in generale però le prestazioni sono abbastanza allineate, con ATi che vince soprattutto in 3Dmark (per quanto valga) e FEAR.
Per quando riguarda i test Fear di hexus.net, in tutte le altre recensioni che ho visto non c'è tutta quella differenza... forse hanno sbagliato qualcosa con i test
bartolino3200
05-10-2005, 16:24
anche R520 è solo un chip di transizione
;) Appunto per questo credo sia sottointeso che r580 verrà fuori con più pipeline, visto che non basta cambiare memory controller per avere prestazioni davvero più elevate ;)
halduemilauno
05-10-2005, 16:25
anche R520 è solo un chip di transizione
come tutta la razza umana e altro.
;)
tonino25
05-10-2005, 16:25
mi puzza un po' di fake :) non credo che R520 riesca a superare la 7800GTX del 100% :eek:
Quoto anche a me sà un pò di fake. Infatti guardando questo articolo http://www.hothardware.com/viewarticle.cfm?page=16&articleid=734&cid=2 recensione della scheda ati le cose sono molto diverse la soluzione nvidia 7800 gtx appare superiore in alcuni casi alla nuova scheda video Ati in molti altri però appare superiore la nuova scheda video ATI. Con questo non voglio assolutamente dire che i test di questo sito siano verità assoluta ma secondo me prima di sparare commenti è meglio aspettare una recensione definitiva da Hardwareupgrade, Ciaoooo;)
...bando alle ciance ragazzi...
Guardate olte....
R520 non è un prodotto finito...
...è solo l'inizio di una nuova era per le schede grafiche 3D...
... è il nuovo R300 ...
Scalbile, upgradabile, veramente programmabile (basti pensare all'AA di r3xx e r4xx ... e all'Adaptive AA che funziona anche su R300 grazie ai driver)...un'archittetura che potrà solo lasciare il posto a quella presente su xbox360...con i shaders unificati.
PS: 2006....già pronti per R580 con 48 "extreme pipeline" o meglio dire 12 "Shader Core"... in giro si dice di alcuni sample già pronti e funzionanti ;)
Demetrius
05-10-2005, 16:33
una possibile spiegazione dei test su hexus è che hanno usato i vecchi driver nVidia, invece della nuova serie 80 come tutti gli altri siti
...bando alle ciance ragazzi...
Guardate le differenze del 5% nei fps, oltre i punti del 3dmark....
R520 non è un prodotto finito...nn lo sarà mai...
...è solo l'inizio di una nuova era per le schede grafiche 3D...
... è il nuovo R300 ...
Scalbile, upgradabile, veramente programmabile
(basti pensare all'AA di r3xx e r4xx ... e all'Adaptive AA che funziona anche su R300 grazie ai driver)
...un'archittetura che potrà solo lasciare il posto a quella presente su xbox360...con i shaders unificati.
PS: 2006....già pronti per R580 con 48 "extreme pipeline" o meglio dire 12 "Shader Core"... in giro si dice di alcuni sample già pronti e funzionanti ;)
zanardi84
05-10-2005, 16:40
Finalmente l'erede di R300? Se i risultati effettivi sono lo specchio delle sbalorditive caratteristiche tecniche, allora avremo trovato l'erede della 9700!
In caso contrario, dovremo apettare la prossima generazione, sempre che R520 sia un chip, per così dire, di passaggio.
Un appunto sul crossfire: non andremo in condizioni di cpu limited? Credo che uno solo di questi mostri possa bastare a muovere alla grande qualsiasi gioco. Consideriamo poi che per ora sono pochi i monitor che possono andare a 2048 usando refresh accettabili.
halduemilauno
05-10-2005, 16:41
...bando alle ciance ragazzi...
Guardate olte....
R520 non è un prodotto finito...
...è solo l'inizio di una nuova era per le schede grafiche 3D...
... è il nuovo R300 ...
Scalbile, upgradabile, veramente programmabile (basti pensare all'AA di r3xx e r4xx ... e all'Adaptive AA che funziona anche su R300 grazie ai driver)...un'archittetura che potrà solo lasciare il posto a quella presente su xbox360...con i shaders unificati.
PS: 2006....già pronti per R580 con 48 "extreme pipeline" o meglio dire 12 "Shader Core"... in giro si dice di alcuni sample già pronti e funzionanti ;)
l'R520 è condannato ad una vita brevissima. molto molto breve. perchè come dici tu l'R580 ha gia effettuato il tape-out. e non si è mai visto che una scheda esce dopo che la sua sostituta abbia gia effettuato il tape-out. e addirittura poi per stessa ammissione ati la scheda x1800xt verrà commercializzata a partire dal prossimo 5 novembre quindi un'altro mese attesa.
;)
davestas
05-10-2005, 16:46
Si ma scusate, visto che dite che questo è l'inizio di una nuova architettura, e che quindi spendere 500 euro ed oltre anche per questo motivo è una follia(meglio a quel punto prenee xbox360a 399 che cmq prendero'), mi dire un povero cretino come il sottoscritto che ha aspettato fino ad ora questo maledetto RV530 che caxxo deve fare visto che in Italia si vedranno penso non prima di Gennaio!!! :muro:
Come si puo' paragonare la x1600 alla GTO , motinando cosi il ritrado dell'uscita???
Mi devo accontentare di una "vecchia" 6800gt quindi, quanto mi potrà durare? :cry:
Ed io che pensavo di fare l'affare con questa nuovagenerazione di schede, se sapevo mi prendevo la x800xl NUOVA a 290 euro a Giugno quando ne avevo la possibilità... :eek:
bartolino3200
05-10-2005, 16:47
l'R520 è condannato ad una vita brevissima. molto molto breve. perchè come dici tu l'R580 ha gia effettuato il tape-out. e non si è mai visto che una scheda esce dopo che la sua sostituta abbia gia effettuato il tape-out. e addirittura poi per stessa ammissione ati la scheda x1800xt verrà commercializzata a partire dal prossimo 5 novembre quindi un'altro mese attesa.
;)
In questo R520 è il più grosso flop di Ati da sempre, c' è poco da fare.
Chi la dovesse comprare ammesso che si trovi davvero per il 5 Nov. si morderà le mani in men che non si dica, è davvero ridicolo.
@devastes programmare un acquisto in informatica è sempre un terno al lotto, con Ati ormai è risaputo è più facile fare 6 al superenalotto.
r520 è il modello di base....il salto generazionale è fatto...
r580 non è una cosa diversa solo perchè ha un nome diverso...è sempre r520...solo con più shaders core!
davestas
05-10-2005, 16:52
In questo R520 è il più grosso flop di Ati da sempre, c' è poco da fare.
Chi la dovesse comprare ammesso che si trovi davvero per il 5 Nov. si morderà le mani in men che non si dica, è davvero ridicolo.
@devastes programmare un acquisto in informatica è sempre un terno al lotto, con Ati ormai è risaputo è più facile fare 6 al superenalotto.
E quindi cosa comprare ora a Ottobre-Novembre??? :muro:
leoneazzurro
05-10-2005, 16:52
questo nell'immediato; però all'utente finale, anche non estremamente competente, potrebbe interessare sapere (e qui mi riallaccio a quanto detto da Luck) che le architetture old style non sono molto efficienti e non è che i problemi si risolvano continuando ad aggiungere pipeline. Il numero di pipeline e di unità di calcolo sono importanti, ma ancora più importante è il come il quanto e il quando vengono fatte lavorare tali unità
Vero, d'altra parte con le architetture SM 4.0 alle porte o quasi, IMHO entrambe le architetture R520 e G70 saranno presto superate. Del resto, parlando di efficienza, nonostante sembri chiaro che R520 brilli rispetto a R420, ci dobbiamo anche ricordare che questi risultati vengono fuori da un "mostro" da 321 milioni di transistor e 625 MHz di frequenza :)
halduemilauno
05-10-2005, 16:54
In questo R520 è il più grosso flop di Ati da sempre, c' è poco da fare.
Chi la dovesse comprare ammesso che si trovi davvero per il 5 Nov. si morderà le mani in men che non si dica, è davvero ridicolo.
@devastes programmare un acquisto in informatica è sempre un terno al lotto, con Ati ormai è risaputo è più facile fare 6 al superenalotto.
con il suo notevole ritardo si è mangiato almeno il 50% della sua vita commerciale. almeno.
;)
con il suo notevole ritardo si è mangiato almeno il 50% della sua vita commerciale. almeno.
;)
Il ritardo non credo peserà poi più di tanto... Alla fine il target di persone a cui si rivolge la scheda high-end è sicuramente di quelli super-montati affamati e masturbatori da bench...
Che notoriamente non sono soliti tenersi la scheda per più di qualche mese, giusto in tempo per poi spendere l'ennesimo milione e rotto del vecchio conio per avere la successiva scheda sboronatrice...
;)
yossarian
05-10-2005, 17:01
Vero, d'altra parte con le architetture SM 4.0 alle porte o quasi, IMHO entrambe le architetture R520 e G70 saranno presto superate. Del resto, parlando di efficienza, nonostante sembri chiaro che R520 brilli rispetto a R420, ci dobbiamo anche ricordare che questi risultati vengono fuori da un "mostro" da 321 milioni di transistor e 625 MHz di frequenza :)
si, ma (così rispondo anche a chi parla di transizione), in questo caso, R520 rappresenta un primo passo verso la nuova generazione. Quindi, al di là delle speculazioni sui prossimi chip (R580, una versione pompata di G70, ecc), ha ragione che sostiene che questo chip è l'erede di R300 e rappresenta il punto di partenza, diciamo l'inizio della rincorsa :D , di un vero e proprio salto generazionale.
Quando io, personalmente, parlo di nuova generazione, mi riferisco proprio a salti di questo tipo; in fondo, era da R300 che non si assisteva ad una "ruivoluzione" dell'architettura di un chip. E forsee, in questo, R520 è ancora più rivoluzionario di R300 (peccato per le psu che hanno mantenuto la stessa configurazione di quelle di R3x0 e R4x0, ossia sono di tipo 3+1. Per vedere qualcosa di diverso su pc si dovrà aspettare R600)
con il suo notevole ritardo si è mangiato almeno il 50% della sua vita commerciale. almeno.
;)
50% .... considerando che la 7800GTX è uscita 3 mesi fa, notevole ritardo effettivamente, diciamo che per verso Gennaio dovremmo attenderci una nuova GeForce? Oppure semplicemente considero la frase di cui logicalmente non vera?
;)
halduemilauno
05-10-2005, 17:03
Il ritardo non credo peserà poi più di tanto... Alla fine il target di persone a cui si rivolge la scheda high-end è sicuramente di quelli super-montati affamati e masturbatori da bench...
Che notoriamente non sono soliti tenersi la scheda per più di qualche mese, giusto in tempo per poi spendere l'ennesimo milione e rotto del vecchio conio per avere la successiva scheda sboronatrice...
;)
d'accordo. ma una vita commerciale di un'anno sarebbe stata per ati bei soldini e un ritorno d'immagine ben più corposo.
;)
leoneazzurro
05-10-2005, 17:08
si, ma (così rispondo anche a chi parla di transizione), in questo caso, R520 rappresenta un primo passo verso la nuova generazione. Quindi, al di là delle speculazioni sui prossimi chip (R580, una versione pompata di G70, ecc), ha ragione che sostiene che questo chip è l'erede di R300 e rappresenta il punto di partenza, diciamo l'inizio della rincorsa :D , di un vero e proprio salto generazionale.
Quando io, personalmente, parlo di nuova generazione, mi riferisco proprio a salti di questo tipo; in fondo, era da R300 che non si assisteva ad una "ruivoluzione" dell'architettura di un chip. E forsee, in questo, R520 è ancora più rivoluzionario di R300 (peccato per le psu che hanno mantenuto la stessa configurazione di quelle di R3x0 e R4x0, ossia sono di tipo 3+1. Per vedere qualcosa di diverso su pc si dovrà aspettare R600)
Da quel punto di vista ATI è avvantaggiata avendo già un chip ad architettura unificata funzionante. Bisogna vedere ora cosa turerà fuori dal cappello Nvidia che adesso è superata dal lato delle feature offerte (ha sì HDR ma non in congiunzione con AA). Una cosa che mi rende un pò perplesso è che con R520 ATi ha reso disponibile (sembrerebbe) un'implementazione del dynamic branching finalmente fruibile. Non significherà per caso che adesso assisteremo a delle ottimizzazioni software ancora più aggressive che in passato, con tutti i pro ma anche i contro?
halduemilauno
05-10-2005, 17:11
50% .... considerando che la 7800GTX è uscita 3 mesi fa, notevole ritardo effettivamente, diciamo che per verso Gennaio dovremmo attenderci una nuova GeForce? Oppure semplicemente considero la frase di cui logicalmente non vera?
;)
intanto precisiamo che tra la 7800gtx e la x1800xt correrà un 4 mesi e mezzo di differenza. 21.6 vs 5.11.
e ti ribadisco(scusa non l'ho messa in sign.)che la scheda ati doveva uscire ben prima della scheda nVidia. cosi hai una idea precisa del ritardo accumulato.
per quanto riguarda quello che ci si può attendere da nVidia lo si saprà e lo si vedrà a tempo debito.
tocca aspettare.
intanto tiè beccate st'altra rece.
http://www.theinquirer.net/?article=26720
;)
PS quell'almeno era riferito in funzione dell'R580.
hackboyz
05-10-2005, 17:11
Attualmente c'è un solo gioco che non mi gira a 1280x1024 (senza filtri) ed è "The Chronicles Of Riddick".
Come non ti gira?
Va a me (e bene) con la X800XL :confused:
Non è che usi gli shaders 3.0?
yossarian
05-10-2005, 17:17
Da quel punto di vista ATI è avvantaggiata avendo già un chip ad architettura unificata funzionante. Bisogna vedere ora cosa turerà fuori dal cappello Nvidia che adesso è superata dal lato delle feature offerte (ha sì HDR ma non in congiunzione con AA). Una cosa che mi rende un pò perplesso è che con R520 ATi ha reso disponibile (sembrerebbe) un'implementazione del dynamic branching finalmente fruibile. Non significherà per caso che adesso assisteremo a delle ottimizzazioni software ancora più aggressive che in passato, con tutti i pro ma anche i contro?
è quello che dicevo a chi sosteneva che ATi era in ritardo (qualcuno addirittura che era sull'orlo del baratro :D ).
In questo momento è in vantaggio sia come architettura sm3.0, sia perchè ha già effettuato la transizione, con ben due chip di fasci alta, a 0,09, sia perchè ha già un chip wgf2 funzionante.
Per quanto riguarda le ottimizzazioni, sicuramente ci saranno. Vedremo cosa tireranno fuori i programmatori delle varoie SWHouse e vediamo cosa è in grado di dare, a livello di vantaggi prestazionali, il dynamic branching.
come detto nei post precedenti è un modello di transizione, sicuramente già a gennaio avremo l'R580 e allora ci si potrà fare un pensierino... fino a quel momento mi tengo stretta la mia 6800gt :P
Vorrei far notare che nel sito ATi, nella pagina con le specifiche (http://www.ati.com/products/RadeonX1800/specs.html) dell'X1800, c'è scritto: # 256-bit 8-channel GDDR3/GDDR4 memory interface. ;)
http://www.theinquirer.net/?article=26720 leggetevi questo che è molto più significativo ....
come previsto r520 e g70 si equivalgono ... a parte che g70 è in commercio da n bel po , e r520 comincerà ad esserlo solo alla fine di novembre ... Tra l'altro nvidia ha annunciato per l'inizio del 2006 la sua prossima generazione di vga a 90nm ... Direi che questa volta nvidia , anche se non è più veloce di r520 , ha guadagnato e guadagnerà più soldi di ati...
davestas
05-10-2005, 17:21
ma non è meglio fare discussioni su quale sia l'acquisto piu' vantaggioso, nvece di cazzeggiare su caratteristiche tenciche di cui non si sono farre prove sul campo... cioè mi colpisce il fatto che ora qualcuno di voi pensa ora alla risposta di Nvidia, poi la risposta a sua volta di Ati... non è meglio fare discorsi a favore dei consumatori che siamo noi???? :muro:
Vogliamo i BEEEEENCH!!! :D
halduemilauno
05-10-2005, 17:24
ma non è meglio fare discussioni su quale sia l'acquisto piu' vantaggioso, nvece di cazzeggiare su caratteristiche tenciche di cui non si sono farre prove sul campo... cioè mi colpisce il fatto che ora qualcuno di voi pensa ora alla risposta di Nvidia, poi la risposta a sua volta di Ati... non è meglio fare discorsi a favore dei consumatori che siamo noi???? :muro:
son sei mesi(se non di più)che ce stai a davestà e ancora non hai capito cosa devi comprare?
:muro: :muro: :muro:
bartolino3200
05-10-2005, 17:25
Ed ecco li... Vabbè dai, meno male per ATI... ;)
Certo che se queste sono le premesse (comunque col beneficio del dubbio) la versione a 32 pipe si preannuncia devastante...
Ma a che costo? :confused: :confused: :confused:
:mbe:
La versione a 32 pipe? :confused:
Ma stai ancora sognando o ti riferisci ad R580, del quale non sappiamo nemmeno se avrà 32 pipe?
se andate nel link ke vi ho dato ci sono i bench di alcuni giochi
http://www.theinquirer.net/?article=26720
halduemilauno
05-10-2005, 17:26
Vogliamo i BEEEEENCH!!! :D
ne sono stati postati a josa. se vuoi quelli fatti in casa devi aspettare venerdi(spero).
;)
intanto precisiamo che tra la 7800gtx e la x1800xt correrà un 4 mesi e mezzo di differenza. 21.6 vs 5.11.
e ti ribadisco(scusa non l'ho messa in sign.)che la scheda ati doveva uscire ben prima della scheda nVidia. cosi hai una idea precisa del ritardo accumulato.
per quanto riguarda quello che ci si può attendere da nVidia lo si saprà e lo si vedrà a tempo debito.
tocca aspettare.
intanto tiè beccate st'altra rece.
http://www.theinquirer.net/?article=26720
;)
PS quell'almeno era riferito in funzione dell'R580.
Noto con piacere che la tua Missione continua, te la lascio continuare perchè francamente a me risulti insopportabile quindi onde evitare di perdere del tempo lascio perdere come avrei già dovuto fare ;)
La versione a 32 pipe? :confused:
Ma stai ancora sognando o ti riferisci ad R580, del quale non sappiamo nemmeno se avrà 32 pipe?
Ovviamente intendevo proprio quella... E ovviamente intendevo SE avrà 32 pipe...
hackboyz
05-10-2005, 17:32
http://www.anandtech.com/video/showdoc.aspx?i=2552&p=1
davestas
05-10-2005, 17:38
son sei mesi(se non di più)che ce stai a davestà e ancora non hai capito cosa devi comprare?
:muro: :muro: :muro:
ASPETTAVO RV530 ED ORA DOVREI ASPETTARE FINO A GENNAIO, CONTENTO!????? :rolleyes: :muro: :cry:
hackboyz
05-10-2005, 17:40
ASPETTAVO RV530 ED ORA DOVREI ASPETTARE FINO A GENNAIO, CONTENTO!????? :rolleyes: :muro: :cry:
Comprarti l'XboX 360 no? Capire che non esiste la scheda definitiva e che bisognerà sempre accontentarsi e/o aggiornare il pc per avere prestazioni massime? Ma che allo stesso tempo uno col pc si può divertire anche senza avere la scheda al top?
Lascia perdere il pc, se ti fai così tante paranoie, oppure prenditi la GTO2 che è la migliore scheda del momento
e smettila di usare il CAPS :rolleyes:
DevilsAdvocate
05-10-2005, 17:41
I bench sono gia' obsoleti, coi driver ottimizzati la 7800 GTX va molto + vicina a
questa scheda (coi giochi la differenza e' inferiore ai 3 fps.... in doom3 e qualche altro caso la GTX supera questa ATI).
Quello che e' veramente appetibile di questa scheda e' la funzionalita' AVIVO, se
realmente consente codifica H264 in realtime senza caricare la CPU..... su questo servirebbero delle prove / benchmarks, per vedere se realmente e' H264, a che
qualita', etc.etc.
hackboyz
05-10-2005, 17:46
Ottima recensione (anche se in tedesco): http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/
Slamdunk
05-10-2005, 17:47
basta che escano prima del 2020 .-.
Paolo Corsini
05-10-2005, 17:51
Ciao scusa ma il prezzo della X1800XT è davvero lo stesso della XL o c' è un errore? Grazie.
La x1300 Hm con memorie da 1 GHz?
Prezzo: svista mia, sono 499 dollari per quella scheda. Sistemato, grazie.
HM: yes, 32 Mbytes di memoria GDDR3 a 1 Ghz
yossarian
05-10-2005, 17:54
I bench sono gia' obsoleti, coi driver ottimizzati la 7800 GTX va molto + vicina a
questa scheda (coi giochi la differenza e' inferiore ai 3 fps.... in doom3 e qualche altro caso la GTX supera questa ATI).
Quello che e' veramente appetibile di questa scheda e' la funzionalita' AVIVO, se
realmente consente codifica H264 in realtime senza caricare la CPU..... su questo servirebbero delle prove / benchmarks, per vedere se realmente e' H264, a che
qualita', etc.etc.
:rotfl:
melomanu
05-10-2005, 17:56
nn entro in merito ai dettagli tecnici/prestazionali, xè ancora è troppo prematura, in quanto aspetto la recensione di papà hwupgrade :D ( anche se ho sempre avuto schede ATI, seppur ormai nn ne seguo + con frenesia l'evoluzione, x cui sarei un pelino poco oggettivo ), però consentitemi di affermare la intro sul sito ATI è davvero fichissima, sia come musica di fondo, che come videate grafiche :sofico: :sofico:
ho notato che i bench su inquirer danno quasi sempre risultati mooolto simili per la x1800 e la 7800, mi sembrano cpu limited....
altra rece un po' più chiara a proposito di architettura su tgmonline.
Byez ;)
Aristocrat74
05-10-2005, 17:58
In effetti è vero, il nuovo memory controller potrebbe fare la differenza nella nuova GPU ati. Dal punto di vista tecnologico è sicuramente più innovativo, all' atto pratico è ancora da vedere.
Oltretutto in molti hanno definito G70 semplicemente un' architettura di passaggio o anche una rivisitazione di quella precedente.
Sta di fatto che aggiungere pipeline avrebbe certamente giovato anche ad Ati, il problema è che non ci è riuscita per il momento.
Io invece ho trovato questo:
http://img187.imageshack.us/img187/2600/aa4bb.png (http://imageshack.us)
...che ovviamente è un fake fatto da me.
ma non eri interessato solo al monitor ? :D
per il fake --->> :rotfl:
Lud von Pipper
05-10-2005, 18:05
Gia, sarebbe interessante vedere come scalano le due architetture con i processori: sia la 7800 che la 1800.
Si potrebbe avere un paio di test con processori Top, Mild e Budget?
Paolo Corsini
05-10-2005, 18:09
Gia, sarebbe interessante vedere come scalano le due architetture con i processori: sia la 7800 che la 1800.
Si potrebbe avere un paio di test con processori Top, Mild e Budget?
Questa è una delle analisi che stiamo facendo adesso, esattamente come è stato inserito anche nei test delle soluzioni 7800 a suo tempo
bartolino3200
05-10-2005, 18:15
ma non eri interessato solo al monitor ? :D
per il fake --->> :rotfl:
Si infatti.
Non ho affatto intenzione di comprarmi una nuova vga almeno per ora.
E' solo passione e un po' di ironia :D ;)
Per un soffio mi ero preoccupato seriamente che Ati non garantisse più la sua presenza contro la sua rivale Nvidia (cosa non sana se mai accadesse).
Promesse di performance mantenute (alla pari o leggermente superiore o inferiore alla 7800gtx).
Mi piace decisamente e del ritardo mi curo poco.
7800gtx o Ati x1800xt? Vado su ATI per le caratteristiche aggiuntive sulla qualità dell'immagine...speriamo la si trovi in giro entro un mese.
YaYappyDoa
05-10-2005, 18:21
Su Anandtech ci sono dei test anche sulla qualità del trattamento video 2D ATI "Avivo" e Nvidia "PureVideo".
majin boo
05-10-2005, 18:21
notevoli davvero i risultati preliminari...d'accordo mem e core sono "pompati", ma in ogni caso non si può negare che sia un'architettura estremamente efficiente, forse più della serie 7XXX (vedi il nuovo memory controller...), e probabilmente con le 24 e le 32 pipe ci troveremo di fronte a prodotti pienamente riusciti ed estremamente competitivi, soprattutto se potranno salire in frequenza quanto r520...
OT
@davestas
per favore, falla finita, è da UN ANNO che stressi il forum chiedendo cosa comprare e proponendo a tutti l'xbox360...non ho ben capito se la tua è una forma patologica di autolesionismo, ma i tuoi commenti ormai da tempo sono quantomeno fastidiosi e del tutto inutili...senza offesa eh... :rolleyes:
/OT
CiccoMan
05-10-2005, 18:28
Ho appena visto le due demo The Assassin e Toy Shop! Belle, dovrebbero essere uno spettacolo i n realtime!
Questa scheda mi stuzzica... comincio a preparare gli euri :D
Rorschack
05-10-2005, 18:44
Un commento non tecnico (confesso di non avere conoscenza avanzate in questo campo): NVidia potrebbe tirar fuori dal cilindro una 7200 "Ultra" con 512 Mbyte e/o (siamo nel campo delle pure illazioni) 32 pipeline.... ma chi ci dice che, in questo gioco "del gatto e del topo" ATI non abbia già le 24 pipeline attivate su un gruppo limitato di schede basate sul nuovo chip grafico (nonostante quanto detto in giro)?
In altri termini, mi aspetto una serie di "botta e risposta" tra i due contendenti
Alla fine la scheda (parlo della 1800XT) va meglio di quello che si credeva. Resta il fatto che non è ancora disponibile. Chissà quando lo sarà.
Si dice che il 5 novembre dovrebbe essere disponibile ma nutro forti dubbi in proposito.
Secondo la presentazione di ATI le xl dovrebbero già essere in commercio. Ma a differenza di quanto successo per la GTX a suo tempo (il giorno della presentazione, tutti i maggiori shop online italiani avevano la scheda), non vedo nessuna scheda nelle offerte degli stessi shop. Ci sarà un ritardo, è evidente. E' quindi presumibile che ce ne sarà un altro per la xt.
Il prezzo è anche una bella incognita. Vediamo a quanto la venderanno appena uscita, considerando che già ora la 7800 si trova a 512€ ivata ( a novembre o quando uscirà la xt, il costo della 7800GTX potrebbe abbassarsi ancora).
Io credo che questa scheda non la comprerà nessuno (solo un pazzo potrebbe), considerando che r580 è ormai alle porte. Se poi guardiamo anche in casa Nvidia, c'è da aspettare solo 4 mesetti prima di vedere la nuova scheda. Io aspetterei come minimo fino a gennaio prima di comprarla...
Demetrius
05-10-2005, 18:58
leggendo qualche recensione:
http://www.anandtech.com/video/showdoc.aspx?i=2551
http://www.hothardware.com/viewarticle.cfm?page=7&articleid=734&cid=2
sembra che il tanto sbandierato AVIVO non sia poi in pratica un granché
@ Corsini & Co.
è possibile fare qualche test per misurare gli effettivi vantaggi di AVIVO?
leggendo qualche recensione:
http://www.anandtech.com/video/showdoc.aspx?i=2551
http://www.hothardware.com/viewarticle.cfm?page=7&articleid=734&cid=2
sembra che il tanto sbandierato AVIVO non sia poi in pratica un granché
@ Corsini & Co.
è possibile fare qualche test per misurare gli effettivi vantaggi di AVIVO?
Come riportato in Hothardware, con i driver attuali ci sono molti problemi di riproduzione video a livello qualitativo (artefatti vari) che sono da imputare alla gioventù dell'architettura e dei driver. Pertanto non riporteremo alcun test al riguardo. Tuttavia è nostra intenzione realizzare non appena possibile un articolo completamente dedicato a questo argomento.
bartolino3200
05-10-2005, 19:13
Come riportato in Hothardware, con i driver attuali ci sono molti problemi di riproduzione video a livello qualitativo (artefatti vari) che sono da imputare alla gioventù dell'architettura e dei driver. Pertanto non riporteremo alcun test al riguardo. Tuttavia è nostra intenzione realizzare non appena possibile un articolo completamente dedicato a questo argomento.
Ciao vifani, non dimenticatevi consumi, rumorosità e overcloccabilità, please ;)
ForeverBlue
05-10-2005, 19:36
nel rispetto più totale per il vostro lavoro, mi aggiungo a chi implora per dei test approfonditi sull'overcloccabilità.......
good work :D
cavoli. ma a vedere con chronicles of riddick sembra che sia in difficoltà. con far cry c'è un buon guadagno. con splinter cell chaos è un pelo sotto
halduemilauno
05-10-2005, 19:47
Alla fine la scheda (parlo della 1800XT) va meglio di quello che si credeva. Resta il fatto che non è ancora disponibile. Chissà quando lo sarà.
Si dice che il 5 novembre dovrebbe essere disponibile ma nutro forti dubbi in proposito.
Secondo la presentazione di ATI le xl dovrebbero già essere in commercio. Ma a differenza di quanto successo per la GTX a suo tempo (il giorno della presentazione, tutti i maggiori shop online italiani avevano la scheda), non vedo nessuna scheda nelle offerte degli stessi shop. Ci sarà un ritardo, è evidente. E' quindi presumibile che ce ne sarà un altro per la xt.
Il prezzo è anche una bella incognita. Vediamo a quanto la venderanno appena uscita, considerando che già ora la 7800 si trova a 512€ ivata ( a novembre o quando uscirà la xt, il costo della 7800GTX potrebbe abbassarsi ancora).
Io credo che questa scheda non la comprerà nessuno (solo un pazzo potrebbe), considerando che r580 è ormai alle porte. Se poi guardiamo anche in casa Nvidia, c'è da aspettare solo 4 mesetti prima di vedere la nuova scheda. Io aspetterei come minimo fino a gennaio prima di comprarla...
la 7800gtx la si trova anche a 474€ I.I.
;)
davestas
05-10-2005, 19:49
notevoli davvero i risultati preliminari...d'accordo mem e core sono "pompati", ma in ogni caso non si può negare che sia un'architettura estremamente efficiente, forse più della serie 7XXX (vedi il nuovo memory controller...), e probabilmente con le 24 e le 32 pipe ci troveremo di fronte a prodotti pienamente riusciti ed estremamente competitivi, soprattutto se potranno salire in frequenza quanto r520...
OT
@davestas
per favore, falla finita, è da UN ANNO che stressi il forum chiedendo cosa comprare e proponendo a tutti l'xbox360...non ho ben capito se la tua è una forma patologica di autolesionismo, ma i tuoi commenti ormai da tempo sono quantomeno fastidiosi e del tutto inutili...senza offesa eh... :rolleyes:
/OT
ho ripetuto il motivo per cui ho aspettato tanto, per avere una scheda di nuova generazione, ma ora dovrei aspettare ancora finoa Gennaio.... :muro: la x1600 quanto sarà piu' potente rispetto alla 6800gt ?
ho ripetuto il motivo per cui ho aspettato tanto, per avere una scheda di nuova generazione, ma ora dovrei aspettare ancora finoa Gennaio.... :muro: la x1600 quanto sarà piu' potente rispetto alla 6800gt ?
Bastaaaaaaa!!! Bannatelo!!! Non se ne può più... :D
halduemilauno
05-10-2005, 19:54
ho ripetuto il motivo per cui ho aspettato tanto, per avere una scheda di nuova generazione, ma ora dovrei aspettare ancora finoa Gennaio.... :muro: la x1600 quanto sarà piu' potente rispetto alla 6800gt ?
ma scusa perchè hai aspettato? non lo avevi capito che la scheda ati sarebbe uscita cosi?
non credo che lo sarà mai. doppio bus e 4 pipe in più.
;)
io lo bannerei per abuso della faccina in questione:
:muro:
^
| Mi fa un po' pena la faccina, oramai avrà la testa rotta e insanguinante :asd:
Quanti sono i db della X1800XT?
davestas
05-10-2005, 20:22
ma scusa perchè hai aspettato? non lo avevi capito che la scheda ati sarebbe uscita cosi?
non credo che lo sarà mai. doppio bus e 4 pipe in più.
;)
perchè si diceva CHE R520 e derivati sarebbero usciti a Giugno(percio' non presi la x800xl), poi si è giunti fino ad oggi e scopriamo che la X1600 non sarà in commercio se non prima di Gennaio in Italia....QUANTE VOLE DEVO SPIEGARLO?E' inutile che qualcuno di voi fa l'ironico....
bartolino3200
05-10-2005, 20:26
Quanti sono i db della X1800XT?
I dB non li hanno dichiarati ma hi l' ha recensita parlava di asciugacapelli :cry:
I dB non li hanno dichiarati ma hi l' ha recensita parlava di asciugacapelli :cry:
link please, altrimenti è solo aria fritta :muro:
I dB non li hanno dichiarati ma hi l' ha recensita parlava di asciugacapelli :cry:
:eek:
link perfavor... grassieeee
mi sa che è scritto nelle prime pagine dei commenti qui....ma si parlava di asciuga capelli come consumi...infatti vuole minimo 212watt...non come rumore...
halduemilauno
05-10-2005, 20:50
qui la pagina relativa ai consumi e al rumore.
http://www.hothardware.com/viewarticle.cfm?page=21&articleid=734&cid=2
;)
I dB non li hanno dichiarati ma hi l' ha recensita parlava di asciugacapelli :cry:
Hanno già rispolverato le vecchie foto che avevano fatto al tempo della 5800 infatti :asd:
mi sa che è scritto nelle prime pagine dei commenti qui....ma si parlava di asciuga capelli come consumi...infatti vuole minimo 212watt...non come rumore...
http://www.hothardware.com/viewarticle.cfm?page=21&articleid=734&cid=2
Non penso, perchè dal link di questa pagina si legge:
"The Radeon X1800 XT was an altogether different animal though. When the X1800 XT's fan spins up, and runs at its maximum speed, it sounds very much like a hair-dryer on a low speed; similar to an X850."
parla di sound non di watt (o power)
in ogni caso, come un asciuga capelli a bassa velocità.
bartolino3200
05-10-2005, 21:01
Hanno già rispolverato le vecchie foto che avevano fatto al tempo della 5800 infatti :asd:
Si infatti inzio a pensare che l' abbiano adottata come esempio. Avrebbero potuto utilizzare 7800GTX come spunto, sarebbe stato meglio visto che il dissy è indubbiamente ottimo performante e silenzioso.
http://www.hothardware.com/viewarticle.cfm?page=21&articleid=734&cid=2
Non penso, perchè dal link di questa pagina si legge:
"The Radeon X1800 XT was an altogether different animal though. When the X1800 XT's fan spins up, and runs at its maximum speed, it sounds very much like a hair-dryer on a low speed; similar to an X850."
parla di sound non di watt (o power)
in ogni caso, come un asciuga capelli a bassa velocità.
Ecco esattamente, perdonatemi se non vi ho linkato subito ma avevo da fare.
Vorrei vedere se nVidia inizia a selezionare i migliori G70 e ci piazza sopra quella mostruosità fin dove salgono le sue 7800 GTX. Non credo che solo ATI sia capace di pompare gpu.
http://www.hothardware.com/viewarticle.cfm?page=21&articleid=734&cid=2
Non penso, perchè dal link di questa pagina si legge:
"The Radeon X1800 XT was an altogether different animal though. When the X1800 XT's fan spins up, and runs at its maximum speed, it sounds very much like a hair-dryer on a low speed; similar to an X850."
parla di sound non di watt (o power)
in ogni caso, come un asciuga capelli a bassa velocità.
Qui si parla di consumi dell'intero sistema,non solo della VGA....
Si infatti inzio a pensare che l' abbiano adottata come esempio. Avrebbero potuto utilizzare 7800GTX come spunto, sarebbe stato meglio visto che il dissy è indubbiamente ottimo performante e silenzioso.
A me francamente il dual slot non ha mai dato fastidio (ho sempre seguito come regola quella di lasciare lo slot libero sotto) ma effettivamente la 7800 ha bisogno di un dissipatore tutto sommato normale ed è sicuramente un bene.
Poi sul rumore in se non mi pronuncio, bisogna vedere dentro (intendo case chiuso, in uso normale) al case quanto ne fanno, misurarlo da vicino non ha molto senso (per la 5800 giravano wav in cui il rumore era insopportabile, nella realtà chi la utilizzava diceva che si perdeva dentro al case e risultava nettamente meno rumorosa).
Può anche darsi che il doppio slot della XT sia dovuto anche alla ram che sono raffreddate dallo stesso. Sono molto veloci, sicuramente scaldano ed è l'unica ad essere dotata di 512mb. Ma sono pensieri miei :)
Qui si parla di consumi dell'intero sistema,non solo della VGA....
Io mi riferivo al testo da me riportato.
Li si parla di suoni, non di consumi.
e mi riferivo al commento:
"ma si parlava di asciuga capelli come consumi...infatti vuole minimo 212watt...non come rumore..."
Precisavo che non era vero, si parlava di rumore e non di consumi, del resto la frase, seppur in inglese mi pare eloquente.
""The Radeon X1800 XT was an altogether different animal though. When the X1800 XT's fan spins up, and runs at its maximum speed, it sounds very much like a hair-dryer on a low speed; similar to an X850."
"La Radeon X1800 XT è un altro tipo di discorso" (prima parlava del rumore delle x1300 e x1600 NDR ) "Quando la ventola del X1800 XT aumenta di giri fino alla sua velocità massima, suona (fa rumore) in modo molto simile ad un asciuga capelli a bassa velocità, in modo simile alla X850"
bartolino3200
05-10-2005, 21:16
Qui si parla di consumi dell'intero sistema,non solo della VGA....
Elà buongiorno fortuna che lo hai notato tu :D
Chiaramente i confronti vanno fatti a parità di sistema.
Se un sistema con medesima cpu, hd ecc. con Ati consuma 100 e con nVidia consuma 80, chiaramente nVidia consuma meno giusto per fare un esempio.
Ragazzi da questo devo desumere che in molti qui non sappiano nemmeno come si faccia una recensione o sbaglio?
bartolino3200
05-10-2005, 21:19
Può anche darsi che il doppio slot della XT sia dovuto anche alla ram che sono raffreddate dallo stesso. Sono molto veloci, sicuramente scaldano ed è l'unica ad essere dotata di 512mb. Ma sono pensieri miei :)
Si sicuramente la ram fa il fatto suo.
Cmq anche la versione da 256 MB monta stesso dissy dual slot, che ti dirò è un po' bruttino a vedersi anche.
Ragazzi sono diventato cieco oppure Tom's non ha dato nemmeno una riga alla notizia?
Ve lo ricordate che tempo fa dichiararono che non avrebbero fatto parola di prodotti non disponibili concretamente sul mercato? Tom's devo dire che ha mantenuto i propositi e ha totalmente abbandonato la politica del paper launch.
Per quanto riguarda il rumore
http://techreport.com/reviews/2005q4/radeon-x1000/noise.gif
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=16
haveacigar
05-10-2005, 22:06
La X1800 è un buon prodotto.Ma non un ottimo prodotto.Almeno da quel che si riesce a dedurre dalle varie recensioni che popolano il web.
Grosso modo la X1800 Xt riesce ad essere un pò più performante della 7800 gtx (in particolare dove è necessario abilitare i filtri) ma tutto sommato considerando il ritardo di quasi 5 mesi mi sembra un successo relativo.
La X1800 Xl invece è un prodotto poco invitante.E' preferibile senza dubbio una 7800 GT,di cui nessuno tesse le lodi ma che nei fatti dimostra di essere forse la migliore scheda in commercio per prezzo/prestazioni.
La X1600 stando sempre ai benchmark online imho è una pesssima scheda.
Detto ciò le funzionalità video implementate da Ati in questa nuova scheda mi sembrano (sebbene i driver siano acerbi) costituire un'ottima novità.
Ultima cosiderazione mi interesserebbe sapere quanto incidano i 512 mb di mem sulle prestazioni.
DevilsAdvocate
05-10-2005, 22:09
:rotfl:
Se ridi del fatto che questa scheda esce fra un mese e va come la 7800 GTX fai
pure, se ridi del fatto che i benchmark seri (non fakes) danno la 7800 GTX coi
driver 8x.xx (perche' i 7x.xx non sono ottimizzati per questa scheda) testa a
testa con la X1800XT puoi andare a guardarti i benchmark di anandtech,
inquirer, etc.etc.
Se ridi della funzione AVIVO che sulla carta DOVREBBE consentire la conversione
ad h264 in tempo reale..... beh mi viene da ridere anche a me, pensando che su
un pc dual-core attualmente non si va oltre i 6 frames al secondo in encoding....
Pertanto O ATI la sta sparando grossa O ha per le mani una tecnologia
rivoluzionaria...
leoneazzurro
05-10-2005, 22:11
La X1600 stando sempre ai benchmark online imho è una pesssima scheda.
In effetti la X1600 ha un'architettura un pò "strana" dato che ha 12 Pixel shaders, ma solo 4 ROPs, 4 texture units e 8 Z/Stencil units. Questo spiega probabilmente i risultati, dato che in certi casi si comporterebbe più come una scheda da 4 pipelines che da una con 12... Chissà se con nuove release dei drivers si avranno cambiamenti.
Attualmente anche in casa ATI le X800, GT e GTO hanno un rapporto prezzo/prestazioni superiore.
Circochecco
05-10-2005, 22:11
Innanzitutto voglio davvero ringraziare tanto la redazione.. questa preview è stata come un'oasi nel deserto per noi appassionati che l'aspettavamo, e tanto..
Così come la scheda, che sembra poter dire la sua, nonostante le SOLE (e dico: SOLE) 16 pipe attivate..
L'ironia sta nel fatto che alcuni avevano dato ATI per spacciata perchè è riuscita ad abilitare le SOLE 16 pipe.. MAH..
In ogni caso io non credo che ci sarà un vincitore assoluto, grazie a dio: semplicemente uno spostamento della potenza disponibile, nonchè delle features in concreto implementate.
E' questo secondo me l'aspetto che sorride di più ad ATI che pare in avanti:
1 - Per il fatto di aver (pur tra mille travagli) completato la transizione al nuovo processo produttivo;
2 - Per HDR ed AA insieme
3 - Per aver colmato il GAP tecnologico che aveva con Nvidia già da NV40, shader model 3 e precisione a 32 bit ( piuttosto che 24);
4 - Per avere "cominciato" ad introdurre su PC un'architettura non di tipo unificato, ma che strizza l'occhio a quella tecnologia ( che tra l'altro conosce bene, vedi R500), cosa che a NVidia evidentemente non interessava, data la bontà del progetto NV40 ripreso in g70;
Alla fine in ogni caso vince l'acquirente, che avrà in ogni caso soluzioni molto performanti (G70 o R520), con tante features in più.
In ogni caso sono rimasto deluso dalle analisi sulla qualità d'immagine di G70, speriamo che R520 ( e suoi futuri derivati) siano improntati allo sviluppo di immagini REALMENTE MIGLIORI.. La strada imboccata sembra però quella giusta, sperando che NVidia si impegni seriamente a fare lo stesso, tanto i FPS li fa già..
Scusate il post lunghissimo, ciao a tutti!!!
Dark Schneider
05-10-2005, 22:13
son sei mesi(se non di più)che ce stai a davestà e ancora non hai capito cosa devi comprare?
:muro: :muro: :muro:
6 mesi? :asd:
Volevi dire 6 mesi x 2 vero? :asd:
davestas è dall'ottobre 2004 che vuole e "tenta" di rifarsi il PC.
Dark Schneider
05-10-2005, 22:16
Cmq ho visionato diverse recensioni, tipo firingsquad, guru3d, hardocp, hardware.fr, hotthardware.
In pratica pare che 1800xt e 7800gtx siano allineate. O meglio il solito discorso, in alcuni titoli va meglio l'uno...in altre meglio l'altra.
Mentre la 7800GT mi pare generalmente più veloce della 1800xl.
Buona potenza la 1600xt. Peccato poi che con i filtri cala abbastanza. :)
leoneazzurro
05-10-2005, 22:17
se ridi del fatto che i benchmark seri (non fakes) danno la 7800 GTX coi
driver 8x.xx (perche' i 7x.xx non sono ottimizzati per questa scheda) testa a
testa con la X1800XT puoi andare a guardarti i benchmark di anandtech,
inquirer, etc.etc.
Se è per questo techreport utilizza i 78.03 e la situazione non è che cambi molto, ma comunque i numeri non dicono tutto: la qualità d'immagine di R520 sembra decisamente migliore di quella di G70, per cui IMHO a parità di prestazionio (e costo) sarebbe preferibile.
Discorso un pò diverso per RV530, dove effetivamente allo stato attuale delle cose le prestazioni sono un pò scarsine, il MRSP è un pò alto e probabilemente attivare i filtri non è sempre una buona idea.
DevilsAdvocate
05-10-2005, 22:22
Se è per questo techreport utilizza i 78.03 e la situazione non è che cambi molto, ma comunque i numeri non dicono tutto: la qualità d'immagine di R520 sembra decisamente migliore di quella di G70, per cui IMHO a parità di prestazionio (e costo) sarebbe preferibile.
Discorso un pò diverso per RV530, dove effetivamente allo stato attuale delle cose le prestazioni sono un pò scarsine, il MRSP è un pò alto e probabilemente attivare i filtri non è sempre una buona idea.
La parita' di costo non c'e'. Scordatevela. Questo prodotto costera' (fra un
mese) circa 580-590 Eurozzi mentre la 7800 GTX circa 460 (considerando che
si trova a 470 E ADESSO non e' nemmeno sparata...). Quindi la qualita' di
immagine la pagherai eccome.
Pensavo che la feature interessante fosse il transcode verso h264 ma purtroppo
devo correggermi in due punti: non sara' real-time ma solo GPU-assisted,
ed attualmente, stando ad anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2536&p=3 )
non se ne vede l'ombra. ATI promette i drivers AVIVO transcode per dicembre
(sempre che non seguano la sorte di questa scheda,ritardando di mesi...)
leoneazzurro
05-10-2005, 22:25
La parita' di costo non c'e'. Scordatevela. Questo prodotto costera' (fra un
mese) circa 580-590 Eurozzi mentre la 7800 GTX circa 460 (considerando che
si trova a 470 E ADESSO non e' nemmeno sparata...). Quindi la qualita' di
immagine la pagherai eccome.
Pensavo che la feature interessante fosse il transcode verso h264 ma purtroppo
devo correggermi in due punti: non sara' real-time ma solo GPU-assisted,
ed attualmente, stando ad anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2536&p=3 )
non se ne vede l'ombra. ATI promette i drivers AVIVO transcode per dicembre
(sempre che non seguano la sorte di questa scheda,ritardando di mesi...)
Parlavo ad esempio della X1800 XL, che dovrebbe avere più o meno gli stessi prezzi della 7800 GT, ed anche se un pochino più lenta la preferirei (tanto i soldi non li ho :p ) pe rla migliore qualità di immagine.
Per i drivers: almeno ATI sta introducendo queste novità "gratis" mentre Nvidia (lasciamo perdere, speriamo che la situazione cambi.. la mia 6800 grida vendetta.. :D )
Dark Schneider
05-10-2005, 22:26
ho ripetuto il motivo per cui ho aspettato tanto, per avere una scheda di nuova generazione, ma ora dovrei aspettare ancora finoa Gennaio.... :muro: la x1600 quanto sarà piu' potente rispetto alla 6800gt ?
X1600XT? Alias RV530? Come potenza senza filtri non è male...peccato che il bus a 128 bit la castri fortemente quando bisogna usare i filtri. Come dimostra HotHardware. :asd:
La 6800GT in pratica la spazza via con i filtri...altro che più potente. :asd:
Non sempre le vga di fascia media di nuova generazione battono le Top della generazione passata. :D
Mi sa che hai aspettato 1 anno intero invano...come più volte ti è stato detto. :rolleyes:
leoneazzurro
05-10-2005, 22:27
X1600XT? Alias RV530? Come potenza senza filtri non è male...peccato che il bus a 128 bit la castri fortemente quando bisogna usare i filtri. Come dimostra HotHardware. :asd:
La 6800GT in pratica la spazza via con i filtri...altro che più potente. :asd:
Non sempre le vga di fascia media di nuova generazione battono le Top della generazione passata. :D
Non è tanto il bus quanto l'avere 4 ROPs.
La 6800 liscia non è cha abbia molta più banda (dato che le memoria della X1600Xt vanno a 690x2x128, mentre per la 6800 abbiamo 350x2x256) ed è sopra praticamente sempre (ma ha 12 ROPs).
jpjcssource
05-10-2005, 22:40
Comunque se nvidia mette un dissipatore gigantesco come quello della x1800xt sull 7800gtx e risce quindi a portare le sue ben 24 pipeline e la sua memoria alle stesse frequenze della scheda radeon allora si dovrebbe trovare in mano una scheda devastante!
Per la prossima generazione pronostico gpu con bus a 512 bit per la fascia alta, 256 per la fascia intermedia e 128 per i cessetti di fascia bassa.
In quanto al dissipatore della x1800xt, mi dà l'idea di una famosa pubblicità radiofonica di una nota compagnia aerea:
Cliente: Pronto? Assistensa computer? Non sente questi rumori di aerei? eppure vengono dal mio computer!
Operatore: dev'essere la sua nuova scheda grafica con turbina general eletric!
Dark Schneider
05-10-2005, 22:53
Non è tanto il bus quanto l'avere 4 ROPs.
La 6800 liscia non è cha abbia molta più banda (dato che le memoria della X1600Xt vanno a 690x2x128, mentre per la 6800 abbiamo 350x2x256) ed è sopra praticamente sempre (ma ha 12 ROPs).
Si vero. Anche di ROPs nè ha solo 4 ed infatti sono poche. Però volevo far notare a davestas che si era illuso nei mesi scorsi..che un prodotto simile di fascia media sarebbe stato in competizione nientepodimenochè con 7800GT. Ed ora chiede addirittura di quanto è più potente rispetto alla 6800GT? 10 GB di banda passante in meno non sono di certo pochi quando si fanno uso di filtri. Poi naturalmente anche 4(1600xt) contro 16 ROPs(6800GT/Ultra e 7800GT/GTX) fanno molto. Poco importa se ha un fillrate così elevato(circa 7000).
Praticamente anche se può elaborare per ciclo di clock 12 Pixel, al massimo ne può scrivere 4 nel frame buffer. Brutta limitazione.
Che poi le ROPs son anche la cosa che a me personalmente mi ha fatto un po' storcere il naso per G70..24 Pixel Pipeline si, ma 16 ROPs come NV40. Anche se poi cmq le prestazioni ci sono.
(§) The Avatar (§)
05-10-2005, 22:54
Soltanto una cosa: diffidate della recensione del sito "caldo". Sono pro-nvidia proprio come un noto fanboy del forum, che come il lupo perde il pelo ma non il vizio. Valutate questo nuovo gioiello by ATI in base alle rece di tutti gli altri siti, in attesa ovviamente di quella di HWU, imparziali e obiettive come sempre.
CiccoMan
05-10-2005, 22:55
Come fate a dire che la 7800gt è meglio della x1800xl?? Ma scusate, siete ciechi? Se guardate le caratteristiche tecniche noterete che la 7800gt differisce dalla 7800gtx per frequenze e numero di pipe, mentre nel caso della x1800 il modello xl e il modello xt differiscono per le sole frequenze! Questo significa che l'architettura ati è molto dipendente dalla frequenza mentre quella nvidia di meno visto che hanno dovuto pure segare alcune pipe per ottennere un decremento prestazionale adeguato! Rigirando il discorso si può dire che l'overclock sarà molto più effficace sulle schede ati piuttosto che su quelle nvidia, per questo (ad avere i soldi :p ) mi compro una x1800xl, do una bottarella alle frequenze e addio 7800gt!
leoneazzurro
05-10-2005, 22:57
Si vero. Anche di ROPs nè ha solo 4 ed infatti sono poche. Però volevo far notare a davestas che si era illuso nei mesi scorsi..che un prodotto simile di fascia media sarebbe stato in competizione nientepodimenochè con 7800GT. Ed ora chiede addirittura di quanto è più potente rispetto alla 6800GT? 10 GB di banda passante in meno non sono di certo pochi quando si fanno uso di filtri. Poi naturalmente anche 4(1600xt) contro 16 ROPs(6800GT/Ultra e 7800GT/GTX) fanno molto. Poco importa se ha un fillrate così elevato(circa 7000).
Praticamente anche se può elaborare per ciclo di clock 12 Pixel, al massimo ne può scrivere 4 nel frame buffer. Brutta limitazione.
Che poi le ROPs son anche la cosa che a me personalmente mi ha fatto un po' storcere il naso per G70..24 Pixel Pipeline si, ma 16 ROPs come NV40. Anche se poi cmq le prestazioni ci sono.
6800 GT? La X1600 è sempre sotto, anche di parecchio in molti casi. Tieni presente che poi la X1600 oltre ad avere 4 ROPs ha anche solo 4 texture units.
Quindi ha un grande potenziale per le operazioni PS di tipo matematico ma scarsissimo (inferiore anche alla 6600 GT) per le operazioni di texturing.
leoneazzurro
05-10-2005, 22:59
Come fate a dire che la 7800gt è meglio della x1800xl?? Ma scusate, siete ciechi? Se guardate le caratteristiche tecniche noterete che la 7800gt differisce dalla 7800gtx per frequenze e numero di pipe, mentre nel caso della x1800 il modello xl e il modello xt differiscono per le sole frequenze! Questo significa che l'architettura ati è molto dipendente dalla frequenza mentre quella nvidia di meno visto che hanno dovuto pure segare alcune pipe per ottennere un decremento prestazionale adeguato! Rigirando il discorso si può dire che l'overclock sarà molto più effficace sulle schede ati piuttosto che su quelle nvidia, per questo (ad avere i soldi :p ) mi compro una x1800xl, do una bottarella alle frequenze e addio 7800gt!
Perchè, le 7800 GT non si overcloccano ? ;) :p
Dark Schneider
05-10-2005, 23:00
Come fate a dire che la 7800gt è meglio della x1800xl?? Ma scusate, siete ciechi? Se guardate le caratteristiche tecniche noterete che la 7800gt differisce dalla 7800gtx per frequenze e numero di pipe, mentre nel caso della x1800 il modello xl e il modello xt differiscono per le sole frequenze! Questo significa che l'architettura ati è molto dipendente dalla frequenza mentre quella nvidia di meno visto che hanno dovuto pure segare alcune pipe per ottennere un decremento prestazionale adeguato! Rigirando il discorso si può dire che l'overclock sarà molto più effficace sulle schede ati piuttosto che su quelle nvidia, per questo (ad avere i soldi :p ) mi compro una x1800xl, do una bottarella alle frequenze e addio 7800gt!
Veramente penso che bisogna guardare alle prestazioni finali. Io ne ho già lette 3-4 di recensioni tra 7800GT e X1800XL. La 7800GT risulta migliore.
Poi cmq anche le 7800GT sono overcloccabili.
Dark Schneider
05-10-2005, 23:06
6800 GT? La X1600 è sempre sotto, anche di parecchio in molti casi. Tieni presente che poi la X1600 oltre ad avere 4 ROPs ha anche solo 4 texture units.
Quindi ha un grande potenziale per le operazioni PS di tipo matematico ma scarsissimo (inferiore anche alla 6600 GT) per le operazioni di texturing.
Infatti!! :) E' improponibile un confronto tra 6800GT e X1600XT. Per questo dicevo non sempre le fasce medie di nuova generazione sono meglio delle vecchie top. :) Conviene di gran lunga la 6800GT fin quando se ne trovano. Ma chissà se davestas lo capirà...
yossarian
05-10-2005, 23:18
Se ridi del fatto che questa scheda esce fra un mese e va come la 7800 GTX fai
pure, se ridi del fatto che i benchmark seri (non fakes) danno la 7800 GTX coi
driver 8x.xx (perche' i 7x.xx non sono ottimizzati per questa scheda) testa a
testa con la X1800XT puoi andare a guardarti i benchmark di anandtech,
inquirer, etc.etc.
Se ridi della funzione AVIVO che sulla carta DOVREBBE consentire la conversione
ad h264 in tempo reale..... beh mi viene da ridere anche a me, pensando che su
un pc dual-core attualmente non si va oltre i 6 frames al secondo in encoding....
Pertanto O ATI la sta sparando grossa O ha per le mani una tecnologia
rivoluzionaria...
di cose di cui ridere, in effetti, ce ne sono parecchie.
Potrei ridere del fatto che c'è qualcuno che ancora crede ai drivers miracolosi. A questo qualcuno si potrebbe rispondere: ma come, non sono bastati 5 mesi per ottimizzare drivers per un'architettura che poi tanto diversa da quella precedente non è? Gli si potrebbe anche chiedere: ci sono più differenze architetturali tra NV40 e G70 o tra R4x0 e R520? E, di conseguenza, è più facile scrivere driver per un'architettura nota da 2 anni e mezzo o per una nuova di zecca?
Altra cosa di cui si potrebbe ridere è questa: se la qualità dell'anisotropic di ATi è quella propagandata (16 layer tutti con trilinear filtering), la quantità di operazioni svolte dal chip ATi, rispetto a quello nVIDIA, con i filtri attivi, sono molte di più; eppure riesce ad essere, mediamente, più veloce. Inoltre, R520 lavora sempre a fp32, G70 lavora spesso a fp16. Quando si faceva il confronto tra NV3x e R3x0 prima e R4x0 e NV40 poi, si è spesso rimarcato come i chip NV fossero svantaggiati dal fatto di dover calcolare a 32 bit contro i 24 di ATi (cosa non vera perchè abbiamo visto che la serie NV3x non lavora praticamente mai in fp32 e la serie NV40/G70 scala, quando può, a fp16); si parlava di una differenza di 8 bit; ora che i bit, in molti casi sono 16, nessuno ha fatto cenno alla cosa. Considerando che nel passaggio da fp32 a fp16 NV40 guadagna circa un 10-15%, proprio in virtù di una minor occupazione di banda (quinndi discorso analogo vale per G70), si potrebbe ridere anche di questo (non del fatto che un chip abbia la possibilità di scalare, ma del fatto che ci sia chi si appella a questo quando la bilancia pende da un lato e non ne fa cenno quando pende dall'altro).
Sulla tecnologia AVIVO, aL momento, non so se ridere o meno: preferisco aspettare i test con drivers maturi (in questo caso si, visto che si tratta di un'architettura completamente diversa da quelle viste in precedenza).
Einhander
05-10-2005, 23:19
Ha senso parlare delle prestazioni della x1800xt\xl con questi giochi?
Mi pare che l'architettura ati possa fare di molto meglio con quelli della nuova generazione e poi le software house nn hanno ottimizzato i giochi con le nuove"features" ,tipo hdr ,quindi mi sa tanto che le reali potenzialita' di questa nuova architettura le vedremo semplicemente fra un po' e nn per colpa di ati,ma semplicemente perche' ora come ora nn ci sono grossi titoli con cui tirare fuori il reale potenziale di queste nuove schede grafiche,soprattutto per la proposta Ati..
Sbaglio??
P.s:Senza contare che il livello di ottimizzazione by driver sulla proposta ati mi pare piu' elevato...aspetto con impazienza l'arrivo della x1800cf :)
questo nell'immediato; però all'utente finale, anche non estremamente competente, potrebbe interessare sapere (e qui mi riallaccio a quanto detto da Luck) che le architetture old style non sono molto efficienti e non è che i problemi si risolvano continuando ad aggiungere pipeline. Il numero di pipeline e di unità di calcolo sono importanti, ma ancora più importante è il come il quanto e il quando vengono fatte lavorare tali unità
E tu pensa che solo un paio di settimane fa c'era chi si sgolava per pagine cercando di dimostrare che l'unica cosa che conta e' il numero di pipeline :asd:
di cose di cui ridere, in effetti, ce ne sono parecchie.
Potrei ridere del fatto che c'è qualcuno che ancora crede ai drivers miracolosi. A questo qualcuno si potrebbe rispondere: ma come, non sono bastati 5 mesi per ottimizzare drivers per un'architettura che poi tanto diversa da quella precedente non è? Gli si potrebbe anche chiedere: ci sono più differenze architetturali tra NV40 e G70 o tra R4x0 e R520? E, di conseguenza, è più facile scrivere driver per un'architettura nota da 2 anni e mezzo o per una nuova di zecca?
Altra cosa di cui si potrebbe ridere è questa: se la qualità dell'anisotropic di ATi è quella propagandata (16 layer tutti con trilinear filtering), la quantità di operazioni svolte dal chip ATi, rispetto a quello nVIDIA, con i filtri attivi, sono molte di più; eppure riesce ad essere, mediamente, più veloce. Inoltre, R520 lavora sempre a fp32, G70 lavora spesso a fp16. Quando si faceva il confronto tra NV3x e R3x0 prima e R4x0 e NV40 poi, si è spesso rimarcato come i chip NV fossero svantaggiati dal fatto di dover calcolare a 32 bit contro i 24 di ATi (cosa non vera perchè abbiamo visto che la serie NV3x non lavora praticamente mai in fp32 e la serie NV40/G70 scala, quando può, a fp16); si parlava di una differenza di 8 bit; ora che i bit, in molti casi sono 16, nessuno ha fatto cenno alla cosa. Considerando che nel passaggio da fp32 a fp16 NV40 guadagna circa un 10-15%, proprio in virtù di una minor occupazione di banda (quinndi discorso analogo vale per G70), si potrebbe ridere anche di questo (non del fatto che un chip abbia la possibilità di scalare, ma del fatto che ci sia chi si appella a questo quando la bilancia pende da un lato e non ne fa cenno quando pende dall'altro).
Sulla tecnologia AVIVO, aL momento, non so se ridere o meno: preferisco aspettare i test con drivers maturi (in questo caso si, visto che si tratta di un'architettura completamente diversa da quelle viste in precedenza).
Già sai Yoss :cool:
CiccoMan
05-10-2005, 23:28
Perchè, le 7800 GT non si overcloccano ? ;) :p
Certo che si overclokkano, ma se hai letto bene quello che ho scritto, così a prima vista, direi che l'overclock sulle x1800 è molto più efficace che sulle 7800!
Cioè, per arrivare o avvicinarsi al livello della sorella maggiore basterà un'incremento più basso di MHz sulle vga ati rispetto alle nvidia in quanto la 7800gt con la frequenza dovrà compensare pure la mancanza di pipe!
Capit ;)
Einhander
05-10-2005, 23:30
From:fek
[...]E tu pensa che solo un paio di settimane fa c'era chi si sgolava per pagine cercando di dimostrare che l'unica cosa che conta e' il numero di pipeline
Sara' ormai consumata la tastiera???NO,perche' effettivamente nn li ho visti,anzi letti,magari hanno fuso la plastica dei tasti a forza di dire che 16 pipe sono AUTOMATICAMENTE nnche' INESORABILMENTE peggio di 16 hi hi hi Ma si sa la potenza del lato oscuro dello sforzo a volte e' troppa persino per i computer piu' resistenti :)
Dark Schneider
05-10-2005, 23:36
CiccoMan avvicinarsi mi sembra una parola grossa: 125 Mhz in più sul Core...e ben 500 Mhz sulle memorie. Non ci si avvicina nemmeno da lontano un km con l'OC.
Ed inoltre sono le prestazioni finali quelle che devono interessare. Se la 7800GT va meglio della 1800xl...è meglio. Con 20, 14,1 o 2 Pipeline che siano. :)
Hanno fatto veramente un lavoro di innovazione straordinario,complimenti ad ATI :)
Attendo la seconda parte della rece per commentare le prestazioni,da quello che ho letto nelle recensioni uscite,comunque,non è tanto veloce come mi sarei aspettato;ma è anche vero quello detto da molti,e cioè che dal punto di vista driver ci sarà sicuramente molto da migliorare.
Per quanto riguarda i test,mi unisco anch'io al coro di richieste per un prova in oc della scheda,e mi piacerebbe anche sapere che impatto sulle prestazioni ha L'AA usato insieme all'HDR,se cioè sia una tecnologia utilizzabile veramente.
Complimenti alla redazione per la recensione,come sempre approfondita ma comprensibile anche noi comuni mortali :)
Demetrius
05-10-2005, 23:41
da quanto ho letto le XL sono basate sulla vecchia revisione di R520 quindi non ci conterei molto nel salire di frequenza
yossarian
05-10-2005, 23:43
E tu pensa che solo un paio di settimane fa c'era chi si sgolava per pagine cercando di dimostrare che l'unica cosa che conta e' il numero di pipeline :asd:
forse qualcuno non si è ancora accorto che si tratta di un'architettura completamente nuova che, con qualche piccola modifica, potrebbe funzionare anche con codice a shader unificati e, magari, non ha ancora fatto considerazioni sull'efficienza e si limita a dire:"ma è uscita con 4 mesi di ritardo......................", cosa che, per altro, si sarebbe potuta dire anche ieri, visto che per fare un commento del genere non era necessario attendere le recensioni
CiccoMan
05-10-2005, 23:48
CiccoMan avvicinarsi mi sembra una parola grossa: 125 Mhz in più sul Core...e ben 500 Mhz sulle memorie. Non ci si avvicina nemmeno da lontano un km con l'OC.
Ed inoltre sono le prestazioni finali quelle che devono interessare. Se la 7800GT va meglio della 1800xl...è meglio. Con 20, 14,1 o 2 Pipeline che siano. :)
Sono d'accordo, ma io ho solo detto che secondo me se prendo una x1800xl la occo e prendo una 7800gt e la occo in media -e ripeto in media- la x1800xl ragiungerà prestazioni finali superiori (indipendentemente dalla frequenza raggiunta o dal numero di pipe)!
Ah, avvicinarsi->ridurre le distanze è la parola più adatta ;)
E cmq direi che una x1800xl i 580/1200 li prenda... probabilmente il core anche qualcosa di più, mentre per le ram dipenderà da quali verranno montate :D
davestas
05-10-2005, 23:59
Infatti!! :) E' improponibile un confronto tra 6800GT e X1600XT. Per questo dicevo non sempre le fasce medie di nuova generazione sono meglio delle vecchie top. :) Conviene di gran lunga la 6800GT fin quando se ne trovano. Ma chissà se davestas lo capirà...Aspetta, a me non risulta che la 6800gt a differenza delle nuove ati anche x1600 abbia HDR, fondamentale in motori come il source e per i nuovi come unreal3(infatti per esempio dod.d è una cosa con HDR ed un'altra cosa senza).
Io ho anche detto che doom3, , INSIEME AI GIOCHI OPENGL, non mi interessano, e mentre amo giochi in cui le ATI dominano e domineranno come queli basati su SOURCE ED UNREAL3, dove le Nvidia faticano...8ora un po' meno con gli ultimi Forceware..)
Percio' sono sempre stato e rimango un po' titubante a prendere una 6800GT....pero' se cio' viene smentito dai bench della x1600 e dalle prove su strada ahimè prendero' la 6800gt, anche perchè spendere 400-500 euro per una 7800gt-gtx o x1800xl-xt le ritengo davvero una follia visto che ormai siamo vicini alle schede WFG 2.0...
forse qualcuno non si è ancora accorto che si tratta di un'architettura completamente nuova che, con qualche piccola modifica, potrebbe funzionare anche con codice a shader unificati e, magari, non ha ancora fatto considerazioni sull'efficienza e si limita a dire:"ma è uscita con 4 mesi di ritardo......................", cosa che, per altro, si sarebbe potuta dire anche ieri, visto che per fare un commento del genere non era necessario attendere le recensioni
Io sull'architettura totalmente nuova ho alcuni dubbi, a me sembra sempre un'evoluzione anche se marcata dell'R3X0/R4X0.
Almeno dal punto di vista funzionali, quello che si presenta al programmatore e' proprio una semplice evoluzione. Ad esempio manca il vertex texturing, rispetto all'NV40 (e via con i flame ora, ve l'ho servito su un piatto d'argento :)).
visto che ormai siamo vicini alle schede WFG 2.0...
Ma siamo proprio ad un passo eh. Un anno passa in un lampo quando ci si diverte :D
Io sull'architettura totalmente nuova ho alcuni dubbi, a me sembra sempre un'evoluzione anche se marcata dell'R3X0/R4X0.
Almeno dal punto di vista funzionali, quello che si presenta al programmatore e' proprio una semplice evoluzione. Ad esempio manca il vertex texturing, rispetto all'NV40 (e via con i flame ora, ve l'ho servito su un piatto d'argento :)).
un'architettura nuova nasce con il cambiamento delle DirectX (7, 8, ,9 , ecc )? X' appunto se questi ultimi si presentano come un evoluzione rirpesi da quelli precedenti.
R300>420>520
NV30>NV40>G70
yossarian
06-10-2005, 00:22
Io sull'architettura totalmente nuova ho alcuni dubbi, a me sembra sempre un'evoluzione anche se marcata dell'R3X0/R4X0.
Almeno dal punto di vista funzionali, quello che si presenta al programmatore e' proprio una semplice evoluzione. Ad esempio manca il vertex texturing, rispetto all'NV40 (e via con i flame ora, ve l'ho servito su un piatto d'argento :)).
infatti dal punto di vista del programmatore deve cambiare poco o nulla, trattandosi sempre di un chip DX9 (anche se sm3.0 anzichè 2.0); le novità ci sono e sono molte, ma sono all'interno: la separazione tra tmu e pixel shader, la fully associative cache e l'utilizzo di un'architettura a bus ad anello che metta in comunicazione tutto l'insieme delle unità di calcolo è una novità assoluta (al limite della rivoluzione). Basterebbero alcune modifiche alle unità vs, un anello che metta in comunicazione tutte le unità geometriche e un controller in ingresso che indirizzi i dati alle pixel pipeline o alle vertex pipeline, per avere una gpu che, pur conservando unità separate, si comporti, visto dall'esterno, come un processore a shader unificati.
E' un po' il discorso sulle micro e sulle macro architetture. Se prendo due dispositivi che, a un valore di una grandezza in ingresso mi associano un determinato valore in uscita, posso usarli in maniera intercambiabile in un circuito in cui ho bisogno di un determinato output nel momento in cui fornisco un ben definito input. Quindi, a livello macro, sono perfettamente identici. A livello di architettura interna, però, possono essere completamente diversi; l'unica pregiudiziale è la compatibilità elettrica e funzionale con quel circuito.
DarKilleR
06-10-2005, 00:34
mi son letto preview e 17 pagine di commenti tutti di un fiato...son pazzo.
Fatto sta che ora ho sonno e non mi dilungo troppo...
Vedo la X1300LE come una scheda video d'oro per un HTPC, H.264, 0.09 nm e consumi vicini allo zero ^^ :P, è perfetta viste anche le prestazioni di tutto rispetto.
Come prestazioni generali mi apsettavo queste bene o male, peccato per la X1800 XL non credevo che vi montassero memorie da solo 1 ghz...miaspettavo almeno 1.1 se non 1.2....(queste sono uguali a quelle che montavano sulle X800 (credo)) sopra i 1200 Mhz la vedo dura.
aceto876
06-10-2005, 00:45
Pare anche a me che le XL siano prodotte in una certa percentuale con la revision vecchia che non saliva, ma questo è marginale.
A me piace molto il confronto tra X1800XL e 7800GT, che si pareggiano per valori teorici di banda passante e fillrate. E si vede anche che come prestazioni stiamo sempre lì. Mi pare di vedere un piccolo vantaggio della nV, ma potrebbe essere ribaltato da driver più maturi da parte di ATI.
La vittoria di ATI in fascia altissima, nelle risoluzioni e filtraggi spinti, secondo me nasce soprattutto dalla elevatissima banda delle memorie. Curiosità mia, vorrei vedere come si comporterebbe una GTX 512MB con ram a 1500MHz.
Dal mio punto di vista il confronto ha cmq interesse relativo, dato che questa generazione me la salto. Premetto che io sono un nVidiofilo di vecchissima data. Ma mi reputo un minimo intelligente. Se la situazione vede primeggiare nV, non c'è dubbio che compro nV.Se è pari, compro sempre nV. Fino a una situazione che vede leggermente sotto nV, rimango dda nV. Ma se ATI è sopra, mi piglio ATI e attendo la riscossa, come avvenne per la generazione 9x00 vs fx. Sono affezionato ai miei marchi, ma non sono scemo. Se i fatti stanno come mostrato nei test che ho visto, cioè con nV e ATI pari, con prospettive lato drivers per ATI per un leggero sorpasso, mi piglierei una 7800.
Ma con la mia 6800GT aspetterò le wfg2, visto che pare che le nuove medie non saranno così interessanti ripetto alla mia. Allora vedrò quale nuova scheda prendere, sperando che sia nV. Se ATI sarà meglio però, comprerò ATI. Io salgo sempre volentieri sul carro del vincitore!
Mi sarebbe piaciuto scegliere nV. e Ati avendo sempre avuto una certa preferenza per quesdt' ultima ma dovendo prendere una scheda video fra meno di 10 giorni credo che alla fine la scelta cadra sulla 7800 gtx visto che la scheda Ati concorrente ritarda ancora di parechio.
Io sono un lampante esempio dei soldi persi da Ati per via del ritardo di comercializazione.
giovanbattista
06-10-2005, 01:23
è la stagione natalizia è la + proficua x cui Ati ci cade dentro se rispetta le promesse...anche con il top di gamma (che comunque non serve + di tanto x i $ quanto ad immagine.
Graphicmaniac
06-10-2005, 01:48
Raga
la vincitrice di questo round è chiaramente Nvidia dato che la XT sarà nei negozi solo tra 1 mese.. e dato che tra 2 saranno 6 mesi .. ciò equivale a un ciclo dove la situazione era almeno nella fascia top di gamma Nvidia vs nessuno.
per decidere chi vincerà i prossimi 6 mesi dovremo invece attendere dicembre, mese in cui nvidia e ati daranno sfoggio dei migliori drivers possibili, senza contare che nvidia volendo ha non 1 ma 2 assi nella manica ancora da giocare: 1 i 512mb, 2 (ma questo è + difficile) una 7800U anche se già esistono GTX a 490/1300 che rullano di brutto.
Ati per ora domina nel settore medio: le X800GT e soprattutto le GTO (le amo le GTO :D ) offrono un livello di prestazioni ineguagliabili a 200 euro. Poi le GTO2 ... 16 pipelines overclock da paura .. insomma una X800XL oc a 240 euro, peccato non abbia SM3 e HDR ma chi se ne importa :)
giovanbattista
06-10-2005, 02:19
Quanti sono i db della X1800XT? tanti
Free Gordon
06-10-2005, 02:21
Vorrei vedere se nVidia inizia a selezionare i migliori G70 e ci piazza sopra quella mostruosità fin dove salgono le sue 7800 GTX. Non credo che solo ATI sia capace di pompare gpu.
ma quale mostruosità.. LOL! il dissi delle 850 fa schifo.. (ne ho avute due di 850 + una x800). ;)
Free Gordon
06-10-2005, 02:42
ma poi alla fine qualcuno si è accorto che la maggior parte di questi bench sono fatti con i cata 5.9 che non sono certo i driver migliori per una scheda nuova come la 1800?
Aspettiamo ALMENO una prima release dei driver per R520.. e poi giudicheremo meglio.. :)
nextstyle
06-10-2005, 03:58
fatemi capire ma la x1800 viene 200 dollari massimo? :eek: diobo la prendo di corsa
Aspetta, a me non risulta che la 6800gt a differenza delle nuove ati anche x1600 abbia HDR, fondamentale in motori come il source e per i nuovi come unreal3(infatti per esempio dod.d è una cosa con HDR ed un'altra cosa senza).
Io ho anche detto che doom3, , INSIEME AI GIOCHI OPENGL, non mi interessano, e mentre amo giochi in cui le ATI dominano e domineranno come queli basati su SOURCE ED UNREAL3, dove le Nvidia faticano...8ora un po' meno con gli ultimi Forceware..)
Percio' sono sempre stato e rimango un po' titubante a prendere una 6800GT....pero' se cio' viene smentito dai bench della x1600 e dalle prove su strada ahimè prendero' la 6800gt, anche perchè spendere 400-500 euro per una 7800gt-gtx o x1800xl-xt le ritengo davvero una follia visto che ormai siamo vicini alle schede WFG 2.0...
Quale sarebbe il problema delle 6800 gt con l'hdr?? Non capisco bene la frase.. cosa e' che non ti risulta?? :-/
Comuqnue non farei una distinzione ATI/Nvidia basata sulla natura OGL di taluni motori, oramai ATI se la cava benissimo anche in OGL, le differenze sono dettate molto di piu' dalle Stencil Shadow (Nvidia Ultra Shadow). Il gap si e' colmato con l'uscita di Doom3, titolo che ha smosso molto "la sensibilita'" di ATI nei confronti di tale API.
Comunque staranno da vedere i prezzi delle ATI, perche' la 6800GT, stando ai prezzi attuali (in rapida discesa) rimane la miglior soluzione per giocare a TUTTO. Ha gli SM3.0 ed e' l'unica (almeno per ora) "media" a vantare l'HDR.
Aspetta, a me non risulta che la 6800gt a differenza delle nuove ati anche x1600 abbia HDR, fondamentale in motori come il source e per i nuovi come unreal3(infatti per esempio dod.d è una cosa con HDR ed un'altra cosa senza).
Io ho anche detto che doom3, , INSIEME AI GIOCHI OPENGL, non mi interessano, e mentre amo giochi in cui le ATI dominano e domineranno come queli basati su SOURCE ED UNREAL3, dove le Nvidia faticano...8ora un po' meno con gli ultimi Forceware..)
Questa è una vera ca@@ata: le 6800GT gestisce tranquillamente le HDR (te lo dice uno che la ha e gioca tranquillamente ai titoli che ne fanno uso, come SCCT e Far Cry 1.3). E chi te lo ha detto che con l'UE3 le schede ATI vanno meglio di quelle nVidia, addirittura da "dominatrici" (cosa che non è vera nemmeno nel caso di HL2, almeno con le 7800)? Non mi risulta che siano usciti titoli che usano l'UE3, quindi su cosa basi questa tua affermazione?
Mi spiace per te che non apprezzi i titoli con il D3 engine, visto che ne usciranno parecchi da qui in poi (tra cui Quake4 e Prey)
^TiGeRShArK^
06-10-2005, 09:37
Comunque se nvidia mette un dissipatore gigantesco come quello della x1800xt sull 7800gtx e risce quindi a portare le sue ben 24 pipeline e la sua memoria alle stesse frequenze della scheda radeon allora si dovrebbe trovare in mano una scheda devastante!
Per la prossima generazione pronostico gpu con bus a 512 bit per la fascia alta, 256 per la fascia intermedia e 128 per i cessetti di fascia bassa.
In quanto al dissipatore della x1800xt, mi dà l'idea di una famosa pubblicità radiofonica di una nota compagnia aerea:
Cliente: Pronto? Assistensa computer? Non sente questi rumori di aerei? eppure vengono dal mio computer!
Operatore: dev'essere la sua nuova scheda grafica con turbina general eletric!
Prima castroneria:
Non puoi assolutamente portare la G70 alle frequenze di R520 con un dissipatore ad aria....
Seconda Castroneria:
Hai provato x caso a guardare i grafici del rumore espressi in DB???
guarda caso la 6800 ultra è + rumorosa di R520 :rolleyes:
Ah ... ricordi x caso un certo phon kiamato NV30??? :rolleyes::rolleyes::rolleyes:
Informarsi prima di sparare a caso costa troppa fatica ,vero???
YaYappyDoa
06-10-2005, 09:39
Davestas,
la 6800 GT l'HDR lo supporta sì!
Anche la serie 6600 sebbene attivandolo "si sieda"...
Come suggerimento generico, la maggior parte dei tuoi amletici dubbi trovano risposta in seguito ad un minimo di ricerca sul web.
Se devi scegliere una scheda video dai un'occhiata al processore del tuo PC, al tuo portafogli, e scegli! Se usi il PC anche per giocare e hai una cpu al di sotto dei 2.5 GHz o equivalente scegli una scheda di fascia media, se hai un motore più potente sceglila di fascia medio alta o alta, in base alle tue possibilità e non pensarci più. E sopratutto non aspettare sempre l'ultimo modello, ma quello che trovi disponibile (e papabile) al momento del bisogno.
^TiGeRShArK^
06-10-2005, 09:53
Quanti sono i db della X1800XT? tanti
anke a te ...
ma vi costa davvero così tanta fatica dare uno sguardo al grafico del rumore postato???
se quelle della x1800XT sono tanti, quelli della 6800 ultra come li definiresti???
ah...e quelli della 5800 ULTRA allora com'erano??? dquarciavano i timpani??? :asd:
leoneazzurro
06-10-2005, 09:57
Io sull'architettura totalmente nuova ho alcuni dubbi, a me sembra sempre un'evoluzione anche se marcata dell'R3X0/R4X0.
Almeno dal punto di vista funzionali, quello che si presenta al programmatore e' proprio una semplice evoluzione. Ad esempio manca il vertex texturing, rispetto all'NV40 (e via con i flame ora, ve l'ho servito su un piatto d'argento :)).
vecchia :p :D
Scherzi a parte, su Nvitalia ne stavamo parlando da un pò con Yoss, del fatto che probabilmente il marketing NV adesso dichiarerà subito che R520 non è "full SM 3.0 compliant"
Eh si, finalmente ora ATI e' la migliore di tutti. ;)
un'architettura nuova nasce con il cambiamento delle DirectX (7, 8, ,9 , ecc )? X' appunto se questi ultimi si presentano come un evoluzione rirpesi da quelli precedenti.
R300>420>520
NV30>NV40>G70
R300 e R420 sono sostanzialmente la stessa architettura, come NV40 e G70.
Come dice yoss, effettivamente le differenze a livello implementativo sono sostanziali. Ad esempio a noi ATI non ne aveva parlato e ci aveva presentato mesi fa sostanzialmente un R300 rivisitato con SM3.0.
Infatti Raffaele ancora mi insulta perche' io gli ho continuato a dire che le due architetture erano simili :D
vecchia :p :D
Scherzi a parte, su Nvitalia ne stavamo parlando da un pò con Yoss, del fatto che probabilmente il marketing NV adesso dichiarerà subito che R520 non è "full SM 3.0 compliant"
Si aprano le danze! Non puo' farlo perche' e' full SM3.0 :)
Le specifiche SM3.0 dichiarano che tutti i texture formati possono essere opzionalmente supportati iin un texture fetch all'interno del vertex shader. Tutti opzionali, vuol dire che puoi non implementarne nessuno...
leoneazzurro
06-10-2005, 12:27
Si aprano le danze! Non puo' farlo perche' e' full SM3.0 :)
Le specifiche SM3.0 dichiarano che tutti i texture formati possono essere opzionalmente supportati iin un texture fetch all'interno del vertex shader. Tutti opzionali, vuol dire che puoi non implementarne nessuno...
Hmm.. allora ricordavo male io (che servisse il vertex texturing per le specifiche VS 3.0). Tanto è vero che alcuni bench riportano il test "VS 3.0" per le R520 come "non passato". Per quanto poi sia una tecnica non grandemente usata...
Link qui:
http://www.hardware.fr/articles/592-3/ati-radeon-x1800-xt-xl.html
R300 e R420 sono sostanzialmente la stessa architettura, come NV40 e G70.
Come dice yoss, effettivamente le differenze a livello implementativo sono sostanziali. Ad esempio a noi ATI non ne aveva parlato e ci aveva presentato mesi fa sostanzialmente un R300 rivisitato con SM3.0.
Infatti Raffaele ancora mi insulta perche' io gli ho continuato a dire che le due architetture erano simili :D
Insultare è dire poco :D
Comunque è ovvio che il concetto di evoluzione/rivoluzione ha una componente soggettiva, tuttavia passando da R420 a R520 hanno cambiato praticamente tutto, altro che R300 con SM3.0. Non è un'architettura a shader unificati e per questo forse parlare di rivoluzione potrebbe essere eccessivo, ma parlare di evoluzione potrebbe essere riduttivo. A questo punto io direi "evoluzione spinta" o "quasi-rivoluzione" :)
yossarian
06-10-2005, 12:34
R300 e R420 sono sostanzialmente la stessa architettura, come NV40 e G70.
Come dice yoss, effettivamente le differenze a livello implementativo sono sostanziali. Ad esempio a noi ATI non ne aveva parlato e ci aveva presentato mesi fa sostanzialmente un R300 rivisitato con SM3.0.
Infatti Raffaele ancora mi insulta perche' io gli ho continuato a dire che le due architetture erano simili :D
se ti ricordi, su nV Italia ne avevamo parlato tempo fa, discutendo anche della logica di funzionamento del chip; e le conclusioni erano state che la logica di R3x0 non si adattava allo sm3.0 e che, per forza di cose, avrebbero dovuto modificare l'architettura.
domanda ma con quelle frequenze non è che fanno anche da fornetti?
La questione del vertex texturing è interessante. Le specifiche OpenGL 2.0 riportano sia per la fixed pipeline, che per i vertex shader, la possibiltà del vertex texturing (non so se opzionale o meno, potrei controllare...). Ora mi spiego la mia meraviglia nel vedere che dei driver video supportavano "solo" l'OpenGL 1.5... dovevano essere dei catalyst... :D Qualcuno sa se le ultime versioni dei catalyst supportano OGL 2.0 ?
Invece i forceware (almeno gli ultimi), supportano l'OpenGL 2.0...
da quanto ho letto le XL sono basate sulla vecchia revisione di R520 quindi non ci conterei molto nel salire di frequenza
Ben detto. Sono entrambi core r520 a tutti gli effetti ma quello della XL è "bacato".
Insultare è dire poco :D
Comunque è ovvio che il concetto di evoluzione/rivoluzione ha una componente soggettiva, tuttavia passando da R420 a R520 hanno cambiato praticamente tutto, altro che R300 con SM3.0. Non è un'architettura a shader unificati e per questo forse parlare di rivoluzione potrebbe essere eccessivo, ma parlare di evoluzione potrebbe essere riduttivo. A questo punto io direi "evoluzione spinta" o "quasi-rivoluzione" :)
Piu' che concetto personale, secondo me non sono entrati semplicemente nel dettaglio dell'architettura in quel meeting. Ci fecero vedere uno schema simile a quello uscito di recente, ma senza una spiegazione. Parlammo piu' dell'R600 in quell'occasione.
Da qui la mia idea che si trattasse di una semplice evoluzione dell'architettura sostanzialmente invariata.
Poi parlando con yoss su NVItalia, capimmo che le pipeline dovevano essere state fortemente riviste per supportare il dynamic branching. Ma evidentemente anche cio' che sta attorno ha visto notevoli rivisitazioni.
In sintesi, ho cannato :asd:
davestas
06-10-2005, 14:01
Questa è una vera ca@@ata: le 6800GT gestisce tranquillamente le HDR (te lo dice uno che la ha e gioca tranquillamente ai titoli che ne fanno uso, come SCCT e Far Cry 1.3). E chi te lo ha detto che con l'UE3 le schede ATI vanno meglio di quelle nVidia, addirittura da "dominatrici" (cosa che non è vera nemmeno nel caso di HL2, almeno con le 7800)? Non mi risulta che siano usciti titoli che usano l'UE3, quindi su cosa basi questa tua affermazione?
Mi spiace per te che non apprezzi i titoli con il D3 engine, visto che ne usciranno parecchi da qui in poi (tra cui Quake4 e Prey)
Scusate ma le prestazioni con HL2 e soprattutto vedremo con Lost Coast cosa accadrà, dicono le ATI coi f filtri attivari sono BEN superiori, rigurdo L'HDR per esempio in dod:s viene gestito nettamente meglio con Ati,rigurdo U3 lo hanno detto quelli di Epic che il gioco è sviluppato "in colaborazione con Ati", riguardo il motore di doom3 come gioco mi piace solo cod2...
Cmq speriamo che il prezzo si abbassi in queste settimane, cosi utilizzero' la 6800gt per tamponare fino alle schede WFG 2.0(speraando che l'A64 con la mobo DFI e l'1GB che comprero' siano upgradabili), anche perchè mi sembra che poi siano piu' facile rivenderle per lo chi vuole lo Sli...
CiccoMan
06-10-2005, 14:03
http://www.tomshw.it/graphic.php?guide=20051006
Su tom's hw è apparsa la rece delle schede!
io direi che nei giochi la situazione è di assoluta parità tra x1800xt e 7800gtx e l'unica differenza sostanziale la si vede nel 3dmark!
Non credo che nvidia tiri fuori una 7800ultra o simili, per sbancare il 3dmark c'è già lo sli!
Cmq attendo con ansia test di overclokkabilità della x1800xl :D
rigurdo U3 lo hanno detto quelli di Epic che il gioco è sviluppato "in colaborazione con Ati", riguardo il motore di doom3 come gioco mi piace solo cod2...
Eurogamer: What benefits does this relationship with Nvidia bring to the project?
Mark Rein: The best benefit is we now have a card [the 6800] that can run this in real time and do Pixel Shader 3, which is a key component of what we're doing. It's pretty good that Nvidia's come along and is pushing this technology hard. We've had a long relationship with Nvidia and they've done a great job of keeping us on our toes and giving us new powerful toys to play with.
CUT
Francé, lo quoti pure?:asd:
Foglia Morta
06-10-2005, 14:15
http://www.tomshw.it/graphic.php?guide=20051006
Su tom's hw è apparsa la rece delle schede!
io direi che nei giochi la situazione è di assoluta parità tra x1800xt e 7800gtx e l'unica differenza sostanziale la si vede nel 3dmark!
Non credo che nvidia tiri fuori una 7800ultra o simili, per sbancare il 3dmark c'è già lo sli!
Cmq attendo con ansia test di overclokkabilità della x1800xl :D
la cosa strana di quella rece è che la 7800gtx sta molto dietro alle X1800 in half life2 , ma non solo , anche alla X850XT PE , e questo risultato è molto diverso da tutte le altre rece dove X1800 e 7800 sono alla pari.
Anche questi test evidenziano il problema dei consumi , evidentemente i problemi che hanno avuto a giugno condizionano ancora parecchio queste schede.
Magari UMC sarà in grado di fare meglio e vedremo schede validissime su tutti i fronti
davestas
06-10-2005, 14:20
la cosa strana di quella rece è che la 7800gtx sta molto dietro alle X1800 in half life2 , ma non solo , anche alla X850XT PE , e questo risultato è molto diverso da tutte le altre rece dove X1800 e 7800 sono alla pari.
Anche questi test evidenziano il problema dei consumi , evidentemente i problemi che hanno avuto a giugno condizionano ancora parecchio queste schede.
Magari UMC sarà in grado di fare meglio e vedremo schede validissime su tutti i fronti
Fek e questo non lo citi? :D Io ho parlato proprio di questo riguro il Source...
Riguardo U3, ora cerco e ti posto unaintervista di Rein di un sito concorrente che parla proprio della "peculiarità" di Ati....
YaYappyDoa
06-10-2005, 14:30
Qualche info sui consumi massimi:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
Foglia Morta
06-10-2005, 14:41
Qualche info sui consumi massimi:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
impressionante la differenza fra X1800XL e XT , immagino sia sempre quel problema elettrico . Chissà se senza quel problema poteva essere una scheda da 700mhz in relax , anche perchè c' è chi dice che le X1800XL siano proprio quelle più "bacate" da quel punto di vista.
Peccato , magari UMC ( se può ) farà di meglio .
Comunque dato che le prestazioni non sono nulla di eccezionale meglio che facciano tesoro di questa esperienza e presentino un R580 perfezionato su tutti gli aspetti appena potranno.
bartolino3200
06-10-2005, 14:52
Qualche info sui consumi massimi:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
Penso basti questo per dedurre che mediamente la X1800XT consuma quasi 40 watt in più della 7800GTX di nVidia.
http://img378.imageshack.us/img378/8082/image31kc.gif (http://imageshack.us)
Insomma prestazioni allineate, ma con l' inconveniente di Ati di consumare di più, generare più calore e più rumore, consumare un quantitativo di energia in più che fa la differenza. E non dimientichiamolo ATI COSTA DI PIU'. Per quanto mi riguarda non ci siamo proprio, visto che non saranno 2 fps o qualità dell' immagine leggermente superiore (voglio vedere chi fa screenshot quando deve giocare per notare la differenza al microscopio), a farmi propendere per ATI.
Se ci aggiungiamo il supporto per Linux e in ambito OpenGL davvero discutibile, il verdetto è dato : BOCCIATA!!!
Inutile infine tornare sui ritardi e sulle aspettative mancate da questi nuovi prodotti ati che per me rimangono solo un biglietto da visita a R580, immessi sul mercato per forza vista la necessità di contrastare nVidia e 7800GTX.
Francé, lo quoti pure?:asd:
Si'! Adesso che finalmente ha scritto un post diverso dal solito "Ragazzi sono indeciso, consigliatemi cosa comprare :muro: ".
:)
BLA BLA BLA...
il verdetto è dato : BOCCIATA!!!...
bravo sei l'unico al mondo a ritenerla BOCCIATA! una archittettura nuovissima, con funzionalità nuove e qualità video nettamente superiore a NVIDIA... se la ritieni una bocciatura... ragioni proprio da fanboy. E' ben diverso dire che nonostante tutto compro NVIDIA per scelta personale, qua bocci un lavoro incredibile fatto da ati, senza apparenti argomentazioni.
Bye
il verdetto è dato : BOCCIATA!!!
Chiaramente il supporto al multisampling con HDR, lo shader engine in fp32, le prestazioni consistentemente maggiori non contano nulla nella tua analisi vero?
Avresti potuto concludere la tua analisi cosi': "e' ATI, BOCCIATA!! (a prescindere)"
YaYappyDoa
06-10-2005, 14:59
@ Foglia Morta
Un tale divario può far pensare che il chip sia apparentemente tirato al limite oltre il quale sotto il dissipatore ci si ritrova del vetro fuso e nulla più, ma chissà in realtà come stanno le cose. Aspetto di saperne un po' di più...
Chiaramente il supporto al multisampling con HDR, lo shader engine in fp32, le prestazioni consistentemente maggiori non contano nulla nella tua analisi vero?
Avresti potuto concludere la tua analisi cosi': "e' ATI, BOCCIATA!! (a prescindere)"
quoto fek ;) qua si notano i veri fanboy... :muro:
aggiungo...
ha elencato tutti i minimi (discutibili) difetti... ma non ha detto niente delle novità apportateda ATI rispetto ad NVIDIA... bah! :muro:
Foglia Morta
06-10-2005, 15:05
...
non sparare a zero e considerala a 360 gradi... HDR + AA , 3dc+ , filtri più efficienti in quasi tutti i giochi ( a parte Doom3 da quel che si è visto fin'ora mi pare ), AVIVO ( perchè se tiri in ballo linux allora non consideri le gpu solo oggetti videoludici ma che devono servire anche ad altro ) . Queste cose l' attuale serie nvidia se le sogna , non ha innovato un tubo in confronto.
A questo giro ATI ha avuto sfiga con quel problema elettrico che probabilmente influenza parzialmente le schede, ma nonostante tutto ha fatto un ottimo lavoro
jpjcssource
06-10-2005, 15:06
X ^TiGeRShArK^
vabbè forse ho esagerato nello sfottere il dissipatore della x1800 e, dopo aver visto i dati sulla rumorosità ti devo dar ragione, però, visto che ci vorrà minimo un mese all'introduzione sul mercato del modello xt, nvidia avrà sufficiente tempo per introdurre una gpu identica al gtx, ma a 90nm e fare una scheda con le stesse frequenze dell'ammiraglia di Ati, ma con ben 8 pipeline in più.
bartolino3200
06-10-2005, 15:08
bravo sei l'unico al mondo a ritenerla BOCCIATA! una archittettura nuovissima, con funzionalità nuove e qualità video nettamente superiore a NVIDIA... se la ritieni una bocciatura... ragioni proprio da fanboy. E' ben diverso dire che nonostante tutto compro NVIDIA per scelta personale, qua bocci un lavoro incredibile fatto da ati, senza apparenti argomentazioni.
Bye
Io di fanboy ne ho visti tanti fra ieri ed oggi e siete voi tutti pro ATI.
E' chiaro che questa scheda per come la penso io è solo un fiaschetto pompato nelle frequenze per tenere il passo della 7800GTX.
Diverso il discorso se si parla invece di novità tecnologica, anche se pure in questo caso come ha ribadito fek non c' è un grande stacco.
Per quanto riguarda la mia bocciatura è ben motivata, ma questo non significa che altri utenti con atre esigenze non trovino in Ati il miglior prodotto.
Attenzione quindi a definirmi in questo modo perchè ci rimango davvero male.
La prossima volta leggi bene le premesse del mio discorso non solo le conclusioni se non vuoi che la gente ti confonda per fanboy o quantomeno per distratto (giusto per essere educati)
Se le mie premesse sono:
1) COnsumi
2) OpenGL
3) Linux
4) Rumorosità
5) Rapporto prestazioni/prezzo
Ed in tutti i punti il prodotto non mi soddisfa, chiaramente per me è BOCCIATA
Se i tuoi parametri sono differenti dai miei come credo, per te la scheda è pienamente fruibile. quindi PROMOSSA.
Ma la cosa è soggettiva chiaramente nè io nè tu ne nessuna recensione ha mai torto marcio o piena ragione.
Ciao e la prossima volta, fa più attenzione prima di parlare e giudicare.
xXxCoKxXx
06-10-2005, 15:11
volevo mandare un grosso VAFFANXXXX a quelli che sanno di meritarselo :) .. che sono in tanti.. W il mercato delle schede!! e speriamo che in questo modo si abbassino tutti prezziiiiii ben vengano R580 & G71!! così si abbassano ancora di più :-p .. cmq la conclusione è che .. malgrado i ritardi.. ATi ha lavorato davvero bene ;) ripeto : PECCATO PER QUESTI RITARDI.. SE QUESTA SCHEDA FOSSE USCITA IN CONCOMITANZA CON G70 .. sarebbe stata una botta alla schiena mostruosa x Nvida bye bye
Graphicmaniac
06-10-2005, 15:11
Non riesco a capire perchè c sia tutto questo entusiasmo nei confronti della R520
contro:
1) costa + della + overcloccata delle GTX
2) va leggermente + veloce della GTX e in alcuni giochi va + lenta nonostante abbia ben 512MB; se guardate fear la differenza di prestazioni è dovuta solo alla demo, nella versione finale le prestazioni saranno differenti.
3) usa una soluzione a 2 slot mentre la gtx 1
4) consuma d+
pro
1) qualità video superiore (ma se parlate del nuovo AA penso lo userete ben poco dato che letteralmente uccide le prestazioni)
2) HDR +AA (anche se qua voglio vedere come faranno a far girare U3 con HDR e AA ...)
insomma
gtx450$ disponibile
xt 550$ non disponibile
(e secondo me i furboni dei rivenditori la spacceranno a 600$ le prime settimane)
e tenete conto che nei drivers 81.84 Nvidia ha scritto che supportano le future GPU .. e se una di queste va + della GTX la vedo brutta per ATI.
cmq mio consiglio:
compratevi una GTO tenetela fino all'anno prox e prendete le vere nuove schede ati ed nvidia che supperteranno Windows Vista al 100%
CiccoMan
06-10-2005, 15:12
Comunque da quello che si vede in giro la miglior scheda tutt'ora in circolazione è la 7800gt... sempre che la x1800xl non si overclokki all'inverosimile :D
@bartolino3200
ohhh vedi parlando così mi piaci molto di più :P io non sono un fanboy, se a te le schede NVIDIA danno tutto quello che a te serve, comprala ^_^ non sono mica qui a portare adepti alla causa ATI.
Dal tuo post precendete (e se lo rileggi forse intuirai qualcosa) sembrava che parlassi di una scheda OGGETTIVAMENTE bocciata dati gli innumerevoli diffetti.
p.s. anche fek ha notato questo nel tuo post
bye
bartolino3200
06-10-2005, 15:12
Chiaramente il supporto al multisampling con HDR, lo shader engine in fp32, le prestazioni consistentemente maggiori non contano nulla nella tua analisi vero?
Avresti potuto concludere la tua analisi cosi': "e' ATI, BOCCIATA!! (a prescindere)"
Infatti, per me è acqua fresca visto che non me ne frega niente di quelle features, non quanto OpenGL o LINUX.
E' un reato?
Sarò libero di dire cosa mi interessa o no in un prodotto?
Non ho mica accrodi commerciali con ATI io per difenderla a spadatratta.
Ciao e buon proseguimento.
forse è meglio dire "Rimandata a novembre.."
bartolino3200
06-10-2005, 15:19
@bartolino3200
ohhh vedi parlando così mi piaci molto di più :P io non sono un fanboy, se a te le schede NVIDIA danno tutto quello che a te serve, comprala ^_^ non sono mica qui a portare adepti alla causa ATI.
Dal tuo post precendete (e se lo rileggi forse intuirai qualcosa) sembrava che parlassi di una scheda OGGETTIVAMENTE bocciata dati gli innumerevoli diffetti.
p.s. anche fek ha notato questo nel tuo post
bye
Si vede che non hai saputo captare le premesse logiche del discorso, ma solo le conclusioni senza scovarne le motivazioni. Le stesse cose dette nel post precedente le ho ripetute in quello successivo, solo che ci ho aggiunto parentesi e numerinio per enunciarle.
La prossima volta vorrà dire che per farmi capire da un pubblico quantomai eterogeneo (e non mi rifersco alla preparazione o al livello culturale, quanto alla soglia di attenzione che ci si mette su ciò che si legge), scriverò per ideogrammi ;)
bartolino3200
06-10-2005, 15:22
@bartolino3200
ohhh vedi parlando così mi piaci molto di più :P io non sono un fanboy, se a te le schede NVIDIA danno tutto quello che a te serve, comprala ^_^ non sono mica qui a portare adepti alla causa ATI.
Dal tuo post precendete (e se lo rileggi forse intuirai qualcosa) sembrava che parlassi di una scheda OGGETTIVAMENTE bocciata dati gli innumerevoli diffetti.
p.s. anche fek ha notato questo nel tuo post
bye
C' è un bel "per quanto mi riguarda", prima di ogni giudizio, non ti dice nulla?
guarda non servono gli ideogrammi. Bastava un bel "IMHO" senza presentarti con quel post come il rivelatore della verità più assoluta. Ormai di fanboy pro NVIDIA o pro ATI ne siamo pieni le tasche :muro:
bye
bartolino3200
06-10-2005, 15:31
guarda non servono gli ideogrammi. Bastava un bel "IMHO" senza presentarti con quel post come il rivelatore della verità più assoluta. Ormai di fanboy pro NVIDIA o pro ATI ne siamo pieni le tasche :muro:
bye
Quindi tu capisci IMHO e non PER QUANTO MI RIGUARDA
Ascolta se fanboy è una offesa come per me sarebbe offensivo se qualcuno mi dicesse che sono della Lazio (nei film di solito è una offesa anche se scherzosa) allora "te se' de la Lazio" ed io sono fanboy, così siamo pari non credi?
bartolino3200
06-10-2005, 15:37
Chiaramente il supporto al multisampling con HDR, lo shader engine in fp32, le prestazioni consistentemente maggiori non contano nulla nella tua analisi vero?
Avresti potuto concludere la tua analisi cosi': "e' ATI, BOCCIATA!! (a prescindere)"
Io credo che se mettessi questo link nella tua sign sarebbe quanto mai esplicativo delle tue tendenze
http://64.233.183.104/search?q=cache:aGrFpeNO33cJ:www.ati.com/developer/friendsk-l.html+Lionhead+ati&hl=it
Scusate ma le prestazioni con HL2 e soprattutto vedremo con Lost Coast cosa accadrà, dicono le ATI coi f filtri attivari sono BEN superiori, rigurdo L'HDR per esempio in dod:s viene gestito nettamente meglio con Ati,rigurdo U3 lo hanno detto quelli di Epic che il gioco è sviluppato "in colaborazione con Ati", riguardo il motore di doom3 come gioco mi piace solo cod2...
Se vedi un po' di recensioni online, ti accorgerai che HL2 non presenta più il divario di prestazioni che c'era tra X8x0 e 6800, che poi LostCoast sarà più performante con ATI non mi stupisce affatto, visto che ormai lo sanno anche le pietre che il Source engine è stato sviluppato congiuntamente con ATI, e a maggior ragione questa nuova versione con HDR e compagnia bella; ah, Call of Duty 2 non usa affatto il D3 engine http://www.firingsquad.com/games/call_of_duty_2_preview/
yossarian
06-10-2005, 16:01
Quindi tu capisci IMHO e non PER QUANTO MI RIGUARDA
Ascolta se fanboy è una offesa come per me sarebbe offensivo se qualcuno mi dicesse che sono della Lazio (nei film di solito è una offesa anche se scherzosa) allora "te se' de la Lazio" ed io sono fanboy, così siamo pari non credi?
sei un fanboy e pure della Lazio
:D
bartolino3200
06-10-2005, 16:06
volevo mandare un grosso VAFFANXXXX a quelli che sanno di meritarselo :) .. che sono in tanti.. W il mercato delle schede!! e speriamo che in questo modo si abbassino tutti prezziiiiii ben vengano R580 & G71!! così si abbassano ancora di più :-p .. cmq la conclusione è che .. malgrado i ritardi.. ATi ha lavorato davvero bene ;) ripeto : PECCATO PER QUESTI RITARDI.. SE QUESTA SCHEDA FOSSE USCITA IN CONCOMITANZA CON G70 .. sarebbe stata una botta alla schiena mostruosa x Nvida bye bye
Un feedback sui tuoi messaggi ti pone allo stesso livello di chi mi prende in giro.
ma + terra terra se devo giocare in tutta tranquillita al top co cod2 e futuro unreal e relativi games ke ne sfruttano i motori ke devo "accattare"??????????????
bartolino3200
06-10-2005, 16:07
Non riesco a capire perchè c sia tutto questo entusiasmo nei confronti della R520
contro:
1) costa + della + overcloccata delle GTX
2) va leggermente + veloce della GTX e in alcuni giochi va + lenta nonostante abbia ben 512MB; se guardate fear la differenza di prestazioni è dovuta solo alla demo, nella versione finale le prestazioni saranno differenti.
3) usa una soluzione a 2 slot mentre la gtx 1
4) consuma d+
pro
1) qualità video superiore (ma se parlate del nuovo AA penso lo userete ben poco dato che letteralmente uccide le prestazioni)
2) HDR +AA (anche se qua voglio vedere come faranno a far girare U3 con HDR e AA ...)
insomma
gtx450$ disponibile
xt 550$ non disponibile
(e secondo me i furboni dei rivenditori la spacceranno a 600$ le prime settimane)
e tenete conto che nei drivers 81.84 Nvidia ha scritto che supportano le future GPU .. e se una di queste va + della GTX la vedo brutta per ATI.
cmq mio consiglio:
compratevi una GTO tenetela fino all'anno prox e prendete le vere nuove schede ati ed nvidia che supperteranno Windows Vista al 100%
Concordo in toto.
se è della lazio veramente può dire tutto quello che vuole, che lo appoggio al 100% :winner:
bye ;)
p.s. e cmq sei un fanboy bartolino :fagiano:
Free Gordon
06-10-2005, 16:11
Io direi di aspettare dei driver decenti per le 1800, prima di parlare. :D
CiccoMan
06-10-2005, 16:15
Io credo che se mettessi questo link nella tua sign sarebbe quanto mai esplicativo delle tue tendenze
http://64.233.183.104/search?q=cache:aGrFpeNO33cJ:www.ati.com/developer/friendsk-l.html+Lionhead+ati&hl=it
Ora si spiegano moooltisssime cose :D
La questione del vertex texturing è interessante. Le specifiche OpenGL 2.0 riportano sia per la fixed pipeline, che per i vertex shader, la possibiltà del vertex texturing (non so se opzionale o meno, potrei controllare...). Ora mi spiego la mia meraviglia nel vedere che dei driver video supportavano "solo" l'OpenGL 1.5... dovevano essere dei catalyst... :D Qualcuno sa se le ultime versioni dei catalyst supportano OGL 2.0 ?
Invece i forceware (almeno gli ultimi), supportano l'OpenGL 2.0...
ATI ha fatto uscire driver che supportano l'OpenGL 2.0 prima di NVIDIA.
Io credo che se mettessi questo link nella tua sign sarebbe quanto mai esplicativo delle tue tendenze
http://64.233.183.104/search?q=cache:aGrFpeNO33cJ:www.ati.com/developer/friendsk-l.html+Lionhead+ati&hl=it
Che tristezza...
Post del genere dovrebbero essere punito con il bannaggio a vita.
nachtymnen
06-10-2005, 16:20
http://img375.imageshack.us/img375/2945/nitroresult7rk3wf.th.gif (http://img375.imageshack.us/my.php?image=nitroresult7rk3wf.gif)
http://img375.imageshack.us/img375/2945/nitroresult7rk3wf.th.gif (http://img375.imageshack.us/my.php?image=nitroresult7rk3wf.gif)
impressionante... :eekk: :eekk: :eekk: :eekk:
nachtymnen
06-10-2005, 16:27
impressionante... :eekk: :eekk: :eekk: :eekk:
Grazie,modestamente :D
CiccoMan
06-10-2005, 16:33
http://img375.imageshack.us/img375/2945/nitroresult7rk3wf.th.gif (http://img375.imageshack.us/my.php?image=nitroresult7rk3wf.gif)
877.5/1980
:eek: :eek: :eek:
Grazie,modestamente :D
ma che modestamente :asd: sarà stato macci o sampsa con furore da ibiza :fagiano:
ehhhehee... alla faccia di chi diceva che erano schede stratirate con le frequenze :rolleyes:
bartolino3200
06-10-2005, 16:34
se è della lazio veramente può dire tutto quello che vuole, che lo appoggio al 100% :winner:
bye ;)
p.s. e cmq sei un fanboy bartolino :fagiano:
Detto da te...
Sono fanboy perchè nel mio ambito di utilizzo Ati non mi serve a nulla?
Ok, dovresti dirlo a tante altre persone che utilizzano il pc come lo uso io dunque.
Ps: Forza Cassano, non per nulla ma visto che è barese...giusto per rimanere nel tifo da stadio al quale tu sei abituato, vedendo tutti i tuoi messaggi, pare che nella vita non abbia altri interessi oltre ad ATI e alla Lazio, poi sono io fanboy...ok dai cmq mi fai ridere :D e per questo mi sembri simpatico.
nachtymnen
06-10-2005, 16:36
877.5/1980
:eek: :eek: :eek:
non dimentichiamo che ha solo 16 pipe...sono 8 in meno della 7800gtx :D
bartolino3200
06-10-2005, 16:36
Che tristezza...
Post del genere dovrebbero essere punito con il bannaggio a vita.
come quando mi offendesti gratuitamente e fosti richiamato?
con tutti i cloni che girano in questo forum con credo il problema si ponga.
Io di fanboy ne ho visti tanti fra ieri ed oggi e siete voi tutti pro ATI.
E' chiaro che questa scheda per come la penso io è solo un fiaschetto pompato nelle frequenze per tenere il passo della 7800GTX.
molto costruttivo il tuo commento, peccato che nn tieni conto che questa scheda gira con 1/3 delle pipeline della 7800
e non tieni conto neanche del fatto che x i driver nvdia sono ormai "collaudati" da parecchi mesi al contrario di quelli ati.
Diverso il discorso se si parla invece di novità tecnologica, anche se pure in questo caso come ha ribadito fek non c' è un grande stacco.
questa è una distorsione dei fatti e della realtà che è oggettiva, la novità tecnologica c'è sei te che nn la vuoi vedere
Per quanto riguarda la mia bocciatura è ben motivata, ma questo non significa che altri utenti con atre esigenze non trovino in Ati il miglior prodotto.
Attenzione quindi a definirmi in questo modo perchè ci rimango davvero male.
La prossima volta leggi bene le premesse del mio discorso non solo le conclusioni se non vuoi che la gente ti confonda per fanboy o quantomeno per distratto (giusto per essere educati)
Se le mie premesse sono:
1) COnsumi
2) OpenGL
3) Linux
4) Rumorosità
5) Rapporto prestazioni/prezzo
grazie a dio nn fai tu i test delle schede video non ho mai visto una recensione mettere come premesse quelle elencate da te, se fosse così avremo come "king of the hill" una matrox :D
Ed in tutti i punti il prodotto non mi soddisfa, chiaramente per me è BOCCIATA
Se i tuoi parametri sono differenti dai miei come credo, per te la scheda è pienamente fruibile. quindi PROMOSSA.
Ma la cosa è soggettiva chiaramente nè io nè tu ne nessuna recensione ha mai torto marcio o piena ragione.
Ciao e la prossima volta, fa più attenzione prima di parlare e giudicare.
credo che siano i tuoi parametri a essere un tantino diversi dalla maggioranza, quindi nn dare del fanboy agli altri, sistemi operativi come linux rappresentano una piccola % di utenti (bada bene che nn parlo di qualità), open gl è un ambiente che nel corso del tempo ha solo perso il vantaggio che aveva nei confronti delle directx, rumorosità è da ricontrollare dato che alcuni siti la danno silenziosa altri no.
prezzo, ne riparliamo quando avremo la disponibilità.
EDIT
1/3 delle pipeline .... in meno (ho dimenticato di aggiungere thx )
Detto da te...
Sono fanboy perchè nel mio ambito di utilizzo Ati non mi serve a nulla?
Ok, dovresti dirlo a tante altre persone che utilizzano il pc come lo uso io dunque.
Ps: Forza Cassano, non per nulla ma visto che è barese...giusto per rimanere nel tifo da stadio al quale tu sei abituato, vedendo tutti i tuoi messaggi, pare che nella vita non abbia altri interessi oltre ad ATI e alla Lazio, poi sono io fanboy...ok dai cmq mi fai ridere :D e per questo mi sembri simpatico.
cioè tu deduci che sono un fanboy solo perchè ti stiamo tutti dicendo che il tuo giudizio è totalmente distorto dal tifo che fai? è logico che sono tutti fanboy vedendola dal tuo punto di vista :D
qua quello che fa ridere non sono assolutamente io... e se leggi un po' di commenti lo capirai benissimo di chi stò parlando :rolleyes:
bartolino3200
06-10-2005, 16:41
Ora si spiegano moooltisssime cose :D
Fortuna che c' è qualcuno che abbia capito.
Ma mi sa che qui dire la verità possa anche costare caro.
La Fenice risorge sempre dalle proprie ceneri ;)
Fortuna che c' è qualcuno che abbia capito.
certo, la black&white studios hanno assunto degli ipnotizzatori per plagiare le menti dei propri programmatori per elogiare a prescindere le architteture ati nei forum di tutto il mondo...
stessa cosa fatta da Electronic Arts, VALVE Corporation... un mondo fatto da programmatori plagiati :eek:
V4n{}u|sH
06-10-2005, 16:45
Paolo anche nella tabella delle Entry Level mi sa che c'è un errore... C'è un po' di confusione con le bande passanti delle RAM... :D
leoneazzurro
06-10-2005, 16:48
molto costruttivo il tuo commento, peccato che nn tieni conto che questa scheda gira con 1/3 delle pipeline della 7800
e non tieni conto neanche del fatto che x i driver nvdia sono ormai "collaudati" da ormai parecchi mesi al contrario di quelli ati.
2/3, ma a frequenze del 45% superiori (625 MHz contro 430, ha più senso fare confronti di fill rate e basta).
Sicuramente occorreranno almeno 6-8 mesi di affinamento dei drivers con la nuova architettura, soprattutto per le soluzioni "squilibrate" come RV530.
L'architettura di R520 è molto promettente, soprattutto per quanto riguarda la qualità di immagine e per il fatto che sembra essere molto più "future proof" di G70 (bisognerà però vedere quanto l'utilizzo delle nuove features peserà in termini di performances, ad esempio se l'utilizzo contemporaneo di HDR+AA+ filtro HQ non inibisca prestazioni ragionevoli).
Accusare le persone che lavorano nel "campo" di essere di parte non basandosi sull'oggettività delle cose non vi fa molto onore
se fosse x voi non potrebbe parlare nessuno (che nn sia nv naturalmente) J.Carmack docet lui e le sue prese in giro con jobs
come quando mi offendesti gratuitamente e fosti richiamato?
Non mi pare di averti mai offeso, primo. Le offese sono punite con la sospensione e in tanti anni non sono mai stato sospeso.
Avevo avuto da dire (e lo dimostri ogni giorno) sul tuo comportamento. Ripreso (come fosti ripreso tu d'altronde, ma si sa, si ricorda solo quello che fa comodo) e fui il primo a chiedere scusa. Quindi, precisato tutto questo, che cacchio c'entra con il fatto di aver scritto un post abominevole? Non so, dimmi tu :rotfl:
con tutti i cloni che girano in questo forum con credo il problema si ponga.
Ripeto, cosa c'entra, di nuovo, con il post abominevole che hai fatto? Non so, dimmi tu :rotfl:
CiccoMan
06-10-2005, 16:56
Accusare le persone che lavorano nel "campo" di essere di parte non basandosi sull'oggettività delle cose non vi fa molto onore
se fosse x voi non potrebbe parlare nessuno (che nn sia nv naturalmente) J.Carmack docet lui e le sue prese in giro con jobs
Guarda che io non sono pro niente, anzi, se proprio vogliamo stare ad indagare il mio mito è 3dfx e questo dovrebbe portarmi ad avere una lieve antipatia verso nvidia.
Io per ora non ho sentito "chi lavora nel campo" esprimere una nota negativa... che stavolta ATI abbia tirato fuori il prodotto perfetto?
E cmq per me possono parlare tutti, me compreso :D
bartolino3200
06-10-2005, 16:56
Qui piove a dirotto, da voi? :D
Loro invece non possono mai essere di parte no.
Siete tutti superpartes...
Qui piove a dirotto, da voi? :D
da me è uscito un lieve sole :rolleyes: tempo di cacca :cry:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.