View Full Version : ATI Radeon X1800: quando 16 pipeline sono meglio di 24
Redazione di Hardware Upg
12-10-2005, 11:01
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1361/index.html
Abbiamo atteso a lungo prima di mettere le mani sul processore grafico R520, tempo in cui si è detto tutto ed il contrario di tutto al riguardo. In questa sede analizziamo qualità, prestazioni, overclock, consumi e rumorosità dell’antagonista di G70 che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza.
Click sul link per visualizzare l'articolo.
Noooo!!! Proprio ora che ho comprato una 7800 gtx.... :D
Sono contento lo stesso... :D
Aggiungo anche che una soluzione a due vga per un utente che si diverte anche con SuperPI e menate simili è sempre meglio adottarla su una piattaforma NF4 di conseguenza la scelta ricade su Nvidia senza dubbio! :)
Finalmente Ati è tornata alla nella fascia alta...
cioè... è tornata nella fascia alta... si sentiva la mancanza :(
e tutto questo mi porta solo ad una semplice conclusione,conviene aspettare r580 è sicuramente lui il processore grafico da comprare dopo r300.
in fondo r520 è chiaramente una gpu di passaggio e ce ne sta mstrando solo parzialmente le capacità, i test parlano da soli.
se non altro Ati si è fatta perdonare il ritardo di produzione e quello ancora ulteriore per la disponibilità in negozio.
Lo scenario che si preannuncia è veramente molto ma molto interessante,Nvidia questa volta ha in casa qualcosa di competitivo al contrario de quanto accadde con la serie fx,penso che i videogioxatori a questo punto possano tranquillamente sbavare :D
Recensione esemplare.
Per quanto mi riguarda ritiro tutte le eventuali cazzate dette nei confronti del R520 nei giorni scorsi, preso dal malumore generale...
Tanto di cappello ad ATI.
(e non dimentichiamo anche il capitolo "AVIVO" che riguarda queste schede!)
Non è che uscirà anche una X1850 con 24 pipeline in futuro???
I problemi di produzione non sono destinati a durare in eterno.....
prestazioni davvero notevoli, in pratica per sfruttare a pieno una scheda del genere ci vogliono giochi di ultimissima generazione e soprattutto un monitor di fascia altissima!
(IH)Patriota
12-10-2005, 11:28
Complimenti per la recensione,è valso la pena aspettare qualche giorno dal lancio ufficiale :D.
Questa X1800XT non mi sembra affatto male , indubbiamente è arrivata tardi rispetto alle GTX ma se per caso a breve riuscissero a produrre anche 24 o 32 pipeline il boost prestazionale sarebbe enorme (poi per non essere cpu limited ci vorrebbero 2 fx57 :))..
E pensare che c'è chi qualche settimana quando erano usciti quei bench fake era sicuro che sarebbe stata inferiore come prestazioni alla 7800GTX...
Bella li ;)
Complimenti alla reda di HWU per la recensione e complimenti ad ATI per aver sfornato (seppur con tutte le difficoltà ed i ritardi che ha avuto) una scheda finalmente rivoluzionaria sotto il punto di vista delle funzionalità e dell'architettura.
R580 si preannuncia notevole.
Se Nvidia ora prevale sulla potenza pura (calcolando lo sli però che non è proprio economicissimo) ATI gli da sicuramente una pista in quanto a sviluppo e ad architettura...
Inizia un nuovo giro di vite... Che sia questo il segno che anche nel reparto schede video si cominci a dare più importanza all'ottimizzazione e meno alla frequenza e potenza bruta (vedere evolversi cpu)?
Tutta roba positiva IMHO.
Sperando solo che tutto ciò non si traduca anche in un aumento spropositato dei prezi peraltro già elevatissimi.
halduemilauno
12-10-2005, 11:37
si complimenti. ottima rece e ottima scheda.
;)
CiccoMan
12-10-2005, 11:37
Ottima la xt :D
La xl invece mi delude un po'! Bisognerà vedere come evolveranno i prezzi, ma mi pare che a prestazioni la x850xt sia leggermente in vantaggio!
Eddie666
12-10-2005, 11:38
rinnovo i complimenti per la rece anche qui!
davvero una bella scheda questa ATI:mi9 sembra che abbia dato la via ad una strada molto da interessante da percorre circa il 3d.
Eh eh vedo che vi date da fare in redazione, vedrò di cliccare più spesso sui banner che sguazzano nel sito :D ;)
p.s.: volevo SOTTOLINEARE che i driver ATI sono ovviamente poco maturi, quindi si attendono ulteriori miglioramenti ;)
Ottima recensione, ora me la leggo per bene :)
Sulla scheda c'è poco da commentare, è semplicemente il TOP ;)
prestazioni davvero notevoli, in pratica per sfruttare a pieno una scheda del genere ci vogliono giochi di ultimissima generazione e soprattutto un monitor di fascia altissima
Già...
1600x1200 o la nuova 1920x1440 non sono da tutti !!
Quanto costa un simile monitor ??
E che cpu servirebbe per tenere testa a questi mostri ??
vabbè giocare alla grandissima ma, qui si parla di spendere 2500 euro di pc !!
Cavoli mi tengo il mio e mi prendo la xbox360 o la psx3.
Comunque grande scheda la x850 xt pe, se si abbasseranno i prezzi per giocare a 1280x1024 sarebbe per me l'ideale. Per me...che ho un "modestissimo" philips 19 lcd
bartolino3200
12-10-2005, 11:56
ATI Radeon X1800: quando 16 pipeline sono meglio di 24
Titolo al quanto discutibile e di parte.
Personalmente sta scheda non mi convince.
Siete gli unici al mondo ad averla recensita come più silenziosa di una 7800GTX :confused:
Nonostante il processo produttivo a 90 nanometri, e solo 16 pipeline consuma più di una 7800GTX.
Mi ricorda tanto il Pentium 4, tutto frequenze e poca efficienza.
Adesso tutti a comprarla... :ops: a trovarla...
Intanto l' ombra di r580 si fa sempre più vicina, dando a questa scheda vita breve...
Sapevo che ATI non ci avrebbe mai deluso!!!!!
Ho apprezzato molto gli screenshot fatti con l'hdr. Si diceva che di solito aumentano la luminosita' della scena, eppure in certe occasioni sembra succeda proprio il contrario.
Come mai non avete preso un punto dove si vedeva bene questo effetto del sole?
C'era proprio bisogno di schede video potenti. Era ora! LOL
Chissà le prestazioni su un dual core se saranno i media migliori con i prossimi driver ati...
Titolo al quanto discutibile e di parte.
Personalmente sta scheda non mi convince.
Qualcuno aveva dubbi? :rotfl:
Ottimo articolo, fin troppo esplicativo.
Quello che noto è che man mano le differenze qualitative e velocistiche ricadono in spettri di utlizzo sempre più ristretti.
Ok, è più veloce, ma in un 20% dei casi, non sempre poi, per il futuro promette bene, ma il futuro non è mai una sicurezza.
Così come le prestazioni, anche i possibili acquirenti sono relativamente una minima minoranza, ormai tutti o quasi puntano alla fascia media, ed è propio qui che ho più dubbi.
Inoltre, cade in momento di passaggio in vista di nuove api, nuovi standard, nuovi prodotti, nuovi sistemi operativi.
Anche questa volta passo, non essendoci la reale necessità di un upgrade (possiedo da più di un anno una 6800), in fondo mi pare il trionfo di 2 prospettive: frequenze e ottimizzazione.
E' vero che l'architettura è cambiata, ma quella, come ho già detto, si valuterà bene in futuro.
Pk77
JOHNNYMETA
12-10-2005, 12:01
Pauroso se Ati riusciva nel farlo uscire con anche solo 20 pipeline non c'era nessun gioco,la competizione moriva completamente per annientamento della controparte e questo fa riflettere,uccidere la concorrenza non è permesso così su due piedi.
Con 24 pipeline si sarebbe passati direttamente ad un monopolio.
Con 32 ad un dominio galattico,cosmico,..... non ci sarebbero termini sufficienti nel vocabolario.
Non si può uccidere la concorrenza, migliaia di posti di lavoro. :D
Titolo al quanto discutibile e di parte.
Personalmente sta scheda non mi convince.
Siete gli unici al mondo ad averla recensita come più silenziosa di una 7800GTX :confused:
Ma basta dai, non ti si regge più :rolleyes:
capitan_crasy
12-10-2005, 12:01
Oltre a Far Cry e Splinter Cell Chaos Theory, ce anche Serious Sam 2 :D
Sarebbe interessante introdurre nei bench anche il nuovo gioco della Croteam, magari nella futura recensione delle schede x1600... ;)
Sono andato a rileggere i tuoi commenti quando e' uscita la 7800gtx e ho capito tutto, se non scateni flame non sei contento.
Lasciamolo stare va' che e' meglio...
generals
12-10-2005, 12:05
ma il concetto di efficienza più volte utilizzato nella rece mi trova d'accordo solo in parte poichè non si tiene conto delle frequenze così elevate che danno il loro contributo fondamentale tanto è che la x1800xl che ha frequenze inferiori spesso non regge il confronto con la x850, quindi secondo me il termine efficienza è un pò abusato...Poi la scheda x1800xt ha prestazioni valide e sicuramente superiori (non di molto) rispetto alla 7800gtx ma questo tutti ce lo aspettavamo considerando che sono passati vari mesi dalla introduzione delle nvidia è evidente che ati qualcosa di leggermente più veloce doveva introdurlo. Bisognerà vedere, invece, con i prossimi titoli quanto delle innovazioni dell'architettura delle r520 sarà sfruttata e quindi utile ai fini dell'incremento prestazionale, cmq nulla di non preventivato secodo me esce da questi test, al limite mi aspettavo più rumore e consumi, questo sì.
Sapevo che ATI non ci avrebbe mai deluso!!!!!
Sai anche come andranno le azioni di ati e nvidia? No perche' in quel caso dimmelo che devo capire se vendere o comprare.
Certi commenti... :rolleyes:
davestas
12-10-2005, 12:07
Per adesso mi compro una GTO2@X850XT, aspetto R580 sperando che possa avere le WFG 2.0...
Penso che sia la scelta migliore...
JOHNNYMETA
12-10-2005, 12:10
Titolo al quanto discutibile e di parte.
Non è assolutamente discutibile,anzi è proprio perfetto, in quanto nella rece viene effettivamente analizzato "quando 16 pipeline sono meglio di 24" e questo facendo parlare prove e dati scientificamente oggettivi. :Prrr:
AndreaG.
12-10-2005, 12:12
Nel titolo manca un puno interrogativo... :"quando 16 pipe sono meglio di 24?"
La domanda è lecita... cmq potevate almeno fare un confronto in oc con la 7800gtx overcloccata pure quella. e ricordiamo il raffreddamento umano della 7800gtx contro il dual slot dell'ati.
Cmq ottima recensione, ottima idea, finalmente, di comparare le architetture a partià di mhz e pipe, BRAVI!
E un brava ad Ati che finalmente ha tirato fuori dopo tanto tempo un chip al top. Speriamo ora solo in prezzi decenti....
Complimenti ad Ati per la prova di forza, ma soprattutto alla redazione per un articolo meritevole di entrare negli annali ;)
P.S. Il confronto [dai risultati inaspettati] tra lo SLI e la scheda canadese mette in perfetta evidenza quello che dico sempre: lo SLI richiede monitor di altissimo livello per essere sfruttato. Quando lo vedo impiegato a risoluzioni di 1280 mi viene da ridere, pertanto .... 2 vga + monitor da 1200€ = spesa realmente eccessiva.
Ovviamente è una mia opinione, ma si tratta di una spesa veramente enorme per un solo utilizzo videoludico.
Mi chiedo a qst punto un crossfire tra 2 1800xt cosa generi :confused:
[quote]prestazioni davvero notevoli, in pratica per sfruttare a pieno una scheda del genere ci vogliono giochi di ultimissima generazione e soprattutto un monitor di fascia altissima
[/quiote] Per non parlare del processore: quanto costa l'AMD 55FX? circa 1000€ ed è già in produzione il modello FX57 (non che con le 7800 sia diverso eh). Per quanto riguarda i giochi di nuovissima generazione non credo ci siano problemi, vista la pletora di nuovi giochi che arriverà da qui alla fine dell'anno (primo tra tutti F.E.A.R., senza dimenticare Quake4 che, basato sul D3 engine, dovrebbe essere appannaggio delle schede nVidia); si accettano scommesse: nello sviluppo dei giochi vincerà il Source di Valve (ATI-oriented) o il D3 engine di ID (nVidia-oriented)? E non dimentichiamoci dell' U3 engine e dello stesso engine di F.E.A.R. Cmnq, come era ovvio che fosse, 'ste schede sono davvero ottime (le minori prestazioni con i giochi D3-engine non sono certo una sorpresa per ATI), e questo conferma ancora di più la mia idea iniziale, al lancio delle 7800GTX, che le nuove schede nVidia fossero un semplice miglioramento/perfezionamento della tecnologia 6800.
Cmnq tanto di cappello ad ATI: a quanto pare i 5 mesi in più passati dai proclami primaverili sono serviti a qualcosa. Mi auguro che in casa nVidia si diano da fare per migliorare quei punti, soprattutto in termini di qualità del'immagine e di prestazioni con i filtri attivati, dove le 7800 sono carenti: un buon prodotto da parte del concorrente non può che spingere ad un impegno ancora maggiore (mi auguro che non si siano troppo seduti sugli allori in questi 5 mesi di supremazia tecnologica), a tutto vantaggio di noi utenti. Viva la tecnologia :)
ma il concetto di efficienza più volte utilizzato nella rece mi trova d'accordo solo in parte poichè non si tiene conto delle frequenze così elevate che danno il loro contributo fondamentale tanto è che la x1800xl che ha frequenze inferiori spesso non regge il confronto con la x850, quindi secondo me il termine efficienza è un pò abusato...Poi la scheda x1800xt ha prestazioni valide e sicuramente superiori (non di molto) rispetto alla 7800gtx ma questo tutti ce lo aspettavamo considerando che sono passati vari mesi dalla introduzione delle nvidia è evidente che ati qualcosa di leggermente più veloce doveva introdurlo. Bisognerà vedere, invece, con i prossimi titoli quanto delle innovazioni dell'architettura delle r520 sarà sfruttata e quindi utile ai fini dell'incremento prestazionale, cmq nulla di non preventivato secodo me esce da questi test, al limite mi aspettavo più rumore e consumi, questo sì.
Ti garantisco che prima di eseguire i test a parità di fill rate e di banda passante, anche io ero un po scettico su dove l'efficienza di R520 arrivava e dove, invece, entravano in gioco le RAM a 1500 Mhz. Beh a parità di potenza di calcolo e banda passante, invece, R520 con antialiasing e filtro anisotropico ha comunque dimostrato di essere un tantino più veloce di G70, e sempre migliore di R480 e NV40. Ciò fa chiaramente intendere che l'architettura è estremametne efficiente, anche più di quella di G70 che di per sè era già molto valida.
Quindi in fin dei conti i 48 GB/s di banda passante sono quasi sicuramente sovrabbondanti per la Radeon X1800 XT.
barabba73
12-10-2005, 12:22
Un plauso ala redazione per la recensione e uno ad ATI per aver tirato fuori un progetto che sembra ben fatto !
bartolino3200
12-10-2005, 12:22
Non è assolutamente discutibile,anzi è proprio perfetto, in quanto nella rece viene effettivamente analizzato "quando 16 pipeline sono meglio di 24" e questo facendo parlare prove e dati scientificamente oggettivi. :Prrr:
Si ma a parità di frequenza e numero di pipe, non è che ci sia una efficienza migliore: fill rate, vertex shader sono alla pari mentre ati è parecchio sotto sui vertex shader (cosa ormai risaputa).
Dunque la mia delusione nasce dal fatto che speravo in un prodotto che con la sua nuova architettura a 90 nanometri consumasse davvero di meno, e fosse più efficiente in modo sensibile. Cosa che non è avvenuta. Si sono limitati a gonfiare le frequenze per avere una scheda con qualche fps in piu di 7800GTX solo per puro marketing. E non dimentichiamo che per arrivare a questo ci sono stati più tape out e ritardi colossali.
Sul discorso innovativo che possa o meno generare una migliore qualità video è poco percepibile soprattutto in giochi frenetici...alias...
Non è che nvidia fa schede che ti fanno visualizzare i giochi in bianco e nero e Ati a colori...alla fine ste differenze non le noti.
Sulla longevità infine, davvero un FLOP. Con R580 ormai da un po' in tape out, si può dire che la X1800XT si ritroverà ben presto in fascia media o medioalta, ciò significa che comprarla ora sarebbe una mossa poco intelligente.
Su features tanto sbandierate e non supportate ancora dai giochi attuali invece, ci vedo un plus davvero lodevole, come quando nVidia introdusse i PS e VS 3, che tutti sminuivano in quanto inutili nell' immediato. Come mai non fate la stessa cosa per Ati adesso?
Dr House
12-10-2005, 12:23
qualcuno mi aiuta a fare una ricerca di tutti gli utenti che dicevano che sarebbe stato un fiasco l'r520? :D
Dark Schneider
12-10-2005, 12:24
Ottima scheda video. Come avevo già detto qlc giorno fa la cosa che mi piace di più è il poter abbinare AA + HDR. Solo per questo imho è meglio del G70. E' anche vero che di titoli HDR ce ne son pochissimi, però intanto è una cosa in più.
Riguardo le prestazioni con i filtri, beh oltre al miglioramento di efficienza della gestione della banda, cmq un bel merito lo darei anche alle memorie da 1500 Mhz e la sua banda di ben 48 GB, che non son mica pochi. In ogni caso il merito di essere la prima vga a montare le memorie più veloci in circolazione. :)
Riguardo i consumi, calore,rumore,ecc. non vedo perchè lamentarsi. Voglio dire: intanto se hanno fatto sistema di raffreddamento simile vuol dire che è sufficente per tenere a bada tutti quei 300 milioni e passa di transistor.
Poi uno che spende 500 euro per una VGA non penso non abbia i soldi per farsi un buon alimentatore. Imho è un aspetto secondario da valutare. Cmq non preoccupante. Non è che la vga esplode e ci ammazza tutto d'un colpo.
Foglia Morta
12-10-2005, 12:27
usata come dovrebbe essere usata ( filtri )questa scheda non ha rivali e con anche l' hdr rimane pienamente giocabile , questa recensione riconferma le qualità di questa scheda. Peccato non abbiate testato anche fear , tolto un demo tanto valeva toglierne 2 e considerare solo i giochi disponibili .
Italian Soldier
12-10-2005, 12:30
Scusa ma HL2 non è già storia? Non ho ancora letto tutta la rece...
Einhander
12-10-2005, 12:30
Queste recensioni(come molte altre prima di loro) mi ricordano perche' passo molto tempo su questo sito:)
COMPLIMENTI DAVVERO PER L'OTTIMA RECENSIONE!
E complimenti ad ati per aver tirato fuori una scheda del genere anche se ce l'hanno fatta sudare :)
mi viene da pensare a quando il chip crossfire edition sara' in commercio come saranno le prestazioni,soprattutto com i nuovi giochi,anche perche',bisogna ricordarlo,e' con i nuovi giochi che penso verra' fuori il reale passo in aventi mosso da ati sia per architettura che per efficienza e qualita' grafica...
P.s.:Ma una comparitiva con una 7800gtx oc,no eh??
P.p.s.:Ma quanto costa un monitor con quelle risoluzioni?Anzi converto la domanda: Quanti organi interni e' necessario vendere per permettersi un monitor del genere?E soprattutto quali vendere e poi riuscire a giocare senza letto flebo e macchinari per il supporto vitale?
bartolino3200
12-10-2005, 12:31
qualcuno mi aiuta a fare una ricerca di tutti gli utenti che dicevano che sarebbe stato un fiasco l'r520? :D
Si può davvero gridare ad eclatante successo?
Lo avrei capito se le prestazioni fossero state almeno il 50% in più visto il ritardo...oppure se fosse riuscita a superare nVidia su OpenGL, invece no.
Perchè non si danno da fare davvero nell' invadere il territorio della concorrenza? Sarebbe stata una bella mossa vedere giochi OpenGL rullare meglio su ATI, io per primo mi sarei inchinato; invece no...al solito ad ognuno il suo campo...quasi si fossero messi daccordo su questo ATI e nVidia.
DevilsAdvocate
12-10-2005, 12:32
Scheda piu' che buona, prestazioni circa allineate a 7800 GTX se non un filo migliori,
prezzo ancora da verificare (quello ufficiale e' un po' altino considerando che le
Nvidia sono scese abbondantemente di prezzo), tecnologia AVIVO in transcode tutta
da verificare (ATI promette che i driver avivo transcode usciranno entro dicembre).
Nel complesso gli ATI fans si riterranno soddisfatti, e il monopolio sembra scongiurato.
JOHNNYMETA
12-10-2005, 12:33
Si ma a parità di frequenza e numero di pipe, non è che ci sia una efficienza migliore: fill rate, vertex shader sono alla pari mentre ati è parecchio sotto sui vertex shader (cosa ormai risaputa).
Dunque la mia delusione nasce dal fatto che speravo in un prodotto che con la sua nuova architettura a 90 nanometri consumasse davvero di meno, e fosse più efficiente in modo sensibile. Cosa che non è avvenuta. Si sono limitati a gonfiare le frequenze per avere una scheda con qualche fps in piu di 7800GTX solo per puro marketing. E non dimentichiamo che per arrivare a questo ci sono stati più tape out e ritardi colossali.
Sul discorso innovativo che possa o meno generare una migliore qualità video è poco percepibile soprattutto in giochi frenetici...alias...
Non è che nvidia fa schede che ti fanno visualizzare i giochi in bianco e nero e Ati a colori...alla fine ste differenze non le noti.
Sulla longevità infine, davvero un FLOP. Con R580 ormai da un po' in tape out, si può dire che la X1800XT si ritroverà ben presto in fascia media o medioalta, ciò significa che comprarla ora sarebbe una mossa poco intelligente.
Su features tanto sbandierate e non supportate ancora dai giochi attuali invece, ci vedo un plus davvero lodevole, come quando nVidia introdusse i PS e VS 3, che tutti sminuivano in quanto inutili nell' immediato. Come mai non fate la stessa cosa per Ati adesso?
Argomenti più o meno condivisibili (più meno che più) ma non confutano che in questa rece venga effettivamente
analizzato "quando 16 pipeline sono meglio di 24" e quindi che il titolo sia perfetto.
Si può davvero gridare ad eclatante successo?
Lo avrei capito se le prestazioni fossero state almeno il 50% in più visto il ritardo...oppure se fosse riuscita a superare nVidia su OpenGL, invece no.
Perchè non si danno da fare davvero nell' invadere il territorio della concorrenza? Sarebbe stata una bella mossa vedere giochi OpenGL rullare meglio su ATI, io per primo mi sarei inchinato; invece no...al solito ad ognuno il suo campo...quasi si fossero messi daccordo su questo ATI e nVidia.
Ma l'hai letta la rece ? e la sezione 520 Vs SLI ? :rolleyes: e i test con AA e HDR?
Giochi OpenGL ? ce ne sn due in tutto il mercato, Doom3 e Riddick, vecchi come il cucù!! :rotfl:
Non avendo mai visto un gioco a 1600x1200 (radeon 9800 pro in mio possesso...) mi chiedo
ma a queste risoluzioni serve giocare con i filtri attivati ??
Prevedo lunga vita e lungo flame per questo thread... :rolleyes:
bartolino3200
12-10-2005, 12:38
Ma l'hai letta la rece ? e la sezione 520 Vs SLI ? :rolleyes: e i test con AA e HDR?
Giochi OpenGL ? ce ne sn due in tutto il mercato, Doom3 e Riddick, vecchi come il cucù!! :rotfl:
Si lo so, ma OpenGL non significa solo giochi.
Se posso avere una scheda grafica che mi fa giocare al massimo e nello stesso tempo, mi da la possibilità di un ottimo supporto OpenGL e quindi di molto Software in circolazione è sicuramente meglio (e per quei pochi disgraziati che usano Linux...:ops: che ho detto Linux, adesso avverrà il linciaggio di bartolino)... ;)
Ciao.
Si lo so, ma OpenGL non significa solo giochi.
Se posso avere una scheda grafica che mi fa giocare al massimo e nello stesso tempo, mi da la possibilità di un ottimo supporto OpenGL e quindi di molto Software in circolazione è sicuramente meglio (e per quei pochi disgraziati che usano Linux...:ops: che ho detto Linux, adesso avverrà il linciaggio di bartolino)... ;)
Ciao.
No ti prego, no non ce la faccio a ricominciare da capo con la storia di Linux e dell'OpenGL :cry:
halduemilauno
12-10-2005, 12:41
una considerazione(visto che si è molto dibattuto)sull'oc. da 625/1500 a 700/1540 a me pare un oc sul modesto. poi con la mod. del bios a 725/1600 un oc certo più adeguato.
io dissi(quando si supponeva il core a 650)che l'oc sarebbe stato di questa portata. ovviamente parlo sempre di oc alla portata e possibilità di tutti. quindi niente mostri o estremismi. è gia tanto che si debba modificare il bios.
cmq un'altra cosa a questo punto possiamo dire che la favola delle 24/32 pipe è stata appunto una favola magari alimentata(ad arte)dalla stessa ati per fuorviare nVidia sulla nuova architettura. nuova che magari anche nVidia sta pensando/studiando da tempo. ma che ati è stata la prima ad adottare.
il tutto mia modesta opinione.
ciao.
;)
Dr House
12-10-2005, 12:42
Si può davvero gridare ad eclatante successo?
Lo avrei capito se le prestazioni fossero state almeno il 50% in più visto il ritardo...oppure se fosse riuscita a superare nVidia su OpenGL, invece no.
Perchè non si danno da fare davvero nell' invadere il territorio della concorrenza? Sarebbe stata una bella mossa vedere giochi OpenGL rullare meglio su ATI, io per primo mi sarei inchinato; invece no...al solito ad ognuno il suo campo...quasi si fossero messi daccordo su questo ATI e nVidia.
non è mai stata mia intensione gridare al successo eclatante, non mi frega niente a me se vince ati o nvidia a differenza di molti, ma non trovo giusto che per mesi alcuni abbiano inveito contro queste schede "perchè questo, perchè quell'altro, fanno schifo, solo 16 pippe" e poi invece se la battono ad armi pari con la concorrenza
solo per questo li cerco :D , tanto per ricordargli di non sputare sentenze affrettate ;)
Si ma a parità di frequenza e numero di pipe, non è che ci sia una efficienza migliore: fill rate, vertex shader sono alla pari mentre ati è parecchio sotto sui vertex shader (cosa ormai risaputa).
Dunque la mia delusione nasce dal fatto che speravo in un prodotto che con la sua nuova architettura a 90 nanometri consumasse davvero di meno, e fosse più efficiente in modo sensibile. Cosa che non è avvenuta. Si sono limitati a gonfiare le frequenze per avere una scheda con qualche fps in piu di 7800GTX solo per puro marketing. E non dimentichiamo che per arrivare a questo ci sono stati più tape out e ritardi colossali.
Sul discorso innovativo che possa o meno generare una migliore qualità video è poco percepibile soprattutto in giochi frenetici...alias...
Non è che nvidia fa schede che ti fanno visualizzare i giochi in bianco e nero e Ati a colori...alla fine ste differenze non le noti.
Sulla longevità infine, davvero un FLOP. Con R580 ormai da un po' in tape out, si può dire che la X1800XT si ritroverà ben presto in fascia media o medioalta, ciò significa che comprarla ora sarebbe una mossa poco intelligente.
Su features tanto sbandierate e non supportate ancora dai giochi attuali invece, ci vedo un plus davvero lodevole, come quando nVidia introdusse i PS e VS 3, che tutti sminuivano in quanto inutili nell' immediato. Come mai non fate la stessa cosa per Ati adesso?
bartolino, personalmento penso che tu dia troppa importanza ai risultati teorici del 3DMark05 e ti spiego il perché. Il 3DMark05 ed il suo test relativo ai pixel shaders, valutano il comportamento di una GPU con UN pixel shader e persone come fek sapranno dirti meglio di me come da una GPU ad un'altra a seconda delle caratteristiche dello shader, si possono ottenere prestazioni superiori per una o per l'altra. Inoltre il pixel shader usato nel 3DMark05 è uno shader 2.0 compilato con il profilo 3.0 cioè, essenzialmente, non sfrutta assolutamente nulla dello shader model 3.0, per il quale è stato ideato R520. Diciamo che se proprio vogliamo attribuire importanza al valore di quel risultato, possiamo dire che G70 nei pixel shaders 2.0 like è probabilmente più veloce di R520. Ora, tale affermazione, seppur vera, da sola non serve a niente e deve necessariamente trovare un riscontro pratico all'interno dei videogames: a poco mi serve una scheda che con UN pixel shader mi fa 4000 fps e poi nei test reali possiede un vantaggio (che con i filtri diventa uno svantaggio) completamente differente. E quanto ho detto è vero nel confronto tra R520 e G70 a parità di potenza di calcolo, fill rate e banda passante.
Riguardo i consumi: la Radeon X1800 XL, che possiede le medesime specifiche tecniche (fill rate e banda passante) della GeForce 7800 GT, sotto stress consuma di meno. La Radeon X1800 XT da noi provata è la versione da 512 MB e si tratta di memorie che richiedono un voltaggio superiore a quelle usate dalla 7800 GTX, oltre a richiedere ovviamente più potenza di un prodotto dotato di 256 MB. Vedremo la GeForce 7800 GTX 512 MB che consumi avrà.
Dark Schneider
12-10-2005, 12:42
usata come dovrebbe essere usata ( filtri )questa scheda non ha rivali e con anche l' hdr rimane pienamente giocabile , questa recensione riconferma le qualità di questa scheda. Peccato non abbiate testato anche fear , tolto un demo tanto valeva toglierne 2 e considerare solo i giochi disponibili .
L'HDR anche fa molto uso della banda passante ecco perchè si ben comporta. :)
Ovvio che abilitando poi anche l'AA e l'AF ancora di più pesa. :)
Cmq mi son dimenticato di dire nel commento precedente: penso bisogna elogiare la possibilità di usare l'AA + HDR proprio perchè è qualcosa in più. Proprio come un anno e mezzo fa le 6800 avevano lo SM 3.0 e le controparti Ati no. Allora c'era gente che denigrava lo SM 3.0 e bla bla...!! Tra l'altro cosa sbagliata. Proprio perchè avere qualcosa in più è solo una cosa positiva.
Adesso stessa situazione l'HDR + AA dell'R520 rispetto al G70. E' una cosa in più, quindi una cosa positiva.
Non bisogna elogiare/denigrare solo quando fa comodo(mi riferisco a chi denigrava lo sm 3.0 e chi non prende in considerazione l'HDR+AA). Bisogna essere invece coerenti. :)
Titolo al quanto discutibile e di parte.
Personalmente sta scheda non mi convince.
Siete gli unici al mondo ad averla recensita come più silenziosa di una 7800GTX :confused:
Nonostante il processo produttivo a 90 nanometri, e solo 16 pipeline consuma più di una 7800GTX.
Mi ricorda tanto il Pentium 4, tutto frequenze e poca efficienza.
boh, io ti quoto.. ;)
forse abbiamo un concetto diverso di "efficienza".. :mbe:
__EDIT!!__
NATURALMENTE non voglio togliere nulla alla recensione! completa, esaustiva e ben scritta! si sente tutta la settimana di "piacevole sofferenza" spesa per i test!
complimenti a HWU
Einhander
12-10-2005, 12:53
Io credo che la recensione parli chiaro e chi nn si accorge dei fatti e' solo perche' nn vuole vedere l'evidenza...Prima tutti castigavano ati per il ritardo(e se lo merita) e per le presunte prestazioni con 16 pipe inferiori ad architetture con 24 che invece guarda un po' sono superiori,tuttavia mi preme ricordare che tale ritardo nn e' da imputare ad un progetto piu' nuovo rispetto a quello nvidia,bensi' a dei problemi di produzione con le fonderie taiwanesi,quindi,per favore,basta col dire che siccome ati e' uscita con 5 mesi di ritardo ci dovevano esssere prestazioni ancora maggiori,per favore basta,ricordiamoci che il progetto r520 ha gli stessi mesi alle spalle di quello nvidia e che i ritardi nn erano tanto per l'invalidita' del progetto,quanto per i problemi riscontrati nel produrlo.
Quindi basta con questa storia dei 5 mesi e delle prestazioni superiori "causa ritardo"( che cmq ci sono e sono li' davanti a tutti e nn diminuiranno con i gioche nuovi,vedi tast sulla demo di fear sparsi per la rete),l'unica colpa e che questi 5 mesi hanno permesso a certe persone di gettare fango su una azienda che nel bene e nel male ha sempre ricercato cmq le migliori prestazioni abbinate alla migliore efficienza(come nvidia del resto) e che questo ritardo senza dubbio nn ha fatto bene al mercato nella sua generalita'....Detto questo sottolineo anche come r580 sia gia' in fase di avanzato sviluppo e questo nn necessariamente vuol dire vita breve alle schede attuali,infondo dipende da quello che nvidia riuscira' a fare con le prossime gpu se r580 uscira' presto o no,pero' intanto e' li a fare test e ad essere perfezionato.
Byezzz
bartolino3200
12-10-2005, 12:53
una considerazione(visto che si è molto dibattuto)sull'oc. da 625/1500 a 700/1540 a me pare un oc sul modesto. poi con la mod. del bios a 725/1600 un oc certo più adeguato.
io dissi(quando si supponeva il core a 650)che l'oc sarebbe stato di questa portata. ovviamente parlo sempre di oc alla portata e possibilità di tutti. quindi niente mostri o estremismi. è gia tanto che si debba modificare il bios.
cmq un'altra cosa a questo punto possiamo dire che la favola delle 24/32 pipe è stata appunto una favola magari alimentata(ad arte)dalla stessa ati per fuorviare nVidia sulla nuova architettura. nuova che magari anche nVidia sta pensando/studiando da tempo. ma che ati è stata la prima ad adottare.
il tutto mia modesta opinione.
ciao.
;)
Oserei dire: come se modificare il bios sia una operazione semplice.
Ma ricordiamoci che ciò comporta il decadimento della garanzia. Alias l' overclock senza esorcismi è piuttosto deludente se si considera che stiamo parlando di 90 nanometri.
hagakure666
12-10-2005, 12:53
quanti triangoli al secondo muove la 1800xt?
sul sito ati non è scritto
boh, io ti quoto.. ;)
forse abbiamo un concetto diverso di "efficienza".. :mbe:
Yossarian sta ancora spettando chiarimenti da Bartolino in un thread, dove ha fatto gli stessi identici commenti, parlando di efficienza e frequenze tirate all'osso. Ovviamente spiegazioni mai avvenute, magari lo farà, anzi lo farete qui. Di là si è eclissato, aspettando il momento di risaltare fuori di qua, ora vediamo qua cosa combina :)
Intanto ha tirato fuori Linux come è solito fare :rotfl:
triangoli? ancora si va avanti con i triangoli al secondo? :asd:
per chi parla della modifica al bios per l'overclock, è evidenziato che si tratta solo dei sample distribuiti da ati per la recensione che sono bloccati via bios. :)
per chi invece come bartolino dice che "le prestazioni con i vertex shader sono uguali" (che poi non è assolutamente vero a quanto risulta dalla rece) e quelle con i pixel shader sono superiori per G70, invito a fare un semplice calcolo sul numero di unità di Vertex Shading e di Pixel Shading su entrambe le soluzioni
e sopratutto a non considerare la X1800XT come una scheda professionale, è una scheda DA GAMER e basta, e a un GAMER cosa gliene frega del supporto a linux?
bYeZ!
No ti prego, no non ce la faccio a ricominciare da capo con la storia di Linux e dell'OpenGL :cry:
infatti, non perdiamoci altro tempo. ma il problema e' reale. W Linux&OpenGL
bartolino3200
12-10-2005, 12:58
bartolino, personalmento penso che tu dia troppa importanza ai risultati teorici del 3DMark05 e ti spiego il perché. Il 3DMark05 ed il suo test relativo ai pixel shaders, valutano il comportamento di una GPU con UN pixel shader e persone come fek sapranno dirti meglio di me come da una GPU ad un'altra a seconda delle caratteristiche dello shader, si possono ottenere prestazioni superiori per una o per l'altra. Inoltre il pixel shader usato nel 3DMark05 è uno shader 2.0 compilato con il profilo 3.0 cioè, essenzialmente, non sfrutta assolutamente nulla dello shader model 3.0, per il quale è stato ideato R520. Diciamo che se proprio vogliamo attribuire importanza al valore di quel risultato, possiamo dire che G70 nei pixel shaders 2.0 like è probabilmente più veloce di R520. Ora, tale affermazione, seppur vera, da sola non serve a niente e deve necessariamente trovare un riscontro pratico all'interno dei videogames: a poco mi serve una scheda che con UN pixel shader mi fa 4000 fps e poi nei test reali possiede un vantaggio (che con i filtri diventa uno svantaggio) completamente differente. E quanto ho detto è vero nel confronto tra R520 e G70 a parità di potenza di calcolo, fill rate e banda passante.
Riguardo i consumi: la Radeon X1800 XL, che possiede le medesime specifiche tecniche (fill rate e banda passante) della GeForce 7800 GT, sotto stress consuma di meno. La Radeon X1800 XT da noi provata è la versione da 512 MB e si tratta di memorie che richiedono un voltaggio superiore a quelle usate dalla 7800 GTX, oltre a richiedere ovviamente più potenza di un prodotto dotato di 256 MB. Vedremo la GeForce 7800 GTX 512 MB che consumi avrà.
Si ma al di là del 3d mark io in generale prestazioni così differenti non ce le vedo. Ma nVidia non supporta pienamente i PS e VS 3 gia dalla 6800? Con G70 ha aggiunto il transparent e orpelli vari...
Sui test visti su molti altri siti esteri, anche la versione X1800XT da 256 MB consuma più della 7800GTX sempre da 256 MB...
COme mai le memorie della ATI richiedono voltaggio superiore? Un po' in controtendenza con l' evoluzione dei chip direi...
rutto gradirei sapere in due righe il tuo concetto di efficienza
bYeZ!
bartolino3200
12-10-2005, 13:00
L'HDR anche fa molto uso della banda passante ecco perchè si ben comporta. :)
Ovvio che abilitando poi anche l'AA e l'AF ancora di più pesa. :)
Cmq mi son dimenticato di dire nel commento precedente: penso bisogna elogiare la possibilità di usare l'AA + HDR proprio perchè è qualcosa in più. Proprio come un anno e mezzo fa le 6800 avevano lo SM 3.0 e le controparti Ati no. Allora c'era gente che denigrava lo SM 3.0 e bla bla...!! Tra l'altro cosa sbagliata. Proprio perchè avere qualcosa in più è solo una cosa positiva.
Adesso stessa situazione l'HDR + AA dell'R520 rispetto al G70. E' una cosa in più, quindi una cosa positiva.
Non bisogna elogiare/denigrare solo quando fa comodo(mi riferisco a chi denigrava lo sm 3.0 e chi non prende in considerazione l'HDR+AA). Bisogna essere invece coerenti. :)
Praticamente, perfettamente daccordo ;)
bartolino3200
12-10-2005, 13:01
rutto gradirei sapere in due righe il tuo concetto di efficienza
bYeZ!
Magari esponici prima il tuo :D illuminaci. ;)
Yossarian sta ancora spettando chiarimenti da Bartolino in un thread, dove ha fatto gli stessi identici commenti, parlando di efficienza e frequenze tirate all'osso. Ovviamente spiegazioni mai avvenute, magari lo farà, anzi lo farete qui. Di là si è eclissato, aspettando il momento di risaltare fuori di qua, ora vediamo qua cosa combina :)
Intanto ha tirato fuori Linux come è solito fare :rotfl:
cosa c'e' di ridicolo in Linux? :mbe:
non conosco bartolino, non voglio prendere le sue difese e non mi ha pagato per quotare il suo post. sono opinioni personali e io senza farlo apposta vado spesso controcorrente (a giudicare dall'ultimo referendum pare che meno di 1 italiano su 4 la pensi come me su certe questioni..).
Sammy.73
12-10-2005, 13:02
ottimo lavoro
peccato non aver visto un FEAR nei giochi testati
un solo dubbio: le frequenze raggiunte in oc (725/1600) sono state ottenute sempre con il dissi stock?
in questo caso, sarebbe fantastico... alla faccia di quelli che dicevano che erano spinte al max...
cosa c'e' di ridicolo in Linux? :mbe:
Dove lo avrei detto? Non sei l'unico al mondo nè dentro al forum ad usarlo sai? ;)
bartolino3200
12-10-2005, 13:04
...per favore,basta col dire che siccome ati e' uscita con 5 mesi di ritardo ci dovevano esssere prestazioni ancora maggiori,per favore basta,...
Quindi basta con questa storia dei 5 mesi e ...l'unica colpa e che questi 5 mesi hanno permesso a certe persone di gettare fango su una azienda ...che questo ritardo senza dubbio nn ha fatto bene al mercato nella sua generalita'....Detto questo sottolineo anche come r580 sia gia' in fase di avanzato sviluppo e questo nn necessariamente vuol dire vita breve alle schede attuali,infondo dipende da quello che nvidia riuscira' a fare con le prossime gpu se r580 uscira' presto o no,pero' intanto e' li a fare test e ad essere perfezionato.
Byezzz
Basta...per favore...basta...:cry:...basta!!!
Al 5 novembre data in cui si spera di trovare schede in commercio saranno 7 mesi per la precisione :ahahah:
COme mai le memorie della ATI richiedono voltaggio superiore? Un po' in controtendenza con l' evoluzione dei chip direi...
Questo lo devi chiedere a Samsung: se vai sul suo sito vedrai che le sue memorie GDDR3 a quelle frequenze richiedono maggior voltaggio. ATI c'entra poco.
bartolino3200
12-10-2005, 13:07
Questo lo devi chiedere a Samsung: se vai sul suo sito vedrai che le sue memorie GDDR3 a quelle frequenze richiedono maggior voltaggio. ATI c'entra poco.
Non imputo la colpa ad Ati però sarebbe interessante fare luce sulla cosa, non vorrei dover immaginare che siano occate...
Si ma a parità di frequenza e numero di pipe, non è che ci sia una efficienza migliore: fill rate, vertex shader sono alla pari mentre ati è parecchio sotto sui vertex shader (cosa ormai risaputa).
la differenza la si vede chiaramente quando si passa dal single al multitexturing e confronta i valori ottenuti con i p.s. della 850xt a parità di freq.
se poi avessi l'accortezza di "scendere" con barra di scorrimento dovresti notare come mentre nei bench fatti senza filtraggio i modelli g70 a parità di freq. e pipe girano + velocemente, la cosa si ribaltà con l'abilitazione dei vari filtraggi, il che dimostra che le "teorie" sventolate su questo stesso forum del tipo "solo 16 pipe! FLOP" erano quantomeno esagerate e nn basate sui fatti.
"efficienza" calza a pennello x questa scheda
Dunque la mia delusione nasce dal fatto che speravo in un prodotto che con la sua nuova architettura a 90 nanometri consumasse davvero di meno, e fosse più efficiente in modo sensibile. Cosa che non è avvenuta.
a me di avere un minor consumo in assoluto nn frega niente se ho 310milioni di transistor e freq + elevate me ne sbatto del consumo, fai le proporzioni e ti accorgerai che a parità di transistor e freq. questa scheda avrebbe consumato decisamente di meno... ma a che pro? solo te lo sai...
Si sono limitati a gonfiare le frequenze per avere una scheda con qualche fps in piu di 7800GTX solo per puro marketing. E non dimentichiamo che per arrivare a questo ci sono stati più tape out e ritardi colossali.
x quanto riguarda il discorso del "gonfiare le freq." vedi sopra oppure se vuoi guarda la pag. relativa all'overclock e confronta i risultati con i filtri abilitati a qualsiasi risultato con le g70 overclockate e non e vedi la differenza.
in ogni caso se una scheda nasce in quel modo e con quella freq nn è colpa sua, il prodotto è quello.
x quanto riguarda i tape out e i ritardi all'utente finale deve interessare poco o nulla, hanno tirato fuori una scheda grafica con un processo produttivo nuovo (per primi) il progetto è mooolto diverso dalla precedente serie (al contrario di g70) se poi, tu sarai + c0ontento nel vedere una g71 con un processo produttivo a 0.9 e 512 mb di ram fatti tuoi, io ammiro di + un cambiamento del genere...
Sul discorso innovativo che possa o meno generare una migliore qualità video è poco percepibile soprattutto in giochi frenetici...alias...
Non è che nvidia fa schede che ti fanno visualizzare i giochi in bianco e nero e Ati a colori...alla fine ste differenze non le noti.
se permetti nn lo decidi tu quale sia la linea di confine tra qualità e prestazioni, se per te avere un incremento di qualità anche solo a parità di prestazione è inutile allora farai meglio ad aggiungerci un grosso IMHO.
Sulla longevità infine, davvero un FLOP. Con R580 ormai da un po' in tape out, si può dire che la X1800XT si ritroverà ben presto in fascia media o medioalta, ciò significa che comprarla ora sarebbe una mossa poco intelligente.
tu non sai quando uscirà R580, il fatto che sia in tape out nn vuol dire niente, imho, r580 uscirà x controbattere una eventuale soluzione nvidia e r520 scenderà di fascia esattamente come è successo x le 6800 ultra.
Su features tanto sbandierate e non supportate ancora dai giochi attuali invece, ci vedo un plus davvero lodevole, come quando nVidia introdusse i PS e VS 3, che tutti sminuivano in quanto inutili nell' immediato. Come mai non fate la stessa cosa per Ati adesso?
nn hai letto quanto detto da chi ha fatto far cry, nn ci vuole molto ad abilitare quelle funzioni e in ogni caso quando parli di p.s.3 se nn erro l'unico gioco sul mercato che poteva supportarle in maniera significativa era far cry (ma potrei sbagliarmi) in ogni caso io trovo molto + "pratico" il risultato dell'implementazione dell'hdr+AA (vedi gli screenshot di far cry)
byez
Originariamente inviato da bartolino3200
Magari esponici prima il tuo :D illuminaci. :)
il mio coincide esattamente con quello evidenziato da Raffaele nella recensione
Efficienza in un chip grafico significa riuscire a compiere più operazioni possibili non lasciando nessuna unità "disoccupata" o in attesa dei dati
e l'architettura di G70, in confronto a quella di R520, è palesemente meno efficiente visto che ha bisogno di 24 pixel pipeline per sfoggiare quei risultati
R520 ha 16 pixel pipeline ma ne ha altre dedicate ad ogni singolo scopo, oltre al fatto di avere ALU e TMU indipendenti
in breve, ogni unità di calcolo può fare il suo lavoro senza dover aspettarne altre o, peggio, fare quello di altre unità
bYeZ!
ghibli2307
12-10-2005, 13:11
I mie complimenti per l'analisi vereamte ineccebile copleta e chiarificativa, nonche molto bella da laeggere.!
E complimenti ad ATI che come al solito si dimostra una grande casa!
Sammy.73
12-10-2005, 13:11
Al 5 novembre data in cui si spera di trovare schede in commercio saranno 7 mesi per la precisione :ahahah:
infatti la 7800gtx è stata presentata al 5 Aprile... :D
:doh:
bartolino3200
12-10-2005, 13:13
Yossarian sta ancora spettando chiarimenti da Bartolino in un thread, dove ha fatto gli stessi identici commenti, parlando di efficienza e frequenze tirate all'osso. Ovviamente spiegazioni mai avvenute, magari lo farà, anzi lo farete qui. Di là si è eclissato, aspettando il momento di risaltare fuori di qua, ora vediamo qua cosa combina :)
Intanto ha tirato fuori Linux come è solito fare :rotfl:
E per questo non dormo la notte :ronf:
Cmq avevo semplicemente cancellato la mia iscrizione a quel 3d, per cui non mi sono nemmeno più interessato di darli una sola lettura, visto che ogni volta mi cacciate a pedate. Tanto ci siete voi e bastate voi quando si parla di ATI, mi sa che tolgo l' incomodo anche da qui e buon proseguimento...
Vedo che la mia vita nel forum ti interessa parecchio.
Spiegazioni? Non sono un professore.
Dico solo che se r520 per stare alla pari con G70 deve avere quelle frequenze con quei consumi nonostante i 90 nanometri...mi ricorda tanto il Pentium4...anche se il confronto centra poco mi viene in mente questa analogia che in fondo qualcosa di vero in sè possiede.
rutto gradirei sapere in due righe il tuo concetto di efficienza
bYeZ!
ahahaha ma dai, uno che ha _ati_ nel nick, se non e' di parte..
stasera prendo in mano una enciclopedia e provo ad argomentare. intanto chiariamo se si sta parlando di "efficienza energetica" -> a parita' di consumi maggiori prestazioni o "efficienza di produzione" -> numero di gpu che vengono fuori sane dalle fonderie (le gpu si fanno in fonderia lo sapevate :cool: ) o ancora di efficienza intesa come prestazioni in rapporto prezzo o in rapporto al numero di transistor o chessoio.
discutiamoci sopra, magari cissimette tutti d'accordo :stordita:
Cmq avevo semplicemente cancellato la mia iscrizione a quel 3d, per cui non mi sono nemmeno più interessato di darli una sola lettura, visto che ogni volta mi cacciate a pedate.
Se fai certe affermazioni devi essere anche in grado di sostenerle.
Vedo che la mia vita nel forum ti interessa parecchio.
Non ci dormo la notte.
Spiegazioni? Non sono un professore.
:rotfl:
Quindi tutto quello che dici te lo inventi semplicemente? Non sei in grado di sostenere nulla di quanto affermi? Poi ti stupisci se ti "cacciano a pedate" dai thread :rotfl:
Dico solo che se r520 per stare alla pari con G70 deve avere quelle frequenze con quei consumi nonostante i 90 nanometri...mi ricorda tanto il Pentium4...anche se il confronto centra poco mi viene in mente questa analogia che in fondo qualcosa di vero in sè possiede.
E G70 per stare alla pari cosa deve avere? Perchè noto differenze abissali utilizzando filtri, hdr, hdr+aa (ops scusa, questo non c'entra :asd: ) e shader complessi.
ahahaha ma dai, uno che ha _ati_ nel nick, se non e' di parte..
stasera prendo in mano una enciclopedia e provo ad argomentare. intanto chiariamo se si sta parlando di "efficienza energetica" -> a parita' di consumi maggiori prestazioni o "efficienza di produzione" -> numero di gpu che vengono fuori sane dalle fonderie (le gpu si fanno in fonderia lo sapevate :cool: ) o ancora di efficienza intesa come prestazioni in rapporto prezzo o in rapporto al numero di transistor o chessoio.
discutiamoci sopra, magari cissimette tutti d'accordo :stordita:
Cioè praticamente stiamo discutendo di qualunque tipo di efficienza presa a caso tanto per dimostrare che una delle due va sempre meglio dell'altra?
Divertente...
Sammy.73
12-10-2005, 13:19
cerchiamo di non trasformarla nella solita guerriglia... :mad:
Bella scheda, ma con un ritardo di 4/5 mesi mi sarei aspettato prestazioni più elevate rispetto a G70 che a 430Mhz è praticamente dwoncloccato...
ricordiamo che a 399 oggi si trova una 7800GT...
cerchiamo di non trasformarla nella solita guerriglia... :mad:
Io scherzo, tanto comunque la rigiri certa gente non ce la fa proprio a dire certe cose. Gli si bloccano in gola :asd:
bartolino3200
12-10-2005, 13:24
cerchiamo di non trasformarla nella solita guerriglia... :mad:
I paladini della giustizia sono sempre in agguato...e con tanto di simpatia :)
Foglia Morta
12-10-2005, 13:24
L'HDR anche fa molto uso della banda passante ecco perchè si ben comporta. :)
Ovvio che abilitando poi anche l'AA e l'AF ancora di più pesa. :)
Cmq mi son dimenticato di dire nel commento precedente: penso bisogna elogiare la possibilità di usare l'AA + HDR proprio perchè è qualcosa in più. Proprio come un anno e mezzo fa le 6800 avevano lo SM 3.0 e le controparti Ati no. Allora c'era gente che denigrava lo SM 3.0 e bla bla...!! Tra l'altro cosa sbagliata. Proprio perchè avere qualcosa in più è solo una cosa positiva.
Adesso stessa situazione l'HDR + AA dell'R520 rispetto al G70. E' una cosa in più, quindi una cosa positiva.
Non bisogna elogiare/denigrare solo quando fa comodo(mi riferisco a chi denigrava lo sm 3.0 e chi non prende in considerazione l'HDR+AA). Bisogna essere invece coerenti. :)
non mi pare sia dovuto alla banda passante la differenza perchè 7800GT e X1800XL l' hanno precisa spaccata identica, eppure :
http://www.hwupgrade.it/articoli/1361/fc_hdr_4.png
mi pare un abisso
Efficienza, efficienza, efficienza... sembra un disco incantato.
Però, si sono dimenticati dell'efficienza energetica: 'ste cose consumano TROPPO (non che le nVidia siano meglio). Ma dico, 150W in idle? Fate un po' i conti di quanto vi costa la corrente e starete alla larga da queste mostruosità, specie se poi lo lasciate a scaricare: comprate un notebook di seconda mano e un hd usb e recupererete i soldi nel giro di pochi mesi.
La recensione è assolutamente una FAVOLA. L'ho letta con grandissimo interesse , dalla prima all'ultima pagina , e devo ammettere che in pratica è perfetta.
Complimenti.
Riguardo la scheda ?? nn ho parole , fantastica . Da quando ho montato un'R300 nel mio case sono sempre stato Pro ATi , ma pur ammettendo che la 7800GTX è una bomba di scheda, questa X1800 è qualcosa di sensazionale su questo panorama schede video sin troppo grigio dall'ormai lontano 2002.....
Mi hanno particolarmente colpito l'impatto sulle prestazioni dei filtraggi , il vataggio di ATi con i filtri attivi , specialmente a FarCry e Battlefield2 ...per nn parlare del confronto fra R520 e SLi......
Italian Soldier
12-10-2005, 13:31
Raga scusate, ma nessuo mi sa dire nulla di test su HL2?????????????????????????????????????????????????????????????????????????????????????????????
E su CSS??????????????
Mah, tanto alla fine decideranno i nostri eurini che abbiamo nelle tasche, o gli organi non vitali che ci sono rimasti dopo gli acquisti di 6800ultra è x850xt PE.
Io dico solo che quei soldi sono troppi 1.000.000 del vecchio conio! Boh! Resta solo che sognare.
Scusate ma ora Sasser quello di Hardware Analysis e i suoi benchmark che fine hanno fatto? :P
Grandissima ATI e bravissimo Raffaele per la sua incredibile recensione! Valeva davvero la pena di aspettare.
Raga ma stiamo parlando di qualche fps in piu' dai su non trastulliamoci con queste che secondo me sono solo delle banalita'.
Ma sono l'unico che sostiene tutte e due le case madri???
Nvidia ha fatto una gran cosa con la sua 7800 gtx e Ati non è stata con le mani in mano!
Come sempre ripeto:
Il videogiocatore incallito che vuole utilizzare due schede video e limitarsi a giocare e dilettarsi in overclock moderati optera' per una soluzione ATI.
Il clokkatore che vuole overclock altissimi e stabili sul suo sistema e puntare su un sistema video sempre con due VGA puntera' su NVIDIA senza dubbio ora come ora è la soluzione che adotterei... anzi che ho gia' adottato! :D
Il chipset NF4 è troppo maturo nei confronti del chipset ATI.
leoneazzurro
12-10-2005, 13:34
Efficienza in un chip grafico significa riuscire a compiere più operazioni possibili non lasciando nessuna unità "disoccupata" o in attesa dei dati
e l'architettura di G70, in confronto a quella di R520, è palesemente meno efficiente visto che ha bisogno di 24 pixel pipeline per sfoggiare quei risultati
No, i confronti sull'efficienza sono a parità di "pipeline" (su G70 ne sono state disabilitate 8 a parità di frequenza, ossia a 450 MHz, 24 lavorano a 300 MHz). Comuqnue da tutti i test in rete si è visto che nell'esecuzione di PS 2.0-3.0 G70 è più efficiente, tranne che nei test che utilizzano il dynamic branching, nel qual caso la situazione si ribalta completamente.
R520 ha 16 pixel pipeline ma ne ha altre dedicate ad ogni singolo scopo, oltre al fatto di avere ALU e TMU indipendenti
in breve, ogni unità di calcolo può fare il suo lavoro senza dover aspettarne altre o, peggio, fare quello di altre unità
bYeZ!
Passi ALU e TMU indipendenti (le ha anche R300), forse volevi dire separate dalle unità pixel shader, ma spiegami il discorso delle altre pipelines...
Non capisco soprattutto il COME una unità dedicata ad un certo compito possa fare il lavoro di un'altra unità dedicata ad un altro compito...
Le vertex pipelines sono separate sia in G70 che in R520.
In G70 le TMU sono poste all'interno delle pixel pipelines (e quindi sono dedicate alle unità PS), in R520 sono connesse tramite il ring bus (e quindi possono servire qualunque unità PS). Però questo a priori non dice nulla sulle prestazioni, sicuramente l'implementazione di R520 è molto efficiente, questo non vuol dire che separando le TMU dai PS automaticamente ottieni la soluzione più veloce. Ci debbono essere altri requisiti (che R520 soddisfa tramite ring bus e array di registri)
La novità che consente a R520 di utilizzare HDR (versione FP blending) e AA insieme è l'indipendenza delle ROPs dai PS.
Non che poi questi discorsi di efficienza a parità di MHz e pipe poi contino più di tanto, perchè nè R520 ha 24 Pixel pipelines, nè G70 può andare a 625 MHz a 0.11, quindi l'unico risultato è quello dei bench con le schede a default.
In questi casi la X1800XT, dove conta (AA+AF+ eventuale HDR) è avanti (tranne in OpenGL, per chi serve), anche se non in tutti i casi in modo eclatante. Ed anche se le prestazioni fossero identiche, IMHO la mia preferenza andrebbe alla scheda con la migliore qualità i immagine.
Una sola perplessità: lo street price di X1800XT.
bartolino3200
12-10-2005, 13:34
...x quanto riguarda i tape out e i ritardi all'utente finale deve interessare poco o nulla, hanno tirato fuori una scheda grafica con un processo produttivo nuovo (per primi)
byez[/QUOTE]
Spero sia davvero disponibile il 5 Novembre altrimenti rimarrà un prototipo da laboratorio.
il progetto è mooolto diverso dalla precedente serie (al contrario di g70) se poi, tu sarai + c0ontento nel vedere una g71 con un processo produttivo a 0.9 e 512 mb di ram fatti tuoi, io ammiro di + un cambiamento del genere...
E questa da dove l' hai pescata? Non ho letto nulla di ufficiale se magari riporti la fonte...
G71? Ma non è che i rumors quando vifan no comodo li tirate fuori ?
Sammy.73
12-10-2005, 13:34
I paladini della giustizia sono sempre in agguato...e con tanto di simpatia :)
:mano: sono il tuo "amichevole spider-man di quartiere" :D
http://www.celebsa-z.com/movie_pics/spider.jpg
yossarian
12-10-2005, 13:37
complimenti Raffaele, ottima recensione, completa e dettagliata :)
A tutti quelli che continuano a sparare ca@@ate su overclock, overvolt, efficienza e frequenze, faccio una sola domanda:
conoscete la differenza tra un'architettura come quella di R520 e una come quella di G70, a livello di logica di funzionamento?
Se si, allora vi invito a esporla; altrimenti vi consiglio di documentarvi.
Discorso analogo in merito a numero di transistor e tensioni di alimentazione
bartolino3200
12-10-2005, 13:38
Efficienza, efficienza, efficienza... sembra un disco incantato.
Però, si sono dimenticati dell'efficienza energetica: 'ste cose consumano TROPPO (non che le nVidia siano meglio). Ma dico, 150W in idle? Fate un po' i conti di quanto vi costa la corrente e starete alla larga da queste mostruosità, specie se poi lo lasciate a scaricare: comprate un notebook di seconda mano e un hd usb e recupererete i soldi nel giro di pochi mesi.
150 non solo per la scheda ma tutto il sistema di prova escluso il monitor, c'è una bella differenza direi.
Le prova si spera siano sempre fatte a parità di HW eccetto la gpu ovvio ;)
bartolino3200
12-10-2005, 13:42
il mio coincide esattamente con quello evidenziato da Raffaele nella recensione
Efficienza in un chip grafico significa riuscire a compiere più operazioni possibili non lasciando nessuna unità "disoccupata" o in attesa dei dati
e l'architettura di G70, in confronto a quella di R520, è palesemente meno efficiente visto che ha bisogno di 24 pixel pipeline per sfoggiare quei risultati
R520 ha 16 pixel pipeline ma ne ha altre dedicate ad ogni singolo scopo, oltre al fatto di avere ALU e TMU indipendenti
in breve, ogni unità di calcolo può fare il suo lavoro senza dover aspettarne altre o, peggio, fare quello di altre unità
bYeZ!
:confused:
Poi sono io a spararle...
bartolino3200
12-10-2005, 13:45
complimenti Raffaele, ottima recensione, completa e dettagliata :)
A tutti quelli che continuano a sparare ca@@ate su overclock, overvolt, efficienza e frequenze, faccio una sola domanda:
conoscete la differenza tra un'architettura come quella di R520 e una come quella di G70, a livello di logica di funzionamento?
Se si, allora vi invito a esporla; altrimenti vi consiglio di documentarvi.
Discorso analogo in merito a numero di transistor e tensioni di alimentazione
Bla bala bla bla...
Ma alla fine stiamo là come prestazioni? SI
E allora non facciamola più grossa di quello che è con paroloni comprensibili a pochi...
Le prestazioni sono allineate, l' unica vera differenza è che 7800GTX la trovi da mesi X1800XT tutt' ora non si vede.
Senza sparare ca@@ate, giusto per mantenermi coerente al modo di esprimerti, la X1800XT per eguagliare 24 pipeline "deve" andare su di frequenza, e poi mi fate titoli ove "16 pipeline sono meglio di 24" ...
intanto chiariamo se si sta parlando di "efficienza energetica" -> a parita' di consumi maggiori prestazioni o "efficienza di produzione" -> numero di gpu che vengono fuori sane dalle fonderie (le gpu si fanno in fonderia lo sapevate :cool: ) o ancora di efficienza intesa come prestazioni in rapporto prezzo o in rapporto al numero di transistor o chessoio.
Credo che il recensore intendesse efficienza come prestazioni a parità di clock e pipeline... cosa che per me non ha molto senso per orientarsi in un acquisto - io guarderei più alle prestazioni in rapporto al prezzo ed eventualmente ai consumi.
Jimmy3Dita
12-10-2005, 13:55
...Sono contento che finalmente si sa "nero su bianco" come va questa scheda, e se da un lato il risultato e' incoraggiante, dall'altro sono "contento" di non averla aspettata, e di aver preso una 7800gtx qualche mese fa.
Le differenze, come avevo già previsto (ma mi avete linciato, scrissi "sarà una questione di lana caprina"), non sono "abissali", a parte alcune situazioni (di vantaggio cmq marginale) che l'utente medio non sfrutterebbe appieno (vedi 1600x1200 filtri abilitati.. chi ha ancora un 19-20 pollici crt sulla scrivania!?).
Giusto basarsi sui test per "saggiare" l'architettura, ma a conti fatti (cioe' risoluzione 1280x1024 filtri abilitati) vale davvero la pena attendere ancora un mese per qualche FPS in piu?
Speriamo che R580 inverta la situazione - e sembrerebbe cosi' -, perche' non si possono aspettare mesi leggendo di "vaporware e tape-out" per poi andare a negozio e trovare solo le x700pro.
Domanda "da niubbo": come mai non sono stati fatti test della GTX a 24 pipeline/450mhz?
Spero sia davvero disponibile il 5 Novembre altrimenti rimarrà un prototipo da laboratorio.
la 1800 xl è già disponibile presso alcuni siti
E questa da dove l' hai pescata? Non ho letto nulla di ufficiale se magari riporti la fonte...
G71? Ma non è che i rumors quando vifan no comodo li tirate fuori ?
nn ci siamo capiti...
hai estrapolato una frase da un discorso intero, il mio era un esempio per farti capire che c'è differenza tra l'apportare modifiche di processo produttivo a un progetto già collaudato e invece tirare fuori una scheda nel complesso "NUOVA".
tu parlavi di consumi, aspettandoteli minori io ti ho risposto che me ne sbatto dei consumi uguali se la tecnologia implementata rimane =.
nn so se nvidia farà uscire una g7x a 0.9 e + ram oppure no e a dirti la verità dovrebbe interessare poco dal punto di vista "evolutivo" delle gpu.
questa r520 è una scheda nuova che porta molte innovazioni tecnologiche che tu lo voglia o no.
r480 era un chip "sfruttato" fino all'osso e r520 è un'altra cosa.
lo stesso nn si può dire del g70. ora è da vedere se nvidia resterà su quel progetto base o no (secondo me si).
V4n{}u|sH
12-10-2005, 13:56
Che recensione ragazzi... Complimentoni ;)
Lud von Pipper
12-10-2005, 13:58
Su features tanto sbandierate e non supportate ancora dai giochi attuali invece, ci vedo un plus davvero lodevole, come quando nVidia introdusse i PS e VS 3, che tutti sminuivano in quanto inutili nell' immediato. Come mai non fate la stessa cosa per Ati adesso?
Si lo so, ma OpenGL non significa solo giochi.
Se posso avere una scheda grafica che mi fa giocare al massimo e nello stesso tempo, mi da la possibilità di un ottimo supporto OpenGL e quindi di molto Software in circolazione è sicuramente meglio (e per quei pochi disgraziati che usano Linux...:ops: che ho detto Linux, adesso avverrà il linciaggio di bartolino)... ;)
Ciao.
AVIVO è una feature eccellente e slegata dai giochi: al momento in cui sarà disponibile tutti ne beneficeranno, al contraro dei PS3 VS3 che francamente sono ancora in altomare (e chi ha preso una 6800 che cosa se ne farà?)
Però, siccome non eccelle (ma non fa neppure schifo in OGL, allora guai!)
ma come ragioni?!? :rolleyes:
Mi pare una scheda di transizione così come la serie 7800; chi ha 800/850 o 6800/6800Gt può stare tranquillo.
Il VGA Silencere della XT poteva essere fatto meglio.
:fagiano:
bartolino3200
12-10-2005, 14:04
Mi pare una scheda di transizione così come la serie 7800; chi ha 800/850 o 6800/6800Gt può stare tranquillo.
Il VGA Silencere della XT poteva essere fatto meglio.
:fagiano:
Concordo in toto.
yossarian
12-10-2005, 14:05
In G70 le TMU sono poste all'interno delle pixel pipelines (e quindi sono dedicate alle unità PS), in R520 sono connesse tramite il ring bus (e quindi possono servire qualunque unità PS). Però questo a priori non dice nulla sulle prestazioni, sicuramente l'implementazione di R520 è molto efficiente, questo non vuol dire che separando le TMU dai PS automaticamente ottieni la soluzione più veloce. Ci debbono essere altri requisiti (che R520 soddisfa tramite ring bus e array di registri)
in realtà, in R520 le tmu sono raggruppate a 4 a 4 e ogni gruppo è dedicato ad un quad. In questo modo l'efficienza può aumentare in quanto, nel caso di tmu integrata nelle pixel pipeline, nel caso di istruzioni texture bounded l'intera pipeline resta in idle, in attesa del termine del lavoro della tmu; con un'architettura come quella di R520 si possono avere più tmu (fino a 4) che lavorano sulla stessa operazione (questo senza tener conto della possibilità di utilizzare l'array di registri dedicati ai ps, per parcheggiare temporaneamente i dati).
La novità che consente a R520 di utilizzare HDR (versione FP blending) e AA insieme è l'indipendenza delle ROPs dai PS.
anche in questo caso, occorre un piccolo chiarimento (anche in merito a quanto ho scritto sull'argomento). Per l'applicazione dell'hdr sono necessari 4 requisiti: fp shading (fpu), fp blennding (rop's), fp filtering (fragment processor), fp texturing (tmu) e, infine, poichè la destinazione è un dispositivo a i8 per canale, un'operazione di tone mapping.
G70 è in grado di svolgere tutte le operazioni sopra esposte, come pure, ovviamente R520. Il problema sorge al momento dell'esecuzione del tone mapping (che nel caso dell'algoritmo di OpenEXR, non è altro che una compressione di tipo log). In G70 non esistono unità dedicate alle operazioni di compressione e decompressione nelle rop's e il tutto è eseguito dalle psu. In R520, invece, ci sono unità dedicate a compressione e decompressione logaritmica all'interno delle rop's. In G70, i dati elaborati a fp16 dal fragment processor sono sottoposti a blending a fp16 nelle rop's, ma non possono essere mescolati con i dati a i8 prodotti dal dispositivo che si occupa del MSAA; quindi vengono inviati alle psu che esguono il tone mapping, trasformandoli in i8 e inviandoli al fb; a questo punto i dati inviati vanno a sovrascrivere quelli elaborati in i8 dal MSAA processor. In R520, invece, i dati escono in fp16 dal fragment processor, sono sottoposti a blending fp16 nelle rop's, vengono compressi in i8, sottoposti, eventualmente ad AA e mescolati ai dati provenienti dalle elaborazioni del MSAA sulle primitive (anch'essi a i8), all'interno di un color buffer.
bartolino3200
12-10-2005, 14:07
...Sono contento che finalmente si sa "nero su bianco" come va questa scheda, e se da un lato il risultato e' incoraggiante, dall'altro sono "contento" di non averla aspettata, e di aver preso una 7800gtx qualche mese fa.
Le differenze, come avevo già previsto (ma mi avete linciato, scrissi "sarà una questione di lana caprina"), non sono "abissali", a parte alcune situazioni (di vantaggio cmq marginale) che l'utente medio non sfrutterebbe appieno (vedi 1600x1200 filtri abilitati.. chi ha ancora un 19-20 pollici crt sulla scrivania!?).
Giusto basarsi sui test per "saggiare" l'architettura, ma a conti fatti (cioe' risoluzione 1280x1024 filtri abilitati) vale davvero la pena attendere ancora un mese per qualche FPS in piu?
Speriamo che R580 inverta la situazione - e sembrerebbe cosi' -, perche' non si possono aspettare mesi leggendo di "vaporware e tape-out" per poi andare a negozio e trovare solo le x700pro.
Domanda "da niubbo": come mai non sono stati fatti test della GTX a 24 pipeline/450mhz?
Io mi faccio le stesse domande da un po' di giorni, ovviamente sono daccordo con te.
yossarian
12-10-2005, 14:07
Bla bala bla bla...
Ma alla fine stiamo là come prestazioni? SI
E allora non facciamola più grossa di quello che è con paroloni comprensibili a pochi...
Le prestazioni sono allineate, l' unica vera differenza è che 7800GTX la trovi da mesi X1800XT tutt' ora non si vede.
Senza sparare ca@@ate, giusto per mantenermi coerente al modo di esprimerti, la X1800XT per eguagliare 24 pipeline "deve" andare su di frequenza, e poi mi fate titoli ove "16 pipeline sono meglio di 24" ...
contuinui a dire cose inesatte e senza senso oltre a fare esercizi di :mc:
yossarian
12-10-2005, 14:09
...Sono contento che finalmente si sa "nero su bianco" come va questa scheda, e se da un lato il risultato e' incoraggiante, dall'altro sono "contento" di non averla aspettata, e di aver preso una 7800gtx qualche mese fa.
Le differenze, come avevo già previsto (ma mi avete linciato, scrissi "sarà una questione di lana caprina"), non sono "abissali", a parte alcune situazioni (di vantaggio cmq marginale) che l'utente medio non sfrutterebbe appieno (vedi 1600x1200 filtri abilitati.. chi ha ancora un 19-20 pollici crt sulla scrivania!?).
Giusto basarsi sui test per "saggiare" l'architettura, ma a conti fatti (cioe' risoluzione 1280x1024 filtri abilitati) vale davvero la pena attendere ancora un mese per qualche FPS in piu?
Speriamo che R580 inverta la situazione - e sembrerebbe cosi' -, perche' non si possono aspettare mesi leggendo di "vaporware e tape-out" per poi andare a negozio e trovare solo le x700pro.
Domanda "da niubbo": come mai non sono stati fatti test della GTX a 24 pipeline/450mhz?
per giocare a risoluzioni "umane" non serve neppure una 7800 GTX
bartolino3200
12-10-2005, 14:13
contuinui a dire cose inesatte e senza senso oltre a fare esercizi di :mc:
Scusa ma come fai a dire che sono inesatte e senza senso?
7800GTX + pipeline -frequenza
X1800XT - pipeline +frequenza
Risultato, prestazioni allineate.
Ora dimmi dove queste 16 pipeline sono "Meglio" (bruttino il titolo cmq sembra romanesco) di 24 in quanto a pure prestazioni. Una manciata di FPS?
E' chiaro lo schemino, o capisci solo fpu, alu, dott., ing., avv., kgb, ss, urss :D
Bla bala bla bla...
Ma alla fine stiamo là come prestazioni? SI
E allora non facciamola più grossa di quello che è con paroloni comprensibili a pochi...
Le prestazioni sono allineate, l' unica vera differenza è che 7800GTX la trovi da mesi X1800XT tutt' ora non si vede.
Senza sparare ca@@ate, giusto per mantenermi coerente al modo di esprimerti, la X1800XT per eguagliare 24 pipeline "deve" andare su di frequenza, e poi mi fate titoli ove "16 pipeline sono meglio di 24" ...
m...
io dico che tu la recensione nn l'hai letta bene....
se fosse come dici te (e così non è) potremmo prendere come esempio la 1800xl
ha 100 mhz in + sul core rispetto e 4 pipe in meno rispetto alla 7800gt
orai vai a guardarti tutti i test con filtri impiegati e dimmi quante volte sta sotto e in quali giochi e non puoi tirare fuori neanche la scusa dei 512 mb di ram.
queste schede sono nate x girare a queste frequenze.
nn dare la colpa ad ati di questo, fattene una ragione.
e ci mancava solo che fosse inferiore... ragazzi è arrivata 5/6 mesi dopo.. sopratutto quelle frequenze ultra pompate... inoltre bisogna considerare anche la vita di questa scheda che non mi sembra affatto lunga. Insomma per chi ha G70/R420/NV40 non mi pare che gli convenga cambiare e per chi vuole farsi una scheda video nuova gli conviene aspettare. Questo non vuole sminuire le prestazioni però mi aspetto una contromossa da parte di nvidia una vga ultra pompata.
bartolino3200
12-10-2005, 14:14
m...
io dico che tu la recensione nn l'hai letta bene....
se fosse come dici te (e così non è) potremmo prendere come esempio la 1800xl
ha 100 mhz in + sul core rispetto e 4 pipe in meno rispetto alla 7800gt
orai vai a guardarti tutti i test con filtri impiegati e dimmi quante volte sta sotto e in quali giochi e non puoi tirare fuori neanche la scusa dei 512 mb di ram.
queste schede sono nate x girare a queste frequenze.
nn dare la colpa ad ati di questo, fattene una ragione.
Maronna mia, tutto sto casino per farvi cpire che come prestazioni siamo grossomodo alla pari?
yossarian
12-10-2005, 14:16
Scusa ma come fai a dire che sono inesatte e senza senso?
7800GTX + pipeline -frequenza
X1800XT - pipeline +frequenza
Risultato, prestazioni allineate.
Ora dimmi dove queste 16 pipeline sono "Meglio" (bruttino il titolo cmq sembra romanesco) di 24 in quanto a pure prestazioni. Una manciata di FPS?
E' chiaro lo schemino, o capisci solo fpu, alu, dott., ing., avv., kgb, ss, urss :D
continui a dimostrare tutta la tua ignoranza, oltre alla tua partigianeria.
Io, almeno, qualcosa capisco; tu invece? :D
p.s. sto ancora aspettando delle risposte; cerca di dimostrare di non essere solo capace di blaterare a vanvera :Prrr:
zanardi84
12-10-2005, 14:19
Ottima recensione (come sempre, del resto)!
Venendo al quid: la settimana scorsa mi chiedevo se questo fosse l'erede di r300. Purtroppo, la risposta è no! Sia ben chiaro: questo è un mostro di potenza, ma alla fine è solo di poco più veloce di G70. Quello che fa uno, lo fa anche l'altro, nello stesso modo o un filo meglio.
R300 faceva cose che nessun altro era in grado di fare: r300 con AA 2x andava più forte della Ti4600 senza filtri, in qualsiasi gioco. Oggi, invece, ci sono giochi più o meno ottimizzati per una architettura piuttosto che per l'altra (in primis il solito Doom 3, in cui Nvidia è ancora davanti).
In generale, quindi, il netto vantaggio che si era manifestato al tempo, è scomparso. In questo triennio, Nvidia ha lavorato sodo e si è evoluta. Le prestazioni sono, tutto sommato, allinete.
In definitiva la risposta alla mia domanda è NO, alla luce soprattutto di un fatto piuttosto evidente: L'hype che ha campeggiato nei mesi scorsi. In qualche modo era un risultato quasi scontato (e volevo ben vedere! si parlava da mesi di prestazioni mostruose, superiori alla concorrenza: vi immaginate se G70 fosse rimasto davanti?)
Se non ricordo male R300 fu quasi come un fulmine a ciel sereno! Non a caso la Geforce 5 non fu mai messa sul mercato! Nvidia fu presa in contropiede.
In conclusione che dire di questa X1800?
Mi pare di capire che la nuova strategia si sia basata su un notevole miglioramento di ciò che c'era (la potenza bruta non è aumentata di uno sproposito, leggi pipeline), sono state cambiate molte cose, ma altre sono rimaste tali. Una decisa evoluzione, ma non una rivoluzione (squadra vincente non si cambia!)
A mio avviso, l'aspetto in cui Ati fa veramente la differenza è la superba qualità d'immagine, in qualsiasi combinazione di filtri/risoluzione.
Forse con r580 avremo il salto definitivo, con una vera iniezione di potenza in più, capace di distanziare definitivamente la concorrenza, sempre che Nvidia non abbia già un asso nella manica per i prossimi mesi.
Foglia Morta
12-10-2005, 14:19
Io mi faccio le stesse domande da un po' di giorni, ovviamente sono daccordo con te.
:confused: ma sei tarantolato da questo R520? una ventina di commenti solo in questa discussione per poi non dire nulla.
Comunque volevo chiedere una cosa a chi se ne intende, premetto che non conosco la logica di funzionamento di R520 ; nell' introduzione della rece si loda la flessibilità di R520 con le unità di calcolo , può significare che R580 potrà avere 24 pipe ( e magari rops ) ?
chiamatemi pure stupido o fanatico , ma secondo me nvidia ha vinto comunque ... è ben vero infatti che la x1800xt è più veloce , anche se non di molto , della 7800gtx , ma nella maggior parte dei giochi veramente pesanti nvidia vince ...
inoltre ati costa molto di più , appunto perchè è appena uscita ... x1800xl secondo me non se la compra nessuno , dato che è inferiore alla 7800gt e allo stato attuale costa anke di + ... sicuramente però le soluzioni di fascia media e bassa dell r520 sono molto interessanti .
poco dopo l'uscita effettiva di r520 ( nei negozi ) nvidia comunque sfornerà la 7800gtx con 512mb di mem e freq. aumentate e a quel punto credo che potrà battere la concorrente ati ... senza contare che all'inizio del 2006 si prevede l'uscita delle gpu nvidia a 90nm ... li poi si vedrà ...
complimenti comunque ad ati , la quale , secondo i rumors , stava nei casini più neri , ma a quanto pare ne è uscita vittoriosa , almeno dal punto di vista velocistico ( solo la x1800xt però :rolleyes: ) ...
yossarian
12-10-2005, 14:21
nei test, con G70 avete forzato sempre l'utilizzo di fp32?
Scusa ma come fai a dire che sono inesatte e senza senso?
7800GTX + pipeline -frequenza
X1800XT - pipeline +frequenza
Risultato, prestazioni allineate.
Ora dimmi dove queste 16 pipeline sono "Meglio" (bruttino il titolo cmq sembra romanesco) di 24 in quanto a pure prestazioni. Una manciata di FPS?
E' chiaro lo schemino, o capisci solo fpu, alu, dott., ing., avv., kgb, ss, urss :D
Ma non è che tu ci stai prendo in giro intenzionalmente ? :confused:
^TiGeRShArK^
12-10-2005, 14:22
Titolo al quanto discutibile e di parte.
Personalmente sta scheda non mi convince.
Siete gli unici al mondo ad averla recensita come più silenziosa di una 7800GTX :confused:
Nonostante il processo produttivo a 90 nanometri, e solo 16 pipeline consuma più di una 7800GTX.
Mi ricorda tanto il Pentium 4, tutto frequenze e poca efficienza.
Adesso tutti a comprarla... :ops: a trovarla...
Intanto l' ombra di r580 si fa sempre più vicina, dando a questa scheda vita breve...
:rotfl:
tutta frequenza e poca efficienza???
ma l'hai letta l'analisi dell'efficienza delle varie arkitetture o avevi i prosciutti nvidia sugli okki???
certo ke nn t convince...eri tra quelli ke si divertivano a spalare merxa solo in base ai rumours...
mentre c'era gente competente ke t ha detto SUBITO ke quei bench preliminari erano tarokki (io te l'ho detto pure, ma nn m sogno x nulla d mettermi tra la gente competente in materia).
e poi il titolo sarebbe d parte xkè non osanna le skede nvidia km vorresti tu...:rolleyes:
ti consiglierei di rileggerti CON ATTENZIONE l'ottimo articolo pubblicato, xkè m sa ke t è sfuggito qualcosa...
Maronna mia, tutto sto casino per farvi cpire che come prestazioni siamo grossomodo alla pari?
non è assolutamente vero
x me distacchi fino a 30 fps a filtri abilitati nn sono prestazioni "grossomodo" alla pari (1800xt)
con filtri abilitati la xl (che gira a 70mhz di core in + e 200 in meno sulle ram) se la gioca con la gtx
ah già... ha 16 pipe invece che 24....
dimmi se nn ho ragione... :D
yossarian
12-10-2005, 14:23
:confused: ma sei tarantolato da questo R520? una ventina di commenti solo in questa discussione per poi non dire nulla.
Comunque volevo chiedere una cosa a chi se ne intende, premetto che non conosco la logica di funzionamento di R520 ; nell' introduzione della rece si loda la flessibilità di R520 con le unità di calcolo , può significare che R580 potrà avere 24 pipe ( e magari rops ) ?
R580 potrebbe avere 48 MAD contro le 16 di R520, con un'architettura a quad tipo quella di RV530 moltiplicata per 4
leoneazzurro
12-10-2005, 14:23
in realtà, in R520 le tmu sono raggruppate a 4 a 4 e ogni gruppo è dedicato ad un quad. In questo modo l'efficienza può aumentare in quanto, nel caso di tmu integrata nelle pixel pipeline, nel caso di istruzioni texture bounded l'intera pipeline resta in idle, in attesa del termine del lavoro della tmu; con un'architettura come quella di R520 si possono avere più tmu (fino a 4) che lavorano sulla stessa operazione (questo senza tener conto della possibilità di utilizzare l'array di registri dedicati ai ps, per parcheggiare temporaneamente i dati).
Si. l'avevo già letto su Beyond3D, imprecisione mia. Per quanto riguarda l'efficienza, quel che volevo dire è che se implementata male, anche una soluzione a TMU separate, per quanto teoricamente superiore, può diventare limitata nell'applicazione pratica (insomma, non è detto a priori che funzioni come dovrebbe).
anche in questo caso, occorre un piccolo chiarimento (anche in merito a quanto ho scritto sull'argomento). Per l'applicazione dell'hdr sono necessari 4 requisiti: fp shading (fpu), fp blennding (rop's), fp filtering (fragment processor), fp texturing (tmu) e, infine, poichè la destinazione è un dispositivo a i8 per canale, un'operazione di tone mapping.
G70 è in grado di svolgere tutte le operazioni sopra esposte, come pure, ovviamente R520. Il problema sorge al momento dell'esecuzione del tone mapping (che nel caso dell'algoritmo di OpenEXR, non è altro che una compressione di tipo log). In G70 non esistono unità dedicate alle operazioni di compressione e decompressione nelle rop's e il tutto è eseguito dalle psu. In R520, invece, ci sono unità dedicate a compressione e decompressione logaritmica all'interno delle rop's. In G70, i dati elaborati a fp16 dal fragment processor sono sottoposti a blending a fp16 nelle rop's, ma non possono essere mescolati con i dati a i8 prodotti dal dispositivo che si occupa del MSAA; quindi vengono inviati alle psu che esguono il tone mapping, trasformandoli in i8 e inviandoli al fb; a questo punto i dati inviati vanno a sovrascrivere quelli elaborati in i8 dal MSAA processor. In R520, invece, i dati escono in fp16 dal fragment processor, sono sottoposti a blending fp16 nelle rop's, vengono compressi in i8, sottoposti, eventualmente ad AA e mescolati ai dati provenienti dalle elaborazioni del MSAA sulle primitive (anch'essi a i8), all'interno di un color buffer.
Si, questo me lo avevi già spiegato in un altro thread, in un altro sito (in una galassia lontana lontana), ho solo "accorciato il brodo" anche epr evitare di dire (altre) castronerie :D
Foglia Morta
12-10-2005, 14:26
R580 potrebbe avere 48 MAD contro le 16 di R520, con un'architettura a quad tipo quella di RV530 moltiplicata per 4
che funzione hanno queste MAD ?
yossarian
12-10-2005, 14:29
che funzione hanno queste MAD ?
sono semplicemente le unità di pixel shading
^TiGeRShArK^
12-10-2005, 14:31
Non è che nvidia fa schede che ti fanno visualizzare i giochi in bianco e nero e Ati a colori...alla fine ste differenze non le noti.
ma almeno hai dato un okkiata agli screen HDR+AA ???
o non essendo supportato dalla tua amata nvidia li hai saltati a pie' pari???
Sulla longevità infine, davvero un FLOP. Con R580 ormai da un po' in tape out, si può dire che la X1800XT si ritroverà ben presto in fascia media o medioalta, ciò significa che comprarla ora sarebbe una mossa poco intelligente.
facendo lo stesso ragionamento sarebbe ancora peggio comprarsi una 7800 gtx dato ke sta x uscire R580 e la 7800 gtx è ancor + lenta di r520 :rolleyes:
riuscirai mai a fare un ragionamento obiettivo prima ke finisca di leggere tutto il thread??? :Prrr:
leoneazzurro
12-10-2005, 14:31
che funzione hanno queste MAD ?
Aumentano la capacità di calcolo matematico per quanto riguarda i PS. Il che significa che se ora R520 almeno nei PS 2.0 senza dynamic branching ha ancora qualcosa in meno di G70, R580 dovrebbe essere invece sensibilmente superiore.
X Yoss: ma è solo una unità MAD? Pensavo che RV530 avesse 3 unità PS complete per quad. :confused:
Jimmy3Dita
12-10-2005, 14:31
per giocare a risoluzioni "umane" non serve neppure una 7800 GTX
...infatti pensionando Barton 2500 e 9800pro ero indeciso se prendere una x800pro o una 6800gt. Sto parlando di Marzo, quindi un bel po' di tempo fa.
Poi e' stato annunciato R520, si e' scritto e smentito di tutto, ma una cosa era certa: doveva essere un mostro.
Ho aspettato marzo, aprile, maggio e tutto giugno, ma ancora non si vedeva nulla. Che dovevo fare?
Pensa se arrivavo fin'ora con Barton e 9800pro... ok risparmiavo qualcosa a luglio, ma per avere cosa? Il 5-10% in piu', solo con filtri abilitati, solo a 1600x1200?
leoneazzurro
12-10-2005, 14:32
sono semplicemente le unità di pixel shading
Pardon.. non avevo visto che avevi risposto. Ma tu epr unità MAD intendi una unità PS completa? O forse mi sto confondendo con le unità MADD (moltiplicazione+addizione)?
^TiGeRShArK^
12-10-2005, 14:33
Si può davvero gridare ad eclatante successo?
Lo avrei capito se le prestazioni fossero state almeno il 50% in più visto il ritardo...oppure se fosse riuscita a superare nVidia su OpenGL, invece no.
Perchè non si danno da fare davvero nell' invadere il territorio della concorrenza? Sarebbe stata una bella mossa vedere giochi OpenGL rullare meglio su ATI, io per primo mi sarei inchinato; invece no...al solito ad ognuno il suo campo...quasi si fossero messi daccordo su questo ATI e nVidia.
km ti è già stato detto e ripetuto + volte il problema nn è l'open gl...
e lo stencil shadow....
e poi secondo te km avrebbero fatto a tirare fuori una skeda ke andasse il 50% + veloce di G70 nello spazio d qualke mese????
hai tu qualke formula magica da presentare agli ingegneri ATI???
Einhander
12-10-2005, 14:33
Scusate ma questo nn e' il segmento hogh-end?
No perche' in tal caso ha senso parlare di frequenze alte o di consumi o di rumorosita'?
No perche' se parliamo di prestazioni mi pare che ati stia sopra e,ripeto,con il software attuale,e nn con quello futuro che cmq sorride di piu' ad ati:raramente si sono visti giochi piu' semplici nei motori tridimenzionali quando si puo' disporre delle tecnologie piu' avanzate e migliori nella qualita' finale d'immagine e mipare che alla fine i vantaggi della scheda radeon x1800xt siano gia' evidenti e lo saranno ancora di piu' in futuro( mi spieghi cosa te ne frega se le frequenze delle memorie sono a 1000 a 1200 a 1 Mhz??).
Chi si prende queste schede e' ovvio che pretenda il massimo possibile in termini di prestazioni ed e' EVIDENTE che ora come ora ati sia sopra in piu' punti-dall'architettura alla qualita' d'immagine complessiva-
EFFICIENZA vuol dire che a parita' di ipeline le schede si comporrtino meglio delle loro controparti siano esse i modelli precedenti o quelle della casa concorrente..
Ora detto questo mi spiegate che senso ha comprersi una sche da del genere se poi si gioca 1024x768 0 a 1280x 1024?
NESSUNO.
Quelle risoluzioni sono supportate da monitor crt da minimo 20"(sbaglio?);io spero che chi prende tali schede disponga dei mezzi per poterle meglio sfruttare proprio dove le altre vanno in crisi e anche in quest'ottica mi pare e pare anche ad hwupgrade che ati stia avanti.PUNTO.
Poi se tu-bartolino3200- 'ste cose nn le vedi beh,oh mi dispiace,io nn posso farci nulla...
Dr House
12-10-2005, 14:37
Quelle risoluzioni sono supportate da monitor crt da minimo 20"(sbaglio?)
no no, io ho un 17" philips e arrivo a 1920x1440 :D
si fa per parlare-scherzare ;)
^TiGeRShArK^
12-10-2005, 14:37
L'HDR anche fa molto uso della banda passante ecco perchè si ben comporta. :)
Ovvio che abilitando poi anche l'AA e l'AF ancora di più pesa. :)
Cmq mi son dimenticato di dire nel commento precedente: penso bisogna elogiare la possibilità di usare l'AA + HDR proprio perchè è qualcosa in più. Proprio come un anno e mezzo fa le 6800 avevano lo SM 3.0 e le controparti Ati no. Allora c'era gente che denigrava lo SM 3.0 e bla bla...!! Tra l'altro cosa sbagliata. Proprio perchè avere qualcosa in più è solo una cosa positiva.
Adesso stessa situazione l'HDR + AA dell'R520 rispetto al G70. E' una cosa in più, quindi una cosa positiva.
Non bisogna elogiare/denigrare solo quando fa comodo(mi riferisco a chi denigrava lo sm 3.0 e chi non prende in considerazione l'HDR+AA). Bisogna essere invece coerenti. :)
con una piccola differenza...
l'AA lo puoi attivare su qualsiasi gioco HDR...
lo shader model 3 devi aspettare ke venga implementato dai programmatori....
^TiGeRShArK^
12-10-2005, 14:40
infatti, non perdiamoci altro tempo. ma il problema e' reale. W Linux&OpenGL
utilissimo in una skeda TOP gaming vista la moltitudine di gioki ke abbiamo sotto linux... :rolleyes:
non è assolutamente vero
x me distacchi fino a 30 fps a filtri abilitati nn sono prestazioni "grossomodo" alla pari (1800xt)
con filtri abilitati la xl (che gira a 70mhz di core in + e 200 in meno sulle ram) se la gioca con la gtx
ah già... ha 16 pipe invece che 24....
dimmi se nn ho ragione... :D
ma se non se la gioca nemmeno con la GT :doh:
leggiti i bench di guru3d.com
:muro:
yossarian
12-10-2005, 14:43
...infatti pensionando Barton 2500 e 9800pro ero indeciso se prendere una x800pro o una 6800gt. Sto parlando di Marzo, quindi un bel po' di tempo fa.
Poi e' stato annunciato R520, si e' scritto e smentito di tutto, ma una cosa era certa: doveva essere un mostro.
Ho aspettato marzo, aprile, maggio e tutto giugno, ma ancora non si vedeva nulla. Che dovevo fare?
Pensa se arrivavo fin'ora con Barton e 9800pro... ok risparmiavo qualcosa a luglio, ma per avere cosa? Il 5-10% in piu', solo con filtri abilitati, solo a 1600x1200?
faccio solo due calcoli rapidi: R520 lavora sempre a fp32, G70 utlizza spesso fp16 (come NV40); questo permette uhn incremento di circa il 20%, sia per la minor banda passante richiesta, sia perchè i chip NV hanno un circuito che si occupa di normalizzazioni vettoriali all'interno delle pixel pipeline, che funziona solo a fp16. Il contro è una precisione di calcolo nettamente inferiore che con gli shader più complessi può dar luogo a errori di renderizzazione. R520, in modalità quality, utilizza un anisotropic senza angoli preferenziali; questo significa 16 layer (nel caso del 16x) ognuno con trilinear filtering; G70 utiòizza il trilinear solo per il primo layer. Questo si traduce in 48 interpolazioni lineari per R520 contro le 18 di G70 (per gruppo di tmu). R520 ha un dynamic branchin che è oltre il 100% più efficiente di quello di G70 e permette di attivare hdr e MSAA contemporaneamente, restando nell'ambito della giocabilità (inoltre l'utilizzo dell'hdr ha un impatto prestazionale decisamente inferiore).
Tutto questo si traduce in maggiore qualità ad una velocità complessivamente superiore a quella di G70 (con i filtri la differenza è molto evidente).
Nei benche sintetici, con l'utilizzo, tra l'altro, di sm2.0 (non sm3.0), R520 è sotto solo nel computo matematico (ha solo 16 MAD contro le 48 di G70).
Credo che, anche alla luce del fatto che R580 dovrebbe ribaltare anche lo svantaggio nell'utilizzo dei ps, ci siano tutti gli estremi per definire questo un ottimo progetto.
Ciliegina sulla torta, sia il controller principale che quello della memoria sono programmabili via driver e ottimizzabili a seconda delle specifica applicazione (e gli attuali driver ATi non sono certo scritti per R520)
Jimmy3Dita
12-10-2005, 14:44
Scusate, visto che non mi avete risposto, ripropongo la domanda (agli utenti, non al buon Raffaele che avra' tanto da fare): ma se l'architettura della GTX nasce a 24 pipeline, perche' penalizzarla del 33% (avevo scritto 50 pardon) nelle frequenze per misurare l'efficacia rispetto alle altre schede?
Voglio dire: 16pipe@450 vs 24pipe@450 capovolgono il titolo dell'articolo, ok l'architettura e' piu' efficiente, ma cosi' e' evidente che la frequenza del core ha un ruolo predominante!
yossarian
12-10-2005, 14:45
Pardon.. non avevo visto che avevi risposto. Ma tu epr unità MAD intendi una unità PS completa? O forse mi sto confondendo con le unità MADD (moltiplicazione+addizione)?
parlo di unità MAD per brevità, ma suppongo che su R580 ci sia un'unità di tipo completa (MAD più unità minore)
yossarian
12-10-2005, 14:50
Scusate, visto che non mi avete risposto, ripropongo la domanda (agli utenti, non al buon Raffaele che avra' tanto da fare): ma se l'architettura della GTX nasce a 24 pipeline, perche' penalizzarla del 50% nelle frequenze per misurare l'efficacia rispetto alle altre schede?
Voglio dire: 16pipe@450 vs 24pipe@450 capovolgono il titolo dell'articolo, ok l'architettura e' piu' efficiente, ma cosi' e' evidente che la frequenza del core ha un ruolo predominante!
un chip come R520 non utilizza la stessa logica di R4x0 o G70 e le alte frequenze di funzioanmento fanno parte del progetto, non sono un mezzo per pareggiare le prestazioni. G70 utilizza batch di 32x32 pixel, mentre R520 lavora su gruppi di 4x4 pixel. Il singolo calcolo è di vari ordini di grandezza più efficiente, ma si ha bisogno di operare ad elevate frequenze per tenere sempre occupate tutte le unità di calcolo. La differenza tra G70 e R520, a livello di singola "pipeline", è quella esistente tra un'architettura a pipeline lunghe (G70) e una a pipeline "larghe". La prima fa tante operazioni in un cilco, la seconda ne fa poche ma compensa compiendo più cicli e puntando sull'efficienza della singola operazione
Jimmy3Dita
12-10-2005, 14:50
faccio solo due calcoli rapidi: R520 lavora sempre a fp32, G70 utlizza spesso fp16 (come NV40); questo permette uhn incremento di circa il 20%, sia per la minor banda passante richiesta, sia perchè i chip NV hanno un circuito che si occupa di normalizzazioni vettoriali all'interno delle pixel pipeline, che funziona solo a fp16. Il contro è una precisione di calcolo nettamente inferiore che con gli shader più complessi può dar luogo a errori di renderizzazione. R520, in modalità quality, utilizza un anisotropic senza angoli preferenziali; questo significa 16 layer (nel caso del 16x) ognuno con trilinear filtering; G70 utiòizza il trilinear solo per il primo layer. Questo si traduce in 48 interpolazioni lineari per R520 contro le 18 di G70 (per gruppo di tmu). R520 ha un dynamic branchin che è oltre il 100% più efficiente di quello di G70 e permette di attivare hdr e MSAA contemporaneamente, restando nell'ambito della giocabilità (inoltre l'utilizzo dell'hdr ha un impatto prestazionale decisamente inferiore).
Tutto questo si traduce in maggiore qualità ad una velocità complessivamente superiore a quella di G70 (con i filtri la differenza è molto evidente).
Nei benche sintetici, con l'utilizzo, tra l'altro, di sm2.0 (non sm3.0), R520 è sotto solo nel computo matematico (ha solo 16 MAD contro le 48 di G70).
Credo che, anche alla luce del fatto che R580 dovrebbe ribaltare anche lo svantaggio nell'utilizzo dei ps, ci siano tutti gli estremi per definire questo un ottimo progetto.
Ciliegina sulla torta, sia il controller principale che quello della memoria sono programmabili via driver e ottimizzabili a seconda delle specifica applicazione (e gli attuali driver ATi non sono certo scritti per R520)
...ok tutte considerazioni tecniche molto interessanti. Ma alla luce dei fatti, cioe' guardando come va alle risoluzioni di utilizzo quotidiano, sei d'accordo o no che sei mesi per tutto questo sono troppi? Potra' anche avere un sistema sofisticatissmo che mi parla, ma se poi quando devo giocare gli fps sono piu' o meno quelli, che ho aspettato a fare? Maggiore qualita' a video? Ok, ma potevo immaginarlo? E poi anche qui non mi sembra di vedere tutta questa differenza su immagini statiche, figuriamoci quelle dinamiche.
Quello che voglio dire e' che sulla carta ci siamo pure, ma c'e' come sempre troppo fumo (venduto a caro prezzo) intorno. Com'e' stato fatto con le Geforce, ma almeno e' arrivata prima!!!
^TiGeRShArK^
12-10-2005, 14:51
complimenti Raffaele, ottima recensione, completa e dettagliata :)
A tutti quelli che continuano a sparare ca@@ate su overclock, overvolt, efficienza e frequenze, faccio una sola domanda:
conoscete la differenza tra un'architettura come quella di R520 e una come quella di G70, a livello di logica di funzionamento?
Se si, allora vi invito a esporla; altrimenti vi consiglio di documentarvi.
Discorso analogo in merito a numero di transistor e tensioni di alimentazione
:rotfl:
MITICO YOSS!!! :D
Scusate, visto che non mi avete risposto, ripropongo la domanda (agli utenti, non al buon Raffaele che avra' tanto da fare): ma se l'architettura della GTX nasce a 24 pipeline, perche' penalizzarla del 50% nelle frequenze per misurare l'efficacia rispetto alle altre schede?
Voglio dire: 16pipe@450 vs 24pipe@450 capovolgono il titolo dell'articolo, ok l'architettura e' piu' efficiente, ma cosi' e' evidente che la frequenza del core ha un ruolo predominante!
Queste speculazioni su clock e numero di pipeline lasciano un po' il tempo che trovano. Fare i confronti a parità di clock va bene per pura curiosità, ma poi non vedo moltri altri scopi: non ha senso dire che è meglio l'uno o l'altro perché col clock più basso va di più, i confronti si fanno per quello che le schede sono, non per quello che "sarebbero se". Un progetto si giudica nell'insieme, semmai nelle performance per costo (alla fabbrica o all'utente), e non nelle performance per clock o pipeline o vattelapesca.
bartolino3200
12-10-2005, 14:53
faccio solo due calcoli rapidi: R520 lavora sempre a fp32, G70 utlizza spesso fp16 (come NV40); questo permette uhn incremento di circa il 20%, sia per la minor banda passante richiesta, sia perchè i chip NV hanno un circuito che si occupa di normalizzazioni vettoriali all'interno delle pixel pipeline, che funziona solo a fp16. Il contro è una precisione di calcolo nettamente inferiore che con gli shader più complessi può dar luogo a errori di renderizzazione. R520, in modalità quality, utilizza un anisotropic senza angoli preferenziali; questo significa 16 layer (nel caso del 16x) ognuno con trilinear filtering; G70 utiòizza il trilinear solo per il primo layer. Questo si traduce in 48 interpolazioni lineari per R520 contro le 18 di G70 (per gruppo di tmu). R520 ha un dynamic branchin che è oltre il 100% più efficiente di quello di G70 e permette di attivare hdr e MSAA contemporaneamente, restando nell'ambito della giocabilità (inoltre l'utilizzo dell'hdr ha un impatto prestazionale decisamente inferiore).
Tutto questo si traduce in maggiore qualità ad una velocità complessivamente superiore a quella di G70 (con i filtri la differenza è molto evidente).
Nei benche sintetici, con l'utilizzo, tra l'altro, di sm2.0 (non sm3.0), R520 è sotto solo nel computo matematico (ha solo 16 MAD contro le 48 di G70).
Credo che, anche alla luce del fatto che R580 dovrebbe ribaltare anche lo svantaggio nell'utilizzo dei ps, ci siano tutti gli estremi per definire questo un ottimo progetto.
Ciliegina sulla torta, sia il controller principale che quello della memoria sono programmabili via driver e ottimizzabili a seconda delle specifica applicazione (e gli attuali driver ATi non sono certo scritti per R520)
Scusa ma questo cosa centra con quanto aveva detto jimmi3dita?
Oltre a farci capire che sei studente o laureato in ing. eletronica o simila?
Bho...:confused:
uno ti dice buongiorno e tu rispondi buonanotte?
ma state ancora cercando di far ragionare bartolino? :asd:
lui è un maestro del :mc:
sarà... ma credo che stà rosicando come pochi, vedendo la sua nvidia surclassata in quanto a qualità immagine, efficienza prestazionale e feature nuove. Naturalmente la recensione non l'avrà nemmeno letta. Avrà visto i grafici, i consumi, l'overclock e basta, ma il resto dell'articolo dove si parla di tutte le migliorie architetturali presentate con questo modello, l'avrà saltato di piè pari.
Proprio irrecuperabile :muro:
^TiGeRShArK^
12-10-2005, 14:54
Bla bala bla bla...
Ma alla fine stiamo là come prestazioni? SI
E allora non facciamola più grossa di quello che è con paroloni comprensibili a pochi...
Le prestazioni sono allineate, l' unica vera differenza è che 7800GTX la trovi da mesi X1800XT tutt' ora non si vede.
Senza sparare ca@@ate, giusto per mantenermi coerente al modo di esprimerti, la X1800XT per eguagliare 24 pipeline "deve" andare su di frequenza, e poi mi fate titoli ove "16 pipeline sono meglio di 24" ...
o capovolgendo il discorso G70 "deve" avere 24 pipeline x tenere testa a R520 (e neanke ce la fa dove conta con le skede top level.... AA+anisotropic, alte risoluzioni, HDR e addirittura NON consente di usare HDR + AA)
ma sikkome ha il markietto nvidia G70 è indubbiamente migliore... :rolleyes:
e dimenticavo la differenza qualitativa ke kissa km mai tu hai detto d non vedere... :rolleyes:
Jimmy3Dita
12-10-2005, 14:54
un chip come R520 non utilizza la stessa logica di R4x0 o G70 e le alte frequenze di funzioanmento fanno parte del progetto, non sono un mezzo per pareggiare le prestazioni. G70 utilizza batch di 32x32 pixel, mentre R520 lavora su gruppi di 4x4 pixel. Il singolo calcolo è di vari ordini di grandezza più efficiente, ma si ha bisogno di operare ad elevate frequenze per tenere sempre occupate tutte le unità di calcolo. La differenza tra G70 e R520, a livello di singola "pipeline", è quella esistente tra un'architettura a pipeline lunghe (G70) e una a pipeline "larghe". La prima fa tante operazioni in un cilco, la seconda ne fa poche ma compensa compiendo più cicli e puntando sull'efficienza della singola operazione
bene, anche qui ci siamo, e scusa se sto abusando della tua pazienza. Quindi quella su cui stiamo discutendo e' l'efficienza della SINGOLA PIPELINE, non dell'insieme progettuale del chip. Perche' in tal caso non penso che il chip della GTX passando da 300 a 450 mhz vada come la x1800 a 450mhz.
Pero' in tal caso sarebbe come un Athlon vs Pentium4: minore frequenza, maggiore efficienza. O devo ricredermi anche su questo?
bartolino3200
12-10-2005, 14:55
Scusate, visto che non mi avete risposto, ripropongo la domanda (agli utenti, non al buon Raffaele che avra' tanto da fare): ma se l'architettura della GTX nasce a 24 pipeline, perche' penalizzarla del 33% (avevo scritto 50 pardon) nelle frequenze per misurare l'efficacia rispetto alle altre schede?
Voglio dire: 16pipe@450 vs 24pipe@450 capovolgono il titolo dell'articolo, ok l'architettura e' piu' efficiente, ma cosi' e' evidente che la frequenza del core ha un ruolo predominante!
E' quello che cerco di chiedere e dire da un po' di giorni a questa parte, ma non avendo basi tecniche in merito, non sono mai riuscito a farmi capire.
Foglia Morta
12-10-2005, 14:55
...ok tutte considerazioni tecniche molto interessanti. Ma alla luce dei fatti, cioe' guardando come va alle risoluzioni di utilizzo quotidiano, sei d'accordo o no che sei mesi per tutto questo sono troppi? Potra' anche avere un sistema sofisticatissmo che mi parla, ma se poi quando devo giocare gli fps sono piu' o meno quelli, che ho aspettato a fare? Maggiore qualita' a video? Ok, ma potevo immaginarlo? E poi anche qui non mi sembra di vedere tutta questa differenza su immagini statiche, figuriamoci quelle dinamiche.
Quello che voglio dire e' che sulla carta ci siamo pure, ma c'e' come sempre troppo fumo (venduto a caro prezzo) intorno. Com'e' stato fatto con le Geforce, ma almeno e' arrivata prima!!!
ma perchè continuate a parlare di 6 mesi ? è un esercizio di autoconvincimento ?
21 Giugno , Luglio , Agosto , Settembre , Ottobre , 5 Novembre ? La tua "opinione" è la matematica o il calendario ?
guglielmit
12-10-2005, 14:57
Ho finito ora di leggermi tutto l'articolo.
Bah...che dire.Come avevo gia' scritto in altra discussione se c'e' da tifare lo faccio sicuramente per ATI(Anche se ora ho nvidia). Ho praticamente usato ATI dalla mitica 8500 fino alla X850XTPE,solo grandi soddisfazzioni.(Per questo mi sento di tifare ATI)
L'articolo lo trovo assolutamente preciso e dettagliato come HWUp ci ha abituati anche se mi sembra di leggere in alcuni passaggi un tono di parte verso ATI :) Ma sicuramente e' una mia sensazione gia' riscontrata in altre review ATI.Posso sbagliarmi ma questa e' la mia sensazione.
Per quanto riguarda la scheda.Sinceramente mi aspettavo qualcosa di piu'.Specialmente sotto il profilo prestazionale. Tenendo conto delle frequenze di lavoro!!! :eek: Specialmente la 1800XT! E non dimenticando i 512Mb di DDR che aiutano sicuramente specialmente ad alte risoluzioni :rolleyes:
Altra cosa.Ora ricontrollo l'articolo per vedere se mi e' sfuggita....di che 7800GTX si parla? Cioe'..ci sono GTX che escono con Nvidia reference a 430/1200 altre a 460/1250 altre con frequenze diverse...Quella dell'articolo a che frequenza era impostata?
Sarebbe stato interessante(forse piu' che il confronto R520 vs SLI)vedere qualche grafico con OC 1800XT e 7800GTX....la GTX non fatica molto a salire vicino a 500/1300 o giu' di li'....emulare una futura(non troppo) 7800ULTRA tenendo conto che la ultra montera'(sembra) 512MB di DDR.
Concludo con una piccola provocazione....
Fino a quando possiamo continuare su questa strada? Vediamo Schede di ultima generazione che costano da sole come un PC intero far girare giochi a 20-30Fps!! Vedi Call of Duty2 o FEAR. Giochi che con una nuova consolle girano senza alcun problema... Sono le software house che non sanno programmare? O c'e' solo businness alla base di tutto?
Jimmy3Dita
12-10-2005, 14:59
ma perchè continuate a parlare di 6 mesi ? è un esercizio di autoconvincimento ?
21 Giugno , Luglio , Agosto , Settembre , Ottobre , 5 Novembre ? La tua "opinione" è la matematica o il calendario ?
Entrambi: ho detto che a Marzo volevo prendere una buona scheda PCI-E da mettere nel pc, ed ero indeciso tra X800 e 6800GT. In quel periodo sono usciti i primi "rumors" su R520 (e G70) e mi sono detto "aspettiamo R520" che, mi pare di ricordare, era stata mostrata gia' al Cebit (ma forse ricordo male, era il Computex, boh, non mi va di andare a cercare).
E' la stessa situazione di adesso: alcuni preferiscono "aspettare" R580, e se lo dicono ora, significa che lo attendono fin da ora. Se mi aspetto R580 esce a Gennaio/Febbraio e' un conto, se invece so gia' che uscira' a Giugno/Luglio e' un altro, mi prendo R520 ora... Non so se mi sono spiegato :)
Pero' in tal caso sarebbe come un Athlon vs Pentium4: minore frequenza, maggiore efficienza. O devo ricredermi anche su questo?
Sì ma è il progetto nell'insieme che devi guardare: prova tu a portare un Athlon64 a 3.8 GHz. Fermo restando che io preferisco questi ultimi. (se ho frainteso quello che volevi dire correggimi)
Foglia Morta
12-10-2005, 15:02
Per quanto riguarda la scheda.Sinceramente mi aspettavo qualcosa di piu'.Specialmente sotto il profilo prestazionale. Tenendo conto delle frequenze di lavoro!!! :eek: Specialmente la 1800XT! E non dimenticando i 512Mb di DDR che aiutano sicuramente specialmente ad alte risoluzioni :rolleyes:
Nel forum delle schede video Vifani mi pare avesse detto che stava testando anche con una X800XL 512Mb e non c' erano differenze con la 256Mb , spero di non sbagliarmi.
yossarian
12-10-2005, 15:02
...ok tutte considerazioni tecniche molto interessanti. Ma alla luce dei fatti, cioe' guardando come va alle risoluzioni di utilizzo quotidiano, sei d'accordo o no che sei mesi per tutto questo sono troppi? Potra' anche avere un sistema sofisticatissmo che mi parla, ma se poi quando devo giocare gli fps sono piu' o meno quelli, che ho aspettato a fare? Maggiore qualita' a video? Ok, ma potevo immaginarlo? E poi anche qui non mi sembra di vedere tutta questa differenza su immagini statiche, figuriamoci quelle dinamiche.
Quello che voglio dire e' che sulla carta ci siamo pure, ma c'e' come sempre troppo fumo (venduto a caro prezzo) intorno. Com'e' stato fatto con le Geforce, ma almeno e' arrivata prima!!!
è arrivata prima ma è vecchia; non è sufficiente passare a0,09 per migliorare la situazione. Poi, migliorare cosa? RSX è a 0,09, ma ha la stessa architettura di G70. Non è possibile continuare ad aumentare all'infinito il numero di pipeline per avere prestazioni all'altezza. Un'ipotetico G70 con 32 pp dovrà avere, come minimo, 24, se non 32 rop's, per non essere fillrate limited. Il che significa stare sui 420-430 mln di transistor come minimo e continuare ad essere, comunque, un 20% buono meno efficiente di R5x0.
Non ritengo he l'introduzione di migliorie nella qualità d'immagine siano fumo; altrimenti devo consioderare fumo anche lo sm3.0 sbandierato da nVIDIA all'uscita dell'NV40 (la cui implementazione, allo stato attuale, è migliore con ATi).
In riferimento ai titoli futuri, Doom e derivati a parte, quando si inizierà a utilizzare il dynamic branching si scoprirà che quello di ATi è molto migliore sia a livello di vantaggi prestazionali (l'utilizzo di 1024 pixel come livello di coerenza è al limite dell'inefficienza) che di libertà da parte dei programmatori.
Questo senza contare che R520 anticipa alcune delle cose che si vedranno sui chip wgf2.0
Einhander
12-10-2005, 15:04
@jimmy3dita:
Ma chi si compra queste schede per giocare a risoluzioni umane??
No perche' anche' le parole "risoluzioni umane" devono essere revisionato in base alla gpu,es.: Per una x800gto 1024x768 e 1280x1024 sono le risoluzioni normali/umane per un g70 o r520 queste risoluzioni nn sono quelle "umane" ,sono quelle minime,senno' le minime quali sono 800x600 o 648x400?
Se uno si prende la 7800gtx o x1800xt per giocare a 1280x1024,beh francamente poteva orientare le sue spese verso un altro settore( a meno che l'obiettivo nn sia la longevita' del sistema,che in ogni caso sorride di piu' alla gpu ati..)
E' logico che per schede video highend le risoluzioni umane siano superiori a quelle della fascia media o entry level o no?
E se dai un'occhiata ai bench spero vedrai che le prestazioni alle risoluzioni piu' alte della x1800xt sono un po' superiori a quelle della 7800gtx o no?E nn paliamo del 10-15%..
E ripeto ke attualmente i giochi disponibili nn danno la dovuta ragione a nuove tecniche come hdr.
Invito ad aspettare titoli piu' nuovi e scommetto che il divario tra ati ed nVidia sara' ancora piu' marcato-senza contare i driver-
Byezz
yossarian
12-10-2005, 15:05
Scusa ma questo cosa centra con quanto aveva detto jimmi3dita?
Oltre a farci capire che sei studente o laureato in ing. eletronica o simila?
Bho...:confused:
uno ti dice buongiorno e tu rispondi buonanotte?
colpa mia se le tue conoscenze sono limitate? E se non riesci a vedere più lontano del tuo naso su cui campeggia un logo bianco e verde con su scritto nVIDIA rulez? :Prrr:
bartolino3200
12-10-2005, 15:05
...
L'articolo lo trovo assolutamente preciso e dettagliato come HWUp ci ha abituati anche se mi sembra di leggere in alcuni passaggi un tono di parte verso ATI :) Ma sicuramente e' una mia sensazione gia' riscontrata in altre review ATI.Posso sbagliarmi ma questa e' la mia sensazione.
Per quanto riguarda la scheda.Sinceramente mi aspettavo qualcosa di piu'.Specialmente sotto il profilo prestazionale. Tenendo conto delle frequenze di lavoro!!! :eek: Specialmente la 1800XT! E non dimenticando i 512Mb di DDR che aiutano sicuramente specialmente ad alte risoluzioni :rolleyes:
Altra cosa.Ora ricontrollo l'articolo per vedere se mi e' sfuggita....di che 7800GTX si parla? Cioe'..ci sono GTX che escono con Nvidia reference a 430/1200 altre a 460/1250 altre con frequenze diverse...Quella dell'articolo a che frequenza era impostata?
Sarebbe stato interessante(forse piu' che il confronto R520 vs SLI)vedere qualche grafico con OC 1800XT e 7800GTX....la GTX non fatica molto a salire vicino a 500/1300 o giu' di li'....emulare una futura(non troppo) 7800ULTRA tenendo conto che la ultra montera'(sembra) 512MB di DDR.
Devo ammettere di avere molte sensazioni in comune con te.
Scusa ma questo cosa centra con quanto aveva detto jimmi3dita?
Oltre a farci capire che sei studente o laureato in ing. eletronica o simila?
Bho...:confused:
uno ti dice buongiorno e tu rispondi buonanotte?
Ha risposto. Evidentemente sei tu a non capire. Ti ha fatto il discorso che quel 5/10% è nettamente un valore sottostimato. Considerato sia come opera R520 nei calcoli in floating point sia come R520 calcola l'anisotropico. Come vedi c'entra, solo che essendo una cosa che depone a favore della scheda che a te non convince, fai fatica a vederlo.
L'articolo lo trovo assolutamente preciso e dettagliato come HWUp ci ha abituati anche se mi sembra di leggere in alcuni passaggi un tono di parte verso ATI :) Ma sicuramente e' una mia sensazione gia' riscontrata in altre review ATI.Posso sbagliarmi ma questa e' la mia sensazione.
Non ti sbagli, perchè tutti i siti hanno affermato che l'architettura di R520 è nettamente migliore di quella di G70 il tutto si traduce in un elogio a tale scheda. Così come tutti i confronti precedenti tra X800 e G70 erano compilati con un tono di parte verso Nvidia.
Altra cosa.Ora ricontrollo l'articolo per vedere se mi e' sfuggita....di che 7800GTX si parla?
Ti è sfuggito. C'è scritto. La GTX di Nvidia è una e prevede 430mhz per il core.
Jimmy3Dita
12-10-2005, 15:08
Sì ma è il progetto nell'insieme che devi guardare: prova tu a portare un Athlon64 a 3.8 GHz. Fermo restando che io preferisco questi ultimi. (se ho frainteso quello che volevi dire correggimi)
Beh qualche cinese c'e' riuscito :D
Pero' "da piccolo" mi avevano spiegato che a parita' di frequenza il processore che fa piu' operazioni e' piu' efficiente. Tutto qui.
Se da un lato nVidia non riesce a raggiungere frequenze da paura, dall'altro Ati non ha messo lo stesso numero di pipeline. Ma questa e' un'altra storia, direi un tasto dolente, che e' meglio non toccare :D
CapodelMondo
12-10-2005, 15:10
io sono d accordo con la redazione....quando 16 sono MEGLIO di 24..
io però i post di bartolino7800 me li rileggo anche stasera prima di addormentarmi...
Scusa ma questo cosa centra con quanto aveva detto jimmi3dita?
Oltre a farci capire che sei studente o laureato in ing. eletronica o simila?
Bho...:confused:
No, è che al tuo contrario lui sa di cosa sta parlando.
Non ti ho mai letto quindi parto senza pregiudizi nei tuoi confronti: pertanto se ti dico che scrivi faziosità [e sono gentile] puoi credermi.
bartolino3200
12-10-2005, 15:10
colpa mia se le tue conoscenze sono limitate? :Prrr:
Assolutamente no anzi, tanto di cappello e onore al merito per le tue di conoscienze, che fra l' altro ti invidio.
Il problema è che la maggioranza degli utenti come me le leggono a stento, per cui ci si può (deve) limitare all' analisi dei dati riportati nei vari bench.
In molti sono poco interessati alle finezze di qualità video in gaming, visto che sarebbero cmq poco percepibili, tranne ovvio quelle basilari e più evidenti.
Si bada quindi al risultato finale, che in sostanza non giustifica un esborso maggiore e delude in parte le lunghe attese degli appassionati e fan di Ati.
Beh qualche cinese c'e' riuscito :D
Pero' "da piccolo" mi avevano spiegato che a parita' di frequenza il processore che fa piu' operazioni e' piu' efficiente. Tutto qui.
Se da un lato nVidia non riesce a raggiungere frequenze da paura, dall'altro Ati non ha messo lo stesso numero di pipeline. Ma questa e' un'altra storia, direi un tasto dolente, che e' meglio non toccare :D
Abbiamo avuto stessi insegnanti ;)
io sono d accordo con la redazione....quando 16 sono MEGLIO di 24..
io però i post di bartolino7800 me li rileggo anche stasera prima di addormentarmi...
Se vuoi ti canto pure la ninna nanna... :vicini: :friend: :asd: :grrr:
Lihid Zoil
12-10-2005, 15:12
io penso che appartengano (g70 e 520) a piani generazionali differenti per poter dire ha fatto meglio l'uno o l'altro (0.11 contro 0.09 e pure le memorie :1200 contro 1500).
Il raffronto è purtroppo obbligatorio perchè è quello che offre il mercato ora come ora (anche se per l'ati c'è da attendere ancora qualche giorno), però ,ripeto, ha un senso fino ad un certo punto.
Se davvero si vuole vedere chi architetturalmente sa sviluppare (e quindi in spiccioli chi va più veloce nei giochini) meglio un chip grafico, lo si deve fare partendo dagli stessi presupposti, quindi stesso processo produttivo e frequenze delle memorie alla pari.
questo il mio modesto parere
yossarian
12-10-2005, 15:15
bene, anche qui ci siamo, e scusa se sto abusando della tua pazienza. Quindi quella su cui stiamo discutendo e' l'efficienza della SINGOLA PIPELINE, non dell'insieme progettuale del chip. Perche' in tal caso non penso che il chip della GTX passando da 300 a 450 mhz vada come la x1800 a 450mhz.
Pero' in tal caso sarebbe come un Athlon vs Pentium4: minore frequenza, maggiore efficienza. O devo ricredermi anche su questo?
il paragone athlon vs pentium è fuorviante; sono due chip basati su un'architettura a pipeline lunghe. Quelle del pentium sono più lunghe per diminuire le latenze dovute alle operazioni più lunghe, in compenso l'athlon ha più pipeline in parallelo. In questo caso si parla di unità di calcolo in parallelo o, al massimo, di quad di unità. Dal punto di vista architetturale, R520 è riconducibile ad un'architettura di tipo SIMD parzialmente RISC, che per il mondo dei pc consumer è un approccio completamente nuovo (o quasi).
Quella di cui si sta discutendo è l'efficienza di tutta l'architettura; ma questa non può prescinderre da quella della singola pipeline, tenendo conto soprattutto del fatto che il fragment processor è quello che, nella stragrande maggioranza dei casi, fa da freno al resto dell'elaborazione. Non a caso, le maggiori "rivoluzioni" nel passaggio da R4x0 a R5x0 si sono avute nel fragment processor e, in parte, nelle rop's
http://www.forum-tvs.ru/style_emoticons/default/popcorn.gif
Jimmy3Dita
12-10-2005, 15:17
il paragone athlon vs pentium è fuorviante; sono due chip basati su un'architettura a pipeline lunghe. Quelle del pentium sono più lunghe per diminuire le latenze dovute alle operazioni più lunghe, in compenso l'athlon ha più pipeline in parallelo. In questo caso si parla di unità di calcolo in parallelo o, al massimo, di quad di unità. Dal punto di vista architetturale, R520 è riconducibile ad un'architettura di tipo SIMD parzialmente RISC, che per il mondo dei pc consumer è un approccio completamente nuovo (o quasi).
Quella di cui si sta discutendo è l'efficienza di tutta l'architettura; ma questa non può prescinderre da quella della singola pipeline, tenendo conto soprattutto del fatto che il fragment processor è quello che, nella stragrande maggioranza dei casi, fa da freno al resto dell'elaborazione. Non a caso, le maggiori "rivoluzioni" nel passaggio da R4x0 a R5x0 si sono avute nel fragment processor e, in parte, nelle rop's
Quindi l'efficienza di un'architettura non andrebbe misurata a parita' di frequenza? Non e' una domanda retorica, ma potrebbe essere un'importante svolta nel valutare la bonta' di certi prodotti, bypassando proprio tutto quel fumo che quotidianamente ci viene venduto!
NV30 the return :asd:
voglio andare a vedere i post che lo sostenevano :muro:
^TiGeRShArK^
12-10-2005, 15:23
Ottima recensione (come sempre, del resto)!
Venendo al quid: la settimana scorsa mi chiedevo se questo fosse l'erede di r300. Purtroppo, la risposta è no! Sia ben chiaro: questo è un mostro di potenza, ma alla fine è solo di poco più veloce di G70. Quello che fa uno, lo fa anche l'altro, nello stesso modo o un filo meglio.
HDR+AA????
prestazioni in alta risoluzione
R300 faceva cose che nessun altro era in grado di fare: r300 con AA 2x andava più forte della Ti4600 senza filtri, in qualsiasi gioco. Oggi, invece, ci sono giochi più o meno ottimizzati per una architettura piuttosto che per l'altra (in primis il solito Doom 3, in cui Nvidia è ancora davanti).
In generale, quindi, il netto vantaggio che si era manifestato al tempo, è scomparso. In questo triennio, Nvidia ha lavorato sodo e si è evoluta. Le prestazioni sono, tutto sommato, allinete.
In definitiva la risposta alla mia domanda è NO, alla luce soprattutto di un fatto piuttosto evidente: L'hype che ha campeggiato nei mesi scorsi. In qualche modo era un risultato quasi scontato (e volevo ben vedere! si parlava da mesi di prestazioni mostruose, superiori alla concorrenza: vi immaginate se G70 fosse rimasto davanti?)
Se non ricordo male R300 fu quasi come un fulmine a ciel sereno! Non a caso la Geforce 5 non fu mai messa sul mercato! Nvidia fu presa in contropiede.
In conclusione che dire di questa X1800?
Mi pare di capire che la nuova strategia si sia basata su un notevole miglioramento di ciò che c'era (la potenza bruta non è aumentata di uno sproposito, leggi pipeline), sono state cambiate molte cose, ma altre sono rimaste tali. Una decisa evoluzione, ma non una rivoluzione (squadra vincente non si cambia!)
A mio avviso, l'aspetto in cui Ati fa veramente la differenza è la superba qualità d'immagine, in qualsiasi combinazione di filtri/risoluzione.
Forse con r580 avremo il salto definitivo, con una vera iniezione di potenza in più, capace di distanziare definitivamente la concorrenza, sempre che Nvidia non abbia già un asso nella manica per i prossimi mesi.
R580 *dovrebbe essere solo un refresh*
Beh qualche cinese c'e' riuscito :D
Qualcuno aveva portato un P4 a 6 GHz o una roba così anche, ma ;)
Pero' "da piccolo" mi avevano spiegato che a parita' di frequenza il processore che fa piu' operazioni e' piu' efficiente. Tutto qui.
Sì ma quella è l'efficienza per clock, che non può essere indice della bontà di un progetto nella sua totalità (come sostengono alcuni ogni tanto in questo forum). Perché se hai una ipotetica gpu con 1 sola pipeline a 4 MHz che va il doppio una 7800GTX o X1800XT, ma produrla ti costa 100 volte tanto... sarà anche più "efficiente" ma è un progetto completamente folle. Per questo secondo me ha senso confrontare le prestazioni a parità di (fascia di) prezzo, se vogliamo parlare di "prodotto migliore di un altro".
A me non interessa se ATi deve cloccare il tutto a millemila MHz, o nVidia deve mettere millamila pipe, vincerà semplicemente il prodotto più conveniente da comprare... e devo dire che non c'è una supremazia netta da parte di nessuno ora.
il paragone athlon vs pentium è fuorviante; sono due chip basati su un'architettura a pipeline lunghe. Quelle del pentium sono più lunghe per diminuire le latenze dovute alle operazioni più lunghe, in compenso l'athlon ha più pipeline in parallelo. In questo caso si parla di unità di calcolo in parallelo o, al massimo, di quad di unità. Dal punto di vista architetturale, R520 è riconducibile ad un'architettura di tipo SIMD parzialmente RISC, che per il mondo dei pc consumer è un approccio completamente nuovo (o quasi).
Quella di cui si sta discutendo è l'efficienza di tutta l'architettura; ma questa non può prescinderre da quella della singola pipeline, tenendo conto soprattutto del fatto che il fragment processor è quello che, nella stragrande maggioranza dei casi, fa da freno al resto dell'elaborazione. Non a caso, le maggiori "rivoluzioni" nel passaggio da R4x0 a R5x0 si sono avute nel fragment processor e, in parte, nelle rop's
nn ho capito un azzo ma m'INCHINO! :eek: :eek: :eek:
Eddie666
12-10-2005, 15:29
mah...sinceramente non capisco il motivo di molti dei commenti postati fino ad ora: e' uscita una nuova scheda,e' attualmente la piu' potente sul mercato,ha la migliore qualita' di'mmagina attualmente disponibile,ed il tutto con un supporto software ancora acerbo e senza giochi che riescano a far vedre le sue reali potenzialita'.....per me e' sufficente.....non so cosa vi apsettavate voi,ma a me sembra abbastanza....sicuramente ci sara' la contromossa da parte di nvidia con un altro ottimo prodotto,e sono ben contento di cio'...tutto questo non puo' che portare benefici a noi utenti finali.
Mi fanno un po' sorridere quelli che si lamentano delle prestazioni,che avrebbero preteso almeno un 50% in piu':ma vi rendete conto,al giorno d'oggi,con l'attuale sviluppo teconoligco,cosa vuol dire 50% in piu' di divario tra un modello e un altro?...il divario c'e' se probabilmente si guardano i progetti "originali",senza gli innumerevoli step di mezzo che ci sono stati da entrambe le parti per auemntare la longevita' delle rispettive schede..penso alla 9700>x800>x1800...tra di loro c'e un notevole salto in termini di prestazioni,features e qualita' d'immagine.
Mi viene da fare il paragone con il settore automoblistico,settore anch'esso caratterizzato da un rapido avvicendarsi:prendiamo le ferrarfi F40,F50 e Enzo...si puo' dire che ognuna abbia costituito un miglioramento del 50% rispetto alla precedente? in termini di velocita' pura,la Enzo va il 100% piu' della F40? non e' che piuttosto e' aumentata l'efficienza globale del progetto,talvonta compiendo scelte radicali (nel caso delle auto passaggio dal motore turbo all'aspirato),e che ha permesso cosi' di guadagnare in prestazioni globali?
saluti
Dr House
12-10-2005, 15:31
http://www.forum-tvs.ru/style_emoticons/default/popcorn.gif
posso? :ubriachi:
sara ma io non parteggiando ne per l'una ne per l'altra parte e non avendo un enorme bagaglio tecnico dalla mia vedo solo che nvidia se ne è uscita 6 mesi prima con una scheda che tiene tranquillamente il passo di una uscita 6 mesi dopo. Che poi in alcuni punti sia migliore quella uscita dopo beh... mi sembra ovvio
P.S.
Facendo vedere a dei perfetti ignoranti le immagini con hdr + aa attivati a confronto con quelle nvidia non hanno notato nulla
Ora crocifiggetemi pure
:mc: bartolino3200 vorrei sapere che cosa centra criticare l'articolo perche' ti sembra abbia il titolo romanesco :confused: si vede proprio che non sai proprio piu' cosa sparare :mc: per dare addosso alla recenzione e ad Ati.......ti do una idea prova a insultare l'autore della recensione perche' ha adottato criteri di giudizio pro ATI :banned:
posso? :ubriachi:
ma certo :p
xXxCoKxXx
12-10-2005, 15:38
è incredibile quanto la gente come bartolino sia spudorata ... di fronte ai test non sa riconoscere la superiorità di r520 ... se questo signica non essere di parte . ditemi voi.. "e io mi aspettavo di più" "e con tutto il tempo che è passato doveva essere molto meglio" "e come efficenza non è un gran chè" "e tanto è un chip di passaggio prima che arrivi r580"
senti vai a dire cazzate da un'altra parte ;)
1) sai com'è r580?
2) sai quando e perchè uscirà (sempre se esiste)
3) cosa ti aspeddavi di più? di fps direi che batte la g70.. e comunque l'obbiettivo primario non era quello.. io come efficenza mi baso sul fatto che ormai tutti i giochi in commercio girano al massimo anche con una 850xt x dire.. cosa c'era da migliorare di più velocisticamente?? questo me lo devi spiegare tu che fai tanto il figone e hai un "concetto di efficienza diverso" .. r520 migliora la qualità dell'immagine sia in ambito 2d che 3d.. e rispetto al g70 .. beh direi che nn c'è da confrontarlo in quanto a qualità.
4) ti è girata x la testa che questa scheda ha ancora i driver "immaturi" non come la 7800??
5) a te non te ne può fregare una minkia dell'overclock.. ma c'è gente che ne fa il proprio mestiere.. e direi che persone come shamino.. di certo se vogliono avere il top dei risultati non prenderanno più 2 7800gtx in sli ma 2 x1800xt in crossfire... o no?
6) una x1800 o una 7800gtx su linux non li vedrai mai ..
7) queste schede sono solo e soltato x una fascia di utenti piccolissima e pignola.. non stracciaballe e di parte come te.. quindi chi vuole il massimo adesso prende di sicuro 1800 senza badare a spese.. chi invece il massimo lo voleva 1 mese fa prendeva 7800 .. e non badava a spese.
credo di aver concluso bye ;)
xXxCoKxXx
12-10-2005, 15:42
chiedo scusa anche x gli errori grammaticali... la stanchezza si fa sentire :P
yossarian
12-10-2005, 15:42
Quindi l'efficienza di un'architettura non andrebbe misurata a parita' di frequenza? Non e' una domanda retorica, ma potrebbe essere un'importante svolta nel valutare la bonta' di certi prodotti, bypassando proprio tutto quel fumo che quotidianamente ci viene venduto!
dipende; due architetture di tipo analogo (ad esempio superpipelined) possono anche essere valutate in base alla frequenza di funzionamento. Anche se, pure in quei casi, con le dovute attenzioni. Ad esempio, tornando al caso di athlon e pentium, la strada scelta da Intel e AMD è stata leggermente diversa: AMD ha preferito dotare i suoi chip di più pipeline con meno stadi, Intel di puntare su un numero ridotto di pipeline, riducendo le dimensioni degli stadi e aumentandone io numero. Questo permette di salire in frequenza, perchè la velocità di elaborazione è sempre condizionata dal suo stadio più lento; il principio del frazionamento degli stadi si basa sul sostituire uno stadio che compie più operazioni con più stadi che compiono, ciascuno meno operazioni e di tipo meno complesso. Il vantaggio, come detto, è l'aumento delle frequenze (che corrisponde alla riduzione del tempo necessario a ciascuno stadio per terminare la sua elaboraziona). Questo approccio, però, ha dei lati negativi. Ad esempio, una bolla (ossia un mancato comando) impiega molto più tempo ad uscire dalla pipeline, quanto più la stessa è lunga; questo eqiovale a un gran numero di cicli di clock persi. Discorso analogo per un'istruzione di salto condizionato. Per riempire una pipleine con molti stadi ho bisogno di inviare un gran numero di istruzioni (in modo che tutti gli stadi siano impegnati ad eseguire calcoli). Un'errore di branching implica lo svuotamento dell'intera pipeline dai valori "sbagliati" e il suo successivo riempimento con valori corretti. Più è lunga la pipeline, più cicli di clock servono per compiere queste due operazioni.
L'approccio di ATi con R520 è di tipo ancora diverso. Non più pipeline più o meno profonde ma tante unità di calcolo in parallelo, organizzate per lavorare a gruppi. Questo permette di ridurre la lunghezza della singola istruzione, come nelle pipleine molto lunghe e con stadi di dimensioni ridotte, senza avere gli inconvenienti derivanti da una bolla o quelli dovuti ad un'operazione di branching sbagliata (questo perchè la pipeline è, di fatto, inesistente). A testimonianza di questa scelta, si vede, nel dettaglio delle unità delle pixel pipeline di R520, un'unità di branching che lavora in parallelo con le fpu. Quell'unità raccoglie le informazioni relative all'elaborazione del singolo pixel e le trasmette all'unità di branching di tipo predittivo; in G70 non esiste noiente del genere ma, ad occuparsi di questo compito, è uno stadio della pixel pipeline, in serie alle fpu (questo a testimonianza del fatto che G70 è ancora ancorato al concetto della pipeline tradizionale).
Quindi, partendo da questi assunti, non è possibile trarre conclusioni del tipo: minore frequenza maggiore efficienza, nel caso di confronto di architetture così profondamemnte diverse tra loro
xXxCoKxXx
12-10-2005, 15:45
aaaaa approposito dimenticavo
TANTISSIMI APPLAUSI X LA RECENSIONE:
ALTRETTANTI AL SIGNOR: Raffaele Fanizzi
RECENSIONE CHIARA E PIGNOLA ;) UN UTENTE HIGH END.. DI SICURO NE RIMARREBBE SODDISFATTO ;)
purtroppo io mi attacco xkè mi mancano u'sold :P anche se mi piace tantissimo giocare.. di conseguenza vado kn la mia fiera 6600gt overclokkata a più nn posso byeeeeeee :D e aspetto che con questa nuova scheda scendano i prezzi uahauaauah!!
bartolino3200
12-10-2005, 15:46
è incredibile quanto la gente ...
è incredibile quanto la gente ...come te si iscriva in un forum solo per parlare bene di ati.
Basta leggere i tuoi messaggi tutti quanti da vero fanboy ATI :
http://www.hwupgrade.it/forum/search.php?searchid=634021&pp=20&page=1
Dove sono finiti quelli che dicevano che bisogna valutare a parità di architettura? G70 oltre a non avere tutte le implementazioni di una nuova architettura di r520 è anche a soli 110 nanometri contro 90.
Adesso è lecito il paragone mentre prima guai paragonare G70 con la serie X8xx
thepampa
12-10-2005, 15:47
ho letto molti commenti piuttosto tecnici... ma capendone poco mi astengo, prima di sparare cavoalte. :)
Comunque visti i risultati dei benchmark sembrerebbe proprio che ATI abbia risposto molto bene a nVidia. :eek:
Mi sa proprio che è ora di cambiare la gloriosa 9700 pro! :D
xXxCoKxXx
12-10-2005, 15:47
ma ci vuoi stare zitto invece di replicare kn altre accuse ;)
io sono talmente tanto funboy di ati che nel case ho avuto:
* tnt2
* geforce4 440
* geforce 5700
* geforce 6600gt
fai te :P buffone ;)
ma ci vuoi stare zitto invece di replicare kn altre accuse ;)
io sono talmente tanto funboy di ati che nel case ho avuto:
* tnt2
* geforce4 440
* geforce 5700
* geforce 6600gt
fai te :P buffone ;)
:ave:
hackboyz
12-10-2005, 15:52
Davvero complimenti Raffaele, articolo stupendo ;) :mano:
Unico appunto il titolo, forse un po' "polemico" (in senso lato non so se mi spiego :D )
bartolino3200
12-10-2005, 15:53
ma ci vuoi stare zitto invece di replicare kn altre accuse ;)
io sono talmente tanto funboy di ati che nel case ho avuto:
* tnt2
* geforce4 440
* geforce 5700
* geforce 6600gt
fai te :P buffone ;)
Di quello che hai comprato in passato non mi interesso sono soldi tuoi.
"funboy" oltretutto si scrive "fanboy" e la tua maleducazione e i tuoi commenti sono solo pari alla tua ipocrisia.
Per favore datevi una calmata...
xXxCoKxXx
12-10-2005, 15:57
visto che non ti interessi del mio passato :D fammi il piacere allora di disinteressarti del mio presente ;) e di smettrla di mettere sempre le mani avanti senza avere certezze ;) x gli errori grammaticali credo di essermi già giustificato in precedenza... mentre per quanto riguarda la mia educazione.. beh pazienza sarà da paragonare a livello della tua concezione di "prestazioni assolute " ma soprattutto al tuo livello di "concezione" in generale :P adesso scappo davvero ;)
I tuoi commenti sono esilaranti.
Complimenti per la rece, per la scheda a chi di dovere, ma soprattutto complimenti a bartolino3200 perchè non ho mai visto nessuno insistere nel farci ridere per così tante pagine con così tanto entusiasmo, e senza mai scadere.
Per tua conoscenza ti butto solo 2 idee:
16 pipe (dalle originali 32) sono dovute alla scarsità tecnologica della fonderia. Fai quindi un pensierino quando magari fra 8 mesi la fonderia riuscirà a produrre R520 con 24 pipe o con 32. Le prestazioni salgono del 50% o del 100% senza cambiare architettura....solo questione di tecnologia della fonderia
Non ti va giù che renda così poco? Non sei soddisfatto? Mettine 2 in Crossfire.
walter89
12-10-2005, 15:58
io quoto alla grande xXxCoKxXx
bartolino3200
12-10-2005, 15:59
Per favore datevi una calmata...
Certo una calmata, tanto chi si prende gli insulti sono io quindi è tutto OK.
Mi astengo per natura dall' esprimermi in modo volgare, perlomeno in pubblico, ma qui il contegno e la buona educazione sono ormai diventati un optional.
Potrò essere di parte, potrò essere poco preparato, sbagliare anche, figuriamoci, ma per fortuna maleducato non è un appellativo che mi appartiene.
xXxCoKxXx
12-10-2005, 16:01
anzi no sarei curioso di aver avuto delle risposte alle domande che ti ho posto prima... quelle 7/8 domande famose... su comincia nn ho più fretta
xXxCoKxXx
12-10-2005, 16:04
ok ok dai sono maleducato.. comincia a rispondermi in modo esauriente a tt le domande poste in precedenza... ti assicuro che se riesci a convincermi sarò il primo a chiedere scusa.. prego.
CiccoMan
12-10-2005, 16:06
I tuoi commenti sono esilaranti.
Complimenti per la rece, per la scheda a chi di dovere, ma soprattutto complimenti a bartolino3200 perchè non ho mai visto nessuno insistere nel farci ridere per così tante pagine con così tanto entusiasmo, e senza mai scadere.
Per tua conoscenza ti butto solo 2 idee:
16 pipe (dalle originali 32) sono dovute alla scarsità tecnologica della fonderia. Fai quindi un pensierino quando magari fra 8 mesi la fonderia riuscirà a produrre R520 con 24 pipe o con 32. Le prestazioni salgono del 50% o del 100% senza cambiare architettura....solo questione di tecnologia della fonderia
Non ti va giù che renda così poco? Non sei soddisfatto? Mettine 2 in Crossfire.
Questa cosa l'hai letta sul numero di settembre di Topolino? no perchè alla luce dei fatti direi che R520 habbia tutte le pipeline abilitate! Voglio dire, oramai la scheda è out ed è inutile continuare ad alimentare vecchi rumors ;)
R520 integra 4 quad pipeline, punto! Poi è probabile che un'ipotetico R580 possa integrarne di più, ma quì si ritorna sempre su Topolino :D
bartolino3200
12-10-2005, 16:08
I tuoi commenti sono esilaranti.
Ok mi bevo anche questa, meglio che fare piangere o fare pena per il modo di esprimersi è. Che diavolo, almeno esprimetevi come wonder, se proprio dovete mostrare totale disappunto con quanto dico.
Cmq SLI e CF, lo ribadisco, sono fuori dalla mia considerazione, filosofia che non condivido affatto, come oltretutto non condivido il fatto che una casa come ATI non si dia una mossa a sviluppare driver LINUX e OpenGL davvero degni di fare concorrenza ad nVidia. A furia di ripeterlo qualcuno mi sentirà, e magari si daranno una svegliata in merito. A quel punto sarei il primo a passare ad Ati.
xXxCoKxXx
12-10-2005, 16:09
wonder guarda che di r580 non si sa niente.. nn mettere le mani avanti come fa quell'altro li.. lol .. rumors.. dicono solo che ha già effettuato il tape out.. nient'altro... -.- idem con patate x il g71
bartolino3200
12-10-2005, 16:10
Questa cosa l'hai letta sul numero di settembre di Topolino? no perchè alla luce dei fatti direi che R520 habbia tutte le pipeline abilitate! Voglio dire, oramai la scheda è out ed è inutile continuare ad alimentare vecchi rumors ;)
R520 integra 4 quad pipeline, punto! Poi è probabile che un'ipotetico R580 possa integrarne di più, ma quì si ritorna sempre su Topolino :D
Non l' ha letta su topolino, è che vuole farmi concorrenza nel rendere il forum un posto esilarante e di intrattenimento ;)
già 19 pagine :eekk: non leggo tutti commenti e dico solo una cosa...
non pensavo che ATi avesse tirato fuori un mostro simile...e in OC sembra andare come mai nessun'altra scheda :eek: veramente ottima VGA
sinceramente mi piacerebbe vedere un confronto tra una X1800XT e una 7800GTX con memorie alla stessa frequenza ;) imho la situazione si sarebbe allineata :)
ancora complimenti per l'ottima rece ;)
andreamarra
12-10-2005, 16:12
no, la situazione anche con memorie alla stessa frequenza NON si sarebbe allineata.
ne abbiamo discusso ampiamente, dal punto di vista tecnico.
bartolino3200
12-10-2005, 16:14
già 19 pagine :eekk: non leggo tutti commenti e dico solo una cosa...
Non ti perdi nulla delle 19 pagine, la metà sono solo i miei esilaranti commenti.
Sull ' OC di questa scheda, bisogna sottolineare che per ottenerlo sono stati costretti a moddare il bios...non che sia proprio da manuale come OC...più che altro quanti saranno disposti a bruciarsi la garanzia di una scheda da 600 euro, per oocarla quando va già bene di suo?
hackboyz
12-10-2005, 16:16
una considerazione(visto che si è molto dibattuto)sull'oc. da 625/1500 a 700/1540 a me pare un oc sul modesto. poi con la mod. del bios a 725/1600 un oc certo più adeguato.
Per le memorie mi sembra che ci sia poco da overcloccare, ma per il core non mi puoi dire che è un oc modesto, parliamo di dissy stock, mica dello Zalman :eek:
yossarian
12-10-2005, 16:16
già 19 pagine :eekk: non leggo tutti commenti e dico solo una cosa...
non pensavo che ATi avesse tirato fuori un mostro simile...e in OC sembra andare come mai nessun'altra scheda :eek: veramente ottima VGA
sinceramente mi piacerebbe vedere un confronto tra una X1800XT e una 7800GTX con memorie alla stessa frequenza ;) imho la situazione si sarebbe allineata :)
ancora complimenti per l'ottima rece ;)
la gtx non è bandwidth limited ma fillrate limited
6880 MPixel/sec teorici contro i 10000 di R520 (in pratica sono 6400 contro 9400 circa). Se anche gli metti 2 GB di ram a 2 Ghz la situazione non cambia :read:
xXxCoKxXx
12-10-2005, 16:16
bartolino allroa tu nn hai capito come funziona la storia dei videogiochi...
premettendo che ati e nvidia facciano dei super driver per linux...
[che in ogni caso non è questo il motivo di discussione di questa recensione, infatti stai andando decisamente troppo ot]
chi vuole davvero giocare non userà MAI linux ;)
di conseguenza schede come 7800, 1800 non le vedrai mai ottimizzate al massimo sul linux..
poi vogliamo parlare delle librerie ?
le directX contro quelle di lunux? secondo te io .. proprietario di una nota industria di videogiochi.. sarò mai così folle da creare giochi ottimizzati per il sistema operativo linux.. che ricorpe si e no un 10% del mercato mondiale?
invece di prendertela con ati .. ( e dovresti farlo anche con nvidia) prenditela con gli sviluppatori dei giochi.. per quanto può servire infissarsi su queste cose..
yossarian
12-10-2005, 16:21
Non ti perdi nulla delle 19 pagine, la metà sono solo i miei esilaranti commenti.
Sull ' OC di questa scheda, bisogna sottolineare che per ottenerlo sono stati costretti a moddare il bios...non che sia proprio da manuale come OC...più che altro quanti saranno disposti a bruciarsi la garanzia di una scheda da 600 euro, per oocarla quando va già bene di suo?
forse ti sfugge il fatto che l'anomalia è il bios con o/c bloccato; quelle che metteranno in commercio lo avranno sbloccato di default (e le rev successive saliranno oltre i 725 Mhz di core)
bartolino3200
12-10-2005, 16:21
Quindi il solo uso che si può fare di un pc è il gioco.
Ottima notizia.
OpenGL sono librerie solo per giocare, non per software ottimizzati: qui mi sa che topolino è di moda...
Ati è buona solo per giocare, e vedere DVD altra interessante notizia.
A sto punto con 600 euro mi prendo una Playstation3 e in più una XBOX 360, che fino a quando vedremo la X1800XT saranno in commercio e magari pure in offerta speciale :asd: Scherzo...ma quasi quasi ...
la gtx non è bandwidth limited ma fillrate limited
6880 MPixel/sec teorici contro i 10000 di R520 (in pratica sono 6400 contro 9400 circa). Se anche gli metti 2 GB di ram a 2 Ghz la situazione non cambia :read:
madooooooo ma la gtx fa così poco? :D :read:
:p :sofico: :stordita:
bartolino3200
12-10-2005, 16:23
forse ti sfugge il fatto che l'anomalia è il bios con o/c bloccato; quelle che metteranno in commercio lo avranno sbloccato di default (e le rev successive saliranno oltre i 725 Mhz di core)
Esattamente, nn ricordo di averlo letto nella rece e probabilmente mi è sfuggito.
Finalmente un tuo commento in linguaggio umano e non in linguaggio macchina ;)
ps:deduco da alcuni atteggiamenti (vedi maury) che i fanboy non sono in via di estinzione e che quindi non mi possa più considerare facente parte di una specie protetta :cry: peccato.
xXxCoKxXx
12-10-2005, 16:23
p.s. stavo facendo un esempio io nn sono un noto proprietario di un bel niente uahauhauah sn un semplice studente di ingenieria informatica lol :P
ah..
"""""""""""
Sull ' OC di questa scheda, bisogna sottolineare che per ottenerlo sono stati costretti a moddare il bios...non che sia proprio da manuale come OC...più che altro quanti saranno disposti a bruciarsi la garanzia di una scheda da 600 euro, per oocarla quando va già bene di suo?
"""""""""""""
allora sei gnucco...
mettiti nella testa che:
*sei un utente di high-end..
..* non hai limite di budget praticamente.. xkè solo questi tipi di utenti possono permettersi schede video da 500 o 400 euro in su..
poi:
se oltre ad essere un utente high end.. sei un overclokker.. overclokki.. e rischi.. cme fanno tutti..
se non lo sei.. rimani con la tua bella x1800 .. che ha dimostrato d'andare meglio della 7800gtx..
e in OGNI CASO:
l'OVERCLOK è STATO EFFETTUTATO ANCHE SENZA REFRESH DEL BIOS..
CON BUONI RISULTATI CONSIDERANDO CHE NON è USCITO ANCORA ALCUN TOOL X SPINGERE QUESTI NUOVI PROCESSORI GRAFICI..
DAI TEMPO AL TEMPO... poi forse un paragone in overclock tra 7800gtx e x1800xt non sarebbe niente male auyhauahua sbavoooo
yossarian
12-10-2005, 16:23
Quindi il solo uso che si può fare di un pc è il gioco.
Ottima notizia.
OpenGL sono librerie solo per giocare, non per software ottimizzati: qui mi sa che topolino è di moda...
Ati è buona solo per giocare, e vedere DVD altra interessante notizia.
A sto punto con 600 euro mi prendo una Playstation3 e in più una XBOX 360, che fino a quando vedremo la X1800XT saranno in commercio e magari pure in offerta speciale :asd: Scherzo...ma quasi quasi ...
ATi si può usare tranquillamente anche con SW OpenGL pro. Un conto è l'OpenGL, un conto è Doom e derivati
Yuzuke@81
12-10-2005, 16:25
davvero ottima scheda....
e ottima recensione, peccato solo che mancano i confronti in oc con entrambe le schede....
cmq non pensavo ati sopravanzasse la gtx dopo tutti i problemi avuti...
complimenti ad ati...
bartolino allroa tu nn hai capito come funziona la storia dei videogiochi...
premettendo che ati e nvidia facciano dei super driver per linux...
[che in ogni caso non è questo il motivo di discussione di questa recensione, infatti stai andando decisamente troppo ot]
chi vuole davvero giocare non userà MAI linux ;)
di conseguenza schede come 7800, 1800 non le vedrai mai ottimizzate al massimo sul linux..
poi vogliamo parlare delle librerie ?
le directX contro quelle di lunux? secondo te io .. proprietario di una nota industria di videogiochi.. sarò mai così folle da creare giochi ottimizzati per il sistema operativo linux.. che ricorpe si e no un 10% del mercato mondiale?
invece di prendertela con ati .. ( e dovresti farlo anche con nvidia) prenditela con gli sviluppatori dei giochi.. per quanto può servire infissarsi su queste cose..
infatti un 68000Ultra con D3 fa meglio su Linux che su Windows in molti casi :rolleyes: e poi le librerie di Linux che tu disprezzi sono le OpenGL usate in The Chronicols of Riddik e D3 :O
guarda che i driver NVIDIA per Linux sono veramente ottimi :read:
leoneazzurro
12-10-2005, 16:26
no, la situazione anche con memorie alla stessa frequenza NON si sarebbe allineata.
ne abbiamo discusso ampiamente, dal punto di vista tecnico.
La situazione non sarebbe riallineata no, però diciamo che in alcune situazioni 512 mega avrebbero ridotto il divario da R520. Ma secondo me il discorso è un altro: serve guardare solo le prestazioni o anche le features? Quale dei due approcci è più adatto agli sviluppi futuri dei giochi?
Direi che da questo punto di vista R520 (e R580 migliorerà solamente la situazione, perchè pur essendo un "refresh", è un refresh sostanzioso) è sicuramente vincente.
Però a me sembra che si faccia troppo tifo e poco riferimento alla tecnologia: da un lato c'è chi tifa nvidia e dice che nonostante tutto le prestazioni non sono questo granchè, le nuove possibilità di queste schede non valgono granchè,ecc, chi tifa ATI sbandiera la superiorità delle nuove features dimentica che nonostante l'ottima architettura di R520 per oltre un anno e mezzo l'azienda canadese è rimasta indietro proprio nel supporto delle features.
Un pò di obiettività, diamine! Adesso la 1800XT è LA scheda di riferimento prestazionele E tecnologica (commercialmente, poi, trasformarla in un successo è un altro paio di maniche, però in questo momento si discute di tecnologia) come fino a ieri la 7800 GTX era LA scheda di riferimento prestazionale E tecnologica. E la scheda ATI lo rimarrà fino a che una nuova scheda, ATI o Nvidia che sia, la sorpasserà, ma sinceramente gli utenti dovrebbero esserne interessati solo dal punto di vista tecnologico e non certo farne una questione personale.
My 2 cents.
bartolino3200
12-10-2005, 16:26
infatti un 68000Ultra con D3 fa meglio su Linux che su Windows in molti casi :rolleyes: e poi le librerie di Linux che tu disprezzi sono le OpenGL usate in The Chronicols of Riddik e D3 :O
guarda che i driver NVIDIA per Linux sono veramente ottimi :read:
Quake4 forse a breve?
bartolino3200
12-10-2005, 16:28
ATi si può usare tranquillamente anche con SW OpenGL pro. Un conto è l'OpenGL, un conto è Doom e derivati
Forse mi prenderete per folle, ma mi sa che creerò un 3d di petizione da inviare ad ATI come richiesta per un maggior supporto LINUX.
Sai quanta gente pur facendoci un pensieino, abbandona l' idea di Linux per colpa di ATI? Per me gatta ci cova che fra Ati e Microsoft qualche accordo ci sia. Non è un caso che Microsoft utilizzerà r500 di Ati su Xbox.
xXxCoKxXx
12-10-2005, 16:29
ATTENZIONE ATTENZIONE SI RICORDA AL SIGNOR BARTOLINO3200 CHE STA SCRIVENDO ALL'INTERNO DI UN POST IN CUI IL SOGGETTO è UNA SCHEDA VIDEO ATI X1800 ALLA QUALE APPARTIENE ALLA FASCIA DI MERCATO CHIAMATA "HIGH-END".
P.S. COMPRATI PURE LA PS3 O L'XBOX360 CHE TANTO DOPO DEVI SBLOCCARLA E PERDERE LA GARANZIA.. SE NON VUOI SPENDERE 50 EURO X GIOCO.. PREGO.
Esattamente, nn ricordo di averlo letto nella rece e probabilmente mi è sfuggito.
Finalmente un tuo commento in linguaggio umano e non in linguaggio macchina ;)
ps:deduco da alcuni atteggiamenti (vedi maury) che i fanboy non sono in via di estinzione e che quindi non mi possa più considerare facente parte di una specie protetta :cry: peccato.
Ma non diciamo fesserie per piacere, non vorrai mica paragonare la mia fine ironia con il tuo incontrollato martellare degno del presidente di Nvidia Corporation :D
leoneazzurro
12-10-2005, 16:31
ATTENZIONE ATTENZIONE SI RICORDA AL SIGNOR BARTOLINO3200 CHE STA SCRIVENDO ALL'INTERNO DI UN POST IN CUI IL SOGGETTO è UNA SCHEDA VIDEO ATI X1800 ALLA QUALE APPARTIENE ALLA FASCIA DI MERCATO CHIAMATA "HIGH-END".
P.S. COMPRATI PURE LA PS3 O L'XBOX360 CHE TANTO DOPO DEVI SBLOCCARLA E PERDERE LA GARANZIA.. SE NON VUOI SPENDERE 50 EURO X GIOCO.. PREGO.
Direi che non è proprio il caso di sbandierare il proprio appoggio alla pirateria....
bartolino3200
12-10-2005, 16:32
ATTENZIONE ATTENZIONE SI RICORDA AL SIGNOR BARTOLINO3200 CHE STA SCRIVENDO ALL'INTERNO DI UN POST IN CUI IL SOGGETTO è UNA SCHEDA VIDEO ATI X1800 ALLA QUALE APPARTIENE ALLA FASCIA DI MERCATO CHIAMATA "HIGH-END".
P.S. COMPRATI PURE LA PS3 O L'XBOX360 CHE TANTO DOPO DEVI SBLOCCARLA E PERDERE LA GARANZIA.. SE NON VUOI SPENDERE 50 EURO X GIOCO.. PREGO.
Tu mi dici di fare ing. informatica e in poche parole pubblicizzi la pirateria che va contro il mondo nel quale un domani probabilmete lavorerai.
Belle cose da sentirsi queste.
I giochi per pc, costano anche più di 49 euro, ma devo dedurre che tu utilizzi solo giochi pirata.
Se cominci così avrai una etica professionale di tutto rispetto in futuro.
Campa cavallo che l' erba cresce :asd:
xXxCoKxXx
12-10-2005, 16:32
si doom3.. puoi elencarmi altri giochi che vanno meglio su linux... e che hanno piena compatibilità ? grazie.. xkè da possessore di mandrake devo essere rimasto indietro..
ATTENZIONE ATTENZIONE SI RICORDA AL SIGNOR BARTOLINO3200 CHE STA SCRIVENDO ALL'INTERNO DI UN POST IN CUI IL SOGGETTO è UNA SCHEDA VIDEO ATI X1800 ALLA QUALE APPARTIENE ALLA FASCIA DI MERCATO CHIAMATA "HIGH-END".
P.S. COMPRATI PURE LA PS3 O L'XBOX360 CHE TANTO DOPO DEVI SBLOCCARLA E PERDERE LA GARANZIA.. SE NON VUOI SPENDERE 50 EURO X GIOCO.. PREGO.
e tu faresti ING INF...ma ti rendi conto di quello che hai detto??? pensa che bello se quando farai un programma che molto probabilmente non sarà freeware tutti lo crackeranno e lo pirateranno :rolleyes:
xXxCoKxXx
12-10-2005, 16:34
uahauahuahuah ma sentili ma scusate alzi la mano chi di voi ha in tt i pc una copia non piratata di windows.. o di office o di photoshop.. o di qualsiasi programma... quindi evitate..
bartolino3200
12-10-2005, 16:34
Ma non diciamo fesserie per piacere, non vorrai mica paragonare la mia fine ironia con il tuo incontrollato martellare degno del presidente di Nvidia Corporation :D
Non credo che al presidente di nVidia corporation gli venga in mente di :Puke: su nForce4 come faccio io senza remore. Infatti voi fanboy di ATI dovreste astenervi dall' acquistare il tostapane nVidia, basato su nForce4 che costa una cifra oltretutto.
Passate ad ULI http://www.hwupgrade.it/forum/showthread.php?t=998913
:spam:
xXxCoKxXx: ti prego di darti una calmata...
bartolino3200
12-10-2005, 16:35
e tu faresti ING INF...ma ti rendi conto di quello che hai detto??? pensa che bello se quando farai un programma che molto probabilmente non sarà freeware tutti lo crackeranno e lo pirateranno :rolleyes:
ma lol Sirus praticamente all' unisono :asd:
si doom3.. puoi elencarmi altri giochi che vanno meglio su linux... e che hanno piena compatibilità ? grazie.. xkè da possessore di mandrake devo essere rimasto indietro..
UT ;) in molti casi (giocando in rete) si vedono vantaggi :O
poi io con un P3 @ 1400 e FX5600Ultra @ 500/1000 su Linux sono riuscito a far andare D3 al minimo, su Windows non partiva nemmeno :O
e comunque se cambiassi distro forse qualche possibilità in più l'avresti ;) pensa che ora Mandrake non esiste nemmeno più :O ha cambiato pure nome :mc:
comunque fine ot
ma lol Sirus praticamente all' unisono :asd:
scusa io mi metto nei panni del programmatore...mi dava fastidio far vedere ai miei compagni di classe il mio codice figuriamoci farglielo usare così per così :(
Boogey_man
12-10-2005, 16:39
Bla bala bla bla...
Ma alla fine stiamo là come prestazioni? SI
E allora non facciamola più grossa di quello che è con paroloni comprensibili a pochi...
Le prestazioni sono allineate, l' unica vera differenza è che 7800GTX la trovi da mesi X1800XT tutt' ora non si vede.
Senza sparare ca@@ate, giusto per mantenermi coerente al modo di esprimerti, la X1800XT per eguagliare 24 pipeline "deve" andare su di frequenza, e poi mi fate titoli ove "16 pipeline sono meglio di 24" ...
Scusa, io non ti conosco e non voglio essere tirato in mezzo a discorsi tra tifosi...però anticipato questo, l'unica cosa vera che hai detto (secondo me) e che è condivisibile è che la 1800XT non la trovi ancora sul mercato..poi se ti rileggi la recensione la 1800XT sta sempre o quasi davanti (anche con distacchi notevoli qualche volta) nelle situazioni di rendering complesso, che è il campo migliore dove, secondo me, vanno fatti i paragoni tra le schede top...quindi l'affermazione "16 pipeline sono meglio di 24" è vera e supportata da dati reali..
Per quel che riguarda queste due affermazioni: "la X1800XT per eguagliare 24 pipeline "deve" andare su di frequenza" e "Dico solo che se r520 per stare alla pari con G70 deve avere quelle frequenze con quei consumi nonostante i 90 nanometri", rispondo che forse non hai letto bene la pagina dove si fa il confronto tra le schede a parità di pipeline e frequenze, dove risulta che con questa parità le x1800 stanno ancora davanti nel rendering complesso..quindi quello che dici, da questi dati risulta sbagliato...poi interpreta i dati come vuoi tu...
ti faccio una domanda: chi è stata la prima secondo te, Nvidia a tirare fuori una nuova scheda o Ati a tirare fuori una nuova architettura?
Ciao... :D
bartolino3200
12-10-2005, 16:41
scusa io mi metto nei panni del programmatore...mi dava fastidio far vedere ai miei compagni di classe il mio codice figuriamoci farglielo usare così per così :(
Ed hai perfettamente ragione. Uno dei miei migliori amici è dottore in informatica e vedendo il :ciapet: che si è fatto sui libbri...
Secondo me è da folli comprare giochi pirata con tutte le porcherie che ci possono essere in quei cd, che oltretutto alimentano la malavita.
E' invece saggio e furbo comprare giochi usati, se il titolo non è dei preferiti e non si vuole spendere molto. Quando invece si tratta di titoli del cuore è chiaro un po' come il cantante preferito, il disco nuovo di zecca e da custodire con cura è d' obbligo.
yossarian
12-10-2005, 16:43
Forse mi prenderete per folle, ma mi sa che creerò un 3d di petizione da inviare ad ATI come richiesta per un maggior supporto LINUX.
Sai quanta gente pur facendoci un pensieino, abbandona l' idea di Linux per colpa di ATI? Per me gatta ci cova che fra Ati e Microsoft qualche accordo ci sia. Non è un caso che Microsoft utilizzerà r500 di Ati su Xbox.
allora prima c'era tra nVIDIA e MS, visto che per l'x-box ha utilizzato un chip NV.
Se MS utilizza R500 forse è anche perchè è il chip più avanzato in circolazione. Tanto che c'è persino il rischio che Carmack abbandoni la OPenGL per adoperare come piattaforma di riferimento R500
id Software's John Carmack has often commented that his engines target a particular feature set of a graphics board and he uses a certain boards for his primary development; for instance the Doom3 engine was initially targeted towards the features enabled by the GeForce 256 series of graphics processors, but overtime that was incremented to DirectX8 and 9 level boards, with NVIDIA's 5800 (NV30) being his primary development platform for a while. What has always been clear is that the PC, and the capabilities of PC graphics, was id's primary target market and development platform. From John's keynote speech, transcribed here by Beyond3D forum member aaaaa00, it would appear that this is likely to change, in the interim at least:
"In the last couple weeks I actually have started working on an XBOX 360. Most of the upcoming graphics development work will be starting on that initially. It’s worth going into the reasons for that decision on there. To be clear, the PC platform will be released at least at the same time if not earlier than any of the consoles but we are putting a good deal more effort towards making sure that the development process goes smoothly onto them."
Questions have often been asked about the state and longevity of the games market on the PC, and although John states that the PC versions of upcoming id engine based titles will appear on the PC first, it could be quite telling that such a consummate PC developer is choosing to base his development on the XBOX 360 for the time being.
However, reading into it a little further he clearly states that "most upcoming graphics development" will be based on XBOX 360 - other than the reasons he states, this could also be because the graphics processor within the XBOX 360 will not only be relevant to the XBOX 360, but may also give more insights to future PC processors than those around now or the next year. As our article on Xenos, the graphics processor behind the XBOX 360, states, the graphics processor doesn't map entirely on to any current DirectX based PC graphics processor, and whilst falling short of Shader 4.0 capabilities (as they probably haven't been entirely finalised yet, and certainly not when Xenos's design was finished) it does have capabilities beyond the current Shader Model 3.0 requirements. To add to that, the XBOX 360 processor utilises a unified shader architecture, bringing around the potential for a different balance in vertex to pixel loads, as well as a general understanding of the performance mapping - while it is almost a given that ATI will bring an architecture very similar to this for the PC, NVIDIA have also recently made suggestions that they are looking into it as well, so getting to grips with such a graphics processor now may be beneficial for PC development later.
Ho evidenziato anche il punto in cui si dice che la piattaforma di riferimento per lo sviluppo di Doom 3 è stata NV30 (strano, vero, eppure non è stato sicuramente il miglior chip del suo periodo :D )
fonte B3D
Non credo che al presidente di nVidia corporation gli venga in mente di :Puke: su nForce4 come faccio io senza remore. Infatti voi fanboy di ATI dovreste astenervi dall' acquistare il tostapane nVidia, basato su nForce4 che costa una cifra oltretutto.
Passate ad ULI http://www.hwupgrade.it/forum/showthread.php?t=998913
:spam:
ma che centra ? :mbe: guarda che sei in un topic sulle schede video mica in un percorso da "fuoristrada" :D :doh:
xXxCoKxXx
12-10-2005, 16:45
mauhauahuah può essere disonesto quanto vuoi piratare i giochi e non solo.. ma mettiti nei panni di uno studente..
posso permettermi windows,office e programmi vari gratis x studiare? quando oltre all'iscrizione devo pagare l'affitto dell'appartamento... è inconcepibile.. finchè non ci passi e non hai calci nel culo alle spalle non te ne rendi conto ;)
mauhauahuah può essere disonesto quanto vuoi piratare i giochi e non solo.. ma mettiti nei panni di uno studente..
posso permettermi windows,office e programmi vari gratis x studiare? quando oltre all'iscrizione devo pagare l'affitto dell'appartamento... è inconcepibile.. finchè non ci passi e non hai calci nel culo alle spalle non te ne rendi conto ;)
io sono uno studente e di prog crackati non ne uso :) ho Windows e Visual Studio regolari e OpenOffice su Win32, poi uso molto anche Linux e quindi i problemi di spese non ne ho...
io dico solo una cosa, se non puoi "permetterti" l'acquisto di un gioco regolare non lo usi ;)
il titolo più nuovo che uso io ha la bellezza di 4 anni :fagiano:
Free Gordon
12-10-2005, 16:48
Bella scheda, ma con un ritardo di 4/5 mesi mi sarei aspettato prestazioni più elevate rispetto a G70 che a 430Mhz è praticamente dwoncloccato...
ricordiamo che a 399 oggi si trova una 7800GT...
Che però spesso, con i filtri, è a livello di una 850xt pe che costa ancora 60 euro in meno.
capitan_crasy
12-10-2005, 16:49
uahauahuahuah ma sentili ma scusate alzi la mano chi di voi ha in tt i pc una copia non piratata di windows.. o di office o di photoshop.. o di qualsiasi programma... quindi evitate..
IO! :p
Windows xp Pro sp1 OEM originale, sul mio muletto Windows xp Home OEM (versione 2002)
Non uso Office, mi basta Star office
Non uso Photoshop, dalla versione 4 uso Coler Photo-Paint (ora sono alla 12)
Ho qualche gioco, tutti originali...
Panda internet security 2005 (ancora per poco :muro: ) acquistato on-line
Non cercare giustificazioni sulla pirateria con la solita frase "tanto lo fanno tutti"... :mc: :rolleyes:
bartolino3200
12-10-2005, 16:50
aalora prima c'era tra nVIDIA e MS, visto che per l'x-box ha utilizzato un chip NV.
Se MS utilizza R500 forse è anche perchè è il chip più avanzato in circolazione. ... fonte B3D
...ma Linux oggi diviene sempre più una minaccia per microsoft, di quanto non lo fosse al tempo di Xbox (la prima) qundi in quel periodo microsoft sorvolò.
Per questo forse ATI dapprima annunciò che i suoi driver avrebbero surclassato nVidia e poi ha abbandonato il tutto puntualmente dopo gli accordi per Xbox360.
Che sia meglio o peggio r500 non è affar mio, visto che mi sta più a cuore che ATI supporti a dovere LINUX. Allora sarò il primo a comprarmele le ATI, oltre a poter utilizzare meglio e in più ambiti la 9800pro che tutt' ora ho.
CiccoMan
12-10-2005, 16:50
mauhauahuah può essere disonesto quanto vuoi piratare i giochi e non solo.. ma mettiti nei panni di uno studente..
posso permettermi windows,office e programmi vari gratis x studiare? quando oltre all'iscrizione devo pagare l'affitto dell'appartamento... è inconcepibile.. finchè non ci passi e non hai calci nel culo alle spalle non te ne rendi conto ;)
Direi di chiudere quì l'argomento visto che si sta scadendo!
Cmq ho amici di fuori che fanno ing e si pagano l'affitto, da mangiare, ecc... lavorando! Beh, se vogliono comprarsi qualcosa extra fanno sacrifici e se non riescono usano i mezzi che mette a disposizione l'università! ti assicuro che si campa lo stesso anche senza la copia di win piratata... cmq non ne parliamo, che poi io sono la persona meno adatta per dire questa cose :stordita:
zephyr83
12-10-2005, 16:53
Scusate, nn sn riuscito a leggere tutte le 23 pagine discussione e nn so se è già stato chiesto......ma perché mancano i test con Half Life 2???????????
mauhauahuah può essere disonesto quanto vuoi piratare i giochi e non solo.. ma mettiti nei panni di uno studente..
posso permettermi windows,office e programmi vari gratis x studiare?
Puoi usare linux + openoffice + software free
Athlon 64 3000+
12-10-2005, 16:56
...ma Linux oggi diviene sempre più una minaccia per microsoft, di quanto non lo fosse al tempo di Xbox (la prima) qundi in quel periodo microsoft sorvolò.
Per questo forse ATI dapprima annunciò che i suoi driver avrebbero surclassato nVidia e poi ha abbandonato il tutto puntualmente dopo gli accordi per Xbox360.
Che sia meglio o peggio r500 non è affar mio, visto che mi sta più a cuore che ATI supporti a dovere LINUX. Allora sarò il primo a comprarmele le ATI, oltre a poter utilizzare meglio e in più ambiti la 9800pro che tutt' ora ho.
Ti dico solo una cosa.
Ti stai redendolo ridicolo visto che sei veramente l'unico che ha un'atteggiamento denigratorio in maniera cosi esagerata nei confronti di Ati.
E ti parla uno che ha una 6800GT è ha ordinato una 7800GTX.
guglielmit
12-10-2005, 16:58
Non ti sbagli, perchè tutti i siti hanno affermato che l'architettura di R520 è nettamente migliore di quella di G70 il tutto si traduce in un elogio a tale scheda. Così come tutti i confronti precedenti tra X800 e G70 erano compilati con un tono di parte verso Nvidia.
Un po' esagerato quel NETTAMENTE :sofico: Questo intendo quando dico ,tono un po' di parte :) Se leggi con attenzione vedrai che ad ogni punto a favore di nvidia viene data un motivazione "modesta" quando il punto e' da ATI il tutto viene esaltato :D Ma cmq non c'e' nulla di male,ti ripeto che io stesso mi sento piu' legato a ATI e molto probabilmente mi sentirei portato ad esaltare piu' ATI che Nvidia. Questo non toglie che il lettore piu' attendo puo' cogliere...no?
Ti è sfuggito. C'è scritto. La GTX di Nvidia è una e prevede 430mhz per il core.
Molto bene....la piu' lenta :muro: allora io mi chiedo,che senso ha' fare un prova di 7800 in SLI e saltare la prova di 7800 in OC ??? Devi ammettere che sarebbe curioso vedere come sui comporta un GTX anche "solo" a 500/1300 ;)
Mi sembra di leggere la diatriba Intel-AMD.
Se fa' un buon risultato Intel...diventa un "benino" Se lo fa' AMD diventa "mostruoso" !! :rolleyes:
Free Gordon
12-10-2005, 16:59
Mi pare una scheda di transizione così come la serie 7800; chi ha 800/850 o 6800/6800Gt può stare tranquillo.
Certo, tra x800/6800 e 7800/x1800 non c'è il salto che c'è stato fra 9800/5900 e x800/6800. Almeno per quanto riguarda le prestazioni pure.
In architettura invece il salto che c'è stato da x800 a x1800, è molto più alto che quello tra 9800 e x800.
yossarian
12-10-2005, 16:59
...ma Linux oggi diviene sempre più una minaccia per microsoft, di quanto non lo fosse al tempo di Xbox (la prima) qundi in quel periodo microsoft sorvolò.
Per questo forse ATI dapprima annunciò che i suoi driver avrebbero surclassato nVidia e poi ha abbandonato il tutto puntualmente dopo gli accordi per Xbox360.
Che sia meglio o peggio r500 non è affar mio, visto che mi sta più a cuore che ATI supporti a dovere LINUX. Allora sarò il primo a comprarmele le ATI, oltre a poter utilizzare meglio e in più ambiti la 9800pro che tutt' ora ho.
intendi i giochi su Linux? Perchè se si tratta di quelli, allora dovresti sapere che il cosiddetto OpenGL di molti giochi (soprattutto targati ID) è in realtà un NVGL, visto che fa uso di diverse estensioni proprietarie di nVIDIA.
Poi, il fatto che allora Linux era un pericolo minore è una palla talmente grossa che finisce che qualcuno ci crede pure. Stiamo parlando di meno di quattro anni fa e, tra l'altro, di un periodo in cui sembrava potesse prendere piede l'open source più di quanto non stia facendo adesso (che la situazione si è alquanto stabilizzata). MS ha molto più in pugno la situazione ora di quanto non fosse 4 o 5 anni fa e di questo, temo, dovrai fartene una ragione.
In ogni caso, sono convinto che non compreresti ATi neppure se avesse il miglior supporto per Linux del mondo, perchè troveresti sempre qualcosa che non va (la 9800 pro che continui a sbandierare non fa testo alcuno); sicuramente troveresti altre scuse: magari il nome troppo corto o il fatto che preferisci il verde e il bianco al rosso e bianco :D
Crystal1988
12-10-2005, 17:00
Scusate... ma le differenze in OpenGL a COSA sono dovute?
Mi spiego...
Nella mia opinione... credo che queste differenze in OpenGL riscontrabili in Doom-3 e Riddick siano dovute in primis al forte utilizzo di shaders semplici, campo dove Nividia primeggia... mentre Ati primeggia negli shaders complessi... Inoltre man forte dovrebbe darlo sia l'utilizzo della stencil shadows (tecnologia proprietaria Nvidia????non ne sono sicuro) dove Nvidia ha un'implementazione nativa e l'ultilizzo di Ultra Shadows che è una tecnologia Nvidia.
A questo punto mi sembra chiaro che in questo campo, se sono usate le stencil e shaders semplici, Nvidia primeggi...
Ma se ciò fosse proprio così... Non potrebbe Ati, implementare almeno le stencil e Ultra shadows? o sarebbe un lavoro troppo oneroso o forse addirittura non lo permette l'architettura?
PS... sapete dove posso trovare qualche bench d'ambito professionale che compari nvidia,ati,3Dlabs?
hackboyz
12-10-2005, 17:08
Sì in effetti perchè manca HL2? :mbe:
bartolino3200
12-10-2005, 17:09
Puoi usare linux + openoffice + software free
Questo è parlare. Poi esistono le licenze studenti, ma ovviamente facciamo finta di niente...
guglielmit
12-10-2005, 17:09
Sì in effetti perchè manca HL2? :mbe:
E manca pure una 7800 In OC!! :mbe: Pero' c'e' lo SLI :sofico:
Scusate, nn sn riuscito a leggere tutte le 23 pagine discussione e nn so se è già stato chiesto......ma perché mancano i test con Half Life 2???????????
perché con l' ultimo update di steam crashava con tutte le schede.
yossarian
12-10-2005, 17:14
E manca pure una 7800 In OC!! :mbe: Pero' c'e' lo SLI :sofico:
a me, invece, piacerebbe sapere se, nei bench, G70 utilizzava la modalità fp32. Perchè nella stragrande maggioranza dei titoli, la modalità usata prevalentemente è fp16 (a fp32 si perde circa un 20%)
La ragione è molto semplice: i giochi futuri faranno sempre più uso di dynamic branching e precisione di calcolo elevata
ATTENZIONE ATTENZIONE SI RICORDA AL SIGNOR BARTOLINO3200 CHE STA SCRIVENDO ALL'INTERNO DI UN POST IN CUI IL SOGGETTO è UNA SCHEDA VIDEO ATI X1800 ALLA QUALE APPARTIENE ALLA FASCIA DI MERCATO CHIAMATA "HIGH-END".
P.S. COMPRATI PURE LA PS3 O L'XBOX360 CHE TANTO DOPO DEVI SBLOCCARLA E PERDERE LA GARANZIA.. SE NON VUOI SPENDERE 50 EURO X GIOCO.. PREGO.
Quoto!!!!! :D :D :D :D :D
Sì in effetti perchè manca HL2? :mbe:
L'ha spiegato Raffaele, l'ultimo aggiornamento via Steam ha reso il gioco instabile su tutte le schede video, il bench non si poteva quindi eseguire ;)
Free Gordon
12-10-2005, 17:18
Concludo con una piccola provocazione....
Fino a quando possiamo continuare su questa strada? Vediamo Schede di ultima generazione che costano da sole come un PC intero far girare giochi a 20-30Fps!! Vedi Call of Duty2 o FEAR. Giochi che con una nuova consolle girano senza alcun problema... Sono le software house che non sanno programmare? O c'e' solo businness alla base di tutto?
E questo è ancora più incredibile, se si pensa che su C1 (volgarmente detto R500) di X360, il gioco girerà 60fps con vsync @720p, a detta della stessa Infinity Ward. ;)
Mastromuco
12-10-2005, 17:19
Comunque vorrei far notare a quelli che dicono che le schede sono sostanzialmente alla pari che hanno una strana concezione del termine "sostanziale".
COn filtri attivati (come vuole la logica di queste schede high end) ci sono distacchi anche di 20-30% negli FPS (a risoluzioni alte).
Far Cry circa 15%
Splinter 25%
BF2 40%
UT2004 un po' meno di 30%
E avanti così...
Ora, 2 schede allineate lo sono quando siamo intorno al 3-5%.
Questo non per difendere Ati a tutti i costi ma semplicemente per onestà dei numeri.
Cioè con lo stesso discorso allora una GTX è sostanzialmente alla pari con una 6800Ultra, cosa evidentemente non vera :rolleyes:
bartolino3200
12-10-2005, 17:19
intendi i giochi su Linux? Perchè se si tratta di quelli, allora dovresti sapere che il cosiddetto OpenGL di molti giochi (soprattutto targati ID) è in realtà un NVGL, visto che fa uso di diverse estensioni proprietarie di nVIDIA.
Poi, il fatto che allora Linux era un pericolo minore è una palla talmente grossa che finisce che qualcuno ci crede pure. Stiamo parlando di meno di quattro anni fa e, tra l'altro, di un periodo in cui sembrava potesse prendere piede l'open source più di quanto non stia facendo adesso (che la situazione si è alquanto stabilizzata). MS ha molto più in pugno la situazione ora di quanto non fosse 4 o 5 anni fa e di questo, temo, dovrai fartene una ragione.
In ogni caso, sono convinto che non compreresti ATi neppure se avesse il miglior supporto per Linux del mondo, perchè troveresti sempre qualcosa che non va (la 9800 pro che continui a sbandierare non fa testo alcuno); sicuramente troveresti altre scuse: magari il nome troppo corto o il fatto che preferisci il verde e il bianco al rosso e bianco :D
Tutto ciò sarebbe molto triste se fosse vero.
me ne sono fatto una ragione per BeOS, ma non credo che il futuro di LINUX sia così nero, solo perchè la maggior parte delle persone che si formano e lavorano in ambito informatico sentono il peso di doverlo supportare.
Linux, non è giochi è anche (in parte) giochi.
Sono le persone più preparate come te che dovrebbero appoggiare la politica dell' opensource e non abbatterla sia pure solo con le parole, per il solo motivo che non si abbia la voglia di dover studiare la propria materia su più fronti. In fondo fa comodo a molti avere una sola piattaforma, in primis alla tua amata ATI che tanto appoggi e per la quale diresti tranquillamente addio a LINUX. Io invece al tuo contrario direi benvenuta ad ATI qualora surclassasse nVidia in tali ambiti. Credimi e fidati che lo farei, l' ho fatto già una volta solo per un annuncio fasullo, figuriamoci se non lo rifaccio con dati alla mano.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.