PDA

View Full Version : ATI R520: le prime specifiche non ufficiali appaiono on line


Redazione di Hardware Upg
16-02-2005, 11:22
Link alla notizia: http://news.hwupgrade.it/14056.html

24 pipeline di rendering, Shadel Model 3.0, processo produttivo a 0.09 micron e memorie GDDR3 a 1,8 Ghz: queste le specifiche non ufficiali della nuova soluzione top di gamma ATI

Click sul link per visualizzare la notizia.

Dreadnought
16-02-2005, 11:26
sarà interessante mappare 32 texture unit su 24 pipe :asd:

lele980
16-02-2005, 11:34
700 mhz di core!! 1,8 ghz di memoria!!:eek: :eek:

che impianto di raffreddamento ci vuole per diminuire i bollenti spiriti di questa vga!!

magari esce con un kit ad acqua o meglio ad azoto liquido:sofico: :sofico:

LASCO
16-02-2005, 11:35
# Performance: Over 3x Radeon X800 XT !!! (for single R520)Questo da una parte farebbe piacere, ma dall'altra vorrebbe dire che la tecnologia invecchia sempre piu' velocemente e le schede possedute dureranno sempre meno (ovviamente per quanto riguarda i giochi).

lele980
16-02-2005, 11:41
Originariamente inviato da LASCO
Questo da una parte farebbe piacere, ma dall'altra vorrebbe dire che la tecnologia invecchia sempre piu' velocemente e le schede possedute dureranno sempre meno (ovviamente per quanto riguarda i giochi).

se è vero! si puo' dire che questo mostro di potenza possa da sola confrontarsi con 2 6800 gt o forse 2 ultra!!sarebbe un grande smakko per nvidia!!!

Brugola
16-02-2005, 11:42
Launch: Q2 2005

............
vanno di fretta???
ho fatto neanche in tempo a prendere una x800xt pe che tra pochi mesi è gia ipersurclassata.......

pero se la fanno cosi è da :sbav:

danicivic
16-02-2005, 11:44
Pazzesco.. se venissero confermati tali rumours... come dicono su xtreme "if this is even 85% accurate, NV should be afraid, very afraid..."

AnonimoVeneziano
16-02-2005, 11:44
E quello a cui porta la concorrenza sfrenata :)

Ciao

LASCO
16-02-2005, 11:48
Originariamente inviato da lele980
se è vero! si puo' dire che questo mostro di potenza possa da sola confrontarsi con 2 6800 gt o forse 2 ultra!!sarebbe un grande smakko per nvidia!!! Fino a quando non uscirebbe anche il nuovo chip di nVidia. Ormai e' difficile che uno tra ATI e nVidia surclassi l'altro a parita' di generazione di scheda video. La serie R300 diciamo che e' andata meglio della NV30, la serie R420 un po' meno della NV40, e forse la R520 andra' meglio della NV50 o come si chiamera'. Da una parte e' ragionevole che ci sia questo effetto altalenante.
(Ragionamento un po' impreciso, solo per dare un'idea)

TripleX
16-02-2005, 11:50
la serie r420 un po' meno di nv40...non mi pare:rolleyes:
sono 32 texture per pipe:) single pass

^TiGeRShArK^
16-02-2005, 11:51
rumours....
onestamente il dato 24 pipe 32 texture units mi pare un pò strano....
vabbè ke x pure le x800xt odierne si diceva ke in realtà fossero 8 extreme pipeline ke si comportano com 16 pipe....
cmq tra una decina di giorni lo sapremo mi sa! ;)

Symonjfox
16-02-2005, 11:51
Originariamente inviato da AnonimoVeneziano
E quello a cui porta la concorrenza sfrenata :)

Ciao
Si, ad aumentare enormemente gli sprechi!
Pensavo che, come AMD e Intel, ripiegassero sullo sviluppo seguendo i prodotti per mobile, invece presentano schede video dal consumo esagerato!

Io speravo molto di vedere una scheda con un buon bilanciamento tra consumo e prestazioni, invece le 2 caratteristiche aumentano di pari passo.

Ovvio che poi usciranno le versioni SE, Liscia, Pro, XT, PE ...

LASCO
16-02-2005, 11:54
Originariamente inviato da AnonimoVeneziano
E quello a cui porta la concorrenza sfrenata :)

Ciao E' vero, questa concorrenza sfrenata porta vantaggi in termini di miglioramenti tecnologici, quindi di performances, ma dall'altra se uno vuole stare al passo con la tecnologia deve aggiornarsi sempre piu' spesso.
Forse una soluzione sarebbe, non solo per quanto riguarda i giochi, curare particolarmente la scalabilita' delle applicazioni cosi' da poterle sfruttare sempre a seconda del proprio sistema.

zanardi84
16-02-2005, 11:55
Ragazzi, ATI è a un bivio: O questa è la scheda capace di bissare i trionfi della architettura a base delle 9700 9800 (la serie X sino ad ora non è stata all'altezza delle aspettative), oppure ci troviamo ad un momento di difficoltà in cui si introducono tante novità senza però ottenere molto, anzi (vedi Nvidia Geforce Fx serie 5)

Però penso che Se ATI, fedele alla continuità e piuttosto conservativa nelle sue scelte negli ultimi tempi, ha deciso di introdurre così tante innovazioni (la prima è il processo ancor più miniaturizzato) significa che la vera serie in grado di succedere alla 9700/9800 dinasty sarà r520, senza ombra di dubbio.

Come Disse Vico: "nel corso della storia ci sono corsi e ricorsi"

In soldoni: Nvidia lancia la Geffo3 che sbaraglia Ati 8500 (corso).
Esce r3xx e le Geffo4/geffo fx si perdono nel nulla (ricorso)

Esce La serie 6 di Nvidia e ATI perde il primato, seppur di poco (corso)

Uscirà r520 e la serie 6 andrà a casa, pur essendo una serie veramente ottima (ricorso)

magilvia
16-02-2005, 11:58
Mhh secondo me sono specifiche esagerate. Mai successo che una vga della generazione successiva sia 3 volte più veloce della generazione precedente. Per noi utenti sarebbe veramente ottimo (a parte i prezzi :rolleyes:) ma la concorrenza fra ati e nvidia si farebbe così agguerrita che neanche a loro converrebbe...

danicivic
16-02-2005, 12:02
Bbiitico Zanardi84.. eheh.. mi hai ricordato le lezioni di filosofia del liceo!!!

P.S.
Cmq sono abb d' accordo con la tua analisi..!!

Banus
16-02-2005, 12:06
Originariamente inviato da magilvia
Mhh secondo me sono specifiche esagerate. Mai successo che una vga della generazione successiva sia 3 volte più veloce della generazione precedente.
Quando per R300 si erano annunciate prestazioni 2-3 volte superiori rispetto alla generazione precedente, e limitandosi alle applicazioni DirectX 8.. da un cambio di architettura è pensabile.
Considera che il processo produttivo è passato a 130 nm a 90 nm, teoricamente permette un salto di quasi 3 volte (fra densità di transistor e frequenza di clock).
Comunque è un bel salto... mi aspettavo qualcosa di più conservativo. Se le specifiche saranno confermate ci sarà da divertirsi... :D

Tefnut
16-02-2005, 12:12
spero in un calo di prezzi..

ora tante schede.. tanto casino
prezzi esagerati

inoltre ci terrei a vedere i consumi.. troppo esagerati a parer mio.

TripleX
16-02-2005, 12:17
opp macci e co. la proveranno in anteprima a dallas stabilendo (sicuramente) il primato 3dmark :sofico:
non che ci voglia molto ma con tali specifiche dovrebbe sparare sui 20000 al 2005 a occhi chiusi

MiKeLezZ
16-02-2005, 12:17
Come sempre succede, il dato "3x" è dato così, sulla fiducia, senza specificare dove e come, quindi va preso con le pinze..
A vedere le specifiche comunque probabilmente assisteremo al classico raddoppio delle prestazioni a cui siamo stato abituati fino ad ora...
Il dubbio è che però questa scheda sia una sorta di X800XT PE (non ho letto il thread su extreme system ma mi sembra di aver capito che i più grandi clockers del mondo sono stati invitati da Ati e, la sparo lì, abbiano visto una scheda overcloccata), il che la renderebbe sì valida, ma solo sulla carta. Quindi come è stato già giustamente detto, bisognerebbe forse abbassare il tiro.
550-600Mhz core, 16-20 pipe, 1100-1400Mhz memorie, mi sembrano dati più "terreni". Finalmente implementati SM 3.0, il processo a 0,9 dovrebbe beneficiare un po' tutti (prezzi si spera non troppo alti, così come i consumi) e speriamo che 256MB di memoria on-board siano la norma.
Comunque non vedo l'ora che escano.. Così anche le vecchie si svalutano :P .
Per chi si lamenta della tecnologia che avanza troppo in fretta: preferiresti avere nel case una 6800gt oppure ancora una geforce4, magari "modello nuovo anno 2005", con semplici frequenze di clock superiori? La risposta mi sembra ovvia..

TripleX
16-02-2005, 12:19
mi spieghi come se e' per il 26-27???:confused:

MiKeLezZ
16-02-2005, 12:27
Originariamente inviato da TripleX
mi spieghi come se e' per il 26-27???:confused:
chi cosa dove come quando perchè
ma soprattutto mettiamoci anche il soggetto nelle frasi

d@vid
16-02-2005, 12:36
Anke se il processo produttivo è di 0.09m (come per i P4, incredibile :eekk: !), 300/350 mln di transistor scaldano eccome!
Farli lavorare poi a 700 Mhz mi sembra assurdo... In fondo stiamo pur sempre parlando di una skeda x videogiocatori (incalliti), nn di una x realizzare effetti speciali supermegagalattici... Di questo passo x alimentare le skede delle generazioni successive occorrerà una centrale elettrica, altro ke risparmio energetico... X ottenere poi cosa??! bah!

Balrog
16-02-2005, 12:41
Chissà quanto consuma un mostro del genere....secondo me 150w.
Comunque è normale che per avere maggiori prestazioni si richieda un consumo maggiore, potranno limitarlo con architetture miniaturizzate.. ma solo fino a un certo punto.
il supercomputer per i videogiochi del futuro consumerà sicuramente tanto...è inevitabile.

|Draven|
16-02-2005, 12:42
mi chiedo una cosa....ma se queste casatteristice fossero vere...anche se avessimo un Athon FX55 non saremmo CPU Limited ? che ne pensate ?

JOHNNYMETA
16-02-2005, 12:43
Finalmente si comincia a ragionare con le specifiche, erano 20.000.000.000 di anni che aspettavo circa questi paramentri.
Finalmente si apre l'era di un certo realismo ricco e fluido.

Anno zero=(luci di doom3+ambienti e texture di HL2 e FCry).

Cerchiamo di passare all'anno 1.Queste specifiche lo permettono.

LASCO
16-02-2005, 12:47
Originariamente inviato da Balrog
Chissà quanto consuma un mostro del genere....secondo me 150w.
Comunque è normale che per avere maggiori prestazioni si richieda un consumo maggiore, potranno limitarlo con architetture miniaturizzate.. ma solo fino a un certo punto.
il supercomputer per i videogiochi del futuro consumerà sicuramente tanto...è inevitabile. Non preoccuparti, quando sarà necessario diminuire consumi, si diminuiranno i consumi. La tecnologia c'è e ci sarà, ma adesso non gli conviene.

Balrog
16-02-2005, 12:49
Originariamente inviato da |Draven|
mi chiedo una cosa....ma se queste casatteristice fossero vere...anche se avessimo un Athon FX55 non saremmo CPU Limited ? che ne pensate ?


questa scheda verrà sicuramente sfruttata con la prossima generazione di cpu ovvero i dual core intel e successivamente AMD

MiKeLezZ
16-02-2005, 12:50
L'R300 aveva 107 milioni di transistor ed era a .15
L'NV40 ha 222 milioni di transistor ed è a .13
L'R500 ha 300 milioni di transistor ed è a .09
Credo che i consumi, considerando che oltre il die shrink in questi anni ci sono state ricerche atte ad abbassarli, non saranno di molto superiori alle schede attuali.

Però è da vedere sia a .09.. Io lo spero, ma di solito prima di immettere schede con una nuova tecnologia Ati le prova sui modelli attuali.. vedi la 9600xt a .13 quando si usavano ancora i .15 e le x800xl che sono .11 quando si usano al momento i .13 ..

LASCO
16-02-2005, 12:53
Originariamente inviato da MiKeLezZ
Per chi si lamenta della tecnologia che avanza troppo in fretta: preferiresti avere nel case una 6800gt oppure ancora una geforce4, magari "modello nuovo anno 2005", con semplici frequenze di clock superiori? La risposta mi sembra ovvia.. Preferirei non dover spendere ogni 1-2 anni troppi soldi per poter sfruttare appieno le applicazioni videoludiche, ma cio' comporterebbe in parte doversi accontentare di applicazioni meno complesse. In parte, perchè gli sviluppatori progettano un videogame a seconda del parco macchine e se questo non si aggiorna troppo velocemente cercherebbero, forse, di ottimizzare di piu' i giochi.
A me basta che li facciano molto scalabili.

Balrog
16-02-2005, 12:56
Originariamente inviato da LASCO
Non preoccuparti, quando sarà necessario diminuire consumi, si diminuiranno i consumi. La tecnologia c'è e ci sarà, ma adesso non gli conviene.

quello che volevo dire è che con il passare delle generazioni di cpu e gpu inevitabilmente i consumi saliranno.

Sarei curioso di sapere quanto sono saliti i consumi considerando l'arco di tempo che va dal pentium 200mmx con voodo 2 ad oggi pentium 4 3,4ee con 6800ultra.

JOHNNYMETA
16-02-2005, 12:58
Originariamente inviato da Symonjfox
Si, ad aumentare enormemente gli sprechi!
Pensavo che, come AMD e Intel, ripiegassero sullo sviluppo seguendo i prodotti per mobile, invece presentano schede video dal consumo esagerato!

Io speravo molto di vedere una scheda con un buon bilanciamento tra consumo e prestazioni, invece le 2 caratteristiche aumentano di pari passo.

Ovvio che poi usciranno le versioni SE, Liscia, Pro, XT, PE ...

Nessuno spreco solo progresso, per consumare poco puoi sempre tenerti la scheda che hai.

Secondo logica doppia potenza vorrebbe dire doppio consumo,
ma adesso siamo viziati e vogliamo anche che consumi uguale.
Processo produttivo a 0,09 micron: cosa vuoi di più.

danicivic
16-02-2005, 12:59
Beh il overclock party di ati sarà tenuto il 26-27 a Dallas.. solo dopo potremo conoscere le impressioni di Opp, Macci & co. perciò solo allora sapremo qualcosa di +.. (a meno che non li obblighino a stare zitti a suon i quattrini o contrati legali)... inoltre che in quella sede non ci saranno probelmi di "cpu limited" visti i sistemi cascade che utilizzeranno e le freq a cui riescono a far arrivare i loro sistemi ln2 ultimamente su xtreme...

LASCO
16-02-2005, 13:02
Originariamente inviato da Balrog
quello che volevo dire è che con il passare delle generazioni di cpu e gpu inevitabilmente i consumi saliranno.

Sarei curioso di sapere quanto sono saliti i consumi considerando l'arco di tempo che va dal pentium 200mmx con voodo 2 ad oggi pentium 4 3,4ee con 6800ultra. Io intendevo dire che quando sarà necessario cambieranno completamente tecnologia.
I monitor CRT 17" consumano al massimo sui 100W, gli LCD 50W, gli OLED consumeranno sui 10W.
Lo stesso per i processori, per ora gia' lo si vede un pò con i centrino. Se non c'era la necessità di ottimizzare i portatili il centrino non sarebbe mai nato probabilmente.

LASCO
16-02-2005, 13:06
Originariamente inviato da JOHNNYMETA
Nessuno spreco solo progresso, per consumare poco puoi sempre tenerti la scheda che hai.

Secondo logica doppia potenza vorrebbe dire doppio consumo,
ma adesso siamo viziati e vogliamo anche che consumi uguale.
Processo produttivo a 0,09 micron: cosa vuoi di più. Se fossimo viziati ce ne fregheremmo dei consumi. Io personalmente riconosco che la tecnologia ha un prezzo, ma non posso smettere di sperare che in futuro non siano esclusivamente gl'interessi economici a prevalere su tutti gli altri aspetti.

IndieRock
16-02-2005, 13:12
Anche secondo me è un po' esagerata la lista delle specifiche...
mi ricorda molto i titoli di calciomercato di TuttoSport :D:D:D

Symonjfox
16-02-2005, 13:32
Originariamente inviato da JOHNNYMETA
Nessuno spreco solo progresso, per consumare poco puoi sempre tenerti la scheda che hai.

Secondo logica doppia potenza vorrebbe dire doppio consumo,
ma adesso siamo viziati e vogliamo anche che consumi uguale.
Processo produttivo a 0,09 micron: cosa vuoi di più.
Quello che dici tu non è progresso!

Il progresso è stato il Pentium M e il Winchester. Quello è progresso.
Il prescott è veloce ma non è progresso!

Idem queste schede video! Perchè non fanno la X700 mobility anche per desktop?
Oppure perchè non inseriscono tutte le migliorie per portatili anche in questo fantomatico 520 (anche solo il powerplay)? Quello sarebbe progresso!

barabba73
16-02-2005, 13:34
Che caratteristiche spaventose!!! bisogna vedere poi se è una manovra per attirare attenzione o la cruda verità...probabilmente, come riportato nella news, le caratteristiche saranno più umane...in ogni caso sono proprio curioso di vedere come sarà !

Balrog
16-02-2005, 13:39
Originariamente inviato da LASCO
Preferirei non dover spendere ogni 1-2 anni troppi soldi per poter sfruttare appieno le applicazioni videoludiche, ma cio' comporterebbe in parte doversi accontentare di applicazioni meno complesse. In parte, perchè gli sviluppatori progettano un videogame a seconda del parco macchine e se questo non si aggiorna troppo velocemente cercherebbero, forse, di ottimizzare di piu' i giochi.
A me basta che li facciano molto scalabili.

Lo spero pure io anche perchè con la mia 9700 liscia sono alle pompe...:)
Comunque mi sembra che i giochi oggigiorno siano molto scalabili ....pensa che ho alcuni amici che giocano praticamente a tutto con una 4200..
Ok c'è graficamente molta differenza ma se uno si accontenta....

Wonder
16-02-2005, 13:49
Se così fosse sarebbe ottimo, cosi butto la gloriosa 9700 pro, evito di comprare una 6800 Gt e passo direttaemnte ad ATi520.

Peccato che siano solo rumors che fanno illudere. Meglio apsettare dati ufficiali per sognare veramente

zerothehero
16-02-2005, 13:52
siamo nel regno dello spaventoso e del terrificante :eek: ...specifiche impressionanti...

SENTINELLA
16-02-2005, 13:53
Spero che le specifiche siano vere e spero anche che nvidia faccia la sua contromossa. Prima o dopo ci arriveremo a 'sto benedetto fotorealismo e io spero sia presto, molto presto viste le prestazioni che queste nuove schede video riescono a tirar fuori. :sperem:

rikixx88
16-02-2005, 13:53
Ma quando si troveranno in vendita?
Se usciranno prima del prossimo autunno (e avranno le caratteristiche riportate sopra)penso convenga a chiunque aspettare ad aggiornare la propria scheda video.
Nel mio caso aspetto ancora ad aggiornare la mia geffo 5200 che nel 3dmark 2k5 mi fa 250p con una di queste r520 (qualcuno ha ipotizzato facciano 20000punti)o con una fantomatica geforce serie 7 che uscirebbe nel frattempo (credo).
Inoltre qualcuno sa R520 integra l'acclerazione hw dei filmati(tipo pure video delle geffo6600)?

SENTINELLA
16-02-2005, 14:07
Quello della vendita è un altro paio di maniche. Mi spiego meglio neanche l'indovino con la palla di vetro ti potrà dare i tempi e soprattutto la disponibilità dei prodotti. :D

eddy83
16-02-2005, 14:08
Io nn ci credo.Hanno specifike eccessive.ke deve fare ke ha preso da poco una 6800gt

R@nda
16-02-2005, 14:15
Originariamente inviato da eddy83
Io nn ci credo.Hanno specifike eccessive.ke deve fare ke ha preso da poco una 6800gt

Tenersela e giocare a tutto quanto quello che vuole finchè ne è soddisfatto delle prestazioni....quando non lo è più venderla.

ohhhh,ahhhh,si può fare davvero?:eek:

:sofico: ;)

fek
16-02-2005, 14:15
Originariamente inviato da Redazione di Hardware Upg

24 pipeline di rendering, Shadel Model 3.0, processo produttivo a 0.09 micron e memorie GDDR3 a 1,8 Ghz: queste le specifiche non ufficiali della nuova soluzione top di gamma ATI



Sul pieno supporto SM3.0 aspettatevi una dura battaglia di marketing fra ATI e NVIDIA.

Originariamente inviato da LASCO
In parte, perchè gli sviluppatori progettano un videogame a seconda del parco macchine e se questo non si aggiorna troppo velocemente cercherebbero, forse, di ottimizzare di piu' i giochi.

Tutti i giochi del pianeta sono ottimizzati per girare al loro meglio sul parco macchine che rappresenta la maggioranza del mercato al momento dell'uscita. Avrebbe poco senso spendere di piu' per ottimizzare ulteriormente perche' si andrebbe a coprire una fascia di mercato minima, e non avrebbe senso ottimizzare meno perche' il gioco non girerebbe al meglio sul parco macchine piu' diffuso.
Poi ovviamente ci sono anche altre variabili, tipo i limiti di budget e di tempo, ma questo e' un altro discorso.

Originariamente inviato da SENTINELLA
Spero che le specifiche siano vere e spero anche che nvidia faccia la sua contromossa. Prima o dopo ci arriveremo a 'sto benedetto fotorealismo e io spero sia presto, molto presto viste le prestazioni che queste nuove schede video riescono a tirar fuori. :sperem:

Beh, il fotorealismo si ottiene solo implementando il modello "completo" di illuminazione che avviene nella realta', ma questo non accadra' mai :)

Secondo me la domanda andrebbe riespressa cosi': "Si arrivera' al punto che la tecnologia grafica in real time non porra' limiti alla creativita' dei designer e degli artisti e gli permettera' di creare esattamente cio' che hanno in mente?"

In fondo, ti interessa una scena perfettamente equivalente a come la realta' sarebbe in quelle condizioni oppure una scena "bella" a vedersi e immersiva?

Diciamo che in un paio di generazioni si dovrebbe assistere ad un grosso passo avanti in tal senso.

Riguardo alle caratteristiche elencate, alcune non sono troppo "veriterie", ma sostanzialmente l'idea e' quella. Una caratteristica che non e' sta citata e secondo me e' fondamentale e' la possibilita' di fare alpha blending su superfici in floating point. A parte i tecnicismi, si tratta del supporto che serve per avvicinarsi al momento in cui si abbandoneranno gli interi nella pipeline grafica e sara' tutto calcolato in floating point (leggi, ad alto range dinamico o HDR).

ally
16-02-2005, 14:18
...fek che ne pensi di queste specifiche?...

pistolino
16-02-2005, 14:18
Originariamente inviato da eddy83
ke deve fare chi ha preso da poco una 6800gt?

Dovevi aspettare:O :D

Io ho ancora una ASUS V9280TD GeForce 4 Ti 4200 128MB DDR AGP 8X e un P4 2.66 ke mi consentono di giocare a Half Life 2 a dettaglio medio a 800x600:cool:

Ormai aspetto Longhorn per cambiare PC;)

SENTINELLA
16-02-2005, 14:29
"Si arrivera' al punto che la tecnologia grafica in real time non porra' limiti alla creativita' dei designer e degli artisti e gli permettera' di creare esattamente cio' che hanno in mente?"

Non capisco bene che cosa vuoi dire con questa frase.

"... A parte i tecnicismi, si tratta del supporto che serve per avvicinarsi al momento in cui si abbandoneranno gli interi nella pipeline grafica e sara' tutto calcolato in floating point (leggi, ad alto range dinamico o HDR)."

OK mi andrebbe benissimo tanto più che l'HDRI mi sembra uno dei più grandi progressi fatti dalla grafica 3D. Oramai tutti i programmi 3D hanno la possibilità di implementare l'algoritmo HDR. Se fosse così anche per i videogiochi... potresti parlare di fotorealismo.:D

Dark Schneider
16-02-2005, 14:30
Caratteristiche molto pompate ed un po' poco veritiere. Un classico dei primi rumors: non illudetevi. Questo chip video non avrà mai i 700 Mhz di GPU abbinate alle 24 pipeline.
Significherebbe 16.000 di fillrate. 300 milioni di transistor seppure a 0.9 micron di processo..col cavolo che a 700 Mhz ci arrivano. Come è riportato dalla notizia è più attendibile un 500 Mhz circa di Core. Un 12.000 di fillrate è già più attendibile visto che già la X800XT PE ne ha sui 8400 già.
Sicuramente il 3 volte più veloce è da associare alla 9800XT. Visto che la X800XT ha raddoppiato in caratteristiche e prestazioni la 9800XT. Al massimo questa "X900" andrà il doppio della X800. :)

Altra minchiata appunto sono le memorie a 1800 Mhz. Le GDDR3 non ci arriveranno mai a ste frequenze...per questa frequenza ci si arriverà che ci saranno le GDDR4. Per un prodotto che uscirà tra 5 mesi è praticamente impossibile che ci sarà un salto da 1200 Mhz attuali a 1800 Mhz.

Piccola curiosità: ricordo un anno fa i primi rumors su NV40....si parlava anche lì di frequenze astronomiche e 54 GB/s di banda passante...alla fine la banda si è "ridotta" a 35 Gb/s. :)
Più attendibile un 1300 Mhz massimo come frequenza.

Altra cosa che non torna minimamente sono le 32 TMU......e 24 Pipeline?:confused: Ma dai... :D Si vede che son rumors buttati lì con un poca logica. Vedrete che le caratteristiche cambieranno almeno centinaia di volte in questi mesi. Ah...addirittura a poco più di un mese dalla presentazione l'anno scorso...R420 era dato come un chip video a 8 Pipeline. :)

Cmq una cosa certa(pare proprio di si) invece è che R520 NON supporterà pienamente lo Shader Model 3.0!! Infatti pare proprio che abbiano introdotto diverse cosette in più rispetto a R420, ma ancora non è Full SM 3.0, ma una soluzione mista. :)


Per chi ha nominato NV50: NV50 non è "l'avversario" di R520. NV50 uscirà tra un anno e sarà una GPU con architettura nuova e non basata sulle DX9. nVidia proporrà NV48....ossia il NV40 con 24 Pipeline e frequenze probabilmente maggiorate visto il processo produttivo a 0.11 micron. Personalmente mi aspetto però anche questa volta frequenze inferiori rispetto ad Ati, visto che sarà un chip video tecnologicamente più complesso e avanzato e con caratteristiche simili (numero di Pipeline, unità vertex,ecc.).

Alla fine ragà vedrete che la situazione sarà la medesima attuale:

- nVidia: migliore architettura e maggiore efficenza rispetto al concorrente, oltre che tecnologicamente più avanzata.
- Ati: maggiore potenza bruta con tanto di fillrate superiore rispetto a nVidia.

Risultato: prestazioni equivalenti. :)

A me personalmente non importa granchè di questi nuovi chip video, visto che la mia scelta l'ho fatta già 9 mesi fa quando ho preso la 6800GT. :)
Però un consiglio lo voglio dare a chi deve comprarsi la scheda nuova: acquistate pure una 6800GT o una X800(magari la XL se pci express) e non pensate tanto ai nuovi chip video in arrivo. Perchè tenete conto che questi chip video saranno presentati si a Maggio...ma alla fine la distribuzione sarà molto limitata come al solito nel periodo estivo ed in larga scala a partire dal mese di Settembre. Quindi ci sarà da aspettare un bel po'. Fate bene i vostri conti. ;)

Zermak
16-02-2005, 14:35
io ho ancora una GF2GTS 32MB DDR :D
quando comprerò un nuovo pc vedrò il vero salto generazionale :D asdasd
tanto il fisso lo usa solo mio fratello per gioca a quake 3 online :)
cmq impressionanti specifiche :eek:, non vedo l'ora di vedere test comparativi con le future gf :)
dai il raddoppio dalla generazione precedente ci sarà di sicuro (se poi le specifiche son veramente quelle...non oso immaginare)

Dark Schneider
16-02-2005, 14:36
Originariamente inviato da fek
Sul pieno supporto SM3.0 aspettatevi una dura battaglia di marketing fra ATI e NVIDIA.






Già mi immagino delle Slide nVidia in cui punzecchieranno Ati sul Full SM 3.0!! :asd:
Ed i forum con discussioni chilometriche su "nVidia è cattiva", "Ati è cattiva"...e la gente si massacra a vicenda :asd:

ErPazzo74
16-02-2005, 14:47
ma oggi è il 1mo aprile mi deve essere sfuggito? O forse quella che vedo nella news è la wishlist della ATI? Son molto scettico come avrete intuito e secondo me ati si allontanerà molto da questi numeri IMHO.
Lo stesso direi se la notizia fosse dell'nvidia ovv.
Son solo miei pareri.
Ciao Patrizio

fek
16-02-2005, 15:02
Originariamente inviato da ally
...fek che ne pensi di queste specifiche?...

Non vedo l'ora di metterci le mani sopra :D

fek
16-02-2005, 15:03
Originariamente inviato da Dark Schneider
Già mi immagino delle Slide nVidia in cui punzecchieranno Ati sul Full SM 3.0!! :asd:
Ed i forum con discussioni chilometriche su "nVidia è cattiva", "Ati è cattiva"...e la gente si massacra a vicenda :asd:

E quelli che senza quella cosa li' non si potra' scrivere i giochi e quelli che tanto non serve a nulla.

E la verita' stara' nel mezzo ;)

fek
16-02-2005, 15:17
Originariamente inviato da Dark Schneider
- nVidia: migliore architettura e maggiore efficenza rispetto al concorrente, oltre che tecnologicamente più avanzata.
- Ati: maggiore potenza bruta con tanto di fillrate superiore rispetto a nVidia.


Credo che con l'introduzione dell'R520 ATI andra' in sostanziale "pareggio" ed il pareggio sara' ancora piu' marcato con la generazione successiva che e' il vero "salto generazionale".

Balrog
16-02-2005, 15:21
La scheda uscirà a maggio per essere disponibile nei negozi a settembre ad un prezzo altissimo (650€ ?).
Nvidia non starà a guardare e farà uscire nv48 .
Nel frattempo le x800 non caleranno di prezzo ma verranno progressivamente tolte dal mercato..

halduemilauno
16-02-2005, 15:22
Originariamente inviato da fek
Credo che con l'introduzione dell'R520 ATI andra' in sostanziale "pareggio" ed il pareggio sara' ancora piu' marcato con la generazione successiva che e' il vero "salto generazionale".

per asserire una cosa simile oltre a sapere bene le caratteristiche dell'R520 devi sapere qualcosa anche dell'NV47?
ciao.
;)

Dark Schneider
16-02-2005, 15:28
Originariamente inviato da ErPazzo74
ma oggi è il 1mo aprile mi deve essere sfuggito? O forse quella che vedo nella news è la wishlist della ATI? Son molto scettico come avrete intuito e secondo me ati si allontanerà molto da questi numeri IMHO.
Lo stesso direi se la notizia fosse dell'nvidia ovv.
Son solo miei pareri.
Ciao Patrizio


Diciamo che in generale dovrebbe essere così come scritto nei rumors l'R520, però qualcosa poco convincente c'è: quelle 32 Texture Unit ad esempio e sopratutto le frequenze. I 700 Mhz di Core...un po' esagerati penso. Ma più che altro le frequenze della memoria: 1800 Mhz sono fantascienza. In 5 mesi non penso proprio ci sarà un salto da 1200 a 1800. Poi alla faccia...qlc mese fa si parlava della poca disponibilità delle GDDR3 che influiva anche sulla disponibilità finale delle schede video stesse...e adesso spuntano quelle da 1800 Mhz?:rolleyes:

Poi c'è il punto di domanda dello SM 3.0! Pare che non sarà completo il supporto. Ma magari Ati scriverà lo stesso SM 3.0 e a quel punto ci sarà la solita guerra di marketing, con magari nVidia dice che R520 non è Full SM 3.0....Ati il contrario e così via. Le solite chiacchiere che fanno venire il Mal di testa. :D

Che poi son chiacchiere che l'utente finale non deve star lì a farsi le pippe mentali su certe cose. Alla fine tutte ste features sono per i programmatori, che hanno a disposizione più opzioni per programmare al meglio ed ottenere risultati migliori. Ci saranno magari features che faranno comodo e saranno utilizzate ed altre che magari non lo saranno, perchè nel frattempo è uscito un hardware nuovo, nuove librerie, nuove specifiche, un nuovo linguaggio e magari si cambia il modo di programmare.

Ma la maggior parte dei videogiocatori son tutti utenti finali e l'utente finale deve solo inserire il cd, installare il gioco e divertirsi. Altro che seghe mentali.... :D

fek
16-02-2005, 15:33
Originariamente inviato da halduemilauno
per asserire una cosa simile oltre a sapere bene le caratteristiche dell'R520 devi sapere qualcosa anche dell'NV47?
ciao.
;)

:)

fek
16-02-2005, 15:35
Originariamente inviato da Dark Schneider
Poi c'è il punto di domanda dello SM 3.0! Pare che non sarà completo il supporto. Ma magari Ati scriverà lo stesso SM 3.0 e a quel punto ci sarà la solita guerra di marketing, con magari nVidia dice che R520 non è Full SM 3.0....Ati il contrario e così via. Le solite chiacchiere che fanno venire il Mal di testa. :D


ATI potra' scrivere che supporta l'SM3.0 secondo le specifiche DX. Il perche' e' una luuuuuunga storia :p

Dark Schneider
16-02-2005, 15:38
Originariamente inviato da fek
Credo che con l'introduzione dell'R520 ATI andra' in sostanziale "pareggio" ed il pareggio sara' ancora piu' marcato con la generazione successiva che e' il vero "salto generazionale".


Ho capito. Parli a livello tecnologico. Allora litigheranno un po' sul cosa significa supportare pienamente lo SM 3.0(proprio come i bambini ihih)! Staremo a vedere.

Intendi che il pareggio sarà più marcato con le nuove architetture che supporteranno le nuove librerie vero? :) Adesso non ricordo come si chiamavano, cmq non più DirectX mi sembra. Ricordo che Yoss un annetto fa ci spiego un po' l'evoluzione delle varie architetture che si assomiglieranno sempre di più se ricordo correttamente. :)

A questo punto mi chiedo una cosa: attualmente ci son ad esempio giochi che son programmati e che si sposano meglio su di una architettura e giochi che si adattano meglio all'altra architettura.
In futuro se queste architetture saranno sempre più simili tra loro...se i chip Radeon e GeForce saranno sempre più simili, sparirà un po' sta cosa dell'avvantaggiare più un chip video in un gioco?

Dark Schneider
16-02-2005, 15:43
Originariamente inviato da fek
ATI potra' scrivere che supporta l'SM3.0 secondo le specifiche DX. Il perche' e' una luuuuuunga storia :p


Ahhh e magari centra qualcosa la loro collaborazione per l'X-Box 2. :) Ehhh il venirsi incontro. :D

Cavolo mi ricorda un pochino le vecchie questioni dell'FP16-FP32-FP24 e bla bla bla.:)

dwfgerw
16-02-2005, 15:44
fek pronunciati anche su nv47, secondo te cosa staranno facendo a sunnyvale ? :-)

fek
16-02-2005, 15:44
Originariamente inviato da Dark Schneider
In futuro se queste architetture saranno sempre più simili tra loro...se i chip Radeon e GeForce saranno sempre più simili, sparirà un po' sta cosa dell'avvantaggiare più un chip video in un gioco?

Si spera. L'ideale sarebbe che una fosse sempre piu' veloce dell'altra senza richiedere particolari accorgimenti (leggi due code path differenti). Questa e' la situazione ideale che difficilmente sara' raggiunta per vari motivi, ma avvicinarsi ad essa gia' sarebbe un'ottima cosa sia per il programmatore sia per l'utente.

fek
16-02-2005, 15:46
Originariamente inviato da Dark Schneider
Ahhh e magari centra qualcosa la loro collaborazione per l'X-Box 2. :) Ehhh il venirsi incontro. :D


No, non c'entra nulla.

Originariamente inviato da dwfgerw
fek pronunciati anche su nv47, secondo te cosa staranno facendo a sunnyvale ? :-)

So pochissimo in piu' di quello che si sa in giro sull'NV47 ed e' coperto da NDA (come per l'520) e non sono notizie particolarmente interessanti. Sorry.

SaettaC
16-02-2005, 16:04
Incredibile.... :sbav:

DragonZ
16-02-2005, 16:06
Che @@! mi volevo fare la x800 e stava per uscire la x850 ora che e' uscita gia ne esce un'altra nuova!
per avere la scheda top della gamma devi spendere 600 euro ogni 2-3 mesi, vi pare normale? :muro:
:(
:eek:
:cry:

Maury
16-02-2005, 16:11
Originariamente inviato da DragonZ
Che @@! mi volevo fare la x800 e stava per uscire la x850 ora che e' uscita gia ne esce un'altra nuova!
per avere la scheda top della gamma devi spendere 600 euro ogni 2-3 mesi, vi pare normale? :muro:
:(
:eek:
:cry:


Non è che con l'uscita di nuovi modelli le schede marciscono ... i giochi girano sempre bene, è solo una questione mentale ;)

Prendi la scheda che ti piace e goditela ;)

nonikname
16-02-2005, 16:16
e non sono notizie particolarmente interessanti. Sorry.

Tu comincia a spiattellare , (registrati con un altro Username :D) , poi lascia decidere a noi se sono interessanti o meno... ;)

Comunque , specifiche a parte , la presenza sugli scaffali partirà 6 mesi (ottimisticamente parlando)
dopo il lancio delle X850 : vorrete mica che "seghi" cosi' la sua nuova linea di VGA ...

Io butto le mie spec..

24 "Pixel Pipelines"
8 "Vertex Pipelines"
32 Texture Units (8 TMU anche sui motori geometrici : a massimo carico le Vertex Pipelins possono "gestire" anche pixel shaders)
96 Arithmetic Logic Units (ALU) (stessa composizione X800 3+1 per pipeline)
192 Shader Operations per Cycle
550 MHz Core
105.6 Billion Shader Operations per Second (at 550MHz)
256-bit 512MB 1.4GHz GDDR3 Memory
44.8 GB/sec Bandwidth (at 1.4GHz)
320 Million Transistors
110 nm Manufacturing
Shader Model 2.0+++ :D
ATI HyperMemory (su R5x0 entry level)
ATI Multi Rendering Technology (AMR)
Launch: Q3 2005
Performance: Over 2x Radeon X800 XT !!! (for single R520)

skywalker66
16-02-2005, 16:18
quote
------------------------------------------------------
Non è che con l'uscita di nuovi modelli le schede marciscono ... i giochi girano sempre bene, è solo una questione mentale

Prendi la scheda che ti piace e goditela
-----------------------------------------------------

E' vero fino ad un certo punto..... e' un effeto ad elastico......del tipo ahhhh bene, schede piu' performanti! ma bene! giochi piu' pesanti (e piu' belli ma....) e la tua top di gamma dopo 6 mesi accede solo al tetris!!!!

halduemilauno
16-02-2005, 16:36
Originariamente inviato da dwfgerw
fek pronunciati anche su nv47, secondo te cosa staranno facendo a sunnyvale ? :-)


Santa Clara.
;)

dwfgerw
16-02-2005, 16:38
giusto....mi sono confuso con amd :-)

leoneazzurro
16-02-2005, 16:47
Originariamente inviato da nonikname
Tu comincia a spiattellare , (registrati con un altro Username :D) , poi lascia decidere a noi se sono interessanti o meno... ;)

Comunque , specifiche a parte , la presenza sugli scaffali partirà 6 mesi (ottimisticamente parlando)
dopo il lancio delle X850 : vorrete mica che "seghi" cosi' la sua nuova linea di VGA ...

Io butto le mie spec..

24 "Pixel Pipelines"
8 "Vertex Pipelines"
32 Texture Units (8 TMU anche sui motori geometrici : a massimo carico le Vertex Pipelins possono "gestire" anche pixel shaders)
96 Arithmetic Logic Units (ALU) (stessa composizione X800 3+1 per pipeline)
192 Shader Operations per Cycle
550 MHz Core
105.6 Billion Shader Operations per Second (at 550MHz)
256-bit 512MB 1.4GHz GDDR3 Memory
44.8 GB/sec Bandwidth (at 1.4GHz)
320 Million Transistors
110 nm Manufacturing
Shader Model 2.0+++ :D
ATI HyperMemory (su R5x0 entry level)
ATI Multi Rendering Technology (AMR)
Launch: Q3 2005
Performance: Over 2x Radeon X800 XT !!! (for single R520)

E' quella TMU nelle Vertex Unit che mi suona così strana... mah, vedremo. Del resto non manca troppo tempo.

DragonZ
16-02-2005, 16:59
Originariamente inviato da Maury
Non è che con l'uscita di nuovi modelli le schede marciscono ... i giochi girano sempre bene, è solo una questione mentale ;)

Prendi la scheda che ti piace e goditela ;)

hai ragione :)
ora mi prendo una x800xl o se ce la faccio a trovare i soldi addirittura una x850xt (ovviamente vendero' la casa e la macchina x comprarla :D )

ciao!

fek
16-02-2005, 17:26
Originariamente inviato da nonikname
(8 TMU anche sui motori geometrici : a massimo carico le Vertex Pipelins possono "gestire" anche pixel shaders)

Questa parentesi levala tutta ;)

Dark Schneider
16-02-2005, 17:51
Originariamente inviato da DragonZ
hai ragione :)
ora mi prendo una x800xl o se ce la faccio a trovare i soldi addirittura una x850xt (ovviamente vendero' la casa e la macchina x comprarla :D )

ciao!


Guarda che le X850 sono sempre X800..con qlc Mhz in più. Se la x850 è il top...lo è anche la X800.
Se vuoi un mio consiglio se devi farti il pc nuovo col pc express vai sulla conveniente XL e lascia stare le X850 vedrai che la longevità è la medesima e non giochi da meno..un po' come tra una 6800 Ultra ed una GT. :)

pg08x
16-02-2005, 17:54
ATI aveva detto che visto i costi enormi in ricerca e sviluppo da sopportare avrebbe fatto un'architettura rivoluzionaria una volta si ed una no.

La X800 è una revision dell'archittettura R300 mentre la seconda R520 un'architettura totalmente innovativa.

Prevedo una nuova scheda rivoluzionaria ed imbattibile come è stata la 9700 ai suoi tempi

In pratica l'occasione buona per cambiare la mia 9700pro che tante soddisfazioni mi ha dato ;)

DjLode
16-02-2005, 17:56
Originariamente inviato da pg08x
La X800 è una revision dell'archittettura R300 mentre la seconda R520 un'architettura totalmente innovativa.

Prevedo una nuova scheda rivoluzionaria ed imbattibile come è stata la 9700 ai suoi tempi


Prevedi male. Ed è una cosa che si sa da parecchio tempo. R520 sarà l'ultimo refresh dell' architettura R300. La nuova architettura si chiamerà R600.

pg08x
16-02-2005, 18:03
Originariamente inviato da DjLode
Prevedi male. Ed è una cosa che si sa da parecchio tempo. R520 sarà l'ultimo refresh dell' architettura R300. La nuova architettura si chiamerà R600.

Se per te l'implementazione dei Pixel Shader 3, ATI Multi Rendering, Hyper Memory e cosucce varie tipo il Programmable Primitive Processor/Tesselator me li chiami una revision contento tu...

Ecco le specifiche da fonte + attendibile:

24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA
FP32 blending, texturing
Programmable Primitive Processor/Tesselator


Guarda che questi quando dicono qualcosa poi lo implementano non promettono mica fumo come quelli delle geffo fx...

dwfgerw
16-02-2005, 18:10
eppure ha ragione djlode, non hanno tirato giù da zero hanno rimesso mano a r420

pg08x
16-02-2005, 18:12
Originariamente inviato da dwfgerw
eppure ha ragione djlode, non hanno tirato giù da zero hanno rimesso mano a r420

Si può darsi che rimettano sempre mano all'architettura precedente, anche con r600 qualcosa rifaranno, altre cose ottimizzeranno ma sono sempre e solo i risultati quelli che contanto.

;)

Poi per esempio non si può negare che l'AMR è una cosa totalmente nuova... come gli shader 3 etx etx.

fek
16-02-2005, 18:24
Originariamente inviato da DjLode
Prevedi male. Ed è una cosa che si sa da parecchio tempo. R520 sarà l'ultimo refresh dell' architettura R300. La nuova architettura si chiamerà R600.

Direi anch'io. L'R520 e' un ottimo refresh dell'R300.

Originariamente inviato da pg08x
Programmable Primitive Processor/Tesselator


Questo cancellalo.
Sul supporto SM3.0, beh, non posso dire nulla ancora.

DjLode
16-02-2005, 18:25
Originariamente inviato da pg08x
Se per te l'implementazione dei Pixel Shader 3, ATI Multi Rendering, Hyper Memory e cosucce varie tipo il Programmable Primitive Processor/Tesselator me li chiami una revision contento tu...


Sì, la chiamo una revision.


Shader Model 3.0


Probabile un misto tra 3 e 2. Non un 3 completo.


ATI Multi Rendering Technology (AMR)


WOW


Performance: Over 3x Radeon X800 XT !!! (for single R520)


Certo... in tutti i campi e in ogni condizione di utilizzo :sofico:


16x stochastic FSAA


Visto che lo grassetti e lo presenti come una gran cosa, ci spiegherai pure cos'è :)


Programmable Primitive Processor/Tesselator


Vedi sopra.


Guarda che questi quando dicono qualcosa poi lo implementano non promettono mica fumo come quelli delle geffo fx...

Niente da fare, la tua frasettina vs Nvidia ce la devi piazzare sempre ne? :sofico:

DjLode
16-02-2005, 18:28
Originariamente inviato da pg08x
Si può darsi che rimettano sempre mano all'architettura precedente, anche con r600 qualcosa rifaranno, altre cose ottimizzeranno ma sono sempre e solo i risultati quelli che contanto.


Certo, quando si dice che sarà un' architettura nuova e ti fanno notare che non sarà così, ci si accontenta di quello che viene.


Poi per esempio non si può negare che l'AMR è una cosa totalmente nuova... come gli shader 3 etx etx.

Certo, nuovissima. No, aspetta, c'era già qualcuno anni e anni fa che aveva utilizzato una cosa simile... Sli mi pare si chiamasse. Ops aspetta. Anche Nvidia lo usa. E anche gli shader 3. Non c'è che dire tutto molto nuovo :sofico:
Essù, ammetti di esserti lasciato prendere dalla notizia della tua tanto cara casa di gpu video :)

dwfgerw
16-02-2005, 18:31
djlode mi fai morire :-D

lucusta
16-02-2005, 18:32
io mi aspetto 32 pipeline..

pg08x
16-02-2005, 18:36
Originariamente inviato da DjLode
Certo, nuovissima. No, aspetta, c'era già qualcuno anni e anni fa che aveva utilizzato una cosa simile... Sli mi pare si chiamasse. Ops aspetta. Anche Nvidia lo usa. E anche gli shader 3. Non c'è che dire tutto molto nuovo :sofico:
Essù, ammetti di esserti lasciato prendere dalla notizia della tua tanto cara casa di gpu video :)

Carissimo DjLode è una cosa nuova rispetto a X800 e viene pure introdotta quando serve.

Ma qua mi sembra che sei un tantino nvdioso

Ti rode che si preveda una gran scheda per ATI ed attacchi sul forum per sfogare la tua nvidia immotivata, insomma ti comporti da bambino.

DjLode
16-02-2005, 18:42
Dai, se vuoi parlare di tecnica (a parte spiegare le frasi che hai posto in grassetto) si può parlare. Se vuoi trolleggiare, a me passa poi la voglia di leggere.
Tu mi dai dell' Nvidioso. Nonikname mi da dell' Ati-Fan. Mettetevi almeno d'accordo altrimenti mi tocca controllare ogni giorno che razza di scheda video ho nel case.

fek
16-02-2005, 18:43
Originariamente inviato da pg08x
Carissimo DjLode è una cosa nuova rispetto a X800 e viene pure introdotta quando serve.

Ma qua mi sembra che sei un tantino nvdioso

Ti rode che si preveda una gran scheda per ATI ed attacchi sul forum per sfogare la tua nvidia immotivata, insomma ti comporti da bambino.

Su su su pg, stai buono, alcune delle cose che hai scritto non ci saranno. Ma non e' un problema grosso, l'R520 e' un gran bel pezzo di hw.

sirus
16-02-2005, 19:00
magari è la volta buona che cambio VGA :rolleyes: però quei dati così alti (soprattutto per il clock) mi puzzano di bruciato...non è che poi fanno come per le X800XT PE che non riuscivano ad ottenere abbastanza CHIP ad alta freq e hanno fatto la X800XT con 20MHz in meno???!!!
cmq anche nvidia per NV47 aveva pensato a 24pipeline a quanto pare ;)

leoneazzurro
16-02-2005, 19:11
Originariamente inviato da DjLode

Probabile un misto tra 3 e 2. Non un 3 completo.


Infatti da qui il mio discorso della stranezza sulle TMU nei VS.
Infatti la (una) non completa aderenza allo SM 3 da parte ATI (o perlomeno allo SM 3 come lo ha fatto nVidia), da quello che avevo capito io, stava proprio nella mancanza di vertex texturing.
Ovvio che mi posso sbagliare, per ora se ne sa talmente poco :D

halduemilauno
16-02-2005, 19:36
Originariamente inviato da pg08x
Carissimo DjLode è una cosa nuova rispetto a X800 e viene pure introdotta quando serve.

Ma qua mi sembra che sei un tantino nvdioso

Ti rode che si preveda una gran scheda per ATI ed attacchi sul forum per sfogare la tua nvidia immotivata, insomma ti comporti da bambino.

ma possibile che sfori sempre sul personale? ma tu un pacato e sereno contradditorio sei in grado di averlo?
hai letto quello che ha detto fek? che se non ti è chiaro qui è l'unico a saperne abbastanza.

Trabant
16-02-2005, 19:38
Qualche mia considerazione.


Sbaglio o R520 non sarà un prodotto esclusivamente per PC, anzi il target primario è rappresentato dall'Xbox2 o come si chiamerà?

Se è così, non dovrebbe essere esageratamente esoso in termini di watt e non dovrebbe scaldare più di tanto, e questo probabilmente è possibile, vista la capacità che ATI ha sempre dimostrato nel produrre schede più compatte e con minori richieste energetiche della concorrenza.


Contrariamente a quanto molti hanno detto, le specifiche non mi sembrano esagerate, questa GPU dovrà gestire l'Unreal Engine 3 e futuri engine di livello paragonabile, quindi quello che oggi sembra un'esagerazione diventerà presto un requisito di base.


Una partita molto importante si giocherà sui driver ed anche sulle alleanze con le sw house.
Parlando dell'attuale generazione, la 6800GT ha avuto diversi mesi di vantaggio sulle corrispondenti ATI non perchè avesse un'architettura particolarmente evoluta o per gli SM3.0, ma più semplicemente per il fatto che è stata lanciata contemporaneamente ad uno dei pochi giochi OpenGL in circolazione (Doom3) e questo è stato usato come benchmark per tutto, indiscriminatamente.
E qui ATI ha scontato da un lato la cronica carenza nell'OpenGL (peraltro impiegato in pochissimi giochi) dall'altro il ritardo nell'uscita di HL2 che era il suo gioco sponsorizzato.

Ora che ATI ha migliorato un pò nei driver, le prestazioni si sono più allineate, prima in D3 le Nvidia facevano il doppio delle corrispondenti ATI, ora al massimo un 15% in più. E parliamo solo di D3. Inoltre se in certi benchmark con rendering liscio Nvidia parte in vantaggio, appena si attiva un minimo di filtraggio le Nvidia subiscono un crollo vistoso, le ATI tengono meglio, a dimostrazione di una superiorità degli algoritmi di filtraggio. E sfido chiunque oggi a giocare senza filtri.


Detto ciò, penso che a breve prenderò una 6800GT, solo perchè è AGP e non ho l'intenzione di cambiare tutto il PC solo per la scheda video. Incrocio le dita sperando di non buttare i soldi, che sia un buon investimento considerando che quando ci saranno giochi con gli SM 3 forse sarò ancora in grado di giocarli.

Mi rode solo il fatto che ATI non li abbia implementati in questa generazione, il fatto che non ci siano non mi fa considerare oggi ATI come un investimento per i prossimi 2-3 anni.

DioBrando
16-02-2005, 19:42
Originariamente inviato da DjLode
Tu mi dai dell' Nvidioso. Nonikname mi da dell' Ati-Fan. Mettetevi almeno d'accordo altrimenti mi tocca controllare ogni giorno che razza di scheda video ho nel case.

:asd:



è perchè soffri di sdoppiamento della personalità vero? :D

DjLode
16-02-2005, 20:16
Originariamente inviato da Trabant
Sbaglio o R520 non sarà un prodotto esclusivamente per PC, anzi il target primario è rappresentato dall'Xbox2 o come si chiamerà?


Sbagli. Sull' Xbox 2 ci sarà R500 che non ha niente a che fare con R520. Sono proprio due progetti divisi. Qualcosa di R500 si vedrà su R600, ma per la maggior parte sarà una gpu dedicata.


Contrariamente a quanto molti hanno detto, le specifiche non mi sembrano esagerate, questa GPU dovrà gestire l'Unreal Engine 3 e futuri engine di livello paragonabile, quindi quello che oggi sembra un'esagerazione diventerà presto un requisito di base.


Errato. Per Unreal 3 si parla di 2006. Direi che si dovrà scontrare con ben altra roba :)


ma più semplicemente per il fatto che è stata lanciata contemporaneamente ad uno dei pochi giochi OpenGL in circolazione (Doom3) e questo è stato usato come benchmark per tutto, indiscriminatamente.


D'altronde quando un motore grafico viene cucito addosso alle tue schede, fai poca fatica a farti pubblicità, OGL o meno :)


Ora che ATI ha migliorato un pò nei driver, le prestazioni si sono più allineate, prima in D3 le Nvidia facevano il doppio delle corrispondenti ATI, ora al massimo un 15% in più. E parliamo solo di D3.


Il che non ti fa sorgere nessun dubbio? :)


Inoltre se in certi benchmark con rendering liscio Nvidia parte in vantaggio, appena si attiva un minimo di filtraggio le Nvidia subiscono un crollo vistoso, le ATI tengono meglio, a dimostrazione di una superiorità degli algoritmi di filtraggio. E sfido chiunque oggi a giocare senza filtri.


Francamente da una parte ci sono bench a favore di Nvidia, altri a favore di Ati. Aniso e AA c'entrano veramente poco.


Incrocio le dita sperando di non buttare i soldi,


Non li butterai.


che sia un buon investimento considerando che quando ci saranno giochi con gli SM 3 forse sarò ancora in grado di giocarli.


Con giochi SM3 la 6800GT sarà un ferro vecchio.


Mi rode solo il fatto che ATI non li abbia implementati in questa generazione, il fatto che non ci siano non mi fa considerare oggi ATI come un investimento per i prossimi 2-3 anni.

Scusa, prima dici di non preferire una all'altra solo per il motivo delo shader model 3, poi dici il contrario. Insomma, mettiamoci d'accordo.
Ora come ora vedere le 6800GT come schede per lo SM3 è francamente un azzardo. Non perchè lo implementino male o meno, ma per il fatto che per quei giochi ci saranno R520 il successore di NV40 e tutta la nuova generazione.
Con la attuale ci giocherai sempre e solo a giochi SM2, quando usciranno ovviamente.

DjLode
16-02-2005, 20:23
Originariamente inviato da DioBrando
:asd:


è perchè soffri di sdoppiamento della personalità vero? :D

Certo, DjLode e Mr Hyde. Solo che per comodità mi loggo sempre con lo stesso nick. Ma ho due pc diversi, uno con Nvidia l'altro con Ati perchè al primo non piace la prima, al secondo la seconda. E anche solo saperla nel case provoca schifo ad entrambi.

Dark Schneider
16-02-2005, 20:42
Originariamente inviato da pg08x
ATI aveva detto che visto i costi enormi in ricerca e sviluppo da sopportare avrebbe fatto un'architettura rivoluzionaria una volta si ed una no.

La X800 è una revision dell'archittettura R300 mentre la seconda R520 un'architettura totalmente innovativa.

Prevedo una nuova scheda rivoluzionaria ed imbattibile come è stata la 9700 ai suoi tempi

In pratica l'occasione buona per cambiare la mia 9700pro che tante soddisfazioni mi ha dato ;)


No. Il chip con architettura nuova era l'originario R500..che tra l'altro dovrebbe essere quello dell'XBox2 mi pare. Ma in ambito PC quel chip video equivarrà ad R600 o cmq se c'è qualche chip video Ati che probabimente avrà qualcosa a che vedere con quello sarà cmq R600. R520 è un altro potenziamento dell'attuale architettura Ati con alcune aggiunte.

Poi è impossibile che questo ennesimo potenziamento renderà una fantomatica X900XT tre volte più veloce in ogni condizione dell'X800XT. Son dati teorici sparati così a caso mica pratici...non per qualcosa ma in passato s'è visto di peggio...tipo "più veloce dalle 3 alle 8 volte" e roba del genere. Al massimo sarà il doppio più veloce questo chip video.
Non vedremo proprio per nulla un altro chip "imbattibile" come la 9700. C'è da considerare che NV30 non è stata una tecnologia buona e le ha prese. Ma NV40 e R420 sono entrambi ottimi chip video. In quanto a potenza R520 non sarà di certo una scheda non competitiva visto che si basa sull'architettura riuscita dell'R300. Non corre rischi Ati. D'altra parte nemmeno NV48(o NV47) potrà essere un "buco nell'acqua" visto che nVidia farà la medesima cosa che Ati ha fatto un anno fa e che rifarà tra qlc mese: ossia potenziare la sua solida e riuscita architettura (NV40). Non corre quindi rischi. I rischi li corri quando immetti una nuova architettura, perchè può essere che qlc non va(come è successo con NV30). Ma tutto ciò non è successo con NV40.
Morale della favola: tra qualche mese si rivedrà la stessa situazione di R420 e NV40: prestazioni allineate. Ossia non ci sarà una GPU che andrà in assoluto più veloce dell'altra.

Helstar
16-02-2005, 21:46
L'ha detto solo uno per adesso ... rilancio io: ma non siamo gia' cpu limited con la stragrande maggioranza dei giochi ADESSO ?
Altro che FX-57 e 1600x1200 ci vorra' ...

Immortal
16-02-2005, 21:58
domandina stupida...dato ke ati ora si è messa a rifare skede al top della gamma con supporto anche x l'AGP...questo chip r520 verrà implementato solo su schede pci-e o si può anke sperare in una versione agp?

pg08x
16-02-2005, 22:17
Originariamente inviato da Dark Schneider
In quanto a potenza R520 non sarà di certo una scheda non competitiva visto che si basa sull'architettura riuscita dell'R300. Non corre rischi Ati. D'altra parte nemmeno NV48(o NV47) potrà essere un "buco nell'acqua" visto che nVidia farà la medesima cosa che Ati ha fatto un anno fa e che rifarà tra qlc mese: ossia potenziare la sua solida e riuscita architettura (NV40). Non corre quindi rischi. I rischi li corri quando immetti una nuova architettura,

In quanto a potenziare l'architettura già esistente nvidia per esempio lo ha fatto per anni geforce 1, geforce 2, geforce 3, geforce 4... poi è errivata ATI con la 9700 una bomba !!!
ed nvidia si è vista costretta a rivedere l'architettura, ha fallito il primo colpo con le geforce fx (uno scandalo come le spacciava per buone) ma ha potuto così imparare dai proprie errori (a spese degli utenti) e fare meglio con nv40.

In pratica se non corri rischi non avrai mai ragione della concorrenza.
ATI ha guadagnato parecchio e non ha dovuto spendere troppo per X800 avendo già un'ottima e collaudata base da cui partire.

Non si può negare che, almeno sulla carta, la prossima ATI ha molte novità da offrire.
Se confrontiamo le differenze che ci sono fra radeon 9700 ed x800 sono ben poche, fra X800 ed R520 sono moltissime, e non parlo di frequenze di funzionamento ma di novità architetturali introdotte. (Nuovi shader, ATI Multi Rendering Technology, etx).

La versione per XBOX avrà un'altra sigla e frequenze ridotte per consumare meno ma l'architettura rimane questa.

Se in Microsoft hanno deciso di abbandonare nvidia (che pure adesso con nv40 non fa cagare come prima) per la nuova architettura targata ATI hanno un buon motivo, considera poi il fatto che si giocano il futuro delle console nella lotta con Sony, non possono permettersi di sbagliare

Un conto è quello che le aziende dichiarano, un conto quello che fanno. Contrariamente ad nvidia ATI non ha MAI fatto inutile vaporware anche ai tempi della 9700 aveva colto tutti di sorpresa

:)

Poi ovviamente stiamo parlando di cose coperte da vincoli di non divulgazione.

pg08x
16-02-2005, 22:26
Originariamente inviato da halduemilauno
ma possibile che sfori sempre sul personale? ma tu un pacato e sereno contradditorio sei in grado di averlo?


Da che pulpito :D



"Esistono solo due cose infinite: l'universo e la stupidità umana. E del primo non sono neanche sicuro..."

DragonZ
16-02-2005, 22:47
Originariamente inviato da Dark Schneider
Guarda che le X850 sono sempre X800..con qlc Mhz in più. Se la x850 è il top...lo è anche la X800.
Se vuoi un mio consiglio se devi farti il pc nuovo col pc express vai sulla conveniente XL e lascia stare le X850 vedrai che la longevità è la medesima e non giochi da meno..un po' come tra una 6800 Ultra ed una GT. :)

x rapporto qualita' prezzo una X800 XL 256Mb Pci-Ex a 310 euro
e' meglio di una X850 XT 256DDR3 Pci-Ex 450 euro?

RE DEI VIRUS
16-02-2005, 22:48
Caspita!!!
Ma per tenerla fresca cosa ci vorrà,
Magari un kit trial slot !!!!!!!!!

Non lo so,era uno scherzo!???

RE DEI VIRUS
16-02-2005, 22:51
Sapete dirmi qunto dovrebbe costare??
:D

DjLode
16-02-2005, 22:55
Originariamente inviato da pg08x
Se confrontiamo le differenze che ci sono fra radeon 9700 ed x800 sono ben poche, fra X800 ed R520 sono moltissime, e non parlo di frequenze di funzionamento ma di novità architetturali introdotte. (Nuovi shader, ATI Multi Rendering Technology, etx).


Niente da fare...
Se A deriva da B e C deriva da B. Perchè A e B sono poco differenti mentre B e C sono agli antipodi?
Logicamente parlando non ha senso... Come poi ti hanno detto in 30 o 40 persone.

Milotto
16-02-2005, 23:26
Per quantoi riguarda la più interessante feature di R520
(qualora i rumors fossero confermati) è il 16x stochastic FSAA ....
Si tratta di : ......Fully Random Jittered Super-Sampling,is better known as Stochastic Sampling. Essentially this means that within a pixel, the sub-samples are positioned in random locations. The key here is that the sub-sample pattern is random for every pixel on screen. The basic idea behind this technique is that the randomized locations of the sub-samples is actually seen as "white noise "by the human eye. This technique hides the aliasing effect in noise, which is based on the known fact that the human eye is less sensitive to random noise than regular patterns. Our eyes are very good at recognizing patterns, but the introduction of random noise makes the recognition of patterns - in this case aliasing artifacts - significantly more difficult. While the quality of this technique is excellent, it is very expensive to implement. Approximately 16 (or more) randomly distributed sub-samples per-pixel are needed to attain the necessary level of white noise. Lower sample counts also work, but these are more susceptible to artifacts. Fully random positions also tend to be difficult to generate. Improvements in this technique exist to avoid accidental patterns, or samples being taken too closely to each other.....

Per chi volesse saperne di più sul AA dia uno sguardo al solito Beyond3d al link seguente :
http://www.beyond3d.com/articles/ssaa/index.php

Trabant
16-02-2005, 23:45
Originariamente inviato da DjLode

Con giochi SM3 la 6800GT sarà un ferro vecchio

Addirittura?!?

Originariamente inviato da DjLode
Scusa, prima dici di non preferire una all'altra solo per il motivo dello shader model 3, poi dici il contrario. Insomma, mettiamoci d'accordo.

Non hai letto bene, voglio dire che guardando in un'ottica di SM3 una spesa di circa 450€ su ATI non si giustifica OGGI, mentre speravo che una 6800GT potesse reggere per un pò di più, dal momento che li supporta.

Però tu mi dici che:

Originariamente inviato da DjLode
Ora come ora vedere le 6800GT come schede per lo SM3 è francamente un azzardo. Non perchè lo implementino male o meno, ma per il fatto che per quei giochi ci saranno R520 il successore di NV40 e tutta la nuova generazione.
Con la attuale ci giocherai sempre e solo a giochi SM2, quando usciranno ovviamente.

Sicuro di quello che dici? Perchè se è davvero così i 450€ me li risparmio davvero.

Comunque se non vado errato giochi SM2 già ci sono (perchè dici "quando usciranno"?) dovrebbe essere così HL2, addirittura avevo letto che FarCry con l'ultima patch è SM3.

fek
17-02-2005, 00:35
Originariamente inviato da pg08x
Se confrontiamo le differenze che ci sono fra radeon 9700 ed x800 sono ben poche, fra X800 ed R520 sono moltissime, e non parlo di frequenze di funzionamento ma di novità architetturali introdotte. (Nuovi shader, ATI Multi Rendering Technology, etx).

Ad esempio? Quali novita' l'R520 secondo te introdurra' che non e' presente nella concorrenza?


La versione per XBOX avrà un'altra sigla e frequenze ridotte per consumare meno ma l'architettura rimane questa.


No. L'architettura e' totalmente differente. Tu pensa che quando alla cena ho chiesto al progettista capo dell'R520 di parlarmi dell'R500 mi ha risposto che sono dietro a due firewall diversi e non hanno neppure accesso agli schemi.

Belladipadella
17-02-2005, 00:42
Riguardo alla notizia,ROTFL.:rolleyes:

Helstar
17-02-2005, 00:47
Fek ... e' normale avere due team totalmente "isolati" nello sviluppo di due gpu all'interno della stessa azienda ? Mi sembra molto strano.

nonikname
17-02-2005, 03:37
Originariamente inviato da DjLode
Tu mi dai dell' Nvidioso. Nonikname mi da dell' Ati-Fan. Mettetevi almeno d'accordo altrimenti mi tocca controllare ogni giorno che razza di scheda video ho nel case.

Non esagerare, anche se abbiamo avuto qualche scambio acceso di vedute , ti leggo sempre volentieri ...;)

Hal2001
17-02-2005, 05:01
Originariamente inviato da fek
Tu pensa che quando alla cena ho chiesto al progettista capo dell'R520 di parlarmi dell'R500 mi ha risposto che sono dietro a due firewall diversi e non hanno neppure accesso agli schemi.

Secondo me, dopo aver bevuto abbastanza, lo hai scambiato con qualche cameriere :D

Leatherscraps
17-02-2005, 09:52
ragazzi io sto bene con la mia 9700 liscia,il migliore acquisto che potessi fare, riesco a giocare a half life 2 a 1200x1024 AF16x AA&x tutto al max a 30 e passa fps.
Quando avro problemi a giocare tutto al max allora prendero in considerazione l'idea da cambiare skvideo.

Cmq credo che opterò per l r520 se manterrà le promesse..

ultras77
17-02-2005, 09:59
prima di settembre nn saranno in commercio...accetto scommesse..

midian
17-02-2005, 10:33
è una pazzia !!!
a chi servirebbe una frequenza di core e ram cosi alta?
cioe serve un maxi ventolone per raffredarla, ok la gara a chi produce schede video piu veloci sul mercato pero arrivare a questi livelli è troppo

R@nda
17-02-2005, 10:54
Originariamente inviato da midian
è una pazzia !!!
a chi servirebbe una frequenza di core e ram cosi alta?
cioe serve un maxi ventolone per raffredarla, ok la gara a chi produce schede video piu veloci sul mercato pero arrivare a questi livelli è troppo

Non sono mica troppo daccordo su questo ragionamento.
Lo Zalman 7700Cu ce lo monti sulle Cpu (con una punta di soddisfazione direi:) )?
Perchè le Vga (che hanno molti più transistor di una cpu) dovrevbbero avere dissipatori assolutamente sottodimensionati?
La potenza cresce l'energia da dissipare aumenta (anche utilizzando processi produttivi migliori e affinando).
Insomma vogliamo la moglie piena e la botte ubriaca?(non si dice così ma mi piace:D ).

super alex
17-02-2005, 11:41
e ora che faccio??? io dovevo prendere ad inizio marzo una x850xt pe...ma sentendo sta notizia nn mi va proprio.... secondo voi mi conviene prendere una pci express economica per arrangiarmi finche non arriva il nuovo mostro di ati?? magari prenderei x il momento una x600 o x700...che ne dite?

fek
17-02-2005, 11:43
Originariamente inviato da Helstar
Fek ... e' normale avere due team totalmente "isolati" nello sviluppo di due gpu all'interno della stessa azienda ? Mi sembra molto strano.

In generale sarebbe strano, infatti anch'io mi sono stupido quando me l'ha detto, ma poi ho pensato che l'R500 e' commissionato da MS ed e' sottoposto ad altri regimi di sicurezza. Stesso discorso per il chip del Revolution di Nintendo sempre progettato da ATI e sempre separatamente dagl'altri.

Pensa che in Sony i dipendenti non autorizzati potevano entrare dove la PS3 era progettata ed ogni monitor ha una copertura per nasconderlo ogni volta chiunque entrasse nel lab.

Sono maniaci :)

Originariamente inviato da Hal2001
Secondo me, dopo aver bevuto abbastanza, lo hai scambiato con qualche cameriere :D

Possibile, hanno fatto scegliere i vini a me e li ho stesi :D
Il Bardolino ha fatto bene il sporco lavoro, cantavano tutti come usignoli. Sono diabolico.

Dark Schneider
17-02-2005, 11:44
Originariamente inviato da pg08x
In quanto a potenziare l'architettura già esistente nvidia per esempio lo ha fatto per anni geforce 1, geforce 2, geforce 3, geforce 4... poi è errivata ATI con la 9700 una bomba !!!
ed nvidia si è vista costretta a rivedere l'architettura, ha fallito il primo colpo con le geforce fx (uno scandalo come le spacciava per buone) ma ha potuto così imparare dai proprie errori (a spese degli utenti) e fare meglio con nv40.

In pratica se non corri rischi non avrai mai ragione della concorrenza.
ATI ha guadagnato parecchio e non ha dovuto spendere troppo per X800 avendo già un'ottima e collaudata base da cui partire.

Non si può negare che, almeno sulla carta, la prossima ATI ha molte novità da offrire.
Se confrontiamo le differenze che ci sono fra radeon 9700 ed x800 sono ben poche, fra X800 ed R520 sono moltissime, e non parlo di frequenze di funzionamento ma di novità architetturali introdotte. (Nuovi shader, ATI Multi Rendering Technology, etx).



:)

Poi ovviamente stiamo parlando di cose coperte da vincoli di non divulgazione.


Prima di tutto tra una GeForce 256 ed una GeForce 4 di differenze ce ne passano un bel po'. nVidia ha sempre introdotto una nuova scheda e successivamente potenziata, introduzione e potenziamento e così via.
nVidia non si è vista proprio per nulla "costretta" ad immettere la FX perchè c'era la 9700, per il semplice motivo che mica alla nVidia si fermano nel lavorare. Il progetto NV3x ci stavano lavorando anche da prima che la 9700 uscisse. Poi non si è rivelata una buona architettura, ma questo è un discorso molto diverso.

Poi come ti sta facendo notare qualcun altro riguardo R520, quelle rivoluzionarie novità che hai sottolineato tu in grassetto...mica son novità, visto che le ha introdotte già nVidia un annetto fa ed alcune altre idee come le schede in parallelo addirittura è un idea che risale ai tempi della Voodoo2. Lo Shader Model 3.0 non è mica una novità.
L'introduzione di "novità" già presenti e già viste non faranno di certo di R520 di una scheda "imbattibile" solo perchè R420 non li supportava.
Cioè quello che voglio dire è che non è che si tratta di una scheda rivoluzionaria. Non è che R520 "stupirà" il publico per le "novità"(si fa per dire) introdotte.
Sicuramente sarà un bel chip, come il suo concorrente.

Dark Schneider
17-02-2005, 12:05
Originariamente inviato da DragonZ
x rapporto qualita' prezzo una X800 XL 256Mb Pci-Ex a 310 euro
e' meglio di una X850 XT 256DDR3 Pci-Ex 450 euro?


Assolutamente si. Non preoccuparti, ripeto: la longevità è la stessa. Vedrai che quando la X800XL faticherà..faticherà anche la X850. 150 euro di differenza non son giustificati.
Vai sulla XL e magari con la differenza di prezzo ti compri qualcosa di meglio...tipo una CPU migliore o ancora meglio tanto Ram...più ne hai e meglio è. :)

buon acquisto :)

OverClocK79®
17-02-2005, 12:06
credo che siano solo rumors sui quali fantasticare e creare attesa
vedrete che alla fine segano le specifiche....

se tutto va bene ci troviamo una X850 con PS VS 3.0 con processo produttivo 0.11 e qlk menatina in +
se è vero che esce qui a maggio

se fosse a fine anno ancora ancora potrei crederci....

cmq felice di essere smentito

certo che 700mhz con 24 pipe la vedo dura

BYEZZZZZZZZZZZZZZ

super alex
17-02-2005, 12:14
raga ma per l'sli di ati (amr) le schede che ci sono ora tipo x800xt protanno essere usate in amr? oppure possono essere utilizzate solo le schede che ti fabrica supportano l'amr? cioè io vorrei comprarmi oggi una x850xt pe poi quando sarà disponibile l'amr mi compro un'altra x850xt pe! lo posso fare?

fek
17-02-2005, 12:22
In quanto a potenziare l'architettura già esistente nvidia per esempio lo ha fatto per anni geforce 1, geforce 2, geforce 3, geforce 4... poi è errivata ATI con la 9700 una bomba !!!

Oddio, fra GF1 e GF3, qualche differenzina c'e', nulla di eclatante per carita', giusto una non ha vertex shader e l'altra si'.

super alex
17-02-2005, 12:23
Originariamente inviato da super alex
raga ma per l'sli di ati (amr) le schede che ci sono ora tipo x800xt protanno essere usate in amr? oppure possono essere utilizzate solo le schede che ti fabrica supportano l'amr? cioè io vorrei comprarmi oggi una x850xt pe poi quando sarà disponibile l'amr mi compro un'altra x850xt pe! lo posso fare?
:cry:

fek
17-02-2005, 12:34
Originariamente inviato da super alex
raga ma per l'sli di ati (amr) le schede che ci sono ora tipo x800xt protanno essere usate in amr? oppure possono essere utilizzate solo le schede che ti fabrica supportano l'amr? cioè io vorrei comprarmi oggi una x850xt pe poi quando sarà disponibile l'amr mi compro un'altra x850xt pe! lo posso fare?

Immagino che non supporteranno l'AMR ma non ho info precise a riguardo.

DjLode
17-02-2005, 13:33
Originariamente inviato da Trabant
Addirittura?!?


Bhè considerato quando usciranno, sì :)



Sicuro di quello che dici? Perchè se è davvero così i 450€ me li risparmio davvero.


In informatica sperare che qualcosa preso oggi sia sullo stesso piano tra un anno è impensabile. Prendditi sta 6800GT, oggi va da dio, all'uscita delle nuove andrà bene, poi quello che riserva il futuro chi lo sa?


Comunque se non vado errato giochi SM2 già ci sono (perchè dici "quando usciranno"?) dovrebbe essere così HL2, addirittura avevo letto che FarCry con l'ultima patch è SM3.

HL2 usa qualcosa dello SM2, e' uno dei primi assieme al fantasmagorico 3d mark 2005.
Su FarCry stendiamo un velo pietoso... hanno raccontato un sacco di frottole e sono stati scoperti e sottoposti a pubblico sfottimento :)

Hal2001
17-02-2005, 13:35
Quanto mi piace parlare di aria fritta :)

Colgo l'occasione per salutare l'amico DjLode. Saluto anche i ragazzi della III°C, mia mamma, la zia Elisabetta ed i miei compagni di hockey su ghiaccio.

DjLode
17-02-2005, 13:46
Originariamente inviato da nonikname
Non esagerare, anche se abbiamo avuto qualche scambio acceso di vedute , ti leggo sempre volentieri ...;)

Ma micca ce l'ho con te. Anche io a volte ho esagerato :)

DjLode
17-02-2005, 13:48
Originariamente inviato da Hal2001
Quanto mi piace parlare di aria fritta :)


Da soddisfazioni vero? :)


Colgo l'occasione per salutare l'amico DjLode.


Ovviamente rigiro il saluto :)

piottanacifra
17-02-2005, 14:40
Per questa scheda devi avere come minimo un athlon64 3800 senno il collo di bottiglia diventa un "fiasco" nel senso di bottiglione. :D :D
Salutt & Bazz

DragonZ
17-02-2005, 23:38
Originariamente inviato da Dark Schneider
Assolutamente si. Non preoccuparti, ripeto: la longevità è la stessa. Vedrai che quando la X800XL faticherà..faticherà anche la X850. 150 euro di differenza non son giustificati.
Vai sulla XL e magari con la differenza di prezzo ti compri qualcosa di meglio...tipo una CPU migliore o ancora meglio tanto Ram...più ne hai e meglio è. :)

buon acquisto :)

di ram ne ho 1024 a 333mhz xo' non credo che le "buttero" e mi comprero' 1 giga a 400mhz (perche da quanto ho letto in giro non cambia in maniera drastica le prestazioni, dei giochi almeno) quindi o aggiungo ram a 333mhz (xke non so se sia il caso di mischiare ram a 333 e a 400) oppure invece di un athlon 64 mi faccio un 3800.... boh
cmq grazie del consiglio!

p.s. se hai un consiglio da darmi pure sulla ram gia che ci stai poi sono apposto e vado a fare shopping :D :D :D

pg08x
18-02-2005, 13:01
Originariamente inviato da Dark Schneider
Prima di tutto tra una GeForce 256 ed una GeForce 4 di differenze ce ne passano un bel po'.

A livello di nuove funzioni introdotte Non è che siano poi tante ;)


nVidia non si è vista proprio per nulla "costretta" ad immettere la FX perchè c'era la 9700, per il semplice motivo che mica alla nVidia si fermano nel lavorare. Il progetto NV3x ci stavano lavorando anche da prima che la 9700 uscisse. Poi non si è rivelata una buona architettura, ma questo è un discorso molto diverso.



Nvidia per non perdere clienti (in modo disonesto) HA ANTICIPATO l'uscita della geforce FX quando non era ancora pronta. In pratica A SPESE dei suoi stessi acquirenti che hanno speso un sacco di soldi per un prodotto immaturo e pieno di difetti.


Poi come ti sta facendo notare qualcun altro riguardo R520, quelle rivoluzionarie novità che hai sottolineato tu in grassetto...mica son novità, visto che le ha introdotte già nVidia un annetto fa ed alcune altre idee come le schede in parallelo addirittura è un idea che risale ai tempi della Voodoo2. Lo Shader Model 3.0 non è mica una novità.



Stiamo parlando delle differenze fra r420 ed r520 che sono parecchie e riguardano features che il mercato richiede ed equilibrate con la potenza di calcolo di R520 quindi sfruttabili.
Tutte queste novità sono state introdotte nell'architettura di R520 quindi l'architettura di R520 rispetto a quella di R420 ha diverse cose nuove che abbiamo già elencato.

guarale
18-02-2005, 14:23
ma ti pare che spendo 1000 euro per un pezzo di silicio invece che andarmene in crociera o in viaggio chissà dove, sarei uno sfigato!

R@nda
18-02-2005, 14:27
Originariamente inviato da guarale
ma ti pare che spendo 1000 euro per un pezzo di silicio invece che andarmene in crociera o in viaggio chissà dove, sarei uno sfigato!

Semplicemente non ti interessa farlo....e non mi sembra giusto dare dello sfigato a qualcuno perchè spende soldi (suoi) per cose che per te non hanno importanza mentre per lui si.

A ognuno il suo....

VLF
18-02-2005, 14:35
Se le specifiche riguardanti il mero consumo energetico della scheda venissero confermate, anche solo parzialmente, si potrebbe parlare di risposta di Ati al protocollo di Kyoto (entrato in vigore proprio ieri l'altro, mi pare).

:)

ally
18-02-2005, 15:17
Originariamente inviato da VLF
Se le specifiche riguardanti il mero consumo energetico della scheda venissero confermate, anche solo parzialmente, si potrebbe parlare di risposta di Ati al protocollo di Kyoto (entrato in vigore proprio ieri l'altro, mi pare).

:)


...lol...dai ATI è in leggero vantaggio rispetto a nVidia in questo punto...e il form factor...escluse le ultimissime uscite...ne sono la testimonianza...effettivamente pero' una tale soluzione non puo' certo consumare pochissimo...

DjLode
18-02-2005, 20:38
Originariamente inviato da pg08x
A livello di nuove funzioni introdotte Non è che siano poi tante ;)


Non, certo. Si è passati da un' architettura Dx7 ad un'architettura Dx8...
Quindi anche tra la Radeon 256 e la Radeon 8500 non c'è poi molta differenza secondo il tuo ragionamento. Anche se so per certo che mi dirai che invece qui la differenza è tantissima :)



Nvidia per non perdere clienti (in modo disonesto) HA ANTICIPATO l'uscita della geforce FX quando non era ancora pronta. In pratica A SPESE dei suoi stessi acquirenti che hanno speso un sacco di soldi per un prodotto immaturo e pieno di difetti.


Ma :sofico: la 5800 è uscita in ritardo di 6 mesi per permettere di buttare fuori una Ultra a 500mhz e tu mi vieni a dire che l'uscita è stata anticipata?



Stiamo parlando delle differenze fra r420 ed r520 che sono parecchie e riguardano features che il mercato richiede ed equilibrate con la potenza di calcolo di R520 quindi sfruttabili.
Tutte queste novità sono state introdotte nell'architettura di R520 quindi l'architettura di R520 rispetto a quella di R420 ha diverse cose nuove che abbiamo già elencato.

No. Le differenza sono poche. Te lo stiamo dicendo da giorni. Poi tu dai per scontato cose che non si sanno (tipo che ci sono le features che il mercato richiede eccetera). Ma è normale :)

fek
18-02-2005, 21:17
Originariamente inviato da pg08x

Stiamo parlando delle differenze fra r420 ed r520 che sono parecchie e riguardano features che il mercato richiede ed equilibrate con la potenza di calcolo di R520 quindi sfruttabili.
Tutte queste novità sono state introdotte nell'architettura di R520 quindi l'architettura di R520 rispetto a quella di R420 ha diverse cose nuove che abbiamo già elencato.

Ad esempio? Ci fai qualche esempio di nuove feature introdotte dall'R520 che non sono presenti nei concorrenti ed ora possono essere sfruttate?

Se ce le elenchi ancora ci fai un favore perche' qualcuna mi e' sfuggita. Ti ringrazio.

MaBru
18-02-2005, 21:52
Originariamente inviato da fek
L'ideale sarebbe che una fosse sempre piu' veloce dell'altra senza richiedere particolari accorgimenti (leggi due code path differenti). Questa e' la situazione ideale...
Non capisco. Me la spieghi?

MaBru
18-02-2005, 22:00
Originariamente inviato da fek
Tu pensa che quando alla cena ho chiesto al progettista capo dell'R520 di parlarmi dell'R500 mi ha risposto che sono dietro a due firewall diversi e non hanno neppure accesso agli schemi.
Addirittura?:eek:

vinck05
18-02-2005, 22:10
mamma mia che mostro!!!

DjLode
18-02-2005, 22:21
Originariamente inviato da MaBru
Non capisco. Me la spieghi?

Scrivere la stessa cosa per entrambe (o più) gpu e che vada velocemente su entrambe senza particolari accorgimenti.
Creare due versioni dello stesso shader (o di tutti che è ancora peggio) per far sì che vada decentemente su tutte è una rottura :)

pg08x
19-02-2005, 10:33
Originariamente inviato da pg08x

Stiamo parlando delle differenze fra r420 ed r520 che sono parecchie e riguardano features che il mercato richiede ed equilibrate con la potenza di calcolo di R520 quindi sfruttabili.
Tutte queste novità sono state introdotte nell'architettura di R520 quindi l'architettura di R520 rispetto a quella di R420 ha diverse cose nuove che abbiamo già elencato.

Originariamente inviato da fek
Ad esempio? Ci fai qualche esempio di nuove feature introdotte dall'R520 che non sono presenti nei concorrenti ed ora possono essere sfruttate?

Se ce le elenchi ancora ci fai un favore perche' qualcuna mi e' sfuggita. Ti ringrazio.


La tua logica è fallace, volutamente. :mc: (e questo non ti fa onore)

Sai benissimo che stiamo parlando delle differenze fra r420 ed r520 NON delle differenze fra r520 e tutte le altre schede concorrenti.
E sai benissimo (mi auguro) che una caratteristica non è utilizzabile se non supportata da una potenza di calcolo adeguata.
A cosa sarebbe servito ad esempio un anti alias 16x a 1600x1200 su una geforce 2 se poi va a scatti ?

Quindi puoi fare tu un favore... smetterla di prendere in giro. Grazie :)

pg08x
19-02-2005, 10:46
Originariamente inviato da DjLode
Non, certo. Si è passati da un' architettura Dx7 ad un'architettura Dx8...
Quindi anche tra la Radeon 256 e la Radeon 8500 non c'è poi molta differenza secondo il tuo ragionamento. Anche se so per certo che mi dirai che invece qui la differenza è tantissima :)


Non lasciarti influenzare...

A livello di prestazioni forse... comunque parlavamo di schede nvidia e tu mi citi una ATI. Non è un buon paragone... a livello di caratteristiche implementate (pur essendo meno veloce) una radeon 8500 è superiore ad una Geforce 4


Ma :sofico: la 5800 è uscita in ritardo di 6 mesi per permettere di buttare fuori una Ultra a 500mhz e tu mi vieni a dire che l'uscita è stata anticipata?



Potrebbe essere anche uscita in ritardo di 10 anni rispetto a quelli che possono essere i piani.
Io posso progettare di andare su Marte domani ma se la tecnologia non è ancora pronta devo avere almeno l'ONESTA' di ammetterlo.


No. Le differenza sono poche. Te lo stiamo dicendo da giorni. Poi tu dai per scontato cose che non si sanno (tipo che ci sono le features che il mercato richiede eccetera). Ma è normale :)



Le differenze fra R420 ed R520 sono molte se guardi all'elenco delle features pubblicate. Potranno essere delle caratteristiche già implementate in schede della concorrenza ma noi stiamo parlando di ARCHITETTURA DELLE SCHEDE ATI non dimenticarlo.

DjLode
19-02-2005, 11:25
Originariamente inviato da pg08x
noi stiamo parlando di ARCHITETTURA DELLE SCHEDE ATI non dimenticarlo.


Che è la stessa da R300 a R520. Te lo abbiamo detto eoni fa, sei tu che dicevi il contrario. Qui non l'ha dimenticato nessuno di cosa stiamo parlando :)

TripleX
19-02-2005, 11:58
l'importante e' il risultato...poco importano features strabilianti come gli sm3.0 di nvidia se le vedremo adottate nella prox generazione....non pensiate che non ci sia uno studio anche commerciale nel creare una vga....se e' cosi' significa che soddisfa le esigenze odierne...il futuro e' futuro...fatto sta che ATi e' avanti ora e lo sara' ancora...il resto e' fumo...introdurre supporto a funzioni non utilizzate puo' essere comodo come beta testing...ma forse pensate che non ci sia un beta testing interno oltra a quello sul consumatore??
Ati non ha necessita' di creare da 0 una vga perche' la concorrenza e' dietro in prestazioni pure...ma nel cappello ha il suo coniglio...pronto x essere usato all'uscire di nuove generazioni nvidia...questa e' politica commerciale...la tecnologia si sforna a goccie anche se dentro hai una vga di 3 generazioni avanti...si deve giocare nel proporre prodotti di pari prestazioni rispetto alla concorrenza altrimenti ci si danneggia...r300 e' stato rivoluzionario ma e' uscito in previsione che nvidia creasse un nv30 competitivo anche se cosi' non e' stato...tale politica viene applicata in tutta l'elettronica x home user...i cellulari sono l'esempio piu' eclatante...non ce n'e' mai uno completo...a qualcuno manca sempre qualcosa...cio' per spingere il nuovo prodotto che avra' la feature mancante e cosi' via:rolleyes:

Banus
19-02-2005, 12:09
Originariamente inviato da pg08x
Potrebbe essere anche uscita in ritardo di 10 anni rispetto a quelli che possono essere i piani.
Io posso progettare di andare su Marte domani ma se la tecnologia non è ancora pronta devo avere almeno l'ONESTA' di ammetterlo.
Da quello che ricordo Nvidia non era indietro con i piani. Si parlava Al massimo di problemi di resa per il nuovo processo produttivo.
Per quello che so l'uscita è stata rimandata perchè la scheda non era all'altezza di R300 nelle DirectX9, così Nvidia è corsa ai ripari spingendo al massimo le frequenze.

R520 dalle notizie che girano dovrebbe essere un R420 con l'aggiunta delle caratteristiche SM3.0 e qualche pipeline in più. Non ci sono dettagli sull'architettura. L'unica vera novità potrebbe essere un'implementazione efficiente del dynamic branching, che in NV40 è supportato ma richiede una forte coerenza fra pixel. Ma su questo ci sono solo voci.,

pg08x
19-02-2005, 12:40
Originariamente inviato da Banus
Da quello che ricordo Nvidia non era indietro con i piani. Si parlava Al massimo di problemi di resa per il nuovo processo produttivo.
Per quello che so l'uscita è stata rimandata perchè la scheda non era all'altezza di R300 nelle DirectX9, così Nvidia è corsa ai ripari spingendo al massimo le frequenze.

Hai ragione, mi correggo...
La scheda non era all'altezza delle aspettative, per poter competere con R300 sarebbe stato necessario rivedere completamente il progetto.

Non se lo potevano permettere perchè non volevano assolutamente perdere quote di mercato nell'attesa.

In pratica le necessarie revisioni al progetto non erano ancora pronte in questo senso hanno voluto anticipare l'uscita

Senza una revisione totale al progetto delle geforce fx per poter competere con la concorrenza sarebbero state necessarie frequenze di funzionamento tali che perfino il nuovo processo produttivo non era in grado di assicurare.

E' vergognoso dare la colpa ad un processo produttivo solo perchè questo non è in grado di coprire le tue CARENZE DI PROGETTO.

Mentre la radeon 9700pro girava a 325Mhz. cvidia ha presentato una geforce fx 5800 ultra con un core ADDIRITTURA a 500Mhz.
Troppi per i tempi.

Uno scandalo come è uno scandalo che se non vengono usati accorgimenti particolari a livello di programmazione e ridotta la precisione le performance degli shader appaiono scadenti.

Banus
19-02-2005, 12:53
Originariamente inviato da pg08x
Le necessarie revisioni al progetto non erano ancora pronte in questo senso hanno voluto anticipare l'uscita.
Le revisioni al progetto non sarebbero mai arrivate in tempo...
Se noti la 5900 è uscita quasi un anno dopo R300 e nonostante questo le prestazioni non erano granchè. Come è stato fatto notare da più parti, Nvidia si è limitata ad aggiungere unità FP per ridurre almeno il gap con ATI, ma non poteva rivedere da zero l'architettura. Non c'era tempo.
L'architettura nuova l'ha presentata con NV40, e come ha fatto notare con molta competenza yossarian assomiglia molto a R300 e in alcuni aspetti la migliora. Considera che nella migliore delle ipotesi una scheda dall'inizio del progetto al tape-out richiede un anno e mezzo (questo 2-3 anni fa, può darsi che i tempi siano anche maggiori adesso). Se noti si adatta bene al tempo trascorso fra presentazione di R300 e di NV40.

PS: vedo che hai editato il messaggio mentre rispondevo ;)
Purtroppo una cosa è la tecnologia, un'altra il marketing. Si cerca in ogni modo di ridurre i danni, quando le cose vanno male ;)

fek
19-02-2005, 15:25
Originariamente inviato da pg08x
Sai benissimo che stiamo parlando delle differenze fra r420 ed r520 NON delle differenze fra r520 e tutte le altre schede concorrenti.[/B]


Colpa mia, mi sembrava che avessi scritto qualcosa tipo "Nuove caratteristiche mai viste prima" allora pensavo ti riferissi anche all'NV40. Quindi anche secondo te non introdurra nulla che non era gia' presente nell'NV40?

Cambio la domanda allora, mi dici quali caratteristiche e funzionalita' l'R520 avra' in piu' dell'R420 tali da definirlo rivoluzionario?


E sai benissimo (mi auguro) che una caratteristica non è utilizzabile se non supportata da una potenza di calcolo adeguata.


A quale caratteristica ti stai riferendo di preciso che non e' utilizzabile perche' non supportata da una potenza di calcolo adeguata?

Originariamente inviato da pg08x
Potrebbe essere anche uscita in ritardo di 10 anni rispetto a quelli che possono essere i piani.
Io posso progettare di andare su Marte domani ma se la tecnologia non è ancora pronta devo avere almeno l'ONESTA' di ammetterlo.

Infatti l'NV30 non era pronto all'uscita ed e' stato rimandato di 6 mesi.

Le differenze fra R420 ed R520 sono molte se guardi all'elenco delle features pubblicate. Potranno essere delle caratteristiche già implementate in schede della concorrenza ma noi stiamo parlando di ARCHITETTURA DELLE SCHEDE ATI non dimenticarlo.


Ce le elenchi di nuovo per cortesia? Perche' alcune non mi convincevano e a me non risulta che ve ne siano cosi' tante.
Per dirti la verita', non mi risulta neppure siano necessarie cosi' tante caratteristiche in piu' rispetto all'R420 che e' gia' assolutamente ottimo. Io conto due differenze importanti.

Parliamo di cose concrete, dai, facci questo elenco.

fek
19-02-2005, 15:28
Originariamente inviato da pg08x
Uno scandalo come è uno scandalo che se non vengono usati accorgimenti particolari a livello di programmazione e ridotta la precisione le performance degli shader appaiono scadenti.

Non c'e' nulla di scandaloso, purtroppo su entrambe le architetture sono necessari accorgimenti particolari a livello di programmazione. Prova a fare su ATI una serie di accessi ad una texture 3d muovendoti sempre sull'asse z. Oppure scrivi uno shader che faccia praticamente solo accessi a texture come un filtro di convoluzione.
C'e' stato l'esempio eclatante di uno shader di D3 dove sostituendo il "quasi" equivalente matematico ad un accesso a texture si e' ottenuto un guadagno dal 10 al 30%. E' la normalita' delle cose.

fek
19-02-2005, 15:32
Originariamente inviato da MaBru
Non capisco. Me la spieghi?

Ha detto bene DJLode, l'ideale sarebbe non dover usare "accorgimenti particolari" su ogni gpu e dover scrivere versioni diverse dello stesso shader.

Adesso, per essere ottimali, bisognerebbe scrivere una versione di ogni shader specifica per:

- R3X0 (ps_2_0), con piu' operazioni aritmetiche rispetto ad accessi a texture
- R420 (ps_2_b), simile all'R3X0
- NV3X (ps_2_a), con meno operazioni aritmetiche rispett ad accessi a texture
- NV40 (ps_3_0), simile all'R3X0 ma dove e' possibile sfruttando il dynamic branching

E' una situazione un po' disperata infatti ci sto uscendo matto :D

pg08x
19-02-2005, 16:58
Originariamente inviato da fek
Colpa mia, mi sembrava che avessi scritto qualcosa tipo "Nuove caratteristiche mai viste prima" allora pensavo ti riferissi anche all'NV40. Quindi anche secondo te non introdurra nulla che non era gia' presente nell'NV40?

Cambio la domanda allora, mi dici quali caratteristiche e funzionalita' l'R520 avra' in piu' dell'R420 tali da definirlo rivoluzionario?

Vai a vedere il messaggio che hai quotato tu stesso. Parlavo di nuove caratteristiche di r520 rispetto a r420.
Certo quando hai torto cambi le carte in tavola. Come al solito.

Originariamente inviato da fek
A quale caratteristica ti stai riferendo di preciso che non e' utilizzabile perche' non supportata da una potenza di calcolo adeguata?

A certe risoluzioni e con certi programmi è difficile poter vedere un programma funzionare al massimo di dettaglio e con tutti i filtri abilitati. Questo tu dovresti saperlo.
Soprattutto se parliamo dei giochi di domani che sfrutteranno le caratteristiche di un nv40 che ai tempi sarà obsoleto (ed anche questo dovresti saperlo).


Infatti l'NV30 non era pronto all'uscita ed e' stato rimandato di 6 mesi.

nv30 era pronto ma non poteva reggere la concorrenza.
E' stato rimandato di sei mesi per poterlo overcloccare.
E' stato poi pompato da una vergognosa operazione di marketing.
Della serie... aspettate che noi usciamo con un prodotto migliore...


Ce le elenchi di nuovo per cortesia? Perche' alcune non mi convincevano e a me non risulta che ve ne siano cosi' tante.
Per dirti la verita', non mi risulta neppure siano necessarie cosi' tante caratteristiche in piu' rispetto all'R420 che e' gia' assolutamente ottimo. Io conto due differenze importanti.

Qua sei tu quello che scrive programmatore 3d in ogni post che invia, spetta a te fare eventuali elenchi ;)


Parliamo di cose concrete, dai, facci questo elenco.
E' quello che faccio sempre fatti caro mio, le ipotesi le lascio a te...

fek
19-02-2005, 17:04
Originariamente inviato da pg08x
Vai a vedere il messaggio che hai quotato tu stesso. Parlavo di nuove caratteristiche di r520 rispetto a r420.

Ti costa tanto ripetercele o preferisci che le vado a cercare e faccio il quote?


A certe risoluzioni e con certi programmi è difficile poter vedere un programma funzionare al massimo di dettaglio e con tutti i filtri abilitati. Questo tu dovresti saperlo.
Soprattutto se parliamo dei giochi di domani che sfrutteranno le caratteristiche di un nv40 che ai tempi sarà obsoleto (ed anche questo dovresti saperlo).

Si', lo so. Ora puoi rispondere alla domanda pero':

"A quale caratteristica ti stai riferendo di preciso che non e' utilizzabile perche' non supportata da una potenza di calcolo adeguata? "


nv30 era pronto ma non poteva reggere la concorrenza.

Quindi non era pronto ed e' stato ritardato.


Qua sei tu quello che scrive programmatore 3d in ogni post che invia, spetta a te fare l'elenco ;)

Si', va bene. Ora pero' puoi rispondere alla domanda?

"Ce le elenchi di nuovo per cortesia? Perche' alcune non mi convincevano e a me non risulta che ve ne siano cosi' tante.
Per dirti la verita', non mi risulta neppure siano necessarie cosi' tante caratteristiche in piu' rispetto all'R420 che e' gia' assolutamente ottimo. Io conto due differenze importanti."

Mi e' venuto il vago dubbio che tu stia cercando di eludere le mie domande e di buttarla sempre sul personale, perche'? Hai paura di rispondere? :)

Ti ripeto le due domande per comodita':
1) Quali caratteristiche implementate nelle odierne GPU reputi non essere sfruttabili perche' non supportate dalle prestazioni?
2) Quali caratteristiche importanti reputi che l'R520 introdurra' rispetto all'R420?

Ti ringrazio in anticipo delle cortesi risposte.

pg08x
19-02-2005, 17:09
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x

Stiamo parlando delle differenze fra r420 ed r520 che sono parecchie e riguardano features che il mercato richiede ed equilibrate con la potenza di calcolo di R520 quindi sfruttabili.
Tutte queste novità sono state introdotte nell'architettura di R520 quindi l'architettura di R520 rispetto a quella di R420 ha diverse cose nuove che abbiamo già elencato.
--------------------------------------------------------------------------------



Ad esempio? Ci fai qualche esempio di nuove feature introdotte dall'R520 che non sono presenti nei concorrenti ed ora possono essere sfruttate?

Se ce le elenchi ancora ci fai un favore perche' qualcuna mi e' sfuggita. Ti ringrazio.


fek per favore :mc:

fek
19-02-2005, 17:23
A seguito della tua obiezione, ho cambiato la mia domanda in questa:

Originariamente inviato da fek
2) Quali caratteristiche importanti reputi che l'R520 introdurra' rispetto all'R420?


Grazie ancora.

fek
19-02-2005, 17:28
Visto che sei molto timido oggi, mi sono preso la briga di andare a cercare l'elenco che hai fatto.

Eccolo:


Se per te l'implementazione dei Pixel Shader 3, ATI Multi Rendering, Hyper Memory e cosucce varie tipo il Programmable Primitive Processor/Tesselator me li chiami una revision contento tu...

Ecco le specifiche da fonte + attendibile:

24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA
FP32 blending, texturing
Programmable Primitive Processor/Tesselator


Pesco a caso, quindi tu immagini che l'R520 introdurra' rispetto all'R420, fra le altre cose:

- Shader Model 3.0
- Primitive Processor/Tesselator
- FP32 blending, texturing

Confermi? Sto cercando di capire quali siano queste caratteristiche delle quali stai parlando da qualche pagina a questa parte.

pg08x
19-02-2005, 17:33
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Shader Model 3.0

fek
19-02-2005, 17:35
Niente Programmable Primitive Processor/Tesselator e fp32 blending allora?
Mi sembravi cosi' sicuro, le hai anche definite, cito testualmente, "cosuccie varie".

Secondo te avra' il supporto completo all'SM3.0? (ok, qui c'e' un piccolo tranello, ma non ne posso parlare).
Riformulo la domanda, secondo te avra' lo stesso supporto dell'NV40 all'SM3.0?

pg08x
19-02-2005, 17:37
Originariamente inviato da pg08x
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Shader Model 3.0
16x stochastic FSAA

sarebbero molto più di quello che hanno fatto con r420 rispetto a r350.

A proposito fek... quali sono le nuove caratteristiche di r420 rispetto a r350 ??? tu sicuramente saprai elencarmene parecchie :D

fek
19-02-2005, 17:42
Originariamente inviato da pg08x
sarebbero molto più di quello che hanno fatto con r420 rispetto a r300.

Su questo sono pienamente d'accordo, ma tu hai parlato di architettura rivoluzionaria, con tantissime caratteristiche in piu' rispetto all'R420.

Ed ora si scopre che pare introdurra' l'SM3.0 e l'AMR, caratteristiche importanti, aggiungo io, ma sicuramente non rivoluzionarie.
Diciamo che non c'era alcun bisogno di rivoluzionare un'architettura gia' ottima. Mantenere invariata l'architettura sarebbe per ATI un'ottima scelta in questo anche alla luce delle nuove API che sono all'orizzonte.

Mi fa piacere che tu ti sia accorto del tuo errore, nel dare per scontate caratteristiche molto dubbie e nel definire l'architettura rivoluzionaria; ti fa onore :)

fek
19-02-2005, 17:44
Originariamente inviato da pg08x
A proposito fek... quali sono le nuove caratteristiche di r420 rispetto a r350 ??? tu sicuramente saprai elencarmene parecchie :D

A parte una generale ottimizzazione dell'architettura, la caratteristica piu' evidente aggiunta dall'R420 e' il supporto nativo al formato 3dc.

pg08x
19-02-2005, 17:52
Originariamente inviato da fek
A parte una generale ottimizzazione dell'architettura, la caratteristica piu' evidente aggiunta dall'R420 e' il supporto nativo al formato 3dc.

Cos'è il supporto nativo al formato degli schermi dei laptop ? :doh:


Smettila di prendere in giro.

R520 rispetto a R420 dovrebbe introdurre fra l'altro:

ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Shader Model 3.0
16x stochastic FSAA

Mentre R420 rispetto a R350 ha introdotto

l'importantissimo supporto NATIVO (quindi prima erano supportati lo stesso oserei supporre) al formato 3dc


Certo le 2 cose sono assolutamente confrontabili...

ma fammi il piacere... :sofico:

pg08x
19-02-2005, 18:04
la caratteristica piu' evidente aggiunta dall'R420 e' il supporto nativo al formato 3dc :sofico:

Mi viene il dubbio che tu non sai proprio che cosa sia :D

e poi dici agli altri di parlare di cose concrete :rotfl::rotfl::rotfl::rotfl:

fek
19-02-2005, 18:07
Originariamente inviato da pg08x
R520 rispetto a R420 dovrebbe introdurre fra l'altro:

ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Shader Model 3.0
16x stochastic FSAA


Il "fra l'altro" lo abbiamo gia' eliminato prima. Puoi scordartelo.

Sul supporto allo shader model 3.0 non posso parlare purtroppo.
L'FSAA 16x puoi scordartelo invece.
Il resto e' sostanzialmente nulla di piu' di cio' che gia' esiste in commercio dall'introduzione dell'NV40.
Come definisci questo ritardo di introduzione delle caratteristiche rivoluzionarie delle quali parli?


Mentre R420 rispetto a R350 ha introdotto

l'importantissimo supporto NATIVO (quindi prima erano supportati lo stesso oserei supporre) al formato 3dc

Si', e' possibile convertire una normalmap in 3dc all'interno del driver in formato DXT5, quindi offrire un supporto non nativo al formato.


Certo le 2 cose sono assolutamente confrontabili...


Nessuno ha mai confrontato le novita' nell'R420 con le novita' presunte dell'R520. Si sta discutendo se le presunte novita' dell'R520 saranno rivoluzionarie, come tu un po' ingenuamente le definisci, o meno.

Immagino che se NVIDIA avesse presentato una GPU di nuova generazione con in piu' solo il supporto ad un formato di compressione delle normal map avresti gridato al ladro.

Su, e' chiaro che non sai di che cosa stai parlando :)

fek
19-02-2005, 18:08
Originariamente inviato da pg08x
la caratteristica piu' evidente aggiunta dall'R420 e' il supporto nativo al formato 3dc :sofico:

Mi viene il dubbio che tu non sai proprio che cosa sia :D


E' assolutamente probabile. Spero che tu me lo possa insegnare :)

Maury
19-02-2005, 18:16
Fek un giorno mi spiegherai come fai a mantenere la calma davanti a certe uscite allucinanti :)

pg08x
19-02-2005, 18:18
Originariamente inviato da fek
Si', e' possibile convertire una normalmap in 3dc all'interno del driver in formato DXT5, quindi offrire un supporto non nativo al formato.

bella roba
:D

tutti a comprarsi i laptop con schermo in formato 3dc :sofico:
questa era bella... hanno lo stesso nome lo sapevi ???

Un formato di compressione proprietario ATI che non usa nessuno.... :D grande novità :D

Come ho quotato più volte mi sono sempre riferito ad architetture ATI e tu di nuovo a cambiare le carte in tavola e tirarmi fuori nvidia
:mc:

Quando hai torto mi prendi sempre per stanchezza per un pò può essere divertente ma dopo stufi...

buon sabato sera

fek
19-02-2005, 18:22
Originariamente inviato da Maury
Fek un giorno mi spiegherai come fai a mantenere la calma davanti a certe uscite allucinanti :)

E' tutta una questione di abitudine :)

Originariamente inviato da pg08x
tutti a comprarsi i laptop con schermo in formato 3dc :sofico:


Mi viene il sospetto che tu non sappia di che cosa si stia parlando.


Come ho quotato più volte mi sono sempre riferito ad architetture ATI e tu di nuovo a cambiare le carte in tavola e tirarmi fuori nvidia
:mc:

Si' si' va bene, puoi rispondere alle mie domande ora?


Quando hai torto mi prendi sempre per stanchezza per un pò può essere divertente ma dopo stufi...


Ok, ti sei assegnato i punti da solo. Bravo, mi hai battuto, hai dimostrato a tutti di saperne piu' di me :)

DjLode
19-02-2005, 19:06
Originariamente inviato da Maury
Fek un giorno mi spiegherai come fai a mantenere la calma davanti a certe uscite allucinanti :)

Si chiama vino. Esiste rosso o bianco o rosato. Ne bevi a palate, non ti smuove neanche Pg08x :)
Ok, non ti vengono benissimo gli shaders, ma pazienza, con una patch si risolve tutto :)

Crashman
19-02-2005, 19:26
Originariamente inviato da pg08x
bella roba
:D

tutti a comprarsi i laptop con schermo in formato 3dc :sofico:
questa era bella... hanno lo stesso nome lo sapevi ???

Un formato di compressione proprietario ATI che non usa nessuno.... :D grande novità :D

Come ho quotato più volte mi sono sempre riferito ad architetture ATI e tu di nuovo a cambiare le carte in tavola e tirarmi fuori nvidia
:mc:

Quando hai torto mi prendi sempre per stanchezza per un pò può essere divertente ma dopo stufi...

buon sabato sera
Il 3dc è un formato di compressione per le normal maps utilissimo. Il problema delle normal maps è che contengono anche informazioni sulle normali (che permettono di ottenere una illuminzione realistica sul modello alle quali la mappa viene applicata) e non è possibile comprimerle con tecniche tradizionali (se non con una forte perdita di qualità). Ci si ritrova quindi davanti ad un bivio: qualità (della normal maps ma ti lascio immaginare cosa vuol dire la mancanza di compressione) o risparmio (di MB nella ram ovviamente). Il 3dc permette di trovare un eccellente compromesso conservando un'ottima qualità e dimensioni non eccessive. Calcolando che il futuro non è nell'aumento del poligon count ma proprio nell'utilizzo delle normal maps e tecniche simili (che permettono di aumentare considerevolmente il dettaglio senza aumentare il numero di poligoni, vedi doom 3, HL2, Halo 2 e Riddick) oserei dire che questa caratteristica introdotta da Ati è molto, ma molto importante...

Ps: per il supporto dei giochi, prova a dare una occhiata a HL2 ;)

fek
19-02-2005, 19:45
Originariamente inviato da DjLode
Si chiama vino. Esiste rosso o bianco o rosato. Ne bevi a palate, non ti smuove neanche Pg08x :)
Ok, non ti vengono benissimo gli shaders, ma pazienza, con una patch si risolve tutto :)

I miei shader sono perfetti! Girano solo su NV40 ma perfetti! :D

Maury
19-02-2005, 19:50
Un bel bicchiere di Lambrusco Amabile alla giusta temperatura è d'obbligo in certi momenti :p

X pg08x

Scusa ma che cosa centra il tuo continuo abbinare 3dc/Laptop ? :confused:

yossarian
19-02-2005, 20:13
Originariamente inviato da fek
Non c'e' nulla di scandaloso, purtroppo su entrambe le architetture sono necessari accorgimenti particolari a livello di programmazione. Prova a fare su ATI una serie di accessi ad una texture 3d muovendoti sempre sull'asse z. Oppure scrivi uno shader che faccia praticamente solo accessi a texture come un filtro di convoluzione.
C'e' stato l'esempio eclatante di uno shader di D3 dove sostituendo il "quasi" equivalente matematico ad un accesso a texture si e' ottenuto un guadagno dal 10 al 30%. E' la normalita' delle cose.


posso confermarlo; sulle ottimizzazioni per R300, riporto testualmente le parole di Richard Huddy:"generally prefer to spend cycles on shader ops rather then using texture lookups - because memory latency is the enemy here.

fek
19-02-2005, 20:23
Originariamente inviato da yossarian
posso confermarlo; sulle ottimizzazioni per R300, riporto testualmente le parole di Richard Huddy:"generally prefer to spend cycles on shader ops rather then using texture lookups - because memory latency is the enemy here.

Che bell'uomo Richard :)

Durante il meeting ne ha sparata una che mi ha cappotato dal ridere, tipo:
"We are good at doing nothing, we are extremely good at doing absolutely nothing, we always aim at doing nothing!"

Si riferiva al fatto che l'R3X0 riesce ad eliminare con l'Early Z molti pixel prima che lo shader sia eseguito, col risultato netto di "non fare nulla". Ma il modo in cui lo diceva compiaciuto :D

yossarian
19-02-2005, 20:32
24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (SLI)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)


ammesso che siano queste le caratteristiche del nuovo chip, la caratteristica più "impressionante" è quella relativa alle 96 alu con 192 operazioni per ciclo. Per il resto, si ha l'adeguamento (almeno parziale) dell'architettura dell'R420 allo sm3.0 e poco altro (l'amr è possibile, in teoria, anche con R300, solo che ATi non ha mai avuto interesse a lanciare, fino ad ora, questa feature e l'hypermemory non è altro che l'ennesima revisione del controller memory bus, cosa già fatta nel passaggio tra R300 e R420).
Molto buono il rapporto tra pixel fillrate teorico e bandwidth, indice di quanto il chip potrà o meno essere limitato in banda.
Infine le GDDR3 a 1800 Mhz, altro non sono che ram a 225 Mhz di core frequency, con frequenza di trasferimento dati pari a 1800 Mhz

yossarian
19-02-2005, 20:36
Originariamente inviato da fek
Che bell'uomo Richard :)

Durante il meeting ne ha sparata una che mi ha cappotato dal ridere, tipo:
"We are good at doing nothing, we are extremely good at doing absolutely nothing, we always aim at doing nothing!"

Si riferiva al fatto che l'R3X0 riesce ad eliminare con l'Early Z molti pixel prima che lo shader sia eseguito, col risultato netto di "non fare nulla". Ma il modo in cui lo diceva compiaciuto :D


ha di che esere orgoglioso: l'early-z funziona veramente bene

:D

ken Falco
20-02-2005, 00:20
2 volte piu veloce di una 6800?
poffarbacco sai che salto nel buio!

pg08x
20-02-2005, 11:10
Originariamente inviato da Maury
Un bel bicchiere di Lambrusco Amabile alla giusta temperatura è d'obbligo in certi momenti :p

X pg08x

Scusa ma che cosa centra il tuo continuo abbinare 3dc/Laptop ? :confused:


Mi viene da ridere, la stessa sigla è usata da IBM per identificare alcuni modelli dei propri Thinkpad. Era una palese provocazione rivolta a fek... (r420 supporta nativamente i thinkpad :Prrr: )

In pratica intendevo sottolineare che le opinioni altrui devono essere rispettate.

Le opinioni che ho esposto nel corso di questo lungo thread sono le seguenti:

- A mio avviso la nuova generazione di schede video di ATI porterà un grosso numero di miglioramenti rispetto alla generazione precedente. Una innovazione se confrontata a quanto hanno fatto da r350 per arrivare a r420.

(considera che anche r300 supporta d3c anche se non in modo nativo)

- A mio avviso nvidia è stata molto scorretta con il lancio di nv30 quando non era ancora pronto. E chi ci ha rimesso sono stati i suoi fedeli acquirenti.

- A mio avviso avere gli shader3 quando nessun gioco li sfrutta è inutile visto il ritmo vertiginoso con cui si evolve il mercato delle schede video e la crescente domanda di risorse da parte del software (videogiochi).
(facevo il paragone di un anti-alias a 1600x1200 su una geforce 2)


- A mio avviso gli shader3 di r520 saranno sfruttati per 2 motivi:

1) i giochi di domani inizieranno ad implementarli
2) la potenza di calcolo è adeguata ai giochi di domani

-----

Non siamo in un regime nazista e non sopporto le persone arroganti. Uno che mi risponde in parole povere: "le tue opinioni non contano, io qua ne so più di tutti faccio il programmatore 3d e sono andato a cena con il signor ATI quindi ho ragione io" non mi fa ne caldo ne freddo.

Per lui possono essere cose di poco conto perchè le ha fatte anche nvidia. Per me sono ragioni sufficienti per il pensionamento di una scheda, la radeon 9700pro, che ho da anni e tante soddisfazioni mi ha dato. ;)

halduemilauno
20-02-2005, 11:25
Originariamente inviato da pg08x

- A mio avviso la nuova generazione di schede video di ATI porterà un grosso numero di miglioramenti rispetto alla generazione precedente. Una innovazione se confrontata a quanto hanno fatto da r350 per arrivare a r420.

(considera che anche r300 supporta d3c anche se non in modo nativo)

- A mio avviso nvidia è stata molto scorretta con il lancio di nv30 quando non era ancora pronto. E chi ci ha rimesso sono stati i suoi fedeli acquirenti.

- A mio avviso avere gli shader3 quando nessun gioco li sfrutta è inutile visto il ritmo vertiginoso con cui si evolve il mercato delle schede video e la crescente domanda di risorse da parte del software (videogiochi).
(facevo il paragone di un anti-alias a 1600x1200 su una geforce 2)


- A mio avviso gli shader3 di r520 saranno sfruttati per 2 motivi:

1) i giochi di domani inizieranno ad implementarli
2) la potenza di calcolo è adeguata ai giochi di domani

-----

Non siamo in un regime nazista e non sopporto le persone arroganti. Uno che mi risponde in parole povere: "le tue opinioni non contano, io qua ne so più di tutti faccio il programmatore 3d e sono andato a cena con il signor ATI quindi ho ragione io" non mi fa ne caldo ne freddo.

Per lui possono essere cose di poco conto perchè le ha fatte anche nvidia. Per me sono ragioni sufficienti per il pensionamento di una scheda, la radeon 9700pro, che ho da anni e tante soddisfazioni mi ha dato. ;)

primo punto sostanzialmente d'accordo.
secondo punto perchè scorretta? casomai maldestra. l'NV30 era gia bello che pronto se ha subito ritardi è proprio perchè non adeguato(vedi bus memory a 128 bit).e hanno "rimediato" con le frequenze.
terzo punto ma qualcuno a un certo punto deve pur cominciare quindi...
quarto punto certo un domani vicino gli shader 3 saranno utilizzati in massa e la 520 ha potenza di calcolo superiore per gestire meglio i giochi futuri in maniera superiore a quanto potranno fare le attuali schede. ebbene che fai scopri l'acqua calda?
quinto punto non mi pare che fek si sia espresso in questi termini.
sesto punto avete, abbiamo opinioni diverse.

fek
20-02-2005, 13:13
Originariamente inviato da pg08x
Mi viene da ridere, la stessa sigla è usata da IBM per identificare alcuni modelli dei propri Thinkpad. Era una palese provocazione rivolta a fek... (r420 supporta nativamente i thinkpad :Prrr: )


Non mi ero accorto che stessi provocando.

- A mio avviso la nuova generazione di schede video di ATI porterà un grosso numero di miglioramenti rispetto alla generazione precedente. Una innovazione se confrontata a quanto hanno fatto da r350 per arrivare a r420.


E noi tutti in coro ti abbiamo risposto che le novita' non sono moltissime e si limitano a tornare tecnologicamente in pari con il competitor. Inoltre ho personalmente sottolineato che alcune novita' che hai cercato di passare per vere quali il geometry processor sono inventate.


(considera che anche r300 supporta d3c anche se non in modo nativo)

C'e' una differenza qualitativa e prestazionale sostanziale fra il supportare 3dc in maniera nativa e non.


- A mio avviso nvidia è stata molto scorretta con il lancio di nv30 quando non era ancora pronto. E chi ci ha rimesso sono stati i suoi fedeli acquirenti.


E noi ti abbiamo in coro risposto che l'NV30 e' stato ritardato di sei mesi proprio perche' non era pronto.


- A mio avviso avere gli shader3 quando nessun gioco li sfrutta è inutile visto il ritmo vertiginoso con cui si evolve il mercato delle schede video e la crescente domanda di risorse da parte del software (videogiochi).


FarCry usa l'SM3.0.

Quindi reputi inutile l'eventuale introduzione dell'SM3.0 nell'R520?
Pensi che uno shader matematicamente equivalente scritto in PS2.0 e in PS3.0 sia piu' lento nella versione 3.0?


- A mio avviso gli shader3 di r520 saranno sfruttati per 2 motivi:

1) i giochi di domani inizieranno ad implementarli
2) la potenza di calcolo è adeguata ai giochi di domani


Il tuo secondo punto lascia presupporre che un equivalente shader 3.0 sia piu' lento della versione 2.0. Ho inteso bene il tuo pensierio?


Non siamo in un regime nazista e non sopporto le persone arroganti. Uno che mi risponde in parole povere: "le tue opinioni non contano, io qua ne so più di tutti faccio il programmatore 3d e sono andato a cena con il signor ATI quindi ho ragione io" non mi fa ne caldo ne freddo.


Quota dove ho mai fatto un'affermazione tale, per cortesia., visto che non e' assolutamente nel mio stile. Altrimenti sarebbe opportuno portare un minimo di scuse.


Per lui possono essere cose di poco conto perchè le ha fatte anche nvidia. Per me sono ragioni sufficienti per il pensionamento di una scheda, la radeon 9700pro, che ho da anni e tante soddisfazioni mi ha dato. ;)

Ho affermato l'esatto contrario, che l'eventuale supporto SM3.0 e per l'fp16 blending (non fp32 come pensi tu) sono aggiunte molto importanti e' utili ai fini pratici.
Mi sono limitato a dire che ti sei inventato caratteristiche come il geometry processor.

E aggiungo che per qualche motivo non rispondi mai alle domande che faccio e la butti sempre sul personale.
E devo ammettere che i tuoi goffi tentativi di rigirare la frittata e mettermi in bocca cose che non ho scritto sono particolarmente piacevoli e divertenti :)

darkwings
20-02-2005, 13:31
Ma non e' un po' presto maggio??? Non mi pare che le nuove serie sia NVIDIA che ATI si siano gia' cosi' diffuse.

pg08x
20-02-2005, 20:27
Originariamente inviato da fek
Non mi ero accorto che stessi provocando.

Non te ne sei accorto soltanto tu :sofico:


E noi tutti in coro ti abbiamo risposto che le novita' non sono moltissime...

Questa è una tua opinione ognuno è libero di avere le proprie... oppure dimmi sei forse solito usare il plurale plurale majestatis ?


C'e' una differenza qualitativa e prestazionale sostanziale fra il supportare 3dc in maniera nativa e non.

Il discorso non cambia quest'unica novità di r420 non è poi molto (proprio perchè c'è solo questo) rispetto a tutto quello che r520 aggiunge se confrontata con la generazione precedente


E noi ti abbiamo in coro risposto che l'NV30 e' stato ritardato di sei mesi proprio perche' non era pronto.

Sua maestà... voi saprete che è opinione diffusa che neppure dopo 6 mesi nv30 fosse ancora pronto.


FarCry usa l'SM3.0.
Quindi reputi inutile l'eventuale introduzione dell'SM3.0 nell'R520?
Pensi che uno shader matematicamente equivalente scritto in PS2.0 e in PS3.0 sia piu' lento nella versione 3.0?
Il tuo secondo punto lascia presupporre che un equivalente shader 3.0 sia piu' lento della versione 2.0. Ho inteso bene il tuo pensierio?

Ma cosa ti stai inventando... sempre con la storiella del supporto nativo, sei un pò a corto di argomenti :mc:


Quota dove ho mai fatto un'affermazione tale, per cortesia., visto che non e' assolutamente nel mio stile. Altrimenti sarebbe opportuno portare un minimo di scuse.

Lo si evince dalla maggior parte dei messaggi è il tuo stile.
Impara a rispettare le opinioni altrui poi ne riparliamo.


Ho affermato l'esatto contrario, che l'eventuale supporto SM3.0 e per l'fp16 blending (non fp32 come pensi tu) sono aggiunte molto importanti e' utili ai fini pratici.

Deo Gratias


Mi sono limitato a dire che ti sei inventato caratteristiche come il geometry processor.


Io non mi sono inventato niente, mi sono limitato a riportare quanto chiunque può trovare in rete. Piuttosto sei tu ad avere accesso ad informazioni confidenziali e riservate. Grazie per avercele pian piano rivelate ;)
(la rabbia gioca brutti scherzi).


E aggiungo che per qualche motivo non rispondi mai alle domande che faccio e la butti sempre sul personale.

Cosa quei tecnicismi che vorresti così aver modo di sfoggiare per farti bello con i ragazzi della terza C ?


E devo ammettere che i tuoi goffi tentativi di rigirare la frittata e mettermi in bocca cose che non ho scritto sono particolarmente piacevoli e divertenti :)
Non quanto i tuoi... ma adesso basta... mai infierire.

fek
20-02-2005, 21:08
Ignoro le solite stantie provocazioni (ma prima o poi qualche moderatore interverra' di nuovo) e ti ripeto le domande alle quali non hai ancora risposto, giusto perche' tu parli con i fatti non con gli insulti:

1) Quindi reputi inutile l'eventuale introduzione dell'SM3.0 nell'R520? FarCry supporta l'SM3.0.

2) Pensi che uno shader matematicamente equivalente scritto in PS2.0 e in PS3.0 sia piu' lento nella versione 3.0?

Sarei curioso di vederti finalmente rispondere seriamente a qualcosa.


Non quanto i tuoi... ma adesso basta... mai infierire.

Specchio riflesso... gne gne...
Non infierire troppo che mi stai facendo tanto male.

pg08x
20-02-2005, 21:29
Originariamente inviato da fek

1) Quindi reputi inutile l'eventuale introduzione dell'SM3.0 nell'R520? FarCry supporta l'SM3.0.

2) Pensi che uno shader matematicamente equivalente scritto in PS2.0 e in PS3.0 sia piu' lento nella versione 3.0?


Non accetto questa o ulteriori provocazioni. Sai benissimo la risposta e sai benissimo come la tua domanda non dimostri nulla. Sei abbastanza intelligente per capire che: anche se la singola innovazione introdotta con r420 rispetto alla generazione precedente (r350) fosse altrettanto importante quanto una qualsiasi delle innovazioni introdotte con r520 rispetto alla generazione precedente (r420) dato che abbiamo dimostrato che le innovazioni introdotte in r520 rispetto alla generazione precedente saranno più di una abbiamo a che fare con un trend in crescendo. Vale a dire:

(r520 - r420) > (r420 - r350).

Se un programmatore non insistere dimostreresti solo arroganza.

Ho motivato punto per punto le mie opinioni lungo le 19 pagine di questo lunghissimo e stancante thread... Sono stato abbastanza chiaro e chi vuol capire capirà... per cui non mi resta che dirti: "cordiali saluti".

fek
20-02-2005, 21:38
Si' si' va bene. In pratica non sai rispondere?

1) Quindi reputi inutile l'eventuale introduzione dell'SM3.0 nell'R520? FarCry supporta l'SM3.0.

2) Pensi che uno shader matematicamente equivalente scritto in PS2.0 e in PS3.0 sia piu' lento nella versione 3.0?

nonikname
21-02-2005, 18:26
Splinter Cell 3 & SM 3.0 (HDR,Tone Mapping,Parallax Mapping e HQ Soft Shadows) (http://forum.hwupgrade.it/showthread.php?s=&threadid=885683)


http://img211.exs.cx/img211/3910/splintercell320050219114415205.th.jpg (http://img211.exs.cx/my.php?loc=img211&image=splintercell320050219114415205.jpg)http://img211.exs.cx/img211/8695/splintercell320050219114439046.th.jpg (http://img211.exs.cx/my.php?loc=img211&image=splintercell320050219114439046.jpg)

Ywes
24-02-2005, 13:03
Originariamente inviato da fek
Si' si' va bene. In pratica non sai rispondere?

1) Quindi reputi inutile l'eventuale introduzione dell'SM3.0 nell'R520? FarCry supporta l'SM3.0.

2) Pensi che uno shader matematicamente equivalente scritto in PS2.0 e in PS3.0 sia piu' lento nella versione 3.0?

Fek lascia stare, si vede chiaramente che pg08x non ha, ne le conoscenze, ne la capacita di rispondere alle domande che gli hai gentilmente posto cercando sempre di sviare il discorso accusandoti di prepotenza, cadendo cosi a sua volta nell'arroganza.

Comunque disguidi a parte sarebbe utile invece, capire se l’AMR di Ati sarà già pronto oltre che in grado di competere con lo Sli di nVidia che detiene per ora la leadership delle pure prestazioni (va due volte di più di una X850 XT PE).
Inoltre bisogna anche considerare che nVidia è già in grado di produrre schede video con doppia VPU. Molto presto saranno in grado di operare in Sli (su schede madri che supporteranno il doppio PCI-EX a 16x) in modo da poter avere quatro VPU in contemporanea sulle quali suddividere il carico di lavoro. Non so se Ati ha gia pensato anche a questa evenienza.

Voi che ne dite raga?

p.s. - Per quanto riguarda l'AGP 8x pare che sia Ati che nVidia lo supporteranno ancora semplicemente adattando la connessione AGP con un Bridge apposito senza cadere in ulteriori spese per la conversione dell’interfaccia di connessione in AGP.

Byez!!!

Andala
24-02-2005, 14:42
Originariamente inviato da Ywes

lo Sli di nVidia che detiene per ora la leadership delle pure prestazioni (va due volte di più di una X850 XT PE).

Non mi pare di averlo visto da nessuna parte questo doppio di prestazioni, ma se lo dici tu...


Inoltre bisogna anche considerare che nVidia è già in grado di produrre schede video con doppia VPU. Molto presto saranno in grado di operare in Sli (su schede madri che supporteranno il doppio PCI-EX a 16x) in modo da poter avere quatro VPU in contemporanea sulle quali suddividere il carico di lavoro.

Per due slot x16 sono necessarie 32 linee, mentre ora si è fermi a 20. Attualmente lo sli funziona con due slot a 8 linee ciascuna.
Solo nForce4 Pro x CPU Opteron supporta 2 slot x16 con 16 linee ciascuno.

Non so se Ati ha gia pensato anche a questa evenienza.

ATI dispone dai tempi della ATI MAXX della tecnologia per due processori su unica scheda.


Ciao,


Andala

Athlon 64 3000+
24-02-2005, 14:42
Originariamente inviato da pg08x
Non accetto questa o ulteriori provocazioni. Sai benissimo la risposta e sai benissimo come la tua domanda non dimostri nulla. Sei abbastanza intelligente per capire che: anche se la singola innovazione introdotta con r420 rispetto alla generazione precedente (r350) fosse altrettanto importante quanto una qualsiasi delle innovazioni introdotte con r520 rispetto alla generazione precedente (r420) dato che abbiamo dimostrato che le innovazioni introdotte in r520 rispetto alla generazione precedente saranno più di una abbiamo a che fare con un trend in crescendo. Vale a dire:

(r520 - r420) > (r420 - r350).

Se un programmatore non insistere dimostreresti solo arroganza.

Ho motivato punto per punto le mie opinioni lungo le 19 pagine di questo lunghissimo e stancante thread... Sono stato abbastanza chiaro e chi vuol capire capirà... per cui non mi resta che dirti: "cordiali saluti".

Te la mai detto nessuno che ti stai rendendo ridicolo inventandosi freature e rigirando la pizza in continuazione e sparando delle accuse a fek che non stanno in piedi.
E così stai solo dimostrando di non avere le conoscenza tecniche e poi di metterla sul personale.
Gente come fek per me è molto importante perchè rilascia sempre informazione tecniche importanti sui motori grafici dei giochi e sulle tecniche di programmazione e io che non sono un "adetto ai lavori" o solo da impararne,mentre te vuoi fare il sapientone.

DjLode
24-02-2005, 14:54
Originariamente inviato da Ywes
Comunque disguidi a parte sarebbe utile invece, capire se l’AMR di Ati sarà già pronto oltre che in grado di competere con lo Sli di nVidia che detiene per ora la leadership delle pure prestazioni (va due volte di più di una X850 XT PE).


A volte 8 volte di più...


Inoltre bisogna anche considerare che nVidia è già in grado di produrre schede video con doppia VPU. Molto presto saranno in grado di operare in Sli (su schede madri che supporteranno il doppio PCI-EX a 16x) in modo da poter avere quatro VPU in contemporanea sulle quali suddividere il carico di lavoro. Non so se Ati ha gia pensato anche a questa evenienza.


Nvidia non produce schede video, produce gpu. Nvidia non è in grado di mettere due gpu sulla stessa scheda video, l'ha fatto Gigabyte ma sono due gpu in sli sullo stesso pezzo di silicio. Non puoi mettere due di queste schede video in sli ovviamente.


p.s. - Per quanto riguarda l'AGP 8x pare che sia Ati che nVidia lo supporteranno ancora semplicemente adattando la connessione AGP con un Bridge apposito senza cadere in ulteriori spese per la conversione dell’interfaccia di connessione in AGP.


Nvidia adotta un chip come fa Ati. Solo che quello di Nvidia è a doppio utilizzo Pci-Ex-->Agp e viceversa. Quello di Ati lavora solo in un senso per trasformare gpu native Pci-Ex in agp. Ma si sa già da qualche mese.

Ywes
24-02-2005, 15:33
Ciao Andala,

ti rispondo subito.

Originariamente inviato da Andala
Non mi pare di averlo visto da nessuna parte questo doppio di prestazioni, ma se lo dici tu...


A quanto pare sei rimasto un po’ indietro, cmq non importa ti aggiorno subito. Se tu avessi letto l’articolo “NVIDIA SLI: il nuovo riferimento prestazionale” scritto dallo stesso Corsini non avresti fatto certo questa affermazione.

Link: http://www.hwupgrade.it/articoli/1130/2.html


Originariamente inviato da Andala
Per due slot x16 sono necessarie 32 linee, mentre ora si è fermi a 20. Attualmente lo sli funziona con due slot a 8 linee ciascuna.
Solo nForce4 Pro x CPU Opteron supporta 2 slot x16 con 16 linee ciascuno.



ATI dispone dai tempi della ATI MAXX della tecnologia per due processori su unica scheda.


Ciao,


Andala


Allora decidi prima dici che siamo fermi a 20 linee poi che con l’nForce4 Pro sarebbe possibile averne 32.

Originariamente inviato da DjLode

Nvidia non produce schede video, produce gpu. Nvidia non è in grado di mettere due gpu sulla stessa scheda video, l'ha fatto Gigabyte ma sono due gpu in sli sullo stesso pezzo di silicio. Non puoi mettere due di queste schede video in sli ovviamente.



E’ giustissimo DjLode non è possibile lo Sli su due schede con due VPU, cmq sia su nForce4Pro si potrà fare uno Sli con 32 linee (la dove venisse richiesto dalla scheda video) il che dovrebbe rendere le performance dello Sli ancora più estreme.

Ciaux

R@nda
24-02-2005, 15:46
Allora decidi prima dici che siamo fermi a 20 linee poi che con l’nForce4 Pro sarebbe possibile averne 32.

Bhe certo è possibile...ma già lo Sli non è una cosa così popolare e alla portata di tutti,figurati una soluzione del genere!

http://news.hwupgrade.it/immagini/DK8ES.jpg

Ywes
24-02-2005, 16:04
Originariamente inviato da R@nda
Bhe certo è possibile...ma già lo Sli non è una cosa così popolare e alla portata di tutti,figurati una soluzione del genere!

http://news.hwupgrade.it/immagini/DK8ES.jpg

Ciao,

si è vero, cmq qui stiamo parlando per assurdo della futura tecnologia Ati perche non possiamo fare lo stesso anche della nVidia?

;)

Bye

R@nda
24-02-2005, 16:13
Originariamente inviato da Ywes
Ciao,

si è vero, cmq qui stiamo parlando per assurdo della futura tecnologia Ati perche non possiamo fare lo stesso anche della nVidia?

;)

Bye

E chi ha detto nulla?
Che sia SLI o AMR se devi installare 2 sk video con 2 GPU ciascuna devi avere 32 linee (16+16).
Io ti ho portato la soluzione attuale per fare una cosa del genere...attualmente un poco improponibile.
Anche perchè non so se supportata allo stato attuale via driver/giochi una soluzione di fatto quadri Gpu.
Vedremo....ma diamine spero di no!
Già due sk video mi sembrano una cosa estrema.

Ywes
24-02-2005, 16:24
Originariamente inviato da R@nda
E chi ha detto nulla?
Che sia SLI o AMR se devi installare 2 sk video con 2 GPU ciascuna devi avere 32 linee (16+16).
Io ti ho portato la soluzione attuale per fare una cosa del genere...attualmente un poco improponibile.
Anche perchè non so se supportata allo stato attuale via driver/giochi una soluzione di fatto quadri Gpu.
Vedremo....ma diamine spero di no!
Già due sk video mi sembrano una cosa estrema.

Al momento attuale assolutamente non è possibile. E penso che sia difficile anche in futuro.... ma chissà...chi vivrà vedrà.

Andala
24-02-2005, 16:52
Originariamente inviato da Ywes


Allora decidi prima dici che siamo fermi a 20 linee poi che con l’nForce4 Pro sarebbe possibile averne 32.






Siamo fermi a 20 linee per la soluzione consumer, mentre per quella a 32 linee sono necessari i 2 chip della serie nForce4 Pro, soluzione destinata a tutt'altra fascia di mercato

Ciao,

Andala:)

leoneazzurro
24-02-2005, 16:57
Originariamente inviato da R@nda
E chi ha detto nulla?
Che sia SLI o AMR se devi installare 2 sk video con 2 GPU ciascuna devi avere 32 linee (16+16).


No, non è così. In teoria già lo SLI con 2 schede funziona con 2 linee x8, ma c'era un articolo tempo fa su Anandtech (o era Toms hardware) dove le schede venivano fatte funzionare in SLI a 4x o addirittura 2x per scheda. Il problema quindi non è tanto quello delle linee PCI-Express, quanto della tecnologia SLI in se, e del software (ripartire correttamente il carico di lavoro su 4 GPU non è una cosa immediata nè semplice)

Andala
24-02-2005, 17:03
Originariamente inviato da leoneazzurro
No, non è così. In teoria già lo SLI con 2 schede funziona con 2 linee x8, ma c'era un articolo tempo fa su Anandtech (o era Toms hardware) dove le schede venivano fatte funzionare in SLI a 4x o addirittura 2x per scheda. Il problema quindi non è tanto quello delle linee PCI-Express, quanto della tecnologia SLI in se, e del software (ripartire correttamente il carico di lavoro su 4 GPU non è una cosa immediata nè semplice)

Infatti hai riportato all'origine della questione.

Il problema delle linee era sorto quando Ywes ha scritto del possibile uso di due schede ognuna con due GPU.

Per ora comunque la banda fornita anche da sole 8 linee è più che sufficiente per una sola scheda con una GPU. In futuro si vedrà.

Andala:)

leoneazzurro
24-02-2005, 17:06
In effetti ricordo che il calo prestazionale in modalità 4x era ben quantificabile, tuttavia non particolarmente critico. Esisterebbe quindi la possibilità di far lavorare 4 GPU in parallelo. Tra possibilità teorica e fattibilità pratica, tuttavia, c'è di mezzo il proverbiale mare....

Andala
24-02-2005, 17:12
Resta sempre il problema dei consumi energetici di 4 GPU e la ricettività per il mercato per soluzioni del genere.

Andala:)

Ywes
25-02-2005, 11:11
Originariamente inviato da Andala
Resta sempre il problema dei consumi energetici di 4 GPU e la ricettività per il mercato per soluzioni del genere.

Andala:)

Si dai va bene, cmq, è un costo che si prende chi ha intenzione di farsi un sistema del genere, chi non ha intenzione basta che non compri l'hardware. Dopo tutto questo è un sistema Estremo dedicato ad utenti estremi ed è giusto quindi (ma non necessario) che anche i consumi siano estremi.

:)

Byez!!!

LordPBA
09-03-2005, 23:26
secondo me tutta sta corsa alla potenza video in realtà e dannosa. Non ci sono ancora programmi che sfruttano appieno le skvideo di adesso figuriamoci questa. Se dovesse uscire troppo presto le nostre skvideo sarebbero già vecchia prima di essere state ancora sfruttate. gli unici ad essere sfruttati siamo noi videogiocatori!!! Ahhh, fortuna che ci sono le console!!

Athlon 64 3000+
10-03-2005, 19:48
Originariamente inviato da LordPBA
secondo me tutta sta corsa alla potenza video in realtà e dannosa. Non ci sono ancora programmi che sfruttano appieno le skvideo di adesso figuriamoci questa. Se dovesse uscire troppo presto le nostre skvideo sarebbero già vecchia prima di essere state ancora sfruttate. gli unici ad essere sfruttati siamo noi videogiocatori!!! Ahhh, fortuna che ci sono le console!!

purtroppo è sempre stato così,pensa che puoi giocare benissimo ancora oggi con una Radeon 9800Pro che va la metà della 6800GT.

midian
10-03-2005, 21:21
Originariamente inviato da LordPBA
secondo me tutta sta corsa alla potenza video in realtà e dannosa. Non ci sono ancora programmi che sfruttano appieno le skvideo di adesso figuriamoci questa. Se dovesse uscire troppo presto le nostre skvideo sarebbero già vecchia prima di essere state ancora sfruttate. gli unici ad essere sfruttati siamo noi videogiocatori!!! Ahhh, fortuna che ci sono le console!!

quoto

MiKeLezZ
11-03-2005, 00:03
Originariamente inviato da LordPBA
secondo me tutta sta corsa alla potenza video in realtà e dannosa. Non ci sono ancora programmi che sfruttano appieno le skvideo di adesso figuriamoci questa. Se dovesse uscire troppo presto le nostre skvideo sarebbero già vecchia prima di essere state ancora sfruttate. gli unici ad essere sfruttati siamo noi videogiocatori!!! Ahhh, fortuna che ci sono le console!!
Una visione un po' troppo superficiale..

Athlon 64 3000+
11-03-2005, 08:07
Originariamente inviato da MiKeLezZ
Una visione un po' troppo superficiale..

Dimmi cosa intendi per visione un po' troppo superficiale.

cdimauro
11-03-2005, 10:40
Le console non sono tutto per un videogiocatore, anzi.

Comunque ne abbiamo già parlato di recente in un thread.