PDA

View Full Version : Radeon X1950XTX: le prime immagini


Redazione di Hardware Upg
22-07-2006, 08:00
Link alla notizia: http://www.hwupgrade.it/news/skvideo/18124.html

Un nuovo dissipatore di calore per la nuova soluzione top di gamma ATI, attesa al debutto nelle prossime settimane

Click sul link per visualizzare la notizia.

jp77
22-07-2006, 08:19
Finalmente hanno cambiato quel pessimo dissipatore!!! speriamo che questo sia più efficente e silenzioso....questa scheda promette veramente bene....vedremo.

dema86
22-07-2006, 08:36
Finalmente hanno cambiato quel pessimo dissipatore!!! speriamo che questo sia più efficente e silenzioso....questa scheda promette veramente bene....vedremo.
Speriamo solo che non l'abbiano cambiato perché il clock é troppo spinto per l'altro, altrimenti rischiamo di trovare un nuovo phon stile FX

Ancosen
22-07-2006, 08:42
Piano piano diventano sempre più grosse, alla fine toccherà fare un buco nel case.

Intel-Inside
22-07-2006, 09:12
Se questa la presentano subito dopo l'estate, R600 lo vedremo minimo a 2007 inoltrato... tipo Marzo/Aprile...

tony73
22-07-2006, 09:29
Io voglio R600 :(

Murdorr
22-07-2006, 09:41
DX 10 è alle porte, ha un senso spendere vagonate di euro per questa scheda?

AgonizedPhobos
22-07-2006, 09:53
Certo che no.Solo un idiota comprerebbe una scheda video di fascia alta adesso.

ATi7500
22-07-2006, 09:58
Certo che no.Solo un idiota comprerebbe una scheda video di fascia alta adesso.
se ATi l'ha lanciata, vuol dire che prima dei suoi chip Dx10 ne passerà di acqua sotto i ponti ;)

bYeZ!

Dumah Brazorf
22-07-2006, 10:07
Chissà quando usciranno i primi giochi che sfrutteranno quelle API, è ancora tempo per comprare schede di fascia alta, oh se lo è...
Questa però mi sa che farà consumi record vedendo il dissipatore...

nudo_conlemani_inTasca
22-07-2006, 10:29
Certo che no.Solo un idiota comprerebbe una scheda video di fascia alta adesso.

L'osservazione è quella che + balzerebbe all'occhio, ossia la tua.
Pensavo però che mentre le altre SVGA già uscite nei mesi scorsi offrono prestazioni di tutto rilievo ATI cerca sempre di pensare al miglior compromesso tra costo produttivo/resa effettiva delle proprie architetture Video/GPU.

Magari queste SVGA:
.Affinano i costi di produzione.
.Permettono ad ATI di sperimentare q.che nuova features di R600
(anticipata e celata qui.. ma nascosta per il debutto di R600) appunto.
.Diminuire i costi di produzione -> maggiori profitti/introiti come riflesso.
.Una ventata di aria nuova x chi vuole il PC nuovo di pacca e non intende
aspettare il 2007 (con DX10 acerbe), ma gli serve una belva adesso o nei prox mesi.

Sono solo considerazioni le mie, ok? :O

-Ciao- :D

Intel-Inside
22-07-2006, 10:29
Anche il prezzo di sta bestiaccia non mi sembra male... essendo il TOP...

R600 non lo presentano mica il giorno dopo che presentano R580+ passeranno almeno 6 mesi sicuri...

nickdc
22-07-2006, 10:30
se ATi l'ha lanciata, vuol dire che prima dei suoi chip Dx10 ne passerà di acqua sotto i ponti ;)

bYeZ!
Quoto, altrimenti non avrebbe senso lanciare ora una scheda che costa tutti sti soldi se hanno a breve già pronto R600, a meno che non abbiano intenzione di dissanguarci. :D




PS ma per i prezzi non se ne sa nulla?

nickdc
22-07-2006, 10:32
L'osservazione è quella che + balzerebbe all'occhio, ossia la tua.
Pensavo però che mentre le altre SVGA già uscite nei mesi scorsi offrono prestazioni di tutto rilievo ATI cerca sempre di pensare al miglior compromesso tra costo produttivo/resa effettiva delle proprie architetture Video/GPU.

Magari queste SVGA:
.Affinano i costi di produzione.
.Permettono ad ATI di sperimentare q.che nuova features di R600
(anticipata e celata qui.. ma nascosta per il debutto di R600) appunto.
.Diminuire i costi di produzione -> maggiori profitti/introiti come riflesso.
.Una ventata di aria nuova x chi vuole il PC nuovo di pacca e non intende
aspettare il 2007 (con DX10 acerbe), ma gli serve una belva adesso o nei prox mesi.

Sono solo considerazioni le mie, ok? :O

-Ciao- :D
Quoto, e poi ripeto ne passerà di tempo prima di vedere R600, che imho prima della prossima primavera non sarà presentato. E intanto ora chi ha bisogno di un pc "poderoso" e non può permettersi di aspettare può buttarsi su queste soluzioni...

Intel-Inside
22-07-2006, 10:33
PS ma per i prezzi non se ne sa nulla?




Questa scheda è attualmente nota con il nome in codice di R580+ e dovrebbe venir proposta ad un costo indicativo nel canale nord americano pari a 449 dollari; la cifra corrispondente nel canale retail europeo dovrebbe essere di poco superiore ai 400 dollari.

Metti 430/450 € per arrotondare...

nickdc
22-07-2006, 10:34
Metti 430/450 € per arrotondare...
E il divario prestazionale rispetto alle X1900xt/xtx sarà molto elevato?

nudo_conlemani_inTasca
22-07-2006, 10:34
Quoto, altrimenti non avrebbe senso lanciare ora una scheda che costa tutti sti soldi se hanno a breve già pronto R600, a meno che non abbiano intenzione di dissanguarci. :D




PS ma per i prezzi non se ne sa nulla?

Mah.. quello non è detto,
le casa produttrici di apparecchi/dispositivi tecnologici cercano sempre di spremere ogni architettura all'osso in modo da ottenere da esse i massimi benefici in termini di ritorni di introiti (spesi prima in ricerca & sviluppo) delle architetture stesse, imho. :) ;)

Siamo al solito discorso..
non ti propongono subito le tecnologie innovative in 1 solo colpo, devono sfruttare quelle intermedie per centellinarle e ottenere il maggior profitto; altrimenti avremmo CPU X4 @10GHz - GPU Xenon e HD Ibridi @ 1Tbyte + SSD 512MB già ora, a 1000euro!!! :asd:

Ma come tu ben vedi, non è così! :D

E' ovvio.. ci devono speculare :O

Intel-Inside
22-07-2006, 10:40
E il divario prestazionale rispetto alle X1900xt/xtx sarà molto elevato?

Sarà come lo è stato tra X800 e X850... è una rivistazione con frequenze più alte... tutto qui, si parla di 650/2000MHz... quindi qualke punto in più nei giochi li farà sicuramente...

Stig
22-07-2006, 10:45
ragazzi sul fatto che r600 possa uscire tra almeno 6 mesi,come avete detto prima, solo perche fanno uscire sta scheda ora, ho da dissentire..

vi ricordate che tra la 7800gt e la 7900gt nvidia sono passati massimo 3 mesi!! con enorme rosicamento di coloro che avevano preso una 7800gtx pagandola fior di quattrini e che hanno visto la 7900gt costare la metà e andare meglio subito dopo????
anche tra la 1800xt e la 1900xt mi pare sia passato molto poco...

concordo che ora spendere soldi per una scheda di fascia alta non è il massimo..

nickdc
22-07-2006, 10:47
Sarà come lo è stato tra X800 e X850... è una rivistazione con frequenze più alte... tutto qui, si parla di 650/2000MHz... quindi qualke punto in più nei giochi li farà sicuramente...
Ah ecco, vabbè allora per chi possiede già una 1900 può starsene tranquillo. :D

nickdc
22-07-2006, 10:48
ragazzi sul fatto che r600 possa uscire tra almeno 6 mesi,come avete detto prima, solo perche fanno uscire sta scheda ora, ho da dissentire..

vi ricordate che tra la 7800gt e la 7900gt nvidia sono passati massimo 3 mesi!! con enorme rosicamento di coloro che avevano preso una 7800gtx pagandola fior di quattrini e che hanno visto la 7900gt costare la metà e andare meglio subito dopo????
anche tra la 1800xt e la 1900xt mi pare sia passato molto poco...

concordo che ora spendere soldi per una scheda di fascia alta non è il massimo..
Non è il massimo se puoi aspettare o se non hai particolari esigenze...

Ginger79
22-07-2006, 10:48
Ati sembra inseguire il trend di AMD .... continue scelte sbagliate! Prima sbaglia processo produttivo e ritarda la presentazione della vecchia generazione di schede di oltre 6 mesi .. oggi se ne esce con questa buffonata.
Nello stesso momento in cui ATI presenterà questa minestra riscaldata Nvidia presenterà il suo G80 che con molta probabilità andrà una volta e mezza questa scheda, oltre al fatto di supportare le DX10.

legno
22-07-2006, 10:48
L'osservazione è quella che + balzerebbe all'occhio, ossia la tua.
Pensavo però che mentre le altre SVGA già uscite nei mesi scorsi offrono prestazioni di tutto rilievo ATI cerca sempre di pensare al miglior compromesso tra costo produttivo/resa effettiva delle proprie architetture Video/GPU.

Magari queste SVGA:
.Affinano i costi di produzione.
.Permettono ad ATI di sperimentare q.che nuova features di R600
(anticipata e celata qui.. ma nascosta per il debutto di R600) appunto.
.Diminuire i costi di produzione -> maggiori profitti/introiti come riflesso.
.Una ventata di aria nuova x chi vuole il PC nuovo di pacca e non intende
aspettare il 2007 (con DX10 acerbe), ma gli serve una belva adesso o nei prox mesi.

Sono solo considerazioni le mie, ok? :O

-Ciao- :D


Ti quoto anche io e il commento di "AgonizedPhobos" mi sembra un tantino duro ( che ti rode che qualcuno puo' ? :D , anche a me !!! :D ) , anche perche' per l'ennesima volta : se uno puo' , vuole, fa' sacrifici per prendere l'ultimo mostro del 3D saranno o no fattacci suoi ? ciao. P.s. ovviamente IMHO :)

nickdc
22-07-2006, 10:48
Ati sembra inseguire il trend di AMD .... continue scelte sbagliate! Prima sbaglia processo produttivo e ritarda la presentazione della vecchia generazione di schede di oltre 6 mesi .. oggi se ne esce con questa buffonata.
Nello stesso momento in cui ATI presenterà questa minestra riscaldata Nvidia presenterà il suo G80 che con molta probabilità andrà una volta e mezza questa scheda, oltre al fatto di supportare le DX10.
Il G80 non lo puoi sicuramente paragonare all'R580. :mbe:

nickdc
22-07-2006, 10:50
Ti quoto anche io e il commento di "AgonizedPhobos" mi sembra un tantino duro ( che ti rode che qualcuno puo' ? :D , anche a me !!! :D ) , anche perche' per l'ennesima volta : se uno puo' , vuole, fa' sacrifici per prendere l'ultimo mostro del 3D saranno o no fattacci suoi ? ciao. P.s. ovviamente IMHO :)
Vero, e poi ste dx10 siamo tutti sicuri che appena escono già vanno alla grande e non hanno bisogno di un bel po' di tempo per essere "collaudate" a dovere?

Ginger79
22-07-2006, 11:00
@NICKDC ---> I paragoni, al giorno d'oggi, si fanno tra schede che escono nello stesso momento e sono sulla stessa fascia di prezzo!!
Poco conta se G80 appartiene, architetturalmente parlando, alla generazione successiva... se esce insieme (o qualche settimana dopo) a R580+ va a scontrarsi con il medesimo e non serve che venite a dirmi che va confrontato con R600 xchè in quel momento Nvidia avrà già in mano l'evoluzione di G80.

Bisogna ammetterlo ed essere oggettivi: Intel e Nvidia si stanno dimostrando + veloci e migliori della concorrenza nelle scelte di marketing e se la gente vuole far finta di niente solo per pura simpatia nei confronti di un'azienda piuttosto che di un'altra questo non cambierà il quadro generale futuro.

SSMark
22-07-2006, 11:20
ma sarà piu potente questa x1950XTX o le soluzioni gx2 di nvidia???? perchè come ho letto nei commenti si è accennato ad un 700/2000 mhz molto potente .......

Stormblast
22-07-2006, 11:22
secondo me vi fate troppe pare mentali. quanti è che si prendono una scheda top level in percentuale? pochini....
e chi ha da spendere 600€ per una scheda video, fra sei mesi probabilmente non avrà problemi a rivenderla, aggiungerci un due/tre centoni e prenderne un'altra top level dx10. ;)

nickdc
22-07-2006, 11:24
secondo me vi fate troppe pare mentali. quanti è che si prendono una scheda top level in percentuale? pochini....
e chi ha da spendere 600€ per una scheda video, fra sei mesi probabilmente non avrà problemi a rivenderla, aggiungerci un due/tre centoni e prenderne un'altra top level dx10. ;)
E quindi? :mbe:

SSMark
22-07-2006, 11:27
sarà un ottima scheda

Stormblast
22-07-2006, 11:34
E quindi? :mbe:

e quindi se uno può permettersela che se la prenda e basta, senza tante seghe su quello che uscirà fra 6 mesi.

Mobi_82
22-07-2006, 11:45
Spero che qualcuno si metta a commercializzare quel dissipatore. :sbav:

LightForce
22-07-2006, 11:45
e quindi se uno può permettersela che se la prenda e basta, senza tante seghe su quello che uscirà fra 6 mesi.

quoto..



io cmq me la comprerei solo x il dissi,è troppo figo :p

joshA
22-07-2006, 12:03
DX 10 è alle porte, ha un senso spendere vagonate di euro per questa scheda?
pensi ke appena uscite le dx10 saranno da subito sfruttate?pensi ke appena uscite le dx10 arriveranno subito le vga e i giochi ke le supportano?
posso dirti ke le dx10 arriveranno con vista e vista qui non arrriva prima di febbraio marzo se sempre rispetta l'uscita per gennaio nella lingua inglese.non puoi usare le dx10 se non hai vista e prima ke questo nuovo SO diventi stabile e diffuso ne passerà di tempo.quindi prendere una skeda top adesso non la trovo una cattiva idea.
imho

nickdc
22-07-2006, 12:06
pensi ke appena uscite le dx10 saranno da subito sfruttate?pensi ke appena uscite le dx10 arriveranno subito le vga e i giochi ke le supportano?
posso dirti ke le dx10 arriveranno con vista e vista qui non arrriva prima di febbraio marzo se sempre rispetta l'uscita per gennaio nella lingua inglese.non puoi usare le dx10 se non hai vista e prima ke questo nuovo SO diventi stabile e diffuso ne passerà di tempo.quindi prendere una skeda top adesso non la trovo una cattiva idea.
imho
Quoto. ;)

gianni1879
22-07-2006, 12:08
@NICKDC ---> I paragoni, al giorno d'oggi, si fanno tra schede che escono nello stesso momento e sono sulla stessa fascia di prezzo!!
Poco conta se G80 appartiene, architetturalmente parlando, alla generazione successiva... se esce insieme (o qualche settimana dopo) a R580+ va a scontrarsi con il medesimo e non serve che venite a dirmi che va confrontato con R600 xchè in quel momento Nvidia avrà già in mano l'evoluzione di G80.

Bisogna ammetterlo ed essere oggettivi: Intel e Nvidia si stanno dimostrando + veloci e migliori della concorrenza nelle scelte di marketing e se la gente vuole far finta di niente solo per pura simpatia nei confronti di un'azienda piuttosto che di un'altra questo non cambierà il quadro generale futuro.
ma chi ti ha detto che g80 uscirà tra breve! In ogni caso anche r600 uscirà, ma certo non costeranno poco. Se non esce vista non ti illudere di trovare schede dx10.
cosa centra intel in questo discorso? Non mi pare che ati abbia fatto politiche sbagliate in marketing! Ati ha presentato un evoluzione migliorata della x1900series con diverse innovazioni nuovo processo produttivo, nuova alimentazione, nuove memorie, consumi più bassi, minor calore sviluppato, minore rumorosità, e altre cosucce, non mi pare che nvidia abbia fatto altrettanto ha solo fatto uscire la 7950 (anche se un ottimo prodotto nulla da ridire ) con due vgpu non mi sembra quale rivoluzione o affinamento.

parli di simpatia ma credo che la tua sia abbastanza evidente faresti bene a rileggere quello che hai scritto

joshA
22-07-2006, 12:14
a me spiace + il fatto ke adesso ke son riuscito a vendere le mie 7800gt e sono senza vga non posso aspettare l'uscita di 1950 per poter vedere un paragone con 7950 ke vorrei prendere :( . penso ke prima di settembre non la vedremo sui mercati italiani in modo particolare se consideriamo ke ad agosto in poki lavorano .

se riuscite a scovare la possibile data di lancio in italia fate una soffiata quiiiiiiiii

tony73
22-07-2006, 12:16
Nello stesso momento in cui ATI presenterà questa minestra riscaldata Nvidia presenterà il suo G80 che con molta probabilità andrà una volta e mezza questa scheda, oltre al fatto di supportare le DX10.

SEEEE!!! aspetta e spera! :D le SV DX10 non si vedranno prima di Primavera inoltrata...

e cmq ATI tecnologicamente è anni luce avanti ad nvidia,infatti si puo' gia' vantare di avere una GPU con shader unificati (X360) mentre nvidia nel suo G80 rimane ancora ancorato agli shader classici,che gia di per se va contro la "mentalita'" delle DX10 :)

e gia pronostico vincente R600 rispetto a G80,ma è solo una mia opinione,si vedra'.

broly123456
22-07-2006, 12:16
@ ginger: non per polemizzare, ma mi sembra che dire che le scelte di ati sono state sbagliate negli ultimi tempi sia abbastanza tendenzioso. E' vero che con r520 sono usciti in ritardo, però poi hanno buttato fuori UNA NUOVA ARCHITETTURA, che abbiamo visto avere molti vantaggi dal punto di vista del calo di frame nell'attivazione di hdr e filtri vari. Non secondario che ANCORA OGGI le scede nvidia non permettono di attivare hdr + aa, mentre con le ati r520 e successive è possibile. Quindi il punto è che se la vogliamo vedere dal punto di vista della tecnologia, è ati che è in vantaggio di quasi un anno su nvidia che ha continuato a mantenere la stessa architettura! che poi nvidia sia riuscita comunque a buttare fuori dei buoni prodotti, non lo metto in discussione...

Poi sull'utilità dell'acquisto di questa x1950, la questione mi sembra abbastanza ovvia: essendo una sorta di revisione della x1900 (anche se le gddr4 secondo me sono un bel salto in avanti!) si va a posizionare come sostitutiva della x1900, quindi chi adesso vuole comprarsi un pc con settore grafico all'avanguardia può godere del fatto che può comprarsi questa scheda, mentre chi ha già un x1900 sarebbe abbastanza sciocco a venderla per cambiarla con la x1950, dato che le differenze ci saranno ma non saranno abissali con nel cambio con una nuova generazione.

Infine, sul discorso dx10, credo non vada dimenticato che potranno essere usate solo su windows vista, che uscirà nel 2007, e che comunque non ci saranno subito mille giochi dx10! quindi r600 o non r600, g80 o non g80, fino almeno a 2007 inoltrato di giocare con dx10 ve lo scordate, e una buona scheda come questa non è certo da buttare in due mesi!

nickdc
22-07-2006, 12:18
a me spiace + il fatto ke adesso ke son riuscito a vendere le mie 7800gt e sono senza vga non posso aspettare l'uscita di 1950 per poter vedere un paragone con 7950 ke vorrei prendere :( . penso ke prima di settembre non la vedremo sui mercati italiani in modo particolare se consideriamo ke ad agosto in poki lavorano .

se riuscite a scovare la possibile data di lancio in italia fate una soffiata quiiiiiiiii
Se non puoi aspettare la soluzione più sensata è prendere una x1900xt per poi cambiarla tra circa un anno quando dx 10, giochi che le supportano, vista e compagnia bella comincino a girare a dovere. ;)

nickdc
22-07-2006, 12:21
@ ginger: non per polemizzare, ma mi sembra che dire che le scelte di ati sono state sbagliate negli ultimi tempi sia abbastanza tendenzioso. E' vero che con r520 sono usciti in ritardo, però poi hanno buttato fuori UNA NUOVA ARCHITETTURA, che abbiamo visto avere molti vantaggi dal punto di vista del calo di frame nell'attivazione di hdr e filtri vari. Non secondario che ANCORA OGGI le scede nvidia non permettono di attivare hdr + aa, mentre con le ati r520 e successive è possibile. Quindi il punto è che se la vogliamo vedere dal punto di vista della tecnologia, è ati che è in vantaggio di quasi un anno su nvidia che ha continuato a mantenere la stessa architettura! che poi nvidia sia riuscita comunque a buttare fuori dei buoni prodotti, non lo metto in discussione...

Poi sull'utilità dell'acquisto di questa x1950, la questione mi sembra abbastanza ovvia: essendo una sorta di revisione della x1900 (anche se le gddr4 secondo me sono un bel salto in avanti!) si va a posizionare come sostitutiva della x1900, quindi chi adesso vuole comprarsi un pc con settore grafico all'avanguardia può godere del fatto che può comprarsi questa scheda, mentre chi ha già un x1900 sarebbe abbastanza sciocco a venderla per cambiarla con la x1950, dato che le differenze ci saranno ma non saranno abissali con nel cambio con una nuova generazione.

Infine, sul discorso dx10, credo non vada dimenticato che potranno essere usate solo su windows vista, che uscirà nel 2007, e che comunque non ci saranno subito mille giochi dx10! quindi r600 o non r600, g80 o non g80, fino almeno a 2007 inoltrato di giocare con dx10 ve lo scordate, e una buona scheda come questa non è certo da buttare in due mesi!
Quoto tutto. ;)

MiKeLezZ
22-07-2006, 12:32
se ATi l'ha lanciata, vuol dire che prima dei suoi chip Dx10 ne passerà di acqua sotto i ponti ;)

bYeZ!
6 mesi.


Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata

Daytona
22-07-2006, 12:41
Anche se le schede Dx10 usciranno frà sei mesi o prima...cosa saggià è passare a Dx10 quando ci saranno i primi giochi che sfrutteranno qualche cosina delle Dx10 :rolleyes: ....non prima ;)

1100000110100000
:)

DjLode
22-07-2006, 12:56
e cmq ATI tecnologicamente è anni luce avanti ad nvidia,infatti si puo' gia' vantare di avere una GPU con shader unificati (X360) mentre nvidia nel suo G80 rimane ancora ancorato agli shader classici,che gia di per se va contro la "mentalita'" delle DX10 :)


Non facciamo i conti senza l'oste :)
Facciamolo uscire questo G80 e vediamo. Ah, per inciso, le Dx10 concettualmente parlando introducono l'idea degli shader unificati, ma non obbligano nessuno a sposarla dal punto di vista hardware. Anzi, di solito shader "dedicati" sono prestazionalmente migliori anche se il fatto di averli unificati ha diversi punti a favore.
Dico la mia.
Se sarà G80 un'architettura "ibrida", prevedo prestazioni superiori in Dx9 e un supporto alle Dx10, Nvidia poi dovrà lanciare la nuova architettura dopo qualche tempo, forse solo lievemente in ritardo rispetto ad Ati. Diciamo un pò come si è visto con Nv30 (scusate la bestemmia :)), solo che ora si parte da una base (Nv40) decisamente ottima. Per chi dice che è inutile una scheda del genere senza Dx10... bhè se offre prestazioni superiori con la versione precedente di Dx, chi se ne frega?
Ripeto, prevedere già chi o cosa sarà più veloce... di solito porta a figuracce :) Vedi R520 che tutti davano per spacciata mentre invece è stata una bella mazzata per Nvidia, anche se qualcuno continua a criticarla...

DjLode
22-07-2006, 12:58
6 mesi.
Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata

Scusa ma non eri tra quelli che diceva che nonostante il supporto minimo allo SM3 era meglio averlo che non averlo? Allora tanto vale avere la possibilità di attivare HDR e AA no? Così facendo si ha la scheda singola più veloce e come architettura migliore. Esattamente come era ai tempi di NV40. Si fa presto a cambiare idea ne? ;)

tony73
22-07-2006, 13:09
Ripeto, prevedere già chi o cosa sarà più veloce... di solito porta a figuracce :)

Nel mio intervento ho chiaramente specificato che era una mia opinione personale,niente di piu.

Foglia Morta
22-07-2006, 13:13
6 mesi.


Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata
bho, avrai visto altri test... io non direi che è inutile.
http://www.firingsquad.com/hardware/hdr_aa_ati_radeon_x1k/images/outdoors1280aa.gif
http://www.firingsquad.com/hardware/hdr_aa_ati_radeon_x1k/images/fol1280aa.gif
http://www.firingsquad.com/hardware/hdr_aa_ati_radeon_x1k/page8.asp , il picco minimo di una X1800 XT è 26fps

MiKeLezZ
22-07-2006, 13:15
Scusa ma non eri tra quelli che diceva che nonostante il supporto minimo allo SM3 era meglio averlo che non averlo? Allora tanto vale avere la possibilità di attivare HDR e AA no? Così facendo si ha la scheda singola più veloce e come architettura migliore. Esattamente come era ai tempi di NV40. Si fa presto a cambiare idea ne? ;)
E' meglio averlo su serie 7, che è in grado di processarlo in modo sufficientemente veloce, ma su serie 6 è inutile, ed è una cosa che ho sempre affermato.
Ciao!

MiKeLezZ
22-07-2006, 13:23
bho, avrai visto altri test... io non direi che è inutile.Su fascia alta E' utile (CrossFire compreso), e la differenza tenendolo disattivato minima, ma già con x1800 e/o risoluzioni maggiore della 1280 come vedi iniziano i problemi che saranno ancora più accentuati mano a mano che andiamo avanti ed usciranno nuovi titoli.

DakmorNoland
22-07-2006, 13:25
Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata

Ma cosa dici? A parte che come hanno già fatto notare le schede ATI tengono bene AA+HDR anche a risoluzioni elevate e in giochi pesanti, ma poi cmq almeno permettono di attivare l'adaptive AA che pur non essendo qualitativamente al livello dell'AA è cmq molto buono, invece le nvidia nemmeno quello! :D Quindi non diciamo fesserie ;)

Mobi_82
22-07-2006, 13:31
6 mesi.


Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata

http://www.hwupgrade.it/forum/showpost.php?p=13183737&postcount=28

DenFox
22-07-2006, 13:39
Ma non capisco perchè dite che sulle schede attualmente presenti sul mercato è inutile l'HDR+AA... mica dobbiamo per forza giocare a oblivion e basta con HDR+AA, ci sono tanti altri giochi più "leggeri" su cui attivarli. Prendi me che con GUN ho giocato con la X1600PRO tutto al massimo e, guarda un pò, con HDR+AA e tutto filava liscissimo... me lo sono goduto quel gioco fino in fondo quel gioco, al contrario di uno che ha una GX2 7950 :D

ATi7500
22-07-2006, 13:43
6 mesi.
lo so ;) :p

bYeZ!

Catan
22-07-2006, 13:46
signori io non ci vedo nulla in questa scheda di male.
è un r580 fatto a 80nm invece che 90.
un alto cosi piccolo a livello produttivo non serve per alzare le frequenze ma per risparmiare i cosumi e ottimizzare i costi infatti su un wafer da 300mm che sono quelli che usa ati escono molti + chip e risparmiano.
per manterene il prezzo alto o cmq allienato con la top di adesso x1900xtx hanno messo le gddr4 da 1000mhz di frequenza contro gli 800 max delle gddr3.
un semplice restiling settembrino come è successo per le x800 x850.
non ci sono nulla di nuovo se nn le frequenze che garantiranno qualce fps in + a risoluzioni elevate visto che si parla per il core di 650mhz come per le x1900xtx.
ben lungi da essere un anti 7950 che è un prodotto totalmente differente.
semplicemente ati per risparmiare sui costi e consumi si prepare a dun restilig di mezza estare tenengo invariate le fascie di prezzo e magari regalando qualche mhz in +

x1900xtx-x1950xtx restiling 80nm
x1900xt che verra tolta dal mercato con buona probabilita
x1900gt che dal core r580 verra soppiantato da r570 a 80nm e 12 pieps fisiche + facile da produrre e meno costoso di r580 castrato
x1600pro-x1650pro restiling con frequenze + alte a 80nm

Andrea deluxe
22-07-2006, 13:51
catan tu si che hai ragione!

gli altri porca eva stanno tutti a critica'!

AgonizedPhobos
22-07-2006, 14:01
Io non prenderei mai questa scheda per il semplice fatto che tra settembre ed ottobre il g80 di nVIDIA arriva sul mercato e questa scheda sarà sepolta dopo soltanto 2 mesi dall'uscita...A parte che resterà dietro una 7950x2 non appnea esce ad agosto.

DjLode
22-07-2006, 14:17
Io non prenderei mai questa scheda per il semplice fatto che tra settembre ed ottobre il g80 di nVIDIA arriva sul mercato e questa scheda sarà sepolta dopo soltanto 2 mesi dall'uscita...A parte che resterà dietro una 7950x2 non appnea esce ad agosto.

Tu che hai visto il futuro, quest'inverno sarà rigido? Così decido il guardaroba...

AgonizedPhobos
22-07-2006, 14:25
i piani nVIDIA sono questi : tra settembre ed ottobre uscirà il G80 che sarà re indiscusso sulle prestazioni pure.Un paio di mesi dopo (si parla di gennaio 2007)uscirà r600 di ati ma allora nvidia tirerà fuori la scheda pronta per il quad SLI ma stavolta con 2 g80 su singola scheda.Resterà ancora davanti.Aspettiamo ma ormai nvidia si muove in questo modo.....prima un assaggio e poi la mazzata con il quadSLI.

Athlon 64 3000+
22-07-2006, 14:36
ragazzi sul fatto che r600 possa uscire tra almeno 6 mesi,come avete detto prima, solo perche fanno uscire sta scheda ora, ho da dissentire..

vi ricordate che tra la 7800gt e la 7900gt nvidia sono passati massimo 3 mesi!! con enorme rosicamento di coloro che avevano preso una 7800gtx pagandola fior di quattrini e che hanno visto la 7900gt costare la metà e andare meglio subito dopo????
anche tra la 1800xt e la 1900xt mi pare sia passato molto poco...

concordo che ora spendere soldi per una scheda di fascia alta non è il massimo..

La 7800GT è stato presentato l'11 di agosto del 2005 mentre la 7900GT è stata presentata il 9 marzo del 2006 e quindi sono passati 7 mesi di differenza tra le due schede video.

Evangelion01
22-07-2006, 14:38
Si , mi chiedo che senso abbia in generale spendere 6-700 € per una scheda video per quanto potente possa essere... in questo caso oltretutto sapendo che:
1 - Si svaluterà di un buon 50% nel giro di una decina di mesi
2 - non sarà compatibile con dx 10
3 - pesa , consuma , scalda ( basta guardare il dssipatore) come una centrale nucleare

:boh:

nickdc
22-07-2006, 14:40
Si , mi chiedo che senso abbia in generale spendere 6-700 € per una scheda video per quanto potente possa essere... in questo caso oltretutto sapendo che:
1 - Si svaluterà di un buon 50% nel giro di una decina di mesi
2 - non sarà compatibile con dx 10
3 - pesa , consuma , scalda ( basta guardare il dssipatore) come una centrale nucleare

:boh:
Ma con 6-700€ ti riferisci alla 7950? :mbe:

Mietzsche
22-07-2006, 15:02
ragazzi sul fatto che r600 possa uscire tra almeno 6 mesi,come avete detto prima, solo perche fanno uscire sta scheda ora, ho da dissentire..
vi ricordate che tra la 7800gt e la 7900gt nvidia sono passati massimo 3 mesi!! con enorme rosicamento di coloro che avevano preso una 7800gtx pagandola fior di quattrini e che hanno visto la 7900gt costare la metà e andare meglio subito dopo????
anche tra la 1800xt e la 1900xt mi pare sia passato molto poco...
concordo che ora spendere soldi per una scheda di fascia alta non è il massimo..

Non è MAI il massimo spendere soldi per il top di gamma, come da te citato per le 7800gtx che sei mesi dopo (non 3) si sono viste superate dalle 7900. Il problema è che il top di gamma non cala mai di prezzo fino al giorno in cui non esce niente di meglio (vedi l'fx-62 divorato dall'E6700 a meno della metà del prezzo).
Ma chi compra una scheda da 450€ o è fesso o ha una barca di soldi. Chi invece compra una scheda da 450€ dopo 6 mesi che è uscita è fesso e basta.

halduemilauno
22-07-2006, 15:11
finalmente una bella scheda da parte di ati. il tutto per la serie anche l'occhio vuole la sua parte.
;)

Mietzsche
22-07-2006, 15:12
bho, avrai visto altri test... io non direi che è inutile.

http://www.firingsquad.com/hardware/hdr_aa_ati_radeon_x1k/page8.asp , il picco minimo di una X1800 XT è 26fps
naa, Invidiosi, loro preferiscono giocare a 8048*6024 senza AA!
Io gioco "solo" a 1680*1050 HDR+AA con oblivion e una x1800xt. Uno scatto ogni tanto ci stà, ma vuoi mettere vedere le linee scalettate, realistico! BLEA!

Stig
22-07-2006, 15:14
ragazzi sul fatto che r600 possa uscire tra almeno 6 mesi,come avete detto prima, solo perche fanno uscire sta scheda ora, ho da dissentire..

vi ricordate che tra la 7800gt e la 7900gt nvidia sono passati massimo 3 mesi!! con enorme rosicamento di coloro che avevano preso una 7800gtx pagandola fior di quattrini e che hanno visto la 7900gt costare la metà e andare meglio subito dopo????
anche tra la 1800xt e la 1900xt mi pare sia passato molto poco...

concordo che ora spendere soldi per una scheda di fascia alta non è il massimo..
in effetti mi sono confuso...
mi riferivo piuttosto alla versione 7800 gtx da 512mega alla quale le 7900 gt/gtx sono seguite poco dopo..

AgonizedPhobos
22-07-2006, 15:25
Ma perchè quando tu giochi ad una risoluzione di 2560x1600 hai ancora bisogno di attivare il fsaa?Hdr a manetta e spettacolo assoluto.Quadsli 2 7950x2.

Vifani
22-07-2006, 15:32
Secondo me questa è semplicemente una scheda fatta per ridurre i costi di produzione e, pertanto, poter proporre schede dal prezzo più aggressivo. Se i rumours che danno G80 in arrivo a settembre e R600 non prima di fine anno/inizio anno nuovo dovessero essere confermarti, questo R580+ servirà semplicemente per controbattere a G80 non in termini di prestazioni, ma come rapporto prezzo/prestazioni almeno fino all'arrivo di R600.

ATi7500
22-07-2006, 16:36
Secondo me questa è semplicemente una scheda fatta per ridurre i costi di produzione e, pertanto, poter proporre schede dal prezzo più aggressivo. Se i rumours che danno G80 in arrivo a settembre e R600 non prima di fine anno/inizio anno nuovo dovessero essere confermarti, questo R580+ servirà semplicemente per controbattere a G80 non in termini di prestazioni, ma come rapporto prezzo/prestazioni almeno fino all'arrivo di R600.
quoto :sofico: :sofico: :sofico:

bYeZ!

asuslello
22-07-2006, 16:45
:sbav: :sbav: :sbavvv: :sbavvv: :sbavvv: :sbavvv:

cn quel prezzo :banned:

thecatman
22-07-2006, 18:17
finalmente una bella scheda da parte di ati. il tutto per la serie anche l'occhio vuole la sua parte.
;)
aspettavo giusto un commento sull'estetica ati! beh io preferisco vedere il metallo e gli heatpipe come nella 7900gtx! parcondicio rispettata! :Prrr:

Free Gordon
22-07-2006, 20:12
Poco conta se G80 appartiene, architetturalmente parlando, alla generazione successiva... se esce insieme (o qualche settimana dopo) a R580+ va a scontrarsi con il medesimo e non serve che venite a dirmi che va confrontato con R600 xchè in quel momento Nvidia avrà già in mano l'evoluzione di G80.


Esatto, bisogna proprio vedere i tempi.. :D sia di G80 che di R580+...

E altra cosa più importante ancora, bisognerà vedere i costi delle due soluzioni.

Free Gordon
22-07-2006, 20:20
6 mesi.
Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata


Con una 1800XT in Oblivion, a 1280x1024 si attivano AA e HDR tranquillamente.
Senza considerare che sono persino attivati di default nella versione Xbox360, con buone prestazioni.
Ricordiamoci inoltre, che Bethesda e soci non sono dei mostri nel fare motori grafici.. :D

Free Gordon
22-07-2006, 20:25
Su fascia alta E' utile (CrossFire compreso), e la differenza tenendolo disattivato minima, ma già con x1800 e/o risoluzioni maggiore della 1280 come vedi iniziano i problemi che saranno ancora più accentuati mano a mano che andiamo avanti ed usciranno nuovi titoli.


Ormai una 1800XT non costa più un patrimonio e mi pare che la 1280x1024 non sia una res proprio bassa... anzi mi pare che sia la res nativa degli LCD 17" (che sono la maggioranza).
Ergo, AA + HDR per Ati, è un valore aggiunto eccome.

The_SaN
22-07-2006, 21:32
Boh...io non riesco a capire tutta questa gente che si ostina a comparare x1950xtx e 7950gx2. Una costerá poco piu di 400 euro e l'altra ne costa 600.
Secondo il mio ragionamento supremo di marketing e prezzi :sofico: :
400euro o poco piu : 1950xtx
600euro circa : 7950gx2
800 euro o poco piu : crossfire x1950xtx
E cosi abbiamo 3 fascie alte, con salti prestazionali che "giustificano" il salto di 200 euro. Quindi smettiamo di comparare schede di fascia di prezzo diverse. :O
POi vabbé, secondo me vale la pena comprarsi una x1800gto2 a meno di 250euro che si sblocca a x1800xt 512..... :Prrr:

simone1974
22-07-2006, 22:04
Spero che qualcuno si metta a commercializzare quel dissipatore. :sbav:

Anche a me piace un casino! Quando ho visto l'immagine la mia faccia è stata :sbav: !!!

Vado controcorrente e dico che questa scheda invece potrebbe essere il mio prossimo acquisto: la serie xxx50 di ATI è un raffinamento tecnologico della serie xxx00 e quindi non può che essere ottima sia per le prestazioni sia per il consumo energetico.
Inoltre le prime schede DX10 saranno pressoché inutili ai fini ludici (escludo Vista dall'analisi) quindi avremo tempo di sfruttare a pieno tale scheda. :)
Il tutto ovviamente IMHO.

simone1974
22-07-2006, 22:15
Ma perchè quando tu giochi ad una risoluzione di 2560x1600 hai ancora bisogno di attivare il fsaa?Hdr a manetta e spettacolo assoluto.Quadsli 2 7950x2.

Se ha un monitor come il mio (Dellone 24" risoluzione nativa 1920x1200) sì! :D

Tjhokeer
22-07-2006, 23:37
A che serve far uscire una scheda inferiore alla GX2? :confused:

Free Gordon
23-07-2006, 00:55
A che serve far uscire una scheda inferiore alla GX2? :confused:


Aspettiamo i bench magari.. :D

Catan
23-07-2006, 01:08
A che serve far uscire una scheda inferiore alla GX2? :confused:

gente non ha ancora capito che la x1950xtx non è diretta concorrente di 7950 sia per tipologia di scheda sia per fascia.
un refresh settembrino a 80nm di r580 con gddr4.
quello che risparmiamo sul chip lo spendono in gddr4 mantengono il solito prezzo di 450E della x1900xtx e regalano questi 400mhz in + sulle ram.
che volete di +?

stessa storia tutti a dire che nv80 uscirà prima di r600 veramente il tapeout di r600 è finito prima ti nv80.
secondariamente r600 è previso in concomitanza con il 2007 con vista quindi tra circa 5 mesi come nv80.

secondo poi e qui i niubbi mi fanno rideri che vuol dire che non capiscono una mazza è semplice se ati invece di chiamarla x1950xtx avesse semplicmente detto esce la nuova x1900xtx è uguale in tutto e per tutto ma il chip è fatto a 80nm invece che 90 per risparmare noi e risparmiare voi qualcosa di calore adesso stareste tutti a dire brava ati magari queste x1900xtx saranno anche + overcloccabile delle vecchie.
visto che ati è leggermete + avanti di nvidia nelle gestione delle memorie(leggermente è un eufemiso il controller ring di r5xx fa impallidere il crossbar di nv7x)allora inizia a provare le gddr4.
allora r580 a 80nm+gddr4 lo chiamo x1950xtx e lo vendo allo stesso prezzo della x1900xtx.

non vedo cosa ci sia da criticare

Mietzsche
23-07-2006, 08:41
Ma perchè quando tu giochi ad una risoluzione di 2560x1600 hai ancora bisogno di attivare il fsaa?Hdr a manetta e spettacolo assoluto.Quadsli 2 7950x2.
Certo che ne avrò bisogno, perchè se spendo una barca di soldi per le schede video che gioco su un 17"?
Cmq per ottenere una qualità simile all'AA4X 1280*1024 dovresti andare a 5120*4096 e vedere il tutto sullo stesso monitor!
Già la vita è piena di scale, togliamole almeno dai giochi!

AgonizedPhobos
23-07-2006, 10:33
Le prestazioni assoluti nell'ambito 3 d resteranno saldamente in mano a nVIDIA ahce in questo giro con la 7950x2 che sarà ancora parecchio avanti alla x1950 che non èaltro che un affinamento produttivo della x1900 ne più ne meno e che sta già sotto di brutto la 7950x2.I bench confermeranno quanto detto non appena esce ad agosto.

tony73
23-07-2006, 10:51
Le prestazioni assoluti nell'ambito 3 d resteranno saldamente in mano a nVIDIA ahce in questo giro con la 7950x2 che sarà ancora parecchio avanti alla x1950 che non èaltro che un affinamento produttivo della x1900 ne più ne meno e che sta già sotto di brutto la 7950x2.I bench confermeranno quanto detto non appena esce ad agosto.

secondo me non sono paragonabili le 2 schede,sbaglio o è DUAL la 7950??

AgonizedPhobos
23-07-2006, 11:01
Si ma quello che conta è il prodotto finale.E' vero o non è vero che su un singolo sclot pci express la 7950x2 non ha rivali al momento?
Quindi se uno vuole il prodotto più performante sul mercato al momento la scelta è la 7950x2.Non ci sono dubbi su questo.

tony73
23-07-2006, 12:00
Si ma quello che conta è il prodotto finale.E' vero o non è vero che su un singolo sclot pci express la 7950x2 non ha rivali al momento?
Quindi se uno vuole il prodotto più performante sul mercato al momento la scelta è la 7950x2.Non ci sono dubbi su questo.

Certo che è vero! ma è anche vero che consuma na cifra,scalda come una stufa e Dio sa cos'altro.. (poi è nvidia che è la cosa peggiore :D ),ma sempre dual è ;) per me singola scheda è sinonimo di singola GPU e in quel caso non c'è battaglia,ne tecnologicamente e ne a performance IMHO

Mobi_82
23-07-2006, 12:09
Quindi se uno vuole il prodotto più performante sul mercato al momento la scelta è la 7950x2.Non ci sono dubbi su questo.

Si, ammesso che la scheda madre già in possesso sia compatibile.
Ad esempio io non potrei montarla nemmeno se volessi.

jp77
23-07-2006, 12:54
Certo che è vero! ma è anche vero che consuma na cifra,scalda come una stufa e Dio sa cos'altro.. (poi è nvidia che è la cosa peggiore :D

consuma meno di una x1900 scalda meno di una x1900 sull'ultima frase non commento nemmeno :muro: W i fanboy :banned:

nickdc
23-07-2006, 13:15
Si ma quello che conta è il prodotto finale.E' vero o non è vero che su un singolo sclot pci express la 7950x2 non ha rivali al momento?
Quindi se uno vuole il prodotto più performante sul mercato al momento la scelta è la 7950x2.Non ci sono dubbi su questo.
E' anche vero che la 7950 costa 200 euri in più. :rolleyes:
Quindi imho non sono paragonabili.

tony73
23-07-2006, 13:19
consuma meno di una x1900 scalda meno di una x1900 sull'ultima frase non commento nemmeno :muro: W i fanboy :banned:

2 gpu consumano meno di una? se è vero complimenti e mi scuso anche,ma io sapevo il contrario,il fanboysmo non c'entra una mazza..

sull'ultima frase c'è poco da commentare,tecnologicamente nvidia è dietro..

tony73
23-07-2006, 13:20
E' anche vero che la 7950 costa 200 euri in più. :rolleyes:
Quindi imho non sono paragonabili.

cosa vuoi che sia sto piccolo "dettaglio" :D

jp77
23-07-2006, 13:29
2 gpu consumano meno di una? se è vero complimenti e mi scuso anche,ma io sapevo il contrario,il fanboysmo non c'entra una mazza..

sull'ultima frase c'è poco da commentare,tecnologicamente nvidia è dietro..


http://www.hwupgrade.it/articoli/1504/consumo.png

tony73
23-07-2006, 13:34
http://www.hwupgrade.it/articoli/1504/consumo.png

perfetto mi sbagliavo (non sull'ultima frase pero'),a sto punto fammi vedere anche se scalda meno :sofico:

MiKeLezZ
23-07-2006, 13:54
perfetto mi sbagliavo (non sull'ultima frase pero'),a sto punto fammi vedere anche se scalda meno :sofico:
Lo "scaldare" dipende direttamente dal consumare più o meno.
Più consuma più scalda.

killer978
23-07-2006, 14:12
6 mesi.


Per HDR+AA: le attuali schede sono troppo poco potenti per attivarlo, così come all'epoca lo era la serie 6 di nVidia con gli SM3, quindi ci sia o meno è poco importante. Sopratutto dato che ben presto dovremmo passare in massa alle DX10, se non vogliamo fare un acquisto obsoleto già prima di esser montata

Io con la confing in signa gioco ad Oblivion con HDR+AA2x senza problemi a 1280x1024 (attivando l'AA 6x con le VGA ati si perde meno del 5% le Nvidia perdono anche il 20% solo con AA 4x attivo) quindi prima di sparare a zero provatele le cose! e non sono l'unico a giocare con la X1800XL con HDR+AA ;)

sim89
23-07-2006, 14:16
salve ho notato che tutti qui possedete schede video quasi top di gamma... io possiedo un'anziana radeon 9200LE!!!! (e anche una 9200SE). Secondo me nn vale la pena di comprare schede video da 500 o 600 euro per il semplice motivo che è un inutile spesa. Già con 250 € si trovano schede video ottime che consentono di giocare non a 1600*1200 con AA ma che danno ottime soddisfazioni con i giochi. Ho pensato parecchie volte di cambiare la VGA ma sinceramente finchè nn arriveranno le schede DX 10 io la VGA nn la cambio. Cmq la nuova scheda ati la considero molto buona.... ma a che prezzo!!!!
In attesa del G80..

killer978
23-07-2006, 14:17
Su fascia alta E' utile (CrossFire compreso), e la differenza tenendolo disattivato minima, ma già con x1800 e/o risoluzioni maggiore della 1280 come vedi iniziano i problemi che saranno ancora più accentuati mano a mano che andiamo avanti ed usciranno nuovi titoli.

Ti dimentichi delle Softshadow in FarCry e Condemned :D io ci gioco con l'AA4x attivo! a cosa serve comprare una 7950 se poi non puoi attivare l'AA negli ultimi titoli :asd: x favore! è difficile che ATI sbagli un colpo! lo SM3.0 sulle 6800 quello si che era inutile (fidati che ho avuto 2 6800 una LE ed un GT)

killer978
23-07-2006, 14:18
salve ho notato che tutti qui possedete schede video quasi top di gamma... io possiedo un'anziana radeon 9200LE!!!! (e anche una 9200SE). Secondo me nn vale la pena di comprare schede video da 500 o 600 euro per il semplice motivo che è un inutile spesa. Già con 250 € si trovano schede video ottime che consentono di giocare non a 1600*1200 con AA ma che danno ottime soddisfazioni con i giochi. Ho pensato parecchie volte di cambiare la VGA ma sinceramente finchè nn arriveranno le schede DX 10 io la VGA nn la cambio. Cmq la nuova scheda ati la considero molto buona.... ma a che prezzo!!!!
In attesa del G80..

Ovvio! io non spendo mai + di 100€ tra una VGA e l'altra! oggi il miglior acquisto rimane la X1800XT 256mb la miglior VGA prezzo/prestazioni (si pappa la 7900GTX con i filtri attivi e costa la metà)

BTW: Poche settimane fa ho preso una X1800GTO x mio cugino a 140€ usata, con il bios della XL e un po di overvolt abbiamo preso i 10050p.ti al 3Dmark05 quanto fa una 7900GTX da 450€ , anche questa è un ottima VGA prezzo/prestazioni ;)

Narmo
23-07-2006, 15:39
Ottima scheda... sperò sarà come l'X850 (Che regge tuttora bene).

Per quanto riguarda la GX2... c'è sempre da ricordare che questa è a singola GPU l'altra è a doppia GPU... quindi non mi pare il caso di fare confornti stile "vediamo l'ha più grosso".

AgonizedPhobos
23-07-2006, 16:28
la realtà è sempre quella :chi vuole il massimo delle performance oggi vede al vertice della piramide la 7950x2.Tutti gli altri commenti sono superflui.Questa scheda appunto la x1950 resterà dietro ed anche di parecchio alla 7950x2.E' soltanto un affinamento produttivo.Per ati bisgona aspettare r600.Ma ce ancora tempo

tony73
23-07-2006, 17:26
la realtà è sempre quella :chi vuole il massimo delle performance oggi vede al vertice della piramide la 7950x2.Tutti gli altri commenti sono superflui.Questa scheda appunto la x1950 resterà dietro ed anche di parecchio alla 7950x2.E' soltanto un affinamento produttivo.Per ati bisgona aspettare r600.Ma ce ancora tempo

Allora si parla arabo :D la tua scheda è una multi gpu...ficcatelo in testa :D

non è nella stessa fascia,anche se nvidia vorrebbe farlo credere dato che a singola gpu è dietro ;) poi c'è anche il fatto del prezzo,a me 200€ in piu' in tasca fanno comodo..chi sta per prendere una scheda nuova credo possa tenerlo in considerazione questo dettaglio.

AgonizedPhobos
23-07-2006, 17:35
è il prodotto finale quello che conta.Mettitelo in testa.Scheda contro scheda la 7950x2 continua a non avere rivali.

thecatman
23-07-2006, 21:30
Lo "scaldare" dipende direttamente dal consumare più o meno.
Più consuma più scalda.
ce giusto una recensione qui su hwupgrade.
le gpu sono quelle in dotazione ai portatili

Erian Algard
23-07-2006, 22:47
è il prodotto finale quello che conta.Mettitelo in testa.Scheda contro scheda la 7950x2 continua a non avere rivali.

O che noia!!!!!!!!!!!.......Sono DUE.....DUE schede!!!!!!!!!Che poi si attaccano su un singolo slot non ce ne frega nulla! Sono DUE( uno-due) schede contro UNA(una)....ok?

nickdc
23-07-2006, 23:15
O che noia!!!!!!!!!!!.......Sono DUE.....DUE schede!!!!!!!!!Che poi si attaccano su un singolo slot non ce ne frega nulla! Sono DUE( uno-due) schede contro UNA(una)....ok?
:asd:

SSMark
23-07-2006, 23:21
O che noia!!!!!!!!!!!.......Sono DUE.....DUE schede!!!!!!!!!Che poi si attaccano su un singolo slot non ce ne frega nulla! Sono DUE( uno-due) schede contro UNA(una)....ok?

hai perfettamente ragione.... ma il prezzo è basso delle 7950x2 confronto la serie ati x1000 ...... spero raggiunga la potenza della 7950x2 la nuova ati x1950xtx :)

MiKeLezZ
23-07-2006, 23:55
O che noia!!!!!!!!!!!.......Sono DUE.....DUE schede!!!!!!!!!Che poi si attaccano su un singolo slot non ce ne frega nulla! Sono DUE( uno-due) schede contro UNA(una)....ok?
Embè? Che minchia c'entra?
Con le CPU Dual Core non sfaviamo così... se il Dual Core va più del Single Core, si prende quello, e buonanotte (vedi la serie FX di AMD che è passata da Single a Dual).
L'importante è il risultato. Semmai tira fuori la scusa del "ma non è supportata da tutti i giochi" (forse?) e "ma non tutte le M/B la supportano" perchè quella del 2 contro 1 è davvero misera...
Se due GPU poi riescono a consumare MENO ed andare DI PIU' della single GPU della concorrente, dovremmo tutti fermarci un attimino a pensare (come ci fermiamo a pensare ai fornetti Pentium e gli Athlon64)

Catan
24-07-2006, 00:01
hai perfettamente ragione.... ma il prezzo è basso delle 7950x2 confronto la serie ati x1000 ...... spero raggiunga la potenza della 7950x2 la nuova ati x1950xtx :)

sti commenti poi io non li sopporto una vga che è il restling della x1900xtx a80nm
che ha frequenze di 650-1000 contro i 650-775 di r580 fatto a 90nm
contando che la x1900xtx fa meno delle 7950 credi che con 200mhz in + sulle ram riesco a raggiungere la 7950?
le persone a volte non capiscono ati abbassa il procesos produttivo risparmia il 10% sul chip che reinveste mettendo le gddr4 e regalando gli acquirenti allo stesos prezzo della x1900xtx 225mhz in + sulle ram.
la7950 è tutta altra scheda sia per fascia di prezzo (200E in +) sia per compatibilità su giochi e mobo sia per reperibilita.
non credo che gli ingengeri ati siano stupidi evidentemete una struttura dual gpu non interessava ne tecnologicamente ne del segmento di mercato.
senza contare che se sio devo comprare una vga high end e spendo 450E prendo sicuro una ati x1900xtx o x1950xtx invece che una 7900gtx

seby83
24-07-2006, 00:39
io spero che la x1900XT scenda a 280 euro con questa nuova gpu dsi ati.-

Italia 1
24-07-2006, 01:10
Certo che no.Solo un idiota comprerebbe una scheda video di fascia alta adesso.

Per e-mail mi è arrivata la notizia di questa nuova e potentissima scheda, ma se tra le risposte devo leggere frasi come queste mi cancello dalla newsletter.
Ora, per la cronaca, io compro schede "top del momento" ogni 2 anni o comunque 2 generazioni (la prima è stata la 5950ultra, pochi giorni fà la XFX 7950GX2 M570). Non vedo il minimo motivo per cui dovrei essere un'idiota, soprattutto scritto da qualcuno che: 1) non conosco; 2) non mi conosce; 3) non sà nemmeno che lavoro faccio o comunque cosa faccio durante il giorno; 4) non sà se i soldi che mi sono guadagnato me li sono sudati oppure sono "figlio di papà benestante".
Ora preciso: il mio lavoro consiste nell'applicare automazioni ai cancelli, serrande, installare impianti di allarme, citofonia, videocitofonia e qualche impiantino elettrico, addirittura poco più di un mese fa abbiamo dovuto montare un motorino per aprire elettricamente un botola in cima al campanile della torre civica di Macerata (222 scalini, 50mt di altezza, 15-20 minuti per salire. Il particolare più interessante era il temporale durante tutto il lavoro e la presenza del parafulmine a meno di 3 mt da noi). Poi capita anche di montare motori d'estate con asfalto appena fatto, quindi ad una temperatura di oltre 50 gradi (se non lo sai, viene steso quando ancora sta a oltre 70). Mi guadagno i soldi, pago le spese di casa e quando mi avanzano mi tolgo qualche sfizio, sarei un'idiota per questo ? a dar retta a gente come te non bisognerebbe mai comperare schede nuove e potenti, perchè magari "tra poco uscirà una versione più spinta" oppure "aspetto la prossima generazione". Io avevo preso di mira la "dual 7900" da prima che venisse progettata, da quando è uscita la dual 7800gt dell'Asus e appena è uscita, visto che i soldi da una parte li avevo, me la sono comperata e già che c'ero overcloccata di fabbrica, almeno ho pure la garanzia del funzionamento al 100%.
Se vi interessa, le due gpu arrivano a toccare gli 80 gradi (una 78 l'altra 82) dopo un'oretta di gioco con ambiente intorno ai 30 (soffitta di casa) e un totale di 12 ventole nel case

Italia 1
24-07-2006, 02:16
a proposito: io sono stato sempre pro-nvidia, ati non mi ha mai acchiappato più di tanto (c'è a chi piacciono le ragazze magre e con una 2' e chi, come me, piacciono non eccessivamente magre ma con una 4', no ?? questione di gusti. alla fine tutte ce l'hanno e nessuna te la dà !!) , ma riconosco che ha più capacità di calcolo rispetto a schede nvidia (vedi giocare coi filtri attivi: quella è capacità di calcolo). come potete ricordare tutti, la prima serie x ati, quella dopo la 9x00, non supportava gli shader model 3 (praticamente non era compatibile hardware directx 9.0c), i possessori di nvidia si pavoneggiavano di questo superiore supporto ma all'atto pratico, chi si accorgeva della diferenza nei giochi ? credo che la stessa cosa sia per le directx10: a che servirebbe comprare hardware così senza avere la possibilità di sfruttarlo appieno ? S3 già ha creato ua scheda directx 10, lo sapete ? perchè non comprate quella ? quanti di voi installeranno Vista appena esce ? io no di certo (nomi come fritz, tecnologia palladium (che ha cambiato nome e non lo ricordo), lagrande, acss su hd-dvd e blu ray, praticamente blocchi in hardware teoricamente non scavalcabili che peraltro identificheranno tutti i pc non mi sfagiolano molto, anzi... mmò rimetto su win98se... e dos 7.1). La mia 7950gx2 non ha driver maturi (solo una versione ufficiale la supporta, la 91.31), bench su tom's hardware con driver ancora più inadatti (91.29) in molti casi la danno sotto la x1900xtx ( http://www.tomshw.it/graphic.php?guide=20060605 ) ma la volevo, ce l'ho, non ho chiesto soldi a nessuno, probabilmente a dicembre avrò pure quad-sli e a quel punto, per 2 o 3 anni, pensate che ci siano giochi che mi gireranno male ? ancora sulla 5950ultra+barton 3200+ mi ci girano tutti... (parlo di CoD2, toca race driver2, doom 3 ogni tanto, FarCry e, per staccare dagli sparatutto, l'inossidabile diablo2)

DakmorNoland
24-07-2006, 02:26
a proposito: io sono stato sempre pro-nvidia, ati non mi ha mai acchiappato più di tanto (c'è a chi piacciono le ragazze magre e con una 2' e chi, come me, piacciono non eccessivamente magre ma con una 4', no ?? questione di gusti. alla fine tutte ce l'hanno e nessuna te la dà !!) , ma riconosco che ha più capacità di calcolo rispetto a schede nvidia (vedi giocare coi filtri attivi: quella è capacità di calcolo). come potete ricordare tutti, la prima serie x ati, quella dopo la 9x00, non supportava gli shader model 3 (praticamente non era compatibile hardware directx 9.0c), i possessori di nvidia si pavoneggiavano di questo superiore supporto ma all'atto pratico, chi si accorgeva della diferenza nei giochi ? credo che la stessa cosa sia per le directx10: a che servirebbe produrre hardware così senza avere la possibilità di sfruttarlo appieno ? quanti di voi installeranno vista appena esce ? io no di certo (nomi come fritz, ex-palladium, lagrande, acss su hd-dvd e blu ray, praticamente blocchi in hardware che peraltro identificheranno tutti i pc non mi sfagiolano molto, anzi... mmò rimetto su win98se...). La mia 7950gx2 non ha driver maturi (solo una versione ufficiale la supporta, la 91.31), bench su tom's hardware con driver ancora più inadatti (91.29) in molti casi la danno sotto la x1900xtx ( http://www.tomshw.it/graphic.php?guide=20060605 ) ma la volevo, ce l'ho, non ho chiesto soldi a nessuno, probabilmente a dicembre avrò pure quad-sli e a quel punto, per 2 o 3 anni, pensate che ci siano giochi che mi gireranno male ? ancora sulla 5950ultra+barton 3200+ mi ci girano tutti...

Quotissimo! ;) Anche sul fatto che ti girano tutti confermo io ho una 9800PRO e fa andare qualsiasi cosa, ma ora porella sta morendo :( son costretto a cambiarla. L'unico gioco che non potevo tenere ad un livello soddisfacente è oblivion, gli altri alla grande! :D

Italia 1
24-07-2006, 02:31
ma che, qualcuno ti obbliga a giocare a 1280x1024 coi filtri per caso ? io sto a 1024x768 senza... a che mi serve un quadro ogni fotogramma ?? invece col pc con la 7950 tengo 1280x1024 con tutti i filtri (19" lcd Benq, di più non và...). non ho mai provato oblivion, che è ?? è così pesante ?

DakmorNoland
24-07-2006, 02:39
ma che, qualcuno ti obbliga a giocare a 1280x1024 coi filtri per caso ? io sto a 1024x768 senza... a che mi serve un quadro ogni fotogramma ?? invece col pc con la 7950 tengo 1280x1024 con tutti i filtri (19" lcd Benq, di più non và...). non ho mai provato oblivion, che è ?? è così pesante ?

Si fidati, praticamente ha un motore grafico visivamente eccezionale ma che è ottimizzato da schifo per pc! E ancora peggio per le schede nvidia. Questo per due motivi, è nato per Xbox (che ha scheda video ati), poi l'hanno buttato su pc alla cavolo, senza sistemare il motore grafico a dovere.

giovanbattista
24-07-2006, 04:28
Ma cosa vi fumate x scrivere ste robe??
mi fate morire
:)

X la scheda sono anni che esce la rev2, è l'affinamento tecnologico che imperante chiede strada, i consumi in proporzione alle prestazioni, saranno migliori, il dissy è stato migliorato, e la banda aumenta, proprio x poter usare + tranq. i filtri.

Poi, siamo tutti liberi di prendere la scheda che vogliamo (o avete stipulato accordi a vita) soldi permettendo, io cerco sempre un buon compromesso €€€/prestazioni,
ma lo dico se tenessi un conto a nove 0, probabilmente, prenderei il top.

Che poi uno x abitudine, simpatia, o altro preferisca una sheda (marca) ad un'altra è comprensibile, ma questo non deve mai metterci i paraocchi, altrimenti la cosa prende la strada del patologico.

X quanto riguarda le dx10, credo che 18/24mesi è il tempo (minimo) x rendere queste schede "obsolete" lato games e forse, ma dubito, modellazione 3d,(anche se non sono molto ferrato a riguardo ma opengl domina, nel professionale), xchè x il resto una vga integrata, o dedicata serie bassa fà sempre il suo sporco lavoro, e non venitemi a dire che vista pretende mari e monti, sicuramente l'interfaccia base girerà su tutte le vga dai 3/4 anni in sù, (9500Pro ok, testata, 3.9 da 0 a 5 sulla beta2 driver default) e non è l'ultimo grido, anche se si difende bene.

Spero che ati abbia fatto un ottimo lavoro a livello consumi, il conettore (a 4 fili) fà ben sperare x il rumore (variazione continua dei giri ventola), spero si decidano al più presto di unificare vga mobile & desktop, in modo da importare tutte le tecnologie x il risparmio energetico, tipo autospegnimento di una parte del chip, quando non viene richiesta alta potenza elaborativa, o almeno la variazione (significativa, riduzione del 25/50/75% ) delle freq di gpu e ram.

Spero vivamente che con r600si arrivi allo sfruttamento (da parte dei giochi) di 1giga di ram, questo salto secondo mè darà modo poter finalmente rendere i paesaggi a video reali come non mai, magari con risoluzioni 1600*1200, filtri on.

Credo inoltre che con l'affermarsi delle dx 10 & 1giga di ram finalmente i dettagli a schermo saranno al bacio, senza (quasi) limitazioni, chissà se il successivo sarà 2giga di ram sulle vga, da paura.

Catan
24-07-2006, 08:40
finalmente c'è gente con cui si parla e discute e valuta le cose per quello che sono che non gente che fa solo sparate

ps anche a me piacciono le ragazze cicciottelle con la 4 di seno :D
ma mi piacciono di + le sk ati ;)
anche se le ho provate tutte :D
potrei fare la pubblicità al posto del rocco nazionale...

azz mi mancano quelle con la "sorpresa" :cry: :(

Mietzsche
24-07-2006, 11:18
Ati e magre con la 2a!
Per il resto la scheda video la scelgo in base al monitor:
17crt: 180€ 1024*768 4XAA
17-19lcd: 200€ 1280*1024 4XAA
20,1 wide: 250-350€ 1680*1050 4XAA + HDR :D

Oltre francamente non vedo cosa ca... serva!
1)Non mi dite che nei FPS volete fraggare a 100fps e contemporaneamente godervi AA, HDR e risoluzioni altissime! L'essere umano è singlecore!
2)Non mi dite che fate una spesa oggi per il futuro: una scheda da 500€ dura due anni, due da 250€ (comprate a 1 anno e mezzo di distanza) durano 3!

simone1974
24-07-2006, 11:38
è il prodotto finale quello che conta.Mettitelo in testa.Scheda contro scheda la 7950x2 continua a non avere rivali.

Salvo poi attivare i filtri....

simone1974
24-07-2006, 11:49
Ati e magre con la 2a!
Per il resto la scheda video la scelgo in base al monitor:
17crt: 180€ 1024*768 4XAA
17-19lcd: 200€ 1280*1024 4XAA
20,1 wide: 250-350€ 1680*1050 4XAA + HDR :D


La mia è magra con la seconda ma le preferisco in carne con una quarta abbondante... So' problemi! :sofico:

Io ho un 24": mi sono rovinato con le mie mani, sono costretto a prendere sempre schede high-end perché altrimenti mi tocca giocare in finestra e mi sembra uno spreco con tanti pixel disponibili! :muro:

Italia 1
24-07-2006, 13:13
Salvo poi attivare i filtri....

Ti confondi con la 7900gtx ? nei bench che ho visto, la 7950 rimane a più fps della 1900xtx coi filtri (ci sono sempre due gpu. spero di non sbagliarmi). Vi chiedo una cortesia: non giudichiamo ancora sta 7950gx2, non è ancora sfruttata come si deve: non sono maturi i driver, di conseguenza nessuno al mondo può ancora sapere qual'è il vero potenziale. Non sono solo 2 gpu nuove in sli (ricordiamolo, sono 2 gpu 7950, non 2 7900gt o 7900gtx) c'è anche un terzo componente che divide i segnali, anch'esso richiede una minima parte di driver ottimizzati al max. appena uscirà la prox versione di driver ufficiali con le migliorìe dovute si potrà discutere meglio. se cammina molto più di adesso, significa che ho fatto un'affare, sennò significa che ho preso una sòla. però, mi sà che la fusione AMD-ATI convincerà anche me a prendere ATI

AgonizedPhobos
24-07-2006, 13:32
7950x2 : in cima alla catena alimentare fino......ad un paiodi mesi quando sarà ancora nvidia a restare al top con l'uscita del g80 che arriverà tra settembre ed ottobre.

DUDA
24-07-2006, 14:09
Io voglio R600 :(


..infatti..queste mi sembrano solo suluzioni di ripiego aspettando nvidia.. :rolleyes:

Free Gordon
24-07-2006, 14:50
è il prodotto finale quello che conta.Mettitelo in testa.Scheda contro scheda la 7950x2 continua a non avere rivali.


Non ne sarei così sicuro, aspettiamo che esca la 1950 e vediamo i bench. ;)
Secondo me alle alte res, con filtri, avrà qualcosa da dire. ;)

Anche nei consumi è probabile che porti un miglioramento a causa degli 80nm e delle ddr4.

Zappa1981
24-07-2006, 19:40
ma perchè lanciare una scheda del genere ora? Se fosse directX10...capirei ma se così non è allora è una scheda inutile...

DjLode
24-07-2006, 20:00
ma perchè lanciare una scheda del genere ora? Se fosse directX10...capirei ma se così non è allora è una scheda inutile...

Certo, sarebbe molto più utile una scheda Dx10 oggi. Poi la usiamo come fermacarte in attesa di software anche solo lontanamente compatibile :)

AgonizedPhobos
24-07-2006, 20:37
Vedrai il g80 entro ottobre che spaccherà tutte le directx9 in commercio fino ad ora pur eseendo directx10.Ecco perchè.

DjLode
24-07-2006, 20:51
Vedrai il g80 entro ottobre che spaccherà tutte le directx9 in commercio fino ad ora pur eseendo directx10.Ecco perchè.

Speriamo di no, se mi si spacca la mia 9700 non ho i soldi per cambiarla...

Mietzsche
25-07-2006, 15:53
Ti confondi con la 7900gtx ? nei bench che ho visto, la 7950 rimane a più fps della 1900xtx coi filtri (ci sono sempre due gpu. spero di non sbagliarmi). Vi chiedo una cortesia: non giudichiamo ancora sta 7950gx2, non è ancora sfruttata come si deve: non sono maturi i driver, di conseguenza nessuno al mondo può ancora sapere qual'è il vero potenziale. Non sono solo 2 gpu nuove in sli (ricordiamolo, sono 2 gpu 7950, non 2 7900gt o 7900gtx) c'è anche un terzo componente che divide i segnali, anch'esso richiede una minima parte di driver ottimizzati al max. appena uscirà la prox versione di driver ufficiali con le migliorìe dovute si potrà discutere meglio. se cammina molto più di adesso, significa che ho fatto un'affare, sennò significa che ho preso una sòla. però, mi sà che la fusione AMD-ATI convincerà anche me a prendere ATI

ma sta 7950, come va rispetto a 2x7900gt pari clock? e la 7900 è uguale alla 7950 ma lunga il doppio? no perchè c'è un sito che la vende a 150€ in meno della 7950!

Italia 1
25-07-2006, 20:00
Quì ( http://www.forumzone.it/topic.asp?TOPIC_ID=7652&FORUM_ID=56&CAT_ID=26&Topic_Title=database+configurazioni%21&Forum_Title=Hardware+Modding&whichpage=7 )
puoi vedere direttamente la mia scheda montata sul mio pc. a parità di clock dovrebbe andare come 2 7900gt, le due gpu sono modello 7950, le differenze tra 7900gt/gtx e questa non ci sono. a singola scheda cammina più di 2 7900gt in sli e meno di 2 7900gtx in sli

davide-1
27-07-2006, 09:10
A me sembra davvero orribile come aspetto :nono: . De gustibus cmq. :boh:

DakmorNoland
27-07-2006, 13:41
Vedrai il g80 entro ottobre che spaccherà tutte le directx9 in commercio fino ad ora pur eseendo directx10.Ecco perchè.

Da quello che ho letto sto g80 mi sa tanto di FX 5900 :D Che era spacciata come directx 9.0 con PS 2.0 che in realtà erano scarsamente (per non dire altro :p) implementati e così con giochi tipo oblivion si è costretti ad andare con PS 1.0 un vero schifo!
Quindi non vorrei che si ripetesse la storia con g80 sicuramente molto + potente delle schede directx 9 ma cmq con scarse implementazioni DX10 e così all'inizio tutto ok, poi nel lungo periodo gli utenti se la prenderanno in quel posto! :D

killer978
27-07-2006, 17:00
Vedrai il g80 entro ottobre che spaccherà tutte le directx9 in commercio fino ad ora pur eseendo directx10.Ecco perchè.

:rolleyes: il G80 sarà un Flop nel 99% dei casi come lo è stato la 5800 :asd:

Ripeto trovo inutile la 7950 GX2, sono "2" schede in SLI che non danno la possibilità di attivare l'HDR+AA o SoftShadow+AA mi dite a cosa servono ste VGA? costa quasi 600€ :rolleyes: x far girare tutto basta una singola VGA, con una X1800 si va alla grande ;)

la X1950 è come la X850 un restailing con minor consumi e + resa! le DX10 su una VGA oggi sono inutili come sono state le DX9.0c x la serie 6xxx di Nvidia :asd:

DjLode
27-07-2006, 17:11
Le Dx9.1 non esistono...

killer978
27-07-2006, 17:18
Le Dx9.1 non esistono...

:doh:

Ineffetti errore mio :D 9.0c ;)

Cmq gli Shader Unificati saranno la strada da seguire x le DX10 ;) Nvidia con G80 resterà con shader divisi

DjLode
27-07-2006, 17:27
Non è detto che sia la strada da seguire per le dx 10. Nelle specifiche a quanto si sa l'architettura interna non è specificata, quindi liberissimi di scegliere shader dedicati e fare con quelli. Non è detto che nel medio termine sia una scelta negativa, anzi...