PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

garbage
08-08-2007, 11:26
Dato che siamo in tanti a dirlo (ecco perchè ho linkato altre esperienze di utenti con "softwarini" tipo Cinema 4D...), poi tranquillamente parlare al plurale tipo:

"...potete dire quel che volete ma a me lo disattiva quando servono molte risorse..."

PS: per quanto possa essere pesante il giochino da te provato hai idea di quante risorse occupi un modello CAD 3D estremamente complesso? Ne ho alcuni con più di 20mln di triangoli...

Allora ogni volta che gioco a bf2 vuol dire che mi fumo qualcosa ....... bha
pensala cm vuoi ma da me fa cosi

Iantikas
08-08-2007, 12:46
[QUOTE=Iantikas;18200649]

Ieri sera io e un altro utente del forum (nanni) abbiamo testato la scheda in situazioni di idle e full load, con Amd Gpu, che consta di due sensori.
Se si prende il core, in idle stavo io sui 52 lui sui 55, in load dopo i primi 2 test di 3dmark 79-80 io 85 lui.
Se si utilizza come riferimento l'altro sensore siamo effettivamente a quei livelli, 69-70.
Quindi penso che le differenze siano dovute a questo, in effetti in tutte le review il core della gpu arriva a valori prossimi al 90 (hwup 88 per esempio).
Comunque sarebbe utile fare altri test da parte di utenti per capire meglio.


state prendendo una grandissimo abbaglio


le due temp ke mostra amd gpu clock tool è una il core e l'altra il cosidetto "ambient" e coincidono esattamente con le temp mostrate da rivatuner e atitool e gli altri tool d monitoring...

...ho appena provato ecco lo screen dove mostra ke le temp coincidono alla perfezione... http://img409.imageshack.us/img409/1817/eeeeeba3.th.jpg (http://img409.imageshack.us/my.php?image=eeeeeba3.jpg) ...


...ora vorrei proprio vedere gli screen d te e del tuo amico dove c'è una differenza d 10° tra un prog e l'altro :stordita:


p.s.: le review ke mostrano temp sui 90° sul core probabilmente l'hanno provata in un forno la skeda...xkè anke in oc nn passa mai i 72/73° e la ventola nn'è mai andata oltre il 37%...

corradobernardi
08-08-2007, 12:52
[QUOTE=corradobernardi;18214027]

Si ma a rumore sarai messo maluccio o sbaglio?

Eh alzo il volume :D

Catan
08-08-2007, 13:02
ragazzi scusate se la domanda è stata posta 1000 volte, ma vorrei sapere con gli ultimi driver la scheda come va a consumi prestazioni e calore rispetto ad una 8800gtx

io al massimo posso dirti come va rispetto ad una gts...
cmq senza filtri stiamo a livello di una 8800gtx, con i filtri dipende dal gioco ed ottimizazione a volte a livello di una 8800gtx a volte poco sopra una gts.
consumi in idle minori rispetto ad una 8800gtx in full leggermente maggiori.
calore la temperatura di funzionamento rispetto alla gts che avevo prima mi sembra uguale sempre sui 50 in idle e sui 70 in full.
rumore a valori a default stiamo li ma se pensi di metterla al 100% è davvero un phono.

Pat77
08-08-2007, 13:08
[QUOTE=Pat77;18213611]


state prendendo una grandissimo abbaglio


le due temp ke mostra amd gpu clock tool è una il core e l'altra il cosidetto "ambient" e coincidono esattamente con le temp mostrate da rivatuner e atitool e gli altri tool d monitoring...

...ho appena provato ecco lo screen dove mostra ke le temp coincidono alla perfezione... http://img409.imageshack.us/img409/1817/eeeeeba3.th.jpg (http://img409.imageshack.us/my.php?image=eeeeeba3.jpg) ...


...ora vorrei proprio vedere gli screen d te e del tuo amico dove c'è una differenza d 10° tra un prog e l'altro :stordita:


p.s.: le review ke mostrano temp sui 90° sul core probabilmente l'hanno provata in un forno la skeda...xkè anke in oc nn passa mai i 72/73° e la ventola nn'è mai andata oltre il 37%...

Io nemmeno l'ho provato atitool, ho detto che tra letture dei due diodi c'è questa differenza, in quasi tutte le review c'è una temperatura stimata di 85-90 il full load, 65 in idle, scesa a 55 con i nuovi driver.
Probabilemnte terrai il case aperto o è particolarmente ventilato.
Io e lui in full stiamo sugli 80 gradi, ambient mi apre 65-70.

NvidiaMen
08-08-2007, 13:52
FONTE 3ditalia.com:

AMD approfitta del SIGGRAPH 2007 per annunciare cinque nuove schede grafiche 3D professionali della gamma FireGL, ovvero le FireGL V8650, V8600, V7600, V5600 e V3600. Tutte basate sull'architettura R600 di AMD, sono compatibili con le DirectX 10 e l'OpenGL 2.1. La scheda più evoluta della gamma, la FireGL V8650, è proposta con 2 GB di memoria video a 2799 dollari. Tecnicamente, le FireGL V8650 e V8600 derivano dall'R600 (Radeon HD 2900) mentre gli altri modelli derivano dai chip RV630/610.
I modelli più abbordabili, come la FireGL V5600 proposta con 512 MB di memoria a 599 dollari, AMD annuncia un guadagno di performance del 300% rispetto al modello precedente FireGL V5200 in Viewperf 9.0.3. AMD annuncia una gestione antiva per Windows e Linux su tutti questi nuovi modelli.

Nos89
08-08-2007, 14:10
io al massimo posso dirti come va rispetto ad una gts...
cmq senza filtri stiamo a livello di una 8800gtx, con i filtri dipende dal gioco ed ottimizazione a volte a livello di una 8800gtx a volte poco sopra una gts.
consumi in idle minori rispetto ad una 8800gtx in full leggermente maggiori.
calore la temperatura di funzionamento rispetto alla gts che avevo prima mi sembra uguale sempre sui 50 in idle e sui 70 in full.
rumore a valori a default stiamo li ma se pensi di metterla al 100% è davvero un phono.

con i filtri(cosa obbligatoria per queste schede;) )va come una GTS se non meno....senza spinge fino al livello delle GTX ma non in tutti i giochi.

M4R1|<
08-08-2007, 14:23
con i filtri(cosa obbligatoria per queste schede;) )va come una GTS se non meno....senza spinge fino al livello delle GTX ma non in tutti i giochi.

nn è del tutto vero, cmq con filtri va poco più di una GTS, nn meno, a parte forse in 1 o 2 game, ma per un discorso: 1) di immaturità dei driver, e 2 per la mal programmazione del gioco

edit: spero che nn te le prenderai per questo appunto

Catan
08-08-2007, 14:24
con i filtri(cosa obbligatoria per queste schede;) )va come una GTS se non meno....senza spinge fino al livello delle GTX ma non in tutti i giochi.

chiede con i dvr nuovi e secondo me con i filtri stiamo davvero qualcosa sopra la gts ovviamente nn a livello della gtx.
e poi ho potuto testare con mano le differenze visto che come te avevo anche una 8800gts da 320mb;)
poi dipende dai games in quel poco di assaggio dx10 con la demo call of juarez a parte gli infimi dettagli ma pare che gtx e 2900 con aa siano li.
cmq credo che l'utente che ha sporto la domanda intendesse in ambito vista dx9 o xp dx9 visto che nell'ambito vista dx10 c'è poco da dire.
a proposito è uscito halo2 che parte solo con vista e le dx10 sarebbe interessante capire come si comportano le nostre vga su un games che in teoria è programmato per una geforce3:D :D :D

kimi91
08-08-2007, 14:32
ho sentito dire che con i 7.8 ci saranno dei miglioramenti sensazionali, quindi si potrebbe arrivare al livello della gtx?

Nos89
08-08-2007, 14:46
nn è del tutto vero, cmq con filtri va poco più di una GTS, nn meno, a parte forse in 1 o 2 game, ma per un discorso: 1) di immaturità dei driver, e 2 per la mal programmazione del gioco

edit: spero che nn te le prenderai per questo appunto

un po si:D cmq per la questione driver ma quanto vi fate attendere:ciapet:

Scrambler77
08-08-2007, 15:24
nn è del tutto vero, cmq con filtri va poco più di una GTS, nn meno, a parte forse in 1 o 2 game, ma per un discorso: 1) di immaturità dei driver, e 2 per la mal programmazione del gioco

edit: spero che nn te le prenderai per questo appunto

Ma giusto per sapere... quand'è che sti drivers saranno "maturi"?

Nos89
08-08-2007, 15:29
Ma giusto per sapere... quand'è che sti drivers saranno "maturi"?

a saperlo:rolleyes: :muro:

TecnoWorld8
08-08-2007, 15:33
a saperlo:rolleyes: :muro:

mediamente ci vanno dai 3 ai 6 mesi per raggiungere una buona maturità dei drivers. considerando che la scheda è uscita a maggio, con i drivers di questo mese (Agosto) si dovrebbe entrare nel pieno del periodo di maturità, che culminerà a settembre/ottobre.

Nos89
08-08-2007, 15:52
mediamente ci vanno dai 3 ai 6 mesi per raggiungere una buona maturità dei drivers. considerando che la scheda è uscita a maggio, con i drivers di questo mese (Agosto) si dovrebbe entrare nel pieno del periodo di maturità, che culminerà a settembre/ottobre.

a bene proprio quando uscirà G92:D :sofico:

Vifani
08-08-2007, 16:24
Io personalmente vi invito a non nutrire speranze sovradimensionate nelle nuove revisioni di driver. Ok, qualche incremento ci potrà anche essere, sicuramente risolveranno problemi di compatibilità, ecc... però non vi aspettate una 2900 XT più veloce della GTX con i filtri perché secondo me non ci si arriverà mai (e del resto vista la differenza di prezzo non c'è proprio da aspettarselo).

overjet
08-08-2007, 16:25
Se lo dice Vifani non posso far altro che quotare. Affidandomi alla sua esperienza nel campo...

overjet
08-08-2007, 16:26
Piuttosto vifani, c'è qualche news su un'eventuale versione xtx della scheda ?!? O quanto meno una versione più prestante ?!?

zorco
08-08-2007, 16:31
Piuttosto vifani, c'è qualche news su un'eventuale versione xtx della scheda ?!? O quanto meno una versione più prestante ?!?
la hd 2900xt 1gb di poco superiore alla 512mb,ma non è reperebile sul mercato retail..

overjet
08-08-2007, 16:33
Cambia solo nella quantità di memoria oppure a frequenze GPU/MEM più elevate ?!?

Vifani
08-08-2007, 16:36
Se lo dice Vifani non posso far altro che quotare. Affidandomi alla sua esperienza nel campo...

Guarda quello che io dico su R600 è basato solo sulla mia osservazione diretta, anche perché ormai non scrivo più da quasi un anno e quindi non so niente che a voi non sia accessibile.

Io penso che il fatto che R600 non sia uscito come dovrebbe sia un dato di fatto. Il crollo della prestazioni a cui si assiste all'attivazione dei filtri è un esempio lampante che qualcosa non funziona come dovrebbe. Del resto ci si aspettava ben altro dalla prima scheda con bus a 512 bit e con quella banda passante. All'epoca si vociferava persino di un antialiasing senza perdita di prestazioni...

Senza entrare nel merito di ciò che non va in questa architettura, io non penso che AMD stia dedicando altre risorse a questo progetto. Penso che il prossimo prodotto di fascia alta con singola GPU (perché forse qualcosa dual GPU esce nel frattempo) da parte di AMD arriverà con un'architettura nuova, non prima dell'anno prossimo quindi.

Penso che il mercato single GPU di fascia alta rimarrà saldamente in mano di NVIDIA almeno fino all'uscita di R700.

zorco
08-08-2007, 16:36
Cambia solo nella quantità di memoria oppure a frequenze GPU/MEM più elevate ?!?
frequenza gpu identica per le ram hanno usato le ddr4 clokkate a 2ghz..

overjet
08-08-2007, 16:40
Guarda quello che io dico su R600 è basato solo sulla mia osservazione diretta, anche perché ormai non scrivo più da quasi un anno e quindi non so niente che a voi non sia accessibile.

Io penso che il fatto che R600 non sia uscito come dovrebbe sia un dato di fatto. Il crollo della prestazioni a cui si assiste all'attivazione dei filtri è un esempio lampante che qualcosa non funziona come dovrebbe. Del resto ci si aspettava ben altro dalla prima scheda con bus a 512 bit e con quella banda passante. All'epoca si vociferava persino di un antialiasing senza perdita di prestazioni...

Senza entrare nel merito di ciò che non va in questa architettura, io non penso che AMD stia dedicando altre risorse a questo progetto. Penso che il prossimo prodotto di fascia alta con singola GPU (perché forse qualcosa dual GPU esce nel frattempo) da parte di AMD arriverà con un'architettura nuova, non prima dell'anno prossimo quindi.

Penso che il mercato single GPU di fascia alta rimarrà saldamente in mano di NVIDIA almeno fino all'uscita di R700.

Sapevo che non scrivevi più, ma di sicuro, avendo un'esperienza più concreta rispetto al sottoscritto, volevo sapere cosa ne pensavi in merito.
Mi dispiace soltanto per AMD... Forse se ATI rimaneva per conto suo si sarebbe concentrata meglio per tirar fuori un prodotto più performante che potesse "contrastare" nvidia... Chissà...

TecnoWorld8
08-08-2007, 16:47
Io personalmente vi invito a non nutrire speranze sovradimensionate nelle nuove revisioni di driver. Ok, qualche incremento ci potrà anche essere, sicuramente risolveranno problemi di compatibilità, ecc... però non vi aspettate una 2900 XT più veloce della GTX con i filtri perché secondo me non ci si arriverà mai (e del resto vista la differenza di prezzo non c'è proprio da aspettarselo).

non per dire...ma è quanto dico dal mese di maggio...forse addirittura da aprile, dopo aver visto i primi bench di R600. ed è ciò che mi aveva "gettato nello sconforto", dato che mi attendevo MOLTO di più.

Iantikas
08-08-2007, 16:49
Io personalmente vi invito a non nutrire speranze sovradimensionate nelle nuove revisioni di driver. Ok, qualche incremento ci potrà anche essere, sicuramente risolveranno problemi di compatibilità, ecc... però non vi aspettate una 2900 XT più veloce della GTX con i filtri perché secondo me non ci si arriverà mai (e del resto vista la differenza di prezzo non c'è proprio da aspettarselo).


quoto...ki aquista questa skeda con la speranza del miracolo (prestazioni > GTX/Ultra) nn potrà ke rimanere deluso...

...affinando i driver un miglioramento c sarà...ma così come c'è in tutte le nuove arkitetture ke escono sul mercato...magari giusto un pelino superiore alla norma ma niente d +...

...io ho aquistato questa skeda ben conscio dei suoi pregi e dei suoi difetti e l'ho presa come skeda d passaggio ke mi traghetterà fino a fine anno sicuramente meglio di come avrebbe fatto la x1900xtx ke avevo prima (e, siccome lo sta già facendo, x questo ne son soddisfatto)...

...c'è la speranza ke a fine anno ancora soddisfi le mie esigenze...ma nn credo andrà così e quindi la rivenderò x prenderne un altra...

...ciao

Athlon 64 3000+
08-08-2007, 16:50
Guarda quello che io dico su R600 è basato solo sulla mia osservazione diretta, anche perché ormai non scrivo più da quasi un anno e quindi non so niente che a voi non sia accessibile.

Io penso che il fatto che R600 non sia uscito come dovrebbe sia un dato di fatto. Il crollo della prestazioni a cui si assiste all'attivazione dei filtri è un esempio lampante che qualcosa non funziona come dovrebbe. Del resto ci si aspettava ben altro dalla prima scheda con bus a 512 bit e con quella banda passante. All'epoca si vociferava persino di un antialiasing senza perdita di prestazioni...

Senza entrare nel merito di ciò che non va in questa architettura, io non penso che AMD stia dedicando altre risorse a questo progetto. Penso che il prossimo prodotto di fascia alta con singola GPU (perché forse qualcosa dual GPU esce nel frattempo) da parte di AMD arriverà con un'architettura nuova, non prima dell'anno prossimo quindi.

Penso che il mercato single GPU di fascia alta rimarrà saldamente in mano di NVIDIA almeno fino all'uscita di R700.

confermo infatti che in alcuni giochi ci siano con l'attivazione dell'AA dei crolli troppo vistosi del frame rate ma anche attivando l'af ci sono dei crolli prestazionali troppo elevati in altri giochi e poi ci sono parecchi bug da sistemare.
Una volta lessi che a maggio quando la scheda era appena uscita,un esponente di AMD disse che in dx9 le prestazioni di R600 con i driver quando arriveranno a piena maturazione ci sarebbe stato un miglioramento complessivo del 30% che è gia di per se notevole.

Iantikas
08-08-2007, 16:52
non per dire...ma è quanto dico dal mese di maggio...forse addirittura da aprile, dopo aver visto i primi bench di R600. ed è ciò che mi aveva "gettato nello sconforto", dato che mi attendevo MOLTO di più.


:D ...resta il fatto ke x quello ke costa e x quello ke offre attualmente è un ottimo aquisto...

...tu hai altre esigenze ke puntano a skede dal costo sensibilmente superiore (se poi cerki le prestazioni di una skeda da 600€ in una ke ne costa 350€ penso rimarrai "nello sconforto" a vita :D )...ma x ki cerca una skeda in questa fascia d prezzo è un ottima alternativa...ciao

zorco
08-08-2007, 17:02
quoto...ki aquista questa skeda con la speranza del miracolo (prestazioni > GTX/Ultra) nn potrà ke rimanere deluso...

...affinando i driver un miglioramento c sarà...ma così come c'è in tutte le nuove arkitetture ke escono sul mercato...magari giusto un pelino superiore alla norma ma niente d +...

...io ho aquistato questa skeda ben conscio dei suoi pregi e dei suoi difetti e l'ho presa come skeda d passaggio ke mi traghetterà fino a fine anno sicuramente meglio di come avrebbe fatto la x1900xtx ke avevo prima (e, siccome lo sta già facendo, x questo ne son soddisfatto)...

...c'è la speranza ke a fine anno ancora soddisfi le mie esigenze...ma nn credo andrà così e quindi la rivenderò x prenderne un altra...

...ciao
concordo chi acquista quasta scheda sperando che con gli aggiornamenti dei driver migliori a tal punto da superare la gtx e la ultra allora sbaglia canteggio..

cmq io di questo prodotto ne sono rimasto abbastanza soddisfatto fin da subito,avevo l'esigenza in un determinato periodo di cambiare la mia 7800gt ho preferito la hd 2900xt alla 8800gts,basta tutto quà...

zorco
08-08-2007, 17:07
:D ...resta il fatto ke x quello ke costa e x quello ke offre attualmente è un ottimo aquisto...

...tu hai altre esigenze ke puntano a skede dal costo sensibilmente superiore (se poi cerki le prestazioni di una skeda da 600€ in una ke ne costa 350€ penso rimarrai "nello sconforto" a vita :D )...ma x ki cerca una skeda in questa fascia d prezzo è un ottima alternativa...ciao
è quello che gli ripetiamo sistematicamente da quando è uscita la scheda,pero lui non vuole capì:muro:

Defragg
08-08-2007, 17:09
non per dire...ma è quanto dico dal mese di maggio...forse addirittura da aprile, dopo aver visto i primi bench di R600. ed è ciò che mi aveva "gettato nello sconforto", dato che mi attendevo MOLTO di più.

Oramai il tuo messaggio è penetrato ampiamente nelle nostre teste, non c'è più bisogno di ripeterlo costantemente. ;)

zorco
08-08-2007, 17:15
Oramai il tuo messaggio è penetrato ampiamente nelle nostre teste, non c'è più bisogno di ripeterlo costantemente. ;)
diciamo che cè la sfracellati :fagiano:

Iantikas
08-08-2007, 17:43
concordo chi acquista quasta scheda sperando che con gli aggiornamenti dei driver migliori a tal punto da superare la gtx e la ultra allora sbaglia canteggio..

cmq io di questo prodotto ne sono rimasto abbastanza soddisfatto fin da subito,avevo l'esigenza in un determinato periodo di cambiare la mia 7800gt ho preferito la hd 2900xt alla 8800gts,basta tutto quà...


stesso ragionamento ke ho fatto io...dovevo cambiare la mia ke nn mi soddisfava + e ho valutato quale gpu mi conveniva aquistare...

...dato ke a nessuna davo una longevità (x le mie esigenze) superiore ai 6 mesi ho preferito puntare a questa fascia piuttosto ke spendere d +...

...inoltre mi feci il calcolo ke vendendo la vekkia la nuova mi venne 190€...e la nuova probabilmente riuscirò a rivenderla a fine anno x questa cifra mentre tenendomi la vekkia a fine anno l'avrei venduta a niente (ammesso ke qualcuno se la fosse presa)...

...motivo x cui questa skeda è come se nn mi stesse costando niente (xkè, anke ipotizzando ke mi fossi tenuta la vekkia nn avrei ricavato poco e niente dal venderla a fine anno, lo stesso ke, sommando la spesa x la nuova, ricavo dall'aver venduta prima la vekkia e a fine anno la nuova)...

...e intanto x 6 mesi ho goduto d prestazioni maggiori rispetto a quelle ke garantiva la vekkia...

...nn so se c'avete capito niente :D ...ma il succo è ke nn x forza a ki ha una 1900xt/xtx conveniva tenersela fino a fine anno...ma aveva senso anke venderla a fine giugno x prendersi R600 x poi rivendere R600 a fine anno e prendersene un altra...ciao :D

TecnoWorld8
08-08-2007, 18:10
Oramai il tuo messaggio è penetrato ampiamente nelle nostre teste, non c'è più bisogno di ripeterlo costantemente. ;)

dato che quando Vifani ha detto quanto ha detto tutti sono stati concordi nel dargli ragione, facevo solo notare che è quanto io dico da mesi, sentendomi però dar contro perchè dicevo di esser stato deluso.

Iantikas: io sono in effetti disposto a spendere 550/650€ per una scheda al top e li avrei spesi MOLTO volentieri per R600 se tale fosse stata, come speravo. Li ho da parte per quello scopo e li destinerò alla prima scheda che rappresenti un vero nuovo passo avanti per la grafica 3D, sperando che arrivi prima possibile, sapendo che poi per un anno e mezzo almeno non dovrò fare altri investimenti per giocare al top.

Ho fatto lo stesso ragionamento un anno fa con la CPU, scheda madre e RAM e infatti, domani compiono un anno e non sento minimamente il bisogno di cambiarle...

Defragg
08-08-2007, 18:14
dato che quando Vifani ha detto quanto ha detto tutti sono stati concordi nel dargli ragione, facevo solo notare che è quanto io dico da mesi, sentendomi però dar contro perchè dicevo di esser stato deluso.

Appunto, basta...oramai si sà il tuo pensiero e dici sempre le stesse cose trite e ritrite...sei deluso da R600? Bene, prenditi una 8800 GTX e non pensarci più. ;)

TecnoWorld8
08-08-2007, 18:19
Appunto, basta...oramai si sà il tuo pensiero e dici sempre le stesse cose trite e ritrite...sei deluso da R600? Bene, prenditi una 8800 GTX e non pensarci più. ;)

saranno trite e ritrite, ma dal tuo consiglio, direi che non hai capito le mie esigenze nonostante le tante volte che dici di averle sentite...

RIPETO: io ho riscritto qui, dopo che avevo detto che non l'avrei più fatto, solo perchè Vifani ha detto ORA ciò che ripeto da 4 mesi e tutti hanno quotato quanto ha detto come una cosa giusta e nuova. Allora ho fatto notare come io lo stia dicendo da prima ancora che esca R600, dopo averne visti i bench preliminari.

E non sono interessato ad una scheda di 8 mesi di vita che comunque va poco più di R600, sono interessato ad una nuova generazione, che speravo fosse R600, invece sarà G92 o R700 o come si chiamerà, quando finalmente si decideranno a far muovere il mercato che sembra essersi paralizzato, dopo che per anni ha corso.

PUNTO.

Defragg
08-08-2007, 18:38
saranno trite e ritrite, ma dal tuo consiglio, direi che non hai capito le mie esigenze nonostante le tante volte che dici di averle sentite...

RIPETO: io ho riscritto qui, dopo che avevo detto che non l'avrei più fatto, solo perchè Vifani ha detto ORA ciò che ripeto da 4 mesi e tutti hanno quotato quanto ha detto come una cosa giusta e nuova. Allora ho fatto notare come io lo stia dicendo da prima ancora che esca R600, dopo averne visti i bench preliminari.

E non sono interessato ad una scheda di 8 mesi di vita che comunque va poco più di R600, sono interessato ad una nuova generazione, che speravo fosse R600, invece sarà G92 o R700 o come si chiamerà, quando finalmente si decideranno a far muovere il mercato che sembra essersi paralizzato, dopo che per anni ha corso.

PUNTO.

Allora aspetta, mai nutrire troppa fiducia nelle cose, si può rimanere delusi. ;)

Catan
08-08-2007, 18:43
non è una questione di scrivere o non crvere o di aspettative o meno.
mediamnte di quanto sono aumentate le 8800 series in prstazioni dall'uscita a 6 mesi dopo cioè alla review della presentazione?in media un 20%...
è plausibile che r600 in 6 mesi quindi er novembre dicembre dovrebbe avereprestazone in questo ordine di grandezza percentuale rispetto alle sue prestazioni alla presentazione.
ergo i sembra performaces che vvicineranovrso la gtx e in alcuni csi forse superarla.
cioè mentre a maggio lo scenario era r600 con i filtri v come una 8800gts mentre senza come una gtx.
potrebbe diventare r600 con i filtri va tra una gts e ua gtx e senza va come un gtx.
i problema è ache vedere il bnco di prova delle dx10.
quale archittura sarà migliore?ricordo cmq che anche se olti reputano l'arciettura r600 migliore in dx10 pr via di u maggiore numero di shader o per una maggore efficenza degli stessi ricordo che cmq la gts ha gli shader clokkati a 1200mhz mentre la gtx li ha a 1350 e quelli di r600 restano sempre clokkati a 740hz ergo g80 ha tutta una potenz elaborativ bruta per supplire alla sua presunta inor efficenzaella gestione delle dx10.

poi ragazzi sesta sempre il discorso vi soddisfa la 8800gt?si vi soddisfa la hd2900?si vi soddisfa la 8800gts?si....e allora divertiamo con i gioci invece d passare pomeriggi a vedere quell cvolo di draghetto del 3dmark:D :D :D

TecnoWorld8
08-08-2007, 18:43
Allora aspetta, mai nutrire troppa fiducia nelle cose, si può rimanere delusi. ;)

sacrosanto :muro:

carver
08-08-2007, 18:54
che palle!
xche' invece di scrivere su CIOì' CHE POTREBBE fare.. non si scrive su cio' che fa?
e poi chissene.. dei confronti con la gts!

jim91my
08-08-2007, 18:57
poi ragazzi sesta sempre il discorso vi soddisfa la 8800gt?si vi soddisfa la hd2900?si vi soddisfa la 8800gts?si....e allora divertiamo con i gioci invece d passare pomeriggi a vedere quell cvolo di draghetto del 3dmark:D :D :D

quotone di brutto!! chai proprio ragione catan!!

corradobernardi
08-08-2007, 20:12
A parte che quest 3d servirebbe per tenere aggiornati gli interessati all acquisto e gli interessati possessori, di novità, tweaks, configurazioni e dati... sono stato bacchettato in altri 3d per molto meno... qua invece regna il solito fanboysmo.

Il mio punto di vista che può interessare o meno è questo... riflessioni su hd2900xt

- ho una mobo 975x che mi supporta crossfire.
- esce una scheda video di fascia medio-alta ati con cui potrei fare un giorno crossfire ad un prezzo ragionevole
- è compatibile dx10
- il layout è perfetto.. non come quei dissipatori del piffero nvidia
- ha delle caratteristiche che in videoediting e encoding potrebbero farmi molto comodo
- sulla carta ha banda passante a volontà, coreclock ottimo, voltaggi regolabili via drivers, architettura streamprocessors.
- drivers migliorabili

a me bastano questi pochi motivi per scegliere ati invece di nvidia... discorso sarebbe molto diverso se avessi una mobo 680i (ahimè non era ancora uscito il 680i a settembre 2006) e avrei optato per una 8800gts per un eventuale SLI

punti a sfavore

- drivers ciofeca
- titoli ottimizzati su gpu nvidia (d'altra parte r600 era atteso da tantissimo)
- consumi da gtx perchè l'hardware di questa scheda sarebbe paragonabile a gtx se avesse l'efficenza della serie 8800
- poche unità raster

quindi finiamola con questi confronti con la gtx... la scheda non è uscita con l'intento di riprendere lo scettro delle gpu, ma con l'intento di vendere una scheda in un periodo di assestamento dell acquisizione ati... per me l'unica cosa veramente importante è valutare il livello prestazioni/costo, piattaforma su cui deve girare per avere un minimo di ciclo di vita (crossfire eventuale)

pregherei tutti i fanboy sia amd che nvidia di lasciare da parte le solite frasi trite e ritrite che vengono automaticamente scritte da giugno. per favore, lasciamo questo 3d a sviluppi interessanti, che i soliti pronostici e tifoserie hanno seriamente cartavetrato i sacrosanti.

Iantikas
08-08-2007, 20:34
A parte che quest 3d servirebbe per tenere aggiornati gli interessati all acquisto e gli interessati possessori, di novità, tweaks, configurazioni e dati... sono stato bacchettato in altri 3d per molto meno... qua invece regna il solito fanboysmo.

Il mio punto di vista che può interessare o meno è questo... riflessioni su hd2900xt

- ho una mobo 975x che mi supporta crossfire.
- esce una scheda video di fascia medio-alta ati con cui potrei fare un giorno crossfire ad un prezzo ragionevole
- è compatibile dx10
- il layout è perfetto.. non come quei dissipatori del piffero nvidia
- ha delle caratteristiche che in videoediting e encoding potrebbero farmi molto comodo
- sulla carta ha banda passante a volontà, coreclock ottimo, voltaggi regolabili via drivers, architettura streamprocessors.
- drivers migliorabili

a me bastano questi pochi motivi per scegliere ati invece di nvidia... discorso sarebbe molto diverso se avessi una mobo 680i (ahimè non era ancora uscito il 680i a settembre 2006) e avrei optato per una 8800gts per un eventuale SLI

punti a sfavore

- drivers ciofeca
- titoli ottimizzati su gpu nvidia (d'altra parte r600 era atteso da tantissimo)
- consumi da gtx perchè l'hardware di questa scheda sarebbe paragonabile a gtx se avesse l'efficenza della serie 8800
- poche unità raster

quindi finiamola con questi confronti con la gtx... la scheda non è uscita con l'intento di riprendere lo scettro delle gpu, ma con l'intento di vendere una scheda in un periodo di assestamento dell acquisizione ati... per me l'unica cosa veramente importante è valutare il livello prestazioni/costo, piattaforma su cui deve girare per avere un minimo di ciclo di vita (crossfire eventuale)

pregherei tutti i fanboy sia amd che nvidia di lasciare da parte le solite frasi trite e ritrite che vengono automaticamente scritte da giugno. per favore, lasciamo questo 3d a sviluppi interessanti, che i soliti pronostici e tifoserie hanno seriamente cartavetrato i sacrosanti.


nn x polemica ma nn'è ke i punti a favore sfavore di una e dell'altra siano tanto validi (soprattutto il valutare in base a CF/SLI)...cmq son i tuoi e li accetto...

...solo ke dato ke parli d CF/SLI nn hai pensato ke il tuo ali è insufficente x un CF d HD2900XT...mentre sarebbe sufficente x uno SLI d GTS....e a quel punto con la spesa x un nuovo ali da 700/750 c compri una mobo basata su 650i sli (oppure con anke i soldi guadagnati rivendendo la tua su 680lt) e la soluzione SLI d GTS diviene quella + favorevole :D ...

...ciao

Defragg
08-08-2007, 20:42
...solo ke dato ke parli d CF/SLI nn hai pensato ke il tuo ali è insufficente x un CF d HD2900XT...mentre sarebbe sufficente x uno SLI d GTS....e a quel punto con la spesa x un nuovo ali da 700/750 c compri una mobo basata su 650i sli (oppure con anke i soldi guadagnati rivendendo la tua su 680lt) e la soluzione SLI d GTS diviene quella + favorevole :D ...

Ma certo, è più conveniente prendere una mainboard e 2 vga piuttosto che alimentatore e una vga. :asd:
Tra l'altro per un paragone corretto dovrebbe prendere una 680i LT, e non una 650i...per mantenere le schede equivalenti PCI-e 16x+16x, invece degli 8x+8x del 650i. ;)

Iantikas
08-08-2007, 20:46
Ma certo, è più conveniente prendere una mainboard e 2 vga piuttosto che alimentatore e una vga. :asd:
Tra l'altro per un paragone corretto dovrebbe prendere una 680i LT, e non una 650i...per mantenere le schede equivalenti PCI-e 16x+16x, invece degli 8x+8x del 650i. ;)


nn era un post da prendere tanto sul serio (il mio) :D ...


...cmq il 975 ha 8/8 in CF ;) ...ciao

Defragg
08-08-2007, 20:50
nn era un post da prendere tanto sul serio (il mio) :D ...


...cmq il 975 ha 8/8 in CF ;) ...ciao

Sorry confuso :p , il 16x+16x(+8x) lo fà l'X38, mentre il P35 e il 965P hanno l'8x+4x

M4R1|<
08-08-2007, 21:03
allora ho letto queste due pagine di commenti, e adesso mi sorge una domanda che rivolgo a quelli come Vifani, o altri che hanno una esperienza nettamente superiore alla mia:

è possibile che un'architettura come R600, dove nn c'è quasi nulla delle passate generazioni dx9, dove anche a livello di potenza elaborativa (circa 440gflops) è superiore, dove ci sono feature mostruose abbia queste prestazioni scandalose, sia in dx9 che in dx10, cosa che nn è possibile visto che è stata progettata proprio per quest'ultime?
e lasciatemi passare il termine "scandaloso" perchè per chi come me sogna questa gpu fin dai primi 3d di aspettando r600, si aspettavo davvero delle prestazioni diverse, e nn di una gts quasi gtx che cmq essondo assai potente come scheda è cmq "vecchia" a livello architetturale.

edit: adesso so che molti di voi mi tireranno ditro chi sa cosa, ma sinceramente vorrei delle risposte, e credo che in verità le vogliate anche voi

Catan
08-08-2007, 22:03
allora ho letto queste due pagine di commenti, e adesso mi sorge una domanda che rivolgo a quelli come Vifani, o altri che hanno una esperienza nettamente superiore alla mia:

è possibile che un'architettura come R600, dove nn c'è quasi nulla delle passate generazioni dx9, dove anche a livello di potenza elaborativa (circa 440gflops) è superiore, dove ci sono feature mostruose abbia queste prestazioni scandalose, sia in dx9 che in dx10, cosa che nn è possibile visto che è stata progettata proprio per quest'ultime?
e lasciatemi passare il termine "scandaloso" perchè per chi come me sogna questa gpu fin dai primi 3d di aspettando r600, si aspettavo davvero delle prestazioni diverse, e nn di una gts quasi gtx che cmq essondo assai potente come scheda è cmq "vecchia" a livello architetturale.

edit: adesso so che molti di voi mi tireranno ditro chi sa cosa, ma sinceramente vorrei delle risposte, e credo che in verità le vogliate anche voi


guarda potrei risponderti in una maniera molto semplice.
la vga non ha mantenuto le sue aspettative è successo in passato quanto tutti hanno aspettato nv30 cioè la 5800ultra e invece andava meno di delle 9700pro uscite 6 mesi prima.
puo essere capitato anche questa volta in maniera minore.
cerchiamo le attenuanti?
una fusione ati amd che ha frenato in una certa misura il rilascio di questa vga poichè amd aveva bisogno di tempo per capire le dinamiche di marcheting del mercato vga.
fondamentalmente per quanto una archidettura possa essere potente a volte non è vero che sia anche la + efficacie.
su r600 si è detto molto e tanto il bus a 512bit ha fatto "sognare" molti forse xè considerato una soluzione + tecnologicamente appetibile rispetto al "vecchio" ma pur sempre efficacie crossbar adottato da nvidia, molti hanno storto il naso sull'aumento di banda aumentando di 2 o 4 canli a 32bit con blocchi da 2 o 4 32mb o 64mb di ram(sarebbero stati gli 8 canali soliti da 32bit per fare i 256bit+ i 64 per i 320bit della gts e i 128 per i 384bit della gtx)
una soluzione che manco a me fa impazzire ma cmq efficente.
di fatto ci mettiamo anche che nvidia ha azzeccato meglio i tempi.
invece di sparare subito con una archidettura fortemente sbilanciata al dx10 ha studiato una archidettura oggettivamente potente e performate in dx9 senza scordare di dare una discreta potenza in dx10, senza contare che il banco di prova non è dx10 visto che c'è un solo gioco dx10 e per di + è una demo e dove el vga fanno registrare risultati pessimi.

forse qualcuno ha gia rimosso ma purtroppo questa volta mi è sembrato di vedere a parti invertite ed in maniera minore quello che avvenne all'uscita della 5800ultra aveva le sue dx9 e i suoi sm2.0a le sue ddr2 ma alla prova dei fatti usciva bastonata sulle dx8.1 e sulle dx9 dalla vecchia 9700pro di 6 mesi prima.
ovviamente non sto paragonando le 2 situazioni ma nella storia delle vga è possibile che alcune scelte se pur tecnologicamente avanzate possano riternersi controproducenti se confrontate con un mercato in cui queste scelte sono condivise da una minoranza e non da una maggioranza.

ad ati serve tempo per imparare a sfruttare il ringbus a 1024bit cosi programmabile oltre che il processore, nvidia si è trovata nella situazione di doversi concentrare per 80% del tempo solo sul core poiche il controler crossbar cosi funziona e non è che lo puoi programmare in maniera cosi libera come il ringbus.

ati ha prodotto una vga che virtualmente puo essere adattata ad ogni tipo di software ma ci vuole tempo ergo lo sforzo dei programmatori deve essere superiore a quello nvidia e oggettivamente non sò se ad ati ci sia questo reparto sf cosi sviluppato(non in qualità ma in quantità sono sempre persone che lavorano 8 ore al giorno non è che le possiamo far lavorare di notte).

tocca vedere se per il momento la strada seguita da ati verrà sfruttata.
sicuramente è quella giusta ma dipende da quando verrà sfruttata.
se poi questa strada verrà sfruttata tra 6 mesi o 12 mesi (che cmq sono 2 ERE informatiche) con r700 o g90 non è che ci sarà da dire brava ati che gia avevi tracciato la via con r600 visto che quello che proponeva è stato adottato 6 mesi dopo e vuol dire che io da prossessore di r600 non vedro mai sfruttata sta vga xè tra 12 mesi sarà gia ora di sostituirla.
e in quest'ottica la migliore scelta l'avrebbe fatta nvidia dando alla sua clientela una vga performate in dx9 e anche in dx10 un ottimo ibrido per un periodo ibrido(poi io parlo di ibrido che ibrido non è l'archidettura è full dx10 ma evidentemente è anche molto performante in dx9 là dove r600ha qualche problema per una scelta di fare aa in shader core e non in rop's che sia scelta voluto o meno non lo so(bug hw, sf o dei dvr?) ma sta di fatto che è una limitazione che azzoppa la scheda difronte alla concorrenza offrendo de facto qualcosa in meno.)

Pat77
08-08-2007, 22:03
ma sinceramente vorrei delle risposte, e credo che in verità le vogliate anche voi

La verità è che questa scheda non ha prestazioni scandalose :D

NvidiaMen
08-08-2007, 22:24
PREMESSA ANTI-FLAME
Quando mi iscrissi in questo forum ero un giovincello fanboy nVidia, tant'è vero che oggi porto con il mio nick quell'originario, quanto imparziale, senso di appartenenza ad una marca. Col tempo ho iniziato a distaccarmi non tanto dall'affezionamento al marchio, quanto dal modo di continuare imperterrito a vedere le cose in modo univoco e parziale. Oggi credo di poter affermare di essere uno spirito libero e di essere in grado di lasciare punti di vista personali, giusti o sbagliati che siano, affrontando comunque le questioni, in particolare quelle riguardanti le architetture hardware relativamente al medio periodo, attraverso considerazioni legate non solo alle disquisizioni prettamente tecniche, ma anche alle direzioni del mercato ed agli accordi tra produttori software ed hardware.

CONSIDERAZIONE
Circa R600 sin dall'inizio (basta leggere i miei interventi nelle prime pagine di questo thread) ho sempre affermato che tale GPU non avrebbe mai potuto porsi davanti ad una GTX in DX9, ma con altrettanta determinazione ho sempre ribadito e ribadisco tuttora che in DX10, non appena i primi veri applicativi che sfruttano tali API saranno disponibili, la serie 8800 di nVidia mostrerà le sue enormi limitatazioni rispetto alla GPU di casa AMD. Fortuna che per quel periodo ci sarà G92 che, spero, possa davvero impensierire le GPU canadesi in quanto a complessità e versalità in particolare alla luce dell'ampia programmabilità permessa dal chip e fondamentale per la gestione della fisica e degli effetti luce in HDR. Occorre anche tenere in conto che la GPU di XBox360 è ATi, per cui alla luce di questa certo non trascurabile collaborazione, nessuno più dei canadesi può essere a conoscenza come e soprattutto cosa, le nuove librerie Microsoft DX10 e successive, richiedono alle GPU per esprimere tutte le loro potenzialità.
Tutto ovviamente e assolutamente IMHO.
NM.

M4R1|<
08-08-2007, 22:26
guarda potrei risponderti in una maniera molto semplice.
la vga non ha mantenuto le sue aspettative è successo in passato quanto tutti hanno aspettato nv30 cioè la 5800ultra e invece andava meno di delle 9700pro uscite 6 mesi prima.
puo essere capitato anche questa volta in maniera minore.
cerchiamo le attenuanti?
una fusione ati amd che ha frenato in una certa misura il rilascio di questa vga poichè amd aveva bisogno di tempo per capire le dinamiche di marcheting del mercato vga.
fondamentalmente per quanto una archidettura possa essere potente a volte non è vero che sia anche la + efficacie.
su r600 si è detto molto e tanto il bus a 512bit ha fatto "sognare" molti forse xè considerato una soluzione + tecnologicamente appetibile rispetto al "vecchio" ma pur sempre efficacie crossbar adottato da nvidia, molti hanno storto il naso sull'aumento di banda aumentando di 2 o 4 canli a 32bit con blocchi da 2 o 4 32mb o 64mb di ram(sarebbero stati gli 8 canali soliti da 32bit per fare i 256bit+ i 64 per i 320bit della gts e i 128 per i 384bit della gtx)
una soluzione che manco a me fa impazzire ma cmq efficente.
di fatto ci mettiamo anche che nvidia ha azzeccato meglio i tempi.
invece di sparare subito con una archidettura fortemente sbilanciata al dx10 ha studiato una archidettura oggettivamente potente e performate in dx9 senza scordare di dare una discreta potenza in dx10, senza contare che il banco di prova non è dx10 visto che c'è un solo gioco dx10 e per di + è una demo e dove el vga fanno registrare risultati pessimi.

forse qualcuno ha gia rimosso ma purtroppo questa volta mi è sembrato di vedere a parti invertite ed in maniera minore quello che avvenne all'uscita della 5800ultra aveva le sue dx9 e i suoi sm2.0a le sue ddr2 ma alla prova dei fatti usciva bastonata sulle dx8.1 e sulle dx9 dalla vecchia 9700pro di 6 mesi prima.
ovviamente non sto paragonando le 2 situazioni ma nella storia delle vga è possibile che alcune scelte se pur tecnologicamente avanzate possano riternersi controproducenti se confrontate con un mercato in cui queste scelte sono condivise da una minoranza e non da una maggioranza.

ad ati serve tempo per imparare a sfruttare il ringbus a 1024bit cosi programmabile oltre che il processore, nvidia si è trovata nella situazione di doversi concentrare per 80% del tempo solo sul core poiche il controler crossbar cosi funziona e non è che lo puoi programmare in maniera cosi libera come il ringbus.

ati ha prodotto una vga che virtualmente puo essere adattata ad ogni tipo di software ma ci vuole tempo ergo lo sforzo dei programmatori deve essere superiore a quello nvidia e oggettivamente non sò se ad ati ci sia questo reparto sf cosi sviluppato(non in qualità ma in quantità sono sempre persone che lavorano 8 ore al giorno non è che le possiamo far lavorare di notte).

tocca vedere se per il momento la strada seguita da ati verrà sfruttata.
sicuramente è quella giusta ma dipende da quando verrà sfruttata.
se poi questa strada verrà sfruttata tra 6 mesi o 12 mesi (che cmq sono 2 ERE informatiche) con r700 o g90 non è che ci sarà da dire brava ati che gia avevi tracciato la via con r600 visto che quello che proponeva è stato adottato 6 mesi dopo e vuol dire che io da prossessore di r600 non vedro mai sfruttata sta vga xè tra 12 mesi sarà gia ora di sostituirla.
e in quest'ottica la migliore scelta l'avrebbe fatta nvidia dando alla sua clientela una vga performate in dx9 e anche in dx10 un ottimo ibrido per un periodo ibrido(poi io parlo di ibrido che ibrido non è l'archidettura è full dx10 ma evidentemente è anche molto performante in dx9 là dove r600ha qualche problema per una scelta di fare aa in shader core e non in rop's che sia scelta voluto o meno non lo so(bug hw, sf o dei dvr?) ma sta di fatto che è una limitazione che azzoppa la scheda difronte alla concorrenza offrendo de facto qualcosa in meno.)

in fin dei conti io sono abbastanza informato su altri aspetti dell'informatica ma per quanto riguarda questo sono un po' acerbo.

grazie per la spiegazione :):)

M4R1|<
08-08-2007, 22:36
La verità è che questa scheda non ha prestazioni scandalose :D

si è vero nn sono scandalose, ma nn sono quelle che mi aspettavo; anche perchè in molti erano convinti che ati avrebbe tirato fuori un mostro più mostro di g80.
va be fa niente, vuol dire che alla prossima generazione g92/r700 prima di comprarla voglio vedere molto bene come gira la musica

M4R1|<
08-08-2007, 22:41
PREMESSA ANTI-FLAME
Quando mi iscrissi in questo forum ero un giovincello fanboy nVidia, tant'è vero che oggi porto con il mio nick quell'originario, quanto imparziale, senso di appartenenza ad una marca. Col tempo ho iniziato a distaccarmi non tanto dall'affezionamento al marchio, quanto dal modo di continuare imperterrito a vedere le cose in modo univoco e parziale. Oggi credo di poter affermare di essere uno spirito libero e di essere in grado di lasciare punti di vista personali, giusti o sbagliati che siano, affrontando comunque le questioni, in particolare quelle riguardanti le architetture hardware relativamente al medio periodo, attraverso considerazioni legate non solo alle disquisizioni prettamente tecniche, ma anche alle direzioni del mercato ed agli accordi tra produttori software ed hardware.

CONSIDERAZIONE
Circa R600 sin dall'inizio (basta leggere i miei interventi nelle prime pagine di questo thread) ho sempre affermato che tale GPU non avrebbe mai potuto porsi davanti ad una GTX in DX9, ma con altrettanta determinazione ho sempre ribadito e ribadisco tuttora che in DX10, non appena i primi veri applicativi che sfruttano tali API saranno disponibili, la serie 8800 di nVidia mostrerà le sue enormi limitatazioni rispetto alla GPU di casa AMD. Fortuna che per quel periodo ci sarà G92 che, spero, possa davvero impensierire le GPU canadesi in quanto a complessità e versalità in particolare alla luce dell'ampia programmabilità permessa dal chip e fondamentale per la gestione della fisica e degli effetti luce in HDR. Occorre anche tenere in conto che la GPU di XBox360 è ATi, per cui alla luce di questa certo non trascurabile collaborazione, nessuno più dei canadesi può essere a conoscenza come e soprattutto cosa, le nuove librerie Microsoft DX10 e successive, richiedono alle GPU per esprimere tutte le loro potenzialità.
Tutto ovviamente e assolutamente IMHO.
NM.

il discorso fila, spero che si attui, tutto qua

Scrambler77
08-08-2007, 22:54
Guarda quello che io dico su R600 è basato solo sulla mia osservazione diretta, anche perché ormai non scrivo più da quasi un anno e quindi non so niente che a voi non sia accessibile.

Io penso che il fatto che R600 non sia uscito come dovrebbe sia un dato di fatto. Il crollo della prestazioni a cui si assiste all'attivazione dei filtri è un esempio lampante che qualcosa non funziona come dovrebbe. Del resto ci si aspettava ben altro dalla prima scheda con bus a 512 bit e con quella banda passante. All'epoca si vociferava persino di un antialiasing senza perdita di prestazioni...

Senza entrare nel merito di ciò che non va in questa architettura, io non penso che AMD stia dedicando altre risorse a questo progetto. Penso che il prossimo prodotto di fascia alta con singola GPU (perché forse qualcosa dual GPU esce nel frattempo) da parte di AMD arriverà con un'architettura nuova, non prima dell'anno prossimo quindi.

Penso che il mercato single GPU di fascia alta rimarrà saldamente in mano di NVIDIA almeno fino all'uscita di R700.

Come non quotare.

Per un attimo ho avuto addirittura l'impressione di non trovarmi su hwupgrade! :ciapet:

Scrambler77
08-08-2007, 23:23
CONSIDERAZIONE
Circa R600 sin dall'inizio (basta leggere i miei interventi nelle prime pagine di questo thread) ho sempre affermato che tale GPU non avrebbe mai potuto porsi davanti ad una GTX in DX9, ma con altrettanta determinazione ho sempre ribadito e ribadisco tuttora che in DX10, non appena i primi veri applicativi che sfruttano tali API saranno disponibili, la serie 8800 di nVidia mostrerà le sue enormi limitatazioni rispetto alla GPU di casa AMD. Fortuna che per quel periodo ci sarà G92 che, spero, possa davvero impensierire le GPU canadesi in quanto a complessità e versalità in particolare alla luce dell'ampia programmabilità permessa dal chip e fondamentale per la gestione della fisica e degli effetti luce in HDR. Occorre anche tenere in conto che la GPU di XBox360 è ATi, per cui alla luce di questa certo non trascurabile collaborazione, nessuno più dei canadesi può essere a conoscenza come e soprattutto cosa, le nuove librerie Microsoft DX10 e successive, richiedono alle GPU per esprimere tutte le loro potenzialità.
Tutto ovviamente e assolutamente IMHO.
NM.

Il fatto che G80 abbia "enormi limitazioni" sulle api DX10 è una forzatura opinabile. Primo perchè non hai le informazioni necessarie per affermarlo e, secondo, perchè allo stato attuale l'unico titolo dx10 disponibile "alla massa" è Lost Planet, che oggi gioco a 1920x1200 alla media di 60fps sulla config in sign.

Potrai dirmi che è un "giochillo" frutto del porting da una piattaforma "scrausa" che con le api dx10 c'ha poco a che fare, ma fatto sta che è un titolo dx10 giocabilissimo nonostante le fantomatiche "enormi limitazioni" a cui accenni senza entrare nel merito tecnico della questione. Crysis sarà la spada di damocle (in questo ambito), e non mi pare che crytech si sia imbattuta in queste "enormi limitazioni" di cui parli per svilupparne l'engine.

Allora se da un lato ridimensioniamo il fatto che ATi abbia dato alla luce R600 con ambizioni più modeste rispetto a quelle che molti hanno voluto farci credere, dobbiamo anche argomentare sui titoli dx10 che, guarda caso, restano l'ultima spiaggia nelle giustificazioni alle performance finora "deludenti" (e nota bene: "deludenti" != "scadenti") le quali anche un moderatore quì dentro ha avuto finalmente il coraggio di constatare (e me ne congratulo).

E' innegabile che R600 aveva propositi megalomani, e si evince dal coraggio di ATi nell'introdurre questa architettura parecchio "fuori dagli schemi" (tanto di cappello), ma non c'è scritto da nessuna parte che siccome è ATi allora è il meglio sul mercato.

E sottolineo che prima al posto di G80 avevo R580... e se R700 sarà migliore di G92, sarò ben lieto di spendere i miei prossimi 600 euro per una ATi, ma sempre per avere nel case il top disponibile sul mercato (discorso impersonale), non il top disponibile ad ATi o nVidia...

Nos89
08-08-2007, 23:29
Il fatto che G80 abbia "enormi limitazioni" sulle api DX10 è una forzatura opinabile. Primo perchè non hai le informazioni necessarie per affermarlo e, secondo, perchè allo stato attuale l'unico titolo dx10 disponibile "alla massa" è Lost Planet, che oggi gioco a 1920x1200 alla media di 60fps sulla config in sign.

Potrai dirmi che è un "giochillo" frutto del porting da una piattaforma "scrausa" che con le api dx10 c'ha poco a che fare, ma fatto sta che è un titolo dx10 giocabilissimo nonostante le fantomatiche "enormi limitazioni" a cui accenni senza entrare nel merito tecnico della questione. Crysis sarà la spada di damocle (in questo ambito), e non mi pare che crytech si sia imbattuta in queste "enormi limitazioni" di cui parli per svilupparne l'engine.

Allora se da un lato ridimensioniamo il fatto che ATi abbia dato alla luce R600 con ambizioni più modeste rispetto a quelle che molti hanno voluto farci credere, dobbiamo anche argomentare sui titoli dx10 che, guarda caso, restano l'ultima spiaggia nelle giustificazioni alle performance finora "deludenti" (e nota bene: "deludenti" != "scadenti") le quali anche un moderatore quì dentro ha avuto finalmente il coraggio di constatare (e me ne congratulo).

E' innegabile che R600 aveva propositi megalomani, e si evince dal coraggio di ATi nell'introdurre questa architettura parecchio "fuori dagli schemi" (tanto di cappello), ma non c'è scritto da nessuna parte che siccome è ATi allora è il meglio sul mercato.

E sottolineo che prima al posto di G80 avevo R580... e se R700 sarà migliore di G92, sarò ben lieto di spendere i miei prossimi 600 euro per una ATi, ma sempre per avere nel case il top disponibile sul mercato (discorso impersonale), non il top disponibile ad ATi...

Quotone
:)

Iantikas
09-08-2007, 00:04
allora ho letto queste due pagine di commenti, e adesso mi sorge una domanda che rivolgo a quelli come Vifani, o altri che hanno una esperienza nettamente superiore alla mia:

è possibile che un'architettura come R600, dove nn c'è quasi nulla delle passate generazioni dx9, dove anche a livello di potenza elaborativa (circa 440gflops) è superiore, dove ci sono feature mostruose abbia queste prestazioni scandalose, sia in dx9 che in dx10, cosa che nn è possibile visto che è stata progettata proprio per quest'ultime?
e lasciatemi passare il termine "scandaloso" perchè per chi come me sogna questa gpu fin dai primi 3d di aspettando r600, si aspettavo davvero delle prestazioni diverse, e nn di una gts quasi gtx che cmq essondo assai potente come scheda è cmq "vecchia" a livello architetturale.

edit: adesso so che molti di voi mi tireranno ditro chi sa cosa, ma sinceramente vorrei delle risposte, e credo che in verità le vogliate anche voi

secondo me il ragionamento è sbagliato alla base...io tutte queste "feature mostruose" nn le vedo...

...una skeda vincente nn'è una skeda da un paio d grandi numeri ma una ke ha un'arkitettura equilibrata nei confronti delle rikieste del parco gioki nel qualke verrà utilizzata...

...pensa ke io sono anke fermamente covinto ke il normale AA d tipo box lo faccia nelle RBE (e usi gli shader solo x i CFAA)...il motivo del calo? 16 RBE a 740mhz quello riescono a fare e fan da collo d bottiglia alle "normali" prestazioni ke la skeda esprime senza AA...con i CFAA, nei quali vengono usati gli shader le prestazioni calano ancora d +...

...daltronde io d tutta questa storia nata sull'AA fatto via shader ho letto solo supposizioni e illazioni ma mai niente d certo e ufficiale...

...i 512bit? danno una mano ma nn vengono pienamente coadiuvati dalle 16 RBE, sia in presenza d filtri ke nn, ke nn riescono a sfruttare pienamente la banda torrenziale loro offerta...

...i 320sp?...x via dell'arkitettura scelta nn sempre esprimeranno tutto il loro potenziale anke se cmq sarranno sempre + vicini ad esprimerlo ke tutto ke quasi niente...

...alla fine i risultati ke da la skeda dipendono essenzialmente da come è fatta l'applicazione in cui la si usa...questo lo si può vedere da un test coe il 3dmark06 ke seppur sciocco ha una sua utilità dato ke si sa alla perfezione come sono stati scirtti i test, cosa rikiedono e quali parti della skeda enfatizzano...tutti sappiamo i risultati ke da facendo il test d default, prestazioni paragonabili alla GTX ke dimostrano come in potenza d calcolo le skede s equivalgono...abilitando xò i filtri (4xAA 16xAF) anke rimanendo a 1280x1024 si nota come nel primo test

http://img460.imageshack.us/img460/4381/6dm14xfj5.th.gif (http://img460.imageshack.us/my.php?image=6dm14xfj5.gif)

...ke dipede molto dalle potenzxialità della skeda con le texture, si veda il punto debole della hd2900xt...dove le prestazioni son appunto quelle ke ci si aspetta da 16 RBE a 740mhz (leggermente perfezionate) rispetto alle 16 RBE a 650mhz della x1950xtx (nn centra l'AA via shader o qualunque altra cosa è proprio ke la skeda quello può fare in quelle condizioni...magari il risultato migliorando i driver potrà migliorare un pokino ma cmq niente d trascendentale)


...nei test sm3.0, ke pongono invece l'enfasi molto + sull'operazioni con gli shader piuttsoto ke sulle texture, il quadro (com'è giusto ke sia appunto x l'arkitettura d R600) cambia...

... http://img460.imageshack.us/img460/9555/6dm34xdq0.th.gif (http://img460.imageshack.us/my.php?image=6dm34xdq0.gif) ...

... http://img127.imageshack.us/img127/1821/6dm44xkz3.th.gif (http://img127.imageshack.us/my.php?image=6dm44xkz3.gif) ...

...e nel primo dei due test passa leggermente la GTS, mentre nel secondo, ke è ancora meno dipendente dalle operazioni sulle texture, arriva quasi alla GTX...


...lo stesso funziona nei gioki...nei gioki molto dipendenti dalle texture senza filtri riesci cmq ad andre vicino alla GTX, con i filtri cade ai livelli di una GTS e a volte anke peggio (risollevandosi solo a ris estremamente elevate proprio grazie ai 512bit e alla banda torrenziale)...nei gioki invece ke pongono maggiore enfasi sulle operazioni con gli shader e dall'elevato rapporto ALU:TEX senza filtri è ai livelli di una GTX e a volte la supera anke...con i filtri nn può xò compensare con il resto il deficit ke ha in tale campo rispetto alla concorrenza e, se riesce a cavarsela egregiamente con la GTS (20 rop si ma a 515mhz), nn raggiunge la GTX (ke ne ha 24 a 575mhz)...

...se i futuri gioki avranno un elevato rapprto ALU:TEX allora R600 si troverà a proprio agio...in caso contrario nèi 320sp, nè i 512bit nè quant'altro potranno fare niente xkè le prestazioni saranno limitate da ciò ke possono fare le 16 RBE...

...io la vedo così...nn ci vedo nessun bug hw o sw ke sia, nessuna carenza particolare nei driver (se nn quelle presenti in ogni nuova arkitettura nei primi mesi d vita)...tutto va come dovrebbe andare...e, x il prezzo a cui viene venduta, secondo me nn va x niente male...

...ciao

Iantikas
09-08-2007, 00:12
Il fatto che G80 abbia "enormi limitazioni" sulle api DX10 è una forzatura opinabile. Primo perchè non hai le informazioni necessarie per affermarlo e, secondo, perchè allo stato attuale l'unico titolo dx10 disponibile "alla massa" è Lost Planet, che oggi gioco a 1920x1200 alla media di 60fps sulla config in sign.

Potrai dirmi che è un "giochillo" frutto del porting da una piattaforma "scrausa" che con le api dx10 c'ha poco a che fare, ma fatto sta che è un titolo dx10 giocabilissimo nonostante le fantomatiche "enormi limitazioni" a cui accenni senza entrare nel merito tecnico della questione. Crysis sarà la spada di damocle (in questo ambito), e non mi pare che crytech si sia imbattuta in queste "enormi limitazioni" di cui parli per svilupparne l'engine.

Allora se da un lato ridimensioniamo il fatto che ATi abbia dato alla luce R600 con ambizioni più modeste rispetto a quelle che molti hanno voluto farci credere, dobbiamo anche argomentare sui titoli dx10 che, guarda caso, restano l'ultima spiaggia nelle giustificazioni alle performance finora "deludenti" (e nota bene: "deludenti" != "scadenti") le quali anche un moderatore quì dentro ha avuto finalmente il coraggio di constatare (e me ne congratulo).

E' innegabile che R600 aveva propositi megalomani, e si evince dal coraggio di ATi nell'introdurre questa architettura parecchio "fuori dagli schemi" (tanto di cappello), ma non c'è scritto da nessuna parte che siccome è ATi allora è il meglio sul mercato.

E sottolineo che prima al posto di G80 avevo R580... e se R700 sarà migliore di G92, sarò ben lieto di spendere i miei prossimi 600 euro per una ATi, ma sempre per avere nel case il top disponibile sul mercato (discorso impersonale), non il top disponibile ad ATi o nVidia...


premesso ke sul discorso G80 son pienamente daccoro....dato ke nn ho mai capito su ke basi molti hanno deciso ke ha prestazioni deludenti in DX10...sul resto son in totale disaccordo...


...nel senso ke la frase va bene se la specifiki come fa tecnoworld8...ossia ha prestazioni deludenti x le sue esigenze o x quello ke lui s'aspettava o desiderava...se invece la lasci così può andare benissimo a fare il fanboy da qualke altra parte xkè come skeda video proposta a 350€ ha tutto fuorkè prestazioni deludenti ;) ...ciao

TecnoWorld8
09-08-2007, 00:46
premesso ke sul discorso G80 son pienamente daccoro....dato ke nn ho mai capito su ke basi molti hanno deciso ke ha prestazioni deludenti in DX10...sul resto son in totale disaccordo...


...nel senso ke la frase va bene se la specifiki come fa tecnoworld8...ossia ha prestazioni deludenti x le sue esigenze o x quello ke lui s'aspettava o desiderava...se invece la lasci così può andare benissimo a fare il fanboy da qualke altra parte xkè come skeda video proposta a 350€ ha tutto fuorkè prestazioni deludenti ;) ...ciao

mi hai preceduto :) volevo dire che nemmeno io, che da sempre mi dico deluso di questa scheda, mi sentirei di dire che ha prestazioni scandalose, tantomeno in riferimento all'ottimo prezzo di mercato a cui è apparsa sin da subito! se dovessi scegliere, prenderei una 2900xt ad occhi chiusi nei confronti di una GTS. Certamente, se invece me le offrissero in regalo, preferirei una GTX. Ma dato che devo spendere e non voglio cambiare scheda ogni 6 mesi, attenderò la prossima top, lasciando tutta l'attuale risma di schede sugli scaffali (a meno che la XT non faccia 60fps a bioshock con massimo dettaglio a 1680x1050 e scenda sotto i 300€ a settembre, allorchè potrei fare la pazzia).

Scrambler77
09-08-2007, 01:06
premesso ke sul discorso G80 son pienamente daccoro....dato ke nn ho mai capito su ke basi molti hanno deciso ke ha prestazioni deludenti in DX10...sul resto son in totale disaccordo...


...nel senso ke la frase va bene se la specifiki come fa tecnoworld8...ossia ha prestazioni deludenti x le sue esigenze o x quello ke lui s'aspettava o desiderava...se invece la lasci così può andare benissimo a fare il fanboy da qualke altra parte xkè come skeda video proposta a 350€ ha tutto fuorkè prestazioni deludenti ;) ...ciao

Ragazzi ma chi ha parlato di prezzo?

Non capisco bene perchè ogni volta dobbiate accendere i toni... perchè se leggessi il mio post con più attenzione e meno pregiudizio ti accorgeresti che non ho parlato di soldi ma di "top" in senso assoluto. Leggendo i primi post di "aspettando R600", i "compromessi" del tipo "và per quanto costa" non erano negli orizzonti di nessuno, ma R600 doveva innegabilmente spaccare G80 in due (e da quì capisci anche il senso del mio post in oggetto): GTX/Ultra e 2900XT sono 2 fasce diverse... non c'è driver maturo che tenga (come anche Vifani, e non solo, sostiene).

La pretesa di molti (forse non la tua, non so...) invece, è quella di "tirare" a tutti i costi una scheda da 350 euro a livelli di una da 600 euro, solo sullo spunto dei "drivers immaturi". A me pare che siano questi i discorsi da fanboy, poi ognuno la vede come vuole.

Io la vedo che AMD ha dovuto ridimensionare DOPO il prezzo del suo R600 perchè non è riuscita a riprendersi lo scettro delle prestazioni assolute. Tutto ciò giustifica pure i ritardi del suo lancio.

Ricapitolando questo 3d:

Aspettiamo R600 -> Andrà più forte di G80, garantito!
R600 tarda di 6 mesi -> AMD sta preparando un mostro!
Arrivano i primi bench -> Si ma sono fake!
AMD lancia R600 -> Fantastico! E costa "appena" 350 euro
Ha prestazioni da GTS -> Si ma i drivers sono "acerbi"
Arrivano i bench ufficiali -> Si ma i drivers sono ancora "acerbi"
I drivers ormai maturano -> Si ma R600 andrà meglio in DX10
R600 va come GTS in dx10 -> Si ma costa "solo" 350 euro...

Insomma, un cane che si morde la coda. Non si fa prima a dire che R600 è nato storto e gli hanno dato il giusto prezzo, aspettiamo R700 e pace? No. R600 va meglio e chi ha nVidia è un fanboy e basta (no perchè questo si capisce da sto 3d).

Si possono dire tante cose senza necessariamente insultare nessuno. ;) ciao.

NvidiaMen
09-08-2007, 06:03
Il fatto che G80 abbia "enormi limitazioni" sulle api DX10 è una forzatura opinabile. Primo perchè non hai le informazioni necessarie per affermarlo e, secondo, perchè allo stato attuale l'unico titolo dx10 disponibile "alla massa" è Lost Planet, che oggi gioco a 1920x1200 alla media di 60fps sulla config in sign.

Potrai dirmi che è un "giochillo" frutto del porting da una piattaforma "scrausa" che con le api dx10 c'ha poco a che fare, ma fatto sta che è un titolo dx10 giocabilissimo nonostante le fantomatiche "enormi limitazioni" a cui accenni senza entrare nel merito tecnico della questione. Crysis sarà la spada di damocle (in questo ambito), e non mi pare che crytech si sia imbattuta in queste "enormi limitazioni" di cui parli per svilupparne l'engine.

Allora se da un lato ridimensioniamo il fatto che ATi abbia dato alla luce R600 con ambizioni più modeste rispetto a quelle che molti hanno voluto farci credere, dobbiamo anche argomentare sui titoli dx10 che, guarda caso, restano l'ultima spiaggia nelle giustificazioni alle performance finora "deludenti" (e nota bene: "deludenti" != "scadenti") le quali anche un moderatore quì dentro ha avuto finalmente il coraggio di constatare (e me ne congratulo).

E' innegabile che R600 aveva propositi megalomani, e si evince dal coraggio di ATi nell'introdurre questa architettura parecchio "fuori dagli schemi" (tanto di cappello), ma non c'è scritto da nessuna parte che siccome è ATi allora è il meglio sul mercato.

E sottolineo che prima al posto di G80 avevo R580... e se R700 sarà migliore di G92, sarò ben lieto di spendere i miei prossimi 600 euro per una ATi, ma sempre per avere nel case il top disponibile sul mercato (discorso impersonale), non il top disponibile ad ATi o nVidia...

Ok Scrambler77...
Ci rivedremo all'uscita dei primi titoli full DX10, tu a verificare le prestazioni di G80 (accettata nel confronto la Ultra o, nell'eventualità, anche una pseudo Ultra 2 a 65nm se mai verrà realizzata, ma sempre basata su architettura G80) ed io quelle di R600 siano esse, rispettivamente, in SLI che Crossfire. Io avrò il coraggio di tornare su questo thread e riquotare i miei post, spero che anche tu abbia questo coraggio, anche se per allora ti troverai all'interno del tuo fantastico case una G92.
Affermato, sottolineato e sottoscritto. NM.

M4R1|<
09-08-2007, 07:16
secondo me il ragionamento è sbagliato alla base...io tutte queste "feature mostruose" nn le vedo...

...una skeda vincente nn'è una skeda da un paio d grandi numeri ma una ke ha un'arkitettura equilibrata nei confronti delle rikieste del parco gioki nel qualke verrà utilizzata...

...pensa ke io sono anke fermamente covinto ke il normale AA d tipo box lo faccia nelle RBE (e usi gli shader solo x i CFAA)...il motivo del calo? 16 RBE a 740mhz quello riescono a fare e fan da collo d bottiglia alle "normali" prestazioni ke la skeda esprime senza AA...con i CFAA, nei quali vengono usati gli shader le prestazioni calano ancora d +...

...daltronde io d tutta questa storia nata sull'AA fatto via shader ho letto solo supposizioni e illazioni ma mai niente d certo e ufficiale...

...i 512bit? danno una mano ma nn vengono pienamente coadiuvati dalle 16 RBE, sia in presenza d filtri ke nn, ke nn riescono a sfruttare pienamente la banda torrenziale loro offerta...

...i 320sp?...x via dell'arkitettura scelta nn sempre esprimeranno tutto il loro potenziale anke se cmq sarranno sempre + vicini ad esprimerlo ke tutto ke quasi niente...

...alla fine i risultati ke da la skeda dipendono essenzialmente da come è fatta l'applicazione in cui la si usa...questo lo si può vedere da un test coe il 3dmark06 ke seppur sciocco ha una sua utilità dato ke si sa alla perfezione come sono stati scirtti i test, cosa rikiedono e quali parti della skeda enfatizzano...tutti sappiamo i risultati ke da facendo il test d default, prestazioni paragonabili alla GTX ke dimostrano come in potenza d calcolo le skede s equivalgono...abilitando xò i filtri (4xAA 16xAF) anke rimanendo a 1280x1024 si nota come nel primo test

http://img460.imageshack.us/img460/4381/6dm14xfj5.th.gif (http://img460.imageshack.us/my.php?image=6dm14xfj5.gif)

...ke dipede molto dalle potenzxialità della skeda con le texture, si veda il punto debole della hd2900xt...dove le prestazioni son appunto quelle ke ci si aspetta da 16 RBE a 740mhz (leggermente perfezionate) rispetto alle 16 RBE a 650mhz della x1950xtx (nn centra l'AA via shader o qualunque altra cosa è proprio ke la skeda quello può fare in quelle condizioni...magari il risultato migliorando i driver potrà migliorare un pokino ma cmq niente d trascendentale)


...nei test sm3.0, ke pongono invece l'enfasi molto + sull'operazioni con gli shader piuttsoto ke sulle texture, il quadro (com'è giusto ke sia appunto x l'arkitettura d R600) cambia...

... http://img460.imageshack.us/img460/9555/6dm34xdq0.th.gif (http://img460.imageshack.us/my.php?image=6dm34xdq0.gif) ...

... http://img127.imageshack.us/img127/1821/6dm44xkz3.th.gif (http://img127.imageshack.us/my.php?image=6dm44xkz3.gif) ...

...e nel primo dei due test passa leggermente la GTS, mentre nel secondo, ke è ancora meno dipendente dalle operazioni sulle texture, arriva quasi alla GTX...


...lo stesso funziona nei gioki...nei gioki molto dipendenti dalle texture senza filtri riesci cmq ad andre vicino alla GTX, con i filtri cade ai livelli di una GTS e a volte anke peggio (risollevandosi solo a ris estremamente elevate proprio grazie ai 512bit e alla banda torrenziale)...nei gioki invece ke pongono maggiore enfasi sulle operazioni con gli shader e dall'elevato rapporto ALU:TEX senza filtri è ai livelli di una GTX e a volte la supera anke...con i filtri nn può xò compensare con il resto il deficit ke ha in tale campo rispetto alla concorrenza e, se riesce a cavarsela egregiamente con la GTS (20 rop si ma a 515mhz), nn raggiunge la GTX (ke ne ha 24 a 575mhz)...

...se i futuri gioki avranno un elevato rapprto ALU:TEX allora R600 si troverà a proprio agio...in caso contrario nèi 320sp, nè i 512bit nè quant'altro potranno fare niente xkè le prestazioni saranno limitate da ciò ke possono fare le 16 RBE...

...io la vedo così...nn ci vedo nessun bug hw o sw ke sia, nessuna carenza particolare nei driver (se nn quelle presenti in ogni nuova arkitettura nei primi mesi d vita)...tutto va come dovrebbe andare...e, x il prezzo a cui viene venduta, secondo me nn va x niente male...

...ciao

allora sul prezzo sono pienamente d'accordo, infatti è vero, l'ho pagata 400€ e ho come minimo prestazioni della gts (a parte rari casi) e senza filti mi avvicino alla gtx, quindi sno più che contento.
per le prestazioni deludnti è vero nn sono deludenti, ma io per un cio che leggevo ero convinto di altro; cmq va be dai lasciamo stare il discorso, lo riprenderemo se ce ne sarà bisogno quando avremo in mano i primi titoli veramente dx10.

Vifani
09-08-2007, 08:24
allora ho letto queste due pagine di commenti, e adesso mi sorge una domanda che rivolgo a quelli come Vifani, o altri che hanno una esperienza nettamente superiore alla mia:

è possibile che un'architettura come R600, dove nn c'è quasi nulla delle passate generazioni dx9, dove anche a livello di potenza elaborativa (circa 440gflops) è superiore, dove ci sono feature mostruose abbia queste prestazioni scandalose, sia in dx9 che in dx10, cosa che nn è possibile visto che è stata progettata proprio per quest'ultime?
e lasciatemi passare il termine "scandaloso" perchè per chi come me sogna questa gpu fin dai primi 3d di aspettando r600, si aspettavo davvero delle prestazioni diverse, e nn di una gts quasi gtx che cmq essondo assai potente come scheda è cmq "vecchia" a livello architetturale.

edit: adesso so che molti di voi mi tireranno ditro chi sa cosa, ma sinceramente vorrei delle risposte, e credo che in verità le vogliate anche voi

Guarda io ho seguito diversi lanci di nuove architettura di GPU e se dovessi confrontare R600 con i precedenti lanci nella storia di ATI, probabilmente è agli ultimi posti. Io ricordo ad esempio il lancio di R200 che fece faville e che con la Radeon 8500 rappresentò la prima vera ed interessante alternativa ad NVIDIA una volta uscita di scena 3dfx. E all'epoca i problemi di driver per ATI erano veramente grandi, ma fortunatamente, con non poca fatica, furono risolti con il rilascio dei Catalyst e l'ottima politica dell'aggiornamento mensile dei driver che ne è conseguito.

Vogliamo parlare di R300? Beh qui c'è poco da dire: un'architettura semplicemente perfetta e geniale. Tre volte più veloce delle GeForce 4 al lancio, nei test con i filtri, mostruosamente avanti a NV30 sui tempi, sull'architettura e nelle prestazioni. Il primo chip con un antialiasing a basso impatto (e all'epoca che non si giocava alle risoluzioni di oggi, serviva veramente) e, tra l'altro, il primo chip che nonostante uscì ben prima del rilascio delle DirectX 9, riusciva a rendere giocabili anche giochi pesantemente DirectX 9 come Far Cry uscito oltre un anno dopo. Insomma un vero gioiello.

Possiamo definire R420 e R480 un po in ombra tecnologicamente, ma sempre all'altezza della concorrenza come prestazioni, mentre a parte il ritardo di R520, anche R580 era un prodotto molto interessante da tutti i punti di vista e non a caso schede come le Radeon X1900 XT riescono a tener testa a prodotti di nuova generazione come le 8800 GTS 320 MB.

Il problema serio è che R600, a fronte di questo mio piccolo excursus storico, ci fa evidentemente una magra figura. Io quando arrivarono i primi test di NV30 capii subito che sarebbe stato l'enorme flop che è stato e anche lì qualcuno sparava di driver miracolosi e cose simili. NV35/NV38 migliorarono la situazione (ritoccando l'architettura), ma diciamo che comunque quello restò un periodo buio per NVIDIA.

Non dico che R600 è un flop al pari di NV30. Fortunatamente AMD, al contrario di NVIDIA all'epoca, ha avuto l'intelligenza e direi anche l'umiltà di proporlo ad un prezzo appetibile perché diciamocelo chiaro, una Radeon 2900 XT a 600 euro, solo un folle l'avrebbe comprata, così come lo fu chi acquistò le 5800 Ultra. Diciamo però che R600 ha rappresentato per AMD la prima sconfitta nel mercato high-end da diversi anni a questa parte, perché ricordiamo che anche R520 uscì in ritardo, ma quando uscì era comunque all'altezza delle 7800 GTX.

R600 come architettura non penso stia messo male al pari di NV30, però il discorso è che c'è comunque qualcosa che non va e le unità non riescono a lavorare come dovrebbero. Forse nei puri geometry shaders andrà meglio di G80, ma se comunque i giochi DX10 faranno uso pesante di operazioni sulle texture, alla fine il tutto verrà controbilanciato e probabilmente G80 resterà preferibile come "linearità di comportamento".

Comunque nessuno ha la palla di cristallo e quindi vedremo come evolverà la situazione.

Un'ultima cosa. Chiunque pensa che l'arrivo di AMD abbia condizionato, negativamente, R600 sbaglia. R600 era in lavorazione da una vita e ATI ha riscontrato enormi problemi di produzione con questo chip. Era quasi da un anno prima del lancio che stavano facendo re-spin a catena per risolvere i vari problemi. AMD non c'entra proprio niente. R600 è quello che è perché qualcuno in ATI ha sbagliato qualcosa, tutto qui.

Athlon 64 3000+
09-08-2007, 08:41
Guarda io ho seguito diversi lanci di nuove architettura di GPU e se dovessi confrontare R600 con i precedenti lanci nella storia di ATI, probabilmente è agli ultimi posti. Io ricordo ad esempio il lancio di R200 che fece faville e che con la Radeon 8500 rappresentò la prima vera ed interessante alternativa ad NVIDIA una volta uscita di scena 3dfx. E all'epoca i problemi di driver per ATI erano veramente grandi, ma fortunatamente, con non poca fatica, furono risolti con il rilascio dei Catalyst e l'ottima politica dell'aggiornamento mensile dei driver che ne è conseguito.

Vogliamo parlare di R300? Beh qui c'è poco da dire: un'architettura semplicemente perfetta e geniale. Tre volte più veloce delle GeForce 4 al lancio, nei test con i filtri, mostruosamente avanti a NV30 sui tempi, sull'architettura e nelle prestazioni. Il primo chip con un antialiasing a basso impatto (e all'epoca che non si giocava alle risoluzioni di oggi, serviva veramente) e, tra l'altro, il primo chip che nonostante uscì ben prima del rilascio delle DirectX 9, riusciva a rendere giocabili anche giochi pesantemente DirectX 9 come Far Cry uscito oltre un anno dopo. Insomma un vero gioiello.

Possiamo definire R420 e R480 un po in ombra tecnologicamente, ma sempre all'altezza della concorrenza come prestazioni, mentre a parte il ritardo di R520, anche R580 era un prodotto molto interessante da tutti i punti di vista e non a caso schede come le Radeon X1900 XT riescono a tener testa a prodotti di nuova generazione come le 8800 GTS 320 MB.

Il problema serio è che R600, a fronte di questo mio piccolo excursus storico, ci fa evidentemente una magra figura. Io quando arrivarono i primi test di NV30 capii subito che sarebbe stato l'enorme flop che è stato e anche lì qualcuno sparava di driver miracolosi e cose simili. NV35/NV38 migliorarono la situazione (ritoccando l'architettura), ma diciamo che comunque quello restò un periodo buio per NVIDIA.

Non dico che R600 è un flop al pari di NV30. Fortunatamente AMD, al contrario di NVIDIA all'epoca, ha avuto l'intelligenza e direi anche l'umiltà di proporlo ad un prezzo appetibile perché diciamocelo chiaro, una Radeon 2900 XT a 600 euro, solo un folle l'avrebbe comprata, così come lo fu chi acquistò le 5800 Ultra. Diciamo però che R600 ha rappresentato per AMD la prima sconfitta nel mercato high-end da diversi anni a questa parte, perché ricordiamo che anche R520 uscì in ritardo, ma quando uscì era comunque all'altezza delle 7800 GTX.

R600 come architettura non penso stia messo male al pari di NV30, però il discorso è che c'è comunque qualcosa che non va e le unità non riescono a lavorare come dovrebbero. Forse nei puri geometry shaders andrà meglio di G80, ma se comunque i giochi DX10 faranno uso pesante di operazioni sulle texture, alla fine il tutto verrà controbilanciato e probabilmente G80 resterà preferibile come "linearità di comportamento".

Comunque nessuno ha la palla di cristallo e quindi vedremo come evolverà la situazione.

Un'ultima cosa. Chiunque pensa che l'arrivo di AMD abbia condizionato, negativamente, R600 sbaglia. R600 era in lavorazione da una vita e ATI ha riscontrato enormi problemi di produzione con questo chip. Era quasi da un anno prima del lancio che stavano facendo re-spin a catena per risolvere i vari problemi. AMD non c'entra proprio niente. R600 è quello che è perché qualcuno in ATI ha sbagliato qualcosa, tutto qui.

Più che altro è che hanno voluto fare una architettura mostrosuamente complessa(con solo 16 rop's e 20 unità per texture filtrate e 80 per texture non filtrate)e pesantemente sbilanciata verso sia le dx10 che i giochi dx 9 che fanno un uso molto intensivo sia di shader che di shader di lunghe istruzioni e questo ha fatto si che nei giochi che usano parecchie texture ne soffra parecchio.
Per quanto riguarda l'AA si vedrà come andrà a finire.
I driver posso confermare che fanno ancora abbstanza pensa visto che sono pieni di bachi.
Penso che ci vorranno ancora parecchi mesi prima che i driver comincieranno a sfruttare per bene la scheda anche se credo che con i prossimi catalist qualcosina si dovrebbe muovere.

Pat77
09-08-2007, 08:53
si è vero nn sono scandalose, ma nn sono quelle che mi aspettavo; anche perchè in molti erano convinti che ati avrebbe tirato fuori un mostro più mostro di g80.
va be fa niente, vuol dire che alla prossima generazione g92/r700 prima di comprarla voglio vedere molto bene come gira la musica

Ricordo una scheda, 8500, che debuttò come hd2900xt, cioè con performance in giochi poco complessi dx7 e in minima parte dx8 inferiorei a una geforce 3 ti 500, ricordo le stesse dinamiche, utenti Nvidia nei 3d Ati a zonzo dando velatamente degli illusi, ricordo che poi uscirono giochi più complessi e 8500 (che intanto maturò di driver) si poneva davanti a ti500, ma tanto ora c'erano le 4200, che però tecnicamente pur superiori di muscoli, erano bastonate nei titoli dx8.1, tanto che, un mio amico, che ancora mi ringrazia, gioca a Battlefield 2 su un pc espanso solo in ram, quando codesto titolo manco parte su 4200.
Se volevi tutto subito dovevi scegliere l'altra marca, se vuoi un minimo di longevità hai fatto bene i tuoi calcoli, tutto questo imho, non mi si chieda di dimostrare i miei pareri o trovare prove concrete sulla loro inconfutabile veridicità, perchè essendo pareri, tali restano e riflettono dunque le mie scelte.
Il quid disputandum del 3d mi pare sia inevitabilmente diventato un confronto tra marche, me ne dispiace vivamente, avevo cercato di iniziare nuovamente considerazioni sulle temperature di esercizio, o sulle performance, o sul guadagno con i driver, ma si scade continuamente.

halduemilauno
09-08-2007, 09:10
Ragazzi ma chi ha parlato di prezzo?

Non capisco bene perchè ogni volta dobbiate accendere i toni... perchè se leggessi il mio post con più attenzione e meno pregiudizio ti accorgeresti che non ho parlato di soldi ma di "top" in senso assoluto. Leggendo i primi post di "aspettando R600", i "compromessi" del tipo "và per quanto costa" non erano negli orizzonti di nessuno, ma R600 doveva innegabilmente spaccare G80 in due (e da quì capisci anche il senso del mio post in oggetto): GTX/Ultra e 2900XT sono 2 fasce diverse... non c'è driver maturo che tenga (come anche Vifani, e non solo, sostiene).

La pretesa di molti (forse non la tua, non so...) invece, è quella di "tirare" a tutti i costi una scheda da 350 euro a livelli di una da 600 euro, solo sullo spunto dei "drivers immaturi". A me pare che siano questi i discorsi da fanboy, poi ognuno la vede come vuole.

Io la vedo che AMD ha dovuto ridimensionare DOPO il prezzo del suo R600 perchè non è riuscita a riprendersi lo scettro delle prestazioni assolute. Tutto ciò giustifica pure i ritardi del suo lancio.

Ricapitolando questo 3d:

Aspettiamo R600 -> Andrà più forte di G80, garantito!
R600 tarda di 6 mesi -> AMD sta preparando un mostro!
Arrivano i primi bench -> Si ma sono fake!
AMD lancia R600 -> Fantastico! E costa "appena" 350 euro
Ha prestazioni da GTS -> Si ma i drivers sono "acerbi"
Arrivano i bench ufficiali -> Si ma i drivers sono ancora "acerbi"
I drivers ormai maturano -> Si ma R600 andrà meglio in DX10
R600 va come GTS in dx10 -> Si ma costa "solo" 350 euro...

Insomma, un cane che si morde la coda. Non si fa prima a dire che R600 è nato storto e gli hanno dato il giusto prezzo, aspettiamo R700 e pace? No. R600 va meglio e chi ha nVidia è un fanboy e basta (no perchè questo si capisce da sto 3d).

Si possono dire tante cose senza necessariamente insultare nessuno. ;) ciao.

sono stra d'accordo.
;)
Guarda io ho seguito diversi lanci di nuove architettura di GPU e se dovessi confrontare R600 con i precedenti lanci nella storia di ATI, probabilmente è agli ultimi posti. Io ricordo ad esempio il lancio di R200 che fece faville e che con la Radeon 8500 rappresentò la prima vera ed interessante alternativa ad NVIDIA una volta uscita di scena 3dfx. E all'epoca i problemi di driver per ATI erano veramente grandi, ma fortunatamente, con non poca fatica, furono risolti con il rilascio dei Catalyst e l'ottima politica dell'aggiornamento mensile dei driver che ne è conseguito.

Vogliamo parlare di R300? Beh qui c'è poco da dire: un'architettura semplicemente perfetta e geniale. Tre volte più veloce delle GeForce 4 al lancio, nei test con i filtri, mostruosamente avanti a NV30 sui tempi, sull'architettura e nelle prestazioni. Il primo chip con un antialiasing a basso impatto (e all'epoca che non si giocava alle risoluzioni di oggi, serviva veramente) e, tra l'altro, il primo chip che nonostante uscì ben prima del rilascio delle DirectX 9, riusciva a rendere giocabili anche giochi pesantemente DirectX 9 come Far Cry uscito oltre un anno dopo. Insomma un vero gioiello.

Possiamo definire R420 e R480 un po in ombra tecnologicamente, ma sempre all'altezza della concorrenza come prestazioni, mentre a parte il ritardo di R520, anche R580 era un prodotto molto interessante da tutti i punti di vista e non a caso schede come le Radeon X1900 XT riescono a tener testa a prodotti di nuova generazione come le 8800 GTS 320 MB.

Il problema serio è che R600, a fronte di questo mio piccolo excursus storico, ci fa evidentemente una magra figura. Io quando arrivarono i primi test di NV30 capii subito che sarebbe stato l'enorme flop che è stato e anche lì qualcuno sparava di driver miracolosi e cose simili. NV35/NV38 migliorarono la situazione (ritoccando l'architettura), ma diciamo che comunque quello restò un periodo buio per NVIDIA.

Non dico che R600 è un flop al pari di NV30. Fortunatamente AMD, al contrario di NVIDIA all'epoca, ha avuto l'intelligenza e direi anche l'umiltà di proporlo ad un prezzo appetibile perché diciamocelo chiaro, una Radeon 2900 XT a 600 euro, solo un folle l'avrebbe comprata, così come lo fu chi acquistò le 5800 Ultra. Diciamo però che R600 ha rappresentato per AMD la prima sconfitta nel mercato high-end da diversi anni a questa parte, perché ricordiamo che anche R520 uscì in ritardo, ma quando uscì era comunque all'altezza delle 7800 GTX.

R600 come architettura non penso stia messo male al pari di NV30, però il discorso è che c'è comunque qualcosa che non va e le unità non riescono a lavorare come dovrebbero. Forse nei puri geometry shaders andrà meglio di G80, ma se comunque i giochi DX10 faranno uso pesante di operazioni sulle texture, alla fine il tutto verrà controbilanciato e probabilmente G80 resterà preferibile come "linearità di comportamento".

Comunque nessuno ha la palla di cristallo e quindi vedremo come evolverà la situazione.

Un'ultima cosa. Chiunque pensa che l'arrivo di AMD abbia condizionato, negativamente, R600 sbaglia. R600 era in lavorazione da una vita e ATI ha riscontrato enormi problemi di produzione con questo chip. Era quasi da un anno prima del lancio che stavano facendo re-spin a catena per risolvere i vari problemi. AMD non c'entra proprio niente. R600 è quello che è perché qualcuno in ATI ha sbagliato qualcosa, tutto qui.

e sono d'accordo anche con quanto detto da Vifani.

zorco
09-08-2007, 09:13
Il quid disputandum del 3d mi pare sia inevitabilmente diventato un confronto tra marche, me ne dispiace vivamente, avevo cercato di iniziare nuovamente considerazioni sulle temperature di esercizio, o sulle performance, o sul guadagno con i driver, ma si scade continuamente.
proprio per questo è nata l'esigenza fin da subito di aprirne un'altro visto l'andamento di questo dove non si fà altro che sproloquiare...

M4R1|<
09-08-2007, 09:30
Guarda io ho seguito diversi lanci di nuove architettura di GPU e se dovessi confrontare R600 con i precedenti lanci nella storia di ATI, probabilmente è agli ultimi posti. Io ricordo ad esempio il lancio di R200 che fece faville e che con la Radeon 8500 rappresentò la prima vera ed interessante alternativa ad NVIDIA una volta uscita di scena 3dfx. E all'epoca i problemi di driver per ATI erano veramente grandi, ma fortunatamente, con non poca fatica, furono risolti con il rilascio dei Catalyst e l'ottima politica dell'aggiornamento mensile dei driver che ne è conseguito.

Vogliamo parlare di R300? Beh qui c'è poco da dire: un'architettura semplicemente perfetta e geniale. Tre volte più veloce delle GeForce 4 al lancio, nei test con i filtri, mostruosamente avanti a NV30 sui tempi, sull'architettura e nelle prestazioni. Il primo chip con un antialiasing a basso impatto (e all'epoca che non si giocava alle risoluzioni di oggi, serviva veramente) e, tra l'altro, il primo chip che nonostante uscì ben prima del rilascio delle DirectX 9, riusciva a rendere giocabili anche giochi pesantemente DirectX 9 come Far Cry uscito oltre un anno dopo. Insomma un vero gioiello.

Possiamo definire R420 e R480 un po in ombra tecnologicamente, ma sempre all'altezza della concorrenza come prestazioni, mentre a parte il ritardo di R520, anche R580 era un prodotto molto interessante da tutti i punti di vista e non a caso schede come le Radeon X1900 XT riescono a tener testa a prodotti di nuova generazione come le 8800 GTS 320 MB.

Il problema serio è che R600, a fronte di questo mio piccolo excursus storico, ci fa evidentemente una magra figura. Io quando arrivarono i primi test di NV30 capii subito che sarebbe stato l'enorme flop che è stato e anche lì qualcuno sparava di driver miracolosi e cose simili. NV35/NV38 migliorarono la situazione (ritoccando l'architettura), ma diciamo che comunque quello restò un periodo buio per NVIDIA.

Non dico che R600 è un flop al pari di NV30. Fortunatamente AMD, al contrario di NVIDIA all'epoca, ha avuto l'intelligenza e direi anche l'umiltà di proporlo ad un prezzo appetibile perché diciamocelo chiaro, una Radeon 2900 XT a 600 euro, solo un folle l'avrebbe comprata, così come lo fu chi acquistò le 5800 Ultra. Diciamo però che R600 ha rappresentato per AMD la prima sconfitta nel mercato high-end da diversi anni a questa parte, perché ricordiamo che anche R520 uscì in ritardo, ma quando uscì era comunque all'altezza delle 7800 GTX.

R600 come architettura non penso stia messo male al pari di NV30, però il discorso è che c'è comunque qualcosa che non va e le unità non riescono a lavorare come dovrebbero. Forse nei puri geometry shaders andrà meglio di G80, ma se comunque i giochi DX10 faranno uso pesante di operazioni sulle texture, alla fine il tutto verrà controbilanciato e probabilmente G80 resterà preferibile come "linearità di comportamento".

Comunque nessuno ha la palla di cristallo e quindi vedremo come evolverà la situazione.

Un'ultima cosa. Chiunque pensa che l'arrivo di AMD abbia condizionato, negativamente, R600 sbaglia. R600 era in lavorazione da una vita e ATI ha riscontrato enormi problemi di produzione con questo chip. Era quasi da un anno prima del lancio che stavano facendo re-spin a catena per risolvere i vari problemi. AMD non c'entra proprio niente. R600 è quello che è perché qualcuno in ATI ha sbagliato qualcosa, tutto qui.

ti posso solo dare ragione perchè quello che hai detto è vero, anche se cmq spero che i dx10 si comporti abbastanza bene

M4R1|<
09-08-2007, 09:31
Ricordo una scheda, 8500, che debuttò come hd2900xt, cioè con performance in giochi poco complessi dx7 e in minima parte dx8 inferiorei a una geforce 3 ti 500, ricordo le stesse dinamiche, utenti Nvidia nei 3d Ati a zonzo dando velatamente degli illusi, ricordo che poi uscirono giochi più complessi e 8500 (che intanto maturò di driver) si poneva davanti a ti500, ma tanto ora c'erano le 4200, che però tecnicamente pur superiori di muscoli, erano bastonate nei titoli dx8.1, tanto che, un mio amico, che ancora mi ringrazia, gioca a Battlefield 2 su un pc espanso solo in ram, quando codesto titolo manco parte su 4200.
Se volevi tutto subito dovevi scegliere l'altra marca, se vuoi un minimo di longevità hai fatto bene i tuoi calcoli, tutto questo imho, non mi si chieda di dimostrare i miei pareri o trovare prove concrete sulla loro inconfutabile veridicità, perchè essendo pareri, tali restano e riflettono dunque le mie scelte.
Il quid disputandum del 3d mi pare sia inevitabilmente diventato un confronto tra marche, me ne dispiace vivamente, avevo cercato di iniziare nuovamente considerazioni sulle temperature di esercizio, o sulle performance, o sul guadagno con i driver, ma si scade continuamente.

effettivamente io ho puntato sulla longevità, spero di ottenerla in dx10, visto che cmq in dx9 i giochi nn vanno malaccio, anzi...
confido proprio nei driver, e soprattutto nella serietà di ati, cosa che è ben risoluta

Catan
09-08-2007, 09:33
Ok Scrambler77...
Ci rivedremo all'uscita dei primi titoli full DX10, tu a verificare le prestazioni di G80 (accettata nel confronto la Ultra o, nell'eventualità, anche una pseudo Ultra 2 a 65nm se mai verrà realizzata, ma sempre basata su architettura G80) ed io quelle di R600 siano esse, rispettivamente, in SLI che Crossfire. Io avrò il coraggio di tornare su questo thread e riquotare i miei post, spero che anche tu abbia questo coraggio, anche se per allora ti troverai all'interno del tuo fantastico case una G92.
Affermato, sottolineato e sottoscritto. NM.

nv lo sai quanto toùi apprezzo e condivido quasi in toto il tuo rggionamento ache se oggettivamnte avendo ache posseduto una 8800gts posso dirti che cmq crdo le pretazioni in dx10 non sarano cosi deludenti almeno dalmio punto di vista.
è ver g80 ha meno sp aùma cmq sono sempre clokkati a 1200 per la gts e 1350 per la gtx cmq quai il doppio di quelli di r600 che lo sono a 740mhz.
sicuramente dove l'archidettura non supplisce lo suplisce la potenzabruta di calcolo e sicuramente i possessori di g80 nonrimarranno delusi in mabto dx10 poi ovviamente a seconda semre delle esigene imho.
se r600 in dx10 fa 70fps in un gioco e la gtx ne fa 65 non credo che sia per un possessore di una gtx questa sconfitta o un frame rate tale da convincerlo a camiae vga.

riguardo r500 r600 e dx10 sicurente la collaborazione ati microsoft ha dato una certa cnocenza di base ai pr ati ma non vorrei che fsse stat fuorviante a fare un arcidettura strettamente d10 in un priodo di transizione dx9-dx10 in cui nvidia con g80 ha saputo tirare fuori un prodotto cmq valido in entrambi gli utilizzi.

zorco
09-08-2007, 09:48
effettivamente io ho puntato sulla longevità, spero di ottenerla in dx10, visto che cmq in dx9 i giochi nn vanno malaccio, anzi...
confido proprio nei driver, e soprattutto nella serietà di ati, cosa che è ben risoluta
però dobbiamo essere rialistici io l'ho sempre detto in questo 3d,qualunque scheda ha dei margini di miglioramento attraverso i driver ma questi non possono stravolgere completamente le prestazioni tanto da trasformala in un razzo missile:p

insomma si i miglioramenti nel corso dei mesi ci saranno e già si sono visti ma non saranno tali da portare questa scheda a superare la gtx o la ultra,forse in qualche caso sporadico si..

ciao

M4R1|<
09-08-2007, 09:52
però dobbiamo essere rialistici io l'ho sempre detto in questo 3d,qualunque scheda ha dei margini di miglioramento attraverso i driver ma questi non possono stravolgere completamente le prestazioni tanto da trasformala in un razzo missile:p

insomma si i miglioramenti nel corso dei mesi ci saranno e già si sono visti ma non saranno tali da portare questa scheda a superare la gtx o la ultra,forse in qualche caso sporadico si..

ciao

ovvio.

Grazie :)

TecnoWorld8
09-08-2007, 10:14
Un'ultima cosa. Chiunque pensa che l'arrivo di AMD abbia condizionato, negativamente, R600 sbaglia. R600 era in lavorazione da una vita e ATI ha riscontrato enormi problemi di produzione con questo chip. Era quasi da un anno prima del lancio che stavano facendo re-spin a catena per risolvere i vari problemi. AMD non c'entra proprio niente. R600 è quello che è perché qualcuno in ATI ha sbagliato qualcosa, tutto qui.

io dico di più; se AMD non avesse acquisito ATi, quest'ultima, con dei prodotti come R600 e derivati della fascia media, avrebbe seriamente rischiato, secondo me, di fare la fine di 3dfx. In questo mercato, infatti, basta una "distrazione" e si cade. Soprattutto pensando che ATi non era solida come nVidia, economicamente parlando.

Quindi vedo positivamente l'acquisizione da parte di AMD, che potrà se non altro dare forza ad ATi per la progettazione di R700 e successivi. Peccato solo che tale acquisizione sia giunta in un momento in cui nemmeno AMD va alla grandissima, dato che da 1 anno è costretta ad abbattere i prezzi continuamente, senza avere prodotti da opporre agli Intel di fascia alta. Speriamo (molto) nel futuro quad nativo.

ilbuglio
09-08-2007, 10:17
CIAO A TUTTI.

allora facendo il punto della situazione , per errore cli.implementation ho reinstallato da zero il sistema per giocare , questo mi è accaduto dopo avere provato i drivers 8.40 rc3 (dopo averli rimossi)

le temperature della sk video adesso controllate con riva tuner si allineano a quelle dei siti di test e in parte a quelle del forum

2d a 500/500 58 c° ventola non oltre i 31%
3d a 728/800 sotto stress massimo 90 c° ,37 max 40 % ventola

comunque se qualcuno vuole mi puo postare anche in pvt , i bench di 3dmark 03/05/06 con macchine simile alla mia (amd , ddr , 939 sk) .

ora sto provando a vedere quanto cambia il consumo e la temperatura calando i voltaggi della gpu e ram partendo dala base che a 170/170 mhz
in 2d e films funzioni desktop vanno comunque bene .

un altra cosa che non ho ancora verificato e volevo sapere se qualcuno ha gia provato quanto regge di fuori bus sul pci-e ?

grazie .
:stordita:

Pat77
09-08-2007, 10:52
CIAO A TUTTI.

allora facendo il punto della situazione , per errore cli.implementation ho reinstallato da zero il sistema per giocare , questo mi è accaduto dopo avere provato i drivers 8.40 rc3 (dopo averli rimossi)

le temperature della sk video adesso controllate con riva tuner si allineano a quelle dei siti di test e in parte a quelle del forum

2d a 500/500 58 c° ventola non oltre i 31%
3d a 728/800 sotto stress massimo 90 c° ,37 max 40 % ventola

comunque se qualcuno vuole mi puo postare anche in pvt , i bench di 3dmark 03/05/06 con macchine simile alla mia (amd , ddr , 939 sk) .

ora sto provando a vedere quanto cambia il consumo e la temperatura calando i voltaggi della gpu e ram partendo dala base che a 170/170 mhz
in 2d e films funzioni desktop vanno comunque bene .

un altra cosa che non ho ancora verificato e volevo sapere se qualcuno ha gia provato quanto regge di fuori bus sul pci-e ?

grazie .
:stordita:

Ieri sera io e nanni abbiamo fatto una sessione di circa un'ora a supreme commander in multi, utilizzando amd gpu clock per monitorare il comportamento, da perfetti malati ;), io a riposo stavo sui 49 gradi, temperatura massima dopo un ora di full 76,5, media sui 70, ma fa più fresco come temperatura ambientale.

Lui mi pare abbia toccato i 78, non ricordo esattamente, leggendo le review dovrebbero stare sugli 85 in full di media, e credo sia una stima attendibile se fa caldo.

Scrambler77
09-08-2007, 11:50
Ok Scrambler77...
Ci rivedremo all'uscita dei primi titoli full DX10, tu a verificare le prestazioni di G80 (accettata nel confronto la Ultra o, nell'eventualità, anche una pseudo Ultra 2 a 65nm se mai verrà realizzata, ma sempre basata su architettura G80) ed io quelle di R600 siano esse, rispettivamente, in SLI che Crossfire. Io avrò il coraggio di tornare su questo thread e riquotare i miei post, spero che anche tu abbia questo coraggio, anche se per allora ti troverai all'interno del tuo fantastico case una G92.
Affermato, sottolineato e sottoscritto. NM.

Non ho alcun problema a verificare le prestazioni DX10 di G80 e R600, ma solo quando R600 sarà parecchio avanti a G80 in DX10 potrai dire che G80 ha "enormi problemi"... Queste previsioni le abbiamo già viste in passato e spesso si rivelano poco attendibili. Pertanto tranquillo che ci sarò anch'io... ;)

Per quanto riguarda G92, ho già scritto in precedenza che a me non importa avere il top di nVidia, ma "il top" e basta. Se sarà ATi R700, ben venga.

Grazie per il "fantastico case"... un po' ne sono orgoglioso. :)

TecnoWorld8
09-08-2007, 11:52
Per quanto riguarda G92, ho già scritto in precedenza che a me non importa avere il top di nVidia, ma "il top" e basta. Se sarà ATi R700, ben venga.

come non quotarti! anche se io la penso così una volta ogni anno e mezzo circa...nel senso, non penso che cambiare sempre scheda appena esce una migliore sia una politica premiante, dato che comunque quella precedente dura al massimo o quasi almeno, appunto, 12/18 mesi dall'uscita.

Nos89
09-08-2007, 12:03
Ok Scrambler77...
Ci rivedremo all'uscita dei primi titoli full DX10, tu a verificare le prestazioni di G80 (accettata nel confronto la Ultra o, nell'eventualità, anche una pseudo Ultra 2 a 65nm se mai verrà realizzata, ma sempre basata su architettura G80) ed io quelle di R600 siano esse, rispettivamente, in SLI che Crossfire. Io avrò il coraggio di tornare su questo thread e riquotare i miei post, spero che anche tu abbia questo coraggio, anche se per allora ti troverai all'interno del tuo fantastico case una G92.
Affermato, sottolineato e sottoscritto. NM.


ancora con ste cazzate....ma per favore stai dicendo proprio le stesse cose di Scrambler77.......vedremo in DX10 ecc ma chi va la da questa prepotenza nei confronti di G80 in DX10?io sinceramente non lo so che vi prende ultimamente.....cmq ci rivediamo quando esce Bioshok;)

Scrambler77
09-08-2007, 12:05
Ragazzi tutti questi quote mi stanno quasi commuovendo! :cry: :D

Si tratta anche di possibilità... In effetti 600 euro non sono pochi, anzi... ma per chi ha la possibilità di cambiare spesso grazie anche all'ambito in cui lavora, è una spesa sopportabile (una volta all'anno).

Tra l'altro c'è gente che si cazzia migliaia di euro in sigarette, in gratta-e-vinci o automobili. Ognuno ha le sue passioni (apparte le donne che, mi auguro, quì dentro siano una passione comune e condivisa :asd: ). ;)

Nos89
09-08-2007, 12:26
Ragazzi tutti questi quote mi stanno quasi commuovendo! :cry: :D

Si tratta anche di possibilità... In effetti 600 euro non sono pochi, anzi... ma per chi ha la possibilità di cambiare spesso grazie anche all'ambito in cui lavora, è una spesa sopportabile (una volta all'anno).

Tra l'altro c'è gente che si cazzia migliaia di euro in sigarette, in gratta-e-vinci o automobili. Ognuno ha le sue passioni (apparte le donne che, mi auguro, quì dentro siano una passione comune e condivisa :asd: ). ;)

eccomi sono il primo a fare quotidianamente caxxate simili....sembra quasi che mi leggi nel pensiero:D

Scrambler77
09-08-2007, 12:36
eccomi sono il primo a fare quotidianamente caxxate simili....sembra quasi che mi leggi nel pensiero:D

Scusa non volevo... il fatto è che conosco bene l'argomento (tu vai di Audi... io di BMW) :ciapet:

safendi
09-08-2007, 12:38
eccomi sono il primo a fare quotidianamente caxxate simili....sembra quasi che mi leggi nel pensiero:D

se 6 dell'89 non puoi neanke guidarla quella macchina xò.

Nos89
09-08-2007, 12:45
Scusa non volevo... il fatto è che conosco bene l'argomento (tu vai di Audi... io di BMW) :ciapet:

se 6 dell'89 non puoi neanke guidarla quella macchina xò.

ahah vabbe siamo in 2...mi sparo un sacco di gratta e vinci sperando in qualcosa alla fine non vinco mai :D

ah si e perchè? cmq l'ho guidata proprio 10m fa:asd:

safendi
09-08-2007, 12:58
ahah vabbe siamo in 2...mi sparo un sacco di gratta e vinci sperando in qualcosa alla fine non vinco mai :D

ah si e perchè? cmq l'ho guidata proprio 10m fa:asd:

|scusate x l'ot| è entrata in vigore la nuova legge della strada, massimo 50 KW di potenza x i neopatentati, cioè 70 cv o c'è il ritiro della patente. okkio. potresti usarla tra 3 anni mi pare

Nos89
09-08-2007, 13:00
|scusate x l'ot| è entrata in vigore la nuova legge della strada, massimo 50 KW di potenza x i neopatentati, cioè 70 cv o c'è il ritiro della patente. okkio. potresti usarla tra 3 anni mi pare

per chi la deve ancora prendere credo....io l'ho gia presa la patente....mi stai mettendo in dubbio....fra l'altro con mio padre anche quando avevo il foglio rosa guidavo il TT che mio padre si sia rimbabito:confused:

corradobernardi
09-08-2007, 13:03
|scusate x l'ot| è entrata in vigore la nuova legge della strada, massimo 50 KW di potenza x i neopatentati, cioè 70 cv o c'è il ritiro della patente. okkio. potresti usarla tra 3 anni mi pare

meno male... successo che un 18enne mi sorpassa ai 150 e alla curva dopo fa un dritto nel frumento.

Pat77
09-08-2007, 13:05
Si sa nulla dell'uscita dei driver d'agosto, sempre che escano, i beta mi sembravano promettenti.

safendi
09-08-2007, 13:05
per chi la deve ancora prendere credo....io l'ho gia presa la patente....mi stai mettendo in dubbio....fra l'altro con mio padre anche quando avevo il foglio rosa guidavo il TT che mio padre si sia rimbabito:confused:

no no informati, te mi sa che non puoi proprio usarla, prova a chiamare i vigili della tua zona prima di trovarti senza patente x un bel pò e con la macchina sequestrata

Nos89
09-08-2007, 13:07
no no informati, te mi sa che non puoi proprio usarla, prova a chiamare i vigili della tua zona prima di trovarti senza patente x un bel pò e con la macchina sequestrata

ok...però che presa a pessimo:doh: è favolosa quella macchina mi tocchera usare la Punto vecchia:muro:

corradobernardi
09-08-2007, 13:10
ok...però che presa a pessimo:doh: è favolosa quella macchina mi tocchera usare la Punto vecchia:muro:


dispiacerà soprattutto all'AGIP :fagiano:

Scrambler77
09-08-2007, 13:12
dispiacerà soprattutto all'AGIP :fagiano:

Ragazzi attenti all'OT troppo prolungato...

NvidiaMen
09-08-2007, 13:17
ancora con ste cazzate....ma per favore stai dicendo proprio le stesse cose di Scrambler77.......vedremo in DX10 ecc ma chi va la da questa prepotenza nei confronti di G80 in DX10?io sinceramente non lo so che vi prende ultimamente.....cmq ci rivediamo quando esce Bioshok;)

Hai proprio ragione Nos89, le mie sono proprio caxxate...
Caxxate proprio come questa demo tecnologica (http://www.youtube.com/watch?v=UWtnt7CvSvQ) che, tempo addietro avevo già postato, ma forse avrai già dimenticato e con la quale, sino ad ora, solo ATi grazie ad R600 si è mai spinta ad un tale dettaglio e realismo con una fluidità che forse neanche in Crysis avremo il piacere di osservare. Non appena per G80 sarà disponibile una demo tecnologica (anche scritta in CG) con una qualità pari alla metà di questa in ricchezza di dettaglio, realismo e fluidità, ci risentiamo. Per adesso vai di DX9 dove effettivamente G80 la fà da padrona.
NM.

M4R1|<
09-08-2007, 13:33
Si sa nulla dell'uscita dei driver d'agosto, sempre che escano, i beta mi sembravano promettenti.

credo che ci saranno il dopo il 20, come è stato per i 7.7;)

Nos89
09-08-2007, 13:34
Hai proprio ragione Nos89, le mie sono proprio caxxate...
Caxxate proprio come questa demo tecnologica (http://www.youtube.com/watch?v=UWtnt7CvSvQ) che, tempo addietro avevo già postato, ma forse avrai già dimenticato e con la quale, sino ad ora, solo ATi grazie ad R600 si è mai spinta ad un tale dettaglio e realismo con una fluidità che forse neanche in Crysis avremo il piacere di osservare. Non appena per G80 sarà disponibile una demo tecnologica (anche scritta in CG) con una qualità pari alla metà di questa in ricchezza di dettaglio, realismo e fluidità, ci risentiamo. Per adesso vai di DX9 dove effettivamente G80 la fà da padrona.
NM.

si si la vedremo....se una demo è sviluppata appositamente per quella GPU è chiaro che è fluida e super-realistica....cmq ne riparliamo non ti preoccupare io sempre qui sto;)

M4R1|<
09-08-2007, 13:37
Hai proprio ragione Nos89, le mie sono proprio caxxate...
Caxxate proprio come questa demo tecnologica (http://www.youtube.com/watch?v=UWtnt7CvSvQ) che, tempo addietro avevo già postato, ma forse avrai già dimenticato e con la quale, sino ad ora, solo ATi grazie ad R600 si è mai spinta ad un tale dettaglio e realismo con una fluidità che forse neanche in Crysis avremo il piacere di osservare. Non appena per G80 sarà disponibile una demo tecnologica (anche scritta in CG) con una qualità pari alla metà di questa in ricchezza di dettaglio, realismo e fluidità, ci risentiamo. Per adesso vai di DX9 dove effettivamente G80 la fà da padrona.
NM.

come nn quotare questo tipo di messaggio:D :D mi sa che ne hai zittiti tanti:D

Complimenti!!!

Nos89
09-08-2007, 13:39
come nn quotare questo tipo di messaggio:D :D mi sa che ne hai zittiti tanti:D

Complimenti!!!

ti sbagli:asd:

Catan
09-08-2007, 13:39
Hai proprio ragione Nos89, le mie sono proprio caxxate...
Caxxate proprio come questa demo tecnologica (http://www.youtube.com/watch?v=UWtnt7CvSvQ) che, tempo addietro avevo già postato, ma forse avrai già dimenticato e con la quale, sino ad ora, solo ATi grazie ad R600 si è mai spinta ad un tale dettaglio e realismo con una fluidità che forse neanche in Crysis avremo il piacere di osservare. Non appena per G80 sarà disponibile una demo tecnologica (anche scritta in CG) con una qualità pari alla metà di questa in ricchezza di dettaglio, realismo e fluidità, ci risentiamo. Per adesso vai di DX9 dove effettivamente G80 la fà da padrona.
NM.

oggettivamente quella demo tecnologica è spettacolare nvidia era partira bene con fairy e la sirenetta ma le demo tecnologiche di ati nn le batte mai nessuno. le demo con rubby sono stupende anche se la mia preferita è ancora toyshop alla presentazione di x1800

Pat77
09-08-2007, 13:47
credo che ci saranno il dopo il 20, come è stato per i 7.7;)

speriamo, dovrebbero implementare qualcosa per supportare al meglio bioshock in uscita per il 31.

NvidiaMen
09-08-2007, 13:58
Dato che questo thread è diventato quasi una battaglia navale, scado anche io in colpi bassi, ma prima di farlo premetto che:

1) I catalyst in ottimizzazione di strada ancora ne devono fare soprattutto rispetto alla controparte nVidia che ha avuto mesi di vantaggio, soprattutto in DX10, per affinarli grazie alla continua collaborazione con Crytek;
2) La 2900XT attuale nei test che linko giù la vedono con 256mb in meno rispetto alla GTX che alle alte risoluzioni fanno la differenza;
3) Ricordo che la GTX costa un botto di più della 2900XT;
4) Siamo solo all'inizio.

Test Crysis High detail 8800GTX VS 2900XT (http://www.bilgiustam.com/?p=125)

Ora basta con queste denigrazioni di R600, per chi vuole ancora farne consiglio di cambiare thread, di aprirsene uno tutto suo e lasci questo a chi ha già questa scheda o a chi come me è prossimo al suo acquisto o solamente interessato a prodotti potenti a costo ridotto.
Affermato, sottolineato e sottoscritto. NM.

safendi
09-08-2007, 14:01
come nn quotare questo tipo di messaggio:D :D mi sa che ne hai zittiti tanti:D

Complimenti!!!

azz se basta quello per zittire tutti, mi sa ke siamo proprio messi male veramente :fagiano: :fagiano:

Nos89
09-08-2007, 14:03
Dato che questo thread è diventato quasi una battaglia navale, scado anche io in colpi bassi, ma prima di farlo premetto che:

1) I catalyst in ottimizzazione di strada ancora ne devono fare soprattutto rispetto alla controparte nVidia che ha avuto mesi di vantaggio, soprattutto in DX10, per affinarli grazie alla continua collaborazione con Crytek;
2) La 2900XT attuale nei test che linko giù la vedono con 256mb in meno rispetto alla GTX che alle alte risoluzioni fanno la fifferenza;
3) Ricordo che la GTX costa un botto di più della 2900XT;
4) Siamo solo all'inizio.

Test Crysis High detail 8800GTX VS 2900XT (http://www.bilgiustam.com/?p=125)

Ora basta con queste denigrazioni di R600, chi vuole ancora fare cambi thread, se ne apro uno tutto suo e lo lasci a chi ha già questa scheda o a chi come me è prossimo al suo acquisto o slamente interessato ai prodotti potenti a costo ridotto.
Affermato, sottolineato e sottoscritto. NM.

rispondo io per primo:
1) non è colpa del consumatore se sono indietro.....è solo colpa loro quindi non vedo cosa vuoi dire con questo commento.
2)embe che volevi pure altri 256mb in più quando gia dici che la GTX costa troppo,,,e qui che si vede la superiorità
3)100€ in più sono tanti è vero ma se vuoi il max
4)forse per Ati sono all'inizio....le 8xxx esistono da quasi un anno quindi questo commento è inapropriato e fuori luogo
Ciao:)

Mister Tarpone
09-08-2007, 14:06
5) i test su Crysis sono fake.

NvidiaMen
09-08-2007, 14:14
5) i test su Crysis sono fake.
Chi ha rilasciato la smentita ufficiale? Aspetto un link con la smentita ufficiale od ufficiosa.
Coincidenze strane. Ogni qualvolta un test dà ragione ad R600 si tratta certamente di un fake. Diciamo che un pò ci avrei scommesso. Scusate ma io la vedo come la classica scivolata in calcio d'angolo in attesa di rinforzi (G92).
Comunque se volete continuare con le vostre denigrazioni su questa GPU continuate a farlo, nella vita spesso mi capita di dover sopportare ben altro, per cui...
NM.

Nos89
09-08-2007, 14:16
Chi ha rilasciato la smentita ufficiale? Aspetto un link con la smentita ufficiale od ufficiosa.
Coincidenze strane. Ogni qualvolta un test dà ragione ad R600 si tratta certamente di un fake. Diciamo che un pò ci avrei scommesso. Scusate ma io la vedo come la classica scivolata in calcio d'angolo in attesa di rinforzi (G92).
Comunque se volete continuare con le vostre denigrazioni su questa GPU continuate a farlo, nella vita spesso mi capita di dover sopportare ben altro, per cui...
NM.
forse non sai che Crisys è coperto da NDA quindi qualsiasi test gira sulla rete sia che riguarda G80 che R600 puo essere Fake.
nella vita capita spesso di sentire cavolate...ma oggi mi sembra il culmine:muro:

Scrambler77
09-08-2007, 14:27
come nn quotare questo tipo di messaggio:D :D mi sa che ne hai zittiti tanti:D

Complimenti!!!

:asd:
Una tech demo realizzata appositamente per una sola architettura sarebbe un metro di confronto che "zittisce"?

Anche le tech-demo per la mia "vecchia" x850xt-Pe facevano invidia ai videogames di oggi... eppure...

Vabbè... no comment.

Scrambler77
09-08-2007, 14:30
[CUT]

Ogni qualvolta un test dà ragione ad R600 si tratta certamente di un fake.

No, erano fake anche quando prima del suo rilascio R600 andava sotto e di parecchio. ;)

Defragg
09-08-2007, 14:32
Alla fine sono tutti fake è c'è una cospirazione mondiale. :rolleyes: :sofico: :O

Scrambler77
09-08-2007, 14:33
Alla fine sono tutti fake è c'è una cospirazione mondiale. :rolleyes: :sofico: :O

:asd: Moriremo tutti!

Vifani
09-08-2007, 14:34
forse non sai che Crisys è coperto da NDA quindi qualsiasi test gira sulla rete sia che riguarda G80 che R600 puo essere Fake.
nella vita capita spesso di sentire cavolate...ma oggi mi sembra il culmine:muro:

Può essere fake, ma non è detto che lo sia sicuramente :)

Nos89
09-08-2007, 14:38
Può essere fake, ma non è detto che lo sia sicuramente :)

infatti non è detto puo essere anche che sia vero....ma senza conferme nessuno lo puo sapere inoltre tutti gli altri test su Crisys G80 stava sempre sopra a R600 ma secondo me sono falsi anche quelli...

Scrambler77
09-08-2007, 14:38
Può essere fake, ma non è detto che lo sia sicuramente :)

Questo è senz'altro vero, ma con un occhio non accecato dal pregiudizio appare evidente che quel "Crysis Demo: High Detail" non dice nulla.

Quale tipo di AA? Quanto MotionBlur? Quante ombre? Per non parlare del driver nvidia utilizzato (uno dei primi per vista, quando con release successive si sono visti incrementi parecchio accentuati su vari settori. Non si accenna invece ai drivers ATi).
Mi pare quindi un test un tantino generico per considerarlo un metro di valutazione, anzi si presta facilmente ai fanboysmi a cui abbiamo assistito... Io lo considero un fake, e non perchè mi conviene. Quando ci sarà Crysis, probabilmente poco dopo avrò G92.

EDIT: tra l'altro sembra l'unico bench in circolazione... come mai?

NvidiaMen
09-08-2007, 14:46
forse non sai che Crisys è coperto da NDA quindi qualsiasi test gira sulla rete sia che riguarda G80 che R600 puo essere Fake.
nella vita capita spesso di sentire cavolate...ma oggi mi sembra il culmine:muro:
I risultati di un test con un determinato hardware su una scarna tabella pubblicata su una pagina internet non rientrano assolutamente tra le limitazioni previste nei punti dei contratti NDA, in particolare se questi sono svolti come molto presumibilmente è accaduto all'interno del gruppo che lavora al testing hardware nel progetto. Rientrano nell'NDA le demo tecnologiche sviluppate con un particolare motore proprietario, qualunque filmato o musica presente nel videogame esclusivamente sviluppato per esso, la storyboard, i diritti pubblicitari e soprattutto le tecniche di programmazione utilizzate.
In particolare il punto 2 di ogni contratto di NDA, che riguarda il tipo di informazioni riservate da tutelare, fà riferimento solamente a: limitazioni su documenti, prototipi, esempi, schemi e risorse tecniche riguardanti la progettazione e la programmazione del software.
I risultati degli FPS rappresentati mediante istogrammi di un test dunque non rientrano tra le "informazioni sensibili" sottoposte o sottoponibili a vincolo di Non-Disclosure Agreement.

Qui (http://nikibatsprite.com/linfac/?p=7) per Nos89 e per tutti una spiegazione dettagliata di come funzioni e quali siano i punti previsti dai contratti di riservatezza dei videogiochi moderni mentre qui un link (http://nikibatsprite.com/linfac/wp-content/uploads/NDA_ita_standard.rtf) ad una bozza di un vero documento NDA.
Mi spiace dover andare OT, ma purtroppo mi è necessario spiegare le cose a chi pur conoscendole nel nome, non le applica nella vita. Nel mio studio di ingegneria, per gli incarichi importanti, di contratti NDA (contratti di riservatezza) ne facciamo sempre due copie sottoscritte tra noi e il cliente.
NM.

Evangelion01
09-08-2007, 14:47
infatti non è detto puo essere anche che sia vero....ma senza conferme nessuno lo puo sapere inoltre tutti gli altri test su Crisys G80 stava sempre sopra a R600 ma secondo me sono falsi anche quelli...

Quoto e ripeto che sarebbe meglio aspettare l' uscita definitiva del gioco per giudicare, o no? d' altronde di tempo cè ne è ancora da parte di crytech per ottimizzare....
Per quanto riguarda le tech demo,visto che prima se ne parlava, sinceramente me ne frega assai poco : preferisco giocare al meglio, che guardare una splendida quanto inutile demo .... ;)

Nos89
09-08-2007, 14:50
I risultati di un test con un determinato hardware su una scarna tabella su internet non rientrano assolutamente tra le limitazioni dei contratti NDA, in particolare se questi sono svolti come molto presumibilmente è accaduto all'interno del gruppo che lavora allo sviluppo hardware nel progetto. Rientrano nell'NDA le demo tecnologiche sviluppate con un particolare motore proprietario, qualunque filmato o musica presente nel videogame esclusivamente sviluppato per esso, la storyboard, i diritti pubblicitari e soprattutto le tecniche di programmazione utilizzate.
In particolare il punto 2 di ogni contratto di NDA, che riguarda il tipo di informazioni riservate da tutelare, fà riferimento solamente a: limitazioni su documenti, prototipi, esempi, schemi e risorse tecniche riguardanti la progettazione e la programmazione del software.
I risultati degli FPS rappresentati mediante istogrammi di un test dunque non rientrano tra le "informazioni sensibili" sottoposte o sottoponibili a vincolo di Non-Disclosure Aggreement.

Qui (http://nikibatsprite.com/linfac/?p=7) per Nos89 e per tutti una spiegazione dettagliata di come funzioni e quali siano i punti previsti dai contratti di riservatezza dei videogiochi moderni mentre qui un link (http://nikibatsprite.com/linfac/wp-content/uploads/NDA_ita_standard.rtf) ad una bozza di un vero documento NDA.
Mi spiace dover andare OT, ma purtroppo mi è necessario spiegare le cose a chi le seppur le conosce nel nome, non le applica nella vita. Nel mio studio di ingegneria, per gli incarichi importanti, di contratti NDA ne facciamo sempre due copie sottoscritte tra noi e il cliente.
NM.

si ok....ma a parte spiegarmi questa cosa....mi sembra che non hai altro da dire;)inoltre quando mi pare ti linko duemila test di Crisys dove G80 da la polvere a R600...ma siccome non sono attendibili lascio perdere

Scrambler77
09-08-2007, 14:58
Mi spiace dover andare OT, ma purtroppo mi è necessario spiegare le cose a chi pur conoscendole nel nome, non le applica nella vita. Nel mio studio di ingegneria, per gli incarichi importanti, di contratti NDA (contratti di riservatezza) ne facciamo sempre due copie sottoscritte tra noi e il cliente.
NM.

Non siamo quì a fare "chi sono io e chi sei tu". Nel mio lavoro progetto e realizzo sistemi di automazione informatica, ogni preventivo che emetto è soggetto ad un NDA "a vita" tra me ed il cliente... e, tra l'altro, è un documento parecchio flessibile e poco standardizzato. L'NDA non è il punto della questione.

Cmq, tornando al nocciolo della questione, in passato abbiamo visto tanti post su fantomatiche prestazioni... un pò in tutti i settori, quasi puntualmente smentiti all'atto pratico (ho un paio di link in proposito che potrei riportare alla memoria), ma dato che oggi non ci sono dati certi (perdonate il gioco di parole) e l'ostinazione di alcuni si basa solo su ipotesi e deduzioni su basi incerte, la discussione sta diventando sterile. Nessuno cambierà idea.

Meglio tornare IT e lasciare che il tempo ci dia le risposte che aspettiamo. Allora chi dovrà farà mea culpa, e chi avrà avuto ragione non starà quì a ricordarlo più del necessario. In ogni caso trovo la discussione parecchio interessante (purchè resti nei canoni del rispetto reciproco).

NvidiaMen
09-08-2007, 15:13
Questo è senz'altro vero, ma con un occhio non accecato dal pregiudizio appare evidente che quel "Crysis Demo: High Detail" non dice nulla.

Quale tipo di AA? Quanto MotionBlur? Quante ombre? Per non parlare del driver nvidia utilizzato (uno dei primi per vista, quando con release successive si sono visti incrementi parecchio accentuati su vari settori. Non si accenna invece ai drivers ATi).
Mi pare quindi un test un tantino generico per considerarlo un metro di valutazione, anzi si presta facilmente ai fanboysmi a cui abbiamo assistito... Io lo considero un fake, e non perchè mi conviene. Quando ci sarà Crysis, probabilmente poco dopo avrò G92.

EDIT: tra l'altro sembra l'unico bench in circolazione... come mai?

Oggi, fanboys nVidia siete capitati male... Infatti sono particolarmente cattivo perchè venendo a mancare (per ferie ovviamente) un nostro collaboratore ho dovuto fare un rilievo strumentale di circa 1Km su una strada di montagna sotto il sole, per cui adesso ne ho un pò per tutti...

1) Test high quality. Stop. Tutto attivato. Si tratta di un test non di una recensione. Il test è stato eseguito con tutte le opzioni attivabili alla risoluzione che sembrava più adeguata (per chi lo ha eseguito) per avere un framerate adeguato e far trapelare la validità del motore Cry Engine 2.

2) Il test è stato presumibilmente eseguito in occasione dell'uscita di R600 (ricordo che agli sviluppatori la GPU è giunta prima rispetto al canale retail/OEM), per cui per quel periodo gli ultimi drivers Nvidia Forceware erano i 100.65 WHQL, mentre le prime versioni di 2900XT, per chi lo ricorda, erano accompagnati da un driver (non appartenente alla serie catalyst) appositamente scritto per R600.

Il fanboysmo al quale ti riferisci è il mio, cioè di uno con un nick come il mio?
Certamente il riferimento sarà a qualcun altro dato che da quando è nata nVidia io ho sempre avuto due PC: uno di marca Intel ed uno di marca nVidia (solo adesso mi ritrovo con al posto di un Intel un chipset AMD/ATi/ULi) per cui ho sempre avuto modo di apprezzare le tecnologie indipendentemente dal produttore. Tuttavia osservando le caratteristiche hardware dei prodotti presenti sul mercato trovo corretto fare osservazioni su quale, ovviamente IMHO, sia la più consona ad un determinato utilizzo, periodo, longevità e budget di spesa.
NM.

Scrambler77
09-08-2007, 15:18
[CUT] ...la discussione sta diventando sterile. Nessuno cambierà idea.

Meglio tornare IT e lasciare che il tempo ci dia le risposte che aspettiamo. Allora chi dovrà, farà mea culpa, e chi avrà avuto ragione non starà quì a ricordarlo più del necessario.

Mi auto-quoto per ribadire il concetto. Non darò ulteriore seguito a qualsiasi provocazione (anche perchè poi vengo puntualmente sospeso).

Buone vacanze a tutti.

M4R1|<
09-08-2007, 15:22
Mi auto-quoto per ribadire il concetto. Non darò ulteriore seguito a qualsiasi provocazione (anche perchè poi vengo puntualmente sospeso).

Buone vacanze a tutti.

bho forse te la cerchi la sospensione;)

NvidiaMen
09-08-2007, 15:47
Non siamo quì a fare "chi sono io e chi sei tu". Nel mio lavoro progetto e realizzo sistemi di automazione informatica, ogni preventivo che emetto è soggetto ad un NDA "a vita" tra me ed il cliente... e, tra l'altro, è un documento parecchio flessibile e poco standardizzato. L'NDA non è il punto della questione.

Carissimo Scrambler77, ogni mio intervento (basta che tu li rilegga, tanto gli ultimi si trovan tutti nella stessa pagina) non è stato per nulla un attacco a questo o quell'utente, ma semplicemente a chi sin dall'inizio screditava con la parola "caxxate" o "cavolate" ciò che scrivevo.
Nè tantomeno voglio mettere la questione sui binari io sò più di te, ma semplicemente chiarire che non son certo uno sprovveduto e certe cose (come ad esempio gli NDA) le conosco anche io, come te e tanti altri d'altronde. Purtroppo in Italia c'è chi afferma o vuol far passare emendamenti truffa al Parlamento che tra i dati sensibili della privacy debbano rientrare anche i titoli culturali (ovviamente ciò determinerebbe la possibilità per molti di farsi credito con falsi CV, non impugnabili in fase civile, per scavalcare concorrenti nei concorsi pubblici, in seguito alla tutela della privacy che è addirittura perseguita penalmente). Ebbene l'affermazione che la pubblicazione di FPS rientrino o possano rientrare all'interno dei punti di un contratto NDA, se non certamente coincidente ad una situazione del genere, certamente non ne è molto distante.
In conclusione sono daccordo con te nel chiudere questo totale OT, rimasto in ogni caso nei canoni della civiltà ai quali gli utenti di questo forum sono abituati, ed a rimandare a quando saranno disponibili dati certi su DX10 dilungaggini ed osservazioni in merito alle diverse architetture grafiche.
Ciao e buone vacanze anche da parte mia a te e a chi ci ha sopportati fino ad ora. ;)
NM.

Scrambler77
09-08-2007, 15:49
[CUT]
Ciao e buone vacanze anche da parte mia a te e a chi ci ha sopportati fino ad ora. ;)
NM.

:mano:

Nos89
09-08-2007, 16:14
bho forse te la cerchi la sospensione;)

ma stranamente solo chi ha schede video della Serie 88xx viene sospeso in questo topic chissa perchè.....e i mod lo sanno bene:rolleyes:

FreeMan
09-08-2007, 16:19
stop flame e stop critiche all'operato dei mod... viene sospeso che fa casino non chi ha un determinato Hw.. ma figuriamoci :rolleyes:

chi continua verrà sospeso.. ricordo che le regole del thread non sono cambiate

>bYeZ<

Vifani
09-08-2007, 16:20
Ragazzi per cortesia mantenete la discussione su toni costruttivi, altrimenti ci saranno sicuramente provvedimenti.

FreeMan
09-08-2007, 16:21
ma stranamente solo chi ha schede video della Serie 88xx viene sospeso in questo topic chissa perchè.....e i mod lo sanno bene:rolleyes:

però questa frase + la leggo e meno mi piace.. e visti i tuoi precedenti, sospeso 5gg

>bYeZ<

mtk
09-08-2007, 16:26
ciao....a me questi confronti tra "opposte fazioni" invece piacciono parecchio :D :D
....piacciono perche' valgono molto piu' di due o trecento pagine di flame sterili o di discussioni rigorosamente ot a chi fa' di piu' a 3dmerd06 o fps con questo o quel gioco(troppe variabili anche con stessa mamma/ram/procio....ci sono tanti altri componenti hardware e programmi installati..),in questi scontri tra esperti il piu' delle volte si capiscono tante cose,scelte progettuali,sviluppi futuri(piu o meno probabili),dritte per risolvere qualche problema,ecc...
io non ho ne la serie 8800 ne la 2900,mi appoggio ancora a schede dx9 e per ora mi bastano e avanzano,ma in ottica futura inizio ad informarmi...alcuni di voi li ho gia' letti e apprezzati in altri trhead altri li sto scoprendo in questo,il succo del discorso,la ciccia,la cotica e' che quando vi inc.... vi inalberate spiegando le vostre tesi si impara sempre qualcosa.
per cui grazie per le info e proseguite a "impararmi" ste cose ragazzuoli :D

ps.e poi sto trhead mi fa' ghignare come un pazzo :asd:

FreeMan
09-08-2007, 16:32
mtk hai la sign irregolare

Signature: 3 righe a 1024 solo testo con massimo 3 smiles dell'Hardware Upgrade Forum oppure un'immagine 100 X 50 X 5KB e una riga di testo (non deve andare a capo).


sei pregato di editarla

>bYeZ<

mtk
09-08-2007, 16:44
ops!...sorry,colpa mia arbitro :D .......cambiai monitor e non mi accorsi della firma abbondante durante l ultima modifica.....

ps.venduto pure il duron :asd:

mtk
09-08-2007, 16:57
...e puliamole ste caselle di posta......

Iantikas
09-08-2007, 17:24
La pretesa di molti (forse non la tua, non so...) invece, è quella di "tirare" a tutti i costi una scheda da 350 euro a livelli di una da 600 euro, solo sullo spunto dei "drivers immaturi". A me pare che siano questi i discorsi da fanboy, poi ognuno la vede come vuole.

Io la vedo che AMD ha dovuto ridimensionare DOPO il prezzo del suo R600 perchè non è riuscita a riprendersi lo scettro delle prestazioni assolute. Tutto ciò giustifica pure i ritardi del suo lancio.

Ricapitolando questo 3d:

Aspettiamo R600 -> Andrà più forte di G80, garantito!
R600 tarda di 6 mesi -> AMD sta preparando un mostro!
Arrivano i primi bench -> Si ma sono fake!
AMD lancia R600 -> Fantastico! E costa "appena" 350 euro
Ha prestazioni da GTS -> Si ma i drivers sono "acerbi"
Arrivano i bench ufficiali -> Si ma i drivers sono ancora "acerbi"
I drivers ormai maturano -> Si ma R600 andrà meglio in DX10
R600 va come GTS in dx10 -> Si ma costa "solo" 350 euro...

Insomma, un cane che si morde la coda. Non si fa prima a dire che R600 è nato storto e gli hanno dato il giusto prezzo, aspettiamo R700 e pace? No. R600 va meglio e chi ha nVidia è un fanboy e basta (no perchè questo si capisce da sto 3d).

Si possono dire tante cose senza necessariamente insultare nessuno. ;) ciao.


se avessi letto i miei post precedenti in questo 3d sapresti ke son perfettamente daccordo su questo punto...

...ki ha comprato questa skeda in attesa del miracolo (sorpasso GTX/Ultra) nn può ke rimanere deluso (alcune motivazioni su cui mi baso le avevo scritte nel post precedente a quello ke avevi quotato)...

...i driver nn porteranno nessun miracolo...miglireranno così come migliorano i driver d tutte le nuove arkitetture duratne i primi mesi d vita...

...e mi trovi + ke daccordo anke x il discorso DX10...alcune frasi e filoni d pensieri (tipo "R600 è una skeda DX10 adattata alle DX9 e G80 una skeda DX9 adattata alle DX10") hanno del ridicolo...com'è ridicolo anke basare le prestazioni d una skeda in DX10 sulla sola arkitettura (dato ke al momento è l'unica cosa concreta ke si ha)...nn ci sono ancora gli strumenti x poter definire come andranno le skede attuali in DX10...

...purtroppo come esistono i fanboy nvidia esistono pure quelli ati...infine ankio son del parere ke con R600 qualcosa è andato storto (la travagliat astoria del progetto parla troppo kiaroin tal senso) e ke la skeda attualmente in vendita nn sia quella ke avrebbero voluto immettere...xò hanno avuto la lungimiranza d posizionare la skeda al prezzo giusto x le prestazioni ke offre...se R600 fosse uscito a 600€ sarebbe stato un flop clamoroso...al suo prezzo xò lo è solo x ki appunto attendeva una skeda da 600€, ki invece voleva (vuole) una skeda da 350€ è un ottimo aquisto (ke, considerando tutti i fattori, se la batte alla pari con la GTS640)...


...ciao

Evangelion01
09-08-2007, 17:43
se avessi letto i miei post precedenti in questo 3d sapresti ke son perfettamente daccordo su questo punto...
...ki ha comprato questa skeda in attesa del miracolo (sorpasso GTX/Ultra) nn può ke rimanere deluso (alcune motivazioni su cui mi baso le avevo scritte nel post precedente a quello ke avevi quotato)...

...i driver nn porteranno nessun miracolo...miglireranno così come migliorano i driver d tutte le nuove arkitetture duratne i primi mesi d vita...
..ciao

E finalmente qualcuno che dice le cose come stanno... :mano:
Io è dall' inizio che sostenevo che i drivers miracolosi non esistono, e che la 2900 comunque sarebbe rimasta prestazionalmente tra gts e gtx , ma ho dovuto subire anche diversi insulti perchè c' era chi sosteneva il contrario... ora che i fatti parlano chiaro ,vorrei proprio risentire questa persona.
Poi un conto è dire che r600 fa schifo, che è una forzatura e una balla, un conto è esprimere semplicemente un parere alla luce dei risultati che si sono visto fino ad adesso.

FreeMan
09-08-2007, 17:47
stesso discorso per Evangelion01: hai la sign irregolare.. vedi sopra

...e puliamole ste caselle di posta......

what?

>bYeZ<

Evangelion01
09-08-2007, 18:06
stesso discorso per Evangelion01: hai la sign irregolare.. vedi sopra



what?

>bYeZ<

Ora va meglio :)

Scrambler77
09-08-2007, 18:17
E finalmente qualcuno che dice le cose come stanno... :mano:


Quoto.

Ora va meglio :)

L'hai lavata con perlana? :asd:

Defragg
09-08-2007, 19:06
L'hai lavata con perlana? :asd:

Black (and orange) Magic. :O

halduemilauno
09-08-2007, 20:03
se avessi letto i miei post precedenti in questo 3d sapresti ke son perfettamente daccordo su questo punto...

...ki ha comprato questa skeda in attesa del miracolo (sorpasso GTX/Ultra) nn può ke rimanere deluso (alcune motivazioni su cui mi baso le avevo scritte nel post precedente a quello ke avevi quotato)...

...i driver nn porteranno nessun miracolo...miglireranno così come migliorano i driver d tutte le nuove arkitetture duratne i primi mesi d vita...

...e mi trovi + ke daccordo anke x il discorso DX10...alcune frasi e filoni d pensieri (tipo "R600 è una skeda DX10 adattata alle DX9 e G80 una skeda DX9 adattata alle DX10") hanno del ridicolo...com'è ridicolo anke basare le prestazioni d una skeda in DX10 sulla sola arkitettura (dato ke al momento è l'unica cosa concreta ke si ha)...nn ci sono ancora gli strumenti x poter definire come andranno le skede attuali in DX10...

...purtroppo come esistono i fanboy nvidia esistono pure quelli ati...infine ankio son del parere ke con R600 qualcosa è andato storto (la travagliat astoria del progetto parla troppo kiaroin tal senso) e ke la skeda attualmente in vendita nn sia quella ke avrebbero voluto immettere...xò hanno avuto la lungimiranza d posizionare la skeda al prezzo giusto x le prestazioni ke offre...se R600 fosse uscito a 600€ sarebbe stato un flop clamoroso...al suo prezzo xò lo è solo x ki appunto attendeva una skeda da 600€, ki invece voleva (vuole) una skeda da 350€ è un ottimo aquisto (ke, considerando tutti i fattori, se la batte alla pari con la GTS640)...


...ciao

apprezzo il tono usato e mi trovi d'accordo su molto. ma una cosa va detta anzi ridetta:
"se R600 fosse uscito a 600€ sarebbe stato un flop clamoroso"
no. se fosse uscito a 600€ non sarebbe stato un flop sarebbe stato un'errore. l'R600 è e rimane un flop perchè da essa ci si attendeva di + molto di +. era stato annunciato, vacheggiato e persino spauracchiato(mi si conceda il termine)essa doveva essere la 8800gtx killer. doveva superare in ogni dove e di molto sia la 8800gtx e sia il suo stra annunciato refresh ultra. tutto ciò non è stato e ormai non lo sarà mai. no troppo facile dire non è un flop perchè amd ha capito e ha proposto la scheda ad un prezzo più basso. amd ha proposto la sua scheda ad un prezzo più basso proprio perchè era l'unica cosa da fare costretta proprio perchè la sua scheda si è rivelata un flop. flop non è una parolaccia, un'offesa, avrete letto, sentito quel tal film annunciato per essere chissa cosa un blockbuster e invece niente appunto si è rivelato un flop.
tutto qui.
;)

oro18k
09-08-2007, 20:12
ciao ragazzi, ho un quesito da esporvi ma nn so se questo è il posto giusto, vi spiego:

ho comprato un cavo hdmi per collegarlo al mio Samsung LE32R76B, abilito lo schervo e funziona tutto ma il problema sorge quando, abilitando dalle proprità dell'audio l'audio della vga, non sento nulla. Sbaglio qualcosa? o magari l'audio non può essere trasmesso così?

scusate forse per l'OT

ciao!

Defragg
09-08-2007, 20:15
apprezzo il tono usato e mi trovi d'accordo su molto. ma una cosa va detta anzi ridetta:
"se R600 fosse uscito a 600€ sarebbe stato un flop clamoroso"
no. se fosse uscito a 600€ non sarebbe stato un flop sarebbe stato un'errore. l'R600 è e rimane un flop perchè da essa ci si attendeva di + molto di +. era stato annunciato, vacheggiato e persino spauracchiato(mi si conceda il termine)essa doveva essere la 8800gtx killer. doveva superare in ogni dove e di molto sia la 8800gtx e sia il suo stra annunciato refresh ultra. tutto ciò non è stato e ormai non lo sarà mai. no troppo facile dire non è un flop perchè amd ha capito e ha proposto la scheda ad un prezzo più basso. amd ha proposto la sua scheda ad un prezzo più basso proprio perchè era l'unica cosa da fare costretta proprio perchè la sua scheda si è rivelata un flop. flop non è una parolaccia, un'offesa, avrete letto, sentito quel tal film annunciato per essere chissa cosa un blockbuster e invece niente appunto si è rivelato un flop.
tutto qui.
;)

Hai proprio una concezione sbagliatissima di flop, R600 vende e un flop non vende. Invece si può dire che R600 abbia deluso le aspettative, giusto, ma flop è un prodotto che nonostante le grandi aspettative/premesse al momento della messa sul mercato risulta un investimento dannoso per la società che lo ha ideato e messo in commercio.

Giusto per precisare: definizione di flop (http://www.demauroparavia.it/44595)
;)

halduemilauno
09-08-2007, 20:25
Hai proprio una concezione sbagliatissima di flop, R600 vende e un flop non vende. Invece si può dire che R600 abbia deluso le aspettative, giusto, ma flop è un prodotto che nonostante le grandi aspettative/premesse al momento della messa sul mercato risulta un investimento dannoso per la società che lo ha ideato e messo in commercio.

Giusto per precisare: definizione di flop (http://www.demauroparavia.it/44595)
;)

hanno usato il mio stesso esempio. esatto insuccesso, fiasco. anche tu hai una concezione un pò strana di vende. anche un film flop viene visto da qualcuno e quindi? vende ma hai visto gli ultimi risultati finanziari di amd? e magari se stai pensando che i risultati negativi di amd dipendano dal settore cpu come ti spieghi i risultati estremamente positivi che sta ottenendo nvidia.

Defragg
09-08-2007, 20:48
hanno usato il mio stesso esempio. esatto insuccesso, fiasco. anche tu hai una concezione un pò strana di vende. anche un film flop viene visto da qualcuno e quindi? vende ma hai visto gli ultimi risultati finanziari di amd? e magari se stai pensando che i risultati negativi di amd dipendano dal settore cpu come ti spieghi i risultati estremamente positivi che sta ottenendo nvidia.

Il punto è che R600 vende. E nVidia pure...

Hardware Upgrade: qual è stata la reazione di mercato a seguito della commercializzazione delle schede Radeon HD 2900 XT?

John Byrne: posso risponderti dicendoti che tutte le schede Radeon HD 2900 XT immesse sul mercato sono state vendute, e che siamo in shortage: i nostri partner AIB hanno venduto tutte le schede e se domandi loro quante schede abbiano a disposizione, la risposta è che non ne hanno a sufficienza (nota dell'autore: incuriositi da questa risposta abbiamo fatto alcune verifiche con dei partner AIB, ottenendo risposte allineate a quanto anticipato da John Byrne: le schede Radeon HD 2900 XT che sono state date ai partner sono state tutte vendute, e questi ultimi vorrebbero averne in volumi superiori in quanto la domanda continua a restare sostenuta).

http://www.hwupgrade.it/articoli/skvideo/1763/intervista-ad-amd-parte-2-il-mercato_3.html
;)

davide155
09-08-2007, 21:02
Il punto è che R600 vende. E nVidia pure...



http://www.hwupgrade.it/articoli/skvideo/1763/intervista-ad-amd-parte-2-il-mercato_3.html
;)

Azz questa non la sapevo.........

Bene per ati/amd!

Speriamo che in dx10 sia una bomba, così me la prendo anche io ad ottobre :D
Altrimenti aspetto le revisioni :O

NvidiaMen
09-08-2007, 21:04
apprezzo il tono usato e mi trovi d'accordo su molto. ma una cosa va detta anzi ridetta:
"se R600 fosse uscito a 600€ sarebbe stato un flop clamoroso"
no. se fosse uscito a 600€ non sarebbe stato un flop sarebbe stato un'errore. l'R600 è e rimane un flop perchè da essa ci si attendeva di + molto di +. era stato annunciato, vacheggiato e persino spauracchiato(mi si conceda il termine)essa doveva essere la 8800gtx killer. doveva superare in ogni dove e di molto sia la 8800gtx e sia il suo stra annunciato refresh ultra. tutto ciò non è stato e ormai non lo sarà mai. no troppo facile dire non è un flop perchè amd ha capito e ha proposto la scheda ad un prezzo più basso. amd ha proposto la sua scheda ad un prezzo più basso proprio perchè era l'unica cosa da fare costretta proprio perchè la sua scheda si è rivelata un flop. flop non è una parolaccia, un'offesa, avrete letto, sentito quel tal film annunciato per essere chissa cosa un blockbuster e invece niente appunto si è rivelato un flop.
tutto qui.
;)
Dati di fatto:
1) R600 non ha le stesse prestazioni di GTX e di ULTRA in DX9 (tranne in qualche rarissimo test intensive shader);
2) Proprio per questo motivo ed in virtù del fatto che di software DX10 non se ne vede nemmeno l'ombra si è scelto di immetterla sul mercato in una di fascia di prezzo aggressiva;
3) Nessuno conosce, ad oggi, le effettive prestazioni di R600 e di 8800 in full DX10 per cui affermare che la 2900xt sia un flop è assurdo.

Precisazione sul punto 3.
Io con considerazioni, che per non offendere chi legge preciso essere strettamente personali, sull'architettura proposta da ATi con la 2900XT prevedo che le librerie DX10 premieranno maggiormente le GPU intensive shaders come R600, anche con la limitazione sulle capacità di texturing, in quanto non avrebbe senso precaricare textures enormi, utili nel segmentare in modo differenziato la superficie per determinare i punti con differente illuminazione e normale alla superficie (per il bump mapping), se si è in grado di calcolarne l'effettiva resa cromatica con gli algoritmi complessi permessi dagli shader procedurali.
Dato che al solito io non sono mai convincente e credibile riporto un concetto direttamente da wikipedia sul funzionamento dell'illuminazione dinamica in tempo reale nel mondo della computer grafica:

L'obiettivo di ogni algoritmo di shading è determinare il colore risultante di uno specifico punto sulla superficie di un oggetto. Gli shader programmabili offrono grande versatilità in questo, basandosi su linguaggi di programmazione specifici detti "linguaggi di shading". Questi linguaggi vengono sviluppati per applicazioni specifiche nella computer grafica, e includono algebra lineare e caratteristiche mirate alle problematiche di illuminazione. Gli shader possono includere qualsiasi tecnica di illuminazione, texture mapping e manipolazione geometrica. Uno "shader procedurale" determina il colore risultante in maniera completamente algoritmica: possono così risultare convincenti senza bisogno di grandi texture. (http://it.wikipedia.org/wiki/Computer_grafica_3D)

Il fatto dunque che ATi abbia deciso di sacrificare in potenza elaborativa le unità di texturing a favore degli shaders NON E' DUNQUE FRUTTO DI UN ERRORE, come spesso si sente ripetere da alcuni utenti in questo thread, ma risulta una precisa scelta progettuale che pagherà nei softwares di prossima introduzione. Ricordo che ATi collabora con Microsoft (la mamma di DirectX), sin dall'accordo di produrre la GPU Xenos per le Xbox360, per cui se hanno fatto questa scelta per le GPU R600, base per le successive evoluzioni delle future GPU per consolle di Gates, un motivo ben preciso ci sarà.
NM.

Pat77
09-08-2007, 21:15
ciao ragazzi, ho un quesito da esporvi ma nn so se questo è il posto giusto, vi spiego:

ho comprato un cavo hdmi per collegarlo al mio Samsung LE32R76B, abilito lo schervo e funziona tutto ma il problema sorge quando, abilitando dalle proprità dell'audio l'audio della vga, non sento nulla. Sbaglio qualcosa? o magari l'audio non può essere trasmesso così?

scusate forse per l'OT

ciao!

Ma che driver hai? Il procedimento che hai usato penso sia corretto, a meno che non ci sia da abilitare qualche altra voce in windows, purtroppo non ho ancora provato per aiutarti in modo più specifico.

M4R1|<
09-08-2007, 21:45
ciao ragazzi, ho un quesito da esporvi ma nn so se questo è il posto giusto, vi spiego:

ho comprato un cavo hdmi per collegarlo al mio Samsung LE32R76B, abilito lo schervo e funziona tutto ma il problema sorge quando, abilitando dalle proprità dell'audio l'audio della vga, non sento nulla. Sbaglio qualcosa? o magari l'audio non può essere trasmesso così?

scusate forse per l'OT

ciao!

allora è un problema di priorità (windows nn le riconosce), cmq devi fare: pannello di cotrollo(in visualizazione classica), audio, riproduzione, e li selezioni come predefinito l'audio attraverso hdmi. questa procedura è per win vista, nn credo che sia molto diversa in xp, cmq avendo una 2900 ed essa avendo l'hdmi nn sei fuori ot;)

fammi sapere se ti funziona

M4R1|<
09-08-2007, 21:51
Dati di fatto:
1) R600 non ha le stesse prestazioni di GTX e di ULTRA in DX9 (tranne in qualche rarissimo test intensive shader);
2) Proprio per questo motivo ed in virtù del fatto che di software DX10 non se ne vede nemmeno l'ombra si è scelto di immetterla sul mercato in una di fascia di prezzo aggressiva;
3) Nessuno conosce, ad oggi, le effettive prestazioni di R600 e di 8800 in full DX10 per cui affermare che la 2900xt sia un flop è assurdo.

Precisazione sul punto 3.
Io con considerazioni, che per non offendere chi legge preciso essere strettamente personali, sull'architettura proposta da ATi con la 2900XT prevedo che le librerie DX10 premieranno maggiormente le GPU intensive shaders come R600, anche con la limitazione sulle capacità di texturing, in quanto non avrebbe senso precaricare textures enormi, utili nel segmentare in modo differenziato la superficie per determinare i punti con differente illuminazione e normale alla superficie (per il bump mapping), se si è in grado di calcolarne l'effettiva resa cromatica con gli algoritmi complessi permessi dagli shader procedurali.
Dato che al solito io non sono mai convincente e credibile riporto un concetto direttamente da wikipedia sul funzionamento dell'illuminazione dinamica in tempo reale nel mondo della computer grafica:

L'obiettivo di ogni algoritmo di shading è determinare il colore risultante di uno specifico punto sulla superficie di un oggetto. Gli shader programmabili offrono grande versatilità in questo, basandosi su linguaggi di programmazione specifici detti "linguaggi di shading". Questi linguaggi vengono sviluppati per applicazioni specifiche nella computer grafica, e includono algebra lineare e caratteristiche mirate alle problematiche di illuminazione. Gli shader possono includere qualsiasi tecnica di illuminazione, texture mapping e manipolazione geometrica. Uno "shader procedurale" determina il colore risultante in maniera completamente algoritmica: possono così risultare convincenti senza bisogno di grandi texture. (http://it.wikipedia.org/wiki/Computer_grafica_3D)

Il fatto dunque che ATi abbia deciso di sacrificare in potenza elaborativa le unità di texturing a favore degli shaders NON E' DUNQUE FRUTTO DI UN ERRORE, come spesso si sente ripetere da alcuni utenti in questo thread, ma risulta una precisa scelta progettuale che pagherà nei softwares di prossima introduzione. Ricordo che ATi collabora con Microsoft (la mamma di DirectX), sin dall'accordo di produrre la GPU Xenos per le Xbox360, per cui se hanno fatto questa scelta per le GPU R600, base per le successive evoluzioni delle future GPU per consolle di Gates, un motivo ben preciso ci sarà.
NM.

come nn quotarti, l'unica cosa che aggiungerei è: gli ingegneri ati nn sono di certo scemi, e soprattutto avendo una collaborazione con ms, una dritta l'avranno pur avuta;)

Scrambler77
09-08-2007, 21:58
come nn quotarti, l'unica cosa che aggiungerei è: gli ingegneri ati nn sono di certo scemi, e soprattutto avendo una collaborazione con ms, una dritta l'avranno pur avuta;)

Azz... se fosse vero, ci sarebbero quasi gli estremi per una causa in tribunale!! :asd:

zorco
09-08-2007, 22:00
Azz questa non la sapevo.........

Bene per ati/amd!

Speriamo che in dx10 sia una bomba, così me la prendo anche io ad ottobre :D
Altrimenti aspetto le revisioni :O
è una bella scheda,va bene con tutti i giochi non ti fare infinocchiare dai fregnaccioni..:p

NvidiaMen
09-08-2007, 22:08
Azz... se fosse vero, ci sarebbero quasi gli estremi per una causa in tribunale!! :asd:

In questo mondo di mexxa, in cui tutto è votato all'interesse ed al profitto nulla è da escludere purtroppo... In ogni caso nVidia con G92 (mio prox acquisto per il mio secondo PC se sarà, come prevedibile, un'architettura intensive shaders) non starà certo a guardare proponendosi al vertice come ha sempre cercato di fare.
Il vero problema ad oggi è che le VGA DX10 pur essendo in commercio (questo grazie a nVidia) da quasi un anno non possono ancora contare su softwares in grado di sfruttarle a dovere.

Scrambler77
09-08-2007, 22:11
è una bella scheda,va bene con tutti i giochi non ti fare infinocchiare dai fregnaccioni..:p

ipse dixit. :ciapet:

Catan
09-08-2007, 22:29
ragazzi ho un problema con lostplanet...a parte steam ovviamente
è un problema che ho riscontrato sia con gioco a default che con gioco con patch 1.2.
praticamente al menu iniziale il gioco parte ma è ingiocabile scattoso se tramite opzioni attivo "fps on" quando ritorno al menu principale mi segna 0.83fps e rende praticamente impossibile selezionare qualsiasi altra opzione.
con molta pazieza e qualche bestemmia sono riuscito a far avviare una partita che viaggia tra i 45 ed i 60fps.
ergo è sl un problema di questo cavolo di menu.
la configurazione è quella in sign solo che al posto di una 8800gts adesso ho una hd2900xt.
che dite problemi di dvr video?
ma se cosi fosse anche il gioco andrebbe a scatti tutto non solo il menu principale...
voi che consigliate c'è un modo per togliere l'animazione in sfondo dal menu principale?

carver
09-08-2007, 22:35
questo post e' diventato inutile.... oramai sembra una gara....... con nVIDIA!

ma chissenef... se nvidia vanno meglio....

vediamo di parlare di prolemi REALI E TANGIBILI.. non di chi va piu' forte ......
x me si potrebbe anche chiudere....


cmq TRA POCO COPRERO' LOST PLANET.. E VEDO DI AIUTARTI catan

FreeMan
09-08-2007, 22:39
ipse dixit. :ciapet:

fare post utili e costruttivi? eviterebbe di essere sospesi e di doversi lamentare di conseguenza.

>bYeZ<

Free Gordon
09-08-2007, 23:47
ciao ragazzi, ho un quesito da esporvi ma nn so se questo è il posto giusto, vi spiego:
ho comprato un cavo hdmi per collegarlo al mio Samsung LE32R76B, abilito lo schervo e funziona tutto ma il problema sorge quando, abilitando dalle proprità dell'audio l'audio della vga, non sento nulla. Sbaglio qualcosa? o magari l'audio non può essere trasmesso così?
scusate forse per l'OT
ciao!


Li hai installati questi, vero? (se sei sotto XP)

http://ati.amd.com/support/drivers/xp/hdmiaudio-xp.html

×§ñåkê×
10-08-2007, 02:21
appena fatta sessione ludica... gpu a 87°... ma xkeee così tanto??? non è overcloccata :doh:

Chief
10-08-2007, 02:28
appena fatta sessione ludica... gpu a 87°... ma xkeee così tanto??? non è overcloccata :doh:

Hai per caso i 7.8 beta? se hai quelli ho notato un aumento di temperatura allucinante, infatti con i 7.7 il voltage regulator current A resta sui 18 mentre con i 7.8 beta sta sui 32 :O se hai quei driver direi di passare a quelli ufficiali ;)

Catan
10-08-2007, 07:16
ciao ragazzi, ho un quesito da esporvi ma nn so se questo è il posto giusto, vi spiego:

ho comprato un cavo hdmi per collegarlo al mio Samsung LE32R76B, abilito lo schervo e funziona tutto ma il problema sorge quando, abilitando dalle proprità dell'audio l'audio della vga, non sento nulla. Sbaglio qualcosa? o magari l'audio non può essere trasmesso così?

scusate forse per l'OT

ciao!

mmm prova a vedere se devi attivare oltre la modalità video hdmi anche la modalità audio.
ad esempio sul samsung che ho in negozio un 37" e la ps3 tocca impostare la connessione hdmi sia per il video sia per l'audio xè se si lascia solo quella per il video non si sente nulla.

Pat77
10-08-2007, 09:04
appena fatta sessione ludica... gpu a 87°... ma xkeee così tanto??? non è overcloccata :doh:

Sei in linea con i valori delle review, un mio amico col caldo fa 85 gradi in full, io ne faccio 81 nelle condizioni peggiori di afa, ieri che si è rinfrescato 49 idle e 71 full.
Comunque sono temperature di esercizio normali per questa classe di schede.

oro18k
10-08-2007, 09:45
Li hai installati questi, vero? (se sei sotto XP)

http://ati.amd.com/support/drivers/xp/hdmiaudio-xp.html

mmm ora che mi ci fai pensare ho installato solo i driver vga + ccc + i vdm e basta. cmq nelle proprietà audio lo vedo l'audio della vga ma selezionandolo non sento nulla. stasera provo a scaricarli!! grazie!


@catan: non ho controllato neppure quello, proverò a controllare meglio


grazie per l'aiuto ragazzi!

zorco
10-08-2007, 10:23
appena fatta sessione ludica... gpu a 87°... ma xkeee così tanto??? non è overcloccata :doh:
temperatura troppo elevata in full load a mè difficilmente la gpu supera i 71°,con le prime realise di driver avvirvavo intorno ai 74-75° ma non oltre...

magari cè ristagno di aria calda nel case boh...

Racer89
10-08-2007, 10:34
raga dove posso trovare i bench con gli ultimi driver?

Pat77
10-08-2007, 13:12
temperatura troppo elevata in full load a mè difficilmente la gpu supera i 71°,con le prime realise di driver avvirvavo intorno ai 74-75° ma non oltre...

magari cè ristagno di aria calda nel case boh...

Penso dipendi dall'areazione del case, dalla temperatura ambiente, in tutte le review sta da 85 a 90 in full.

Chief
10-08-2007, 13:44
Penso dipendi dall'areazione del case, dalla temperatura ambiente, in tutte le review sta da 85 a 90 in full.

A me come ad altri utenti non supera i 75 :D forse hai ragione dipende dall' areazione del Case :D,ieri ad esempio ho giocato per 4 ore ad obliovion, tornado sul desktop, Rivatuner mi ha segnato che la massima temperatura toccata dalla mia vga,era 76 :D

Pat77
10-08-2007, 13:57
A me come ad altri utenti non supera i 75 :D forse hai ragione dipende dall' areazione del Case :D,ieri ad esempio ho giocato per 4 ore ad obliovion, tornado sul desktop, Rivatuner mi ha segnato che la massima temperatura toccata dalla mia vga,era 76 :D

Io ieri dopo 2 ore e mezza di supreme commander 71, l'altro ieri dopo 2 test del 3dmark2006 81.

×§ñåkê×
10-08-2007, 13:59
Hai per caso i 7.8 beta? se hai quelli ho notato un aumento di temperatura allucinante, infatti con i 7.7 il voltage regulator current A resta sui 18 mentre con i 7.8 beta sta sui 32 :O se hai quei driver direi di passare a quelli ufficiali ;)

infatti ho i 7.8 beta :doh:

Racer89
10-08-2007, 14:00
raga sono usciti i bench della 2900xt con mem gddr4 o quelli della versione da 1gb?

Chief
10-08-2007, 14:00
infatti ho i 7.8 beta :doh:

Prova a disinstallarli e fai altri test con i 7.7 ufficiali fammi sapere poi :O

×§ñåkê×
10-08-2007, 14:05
Prova a disinstallarli e fai altri test con i 7.7 ufficiali fammi sapere poi :O

sisi ;)

SamCapone
10-08-2007, 14:17
raga sono usciti i bench della 2900xt con mem gddr4 o quelli della versione da 1gb?


Dove dove :sbav:

×§ñåkê×
10-08-2007, 14:21
Dove dove :sbav:

è una domanda :asd:

zorco
10-08-2007, 14:44
raga sono usciti i bench della 2900xt con mem gddr4 o quelli della versione da 1gb?
si tò:http://techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/index.x?pg=4

http://hardware.gotfrag.com/portal/story/38332

Iantikas
10-08-2007, 14:48
raga sono usciti i bench della 2900xt con mem gddr4 o quelli della versione da 1gb?

x cercare cose d questo tipo basta mettere su un motore d ricerca frasi del tipo "hd2900xt 1gb review"...ti sbrighi prima, trovi tutte le info a riguardo e nn devi aspettare x min/ore/giorni una risp sul forum ke magari ti linka giusto una rece magari neanke tanto completa...


...cmq queste son quelle d cui al momento mi ricordo (le prime due son fatte con i 7.7)...

... http://www.pcper.com/article.php?type=expert&aid=435&pid=2 ...

... http://techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/index.x?pg=1 ...

... http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/ ...

...ciao

Racer89
10-08-2007, 14:56
grazie x le risposte

zorco
10-08-2007, 15:04
che io sappia la hd 2900xt 1gb dd4 è indirizzata quasi esclusivamente per produttori di sistemi preassemblati tipo dell e hp..

Racer89
10-08-2007, 15:25
cmq non ho visto bene, ma mi sembra che ci sia poca differenza tra quella da 512mb e quella di 1gb, giusto?

zorco
10-08-2007, 15:32
cmq non ho visto bene, ma mi sembra che ci sia poca differenza tra quella da 512mb e quella di 1gb, giusto?
esatto..

MaRtH
10-08-2007, 15:48
cmq non ho visto bene, ma mi sembra che ci sia poca differenza tra quella da 512mb e quella di 1gb, giusto?


E' di pochissimo più potente, cosa che ad occhio nudo non sai distinguere... ;)

Racer89
10-08-2007, 15:50
e poi credo che i 512mb bastino anche x i prossimi giochi dx10 x un 22"...

Catan
10-08-2007, 15:50
cmq non ho visto bene, ma mi sembra che ci sia poca differenza tra quella da 512mb e quella di 1gb, giusto?

fondmentalmente ha una banda superiore per via del clock di 2200mhz cotro i 1650 della versione da 512.
visto che cmq il problema di questa vga non è nella banda sicuramente gli incrementi sono visibili sono a risoluzioni superiori oltre i 1600x1200 punti.

zorco
10-08-2007, 15:53
fondmentalmente ha una banda superiore per via del clock di 2200mhz cotro i 1650 della versione da 512.
visto che cmq il problema di questa vga non è nella banda sicuramente gli incrementi sono visibili sono a risoluzioni superiori oltre i 1600x1200 punti.
magari in cross fire visto l'elevata dotazione di ram può dire la sua ....

MaRtH
10-08-2007, 18:57
e poi credo che i 512mb bastino anche x i prossimi giochi dx10 x un 22"...


1680X1050?

Bastano anche 256MB di quelli buoni... ;)

bas1800
10-08-2007, 21:57
oggi ho comprato questa fantastica scheda video
un enermax da 535W la regge bene con il pc in firma
ma anche a voi la scheda produceuno strano rumore ? tipo un hd che legge ma leggero leggero ?

che programma devo usare per vedere temperature e altro?
con catalyst non lo vedo e non ho l'opzione per fare oc come mai ?

Catan
10-08-2007, 22:21
oggi ho comprato questa fantastica scheda video
un enermax da 535W la regge bene con il pc in firma
ma anche a voi la scheda produceuno strano rumore ? tipo un hd che legge ma leggero leggero ?

che programma devo usare per vedere temperature e altro?
con catalyst non lo vedo e non ho l'opzione per fare oc come mai ?

mmm per il rumore nn so che dirti ma a volte le radeon fanno una specie di rumore elettrico come un sibilo se stanno in 3d con il v-synk disabilitato.
prova ad abilitarlo dal ccc e vedi se te lo fa ancora.

per l'oc se avessi letto le qualche pagina fà per occare da ccc devi avere collegato sia l'8 pin che il 6 pin.
se no colleghi 2 6 pin e puoi occare con software di terze parti(rivatuner ed atitool ad esempio e sono anche i miei preferiti per l'oc)

bas1800
10-08-2007, 22:28
mmm per il rumore nn so che dirti ma a volte le radeon fanno una specie di rumore elettrico come un sibilo se stanno in 3d con il v-synk disabilitato.
prova ad abilitarlo dal ccc e vedi se te lo fa ancora.

per l'oc se avessi letto le qualche pagina fà per occare da ccc devi avere collegato sia l'8 pin che il 6 pin.
se no colleghi 2 6 pin e puoi occare con software di terze parti(rivatuner ed atitool ad esempio e sono anche i miei preferiti per l'oc)

e come faccio per abilitarlo ?
non trovo nessuna opzione

zorco
10-08-2007, 22:32
e come faccio per abilitarlo ?
non trovo nessuna opzione
http://www.pctuner.info/up/results/_200708/th_20070810233539_v-synic.jpg (http://www.pctuner.info/up/image.php?src=_200708/20070810233539_v-synic.jpg)

Pat77
10-08-2007, 22:45
Hai per caso i 7.8 beta? se hai quelli ho notato un aumento di temperatura allucinante, infatti con i 7.7 il voltage regulator current A resta sui 18 mentre con i 7.8 beta sta sui 32 :O se hai quei driver direi di passare a quelli ufficiali ;)

Si ma al limite cambia la temperatura in idle, come è successo, di fatto prima era sui 60-65, ora 50-55, quella in full non dovrebbe variare per i driver.
Poi ripeto dipende dal gioco, Ghost Recon dopo un ora di gioco me la porta a 83,625, Supreme max 75.
Io in quasi tutte le prove mi trovo in linea con le rilevazioni di hwupgrade, sia per hd2900 che per hd2600.

bas1800
11-08-2007, 06:30
ragazzi ho un enermax da 535w nuovo
e la 2900xt
il problema e che catalist all'avvio del pc mi dice che il mio alimentatore nn e sufficente e che ha abbassato il core
come faccio a disattivarlo ?
non posso alzare il core manualmente
non ci sono altri driver che nn fanno questo blocco ?

advapi
11-08-2007, 06:53
ciao a tutti, scusate ma perchè il CCC mi da come temperatura della scheda video 0° sia in idle che in full? :eek:
Altra domanda, nessuno di voi ha provato questa scheda in crossfire e sa dirmi se ne vale la pena oppure se è meglio attendere che esca il modello da 1GB di ram con processo a 45nm?
Grazie ciao

SamCapone
11-08-2007, 07:01
ragazzi ho un enermax da 535w nuovo
e la 2900xt
il problema e che catalist all'avvio del pc mi dice che il mio alimentatore nn e sufficente e che ha abbassato il core
come faccio a disattivarlo ?
non posso alzare il core manualmente
non ci sono altri driver che nn fanno questo blocco ?

Scusa la domanda, ma hai usato le cavi un dotazione con 2900 o quelli che avevi nel computer ? :mbe: .
Per che io con un 400W andava tutto fino a quando non usavo un gioco, poi Black out totale :stordita:
il suono che sentivi sembrava la ventola che partiva poi si fermava ?
Questo mi e successo quando ho usato il cavo che era in dotazione con la mia xt1950pro .

bas1800
11-08-2007, 07:33
Scusa la domanda, ma hai usato le cavi un dotazione con 2900 o quelli che avevi nel computer ? :mbe: .
Per che io con un 400W andava tutto fino a quando non usavo un gioco, poi Black out totale :stordita:
il suono che sentivi sembrava la ventola che partiva poi si fermava ?
Questo mi e successo quando ho usato il cavo che era in dotazione con la mia xt1950pro .

cavi in dotazione nn ce ne avevo ho attacato il monitor e basta
e poi va tutto bene
gioco a call of juarez a grafica alta e va che e una meraviglia
io volevo sapere come disattivare quel blocco sempre se qualcosa blocca

zorco
11-08-2007, 09:17
ragazzi ho un enermax da 535w nuovo
e la 2900xt
il problema e che catalist all'avvio del pc mi dice che il mio alimentatore nn e sufficente e che ha abbassato il core
come faccio a disattivarlo ?
non posso alzare il core manualmente
non ci sono altri driver che nn fanno questo blocco ?
hai collegato entrambi i cavi a sei pin alla hd 2900xt?

bas1800
11-08-2007, 10:22
hai collegato entrambi i cavi a sei pin alla hd 2900xt?

ho collegato solo quello da 8 a sinistra e basta
devo collegare anche quello da sei ? (parte piu esterna della scheda video)

zorco
11-08-2007, 10:23
ho collegato solo quello da 8 a sinistra e basta
devo collegare anche quello da sei ? (parte piu esterna della scheda video)
vanno collegati tutti e due

SamCapone
11-08-2007, 10:25
hai collegato entrambi i cavi a sei pin alla hd 2900xt?

Zorco ma il mio italiano fa cosi scifo :cry:

bas1800
11-08-2007, 10:27
vanno collegati tutti e due

ok cioe' quello da 8 e quello da 6 giiusto ?
adesso lo faccio
ma quanta corrente ha bisogno sta schedina :)

zorco
11-08-2007, 10:30
ok cioe' quello da 8 e quello da 6 giiusto ?
adesso lo faccio
ma quanta corrente ha bisogno sta schedina :)
si..

consuma circa 160w in full load..

DakmorNoland
11-08-2007, 10:30
vanno collegati tutti e due

Sì esatto se gli interessa fare overlock (cosa che cmq sconsiglio) serve collegare un cavetto 8pin e uno 6pin. Se non interessa overcloccare vanno bene anche due cavetti 6pin.

Però cmq perchè funzioni correttamente sempre due cavetti vanno collegati

zorco
11-08-2007, 10:35
Zorco ma il mio italiano fa cosi scifo :cry:

zorco
11-08-2007, 10:40
per intenderci ancora meglio

http://www.pctuner.info/up/results/_200708/th_20070811113858_DSC00068.JPG (http://www.pctuner.info/up/image.php?src=_200708/20070811113858_DSC00068.JPG)

bas1800
11-08-2007, 11:16
per intenderci ancora meglio

http://www.pctuner.info/up/results/_200708/th_20070811113858_DSC00068.JPG (http://www.pctuner.info/up/image.php?src=_200708/20070811113858_DSC00068.JPG)

adesso li ho attaccati tutto e va alla grande
grazie mille
consiaglitemi qualche giochino per sfruttarla al max

cmq i cavi non sono come quelli in foto
ne ho uno da 8 pin e uno da 6

zorco
11-08-2007, 11:23
adesso li ho attaccati tutto e va alla grande
grazie mille
consiaglitemi qualche giochino per sfruttarla al max

cmq i cavi non sono come quelli in foto
ne ho uno da 8 pin e uno da 6
io ti consiglio Colin McRae DiRT,stalker,r6v,dark messiah...

se hai un otto pin + un sei ancora meglio fornisci più corrente alla hd 2900xt..

ciao

M4R1|<
11-08-2007, 11:35
per intenderci ancora meglio

http://www.pctuner.info/up/results/_200708/th_20070811113858_DSC00068.JPG (http://www.pctuner.info/up/image.php?src=_200708/20070811113858_DSC00068.JPG)

ma per curiosità: come mai sulle ram c'è scritto DDR3 1200mhz?
e poi perchè la ventola è Nvidia:muro:

zorco
11-08-2007, 11:40
ma per curiosità: come mai sulle ram c'è scritto DDR3 1200mhz?
e poi perchè la ventola è Nvidia:muro:
dovè che è scritto ddr3 1200mhz?

nella ventola cè solo stambigliato il logo della club3d partner di ati come di nvidia..

M4R1|<
11-08-2007, 11:42
dovè che è scritto ddr3 1200mhz?

nella ventola cè solo stambigliato il logo della club che è 3d partner di ati come di nvidia..

io vedo un DDR3 però appena sulla home page del sito c'è un articolo di 1200mhz ddr2, quindi ho bagliato io

DakmorNoland
11-08-2007, 11:55
io vedo un DDR3 però appena sulla home page del sito c'è un articolo di 1200mhz ddr2, quindi ho bagliato io

E' giusto GDDR3 non GDDR2.

Filodream
11-08-2007, 12:01
Salve raga, sto per acquistare questa vga che mi ispira parecchio:p
Che dite, pensate che un alimentatore ocz gamextream 700w con 4 linee +12v da 18A ciascuna possa bastare?
Ho visto che da tale alimentatore vengono giu due cavi elettrici per pci express... chiamati pci-ex 1 e pci-ex 2.

Entrambi sono dei comuni 6 pin e qui mi sfugge una cosa... mi sembra di aver letto che la 2900xt ha un attacco da 6 e uno da 8. Come si fa per quello da 8? Possono rimanere 2 pin scoperti? Se si, quali sono quelli che dovrò lasciare scoperti?:rolleyes:

Per la marca, ci sono preferenze? Quale mi consigliate?

zorco
11-08-2007, 12:07
Salve raga, sto per acquistare questa vga che mi ispira parecchio:p
Che dite, pensate che un alimentatore ocz gamextream 700w con 4 linee +12v da 18A ciascuna possa bastare?
Ho visto che da tale alimentatore vengono giu due cavi elettrici per pci express... chiamati pci-ex 1 e pci-ex 2.

Entrambi sono dei comuni 6 pin e qui mi sfugge una cosa... mi sembra di aver letto che la 2900xt ha un attacco da 6 e uno da 8. Come si fa per quello da 8? Possono rimanere 2 pin scoperti? Se si, quali sono quelli che dovrò lasciare scoperti?:rolleyes:

Per la marca, ci sono preferenze? Quale mi consigliate?
l'ocz da 700w è stra sufficente per la hd 2900xt..

per alimentare correttamente la hd 2900xt occorono due cavi a sei pin,se vuoi abilitare l'overdrive dai ccc allora devi usararne uno a 8 + 6 pin,cmq l'oc lo puoi tranquillamente fare con due a 6 pin atravverso software quali rivatuner e atitool..

ciao

carver
11-08-2007, 12:09
Salve raga, sto per acquistare questa vga che mi ispira parecchio:p
Che dite, pensate che un alimentatore ocz gamextream 700w con 4 linee +12v da 18A ciascuna possa bastare?
Ho visto che da tale alimentatore vengono giu due cavi elettrici per pci express... chiamati pci-ex 1 e pci-ex 2.

Entrambi sono dei comuni 6 pin e qui mi sfugge una cosa... mi sembra di aver letto che la 2900xt ha un attacco da 6 e uno da 8. Come si fa per quello da 8? Possono rimanere 2 pin scoperti? Se si, quali sono quelli che dovrò lasciare scoperti?:rolleyes:

Per la marca, ci sono preferenze? Quale mi consigliate?

BASTA CHE SIA UN ALI DXX e ha gia il cavo (6+2)+6

Daytona
11-08-2007, 12:22
Guys,

vi sono info rigurado se questa bella skedozza supportera le DX 10.1 ?


1100000110100000
:)

zorco
11-08-2007, 12:26
Guys,

vi sono info rigurado se questa bella skedozza supportera le DX 10.1 ?


1100000110100000
:)
è già tanto se farà girare dignitosamente i giochi in dx10 figuriamoci quelli in dx10.1 :fagiano:

×§ñåkê×
11-08-2007, 14:10
Guys,

vi sono info rigurado se questa bella skedozza supportera le DX 10.1 ?


1100000110100000
:)

il tasselation che stà scheda ha, mi pare sia uno dei requisiti per essere dx10.1, però solo quello penso non basti, :asd: magari è un dx10.001 :asd:

Filodream
11-08-2007, 14:12
per alimentare correttamente la hd 2900xt occorono due cavi a sei pin,se vuoi abilitare l'overdrive dai ccc allora devi usararne uno a 8 + 6 pin,cmq l'oc lo puoi tranquillamente fare con due a 6 pin atravverso software quali rivatuner e atitool..

ciao

Capisco, vi ringrazio per le informazioni. Tanto non pratico overclock sulle vga.

Catan
11-08-2007, 14:14
Guys,

vi sono info rigurado se questa bella skedozza supportera le DX 10.1 ?


1100000110100000
:)

tocca vedere le specifiche delle dx10.1.
se sono inclusi cambiamenti pesanti come le dx9.b e 9.0c con lo sm3.0 o cambiamenti poco sfruttati come fu il passaggio da dx8.0 a dx8.1

MonsterMash
11-08-2007, 14:15
Scusa la domanda, ma hai usato le cavi un dotazione con 2900 o quelli che avevi nel computer ? :mbe: .
Per che io con un 400W andava tutto fino a quando non usavo un gioco, poi Black out totale :stordita:
il suono che sentivi sembrava la ventola che partiva poi si fermava ?
Questo mi e successo quando ho usato il cavo che era in dotazione con la mia xt1950pro .

Ciao, è probabile che il tuo problema sia dovuto all'alimentatore non abbastanza potente. 400W sono davvero pochini per un sistema con 2900xt. Ti servirebbe minimo un 500W di marca per stare tranquillo (molto di più se vuoi fare overclock).

Ciao

Catan
11-08-2007, 14:25
Ciao, è probabile che il tuo problema sia dovuto all'alimentatore non abbastanza potente. 400W sono davvero pochini per un sistema con 2900xt. Ti servirebbe minimo un 500W di marca per stare tranquillo (molto di più se vuoi fare overclock).

Ciao

decisamente se vuoi stare a risparmio ma prende un ali ottimo ti consiglio LC titan sli-cf 560w doppia linea a 18a sui 12v e costa sui 50E se no per meno di 100 si prende anche lc da 700w ma posso assicurarti che il mio titan regge tranquillo la vga clokkata a 825-1000

MonsterMash
11-08-2007, 14:33
decisamente se vuoi stare a risparmio ma prende un ali ottimo ti consiglio LC titan sli-cf 560w doppia linea a 18a sui 12v e costa sui 50E se no per meno di 100 si prende anche lc da 700w ma posso assicurarti che il mio titan regge tranquillo la vga clokkata a 825-1000

Io con circa 100 euro mi sono portato a casa quella bestia dell'LC Power Arkangel da 850W :D

SamCapone
11-08-2007, 14:54
Ciao, è probabile che il tuo problema sia dovuto all'alimentatore non abbastanza potente. 400W sono davvero pochini per un sistema con 2900xt. Ti servirebbe minimo un 500W di marca per stare tranquillo (molto di più se vuoi fare overclock).

Ciao
Grazie MonsterMash .
Ho un a 650W adesso :D e pensavo che era grande ma leggendo voi, e il minimo .

zorco
11-08-2007, 15:02
Grazie MonsterMash .
Ho un a 650W adesso :D e pensavo che era grande ma leggendo voi, e il minimo .
e pensavi bene un 650w è spropositato per una singola vga ... certo per chi ricerca oc da record per procio e vga allora potrebbe risultare un pò stretto..

22_12_2012
11-08-2007, 16:35
salve a tutti:)

con l'arrivo del nuovo monitor ( un Dell 27" HD 1920X1200) devo ahimè mandare in pensione la mia 1950PRO 256Mb...pensavo dunque a questa nuova ati, dato che ho visto pure l'arrivo della versione 1.024Mb per dare un pò di sprint alle risoluzione fullHD

Ho trovato questa review (http://hardware.gotfrag.com/portal/story/38332?spage=1), non mi sembra male il divario a 1920x1200, inoltre avrei già trovato la versione a 1024Mb a 439€ ( in Germania ) della Club 3d

http://img528.imageshack.us/img528/2820/cgaxxt2924dp2.th.jpg (http://img528.imageshack.us/my.php?image=cgaxxt2924dp2.jpg)

dalla img, sembrerebbe avere le 3 pipe, quindi un miglior raffreddamento?

Che ne pensate:(

@ndre1
11-08-2007, 16:50
salve a tutti:)

con l'arrivo del nuovo monitor ( un Dell 27" HD 1920X1200) devo ahimè mandare in pensione la mia 1950PRO 256Mb...pensavo dunque a questa nuova ati, dato che ho visto pure l'arrivo della versione 1.024Mb per dare un pò di sprint alle risoluzione fullHD

Ho trovato questa review (http://hardware.gotfrag.com/portal/story/38332?spage=1), non mi sembra male il divario a 1920x1200, inoltre avrei già trovato la versione a 1024Mb a 439€ ( in Germania ) della Club 3d

http://img528.imageshack.us/img528/2820/cgaxxt2924dp2.th.jpg (http://img528.imageshack.us/my.php?image=cgaxxt2924dp2.jpg)

dalla img, sembrerebbe avere le 3 pipe, quindi un miglior raffreddamento?

Che ne pensate:(

ke mobo hai??

22_12_2012
11-08-2007, 16:59
ke mobo hai??

why?...non ho ancora deciso la mobo...sto aggiornando il pc...sara un p35 da affiancare ad un E6850:)

@ndre1
11-08-2007, 17:29
why?...non ho ancora deciso la mobo...sto aggiornando il pc...sara un p35 da affiancare ad un E6850:)
Vedo hai soldini da spendere :ciapet: :sofico:
Cmq anzi che prendere una 2900xt da1gb prenderei due 8800gts in SLI.., certo dipende dalla mobo..

22_12_2012
11-08-2007, 17:50
Vedo hai soldini da spendere :ciapet: :sofico:
Cmq anzi che prendere una 2900xt da1gb prenderei due 8800gts in SLI.., certo dipende dalla mobo..

Sli & Crossfire non mi interessano...

ho un amico con una GTS 320, per cui ho potuto testarla per ben benino..nn mi ha convinto molto:

- il pannello di controllo di nvidia e l'idea di nn poter utilizzare ATT mi mette in panico ( ATT è compatibile col la Hd 2900XT :confused: )

- mi trovo bene con l' AVIVO per h264, il purevideo è a pagamento e non mi ha impressionato come qualità

- il dissipatore della ATI espelle l'aria all'esterno del case e non all'interno come invece fanno le feritoie presente sui dissi GTS/GTX/ULTRA

MonsterMash
11-08-2007, 17:50
e pensavi bene un 650w è spropositato per una singola vga ... certo per chi ricerca oc da record per procio e vga allora potrebbe risultare un pò stretto..

Io ho preso l'850 proprio perchè voglio stare tranquillo non solo adesso, ma anceh quando prenderò (tra qualche mese :D) una nuova cpu k10 da overclocckare fino al limite, e poi quando, presumibilmente ad aprile, prenderò una nuova scheda video, con ogni probabilità r700.

Anche se devo ammettere che questo alimentatore è decisamente più rumoroso di quello che avevo prima (LC Power silent giant da 550W), che era assolutamente inudibile.

Ciao

webbuffa
11-08-2007, 18:11
:) Disponibile da Tecn@ la versione 1 gb della Club3D :)!!

22_12_2012
11-08-2007, 18:15
:) Disponibile da Tecn@ la versione 1 gb della Club3D :)!!


ottimo, si ordina :D

Pat77
11-08-2007, 19:09
adesso li ho attaccati tutto e va alla grande
grazie mille
consiaglitemi qualche giochino per sfruttarla al max

cmq i cavi non sono come quelli in foto
ne ho uno da 8 pin e uno da 6

Sicuramente vegas, abbastanza shaders intensive, io sto a frame rate medi assurdi di media 70-80 alla massima risoluzione wide che mi è consentita tutto al max.

zorco
11-08-2007, 19:09
ottimo, si ordina :D
se la prendi mi raccomando posta i risulati qui http://www.hwupgrade.it/forum/showthread.php?t=1484107, sarei curioso di vedere come si comporta rispetto al modello a 512mb...:D

zorco
11-08-2007, 19:10
Sicuramente vegas, abbastanza shaders intensive, io sto a frame rate medi assurdi di media 70-80 alla massima risoluzione wide che mi è consentita tutto al max.
anche a mè và alla grande..

carver
11-08-2007, 20:20
se la prendi mi raccomando posta i risulati qui http://www.hwupgrade.it/forum/showthread.php?t=1484107, sarei curioso di vedere come si comporta rispetto al modello a 512mb...:D

che cavolata.. ci fanno un modello ( tra l'altro a 0.9) e subito ci fanno il modello uguale a 1 giga di ram.... MHA...... ho l'impressione ( e spero vvamente) che siano SIMILARI come prestazioni....

carver
11-08-2007, 20:22
anche a mè và alla grande..

hai il 939 tu vero? la tua cpu ha l2 da 512 o 1 M?

abbiamo config simili.. mi posti i tuoi risultati dei bench x la hd2900?

zorco
11-08-2007, 22:23
hai il 939 tu vero? la tua cpu ha l2 da 512 o 1 M?

abbiamo config simili.. mi posti i tuoi risultati dei bench x la hd2900?
si è 939 con 512kb di chace L2

8417 tutto a default al 3dmark06

ciao

zorco
11-08-2007, 22:33
che cavolata.. ci fanno un modello ( tra l'altro a 0.9) e subito ci fanno il modello uguale a 1 giga di ram.... MHA...... ho l'impressione ( e spero vvamente) che siano SIMILARI come prestazioni....
questa vga inizialmente era inizialmente indirizzata al mercato dei grandi assemblatori per pc dell e hp,ora dopo qualche tempo incomincia a sbucare fuori anche in versione retail...

dai bencmark che ho visto in rete la scheda non sembra tanto più veloce rispetto al modello a 512mb nonostante monti dd4 clokkate a 2.0ghz..

carver
11-08-2007, 23:06
si è 939 con 512kb di chace L2

8417 tutto a default al 3dmark06

ciao


in linea.. considera che a 2650 mhz facevo 8600 punti... poi clokkando a 2750 ho fatto 9300......2900@def.
ps ot si clokka il tuo procio come un sandiego oppure e' un fermone com eil mio toledo? /ot

zorco
11-08-2007, 23:08
in linea.. considera che a 2650 mhz facevo 8600 punti... poi clokkando a 2750 ho fatto 9300......2900@def.
ps ot si clokka il tuo procio come un sandiego oppure e' un fermone com eil mio toledo? /ot
è una mezza minchia,arriva al max 2650mhz,cmq io lo lascio a default tanto non mi cambia niente nei giochi..

3DMark79
11-08-2007, 23:39
Salve ragazzi appena rientrato dalla prima settimana di vacanze :) ma a quanto pare siamo ancora fermi hai vecchi driver 7.8beta...lunedi si riparte sino a venerdi :D e spero che al rientro ci siano nuovi driver da poter commentare!A presto e buone vacanze amici!:mano:

carver
12-08-2007, 06:55
DOMANDONE

a proposito......

come mai son da 170 mega i 7.8 BETA???

bas1800
12-08-2007, 07:19
ho una domanda ma come mai io cu catalist control c. come frequenze vedo roba bassa tipo 505 e 514 ?

carver
12-08-2007, 07:23
ho una domanda ma come mai io cu catalist control c. come frequenze vedo roba bassa tipo 505 e 514 ?

sono le frequenze del 2d... se noti mentre giochi vanno al max ...
cio' avviene x risparmiare corrente e calore... in modo da non avere la ventola al 50% mentre navighi

bas1800
12-08-2007, 09:08
sono le frequenze del 2d... se noti mentre giochi vanno al max ...
cio' avviene x risparmiare corrente e calore... in modo da non avere la ventola al 50% mentre navighi

oookk grazie mille

pierluigi86
12-08-2007, 10:17
d' inverno faranno i driver con la gpu@800 Mhz in 2d, così servirà anche come scalda bagno :D :D :D :D :D
cmq sto notando come amd e intel si stiano a preoccupare dei consumi delle schede, forse perchè fare schede così esigenti, dal punto di vista energetico, sta tagliando fuori una bella fetta di utenti... infatti chi prende il pc da mediaworld :D :D :D :D , e dopo un anno la vuole sostituire la potentissima x1650:D :D :D :D o 8400 gs :D :D :D :D ,con una di fascia alta non lo può fare perchè il suo ali al max regge 18a sui 12v, e visto che cambiare un ali, almeno per me nel mio case è un' impresa , uno si accontenta della 8600gs...

Scrambler77
12-08-2007, 11:43
d' inverno faranno i driver con la gpu@800 Mhz in 2d, così servirà anche come scalda bagno :D :D :D :D :D
cmq sto notando come amd e intel si stiano a preoccupare dei consumi delle schede, forse perchè fare schede così esigenti, dal punto di vista energetico, sta tagliando fuori una bella fetta di utenti... infatti chi prende il pc da mediaworld :D :D :D :D , e dopo un anno la vuole sostituire la potentissima x1650:D :D :D :D o 8400 gs :D :D :D :D ,con una di fascia alta non lo può fare perchè il suo ali al max regge 18a sui 12v, e visto che cambiare un ali, almeno per me nel mio case è un' impresa , uno si accontenta della 8600gs...

Se uno si compra il PC da mediaworld lo fa per risparmiare... in tal caso non si prende una scheda video di fascia alta...

carver
12-08-2007, 13:44
Se uno si compra il PC da mediaworld lo fa per risparmiare... in tal caso non si prende una scheda video di fascia alta...

o magari gli fanno prendere un pc da 1000€ con dentro ram value con timing altissimi e gli spacciano una 7600 come SCHEDONA x giocare a tutto...:muro:

Scrambler77
12-08-2007, 14:41
o magari gli fanno prendere un pc da 1000€ con dentro ram value con timing altissimi e gli spacciano una 7600 come SCHEDONA x giocare a tutto...:muro:

In tal caso il rivenditore lavora qualche mese e poi chiude. Non credo gli convenga. ;)

carver
12-08-2007, 18:17
In tal caso il rivenditore lavora qualche mese e poi chiude. Non credo gli convenga. ;)

ot
hai mai dato un'occhiata ai prezzi/qualita' dei volantini di medi@aworld?
chi compra li' e' perche' vuole un pc a poco prezzo nel negozio vicino a casa...
se vendessero solo pc chiuderebber.. fortunatamente hanno tanto di meglio...
/ot

pioss~s4n
12-08-2007, 19:05
ottimo, si ordina :D

ho l'impressione che sia inutile questa 2900 da 1 gallone di ram.

http://www.nvnews.net/vbulletin/showthread.php?t=94667&page=2
http://www.techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/index.x?pg=4

MaRtH
12-08-2007, 20:28
ho l'impressione che sia inutile questa 2900 da 1 gallone di ram.

http://www.nvnews.net/vbulletin/showthread.php?t=94667&page=2
http://www.techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/index.x?pg=4


Si bhè, il primo link che dai è giusto un pò di parte a partire dal nome... :sofico:

Nel secondo che driver usano...

E comunque è palese ormai che la 1GB è mooolto simile come prestazioni alla 512MB, all'incirca un 5% medio di incremento di performance a parità di config, cosa che ad occhio nudo non riesci nemmeno a percepire...

Forse a 2560x1600 le cose cambiano, io aspetto una rece ben fatta come solo hwu sa fare (frecciatina...)... :)

M4R1|<
12-08-2007, 20:49
Si bhè, il primo link che dai è giusto un pò di parte a partire dal nome... :sofico:

Nel secondo che driver usano...

E comunque è palese ormai che la 1GB è mooolto simile come prestazioni alla 512MB, all'incirca un 5% medio di incremento di performance a parità di config, cosa che ad occhio nudo non riesci nemmeno a percepire...

Forse a 2560x1600 le cose cambiano, io aspetto una rece ben fatta come solo hwu sa fare (frecciatina...)... :)

nella secondo usano i primi driver, se nn i primi i 7.6 perchè io faccio come minimo i 30 negli esterni in lostplanet (dx10) e 42/45 negli interni, solo una volta sono andato sotto i 30, invece li la media è 23.7, cioè:ncomment: :boxe:

MaRtH
12-08-2007, 20:53
nella secondo usano i primi driver, se nn i primi i 7.6 perchè io faccio come minimo i 30 negli esterni in lostplanet (dx10) e 42/45 negli interni, solo una volta sono andato sotto i 30, invece li la media è 23.7, cioè:ncomment: :boxe:


Si ma comunque, alla fine, quando si ha la scheda in mano e la si prova di persona sul proprio sistema va SEMPRE di più che nelle recensioni in internet, ovviamente senza paragonarla su un X2 3600+ nei confronti di un QX6850... :p

TecnoWorld8
13-08-2007, 03:24
"Here's the thing. DX10 hardware - such as the GeForce 8800 or the Radeon 2900 - won't work with the new 10.1 features. The 0.1 revision requires completely new hardware for support, thus royally cheesing off many gamers who paid top whack for their new hardware over the last few months on the basis of future game compatibility.

But these gamers shouldn't fret too much - 10.1 adds virtually nothing that they will care about and, more to the point, adds almost nothing that developers are likely to care about. The spec revision basically makes a number of things that are optional in DX10 compulsory under the new standard - such as 32-bit floating point filtering, as opposed to the 16-bit current. 4xAA is a compulsory standard to support in 10.1, whereas graphics vendors can pick and choose their anti-aliasing support currently."

fonte: http://www.theinquirer.net/?article=41577

per i non anglofoni, in sintesi si dice che le DX 10.1 introdotte con il SP1 di Vista non saranno compatibili con le attuali schede video (sia 8800 che 2900) e che avranno bisogno di hw completamente nuovo.
Tuttavia, la cosa pare non essere troppo grave, dato che le 10.1 nn introducono praticamente nulla; in pratica si rendono obbligatorie alcune caratteristiche che nelle 10 erano facoltative, quali il point filtering a 21-bit FP anzichè a 16bit ed il 4xAA.

M4R1|<
13-08-2007, 09:40
"Here's the thing. DX10 hardware - such as the GeForce 8800 or the Radeon 2900 - won't work with the new 10.1 features. The 0.1 revision requires completely new hardware for support, thus royally cheesing off many gamers who paid top whack for their new hardware over the last few months on the basis of future game compatibility.

But these gamers shouldn't fret too much - 10.1 adds virtually nothing that they will care about and, more to the point, adds almost nothing that developers are likely to care about. The spec revision basically makes a number of things that are optional in DX10 compulsory under the new standard - such as 32-bit floating point filtering, as opposed to the 16-bit current. 4xAA is a compulsory standard to support in 10.1, whereas graphics vendors can pick and choose their anti-aliasing support currently."

fonte: http://www.theinquirer.net/?article=41577

per i non anglofoni, in sintesi si dice che le DX 10.1 introdotte con il SP1 di Vista non saranno compatibili con le attuali schede video (sia 8800 che 2900) e che avranno bisogno di hw completamente nuovo.
Tuttavia, la cosa pare non essere troppo grave, dato che le 10.1 nn introducono praticamente nulla; in pratica si rendono obbligatorie alcune caratteristiche che nelle 10 erano facoltative, quali il point filtering a 21-bit FP anzichè a 16bit ed il 4xAA.

:muro: che mazzata

pierluigi86
13-08-2007, 09:42
"Here's the thing. DX10 hardware - such as the GeForce 8800 or the Radeon 2900 - won't work with the new 10.1 features. The 0.1 revision requires completely new hardware for support, thus royally cheesing off many gamers who paid top whack for their new hardware over the last few months on the basis of future game compatibility.

But these gamers shouldn't fret too much - 10.1 adds virtually nothing that they will care about and, more to the point, adds almost nothing that developers are likely to care about. The spec revision basically makes a number of things that are optional in DX10 compulsory under the new standard - such as 32-bit floating point filtering, as opposed to the 16-bit current. 4xAA is a compulsory standard to support in 10.1, whereas graphics vendors can pick and choose their anti-aliasing support currently."

fonte: http://www.theinquirer.net/?article=41577

per i non anglofoni, in sintesi si dice che le DX 10.1 introdotte con il SP1 di Vista non saranno compatibili con le attuali schede video (sia 8800 che 2900) e che avranno bisogno di hw completamente nuovo.
Tuttavia, la cosa pare non essere troppo grave, dato che le 10.1 nn introducono praticamente nulla; in pratica si rendono obbligatorie alcune caratteristiche che nelle 10 erano facoltative, quali il point filtering a 21-bit FP anzichè a 16bit ed il 4xAA.

ma a che ora vai a dormire!!!!:D

carver
13-08-2007, 09:44
"Here's the thing. DX10 hardware - such as the GeForce 8800 or the Radeon 2900 - won't work with the new 10.1 features. The 0.1 revision requires completely new hardware for support, thus royally cheesing off many gamers who paid top whack for their new hardware over the last few months on the basis of future game compatibility.

But these gamers shouldn't fret too much - 10.1 adds virtually nothing that they will care about and, more to the point, adds almost nothing that developers are likely to care about. The spec revision basically makes a number of things that are optional in DX10 compulsory under the new standard - such as 32-bit floating point filtering, as opposed to the 16-bit current. 4xAA is a compulsory standard to support in 10.1, whereas graphics vendors can pick and choose their anti-aliasing support currently."

fonte: http://www.theinquirer.net/?article=41577

per i non anglofoni, in sintesi si dice che le DX 10.1 introdotte con il SP1 di Vista non saranno compatibili con le attuali schede video (sia 8800 che 2900) e che avranno bisogno di hw completamente nuovo.
Tuttavia, la cosa pare non essere troppo grave, dato che le 10.1 nn introducono praticamente nulla; in pratica si rendono obbligatorie alcune caratteristiche che nelle 10 erano facoltative, quali il point filtering a 21-bit FP anzichè a 16bit ed il 4xAA.
queste son pure cavolate all'atto pratico....
non c'e' un gioco in dx10.. e pensano ad aggiornarle...

ma chi vuoi che consideri questo articolo? passeranno 2 anni prima divedere le dx 10.x e di giochi... eh! almeno 3!