PDA

View Full Version : ATI Radeon HD 2900 XT: HDR e DirectX 10


Pagine : [1] 2

Redazione di Hardware Upg
17-05-2007, 12:24
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1726/index.html

Condotti alcuni test supplementati con la scheda ATI Radeon HD 2900 XT, messa a confronto con le soluzioni NVIDIA concorrenti. Gli approfondimenti hanno riguardato l'attivazione dell'HDR, High Dynamic Range, in alcuni titoli regolarmente inseriti nella suite di test, più l'inedito Lost Planet in grado di sfruttare le API Microsoft DirectX 10

Click sul link per visualizzare l'articolo.

Sp4rr0W
17-05-2007, 12:31
povera r600 se ne esce con le ossa rotte

mtitone
17-05-2007, 12:33
un FLOP tremendo....:eek: :eek: :eek: :eek:

MaerliN
17-05-2007, 12:36
Potremo confermare il FLOP tra qualche release dei driver, ora sono decisamente immaturi, quindi "non c'è partita contro nVidia". Certo, con tutto il ritardo che c'è stato potevano parallelamente sviluppare dei driver migliori, no? :(

Coko
17-05-2007, 12:37
Diamole il tempo di maturare...basta con questi commenti...

Non dico che i driver possano ribaltare la situazione ma sicuramente c'è ancora parecchio da fare.

khael
17-05-2007, 12:38
flop flop no...abbiamo visto che un recupero c'e' stato in oblivion...e lost planet dimostra quanto c siano problemi di driver per questa vga. :(
certo pero' che cavolo hanno fatto fino ad adesso alla ati...c'hanno giocato?! (a solitario poi visti i risultati :D )

Catan
17-05-2007, 12:39
purtroppo speravo che sull'hdr che era cavallo di battaglia di ati con la serie x1xx0 la scheda si riprendesse ma putroppo non è cosi.
a questo punto inizio a pensare che questa vga inizi ad essere competitiva solo se presentato a prezzo leggermente superiore alle 8800gts da 320mb... contando che il prezzo di queste vga è mediamente un 250-270 credo che per soli 196mb di ram in + viste le prestazioni la scheda avrà mercato solo a prezzi attorno ai 300E-320E...
alla presentazione si parlava di 400E con ribassi sui 350 ma anche 350E è eccessivo per le prestazioni offerte in questo momento.

di questo me ne dispiace xè comprai una 8800gts da 320mb solo per farmi traghettare a questo r600 e invece scopro che vendere questa per prendere una 2900 non vale i soldi di differenza.

imayoda
17-05-2007, 12:39
Ho fatto l'affare..ho fatto l'affare! :asd:

pioss~s4n
17-05-2007, 12:39
ancora a credere che driver maturi facciano rinascere R600? ad ATI il merito di aver coniato una nuova fascia di schede video, la fascia flop: Alta speca, poca resa. :D

4rdO
17-05-2007, 12:40
Io prima di darla per morta aspetterei,la partita la sta facendo la nVidia...quando non c'e' neanche un campo da gioco valido.

pierluigi86
17-05-2007, 12:40
speriamo nei nuovi driver in un netto miglioramento!!!
cmq mi prendero una 8800gts per i consumi

pioss~s4n
17-05-2007, 12:47
Trovaprezzi >> 8800gtx >> eur 452,12 (disponibile a breve)
Se i driver non dovessero fare il miracolo (non lo faranno) questa scheda video ATI resterà sul mercato poco tempo. A 400 non se la fila nessuno con le GTS640 a 350/380eur. Scendesse a 300 avrebbe comunque poco senso sia perchè una GTS320 costa meno e rende allo stesso modo a ris medioalte, sia perchè svendere una tecnologia innovativa significa ammettere il flop e urlarlo ai quattro venti. Prevedo uscirà presto dal mercato.

T3mp
17-05-2007, 12:48
mi viene da piangere a vedere sta roba.....
l'unica cosa buona e' che la nvidia ha abbassato i prezzi :D

Cobra78
17-05-2007, 12:56
Molti dicono che i driver non faranno miracoli, e potrebbero aer ragione, ma cerchiamo di guardare un attimo al passato.

Quando uscì la Radeon 8500 era, all'epoca, una grandissima scheda come potenzialità, ma aveva millemila problemi dovuti a driver scandalosamente scandalosi incluse una quantità di incompatibilità coi giochi enorme, maturando i driver è cresciuta, forse non fino a primeggiare sulle nVidia del tempo, ma quanto meno a battercisi ad armi pari ed da li è cominciata la riscossa Ati che è giunta al culmine con le 9700/9800.

Ora Ati è ad una decisa svolta come architettura, non giustifico che si arrivi a vendere una scheda con driver così palesemente inadeguati, ma è un dato di fatto che a meno che chi parla non sia un esperto progettista/programmatore di schede video, nessuno può realmente rendersi conto di quanto il divario attuale sia dovuto ai driver, e quindi di quale margine di miglioramento ci sia.

(piccola nota: nel mio case c'è una nVidia, ho mandato non dico dove Ati a causa dei driver per Linux patetici, quindi non sono esattamente un fan boy)

demon77
17-05-2007, 13:00
Purtroppo è nettamente inferiore alle 8800...

Forse drivers ottimizzati miglioreranno un po' le cose ma a questo punto non mi aspetto miracoli..

Sp4rr0W
17-05-2007, 13:01
Diamole il tempo di maturare...basta con questi commenti...

Non dico che i driver possano ribaltare la situazione ma sicuramente c'è ancora parecchio da fare.

che è n'albero o nascheda video? guardache i drivers non fanno i miracoli... se una scheda è nata male non c'è nienteda fare (basta vedere la 5900 della nvidia...)

johnson
17-05-2007, 13:03
In merito al fatto che nvidia avrebbe collaborato strettamente con i programmatori di lost planet, mi viene da fare una considerazione.

Siamo tutti li ad aspettare che i nuovi driver ATI migliorino la situazione. Questo sarebbe possibile perchè l'architettura altamente programmabile di R600 richiederebbe dei "settaggi" specifici per ogni gioco.

E' quindi ragionevole pensare che ATI si proponga di fare più collaborazioni possibili con le varie software house, per poter fornire driver maturi più tempestivamente.

Da quello che leggo in giro però non si direbbe. Si parla tanto del programma TWIMTBP di nvidia ma non mi vengono in mente (a parte hl2) collaborazioni importanti di ATI.

Se l'andazzo è quello di lost planet, dobbiamo aspettarci questi ritardi di "aggiustamento driver" per ogni nuovo gioco TWIMTBP? Sapete quanti sono? E soprattutto quali sono :D ? Non trovo nessuna lista al momento, ma mi pare di ricordare che ce ne siano parecchi di prossima uscita...

capitan_crasy
17-05-2007, 13:06
Impressionante e vergognoso vedere come i driver DX10 di ATI siano cosi indietro!:muro: :mad:

Tenebra
17-05-2007, 13:12
Per la redazione: mille grazie per aver finalmente implementato in modo più massiccio l'HDR nei vostri test. Sembrava alquanto strano, infatti, che all'alba delle DX10 ancora si escludesse dai test la feature più importante (e implementata) delle DX9.0C...

Per quel che riguarda la scheda, posso solo pensare che i problemi stiano, come già da molti considerato, nei driver. Infatti nelle slide di R600 si poneva una certa attenzione al miglioramento nelle performance con HDR attivato, che non risulta assolutamente da questi test, quindi i casi sono due:
-palla clamorosa
-driver in stato che definire alpha è caritatevole

Propendo per la seconda, ma non si possono certo fare recensioni nuove ad ogni release di driver... Ati stavolta è in ritardo e R600 pare proprio essere stata buttata sul mercato per fare da tappabuchi "aspettando R650". Sicuramente ci sono margini ben più ampi di miglioramento rispetto a G80 (sul mercato da più di sei mesi e con driver in costante ottimizzazione da allora) ma le performance rispetto al consumo sono scadenti.

Discorso a parte per le prestazioni in DX10 di tutte le schede... meglio rimandare il giudizio ai primi VERI titoli in DX10, magari non sviluppati esclusivamente da una casa sola :asd: e pertanto ininfluenti in qualsivoglia confronto. Per ora però le prospettive sono tragiche, se quelli sono gli fps fatti da schede TOP DI GAMMA... le medie cosa faranno, esploderanno all'avvio del gioco? :D

~Mr.PartyHut~
17-05-2007, 13:13
di questo me ne dispiace xè comprai una 8800gts da 320mb solo per farmi traghettare a questo r600 e invece scopro che vendere questa per prendere una 2900 non vale i soldi di differenza.
No infatti Catan, rimani con la 8800 GTS. Chi te lo fa fare a cambiare per questa ATI. Anche se diverrà leggermente superiore alla tua con l'ottimizzazione dei driver, consuma decisamente troppo rispetto alla tua e scalda di più, quindi imho tieniti stretta la tua GTS. Magari poi aspetti una 8850 GTX2 Ultra :D:D:D (che da indiscrezioni la chiameranno con il nome in codice c.l.i.s.t.e.r.e)



edit: imho non ho parole, ATI prende le botte anche in Half-Life....

Cignale
17-05-2007, 13:13
Quella di r600 è un architettura estremamente complessa, e che sebbene prenda spunto in molte cose dalla serie x1k è fondamentalmente una nuova architettura, i driver sono evidentemente e palesemente immaturi.
A mio tempo quando presi la 9700 pro andava già come una bomba, ma col passare dei mesi e dei driver guadagnai molto in prestazioni...si trattava anche allora di un architettura decisamente innovativa che avrebbe dato il meglio di se con le directx 9 (a quel tempo il punto di riferimento erano le geffo4 in dx8.1).
Non credo che questa scheda possa battere nettamente la 8800gtx ma quantomeno la possa raggiungere, il potenziale c'è.
Ati questa volta ha toppato rilasciando una scheda dalle buone potenzialità non sfruttate a dovere; c'è anche da dire che Ati a livello driver è sempre stata un passo indietro a nvidia: su linux, opengl e ora anche in dx10.
Sarei curioso di vedere un nuovo test fra 4 o 5 mesi per vedere se è cambiato qualcosa o se le mie erano solo baggianate :)

safendi
17-05-2007, 13:14
ogni test ke vedo mette sempre in risalto il fallimento di ati con r600

4ss0.n3
17-05-2007, 13:18
ma avete fatto altri test perchè AMD vi ha pagato? :asd:

Lud von Pipper
17-05-2007, 13:19
I test sono interessanti, anche paragonandoli ad altri trovati in rete. Questa 2900XT salta in alto e in basso in mod imprevedebile a seconda dei giochi usati per i test.
Sembra che mettere apunto queste schede DX10 (tutte, 8800 comprese) sia un castigo di Sisifo.
Vi ricordate che fino a qualche mese fa le 8800 non aveva driver disponibili per Vista?
Sembra che questa ATI abbia a sua volta gorssi guai con il nuovo sistema operativo

Secondo me, spannometricamente parlando, queste schede completamente programmabili sono come auto da corsa, in cui puoi regolare ogni componente a piacimento ma dove poi è un casino fare in modo che le regolazioni non si infastidiscano le une con le altre.
Le schede Dx9 erano forse meno flessibili ma certamente più lineari da programmare.
Aspettiamo il 3DMark07/8 (con tutti i limiti che sappiamo) per farci un idea delle DX10, che tra parentesi è ancora di la da venire, a dimostrazione che creare un test "equilibrato" per schede DX10 è altrettanto difficile che scriverne i driver.

Cobra78
17-05-2007, 13:19
Tra l'altro vorrei anche aggiungere che appena uscite anche le nVidia serie 8k avevano i loro problemi di driver, quantomeno su vista, tant'è che si parlò anche di una class action in america per la totale impossibilità di usare lo SLI con vista, quindi ribadisco: meglio aspettare prima di parlare di flop a livello tecnico, certo commercialmente parlando hanno fatto una bella figuraccia!

josefor
17-05-2007, 13:19
Drive immaturi?????!!!
Ma da quant'è che la Ati sta lavorando a sta scheda 1 anno e più, ma quanto tempo ci vuole a fare sti drive, lasciamo perdere lost planet, ma dai hanno avuto un sacco di tempo e manco HL2 gira degnamente per questa generazione di schede; diciamo pure che stanno brancolando nel buio, non hanno idea di come scrivere i drive per questa scheda; immaturi..... fosse poi un periodo di SO semplice, con tutti sti sistemi operativi a 32 e 64 bit.

Lud von Pipper
17-05-2007, 13:20
Guarda che gli esemplari utilizzabili di R600 sono disponibili solo da una manciata di mesi: prima pare avessero sample in grado di superare a malapena il debug.

~Mr.PartyHut~
17-05-2007, 13:21
ancora a credere che driver maturi facciano rinascere R600? ad ATI il merito di aver coniato una nuova fascia di schede video, la fascia flop: Alta speca, poca resa. :D
Infatti non ci credo :D
Nel senso che, anche se ci sarà un miglioramento, bisogna vedere quanto bisognerà aspettare. Poi una volta che ha guadagnato quel 10-15% di resa, bisogna anche vedere cosa avrà tirato fuori nVidia a quel punto. Cacceranno sicuramente un mostro dual GPU e ti saluto!!! :asd:

Sste
17-05-2007, 13:23
Basta! Non fatele più le recensioni con questa scheda, ne ha già prese abbastanza, non credete?... poverina:friend: :sob::Puke:

Chissà se coi driver belli maturi arriverà a sfiorare i livelli della gtx :rolleyes: :blah: :bsod:

Evangelion01
17-05-2007, 13:25
Nulla di nuovo sul fronte prestazioni.
A questo punto se non abbassano il prezzo in maniera consistente, che è informato si piglierà una gts sicuramente...

Labico
17-05-2007, 13:28
E' meglio che ATI si metta al lavoro per la prossima guerra next-gen, questa l'ha già persa.

Aspettare altri mesi per dei driver ottimizzati va a favore di nvidia che rilascierà altro hw sul mercato e abbatterà nuovamente i costi delle sk video esistenti.

Vedere perdere la guerra con un cavallo di battaglia come HL2 poi, non ho parole, che vergogna.

Quoto con chi ha scritto "Ati con questa soluzione si posiziona su una nuova fascia, la fascia Flop"

Tetsujin
17-05-2007, 13:30
la cosa che trovo veramente scandalosa è che non esiste nemmeno una scheda video in grado di assicurarti giocabilità in DX10 ad alte risoluzioni, con AA+HDR+AF al massimo :eek:

I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5.

La 8800 Ultra con 5 frame al secondo? Ed è pure un demo sviluppato con nvidia. E' un pessimo momento questo per chi volesse acquistare una vga top di gamma con la speranza di una buona longevità.

ps. abbiamo gia un altro 3d costituito per un buon 50% dai soliti commenti "flop", "che schifo", eccetera... non vi sembra il caso di piantarla? Magari leggere anche il testo dell'articolo vi aiuterebbe :rolleyes:

josefor
17-05-2007, 13:30
Guarda che gli esemplari utilizzabili di R600 sono disponibili solo da una manciata di mesi: prima pare avessero sample in grado di superare a malapena il debug.

Fino a qualche giorno fa si diceva che avessero ritardto per aspettare Vista e le DX10, adesso invece è perche le hanno sfornate fresche fresche e non sanno come prenderle perchè sono ancora calde.....
Quando finalmente avranno ottimizzato sti drive la concorrenza sarà gia al lavoro su drive di schede di nuova generazione e probabilmente già meglio programmati.
I bei pezzi di silicio oltre che disegnarli complessi e stravaganti bisogna anche farli funzionare....

leoneazzurro
17-05-2007, 13:32
Drive immaturi?????!!!
Ma da quant'è che la Ati sta lavorando a sta scheda 1 anno e più, ma quanto tempo ci vuole a fare sti drive, lasciamo perdere lost planet, ma dai hanno avuto un sacco di tempo e manco HL2 gira degnamente per questa generazione di schede; diciamo pure che stanno brancolando nel buio, non hanno idea di come scrivere i drive per questa scheda; immaturi..... fosse poi un periodo di SO semplice, con tutti sti sistemi operativi a 32 e 64 bit.

Per i primi esemplari funzionanti si parla di Autunno 2006 inoltrato.

Aerox
17-05-2007, 13:35
mi viene in mente questa domanda ragazzi: r600 è stato ritardato perche non riuscivano a farla andare come si pensava...oppure hanno ritardato perche capendo che i margini di miglioramento erano bassi stanno facendo in modo che il tempo alla prox ati (r650?) arrivi a distanza di 2,3mesi ,quindi con un riposizionamento della 2900 tipo 8800gts320?...

..è una mia supposizione...ma sono certo che i drivers non faranno miracoli...perche secondo me anche in dx9 c'è un certo gap (con la gtx e con la gts 640)...mentre la situazione in dx10 è allucinante... considerandola una vga new gen mi aspetterei che le prestazioni dx10 avranno la priorità nel sviluppo driver e probabilmente li andranno a livellarsi con le nvidia...ma,siccome siamo in una fase di transizione,che sicuramente durera 1annetto, mi sarebbe piaciuto comunque un livello di prestazione piu omogeneo e superiore alle gts640in dx9 visto che di giochi dx10 non ce ne sono...

parlare di flop è eccessivo,il fatto è che siamo abbituati ad avere sempre innovazioni e miglioramenti prestazionali tra una generazione e l'altra di schede video (soprattutto nella fascia alta) e puo starci che il prodotto non è riuscito...non si puo farne una tragedia...l'importante è che amd/ati proponi questa scheda a un prezzo corretto ma soprattutto faccia tesoro di questa situazione in modo da proporre in tempi abbastanza brevi (non tra 12mesi!) una risposta che sembra piu una soluzione all'enigma perche questa straordinaria scheda sulla carta di fatto va cosi "piano"

ciao;)

thommy87
17-05-2007, 13:39
apparte la ati col suo dubbioso flop..che per me lo è anche visto i consumi,quello che mi preoccupa è che anche con la 8800 gtx non si hanno frame alti...quindi le schede di fascia media non ci potranno giocare decentemente..che schifo

Spike88
17-05-2007, 13:39
Quella di r600 è un architettura estremamente complessa, e che sebbene prenda spunto in molte cose dalla serie x1k è fondamentalmente una nuova architettura, i driver sono evidentemente e palesemente immaturi.
A mio tempo quando presi la 9700 pro andava già come una bomba, ma col passare dei mesi e dei driver guadagnai molto in prestazioni...si trattava anche allora di un architettura decisamente innovativa che avrebbe dato il meglio di se con le directx 9 (a quel tempo il punto di riferimento erano le geffo4 in dx8.1).
Non credo che questa scheda possa battere nettamente la 8800gtx ma quantomeno la possa raggiungere, il potenziale c'è.
Ati questa volta ha toppato rilasciando una scheda dalle buone potenzialità non sfruttate a dovere; c'è anche da dire che Ati a livello driver è sempre stata un passo indietro a nvidia: su linux, opengl e ora anche in dx10.
Sarei curioso di vedere un nuovo test fra 4 o 5 mesi per vedere se è cambiato qualcosa o se le mie erano solo baggianate :)

ma per cortesia...uno non può spebndere più di 300euro col senno di poi:mad:
e comunque tra 5-6 mesi questa scheda sarà diventata obsoleta....non so se valga la pena aspettare....è vero nvidia è migliorata dal suo debutto grazie ai driver nuovi....ma già al lancio in dx9 faceva faville nonostante driver kagosi....questa ati non riesce nemmeno a fare granche in dx9....per cortesia...e seppur migliorassero i driver???che vi aspettate...che quadagni 30fps in tutti i game:mbe:
ati era sempre la migliore a far driver.....e ad aggiornarli....ma con sto prodotto ha toppato.....poi una cosa moolti dicono che non è giusto chiamarlo flop...e sperano nei driver...ma scusatemi...una scheda video che consuma più di una ultra...scalda quanto una gtx...costa più di 350euro o giù di li...e non riesce a fare concorrenza in maniera costante manco alla GTS320Mb....che per inciso su hrw costa solo 260euro.....ma scusate come deve essere chiamata se non flop?????:doh:

josefor
17-05-2007, 13:41
Per i primi esemplari funzionanti si parla di Autunno 2006 inoltrato.

Sarà forse che sono deluso a morte da sta scheda che ho il dente avvelenato, ma scusami allora ma non sembra che abbiano avuto pù tempo che Nvidia per aggiustare i loro softwerini, i autunno la controparte se ne è uscita con una scheda che per non fare figure di sto tipo i suoi drive erano già degni di chiamarsi tali.

Spike88
17-05-2007, 13:44
ah...un' altra cosa...credo che la redazione adesso dopo questo articolo...dovrebbe smetterla di interessarsi alla ati.....non è che per la gts o gtx si son sprecati fiumi di inkiostro(virtuale) ad ogni nuova release di driver...perchè lo si dovrebbe fare per questa ati???per accontentare i fanboy di ati????ma suvvia....potranno fare anke driver decenti.....ma quanto potranno far guadagnare alla scheda???
suvvia redazione....andiamo avanti...altrimenti con articoli come questi incoraggiate solo la gente a sperare che i driver ati possano miracolosamente far risorgere sto flop:cool:

PS:
molti dicono poi ma và bhe quando uscirà l' R650 tutto cambierà...e allora io rispondo...allora quando uscira l' 8900 tutto cambierà....non possiamo fare sti discorsi...le schede video per giocare ad una persona servono nel momento presente...uno non può aspettare anni per giocare:)

Evangelion01
17-05-2007, 13:47
ma per cortesia...uno non può spebndere più di 300euro col senno di poi:mad:
e comunque tra 5-6 mesi questa scheda sarà diventata obsoleta....non so se valga la pena aspettare....è vero nvidia è migliorata dal suo debutto grazie ai driver nuovi....ma già al lancio in dx9 faceva faville nonostante driver kagosi....questa ati non riesce nemmeno a fare granche in dx9....per cortesia...e seppur migliorassero i driver???che vi aspettate...che quadagni 30fps in tutti i game:mbe:
ati era sempre la migliore a far driver.....e ad aggiornarli....ma con sto prodotto ha toppato.....poi una cosa moolti dicono che non è giusto chiamarlo flop...e sperano nei driver...ma scusatemi...una scheda video che consuma più di una ultra...scalda quanto una gtx...costa più di 350euro o giù di li...e non riesce a fare concorrenza in maniera costante manco alla GTS320Mb....che per inciso su hrw costa solo 260euro.....ma scusate come deve essere chiamata se non flop?????:doh:

Quoto in toto. Che senso ha sperare nei drivers? Più passa il tempo più la vga invecchia, e si sà nel mondo informatico a che velocità ciò avviene...
Se non posso godermi fin da SUBITO ottime prestazioni, allora è un acquisto già in perdita. :(

Dumah Brazorf
17-05-2007, 13:51
Vedendo la schifezza di risultati in DX10 mi vien da pensare che ci sia un largo margine di miglioramento appena capiscono come fare i driver.
Resta però che consuma e scalda (e fa rumore) in modo sconsiderato e inaccettabile.
R600 a 80nm io lo boccio.

Spike88
17-05-2007, 13:51
Quoto in toto. Che senso ha sperare nei drivers? Più passa il tempo più la vga invecchia, e si sà nel mondo informatico a che velocità ciò avviene...
Se non posso godermi fin da SUBITO ottime prestazioni, allora è un acquisto già in perdita. :(

esatto questo è quello che vuole il giocatore utente finale....quello che pensano i fanboy non è nell' interesse di chi vuole giocare subito e bene:rolleyes:

Spike88
17-05-2007, 13:55
Vedendo la schifezza di risultati in DX10 mi vien da pensare che ci sia un largo margine di miglioramento appena capiscono come fare i driver.
Resta però che consuma e scalda (e fa rumore) in modo sconsiderato e inaccettabile.
R600 a 80nm io lo boccio.
io onestamente incomincerei a bocciare anke l' r50 da cui molti si aspettano tanto........cioè...l' unica cosa che dovrebbe cambiare sarà il consumo...quindi il calore...e quindi il rumore....ma non credo che mantenendo la nuova architettura della 2900XT e il nuovo modo di fare i driver la ati vada lontano:stordita:

ErminioF
17-05-2007, 13:55
Driver nuovi? Non so fino a che punto faranno miracoli, hanno avuto 8 mesi di ritardo rispetto nvidia per "sistemare" questa scheda, hanno rimandato più e più volte...
Io non sono rimasto sconvolto dalle prestazioni, e nemmeno dal prezzo che ora è forse leggermente alto m la scheda è appena uscita, semmai trovo scandaloso il discorso sui consumi, di sicuro r600 non entrerà nel mio case nemmeno me la regalassero

Tetsujin
17-05-2007, 14:02
ah...un' altra cosa...credo che la redazione adesso dopo questo articolo...dovrebbe smetterla di interessarsi alla ati.....non è che per la gts o gtx si son sprecati fiumi di inkiostro(virtuale) ad ogni nuova release di driver...perchè lo si dovrebbe fare per questa ati???per accontentare i fanboy di ati????ma suvvia....potranno fare anke driver decenti.....ma quanto potranno far guadagnare alla scheda???
suvvia redazione....andiamo avanti...altrimenti con articoli come questi incoraggiate solo la gente a sperare che i driver ati possano miracolosamente far risorgere sto flop:cool:

PS:
molti dicono poi ma và bhe quando uscirà l' R650 tutto cambierà...e allora io rispondo...allora quando uscira l' 8900 tutto cambierà....non possiamo fare sti discorsi...le schede video per giocare ad una persona servono nel momento presente...uno non può aspettare anni per giocare:)

questi test sono stati fatti su richiesta di molti utenti nell'altro 3d, in quanto ci si è lamentati che mancassero test con HDR abilitato e soprattutto ora che è appena uscito il primo demo ufficiale in DX10.
La redazione ci ha accontentati, ma invece di ringraziare, la si accusa di parteggiare per i fanboy ati per gelosia verso il proprio marchio favorito che sarebbe stato trascurato. Che pena :rolleyes:

Sste
17-05-2007, 14:04
AMD ha speso un botto di soldi per assorbire la ati e ora non ha più fondi per sviluppare in modo adeguato sia i suoi proci che le vga! Bella cagata che hanno fatto! Ognuno se ne stava per le sue e ora avremmo avuto delle r600 supercompetitive a prezzi decenti e probabilmente anche processori amd un po' meno scandalosi.

Spero che amd si riprenda rapidamente sennò sono caxxi per noi consumatori!

josefor
17-05-2007, 14:05
questi test sono stati fatti su richiesta di molti utenti nell'altro 3d, in quanto ci si è lamentati che mancassero test con HDR abilitato e soprattutto ora che è appena uscito il primo demo ufficiale in DX10.
La redazione ci ha accontentati, ma invece di ringraziare, la si accusa di parteggiare per i fanboy ati per gelosia verso il proprio marchio favorito che sarebbe stato trascurato. Che pena :rolleyes:

Con quei risultati secondo te ci sarà qualcuno che dirà che pattegiano per i fanboy, io pensavo invece che li volessero far morire di crepacuore :D

Spike88
17-05-2007, 14:06
questi test sono stati fatti su richiesta di molti utenti nell'altro 3d, in quanto ci si è lamentati che mancassero test con HDR abilitato e soprattutto ora che è appena uscito il primo demo ufficiale in DX10.
La redazione ci ha accontentati, ma invece di ringraziare, la si accusa di parteggiare per i fanboy ati per gelosia verso il proprio marchio favorito che sarebbe stato trascurato. Che pena :rolleyes:

partendo dal fatto che io ho avuto sempre ati....ma oramai da un anno ho solo un integrata schifosa...perchè parti la mobo il procio e la video 1anno fa:cry:
io non ho marche preferite...chi produce qualità entra nel mio case:D
comunque direi che questo test debba essere l' ultimo...altrimenti la cosa incomincerebbe a diventare puerile......non si puo cedere ai desideri di quattro scalmanati fanatici di ati che vedono in nvidia il male:p
l' hdr lo capisco....ma questya dovrebbe esere l' ultima volta secondo me...altrimenti si manca di serietà poi:stordita:

PS neanche tiberian sun riesce ad andare su sta video integrata:mbe: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry:

Spike88
17-05-2007, 14:08
Con quei risultati secondo te ci sarà qualcuno che dirà che pattegiano per i fanboy, io pensavo invece che li volessero far morire di crepacuore :D

no morire di crepacuore no:D ...però almeno spero che si rassegnino all' evidenza:rolleyes:

thommy87
17-05-2007, 14:10
ati del cazzo almeno abbassa i prezzi

ghiltanas
17-05-2007, 14:11
:doh: ma qui è drammatica la situazione per ati, cmq basta infierire con gli articoli ogni volta peggiora la situazione invece di migliorare.

Per il disc driver mi dispiace ma nn credo che anche con degli ottimi driver le cose cambino in modo radicale possono dare percentuali di miglioramento che cmq nn portano a giustifacare l'acquisto di questa vga.Per nn parlare del fatto che la serie 8800 si vide fin da subito che era un ottima vga, faceva dei risultati da paura, per nn parlare di ora che i driver si stanno ottimizzando...
se una vga è buona lo vedi subito se nasce cessa muore cessa (ovviamente mi auguro di no per il disc concorrenza)

ghiltanas
17-05-2007, 14:12
ati del cazzo almeno abbassa i prezzi

il discorso è che amd/ati nn può abbassare solo i prezzi deve anche presentare buoni prodotti senno a forza di vendere sotto costo si fallisce...

ghiltanas
17-05-2007, 14:14
cmq intanto date un'occhiata qui:

http://www.tomshw.it/news.php?newsid=10094

thommy87
17-05-2007, 14:15
penso che questa hd 2900 xt sia la scheda video più criticata della storia..questa volta si e messa male..

leoneazzurro
17-05-2007, 14:18
Sarà forse che sono deluso a morte da sta scheda che ho il dente avvelenato, ma scusami allora ma non sembra che abbiano avuto pù tempo che Nvidia per aggiustare i loro softwerini, i autunno la controparte se ne è uscita con una scheda che per non fare figure di sto tipo i suoi drive erano già degni di chiamarsi tali.

Hanno avuto più tempo di Nvidia, ma non quanto molti credono.
Comunque, se ottimizzare G80 ha su una ipotetica scala difficoltà 1 (E' un'architettura quasi "autoottimizzante" per certi versi), ottimizzare R600 ha una difficoltà pari a 10 o persino più. Questo perchè le scelte progettuali hanno portato alla creazione di un'architettura altamente programmabile, ma che necessita per funzionare bene di un duro lavoro. In particolare, le scelta di avere delle unità shader superscalari a 5 componenti che opera in modalità VLIW è potenzialmente molto penalizzante nel caso ci siano molte dipendenze tra le istruzioni, con il caso estremo di ottenere, per istruzioni su un solo componente dipendenti, solo il 20% del potenziale teorico. Ma questo è solo uno dei problemi. Un altro è che l'accesso alle texture sembra molto lento, non tanto per il numero di unità (che pure in situazioni limite importa), quanto per qualche altro problema non ancora evidenziato. Poi c'è una terza incognita costituita dal ring bus, che è cresciuto in complessità ma anche difficoltà di ottimizzazione e che potrebbe essere anche lui in parte responsabile di perdita di prestazioni.
Da questo punto di vista la scelta di avere tutta questa programmabilità è quasi suicida, e certo non potrà pagare prima di un bel pò di tempo. A meno che ovviamente non ci sia qualche grosso baco HW sul chip che stia limitando effettivamente le prestazioni, ma credo che la cosa diventerebbe evidente in poco tempo.

Tetsujin
17-05-2007, 14:20
Con quei risultati secondo te ci sarà qualcuno che dirà che pattegiano per i fanboy, io pensavo invece che li volessero far morire di crepacuore :D

avevo dimenticato il quote, ora ho rimediato ;)

ps. rileggi quanto ho scritto ;)

MaxDenIII
17-05-2007, 14:20
Troppo poco e troppo tardi ..... questa volta ATI ha toppato ..... se non fanno qualcosa in tempi brevi la vedo veramente dura!

leoneazzurro
17-05-2007, 14:22
ati del cazzo almeno abbassa i prezzi

Evitiamo il linguaggio scurrile, per piacere.

Grey 7
17-05-2007, 14:22
questi test sono stati fatti su richiesta di molti utenti nell'altro 3d, in quanto ci si è lamentati che mancassero test con HDR abilitato e soprattutto ora che è appena uscito il primo demo ufficiale in DX10.
La redazione ci ha accontentati, ma invece di ringraziare, la si accusa di parteggiare per i fanboy ati per gelosia verso il proprio marchio favorito che sarebbe stato trascurato. Che pena :rolleyes:

quoto assolutamente, è una cosa scandalosa..senza contare i soliti commenti inutili tanto per aumentare il post count. Cmq sia rimango dell'opinione che avevo quando guardai i primi test. Sta scheda va su e giu in continuazione, a volte poco sotto la gtx a volte dietro tutte le 8800. I driver secondo me c'entrano sicuro, poi quanto possano fare miracoli o no non lo so. Su g80 fecero tanto, penso che si possa dire altrettanto di questa ati.

gianni1879
17-05-2007, 14:28
ancora a credere che driver maturi facciano rinascere R600? ad ATI il merito di aver coniato una nuova fascia di schede video, la fascia flop: Alta speca, poca resa. :D

ti ricordo che sotto vista le 8800 nei primi driver non andavano per nulla bene, anzi problemi a non finire, ora hanno 6 mesi di maturazione alle spalle che non sono pochi.

Ati non ha mai brillato per i primi driver di nuove vga

guardatevi le rece fatte sotto XP dove la x2900xt va già molto meglio:

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6

http://www.vr-zone.com/index.php?i=4946&s=12

Rantolo
17-05-2007, 14:32
Ho comprato una 8800gtx a febbraio a circa 500 beurozzi. dopo l'uscita della ati 2900xt sn ancora + contento del mio acquisto!
dopo tanto ma tanto parlare che avrebbe surclassato la gtx.... tié ATI

longhorn7680
17-05-2007, 14:32
Io vorrei tanto capire il commento di quelli che dicono IO MI COMPRO UNA 8800GTS PERCHE CONSUMA MENO E SCALDA MENO!!! Cosa cambia una differenza di 10-20W??? Uno che compra una 8800GTS fa un affare ma non di certo per i consumi!!! Poi visto che ATI compare questa scheda con la GTS (dopo che ha visto che con la GTX non c`era storia) non vedo tutto questo flop. Per cio che riguarda i driver posso dire per esperienza che la 7900GT con il passaggio dai FORCEWARE 91.XX a 93.71 in certi giochi (COD2 ad esempio)ha guadagnato anche il 70% di FPS!!!!! Mentre per cio che riguarda la 8800 chi definisce ottimizzati e stabili i driver NVIDIA ha un concetto non proprio esatto di stabilita (purtroppo lo dico per amara esperienza)!!!!!! Percio e proprio a livello hardware che non ci siamo stavolta!!! ATI ha sbagliato qualcosa e non riesce a trovare la strada giusta! Questa volta neanche la qualita dei colori non e all`altezza (vero punto forte di ATI)!!! Speriamo in qualche miracolo o stavolta chiudono baracca e NVIDIA la fara da padrona!!!!

Tetsujin
17-05-2007, 14:33
partendo dal fatto che io ho avuto sempre ati....ma oramai da un anno ho solo un integrata schifosa...perchè parti la mobo il procio e la video 1anno fa:cry:
io non ho marche preferite...chi produce qualità entra nel mio case:D
comunque direi che questo test debba essere l' ultimo...altrimenti la cosa incomincerebbe a diventare puerile......non si puo cedere ai desideri di quattro scalmanati fanatici di ati che vedono in nvidia il male:p
l' hdr lo capisco....ma questya dovrebbe esere l' ultima volta secondo me...altrimenti si manca di serietà poi:stordita:

PS neanche tiberian sun riesce ad andare su sta video integrata:mbe: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry:

bah, che irriconoscenza. Dice il proverbio: per quanto cercherai di far bene, troverai sempre qualcuno a tirarti merda in faccia.
Forse non te ne sei accorto, ma nelle recensioni passate di G80 mancavano i test in Oblivion con HDR abilitato:

1) http://www.hwupgrade.it/articoli/skvideo/1714/nvidia-geforce-8800-ultra_9.html

2) http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_21.html

Alcuni utenti hanno fatto notare che è un controsenso testare un gioco come Oblivion senza HDR dato che nessun possessore di schede top di gamma nell'utilizzo reale lo terrebbe disabilitato. Quindi lo stesso Bordin ha dato la sua disponibilità a integrare il test, anzi ha fatto di piu: gia che c'era ha incluso anche Lost Planet. Direi quindi che il servizio reso è a favore non solo di qualche fanboy ati, ma di tutta la comunità. Poi che qualcuno non sappia vedere oltre il proprio naso è normale, non a caso è stato creato quel proverbio che ho citato poco sopra ;)

gianni1879
17-05-2007, 14:40
Quoto in toto. Che senso ha sperare nei drivers? Più passa il tempo più la vga invecchia, e si sà nel mondo informatico a che velocità ciò avviene...
Se non posso godermi fin da SUBITO ottime prestazioni, allora è un acquisto già in perdita. :(

invece ha senso, anche quando uscirà un ipotetica r650 credi che avrà architettura completamente diversa rispetto a r600? motivo per cui si avvanteggerà anche lei dello sviluppo dei driver di r600.

un pò come avvenne con le x1800 che appena uscite avevano driver non molto all'altezza ma che man mano migliorarono sempre più, e questi meglioramenti coinvolsero anche la x1900 che già da subito era competitiva :)

Tetsujin
17-05-2007, 14:43
quoto assolutamente, è una cosa scandalosa..senza contare i soliti commenti inutili tanto per aumentare il post count. Cmq sia rimango dell'opinione che avevo quando guardai i primi test. Sta scheda va su e giu in continuazione, a volte poco sotto la gtx a volte dietro tutte le 8800. I driver secondo me c'entrano sicuro, poi quanto possano fare miracoli o no non lo so. Su g80 fecero tanto, penso che si possa dire altrettanto di questa ati.

sicuramente questa scheda non convince per niente. Se fossi costretto ad acquistare una vga oggi prenderei senza dubbio una 8800gtx, ma visti i risultati in DX10 anche questa diventa una scheda di transizione, per cui per ora me ne sto con quello che ho, in attesa di sviluppi

Portocala
17-05-2007, 14:44
l'HDR a me non piace. Anche in NFS Carbon, quel rosa ovunque mi fa venire la nausea :stordita:

Spike88 non piangere :asd:

josefor
17-05-2007, 14:54
Hanno avuto più tempo di Nvidia, ma non quanto molti credono.
Comunque, se ottimizzare G80 ha su una ipotetica scala difficoltà 1 (E' un'architettura quasi "autoottimizzante" per certi versi), ottimizzare R600 ha una difficoltà pari a 10 o persino più. Questo perchè le scelte progettuali hanno portato alla creazione di un'architettura altamente programmabile, ma che necessita per funzionare bene di un duro lavoro. In particolare, le scelta di avere delle unità shader superscalari a 5 componenti che opera in modalità VLIW è potenzialmente molto penalizzante nel caso ci siano molte dipendenze tra le istruzioni, con il caso estremo di ottenere, per istruzioni su un solo componente dipendenti, solo il 20% del potenziale teorico. Ma questo è solo uno dei problemi. Un altro è che l'accesso alle texture sembra molto lento, non tanto per il numero di unità (che pure in situazioni limite importa), quanto per qualche altro problema non ancora evidenziato. Poi c'è una terza incognita costituita dal ring bus, che è cresciuto in complessità ma anche difficoltà di ottimizzazione e che potrebbe essere anche lui in parte responsabile di perdita di prestazioni.
Da questo punto di vista la scelta di avere tutta questa programmabilità è quasi suicida, e certo non potrà pagare prima di un bel pò di tempo. A meno che ovviamente non ci sia qualche grosso baco HW sul chip che stia limitando effettivamente le prestazioni, ma credo che la cosa diventerebbe evidente in poco tempo.

Pure io ho provato a leggre le caratteristiche hardware inovative su tom's hw, belle si ma anche noiose, magari uno rimane impressionato da tante caratteristiche ma alla fine rimane sempre il risconto con qualità e velocità grafica fps, se sta scheda delude perchè è difficile da programmare e ci vorrà tempo, non credo che possa giustificare ATI, evidentemente hanno sottovalutato e sottodimensinato il reparto programmazione drive,sempre cannato hanno... chiaro tu dirai facile dire così, ma rendiamoci conto che la ATI fa le schede per venderle, se quando le presenti a pochi paiono appetibili per vari problemi allora non puoi dire che dia una scelta azzeccata, io ho avuto schede nvidia e ati, non ho pregiudzi, non me ne frega niente, mi importa solo del mio portafoglio e del mio appagamento videoludico...
E poi diciamocelo, tutte le schede attuali saranno in affanno con le DX10, e allora che cavolo mi propongono delle schede che non vanno bene neanche ora... ma chi te le compra....

Camelvam
17-05-2007, 14:56
Certo che è difficile accettare certi bench... se pensiamo a che era ATI...speriamo bene perchè io dopo svariati anni di radeon sto pensando a NVIDIA...ma ci tengo troppo ad ATI e pure AMD.

Spike88
17-05-2007, 14:59
bah, che irriconoscenza. Dice il proverbio: per quanto cercherai di far bene, troverai sempre qualcuno a tirarti merda in faccia.
Forse non te ne sei accorto, ma nelle recensioni passate di G80 mancavano i test in Oblivion con HDR abilitato:

1) http://www.hwupgrade.it/articoli/skvideo/1714/nvidia-geforce-8800-ultra_9.html

2) http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_21.html

Alcuni utenti hanno fatto notare che è un controsenso testare un gioco come Oblivion senza HDR dato che nessun possessore di schede top di gamma nell'utilizzo reale lo terrebbe disabilitato. Quindi lo stesso Bordin ha dato la sua disponibilità a integrare il test, anzi ha fatto di piu: gia che c'era ha incluso anche Lost Planet. Direi quindi che il servizio reso è a favore non solo di qualche fanboy ati, ma di tutta la comunità. Poi che qualcuno non sappia vedere oltre il proprio naso è normale, non a caso è stato creato quel proverbio che ho citato poco sopra ;)

:friend:


l'HDR a me non piace. Anche in NFS Carbon, quel rosa ovunque mi fa venire la nausea :stordita:

Spike88 non piangere :asd:


non l' ho capita:confused:

BrightSoul
17-05-2007, 15:02
Questi test per ora significano poco perché, inutile negarlo, i driver non sono maturi. Ne è un esempio lampante Lost Planet dove non solo gli FPS fanno pena, ma si vedono pure degli artefatti nel rendering. Non ha importanza se ATI/AMD ci hanno impiegato 1 anno a tirar fuori sta scheda... avranno avuto i loro problemi e voglio ancora dargli un po' di fiducia.

Sinceramente non ho marche preferite, quindi sono ancora indeciso tra 8800GTS e Sapphire HD2900xt Toxic. Probabilmente sceglierò la seconda perchè mi offre raffreddamento a liquido modulare che oltre sulla GPU posso usare anche sul processore Intel (mi pare di aver capito). Alla fine spenderò 450euro. Per questa cifra ci potrei comprare una 8800GTX, ma non voglio un forno che fa il rumore di un trattore nel mio case.

appleroof
17-05-2007, 15:03
Per una volta devo fare una critica agli articoli di hwupgrade, solitamente lucidi e neutri nelle valutazioni (non per nulla stò sempre qui :p ):

I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

http://www.hwupgrade.it/articoli/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_5.html

Ma come si fà ad affermare questo (varrebbe per qualsiasi scheda), visto che la situazione menzionata (2560x1600 aa C16xQ e tutto su high da gioco!!!!!!!) è praticamente lo 0,00001% di quelle reali? Anche la 1920x1200 è lontanissima da essere la risoluzione di riferimento oggi come oggi, dove ancora la 1280x1024 è adottata dal 90% e più dei videogiocatori....

davvero una grossa svista per un organo di informazione.

Tetsujin
17-05-2007, 15:08
l'HDR a me non piace. Anche in NFS Carbon, quel rosa ovunque mi fa venire la nausea :stordita:

Spike88 non piangere :asd:

sui gusti non si discute, sono personali, ma l'importanza di avere dei bench che testino l'HDR con schede top è innegabile sia sotto il lato tecnico, che nell'ottica di un futuro acquisto

Tetsujin
17-05-2007, 15:14
Per una volta devo fare una critica agli articoli di hwupgrade, solitamente lucidi e neutri nelle valutazioni (non per nulla stò sempre qui :p ):

I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

http://www.hwupgrade.it/articoli/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_5.html

Ma come si fà ad affermare questo (varrebbe per qualsiasi scheda), visto che la situazione menzionata (2560x1600 aa C16xQ e tutto su high da gioco!!!!!!!) è praticamente lo 0,00001% di quelle reali? Anche la 1920x1200 è lontanissima da essere la risoluzione di riferimento oggi come oggi, dove ancora la 1280x1024 è adottata dal 90% e più dei videogiocatori....

davvero una grossa svista per un organo di informazione.


invece è un dato importantissimo. Non si è mai visto da molti anni una situazione in cui la scheda video piu potente sul mercato nel momento che abiliti tutte le opzioni grafiche, vada ad una media di 5 fps :eek:
Sono dati estremi, ma chi si compra una 8800 ultra non ha certo (come detto e ripetuto) un monitor da 1280x1024.
se qualcuno oggi stesse pensando di spendere il cifrone per accaparrarsi la scheda video piu potente da affiancare ad un 30", pensando di avere ancora una buona giocabilità in dx10 al massimo dettaglio, beh... credo che posso essere felice di conoscere in anticipo quello cui si trovera davanti ;)

edit: ora che ci penso, se una scheda singola fa 5 fps, due 8800 ultra in sli quanti ne fanno... 8? :asd:

Spike88
17-05-2007, 15:15
Per una volta devo fare una critica agli articoli di hwupgrade, solitamente lucidi e neutri nelle valutazioni (non per nulla stò sempre qui :p ):

I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

http://www.hwupgrade.it/articoli/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_5.html

Ma come si fà ad affermare questo (varrebbe per qualsiasi scheda), visto che la situazione menzionata (2560x1600 aa C16xQ e tutto su high da gioco!!!!!!!) è praticamente lo 0,00001% di quelle reali? Anche la 1920x1200 è lontanissima da essere la risoluzione di riferimento oggi come oggi, dove ancora la 1280x1024 è adottata dal 90% e più dei videogiocatori....

davvero una grossa svista per un organo di informazione.

più che il 90% dei giocatori...direi che solo un 70% gioca sui 1280x1024...poi c' è un 10-20% ancora confinato alla fullentry 1024x768....e poi un modestissimo 10-20al max...che si avventura oltre la 1280.....dico per raggiungere la risoluzioni di 2560x1600 ci vuole un monitor di più di 1200euro...la gtx a risoluzioni umane anke col dettaglio al max...non credo proprio che scenda a 4fps:rolleyes: ....ma lool Tetsujin..che devo dire???:Prrr:
e poi io dovrei ringraziare per la serietà alcuni redattori?:mbe:

Spike88
17-05-2007, 15:16
invece è un dato importantissimo. Non si è mai visto da molti anni una situazione in cui la scheda video piu potente sul mercato nel momento che abiliti tutte le opzioni grafiche, vada ad una media di 5 fps :eek:
Sono dati estremi, ma chi si compra una 8800 ultra non ha certo (come detto e ripetuto) un monitor da 1280x1024.
se qualcuno oggi stesse pensando di spendere il cifrone per accaparrarsi la scheda video piu potente da affiancare ad un 30", pensando di avere ancora una buona giocabilità in dx10 al massimo dettaglio, beh... credo che posso essere felice di conoscere in anticipo quello cui si trovera davanti ;)

e chi sono questi uomini...lo o,5% dei gamer mondiali?:doh:

ghiltanas
17-05-2007, 15:20
da questi benck anche se preliminari emerge un chiaro dato di fatto:

se uno vuole giocare in dx10 e bene la meglio cosa è aspettare le proposte che usciranno almeno e dico almeno da luglio in poi cosi finalmente driver buoni e vga ottimizzate per dx10 e nn vga di transizione tanto mi sa che alla fine le vga dx10 attuali quello sono e nn sono completamente in dx10.Queste nuove librerie sono qualcosa di eccezionale e per gestirle servono vga in proporzione a quelle precedenti + potenti ( e nn di poco) soprattutto con maggiore memoria video per gestire una quantità di filtri e texture sempre maggiori e assenza di colli di bottiglia (bus irritanti e unità shaders in numero OFFENSIVO )

NvidiaMen
17-05-2007, 15:20
ATi ha nel lancio della x2900xt ha semplicemente floppato da un punto di vista di marketing. Questo è molto grave per una multinazionale acquisita da un colosso come AMD che ricordo, subito dopo l'acquisizione di ATi, ha licenziato molti dei rappresentanti di punta del marketing di ATi (http://www.tomshw.it/news.php?newsid=10029).
E' questo apparente flop il prezzo che attualmente AMD stà pagando con i propri clienti.
La scheda tecnicamente parlando è superiore a ciò che propone la concorrenza, ma questo ovviamente non basta ad evitare magre figure se non si creano le basi per esprimere le potenzialità effettive (ricordate una famosa pubblicità? La potenza è NULLA senza CONTROLLO...).
Prima di lanciare sul mercato la scheda il marketing di ATi (anzi AMD dato che i colleghi son stati licenziati...) avrebbe fatto meglio ad attendere almeno un altro mese per dedicarsi allo sviluppo dei drivers e soprattutto ad accordarsi con qualche software house per realizzare qualche demo tecnologica in grado di far evidenziare le qualità della propria architettura. Ebbene, oltre a non far ciò ATi ha fatto addirittura di peggio affidando il proprio prodotto a rewievers che per mancanza di alternative hanno testato la scheda su softwares DX10 ottimizzati per la concorrenza (Lost Planet) rimediando dunque una figura non degna del suo nome.
La scheda, in DX9, oltre a consumare più watt risulta addirittura meno performante perchè, con molta probabilità i drivers (che definire beta è un complimento...), perdono molti dei cicli di processing nella pipeline non riuscendo dunque a sfruttare appieno la complessità dell'architettura con tutti gli steams (tanti ma meno rapidi della concorrenza) che la GPU ha a disposizione.
Per cui rimango in attesa di altri test con la fiducia che tra due o tre releases di drivers la situazione cambierà e di molto.
Concludo che alle volte licenziare persone và fatto cercando di prevederne le conseguenze...
NM.

Alessandro Bordin
17-05-2007, 15:21
Per una volta devo fare una critica agli articoli di hwupgrade, solitamente lucidi e neutri nelle valutazioni (non per nulla stò sempre qui :p ):

I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

http://www.hwupgrade.it/articoli/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_5.html

Ma come si fà ad affermare questo (varrebbe per qualsiasi scheda), visto che la situazione menzionata (2560x1600 aa C16xQ e tutto su high da gioco!!!!!!!) è praticamente lo 0,00001% di quelle reali? Anche la 1920x1200 è lontanissima da essere la risoluzione di riferimento oggi come oggi, dove ancora la 1280x1024 è adottata dal 90% e più dei videogiocatori....

davvero una grossa svista per un organo di informazione.

Ciao.

Io mi chiedo: è mai possibile scirvere una virgola senza che questa venga poi malenterpretata o ribaltata o ancora giudicata secondo parametri assurdi?Ebbene no, evidentemente non è possibile.

Mi sembrava EVIDENTE che quella nota è una curiosità. Ho pensato, evidentemente sbaglando perché non ti ho interpellato prima, di togliermi una curiosità personale.

"Chissà alle risoluzioni massime la scheda più potente che ho qui in ufficio quanti fps fa". Appurato che erano 4, ho pensato evidentemente sbagliando, di mettervene al corrente.

Le critiche costruttive le accetto, e ne è la prova questo articolo aggiuntivo. Appurato che in molti sentivano l'esigenza di test in più, ho provveduto a farli.

Ma se mi vieni a dire "davvero una grossa svista per un organo di informazione", quanto era PALESE che era un cenno, una curiosità, allora mi cadono le braccia, giusto perché voglio essere fine.

Possibile che non vi va mai bene NULLA? Riflettere prima di scrivere per favore.

Spike88
17-05-2007, 15:23
domanda importante...male nuove vga di settembre full DX10...cvontinueranno sempre ad essere buone in tutte lepassate librerie????io ho caterve di giochi in Dx7...sai che belezza se vanno a farsi bnenedire:mbe: :muro:


PS:
Alessandro Bordin l' utente finale è sempre insodisfatto...ricordalo:rolleyes:

ghiltanas
17-05-2007, 15:23
per Spike88:

io sono uno di quelli che gioca a 1024x768 (anche xxkè ho un crt da 17) e nn mi lamento per nulla.

Alessandro Bordin
17-05-2007, 15:26
e poi io dovrei ringraziare per la serietà alcuni redattori?:mbe:

Sei formalmente invitato a venire in ufficio a rifare tutti i test con me, (alcuni eseguiti stando in ufficio fino alle 2 di notte, per la cronaca).

Ti prego però, fallo. Quando lo avrai fatto e avrai notato che tutto coincide, sarò io a ridere della serietà di certi commenti.

SolidSnake587
17-05-2007, 15:27
invece è un dato importantissimo. Non si è mai visto da molti anni una situazione in cui la scheda video piu potente sul mercato nel momento che abiliti tutte le opzioni grafiche, vada ad una media di 5 fps :eek:
Sono dati estremi, ma chi si compra una 8800 ultra non ha certo (come detto e ripetuto) un monitor da 1280x1024.
se qualcuno oggi stesse pensando di spendere il cifrone per accaparrarsi la scheda video piu potente da affiancare ad un 30", pensando di avere ancora una buona giocabilità in dx10 al massimo dettaglio, beh... credo che posso essere felice di conoscere in anticipo quello cui si trovera davanti ;)

edit: ora che ci penso, se una scheda singola fa 5 fps, due 8800 ultra in sli quanti ne fanno... 8? :asd:
E chi l'ha detto? Già le schede top gamma "faticano" a far girare i titoli nuovi a 1280*1024 tutto al max con un uso moderato dei filtri, io mi comprerò una 8950 GX2 probabilmente e giocherò a 1280*1024 ma almeno per un pò potrò giocare i nuovi titoli senza problemi e sopratutto senza compromessi!

Spike88
17-05-2007, 15:27
anke io...ho un lcd da 15" e giocavo(quando potevo farlo con le video serie) giocherò sempre almeno per i prox 2-3 anni ancora a 1024x768...con filtri al max naturalmente...è un ottima grafica...certo se si levano i gfiltri e i dettagli al max...un po penuccia fa...ma se si attiva tutto a 1024x768 si gioca da dio:D

Tetsujin
17-05-2007, 15:29
e chi sono questi uomini...lo o,5% dei gamer mondiali?:doh:

ma anche se fosse lo 0,1%, perchè non bisogna eseguire il test? Perchè rosica?
Secondo te, chi ha un monitor da almeno 24" ed è anche un videogiocatore, che scheda video considererà per l'acquisto? Una gts? Una 2900? :asd:
Forse una ultra, che dici?
E non è meglio che sappia prima come va una ultra al max in dx10, piuttosto che trovarsi l'amara sopresa a spesa fatta?

ghiltanas
17-05-2007, 15:30
domanda importante...male nuove vga di settembre full DX10...cvontinueranno sempre ad essere buone in tutte lepassate librerie????io ho caterve di giochi in Dx7...sai che belezza se vanno a farsi bnenedire:mbe: :muro:

i miei giochi principali sono wolfenstein enemy territory e call of duty (anche hitman e oblivion) per me se nn andassero bene sarebbe un disastro...cmq nn so cmq credo per quello nn ci saranno problemi. Tuttavia spero puntino molto sul maggior sviluppo ne confronti delle dx10 tralasciando in parte, se necessario la retrocompatibilità(al limite quando giochi in dx9 rimetti su la vga vecchia anche se nn è una soluzione comodissima :D )

Willy_Pinguino
17-05-2007, 15:30
vorrei ricordare agli onorevoli iscriti al forum che mentre le 2900 sono costruite con tec a 90 nm, mentre le prossime GPU saranno con tec a 65nm, e per di più dla fabri TSMC che ha si le tec a 65nm ma che per loro stessa ammissione non sono a livello delle 65nm di Intel o AMD. Quando ATI/AMD produrà in proprio le GPU nelle sue fonderie, allora vedremo prestazioni, bassi consumi e poco calore prodotto.

per quel che riguarda i driver, se non si ha i sample per testare i driver non si può ottimizzare no?

le skede video attuali consumano così tanto solo a causa delle tec costrutive che non sono a livello delle CPU, ma ora con la fusione AMD-ATI le cose dovrebero migliorare

Spike88
17-05-2007, 15:31
Alessandro Bordin mica ero offensivo io:mbe: ...non ho mica messo in dubbio la tua capacità di analisi...non dubito nemmeno del fatto che hai fatto le 2di notte(ricordiamoci che moolti lavoratori fanno le 2di notte...ma di certo mica se ne vantano o fanno scudo)
ho detto solo che per quanto uno si sforzi non può mai fare un lavoro che non presenti minuscole falle(minuscole ho detto)...nel caso tuo...avresti potuto specificare che era una curiosità...oppure farlo anche con una ati(nonostante la HD2900xt non sia il top di gamma ati)

peace and love:D

Alessandro Bordin
17-05-2007, 15:33
Alessandro Bordin mica ero offensivo io:mbe: ...non ho mica messo in dubbio la tua capacità di analisi...non dubito nemmeno del fatto che hai fatto le 2di notte(ricordiamoci che moolti lavoratori fanno le 2di notte...ma di certo mica se ne vantano o fanno scudo)
ho detto solo che per quanto uno si sforzi non può mai fare un lavoro che non presenti minuscole falle(minuscole ho detto)...nel caso tuo...avresti potuto specificare che era una curiosità...oppure farlo anche con una ati(nonostante la HD2900xt non sia il top di gamma ati)

peace and love:D


Ok allora avevo male interpretato sorry ;)

Tetsujin
17-05-2007, 15:33
E chi l'ha detto? Già le schede top gamma "faticano" a far girare i titoli nuovi a 1280*1024 tutto al max con un uso moderato dei filtri, io mi comprerò una 8950 GX2 probabilmente e giocherò a 1280*1024 ma almeno per un pò potrò giocare i nuovi titoli senza problemi e sopratutto senza compromessi!

giocherai a tutto senza poter abilitare AA insieme ad HDR... e meno male che non vuoi avere compromessi.
E' gia stato spiegato molte volte perchè non ha senso acquistare una gtx da usare con un monitor da 1280x1024, non ha senso ripeterlo ancora ma l'essenza del discorso è che sono soldi sprecati ;)

Spike88
17-05-2007, 15:33
i miei giochi principali sono wolfenstein enemy territory e call of duty (anche hitman e oblivion) per me se nn andassero bene sarebbe un disastro...cmq nn so cmq credo per quello nn ci saranno problemi. Tuttavia spero puntino molto sul maggior sviluppo ne confronti delle dx10 tralasciando in parte, se necessario la retrocompatibilità(al limite quando giochi in dx9 rimetti su la vga vecchia anche se nn è una soluzione comodissima :D )

no no...retrocompatibilità ci deve essere:mad: ...fossi matto...e certo io mi metto a smontare e rimontare il case ogni volta:mc:
assolutamente no...se se ne escono con una kazzata del gnere le case....io divento un terrorista:mad: :mbe:

killer978
17-05-2007, 15:34
AMD mi ha rovinato la ATI :muro:

Cavolo dopo aver abbandonato le CPU AMD , dovrò lasciare anche ATI, che è stata sempre avanti a Nvidia da quando uscì la 8500 :cry:

I miei punti di riferimento ATI/AMD di questi ultimi anni , stanno perdendo troppi colpi peccato davvero, la storia dei driver forse è vera ma non dimentichiamoci i consumi che sono davvero esagerati se confrontati con la GTS 320!!!

Tetsujin
17-05-2007, 15:36
anke io...ho un lcd da 15" e giocavo(quando potevo farlo con le video serie) giocherò sempre almeno per i prox 2-3 anni ancora a 1024x768...con filtri al max naturalmente...è un ottima grafica...certo se si levano i gfiltri e i dettagli al max...un po penuccia fa...ma se si attiva tutto a 1024x768 si gioca da dio:D

lool lo dicevo anche io, poi un giorno ho provato cosa vuol dire avere un monitor piu grosso (22") e mi sono resco conto che per quanto la grafica possa essere ottima, alla fine giochi su un francobollo :D

realista
17-05-2007, 15:38
oi ragazzi... vorrei farmi un sistema STEREOSCOPICO ehehehe mi piacerebbe molto... vedere i giochi in 3d a un passo dal mio naso... quella è la strada da seguire!! ...su! :P

Crux_MM
17-05-2007, 15:38
Ragazzi il discorso dei driver non conta.
E' come se qualcuno vi dicesse: TI VENDO UN TERRENO CON SOTTO UN GIACIMENTO PETROLIFERO!poi leggi il contratto e c'è scritto che ORA c'è un quantità di petrolio di 1 litro per km2..ma tra 1000000 di anni ci sarà petrolio da buttare..basta che ci pianti su ettari di alberi e crei una fauna..

GiovanniGTS
17-05-2007, 15:39
vorrei ricordare agli onorevoli iscriti al forum che mentre le 2900 sono costruite con tec a 90 nm, mentre le prossime GPU saranno con tec a 65nm, e per di più dla fabri TSMC che ha si le tec a 65nm ma che per loro stessa ammissione non sono a livello delle 65nm di Intel o AMD. Quando ATI/AMD produrà in proprio le GPU nelle sue fonderie, allora vedremo prestazioni, bassi consumi e poco calore prodotto.

per quel che riguarda i driver, se non si ha i sample per testare i driver non si può ottimizzare no?

le skede video attuali consumano così tanto solo a causa delle tec costrutive che non sono a livello delle CPU, ma ora con la fusione AMD-ATI le cose dovrebero migliorare

a me risulta che le FAB AMD hanno gia' una capacità produttiva insufficiente, figuriamoci se si mette a produrre anche GPU proprio ora che sta per introdurre il K10

Spike88
17-05-2007, 15:42
lool lo dicevo anche io, poi un giorno ho provato cosa vuol dire avere un monitor piu grosso (22") e mi sono resco conto che per quanto la grafica possa essere ottima, alla fine giochi su un francobollo :D

in efetti avvolte il fatto del franco bollo è vero...in particolare non posso ami giocare a uan distanza superiore a 80cm...altrimenti è tutto troppo piccino:stordita: ...pero ammenoche non ci sono problemi di fattore ambientale e si riesce a giocare un po più vicini al monitor...non è che fa kagare proprio...cewrto io lo vorrei un 22pollici...ma preferisco spendere quei 30e passa euro...ma che dico...almeno 500euro:D ...in hardware...piuttosto che in periferica..

realista
17-05-2007, 15:44
si pero idrivercontano moltissimo possono dare anche un boost prestazionale del 10 % .... ma io ho paura che nvidia abbia il preedominio software.. tutto sembra ottimizzato per Nvidia.. PERFINO I DRIVER STEREOSCOPICI... ati nn li ha, invidia si! ati pero la vedo molto impegnata in nuove soluzioni se avete letto le caratteristiche tecniche SPECIALi della nuova arrivata ati.. bhe vedrete ch e ce tanta ma tanta tecnica ... forse è un progetto avviato male ma le basi x il futuro sono migliori dinvidia che in genere è sempre piu CAUTA nel affrontare nuove tecnologie. nn so vedetevi su tomshw le caratteristiche della hd2900 poi ditemi. XME SE GLI SVILUPPATORI di soft ottimizzassero x nvidia le prestazioni sarebbero migliori. ati ha ancora una tecnologia nn ancora sfruttata nelle x1950!..diamo modo ai programmatori di usare skede ati.. che secondo me hanno molta tecnica ma purtroppo difficolta nei driver .....AHIME osa se dovessi scegliere sceglierei nvidia anche perche voglio usare gli okkialini stereoscopici a ottobre :) e nvidia da di piu dal lato software....

gianni1879
17-05-2007, 15:45
Ragazzi il discorso dei driver non conta.
E' come se qualcuno vi dicesse: TI VENDO UN TERRENO CON SOTTO UN GIACIMENTO PETROLIFERO!poi leggi il contratto e c'è scritto che ORA c'è un quantità di petrolio di 1 litro per km2..ma tra 1000000 di anni ci sarà petrolio da buttare..basta che ci pianti su ettari di alberi e crei una fauna..

???

questa non l'ho capita!!!!

perchè i driver non contano???

MenageZero
17-05-2007, 15:47
visto l'andamento analogo alla rece principale o anche un po' peggio a volte
(ovviamente senza dar peso a lost planet, come raccomandato per le diverse eraguini esposte), unitamente al fatto che che la hd2900xt consuma nettamente di più della concorrente gts (che già non consuma poco) e a quesro stato "critico" di immaturità dei drv da molteplici parti invocato/evidenziato,

torno a chiedermi se per caso alla fine ad amd non conveniva o non ci guadagnava in immagine ad abortire la presentazione in maggio, almeno per la fascia alta, e uscire "con calma" con modelli dx10 di fascia alta da subito competitivi con (tutta)la fascia alta di nv del momento, conusmi non superiori al concorrente e drv "ottimizzati"(come si dice correntemente, senza entrare nel tecnico), magari non prima di diversi mesi quando inizieranna ad esserci in commercio titoli dx10. :wtf:

leggo poi che una 8800ultra fa un 5fps a lost planet con tutti i dettagli/effetti/filtri al max a 2560x1600... ora, per fortuna direi che tale risoluzione non sia ancora "obbligatoria" neanche per chi vuole giocare "con qualità", tuttavia mi piacerebbe sapere, abbassando solo la risoluzione, a che valori di questa si arriva ad almeno circa 30 fps di media (senza troppi e troppo bassi minimi magari)... vorrei sperare che almeno, ad essere proprio pessimista,non sia a valori inferiori di 1280x720 ... :stordita: (se no davvero 'ste prime dx10 sarebberio tali solo come specifiche implementate ma poco o nulla nella pratica...)

GiovanniGTS
17-05-2007, 15:48
Ragazzi il discorso dei driver non conta.
E' come se qualcuno vi dicesse: TI VENDO UN TERRENO CON SOTTO UN GIACIMENTO PETROLIFERO!poi leggi il contratto e c'è scritto che ORA c'è un quantità di petrolio di 1 litro per km2..ma tra 1000000 di anni ci sarà petrolio da buttare..basta che ci pianti su ettari di alberi e crei una fauna..

e se invece ti dicesse che tra 15 anni ci sara' petrolio come in iraq?
il prezzo non sarebbe certo lo stesso di uno senza petrolio

piuttosto la cosa che lascia un po' interdetti è che le 2900 sembrano piuttosto acerbe, molto di piu' delle 8800 al momento del loro lancio

BrightSoul
17-05-2007, 15:48
oddio... creare una fauna piantando alberi è un'impresa ardua. A meno che non pianti alberi di bradipo. E' risaputo che i bradipi crescono sugli alberi. Se è per questo ci nascono pure... :rolleyes:

Tetsujin
17-05-2007, 15:48
in efetti avvolte il fatto del franco bollo è vero...in particolare non posso ami giocare a uan distanza superiore a 80cm...altrimenti è tutto troppo piccino:stordita: ...pero ammenoche non ci sono problemi di fattore ambientale e si riesce a giocare un po più vicini al monitor...non è che fa kagare proprio...cewrto io lo vorrei un 22pollici...ma preferisco spendere quei 30e passa euro...ma che dico...almeno 500euro:D ...in hardware...piuttosto che in periferica..

guarda, puoi avere l'hardware piu potente, ma se non hai periferiche adeguate, non te lo godi e di fatto, non serve a niente se non a guardare compiaciuto il numerino giallo di fraps

Camelvam
17-05-2007, 15:48
ma come si fa a dire che AMD rovina la vita cavolo..io ho messo i capelli bianchi com AMD,mi ritrovo un4600x2 939 che va da dio riesco a far funzionare unax800xl ai massimi filtri dai ragazzi non diamo i nostri solidi alla concorrenza NON SPUTIAMO NEL PIATTO...CHE SI MANGIA.

Dark Schneider
17-05-2007, 15:53
sicuramente questa scheda non convince per niente. Se fossi costretto ad acquistare una vga oggi prenderei senza dubbio una 8800gtx, ma visti i risultati in DX10 anche questa diventa una scheda di transizione, per cui per ora me ne sto con quello che ho, in attesa di sviluppi

Non penso ci sia da scandalizzarsi quando si testa un motore pesante a 2560x1600, AA 16X e tutto al max. Sono pur sempre risoluzioni che nessuno userà mai(poi ad applicarci pure l'AA...). I monitor giganti supportano quella risoluzione. La media della grandezza dei monitor è sicuramente aumentata. Ma quella risoluzione è da LCD da 30 pollici.

Detto questo, le prime schede top non sono MAI le schede ideali per far girare giochi basati sulle nuove librerie. La storia insegna. :) Se uno si illude di questo sbaglia. Perfino la buonissima Radeon 9700, quando son cominciati ad uscire giochi che facevano un buon uso di DX9 si è piegata. Se togli HL2 che era un gioco sviluppato attorno all'R300, per gli altri titoli dovevi comunque scendere a compromessi. Tipo per Far Cry ad esempio si è dovuto attendere l'arrivo di schede del calibro GeForce 6800 ed X800 che raddoppiavano le prestazioni di netto. Schede che ti permettevano di settare tutto al max, inclusi i filtri. Ma ce ne sono altri, i vari COD2, Fear, Oblivion e via dicendo. :) Senza citare quelli ulteriormente pesanti in Open GL. Ma comunque si poteva giocare bene anche con la 9700. Però dei compromessi bisognava farli insomma. :)

Se sei interessato a giocare al max a titoli che sai usciranno chessò tra 1 anno, la scheda te la compri tra un anno. Altrimenti non ti poni simili quesiti e ti compri una vga semplicemente perchè vuoi migliorare le prestazioni.:) Un occhio al futuro ce lo vuole, ma senza andare troppo oltre insomma. ;)

Raven
17-05-2007, 15:55
Approfitto della presenza di Ale per una domanda veloce veloce! :D...

Su alcuni siti hanno pubblicato recensioni in ambiente windowsXP, dove sembrerebbe che la scheda si comporti in maniera diametralmente opposta rispetto a quanto emerso con Vista... ora... siccome di rece "fasulle", fake, etc etc ne ho pien le OO (:D) e "fidarsi è bene, ma fidarsi di hwupgrade è meglio" (slaaapp! :p) voi avevate intenzione di fare dei test anche sotto XP o no?!

thanx... ;)

Grey 7
17-05-2007, 15:55
leggo poi che una 8800ultra fa un 5fps a lost planet con tutti i dettagli/effetti/filtri al max a 2560x1600... ora, per fortuna direi che tale risoluzione non sia ancora "obbligatoria" neanche per chi vuole giocare "con qualità", tuttavia mi piacerebbe sapere, abbassando solo la risoluzione, a che valori di questa si arriva ad almeno circa 30 fps di media (senza troppi e troppo bassi minimi magari)... vorrei sperare che almeno, ad essere proprio pessimista,non sia a valori inferiori di 1280x720 ... :stordita: (se no davvero 'ste prime dx10 sarebberio tali solo come specifiche implementate ma poco o nulla nella pratica...)

infatti, penso che quel dato abbia cmq un discreto significato: fa semplicemente capire che, con settaggi sparati al massimo, queste schede, per quanto potenti siano, non gna fanno con il primo gioco che include features dx10. E parliamo di schede da oltre 1 milione di vecchie lire. Mentre oggi con gli stessi settaggi riescono a far girare la maggior parte dei giochi (mal ottimizzati a parte) con degli fps che altre schede si sognano. Insomma è si una curiosità, ma fa anche dedurre altre cose. Poi nessuno toglie che quelle impostazioni vengono usate da una strettissima nicchia di giocatori, ma cmq è un dato secondo me, non da prendere alla leggera. Insomma, sti giochi nexth generation, promettono pesantezze a non finire :asd:

Spike88
17-05-2007, 15:57
guarda, puoi avere l'hardware piu potente, ma se non hai periferiche adeguate, non te lo godi e di fatto, non serve a niente se non a guardare compiaciuto il numerino giallo di fraps

è lo so...pero comprendimi ho un athlonxp con 939 a 2.0ghz........una mobo della asus con video integrato 700mb ram 300mhz.....disco fisso da 100gb case senza maco una ventola ali da 280W sconosciuto....un masterizzatore(il mio case supporta solo un drive da 5pollici e il resto è tutto interno:mbe:

ora io a settembre prendo il mio case...e lo butto personalmente nel cassettone dei rifiuti sopra casa mia........DOVRO RICOMPRARMI TUTTO IL CASE...ho fatto un preventivo e per stare sicuri te lo posto anke:stordita:

Legenda:
*HRW ----spese spedizione
**Tecnocomputer ----spese spedizione
***CHL ----nessuna spesa di spedizione
****negozio qualunque ----nessuna spesa di spedizione

PC:
****CASE: Thermaltake Soprano VB1000SWS (silver con finestra) Micro ATX(9.6x9.6) et ATX(12x9.6) 495(altezza)x210(larghezza)x478(profondità)mm 100€max
*ALI: Corsair – HX Modular PSU 520W 97.70€
**DISSI CPU: Zalman CNPS 9700 led 55.10€
*CPU: Intel Core 2 Duo E6420 4MB 2.13GHz 169.90€
*HD: Seagate Barracuda 7200.10 320Gb 7200 16MB SATA2 73.70€
*RAM: Team Group Elite 2GB dual channel CL5-5-5-15 max1.9V DDR2 800Mhz 128.33€
**MOBO: DFI INFINITY P965-S (Crossfire & RAID) 168€
*LETTORE: Floppy 1.44Mb 3.5” FD1231H SILVER 5.60€
*LETTORE: Samsung lettore DVD-ROM SH-D163A16x48x black bulk SATA 19.20€
*MASTERIZZATORE: Nec AD-7173 18x Label Flash black SATA 34.10€
*GPU: poi si vedrà a settmebre260€max
***GRUPPO CONTINUITA’: Ondine YuntoQ 1250va 750W 165.56€
**SO: Microsoft Windows Vista Home Premium OEM 32bit 110.21€
**ANTIVIRUS: NOD32 Retail 55.44€
*PASTA TERMOCONDUTTIVA: Zalman Super Thermal Grease ZM-STG1 6.10€
****FASCE: kit fascette da 40 pezzi nere 16€max
****CACCIAVITE: sottile e lungo a stella 8€max

TOTALE: 1472.94€max e senza spese di spedizione

secondo te...io che già spendo 1500euro contando le spese di spedizione......ma secondo te potrei mai comprarmi pure un monitor da più di 400euro?:fagiano:

AndreaG.
17-05-2007, 15:57
oddio... creare una fauna piantando alberi è un'impresa ardua. A meno che non pianti alberi di bradipo. E' risaputo che i bradipi crescono sugli alberi. Se è per questo ci nascono pure... :rolleyes:

perdonatemi l'ot ma che lollata!!!!! :rotfl:


E' dieci minuti che rido! :D

mtitone
17-05-2007, 15:57
io quello che non capisco veramente è perchè uno si dovrebbe comprare l'HD 2900 XT? per avere un rumore infernale e far bollire il pc?:confused: :confused:

josefor
17-05-2007, 15:58
giocherai a tutto senza poter abilitare AA insieme ad HDR... e meno male che non vuoi avere compromessi.
E' gia stato spiegato molte volte perchè non ha senso acquistare una gtx da usare con un monitor da 1280x1024, non ha senso ripeterlo ancora ma l'essenza del discorso è che sono soldi sprecati ;)

Oggi mi sento sronzo.
Scusa io sono duro di comprendonio, perchè non avrebbe senso giocare a 1280 con una gtx, io vedo che da 1600 a 1280 in certi casi si arriva a 40fps di differenza, io gioco online e ti posso assicurare che gli fps di media me ne faccio una pippa, io voglio essere sempre e dico sempre sopra ai 60fps in qualunque condizione, quidi risoluzione adeguata senza strafare, filtri niente, fronzoli nente, hdri "0", risoluzione texture sottozero, solo fps, tanti fps, fps a manetta...... se recupero anche solo 1 fps scalando da 1600 a 1280 lo faccio...
Cannare il colpo perche ti scatta la sceda video va bene se giochi in sigleplayer

appleroof
17-05-2007, 15:59
Ciao.

Io mi chiedo: è mai possibile scirvere una virgola senza che questa venga poi malenterpretata o ribaltata o ancora giudicata secondo parametri assurdi?Ebbene no, evidentemente non è possibile.

Mi sembrava EVIDENTE che quella nota è una curiosità. Ho pensato, evidentemente sbaglando perché non ti ho interpellato prima, di togliermi una curiosità personale.

"Chissà alle risoluzioni massime la scheda più potente che ho qui in ufficio quanti fps fa". Appurato che erano 4, ho pensato evidentemente sbagliando, di mettervene al corrente.

Le critiche costruttive le accetto, e ne è la prova questo articolo aggiuntivo. Appurato che in molti sentivano l'esigenza di test in più, ho provveduto a farli.

Ma se mi vieni a dire "davvero una grossa svista per un organo di informazione", quanto era PALESE che era un cenno, una curiosità, allora mi cadono le braccia, giusto perché voglio essere fine.

Possibile che non vi va mai bene NULLA? Riflettere prima di scrivere per favore.


Non volevo offendere nessuno, volevo dire che il dato non è significativo secondo me detto in quei termini, il lettore più superficiale si fà fuorviare e subito pensa che quella scheda determinata non va bene con i giochi dx10 ai massimi livelli (dove è scritto, " ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi.") perchè quelli non sono i massimi livelli, attualmente sono livelli davvero fuori norma :D e aggiungi che a quella risoluzione aa16xq e impostazioni davvero al max forse nemmeno Oblivion risulta assolutamente giocabile...

Insomma, ho capito che l'intento era di pura curiosità, ma sinceramente a me (e sono un lettore x, quindi potrebbe capitare a chiunque altro dia una lettura veloce) messa in quei termini non ha dato quella sensazione.

Mi scuso ancora, pensavo fosse una critica costruttiva ma evidentemente ho sbagliato i termini urtando la tua sensibilità.

gianni1879
17-05-2007, 16:00
Approfitto della presenza di Ale per una domanda veloce veloce! :D...

Su alcuni siti hanno pubblicato recensioni in ambiente windowsXP, dove sembrerebbe che la scheda si comporti in maniera diametralmente opposta rispetto a quanto emerso con Vista... ora... siccome di rece "fasulle", fake, etc etc ne ho pien le OO (:D) e "fidarsi è bene, ma fidarsi di hwupgrade è meglio" (slaaapp! :p) voi avevate intenzione di fare dei test anche sotto XP o no?!

thanx... ;)
sarebbe molto interessante se anche hwup facesse una cosa del genere almeno per i giochi dx9 :)

capitan_crasy
17-05-2007, 16:00
Hanno avuto più tempo di Nvidia, ma non quanto molti credono.
Comunque, se ottimizzare G80 ha su una ipotetica scala difficoltà 1 (E' un'architettura quasi "autoottimizzante" per certi versi), ottimizzare R600 ha una difficoltà pari a 10 o persino più. Questo perchè le scelte progettuali hanno portato alla creazione di un'architettura altamente programmabile, ma che necessita per funzionare bene di un duro lavoro. In particolare, le scelta di avere delle unità shader superscalari a 5 componenti che opera in modalità VLIW è potenzialmente molto penalizzante nel caso ci siano molte dipendenze tra le istruzioni, con il caso estremo di ottenere, per istruzioni su un solo componente dipendenti, solo il 20% del potenziale teorico. Ma questo è solo uno dei problemi. Un altro è che l'accesso alle texture sembra molto lento, non tanto per il numero di unità (che pure in situazioni limite importa), quanto per qualche altro problema non ancora evidenziato. Poi c'è una terza incognita costituita dal ring bus, che è cresciuto in complessità ma anche difficoltà di ottimizzazione e che potrebbe essere anche lui in parte responsabile di perdita di prestazioni.
Da questo punto di vista la scelta di avere tutta questa programmabilità è quasi suicida, e certo non potrà pagare prima di un bel pò di tempo. A meno che ovviamente non ci sia qualche grosso baco HW sul chip che stia limitando effettivamente le prestazioni, ma credo che la cosa diventerebbe evidente in poco tempo.

:eek:
Ciò significa che prima di vedere Driver "decenti" deve passare molto tempo...
Una domanda:
perchè ATi/AMD ha deciso per una soluzione così complicata?

bmw320d136cv
17-05-2007, 16:03
va quasi come un gts da 320mb

Johnny Ego
17-05-2007, 16:04
vorrei ricordare che ogni azienda (MA PROPRIO TUTTE TUTTE!) tende sempre a curare prima il proprio profitto piuttosto che quello del consumatore. Per me, sia ATI che nVidia, hanno fatto delle schede TOP per le DX9 condite con un po' di DX10. E' una banale operazione di marketing. ATI non doveva chiamare la sua scheda 2900XT, ma magari 2700XT, così lutente capiva che possono fare di più con le generazioni 2800 e 2900. Così la gente si aspetta grandi cose, ma in realtà c'è qualcosa che non va. Magari con l'ottimizzazione dei driver porterà dei iglioramenti, e credo che la 2900 pareggerà con la 8800 GTS, ma questoè un mio pensieroperchè ne vedo le potenzialità nell'hardware. Entrambe le case produttrici ci hanno "lubrificato il posteriore" con nomi altisonanti per poi "inc****arci" del tipo: TOP in DX9,ma base in DX10, così ci sono alcuni che adesso si comprano la 8800 ultra a cifrone, per poi comprarsi fra un anno le VERE skede DX10 a cifre altrettanto alte. Così hanno venduto delle skede in più risparmiando sullo sviluppo...

spero di essermi espressonel modo corretto, senza offendere nessuno o fraintendimenti. sono aperto a critiche sia brutte che costruttive.

P.S. Complimenti a tutta la redazione per l'immensa mole di lavoro che fate. Ricordatevi che è sempre difficile accontentare tutti... c'è sempre che pensa male di tutto e tutti...

Spike88
17-05-2007, 16:04
:eek:
Ciò significa che prima di vedere Driver "decenti" deve passare molto tempo...
Una domanda:
perchè ATi/AMD ha deciso per una soluzione così complicata?

spera di attirare a se la facia di persone moolto interessata alle nuove tecnologie ma che di certo non sono giocatori accaniti e possono permettersi quindi di aspettare mesi o anni per vedere i driver ottimizzati:)

MenageZero
17-05-2007, 16:05
ma come si fa a dire che AMD rovina la vita cavolo..io ho messo i capelli bianchi com AMD,mi ritrovo un4600x2 939 che va da dio riesco a far funzionare unax800xl ai massimi filtri dai ragazzi non diamo i nostri solidi alla concorrenza NON SPUTIAMO NEL PIATTO...CHE SI MANGIA.
:mbe:

e questo che era ? un sermone religioso ? un appello da curva da stadio ?

tra l'altro, dire che una cpu (o qualunque cosa) "va da dio" non vuol dire nulla in sé senza un metro di paragone, senza l'ambito applicativo, senza i parametri in base a cui si giudica etc. ed inoltre né l x2-4600, né la x800 né i filtri di quest'ultima, c'entrano nulla con gli argomenti di questo thread; quale sarebbe infine il senso di dire che riesci ad attivare al max i filtri ? perché non dovresti riuscirci (la cosa ovviamente si può fare su tutte le schede, basta che il gioco che stai eseguendo non sia troppo "pesante" per la gpu in questione, tale che poi va a scatti), petché sarebbe una costa "speciale", che collegamento diretto/logico/importate ci sarebbe col marchio amd ?

Spike88
17-05-2007, 16:06
vorrei ricordare che ogni azienda (MA PROPRIO TUTTE TUTTE!) tende sempre a curare prima il proprio profitto piuttosto che quello del consumatore. Per me, sia ATI che nVidia, hanno fatto delle schede TOP per le DX9 condite con un po' di DX10. E' una banale operazione di marketing. ATI non doveva chiamare la sua scheda 2900XT, ma magari 2700XT, così lutente capiva che possono fare di più con le generazioni 2800 e 2900. Così la gente si aspetta grandi cose, ma in realtà c'è qualcosa che non va. Magari con l'ottimizzazione dei driver porterà dei iglioramenti, e credo che la 2900 pareggerà con la 8800 GTS, ma questoè un mio pensieroperchè ne vedo le potenzialità nell'hardware. Entrambe le case produttrici ci hanno "lubrificato il posteriore" con nomi altisonanti per poi "inc****arci" del tipo: TOP in DX9,ma base in DX10, così ci sono alcuni che adesso si comprano la 8800 ultra a cifrone, per poi comprarsi fra un anno le VERE skede DX10 a cifre altrettanto alte. Così hanno venduto delle skede in più risparmiando sullo sviluppo...

spero di essermi espressonel modo corretto, senza offendere nessuno o fraintendimenti. sono aperto a critiche sia brutte che costruttive.

P.S. Complimenti a tutta la redazione per l'immensa mole di lavoro che fate. Ricordatevi che è sempre difficile accontentare tutti... c'è sempre che pensa male di tutto e tutti...


presente:Prrr: ...lol:D

JohnPetrucci
17-05-2007, 16:07
Peggio di quanto pensassi, con HDR attivo la 2900 xt si scava la fossa.
Certo i driver futuri miglioreranno man mano le cose, ma non ribalteranno di sicuro la situazione.

Tetsujin
17-05-2007, 16:07
sarebbe molto interessante se anche hwup facesse una cosa del genere almeno per i giochi dx9 :)

gia con questo secondo articolo la redazione si è presa della fanboy ati, figurati se ne facesse un terzo :mbe:

relo@ded
17-05-2007, 16:08
Il vero scandalo è che ci vengono proposte schede come TOP di gamma per le DX10, e poi veniamo a scoprire che saranno obsolete non appena si avranno giochi da testare al massimo dei dettagli.

Chi pensava di aver investito nelle dx10 per un tempo medio-lungo, non so come rimarrà davanti a questo dato di fatto...

Spike88
17-05-2007, 16:09
gia con questo secondo articolo la redazione si è presa della fanboy ati, figurati se ne facesse un terzo :mbe:
no il terzo no.....se proprio lo volete fare...fatene uno anche per le nvidia poi....così la gnete come me che non riesce a vedere al di là del proprio naso non griderebbe allo scandalo:p

PS
Tetsujin...come la configurazione che ho pensato???caso mai mi mandi un messaggio privato?

mikisx
17-05-2007, 16:11
non scherziamo con le cose serie..non vorrei sbagliarmi , ma tra la prima e la seconda release dei driver ci sn 5fps di diff....
la hd è uscita questa settimana....
a buon intenditore poche parole...

Darkgift
17-05-2007, 16:11
Vorrei dire due cose :

I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5.

1) Finalmente una considerazione intelligente dove si evidenzia come questa generazione di schede video(di ambedue i produttori) non offrano al momento dati confortanti circa la giocabilita con titoli dx10 o pesantemente dx9.
Ve ne site accorti che la scheda video Top del momento(che costa 500 euro!) non raggiunge 60 Fps a risoluzioni normalissime in dx10 ??? Daccordo che Lost planet è carino[ ma qaunto poi ??? ] ma siamo lontani dal fotorealismo di Crysis........ed allora ? Quando esce Crysis con 500 euro di scheda che ci fate ? Ve lo dico io....IL BRODO per natale !! E ve la dico tutta...ci godo pure se veramente le cose andranno cosi'...cosi FINALMENTE..cominceremo a renderci conto che se "questi" continuano a cambiare socket,ram,vga ecc. ogni 15 giorni..senza considerare consumi,calore e rumorosita......la colpa è solo nostra !! Posto che gli sviluppatori stanno facendo ridere per correre dietro al multiformato.

2) R-600 dubito riesca a fare miracoli tramite driver.........la divisione ATI di AMD sta lavorando veramente male.......testimonianze:

-Sono troppo lontani dalla vetta velocisticamente
-r600 delude sotto tutti i punti di vista rispetto a G80 (e G80 non è questo mostro in fin dei conti.....)
-XTX non uscita.....non esiste...semplicemente non sono riusciti a tirarla fuori = fallimento senza precedenti
-il supporto ad r-600 a livello driver durera pochi mesi....poi si passa a revision a 65 nm con tutte le conseguenze del caso

Aggiungo che se comprare 8800 ultra per 800 euro è da folli prendere 2900xt per 350 è da..........lasciamo stare che qualcuno si offende
Poggiamo i piedi per terra tutti quanti...ed evitiamo di ingrossare le tasche di questa gente.
Intanto l'Enel ringrazia :sofico:

EDIT : aggiungo che mi tengo la XL o al lmite mi prendo una 1950 xt a 2 soldi alla faccia delle dx10......che definire lontane è riduttivo.

Spike88
17-05-2007, 16:17
Vorrei dire due cose :



1) Finalmente una considerazione intelligente dove si evidenzia come questa generazione di schede video(di ambedue i produttori) non offrano al momento dati confortanti circa la giocabilita con titoli dx10 o pesantemente dx9.
Ve ne site accorti che la scheda video Top del momento(che costa 500 euro!) non raggiunge 60 Fps a risoluzioni normalissime in dx10 ??? Daccordo che Lost planet è carino[ ma qaunto poi ??? ] ma siamo lontani dal fotorealismo di Crysis........ed allora ? Quando esce Crysis con 500 euro di scheda che ci fate ? Ve lo dico io....IL BRODO per natale !! E ve la dico tutta...ci godo pure se veramente le cose andranno cosi'...cosi FINALMENTE..cominceremo a renderci conto che se "questi" continuano a cambiare socket,ram,vga ecc. ogni 15 giorni..senza considerare consumi,calore e rumorosita......la colpa è solo nostra !! Posto che gli sviluppatori stanno facendo ridere per correre dietro al multiformato.

2) R-600 dubito riesca a fare miracoli tramite driver.........la divisione ATI di AMD sta lavorando veramente male.......testimonianze:

-Sono troppo lontani dalla vetta velocisticamente
-r600 delude sotto tutti i punti di vista rispetto a G80 (e G80 non è questo mostro in fin dei conti.....)
-XTX non uscita.....non esiste...semplicemente non sono riusciti a tirarla fuori = fallimento senza precedenti
-il supporto ad r-600 a livello driver durera pochi mesi....poi si passa a revision a 65 nm con tutte le conseguenze del caso

Aggiungo che se comprare 8800 ultra per 800 euro è da folli prendere 2900xt per 350 è da..........lasciamo stare che qualcuno si offende
Poggiamo i piedi per terra tutti quanti...ed evitiamo di ingrossare le tasche di questa gente.
Intanto l'Enel ringrazia :sofico:

EDIT : aggiungo che mi tengo la XL o al lmite mi prendo una 1950 xt a 2 soldi alla faccia delle dx9......che definire lontane è riduttivo.


quoto e straquoto....pensiamo a settembre...i core 2 duo stanno in giro da si e no un anetto...e adesso( a settembre) esce un nuovo socket(ma è cosi o sto dicendo una boiata:help: ) e i nuovi penry...poi ci saranno le ddr3...poi un' altra minchiata il mese dopo...ma insomma...io sto pc nuovo allora non me lo potro fare manco a settembre...semmai all' apocallisse???
l' enel poi si befeggia di tutti noi:rolleyes:

Darkgift
17-05-2007, 16:18
Il vero scandalo è che ci vengono proposte schede come TOP di gamma per le DX10, e poi veniamo a scoprire che saranno obsolete non appena si avranno giochi da testare al massimo dei dettagli.

Chi pensava di aver investito nelle dx10 per un tempo medio-lungo, non so come rimarrà davanti a questo dato di fatto...

Dici che non si possono sedere per un po ?? Mi dispiace dirlo....da appassionato sono tentato anche io ad ogni giro...ma ho imparato a non farmi prendere per il culo.....permettendo,cosi, di evitare che la stessa cosa accada anche ad altri.

Tetsujin
17-05-2007, 16:18
Non penso ci sia da scandalizzarsi quando si testa un motore pesante a 2560x1600, AA 16X e tutto al max. Sono pur sempre risoluzioni che nessuno userà mai(poi ad applicarci pure l'AA...). I monitor giganti supportano quella risoluzione. La media della grandezza dei monitor è sicuramente aumentata. Ma quella risoluzione è da LCD da 30 pollici.

Detto questo, le prime schede top non sono MAI le schede ideali per far girare giochi basati sulle nuove librerie. La storia insegna. :) Se uno si illude di questo sbaglia. Perfino la buonissima Radeon 9700, quando son cominciati ad uscire giochi che facevano un buon uso di DX9 si è piegata. Se togli HL2 che era un gioco sviluppato attorno all'R300, per gli altri titoli dovevi comunque scendere a compromessi. Tipo per Far Cry ad esempio si è dovuto attendere l'arrivo di schede del calibro GeForce 6800 ed X800 che raddoppiavano le prestazioni di netto. Schede che ti permettevano di settare tutto al max, inclusi i filtri. Ma ce ne sono altri, i vari COD2, Fear, Oblivion e via dicendo. :) Senza citare quelli ulteriormente pesanti in Open GL. Ma comunque si poteva giocare bene anche con la 9700. Però dei compromessi bisognava farli insomma. :)

Se sei interessato a giocare al max a titoli che sai usciranno chessò tra 1 anno, la scheda te la compri tra un anno. Altrimenti non ti poni simili quesiti e ti compri una vga semplicemente perchè vuoi migliorare le prestazioni.:) Un occhio al futuro ce lo vuole, ma senza andare troppo oltre insomma. ;)


beh io quando vedo 5 fps mi scandalizzo eccome se ho appena acquistato la scheda piu potente e costosa e mi rendo conto di non poter sfruttare il massimo dettaglio con la risoluzione nativa del mio lcd da 30" :D
Scherzi a parte, naturalmente è comprensibile che questo si manifesta a causa del passaggio alle nuove librerie e non vuol dire assolutamente che la 8800 ultra improvvisamente passi da essere una scheda eccezionale ad una scheda che fa schifo.
Semplicemente, ritengo che sia molto utile avere questo dato qualora in questo momento si stesse meditando di acquistare una di queste schede in ottica di una certa longevità. E' sempre bene avere quante piu informazioni possibili, per valutare al meglio come spendere i propri soldi. Spesso infatti chi acquista una top di gamma lo fa con il pensiero di tenerla anche per un paio di anni in quanto le sue prestazioni caleranno progressivamente. E' giusto pero' che in un momento di transizione come questo, ci sia consapevolezza di quello che puo cambiare da un giorno all'altro, semplicemente installando un gioco che sfrutti la nuova tecnologia.

Darkgift
17-05-2007, 16:26
Non penso ci sia da scandalizzarsi quando si testa un motore pesante a 2560x1600, AA 16X e tutto al max

Giusto

Ma c'è da scandalizzarsi se a 1280 x 1024 con HDR Medio la 8800 gtx fa appena 60 FPS ad un gioco(ottimizzato X Nvidia!!!!) che tutto questo granche' in fondo non è !!!!! O sbaglio ?? Ho visto male io ??

Paolo Corsini
17-05-2007, 16:28
Approfitto della presenza di Ale per una domanda veloce veloce! :D...

Su alcuni siti hanno pubblicato recensioni in ambiente windowsXP, dove sembrerebbe che la scheda si comporti in maniera diametralmente opposta rispetto a quanto emerso con Vista... ora... siccome di rece "fasulle", fake, etc etc ne ho pien le OO (:D) e "fidarsi è bene, ma fidarsi di hwupgrade è meglio" (slaaapp! :p) voi avevate intenzione di fare dei test anche sotto XP o no?!

thanx... ;)
Ciao,
rispondo io ;)
la risposta è no, per svariate considerazioni legate soprattutto al fatto che lo sviluppo driver con Windows XP è di fatto fermo, mentre è molto attivo quello con Vista.

Sto guardando anche io le recensioni pubblicate con benchmark sotto Windows XP; chi ha fatto questa scelta, a mio avviso, è stato costretto in quanto non in possesso di tutte le schede al momento dei test e nella necessità di riciclare numeri ottenuti in precedenti articoli.
Non è l'approccio ideale soprattutto con le schede video, in quanto con differenti versioni di driver è possibile ottenere prestazioni ben differenti tra di loro. Questo è uno dei motivi per i quali rifacciamo tutti i test con tutte le schede video nel momento in cui prepariamo un lavoro come quello su R600, o in precedenza per la GeForce 8800 Ultra.

appleroof
17-05-2007, 16:36
Il vero scandalo è che ci vengono proposte schede come TOP di gamma per le DX10, e poi veniamo a scoprire che saranno obsolete non appena si avranno giochi da testare al massimo dei dettagli.

Chi pensava di aver investito nelle dx10 per un tempo medio-lungo, non so come rimarrà davanti a questo dato di fatto...

Non lo so, ti rispondo io che a novembre scorso ho preso la 8800gtx: dunque empiricamente ti posso dire che la demo di lost planet in dx10 la gioco fluidamente (oltre i 40fps) a 1920x1200 aa2x af 16x dettagli medio-alti, a 1680x1050 la gioco altrettanto bene con tutto al max e addirittura a 1280x900 sono cpu-limited...diciamo che sono abbastanza soddisfatto :asd: , e mi pare anche questi siano dati di fatto, non guardate solo i 1920x1200 o addirittura i 2560x1600, attualmente come ho detto la stragrande maggioranza ha monitor da 1280x1024 (o la corrispettiva wide), un certo di numero di entusiasth da 1600x1200 (e wide) un numero ancora molto minore da 1920x1200 e infine lo 0,0000001% da 2560x1600 ;)

non dimenticate che i driver ati attualmente non supportano nemmeno quella demo ;)

appleroof
17-05-2007, 16:37
Giusto

Ma c'è da scandalizzarsi se a 1280 x 1024 con HDR Medio la 8800 gtx fa appena 60 FPS ad un gioco(ottimizzato X Nvidia!!!!) che tutto questo granche' in fondo non è !!!!! O sbaglio ?? Ho visto male io ??

a va bene se vi scandalizzate se una scheda fà 60fps dico 60fps in quelle condizioni con una demo beta, sia pure sponsorizzata, allora non c'è discorso che tenga..:boh:

;)

Raven
17-05-2007, 16:40
Ciao,
rispondo io ;)
la risposta è no, per svariate considerazioni legate soprattutto al fatto che lo sviluppo driver con Windows XP è di fatto fermo, mentre è molto attivo quello con Vista.
Sto guardando anche io le recensioni pubblicate con benchmark sotto Windows XP; chi ha fatto questa scelta, a mio avviso, è stato costretto in quanto non in possesso di tutte le schede al momento dei test e nella necessità di riciclare numeri ottenuti in precedenti articoli.

Non avevo proprio considerato questa cosa... indubbiamente è meglio il vostro tipo di approccio (anche se ben + laborioso, ovviamente)...


Non è l'approccio ideale soprattutto con le schede video, in quanto con differenti versioni di driver è possibile ottenere prestazioni ben differenti tra di loro. Questo è uno dei motivi per i quali rifacciamo tutti i test con tutte le schede video nel momento in cui prepariamo un lavoro come quello su R600, o in precedenza per la GeForce 8800 Ultra.


Capito perfettamente, grazie... ;)

reptile9985
17-05-2007, 16:42
queste ciofeche sono da lasciare sugli scaffali tutta la vita! ATI deve piangere e speriamo che dopo questa batosta si riprenda e tiri fuori un'ottima soluzione, ma ce ne vorrà del tempo...

[KS]Zanna
17-05-2007, 16:49
Ciao,
rispondo io ;)
la risposta è no, per svariate considerazioni legate soprattutto al fatto che lo sviluppo driver con Windows XP è di fatto fermo, mentre è molto attivo quello con Vista.
Sto guardando anche io le recensioni pubblicate con benchmark sotto Windows XP; chi ha fatto questa scelta, a mio avviso, è stato costretto in quanto non in possesso di tutte le schede al momento dei test e nella necessità di riciclare numeri ottenuti in precedenti articoli.

Alleluja!
Mi chiedevo se ero l'unico ad aver notato la discrepanza dei valori in FEAR:
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_6.gif
rispetto a quanto fatto registrare dalle stesse schede in tutti i siti (questo compreso)...

Lud von Pipper
17-05-2007, 16:51
Sarà forse che sono deluso a morte da sta scheda che ho il dente avvelenato, ma scusami allora ma non sembra che abbiano avuto pù tempo che Nvidia per aggiustare i loro softwerini, i autunno la controparte se ne è uscita con una scheda che per non fare figure di sto tipo i suoi drive erano già degni di chiamarsi tali.

Nessuno dice che tu abbia torto, e infatti questa scheda è stata una delusione per tutti.
Il punto è che ripeterlo all'infinito è sterile, quindi guardiamo ai risultati.
E' una delusione, si ma non un disastro o una catastrofe: alla fin fine va più o meno come la concorrenza per fascia di prezzo (ok, date un mesetto al mercato per assestarsi), ma consuma troppo ed è troppo rumorosa

Guardiamo ai risultati dei test con curiosità, sia per vedere quanto immaturi sono questi drivers, sia prechè comunque, tanto G80 quanto R600 (portate magari a 65nm) saranno sul mercato ancora a lungo: per questa ragione è interessante vedere l'evoluzioni di drivers che accompagneranno questo ed altri prodotti futuri, perchè un eventuale R6X0 avrà comunque la stessa base di R600 e quindi gli stessi Drivers (salvo affinamenti) ;)

Ancora più interessante è vedere come e quanto arranchino/arrancheranno queste schede durante i test quelli fatti in questo articolo, per farci un idea delle loro prestazioni da qui a 6-8 mesi con i giochi veri. A mio parere la GTX è l'unica a tirare decentemente, dimostrando di valere tutta la differeza con la GTS e (anche di più), mentre, per il prossimo futuro, la GTS320 sembra una strada senza uscita.

pg08x
17-05-2007, 16:57
A parte tutte le considerazioni su R600 (non voglio girare il coltello nella piaga) ... a me ha molto deluso la demo di lost planet.

La prima immagine con la neve può si essere scenografica ma disponendo di grossa potenza di calcolo (CPU+GPU) è senz'altro realizzabile in Dx9.
Le altre 2 immagini (anche in versione nvidia, lasciamo perdere i rendering distorti su ATI) non sono nulla di eccezzionale soprattutto in considerazione dell' ENORME potenza elaborativa che hanno richiesto per la loro realizzazione ed il frame rate medio-scarso ottenuto.

In pratica comincio a nutrire qualche dubbio sull'effettiva utilità degli Shader 4.

Riguardo al minor carioco delle API sulla CPU (come proclama Microsoft) questa è un'ottima cosa (anche se sfruttando gli n core le cpu di potenza ce ne sarebbe da vendere)

... ho come l'impressione che i nuovi effetti (che poi non mi paiono nulla di speciale) ammazzino le GPU più potenti.

halduemilauno
17-05-2007, 17:05
Io vorrei tanto capire il commento di quelli che dicono IO MI COMPRO UNA 8800GTS PERCHE CONSUMA MENO E SCALDA MENO!!! Cosa cambia una differenza di 10-20W??? Uno che compra una 8800GTS fa un affare ma non di certo per i consumi!!! Poi visto che ATI compare questa scheda con la GTS (dopo che ha visto che con la GTX non c`era storia) non vedo tutto questo flop. Per cio che riguarda i driver posso dire per esperienza che la 7900GT con il passaggio dai FORCEWARE 91.XX a 93.71 in certi giochi (COD2 ad esempio)ha guadagnato anche il 70% di FPS!!!!! Mentre per cio che riguarda la 8800 chi definisce ottimizzati e stabili i driver NVIDIA ha un concetto non proprio esatto di stabilita (purtroppo lo dico per amara esperienza)!!!!!! Percio e proprio a livello hardware che non ci siamo stavolta!!! ATI ha sbagliato qualcosa e non riesce a trovare la strada giusta! Questa volta neanche la qualita dei colori non e all`altezza (vero punto forte di ATI)!!! Speriamo in qualche miracolo o stavolta chiudono baracca e NVIDIA la fara da padrona!!!!

veramente sono 80/90watt di differenza. non mi paiono pochi.

http://www.hwupgrade.it/articoli/skvideo/1725/power.png

ghiltanas
17-05-2007, 17:08
Ciao,
rispondo io ;)
la risposta è no, per svariate considerazioni legate soprattutto al fatto che lo sviluppo driver con Windows XP è di fatto fermo, mentre è molto attivo quello con Vista.


Quoto alla grande sta decisione, nn perchè sono un fan di vista (manco ce l'ho) ma dobbiamo renderci conto che queste shede sono fatte per girare con giochi dx10 e quindi con vista. A mio avviso sarebbe utile rifare un benck fra 2 o 3 settimane con driver + ottimizzati (anche se io sono uno di quelli che pensa che anche con driver migliori la situazione cambi marginalmente)

Lud von Pipper
17-05-2007, 17:14
1) Finalmente una considerazione intelligente dove si evidenzia come questa generazione di schede video(di ambedue i produttori) non offrano al momento dati confortanti circa la giocabilita con titoli dx10 o pesantemente dx9.
Ve ne site accorti che la scheda video Top del momento(che costa 500 euro!) non raggiunge 60 Fps a risoluzioni normalissime in dx10 ??? Daccordo che Lost planet è carino[ ma qaunto poi ??? ] ma siamo lontani dal fotorealismo di Crysis........ed allora ? Quando esce Crysis con 500 euro di scheda che ci fate ? Ve lo dico io....IL BRODO per natale !! E ve la dico tutta...ci godo pure se veramente le cose andranno cosi'...cosi FINALMENTE..cominceremo a renderci conto che se "questi" continuano a cambiare socket,ram,vga ecc. ogni 15 giorni..senza considerare consumi,calore e rumorosita......la colpa è solo nostra !! Posto che gli sviluppatori stanno facendo ridere per correre dietro al multiformato.

2) R-600 dubito riesca a fare miracoli tramite driver.........la divisione ATI di AMD sta lavorando veramente male.......testimonianze:

-Sono troppo lontani dalla vetta velocisticamente
-r600 delude sotto tutti i punti di vista rispetto a G80 (e G80 non è questo mostro in fin dei conti.....)
-XTX non uscita.....non esiste...semplicemente non sono riusciti a tirarla fuori = fallimento senza precedenti
-il supporto ad r-600 a livello driver durera pochi mesi....poi si passa a revision a 65 nm con tutte le conseguenze del caso

Aggiungo che se comprare 8800 ultra per 800 euro è da folli prendere 2900xt per 350 è da..........lasciamo stare che qualcuno si offende
Poggiamo i piedi per terra tutti quanti...ed evitiamo di ingrossare le tasche di questa gente.
Intanto l'Enel ringrazia

EDIT : aggiungo che mi tengo la XL o al lmite mi prendo una 1950 xt a 2 soldi alla faccia delle dx10......che definire lontane è riduttivo.

1) ...e ci domandiamo ancora il perchè dei continui rinvii di Crysis &Co?
Per ora non si vede l'ombra neppure di un 3DMark DX10, a testimonianza che la base delle schede DX10 installata è ancora troppo scarsa (e poco potente). ;)

2) Sono più o meno daccordo con te, ma non sul futuro del supporto ai drivers di R600: anche passando a 65nm la scheda avrà la stessa architettura (salvo modifiche di dettaglio), quindi il supporto offerto sarà normale.
Prima di due anni non vedremo una nuova generazione di schede ed è purtroppo con queste g8X/r6X0 che dovremo fare i conti.

Per la scelta di tenere la tua scheda attuale o upgradare per due soldi non posso darti torto: ho fatto lo stesso in attesa di vedere gli sviluppi ma quello che è veramente indietro è il software (giochi): per ora maglio stare a guardare un altro pò.

Certo, una GTS640 sui 250€ sarebbe una scelta non male per i prossimi mesi, ma a quel prezzo ancora non si trova (a meno di una politica più aggressiva da parte di AMD)

Darkgift
17-05-2007, 17:14
a va bene se vi scandalizzate se una scheda fà 60fps dico 60fps in quelle condizioni con una demo beta, sia pure sponsorizzata, allora non c'è discorso che tenga..:boh:

;)

Ma di che parli ?? Hai comprato una scheda che costava 600 euro !!!!!!!!! sono 1,2 milioni di lire !!!! E fai 40 Fps a quella demo dove NEXT GEN ce lo devi scrivere ??? :mc: :mc: Sono contento che sei contento :sofico: :sofico: Mi piace vedere la gente felice :fagiano: :stordita: :D
Se non ci fossero le persone come te come farebbero a vendere una scheda video un milione e due ? o addirittura un milione e 4 ? sulla ultra 200 euro in piu per un overclock sono onesti in fondo no ? Il bello è che c'è gente che le compra ste boiate.....non ci posso credere !!! :sofico: spettacolo !!!! :sofico: Sono contento che siete contenti !!!! :ciapet:

Lud von Pipper
17-05-2007, 17:20
Ma di che parli ?? Hai comprato una scheda che costava 600 euro !!!!!!!!! sono 1,2 milioni di lire !!!! E fai 40 Fps a quella demo dove NEXT GEN ce lo devi scrivere ??? :mc: :mc: Sono contento che sei contento :sofico: :sofico: Mi piace vedere la gente felice :fagiano: :stordita: :D
Si, ma ci gioca da oltre sei mesi, e la sua scelta si è dimostrata lungimirante.
Che cosa dovrebbe fare: mettersi a piangere? :mbe:

Darkgift
17-05-2007, 17:21
EDIT

Spike88
17-05-2007, 17:22
Ma di che parli ?? Hai comprato una scheda che costava 600 euro !!!!!!!!! sono 1,2 milioni di lire !!!! E fai 40 Fps a quella demo dove NEXT GEN ce lo devi scrivere ??? :mc: :mc: Sono contento che sei contento :sofico: :sofico: Mi piace vedere la gente felice :fagiano: :stordita: :D
Se non ci fossero le persone come te come farebbero a vendere una scheda video un milione e due ? o addirittura un milione e 4 ? sulla ultra 200 euro in piu per un overclock sono onesti in fondo no ? Il bello è che c'è gente che le compra ste boiate.....non ci posso credere !!! :sofico: spettacolo !!!! :sofico: Sono contento che siete contenti !!!! :ciapet:

con tutto il dovuto rispetto..che lui sia stato poco lugimirante e stupido a comprarsi quella video....hai pienamente ragione....ma tu che stronzo sei per poter insultare così gratuitamente la gente?:mbe:

appleroof
17-05-2007, 17:23
Ma di che parli ?? Hai comprato una scheda che costava 600 euro !!!!!!!!! sono 1,2 milioni di lire !!!! E fai 40 Fps a quella demo dove NEXT GEN ce lo devi scrivere ??? :mc: :mc: Sono contento che sei contento :sofico: :sofico: Mi piace vedere la gente felice :fagiano: :stordita: :D
Se non ci fossero le persone come te come farebbero a vendere una scheda video un milione e due ? o addirittura un milione e 4 ? sulla ultra 200 euro in piu per un overclock sono onesti in fondo no ? Il bello è che c'è gente che le compra ste boiate.....non ci posso credere !!! :sofico: spettacolo !!!! :sofico: Sono contento che siete contenti !!!! :ciapet:

Io l'ho comprata a novembre e finora ho giocato a tutti i giochi possibili e immaginabili a 1920x1200 tutto al max (in tutto 6 mesi). Inoltre se hai letto il post di prima affermavo che la scheda va sui 40/50fps a 1920x1200 aa2x (che a quella risoluzione è più che sufficiente) af16x dettagli del gioco quasi al max (ma l'hai provata la demo?) se scendo di risoluzione (restando su una miserrima 1680x1050 --:asd: -- ) la demo vola: si lo ribadisco, sono proprio contento della scelta fatta ;)

Darkgift
17-05-2007, 17:26
Si, ma ci gioca da oltre sei mesi, e la sua scelta si è dimostrata lungimirante.
Che cosa dovrebbe fare: mettersi a piangere? :mbe:

No per carita...uno con i soldi ci fa quello che gli pare.
Sulla lungimiranza avrei qualche remora se permetti. Ovvero la scelta è stata lungimirante se veniva da una x800/x1800 XL ma non certo se veniva da una 1950 spinta o da una 7900

Spike88
17-05-2007, 17:27
Io l'ho comprata a novembre e finora ho giocato a tutti i giochi possibili e immaginabili a 1920x1200 tutto al max (in tutto 6 mesi). Inoltre se hai letto il post di prima affermavo che la scheda va sui 40/50fps a 1920x1200 aa2x (che a quella risoluzione è più che sufficiente) af16x dettagli del gioco quasi al max (ma l'hai provata la demo?) se scendo di risoluzione (restando su una miserrima 1680x1050 --:asd: -- ) la demo vola: si lo ribadisco, sono proprio contento della scelta fatta ;)

guarda comprare una scheda di quel costo è sempre un mezo azzardo....ma lascilo perdere quello stronzo....tu puoi spendere pure 10.000 euro se c' è li hai:rolleyes: ...per una scheda video...è una tua scelta...per giunta hai un monitor che te lo permette...il furbacchione che ti ha offeso probabilmente non ha le tue possibilità...e rosica....
ps...io non mi potro mai comprare una video di quel costo....e un po rosico...ma di certo non mi comporto da stronzo:doh:

Raven
17-05-2007, 17:27
Ma di che parli ?? Hai comprato una scheda che costava 600 euro !!!!!!!!! sono 1,2 milioni di lire !!!! E fai 40 Fps a quella demo dove NEXT GEN ce lo devi scrivere ??? :mc: :mc: Sono contento che sei contento :sofico: :sofico: Mi piace vedere la gente felice :fagiano: :stordita: :D
Se non ci fossero le persone come te come farebbero a vendere una scheda video un milione e due ? o addirittura un milione e 4 ? sulla ultra 200 euro in piu per un overclock sono onesti in fondo no ? Il bello è che c'è gente che le compra ste boiate.....non ci posso credere !!! :sofico: spettacolo !!!! :sofico: Sono contento che siete contenti !!!! :ciapet:

Gran bella uscita che serve solo a scatenare flame... bravo!... :rolleyes:

con tutto il dovuto rispetto..che lui sia stato poco lugimirante e stupido a comprarsi quella video....hai pienamente ragione....ma tu che stronzo sei per poter insultare così gratuitamente la gente?:mbe:

Appunto... e questa tua replica non è da meno... :muro:

Datevi una regolata da SUBITO!

appleroof
17-05-2007, 17:29
No per carita...uno con i soldi ci fa quello che gli pare.
Sulla lungimiranza avrei qualche remora se permetti. Ovvero la scelta è stata lungimirante se veniva da una x800/x1800 XL ma non certo se veniva da una 1950 spinta o da una 7900

Ma tu che ne sai da dove venivo? roba da matti...:rolleyes:

Aggiungo solo che per avere lo stesso risultato (nota bene:lo stesso risultato, non i soliti compromessi più o meno grandi che si usano con le medie) in un anno avrei speso più di 600 euro in vga di fascia media

Gerardo Emanuele Giorgio
17-05-2007, 17:30
hanno cannato di brutto stavolta... dovevano chiamarla x2800 e mettersi a lavorare subito su un evoluzione. Con i driver miglioreranno ma resteranno sempre tra gts e gtx (perche nvidia non restera a trastullarsi l'aggeggino nel frattempo).
comunque ho l'impressione che per giocare con le dx10 ste schede non basteranno... a chi i soldi non danno calci nella tasca si tenga g70 o R500 e aspetti la prossima generazione o quanto meno una revisione delle attuali architetture.

Spike88
17-05-2007, 17:31
Ma tu che ne sai da dove venivo? roba da matti...:rolleyes:

Aggiungo solo che per avere lo stesso risultato (nota bene:lo stesso risultato, non i soliti compromessi più o meno grandi che si usano con le medie) in un anno avrei speso più di 600 euro in vga di fascia media

chissa forse viene da un integrata...come me:)

hanno cannato di brutto stavolta... dovevano chiamarla x2800 e mettersi a lavorare subito su un evoluzione. Con i driver miglioreranno ma resteranno sempre tra gts e gtx (perche nvidia non restera a trastullarsi l'aggeggino nel frattempo).
comunque ho l'impressione che per giocare con le dx10 ste schede non basteranno... a chi i soldi non danno calci nella tasca si tenga g70 o R500 e aspetti la prossima generazione o quanto meno una revisione delle attuali architetture.

e ci come me da un anno ha un integrata...che fa????io a settembre vorrei farmi il pc nuovo...e io con la video a settembre...kaggia fà?


appleroof ma che processore è l' opty che tieni in firma??'perdonate l' ignoranza

Lud von Pipper
17-05-2007, 17:31
No per carita...uno con i soldi ci fa quello che gli pare.
Sulla lungimiranza avrei qualche remora se permetti. Ovvero la scelta è stata lungimirante se veniva da una x800/x1800 XL ma non certo se veniva da una 1950 spinta o da una 7900

Per quanto ne so però ha fatto un cambio vantagioso, senza investire "veramente" tutti i 600€ richiesti.
Tra l'altro ha una GTX, che magari tra qualche mese non sarà più un fulmine di guerra ma che però si comporterà in maniera più che dignitosa: se i giochi DX10 non gireranno sulla GTX/Ultra mi spieghi perchè dovrebbero metterli sul mercato visto che di schede più veloci all'orizzonte non se ne vedono a breve?
Il punto è che la GTX è un comunque ottima scheda ma l'installato e troppo scarso, mentre el GTS e la 2900 per ora non reggono con quei dettagli...

Portocala
17-05-2007, 17:31
si possono aggiungere le 8600GTS nei test? vorrei capire se ste fasce basse valgono qualcosa o è solo roba sprecata.

:mbe:

Darkgift
17-05-2007, 17:31
con tutto il dovuto rispetto..che lui sia stato poco lugimirante e stupido a comprarsi quella video....hai pienamente ragione....ma tu che stronzo sei per poter insultare così gratuitamente la gente?:mbe:

Il mio tono era abbastanza scherzoso ( e menomale che ho meso le smiles :confused: ) Sei tu che stai usando le parole "stupido" e "stronzo" ;)

Appleprof : stupido è peggio di stronzo secondo te ?? :D Oh scherzo eh !! :sofico:

Gran bella uscita che serve solo a scatenare flame... bravo!...
E' vero hai ragione ho esagerato....magari meglio evitare di dire la verita.....a volte.....o forse sempre....magari tra 10 anni le sk video costano 10.000 euro ed allora a quelli che le comprano gli diamo pure la pacca sulla spalla. Ma in fondo sono io il pazzo....lo so......
Scusa appleproof non voglio offenderti........è solo ceh mis embra che il mercato sia completamente impazzito....e questo non va bene per nessuno....anche se le cose potrebbero essere esposte in modo diverso...sorry

se i giochi DX10 non gireranno sulla GTX/Ultra mi spieghi perchè dovrebbero metterli sul mercato visto che di schede più veloci all'orizzonte non se ne vedono a breve?

Infatti titoli dx 10(quelli veri) non esistono ;-) E' tutta roba dx9 spinta e non esce lo stesso ;-)
Inoltre vedrai schede molto piu potenti di queste tra pochissimi mesi ;-) o credi ceh nvidia nei 7 mesi trascorsi da G80 abbia solo lavorato all'overclock della ultra ?

TheSlug
17-05-2007, 17:34
e mo dico pure la mia... e'...
secondo me.... AMD e' stata costretta a fare uscire ora questa scheda, che altrimenti avrebbe presentato insieme al 790&K10, gia' prodotta a 65nm... un po' piu' spinta, pciexpress 2.0.
per quel momento secondo me ci saranno driver seri, prima dell'inizio del 2008 potete chiacchiera' quanto ve pare.

i ragazzi di AMD vanno solo rispettati! sono usciti 2 famiglie di chipset in meno di un'anno, hanon fatto la piattaforma per i portatili (se non vene siete accorti) un nuovo SB etc etc.
stanno lavorando come bestie dalla fusione con ATI... ora solo perche' 4 bench in croce fatti sul sistema operativo piu' pesante della storia con driver ridicoli e demo di prodotti non finiti va' male.... allora "e' una merda.... che imbecilli in amd!"

overclokkateve la visione del mondo, basterebbe guardare oltre la scrivania.....


theSLug

appleroof
17-05-2007, 17:37
chissa forse viene da un integrata...come me:)

No avevo una buona scheda che a 1280x1024 mi permetteva di giocare bene (per la cronaca una 7800gtx 256mb) con filtri bassi e dettagli medio-alti a + o - tutto. Solo volevo la 8800gtx perchè mi garantiva le prestazioni che in effeti rende e finora non mi sono pentito assolutamente della scelta: avrei potuto prendere una 1950xt a gennaio a 250 euro vendendo la mia, poi una 8800gts320 a 250 ora vendendo quella, poi magari una 8900gts a gennaio prox vendendo la mia a (chissà) 250/300 euro: avrei speso molto di più, visto che i soldi che uno recupera dalle schede che vende sono sempre spesi, non è che li mette in tasca, e non mi sarei mai potuto permettere di giocare come gioco, ossia senza compromessi di sorta a mega risoluzioni ;)

il processore è appunto un opteron165 portato da 1.8 ghz (freq. di fabbrica) a 2.6 e rotti...;)

Spike88
17-05-2007, 17:40
e mo dico pure la mia... e'...
secondo me.... AMD e' stata costretta a fare uscire ora questa scheda, che altrimenti avrebbe presentato insieme al 790&K10, gia' prodotta a 65nm... un po' piu' spinta, pciexpress 2.0.
per quel momento secondo me ci saranno driver seri, prima dell'inizio del 2008 potete chiacchiera' quanto ve pare.

i ragazzi di AMD vanno solo rispettati! sono usciti 2 famiglie di chipset in meno di un'anno, hanon fatto la piattaforma per i portatili (se non vene siete accorti) un nuovo SB etc etc.
stanno lavorando come bestie dalla fusione con ATI... ora solo perche' 4 bench in croce fatti sul sistema operativo piu' pesante della storia con driver ridicoli e demo di prodotti non finiti va' male.... allora "e' una merda.... che imbecilli in amd!"

overclokkateve la visione del mondo, basterebbe guardare oltre la scrivania.....


theSLug

cazzo...orthos mi dice che il sistema è instabile...non riesco a vedere oltre il muro davanti la scrivania...kazzo son fregato:asd: :asd: :asd: :asd: :asd: :asd: :asd:

appleroof perdona ankora l' ignoranza...ma non l' ho mai sentito sto procio opteron...ma è vecchio???????

appleroof
17-05-2007, 17:40
E' vero hai ragione ho esagerato....magari meglio evitare di dire la verita.....a volte.....o forse sempre....magari tra 10 anni le sk video costano 10.000 euro ed allora a quelli che le comprano gli diamo pure la pacca sulla spalla. Ma in fondo sono io il pazzo....lo so......
Scusa appleproof non voglio offenderti........è solo ceh mis embra che il mercato sia completamente impazzito....e questo non va bene per nessuno....anche se le cose potrebbero essere esposte in modo diverso...sorry

Guarda che quando uscì la 9800pro costava 500.000 lire, quando uscì la 7800gtx 512 costava 500 euro....ma quanto tempo è che segui il mercato?

cmq siamo abbondantemente Ot ;)

Spike88
17-05-2007, 17:42
Guarda che quando uscì la 9800pro costava 500.000 lire, quando uscì la 7800gtx 512 costava 500 euro....ma quanto tempo è che segui il mercato?

cmq siamo abbondantemente Ot ;)

:D

cerbert
17-05-2007, 17:46
e mo dico pure la mia... e'...
secondo me.... AMD e' stata costretta a fare uscire ora questa scheda, che altrimenti avrebbe presentato insieme al 790&K10, gia' prodotta a 65nm... un po' piu' spinta, pciexpress 2.0.
per quel momento secondo me ci saranno driver seri, prima dell'inizio del 2008 potete chiacchiera' quanto ve pare.

i ragazzi di AMD vanno solo rispettati! sono usciti 2 famiglie di chipset in meno di un'anno, hanon fatto la piattaforma per i portatili (se non vene siete accorti) un nuovo SB etc etc.
stanno lavorando come bestie dalla fusione con ATI... ora solo perche' 4 bench in croce fatti sul sistema operativo piu' pesante della storia con driver ridicoli e demo di prodotti non finiti va' male.... allora "e' una merda.... che imbecilli in amd!"

overclokkateve la visione del mondo, basterebbe guardare oltre la scrivania.....


theSLug

Un po' di consigli per la prossima volta che vorrai dire la tua:
1) controllare l'ortografia e la sintassi. Se scrivi vuol dire che vuoi essere letto.
2) EVITARE le polemiche con gli altri utenti e mantenere il linguaggio pulito.

Darkgift
17-05-2007, 17:47
Guarda che quando uscì la 9800pro costava 500.000 lire, quando uscì la 7800gtx 512 costava 500 euro....ma quanto tempo è che segui il mercato?

cmq siamo abbondantemente Ot ;)

Tu stesso dici che una 9800 pro costava 500.000 mila lire ed una 7800 GTX 500 euro........ti rendi conto vero ???
PS: Seguo il mercato abbastanza da NON cambiare la mia x1800 fino a quando la 8800 gts 320 mb non costera 200 euro (con la permuta gli do 150 e sono contento)
NB: prendo la GTS non prche' mi aspetto presatzioni buone in dx 10 ma solo per godermi titoli dx9 che ho dovuto mettere da parte perche' troppo pesanti per la XL (tipo RS Vegas)

josefor
17-05-2007, 17:50
Guarda che quando uscì la 9800pro costava 500.000 lire, quando uscì la 7800gtx 512 costava 500 euro....ma quanto tempo è che segui il mercato?

cmq siamo abbondantemente Ot ;)

Mi pare che costasse più di 700€ la 7800 con 512mb...
Vabbè, ai ragazzi di ATI/AMD in bocca al lupo, speriamo che questo successo mancato non abbia consegueze irrimediabili, io da buon consumatore faccio i miei ragionamenti e compero quello che credo faccia il mio interesse.....

TheSlug
17-05-2007, 17:54
Un po' di consigli per la prossima volta che vorrai dire la tua:
1) controllare l'ortografia e la sintassi. Se scrivi vuol dire che vuoi essere letto.
2) EVITARE le polemiche con gli altri utenti e mantenere il linguaggio pulito.

dalla tua tagline cerbert:
Un laico ha il dovere morale di essere paziente ed il diritto di dire: "State esagerando."

credo valga anche da un'agnostico, e vale per le leggi, tutte anche quelle di mercato, vale per la defilippi, come per tutti gli altri sistemi che la fantasiosa mente umana inventa per distrarsi dai problemi della vita.

l'orrografia e' voluta, e' uno stato d'animo

Lud von Pipper
17-05-2007, 17:55
No avevo una buona scheda che a 1280x1024 mi permetteva di giocare bene (per la cronaca una 7800gtx 256mb) con filtri bassi e dettagli medio-alti a + o - tutto. Solo volevo la 8800gtx perchè mi garantiva le prestazioni che in effeti rende e finora non mi sono pentito assolutamente della scelta: avrei potuto prendere una 1950xt a gennaio a 250 euro vendendo la mia, poi una 8800gts320 a 250 ora vendendo quella, poi magari una 8900gts a gennaio prox vendendo la mia a (chissà) 250/300 euro...

Però devi ammettere che è come giocare in borsa, dove una volta prendi la decisione un pò alla cieca e poi speri.
Se R600 fosse stata davvero quel 30-40% più veloce di una GTX, come si diceva in giro, allora ti ritroveresti in mano una scheda fortemente deprezzata.
Perfino nVidia alla fine non sapeva che pesci pigliare oppure avrebbe aspettato prima di buttare la Ultra sul mercato.
A volte ci si prende a volte no.
Certo che il trend del mercato sembra ripetersi: chi esce primo con la nuova generazione, praticamente sempre ha in mano il prodotto migliore; non che la concorrenza faccia necessariamente schifo quando esce, ma il prodotto è tecnicamente meno ben fatto.

TNT-ATI Rage, G20-RagePro, G30/40-R2X0 R3X0-G50 G60/R4X0, G80-R600...
Il caso G70/R5X0 sembra l'eccezione ma è passato parecchio dall'uscita della 7800 a quella della 1800 :read:

josefor
17-05-2007, 17:57
Tu stesso dici che una 9800 pro costava 500.000 mila lire ed una 7800 GTX 500 euro........ti rendi conto vero ???
PS: Seguo il mercato abbastanza da NON cambiare la mia x1800 fino a quando la 8800 gts 320 mb non costera 200 euro (con la permuta gli do 150 e sono contento)
NB: prendo la GTS non prche' mi aspetto presatzioni buone in dx 10 ma solo per godermi titoli dx9 che ho dovuto mettere da parte perche' troppo pesanti per la XL (tipo RS Vegas)

Non ti capisco, sei nella tana del lupo qui in questo forum, gente fuori di testa per harware e tecnologia, che fai te ne esci con proclami di moderazione su questo argomento, c'è gente che mangia pane e cipolla per mesi pur di comperarsi l'ultimo ritrovato....
Poi se vogliamo si può parlare della fame nel mondo e di quanto sia futile butare ivece così i soldi.......

Darkgift
17-05-2007, 17:57
Se R600 fosse stata davvero quel 30-40% più veloce di una GTX, come si diceva in giro, allora ti ritroveresti in mano una scheda fortemente deprezzata.

Finalmente un ragionamento come si deve !! hai colto nel segno.

cerbert
17-05-2007, 17:58
dalla tua tagline cerbert:
Un laico ha il dovere morale di essere paziente ed il diritto di dire: "State esagerando."

credo valga anche da un'agnostico, e vale per le leggi, tutte anche quelle di mercato, vale per la defilippi, come per tutti gli altri sistemi che la fantasiosa mente umana inventa per distrarsi dai problemi della vita.

l'orrografia e' voluta, e' uno stato d'animo

E' uno stato d'animo e nessuno vieta il diritto di dire "state esagerando" ad un agnostico (che, peraltro, non esclude l'esser laico... ma qui andiamo fuori tema).

Però, in un forum di discussione, ai doveri/diritti suddetti si aggiungono il dovere di essere comprensibili ed il dovere di rispettare gli interlocutori ANCHE quando ci irritano.

Tutto qua.

[P.S.: per favore, ricordate la regola che le precisazioni/contestazioni/risposte agli interventi moderatoriali vanno tramite messaggistica privata. E' una regola e dobbiamo farla rispettare.]

Maury
17-05-2007, 17:58
Che roba... sempre peggio :confused:

Mi piacerebbe sapere cos'è che sta mettendo il freno a mano a questa scheda, un errore hardware oppure i driver davvero miserabili :mbe:

appleroof
17-05-2007, 17:59
appleroof perdona ankora l' ignoranza...ma non l' ho mai sentito sto procio opteron...ma è vecchio???????

Si, è un 939 ;)

Spike88
17-05-2007, 18:01
Si, è un 939 ;)

e non ti fa da collo di bottiglia?:mbe:

Grey 7
17-05-2007, 18:02
basta giocare a risoluzioni disumane :D

M4R1|<
17-05-2007, 18:02
e mo dico pure la mia... e'...
secondo me.... AMD e' stata costretta a fare uscire ora questa scheda, che altrimenti avrebbe presentato insieme al 790&K10, gia' prodotta a 65nm... un po' piu' spinta, pciexpress 2.0.
per quel momento secondo me ci saranno driver seri, prima dell'inizio del 2008 potete chiacchiera' quanto ve pare.

i ragazzi di AMD vanno solo rispettati! sono usciti 2 famiglie di chipset in meno di un'anno, hanon fatto la piattaforma per i portatili (se non vene siete accorti) un nuovo SB etc etc.
stanno lavorando come bestie dalla fusione con ATI... ora solo perche' 4 bench in croce fatti sul sistema operativo piu' pesante della storia con driver ridicoli e demo di prodotti non finiti va' male.... allora "e' una merda.... che imbecilli in amd!"

overclokkateve la visione del mondo, basterebbe guardare oltre la scrivania.....


theSLug

In fin dei conti hai ragione, non dimentichiamo che Nvidia ha avuto molto tempo da dedicare solo alla serie 8x00; invece Ati a fatto R600 più altre 5 o 6 cose!!!! vediamo tra un mese come saranno le cose, poi dibatteremo su chi ha il predominio. Comunque con i prezzi attuali o uno prende la 8800 GTS 320 ma a suo rischio e pericolo oppure va su una 2900XT, certo deve solo pazientare che i driver siano ottimizzati e stabili.

Darkgift
17-05-2007, 18:03
Non ti capisco, sei nella tana del lupo qui in questo forum, gente fuori di testa per harware e tecnologia, che fai te ne esci con proclami di moderazione su questo argomento, c'è gente che mangia pane e cipolla per mesi pur di comperarsi l'ultimo ritrovato....
Poi se vogliamo si può parlare della fame nel mondo e di quanto sia futile butare ivece così i soldi.......

Contunuiamo a comprare a questi prezzi........vi rendete conto che ci stanno spingendo tutti verso la fascia medio alta con queste politiche dei prezzi ??
........poi se 3 mesi dopo sei nella fascia medio bassa.....beh allora dovrai ammettere di essere stato un attimo......come dire........aiutatemi.....:fagiano:
Se poi vogliamo parlare dell'attuale fascia media......beh allora......ci sarebbe solo da ridere....

TheSlug
17-05-2007, 18:03
e non ti fa da collo di bottiglia?:mbe:

e' vero appleroof, perche' non ti prendi un bel QUAD CORE INTEL!!!!! :D :D :D

:sofico:


scusate... non lo faccio piu'...

Kharonte85
17-05-2007, 18:04
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1726/index.html

Condotti alcuni test supplementati con la scheda ATI Radeon HD 2900 XT, messa a confronto con le soluzioni NVIDIA concorrenti. Gli approfondimenti hanno riguardato l'attivazione dell'HDR, High Dynamic Range, in alcuni titoli regolarmente inseriti nella suite di test, più l'inedito Lost Planet in grado di sfruttare le API Microsoft DirectX 10

Click sul link per visualizzare l'articolo.
Chi sperava in un boost coi famigerati driver 8.38 dovra' ricredersi...o perlomeno confidare nei prossimi...

Mi sembrano nel complesso positivi e incoraggianti i risultati dei test in dx10 per le nvidia :)

appleroof
17-05-2007, 18:05
Però devi ammettere che è come giocare in borsa, dove una volta prendi la decisione un pò alla cieca e poi speri.
Se R600 fosse stata davvero quel 30-40% più veloce di una GTX, come si diceva in giro, allora ti ritroveresti in mano una scheda fortemente deprezzata.
Perfino nVidia alla fine non sapeva che pesci pigliare oppure avrebbe aspettato prima di buttare la Ultra sul mercato.
A volte ci si prende a volte no.
Certo che il trend del mercato sembra ripetersi: chi esce primo con la nuova generazione, praticamente sempre ha in mano il prodotto migliore; non che la concorrenza faccia necessariamente schifo quando esce, ma il prodotto è tecnicamente meno ben fatto.

TNT-ATI Rage, G20-RagePro, G30/40-R2X0 R3X0-G50 G60/R4X0, G80-R600...
Il caso G70/R5X0 sembra l'eccezione ma è passato parecchio dall'uscita della 7800 a quella della 1800 :read:

Ho capito, ma una scheda di quella potenza mi avrebbe cmq garantito prestazioni al top per mesi, io non pensavo proprio alle dx10 e a R600 quando l'ho comprata, non so se mi spiego. Poi se la scheda va bene anche per i primi dx10 (tra l'altro il mio monitor per fortuna rende lo scaling benissimo, almeno fino a 1280x1024 e corrispondenti wide) ho fatto davvero l'affare e non potrò che essere ancora più soddisfatto.

Se R600 fosse andata il 40% della mia avrei saltato una serie di sicuro, e mi sarei preso una 8900/R700 tra un anno

M4R1|<
17-05-2007, 18:05
Be se però confrontiamo la GTX appena uscita con adesso ha avuto un notevole aumento di prestazioni; quindi siccome R600 ha delle prestazioni simili alla GTX e la GTS la batta, credo che fra un mesetto vedremo davvero le prestazioni della scheda.

leoneazzurro
17-05-2007, 18:08
:eek:
Ciò significa che prima di vedere Driver "decenti" deve passare molto tempo...
Una domanda:
perchè ATi/AMD ha deciso per una soluzione così complicata?

La verità la sanno solo gli ingegneri ATI, io sarei stato più conservativo.
Sicuramente uno dei motivi di un arrangiamento 5D è quello di macinare molto bene la geometria, e questo si evince infatti dai test sintetici e che ATI punti molto su questo si capisce anche dalla presenza del tessellatore hardware. I giochi attuali invece utilizzano in maniera relativamente limitata la geometria e sono più limitati da pixel shading e texture, ambiti nei quali R600 al momento non sembra brillare granchè.

appleroof
17-05-2007, 18:09
e non ti fa da collo di bottiglia?:mbe:

basta giocare a risoluzioni disumane :D

esatto, inoltre le dx10 riducono fortemente la dipendenza dalla cpu: a parità di impostazioni il mio sistema e quello di un altro utente con core duo hanno fatto gli stessi risultati in dx10 con la demo di lost planet, ora sicuramente intervengono altri fattori in questo, però per ora la situazione cpu-limited la soffro ben poco (anche se c'è) ;)

Polvere
17-05-2007, 18:11
I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

E' come dire che con i giochi in DirectX10 queste schede son gia vecchie, o sbaglio?!.. :eek:

appleroof
17-05-2007, 18:12
Non ti capisco, sei nella tana del lupo qui in questo forum, gente fuori di testa per harware e tecnologia, che fai te ne esci con proclami di moderazione su questo argomento, c'è gente che mangia pane e cipolla per mesi pur di comperarsi l'ultimo ritrovato....
Poi se vogliamo si può parlare della fame nel mondo e di quanto sia futile butare ivece così i soldi.......

esatto: in quest'ottica anche 10 euro per una vga fatta per giocare sono uno shiaffo alla miseria

cmq raga è un argomento trito e ritrito, direi che basta ;)

appleroof
17-05-2007, 18:12
I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

E' come dire che con i giochi in DirectX10 queste schede son gia vecchie, o sbaglio?!.. :eek:

CVD ;)

DVD2005
17-05-2007, 18:14
CVD ;)

CVD ;)

Darkgift
17-05-2007, 18:15
I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

E' come dire che con i giochi in DirectX10 queste schede son gia vecchie, o sbaglio?!.. :eek:

Piu precisamente,x chi non ha le fette di prosciutto sugli occhi, significa che queste schede video solo una sola. Ma quan devono giocare con af 16x e aa 4x a 1920 x 1200... :-)))

Polvere
17-05-2007, 18:17
CVD ;)



Vedo che anche tu hai ancora un vecchio 939, io ho un 4400 X2, l'impressione che ho è che le CPU non siano sfruttate (Core Duo ottimi ma per le applicazioni attuali direi una gran potenza poco sfruttata), mentre le VGA soffrano molto a seguire i software, questi mostrilli appena usciti a 5 FPS!!! su DirectX10:confused:

Lud von Pipper
17-05-2007, 18:21
Be se però confrontiamo la GTX appena uscita con adesso ha avuto un notevole aumento di prestazioni; quindi siccome R600 ha delle prestazioni simili alla GTX e la GTS la batta, credo che fra un mesetto vedremo davvero le prestazioni della scheda.

Se è per questo all'inizio (e per qualche mese) la serie 8800 non girava prorpio sotto Vista.
Sembra che il problema più grosso sia quello di adattarsi alle DX10, anche perchè sia il sistema operativo (con il sottosistema dei driver) sia l'archiettura delle nuove schede è una novità.

La mancanza di programi DX10 su cui fare test non aiuta gran che: I demo di ATI e nVidia sono su hardware proprietario e girano malissimo (o per nulla) sulla concorrenza.
Mi aspetto un buon recupero (non miracoli) di questa HD2900XT a breve termine ma restano i problemi fisici dovuti al consumo e al rumore che non la rendono appetibile.
Credo siamo però tutti daccordo che sia un prodotto immaturo, più simile ad una preproduzione che altro.
Immagino che i 65nm non si faranno attendere molto (vedi caso 1800-1900)

PsyCloud
17-05-2007, 18:22
non sarebbe la prima volta che una scheda video nasca male (le geForce FX erano nate MALISSIMO), mi sembrano solo improbabili le prestazioni che ha questa scheda anche solo al confronto con le sue nipoti (x1950 xtx su tutte) da cui, per altro, le prende (le prende già dalla 1950pro). O hanno sbagliato a fondere i chip e ci vendono delle 7500ve occate spacciandole per 2900xt oppure i driver hanno dei loop mangia calcolo impressionanti. Magari poi si scopre che le x2600 fanno 20 fps in più al secondo.
Attualmente sono molto deluso da queste schede, ma non mi preoccupo vorrà solo dire che per il prossimo pc comprerò invidia

appleroof
17-05-2007, 18:25
Vedo che anche tu hai ancora un vecchio 939, io ho un 4400 X2, l'impressione che ho è che le CPU non siano sfruttate (Core Duo ottimi ma per le applicazioni attuali direi una gran potenza poco sfruttata), mentre le VGA soffrano molto a seguire i software, questi mostrilli appena usciti a 5 FPS!!! su DirectX10:confused:

No il cvd era rivolto (dvd2005 ha capito al volo :) ) ad un mio appunto fatto qualche pagina fà all'articolo di hwu che stiamo commentando (?)

Ripeto perchè ho la scheda in questione: lost planet in dx10 è assolutamente giocabilissimo anche a 1920x1200, rinunciando a filtri (aa2x af16x)e dettagli tutti al max , a 1680x1050 è giocabilissimo abilitando aa 4x af16x resto al max (per giocabilissimo circa 40fps). E' una demo beta, inoltre le Ati non la supportano.

JOHNNYMETA
17-05-2007, 18:39
Gente informatevi: questa 2900XT non è assolutamente come appare qui, questa deve essere tarlata :D, e a 349 euro come si trova tranquillamente, cioè metà di una 8800GTX ULTRA è un vero affarone!!:D :D :D

http://img520.imageshack.us/img520/4897/benchmarkgv8.png

http://img509.imageshack.us/img509/5294/seriousip9.png

Lud von Pipper
17-05-2007, 18:40
O hanno sbagliato a fondere i chip e ci vendono delle 7500ve occate spacciandole per 2900xt oppure i driver hanno dei loop mangia calcolo impressionanti. Magari poi si scopre che le x2600 fanno 20 fps in più al secondo.
Gli unici a poterti rispondere sono gli ingegneri alla AMD: questi risultati (vedi Black&White 2 con X1950XTX che va quasi il doppio) sono certamente legati ad un problema di drivers, ma anche al fatto che comparare R500 ed R600 è come comparare cavoli e patate: le schede DX10 sono sostanzialmente diverse dalle generazioni precedenti, molto più di quanto non lo fossero le Dx9 dalle Dx8/7. in pratica "Emulano" le vecchie Dx9 come per intenderci un Itanium o un Cell possono fare con gli X386 ma senza riuscire a dimostrare la reale differenza di potenza bruta nei risultati ottenibili. Fanno cioè dieci chilometri dove un X386 ne fa uno.
I vantaggi di una 8800 su, poniamo, una 7950 sono più dovuti alle frequeze di lavoro e alla velocità pura di bus, banda passante e memorie che per un effettiva migliore "efficienza" della GPU.
Il confronto inverso non è neppure possibile visto che una 7950 non supporta le API DX10.
A mio avviso l'approccio meno conservativo di ATI alle DX10 la penalizza nelle prestazioni in DX9, ma fino a che non uscirà un 3DMark07 su i cui risultati si possa ragionare restiamo nel mondo delle ipotesi.
Per farci un idea della "potenza di queste GPU ci si deve affidare ai Gigaflop producibili nel calcolo puro, ma che non per questo si traducono in valori reali nei giochi.

Le critiche ad AMD non vanno tanto alle prestazioni (acerbe) della scheda, ma alla pessima ingegnerizzazione dell'hardware che consuma in modo eccessivo per i risultati che offre.

fek
17-05-2007, 18:58
questi risultati (vedi Black&White 2 con X1950XTX che va quasi il doppio) sono certamente legati ad un problema di drivers

Solo una precisazione: in tutti i performance test interni e del testlab di EA, BW2 e' risultato sostanzialmente agnostico rispetto ai chip di fascia alta di quel periodo, con una leggera prevalenza per l'architettura NVIDIA, perche' e' era piu' adatta a quello che cercavamo di fare. Leggera prevalenza nell'ordine del 5% massimo a seconda delle scene.

Esisteva pero' un problema serio di incompatibilita' fra certi brand di 7800 e alcuni chipset di schede madri (mi sembra Asus) che causavano un busy loop nel driver NVIDIA e il conseguente crollo delle prestazioni.

Non ho mai provato BW2 con le nuove schede ATI.

YYD
17-05-2007, 19:04
Non condivido la prova delle schede video solo con Vista. Così nessuno tra coloro che utilizzano un sistema operativo diverso, me compreso, può farsi un'idea di come potrebbe andare la scheda in questione sul suo PC. Devo forse pensare che in questo c'è lo zampino di Microsoft? Si può anche dire che non è così, ma trovo discutibili le "giustificazioni" per non provare le schede anche su Windows Xp, il sistema operativo ancora maggiormente diffuso. Sicuramente chi è interessato a saperne di più sulle prestazioni delle nuove schede video con Windows XP andrà a leggerle altrove.

Entropi@
17-05-2007, 19:04
Leggendo la recensione di r600, mi vien da ripensare alle vecchie geforce fx...ve le ricordate?? Degli aspirapolvere + stufa incorporata, e ATI che se la rideva alla grande.....ora è nvidia sulla cresta dell'onda....ma imho non sottovaluterei ATI..certo è che potevano confrontare prima tale scheda con una nvidia e vedere il da farsi....quantomeno sui consumi e sui driver....prima di sparare dati circa la supremazia di r600..per carità non sono nè per ati nè per nvidia, ma solo da consumatore dico che non ci vuole una squadra di tecnici per capire la bontà o meno di un prodotto..basta confrontarlo... Staremo a vedere!!!

dwfgerw
17-05-2007, 19:06
flop al pari di nv30.... la storia si ripete ma a parti rovescita, un plauso a nvidia che non sbaglia più niente

josefor
17-05-2007, 19:10
Leggendo la recensione di r600, mi vien da ripensare alle vecchie geforce fx...ve le ricordate?? Degli aspirapolvere + stufa incorporata, e ATI che se la rideva alla grande.....ora è nvidia sulla cresta dell'onda....ma imho non sottovaluterei ATI..certo è che potevano confrontare prima tale scheda con una nvidia e vedere il da farsi....quantomeno sui consumi e sui driver....prima di sparare dati circa la supremazia di r600..per carità non sono nè per ati nè per nvidia, ma solo da consumatore dico che non ci vuole una squadra di tecnici per capire la bontà o meno di un prodotto..basta confrontarlo... Staremo a vedere!!!

Il fatto è che se guardi il famosi dissipatori delle FX 5800 oggi ti sembrerà piccolissimo... e qui c'è da riflettere, poi se vogliamo, a me pare di ricordare che la 5800 andava in crisi con i filtri che credo al epoca erano usati molto poco se vogliamo... poi alcuni giochi era anche meglio della 9700, la 2900 ha fatto una figura, per adesso, anche peggiore.

JOHNNYMETA, i bench li vai a trovare con il lanternino vero?!:D

josefor
17-05-2007, 19:19
Piu precisamente,x chi non ha le fette di prosciutto sugli occhi, significa che queste schede video solo una sola. Ma quan devono giocare con af 16x e aa 4x a 1920 x 1200... :-)))

Mi pare che all'uscita delle 8800 la frase che ricorreva più spesso era quella tipo, "una scheda proiettata nel fututo", oppure tipo, "impossibile sfuttare tutta questa potenza con i software attuale", anche HWupgrade ne aveva una simile nel titolo, scusa ma allora cosa vuoi dire che abbiamo tutti un salumiere al posto di un ottico di fiducia? Metti in discussione ogni recensione fatta?
Semmai dalla 8800 son passati 7 mesi e ci sarebbe stato bisogno di schede più potenti, si sperava nella 2900, ma così non è stato, dal canto suo Nvidia per ora sta bene così che vende ancora le sue "vecchie" schede.

Spike88
17-05-2007, 19:37
con u concorrente come ati....chi ha comprato nvidia si vedrà il suo prodotto amntenere valore anke per un intero anno...se la ati non alza le kiappine e lavora....qualcuno ha detto che amd ha moolti progetti da portare avanti...ma questo no giustifica il fatto che nemmeno uno di questi lavori vada bene:D
io dico solo uan cosa...l' ultimo prodotto decente di amd risale al buon vecchio athlon xp...la mitica serie ultra cool:) ...da allora...disastro...o comunque calo:cry:

rob-roy
17-05-2007, 19:46
I più curiosi avranno notato come una scheda molto performante come la NVIDIA geForce 8800 GTX abbia raggiunto un valore medio nello scenario Snow di soli 31 frame al secondo. Ebbene, un test condotto con impostazioni al massimo, ovvero risoluzione di 2560x1600 pixel , Anti AliasingC16xQ e portando su "High" ogni parametro presente nel pannello ha messo in mostra il lavoro che si dovrà fare per poter giocare ai massimi livelli con i titoli che vedremo nel corso dei prossimi tempi. Risultato? 4 frame al secondo di media, e stiamo parando della scheda top del momento Ultra esclsa, che però sarebbe arrivata al massimo a 5

E' come dire che con i giochi in DirectX10 queste schede son gia vecchie, o sbaglio?!.. :eek:

Ma chi cavolo userà quella risoluzione e quei filtri assurdi??
Ma dai...per favore.

ohmaigod
17-05-2007, 19:48
CVD ;)

si ma a quella risoluzione.......

Lud von Pipper
17-05-2007, 19:48
Il fatto è che se guardi il famosi dissipatori delle FX 5800 oggi ti sembrerà piccolissimo... e qui c'è da riflettere, poi se vogliamo, a me pare di ricordare che la 5800 andava in crisi con i filtri che credo al epoca erano usati molto poco se vogliamo... poi alcuni giochi era anche meglio della 9700, la 2900 ha fatto una figura, per adesso, anche peggiore.

Non ti pare di esagerare? :mbe:

Final Words

What a long, strange journey it has been to this point. We have a very delayed launch from AMD that features a part that consumes quite a bit of power and doesn't compete with the competition's high end offering. At face value, this sounds quite a bit like NVIDIA's NV30 launch, but thankfully we wouldn't go so far as to call this NV30 Part 2: the R600 Story.

Even though AMD has not built a high end part, they have built a part that runs very consistently at its performance target (which could not be said about NV30). AMD is also not trying to pass this card off as something it's not: rather than price this card out of its class, the R600 will find a good home at a reasonable price.

Despite the delays, despite the quirks, and despite the lack of performance leadership, AMD has built a good part. It might not be as exciting as an ultra high end card, and it certainly isn't as power efficient as an 8800 GTX or Ultra, but it has quite a few positives that make it an interesting product, and more competition is always a good thing. The worst thing that could happen now is for NVIDIA to get as complacent as ATI did after R300 wiped the floor with the competition.Non è una scheda spettacolare e consuma un pò troppo, ma almeno il prezzo è corretto. All'uscita la Fx5800 andava decentemente solo con DoomIII, che Karmack aveva programmato, guarda caso, con un prototipo di Nv30 nel case (per sua ammissione). Però la Fx5800 aveva pure il coraggio di costare molto di più di una 9700Pro e con proclami di superiorità assurdi da parte di nVidia... :read:

La differenza tra R600 e G30 è che la seconda fu un grosso errore, abbandonato quanto prima dalla nVidia, mentre le future R6X0 potrebbero dire la lora una volta addomesticati i consumi con il passaggio a 65nm).

Non ho mai provato BW2 con le nuove schede ATI.Se hai l'occasione puoi darci un parere dello strano comportamento di questa HD2900XT con B&W 2?

overmod
17-05-2007, 19:48
Gli A64 X2 fino all'uscita di Conroe hanno letteralmente dominato il confronto con i vari Pentium D. Così come gli A64 sui P4. Prestazioni maggiori a parità di costi, minor calore e Ram sfruttata meglio dal controller integrato. Non proprio uno schifo...
Ora la situazione è ribaltata, tanto che stanno svendendo ormai da mesi i loro processori così da mantenere almeno il numero di vendite ad un livello decente. Se non tirano fuori qualcosa di buono e in fretta la vedo nera, nerissima. Per loro e anche per noi.
La situazione ATi è la conseguenza di questo scenario, AMD arranca e Ati barcolla...sob!

Lud von Pipper
17-05-2007, 19:50
[edit]

Lud von Pipper
17-05-2007, 19:51
Il fatto è che se guardi il famosi dissipatori delle FX 5800 oggi ti sembrerà piccolissimo... e qui c'è da riflettere, poi se vogliamo, a me pare di ricordare che la 5800 andava in crisi con i filtri che credo al epoca erano usati molto poco se vogliamo... poi alcuni giochi era anche meglio della 9700, la 2900 ha fatto una figura, per adesso, anche peggiore.

Non ti pare di esagerare? :mbe:

Final Words

What a long, strange journey it has been to this point. We have a very delayed launch from AMD that features a part that consumes quite a bit of power and doesn't compete with the competition's high end offering. At face value, this sounds quite a bit like NVIDIA's NV30 launch, but thankfully we wouldn't go so far as to call this NV30 Part 2: the R600 Story.

Even though AMD has not built a high end part, they have built a part that runs very consistently at its performance target (which could not be said about NV30). AMD is also not trying to pass this card off as something it's not: rather than price this card out of its class, the R600 will find a good home at a reasonable price.

Despite the delays, despite the quirks, and despite the lack of performance leadership, AMD has built a good part. It might not be as exciting as an ultra high end card, and it certainly isn't as power efficient as an 8800 GTX or Ultra, but it has quite a few positives that make it an interesting product, and more competition is always a good thing. The worst thing that could happen now is for NVIDIA to get as complacent as ATI did after R300 wiped the floor with the competition.Non è una scheda spettacolare e consuma un pò troppo, ma almeno il prezzo è giusto la dove all'uscita la Fx5800 andava decentemente solo con DoomIII, che Karmack aveva programmato, guarda caso, con un prototipo di Nv30 nel case (per sua ammissione).
Però la Fx5800 aveva pure il coraggio di costare molto di più di una 9700Pro e con proclami di superiorità ingiustificabili da parte di nVidia (era il periodo in cui tutto si testava su DoomIII)... :read:
La differenza tra R600 e G30 è che la seconda fu un grosso errore, abbandonato quanto prima dalla nVidia, mentre le future R6X0 potrebbero anche dire la lora una volta addomesticati i consumi con il passaggio a 65nm).

Non ho mai provato BW2 con le nuove schede ATI.Se hai l'occasione puoi darci un parere dello strano comportamento di questa HD2900XT con B&W 2?
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=5

MenageZero
17-05-2007, 20:00
Ciao,
rispondo io ;)
la risposta è no, per svariate considerazioni legate soprattutto al fatto che lo sviluppo driver con Windows XP è di fatto fermo, mentre è molto attivo quello con Vista.

Sto guardando anche io le recensioni pubblicate con benchmark sotto Windows XP; chi ha fatto questa scelta, a mio avviso, è stato costretto in quanto non in possesso di tutte le schede al momento dei test e nella necessità di riciclare numeri ottenuti in precedenti articoli.
Non è l'approccio ideale soprattutto con le schede video, in quanto con differenti versioni di driver è possibile ottenere prestazioni ben differenti tra di loro. Questo è uno dei motivi per i quali rifacciamo tutti i test con tutte le schede video nel momento in cui prepariamo un lavoro come quello su R600, o in precedenza per la GeForce 8800 Ultra.
ragionamento che non fa una piega. complimenti per la scelta in generale di talemotodologia di test, anche se più onerosa :O

a margine, mi viene da dire che è veramente triste sentire che ad appena 4,5 mesi dalla disponibilità di vista per i privati lo sviluppo drv per xp delle gpu sia già praticamente arrestato... :cry:

Lud von Pipper
17-05-2007, 20:08
a margine, mi viene da dire che è veramente triste sentire che ad appena 4,5 mesi dalla disponibilità di vista per i privati lo sviluppo drv per xp delle gpu sia già praticamente arrestato... :cry:

Non credo significasse questo: il punto è che allo stato attuale i driver per Vista richiedono molto più lavoro e strada da fare (basta pensare ai ritardi di nVidia per le 8800). Gli sviluppatori hanno lavorato senza la versione definitiva delle DX10 per parecchio tempo e adesso cercano di rattoppare i problemi alla benemeglio a mano a mano che li vedono.
Essendo AMD in ritardo ha ovviamente un livello di sviluppo dei driver per Vista molto inferiore tenendo conto del fatto che per queste schede sono implementati anche le API DX10 (vedi Lost planet che funziona) ma che mancano del tutto applicazioni affidabli su cui testarli in quell'ambiente.
Lo sviluppo per XP proseguirà certamente ma per la sua strada, e poi, se investi in una scheda DX10 mi spieghi che ci fai con XP sul PC ;)

Grey 7
17-05-2007, 20:08
Lud fermati :D

GeforcePower
17-05-2007, 20:10
SI SI DIAMOLE IL TEMPO DI MATURARE NEL FRATTEMPO NVIDIA HA GIA PRONTE LE NVDIA 8900 GTS/GT CHE LANCERA' A FINE ESTATE PRIMA DI NATALE QUINDI SI PRESUME , FREQUENZE ANCORA PIU' ALTE DELLA FAMIGERATA 8800 ULTRA CHE E' IL TOP DELLA GAMMA E SUPPORTO PIENO VIDEO BLU-RAY E CON PROCESSORI G81..LA RELEASE NON E' UFFICILAE MA E' VERITIERA
CMQ COME SEMPRE NVIDIA E' UN PASSO AVANTI!!!LA R600 CONTINUERA' A FARE FIASCO...GIA SI EREA CAPITO DALLA TROPPA ATTESA E GIA' HANNO AVUTO PAURO DELLA 8800 GTX CHE E' UN MOSTRO ALTRO CHE ....QUESTA Eì' LA VERITA' NON SI ASPETTAVANO UN PASSO ENORME COSI' AVANTI DA PARTE DI NVIDIA....VIVA NVIDIAAAAAA

Spike88
17-05-2007, 20:15
SI SI DIAMOLE IL TEMPO DI MATURARE NEL FRATTEMPO NVIDIA HA GIA PRONTE LE NVDIA 8900 GTS/GT CHE LANCERA' A FINE ESTATE PRIMA DI NATALE QUINDI SI PRESUME , FREQUENZE ANCORA PIU' ALTE DELLA FAMIGERATA 8800 ULTRA CHE E' IL TOP DELLA GAMMA E SUPPORTO PIENO VIDEO BLU-RAY E CON PROCESSORI G81..LA RELEASE NON E' UFFICILAE MA E' VERITIERA
CMQ COME SEMPRE NVIDIA E' UN PASSO AVANTI!!!LA R600 CONTINUERA' A FARE FIASCO...GIA SI EREA CAPITO DALLA TROPPA ATTESA E GIA' HANNO AVUTO PAURO DELLA 8800 GTX CHE E' UN MOSTRO ALTRO CHE ....QUESTA Eì' LA VERITA' NON SI ASPETTAVANO UN PASSO ENORME COSI' AVANTI DA PARTE DI NVIDIA....VIVA NVIDIAAAAAA

questo è un fanboy:D
però almeno ha ragione:rolleyes:

Grey 7
17-05-2007, 20:23
SI SI DIAMOLE IL TEMPO DI MATURARE NEL FRATTEMPO NVIDIA HA GIA PRONTE LE NVDIA 8900 GTS/GT CHE LANCERA' A FINE ESTATE PRIMA DI NATALE QUINDI SI PRESUME , FREQUENZE ANCORA PIU' ALTE DELLA FAMIGERATA 8800 ULTRA CHE E' IL TOP DELLA GAMMA E SUPPORTO PIENO VIDEO BLU-RAY E CON PROCESSORI G81..LA RELEASE NON E' UFFICILAE MA E' VERITIERA
CMQ COME SEMPRE NVIDIA E' UN PASSO AVANTI!!!LA R600 CONTINUERA' A FARE FIASCO...GIA SI EREA CAPITO DALLA TROPPA ATTESA E GIA' HANNO AVUTO PAURO DELLA 8800 GTX CHE E' UN MOSTRO ALTRO CHE ....QUESTA Eì' LA VERITA' NON SI ASPETTAVANO UN PASSO ENORME COSI' AVANTI DA PARTE DI NVIDIA....VIVA NVIDIAAAAAA

eccolo il genio :asd:

Lud von Pipper
17-05-2007, 20:31
Lud fermati :D

Si, l'ultima in effetti è un pò contorta :D

Free Gordon
17-05-2007, 20:41
In particolare, le scelta di avere delle unità shader superscalari a 5 componenti che opera in modalità VLIW è potenzialmente molto penalizzante nel caso ci siano molte dipendenze tra le istruzioni, con il caso estremo di ottenere, per istruzioni su un solo componente dipendenti, solo il 20% del potenziale teorico. Ma questo è solo uno dei problemi. Un altro è che l'accesso alle texture sembra molto lento, non tanto per il numero di unità (che pure in situazioni limite importa), quanto per qualche altro problema non ancora evidenziato. Poi c'è una terza incognita costituita dal ring bus, che è cresciuto in complessità ma anche difficoltà di ottimizzazione e che potrebbe essere anche lui in parte responsabile di perdita di prestazioni. Da questo punto di vista la scelta di avere tutta questa programmabilità è quasi suicida,

La questione dell'accesso alle texture, dove l'hai letta?

Boogey_man
17-05-2007, 20:44
Avrei una domanda per fek e leone azzurro:
Secondo voi la scelta architetturale di x2900 pagherà prima o poi???
Mi viene quasi il dubbio che per portarsi avanti col lavoro ati abbia anticipato un po troppo i tempi.....dai commenti di leone azz.sembra quasi che si parli di cell......

MenageZero
17-05-2007, 20:54
con u concorrente come ati....chi ha comprato nvidia si vedrà il suo prodotto amntenere valore anke per un intero anno...se la ati non alza le kiappine e lavora....qualcuno ha detto che amd ha moolti progetti da portare avanti...ma questo no giustifica il fatto che nemmeno uno di questi lavori vada bene:D
io dico solo uan cosa...l' ultimo prodotto decente di amd risale al buon vecchio athlon xp...la mitica serie ultra cool:) ...da allora...disastro...o comunque calo :cry:
:eek:

ma su quale pianeta eri dalla primavera 2003 (presentazione dei primi opteron: debutto del k8) all'estate 2006 (presentazione conroe&co) ?

(tra l'altro poi il k8 è stato migliore della concorrenza con più margine e più costanza del tuo amato a.xp, che per esempio per un periodo veniva superato dal northwood-c; oltre al fatto che è stato un passo avanti molto cospicuo su tutti i fronti rispetto allo stesso k7, e che ha introdotto, "piccolo particolare", l'estesione x86-64 dell' ISA x86...)

MenageZero
17-05-2007, 21:02
Non credo significasse questo: il punto è che allo stato attuale i driver per Vista richiedono molto più lavoro e strada da fare (basta pensare ai ritardi di nVidia per le 8800). Gli sviluppatori hanno lavorato senza la versione definitiva delle DX10 per parecchio tempo e adesso cercano di rattoppare i problemi alla benemeglio a mano a mano che li vedono.
Essendo AMD in ritardo ha ovviamente un livello di sviluppo dei driver per Vista molto inferiore tenendo conto del fatto che per queste schede sono implementati anche le API DX10 (vedi Lost planet che funziona) ma che mancano del tutto applicazioni affidabli su cui testarli in quell'ambiente.
Lo sviluppo per XP proseguirà certamente ma per la sua strada, e poi, se investi in una scheda DX10 mi spieghi che ci fai con XP sul PC ;)
tale sviluppo a sembra in effetti al momento fermo non solo per le gpu dx10, soprattutto per nv (ati continua con le classiche release mensili, ma ci sono per lo più bugfix e non "strappi in avanti" in qualcosa) ... e cmq era una considerazione "molto poco" dettata da interesse personale... 9600pro di 2^a mano quasi-regalata nel case ;)

MenageZero
17-05-2007, 21:08
SI SI DIAMOLE IL TEMPO DI MATURARE NEL FRATTEMPO NVIDIA HA GIA PRONTE LE NVDIA 8900 GTS/GT CHE LANCERA' A FINE ESTATE PRIMA DI NATALE QUINDI SI PRESUME , FREQUENZE ANCORA PIU' ALTE DELLA FAMIGERATA 8800 ULTRA CHE E' IL TOP DELLA GAMMA E SUPPORTO PIENO VIDEO BLU-RAY E CON PROCESSORI G81..LA RELEASE NON E' UFFICILAE MA E' VERITIERA
CMQ COME SEMPRE NVIDIA E' UN PASSO AVANTI!!!LA R600 CONTINUERA' A FARE FIASCO...GIA SI EREA CAPITO DALLA TROPPA ATTESA E GIA' HANNO AVUTO PAURO DELLA 8800 GTX CHE E' UN MOSTRO ALTRO CHE ....QUESTA Eì' LA VERITA' NON SI ASPETTAVANO UN PASSO ENORME COSI' AVANTI DA PARTE DI NVIDIA....VIVA NVIDIAAAAAA
dai ammettilo che non pensi quello che dici nel modo in cui lo scrivi, ma ti diverti a tentare di "accendere" la dicussione ... :D

ps: solitamente scrivere tutto maiscolo è inteso come "urlare" e quindi esprimersi in maniera non proprio gentilissima... poi fai tu ... ;)

leoneazzurro
17-05-2007, 21:09
La questione dell'accesso alle texture, dove l'hai letta?

Si evince dal comportamento discordante tra shader complessi e quelli moderatamente carichi di texture, anche in condizioni che non sono texture fillrate limited.

leoneazzurro
17-05-2007, 21:11
Avrei una domanda per fek e leone azzurro:
Secondo voi la scelta architetturale di x2900 pagherà prima o poi???
Mi viene quasi il dubbio che per portarsi avanti col lavoro ati abbia anticipato un po troppo i tempi.....dai commenti di leone azz.sembra quasi che si parli di cell......

In effetti il paragone con Cell non è del tutto campato in aria...

Comunque se pagherà o meno dipende da molti fattori adesso non quantificabili: supporto del software, da quanto si può ottimizzare via drivers, riuscita delle schede mainstream e delle future iterazioni dell'architettura, ecc.

appleroof
17-05-2007, 21:12
Non credo significasse questo: il punto è che allo stato attuale i driver per Vista richiedono molto più lavoro e strada da fare (basta pensare ai ritardi di nVidia per le 8800). Gli sviluppatori hanno lavorato senza la versione definitiva delle DX10 per parecchio tempo e adesso cercano di rattoppare i problemi alla benemeglio a mano a mano che li vedono.
Essendo AMD in ritardo ha ovviamente un livello di sviluppo dei driver per Vista molto inferiore tenendo conto del fatto che per queste schede sono implementati anche le API DX10 (vedi Lost planet che funziona) ma che mancano del tutto applicazioni affidabli su cui testarli in quell'ambiente.
Lo sviluppo per XP proseguirà certamente ma per la sua strada, e poi, se investi in una scheda DX10 mi spieghi che ci fai con XP sul PC ;)

Io non credo che in questi mesi in Ati nessuno abbia lavorato sui driver per dx10. Hai ragione nel dire che è molto più difficile in mancanza di giochi che devono girare su entrambe le schede, ma questo vale anche per Nvidia, ed infatti le difficoltà le hanno anche loro

leoneazzurro
17-05-2007, 21:12
SI SI DIAMOLE IL TEMPO DI MATURARE NEL FRATTEMPO NVIDIA HA GIA PRONTE LE NVDIA 8900 GTS/GT CHE LANCERA' A FINE ESTATE PRIMA DI NATALE QUINDI SI PRESUME , FREQUENZE ANCORA PIU' ALTE DELLA FAMIGERATA 8800 ULTRA CHE E' IL TOP DELLA GAMMA E SUPPORTO PIENO VIDEO BLU-RAY E CON PROCESSORI G81..LA RELEASE NON E' UFFICILAE MA E' VERITIERA
CMQ COME SEMPRE NVIDIA E' UN PASSO AVANTI!!!LA R600 CONTINUERA' A FARE FIASCO...GIA SI EREA CAPITO DALLA TROPPA ATTESA E GIA' HANNO AVUTO PAURO DELLA 8800 GTX CHE E' UN MOSTRO ALTRO CHE ....QUESTA Eì' LA VERITA' NON SI ASPETTAVANO UN PASSO ENORME COSI' AVANTI DA PARTE DI NVIDIA....VIVA NVIDIAAAAAA

Ok, vinci un'ammonizione.

capitan_crasy
17-05-2007, 21:15
In effetti il paragone con Cell non è del tutto campato in aria...

Comunque se pagherà o meno dipende da molti fattori adesso non quantificabili: supporto del software, da quanto si può ottimizzare via drivers, riuscita delle schede mainstream e delle future iterazioni dell'architettura, ecc.

Più ci penso e più mi viene in mente una parola:
Torrenza!

killer978
17-05-2007, 21:16
con u concorrente come ati....chi ha comprato nvidia si vedrà il suo prodotto amntenere valore anke per un intero anno...se la ati non alza le kiappine e lavora....qualcuno ha detto che amd ha moolti progetti da portare avanti...ma questo no giustifica il fatto che nemmeno uno di questi lavori vada bene:D
io dico solo uan cosa...l' ultimo prodotto decente di amd risale al buon vecchio athlon xp...la mitica serie ultra cool:) ...da allora...disastro...o comunque calo:cry:

athlon xp? :mbe: all'epoca c'era il Northwood a fargli lo scalpo!!!

Forse ti sei dimenticato del signor K8?

:mbe: :mbe: :mbe: :mbe:

leoneazzurro
17-05-2007, 21:17
Più ci penso e più mi viene in mente una parola:
Torrenza!

Come GPGPU sembra che al momento R600 sia molto avanti, in effetti. Come scheda video per se, Torrenza è molto meno utile.

killer978
17-05-2007, 21:18
Io non credo che in questi mesi in Ati nessuno abbia lavorato sui driver per dx10. Hai ragione nel dire che è molto più difficile in mancanza di giochi che devono girare su entrambe le schede, ma questo vale anche per Nvidia, ed infatti le difficoltà le hanno anche loro

Forse dimentichiamo che in questi ultimi mesi la società è stata profondamente cambiata.
Forse davvero la VGA non era pronta, quindi sui driver non hanno potuto lavorare come avrebbero voluto!!

Queste sono solo supposizioni ;)

appleroof
17-05-2007, 21:26
Forse dimentichiamo che in questi ultimi mesi la società è stata profondamente cambiata.
Forse davvero la VGA non era pronta, quindi sui driver non hanno potuto lavorare come avrebbero voluto!!

Queste sono solo supposizioni ;)

potrebbe essere, io è da mesi che cito la fusione con amd come concausa di questa situazione..

aaasssdddfffggg
17-05-2007, 21:29
R600 è una gran bella scheda.............è la 8800 che è un vero mostro e gli ingengneri se ne sono accorti subito dopo l'uscita delle 8800 risalent i all'8 novembre 2006 che la loro scheda fosse inferiore.Hanno tentato di colamre il gap prestazionale rimandado l'uscita più volte...prima a fine 2006,poi febbraio,poi marzo,infine maggio e alla fine l'hanno dovuta far uscire per forza ed i risultati sono sotto gli occhi di tutto il mondo.Pessima figura ATI dopo aver ingannato l'attesa di milioni di utenti in tutto il mondo.

capitan_crasy
17-05-2007, 21:43
Come GPGPU sembra che al momento R600 sia molto avanti, in effetti. Come scheda video per se, Torrenza è molto meno utile.

però AMD ha presentato "Teraflop in a Box".
Questo sistema è in grado di processare oltre 1 Teraflop, anche grazie all'integrazione tra le cpu ed i due stream processor rappresentati da due R600 in crossfire.
Inoltre l' R600 integra la tecnologia Il Command Processor (CP) ( anche se ci ho capito ben poco su questa tecnologia :( ) e infine ce questa immagine sul progetto "Torrenza":
http://www.hwupgrade.it/articoli/cpu/1621/Slide109.jpg

MenageZero
17-05-2007, 21:48
R600 è una gran bella scheda.............è la 8800 che è un vero mostro e gli ingengneri se ne sono accorti subito dopo l'uscita delle 8800 risalent i all'8 novembre 2006 che la loro scheda fosse inferiore.Hanno tentato di colamre il gap prestazionale rimandado l'uscita più volte...prima a fine 2006,poi febbraio,poi marzo,infine maggio e alla fine l'hanno dovuta far uscire per forza ed i risultati sono sotto gli occhi di tutto il mondo.Pessima figura ATI dopo aver ingannato l'attesa di milioni di utenti in tutto il mondo.

potrei anche sbagliare di grosso, ma visto quello che si dice quando si parla dei tempi di "gestazione" complessivi di queste cose, tieni pure conto che invece la fase progettuale di r600 poterbbere essere stata chiusa già da un po' a nov. 2006 ... ;)

poverociccio
17-05-2007, 21:54
Lo sviluppo per XP proseguirà certamente ma per la sua strada, e poi, se investi in una scheda DX10 mi spieghi che ci fai con XP sul PC ;)

...Perchè se ciiiaaai Vista che fai? Ti massacri tutto il giorno di pippe (mentali ovviamente) nel vedere e rivedere la "demo" di Lost Planet , un gioco che se chiedi a 100 ragazzini (perchè stiamo parlando di cose da ragazzini giusto?) 99 ti rispondono " ma che c....o sarebbe").Punto primo.
Punto secondo: ma che adesso si "investe" in una scheda video.Quanto rende se vincolata a 6 mesi? e a 12? Tra 6 mesi tutte ste cagate le troverai usate su ebay a 50 euros e chi te le venderà dovrà ancora provarle su un vero gioco DX10. ...Driver "acerbi" (quanto me piace sto vocabolo)...ritardi sullo sviluppo. Ma qual'è il punto di riferimento? Il 3D mark07 che ancora non esiste?Ricordatevi che stiamo testando le 2 famiglie VGA che saranno ricordate come le più scarse di tutti i tempi in ambito DX10. L' unica considerazioni che si possa fare su questi test è che oggi spendendo una barca di soldi puoi comprarti un inutile termo-scheda che ti fa "intuire" su una "demo" creata da NVidia quanto siamo lontani da una diffusione di massa dell'accoppiata DX10-Vista

MenageZero
17-05-2007, 22:40
se per te i v.g. e le gpu sono solo "roba da ragazzini"(in accezzione spregiativa) e "cagate", strano che questo articolo e questo thread ti interessino :wtf:
(tra l'altro per creare entrambi ci volgliono dei signori cervelli, non è che ci mettono il primo che passa con la 3^a media, ed inoltre uno può essere interessato a queste cose anche solo come passione ed interesse per le realtive tecnologie)
imho i v.g. possono essere un hobby come tanti altri e per tutte le età, sicuramente non più stupido, per fare un esempio banale, dei programmi tv o delle letture di intrattenimento; l'importante, come per tante altre cose, è solo non "fissarcisi" e non "buttarci" troppo tempo.

che l'hw non sia in sé un investimento in senso economico, è pacifico e lo sanno anche i muri ;)
(tra l'altro non credo proprio ch Lud volesse intendere quello, ma solo: "se ti compri una gpu dx10, male che volgia andare con i futuri titoli, sarà pure logico che prima o poi, ma neanche tanto poi, passi a vista")

forse sarà "lontana" la diffusione di massa delle gpu dx10 (in realtà dipende solo dalla soglia che scegliamo per "massa", che già ad ora non è che ne han venduti 25 di g80), sarnno "lontani" i titoli dx10 (cioè, relativamente, nell'ordine di mesi questo è sicuro dato che ancora non ne hanno messi in vendita), di sicuro invece la diffusione di massa di vista&dx10 è bella che iniziata e procede spedita, dato che da gennaio quasi tutti i pc nuovi vengiono venduti con vista sopra ;)

erpedo91
17-05-2007, 22:48
mitico, mi sa che la new ati non funzia come dovrebbe , e io intanto mela godo con l'affarone 8800 GTS 320 mb :)

MenageZero
17-05-2007, 22:54
mitico, mi sa che la new ati non funzia come dovrebbe , e io intanto mela godo con l'affarone 8800 GTS 320 mb :)

c'hai "poca" mem. video per i "titoloni" di adesso e soprattutto quelli venturi... :O :Prrr: ... scherzo :D (ovviamente)

xeal
17-05-2007, 22:58
Credo siamo però tutti daccordo che sia un prodotto immaturo, più simile ad una preproduzione che altro.

Secondo me puoi tranquillamente togliere il "simile" ;)

Sempre secondo me, sul versante dei driver il margine di miglioramento è ENORME, e non lo dico (solo) per questioni prestazionali (ma già qui mi stranizza un po' vedere che, attivando qualcosa in più nei filtri, e tenendo conto di tutta la variabilità possibile ed immaginabile in una misurazione, le schede Nvidia hanno un leggero degrado, mentre la 2900XT ripete lo stesso identico risultato, pessimo, ma identico), bensì per via degli artefatti in Lost Planet, i quali, al di là di tutte le ottimizzazioni possibili a favore di Nvidia, fanno capire come la scheda, in fin dei conti, non faccia quello che le viene chiesto di fare, e questo vuol dire, a meno di enormi bug hardware, che viene pilotata male dai driver. La redazione li definisce pre-alfa, io direi pre-cuneiforme :D

Altro indizio significativo, secondo me, è il processo produttivo a 80 nm sulla scheda di punta, l'unica del resto immesssa subito sul mercato, mentre le versioni inferiori sono previste a 65 nm. Pertanto, se mi è concessa una piccola provocazione, andrei in controtendenza nell'affermare che la scheda non è arrivata troppo tardi, ma troppo presto... Cioè, commercialmente l'angagonista di G80 è arrivata tardi, però e arrivata non ancora veramente pronta per la mischia, e quindi è arrivata presto! :stordita:

Mi aspetterei, come si vocifera, una R650 subito dopo l'estate, magari in due versioni: un die shrink a 65 nm che sostituirebbe la 2900XT (ritirata dal mercato, o lasciata fino ad esaurimento scorte, con la sostituta chiamata "second edition" o similare), più parsimoniosa e silenziosa (e a singolo slot), e una versione XTX, con qualche MHz in più e forse anche 1GB di memoria, in abbinamento a driver molto più maturi. Insomma, credo che R650 sarà la "vera" R600. Inoltre, farei anche un'altra considerazione, forse più contorta: in quello stesso periodo AMD sarà pronta per la commercializzazione in volumi delle nuove cpu e dei nuovi chipset, che insieme alla vga "aggiustata" costituirebbero una piattaforma completa, quindi arrivare ad un prodotto maturo per il comparto video "solo" in quel periodo credo ad AMD non dispiaccia troppo (l'acquisizione di Ati in fondo è un investimento non a breve termine). Ora, non intendo certo insinuare nè che AMD abbia interesse a castrare le prestazioni su altre piattaforme, a vantaggio della propria (capisco l'investimento a lungo termine, ma sarebbe un suicidio), nè che abbia ritardato (troppo) volutamente la produzione di R600, sicuramente avranno avuto delle difficoltà, legate anche alla complessità della nuova architettura (sulla falsariga di quanto già visto con x1800/1900), però credo che la vendita di un prodotto mooolto performante, ma sfruttabile appieno solo su piattaforme della concorrenza, avrebbe rischiato di far "sfigurare" maggiormente le cpu attuali, in attesa delle nuove. Ritengo pertanto plausibile che il completamento del progetto fosse stato pianificato da AMD per l'autunno, anticipando l'uscita della scheda di punta perchè ormai il ritardo accumulato rispetto alla concorrenza era eccessivo e perchè, in questi frangenti, così "s'ha da fare".

E non mi stupirebbe se una parte dei progettisti fosse stata dirottata altrove, specialmente se si rivelasse vera l'indiscrezione (lanciata da fudzilla e ripresa da Tom's Hardware nell'articolo citato in questo stesso thread) secondo cui AMD starebbe già lavorando a R700, che avrebbe un'architettura multicore. Ho il sospetto che l'architettura così estrema di R600 possa prestarsi bene ad essere "smembrata" per accorpare le unità strutturali in moduli funzionali e completi, indipendenti, quindi, una volta giunti a buon punto con la progettazione dell'hardware di R600, sarebbe potuta iniziare, in parallelo, la progettazione di questo fantomatico R700. Ma perchè puntare su una gpu multicore, quando l'architettura di una vga è già fortemente parallelizzata? Innanzitutto, se l'architettura di base consente di estremizzare ulteriormente la parallelizzazione, senza stravolgerne troppo la natura e penalizzare le prestazioni perchè no? Un primo vantaggio, dal punto di vista produttivo, potrebbe essere quello di minimizzare le linee produttive integrando i chip al livello del package piuttosto che nel die (in fondo stiamo parlando di "processori" che viaggiano ancora a meno di 1 Ghz, quindi eventuali latenze nelle comunicazioni potrebbero essere trascurabili, soprattutto se una parte del ring bus venisse integrata nei singoli chip, avvicinandosi all'architettura NUMA), differenziando le versioni di vga in base al numero di moduli presenti e riducendo i costi di produzione (soprattutto considerando che la produzione è esterna, quindi immagino che ogni ulteriore linea produttiva impiegata comporti un sovrapprezzo). Ma soprattutto, ritengo che una simile progettazione, che assimili le gpu alle cpu potrebbe avere, nell'ottica di AMD, una serie di vantaggi:

a) migliorare le prestazioni/facilitarne lo sfruttamento nell'ambito del GPGPU, e come coprocessori (Torrenza);

b) ritornando/mantenendosi nella progettazione on-die, potrebbe semplificare la progettazione di chipset integrati con grafica evoluta;

c) e soprattutto, diventerebbe più facile la progettazione di unità di calcolo miste cpu general purpose/coprocessori/gpu, dando maggior senso alle ipotesi di condivisione della cache tra cpu e gpu: e così alla fine arriviamo a Fusion, previsto proprio per il 2008 ;)

In quest'ottica, R600 diventerebbe un ponte verso la futura architettura multicore (sia gpu pura, sia mista cpu/gpu), e il ritardo/mezzo flop troverebbe una giustificazione, in parte, nei piani che hanno spinto AMD ad acquisire Ati e negli sforzi di accelerare l'integrazione delle rispettive tecnologie. Tutto, ovviamente, IMHO ;)

Conan_81
17-05-2007, 23:19
Drivers PRE-ALFA? OMG! Chi invoca il "flop" così prematuramente sarebbe un ignorante :|

Spike88
17-05-2007, 23:24
Drivers PRE-ALFA? OMG! Chi nomina "flop" così prematuramente sarebbe uno stupido :|

mille thanks:rolleyes: :D
lol...ma che imbecille:mbe:
hai dato dello stupido al 90% degli utenti

Spike88
17-05-2007, 23:25
:eek:

ma su quale pianeta eri dalla primavera 2003 (presentazione dei primi opteron: debutto del k8) all'estate 2006 (presentazione conroe&co) ?

(tra l'altro poi il k8 è stato migliore della concorrenza con più margine e più costanza del tuo amato a.xp, che per esempio per un periodo veniva superato dal northwood-c; oltre al fatto che è stato un passo avanti molto cospicuo su tutti i fronti rispetto allo stesso k7, e che ha introdotto, "piccolo particolare", l'estesione x86-64 dell' ISA x86...)

scusa...efettivamente ho una lacuna mentale di due annetti:D
no davvero scusami ancora...la mia mente a molte falle:(

Conan_81
17-05-2007, 23:31
Anche il 90% dei maschi guarda prima il sedere che la faccia alle donne ASD Così qua la gente guarda prima gli FPS che la vera potenza che potrebbe tirar fuori questa scheda (basta vedere quello che sta succedendo alla PS3.. analogo problema direi)


p.s.: e magari quel 90% sono tutti pronti a passare a nvidia o già l'hanno fatto? perchè chissà come mai tutti i commenti affrettati sono fatti da loro..

Evangelion01
17-05-2007, 23:32
mille thanks:rolleyes: :D
lol...ma che imbecille:mbe:
hai dato dello stupido al 90% degli utenti

Scusate, ma non riesco a trattenermi.... :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Conan_81.... mi sa che rischi la lapidazione..... :asd:
E magari un po' la meriti anche.....:D

Spike88
17-05-2007, 23:42
Anche il 90% dei maschi guarda prima il sedere che la faccia alle donne ASD Così qua la gente guarda prima gli FPS che la vera potenza che potrebbe tirar fuori questa scheda (basta vedere quello che sta succedendo alla PS3.. analogo problema direi)


p.s.: e magari quel 90% sono tutti pronti a passare a nvidia o già l'hanno fatto? perchè chissà come mai tutti i commenti affrettati sono fatti da loro..


è ovvio che i maschi guardano il sedere di una donna prima di tutto....e sempre meglio accertarsi che le misure permettano l' utilizzo:rolleyes: ...se il pertugio è piccolo...dopo son kazzi a tirarlo fuori

per il p.s.
ma va la...che le grandi lamentele vengono da gente con delle radeon...e comunque io son pronto a sotterrare sta nuova ati....e di certo non compro una nvidia...ma mi tengo la mia integrata:Prrr:

Conan_81
17-05-2007, 23:44
lol grande :read:

cmq io l'ho già comprata.. chiamatemi scemo o coglione, io resto ATI :Prrr:

Lud von Pipper
17-05-2007, 23:46
In effetti il paragone con Cell non è del tutto campato in aria...Ci stavo pensando anche io: le potenzialità ci sono in entrambi i chip ma resta il dubbio sul loro effettivo utilizzo.
Sarebbe interessante un test con programmi di grafica professionale per capire quanto sia flessibile tutta questa programmabilità.
Penso che la filosofia di queste DX10 non sia tanto diversa da quella delle Wildcat VP di qualche anno fa; e pensare che quelle non furono ammesse alla certificazione DX9 per via dell'eccessiva "libertà" con cui gli shader lavoravano.

Io non credo che in questi mesi in Ati nessuno abbia lavorato sui driver per dx10. Hai ragione nel dire che è molto più difficile in mancanza di giochi che devono girare su entrambe le schede, ma questo vale anche per Nvidia, ed infatti le difficoltà le hanno anche loroAl momento il problema è che quasi tutti i guru, sconsigliano vivamente Vista per i videogiocatori, anacronistico se pensiamo che le schede DX10 sono state PENSATE per Vista, e che la gran parte dei sistemi retail in vendita presso la grande distribuzione monta proprio Vista come SO.
Toccherà a loro fare da Betatester (cioè agli utonti che i driver non li aggiornano neppure) :doh:

(tra l'altro non credo proprio ch Lud volesse intendere quello, ma solo: "se ti compri una gpu dx10, male che volgia andare con i futuri titoli, sarà pure logico che prima o poi, ma neanche tanto poi, passi a vista")Nulla da aggiungere ;)

Evangelion01
17-05-2007, 23:46
lol grande :read:

cmq io l'ho già comprata.. chiamatemi scemo o coglione, io resto ATI :Prrr:

Perchè ti piace davvero o per fanboysmo? :p

Raven
17-05-2007, 23:47
mille thanks:rolleyes: :D
lol...ma che imbecille:mbe:
hai dato dello stupido al 90% degli utenti

Almeno lui non ti ha dato direttamente dell'imbecille... sei ammonito...

dm69
17-05-2007, 23:53
vedere una scheda ATI battuta duramente da NVIDIA su HL2 e' incredibile! e' veramente nata male (non posso credere che non abbiano testato bene HL2)

su un altro sito notavano che probabilmente la scheda e' frenata dalle texture unit : 16 sono troppo poche! Sarebbe anche ora che si danno una svegliata su questo fronte: NVIDIA e' arrivata a 24 gia' col 7800.

non e' che la grafica si fa' solo con shader da 500 istruzioni !

Conan_81
17-05-2007, 23:54
Perchè ti piace davvero o per fanboysmo? :p

diciamo che più che fanboy, faccio parte del 10% che è più ottimista del restante 90%

ah il coglione era per me? e che sei come berlusconi? :D

p.s.: complimenti per la puntualità, raven :flower:

Lud von Pipper
17-05-2007, 23:58
lol grande :read:

cmq io l'ho già comprata.. chiamatemi scemo o coglione, io resto ATI :Prrr:

GRANDEEEE!!! ABBIAMO LA CAVIA!!!!:sofico: :winner: :yeah:
Quando arriva dacci dentro con tutti i giochi che hai (con Vista però!) e facci sapere come gira e che problemi ti da. ;)

Lud von Pipper
18-05-2007, 00:02
vedere una scheda ATI battuta duramente da NVIDIA su HL2 e' incredibile! e' veramente nata male (non posso credere che non abbiano testato bene HL2)

Gia, ma G80 è molto più simile ad R500 di quanto non lo sia R600, quindi le ottimizzazioni non funzionano.
Le due schede AMD secondo me non hanno più nulla a che vedere tra loro la dove una 9700 non è poi così diversa da una 1950XTX ;)

dm69
18-05-2007, 00:09
Gia, ma G80 è molto più simile ad R500 di quanto non lo sia R600, quindi le ottimizzazioni non funzionano.
Le due schede AMD secondo me non hanno più nulla a che vedere tra loro la dove una 9700 non è poi così diversa da una 1950XTX ;)

e che ne sai che G80 e' piu simile a R500 (XBOX 360)? (cache on chip?)

9700 non e' cosi' diversa da x1950??? ma come, x1950 ha 16 TMU e 48 PS 3.0, ring bus e altro; R300 8 TMU e 8 PS 2.0

caso mai 9700 e' simile a x800 e x850

e comunque fino ad ora nessuna ATI ha mai superato NVIDIA di pari fascia su DOOM3 e derivati

Raven
18-05-2007, 00:09
diciamo che più che fanboy, faccio parte del 10% che è più ottimista del restante 90%

ah il coglione era per me? e che sei come berlusconi? :D

p.s.: complimenti per la puntualità, raven :flower:

Tu però cerca di regolare le tue uscite... ok?... se secondo te dire semplicemente che la scheda è un flop può essere da "stupidi" (meglio "superficiali", via...) mi sta bene, ma è secondo la TUA opinione... quindi la prox. volta sii meno drastico... ;)

×§ñåkê×
18-05-2007, 00:10
GRANDEEEE!!! ABBIAMO LA CAVIA!!!!:sofico: :winner: :yeah:
Quando arriva dacci dentro con tutti i giochi che hai (con Vista però!) e facci sapere come gira e che problemi ti da. ;)

a dire il vero non è l'unico :asd:

Conan_81
18-05-2007, 00:11
GRANDEEEE!!! ABBIAMO LA CAVIA!!!!:sofico: :winner: :yeah:
Quando arriva dacci dentro con tutti i giochi che hai (con Vista però!) e facci sapere come gira e che problemi ti da. ;)

mbescert :sofico:
ne ho parecchiucci e ho vista x64 :muro: (se c'era l'iconcina della martellata sui cojones era meglio :ciapet: )

p.s.: cmq prima dei abbassamenti (dimezzamenti?) dei prezzi INTEL misà che non vale la pena di postare punteggi.. altrimenti poi qualcuno ci crede ancora di più che fa pena, dato che ho solo un "C2D 6400"

ghiltanas
18-05-2007, 01:29
ho riguardato il thread e devo aggiungere un'altra pecca a sta scheda:

tira fuori il peggio dalle persone, basta leggere le ultime 6-7 pagine, si e no ci saranno 3 commenti inerenti all'argomento il resto sono per il 70 % scambi di offese per il 30% richiami e ammonizioni degli amministratori...