View Full Version : NVIDIA GeForce 8800 Ultra
Redazione di Hardware Upg
02-05-2007, 15:06
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1714/index.html
Frequenze di funzionamento incrementate rispetto alle soluzioni GeForce 8800 GTX, ma caratteristiche architetturali invariate: questa la strada seguita da NVIDIA per la prima scheda con nome "Ultra" da molto tempo a questa parte. Ecco GeForce 8800 Ultra, la più veloce implementazione del chip G80 e attuale top di gamma del mercato delle schede video, almeno per il momento
Click sul link per visualizzare l'articolo.
E' però imminente il lancio sul mercato della nuova architettura R600, attesa per il 14 Maggio, ovvero fra poco più di 10 giorni. Sarà la fine delle attuali certezze? E' la risposta che stiamo cercando nei nostri laboratori proprio in questi giorni. Non resta che attendere.
Allora è vero... oggi non si vedrà nessuna rece delle nuove proposte ATi :(
int main ()
02-05-2007, 15:12
totalmente inutile -.- io mi sarei aspettato un aumento d memoria(magari mettendo gddr4) o 1 aumento degli stream processors -.- bah!!! ma ke sn tutte ste cazzate ke stanno facendo all'nvidia? prima la 8600 ke fà skifo ora stà 8800 ultra -.-:muro: :muro:
Oddio la Ultra, e le ATI??? Non se ne può più di tutte ste schede Nvidia e di Ati nulla.
Ma che fanno allaAMD-ATI??????
Il 10% di performance in piú fatti pagare 200 Euro....
Con questo prezzo dimostrano di non voler abbassare il prezzo delle altre (a meno che lo facciano all' uscita delle nuove radeon).
PS:Speravo anche in una rece delle HD2900XT, ma niente :(
Dalle indiscrezioni che si trovano in rete, sembra che le nuove schede ATI saranno notevolmente superiori alle top di gamma di Nvidia.
Mi sembra quindi strana questa mossa... o forse non lo è...nel senso che staranno sicuramente progettando, se non già producendo una nuova scheda che possa competere con le nuove ATI.
Questa quindi sarebbe solo una mossa di Marketing per far parlare ancora di NVIDIA prima dell'uscita delle nuove schede ATI e come "depistaggio" per non far trapelare informazioni sulle nuove schede eventualmente in cantiere.
Dico così perchè sebbene io sia un tifoso di ATI/AMD, troverei strano vedere NVIDIA così indietro dopo che nell'ultimo periodo invece sia stata avanti ad ATI, anche se in fondo non sempre per merito suo.
Evangelion01
02-05-2007, 15:22
Scheda poco utile, che a fronte di un incremento prestazionale medio del 10% richiede un esborso maggiore di più del 20%... anche se il mercato delle soluzioni top di gamma è sempre stato così. E poi speravo in un miglioramento più sostanziale dal p.d.v. delle temperature e del consumo, che non c'è stato. Imho la 8800gtx resta la migliore high - end come rapporto prezzo-prestazioni. :)
pioss~s4n
02-05-2007, 15:23
prezzo troppo alto, consumi troppo alti, migliorie minime: scheda inutile
pioss~s4n
02-05-2007, 15:25
Dalle indiscrezioni che si trovano in rete, sembra che le nuove schede ATI saranno notevolmente superiori alle top di gamma di Nvidia.
fonti?
fonti?
non ci sono moltissime informazioni, è vero, ma per esempio qui qualcosina trapela
http://technomhz.blogspot.com/2007/04/ati-hd-2900-xt.html
pioss~s4n
02-05-2007, 15:31
imho se questa R600 di punta andrà un 10% di più di una 8800ultra sarà già tanto. Oggi giorno per una semplice questione di marketing si tiene sempre sotto controllo il divario prestazionale evitando di lanciare sul mercato prodotti troppo superiori (e sembra un controsenso). Dieci punti percentuali in più fanno vendere come venti o trenta, col vantaggio di costituire x il processo produttivo costo inferiore
e anche qui
http://www.mydigitallife.info/2007/04/27/ati-radeon-hd-2900-xt-graphics-card/
Io invece ho paura che vista la pochezza di questa nuova scheda Nvidia, la HD2900XT non sarà un cataclisma, sicuramente all nvidia son più informati di noi su quello che la 2900XT ofrirà.
imho se questa R600 di punta andrà un 10% di più di una 8800ultra sarà già tanto. Oggi giorno per una semplice questione di marketing si tiene sempre sotto controllo il divario prestazionale evitando di lanciare sul mercato prodotti troppo superiori (e sembra un controsenso). Dieci punti percentuali in più fanno vendere come venti o trenta, col vantaggio di costituire x il processo produttivo costo inferiore
nel secondo link che ho postato si parla di 20%!
Comunque sia per un utente comune penso che non ci sia tantissima differenza, si parla comunque di schede incredibili! E' un po come scegliere tra una Porche e una Ferrari!
forse le differenze vere le troveranno i gamers accaniti o chi lavora col video-editing pesante!
Questa scheda è per I TANTI tizi che ragionano: "più costa e più è veloce!" Una GTX overcloccata, raggiunge benissimo questa ultra, e costa molto meno.
Mossa di NVIDIA esclusivamente rinfrescante e non innovativa per la sua linea di prodotti.
pioss~s4n
02-05-2007, 15:35
josefor ovvio che è come dici.. si gioca al rialzo percentuale minimo in termini velocistici, col guadagno sul risparmio di costi produttivi. R600 sarà un minimo più veloce di G80, e poi di nuovo si invertirà la tendenza con le nuove generazioni. Per una questione di marketing si punterà sempre più al minimo guadagno velocistico che assicura vendite garantite e soddisfanti previsioni
Mah, a me non importa un fico secco se Ati o Nvidia hanno la scheda video più veloce in fascia enthusiastic, quello che è importante è che tirino fuori schede video di fascia media mainstream con un buon rapporto prestazioni/prezzo.
pioss~s4n
02-05-2007, 15:39
Mah, a me non importa un fico secco se Ati o Nvidia hanno la scheda video più veloce in fascia enthusiastic, quello che è importante è che tirino fuori schede video di fascia media mainstream con un buon rapporto prestazioni/prezzo.
8800gts/gtx scenderanno di prezzo dopo R600.. la fascia media oggi giorno è una presa per i fondelli
Portocala
02-05-2007, 15:40
le ddr4 non le producono con uno schiocco di dita, per cui difficilmente le 2900 le useranno. quindi quei 100gb di banda passanta sono solo delle cifre buttate li.
finchè non esce io non azzarderei pronostici troppo ottimisti (8600 docet)
Si parla di un costo sotto ai 500€ per la HD2900XT, se poi dovesse essere più veloce della 8800 ULTRA (700€), questultima sarebbe totalmente fuori dal mercato, o meglio diciamo pure da ogni logica; o che quelli Nvidia si son rincoglioniti completamente o sennò vuol dire che il prodotto ATI è un po in affanno.
Il 10% di performance in piú fatti pagare 200 Euro....
Con questo prezzo dimostrano di non voler abbassare il prezzo delle altre (a meno che lo facciano all' uscita delle nuove radeon).
PS:Speravo anche in una rece delle HD2900XT, ma niente :(
A sto puno andrei su ASUS (http://www.asus.it/products.aspx?l1=2&l2=6&l3=442&l4=0&model=1565&modelmenu=2)
SolidSnake587
02-05-2007, 15:42
Mah per me non è molto conveniente come scheda, attendo la 8950 GX2, intanto mi tengo la mia 8800 GTS da 320 MB :D
le ddr4 non le producono con uno schiocco di dita, per cui difficilmente le 2900 le useranno. quindi quei 100gb di banda passanta sono solo delle cifre buttate li.
finchè non esce io non azzarderei pronostici troppo ottimisti (8600 docet)
Sicuramente hai ragione.... bisogna aspettarla e vederla per poterla giudicare!
Oltretutto, a proposito di cifre buttate li, anche il prezzo è sui 499$ che sarebbe davvero concorrenziale se fosse vero!!
Vedremo....
Si è cara, ma è pur sempre la piu veloce che c'è. Resta in linea la politica di tutti gli anni. Esce una nuova architettura e nei mesi successivi, escono modelli medio-bassi e top di gamma, fino al nuovo cambio architettura. Nulla di nuovo, ma neanche un fallimento. E' solo una riconferma della cosa. Una purtroppo anche riconferma della leadership. Se R600 non sarà quanto meno in linea con la ultra, ATI la vedo messa davvero male, come se non lo fossegia abbastanza visto il ritardo della nuova Gpu.
Kharonte85
02-05-2007, 15:45
Effettivamente la scheda non è granche' innovativa, il prezzo è alto (ma non come ci si aspettava)...e tanto per cambare per AMD-ATI bisognera' aspettare...:rolleyes:
Si parla di un costo sotto ai 500€ per la HD2900XT, se poi dovesse essere più veloce della 8800 ULTRA (700€), questultima sarebbe totalmente fuori dal mercato, o meglio diciamo pure da ogni logica; o che quelli Nvidia si son rincoglioniti completamente o sennò vuol dire che il prodotto ATI è un po in affanno.
Ti quoto.... ma bisogna anche prestare attenzione alla situazione attuale di AMD.... potrebbe essere una scelta mirata a recuperare più velocemente liquidi!
Avere una scheda migliore a prezzi inferiori aumenterebbe considerevolmente e rapidamente il numero di unità vendute.
Meno soldi in totale di guadagno probabilmente, ma sicuramente più velocemente, ed ora AMD ne ha proprio bisogno!
Kharonte85
02-05-2007, 15:47
per l'altezza la scheda 8800 Ultra ha uno sviluppo superiore di alcuni centimetri.
Saranno mm...spero...:D
[KS]Zanna
02-05-2007, 15:48
nel secondo link che ho postato si parla di 20%!
Già, rispetto alla GTS però... leggi bene!
In realtà da una settimana a questa parte sono usciti presunti bench su diversi siti di quelle che dovrebbero essere le prestazioni di R600: attendibilità a parte, cosa di cui ovviamente non si può essere certi fino alla presentazione ufficiale, sembra che la top di gamma ATi si posizionerà tra la GTS e la GTX.
E' però imminente il lancio sul mercato della nuova architettura R600, attesa per il 14 Maggio, ovvero fra poco più di 10 giorni. Sarà la fine delle attuali certezze? E' la risposta che stiamo cercando nei nostri laboratori proprio in questi giorni. Non resta che attendere.
non è che vi serve qualcuno che lavi i pavimenti ? :D
Contattatemi in pvt :D
Kharonte85
02-05-2007, 15:50
non è che vi serve qualcuno che lavi i pavimenti ? :D
Contattatemi in pvt :D
:sbonk: :sbonk: :sbonk:
LEONARDO4076
02-05-2007, 15:52
nel secondo link che ho postato si parla di 20%!
Comunque sia per un utente comune penso che non ci sia tantissima differenza, si parla comunque di schede incredibili! E' un po come scegliere tra una Porche e una Ferrari!
forse le differenze vere le troveranno i gamers accaniti o chi lavora col video-editing pesante!
Nel secondo link che hai postato il "20% in più" è riferito alla 2900XT comparata a una 8800GTS che non è la scheda più potente sul mercato. Tra l'altro il fatto che una scheda come la 2900XT venga paragonata a una 8800GTS e non a una 8800GTX come ci aspettava, mi lascia pensare che non sia così esageratamente più potente delle schede nVidia già in circolazione.
si ma neanche la 2900XT è la più potente, bensi lo sarà la XTX
Quindi è giusto confrontare la XT con la GTS e la XTX con la GTX
nel secondo link che ho postato si parla di 20%!
Comunque sia per un utente comune penso che non ci sia tantissima differenza, si parla comunque di schede incredibili! E' un po come scegliere tra una Porche e una Ferrari!
forse le differenze vere le troveranno i gamers accaniti o chi lavora col video-editing pesante!
L'hai letto almeno il contenuto del link che hai postato?
Si parla di un 20% in più della 8800gts, notevolmente più lenta della gtx.
Secondo le indiscrezioni la x2900xt dovrebbe piazzarsi sia come prestazioni che come prezzo tra la gts e la gtx, ma ovviamente sarà tutto da verificare...
Per quanto riguarda l'articolo, tutto secondo aspettative, niente di più.
L'unica cosa che non mi è chiara è quando si parla della versione XFX 8800gtx XXX che oltre a disporre di una frequenza di clock della memoria più elevata (2.160 MHz contro 2.000 MHz), vanta una frequenza operativa degli shader processor di ben 1.500 MHz, contro i 1.350 MHz della scheda 8800 GTX base e delle altre soluzioni sul mercato.
ma le versioni overclocked non hanno anche le frequenze degli sp overclockate, o forse sono totalmente indipendenti dalla frequenza della gpu?
Nockmaar
02-05-2007, 15:57
Quoto qui sopra. I bench che si trovano in giro sulla x2900xt sono paragonati alla 8800GTS ( per non farla sfigurare )?
Io oramai sono moderatamente pessimista...
Spero piu' che altro nel prezzo piu' basso della x2900xt
Quoto qui sopra. I bench che si trovano in giro sulla x2900xt sono paragonati alla 8800GTS ( per non farla sfigurare )?
Io oramai sono moderatamente pessimista...
Spero piu' che altro nel prezzo piu' basso della x2900xt
No, sono paragonati alla GTS perchè i paragoni con la GTX si fanno con la XTX
e qui ci sono alcuni 3dMark.... come si nota la XT è come dicevate in mezzo tra la GTS e la GTX, ma la XTX è superiore a tutte.
Sempre ovviamente prendendo con le molle l'attendibilità di questi test
http://www.dinoxpc.com/News/news.asp?ID_News=12426&What=News
mmm nn so misembra un mero esercizio di oc.
evidentemente hanno fatto quel dissipatore + performante di quello a defatul e hanno trovato la maniera di stare stabile anche con quei 40mhz in + sul core e qui 200 sulle ram.
cmq mi sembra strano che le versoni oc delle gtx abbiano gli shader bloccati.
sulla mia gts se aumento il clock della gpu sale anche quello degli shader
Feanortg
02-05-2007, 16:03
The new ATI Radeon HD 2900 XT graphics card is expected to be widely available in mid-May, with a suggested retail price of $499.
Se fosse vero costa ben poco.... Poi io la vorrei in versione agp.
Sinceramente il mio Athlon 64 3700+ con 2 gb di ram DDR400
cas 2.5 non necessità di upgrade.
Kharonte85
02-05-2007, 16:03
la xtx non esce...o almeno cosi' si sa dai rumors...
No, sono paragonati alla GTS perchè i paragoni con la GTX si fanno con la XTX
e qui ci sono alcuni 3dMark.... come si nota la XT è come dicevate in mezzo tra la GTS e la GTX, ma la XTX è superiore a tutte.
Sempre ovviamente prendendo con le molle l'attendibilità di questi test
http://www.dinoxpc.com/News/news.asp?ID_News=12426&What=News
sempre secondo le famose indiscrezioni, la xtx è stata cancellata perchè aveva prestazioni troppo poco superiori alla xt e pertanto inutile...
sempre secondo le famose indiscrezioni, la xtx è stata cancellata perchè aveva prestazioni troppo poco superiori alla xt e pertanto inutile...
Non ne ero a conoscenza.... in questo caso allora la più potente delle ATI dovrebbe restare un po indietro alla più potente delle NVIDIA.
Se così fosse penso che il prezzo potrebbe davvero essere di 499, non di più. Quindi un po più prestante delle pariprezzo NVIDIA e un po meno prestante della top di NVIDIA che però viene 200€ in più.
Vabbè inutile stare tanto a discutere, aspettiamo metà Maggio, poi le potremo confrontare con dati reali e non con indiscrezioni/rumors
totalmente inutile -.- io mi sarei aspettato un aumento d memoria(magari mettendo gddr4) o 1 aumento degli stream processors -.- bah!!! ma ke sn tutte ste cazzate ke stanno facendo all'nvidia? prima la 8600 ke fà skifo ora stà 8800 ultra -.-:muro: :muro:
vabbè dai, la nvidia fa uscire ste schede potenziate mentre aspetta la contromossa di AMD riservandosi la fetta di mercato ke compra subito il meglio ke cè sulla piazza anke se poi lo cambia dopo un mese...io credo ke R600 sia superiore Rispetto a queste schede, ma son sicuro ke subito dopo R600 Nvidia farà uscire la serie 8900 ke, come precedentemete la 7900 rispetto alla 7800, sarà molto + potente e performante delle attuali 8800 e delle future schede R600...
Ma tanto è una storia infinita...AMD poi farà X2900, Nvidia le 9800 e così via...
Crysis90
02-05-2007, 16:11
Volevo rispondere a "bernh": se fossi in te non sarei tanto sicuro delle potenzialità delle nuove Radeon, visita questi link, leggi bene l'articolo, osserva i dati dei benchmark e poi dimmi che ne pensi:
http://www.atizone.it/news/reader.php?objid=4884
Questa scheda è per I TANTI tizi che ragionano: "più costa e più è veloce!" Una GTX overcloccata, raggiunge benissimo questa ultra, e costa molto meno.
Mossa di NVIDIA esclusivamente rinfrescante e non innovativa per la sua linea di prodotti.
L'hai letto tutto l'articolo prima di scrivere?:D
Le frequenze degli stream processors non sono overcloccabili a quanto ho capito e la Nvidia ha puntato su questa miglioria piuttosto ke sulle sole frequenze di ram e gpu ke un buon overclocker potrebbe raggiungere comodamente in casa...
Nockmaar
02-05-2007, 16:14
Tanto, al solito, il grosso guadagno si fa con le schede che offrono miglior rapporto qualita' prezzo, soprattutto nella fascia media.
LEONARDO4076
02-05-2007, 16:15
Volevo rispondere a "bernh": se fossi in te non sarei tanto sicuro delle potenzialità delle nuove Radeon, visita questi link, leggi bene l'articolo, osserva i dati dei benchmark e poi dimmi che ne pensi:
http://www.atizone.it/news/reader.php?objid=4884
IMHO questi benchmark non possono essere veri. D'altronde una società non investe i soldi in un' "operazione suicidio". Aspettare tanto per una scheda che è più lenta di un'altra scheda uscita molti mesi prima sarebbe assurdo. A questo punto credo che tutti questi rumors e indiscrezioni siano di fatto inutili. Aspettiamo l'uscita e poi vediamo...
Volevo rispondere a "bernh": se fossi in te non sarei tanto sicuro delle potenzialità delle nuove Radeon, visita questi link, leggi bene l'articolo, osserva i dati dei benchmark e poi dimmi che ne pensi:
http://www.atizone.it/news/reader.php?objid=4884
Hai ragione è che non sapevo che la XTX non uscisse!
La XT anche se di poco, dovrebbe essere inferiore alla GTX, e andrebbe paragonata alla GTS rispetto alla quale, sempre di poco, risulta superiore! La XTX invece doveva invece essere paragonata alla GTX della quale sarebbe stata un po superiore, ma se non esce....
[KS]Zanna
02-05-2007, 16:19
Un paio di domande alla redazione: quali driver sono stati usati per i test (sia per le schede nVidia che per quelle AMD)?
Stalker era patchato alla 1.0001, vero?
Turbominchia
02-05-2007, 16:19
ma si puoi flashare il bios di una gtx in modo di clockare gli shader??
Paolo Corsini
02-05-2007, 16:21
non ci sono moltissime informazioni, è vero, ma per esempio qui qualcosina trapela
http://technomhz.blogspot.com/2007/04/ati-hd-2900-xt.html
e anche qui
http://www.mydigitallife.info/2007/04/27/ati-radeon-hd-2900-xt-graphics-card/
Non posso fornire alcun tipo di informazione sulle schede R600, sia architetturali che prestazionali, essendo sotto NDA. I link che hai riportato contengono informazioni completamente errate; eviterei di fare speculazioni sulle schede R600 e consiglierei di aspettare i 12 giorni che separano la scadenza dell'NDA.
Del resto, coloro che leggono con attenzione i nostri articoli e osservano i particolari avranno notato che non sto scrivendo questo commento senza cognizione di causa.
halduemilauno
02-05-2007, 16:21
una domanda per Paolo Corsini.
sei sicuro che le gtx hanno la frequenza degli shader bloccata anche se si oc a 1350 e lo stesso per le gtx oc dalle varie case? perchè pare che con rivatuner lo shader clock aumenti all'aumentare della frequenza del core.
se per favore ci levi questo dubbio.
Grazie. ottima rece.
;)
Volevo rispondere a "bernh": se fossi in te non sarei tanto sicuro delle potenzialità delle nuove Radeon, visita questi link, leggi bene l'articolo, osserva i dati dei benchmark e poi dimmi che ne pensi:
http://www.atizone.it/news/reader.php?objid=4884
Comunque prima ti ho risposto senza leggere l'articolo.... trovo strano che la XTX risulti inferiore alla XT e comunque in giro troverai altri bench che ribaltano la situazione anche rispetto alla GTX.
Ha ragione LEONARDO4076 bisogna aspettare, ma comunque da quello che si legge in giro sembra che la GTX sarà la più potente, seguita dalla XT di ATI e poi dalla GTS di nuovo di NVIDIA.
Ma aspettiamo che escano....
Io nel frattempo mi tengo la mia x1950gt finchè i prezzi non diventeranno ragionevoli.
Tanto per ora giochi dx 10 non se ne vedono.... o comunque si contano sulle dita di una mano!!
Dal mio modesto punto di vista la 8800 Ultra poteva esser dotata di 1Gb di memoria e magari di un waterblock per gpu e memoria cosi da poter esser overcloccata con piu margine, risultando un prodotto al top in assoluto, tanto una pompa a 12V, un radiatore e un serbatoio sarebbero stati una spesa irrisoria per chi acquista questa scheda... invece con questa veste risulta troppo simile alla 8800 GTX che bastava e avanzava...
Il mio parere é di un lancio inutile...
Paolo Corsini
02-05-2007, 16:24
una domanda per Paolo Corsini.
sei sicuro che le gtx hanno la frequenza degli shader bloccata anche se si oc a 1350 e lo stesso per le gtx oc dalle varie case? perchè pare che con rivatuner lo shader clock aumenti all'aumentare della frequenza del core.
se per favore ci levi questo dubbio.
Grazie. ottima rece.
;)
Si, sono sempre bloccate alle impostazioni di default; lo stesso vale per le GeForce 8800 Ultra OC i cui comunicati stampa stanno apparendo in queste ore.
Paolo Corsini
02-05-2007, 16:25
Zanna;16962226']Un paio di domande alla redazione: quali driver sono stati usati per i test (sia per le schede nVidia che per quelle AMD)?
Stalker era patchato alla 1.0001, vero?
Ciao,
grazie della precisazione: ci siamo scordati di inserire driver e sistema operativo nella configurazione.
- driver NVIDIA Forceware 158.18
- driver ATI Catalyst 7.4
- sistema operativo Windows Vista Ultimate 32bit
Stalker è stato patchato.
halduemilauno
02-05-2007, 16:25
Si, sono sempre bloccate alle impostazioni di default; lo stesso vale per le GeForce 8800 Ultra OC i cui comunicati stampa stanno apparendo in queste ore.
perfetto. Grazie.
ciao.
;)
Non posso fornire alcun tipo di informazione sulle schede R600, sia architetturali che prestazionali, essendo sotto NDA. I link che hai riportato contengono informazioni completamente errate; eviterei di fare speculazioni sulle schede R600 e consiglierei di aspettare i 12 giorni che separano la scadenza dell'NDA.
Del resto, coloro che leggono con attenzione i nostri articoli e osservano i particolari avranno notato che non sto scrivendo questo commento senza cognizione di causa.
Non era mia intenzione fare alcun tipo di speculazione.... riportavo solo notizioe che ho trovato in giro per la rete, notizie che non posso nè confermare nè smentire non avendo la scheda sotto mano.
Ma visto che voi la avete sotto mano... se mi dici che quelle informazioni sono completamente errate mi fido ciecamente e aspetto una vostra recensione!! ;)
sapremo come sono in realtà le x2900xt solo quando Hwupgrade publicherà una recensione, io non mi fido dei rumors su siti poco affidabili, bisogna sapettare ancora:mad: :mad: :cry:
IMHO questi benchmark non possono essere veri. D'altronde una società non investe i soldi in un' "operazione suicidio". Aspettare tanto per una scheda che è più lenta di un'altra scheda uscita molti mesi prima sarebbe assurdo. A questo punto credo che tutti questi rumors e indiscrezioni siano di fatto inutili. Aspettiamo l'uscita e poi vediamo...
Bhè insomma, dipende da quanti soldi ATI ha investito nel progetto e che target di mercato vogliono coprire, se è vero che sta HD2900XT starà dento ai 400€ e offrirà prestazioni simili e se vuoi anche un pelo inferiori alla GTX, credo che comuque che sarà un ottima scheda.
Paolo Corsini
02-05-2007, 16:29
Non era mia intenzione fare alcun tipo di speculazione.... riportavo solo notizioe che ho trovato in giro per la rete, notizie che non posso nè confermare nè smentire non avendo la scheda sotto mano.
Senza polemica, ma se scrivi questo:
Dalle indiscrezioni che si trovano in rete, sembra che le nuove schede ATI saranno notevolmente superiori alle top di gamma di Nvidia.
dimostri di prendere per vero qualsiasi cosa venga scritta on line, per giunta senza leggerla bene (i presunti valori prestazionali sono confrontati con la GTS, come ti è stato segnalato da altri).
giovanbattista
02-05-2007, 16:31
eccola la 2900XT:
http://www.techpowerup.com/?30490
Senza polemica, ma se scrivi questo:
dimostri di prendere per vero qualsiasi cosa venga scritta on line, per giunta senza leggerla bene (i presunti valori prestazionali sono confrontati con la GTS, come ti è stato segnalato da altri).
Si ma non hai letto il secondo pezzo del mio messaggio e cioè che mi fido perchè so che la scheda l'avete sotto mano e la state testando e aspetto una vostra recensione! Non c'era ironia in quello che ho detto, ho messo anche la faccina per cercare di far comprendere meglio il tono del messaggio.
Comunque le mie convinzioni si basavano anche sul fatto che non ero a conoscenza della cancellazione della XTX, per cui ritenevo opportuno confrontare la XT con la GTS.
Sbagliando s'impara!
Feanortg
02-05-2007, 16:32
Domanda per Paolo Corsini:
ma testerete solo i top di gamma o avete per le mani anche la fascia media??
[KS]Zanna
02-05-2007, 16:34
Ciao,
grazie della precisazione: ci siamo scordati di inserire driver e sistema operativo nella configurazione.
- driver NVIDIA Forceware 158.18
- driver ATI Catalyst 7.4
- sistema operativo Windows Vista Ultimate 32bit
Stalker è stato patchato.
Ciao,
visto che sei nei paraggi ne approfitto per rompere ancora le @@ :-)
In stalker, per testare con l'AA attivato, avete impostato il path Dx8?
Da quello che sapevo io con il Full Dynamic Lighting era impossibile attivare il filtraggio anti aliasing, essendo un rendering di tipo deferred shading
Crysis90
02-05-2007, 16:35
Una domanda per Paolo Corsini, prima ho lasciato un link che mostrava benchmark tra 8800 GTX e 2900 XTX HD ( o come si chiama, insomma il top di gamme delle R600) nell'articolo, riportato da molti altri siti c'era scritto che i bench erano ufficiali, tu che ne pensi? Anche se non puoi dire molto, potresti almeno confermarli?
Se non hai visto il link, eccolo quì:
http://www.atizone.it/news/reader.php?objid=4884
Feanortg
02-05-2007, 16:36
Tra le altre spuntano anche questi di benchmark.... Che casino...
http://www.dailytech.com/ATI+Radeon+HD+2900+XT+Performance+Benchmarks/article7043.htm
Crysis90
02-05-2007, 16:37
Altra domanda per Paolo Corsini:
Ho notato che in una delle foto di questa recensione, dietro alla X1950 XTX c'era una 2900 HD, la foto è scattata da voi ( è quindi ne avete già un esemplare) o l'avete trovata altrove?
Kharonte85
02-05-2007, 16:38
.
Forse c'è un piccolissimo errore nella recensione, l'ho segnalato prima:
http://www.hwupgrade.it/forum/showpost.php?p=16961644&postcount=27
Ottima recensione (fra l'altro la gradita presenza della gts 320mb a default ;) )
Paolo Corsini
02-05-2007, 16:38
Una domanda per Paolo Corsini, prima ho lasciato un link che mostrava benchmark tra 8800 GTX e 2900 XTX HD ( o come si chiama, insomma il top di gamme delle R600) nell'articolo, riportato da molti altri siti c'era scritto che i bench erano ufficiali, tu che ne pensi? Anche se non puoi dire molto, potresti almeno confermarli?
Se non hai visto il link, eccolo quì:
http://www.atizone.it/news/reader.php?objid=4884
Quelli sono i bench pubblicati da Dailytech settimana scorsa; onestamente li prenderei con molto beneficio d'inventario, soprattutto per la fantomatica scheda XTX
Se la HD 2900XT costa quanto la GTS, e viene paragonata prestazionalmente a questa (lo ha fatto un tizio di Amd in un'intervista), non è certo un segnale di "forza" del prodotto, ma piuttosto una debolezza, imho.
Non posso raggiungere l'attuale top di gamma, e si collocano ad un prezzo inferiore. E' ovvio che avrebbero voluto venderla a 600-650 euro, non vi pare? D'altronde era il prezzo di riferimento sia della x1800XT che della x1900XT, che hanno venduto lo stesso.
Che poi possa far piacere un prezzo di 400-450 euro va bene, ma non paragoniamolo attuale delle GTX e GTS, che sono già in commercio e disponibili.
Ho visto in prevendita una HD 2900XT a 418 euro qui in Italia, ma la GTS 640Mb non è difficile trovarla, oggi, a 350 euro, mentre la 320Mb sta a 260-270 euro. E la GTX sta' a 500.
Quando sarà disponibile la 2900XT, vedremo quale sarà più conveniente in rapporto alle prestazioni (ma anche all'overclock ed ai consumi)
Vi sembrano alti i consumi della Ultra?
Aspettate la recensione della HD 2900XT per dirlo...
Crysis90
02-05-2007, 16:52
Per Paolo Corsini:
ma tu confermeresti o smentiresti totalmente questi bench?
Li ho visti su vari siti e tutti dicevano che erano benchmark UFFICIALI!
Nockmaar
02-05-2007, 16:53
Per Paolo Corsini:
ma tu confermeresti o smentiresti totalmente questi bench?
Li ho visti su vari siti e tutti dicevano che erano benchmark UFFICIALI!
E te lo viene a dire a te? Che li fanno a fare i test in lab, allora... :asd:
Il giorno che fanno uscire la recensione delle HD 2900XT e 2600XT, imho, fanno il record dei contatti su Hwupgrade :-)
Ma durerà poco: giusto il tempo che esce la prima recensione del K10 ;-)
halduemilauno
02-05-2007, 16:57
Per Paolo Corsini:
ma tu confermeresti o smentiresti totalmente questi bench?
Li ho visti su vari siti e tutti dicevano che erano benchmark UFFICIALI!
è sotto NDA. ha gia detto abbastanza. 14 maggio.
;)
ultras77
02-05-2007, 16:58
a me risulti esista già disponibile finita una ULTRA triple XXX e entro una settimana la si vedrà recensita da qualche parte.... poi ad ottobre.....ma questa è 1 altra storia....addio ATI...
Crysis90
02-05-2007, 17:03
Per Paolo Corsini:
Eddai, dammi almeno un piccolo indizio!
Io dico che NVidia regnerà assoluta, dico che quando giocherò a Crysis al massimo dettaglio con HDR e Anti-Aliasing contemporaneamente ci giocherò con una 8800 ULTRA, perchè le 2900 non le staranno dietro.
halduemilauno
02-05-2007, 17:05
Per Paolo Corsini:
Eddai, dammi almeno un piccolo indizio!
Io dico che NVidia regnerà assoluta, dico che quando giocherò a Crysis al massimo dettaglio con HDR e Anti-Aliasing contemporaneamente ci giocherò con una 8800 ULTRA, perchè le 2900 non le staranno dietro.
se insisti e usi questi toni non avrai mai risposta. stai calmo.
mia opinione e mio consiglio.
;)
Crysis90
02-05-2007, 17:09
Altro messaggio per Paolo Corsini:
complimenti x il sito, per le recenzioni, news e tutto il resto, io visito Hardware Upgrade ogni giorno e ne rimango sempre più affascinato dalla quantità e qualità di notizie che fornite, continuate così!
Free Gordon
02-05-2007, 17:09
Se la HD 2900XT costa quanto la GTS, e viene paragonata prestazionalmente a questa (lo ha fatto un tizio di Amd in un'intervista), non è certo un segnale di "forza" del prodotto, ma piuttosto una debolezza, imho. Non posso raggiungere l'attuale top di gamma, e si collocano ad un prezzo inferiore. E' ovvio che avrebbero voluto venderla a 600-650 euro, non vi pare? D'altronde era il prezzo di riferimento sia della x1800XT che della x1900XT, che hanno venduto lo stesso.
Se così anche fosse (XT inferiore a GTX in dx9), bisognerebbe considerare le performance dx10, che sono un'api completamente nuova (non di certo la differenza che c'è tra 9b e 9c ;) ).
Che poi possa far piacere un prezzo di 400-450 euro va bene, ma non paragoniamolo attuale delle GTX e GTS, che sono già in commercio e disponibili.
Idem come sopra, le prestazioni nel caso di questa scheda, saranno un affare abbastanza complesso e per cui i prezzi potranno non essere facilmente paragonabili.
Free Gordon
02-05-2007, 17:11
a me risulti esista già disponibile finita una ULTRA triple XXX e entro una settimana la si vedrà recensita da qualche parte.... poi ad ottobre.....ma questa è 1 altra storia....addio ATI...
ma poi faranno anche la Ultra-mega-super? :asd:
Portocala
02-05-2007, 17:11
ahahahahahhah :asd:
Crysis90 :asd:
Spero ci sia sta fascia media se no faccio na strage!
Firedraw
02-05-2007, 17:14
mmmmmm si bell arecensione, peccato che partendo da risoluzioni di 1920 è normale che schede con 512 mb in giù siano nettamente penalizzate..... e cmq non so voi, ma io e tutti quelli che conosco non giocano oltre la 1280 come risoluzione. Se avete un 32" hd ready da collegare al pc...
http://www.hwupgrade.it/articoli/skvideo/1714/global.jpg
Guardate l'ultima scheda video presente in questa foto dell'articolo, in particolare guardate i connettori utilizzati per l'alimentazione ausiliaria (anche se oramai l'alimentazione ausiliaria è diventata quella del PCIe :asd: ), mi sa tanto di AMD/ATi Radeon HD 2900XT. ;)
Da notare le dimensioni, poco più lunga della ATi Radeon X1950XTX e direi più corta della NVIDIA Geforce 8800GTX/Ultra. :p
PS: attendo la recensione anche se questo mercato non mi compete... :D
bluefrog
02-05-2007, 17:16
Condivido con quanto detto dalla redazione, ovvero che si tratta perlopiù di una prova di forza da parte di Nvidia e non una scheda realmente necessaria, in modo da assicurarsi comunque la palma di scheda video più veloce (sappiamo quanto faccia bene all'immagine dell'azienda) nel momento in cui uscirà la ATI HD 2900XT. A questo punto la parte scomoda per Nvidia dovrebbe essere più che altro rappresentata dal basso prezzo di lancio delle nuove schede di ATI, a quanto pare molto più appetibili nel rapporto prezzo/prestazioni. Molto probabilmente quindi la prossima mossa di Nvidia sarà il ribasso di prezzo della GTX.
bluefrog
02-05-2007, 17:18
Altro messaggio per Paolo Corsini:
complimenti x il sito, per le recenzioni, news e tutto il resto, io visito Hardware Upgrade ogni giorno e ne rimango sempre più affascinato dalla quantità e qualità di notizie che fornite, continuate così!
leccatina..:asd:
scherzo ;)
Crysis90
02-05-2007, 17:23
Rispondo a "sirus":
quello è il modello di una 2900, anche io l'avevo notato, resta da stabilire se ce l'hanno già in redazione o se la foto viene da altrove...
mi sa tanto di AMD/ATi Radeon HD 2900XT. ;)
Da notare le dimensioni, poco più lunga della ATi Radeon X1950XTX e direi più corta della NVIDIA Geforce 8800GTX/Ultra. :p
è lei ;)
Rispondo a "sirus":
quello è il modello di una 2900, anche io l'avevo notato, resta da stabilire se ce l'hanno già in redazione o se la foto viene da altrove...
è in redazione e la stanno testando.
[KS]Zanna
02-05-2007, 17:37
Molto probabilmente quindi la prossima mossa di Nvidia sarà il ribasso di prezzo della GTX.
Visto che siamo nel campo delle speculazioni, perchè non prendere anche in considerazione il fatto che:
1) ATi e nVidia sanno perfettamente il valore del prodotto top dell'avversario, non hanno bisogno di aspettare la rece di HWUP :-)
2) Se nVidia avesse fatto uscire la 8800 ultra per timore della HD2900XT l'avrebbe posizionata come fascia di prezzo al posto della GTX, non a 700 euro
3) Se sarà confermato l'andamento medio previsto dai bench usciti da 1 settimana a questa parte (e sottolineo se) nVidia potrebbe permettersi di non adeguare i prezzi della GTX ma (forse) solo quelli della GTS
è lei ;)
Tanto per farci schiattare ancora di più, poi magari Corsini tra qualche post se ne esce con una frase "son svariate sere che ci gioco e la testo" :D :sofico:
Zanna;16962474']In stalker, per testare con l'AA attivato, avete impostato il path Dx8?
Da quello che sapevo io con il Full Dynamic Lighting era impossibile attivare il filtraggio anti aliasing, essendo un rendering di tipo deferred shading
A giudicare dallo screen nella rece, direi che AA non è affatto abilitato, come è ovvio dal momento che il deferred shading lo rende impossibile (e dubito fortemente che abbiano usato l'illuminazione statica): è comunque impressionante quanto sia evidente l'effetto aliasing anche a risoluzioni così mostruose (basta guardare i pali della luce) ...
A tal proposito vorrei anche io risposta alla domanda di [KS]Zanna
Performance dx10? Quando ci sarà un numero congruo di giochi Direct10, staremo parlando già della seconda generazione di schede, o shrink, previsti verso la fine dell'anno, che faranno diventare di colpo "vecchie" le attuali G80 e R600.
Le schede top attuali devono andare bene per quello che c'è oggi in commercio, e non per quello che uscirà domani.
D'altronde è molto facile dire che una scheda è lenta con le DirectX9 ma è veloce con le Direct10 o che i driver non sono maturi: troppo comodo :-)
Non smetterò mai di ringraziare la redazione per l'adozione di test che mettano in risalto anche i frame rates minimo ove consentito (fondamentali soprattutto in giochi prettamente online come bf2).
Per quanto riguarda la scheda, che dire... i test si commentano da soli, se uno vuole il top, questo è il top (per il momento).
Confermato anche il fatto che è questo il vero G80.
Come era già successo con le 7800, nvidia adotta una politica perfetta (per loro, non per noi purtroppo :D ) e presenta prima un modello con freq operative conservative per tenersi l'asso nella manica da giocare quando la concorrenza si fa più agguerrita. Se si trattasse di una GTX semplicemente overcloccata, ci saremmo sognati qualsiasi ulteriore overclock.
Un ultima domanda riguarda la freq degli stream processors... mi era stato detto che overcloccando il core della GTX avrei anche aumentato proporzionalmente la freq degli sp. Dalle conclusioni della vostra recensione sembra di no :wtf: ... confermate :fagiano: ?
halduemilauno
02-05-2007, 17:45
Non smetterò mai di ringraziare la redazione per l'adozione di test che mettano in risalto anche i frame rates minimo ove consentito (fondamentali soprattutto in giochi prettamente online come bf2).
Per quanto riguarda la scheda, che dire... i test si commentano da soli, se uno vuole il top, questo è il top (per il momento).
Confermato anche il fatto che è questo il vero G80.
Come era già successo con le 7800, nvidia adotta una politica perfetta (per loro, non per noi purtroppo :D ) e presenta prima un modello con freq operative conservative per tenersi l'asso nella manica da giocare quando la concorrenza si fa più agguerrita. Se si trattasse di una GTX semplicemente overcloccata, ci saremmo sognati qualsiasi ulteriore overclock.
Un ultima domanda riguarda la freq degli stream processors... mi era stato detto che overcloccando il core della GTX avrei anche aumentato proporzionalmente la freq degli sp. Dalle conclusioni della vostra recensione sembra di no :wtf: ... confermate :fagiano: ?
ho fatto io quella domanda e il Corsini ha confermato.
;)
Paolo Corsini
02-05-2007, 17:47
Se così anche fosse (XT inferiore a GTX in dx9), bisognerebbe considerare le performance dx10, che sono un'api completamente nuova (non di certo la differenza che c'è tra 9b e 9c ;) ).
Osservazione più che corretta, ma d'altro canto non vi sono applicazioni DirectX 10 accessibili al momento attuale. Salvo una, che abbiamo in redazione ma che purtroppo funziona solo con un'architettura di GPU per un limite dello sviluppatore.
Leggo in questi giorni molte speculazioni dello stile
"la scheda XYZ è più veloce in DirectX 9, ma in DirectX 10 la concorrente HWD andrà più veloce"
Su quali basi, non essendoci applicazioni disponibili, mi sfugge; mai prendere per oro colato affermazioni di questo tipo, in quanto con un po' di ragionamento si capisce che mancano le basi per farle. Ovviamente se ad affermare queste cose è una o l'altra azienda, a maggior ragione bisogna scartare.
bladerunner86
02-05-2007, 17:49
scusami corsini per 500 euro mi vendi la 2900xt ( visto che la stai già usando):D :D :D :D :D :D :D :D :D :D :D .
ps pago in anticipo e con bonifico
[KS]Zanna
02-05-2007, 17:53
edit
ho mischiato un po' troppi thread, pardon
nikkolla
02-05-2007, 17:58
gli shader nelle 8800gtx si alzano intervenendo mediante riscrittura del bios dopo averlo modificato con nibitor 3.3 o versione superiore e 600mhz il core 1400 gli shader e 1900 mhz le ram penso li tenga qualsiasi 8800gtx.
Detto questo la 8800ultra = operazione di mercato per continuare a vendere 8800gtx occate ,rinominate a 600-700 euro e contemporaneamente far sparire dal mercato le 8800gtx che come tradizione nvidia scenderanno di prezzo ma diventeranno difficilmente trovabili ,visto che a sto punto credo usciranno di produzione ,perchè se vi rimane dovrebbero venderla sui 400 euri (stanno sui 480 adesso)e chi andrebbe a spendere 200 o passa euro in + x un 10% di prestazioni della ultra ?
che dire almeno ci si aspettava più stream processors rispetto ai 128 della 8800gtx .
Da come assomiglia alla 8800gtx mi viene da chiedermi se non sia impossibile infilare il bios della 8800ultra in una 8800gtx o meglio ancora quello di una 8800gtx in una 8800ultra .Guarda chi avesse hardware da sprecare dovrebbe farla sta prova .Sarebbe bello vedere se sia possibile uno sli con una 8800gtx e una 8800ultra moddata a gtx
ho fatto io quella domanda e il Corsini ha confermato.
;)
Grazie, non avevo avuto tempo di leggere tutti i commenti :D
gli shader nelle 8800gtx si alzano intervenendo mediante riscrittura del bios dopo averlo modificato con nibitor 3.3 o versione superiore e 600mhz il core 1400 gli shader e 1900 mhz le ram penso li tenga qualsiasi 8800gtx.
Detto questo la 8800ultra = operazione di mercato per continuare a vendere 8800gtx occate ,rinominate a 600-700 euro e contemporaneamente far sparire dal mercato le 8800gtx che come tradizione nvidia scenderanno di prezzo ma diventeranno difficilmente trovabili ,visto che a sto punto credo usciranno di produzione ,perchè se vi rimane dovrebbero venderla sui 400 euri (stanno sui 480 adesso)e chi andrebbe a spendere 200 o passa euro in + x un 10% di prestazioni della ultra ?
che dire almeno ci si aspettava più stream processors rispetto ai 128 della 8800gtx .
Da come assomiglia alla 8800gtx mi viene da chiedermi se non sia impossibile infilare il bios della 8800ultra in una 8800gtx o meglio ancora quello di una 8800gtx in una 8800ultra .Guarda chi avesse hardware da sprecare dovrebbe farla sta prova .Sarebbe bello vedere se sia possibile uno sli con una 8800gtx e una 8800ultra moddata a gtx
Grazie della precisazione su nbitor.
Non mi è chiaro il discorso che fai sulla presunta introvabilità futura delle GTX. Perchè dovrebbero venderle a 400 € ??? Questa loro politica di aumento "frenato" delle prestazioni di ULTRA su GTX gli consente appunto di non abbassare il prezzo di quest ultima.
sta scheda puzza di 7800 ultra. cioè inutile il passaggio dalla dalla gtx. Meglio aspettare una versione con più shader.
- driver NVIDIA Forceware 158.18
Stalker è stato patchato.
ma il discorso che l'aa non funziona anche forzato via driver , è stato risolto ?
jacky2142
02-05-2007, 18:21
Volevo rispondere a "bernh": se fossi in te non sarei tanto sicuro delle potenzialità delle nuove Radeon, visita questi link, leggi bene l'articolo, osserva i dati dei benchmark e poi dimmi che ne pensi:
http://www.atizone.it/news/reader.php?objid=4884
Sei un Boccalone:eek: !!!
Come puoi credere a queste cazzate, non ti sei accorto che ti stanno fregando, poi c'è scritto che la 8800 con cui hanno fatto i benchmark è overclockata!Impara a leggere prima di sputare sentenze:read: :doh:
BountyKiller
02-05-2007, 18:22
esistono già guide alle modifiche hardware per trasformare una 8800 gts in una gtx?
Crysis90
02-05-2007, 18:23
Sei un Boccalone:eek: !!!
Come puoi credere a queste cazzate, non ti sei accorto che ti stanno fregando, poi c'è scritto che la 8800 con cui hanno fatto i benchmark è overclockata!Imara a leggere prima di sputare sentenze:read: :doh:
Stà muto!
Pancho Villa
02-05-2007, 18:24
@ Paolo Corsini
Una domanda sul test dei consumi. Mi pare che li effettuate con una pinza amperometrica (questa è la metodologia che utilizzate da tempo, mi pare) ma poi che formula usate per calcolare il consumo? Il cos fi? E quanto tempo tenete il sistema in idle o full per poter valutare il consumo medio che poi riportate nella rece? Grazie mille e complimenti per la rece
esistono già guide alle modifiche hardware per trasformare una 8800 gts in una gtx?
non è possibile
leoneazzurro
02-05-2007, 18:27
Hmm... stavo notando che nei test di HL2: Episode1 la Ultra ha un vantaggio rispetto alla GTX che va dal 20% (a 1280x1024) al 40% (a 2560x1600). Mi pare un pò strano, dato che il core ha un clock maggiore del 7%, gli stream processors dell'11% e le memorie del 20%. Una crescita superlineare, insomma. :mbe: Gli altri test invece sembrano essere abbastanza in linea con le aspettative.
leoneazzurro
02-05-2007, 18:28
jacky e crysis, state buoni, mi raccomando.
halduemilauno
02-05-2007, 18:28
esistono già guide alle modifiche hardware per trasformare una 8800 gts in una gtx?
più che di hardware modifiche di portafoglio.
;)
Paolo Corsini
02-05-2007, 18:28
Hmm... stavo notando che nei test di HL2: Episode1 la Ultra ha un vantaggio rispetto alla GTX che va dal 20% (a 1280x1024) al 40% (a 2560x1600). Mi pare un pò strano, dato che il core ha un clock maggiore del 7%, gli stream processors dell'11% e le memorie del 20%. Una crescita superlineare, insomma. :mbe: Gli altri test invece sembrano essere abbastanza in linea con le aspettative.
Confermo, solo con HDR comunque: abbiamo rieseguito varie volte i test per conferma, quei valori ci quadrano.
Sospetto si tratti di una situazione limite dove si è sempre limitati sia dal clock degli stream processors, che dalla bandwidth della memoria e dalla frequenza della GPU.
leoneazzurro
02-05-2007, 18:32
Thanks :)
Free Gordon
02-05-2007, 18:42
Performance dx10? Quando ci sarà un numero congruo di giochi Direct10, staremo parlando già della seconda generazione di schede, o shrink, previsti verso la fine dell'anno, che faranno diventare di colpo "vecchie" le attuali G80 e R600.
Le schede top attuali devono andare bene per quello che c'è oggi in commercio, e non per quello che uscirà domani.
D'altronde è molto facile dire che una scheda è lenta con le DirectX9 ma è veloce con le Direct10 o che i driver non sono maturi: troppo comodo :-)
Più che comodo, direi sensato. :)
Io farei dei bench con G70 e R5x0 ancora a fine 2007 e oltre, per vedere l'effettiva longevità/validità delle varie architetture. Così come li farei ancora oggi con R420 e NV40...ma purtroppo questa cosa sembra essere ormai tabù. :mad:
Daccordo che nel mondo attuale è tutto "usa e getta" ma non mi pare che giudicare una scheda video in un singolo round up sia molto "intelligente" eh :D
A maggior ragione quando, come oggi, ci troviamo vicini ad una vera e propria rivoluzione nelle API di sviluppo, direi che diviene quasi indispensabile fare la prova del 9. ^_^
Cmq ognuno la pensi come vuole.
Dandrake
02-05-2007, 18:43
:o mostruoso! Una scheda che costa così tanto e che consuma così tanto non la comprerei nemmeno se mi pagassero la bolletta per un anno (e sai che spot ci verrebbe fuori o magari una bella televendita da MediaSh****ng? "Compra anche tu la scheda video dei tuoi sogni! Compra una 8800 Ultra! Con comode rate a 0 interessi e rimborso ENEL per un anno intero! Approfitta di questa fantastica occasione!" :D
:o mostruoso! Una scheda che costa così tanto e che consuma così tanto non la comprerei nemmeno se mi pagassero la bolletta per un anno (e sai che spot ci verrebbe fuori o magari una bella televendita da MediaSh****ng? "Compra anche tu la scheda video dei tuoi sogni! Compra una 8800 Ultra! Con comode rate a 0 interessi e rimborso ENEL per un anno intero! Approfitta di questa fantastica occasione!" :D
aspeta a vedere i consumi delle x2900xt... poi ne riparliamo ;)
ma una curiosita...se x2900xtx e' stata cancelata a casa amd ati rimane come top la x2900xt... con che scheda sara confrontata?
con la gts? che tende a diventare la media di nvidia?
con la gtx che non sara la top?
con la ultra che non e' manco essa la top?
opurre con la 8950gx2 che da quello che si sente sara il top di nvidia?
perche se cosi la vedo a sto punto molto nera per ati amd....
speriamo in un miracolo in fascia media.:stordita:
Free Gordon
02-05-2007, 18:59
Hmm... stavo notando che nei test di HL2: Episode1 la Ultra ha un vantaggio rispetto alla GTX che va dal 20% (a 1280x1024) al 40% (a 2560x1600). Mi pare un pò strano, dato che il core ha un clock maggiore del 7%, gli stream processors dell'11% e le memorie del 20%. Una crescita superlineare, insomma. :mbe: Gli altri test invece sembrano essere abbastanza in linea con le aspettative.
L'impressione che ho avuto io (correggimi se sbaglio) da questi test, è che la 8800GTX sia abbastanza bandwith limited con i giochi attuali.
Il suo forte reparto di texturing richiede un'apporto in GB/s più sostanzioso che solo le frequenze mem maggiorate della Ultra possono dare.
E' probabile che l'incremento più sostanzioso (quello sulla memoria), sia quello che dona i benefici maggiori.
37mhz sul core non riesco a credere che portino tutti questi benefici.. infatti l'OC a 650 non migliora granchè la situazione.
Imho l'impossibilità di scalare ancora in frequenza con le DDR3, indurrà sicuramente nVidia a riprogettare il memory controller nelle future versioni dei suoi chip. Non credo che userà mai un crossbar, con 512bit di ampiezza.
aspeta a vedere i consumi delle x2900xt... poi ne riparliamo ;)
ma una curiosita...se x2900xtx e' stata cancelata a casa amd ati rimane come top la x2900xt... con che scheda sara confrontata?
con la gts? che tende a diventare la media di nvidia?
con la gtx che non sara la top?
con la ultra che non e' manco essa la top?
opurre con la 8950gx2 che da quello che si sente sara il top di nvidia?
perche se cosi la vedo a sto punto molto nera per ati amd....
speriamo in un miracolo in fascia media.:stordita:
Secondo me le schede vanno confrontate per fascia di prezzo. Non si può paragonare la x2900xt a 400€ con una GTX da 500 o una ultra da 700.
Poco conta se la x2900xt è la più veloce di casa ATI, se il prezzo è così basso va confrontato con le GTS overcloccate che hanno piu o meno lo stesso prezzo.
è vero in confronto alla mia è un mostro, però sinceramente mi aspettavo:
1) un prezzo un po' più basso, azzo 600€ CONSIGLIATO, cioè nn è mica oro, anche xkè nn è che ci sia una mostruosità di presazioni dalla gtx alla ultra, cioè se fossero uno il G70 e l'altro il G80, ok daccordo, ma nn è così
2) le prestazioni mi hanno deluso, certo è vero è potente ma mi aspettavo di più, tipo 7800gtx 7900, poi...
cmq io rimango fedelke ad ATI finkè nn mi arriva da questo sito una smentita colossale, ma nn credo che sarà così, anzi mi sa che si rifarà un repeat del Nvidia 7900 e Ati1900.
Dreammachine
02-05-2007, 19:08
In un negozio on line è prenotabile a 600 euro...
Non si può paragonare la x2900xt a 400€ con una GTX da 500 o una ultra da 700. ma cosa sti dicendo:mad: !!! cioè nn è assolutamente detto, il fatto del prezzo sta nel marketing, nella serietà delle aziente e sul lucro.
ES: secondo me il QX6800 nn vale 1200€, forse la metà, invece il 6200x2, vale quel prezzo, (qui si vede la serietà di una azienda, e di quanto ci vuole spennare per un qualcosa che fra 2/3 mesi sarà già vecchio)
e poi cmq aspettiamo i test UFFICIALI prima di dire se è o no all'altezza
Osservazione più che corretta, ma d'altro canto non vi sono applicazioni DirectX 10 accessibili al momento attuale. Salvo una, che abbiamo in redazione ma che purtroppo funziona solo con un'architettura di GPU per un limite dello sviluppatore.
si tratta di Call of Juarez?
allego un'immagine di un presunto test che è stato fatto con esso e che inspiegabilmente con la 8800GTS non è stato possibile effettuare
http://img75.imageshack.us/img75/9444/004ke8.jpg
puoi rispondermi?
Cavolo, appena visti i test di HL2 sono rimasto basito:eek:
Poi visti gli altri e' tornato tutto alla anorma, migliorie del 5-13%, ma ad un costo eccessivo.
La 8800gtx la si prende gia' a meno di 500€, come rapporto prezzo/prestazione, meglio questa overclokkata un pochetto.
MA DELLA 8950 NIENTE? Erano solo voci di corridoio?
O, viste le prestazioni inferiori di x2900, nvidia se la prende comoda per presentarla piu' avanti, cosi' da non intralciare la ultra e poterla piazzare sui 700-800€?
Novita' nei nuovi driver nvidia? appare ancora il nome 8950?
Attendiamo una prossima comparazione con X2900 e soprattutto i primi test DX10 ( chi ha parlato di crysis?:stordita: )
Apix_1024
02-05-2007, 19:24
96gradi di full??? ma sono rimbabiti??? mi si scioglie la finestra in plexi del case con schede video del genere!!! non ci siamo proprio per me! qui hanno perso il lume della ragione. :muro: :muro: :muro:
ma una curiosita...se x2900xtx e' stata cancelata
ma da quando la HD2900 XTX è stata cancellata? cioè ne ho sentite tutte, da i test fattti con.... a chi diceva che consumava troppo (ma analizzava la foto di un prototipo) ma nn sapevo di questo, davvero?
ma da quando la HD2900 XTX è stata cancellata? cioè ne ho sentite tutte, da i test fattti con.... a chi diceva che consumava troppo (ma analizzava la foto di un prototipo) ma nn sapevo di questo, davvero?
i rumors parlano così, e anche i fanboy e quelli in malafede :asd:
non ci tocca che aspettare, imho, di per certo ci saranno le versioni GDDR4 della HD2xxx series, sia in fascia alta che in fascia media :)
96gradi di full??? ma sono rimbabiti??? mi si scioglie la finestra in plexi del case con schede video del genere!!! non ci siamo proprio per me! qui hanno perso il lume della ragione. :muro: :muro: :muro:
non vedo il problema, sono schede progettate per queste temperature
non vedo il problema, sono schede progettate per queste temperature
esatto, anche se siamo vicini al limite
681mln di transistor a 96° :eek:
piccolo ot...per temperature esagerate conosco un tipo che con la sua X800GTO con dissi artic cooling gli si è bloccata la ventola mentre giocava e uscito dal gioco ha visto segnati 123° di temperatura GPU :asd: :eek:
dopo aver sistemato la ventola la GPU è tornata a funzionare tranquillamente :D
incredibile :D
...fine ot
i rumors parlano così, e anche i fanboy e quelli in malafede :asd:
non ci tocca che aspettare, imho, di per certo ci saranno le versioni GDDR4 della HD2xxx series, sia in fascia alta che in fascia media :)
un'altra cosa da aggiungere, nella foto dell'articolo appare solo una vga "sconosciuta"
Apix_1024
02-05-2007, 19:31
non vedo il problema, sono schede progettate per queste temperature
be io dico che si è un tantino oltre il limite ragionevole... in estate con un pc al top serve un condizionatore a balla per poter giocare... a me non sembra poi così giusto... tutto imho ovviamente..;)
i rumors parlano così, e anche i fanboy e quelli in malafede :asd: :cry: bo spero di no :cry: si cmq per sapere tutto con sicurezza e certezza bisogna aspettare il 14
un'altra cosa da aggiungere, nella foto dell'articolo appare solo una vga "sconosciuta"
è la HD2900XT quella :)
ma da quando la HD2900 XTX è stata cancellata? cioè ne ho sentite tutte, da i test fattti con.... a chi diceva che consumava troppo (ma analizzava la foto di un prototipo) ma nn sapevo di questo, davvero?
beh ovvio che non sono certo.ho fatto un ipotesi su un altra ipotesi...
nzoma pocche certezze.
;)
è la HD2900XT quella :)
ammesso che sia così, è una sola scheda, probabilmente se ne avessero avute due versioni le avrebbero messe entrambe...
be io dico che si è un tantino oltre il limite ragionevole... in estate con un pc al top serve un condizionatore a balla per poter giocare... a me non sembra poi così giusto... tutto imho ovviamente..;)
il punto è che il limite ragionevole in base a cosa lo stabilisci?
Immagino che dopo svariati anni di progettazione e sviluppo di vga alla nvidia (e direi anche l'ati perchè le x1900/1950 fanno praticamente 90°C) abbiano esperienza a sufficienza per stabilire se una temperatura sia eccessiva o meno.
si tratta di Call of Juarez?
allego un'immagine di un presunto test che è stato fatto con esso e che inspiegabilmente con la 8800GTS non è stato possibile effettuare
http://img75.imageshack.us/img75/9444/004ke8.jpg
cioè:eek: allora:eek: daccordo mettiamo solo per un secondo che la 2900xt sia migliore della 8800gts (anche se nn si sa ma ipototiziamolo), ma cmq nn puo esserlo di così tanto
Piccolo ot. per i recensori:
Come avete fatto a far funzionare Stalker in dirx 9 con i filtri visto che nn vanno?
ahahah mi sembra fallito ATI va rovina in AMD!!!
Forza Nvidia sempre testa in dominia!!! :yeah:
ahahah mi sembra fallito ATI va rovina in AMD!!!
Forza Nvidia sempre testa in dominia!!! :yeah:
:sbonk: :sbonk: :sbonk:
RICKYL74
02-05-2007, 20:00
mah!! versione ultra?? consumi troppo alti, le temperature mostrate nel test azzarola se so alte, un pò rumorosa, ummh.. io personalmente preferisco la versione GTX magari con un pò di overclock va più che bene, anzi BENISSIMO!! :D
..per esempio la BFG 8800GTX overclock si tira a 650-2200 (calore e rumore a parte )
anche se io sono dell'idea che sti mostri 3D non serve ad un H overclokkarli, il beneficio e pochino direi, quindi che sia ATI o nVidia le nuove Dx10 sono mostruose.. :stordita: accattatevilleeeee !!! :asd:
I costruttori secondo me dovrebberò orientarsi nel produrre schede video si sempre più potenti ..E' OVVIO, ma: di dimensioni più ridotte
che se si continua così tra un pò faranno schede video con case integrato ..poi che consumino moOolto meno, che scaldino meno allegerendo le nostre orecchie e far fiatare i nostri case, non che i nostri portafogli!! che ci costringano a comprare alimentatori meno potenti "non come ora che con queste schede come minimo devi montare un 600watt" io per esempio monto un OCZ GameXtream 700watt :doh:
sento parlare di 1000 addirittura 2000Watt (capisco i sistemi SLI però lasciatemelo dire E' ASSURDO) ..speriamo che la strada sia quella di ottenere dei prodotti finali con consumi, calore, rumorisità, dimensioni, più contenuti perchè da colossi come ATI e nVidia mi aspetto anche e soprattutto questo.
saluti a tutti :)
leoneazzurro
02-05-2007, 20:01
ahahah mi sembra fallito ATI va rovina in AMD!!!
Forza Nvidia sempre testa in dominia!!! :yeah:
I post "da stadio" non sono ammessi. Ammonito.
cioè:eek: allora:eek: daccordo mettiamo solo per un secondo che la 2900xt sia migliore della 8800gts (anche se nn si sa ma ipototiziamolo), ma cmq nn puo esserlo di così tanto
E' evidente che quel test non gira sulle 8800 (magari è stato presentato da ATI a Tunisi solo per sboroneggiare sulla "presunta" superiorità della propria tecnologia DX10 rispetto a nVidia, ed è stato scritto e sviluppato apposta per la HD2900XT). Sempre ammesso che sia vero, non gli si deve dare alcun peso ;)
guarda, io credo che tra un annetto quando usciranno che i 45Nm, avremo mostri che consumano e scaldano meno, o prelomeno ci spero proprio tanto
Turbominchia
02-05-2007, 20:11
ma allora sta frequenza dei stream processor si può cambiare o no?!?!?
E' evidente che quel test non gira sulle 8800 (magari è stato presentato da ATI a Tunisi solo per sboroneggiare sulla "presunta" superiorità della propria tecnologia DX10 rispetto a nVidia, ed è stato scritto e sviluppato apposta per la HD2900XT). Sempre ammesso che sia vero, non gli si deve dare alcun peso ;) be era ovvio che nn ci davo peso, cmq sinceramente nn credo che al giorno d'oggi Nvidia e Ati o Amd e Intel facciano questo, cioè se salta fuori la veritè ci fanno una figura di...:ciapet:
ma allora sta frequenza dei stream processor si può cambiare o no?!?!?
overcloccando la GPU si overclocca automaticamente la frequenza degli shader, non puoi farlo separatamente ;)
RICKYL74
02-05-2007, 20:43
guarda, io credo che tra un annetto quando usciranno che i 45Nm, avremo mostri che consumano e scaldano meno, o prelomeno ci spero proprio tanto
Spero sia così, ma ne dubito perchè se tanto mi da tanto, mi sa che portando il processo a 45nm porterà inesorabilmente ad aumenti di frequenza quindi non mi meraviglierà vedere delle schede video con GPU a 2Ghz e più, 2Gb di DDR4 a più di 3Ghz :sbav:
Poi se vogliamo esagerare: Audio 5.1 integrato, processorino per la fisica, ..e poi? ..non lo so, ma sognare costa poco, no!! :p
........consumeranno meno? :nono:
I post "da stadio" non sono ammessi. Ammonito.
eheheh ma tu vai compri scheda madre chip Intel nforce 680 o AMD nforce 590 è figissimo!!! per sempre nvidia!!! :D
2 conti:
2*8800 ultra+
1*qx6800+
4gb ddr2 1250+
4*scsi mau 74gb...
sbav...
ali da 1200w....
sigh
Pancho Villa
02-05-2007, 21:16
@ Paolo Corsini
Una domanda sul test dei consumi. Mi pare che li effettuate con una pinza amperometrica (questa è la metodologia che utilizzate da tempo, mi pare) ma poi che formula usate per calcolare il consumo? Il cos fi? E quanto tempo tenete il sistema in idle o full per poter valutare il consumo medio che poi riportate nella rece? Grazie mille e complimenti per la receup :help:
ohmaigod
02-05-2007, 21:52
2 conti:
2*8800 ultra+
1*qx6800+
4gb ddr2 1250+
4*scsi mau 74gb...
sbav...
ali da 1200w....
sigh
1200w??
anche meno
spero :D
ma allora sta frequenza dei stream processor si può cambiare o no?!?!?
una domanda per Paolo Corsini.
sei sicuro che le gtx hanno la frequenza degli shader bloccata anche se si oc a 1350 e lo stesso per le gtx oc dalle varie case? perchè pare che con rivatuner lo shader clock aumenti all'aumentare della frequenza del core.
se per favore ci levi questo dubbio.
Grazie. ottima rece.
;)
Si, sono sempre bloccate alle impostazioni di default; lo stesso vale per le GeForce 8800 Ultra OC i cui comunicati stampa stanno apparendo in queste ore.
gli shader nelle 8800gtx si alzano intervenendo mediante riscrittura del bios dopo averlo modificato con nibitor 3.3 o versione superiore e 600mhz il core 1400 gli shader e 1900 mhz le ram penso li tenga qualsiasi 8800gtx...
;)
ma cosa sti dicendo:mad: !!! cioè nn è assolutamente detto, il fatto del prezzo sta nel marketing, nella serietà delle aziente e sul lucro.
ES: secondo me il QX6800 nn vale 1200€, forse la metà, invece il 6200x2, vale quel prezzo, (qui si vede la serietà di una azienda, e di quanto ci vuole spennare per un qualcosa che fra 2/3 mesi sarà già vecchio)
e poi cmq aspettiamo i test UFFICIALI prima di dire se è o no all'altezza
...non direi, almeno nell'ottica di un acquisto. Nel momento di un eventuale scelta tra due cpu, ti poni un budget e scegli quella migliore in quella fascia di prezzo.
Se il QX6800 costa € 1200, allora va paragonato al processore AMD che costa + o - uguale, e cioè il quad father o come si chiama.
Se ipoteticamente amd non avesse una soluzione ad un prezzo analogo, non ci sarebbe confronto.
Apix_1024
02-05-2007, 23:04
il punto è che il limite ragionevole in base a cosa lo stabilisci?
Immagino che dopo svariati anni di progettazione e sviluppo di vga alla nvidia (e direi anche l'ati perchè le x1900/1950 fanno praticamente 90°C) abbiano esperienza a sufficienza per stabilire se una temperatura sia eccessiva o meno.
ovviamente il limite tecnologico si spingerà sempre oltre ma il limite che io concedo è quello dei 70°C di core sotto sforzo! oltre è veramente folle! una vga che arrivi a 100°C tanto vale usarla per farsi due uova al tegamino intanto che gioco no? poi ognuno la vede e pensa come vuole ma avere una fonte di calore a 100°C che irraggia dal case non è bello imho (visto che l'80% della sensazione del caldo corporeo viene da irraggiamento)...
una scheda del genere va bene per i pc che devono lavorare nell'artico e che hanno problemi di cold bug:bsod: :bsod:
ovviamente il limite tecnologico si spingerà sempre oltre ma il limite che io concedo è quello dei 70°C di core sotto sforzo! oltre è veramente folle! una vga che arrivi a 100°C tanto vale usarla per farsi due uova al tegamino intanto che gioco no? poi ognuno la vede e pensa come vuole ma avere una fonte di calore a 100°C che irraggia dal case non è bello imho (visto che l'80% della sensazione del caldo corporeo viene da irraggiamento)...
una scheda del genere va bene per i pc che devono lavorare nell'artico e che hanno problemi di cold bug:bsod: :bsod:
te lo ripeto, su quali basi tu lo "concedi"? a parte che i 70°C già 4 generazione li abbiamo passati...
una volta era inconcepibile dover usare una ventolina per raffreddare una cpu, ora è improponibile il contrario...
Apix_1024
02-05-2007, 23:31
te lo ripeto, su quali basi tu lo "concedi"? a parte che i 70°C già 4 generazione li abbiamo passati...
una volta era inconcepibile dover usare una ventolina per raffreddare una cpu, ora è improponibile il contrario...
lo concedo io nel senso che se ho una vga che scalda così tanto o ci monto un elicottero o il liquido... cmq la mia x1900gt a default stava a 75°C con il dissi originale mentre con la ventola al 100% stava sotto... quindi generazione scorsa rientrava ancora al limite nei miei canoni... ma torno a ripetere che non è che me ne freghi più d tanto... ora come ora le dx10 sono uno sfizio senza il vero campo di applicazione/utilizzo quindi per me restano solo delle vga da numeroni fini a se stessi... la x1900gt finchè non morirà starà nel mio case e pace!:D
cmq non è che si possano obbligare a fare vga fredde ovvio però un utente come me le preferisce di gran lunga... nvidia aveva fatto un gran lavoro sulla serie 7 per consumi e quindi temp... magari tra qualche mese inizia a ragionare anche per la serie 8:p
nikkolla
03-05-2007, 00:06
bfg 8800gtx OC2 core 626 mhz shader 1450
asus aquatank core 630mhz shader 1350.
a me pare che i shader si overcloccano indipendentemente dal core e l'unica x alzarli è il flash bios poi.,
sulle temperature io senza condizionatore dove sta il pc,d'estate nisba gioco.
sulla ultra .su geizhals.at/eu ci sono già in prevendita a partire da 699
Alessandro Bordin
03-05-2007, 00:40
Originariamente inviato da Pancho Villa
@ Paolo Corsini
Una domanda sul test dei consumi. Mi pare che li effettuate con una pinza amperometrica (questa è la metodologia che utilizzate da tempo, mi pare) ma poi che formula usate per calcolare il consumo? Il cos fi? E quanto tempo tenete il sistema in idle o full per poter valutare il consumo medio che poi riportate nella rece? Grazie mille e complimenti per la rece
Ti rispondo io, che di fatto ho condotto tutti i test :p
Allora, il consumo del sistema completo lo misuriamo con una presa a muro che incorpora un misuratore, che fornisce diverse informazioni fra cui tensione e Watt in uscita. Il valore in Watt è quindi pronto per essere letto direttamente sullo strumento. Adesso non sono in ufficio, se vuoi domani ti faccio foto e ti dico il modello preciso. Ricordo solo che è un Lafayette.
Tempo in idle e full: leggo i Watt in idle dopo un tempo di circa 5 minuti a riposo, ma ti posso garantire che non cambia nulla anche dopo pochissimo tempo. Cosa diversa per la temperatura della GPU, poiché molte schede impiegano diverso tempo a tornare alla temperatura che hanno tipicamente "a riposo". Full: valgono le considerazioni fatte prima: in termini di puro consumo l'impennata dei valori è praticamente istantanea nel momento che fai partire le applicazioni utilizzate (Orthos per stressare la CPU e Shadermark per la GPU, condotta con Orthos in esecuzione come spiegato nell'articolo).
realista
03-05-2007, 00:44
oi speriamo che escano le gx2 ehehe poi sono cavoli per la hd 2900xt.... anche se due 8800 se ledo un po maluccio su due pbc... chisa che dissipazione ci vorra!ma non ho ancora capito bene una cosa... la qualita VISIVA delal serie 8 è ugiale dalla 8300alla 8800?.....ehe saro scemo io.. ma a me sta interessando l'acquisto per una 7900gx2... da non sottovalutare... perche butta ancora fuoco rispetto alla 8800gtx in diverse situazioni....
bonzuccio
03-05-2007, 00:51
..
sulle temperature io senza condizionatore dove sta il pc,d'estate nisba gioco.
:doh: :cool:
Ormai mi sono convinto anche io che si è passato il limite della decenza, 380W in full load sono troppi, se ci si aggiunge il consumo del monitor e peiiferiche aggiuntive d'estate bisogna per forza pagare il contributo per andare oltre i 3 Kw
^Krasty^
03-05-2007, 00:57
uno, secondo me la bellezza di Supreme Commander non ne giustifica la richiesta tanto enorme di risorse in termini di hardware. un potivo in + per preferire C&C3.
due, quanto mi dispiace per la Ati, se continuano così...:eek: :(
Samuele86
03-05-2007, 01:06
io dico ke è meglio attendere che escano ste ati/amd...e vedere un pò di cosa sono capaci...e poi prendere una decisione...non prima ma x chi ha fretta di smanettare e avere la scheda piu potente del momento beh...ke se la compri pure :D
RE DEI VIRUS
03-05-2007, 01:13
DA appassionato ati devo inchinarmi a queste fantastiche 8800........adesso il divario con Ati è imbarazzante
Andrex78
03-05-2007, 02:28
COME VOLEVASI DIMOSTRARE.....BASTA PRENDERE UNA 8800GTX,OVERCLOCCARLA.....E COME PER MAGIA...SI HA UNA 8800 ULTRA!!...E SENZA SPENDERE UN SOLO EURO!!...MA COME DICO SEMPRE IO...LA COLPA NON E' DI CHI LE PRODUCE...MA DI CHI LE COMPRA!!!...MEDITATE GENTE MEDITATE!!!
Questa scheda è per I TANTI tizi che ragionano: "più costa e più è veloce!" Una GTX overcloccata, raggiunge benissimo questa ultra, e costa molto meno.
Mossa di NVIDIA esclusivamente rinfrescante e non innovativa per la sua linea di prodotti.
Evidentemente non hai neanche letto le considerazioni finali della recensione. Una 8800GTX overcloccata a questi numeri non ci arriva.
COME VOLEVASI DIMOSTRARE.....BASTA PRENDERE UNA 8800GTX,OVERCLOCCARLA.....E COME PER MAGIA...SI HA UNA 8800 ULTRA!!...E SENZA SPENDERE UN SOLO EURO!!...MA COME DICO SEMPRE IO...LA COLPA NON E' DI CHI LE PRODUCE...MA DI CHI LE COMPRA!!!...MEDITATE GENTE MEDITATE!!!
Dalle considerazioni finali della recensione:
E' nostra convinzione però che, nonostante l'overclock spinto dell GPU, tale scheda non avrebbe raggiunto le prestazioni della GeForce 8800 Ultra. Quest'ultima, oltre a disporre di una frequenza di clock della memoria più elevata (2.160 MHz contro 2.000 MHz), vanta una frequenza operativa degli shader processor di ben 1.500 MHz, contro i 1.350 MHz della scheda 8800 GTX base e delle altre soluzioni sul mercato.
Come vedi c'è chi ha già meditato per te, basta leggere. :D :sofico:
Io vorrei fare una domanda alla redazione (Paolo, Alessandro o chi per loro...)
Nella vostra (bellissima) recensione avete utilizzato un fantastico Dell 3007WFP.... Bene... Mi domandavo come rimane la qualità di immagine a risoluzioni non native (risoluzioni inferiori)... Non ci azzecca niente con la recensione, però sono curioso... E' effettivamente usabile a risoluzioni come 1600x1200 e a 1280x1024?
Bravo, mi hai anticipato sulla domanda.. anche se mi aspetto già una risposta scoraggiante.
Ricordi la nostra vecchia discussione sulle risoluzioni non native (circa un anno e mezzo fa)? :(
lo concedo io nel senso che se ho una vga che scalda così tanto o ci monto un elicottero o il liquido... cmq la mia x1900gt a default stava a 75°C con il dissi originale mentre con la ventola al 100% stava sotto... quindi generazione scorsa rientrava ancora al limite nei miei canoni... ma torno a ripetere che non è che me ne freghi più d tanto... ora come ora le dx10 sono uno sfizio senza il vero campo di applicazione/utilizzo quindi per me restano solo delle vga da numeroni fini a se stessi... la x1900gt finchè non morirà starà nel mio case e pace!:D
cmq non è che si possano obbligare a fare vga fredde ovvio però un utente come me le preferisce di gran lunga... nvidia aveva fatto un gran lavoro sulla serie 7 per consumi e quindi temp... magari tra qualche mese inizia a ragionare anche per la serie 8:p
a parte che 75 > 70 e poi hai preso come esempio una scheda di fascia media, se vai con i topgamma davvero devi andare indietro di anni.
Non hai capito il mio ragionamento.
Se funziona e non da problemi, cosa ti cambia se fa 70°C o 95°C?
Speravo in qualcosa di più...evidentemente NVIDIA non sente la necessità di lanciare schede più rivoluzionarie.
Bravo, mi hai anticipato sulla domanda.. anche se mi aspetto già una risposta scoraggiante.
Ricordi la nostra vecchia discussione sulle risoluzioni non native (circa un anno e mezzo fa)? :(
Si, non mi ricordo i dettagli però :wtf:
Se la risposta alla mia domanda fosse negativa, significherebbe dover cambiare scheda top ad ogni generazione, visto che alla risoluzione nativa di questo monitor, ci si riesce a stare non piu' di qualche mese, con i nuovi titoli... :cry:
Si, non mi ricordo i dettagli però :wtf:
Se la risposta alla mia domanda fosse negativa, significherebbe dover cambiare scheda top ad ogni generazione, visto che alla risoluzione nativa di questo monitor, ci si riesce a stare non piu' di qualche mese, con i nuovi titoli... :cry:
Motivo per cui io viaggio ancora con un sony CRT real flat (G500) da 21''... un massacro incredibile ma di una qualità ecceziunale!... :p
Kharonte85
03-05-2007, 09:17
Motivo per cui io viaggio ancora con un sony CRT real flat (G500) da 21''... un massacro incredibile ma di una qualità ecceziunale!... :p
CRT
:ave: ;)
eheheh ma tu vai compri scheda madre chip Intel nforce 680 o AMD nforce 590 è figissimo!!! per sempre nvidia!!! :D
Quando un moderatore dice: "i post da stadio non sono ammessi" non sta dicendo "continua pure, non preoccuparti".
Sono 3 giorni di sospensione.
MadMax of Nine
03-05-2007, 09:36
Io vorrei fare una domanda alla redazione (Paolo, Alessandro o chi per loro...)
Nella vostra (bellissima) recensione avete utilizzato un fantastico Dell 3007WFP.... Bene... Mi domandavo come rimane la qualità di immagine a risoluzioni non native (risoluzioni inferiori)... Non ci azzecca niente con la recensione, però sono curioso... E' effettivamente usabile a risoluzioni come 1600x1200 e a 1280x1024?
OT
Dovrebbe essere che funzia solo a 2560x1600 oppure a 1920x 1200 e non ha risoluzioni intermedie ma non ti so dire nulla sulla qualità di immagine.
Fine OT
:D
Io vorrei fare una domanda alla redazione (Paolo, Alessandro o chi per loro...)
Nella vostra (bellissima) recensione avete utilizzato un fantastico Dell 3007WFP.... Bene... Mi domandavo come rimane la qualità di immagine a risoluzioni non native (risoluzioni inferiori)... Non ci azzecca niente con la recensione, però sono curioso... E' effettivamente usabile a risoluzioni come 1600x1200 e a 1280x1024?
Resolutions that don't correspond to the monitor's native resolution have to be interpolated. Most displays don’t offer any interpolation behavior options by themselves, e.g. via OSD. This goes for the Dell 3007WFP, too. The monitor interpolates all resolutions that don't match the native resolution to full screen. This results in stretched display of screen content; circles will appear oval for example. The only way one has left to configure the monitor' interpolation is via the driver menu of the graphics card.
Examples of resolution and aspect ratio:
* 2.560 x 1.600 -> 16:10 aspect ratio
* 1.600 x 1.200 -> 4:3 aspect ratio
* 1.280 x 1.024 -> 5:4 aspect ratio
We rate the Dell 3007WFP's interpolated image quality as very good, part of which can be thanked to the monitor's small pixel size of 0.250 mm. Interpolated images show only marginal loss in detail and focus.
;)
Apix_1024
03-05-2007, 09:45
a parte che 75 > 70 e poi hai preso come esempio una scheda di fascia media, se vai con i topgamma davvero devi andare indietro di anni.
Non hai capito il mio ragionamento.
Se funziona e non da problemi, cosa ti cambia se fa 70°C o 95°C?
ok ho preso un fascai medio-alta cmq avere il sensore vga a 95gradi diciamo che infastidisce il mio modo di vedere l'hardware! ripeto é una mia convinzione nulla di piú:D :D
Paolo Corsini
03-05-2007, 09:46
Io vorrei fare una domanda alla redazione (Paolo, Alessandro o chi per loro...)
Nella vostra (bellissima) recensione avete utilizzato un fantastico Dell 3007WFP.... Bene... Mi domandavo come rimane la qualità di immagine a risoluzioni non native (risoluzioni inferiori)... Non ci azzecca niente con la recensione, però sono curioso... E' effettivamente usabile a risoluzioni come 1600x1200 e a 1280x1024?
Premesso che lavorare in 2D a quella risoluzione è un'esperienza non facilmente descrivibile, a risoluzioni inferiori il display è utilizzabile in modo valido, anche se onestamente dopo aver provato a giocare a risoluzioni di 1920x1200 o 2560x1600 è molto difficile ritornare a giocare non in wide con risoluzioni inferiori, ovviamente potenza elaborativa della scheda permettendo.
Motivo per cui io viaggio ancora con un sony CRT real flat (G500) da 21''... un massacro incredibile ma di una qualità ecceziunale!... :p
Cavoli, ci credo... :eek:
Per curiosità, sai per caso quanto pesa una bestia del genere? :p
X Paolo e Wiltord:
Grazie mille per le chiarificazioni. Mi sembra di capire che la questione sia parecchio migliorata rispetto a tempo fa...
Cavoli, ci credo... :eek:
Per curiosità, sai per caso quanto pesa una bestia del genere? :p
32 Kg!!! :cry:
32 Kg!!! :cry:
:eek:
è il peso della qualità :O
:asd:
:eek:
è il peso della qualità :O
:asd:
Già, però con quello che si risparmia, hai voglia a comprarne di scrivanie... :sofico:
Ottima recensione, bellissima scheda.
Aspetto il completamento della gamma NVidia con le GX2 della famiglia 8xxx per valutare i livelli prestazionali ed eventualmente il prossimo acquisto.
Sulle leggende metropolitane su "r600 più veloce, r600 meno veloce" aspetto di vedere la recensione tra 2 settimane su questo sito, quando effettivamente l'hw sarà disponibile, tutti gli altri commenti da fanboy e non sono per me irrilevanti e fuori luogo.
Anche se la vedo dura per AMD/ATI di riuscire a produrre in tempi ragionevoli tutta la gamma bassa/medio/alta della nuova GPU, aspetterò la comparazione con dati "reali" prima di effettuare un prossimo acquisto, cosa che dovreste fare un po tutti prima di saltare a conclusioni basate su considerazioni campate in aria.
Ghiacciolo=ITA=
03-05-2007, 10:54
Certo che se avete provato ad overcloccare la 8800 Ultra potevate almeno fare lo sbattimento di inserire una 8800 GTX overcloccata nei test, per vedere quanto del guadagno proposto da nvidia per 200€ possa essere rosicato con un buon overclock della scheda precedente...
forse che la notizia deve essere per forza "88 Ultra vince comunque"?
E già che ci siamo:
E' VERAMENTE SCANDALOSO CHE NELLA PAGINA DI LOGIN AL VS SITO, COMPAIA UN POPUP PUBBLICITARIO PROPRIO NEL PUNTO E NEL MOMENTO ESATTO IN CUI SI PUNTA CON IL MOUSE IL PULSANTE DI INVIO DATI, COSTRINGENDO A VISITARE STA CAZZO DI PAGINA PUBBLICITARIA PER BEN DUE VOLTE!!!!
VERGOGNATEVI!!!!!!!
Osservazione più che corretta, ma d'altro canto non vi sono applicazioni DirectX 10 accessibili al momento attuale. Salvo una, che abbiamo in redazione ma che purtroppo funziona solo con un'architettura di GPU per un limite dello sviluppatore.
si tratta di Call of Juarez?
allego un'immagine di un presunto test che è stato fatto con esso e che inspiegabilmente con la 8800GTS non è stato possibile effettuare
http://img75.imageshack.us/img75/9444/004ke8.jpg
puoi rispondermi?
up :stordita:
- le rops sono degli algortimi per il disegno di texture su oggetti 3d, giusto.
quindi dire che una scheda video ha 16 rops cosa s'intende? che ha 16 algoritmi per disegnare textures?
sonopiccolino
03-05-2007, 11:23
ma .. ho capito che chi compra queste schede avrà anche monitor all'altezza..ma per uno come me che ha solo il 1280x1024 ?? qualche test in più?? credo che a risoluzioni come questa la povera 8800/320 non si sarebbe comportata cosi male..
Paolo Corsini
03-05-2007, 11:27
ma .. ho capito che chi compra queste schede avrà anche monitor all'altezza..ma per uno come me che ha solo il 1280x1024 ?? qualche test in più?? credo che a risoluzioni come questa la povera 8800/320 non si sarebbe comportata cosi male..
Tutti i test sono stati eseguiti anche alla risoluzione di 1280x1024; basta guardare i grafici più di 2 millisecondi per notare anche queste preziose informazioni ;)
Tutti i test sono stati eseguiti anche alla risoluzione di 1280x1024; basta guardare i grafici più di 2 millisecondi per notare anche queste preziose informazioni ;)
te lo chiedo inchinandomi :ave:
l'applicazione DX10 che avete, ma che funzione solo con un'architettura di GPU e non con l'altra è Call of Juarez con la nuova patch per le DX10?
Pancho Villa
03-05-2007, 12:56
Ti rispondo io, che di fatto ho condotto tutti i test :p
Allora, il consumo del sistema completo lo misuriamo con una presa a muro che incorpora un misuratore, che fornisce diverse informazioni fra cui tensione e Watt in uscita. Il valore in Watt è quindi pronto per essere letto direttamente sullo strumento. Adesso non sono in ufficio, se vuoi domani ti faccio foto e ti dico il modello preciso. Ricordo solo che è un Lafayette.
Tempo in idle e full: leggo i Watt in idle dopo un tempo di circa 5 minuti a riposo, ma ti posso garantire che non cambia nulla anche dopo pochissimo tempo. Cosa diversa per la temperatura della GPU, poiché molte schede impiegano diverso tempo a tornare alla temperatura che hanno tipicamente "a riposo". Full: valgono le considerazioni fatte prima: in termini di puro consumo l'impennata dei valori è praticamente istantanea nel momento che fai partire le applicazioni utilizzate (Orthos per stressare la CPU e Shadermark per la GPU, condotta con Orthos in esecuzione come spiegato nell'articolo).Grazie ;)
In effetti mi immaginavo che il consumo sale quasi istantaneamente con l'aumento del carico computazionale, questo permette di utilizzare Wattmetri che misurano la sola potenza istantanea, più semplici ed economici di quelli + "professionali". Diversamente la temperatura si stabilizza in tempi molto più lunghi.
Certo che se avete provato ad overcloccare la 8800 Ultra potevate almeno fare lo sbattimento di inserire una 8800 GTX overcloccata nei test, per vedere quanto del guadagno proposto da nvidia per 200€ possa essere rosicato con un buon overclock della scheda precedente...
forse che la notizia deve essere per forza "88 Ultra vince comunque"?
E già che ci siamo:
E' VERAMENTE SCANDALOSO CHE NELLA PAGINA DI LOGIN AL VS SITO, COMPAIA UN POPUP PUBBLICITARIO PROPRIO NEL PUNTO E NEL MOMENTO ESATTO IN CUI SI PUNTA CON IL MOUSE IL PULSANTE DI INVIO DATI, COSTRINGENDO A VISITARE STA CAZZO DI PAGINA PUBBLICITARIA PER BEN DUE VOLTE!!!!
VERGOGNATEVI!!!!!!!
Si chiama "errore involontario" ed una persona educata invierebbe un PVT educato o posterebbe educatamente nel thread messo a disposizione proprio per questo e dal titolo "segnalazione problemi".
Potrai sempre provarci tra 10 giorni, quando torni dalla sospensione.
Mmm...tra qualche settimana dovrei farmi il pc nuovo...inizialmente pensavo di abbinare ad un E6600 una 8800gtx,ma ora l'uscita di questa 8800 ultra mi lascia spiazzato...forse è meglio prender quest'ultima???(budget permettendo,naturalmente)
Le R600 e il k10 quando dovrebbero uscire??Le prestazioni che millantano(in quanto non ancora usciti si tratta di supposizioni...)valgono la pena dell'attesa??
Le R600 e il k10 quando dovrebbero uscire??Le prestazioni che millantano(in quanto non ancora usciti si tratta di supposizioni...)valgono la pena dell'attesa??
Se ti dicessi di si, non saremmo ancora nel campo delle supposizioni? E allora che lo chiedi a fare? :p
ohmaigod
03-05-2007, 15:26
http://www.hwupgrade.it/forum/showpost.php?p=16962256&postcount=49
bonzuccio
03-05-2007, 15:28
Mmm...tra qualche settimana dovrei farmi il pc nuovo...inizialmente pensavo di abbinare ad un E6600 una 8800gtx,ma ora l'uscita di questa 8800 ultra mi lascia spiazzato...forse è meglio prender quest'ultima???(budget permettendo,naturalmente)
Le R600 e il k10 quando dovrebbero uscire??Le prestazioni che millantano(in quanto non ancora usciti si tratta di supposizioni...)valgono la pena dell'attesa??
Se ti fai il pc domani e io dopo l'estate non è detto che avrò un pc che costa meno ed è più performante del tuo, sicuramente ne avrò uno che è più nuovo del tuo :P
Se ti fai il pc domani e io dopo l'estate non è detto che avrò un pc che costa meno ed è più performante del tuo, sicuramente ne avrò uno che è più nuovo del tuo :P
Ma se è piu' nuovo del tuo, non è detto che sia piu' performante del tuo... :wtf: :p
bonzuccio
03-05-2007, 15:39
Ma se è piu' nuovo del tuo, non è detto che sia piu' performante del tuo... :wtf: :p
Riassumendo: se qualcosa può costare di più, lo farà.
Se ti fai il pc domani e io dopo l'estate non è detto che avrò un pc che costa meno ed è più performante del tuo, sicuramente ne avrò uno che è più nuovo del tuo :P
appunto...io volevo chiedere se questo k10 e R600 son migliori delle 8800ultra(o gtx) e del E6600...se ha senso aspettarli x avere un incremento prestazionale bene,altrimenti compro ora questi...
- le rops sono degli algortimi per il disegno di texture su oggetti 3d, giusto.
quindi dire che una scheda video ha 16 rops cosa s'intende? che ha 16 algoritmi per disegnare textures?
nessuno sa rispondermi:cry: ?
appunto...io volevo chiedere se questo k10 e R600 son migliori delle 8800ultra(o gtx) e del E6600...se ha senso aspettarli x avere un incremento prestazionale bene,altrimenti compro ora questi...
Aridaje :sofico:
Ma che ne possiamo sapere se non ancora si sa nulla a parte speculazioni giudicate pure errate da chi di dovere? :sofico:
Ti fa tanta fatica attendere altri 15 giorni?
JohnPetrucci
03-05-2007, 16:18
prezzo troppo alto, consumi troppo alti, migliorie minime: scheda inutile
Sono d'accordo.;)
nessuno sa rispondermi:cry: ?
mi autorispondo:
forse è il numero di pipelines che gestisce le operazioni di rastering...
giusto?
mi autorispondo:
forse è il numero di pipelines che gestisce le operazioni di rastering...
giusto?
No, le pipeline sono veri e propri "processi intermedi" di creazione di un'immagine finale. Le ROPs sono unità di calcolo vere e proprie e fanno parte della pixel pipeline.
ROP= Raster Operation Unit oppure, piu' genericamente, Render Output Unit. Sono l'ultimo stadio della pixel pipeline, dove si occupando di elaborare i valori sui pixel e i texel mediante calcoli vettoriali per generare ciò che sarà il pixel finale. In sostanza, sono unità vettoriali che si occupano dello stadio finale del rendering. Poichè sono molteplici, ne deduci che le architetture grafiche sono a tutti gli effetti architetture parallele.
EDIT: So che non è una descrizione proprio formale ma passatemela lo stesso. :p
No, le pipeline sono veri e propri "processi intermedi" di creazione di un'immagine finale. Le ROPs sono unità di calcolo vere e proprie e fanno parte della pixel pipeline.
ROP= Raster Operation Unit oppure, piu' genericamente, Render Output Unit. Sono l'ultimo stadio della pixel pipeline, dove si occupando di elaborare i valori sui pixel e i texel mediante calcoli vettoriali per generare ciò che sarà il pixel finale. In sostanza, sono unità vettoriali che si occupano dello stadio finale del rendering. Poichè sono molteplici, ne deduci che le architetture grafiche sono a tutti gli effetti architetture parallele.
EDIT: So che non è una descrizione proprio formale ma passatemela lo stesso. :p
unità vettoriali?:confused: :oink: :eek: :muro: :muro: :muro:
ma "fisicamente" sono delle istruzioni.......
appunto...io volevo chiedere se questo k10 e R600 son migliori delle 8800ultra(o gtx) e del E6600...se ha senso aspettarli x avere un incremento prestazionale bene,altrimenti compro ora questi...
Per i primi test di R600 devi aspettare solo una decina di giorni, quindi tanto vale aspettare per avere + chiara idea ( dalle prime voci/test, sembra che x2900 costera' meno ma andra' anche meno, in teoria se non hai problemi di soldi, la 8800ultra dovrebbe essere il top )
Per il K10 ci vuole ancora tempo....
Ripongo la mia domanda: Si sa qualcosa dell'eventuale 8950 dual-gpu?
Erano solo voci o e' reale? Visto la supremazia di 8800, forse nvidia se la prende comodo per poi presentarla in autunno? ( in teoria dovrebbe andare un 15-20% in piu' della ultra )
Ripongo la mia domanda: Si sa qualcosa dell'eventuale 8950 dual-gpu?
Erano solo voci o e' reale? Visto la supremazia di 8800, forse nvidia se la prende comodo per poi presentarla in autunno? ( in teoria dovrebbe andare un 15-20% in piu' della ultra )
non è il thread adatto, comunque ti rispondo e la chiudiamo qui
attualmente non è prevista alcuna serie 8900 e nessuna dual-gpu
ergo sono solo voci ;)
non è il thread adatto, comunque ti rispondo e la chiudiamo qui
attualmente non è prevista alcuna serie 8900 e nessuna dual-gpu
ergo sono solo voci ;)
Quoto.cmq credo che un eventuale GX2 andrà almeno il 40% in +
Goofy Goober
03-05-2007, 22:05
ma che senso ha il monitor da 30 pollici??
apparte che devo piangere nel vedere la mia 8800GTS da 320 mega gettata via per giocare a quelle risoluzioni ALIENE:eek: :cry:
veramente mi aspettavo più differenze dalla ultra.
e cmq ripeto che quelle risoluzioni sono inutili, gente con un 19 pollici lcd ne conosco 4 o 5 persone, e sono già tirati al max a 1280*1024...
se prendo un 30 pollici (ammesso che abbia i soldi) poi io esco di casa... bah...
figata assurda o quello che volete, ma esagerazione e basta...
ma che senso ha il monitor da 30 pollici??
apparte che devo piangere nel vedere la mia 8800GTS da 320 mega gettata via per giocare a quelle risoluzioni ALIENE:eek: :cry:
veramente mi aspettavo più differenze dalla ultra.
e cmq ripeto che quelle risoluzioni sono inutili, gente con un 19 pollici lcd ne conosco 4 o 5 persone, e sono già tirati al max a 1280*1024...
se prendo un 30 pollici (ammesso che abbia i soldi) poi io esco di casa... bah...
figata assurda o quello che volete, ma esagerazione e basta...
vabbe mo mi sembra di esagerare di 19' LCD ne è pieno in giro considerato anche che ormai con 170€ te ne porti a casa uno:)
Goofy Goober
03-05-2007, 22:16
pieno???
mah, pieno non so dove, ma io di certo vedo un po di lcd da 17 al massimo.
e cmq resta il fatto che i 19 pollici hanno cmq 1280*1024 cm ris massima.
ma che senso ha il monitor da 30 pollici??
apparte che devo piangere nel vedere la mia 8800GTS da 320 mega gettata via per giocare a quelle risoluzioni ALIENE:eek: :cry:
veramente mi aspettavo più differenze dalla ultra.
e cmq ripeto che quelle risoluzioni sono inutili, gente con un 19 pollici lcd ne conosco 4 o 5 persone, e sono già tirati al max a 1280*1024...
se prendo un 30 pollici (ammesso che abbia i soldi) poi io esco di casa... bah...
figata assurda o quello che volete, ma esagerazione e basta...
Ci sono alcune considerazioni che non fai:
1) 2560 non è una risoluzione da GTS. Per questo hanno concepito schede come GTX, Ultra, GX2 e SLI, come vedi un tantino sopra come categoria.
2) Con un 30" vorresti giocare a 1024x768? ;) Sono inutili se ci fossero su un 19", non su un 30".
3) L'esagerazione nasce dalla clausola "ammesso che io abbia i soldi"? Perchè non mi venire a dire che a giocare a 30" non piacerebbe a chiunque. Personalmente trovo piu' una cagata giocare sui TV 42" a 1366x768 con pixel grossi come i dadi Knorr come fanno i consolari che non su un monitor 30" a 2560, dove il rapporto risoluzione / diagonale è equo.
pieno???
mah, pieno non so dove, ma io di certo vedo un po di lcd da 17 al massimo.
e cmq resta il fatto che i 19 pollici hanno cmq 1280*1024 cm ris massima.
Eppure le statistiche di vendita, come riporto THG in un articolo, riportano che oggi la categoria piu' acquistata sono i monitor 20", proprio in vista dei prezzi bassi. Del resto non vorrai mica fare di quello che vedi tu una statistica italiana... ;)
bonzuccio
04-05-2007, 01:16
Ci sono alcune considerazioni che non fai:
1) 2560 non è una risoluzione da GTS. Per questo hanno concepito schede come GTX, Ultra, GX2 e SLI, come vedi un tantino sopra come categoria.
2) Con un 30" vorresti giocare a 1024x768? ;) Sono inutili se ci fossero su un 19", non su un 30".
3) L'esagerazione nasce dalla clausola "ammesso che io abbia i soldi"? Perchè non mi venire a dire che a giocare a 30" non piacerebbe a chiunque. Personalmente trovo piu' una cagata giocare sui TV 42" a 1366x768 con pixel grossi come i dadi Knorr come fanno i consolari che non su un monitor 30" a 2560, dove il rapporto risoluzione / diagonale è equo.
Per i monitor basta una "buona" risoluzione,
per i giochi è importante il tempo di refresh (ma anche per vedere un film) contrasto, fedeltà nei colori.
Infatti in un pc dove ci si gioca si usa word e si vede un film bisogna fare una scelta "oculata" in modo da non caricare inutilmente gpu dai prezzi e consumi umani e senza dover vedere un dvd 800x600 su un 3580X2400 (per dire)..
a meno che non si usano per fini professionali quali fotoritocco o quant'altro.. anche il normale tv lcd del salotto col sintonizzatore può andare meglio di molti monitor in commercio per giocare, basta che abbia una buona qualità, i dsp video commerciali hanno fatto passi da gigante, i dati knorr li vedevi 6-7 anni fa nei primi plasma
pieno???
mah, pieno non so dove, ma io di certo vedo un po di lcd da 17 al massimo.
e cmq resta il fatto che i 19 pollici hanno cmq 1280*1024 cm ris massima.
e quindi? non vedo dove sia il problema mi trovo molto meglio con il 19' che con il 17' di mio fratello sempre a 1280*1024.
Infatti in un pc dove ci si gioca si usa word e si vede un film bisogna fare una scelta "oculata" in modo da non caricare inutilmente gpu dai prezzi e consumi umani e senza dover vedere un dvd 800x600 su un 3580X2400 (per dire)..
a meno che non si usano per fini professionali quali fotoritocco o quant'altro.. anche il normale tv lcd del salotto col sintonizzatore può andare meglio di molti monitor in commercio per giocare, basta che abbia una buona qualità
Sono lussi, ma dire che è esagerato è, appunto, esagerato. :p
E poi il TV LCD del salotto 32" "di buona qualità" costa tanto che un monitor 30" come questo.
Vedo sempre parecchia gente che compra TV 32" da 1366x768 per fare da monitor... :rolleyes: Per poi trovarsi le icone del desktop grosse come il mouse che tengono in mano.
A parità di prezzo, allora se permetti prendo un monitor del genere.
Sono lussi, ma dire che è esagerato è, appunto, esagerato. :p
E poi il TV LCD del salotto 32" "di buona qualità" costa tanto che un monitor del genere 30".
Vedo sempre parecchia gente che compra TV del genere per fare da monitor... :rolleyes:
A parità di prezzo, allora se permetti prendo un monitor del genere.
quoto infatti i televisori da salotto sono inferiori ai monitor max 1920*1080 i monitor da 30' 2560*xxxx nn me ricordo...e infatti costano il doppio.
quoto infatti i televisori da salotto sono inferiori ai monitor max 1920*1080 i monitor da 30' 2560*xxxx nn me ricordo...e infatti costano il doppio.
Se proprio dobbiamo citare qualcosa di esagerato, sono i 42" da 1366x768 da 4 mila euro (fino a pochi mesi fa 5 mila euro!!), come ad esempio il Philips 42PF9831/D, non un 3007WFP-HC della Dell. ;)
Il Dell almeno è un bel pezzo di hardware.
bonzuccio
04-05-2007, 01:34
Sono lussi, ma dire che è esagerato è, appunto, esagerato. :p
E poi il TV LCD del salotto 32" "di buona qualità" costa tanto che un monitor 30" come questo.
Vedo sempre parecchia gente che compra TV 32" da 1366x768 per fare da monitor... :rolleyes: Per poi trovarsi le icone del desktop grosse come il mouse che tengono in mano.
A parità di prezzo, allora se permetti prendo un monitor del genere.
Io continuo a non essere daccordo.. magari non cambiamo idea ma se diminuisci il numero di dpi per le icone le vedi piccole..
un conto è il fatto che windows sei abiuato a vederlo in un certo modo (pure io) un conto è dire che un gioco a 1024p me lo godo su un bel monitor grande dove mi ci vedo pure un dvd:
preferisco non dover pompare inutilmente una texture di un gioco per stare dietro a una risoluzione enorme del monitor piuttosto che vedere un film ultra scalato.. forse hai visto windows da un portatile collegato in composito.. secondo me quel Dell per giocare non ha senso, se ci metto vicino un lcd o plasma di pari qualità (ottima) ma 42'' contro 30'' e di risoluzione inferiore non la vedi la differenza coi filtri al massimo seondo me specialmente adesso che i filtri hanno raggiunto lvelli di eccellenza e la grandi risoluzioni non servono più a mascherare le brutture delle vecchie vga
Se proprio dobbiamo citare qualcosa di esagerato, sono i 42" da 1366x768 da 4 mila euro (fino a pochi mesi fa 5 mila euro!!), come ad esempio il Philips 42PF9831/D, non un 3007WFP-HC della Dell. ;)
Il Dell almeno è un bel pezzo di hardware.
:ave: :ave:
Io continuo a non essere daccordo.. magari non cambiamo idea ma se diminuisci il numero di dpi per le icone le vedi piccole..
un conto è il fatto che windows sei abiuato a vederlo in un certo modo (pure io) un conto è dire che un gioco a 1024p me lo godo su un bel monitor grande dove mi ci vedo pure un dvd:
preferisco non dover pompare inutilmente una texture di un gioco piuttosto che vedere un film ultra scalato.. forse hai visto windows da un portatile collegato in composito.. secondo me quel Dell per giocare non ha senso, se ci metto vicino un lcd o plasma di pari qualità (ottima) ma di risoluzione inferiore non la vedi la differenza coi filtri al massimo
Mah, guarda... Pure i consolari stanno protendendo verso monitor di questa categoria, un motivo ci sarà... I film riscalati sul TV te li vedi lo stesso, perchè l'alta definizione adesso come adesso è una mezza fregatura, quindi, a parità di prezzo, preferisco un monitor simile. Se non altro ci si lavora comodi. Le classiche trasmissioni analogiche su un TV LCD o Plasma da 42" te li devi vedere a 20 metri di distanza :asd:
La qualità di Sky HD è ancora penosa per la risoluzione che porta.... I lettori Blu-Ray da tavolo hanno prezzi che di questi monitor uniti al TV te ne compri due... Non ne vedo uno di motivo per usare un TV.
Mi sembra quasi di bestemmiare. I TV hanno sempre rincorso i monitor e ora che hanno una misera risoluzione del cavolo sono diventati addirittura meglio per giocare... Non c'è storia.
bonzuccio
04-05-2007, 01:45
..Le classiche trasmissioni analogiche su un TV LCD o Plasma da 42" te li devi vedere a 20 metri di distanza :asd:
Hai una certa qual alta dose di ragione ma tanto in televisione fanno tante di quelle schifezze.. per vedere la faccia di pippo baudo non è che cerco il massimo della definizione :)
preferisco affittarmi un bluray :D
preferisco affittarmi un bluray :D
Magari con il tuo BDP-1000 pagato 1000€ e poi mi vieni a dire che sto monitor è un'esagerazione? :doh:
bonzuccio
04-05-2007, 02:02
Magari con il tuo BDP-1000 pagato 1000€ e poi mi vieni a dire che sto monitor è un'esagerazione? :doh:
Un lettore dvd con uscita digitale quanto lo paghi??
Per 1000 euro mi stai parlando di una controparte dvd tipo marantz..
non dico che stiamo aspettando i lettori blue ray con l'uscita scart ma la tendenza è che la qualità potrebbe avere un prezzo sempre migliore col passare del tempo ed è integrata in dispositivi che staranno nei luoghi in cui passi la maggior parte del tempo e cioè salotto, a meno che non ci lavoro
Un lettore dvd con uscita digitale quanto lo paghi??
Per 1000 euro mi stai parlando di una controparte dvd tipo marantz..
non dico che stiamo aspettando i lettori blue ray con l'uscita scart ma la tendenza è che la qualità potrebbe avere un prezzo sempre migliore col passare del tempo ed è integrata in dispositivi che staranno nei luoghi in cui passi la maggior parte del tempo e cioè salotto, a meno che non ci lavoro
Diciamo che tutto il monitor piu' il lettore in questione me la cavo con 1700€, tu con 1000€ ci hai comprato solo un lettore da tavolo lento come una lumaca, che dopo che hai messo il disco devi aspettare 15 minuti solo per vedere il menu, che non masterizza, non ha hard disk e non fa niente che fare una misera lettura.... :asd:
http://www.tomshw.it/news.php?newsid=9933
Io i film li vedo riscalati all'insù, tu probabilmente li riscali all'ingiù, a meno che non hai un Full-HD. Ma se hai un TV Full-HD probabilmente non staresti disquisendo sulla validità di questo monitor, poco ma sicuro. Soprattutto in vista dei prezzi ;)
thecatman
04-05-2007, 09:49
altri test fatti con vista64 e altri giochi
http://www.pcper.com/article.php?aid=402&type=expert&pid=3
test in sli
http://hardware.gotfrag.com/portal/story/37545/?spage=3
test in sli e con vista32 e confronto con ati
http://techreport.com/reviews/2007q2/geforce-8800ultra/index.x?pg=2
Lud von Pipper
04-05-2007, 11:04
E' possibile che la HD2900 XTX sia stata pensata direttamente per i 65nm?
Considerando il ritardo (non era stata proposta una data ma solo un genreico "dopo la XT" ), può essere che non abbiano ritenuto conveniete fare uscire una versione di questa scheda a 80nm.
I casi sono due: o, come qualcuno propone quì in giro, la versione DDR4 della 2900 non era perfromante, cosa di cui dubito (altrimento alla ATI farebbero meglio a cambiare mestiere), o magari può essere che lo sviluppo del processo a 65nm sia più avanti del previsto con i tempi, nel qual caso, guardo con sospetto a questa HD2900XT, che, come la 1800XT, rischia di essere rapidamente scavalcata da una versione più efficiente e performante dello stesso chip.
Daltra parte non è che anche queste G80 siano le schede per tutti: con quello che costano e quello che consumano si venderanno giusto ad una manciata di assatanati, in attesa di versioni più efficienti e meno "calde".
8800 ULTRA OC
http://www.hwupgrade.it/news/skvideo/geforce-8800-ultra-overcloccata-da-sparkle_21046.html
MenageZero
04-05-2007, 16:22
al solito, complimenti per l'articolo
nella tabellona a pag 2 vengono dati 2GHz alle shader units dell'r580 ( :eek: ), sono io che non ho mai saputo di questo clock "mostruoso" o c'è un errore ? :wtf:
sempre riguardo alla tabellona delle caratteristiche tecniche, vedo con piacere che è indicato anche il num di rops, imho sarebbe ancora più completa indicando anche le tmu (o una indicazione in qualche modo "equivalente" per g80 se non ha più "tmu classiche")
ora un domandone "politico":
ma nv ha fatto uscire ora questa nuova top fi gamma xché pensa che così non perderà neanche per un giorno il record delle prestazioni anche con l'uscita di r600, o xché è invece rassegnata al contrario e ha quindi presntato la ultra prima, sapendo di non poter avere cmq niente a breve per sopravanzare l'imminente r600 ?
Pancho Villa
04-05-2007, 16:44
ora un domandone "politico":
ma nv ha fatto uscire ora questa nuova top fi gamma xché pensa che così non perderà neanche per un giorno il record delle prestazioni anche con l'uscita di r600, o xché è invece rassegnata al contrario e ha quindi presntato la ultra prima, sapendo di non poter avere cmq niente a breve per sopravanzare l'imminente r600 ?Putroppo penso la prima :(
Io sono dell'opinione che i ritardi sono normali, quasi 7 mesi di ritardo sono dolori. Solo supposizioni, ma l'impressione è che R600 non è mai stata performante come si voleva e si è passato tutto questo tempo a cercare di farla diventare una scheda "appena decente". Manca poco al lancio, vedremo... Io spero con tutto cuore che sia una bomba, soprattutto dopo questa sparata di nVidia da 700€.
Goofy Goober
04-05-2007, 23:51
com al solito nessuno ha colto la mia espressione.
nel mondo in cui vivo non so se siamo tutti poveracci, ma per quanto vedo non ho ancora visto pc con monitor da 20 pollici di ragazzi che giocano al computer.
il mio disappunto nasce da mettere nei benchmarck anche la GTS per esempio, giusto per far vedere che non va bene per quei tipi di schermi titanici.
per me possono anche dirmi che sono nel mio paese non ci sono schermi lcd per pc a 30 pollici:muro: , però rimango sempre dell'idea che sia uno spreco ecco, un esagerazione.:mbe:
sono d'accordo sul fatto che ha ancora meno senso giocare sulle tv da 42 pollici con le risoluzioni più basse ancora
La GTS la si mette per "metro di paragone", che per quelle risoluzioni non sia adatta lo si sa a priori. Se una GTS andasse a gonfie vele a quelle risoluzioni, le schede di fascia piu' alta sarebbero inutili. Mi sembra un concetto chiaro, terza scheda in classifica per performance, terza risoluzione verso il basso come adeguatezza. :)
Anni fa quando "tutti" avevano i CRT da 19" e costavano relativamente poco, pare che piaceva, in linea di massima, giocare a 1600x1200. Le si considerava risoluzioni elevate, non esagerate. E tutti dicevano "che bello" (chi ce l'aveva) e "magari" (chi non ce l'aveva).
Ora considerando la diagonale e la risoluzione (30"), il rapporto pare anche inferiore ad allora... Quindi mi domando dove sta l'esagerazione.
Che non è una soluzione per tutti è chiaro, che sia una soluzione costosa anche. Che sia un lusso, passiamolo. Ma che sia un'esagerazione, non sono d'accordo. E poi "esagerazione" è un termine così soggettivo per citarlo in modo cosi universale.....
E poi, diciamoci la verità. Ci sei mai stato davanti un 30" a quella risoluzione a 60 frame al secondo con qualche videogioco moderno "con le palle"? ;) Detto cosi può sembrare "esagerato", visto dal vero l'unica cosa che si pensa è: "me lo compro al volo" oppure al limite "magari me lo potessi comprare". Entusiasmo o disarmo.
poverociccio
09-05-2007, 19:30
Quanto entusiasmo per questa serie Nvidia che passerà alla storia del GPU come la più scarsa delle DirectX10 mai prodotte (è la prima quindi sarà per forza superata dalle successive).Ma non è il solo Oscar: sicuramente la più inutile (DirectX10 da un anno senza che esista un solo gioco DirectX10). La più costosa; la più "calda";la più affamata di Watt. Praticamente serve solo a chi vuole giocare a S.T.A.K.E.R. su un 30", visto che la maggior parte dei giocatori oggi non conosce risoluzioni superiori a 1280*1024.Chissà perchè mi riporta alla mente la Geffo 5700.
Propongo l'affiancamento di uno psicologo in redazione.
freerider79
11-05-2007, 11:49
GIOCO ANCORA BENISSIMO CON LA MIA 7800GTX 256 A TUTTI I TITOLI
SENZA UNO SCATTO E CON DETTAGLI ALTI, CONVIENE ASPETTARE ANCORA ALMENO 5 MESI PER PASSARE A VGA DX10 SPERANDO CHE QUESTE BENEDETTE LIBRERIE SIANO DISPONIBILI ANCHE SU LINUX (MI SA PROPRIO DI SI!! :-) )
SALUTI
Scusatemi, ma gli scores finali di 3DMark06 della Ultra e delle altre schede provate in questa recenzione dove sono??
Dove posso trovare dei risultati finali della 8800 Ultra e GTX a stock clock???
Beh, hwupgrade ha ben capito che il risultato del 3Dmark non e' utile a nessuno ( se non ai beachmark ) I test sintetici servono solo per vedere le prestazioni nelle varie sezioni, ma quello che conta, la velocita' reale, e' data da quanto vanno nei videogiochi.
Sto cercando e non trovando dei test esaurienti che mettano a confronto 8800ultra con 8800GTS SLI
I costi delle schede dovrebbero all'incirca coincidere...
HWupgrade fara' qualcosa?
Oppure qualcuno ha un link a questi test?
uno sli di gts??forse ti ocnviene prendere 1 gtx e in futuro affiancarne un'altra...uno sli di gts nn lo vedo molto utile...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.