View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
+Lonewolf+
20-08-2007, 21:16
Scusate ma la fomosa demo quando esce? io sapevo a mezzanotte.. ma di oggi o di domani? un'altra cosa dove avete visto i frames che fanno la 1950 e la 2900 a sto gioco?
alla demo ci sto giocando e le ati rullano da paura...si può giocare tutto a paletta in dx9 con la 1950 e anche con la 1800
in dx10 la 2900 mi rulla da paura anche oltre 60fps...:D
webbuffa
20-08-2007, 21:18
edit :D vieni in msn lone ?
alla demo ci sto giocando e le ati rullano da paura...si può giocare tutto a paletta in dx9 con la 1950 e anche con la 1800
in dx10 la 2900 mi rulla da paura anche oltre 60fps...:D
la sto scaricando adesso, cmq a quale risulozione hai questi risultati?
masicuro
20-08-2007, 21:39
ok grazie mille:) che driver usi?
3DMark79
20-08-2007, 21:41
allora, la 2900 spinge da dio in bioshock, grazie anche alla tasselation che viene sfruttata paurosamente, ottimi risultati, per quanto riguarda i bug solo la 2900 ne è afflitta ma stasera dovrebbero uscire i fix...sono molto contento per bioshock, l'hanno ottimizzato davvero alla grande, c'è gente che ci gioca con le x1300:)
Salve gente spero abbiate passato una spendida estate ...venendo al caso nostro dunque sfruttando a dovere le tassellation potremmo avere delle prestazioni migliori di una GTX?
Spero qualcuno possa darci dei dettagli sulle varie risoluzioni su i due fronti soprattutto a 1680 x1050 quella che più mi interessa.:D
+Lonewolf+
20-08-2007, 22:30
1280 x 1024 directx10 tutto al max con illuminazione dinamica globale nella situazione peggiore in cui l'elettricità sprigionata dalle mie mani si rifletteva su tutte le pareti e il fuoco incendiava ogni cosa con molti nemici su schermo, luci che arrivavano da tutte le parti, fuoco dalla mia arma a manetta, acqua(spettacolare) che ricopriva il pavimento e il mitico robot da me modificato faceva 40fps...per il resto siamo sopra ai 60...nella parte iniziale dell'incidente si sfiorano i 100...questo è bioshock con la 2900
+Lonewolf+
20-08-2007, 22:30
Salve gente spero abbiate passato una spendida estate ...venendo al caso nostro dunque sfruttando a dovere le tassellation potremmo avere delle prestazioni migliori di una GTX?
Spero qualcuno possa darci dei dettagli sulle varie risoluzioni su i due fronti soprattutto a 1680 x1050 quella che più mi interessa.:D
nei giochi con sfruttamento intensivo di shader e di tassellation si
Zodd_Il_nosferatu
20-08-2007, 22:34
http://support.ati.com/ics/support/default.asp?deptID=894
FIX FIX FIX
godo come un furetto impazzitooooooooooooooo
ti droghi?:mbe:
Allora ragazzi ho aggiornato con gli hotfix tutto molto bene il gioco scorre a dovere, l'unica cosa che mi domando per piacere forse sono io, mi dite la differenza reale in questo gioco tra dx9 e 10, io sinceramente non la vedo come lost planet :muro: , forse sono io, ma non riesco a notare alcuna differenza bah :rolleyes:
+Lonewolf+
20-08-2007, 22:35
Allora ragazzi ho aggiornato con gli hotfix tutto molto bene il gioco scorre a dovere, l'unica cosa che mi domando per piacere forse sono io, mi dite la differenza reale in questo gioco tra dx9 e 10, io sinceramente non la vedo come lost planet :muro: , forse sono io, ma non riesco a notare alcuna differenza bah :rolleyes:
su vista non si possono mettere le dx9 chief, devi installarlo su xp se vuoi giocarlo @dx9...l'opzione che dice dx10 riguarda solo le superfici non tutto il rendering
in download pure io...:D :D
su vista non si possono mettere le dx9 chief, devi installarlo su xp se vuoi giocarlo @dx9...l'opzione che dice dx10 riguarda solo le superfici non tutto il rendering
si possono mettere invece, ti spiego, vai in start\giochi\sull'icona di bioshock clicchi il pulsante destro del mouse e ti esce play in dx 9...provate tutte e due le modalità non noto differenze :confused:
fustacchione90
20-08-2007, 23:29
ma dove vedete gli hotfix sul link che non li vedo?:eek:
ma dove vedete gli hotfix sul link che non li vedo?:eek:
Vai su questo link http://support.ati.com/ics/support/d...asp?deptID=894 e scarica questo file 737-29041: BioShock: Users may experience stuttering with Preload, Missing surfaces and/or display corruption ;)
Free Gordon
21-08-2007, 01:45
allora, la 2900 spinge da dio in bioshock, grazie anche alla tasselation che viene sfruttata paurosamente, ottimi risultati, per quanto riguarda i bug solo la 2900 ne è afflitta ma stasera dovrebbero uscire i fix...sono molto contento per bioshock, l'hanno ottimizzato davvero alla grande, c'è gente che ci gioca con le x1300:)
Ottime notizie, dove le hai lette?
TecnoWorld8
21-08-2007, 01:49
Ottime notizie, dove le hai lette?
è uscito il demo oggi ;)
Cmq per bioshock c'è il thread ufficiale:
http://www.hwupgrade.it/forum/showthread.php?t=1358209
webbuffa
21-08-2007, 11:07
Allora ragazzi ho aggiornato con gli hotfix tutto molto bene il gioco scorre a dovere, l'unica cosa che mi domando per piacere forse sono io, mi dite la differenza reale in questo gioco tra dx9 e 10, io sinceramente non la vedo come lost planet :muro: , forse sono io, ma non riesco a notare alcuna differenza bah :rolleyes:
Vero... se c'è una differenza è davvero poco visibile... :( ma del resto non è un gioco così luminoso da poterle vedere. :rolleyes:
scusate, ma io ho una asus 2900XT e nella scatola non c'era il connettore a 8 pin, è "normale"? ho attaccato i 2 da sei, quello da 8 si trova da qualche parte?
grazie ciao
scusate, ma io ho una asus 2900XT e nella scatola non c'era il connettore a 8 pin, è "normale"? ho attaccato i 2 da sei, quello da 8 si trova da qualche parte?
grazie ciao
spiacente il connettore da 8 pin è incluso solo nella scatola della MSI
scusate o voi possessori della 2900...
necessito dei benchmark, con gli ultimi driver, di lost world in dx10 :D
qualcuno me li manda in mp?
se ci fossero con
Impostazioni:
1° prova: AF 16x, AA no, HDR medio
2° prova: AF 16x, AA 4x, e HDR medio
Entrambe da provare nella cava e nello snow!
Danielao
21-08-2007, 13:00
Ecco i miei test XP - Vista.
Attendo comparazioni.
http://www.hwupgrade.it/forum/showpost.php?p=18342005&postcount=3677
MonsterMash
21-08-2007, 13:25
Ecco i miei test XP - Vista.
Attendo comparazioni.
http://www.hwupgrade.it/forum/showpost.php?p=18342005&postcount=3677
Credo ceh tu abbia invertito le immagini: dici che su vista vai più lento, ma lo screen dell'acqua e delle fiamme su xp segna meno fps di quello su vista.
3DMark79
21-08-2007, 13:48
Ragazzi avete provate bioshock con i driver 7.9beta appena usciti?
http://www.hwupgrade.it/news/software/nuovi-driver-ati-e-nvidia-per-bioshock_22242.html
+Lonewolf+
21-08-2007, 13:50
Ragazzi avete provate bioshock con i driver 7.9beta appena usciti?
http://www.hwupgrade.it/news/software/nuovi-driver-ati-e-nvidia-per-bioshock_22242.html
provati ieri sera...migliorano la performance e risolvono i bug:cool:
3DMark79
21-08-2007, 13:53
provati ieri sera...migliorano la performance e risolvono i bug:cool:
Perfetto grazie!;)
Ma non ricordo che prima vi era un driver nuovo per ogni gioco che usciva...di questo passo quanti ce ne sarranno a novembre?:confused:
ale0bello0pr
21-08-2007, 14:28
Ragazzi avete provate bioshock con i driver 7.9beta appena usciti?
http://www.hwupgrade.it/news/software/nuovi-driver-ati-e-nvidia-per-bioshock_22242.html
7.9 BETA?
NO no sono ancora 7.8:D
Veramente sembra che siano saltati fuori anche i 7.9 beta
http://uk.theinquirer.net/?article=41828
http://www.tcmagazine.com/comments.php?shownews=15778&catid=3
ciao ragazzi, conviene prendere questa scheda?? io vorrei fare il crossfire me lo consigliate???
Danielao
21-08-2007, 15:26
Credo ceh tu abbia invertito le immagini: dici che su vista vai più lento, ma lo screen dell'acqua e delle fiamme su xp segna meno fps di quello su vista.
scusa, hai ragione ho sistemato
si girano in rete i 7.9 beta
c'e' qlk1 che si degna di fare qlk test decente con risoluzioni 1680 e 1280?
Grazie :)
scusate ma la versione da 1GB è a 65nm? o ancora 90? è rumorosa come la versione da 512? grazie ciao
Danielao
21-08-2007, 15:32
si girano in rete i 7.9 beta
c'e' qlk1 che si degna di fare qlk test decente con risoluzioni 1680 e 1280?
Grazie :)
è un test poco decente ma trovi il mio qui:
http://www.hwupgrade.it/forum/showpost.php?p=18342005&postcount=3677
3DMark79
21-08-2007, 15:34
7.9 BETA?
NO no sono ancora 7.8:D
In effetti li chiamano 7.8 cmq i 7.9beta come dice Vifani ci sono in giro e mi hanno confuso la mente.:D
I 7.9beta cmq a quanto pare servono solo per il sostegno alle HD2400 e HD2600 AGP!:(
http://translate.google.com/translate?hl=it&sl=en&u=http://www.techpowerup.com/index.php%3F37825&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dati%2B7.9%2Bbeta%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26hs%3DebU%26sa%3DG
ciao ragazzi, conviene prendere questa scheda?? io vorrei fare il crossfire me lo consigliate???
mi aiutate???
mi aiutate???
secondo me conviene, sopratutto visto il prezzo che ha, e sopratutto vedenco che un CF di 2900 costa come una ultra e nei game va fortissimo, cmq fai come credi, io a oggi sono più che soddisfatto (spratutto vedendo i tst con bioshock:D)
ma è vero che è uscita la versione con ddr4??
ma è vero che è uscita la versione con ddr4??
si il modello con 1024mb..
edit_user_name_here
21-08-2007, 16:52
ragazzi avete qualche link esplicativo che verifichi se un crossfire in modalità 8x per entrambi gli slot abbia dei colli di bottiglia???in teoria non dovrebbero essercene alle risoluzioni più umane,ma qualche test specifico non fa mai male :) ......
Scusa se ti ho risposto in ritardo :)
Cmq se le schede grafice hanno molto quantitativo ram non dovrebbe avere cali visibili all'occhio umano ma questo avveniva per la serie x1900-x1800 perchè nelle 2900hd ancora non si sono viste con il 8x8 ma, in teoria, dovrebbero funzionare per il cavo di conessione proprietario tipo lo SLI... io ho una scheda a8r normale e proverò il crossfire 2900hd da 1 gb proprio per non avere questi problemi perchè non mi costa niente provare :) nel caso la cambio.
Io la compro da 1 gb e spero che esca anche la 65 nm(che sarebbe quella che cerco) prima della r700.
Tuttavia io giocherò a 1920x1200 ma a risoluzione più basse dovrebbe bastare anche 512 in CF.
P.S:Anticipo le repliche :D io non credo che il crossfire (non sono sicuro x lo SLI)funziona 512+512 raddoppiando la ram della scheda grafica perchè una gestisce la fisica e l'altra la grafica proprio per raddoppiare le prestazioni ad alte risoluzioni(anche lo sli dovrebbe funzionare senza raddoppiare il quantitativo ram).
Grazie NM per l'info :D cmq puoi confermare la mia tesi?
Saluti ;)
MonsterMash
21-08-2007, 17:01
Scusa se ti ho risposto in ritardo :)
Cmq se le schede grafice hanno molto quantitativo ram non dovrebbe avere cali visibili all'occhio umano ma questo avveniva per la serie x1900-x1800 perchè nelle 2900hd ancora non si sono viste con il 8x8 ma, in teoria, dovrebbero funzionare per il cavo di conessione proprietario tipo lo SLI... io ho una scheda a8r normale e proverò il crossfire 2900hd da 1 gb proprio per non avere questi problemi perchè non mi costa niente provare :) nel caso la cambio.
Io la compro da 1 gb e spero che esca anche la 65 nm(che sarebbe quella che cerco) prima della r700.
Tuttavia io giocherò a 1920x1200 ma a risoluzione più basse dovrebbe bastare anche 512 in CF.
P.S:Anticipo le repliche :D io non credo che il crossfire (non sono sicuro x lo SLI)funziona 512+512 raddoppiando la ram della scheda grafica perchè una gestisce la fisica e l'altra la grafica proprio per raddoppiare le prestazioni ad alte risoluzioni(anche lo sli dovrebbe funzionare senza raddoppiare il quantitativo ram).
Grazie NM per l'info :D cmq puoi confermare la mia tesi?
Saluti ;)
Guarda che ti sbagli: allo stato attuale non esiste una configurazione ati di schede multiple in cui una gestisce la fisica e una la grafica. E' stata mostrata solo una postazione demo con 3 2900xt, di cui due per la grafica e una per la fisica, ma era solo una demo, e attualmente NESSUN gioco è in gradi di sfruttare questa configurazione.
Al momento due schede in crossfire raddoppiano la ram, e lavorano parallelamente ENTRAMBE sulla grafica.
Ciao
Guarda che ti sbagli: allo stato attuale non esiste una configurazione ati di schede multiple in cui una gestisce la fisica e una la grafica. E' stata mostrata solo una postazione demo con 3 2900xt, di cui due per la grafica e una per la fisica, ma era solo una demo, e attualmente NESSUN gioco è in gradi di sfruttare questa configurazione.
Al momento due schede in crossfire raddoppiano la ram, e lavorano parallelamente ENTRAMBE sulla grafica.
Ciao
concordo e dico che attualmente l'unico acceleratore fisico funzionante con i giochi è physx di ageia mentre per ora non si è visto nulla di concreto ne da parte di amd ne tantomeno da nvidia..
edit_user_name_here
21-08-2007, 17:25
Guarda che ti sbagli: allo stato attuale non esiste una configurazione ati di schede multiple in cui una gestisce la fisica e una la grafica. E' stata mostrata solo una postazione demo con 3 2900xt, di cui due per la grafica e una per la fisica, ma era solo una demo, e attualmente NESSUN gioco è in gradi di sfruttare questa configurazione.
Al momento due schede in crossfire raddoppiano la ram, e lavorano parallelamente ENTRAMBE sulla grafica.
Ciao
Veramente c'era anche un esempio a due schede e non solo 3 ;)
Tuttavia sapevo che il CF toglieva carico alla cpu e pensavo anche x la fisica... evidentemente ho capito male.
Sperando che un futuro si potra fare su quelle vecchie di ora :)
Invece sul quantitativo di ram sapevo che servisse per raddoppiare le prestazioni e non la ram... o almeno non condivise e che ogni scheda fa il suo lavoro per aumentare i fps.
Principalmente ne parlavo per il discorso 8x8 sul quantitativo ram.
Saluti
+Lonewolf+
21-08-2007, 19:45
il CF non raddoppia la ram...
Grave Digger
21-08-2007, 20:12
concordo e dico che attualmente l'unico acceleratore fisico funzionante con i giochi è physx di ageia mentre per ora non si è visto nulla di concreto ne da parte di amd ne tantomeno da nvidia..
già,non escluodo che sia stata una manovra di amd e nvidia per temporeggiare e affossare ulteriormente l'ingresso nel mercato di ageia ;) ...
già,non escluodo che sia stata una manovra di amd e nvidia per temporeggiare e affossare ulteriormente l'ingresso nel mercato di ageia ;) ...
mah... io ho una mobo con rd600 e intel con 3 slot pci-ex e uno per ati-physic.
ho richiesto delle demo ad ati e funzionava il tutto tranquillamente con 2 x1950pro in cf e una x1600pro per la fisica.
ovviamente purtroppo non posso dirvi di + solo che l'accellerazione fisica si attiva solo con 2 vga in cf se metti x1950pro e una x1600 non si attiva.;)
TecnoWorld8
21-08-2007, 21:50
mah... io ho una mobo con rd600 e intel con 3 slot pci-ex e uno per ati-physic.
ho richiesto delle demo ad ati e funzionava il tutto tranquillamente con 2 x1950pro in cf e una x1600pro per la fisica.
ovviamente purtroppo non posso dirvi di + solo che l'accellerazione fisica si attiva solo con 2 vga in cf se metti x1950pro e una x1600 non si attiva.;)
lavori per ati?
p.s.: se lo sai, qual è il motivo per avere due schede in cf per poterne usare una terza?
lavori per ati?
p.s.: se lo sai, qual è il motivo per avere due schede in cf per poterne usare una terza?
be credo che se nn lavora per ati lavora a steretto contatto con un suo partner, cmq dicendo quello che ha detto è ovvio che è sotto NAD.
BEATO TE
lavori per ati?
p.s.: se lo sai, qual è il motivo per avere due schede in cf per poterne usare una terza?
no nn lavoro per ati ho solo acquistato una scheda (quella in firma) il la dfi crx3200 con rd600 per intel e 3 slot pci ex 8x.
visto che sul sito dfi e su quello ati la pubblicizzavano con ati phisicx ho semplicemente mandato una mail a dfi e una ad ati visto che ho comprato un prodotto pubblicizzato per fare certe cose e mi hanno mandato dei dvr per farlo andare e un link alle demo scaricabili
ho fatto alcune prove e purtroppo l'ati physics andava sl su quelle demo.
per adesso per funzionare deve avere 2 schede in rendering crossfire xè se metti 1 scheda in rendering tipo la x1950pro e una x1600pro il sistema riconosce le 2 vga ma nn attiva ne il cf ne l'ati phys ma vede la x1950pro come primaria e la x1600pro come altre 2 uscire dvi per il multi monitor(cosa che è la normalità quello che accade a tutti voi se avete 2 slot pci-ex e ci mettere 2 vga diverse)
credo che sia cmq un sistema che vada fatto obbligatoriamente con 2 schede in cf dedicate al rendering e poi una meno potente dedicata alla fisica anche se si vociferava della possibilità di fare cf con 2 vga uguali e abilitarne una delle 2 per la fisica ma nsomma capite bene che mettere 2 hd2900 in cf e una fargli fare solo la fisica è decisamente sottosfruttata no?
ho visto funzioare anche un ati physics con 3 x1900xtx ma continuo a pensare che non sia una soluzione valida visto che cmq una delle 3 vga verrebbe sottofruttata solo per la fisica.
oggettivamente la soluzione migliore è 2 in rendering e una meno potente per contifisici.
credo che con rd790 e il supporto al quad crossfire sicuramente qualcosa di + ufficiale che non la soluzione di una casa semi artigianale(xè oggettivamente dfi a confronto con asus o gigabite questo è)
per la fisica uscirà fuori.
psychok9
22-08-2007, 00:39
Salve ragazzi... avete da consigliare comparazioni aggiornate contro la 8800 GTS 640Mb? Es. Catalyst 7.7?
TecnoWorld8
22-08-2007, 02:11
no nn lavoro per ati ho solo acquistato una scheda (quella in firma) il la dfi crx3200 con rd600 per intel e 3 slot pci ex 8x.
visto che sul sito dfi e su quello ati la pubblicizzavano con ati phisicx ho semplicemente mandato una mail a dfi e una ad ati visto che ho comprato un prodotto pubblicizzato per fare certe cose e mi hanno mandato dei dvr per farlo andare e un link alle demo scaricabili
ho fatto alcune prove e purtroppo l'ati physics andava sl su quelle demo.
per adesso per funzionare deve avere 2 schede in rendering crossfire xè se metti 1 scheda in rendering tipo la x1950pro e una x1600pro il sistema riconosce le 2 vga ma nn attiva ne il cf ne l'ati phys ma vede la x1950pro come primaria e la x1600pro come altre 2 uscire dvi per il multi monitor(cosa che è la normalità quello che accade a tutti voi se avete 2 slot pci-ex e ci mettere 2 vga diverse)
credo che sia cmq un sistema che vada fatto obbligatoriamente con 2 schede in cf dedicate al rendering e poi una meno potente dedicata alla fisica anche se si vociferava della possibilità di fare cf con 2 vga uguali e abilitarne una delle 2 per la fisica ma nsomma capite bene che mettere 2 hd2900 in cf e una fargli fare solo la fisica è decisamente sottosfruttata no?
ho visto funzioare anche un ati physics con 3 x1900xtx ma continuo a pensare che non sia una soluzione valida visto che cmq una delle 3 vga verrebbe sottofruttata solo per la fisica.
oggettivamente la soluzione migliore è 2 in rendering e una meno potente per contifisici.
credo che con rd790 e il supporto al quad crossfire sicuramente qualcosa di + ufficiale che non la soluzione di una casa semi artigianale(xè oggettivamente dfi a confronto con asus o gigabite questo è)
per la fisica uscirà fuori.
caspita, complimenti per lo scoop allora!!! mi chiedevo però la motivazione...diciamo...tecnica, per far sì che ci voglia per forza un CF di 2 schede per poterne usare poi una terza. Mi spiego...l'ideale per me sarebbe, per esempio, usare una scheda per il rendering (una potente, di ultima gen) e una meno potente per la fisica, in modo da non "buttarla via" o svenderla quando ormai è vecchia per fare rendering. Penso che sarebbe un modo per fidelizzare la clientela e sinceramente non ci vedo problemi tecnici...
Quindi non ti hanno spiegato il motivo per questo?
Inoltre sarebbe un modo per poter usare anche schede mamme con solo due PCI-e, anzichè le rarissime con tre...
p.s.: le demo sono belle? hai la possibilità di mostrare qualche screen o meglio ancora qualche filmato? Grazie.
ecco le performance di bioschok con hd 2900xt e 8800gtx in dx9 e 10
http://www.pctuner.info/up/results/_200708/th_20070822095125_results.jpg (http://www.pctuner.info/up/image.php?src=_200708/20070822095125_results.jpg)
http://www.digitalreport.net/content/view/52/29/
Chicco85
22-08-2007, 09:06
Se la cava decisamente bene, considerando che la 8800 GTX è la versione OC di evga. ;)
Cmq sul th ufficiale di bioshock dicono che con la x2900xt viaggia perfettamente senza problemi. Forse è un gioco un po' più a favore per ati ?!?
Chicco85
22-08-2007, 09:18
E' probabile che si trovi particolarmete a suo agio. :)
Hai provato la demo ?!?
Come si comporta con la x1900xtx ?!?
Chicco85
22-08-2007, 09:22
Hai provato la demo ?!?
Come si comporta con la x1900xtx ?!?
No, la demo la proverò oggi quando mi arriverà la nuova vga... la x1900xtx è defunta da tempo ormai... :D
Comuqnue, penso che avrebbe girato senza grossi problemi a 1280x1024 al massimo, vedendo cosa fanno vga inferiori. ;)
NvidiaMen
22-08-2007, 09:50
Non quoto nessuno per non generare flames, ma semplicemente per rettificare alcune GROSSE inesattezze dette in qualche post poco sopra.
Sia nVidia che ATi supportano da più di un anno nei loro drivers ed INDIPENDENTEMENTE da configurazioni SLI o CF la fisica nei videogiochi attraverso elaborazioni interne alla GPU (anche se singola) utilizzando il famoso motore Havok FX (http://www.gamestar.it/showPage.php?template=News&id=5846&argomento=NVIDIA&masterPage=ngs_articolo.html).
Questo kit SDK si avvale della programmabilità dello Shadel Model 3.0 supportato già dalle DX9 (http://punto-informatico.it/p.aspx?id=1439495) (mentre lo Shadel Model 4.0 in DX10 utilizza procedure di calcolo fisico proprietarie sviluppate dalla stessa Microsoft) per la completa gestione della fisica attraverso le GPU oltre a permettere anche la gestione di questi complessi calcoli attraverso le CPU multicores (con prestazioni ovviamente ridotte rispetto a quelle ottenibili con le stesse GPU). Il fatto che ATi abbia pubblicizzato il trittico con due schede in CF più una per la fisica è determinato dal fatto di voler raggiungere un livello prestazionale ancora maggiore con lo scopo di alleggerire le prime due GPU in CF dal calcolo della fisica gestibile tranquillamente dalla terza scheda dedicata.
NM.
Per chi volesse approfondire sulla tecnologia Havok FX disponibile già dalla lontana metà del 2006 può farlo qui (http://www.havok.com/content/view/187/77/)...
fustacchione90
22-08-2007, 09:56
cmq nion credo sia molto a favore ati sto gioco, avendo pubblicità nvidia all inizio!! :sofico:
3DMark79
22-08-2007, 10:04
Solo a me a dato l'impressione di solo un lieve miglioramento quelle foto in directX10 rispetto alle 9?:confused:
Cmq alcune new sulle nuove archittetture...
http://www.tomshw.it/news.php?newsid=11101
caspita, complimenti per lo scoop allora!!! mi chiedevo però la motivazione...diciamo...tecnica, per far sì che ci voglia per forza un CF di 2 schede per poterne usare poi una terza. Mi spiego...l'ideale per me sarebbe, per esempio, usare una scheda per il rendering (una potente, di ultima gen) e una meno potente per la fisica, in modo da non "buttarla via" o svenderla quando ormai è vecchia per fare rendering. Penso che sarebbe un modo per fidelizzare la clientela e sinceramente non ci vedo problemi tecnici...
Quindi non ti hanno spiegato il motivo per questo?
Inoltre sarebbe un modo per poter usare anche schede mamme con solo due PCI-e, anzichè le rarissime con tre...
p.s.: le demo sono belle? hai la possibilità di mostrare qualche screen o meglio ancora qualche filmato? Grazie.
le demo sono semplicemente le solite demo a partire dalla x1900xt quindi tanti bei filmatini con rubby che fa le sue "cose"
fondamentalmente quello che mi hanno dato sono dei dvr che abilitavano non tanto l'accelerazione fisica ma come ha detto giustamente nvidiaman che permettevano ad una scheda meno potente(in questo caso una x1600pro) di gestire i calcoli della fisica lasciando alle 2 x1950pro in cf il solo compito del rendering.
come detto i giochi e gli sviluppatore dei dvr gia danno supporto all'havok engine e all'ageia solo che ageia oltre a sviluppare un motore fisico per i giochi ha sviluppato anche un hw in grado di gestirlo per sgravare la gpu o la cpu da questo compito.
virtualmente credo non sia conveniente tenere 1 vga nuova per il renderign e una per la fisica semplicemente xè per i conti fisici con le moderne gpu basterebbe una hd2400 mentre come diresti tu tenere che so una hd2900xt per il rendering e una x1900xt per la fisica sarebbe sprecare decisamente la potenza di una x1900xt.
poi mi pare che un altra limitazione all'ati physics sia il fatto che le vga devono essere della stessa famiglia es x1900 con x1600 o hd2900 con hd2600 o 2400
+Lonewolf+
22-08-2007, 11:03
ecco le performance di bioschok con hd 2900xt e 8800gtx in dx9 e 10
http://www.pctuner.info/up/results/_200708/th_20070822095125_results.jpg (http://www.pctuner.info/up/image.php?src=_200708/20070822095125_results.jpg)
http://www.digitalreport.net/content/view/52/29/
la gtx 626/2000 (che è un oc considerevole) stacca la 2900 di poco...voglio vedere a default cosa succede...ottime news considerando che il gioco è anche TWIMTBP;)
fustacchione90
22-08-2007, 11:11
si e nel 3d ufficiale di bioshock gli nvidioti stanno flammando che la loro gtx ci stacca di 20 fps...senza manco accorgersi k è oc -.-
+Lonewolf+
22-08-2007, 11:12
si e nel 3d ufficiale di bioshock gli nvidioti stanno flammando che la loro gtx ci stacca di 20 fps...senza manco accorgersi k è oc -.-
2000 MESSAGGI:D :D :D
non stacca di 20 ma di 6 da quello che vedo....in ogni caso una vga oc contro una @def senza hotfix per le prestazioni...mi sa che a default c'è il sorpasso
2000 MESSAGGI:D :D :D
non stacca di 20 ma di 6 da quello che vedo....in ogni caso una vga oc contro una @def senza hotfix per le prestazioni...mi sa che a default c'è il sorpasso
convinto te :fagiano:
+Lonewolf+
22-08-2007, 11:18
convinto te :fagiano:
beh...una vga OC contro una vga def senza driver ottimizzati x bioshock(tralaltro utilizza ancora i 7.8) vuoi dire che nn sarebbe il sorpasso(solo 6 fps!!!!)
la gtx 626/2000 (che è un oc considerevole) stacca la 2900 di poco...voglio vedere a default cosa succede...ottime news considerando che il gioco è anche TWIMTBP;)
la hd 2900xt si comporta molto bene con bioschok,secono mè se quei test li avessero eseguiti con una gtx non oc ci sarebbe stato un sostanziale pareggio..
Grave Digger
22-08-2007, 11:23
la hd 2900xt si comporta molto bene con bioschok,secono mè se quei test li avessero eseguiti con una gtx non oc ci sarebbe stato un sostanziale pareggio..
mah sai,forse anche un leggero vantaggio,ovviamente andando a spanne eh :) ....
pasqualaccio
22-08-2007, 11:24
ma è vero che con il SP1 di vista queste schede saranno da buttare? :stordita:
non linciatemi :flower:
+Lonewolf+
22-08-2007, 11:25
la hd 2900xt si comporta molto bene con bioschok,secono mè se quei test li avessero eseguiti con una gtx non oc ci sarebbe stato un sostanziale pareggio..
dimentichi i drivers hotfix....in quel test usano i 7.8 base
Grave Digger
22-08-2007, 11:27
ma è vero che con il SP1 di vista queste schede saranno da buttare? :stordita:
non linciatemi :flower:
ma sei pazzo :mbe: ???
fustacchione90
22-08-2007, 11:30
no non saranno da buttare in quanto le directx 10.1 non introducono nulla di nuovo, rendono solo obbligatoria quyalche opzione che nelle 10.0 era a discrezione dell utente\programmatore attivarle o no...
un esempio con le 10.1 sarà obbligatorio l AA4x...t sembra una cosa che la 2900 non possa fare?:sofico:
pasqualaccio
22-08-2007, 11:30
ma sei pazzo :mbe: ???
parlavo della compatibilità con le dx10.1 :stordita:
edit: fustacchione90 mi ha risposto più educatamente, grazie ;)
dimentichi i drivers hotfix....in quel test usano i 7.8 base
certo quelli danno qualcosa in più,io li ho provati e vanno veramente bene con bioschok il gioco va veramente fluido...
Grave Digger
22-08-2007, 11:32
parlavo della compatibilità con le dx10.1 :stordita:
non butterai via nulla :mbe: ,il tesselation è incluso in questa vga,anche se non è ufficialmente dx10.1 compliant ;) ......sulle altre features non si sa molto,cmnq non c'è alcun problema di sorta :) ....
edit:e cmnq tu hai chiesto di non essere linciato :O
Cmq anche io avevo sentito dire che con l'uscita delle directx 10.1 le schede directx 10 non erano più compatibli... E quindi anche con i giochi realizzati con le 10.1.
Quindi non è vero ?!?
pasqualaccio
22-08-2007, 11:33
non butterai via nulla :mbe: ,il tesselation è incluso in questa vga,anche se non è ufficialmente dx10.1 compliant ;) ......sulle altre features non si sa molto,cmnq non c'è alcun problema di sorta :) ....
edit:e cmnq tu hai chiesto di non essere linciato :O
:)
fustacchione90
22-08-2007, 11:40
Cmq anche io avevo sentito dire che con l'uscita delle directx 10.1 le schede directx 10 non erano più compatibli... E quindi anche con i giochi realizzati con le 10.1.
Quindi non è vero ?!?
non è vero, le .1 rendono obbligatorio quello che nelle 10 era opzionale, punto...:p
ecco le performance di bioschok con hd 2900xt e 8800gtx in dx9 e 10
http://www.pctuner.info/up/results/_200708/th_20070822095125_results.jpg (http://www.pctuner.info/up/image.php?src=_200708/20070822095125_results.jpg)
http://www.digitalreport.net/content/view/52/29/
nn ho capito diverse cose:
1) perchè con la gtx usano gli ultimi driver e con la 2900 no
2) perchè usano una gtx occata e la radeon a default
3)che caccio serve mettere i cat 7.7 potevano fare 7.8 e 7.8hotfix
LA VEDO UNA GRANDE FANBOIATA e nn la tenge minimamente in considerazione, un confronto va fatto ad armi pari, se no che confronto è?
ps: con gli hotfix un utente ha postato (sul 3d di bioshock) che come max faceva i 120 e medi i 60, cmq fa niene, se vogliono fare un confronto lo facciano come si deve
Meglio così... Io infatti stavo aspettando l'uscita delle dx 10.1 che se non erro verranno introdotte con il primo service pack di windows vista, correggetemi se sbaglio..., per comprarmi la scheda video nuova... Quindi mi assicurate che non vi è alcun problema di sorta con queste schede video directx 10 di prima generazione ?!?
Posso comprare tranquillamente senza doverla comprare nuova tra 4 mesi perchè i titoli sviluppati in directx 10.1 non funzionano ?!?
Grazie.
si e nel 3d ufficiale di bioshock gli nvidioti stanno flammando che la loro gtx ci stacca di 20 fps...senza manco accorgersi k è oc -.-
concordo col termine che hai detto anche se sono sicuro che mi costarà il ban/richiamo!!!!
+Lonewolf+
22-08-2007, 11:52
:cool: nn ho capito diverse cose:
1) perchè con la gtx usano gli ultimi driver e con la 2900 no
2) perchè usano una gtx occata e la radeon a default
3)che caccio serve mettere i cat 7.7 potevano fare 7.8 e 7.8hotfix
LA VEDO UNA GRANDE FANBOIATA e nn la tenge minimamente in considerazione, un confronto va fatto ad armi pari, se no che confronto è?
ps: con gli hotfix un utente ha postato (sul 3d di bioshock) che come max faceva i 120 e medi i 60, cmq fa niene, se vogliono fare un confronto lo facciano come si deve
un applauso...qualcuno capisce qualcosa...:cool:
:cool:
un applauso...qualcuno capisce qualcosa...:cool:
Grazie
cmq se fossi moderatore ti assicuro che molta genta si beccerebbe un ban a vita appena inizia a rompere (e sul 3d di bioshock ce ne sono molti)
Per una buona fetta di siti la 2900 è nata male e continuerà ad andare male.
Puro Fanboy(smo).
Come gia detto da altri i test van fatti ad armi pari.
Poi,se la gtx andrà di più,sarò io il primo ad ammetterlo,ma voglio un test oggettivo.
TecnoWorld8
22-08-2007, 12:03
La 2900xt fa una gran bella figura con questo gioco. Se i nuovi giochi si comporteranno tutti così (penso a crysis, ad esempio) i possessori di questa scheda hanno di che gioire, dato il prezzo d'acquisto!
La 2900xt fa una gran bella figura con questo gioco. Se i nuovi giochi si comporteranno tutti così (penso a crysis, ad esempio) i possessori di questa scheda hanno di che gioire, dato il prezzo d'acquisto!
infatti:D
fustacchione90
22-08-2007, 12:09
uuu sai ban k mi son preso nel passato x averlo detto....cmq i mess privati da qulli con nvidia stanno volando nella mia casella di posta lol....
Per una buona fetta di siti la 2900 è nata male e continuerà ad andare male.
Puro Fanboy(smo).
Come gia detto da altri i test van fatti ad armi pari.
Poi,se la gtx andrà di più,sarò io il primo ad ammetterlo,ma voglio un test oggettivo.
l'avevano detto quasi tutti: <<bioshock sarà il banco di prova per G80 e R600>> adesso voglio vedere un confronto serio fatto come si deve ad armi pari, cioè tutto a dafault, e con gli ultmi driver sia ati che nvidia.
poi mettiamo che la 2900 faccia con gli hotfix 5/6fps di meno in dx10, le conclusioni sono queste: O MA LA SI E' PAGATA BEN 399/350€ LA GTX COSTA 150/200€ DI PIU', quindi spero che gli i talebani famboy di nvidia abbassino le arie, cioè nn è possibile che qualunque cosa si dica di questa scheda viene presa dai possessori di g80 e estremizzata sempre in negativo.
vorrei proprio vedere cosa succede se HW fa la rece con un game dx10 e per puro culllo la 2900 va meglio della gtx, vorrei proprio vedere cosa si metteono a dire tutti quei....... e adesso mi fermo se no...
psychok9
22-08-2007, 12:13
La 2900xt fa una gran bella figura con questo gioco. Se i nuovi giochi si comporteranno tutti così (penso a crysis, ad esempio) i possessori di questa scheda hanno di che gioire, dato il prezzo d'acquisto!
Punto 1.
Sono davvero una buona notizia le performance delle ATi in questo gioco... (rischiava di scomparire, IMHO, se continuava il trend negativo... ora quantomeno con una scheda più economica fronteggia una ben più costosa).
Punto 2.
Ma avete visto gli screen e la comparazione DX9 vs DX10!?!??!?!
Praticamente non solo, le DX10, sono una PESSIMA trovata commerciale... perdiamo pure in performance senza guadagnare nulla in termini grafici!!! :muro: :muro: :muro: Ma che bello... C'è ancora qualcuno che crede alla favoletta che ci facevano "il favore" di un boost nelle performance "software" e quasi gratuito? (Windows Vista XD):doh: :doh: :doh: :banned:
p.s. la cosa che mi è dispiaciuta è che hwupgrade mi è sembrata abbastanza "commerciale" (per non dire proMs) nel parlare delle DirectX10... da loro mi aspetto critiche quando ci vogliono... ;)
Adesso so che Vista porta dei benefici ma non certo nei giochi... :(
uuu sai ban k mi son preso nel passato x averlo detto....cmq i mess privati da qulli con nvidia stanno volando nella mia casella di posta lol....
lol, cmq ricordo il tuo ban, che ti è stato dato da FreeMan.
era sul RightMark3D...
cmq siamo fuori ot se continuiamo davvero....
mordsiger
22-08-2007, 12:17
ciao, scusate ma qualcuno mi sa dire come si muove la 2900 con neverwinter nights 2 , i test in rete li trovo solo relativi a driver preistorici....
grazie
Punto 1.
Sono davvero una buona notizia le performance delle ATi in questo gioco... (rischiava di scomparire, IMHO, se continuava il trend negativo... ora quantomeno con una scheda più economica fronteggia una ben più costosa).
Punto 2.
Ma avete visto gli screen e la comparazione DX9 vs DX10!?!??!?!
Praticamente non solo, le DX10, sono una PESSIMA trovata commerciale... perdiamo pure in performance senza guadagnare nulla in termini grafici!!! :muro: :muro: :muro: Ma che bello... C'è ancora qualcuno che crede alla favoletta che ci facevano "il favore" di un boost nelle performance "software" e quasi gratuito? (Windows Vista XD):doh: :doh: :doh: :banned:
concordo col punto 1, ma col 2 sono un po' in cotradizione, cioè: la demo è troppo corta, magari ci sono livelli in cui la differenza dx9-10 si notà di più in altre meno, qundi bisognerebbe provarlo tutto
+Lonewolf+
22-08-2007, 12:19
ragazzi ho un problemone!!!!! all'improvviso bioshock mi ha fatto un casino di atefatti e ho visto che i driver erano spariti....ho provato a reinstallarli ma mi dice che manca il file INF e non mi fa installare un tubo!!!!! che devo fàààààààààà????????????????:cry:
ciao, scusate ma qualcuno mi sa dire come si muove la 2900 con neverwinter nights 2 , i test in rete li trovo solo relativi a driver preistorici....
grazie
sinceramente con le ultime relase di driver nn saprei, cmq con tutto al max a risoluzioni umane e coi driver 7.6 (se nn ricordo male) gli fps nn erano così elevati, sia su gts/gtx che sulla 2900, cmq si era giunti alla conclusione che il game era stato fatto un po' male;) magari nn so però può essere che con le ultime patch sia migliorato quelcosa.
al max prova a chiedere sul 3d ufficiale
ragazzi ho un problemone!!!!! all'improvviso bioshock mi ha fatto un casino di atefatti e ho visto che i driver erano spariti....ho provato a reinstallarli ma mi dice che manca il file INF e non mi fa installare un tubo!!!!! che devo fàààààààààà????????????????:cry:
1) prova a riavviare
2) prova a disistallare i driver con driverclear e ristallali
3) se nn funza il punto 2 riscaricali, tanto sono "solo" 92mb
4) se ne anche il 3 funza puoi provare (ed è cio che farei io):
4a) prova a ripristinare il sistema con l'utiliti di windows
4b) prova a ripristinare windows avviando il disco da boot
5) (a questo punto io farei così) Format
facci sapere
mordsiger
22-08-2007, 12:28
grazie, comunque in nwn2 vanno + le nvidia? la differenza era molta?
ragazzi una domanda tecnica....meglio un crossfire con 2 schede da 512 o da 1 gb? credo che l'unica differenza è la velocità delle ram, ma quanto è utile??
fustacchione90
22-08-2007, 12:37
crysis n so, ma cmq ut3, gears of war e compagnia bella gireranno da dio...hanno tutto l engine di bioshiock!!
ragazzi una domanda tecnica....meglio un crossfire con 2 schede da 512 o da 1 gb? credo che l'unica differenza è la velocità delle ram, ma quanto è utile??
se proprio devi fare un CF fallo con la 512 visto che cmq la differenza tra le 2 è pochissimo, neanche di 2fps, cmq se punti a un discorso di longevità prendila da 1gb che vai tranquillo;)
grazie, comunque in nwn2 vanno + le nvidia? la differenza era molta?
nn mi ricordo, cmq mi sembra che g80 andasse meglio
ciao, grazie per la risposta, sono sincero, se faccio crossfire è per un discorso di longevità, ma anche di prestazioni, anche se ati non è a livello di nvidia, ma leggo che è più una questione di driver che di scheda, sarà vero???
crysis n so, ma cmq ut3, gears of war e compagnia bella gireranno da dio...hanno tutto l engine di bioshiock!!
menomale, e sopratutto: evvila l'ottimizazione
se proprio devi fare un CF fallo con la 512 visto che cmq la differenza tra le 2 è pochissimo, neanche di 2fps, cmq se punti a un discorso di longevità prendila da 1gb che vai tranquillo;)
aggiungo fai un cf o prendi quella da 1gb solo se presumi di giocare con risoluzioni superiori ai 1600x1200.
fino a 1600x1200 una hd2900xt 512 va benissimo un cf fatto tra le due è sicuramente il top.
crysis n so, ma cmq ut3, gears of war e compagnia bella gireranno da dio...hanno tutto l engine di bioshiock!!
no diciamola tutta bioshock una versione altamente customizzata unreal engine 2.5(vengeance engine) paticamente la versione + completa dell'engine di unrel tournamente 2004, mentre per la path dx10 hanno usato qualcosa (a detta del programmatore capo ken levine "ci siamo mossi sull'unreal engine 3") dell'unreal engine 3.
Cmq oggettivamente se è questo quello che ci puo offrire ut3 engine e queste sono le performance c'e da ben sperare
ut2007 e gears invece utilizzano l'unreal engine 3 che sarà qualcosa di totalmente nuovo;)
fustacchione90
22-08-2007, 13:02
e quii ti sbagli
ho appena letto sul 3d di bioshock che dal 2 moddato sono passati al 3 moddato x implementare le dx10 ^^
ciao, grazie per la risposta, sono sincero, se faccio crossfire è per un discorso di longevità, ma anche di prestazioni, anche se ati non è a livello di nvidia, ma leggo che è più una questione di driver che di scheda, sarà vero???
se ti riferisci alle prestazioni ti do una valutazione oggettiva:
DX9:
ottime prestazioni sia con filtri che senza, bisogna solo aspettare i cata 7.9/7.10 e il problema dell'AA sarà ulteriormente meno marcato, cmq in tutti i game fino a ris 1600x1200 ci sono ottime prestazioni
DX10:
dagli ultimi riscontri con bioshock la 2900 va come la GTX c'è una minima differenza di 2/3 fps a 1680x1050 quindi visto che costa ben 150/200€ in meno, valuta tu. poi c'è da considerare che il motore grafico di bioshock è l'unreal engine 3, lo stesso dei giochi più attesi (a parte crysis) che dovranno uscire
come confronto di prestazioni nei game ti posso dire: la GTX va meglio in quasi tutti i game DX9 sia con aa che senza, ma cmq nn dimenticare che la 2900 costa un bel po' di meno e nn è che se ti fa 80fps anzi che 100fps te ne accorgi ;) la 2900 con attivo l'aa ha delle prestazioni di poco superiori ha una GTS 640, invece senza è molto vicina ha una GTX.
ora valuta te, cmq se ti può interessare il mio personale parere è: nn prendere una gtx ma fatti una 2900 che ha ancora ampi margini di miglioramento, e anche se nn li avesse, cmq nn fa così schifo come vga, anzi... cmq io sono più che soddisfatto;)
cmq se ti dovessi fare un CF di 2900 1gb stai tranquillo che per tutto il 2008 sei a posto e anche un po' di 2009, poi valuta te;)
e quii ti sbagli
ho appena letto sul 3d di bioshock che dal 2 moddato sono passati al 3 moddato x implementare le dx10 ^^
infatti ho editato mi ero completamente scordato cmq si è un ibrido fondamentalmente per la dx9 si sono tenuti il 2.5 e hanno usato poco il 3(a che pro oggettivamente rinviare l'uscita del gioco ancora) mentre per la path dx10 a sto punto si sono totalmente affidati al 3.
ok, un bel cf con 2 x2900 xt da 1 gb, affiancate da due bei wb e sono apposto, vi dò altre info stasera perchè vado ad ordinarle, grazie
se ti riferisci alle prestazioni ti do una valutazione oggettiva:
DX9:
ottime prestazioni sia con filtri che senza, bisogna solo aspettare i cata 7.9/7.10 e il problema dell'AA sarà ulteriormente meno marcato, cmq in tutti i game fino a ris 1600x1200 ci sono ottime prestazioni
DX10:
dagli ultimi riscontri con bioshock la 2900 va come la GTX c'è una minima differenza di 2/3 fps a 1680x1050 quindi visto che costa ben 150/200€ in meno, valuta tu. poi c'è da considerare che il motore grafico di bioshock è l'unreal engine 3, lo stesso dei giochi più attesi (a parte crysis) che dovranno uscire
come confronto di prestazioni nei game ti posso dire: la GTX va meglio in quasi tutti i game DX9 sia con aa che senza, ma cmq nn dimenticare che la 2900 costa un bel po' di meno e nn è che se ti fa 80fps anzi che 100fps te ne accorgi ;) la 2900 con attivo l'aa ha delle prestazioni di poco superiori ha una GTS 640, invece senza è molto vicina ha una GTX.
ora valuta te, cmq se ti può interessare il mio personale parere è: nn prendere una gtx ma fatti una 2900 che ha ancora ampi margini di miglioramento, e anche se nn li avesse, cmq nn fa così schifo come vga, anzi... cmq io sono più che soddisfatto;)
cmq se ti dovessi fare un CF di 2900 1gb stai tranquillo che per tutto il 2008 sei a posto e anche un po' di 2009, poi valuta te;)
il discordo di essere + che soddisfatto lo credo bene anche xè si parla di vga di 300 e sopra euro e non di fasce medie da 100.
oggettivamente per le prestazioni che garantisce e il costo la gtx non è la cosa + indicata andando a finire come scelta per i comuni mortali sulla gts da 640mb o sulla hd2900xt.
a sto punto tra le 2 entrano fattori di simpatia e di come ci si è trovati è vero che la hd2900xt puo avere in prospettivaaumenti maggiori ma è anche vero che cmq chi prende una 8800gts ha una vga sicuramente solida e dalle ottime performaces
+Lonewolf+
22-08-2007, 13:13
sono riuscito a mettere su i cata 7.8 ma non mi installa l'hotfix a causa della mancanza del file INF...qualcuno mi allega il suo??? chi ha una 2900 si intende
mordsiger
22-08-2007, 13:14
io ho una gts da 320Mb evga...faccio la cazzata a prendere la 2900 da 1Gb??
ditemelo onestamente
ma se si è obbligati dalla scheda madre come la mia che è una dfi p35, allora bisogna accontentarsi, certo anche io avrei preferito uno sli con 2 8800 ultra, ma avevo pensato pure a 2 x1950xtx, ma come prezzo siamo a livello di x2900xt
+Lonewolf+
22-08-2007, 13:16
io ho una gts da 320Mb evga...faccio la cazzata a prendere la 2900 da 1Gb??
ditemelo onestamente
sec me il gap di prestazioni non giustifica l'acquisto...la tua è un ottima VGA ancora
mordsiger
22-08-2007, 13:17
il gap è a favore dell'ati o dell'nvidia?
soldi a parte.... non guardiamo ai soldi, solo alle pure prestazioni
mah dico la mia penso che la 8800 ultra al momento sia inavvicinabile
Grave Digger
22-08-2007, 13:21
il gap è a favore dell'ati o dell'nvidia?
soldi a parte.... non guardiamo ai soldi, solo alle pure prestazioni
se giochi a 1280x1024 la tua gts ha ancora molto da dire ;) ...
tienila :)
pioss~s4n
22-08-2007, 13:23
il gap è a favore dell'ati o dell'nvidia?
soldi a parte.... non guardiamo ai soldi, solo alle pure prestazioni
secondo me significa buttare via soldi, ma è anche vero che ogni persona butta via soldi come meglio può\crede.
A livello di prestazioni una 2900xt con i titoli di oggi viaggia si e no un 10% in più di una 320 8800, fino i 1600*1200. A risoluzioni maggiori aumenta il divario.
il gap è a favore dell'ati o dell'nvidia?
soldi a parte.... non guardiamo ai soldi, solo alle pure prestazioni
gap a favore ati...
ma fossi in te lascierei la 8800, risparmia soldi e all'uscita prendi o la rev dell'r600 o i nuovi n90/92
mordsiger
22-08-2007, 13:24
gioco a 1600x1200 !!! quindi?
Grave Digger
22-08-2007, 13:24
secondo me significa buttare via soldi, ma è anche vero che ogni persona butta via soldi come meglio può\crede.
A livello di prestazioni una 2900xt con i titoli di oggi viaggia si e no un 10% in più di una 320 8800, fino i 1600*1200. A risoluzioni maggiori aumenta il divario.
credo più di un 10%,direi 15%(anche 20%) mediamente ;)
pioss~s4n
22-08-2007, 13:25
mah dico la mia penso che la 8800 ultra al momento sia inavvicinabile
non per niente una ultra costa 100eur in più di una gtx, e 200eur in più di una 2900. Direi che non fa una grinza.
Ciao!
Grave Digger
22-08-2007, 13:25
gioco a 1600x1200 !!! quindi?
allora ti ci vuole una scheda con maggiore ram on-board :) ...cerca una vga di seconda mano da conguagliare a dovere ;) ....
ale0bello0pr
22-08-2007, 13:27
vorrei che fosse domani gia' novembre ...rivoluzione un pò su tutti i campi.....
uscita di Crysis,G92/R600 NEW?,Penryn,X38....un progresso avanzato di tecnologia....:cool:
domani tutto questo sarà già vecchio
mordsiger
22-08-2007, 13:31
nn butto via i soldi... diciamo che tramite un rigiro riesco a fare la patta.... però il rigiro è inutile se la mia 8800 è superiore quindi vi ho chiesto.
se l'ati va di + allora il rigiro famoso conviene..
tutto qui....
pioss~s4n
22-08-2007, 13:31
uscita di Crysis,G92/R600 NEW?,Penryn,X38....un progresso avanzato di tecnologia....:cool:
ma il fatto è che siamo quasi a settembre, a novembre mancano praticamente due mesi. Uscirà un fottio di hw nuovo, e ancora qui c'è gente che sbarella su cosa ha più senso comprare tra G80 e R600, alla luce di un guadagno di frame ridicolo su titoli in uscita veramente ottimizzati. E parlo di Bioschock.. io me lo gioco ad una media di 40 frame con un leggerlo oc della gpu. Crysis mi girerà sicuramente bene, mentre al massimo dettaglio arrancherà su ogni proposta hw presente sul mercato. Perchè altrimenti non venderebbero più gpu fino al prossimo 'bel gioco su pc'.. ehm.. chissà quanto dovremmo aspettare. :D
Ciao!
mordsiger
22-08-2007, 13:32
ma per overclokkare cosa si usa? ati tray tool va? atitool? rivatuner?
TecnoWorld8
22-08-2007, 13:44
vorrei che fosse domani gia' novembre ...rivoluzione un pò su tutti i campi.....
uscita di Crysis,G92/R600 NEW?,Penryn,X38....un progresso avanzato di tecnologia....:cool:
penryn per desktop uscirà solo ad inizio 2008, pare...
nn butto via i soldi... diciamo che tramite un rigiro riesco a fare la patta.... però il rigiro è inutile se la mia 8800 è superiore quindi vi ho chiesto.
se l'ati va di + allora il rigiro famoso conviene..
tutto qui....
io sono passato da una 8800gts 320mb ad un ahd2900xt e il guadagno c'è stato cmq anche se oggettivamente la differenza tra le 2 se devi cambiare è non spenderci sopra + di 50-60E nello scambio
DakmorNoland
22-08-2007, 14:03
io sono passato da una 8800gts 320mb ad un ahd2900xt e il guadagno c'è stato cmq anche se oggettivamente la differenza tra le 2 se devi cambiare è non spenderci sopra + di 50-60E nello scambio
Scusa a che risoluzione giochi? Perchè ho il 205BW con nativa 1680x1050 e vorrei sapere come se la cava la 2900XT a risoluzioni elevate, rispetto ad una 8800 320MB...Grazie! :)
TecnoWorld8
22-08-2007, 14:20
Scusa a che risoluzione giochi? Perchè ho il 205BW con nativa 1680x1050 e vorrei sapere come se la cava la 2900XT a risoluzioni elevate, rispetto ad una 8800 320MB...Grazie! :)
penso sia abbastanza meglio la 2900xt a quella res
vorrei che fosse domani gia' novembre ...rivoluzione un pò su tutti i campi.....
uscita di Crysis,G92/R600 NEW?,Penryn,X38....un progresso avanzato di tecnologia....:cool:
ma perchè nessuno nomina mai i K10? se nn sbaglio (e nn sbaglio) l'ultimo cambio di architettura che ha fatto amd è stata una rivoluzione, quindi occhio;)
TecnoWorld8
22-08-2007, 14:21
ma perchè nessuno nomina mai i K10? se nn sbaglio (e nn sbaglio) l'ultimo cambio di architettura che ha fatto amd è stata una rivoluzione, quindi occhio;)
i K10 per desktop, anche loro usciranno a fine anno o inizio 2008...
DakmorNoland
22-08-2007, 14:28
ma perchè nessuno nomina mai i K10? se nn sbaglio (e nn sbaglio) l'ultimo cambio di architettura che ha fatto amd è stata una rivoluzione, quindi occhio;)
Giusta osservazione! Io dico solo che se Intel pensa di sfornare un penryn a 4Ghz si vede che ha parecchio paura della nuova architettura AMD.
In fondo anche R600 è una bella innovazione in fatto di GPU anche se non ancora ben sfruttata a causa dei driver. Per questo credo che ad AMD per contrastare G92 sarà sufficiente ottimizzare l'attuale architettura (R680) per contrastare G92.
i K10 per desktop, anche loro usciranno a fine anno o inizio 2008...
amd ha dichiarto a fine anno, ma gli opteron K10 sono già in commercio, quindi se uno volesse recuperare un K10 am2 di nuova generazione nn dovrebbbe avere gosse difficoltà;) e cmq la cosa che nn mi piace che intel è sempre ricordata come nvidia, cioè ci sono anche altre 2 rivali che cmq in passato hanno nn poco spaccato;) poi va be, è na battagli persa in partenza lo so già
Giusta osservazione! Io dico solo che se Intel pensa di sfornare un penryn a 4Ghz si vede che ha parecchio paura della nuova architettura AMD.
In fondo anche R600 è una bella innovazione in fatto di GPU anche se non ancora ben sfruttata a causa dei driver. Per questo credo che ad AMD per contrastare G92 sarà sufficiente ottimizzare l'attuale architettura (R680) per contrastare G92.
QUOTO!
cmq io nn dimentico cosa hanno fatto vedere quelli di amd nella presentazione dei k10, che poi è stata publicata su HW, cioè nussun C2D e nn credo nemmen i penryn (visto che sono solo revisioni dei C2D) sono a oggi in grado di far questo
edit: mi sa che siamo un po' fuori ot :D
TecnoWorld8
22-08-2007, 14:35
amd ha dichiarto a fine anno, ma gli opteron K10 sono già in commercio, quindi se uno volesse recuperare un K10 am2 di nuova generazione nn dovrebbbe avere gosse difficoltà;) e cmq la cosa che nn mi piace che intel è sempre ricordata come nvidia, cioè ci sono anche altre 2 rivali che cmq in passato hanno nn poco spaccato;) poi va be, è na battagli persa in partenza lo so già
barcelona non è ancora in vendita....
barcelona non è ancora in vendita....
la disponibilità era stata confermata per agosto, questo è quello che so io poi se hanno avuto degli imprevisti nn lo sapevo
psychok9
22-08-2007, 14:43
se ti riferisci alle prestazioni ti do una valutazione oggettiva:
DX9:
ottime prestazioni sia con filtri che senza, bisogna solo aspettare i cata 7.9/7.10 e il problema dell'AA sarà ulteriormente meno marcato, cmq in tutti i game fino a ris 1600x1200 ci sono ottime prestazioni
DX10:
dagli ultimi riscontri con bioshock la 2900 va come la GTX c'è una minima differenza di 2/3 fps a 1680x1050 quindi visto che costa ben 150/200€ in meno, valuta tu. poi c'è da considerare che il motore grafico di bioshock è l'unreal engine 3, lo stesso dei giochi più attesi (a parte crysis) che dovranno uscire
come confronto di prestazioni nei game ti posso dire: la GTX va meglio in quasi tutti i game DX9 sia con aa che senza, ma cmq nn dimenticare che la 2900 costa un bel po' di meno e nn è che se ti fa 80fps anzi che 100fps te ne accorgi ;) la 2900 con attivo l'aa ha delle prestazioni di poco superiori ha una GTS 640, invece senza è molto vicina ha una GTX.
ora valuta te, cmq se ti può interessare il mio personale parere è: nn prendere una gtx ma fatti una 2900 che ha ancora ampi margini di miglioramento, e anche se nn li avesse, cmq nn fa così schifo come vga, anzi... cmq io sono più che soddisfatto;)
cmq se ti dovessi fare un CF di 2900 1gb stai tranquillo che per tutto il 2008 sei a posto e anche un po' di 2009, poi valuta te;)
Vedo che continuate a non centrare il punto: In DX10 si perdono fps senza guadagnarne in qualità visiva.
Interessante!!! :mad: :mad: :mad: :mad: :muro: :muro: :muro:
Scusa a che risoluzione giochi? Perchè ho il 205BW con nativa 1680x1050 e vorrei sapere come se la cava la 2900XT a risoluzioni elevate, rispetto ad una 8800 320MB...Grazie! :)
io gioco a 1600x1200 o a 1280x960.
deevo dirti che a 1280 le differenze sono minime mentre a 1600x1200 si sono iniziate a far sentire con incrementi minimi del 10% e a volte al massimo anche di un 50-60%
Iantikas
22-08-2007, 14:47
ma è vero che con il SP1 di vista queste schede saranno da buttare? :stordita:
non linciatemi :flower:
erano usciti un sacco d rumors su ste DX10.1...è intervenuta la stessa microsoft con un comunicato ufficiale dicendo ke solo una parte (delle poke innovazioni) delle DX10.1 nn'è supporta dalle attuali GPU DX10...e ke le feature nn supportate nn sono di fondamentale importanza...
...come sempre ci si fascia la testa prima d rompersela ;) ...ciao
(ora nn mi va d starlo a cercare ma se vai su google e metti qualke parola kiave sicuramente lo trovi senza troppa fatica)
Vedo che continuate a non centrare il punto: In DX10 si perdono fps senza guadagnarne in qualità visiva.
Interessante!!! :mad: :mad: :mad: :mad: :muro: :muro: :muro:
interesante cosa?
se fai una domanda magari perchè nn ti spieghi?
anzi no nn ti rispondo perchè sono sicuro che vuoi creare flame
Vedo che continuate a non centrare il punto: In DX10 si perdono fps senza guadagnarne in qualità visiva.
Interessante!!! :mad: :mad: :mad: :mad: :muro: :muro: :muro:
1) dipende da come sono state programmate se io so programmare in dx9 mi piazzi dopo 4 anni che lavoro in dx9 le dx10 da soli 6 mesi è ovvio che il prodotto che tiro fuori in dx10 sarà molto simile ad un prodotto dx9 che non a uno dx10 delle demo apprositamente programmate in dx10.
è come all'inzio delle schede sm3.0 ma non è che andassero meglio di quelle 2.0. e se ti ricordi i primi giochi sm3.0 a parte una leggera differenza dell'illuminazione non erano cosi diversi dalla controparte sm2.0.
le dx10 è lo stesso l'effetto dell'acqua del fuoco e del fumo sono migliori forse xè programmati in sm4.0 e non in sm3.0 ma non puoi aspettarti a soli 6 mesi dall'uscita delle dx10, quando anche il motore + atteso ut3 è stato programmato per il suo 80% in dx9, qualità visive troppo differenti dalle vecchie sdk.
parliamo della velocita invece mettiamo semplicemente che mentre per xp le case hanno avuto 4 anni per studiarlo e ben 2 anni per lavorare solo su questo s.o, con vista non è cosi stiamo si e no alla 3 o 4 release di dvr per vista e metti anche in conto che adesso i pr ati o nvidia non solo devono programmare dvr per vista ma anche quelli di xp con conseguente doppio lavoro doppi intoppi e doppie problematiche è ovvio che per maturare i dvr del nuovo so ci vorra almeno altri 5 o 6 mesi.
psychok9
22-08-2007, 14:53
interesante cosa?
se fai una domanda magari perchè nn ti spieghi?
anzi no nn ti rispondo perchè sono sicuro che vuoi creare flame
Flame? :eek: Per cosa scusa?
Sto dicendo, che guardando i benchmark di bioshock... non avete proprio parlato del fatto che passando in Dx10, a fronte di una resa visiva identica si perdono frame/sec anziché guadagnarne... :muro: :muro: :muro:
psychok9
22-08-2007, 14:56
1) dipende da come sono state programmate se io so programmare in dx9 mi piazzi dopo 4 anni che lavoro in dx9 le dx10 da soli 6 mesi è ovvio che il prodotto che tiro fuori in dx10 sarà molto simile ad un prodotto dx9 che non a uno dx10 delle demo apprositamente programmate in dx10.
è come all'inzio delle schede sm3.0 ma non è che andassero meglio di quelle 2.0. e se ti ricordi i primi giochi sm3.0 a parte una leggera differenza dell'illuminazione non erano cosi diversi dalla controparte sm2.0.
le dx10 è lo stesso l'effetto dell'acqua del fuoco e del fumo sono migliori forse xè programmati in sm4.0 e non in sm3.0 ma non puoi aspettarti a soli 6 mesi dall'uscita delle dx10, quando anche il motore + atteso ut3 è stato programmato per il suo 80% in dx9, qualità visive troppo differenti dalle vecchie sdk.
parliamo della velocita invece mettiamo semplicemente che mentre per xp le case hanno avuto 4 anni per studiarlo e ben 2 anni per lavorare solo su questo s.o, con vista non è cosi stiamo si e no alla 3 o 4 release di dvr per vista e metti anche in conto che adesso i pr ati o nvidia non solo devono programmare dvr per vista ma anche quelli di xp con conseguente doppio lavoro doppi intoppi e doppie problematiche è ovvio che per maturare i dvr del nuovo so ci vorra almeno altri 5 o 6 mesi.
Comunque mi riferisco a questa review/comparazione: http://www.digitalreport.net/content/view/52/1/1/4/
Io continuo a rimanere perplesso... Siamo ad Agosto e Vista e i suoi driver già sono stati aggiornati svariate volte... Ci era stato promesso un guadagno in qualità visiva e performance e invece c'è un degrado in entrambi i campi... praticamente ci "fregano fps", cioè potenza grafica, cioè soldi... :muro:
Sono un appassionato di hardware sin dai 286... e non ho niente contro Ms, quindi ti prego di non prenderla come una critica faziosa, ma di un appassionato VERO (sto usando Vista in questo momento, e mi piace pure).
Per me è una cosa gravissima... tutti a decantare le DirectX 10... e alla prova dei fatti invece si stanno dimostrando una mezza fregatura :(
Flame? :eek: Per cosa scusa?
Sto dicendo, che guardando i benchmark di bioshock... non avete proprio parlato del fatto che passando in Dx10, a fronte di una resa visiva identica si perdono frame/sec anziché guadagnarne... :muro: :muro: :muro:
nn so l'hai detto con...
mi sei sembrato uno che cercava rogne, cmq secondo me in DX10 si guadagna e nn poco di qualità grafica, poi c'è da dire che bioshock (la demo) è troppo corta per esprimere pareri, perchè sicuramente in certi livelli si noteranno di più dx10;) nn trovi
unrealman
22-08-2007, 15:19
ciao raga,
ho intenzione di comprarmi un nuovo dissipatore per la 2900XT,che dite il thermalRight V2 (tutto in rame) va bene ?
psychok9
22-08-2007, 15:24
nn so l'hai detto con...
mi sei sembrato uno che cercava rogne, cmq secondo me in DX10 si guadagna e nn poco di qualità grafica, poi c'è da dire che bioshock (la demo) è troppo corta per esprimere pareri, perché sicuramente in certi livelli si noteranno di più dx10;) nn trovi
No, cerco un driver che mi faccia vedere che le DX10 sorpassano graficamente le DX9 e magari con un guadagno di almeno la metà di quello promesso...
Comunque non ti ho capito... intendi dire che in alcune zone di alcuni livelli si noteranno migliorie grafiche? Però stiamo perdendo pure fps ed era quello il punto di forza... e invece stanno "sotto" :cry:
No, cerco un driver che mi faccia vedere che le DX10 sorpassano graficamente le DX9 e magari con un guadagno di almeno la metà di quello promesso...
Comunque non ti ho capito... intendi dire che in alcune zone di alcuni livelli si noteranno migliorie grafiche? Però stiamo perdendo pure fps ed era quello il punto di forza... e invece stanno "sotto" :cry:
Si, sicuramente nel gioco completo (che ripeto è uscito negli usa il 21 e in europa il 24) in alcuni livelli, si vedranno di più le dx10, è ovvio;)
Si, sicuramente nel gioco completo (che ripeto è uscito negli usa il 21 e in europa il 24) in alcuni livelli, si vedranno di più le dx10, è ovvio;)
Lo spero guarda visto che nella demo non ho notato nessun cambiamento...e sinceramente non voglio mettermi a fare screen per notare una differenza insulsa :muro: Se queste sono le dx10 al momento preferisco giocare con le dx9 e avere più FPs
ciao raga,
ho intenzione di comprarmi un nuovo dissipatore per la 2900XT,che dite il thermalRight V2 (tutto in rame) va bene ?
io sapevo che nn c'era nessun dissippatore attualmente in comercio compatibile con la 2900:what:
Lo spero guarda visto che nella demo non ho notato nessun cambiamento...e sinceramente non voglio mettermi a fare screen per notare una differenza insulsa :muro: Se queste sono le dx10 al momento preferisco giocare con le dx9 e avere più FPs
idem, ma gli effetti della luce si notane e nn poco, dai vostri screen (io nn ho provato a giocare in dx9, quindo nn li ho visti di persona)
unrealman
22-08-2007, 15:45
io sapevo che nn c'era nessun dissippatore attualmente in comercio compatibile con la 2900:what: beh il wb K7 è compatibile sia con le 1900 e 2900,e anche il thermalright è compatibile, quindi magari è adatto anche con le 2900 ... no ?:stordita:
beh il wb K7 è compatibile sia con le 1900 e 2900,e anche il thermalright è compatibile, quindi magari è adatto anche con le 2900 ... no ?:stordita:
bho se lo dice li allora prendilo, visto che quello in dotazione con solo 2 pippe fa un po schifo, cioè rafredda bene, ma se uno vuole occare un po (sopra i 820mhz) nn va più bene
unrealman
22-08-2007, 15:56
no il dissi stock non è malaccio peccato per la rumorosità,infatti lo cambio x quello :) ...cmq vedo di ordinare il V2 speriamo che vadi tutto bene:D :ciapet:
Danielao
22-08-2007, 16:05
No, cerco un driver che mi faccia vedere che le DX10 sorpassano graficamente le DX9 e magari con un guadagno di almeno la metà di quello promesso...
Comunque non ti ho capito... intendi dire che in alcune zone di alcuni livelli si noteranno migliorie grafiche? Però stiamo perdendo pure fps ed era quello il punto di forza... e invece stanno "sotto" :cry:
Quoto in pieno. Non vale nemmeno la scusa che è stata fatta una patch "al volo". Al momento le DX10 sembra abbiano mancato su tutto quello che veniva sbandierato:
- resa grafica sensibilmente migliore e soprattutto migliore velocità di esecuzione.
Inutile secondo me attendersi miracoli dal gioco Crytek da un punto di vista velocistico; magari dal punto di visto grafico si ma in fondo il prodotto è sempre nato in DX9.
Per far muovere la versione DX10 Crytek ha preferito attendere le nuove schede Nvidia ;)
Ti confermo la piena compatibilita' dell'Ybris K7... ce l'ho nel case da un po' ormai... :p Qualcuno l'ha perfino montato assieme alla parte del dissipatore originale che ricopre le ram... io personalmente le ho lasciate naked, con la X1900 era meglio...
Ciao!
Baio
a ok buono a sapersi.
peccato che la home page del 3d nn viene aggiornata :( cmq proverò a contattare l'utente per ricordagli che "esistiamo anche noi:D"
psychok9
22-08-2007, 17:00
Quoto in pieno. Non vale nemmeno la scusa che è stata fatta una patch "al volo". Al momento le DX10 sembra abbiano mancato su tutto quello che veniva sbandierato:
- resa grafica sensibilmente migliore e soprattutto migliore velocità di esecuzione.
Inutile secondo me attendersi miracoli dal gioco Crytek da un punto di vista velocistico; magari dal punto di visto grafico si ma in fondo il prodotto è sempre nato in DX9.
Per far muovere la versione DX10 Crytek ha preferito attendere le nuove schede Nvidia ;)
E' davvero un peccato... Praticamente alla faccia loro conviene attendere nuove schede più potenti per marcare il gap che sarebbe maggiore in DX9...
Si, sicuramente nel gioco completo (che ripeto è uscito negli usa il 21 e in europa il 24) in alcuni livelli, si vedranno di più le dx10, è ovvio;)
Beh però rimani con un framerate più basso a parità di scheda per effetti davvero irrisori se non influenzano in toto il gioco! Pensa che con la patch AMD per x64 praticamente c'erano più migliorie... :muro: o meglio erano più visibili... :doh:
Beh però rimani con un framerate più basso a parità di scheda per effetti davvero irrisori se non influenzano in toto il gioco! Pensa che con la patch AMD per x64 praticamente c'erano più migliorie... :muro: o meglio erano più visibili... :doh:
si però cnsidera che fare come media 60fps a 1680x1050, nn scendere mai sotto i 40, avendo tutto al max, nn è male, e poi c'è da considerare con con i driver successivi aumenteranno le prestazioni;)
ovvio il discorso cambia se: ho un game spacciato per dx10 dove le dx10 nn si vedeno, quindi è come se fosse in dx9 e mi fa solo 60fps di media a risoluzioni che ormai sono diventate umane, allora la cos cambia e nn poco, perchè uno si chiede: ma allora con crysis che è veramente il primo gioco DX10 con decine di effetti dx10 cos succederà?
(spero che la risposta nn sia tutti a 1280x1024 e senza aa, oppure cambi VGA, perchè mi in**zzerei nn poco)
E' davvero un peccato... Praticamente alla faccia loro conviene attendere nuove schede più potenti per marcare il gap che sarebbe maggiore in DX9...
Beh però rimani con un framerate più basso a parità di scheda per effetti davvero irrisori se non influenzano in toto il gioco! Pensa che con la patch AMD per x64 praticamente c'erano più migliorie... :muro: o meglio erano più visibili... :doh:
guarda oggettivamente tra sm3.0 e sm4.0 non ci sono differenze abbissali e non vi sono effetti "fantasmagorici" come il passaggio da sm2.0 a 3.0 con hdr.
sm4.0 introduce fondamentalmente quello che introducono le dx10 cioè una maggiore velocità di esecuzione del codice.
il passo avanti delle dx10 è propio il fatto che il tempo di overflow tra una operazione ed un altra è decisamente minore ed era quello che volevano gli sviluppatore che con lo sm3.0 si erano trovati in condizione di raggruppare in una riga di codice ben 3 righe di codice scritte in sm2.0 e quindi in un "blocco" di righe di codice tra un overflow ed un altra un numero maggiore di operazioni.
ovviamente se l'overflow era troppo lungo era inutile dare righe e righe di informazioni e quindi è nata la necessita di semplificare ancora di + il codice con sm4.0 e di poter mandare un numero consistende di informazioni e chiamate senza troppo tempo di attessa per l'overflow.
ti faccio un esempio la bella acqua di bioshock si poteva fare tranquillamente con lo sm2.0 o lo sm3.0 solo che con lo sm2.0 ci sarebbero volute 100 righe di codice con lo sm3.0 si sarebbe scesi sulla 40 e con lo sm4.0 si è ulteriolmente scesi e vi è stata data la possibilità di mandare in contemporanea oltre l'effetto dell'acqua anche quello del fuoco e del fumo.
a questo punto il rallentamento a cosa si puo imputare?
vista troppo pesante e richiede molta ram?
non credo visto che i pc delle review solitamente hanno 2 o 4gb di ram
hd lenti? ultimamente testano solo con sataII ncq senza programmi aperti in background oppure direttamente con i raptor in raid 0.
a questo punto resta come imputato il processore e la vga.
i processori hanno potenza sufficente vista è molto + portato al multitasing che non xp e poi solitamente nelle review è un periodo che testano pure con i quadcore.
le vga non credo sia un problema di potenza visto che sia le 8800gts gtx e hd2900xt hanno chi + e chi meno tutto i numeri di banda e di fillrate per poter gestire i calcoli richiesti.
quindi i principali indiziati sono
1) dvr delle case produttrici che hanno bisognodi tempo per adattare i dvr alle nuove dx10 e ai programmi e codici dei giochi che ci girano sopra.
2) programmatori dei giochi che hanno bisogno di tempo per capire come funzionano le dx10 e creare motori ad hoc.
il problema è che creare un motore ad hoc adesso dx10 vuol dire precludersi tutto il mercato ancora imponente di xp e quindi se tanto mi da tanto preferisco concentrarmi bene sulla base dx9 in modo che sia fruibile da tutti e poi la VERsione dx10 anche se va un pò + lenta amen.
poi io vorrei vedere alcuni test xè solitamente si testa con le dx9 sotto xp e con le dx10 sotto vista.
le dx10 solitamente emulano le dx9 gia con perdita di prestazione io non vorrei che molti software si fregino del titolo di gioco dx10 quando invece è un dx9 che si prende le dx10 e poi dica " bene dx10 ora emulami le dx9".
poi ma questa puo essere un mio errore vista quando lo si installa mi pare abbia installato solo le dx9 e non le dx10 che si installano tramite aggiornamento se cosi fosse sarebbe interessante fare un test dx9 sotto vista senza che questo si appoggi all'emulazione delle dx10 per le dx9 e sicuramente questo processo fa perdere molti framerate.
psychok9
22-08-2007, 20:06
Grazie per la risposta esauriente e dettagliata (programmatore? :)). La "teoria" la conoscevo, anche se in maniera molto meno approfondita... il problema è che alla fine della fiera ci ritroviamo con schede, a parità di potenza, più lente, con meno fps... e il tutto per un betatesting e un miglioramento "potenziale"... che non vedremo perché poi sarà tutto in DX10... e molto più pesante... (e poi siamo proprio sicuri che i miglioramenti saranno imputabili alle DX10 a livello "pratico")?
si però cnsidera che fare come media 60fps a 1680x1050, nn scendere mai sotto i 40, avendo tutto al max, nn è male, e poi c'è da considerare con con i driver successivi aumenteranno le prestazioni;)
ovvio il discorso cambia se: ho un game spacciato per dx10 dove le dx10 nn si vedeno, quindi è come se fosse in dx9 e mi fa solo 60fps di media a risoluzioni che ormai sono diventate umane, allora la cos cambia e nn poco, perchè uno si chiede: ma allora con crysis che è veramente il primo gioco DX10 con decine di effetti dx10 cos succederà?
(spero che la risposta nn sia tutti a 1280x1024 e senza aa, oppure cambi VGA, perchè mi in**zzerei nn poco)
dal forum di crysis
CPU: E6600 Core 2 Duo
Graphics: Nvidia 8800GTS (Presumably 320 for lower resolutions and 640 for higher)
RAM: 2GB (meglio se 4 scritto poco sotto)
C'e' scritto poi che sara' ottimizzato 64bit (10/15% in piu' a core quindi con i quad siamo a cavallo :D )
per dettagli ultra ovvio :)
+Lonewolf+
22-08-2007, 21:49
ragazzi qualcuno mi allega ilo suo file INF dei driver video ATI??? non mi fa installare gli hotfix...necessita di file INF e mi si è misteriosamente volatilizzato:muro:
dal forum di crysis
CPU: E6600 Core 2 Duo
Graphics: Nvidia 8800GTS (Presumably 320 for lower resolutions and 640 for higher)
RAM: 2GB (meglio se 4 scritto poco sotto)
C'e' scritto poi che sara' ottimizzato 64bit (10/15% in piu' a core quindi con i quad siamo a cavallo :D )
azzo per la ram, cmq sono per il dattaglio ultra?
se è così siamo tutti a cavallo, sia chi ha la 2900 che chi ha la gts, ovvio gtx e ultra np
TecnoWorld8
22-08-2007, 22:01
azzo per la ram, cmq sono per il dattaglio ultra?
se è così siamo tutti a cavallo, sia chi ha la 2900 che chi ha la gts, ovvio gtx e ultra np
se i drivers saranno maturi, credo che la 2900xt possa competere con la gtx. La versione da 1GB potrebbe essere finalmente sfruttata, forse...
ragazzi qualcuno mi allega ilo suo file INF dei driver video ATI??? non mi fa installare gli hotfix...necessita di file INF e mi si è misteriosamente volatilizzato:muro:
lone ma una bella disinstallazione pulitura con drivecleaner ed una nuova installazione?
ti dirò visto che hai tutti sti problemi una disinstallazione completa nn fa mai male.
3DMark79
22-08-2007, 22:12
Raga in questa notizia si parla di un HD2950Pro con shader 4.1 ad un prezzo davvero allettante, possibile?:eek:
Pareri...
http://translate.google.com/translate?hl=it&sl=en&u=http://www.vr-zone.com/articles/HD_2950Pro_(RV670)_Cards_%26_Specs_Revealed/5181.html&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3D2950pro%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26hs%3DhIx%26sa%3DG
se i drivers saranno maturi, credo che la 2900xt possa competere con la gtx. La versione da 1GB potrebbe essere finalmente sfruttata, forse...
be attualmente compete con la gtx in bioshock, tra le due vince la gtx per pochi fps, sono 5 o 6, quindi, io già così sono felicissimo:D
lo ero anche prima cmq, ma ora ancora di più, visto che ritenevo bioshock il banco di prova per la dx10, e quidni adesso sono sicuro che giocherò bene a crysis e a tutti i game con U E 3:D
Raga in questa notizia si parla di un HD2950Pro con shader 4.1 ad un prezzo davvero allettante, possibile?:eek:
Pareri...
http://translate.google.com/translate?hl=it&sl=en&u=http://www.vr-zone.com/articles/HD_2950Pro_(RV670)_Cards_%26_Specs_Revealed/5181.html&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3D2950pro%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26hs%3DhIx%26sa%3DG
mhm mi sembra un po' troppo poco il prezzo, cmq sarebbe possibile, o almeno credo. cmq da quello che ho letto nn sembrerebbe molto più potente della 2900, anzi con un bus a 256bit.
invece è molto ma molto interessante il fatto del core a 55nm, il che vuol dire bassissimo consumi;) però mi sorge un dubbio:
a 55nm è già possibile arrivare a quelle frequenze?
+Lonewolf+
22-08-2007, 22:29
be attualmente compete con la gtx in bioshock, tra le due vince la gtx per pochi fps, sono 5 o 6, quindi, io già così sono felicissimo:D
lo ero anche prima cmq, ma ora ancora di più, visto che ritenevo bioshock il banco di prova per la dx10, e quidni adesso sono sicuro che giocherò bene a crysis e a tutti i game con U E 3:D
la 2900 perde contro una gtx overcloccata e senza i driver x bioshock...immagina ad armi pari...sei ancora convinto che perda???
TecnoWorld8
22-08-2007, 22:30
mhm mi sembra un po' troppo poco il prezzo, cmq sarebbe possibile, o almeno credo. cmq da quello che ho letto nn sembrerebbe molto più potente della 2900, anzi con un bus a 256bit.
invece è molto ma molto interessante il fatto del core a 55nm, il che vuol dire bassissimo consumi;) però mi sorge un dubbio:
a 55nm è già possibile arrivare a quelle frequenze?
soprattutto bisogna vedere quando usciranno...conoscendo ATi, se dice fine anno magari sarà a gennaio 2008 o più in là...
Chicco85
22-08-2007, 22:33
Arrivata... config in signa e vga a default:
http://www.atris.it/Forum/photoplog/images/5226/1_2k1_def_cpu_3600_MHz.JPG
http://www.atris.it/Forum/photoplog/images/5226/1_2k3_def_cpu_3600_MHz.JPG
http://www.atris.it/Forum/photoplog/images/5226/1_2k5_def_cpu_3600_MHz.JPG
http://www.atris.it/Forum/photoplog/images/5226/1_2k6_def_cpu_3600_MHz.JPG
TecnoWorld8
22-08-2007, 22:57
i 3d mark + recenti?
Chicco85
22-08-2007, 23:05
C'è l'ultimo.... :confused:
Che altro bench vuoi? :)
TecnoWorld8
22-08-2007, 23:15
C'è l'ultimo.... :confused:
Che altro bench vuoi? :)
ops, avevo visto solo i primi due, forse non avevi ancora postato gli altri?!? scusa cmq :)
e complimenti!!!
mordsiger
22-08-2007, 23:28
per l'alimentazione il 6 pin + l'8 pin.... va bene anche l'8 pin da m/b?
per l'alimentazione il 6 pin + l'8 pin.... va bene anche l'8 pin da m/b?
gia' bella domanda...
me lo chiedevo anche io...
anche perche' non reisco a trovare un ali che ha sto cavolo di 8pin per le vga...
ghghghgh
per chicco 85..
ottimi risultati e considera che sull'ultimo (06) mi sembra influisca parecchio la cpu...o sbaglio?
Cmq belle ste ati :D
avrei la possibilita' di prenderle direttamente dagli usa (fidanzato di mia sorella va li' per 1 settimana per lavoro) non so che fare....
perche' gli euri scarseggiano..
ma considerato che una 90ina ce li faccio con la mia x1950 da 512...boh!
+Lonewolf+
22-08-2007, 23:56
per chicco 85..
ottimi risultati e considera che sull'ultimo (06) mi sembra influisca parecchio la cpu...o sbaglio?
Cmq belle ste ati :D
avrei la possibilita' di prenderle direttamente dagli usa (fidanzato di mia sorella va li' per 1 settimana per lavoro) non so che fare....
perche' gli euri scarseggiano..
ma considerato che una 90ina ce li faccio con la mia x1950 da 512...boh!
sarebbe un bel salto....
Avrei circa questi prezzi: 310€ per la gtx 400 per la ultra
e udite udite 291€ per la ati :-(
quella da 1gb addirittura costa di piu' di qua, sta piu' delle ultra!
Pensavo di prendere la gtx e la ultra, vedere con quale mi trovo meglio e poi una darla via...
certo che se trovassi una ati a prezzi migliori tipo 230/240 prenderei 1 ati e 1 gtx, faccio un po di test e mi vendo quella peggio (sicuramente terre la ati :D )
Avrei circa questi prezzi: 310€ per la gtx 400 per la ultra
e udite udite 291€ per la ati :-(
quella da 1gb addirittura costa di piu' di qua, sta piu' delle ultra!
Pensavo di prendere la gtx e la ultra, vedere con quale mi trovo meglio e poi una darla via...
certo che se trovassi una ati a prezzi migliori tipo 230/240 prenderei 1 ati e 1 gtx, faccio un po di test e mi vendo quella peggio (sicuramente terre la ati :D )
urg la frase prendere la gtx e la ultra e vedere con quale ti trovi meglio boh..
alla fine sono la stessa vga una con qualche mhz in + sull'altra.
non è come dire "prendo la gts o la gtx e vedo se la gts soddisfa le mie aspettative" oppure "prendo una gtx e una hd2900xt e vedo un attimo".
ma come ha detto qualcuno i soldi uno li butta come gli pare ma nsomma comprarsi una gtx e una ultra che altro non è che una gtx pompata...non so qualcosa mi stona...se fossi in te andrei sulla ultra se hai la pecunia se no tranquillamente sulla gtx.
MonsterMash
23-08-2007, 00:21
urg la frase prendere la gtx e la ultra e vedere con quale ti trovi meglio boh..
alla fine sono la stessa vga una con qualche mhz in + sull'altra.
non è come dire "prendo la gts o la gtx e vedo se la gts soddisfa le mie aspettative" oppure "prendo una gtx e una hd2900xt e vedo un attimo".
ma come ha detto qualcuno i soldi uno li butta come gli pare ma nsomma comprarsi una gtx e una ultra che altro non è che una gtx pompata...non so qualcosa mi stona...se fossi in te andrei sulla ultra se hai la pecunia se no tranquillamente sulla gtx.
Si, ma secondo me è anche un affare... se prende la ultra a 400 qui la rivende a 550 senza problemi. E se prende la gtx a 310 (mio dio, costa meno dei due terzi di quanto costa qui!), la rivende sicuro sicuro almeno a 400.
Strano invece che la ati costi solo poco meno che qui. Boo
MonsterMash
23-08-2007, 00:23
per l'alimentazione il 6 pin + l'8 pin.... va bene anche l'8 pin da m/b?
No, non va bene. Sono diverse le polarità, ed è diversa anche la forma dell'attacco. Anche volendo, non potresti infilarcelo :)
3DMark79
23-08-2007, 00:24
mhm mi sembra un po' troppo poco il prezzo, cmq sarebbe possibile, o almeno credo. cmq da quello che ho letto nn sembrerebbe molto più potente della 2900, anzi con un bus a 256bit.
invece è molto ma molto interessante il fatto del core a 55nm, il che vuol dire bassissimo consumi;) però mi sorge un dubbio:
a 55nm è già possibile arrivare a quelle frequenze?
Beh penso sapranno il fatto loro.Sicuramente buon per noi soprattutto per i consumi come accennavi.;)
soprattutto bisogna vedere quando usciranno...conoscendo ATi, se dice fine anno magari sarà a gennaio 2008 o più in là...
Questo è pure vero...speriamo non vogliano attendere la controparte Nvidia a novembre circa.Imho uscisse a settembre (cosa improbabile) calcolando anche il supporto DirectX10.1 ne venderanno tantissime.:sperem:
spettate,mi pare proprio brutta detta cosi'...di certo non ho money da buttare e quello che volevo dire e che semplicemente vorrei sfruttare l'occasione..
prendere la gtx e ultra significava vedere se la differenza di prezzo era giustificabile dalle prestazioni o no...
cmq resterei dell'idea di prendere una gtx e 1 2900 per fare qualche bench e poi rivendermela visto che non mi costerebbe niente e mi toglierei una soddisfazione!
Detta cosi' penso che vada meglio :)
sono studente e per me e' un sacrificio l'informatica...
Il fatto e' che prendendo una ati a 240€, se ci prendo 90€ con la mia vecchia e guadangno qualche cosa vendendo la gtx mi costerebbe sui 90€ e penso che quando andro' a rivendermela come minimo me li riprendo...quindi lungo termine il costo e' pari a 0, anzi ci guadando visto che la mia 1950 ormai col tempo scendera' di prezzo...
Spero il mio discorso fili :)
Buona notte
simone
Si, ma secondo me è anche un affare... se prende la ultra a 400 qui la rivende a 550 senza problemi. E se prende la gtx a 310 (mio dio, costa meno dei due terzi di quanto costa qui!), la rivende sicuro sicuro almeno a 400.
Strano invece che la ati costi solo poco meno che qui. Boo
faccio la mattata le prendo tutte e tre, ho gia' una 8800gts e una x1950 e faccio un mega test :D
(ovviamente scherzo....o no? :mbe: :mbe: :ciapet: :ciapet: )
mordsiger
23-08-2007, 00:27
nessuno ha provato l'8pin da m/b sulla 2900?
3DMark79
23-08-2007, 00:31
faccio la mattata le prendo tutte e tre, ho gia' una 8800gts e una x1950 e faccio un mega test :D
(ovviamente scherzo....o no? :mbe: :mbe: :ciapet: :ciapet: )
Imho non ti conviene tanto prendere le 8800.Calcola che tra un pò appena usciranno le 8900 verso novembre ci sarà sicuramente una svalutazione delle 8800 dunque perchè rischiare?Prenditi una HD2900 e vai tranquillo..:D
mhm mi sembra un po' troppo poco il prezzo, cmq sarebbe possibile, o almeno credo. cmq da quello che ho letto nn sembrerebbe molto più potente della 2900, anzi con un bus a 256bit.
invece è molto ma molto interessante il fatto del core a 55nm, il che vuol dire bassissimo consumi;) però mi sorge un dubbio:
a 55nm è già possibile arrivare a quelle frequenze?
allora è un pò incasinata forse xè hai usato l'auto translate.
allora nell'immediato si parla di rv670 con bus a 256bit e 160 core shader(io speravo 240 visto che 160 sono pochi di + rispetto alla hd2600 che ne ha 120) in 2 versioni la hd2900pro con core clock sui 700mhz e ram gddr4 clokkate a 2000-2200mhz in tagli di 512mb di ram.
e hd2900gt con core clock a 600mhz e tagli di 256/512mb di ram gddr3 con frequenze attorno ai 1600mhz per coprire la fascia che attualmente è scoperta
diciamo in modo da avere hd2600xt gddr4 nei 150E hd2900gt nei 200 e hd2900pro nei 250E.
entrambe avranno procesos produttivo a 65mn come le hd2400 e 2600
ovviamente in attesa di r700 è volato qualche rumors di una r680 versione poco corretta di r600 sempre a 320sp sempre bus a 512bit ovviamente frequenze leggermente aumentate diciamo sui 800mhz di core e definitivo passaggio alle gddr4 anche per i modelli a 512mb.
per il processo produttivo molti si attendono un 65nm ma ati continuerà con l'affinamento del processo a 80nm low-k(nn gli conviene fare il dieshink di r600 visto che il processo a 65nm affinato è gia prenotato per r700)
ovviamente questo modello sarà rilasciato sul mercato per cavalcare l'hype delle dx10.1 ma fondamentalmente ci sarà la stessa differenza che c'era tra le x800 e le x850 praticamente nulla e questo gia dovrebbe farci pensare che le nostre r600 gia sono virtualmente dx10.1 compliant.
ovviamente per giustificare il tutto si dirà che r680 è un sm4.1 ma fondamentalmente gli sm4.1 sono gli sm4.0 dove verrà resa obbligatoria la tasselation dell'immagine.
il nome di questa vga presumibilmente è hd2950xt
visto che stiamo in questione di marcheting usciranno ovviamente tutta la serie per prendere il posto delle hd2900pro,hd2600,hd2400.
i chip in questione saranno chiamari rv680,rv635,rv615 e saranno a 55nm.
ovviamente rv680 sarà la radeon hd2950pro con caratteristiche similari alla hd2900pro di prossima uscita(sempre bus a 256it forse un numero maggiore di cmq comprese tra le 160 e le 240) il core clock credo sarà di 700mhz possibilissimi con i 55nm (basti pensare che le x1950pro con gli 80nm non affinati erano tranquillamente stabili attorno ai 600mhz)
rv635 ed rv615 altro non saranno che le versioni a 55 nm delle 2600 e 2400 chiamate presumibilmente 2650 e 2500 ma fondamentalmente saranno la stessa solfa di adesso con frequenze alzate.
ovviamente tutta la serie sarà pci-express 2.0 e si presumo che lo sia pure la hd2900pro;)
per chi ha fame di rumors questi sono i rumors + attendibili che ho e verosimilmente all'80% anche una proiozione reale delle vga fure ati almeno fino a r700
faccio la mattata le prendo tutte e tre, ho gia' una 8800gts e una x1950 e faccio un mega test :D
(ovviamente scherzo....o no? :mbe: :mbe: :ciapet: :ciapet: )
se ti prendi una hd2900 da 512mb te la ricompro io quando hai finito di testare;)
allora è un pò incasinata forse xè hai usato l'auto translate.
allora nell'immediato si parla di rv670 con bus a 256bit e 160 core shader(io speravo 240 visto che 160 sono pochi di + rispetto alla hd2600 che ne ha 120) in 2 versioni la hd2900pro con core clock sui 700mhz e ram gddr4 clokkate a 2000-2200mhz in tagli di 512mb di ram.
e hd2900gt con core clock a 600mhz e tagli di 256/512mb di ram gddr3 con frequenze attorno ai 1600mhz per coprire la fascia che attualmente è scoperta
diciamo in modo da avere hd2600xt gddr4 nei 150E hd2900gt nei 200 e hd2900pro nei 250E.
entrambe avranno procesos produttivo a 65mn come le hd2400 e 2600
ovviamente in attesa di r700 è volato qualche rumors di una r680 versione poco corretta di r600 sempre a 320sp sempre bus a 512bit ovviamente frequenze leggermente aumentate diciamo sui 800mhz di core e definitivo passaggio alle gddr4 anche per i modelli a 512mb.
per il processo produttivo molti si attendono un 65nm ma ati continuerà con l'affinamento del processo a 80nm low-k(nn gli conviene fare il dieshink di r600 visto che il processo a 65nm affinato è gia prenotato per r700)
ovviamente questo modello sarà rilasciato sul mercato per cavalcare l'hype delle dx10.1 ma fondamentalmente ci sarà la stessa differenza che c'era tra le x800 e le x850 praticamente nulla e questo gia dovrebbe farci pensare che le nostre r600 gia sono virtualmente dx10.1 compliant.
ovviamente per giustificare il tutto si dirà che r680 è un sm4.1 ma fondamentalmente gli sm4.1 sono gli sm4.0 dove verrà resa obbligatoria la tasselation dell'immagine.
il nome di questa vga presumibilmente è hd2950xt
visto che stiamo in questione di marcheting usciranno ovviamente tutta la serie per prendere il posto delle hd2900pro,hd2600,hd2400.
i chip in questione saranno chiamari rv680,rv635,rv615 e saranno a 55nm.
ovviamente rv680 sarà la radeon hd2950pro con caratteristiche similari alla hd2900pro di prossima uscita(sempre bus a 256it forse un numero maggiore di cmq comprese tra le 160 e le 240) il core clock credo sarà di 700mhz possibilissimi con i 55nm (basti pensare che le x1950pro con gli 80nm non affinati erano tranquillamente stabili attorno ai 600mhz)
rv635 ed rv615 altro non saranno che le versioni a 55 nm delle 2600 e 2400 chiamate presumibilmente 2650 e 2500 ma fondamentalmente saranno la stessa solfa di adesso con frequenze alzate.
ovviamente tutta la serie sarà pci-express 2.0 e si presumo che lo sia pure la hd2900pro;)
per chi ha fame di rumors questi sono i rumors + attendibili che ho e verosimilmente all'80% anche una proiozione reale delle vga fure ati almeno fino a r700
cavolo quante novità che introdurrà Ati, bene così ci saranno senza problemi molte fasce di VGA.
cmq è vero io ho letto la versione tradotta, perchè nn avevo voglia di leggerla in inglese.
Cmq Grazie!!!!! ;)
nessuno ha provato l'8pin da m/b sulla 2900?
se lo fia friggi qualcosa, perchè sono voltaggi e ampeaggi diversi.
cmq np nn entra, quindi.... (ho già speriamentato io)
MonsterMash
23-08-2007, 01:00
Volevo far presente a tutti che sono in procinto di assemblare un waterblock costruito da me per il raffreddamento di memorie e mosfet della mia hd2900xt. Forse sono leggermente ot, ma se siete interessati vi tengo aggiornati sullo svolgimento dei lavori :)
Intanto per il momento ho sagomato circa la metà delle lamine di rame che mi servono per costruirlo. Mi mancano però altre lamine che posso comprare solo in un negozio nella mia città, negozio che è chiuso fino al 31 agosto :(. Per il momento quindi mi dedico alla rifinitura e lappatura di quelle che ho giò pronte. Appena potrò mettere le mani sulle nuove lamine, completerò la sagomatura dei pezzi che mi mancano e salderò il tutto.
Documenterò la costruzione, e vi farò vedere le foto, ovviamente.
E poi naturalmente vi farò sapere se otterrò miglioramenti in temperature e in OC.
Il tutto certo se siete interessati alla cosa :)
Ciao!
TecnoWorld8
23-08-2007, 01:34
O_O
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2587&Itemid=1
Mister Tarpone
23-08-2007, 01:38
O_O
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2587&Itemid=1
buono O_o ....
Free Gordon
23-08-2007, 03:49
Raga in questa notizia si parla di un HD2950Pro con shader 4.1 ad un prezzo davvero allettante, possibile?:eek:
Pareri...
http://translate.google.com/translate?hl=it&sl=en&u=http://www.vr-zone.com/articles/HD_2950Pro_(RV670)_Cards_%26_Specs_Revealed/5181.html&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3D2950pro%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26hs%3DhIx%26sa%3DG
Diciamo che la versione con core a 825mhz, 320sp e banda di 76GB/s è quello che sarebbe dovuto essere R600 all'uscita... Con una bandwith finalmente sfruttata (la banda mostruosa di R600 non è sfruttata oggi perchè le applicazioni pongono molto peso sul texturing ed R600 è medio-dimensionato in quel settore) e una frequenza core più vicina alle intenzioni iniziali...
Forse facevano prima a far uscire una x1990XTX a 65nm e frequenze più alte e poi a buttar fuori questa vers mid-range dx10.1...ATI avrebbe avuto un ritorno di immagine migliore (imho).
Free Gordon
23-08-2007, 03:54
Avrei circa questi prezzi: 310€ per la gtx 400 per la ultra e udite udite 291€ per la ati :-(
quella da 1gb addirittura costa di piu' di qua, sta piu' delle ultra!
Pensavo di prendere la gtx e la ultra, vedere con quale mi trovo meglio e poi una darla via...
certo che se trovassi una ati a prezzi migliori tipo 230/240 prenderei 1 ati e 1 gtx, faccio un po di test e mi vendo quella peggio (sicuramente terre la ati :D )
Subito la GTX a 310...attualmente è sicuramente la scelta più azzeccata!!
Anche la 2900XT a 290 euro cmq non è per nulla male eh... :D
Free Gordon
23-08-2007, 04:00
O_O
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2587&Itemid=1
Ci vorrà l'RD790 e una mobo PCI-ex 2.0 mi sa però..
Ciao raga. ho istallato i drive 7.8 e l'immaggine viene di colore verde chiaro. Puo essere perche ho un monitor CTR . ?????
fustacchione90
23-08-2007, 09:46
si è bruiciarto il crt....era successo pure a me.....
cmq raga disbonibile la demo di airborne, fileplanet con code lunghissime...io son gia in download...
si è bruiciarto il crt....era successo pure a me.....
cmq raga disbonibile la demo di airborne, fileplanet con code lunghissime...io son gia in download...
Ciao. Nn credo con i 7.7 funziona tutto, tranne una cosa che forse sto sottovalutando che ogni tanto si blocca tutto e viene lo schermo nero avvolte devo riavviare ho pure riviene l'immagine e mi riporta un errrore . spero sia un prob di driver ho gia' spedito in dietro una 8800 .
fustacchione90
23-08-2007, 10:04
mah...io tyi dico x esperienza x sonale....
3 sono le cose
1hai il cvo dello schermo attaccato male al pc
2driver installati male
3crt bruciato
:mc:
mah...io tyi dico x esperienza x sonale....
3 sono le cose
1hai il cvo dello schermo attaccato male al pc
2driver installati male
3crt bruciato
:mc:
forse la seconda che hai detto. Io formatterei tutto ma sono gia' all'attivazione telefonica e mi scoccia . Cmq grazie
mordsiger
23-08-2007, 10:22
fatemi capire, quindi questo 8 pin dove si trova? in dotazione nn lo danno
MonsterMash
23-08-2007, 10:32
si è bruiciarto il crt....era successo pure a me.....
cmq raga disbonibile la demo di airborne, fileplanet con code lunghissime...io son gia in download...
Grazie per l'info, mi ero prenotato per il download su fileplanet molto tempo fa :)
Ora sto scaricando. Se non sbaglio anche questo dovrebbe usare UE3, vero?
fatemi capire, quindi questo 8 pin dove si trova? in dotazione nn lo danno
Difficile trovarlo, soprattutto in italia.
Ma non ha molto senso comprarlo. Se è per avere la possibilità di OC, allora conviene usare un tool esterno (il migliore secondo me al momento è rivatuner), se è per una presunta maggiore stabilità, velocità o capacità di OC, sappi che queste non esistono assolutamente.
Ciao
mordsiger
23-08-2007, 10:39
e se lo volessi fare manualmente dove vanno le 12 e i gnd?
ciao a tutti, nessuno di voi ha cambiato il dissipatore alla 2900XT? io ho avuto conferma dal team di zerotherm che i loro dissipatori funzionano ma solo sulla GPU e non tutto il PCB :
"
I am sorry to inform that none of ZEROtherm VGA coolers support ATI X2900 series.
Actually GX810, GX815 and GX820 can be installed on ATI X2900 series but they can cool only GPU of X2900 series.
Thank you.
Kind Regards
ZEROtherm Support"
Quasi quasi ne prendo uno usato e provo..... che dite rischio?
mah...io tyi dico x esperienza x sonale....
3 sono le cose
1hai il cvo dello schermo attaccato male al pc
2driver installati male
3crt bruciato
:mc:
Ho risolto io istallavo i driver display due volte . Avevo preso troppo alla lettera l'endicazioni di un utente nel forum . infatti con tutto il paccheto dei driver nn puoi istallare prima i driver poi i ccc , wdm . I driver e i ccc vengono per forza istallati in sieme, poi si mettono i wdm . vabbe' ciao:D
mordsiger
23-08-2007, 11:01
è così o ci vanno 4 12 e 4 gnd?
mordsiger
23-08-2007, 11:37
guardate questo link
http://news.tecnocomputer.it/forums/showthread.php?p=141301
guarda oggettivamente tra sm3.0 e sm4.0 non ci sono differenze abbissali e non vi sono effetti "fantasmagorici" come il passaggio da sm2.0 a 3.0 con hdr.
sm4.0 introduce fondamentalmente quello che introducono le dx10 cioè una maggiore velocità di esecuzione del codice.
il passo avanti delle dx10 è propio il fatto che il tempo di overflow tra una operazione ed un altra è decisamente minore ed era quello che volevano gli sviluppatore che con lo sm3.0 si erano trovati in condizione di raggruppare in una riga di codice ben 3 righe di codice scritte in sm2.0 e quindi in un "blocco" di righe di codice tra un overflow ed un altra un numero maggiore di operazioni.
ovviamente se l'overflow era troppo lungo era inutile dare righe e righe di informazioni e quindi è nata la necessita di semplificare ancora di + il codice con sm4.0 e di poter mandare un numero consistende di informazioni e chiamate senza troppo tempo di attessa per l'overflow.
ti faccio un esempio la bella acqua di bioshock si poteva fare tranquillamente con lo sm2.0 o lo sm3.0 solo che con lo sm2.0 ci sarebbero volute 100 righe di codice con lo sm3.0 si sarebbe scesi sulla 40 e con lo sm4.0 si è ulteriolmente scesi e vi è stata data la possibilità di mandare in contemporanea oltre l'effetto dell'acqua anche quello del fuoco e del fumo.
a questo punto il rallentamento a cosa si puo imputare?
vista troppo pesante e richiede molta ram?
non credo visto che i pc delle review solitamente hanno 2 o 4gb di ram
hd lenti? ultimamente testano solo con sataII ncq senza programmi aperti in background oppure direttamente con i raptor in raid 0.
a questo punto resta come imputato il processore e la vga.
i processori hanno potenza sufficente vista è molto + portato al multitasing che non xp e poi solitamente nelle review è un periodo che testano pure con i quadcore.
le vga non credo sia un problema di potenza visto che sia le 8800gts gtx e hd2900xt hanno chi + e chi meno tutto i numeri di banda e di fillrate per poter gestire i calcoli richiesti.
quindi i principali indiziati sono
1) dvr delle case produttrici che hanno bisognodi tempo per adattare i dvr alle nuove dx10 e ai programmi e codici dei giochi che ci girano sopra.
2) programmatori dei giochi che hanno bisogno di tempo per capire come funzionano le dx10 e creare motori ad hoc.
il problema è che creare un motore ad hoc adesso dx10 vuol dire precludersi tutto il mercato ancora imponente di xp e quindi se tanto mi da tanto preferisco concentrarmi bene sulla base dx9 in modo che sia fruibile da tutti e poi la VERsione dx10 anche se va un pò + lenta amen.
poi io vorrei vedere alcuni test xè solitamente si testa con le dx9 sotto xp e con le dx10 sotto vista.
le dx10 solitamente emulano le dx9 gia con perdita di prestazione io non vorrei che molti software si fregino del titolo di gioco dx10 quando invece è un dx9 che si prende le dx10 e poi dica " bene dx10 ora emulami le dx9".
poi ma questa puo essere un mio errore vista quando lo si installa mi pare abbia installato solo le dx9 e non le dx10 che si installano tramite aggiornamento se cosi fosse sarebbe interessante fare un test dx9 sotto vista senza che questo si appoggi all'emulazione delle dx10 per le dx9 e sicuramente questo processo fa perdere molti framerate.
Beh però questa è una spiegazione un po riduttiva delle DirectX 10 e dello Shader Model 4.0. In realtà le innovazioni sono ben più profonde. Non è tanto il discorso delle operazioni a livello di vertex e pixel shading che fa la differenza.
Innanzitutto c'è da considerare quello che molti non considerano e cioè che le DirectX 10 esistono solo su Windows Vista perché sono integrate nelle nuove capacità a livello di kernel e driver model di Windows Vista e ciò permette di ridurre notevolmente l'overhead delle chiamate, cioè il tempo materiale delle chiamate. Questo non è tanto un problema quando in una scena hai pochi oggetti (anche con molti poligoni), perché con i vertex buffer fortunatamente per ogni oggetto puoi anche fare una sola chiamata una volta impostati i buffer (un tempo si faceva una chiamata per vertice...). Il problema però è che se devi disegnare migliaia di oggetti le chiamate diventano troppe (anche perché per ogni oggetto poi devi impostare non solo i vertici, ma anche il materiale, texture, ecc... e qui si apre un altro capitolo della programmazione del motori grafici). Ebbene le DirectX 10 rendono più veloci le chiamate e quindi, conseguentemente, a parità di CPU (perché le chiamate vengono gestite dal processore) anche il numero di oggetti disegnabili.
Poi le DirectX 10 rompono totalmente la retrocompatibilità con le precedenti versioni delle DirectX. Questo significa che essendo basate sugli shader, quando uso le DirectX 10 devo attenermi alle sue regole e non posso usare niente di precedente. Penso ad esempio all'uso della fixed pipeline: in DirectX 10 non possono renderizzare neanche un triangolo senza aver definito almeno uno shader, cosa invece possile attraverso la fixed pipeline.
Poi c'è il discorso del vertex fetching, il cui supporto è ora obbligatorio a livello di vertex shading (nelle DX9 era opzionale e supportato solo da NVIDIA) e fondamentale per eseguire le operazioni di displacement mapping.
Poi dobbiamo parlare dei geometry shader che rivoluzionano totalmente il mondo degli shader. Fino ad ora infatti l'assuzione primaria di uno shader è che si trattava di funzioni uno a uno, cioè avevano un vertice in ingresso e restituivano un vertice in uscita. Ora invece dopo l'elaborazione del vertex shader possiamo usare le informazioni del vertice appena elaborato (e di quelli a lui vicini) per eliminare il vertice, modificarlo o crearne di nuovi ed il risultato di questa elaborazione può sia essere inviato direttamente al pixel shader, che inserito in un buffer per poi essere riprocessato da un altro vertex shader. Queste operazioni sono semplicemente impensabili con le DirectX 9 anche perché vengono eseguite tutte in hardware all'interno della scheda video e la CPU non fa assolutamente nulla. Con le DirectX 9, invece, ciò che fa il geometry shader si sarebbe dovuto fare con la CPU, il che è impensabile.
Le DirectX 10 sono rivoluzionarie. Il problema è che bisogna avere tempo non tanto per sapere come programmarle a livello tecnico, perché gli strumenti che offre Microsoft sono eccezionali, ma proprio per farsi venire le idee di come utilizzare queste nuove funzionalità.
Coloro che si attendono rivoluzioni istantanee rimarranno sempre delusi. Queste rivoluzioni non ci sono mai state, neanche in passato con le altre versioni di DirectX. E' tutto un processo evolutivo e bisogna avere pazienza. Probabilmente quando verranno ideate tecniche interessanti per sfruttare i geometry shaders, queste saranno troppo complesse per le schede video attuali.
guarda oggettivamente tra sm3.0 e sm4.0 non ci sono differenze abbissali e non vi sono effetti "fantasmagorici" come il passaggio da sm2.0 a 3.0 con hdr.
sm4.0 introduce fondamentalmente quello che introducono le dx10 cioè una maggiore velocità di esecuzione del codice.
il passo avanti delle dx10 è propio il fatto che il tempo di overflow tra una operazione ed un altra è decisamente minore ed era quello che volevano gli sviluppatore che con lo sm3.0 si erano trovati in condizione di raggruppare in una riga di codice ben 3 righe di codice scritte in sm2.0 e quindi in un "blocco" di righe di codice tra un overflow ed un altra un numero maggiore di operazioni.
ovviamente se l'overflow era troppo lungo era inutile dare righe e righe di informazioni e quindi è nata la necessita di semplificare ancora di + il codice con sm4.0 e di poter mandare un numero consistende di informazioni e chiamate senza troppo tempo di attessa per l'overflow.
ti faccio un esempio la bella acqua di bioshock si poteva fare tranquillamente con lo sm2.0 o lo sm3.0 solo che con lo sm2.0 ci sarebbero volute 100 righe di codice con lo sm3.0 si sarebbe scesi sulla 40 e con lo sm4.0 si è ulteriolmente scesi e vi è stata data la possibilità di mandare in contemporanea oltre l'effetto dell'acqua anche quello del fuoco e del fumo.
a questo punto il rallentamento a cosa si puo imputare?
vista troppo pesante e richiede molta ram?
non credo visto che i pc delle review solitamente hanno 2 o 4gb di ram
hd lenti? ultimamente testano solo con sataII ncq senza programmi aperti in background oppure direttamente con i raptor in raid 0.
a questo punto resta come imputato il processore e la vga.
i processori hanno potenza sufficente vista è molto + portato al multitasing che non xp e poi solitamente nelle review è un periodo che testano pure con i quadcore.
le vga non credo sia un problema di potenza visto che sia le 8800gts gtx e hd2900xt hanno chi + e chi meno tutto i numeri di banda e di fillrate per poter gestire i calcoli richiesti.
quindi i principali indiziati sono
1) dvr delle case produttrici che hanno bisognodi tempo per adattare i dvr alle nuove dx10 e ai programmi e codici dei giochi che ci girano sopra.
2) programmatori dei giochi che hanno bisogno di tempo per capire come funzionano le dx10 e creare motori ad hoc.
il problema è che creare un motore ad hoc adesso dx10 vuol dire precludersi tutto il mercato ancora imponente di xp e quindi se tanto mi da tanto preferisco concentrarmi bene sulla base dx9 in modo che sia fruibile da tutti e poi la VERsione dx10 anche se va un pò + lenta amen.
poi io vorrei vedere alcuni test xè solitamente si testa con le dx9 sotto xp e con le dx10 sotto vista.
le dx10 solitamente emulano le dx9 gia con perdita di prestazione io non vorrei che molti software si fregino del titolo di gioco dx10 quando invece è un dx9 che si prende le dx10 e poi dica " bene dx10 ora emulami le dx9".
poi ma questa puo essere un mio errore vista quando lo si installa mi pare abbia installato solo le dx9 e non le dx10 che si installano tramite aggiornamento se cosi fosse sarebbe interessante fare un test dx9 sotto vista senza che questo si appoggi all'emulazione delle dx10 per le dx9 e sicuramente questo processo fa perdere molti framerate.
Questo in parte è vero, comunque, la cpu anche con le Dx10 è una parte fondamentale in un moderno pc, molti calcoli che orbitano al di fuori della sfera Vga, sono sempre più preponderanti, anche vero che tutto questo è gestito da come viene programmato L'engine che muoverà l'intero video gioco, quelle poche decine di megabyte molte volte fanno un enorme differenza.
Alcuni titoli DX10 come lost planet sono molto cpu dipendenti, il tech demo che si divide in due parti distinte, fa capire quanto questo dato è preponderante.
Nel prima parte il livello "Snow" di lost planet, la componente che viene maggiormente stressata è la vga.
La seconda parte invece la zona "Cave" qui si esprime solo la potenza della cpu, la vga è utilizzata al 50% della sua potenza, parlo delle varie 8800 e HD2900.
Se invece osserviamo la Tech demo di "Call of juarez" l'approccio alle DX10 di techland è stato completamente diverso, l'engine si basa su molte righe di codice a shader complessi, questi vengono scritti al primo avvio del programma nella cartella documenti/call of juarez dx10 bechmark/Out/Cache/shaders/"nome della vga installata".
La lunghezza di questi shader raggiunge le decine di migliaia di file, per il peso di un centinaio di megabyte, con questo metodo riescono a computare l'intero codice attraverso la vga, non per questo la vga Ati HD2900 si trova in vantaggio, grazie alla sue caratteristiche tecniche nel gestire shader complessi.
Il problema principale dell'engine utilizzato da techland è che viene dato poco risalto, alle potenzialità delle cpu multicore, il dato fondamentale per questo programma è solo la frequenza della cpu, che comunque viene utilizzata in percentuali bassissime, un core 2 duo E6600 viene utilizzato al 24% durate la demo.
Riallacciandomi al discorso Dx9 Colin mcrae dirt demo, è un altro programma che sfrutta sopratutto le potenzialità multi core delle moderne cpu, dove orbitano tutti calcoli della fisica, l'esempio più lampante è la gara su circuiti con molte vetture, se non si utilizza una cpu dual core, le performance sono molto deludenti anche con una scheda video come HD2900 o la 8800.
Comunque il problema più complesso, secondo il punto di vista, è la gestione del segnale di Vsink, parlando con alcuni tecnici microsoft mi era stato detto che il problema con le dx10 non si sarebbe più presentato, ma allo stato attuale tutte le demo in dx10 soffrono ancora dello stesso difetto che si presentava con le DX9, questo sinceramente non riesco ancora a spiegarmelo.
Comunque a fare la differenza è sempre il programmatore, sono veramente pochi quelli che sanno sfruttare al 100% l'hardware di un moderno pc, molte volte ci si trova davanti titoli mal programmati, questo purtroppo è la verità del problema.
Ottimizzare diventa sempre meno economico, che aspettare l'aiuto dei vari partner con driver ottimizzati oppure cpu e schede video sempre più veloci.
ilbuglio
23-08-2007, 13:53
volevo chiedere una cosa , dato che i bios (secondo mia esperienza ) delle sapphire sono sempre di merda , potete postare i bios delle vostre sk video 2900xt , un sito dove danno la possibilità di fare upload e mvktech almeno posso vedere che revisione montate e provarli sulla mia sk video , attualmete a chi interessa "l'avevo gia postato" , sul sito mvktech si trova quello della jetway rev 1 e rev 2.
grazie.
p.s. a qualcuno di voi quando giocate , succede che la ventola sta sempre normale 37% e ad intervalli abbastanza regolari spara al 50% per circa 30 secondi per poi tornare al 37% , non su tutti i giochi ma uno che la fa scaldare molto è stalker con la patch non ufficiale per implementazione grafica avanzata .
ciao :D
Tidus.hw
23-08-2007, 14:45
volevo chiedere una cosa , dato che i bios (secondo mia esperienza ) delle sapphire sono sempre di merda , potete postare i bios delle vostre sk video 2900xt , un sito dove danno la possibilità di fare upload e mvktech almeno posso vedere che revisione montate e provarli sulla mia sk video , attualmete a chi interessa "l'avevo gia postato" , sul sito mvktech si trova quello della jetway rev 1 e rev 2.
grazie.
p.s. a qualcuno di voi quando giocate , succede che la ventola sta sempre normale 37% e ad intervalli abbastanza regolari spara al 50% per circa 30 secondi per poi tornare al 37% , non su tutti i giochi ma uno che la fa scaldare molto è stalker con la patch non ufficiale per implementazione grafica avanzata .
ciao :D
evidentemente il core ogni tanto supera i 90°...
edit: 90% con airbone :)
SenderoLuminoso
23-08-2007, 15:21
guardate questo link
http://news.tecnocomputer.it/forums/showthread.php?p=141301
Come ho scritto un mese fa per abilitare l'oc in catalist basta mettere nei due restanti conettori il filo ngr cioe' quello nero. Lo si prende da qualche linea che non si usa e il gioco e' fatto.
MonsterMash
23-08-2007, 15:52
evidentemente il core ogni tanto supera i 90°...
edit: 90% con airbone :)
Io airborn l'ho appena provato
Molto bello, come frame rate sulla mia configurazione sta quasi sempre sopra i 30 fps, scende di poco al di sotto di questa soglia solo durante la discesa con il paracadute.
Cmq credo sia una questione di driver, perchè leggevo che si gioca al massimo senza rallentamenti anche con una x1950xt.
Tidus.hw
23-08-2007, 16:32
Io airborn l'ho appena provato
Molto bello, come frame rate sulla mia configurazione sta quasi sempre sopra i 30 fps, scende di poco al di sotto di questa soglia solo durante la discesa con il paracadute.
Cmq credo sia una questione di driver, perchè leggevo che si gioca al massimo senza rallentamenti anche con una x1950xt.
provato anche io, mediamente mi sta sui 50 fps, minimi di 25, massimi di 80 circa...
però la grafica non mi piace >_> troppo plasticosa, rovina un pò il coinvolgimento.
Ah e sono anche tremendamente cpu limited, con la cpu clockata a 2,75ghz ho entrambi i core al 100%.
Ovviamente anche l'AA non si attiva :|
comunque io giocavo a 1280x1024 tutto al massimo con af16x.
provato anche io, mediamente mi sta sui 50 fps, minimi di 25, massimi di 80 circa...
però la grafica non mi piace >_> troppo plasticosa, rovina un pò il coinvolgimento.
Ah e sono anche tremendamente cpu limited, con la cpu clockata a 2,75ghz ho entrambi i core al 100%.
Ovviamente anche l'AA non si attiva :|
comunque io giocavo a 1280x1024 tutto al massimo con af16x.
mi spiegate una cosa, chi occa qui chi occa la...
io ho commprato tutto per occare e ho la mia cpu che non riesco a frla salire di 1mhz...ma mi spiegate come funzionano sti amd?!?!?!?
(amd 5200+, 4gb ram ocz platinum edition, zalman 9700led, case armor)
Scusate l'ot
fanculium
23-08-2007, 17:11
Ciao ragazzi!
Mi potete dire per favore da dove posso scaricare il demo di MOH airbone???
GRAZIE!:)
mi spiegate una cosa, chi occa qui chi occa la...
io ho commprato tutto per occare e ho la mia cpu che non riesco a frla salire di 1mhz...ma mi spiegate come funzionano sti amd?!?!?!?
(amd 5200+, 4gb ram ocz platinum edition, zalman 9700led, case armor)
Scusate l'ot
ti sto per rispondere su pvt ;)
Filodream
23-08-2007, 20:57
evviva raga, me ne sono appena aggiudicata una NUOVA sulla baia per 256,00€:eek: Marca sapphire.
Entro la prox settimana, dovrei entrarne in possesso:oink:
Entro ufficialmente a far parte del losco club!
TecnoWorld8
23-08-2007, 21:00
complimenti! :) per quel prezzo, anche io ci farei un serio pensiero! però su ebay nn compro x principio, dopo una fregatura presa due anni fa...
Chicco85
23-08-2007, 21:18
Un pò di oc, dissipatore e voltaggi stock:
http://www.atris.it/Forum/photoplog/images/5226/1_2k5_874-2000_mhz_cpu_3600_MHz.JPG
MonsterMash
23-08-2007, 21:23
Un pò di oc, dissipatore e voltaggi stock:
http://www.atris.it/Forum/photoplog/images/5226/1_2k5_874-2000_mhz_cpu_3600_MHz.JPG
Complimenti per l'OC della gpu! Difficile fare più di 850 ad aria!
22_12_2012
23-08-2007, 21:59
Un pò di oc, dissipatore e voltaggi stock:
Ottimi score ;)
Nel AT vedo 2D Low Power...hai per caso downdato la scheda in 2D? E' possibile :confused:
22_12_2012
23-08-2007, 22:01
Windows Vista Hot Fixes
Microsoft has released two hot fixes for DirectX 10 and Vista. When testing BioShock or other DirectX 10 titles in Windows Vista, it is important that you download and install these hotfixes. They improve stability and performance, especially at high resolutions.
The first hotfix improves multi-GPU performance and can be found here:
http://support.microsoft.com/kb/936710
The second hot fix improves stability for memory intensive DirectX 10 applications on graphics cards with greater than 512MB of memory:
http://support.microsoft.com/kb/940105 (Download will become available on Thursday)
Please ensure both hot fixes are applied to all your Vista testing systems to ensure optimal stability and performance
sempre meglio ste DX 10 :D
TecnoWorld8
23-08-2007, 22:04
volenti o nolenti, sono il futuro...per ora rimango su XP, ma appena avrò una scheda dx10 toccherà comprare il costoso Vista :(
Windows Vista Hot Fixes
Microsoft has released two hot fixes for DirectX 10 and Vista. When testing BioShock or other DirectX 10 titles in Windows Vista, it is important that you download and install these hotfixes. They improve stability and performance, especially at high resolutions.
The first hotfix improves multi-GPU performance and can be found here:
http://support.microsoft.com/kb/936710
The second hot fix improves stability for memory intensive DirectX 10 applications on graphics cards with greater than 512MB of memory:
http://support.microsoft.com/kb/940105 (Download will become available on Thursday)
Please ensure both hot fixes are applied to all your Vista testing systems to ensure optimal stability and performance
sempre meglio ste DX 10 :D
interessante, soprattutto il primo ;)
22_12_2012
23-08-2007, 22:08
interessante, soprattutto il primo ;)
ma si possono scaricare da qualche parte senza aspettare il service pacco 1 ?
Chicco85
23-08-2007, 22:09
Complimenti per l'OC della gpu! Difficile fare più di 850 ad aria!
Grazie... probabilmente a 850 Mhz è stabile... non ho fatto test approfonditi... la prima cloccata l'ho data a 847/2000 MHz, la seconda è quella sopra. Le memorie non sono ancora al limite, ma per quello che incidono vanno bene anche così.
Ottimi score ;)
Nel AT vedo 2D Low Power...hai per caso downdato la scheda in 2D? E' possibile :confused:
Lo score in realtà è basso, non mi sono preoccupato di quello. Si, è possibile downcloccare e downvoltare in 2D ed in 3D. ;)
22_12_2012
23-08-2007, 22:11
Lo score in realtà è basso, non mi sono preoccupato di quello. Si, è possibile downcloccare e downvoltare in 2D ed in 3D. ;)
per il 2d fino a che è possibile scendere ?:D ...lasciando acceso il pc la notte mi sa chè un pò gli gioverebbe...per il 3d nn mi lamento e per un pò non ne avrò bisogno con sta schedona :D
Chicco85
23-08-2007, 22:12
Dipende da quanto è culata la vga. ;) Devi provare
22_12_2012
23-08-2007, 22:14
HD2900, 2600 & 2400 becomes PCIe 2.0 thru bios update
Sources close to AMD have confirmed that ATI’s Radeon HD 2600 and 2400 cards are PCIe 2.0 compatible and that even R600, Radeon HD 2900XT is a PCIe 2.0 compatible card.
All they need to do is to make the Bios update and all the sudden these cards will become PCIe 2.0 compatible.
Obviously as its not necessary to have them AMD didn’t make much noise about it but this is something to come.
We don’t think that PCIe 2.0 will bring a lot of performance but it will be a cool feature to get on the box.
:D
22_12_2012
23-08-2007, 22:16
Dipende da quanto è culata la vga. ;) Devi provare
quindi bisogna essere anche fortunati a farla andare di meno, non sono a cloccarla alla morte?? :D
TecnoWorld8
23-08-2007, 22:23
HD2900, 2600 & 2400 becomes PCIe 2.0 thru bios update
Sources close to AMD have confirmed that ATI’s Radeon HD 2600 and 2400 cards are PCIe 2.0 compatible and that even R600, Radeon HD 2900XT is a PCIe 2.0 compatible card.
All they need to do is to make the Bios update and all the sudden these cards will become PCIe 2.0 compatible.
Obviously as its not necessary to have them AMD didn’t make much noise about it but this is something to come.
We don’t think that PCIe 2.0 will bring a lot of performance but it will be a cool feature to get on the box.
:D
l'avevo postato ieri notte ;)
ma si possono scaricare da qualche parte senza aspettare il service pacco 1 ?
io ho provto, ma nn si riesce, cmq il sp1 nn è molto lontano, e fidati ms nn vuole perdere sul discorso vista e dx10, quindi stai tranquillo che qualcosa di simile uscirà prima del sp, in quanto la cara ms sta puntano tutto su win vista, quindi ;)
Ciao raga volevo sapere una cosa.
Con gli ultimi driver il gap con la 8800 gts è stato colmato ?
domanda amichevolissima no flames e cose varie :)
TecnoWorld8
23-08-2007, 23:37
Ciao raga volevo sapere una cosa.
Con gli ultimi driver il gap con la 8800 gts è stato colmato ?
domanda amichevolissima no flames e cose varie :)
penso che già da subito fosse superiore alla gts. invece rispetto alla gtx perde ancora qualcosa, ma costa almeno 100€ in meno.
grazie per la risposta!
sapresti mica indicarmi una recensione con i driver piu recenti per questa scheda ?
TecnoWorld8
23-08-2007, 23:44
grazie per la risposta!
sapresti mica indicarmi una recensione con i driver piu recenti per questa scheda ?
non saprei, ma qui molti hanno installato i 7.8 e hanno ottenuto ottimi miglioramenti. con l'hotfix successivo ai 7.8, anche bioshock pare andare benone. se guardi indietro su questo topic trovi molti test degli utenti.
perfetto allora, ti ringrazio molto!
corradobernardi
24-08-2007, 00:16
per il 2d fino a che è possibile scendere ?:D ...lasciando acceso il pc la notte mi sa chè un pò gli gioverebbe...per il 3d nn mi lamento e per un pò non ne avrò bisogno con sta schedona :D
personalmente per la notte metto:
gpu/mem 150/150
vdcc 0.8 mvdcc 1.65
fan 15%
40° circa idle
fanculium
24-08-2007, 00:27
Finito di provare la demo do MOH airbone:Va da DIO!:D
Non mi scende mai sotto i 35 fps, ho un picco di 120 e di media faccio sui 60 fps!!Appena esce me lo compro subito!
CIAO
Iantikas
24-08-2007, 00:39
grazie per la risposta!
sapresti mica indicarmi una recensione con i driver piu recenti per questa scheda ?
con i + recenti ancora nn ne son uscite...cmq qui [ http://www.digit-life.com/articles2/digest3d/index0707.html ] c'è il 3Digest con i 7.7 x ATI e i 162.18 x nvidia...
...ke ti può dare un quadro della situazione dato ke vengono provate parekkie skede e con parekki gioki e bench...ciao
Ciao forse mi prendo una tv lcd hd e volevo fare una piccola domanda ma i games in queste tv si vedono in alta difinizione con questa skeda video ho il gioco deve essere...fatto (HD). Ho visto la PS3 girare su un tv hd si vedeva una favola.:cool:
Finito di provare la demo do MOH airbone:Va da DIO!:D
Non mi scende mai sotto i 35 fps, ho un picco di 120 e di media faccio sui 60 fps!!Appena esce me lo compro subito!
CIAO
ciao, che risoluzione usavi? dettagli?
grazie!
fanculium
24-08-2007, 11:46
ciao, che risoluzione usavi? dettagli?
grazie!
Ciao!
Scusa se ti rispondo ora ma sono appena tornato da lavoro (Ho già riniziato :cry: ).
la ris. è 1280*1024 e dettagli tutti al massimo!
CIAO!
con i + recenti ancora nn ne son uscite...cmq qui [ http://www.digit-life.com/articles2/digest3d/index0707.html ] c'è il 3Digest con i 7.7 x ATI e i 162.18 x nvidia...
...ke ti può dare un quadro della situazione dato ke vengono provate parekkie skede e con parekki gioki e bench...ciao
Grazie 1000 per i link!!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.