View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
anke io aspetto in qualche miglioramento, cmq dai 7.6 ai 7.7 in GRAW2 ho guadagnato 4/5 fps, con filtri e aa attivo a 1280/1024 quindi qualcosa si sta gia muovendo... :cool:
TecnoWorld8
02-08-2007, 19:21
come vedi qua non si vive sperando...ma alla fie i risultati si ottengono...sai, 25fps in + con l'AA non sono male, forse abbiamo fatto bene a sperare in un miglioramento che piano piano sta avvenendo...e cmq su quella fascia di prezzo è in ogni caso il migliore acquisto...poi è ovvio che si spera migliori ulteriormente come sta avvendendo
mi piacerebbe vedere i miglioramenti in lost planet DX10 o in dirt, magari a 1680x1050 con tutto al max...ovviamente vi auguro che siano altrettanto positivi.
+Lonewolf+
02-08-2007, 19:26
mi piacerebbe vedere i miglioramenti in lost planet DX10 o in dirt, magari a 1680x1050 con tutto al max...ovviamente vi auguro che siano altrettanto positivi.
aspettiamo test ufficiali;)
SamCapone
02-08-2007, 19:27
mi piacerebbe vedere i miglioramenti in lost planet DX10 o in dirt, magari a 1680x1050 con tutto al max...ovviamente vi auguro che siano altrettanto positivi.
Be io vado con Dirt a 1680x1050 a tutto max senza problemi :p
E non ho un processore potente
Be io vado con Dirt a 1680x1050 a tutto max senza problemi :p
E non ho un processore potente
tutti dicono cosi compresi i possesori di Nvidia 8800....poi nel tread del gioco tutti a lamentarsi... nella realtà dei fatti quel gioco e una monezza
+Lonewolf+
02-08-2007, 19:46
tutti dicono cosi compresi i possesori di Nvidia 8800....poi nel tread del gioco tutti a lamentardi... nella realtà dei fatti quel gioco e una monezza
bravo!!! è una vera monnezza!!!:mano:
3DMark79
02-08-2007, 19:50
Effettivamente tutti sembrano parlare bene di questi driver 7.8 beta,mi fa davvero piacere!:cry: :read:
http://translate.google.com/translate?hl=it&sl=en&u=http://www.techpowerup.com/index.php%3F36099&sa=X&oi=translate&resnum=5&ct=result&prev=/search%3Fq%3Dcatalyst%2B7.8%2Btest%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26sa%3DG
+Lonewolf+
02-08-2007, 19:55
ora li reinstallo...faccio un 3dmark 2006 su vista...7.7 faccio 10206
3DMark79
02-08-2007, 20:00
ora li reinstallo...faccio un 3dmark 2006 su vista...7.7 faccio 10206
Ok grazie Lonewolf....dicci dicci!:boxe: :sbav:
webbuffa
02-08-2007, 20:28
A me Dirt gira una meraviglia... e non è afflitto dal bug delle 8800gts.:D
Ovvero ?
GunnyITA
02-08-2007, 20:38
boia Willie L'orbo
Ho fatto una sessione di gioco a company of heroes, poi sono uscito, sono andato su EVEREST, ho misurato la temperatura e...lol 70 gradi LA GPU!!! Tutto il resto non sale oltre i 45 lol SBROFL!
Possibile che 3 ventoline dentro non bastino? doh :fagiano:
mi sa che se overclokko che gia' sta a 70 gradi, tra poco ci metto pure le uova sode sopra! :mc:
GunnyITA
02-08-2007, 20:39
boia Willie L'orbo
Ho fatto una sessione di gioco a company of heroes, poi sono uscito, sono andato su EVEREST, ho misurato la temperatura e...lol 70 gradi LA GPU!!! Tutto il resto non sale oltre i 45 lol SBROFL!
Possibile che 3 ventoline dentro non bastino? doh :fagiano:
mi sa che se la overclokko un pelo che gia' sta a 70 gradi, tra poco ci metto pure le uova sode sopra! :mc:
Mi conviene forse toccare solo il proccio a sto punto :stordita:
EDIT: Scusate il doppio post, non credevo di aver schiacciato rispondi piuttosto che modifica!
webbuffa
02-08-2007, 20:41
Mi conviene forse toccare solo il proccio a sto punto :stordita:
EDIT: Scusate il doppio post, non credevo di aver schiacciato rispondi piuttosto che modifica!
:) Puoi sempre modifcare la velocita' della ventola insieme all'overclock in modo da tenere sempre sui 70° le temp :)
Un 40-45 % basta :D e non è troppo "invadente" come rumorosità
allora sono appena rientrato.
cmq con i 7.7 ufficiali con 3dmark 06 faccio 8254, adesso provo coi 7.8 beta.
tempo di fare il test e vi dico
la config che uso è:
1280x1024
AA= normal
filtering=optimal
per le frequenze sono quelle in firma
GunnyITA
02-08-2007, 21:02
dove posso andare a regolarla?
LoL l'ho fatto assemblare e pensa te lo sto ancora finendo di configurare sta centrale atomica, e questa cosa di settare lo speed delle ventole m'e' nuova.
Lo potrei anche fare, visto che l'ali che ho e' un 620 watt con i controperi.... :sofico:
come si fa allora? thx :oink:
allora col 3DMark06 ha fatto 8331 punti. c'è stato un piccolo miglioramento. cmq adesso provo a farne uno con AA4x
edit dimenticavo:
SM 2.0=3607
SM 3.0=4263
+Lonewolf+
02-08-2007, 21:34
7.7 10206
8.40 RC3 10209
3 punti, mica bruscolini...:O
allora con attivo AA4x ho fatto:
Punteggio Totale: 7328
SM 2.0 = 3268
SM 3.0 = 3354
senza AA
Punteggio Totale: 8331
SM 2.0 = 3607
SM 3.0 = 4263
quindi abbiamo avuto: una diminuzione del 11% nel SM 2.0, e del 21% in SM 3.0.
io edesso nn posso, magari +Lonewolf+ prova a giocare con qualcosa tipo stalker o R6 vegas, e facci sapere.
cmq che ne dite?
+Lonewolf+
02-08-2007, 22:02
3dmark 2006
drivers 8.40 RC3
WINDOWS VISTA X64 ULTIMATE
default settings 10209 pts
AA4x + anisotropico 8048 pts
adesso lo faccio solo con AA
allora col 3DMark06 ha fatto 8331 punti. c'è stato un piccolo miglioramento. cmq adesso provo a farne uno con AA4x
edit dimenticavo:
SM 2.0=3607
SM 3.0=4263
probabilmente noi 939 perdiamo in bus....
siamo allineati come piunteggio.....
magari domani sera clokko bene il procio e vediamo se varia. il 3d 06..
fustacchione90
02-08-2007, 23:45
non voglio flammare, ci mancherebbe, ma da quando è uscita questa scheda, i possessori non hanno fatto altro che "sperare" in miglioramenti portati dai drivers. ora, io auguro a chi la possiede che tali miglioramenti ci siano e siano consistenti, ma secondo me, quando si spendono tra i 350 ed i 400€ per una scheda, credo che non si dovrebbe "vivere sperando", ma essere ben soddisfatti fin da subito. Poi mi direte che siete comunque soddisfatti, ma sperate sempre in un miglioramento, però davvero non ho mai visto tanti post su speranze future come in questo thread...
bè scusa se questo lo chiami male...e cmq noi "speriamo" xk chi ha una 8800 va cosi e basta, la nostra gia va bene, è quello il bello,, compri un prodotto che già per te va bene, con la speranza nel tempo di vedere aumenti prestazionali notevoli ^^ :)
io penso che qui nessuno speri.... xche' una 2900 VA GIA BENE.. nel senso:
hai una ferrari modena?? chissenefrega se non va come la ENZO.... hai gia una ferrari che va benissimo x ogni circuito.. chiaro.. con regolazioni migliori si potrebbe avvicinare ai tempi della enzo.... MA......
hio reso l'idea ??
Mister Tarpone
02-08-2007, 23:53
ho reso l'idea ??
si :)
TecnoWorld8
03-08-2007, 00:18
io penso che qui nessuno speri.... xche' una 2900 VA GIA BENE.. nel senso:
hai una ferrari modena?? chissenefrega se non va come la ENZO.... hai gia una ferrari che va benissimo x ogni circuito.. chiaro.. con regolazioni migliori si potrebbe avvicinare ai tempi della enzo.... MA......
hio reso l'idea ??
è esattamente quello che volevo dire ;)
diciamo che io credo che quasi tutti (a meno di campanilismi) scambierebbero la propria 2900xt con una 8800gtx (o avrebbero preso quest'ultima a parità di prezzo, dopo aver letto le recensioni della XT). Ora chi l'ha acquistata (dato che la XT ha un rapporto prestazioni/prezzo ottimo) sicuramente ne è soddisfatto, ma spera che essendo una scheda da poco più di due mesi sul mercato, abbia miglioramenti nei drivers che rendano giocabili tutti i titoli al max dettaglio ad alta risoluzione con AA 4x, cosa che secondo me al momento non è verificata.
3DMark79
03-08-2007, 00:46
allora con attivo AA4x ho fatto:
Punteggio Totale: 7328
SM 2.0 = 3268
SM 3.0 = 3354
senza AA
Punteggio Totale: 8331
SM 2.0 = 3607
SM 3.0 = 4263
quindi abbiamo avuto: una diminuzione del 11% nel SM 2.0, e del 21% in SM 3.0.
io edesso nn posso, magari +Lonewolf+ prova a giocare con qualcosa tipo stalker o R6 vegas, e facci sapere.
cmq che ne dite?
Rispetto hai 7.7 la percentuale di diminuzione quanto era con l'AA?
Cmq sembra che un piccolo miglioramento ci sia stato anche con il 3DMark06 a default anche se è ancora da verificare sotto Vista X64 visti i soli 3 punti fatti da Lonewolf.:rolleyes:
Free Gordon
03-08-2007, 01:21
Ottimizzano il fsaa da shaders però, e penso che il guadagno potrebbe essere paragonabile.
lo spero vivamente.
spero che ATI mi stupisca di nuovo come è sempre stato in passato. :D
Rispetto hai 7.7 la percentuale di diminuzione quanto era con l'AA?
Cmq sembra che un piccolo miglioramento ci sia stato anche con il 3DMark06 a default anche se è ancora da verificare sotto Vista X64 visti i soli 3 punti fatti da Lonewolf.:rolleyes:
ho l'impressione che mi sparerai, perchè nn l'ho fatto coi 7.7 il test con AA.
qualcuno lo può fare, magari che ha una configurazione simile alla mia?
SamCapone
03-08-2007, 08:12
tutti dicono cosi compresi i possesori di Nvidia 8800....poi nel tread del gioco tutti a lamentarsi... nella realtà dei fatti quel gioco e una monezza
Buongiorno a tutti .
Nos89 non ho detto che mi piace Dirt ,
Penso di aver buttato via mi mie soldi li .
è esattamente quello che volevo dire ;)
diciamo che io credo che quasi tutti (a meno di campanilismi) scambierebbero la propria 2900xt con una 8800gtx (o avrebbero preso quest'ultima a parità di prezzo, dopo aver letto le recensioni della XT). Ora chi l'ha acquistata (dato che la XT ha un rapporto prestazioni/prezzo ottimo) sicuramente ne è soddisfatto, ma spera che essendo una scheda da poco più di due mesi sul mercato, abbia miglioramenti nei drivers che rendano giocabili tutti i titoli al max dettaglio ad alta risoluzione con AA 4x, cosa che secondo me al momento non è verificata.
Io tendo all'8x, supreme commander a 1440x900 8x va da dio, punte di 70, medie di 40-50 fps.
lo spero vivamente.
spero che ATI mi stupisca di nuovo come è sempre stato in passato. :D
Già lo stanno facendo, secondo me questo pagherà in futuro, insieme all'unità di tesselation.
lo spero vivamente.
spero che ATI mi stupisca di nuovo come è sempre stato in passato. :D
xè cosa ti ritorna in tasca se succede così? questa skeda non è assolutamente da prendere dato ke tra poco escono già nuove generazioni, tipo g92
xè cosa ti ritorna in tasca se succede così? questa skeda non è assolutamente da prendere dato ke tra poco escono già nuove generazioni, tipo g92
Sarei ripagato da una maggiore longevità, se la pensi così vai a postare nel 3d adatto senza flammare qui, non immagino nemmeno cosa succederebbe se entrassi li dicendo di aspettare r700...
Sarei ripagato da una maggiore longevità, se la pensi così vai a postare nel 3d adatto senza flammare qui, non immagino nemmeno cosa succederebbe se entrassi li dicendo di aspettare r700...
faresti una cosa giusta, solo ke quelli ke ci sono nel 3d delle 8800 sono già "stufi" della skeda xè come me l'hanno da novembre. :D :D
questa non è altro ke una generazione fake di skede dx10, infatti io non l'ho presa x quello dato ke speravo di cambiarla dopo 6 mesi, invece arriviamo a 1 anno, mai successo fino ad ora
xè cosa ti ritorna in tasca se succede così? questa skeda non è assolutamente da prendere dato ke tra poco escono già nuove generazioni, tipo g92
allora non è assolutamente da prendere in considerazione anche la 8800gts 640mb se è per questo..
cmq ci avete veramente stufato con queste continue intrusioni flemmose,fatela finita...
@TecnoWorld8 falla finita ci ha severamente rotto i cosidetti a tutti,sono due mesi che ci fai un mazzo così mi sembri un disco rotto..
non se ne può più :mad:
GunnyITA
03-08-2007, 09:41
faresti una cosa giusta, solo ke quelli ke ci sono nel 3d delle 8800 sono già "stufi" della skeda xè come me l'hanno da novembre. :D :D
questa non è altro ke una generazione fake di skede dx10, infatti io non l'ho presa x quello dato ke speravo di cambiarla dopo 6 mesi, invece arriviamo a 1 anno, mai successo fino ad ora
Bhe non avresti torto. infatti lo penso anche io che questa generazione di schede e' stramba. Escono quasi 1 anno prima dei giochi dx.10 e sono schede dx.10
Poi quando uscira' il gioco dx 10 e ci giocheremo a dettagli medi o medio/bassi? non potevanoo fare prima a chiamarle "schede a dx9"?
Ah no giusto'....le schede alte non le avrebbero comprate piu' nessuno visto che sarebbero usciti giochi in DX10. Tutti avrebbero preso scede medio/basse nell'attesa di quelle vere e proprie DX10. di conseguenza "mercato in froozen". Dunque bisognava inventarsi uno spillo per le alloddole per vendere schede di fascia alta.
Ma di questo nn dobbiamo dare la colpa solo ad ATI ma anche ad NVIDIA, soprattutto NVIDIA, che lollosamente mi verrebbe da dire: "bhe la nostra scheda e' uscita in ritardo sì, pero' e' piu' vicino all'uscita di dx10 adesso di quanto lo era una serie 8000 6 mesi fa " """"PWNED NVIDIA""""".
faresti una cosa giusta, solo ke quelli ke ci sono nel 3d delle 8800 sono già "stufi" della skeda xè come me l'hanno da novembre. :D :D
questa non è altro ke una generazione fake di skede dx10, infatti io non l'ho presa x quello dato ke speravo di cambiarla dopo 6 mesi, invece arriviamo a 1 anno, mai successo fino ad ora
Farei una cosa infantile è assolutamente gratuita, una gara a chi ce l'ha più grosso che insulta e vilipendia la mia intelligenza.
Ma la noia di avere una scheda vecchia (capirai 1 anno..) non vi autorizza a interventi saccenti e flammosi qui.
allora non è assolutamente da prendere in considerazione anche la 8800gts 640mb se è per questo..
Esatto, ora come ora non comprerei proprio nulla. Aspetterei novembre per vedere come vanno crysis, ut 3, gears of war e bioschock (che uscirà prima)...
E ci metterei anche Call of Duty 4: Modern Warfare :D
Cmq penso che farò anch'io così... Basandomi sui vari benchmark e test in rete eseguiti su questi titoli... Sperando siano veritieri... ;)
3DMark79
03-08-2007, 10:29
ho l'impressione che mi sparerai, perchè nn l'ho fatto coi 7.7 il test con AA.
qualcuno lo può fare, magari che ha una configurazione simile alla mia?
Non preoccuparti M4R1 avrai tutto il tempo che desideri visto che da domani sarò in vacanza,tornerò appena un giorno per il fine settimana prossima!:D :mano:
3DMark79
03-08-2007, 10:31
Raga ma voi cosa ne pensate della HD2900pro possibile che possa avere prestazioni simili se non qualcosina in più della HD2900XT almeno a quanto letto su Dinox.
http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
Mister Tarpone
03-08-2007, 10:45
Raga ma voi cosa ne pensate della HD2900pro possibile che possa avere prestazioni simili se non qualcosina in più della HD2900XT almeno a quanto letto su Dinox.
http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
può essere che con i filtri attivi accusi meno una pro della xt.... ovviamente parlo dell' aa tradizionale ;) non di quello fatto tramite shader :fagiano:
cmq complessivamente credo andrà meno.... in dx10 poi.... boh.. :stordita:
Raga ma voi cosa ne pensate della HD2900pro possibile che possa avere prestazioni simili se non qualcosina in più della HD2900XT almeno a quanto letto su Dinox.
http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
non credo proprio,la pro ha l'obbiettivo di entrare in competizione con la 8600gts e la 8800gts 320mb,difatti il prezzo previsto di questa scheda è di 200 dollari..
3DMark79
03-08-2007, 10:52
può essere che con i filtri attivi accusi meno una pro della xt.... ovviamente parlo dell' aa tradizionale ;) non di quello fatto tramite shader :fagiano:
cmq complessivamente credo andrà meno.... in dx10 poi.... boh.. :stordita:
Capisco dunque quello utilizzato dalle 8800?Perchè questo passo indietro se il futuro dovrebbe proiettarci sull'AA via shader?:what:
Mister Tarpone
03-08-2007, 10:59
Capisco dunque quello utilizzato dalle 8800?Perchè questo passo indietro se il futuro dovrebbe proiettarci sull'AA via shader?:what:
forse perchè l'aa tradizionale verrà utilizzato nella maggior parte dei giochi ancora per moooolto tempo... boh..
GunnyITA
03-08-2007, 11:15
non credo proprio,la pro ha l'obbiettivo di entrare in competizione con la 8600gts e la 8800gts 320mb,difatti il prezzo previsto di questa scheda è di 200 dollari..
Pero' e' strano come questa serie 2000 abbia gia' modelli '900.
Mi spiego meglio.
Hanno rilasciato schede medie : 2600
basse: 2400
Alte: 2900
cioe'.....con una 8800 nvidia, non dovrebbe mettersi a confronto per esempio una 2800 ati?
Ma serie 700 ed 800 dove sono finite?
Forse la serie 2000 e' solo provvisoria o quant'altro....giusto per vedere come si muove il progetto e migliorarne i futuri.
Puo' darsi che nel giro di mesi vedremo gia' una serie 3000, con tutte le numerazioni mancanti....3200,3300,3550, 3600,3650, 3700, 3800, 3850,3900,3950 in vari modelli GT, PRO, XT ed XTX
""TADA"" :yeah:
Pero' e' strano come questa serie 2000 abbia gia' modelli '900.
Mi spiego meglio.
Hanno rilasciato schede medie : 2600
basse: 2400
Alte: 2900
cioe'.....con una 8800 nvidia, non dovrebbe mettersi a confronto per esempio una 2800 ati?
Ma serie 700 ed 800 dove sono finite?
Forse la serie 2000 e' solo provvisoria o quant'altro....giusto per vedere come si muove il progetto e migliorarne i futuri.
Puo' darsi che nel giro di mesi vedremo gia' una serie 3000, con tutte le numerazioni mancanti....3200,3300,3550, 3600,3650, 3700, 3800, 3850,3900,3950 in vari modelli GT, PRO, XT ed XTX
""TADA"" :yeah:
Tombola!
xè cosa ti ritorna in tasca se succede così? questa skeda non è assolutamente da prendere dato ke tra poco escono già nuove generazioni, tipo g92
hai sbagliato 3d.. questo non e' I CONSIGLI X GLI ACQUISTI....
se psti qui presuma che tu ce l'abbia,,,,
non credo proprio,la pro ha l'obbiettivo di entrare in competizione con la 8600gts e la 8800gts 320mb,difatti il prezzo previsto di questa scheda è di 200 dollari..
mah dipende dalla news che hai postato la vga puo essere tutto o niente.
del tipo si parla sicuramente di una vga che cercherà di bissare il successo commerciale della x1950pro.
ora si parlava qualche centinaio di pagine fà di una hd2900pro con bus a 256bit e circa 240shader.
visto che si parla di un die schrink ottimizzato puo essere interpretata in molti modi.
ora in r600 il rapporto 4:1 se ati vuole ritornare al rapporto 3:1 che riteneva ottimale in r580 allora gli basta mantenere le 16 rop's ed abbassare gli shader da 320 a 240.
io credo che la news sia da interpretare come una prova di ati di vedere come se la cava r600 o derivati con rapporti di 3:1.
e il fatto che vada di + che di r600 io credo si debba dire che vada di + rispetto ad un ipotetivo rv670 con rapporto di 4:1 cioè con 240sp e 12rops mentre in quella otturale vorrebbero riproporre un 240sp e 16rop's.
se vedessero che quest'archidettura da un risultato migliore in termini di programmabilità e distribuzione dei carichi puo essere un ottima piccola prova per un ipotetico hd2950 con un numero di sp leggermente aumentato che so da 320 portate a 360 ma un numero di rop's aumentate a 20 se non a 24.
e cmq si parla sempre di ua vga da 200E è indubbio che non puo andare meglio di r600 visto che sicuramente per 200e il bus a 512bit dovremmo scordarci e anche il chip grafico non puo essere + difficile da realizzare o complesso rispetto a r600 sopratutto con un 65nm che non è sicuramente quello fine e ottimizzato come quello da 80nm utilizzato per r600
TecnoWorld8
03-08-2007, 13:20
mah dipende dalla news che hai postato la vga puo essere tutto o niente.
del tipo si parla sicuramente di una vga che cercherà di bissare il successo commerciale della x1950pro.
ora si parlava qualche centinaio di pagine fà di una hd2900pro con bus a 256bit e circa 240shader.
visto che si parla di un die schrink ottimizzato puo essere interpretata in molti modi.
ora in r600 il rapporto 4:1 se ati vuole ritornare al rapporto 3:1 che riteneva ottimale in r580 allora gli basta mantenere le 16 rop's ed abbassare gli shader da 320 a 240.
io credo che la news sia da interpretare come una prova di ati di vedere come se la cava r600 o derivati con rapporti di 3:1.
e il fatto che vada di + che di r600 io credo si debba dire che vada di + rispetto ad un ipotetivo rv670 con rapporto di 4:1 cioè con 240sp e 12rops mentre in quella otturale vorrebbero riproporre un 240sp e 16rop's.
se vedessero che quest'archidettura da un risultato migliore in termini di programmabilità e distribuzione dei carichi puo essere un ottima piccola prova per un ipotetico hd2950 con un numero di sp leggermente aumentato che so da 320 portate a 360 ma un numero di rop's aumentate a 20 se non a 24.
e cmq si parla sempre di ua vga da 200E è indubbio che non puo andare meglio di r600 visto che sicuramente per 200e il bus a 512bit dovremmo scordarci e anche il chip grafico non puo essere + difficile da realizzare o complesso rispetto a r600 sopratutto con un 65nm che non è sicuramente quello fine e ottimizzato come quello da 80nm utilizzato per r600
la cosa che mi è sempre risultata difficile da capire è il perchè le aziende paiono fare delle prove con prodotti che vanno a vendere. Mi spiego meglio...prendiamo R600...possibile che non esistessero "simulazioni" per far capire ad ATi che sarebbe stato meno performante di G80 sui giochi attuali, prima di finalizzare il progetto? Se l'avessero visto, sarebbe stato sufficiente aumentare un po' le rops e diminuire gli shader, per far stare tutto sullo stesso die e solo a quel punto iniziarne la produzione.
in breve, mi piacerebbe davvero sapere come valutano le prestazioni di un prodotto prima di avere in mano il "silicio" definitivo.
Free Gordon
03-08-2007, 13:21
xè cosa ti ritorna in tasca se succede così? questa skeda non è assolutamente da prendere dato ke tra poco escono già nuove generazioni, tipo g92
Può anche uscire una scheda magica da 300fps in tutti i giochi, io comprerò sempre una scheda che mi costa al max 300 (350 proprio di picco ma già mi girano, spesi solo per la 9700pro..) o anche meno (tipo la 1800 che ho comprato a 220). :D
Cmq il discorso è filosofico, io adoro l'innovazione tecnologica e la ricerca pura, ATI è sempre stata la casa che ha meglio incarnato questa filosofia progettuale, nel tempo.
Per questo "spero vivamente ecc ecc.." ;)
la cosa che mi è sempre risultata difficile da capire è il perchè le aziende paiono fare delle prove con prodotti che vanno a vendere. Mi spiego meglio...prendiamo R600...possibile che non esistessero "simulazioni" per far capire ad ATi che sarebbe stato meno performante di G80 sui giochi attuali, prima di finalizzare il progetto? Se l'avessero visto, sarebbe stato sufficiente aumentare un po' le rops e diminuire gli shader, per far stare tutto sullo stesso die e solo a quel punto iniziarne la produzione.
in breve, mi piacerebbe davvero sapere come valutano le prestazioni di un prodotto prima di avere in mano il "silicio" definitivo.
Perchè quella parte shading in più potrebbe alla lunga essere la componente vincente, perchè è nel dna Ati innovare e interpretare il mercato e proporre soluzioni il più possibile plasmate al presente e al futuro.
Io poi non mi lamento delle prestazioni in dx9, averne ;)
Iantikas
03-08-2007, 13:36
la cosa che mi è sempre risultata difficile da capire è il perchè le aziende paiono fare delle prove con prodotti che vanno a vendere. Mi spiego meglio...prendiamo R600...possibile che non esistessero "simulazioni" per far capire ad ATi che sarebbe stato meno performante di G80 sui giochi attuali, prima di finalizzare il progetto? Se l'avessero visto, sarebbe stato sufficiente aumentare un po' le rops e diminuire gli shader, per far stare tutto sullo stesso die e solo a quel punto iniziarne la produzione.
in breve, mi piacerebbe davvero sapere come valutano le prestazioni di un prodotto prima di avere in mano il "silicio" definitivo.
ma infatti sicuramente hanno fatto tutte le prove del caso...il fatto è ke qualcosa è andato storto (probabilmente nn son riusciti ad ottimizzare il processo x farla viaggiare alle freq. a cui puntavano)...oramai era troppo tardi e un re-spin si portava via altri 3 mesi (senza la sicurezza ke poi andasse tutto bene)...hanno messo le freq. ke potevano mettere e l'hanno immessa nel mercato col prezzo giusto x quelle freq....
...se x es. hd2900xt avesse potuto viaggiare a 1000mhz d core ecco ke ti usciva la XTX con gddr4@2.2ghz a contrastare la ultra...
...ciao
Iantikas
03-08-2007, 13:41
mah dipende dalla news che hai postato la vga puo essere tutto o niente.
del tipo si parla sicuramente di una vga che cercherà di bissare il successo commerciale della x1950pro.
ora si parlava qualche centinaio di pagine fà di una hd2900pro con bus a 256bit e circa 240shader.
visto che si parla di un die schrink ottimizzato puo essere interpretata in molti modi.
ora in r600 il rapporto 4:1 se ati vuole ritornare al rapporto 3:1 che riteneva ottimale in r580 allora gli basta mantenere le 16 rop's ed abbassare gli shader da 320 a 240.
io credo che la news sia da interpretare come una prova di ati di vedere come se la cava r600 o derivati con rapporti di 3:1.
e il fatto che vada di + che di r600 io credo si debba dire che vada di + rispetto ad un ipotetivo rv670 con rapporto di 4:1 cioè con 240sp e 12rops mentre in quella otturale vorrebbero riproporre un 240sp e 16rop's.
se vedessero che quest'archidettura da un risultato migliore in termini di programmabilità e distribuzione dei carichi puo essere un ottima piccola prova per un ipotetico hd2950 con un numero di sp leggermente aumentato che so da 320 portate a 360 ma un numero di rop's aumentate a 20 se non a 24.
e cmq si parla sempre di ua vga da 200E è indubbio che non puo andare meglio di r600 visto che sicuramente per 200e il bus a 512bit dovremmo scordarci e anche il chip grafico non puo essere + difficile da realizzare o complesso rispetto a r600 sopratutto con un 65nm che non è sicuramente quello fine e ottimizzato come quello da 80nm utilizzato per r600
ke è come la vedo ankio (un ritorno al 3:1 lasciando inalterato il quantitativo d RBE e diminuendo gli sp)...magari sarà clokkata anke sugli 800mhz o + ed ecco ke, nelle applicazioni pesantemente "texture limited", potrebbe andare + d hd2900xt (a trovarlo xò un gioco attuale ke dipende così tanto dalle operazioni sulle texture da compensare il deficit della skeda negli shader)...
...ciao
3DMark79
03-08-2007, 14:19
la cosa che mi è sempre risultata difficile da capire è il perchè le aziende paiono fare delle prove con prodotti che vanno a vendere. Mi spiego meglio...prendiamo R600...possibile che non esistessero "simulazioni" per far capire ad ATi che sarebbe stato meno performante di G80 sui giochi attuali, prima di finalizzare il progetto? Se l'avessero visto, sarebbe stato sufficiente aumentare un po' le rops e diminuire gli shader, per far stare tutto sullo stesso die e solo a quel punto iniziarne la produzione.
in breve, mi piacerebbe davvero sapere come valutano le prestazioni di un prodotto prima di avere in mano il "silicio" definitivo.
Il tuo discorso molto sensato mi fa pensare al fatto che non essendoci dei veri test di giochi in directX10 al momento, figuriamoci quando uscirono queste schede...non hanno avuto modo di ottimizzarle in D.10 al meglio,infatti imho già con la prossima generazione non accadrà.
Anche se penso che la soluzione giusta ma quasi un utopia...ossia di mettere daccordo i programmatori di giochi con i responsabili di Ati e Nvidia per
utilizzare una programmazione standard di rendering.
TecnoWorld8
03-08-2007, 14:35
Il tuo discorso molto sensato mi fa pensare al fatto che non essendoci dei veri test di giochi in directX10 al momento, figuriamoci quando uscirono queste schede...non hanno avuto modo di ottimizzarle in D.10 al meglio,infatti imho già con la prossima generazione non accadrà.
Anche se penso che la soluzione giusta ma quasi un utopia...ossia di mettere daccordo i programmatori di giochi con i responsabili di Ati e Nvidia per
utilizzare una programmazione standard di rendering.
sì, credo che tu abbia ragione: probabilmente ATi si aspettava uno spostamento in massa verso le operazioni su shaders, cosa che invece "forse" accadrà nel 2008. Ma penso abbiano un po' sbagliato a lasciar così tanto perdere il "vecchio" per il "nuovo", in quanto mai le transizioni avvengono così di colpo...
3DMark79
03-08-2007, 14:55
sì, credo che tu abbia ragione: probabilmente ATi si aspettava uno spostamento in massa verso le operazioni su shaders, cosa che invece "forse" accadrà nel 2008. Ma penso abbiano un po' sbagliato a lasciar così tanto perdere il "vecchio" per il "nuovo", in quanto mai le transizioni avvengono così di colpo...
Sicuramente nel 2008 avranno già molte cavie su cui basarsi e provvedere a far schede come si deve.Per questo motivo penso che le prime schede che uscirono e che esciranno con nuove DirectX 9,10 o 11 che siano non sono state e non saranno mai il massimo dunque non è giustificato il prezzo di vendita.
mah dipende dalla news che hai postato la vga puo essere tutto o niente.
del tipo si parla sicuramente di una vga che cercherà di bissare il successo commerciale della x1950pro.
ora si parlava qualche centinaio di pagine fà di una hd2900pro con bus a 256bit e circa 240shader.
visto che si parla di un die schrink ottimizzato puo essere interpretata in molti modi.
ora in r600 il rapporto 4:1 se ati vuole ritornare al rapporto 3:1 che riteneva ottimale in r580 allora gli basta mantenere le 16 rop's ed abbassare gli shader da 320 a 240.
io credo che la news sia da interpretare come una prova di ati di vedere come se la cava r600 o derivati con rapporti di 3:1.
e il fatto che vada di + che di r600 io credo si debba dire che vada di + rispetto ad un ipotetivo rv670 con rapporto di 4:1 cioè con 240sp e 12rops mentre in quella otturale vorrebbero riproporre un 240sp e 16rop's.
se vedessero che quest'archidettura da un risultato migliore in termini di programmabilità e distribuzione dei carichi puo essere un ottima piccola prova per un ipotetico hd2950 con un numero di sp leggermente aumentato che so da 320 portate a 360 ma un numero di rop's aumentate a 20 se non a 24.
e cmq si parla sempre di ua vga da 200E è indubbio che non puo andare meglio di r600 visto che sicuramente per 200e il bus a 512bit dovremmo scordarci e anche il chip grafico non puo essere + difficile da realizzare o complesso rispetto a r600 sopratutto con un 65nm che non è sicuramente quello fine e ottimizzato come quello da 80nm utilizzato per r600
boh staremo a vedere,sicuramente qualcosa uscirà entro fine anno,quello che non si sà è se questa scheda andrà a sostituire la xt o sarà una vga di segmento immediatamente più basso atta ad arginare un pò le fascie che sono allo scoperto come quella monopolizzata soprattutto dalla 8800gts 320mb.....
Sicuramente nel 2008 avranno già molte cavie su cui basarsi e provvedere a far schede come si deve.Per questo motivo penso che le prime schede che uscirono e che esciranno con nuove DirectX 9,10 o 11 che siano non sono state e non saranno mai il massimo dunque non è giustificato il prezzo di vendita.
bhe dipende anche da cosa intendi...io giochi nel tempo si maturano...come le 9800XT andavano benissimo in DX9 per i primi anni.....poi è chiaro che con i nuovi effetti e le Dx9b-c hanno dovuto lasciare il passo;)
è propio un 3d dei se e dei ma, sembra + un 3d futuristico che realista
3DMark79
03-08-2007, 15:07
bhe dipende anche da cosa intendi...io giochi nel tempo si maturano...come le 9800XT andavano benissimo in DX9 per i primi anni.....poi è chiaro che con i nuovi effetti e le Dx9b-c hanno dovuto lasciare il passo;)
Certo le 9800XT facevano sicuramente la loro bella figura...adesso secondo me è proprio il tempo di godersi al max le DirectX9 già anche con delle X1900 o 7900 che non disdegnano per niente!;)
è propio un 3d dei se e dei ma, sembra + un 3d futuristico che realista
Qui siamo avanti cent'anni!:asd:
Avevo qualche problemino di temperatura con la x1950xt.
Dopo aver postato altrove e dopo aver letto poi questo thread:
Artic 5, AtiTT per la regolazione delle ventole ed ora è una meraviglia! :winner:
Temperature da 51°C in condizioni normali ai 61°C in gioco (mi arrivava sugli 80°-90°C senza overclock :( )
Free Gordon
03-08-2007, 18:35
ma infatti sicuramente hanno fatto tutte le prove del caso...il fatto è ke qualcosa è andato storto (probabilmente nn son riusciti ad ottimizzare il processo x farla viaggiare alle freq. a cui puntavano)
Eric Demers ha detto in un'intervista che puntavano ad una frequenza attorno agli 800mhz. ;)
Poi, visto che sulle applicazioni attuali 50mhz in meno non davano alcun problema ma permettevano rese più alte e vcore più bassi, hanno scelto per quella frequenza.
Se hanno mai provato a realizzare una XTX a 1Ghz, l'hanno fatto già nel 2007 inoltrato, quando il progetto della XT ormai era finito.
Eric Demers ha detto in un'intervista che puntavano ad una frequenza attorno agli 800mhz. ;)
Poi, visto che sulle applicazioni attuali 50mhz in meno non davano alcun problema ma permettevano rese più alte e vcore più bassi, hanno scelto per quella frequenza.
Se hanno mai provato a realizzare una XTX a 1Ghz, l'hanno fatto già nel 2007 inoltrato, quando il progetto della XT ormai era finito.
si con la revision A1 del chip pareva che arrivassero tranquilli a 1000mhz.
mentre con la A3 progettata per il commercio invece non si andava oltre gli 800mhz ad aria che se ci pensi è il limite a cui tt noi siamo + o - soggetti difatti ci fermiamo quasi tt sui 800-830mhz.
anche se però come ho detto è un chip molto soggetto alla temperatura a cui viaggi la mia sotto liquido 900mhz mentre ad aria fatico ad essere stabile a 825 sempre con il vcore default
+Lonewolf+
03-08-2007, 22:27
è propio un 3d dei se e dei ma, sembra + un 3d futuristico che realista
commento inutile;)
Marko#88
03-08-2007, 22:32
commento inutile;)
è un commento personale, uno ha tutto il diritto di farne...e secondo me non ha tutti i torti...;)
+Lonewolf+
03-08-2007, 22:34
è un commento personale, uno ha tutto il diritto di farne...e secondo me non ha tutti i torti...;)
anche io ho espresso un commento personale e non gli ho vietato di farlo...solo che mi prareva + un semi flame che un commento...
TecnoWorld8
03-08-2007, 23:17
anche io ho espresso un commento personale e non gli ho vietato di farlo...solo che mi prareva + un semi flame che un commento...
forse il suo commento era un po' provocatorio, ma è pur vero che, all'uscita della 8800gtx i possessori avevano un atteggiamento molto diverso da quello che attualmente hanno gli acquirenti di 2900xt. Nel primo caso, a novembre scorso, i fortunati possessori di G80 erano infatti iperentusiasti delle prestazioni e di certo non passavano giornate a sperare in miglioramenti portati da drivers, proprio perchè, per quella scheda e quel momento, non ce n'era minimamente il bisogno!
+Lonewolf+
03-08-2007, 23:43
forse il suo commento era un po' provocatorio, ma è pur vero che, all'uscita della 8800gtx i possessori avevano un atteggiamento molto diverso da quello che attualmente hanno gli acquirenti di 2900xt. Nel primo caso, a novembre scorso, i fortunati possessori di G80 erano infatti iperentusiasti delle prestazioni e di certo non passavano giornate a sperare in miglioramenti portati da drivers, proprio perchè, per quella scheda e quel momento, non ce n'era minimamente il bisogno!
cosa c'entra g80???
in ogni caso la 2900 non ha il ruolo che gtx ebbe illo tempore
forse il suo commento era un po' provocatorio, ma è pur vero che, all'uscita della 8800gtx i possessori avevano un atteggiamento molto diverso da quello che attualmente hanno gli acquirenti di 2900xt. Nel primo caso, a novembre scorso, i fortunati possessori di G80 erano infatti iperentusiasti delle prestazioni e di certo non passavano giornate a sperare in miglioramenti portati da drivers, proprio perchè, per quella scheda e quel momento, non ce n'era minimamente il bisogno!
Scusami un attimo che atteggiamento abbiamo? Io personalmente per l'ennesima volta ripeto che sono contento dell' acquisto a te non piace non comprarla, non puoi proiettare le tue paranoie sui possesori di questa scheda che mi sembrano tutti estramamenti felici, i driver stanno maturando e nessuno sta sperando in niente con i 7.8 beta che poi non sono 7.8 ma ancora 7.7 ma modificati rispetto a quelli ufficiali, le prestazioni aumentano in alcuni giochi, non vedo solo sogni come fai credere tu ma aumenti di prestazioni con ogni release di driver, quindi non vedo il problema ;), aspetta G 92 e prenditi quella che sicuramente supererà le g80 ,per piacere non mi venire a parlare di mercato la concorrenza e altre cose del genere le 2900 stanno vendendo alla grande proprio per il proprio rapporto prezzo\prestazione...non è una scheda secondo te e altri high end AMEN non fa niente vedremo la prossima generazione ATI cosa farà :fagiano:, per il momento io mi accontento di questa scheda anche perchè mi sta dando ottime soddisfazioni, aspetto Bioshock e vedremo se sarà in grado di gestirlo ;)
TecnoWorld8
04-08-2007, 00:04
Scusami un attimo che atteggiamento abbiamo? Io personalmente per l'ennesima volta ripeto che sono contento dell' acquisto a te non piace non comprarla, non puoi proiettare le tue paranoie sui possesori di questa scheda che mi sembrano tutti estramamenti felici, i driver stanno maturando e nessuno sta sperando in niente con i 7.8 beta che poi non sono 7.8 ma ancora 7.7 ma modificati rispetto a quelli ufficiali, le prestazioni aumentano in alcuni giochi, non vedo solo sogni come fai credere tu ma aumenti di prestazioni con ogni release di driver, quindi non vedo il problema ;), aspetta G 92 e prenditi quella che sicuramente supererà le g80 ,per piacere non mi venire a parlare di mercato la concorrenza e altre cose del genere le 2900 stanno vendendo alla grande proprio per il suo rapporto prezzo\prestazione...non è una scheda secondo te e altri high end AMEN non fa niente vedremo la prossima generazione ATI cosa farà :fagiano:, per il momento io mi accontento di questa scheda anche perchè mi sta dando ottime soddisfazioni, aspetto Bioshock e vedremo se sarà in grado di gestirlo ;)
urca, non volevo offendere nessuno e non credo di avere addirittura delle paranoie riguardo questa scheda :) che io sia rimasto deluso è ovvio, ma commentavo solamente l'opinione comune di molti (me compreso), cioè quella che sostiene che in questo thread si parli molto di speranze e di "futuro", anzichè di presente. sono felice se chi ha comprato questa scheda ne è soddisfatto e sono (e sarò) MOLTO felice se AMD/ATi vende bene e se grazie a questo potrà rifarsi una posizione di primo piano e potrà tornare a scontrarsi con nVidia nel segmento high end!!!
cosa c'entra g80???
in ogni caso la 2900 non ha il ruolo che gtx ebbe illo tempore
non avrà il ruolo della gtx..ma i possessori della gts (entrambe le ver) hanno avuto lo stesso atteggiamento (degli gtx) se non addirittura + felici per il miglior rapporto prezzo prestazioni..
Concordo con chi parla di eventi futuristici, visto che la maggior parte di tempi usati in questo 3d è il condizionale o il futuro..
Parlate solo quando siete certi, con numeri alla mano sarebbe meglio...
urca, non volevo offendere nessuno e non credo di avere addirittura delle paranoie riguardo questa scheda :) che io sia rimasto deluso è ovvio, ma commentavo solamente l'opinione comune di molti (me compreso), cioè quella che sostiene che in questo thread si parli molto di speranze e di "futuro", anzichè di presente. sono felice se chi ha comprato questa scheda ne è soddisfatto e sono (e sarò) MOLTO felice se AMD/ATi vende bene e se grazie a questo potrà rifarsi una posizione di primo piano e potrà tornare a scontrarsi con nVidia nel segmento high end!!!
Lo sto pensando perchè dall'inizio che ti trascini il problema di r600 manco ce l'avessi :D ci sei rimasto deluso io no sinceramente...è vero non si scontra con i titani ma questo non vuole dire che la scheda fa schifo,si è posizionata tra gts e gtx e con i giochi attuali io ti parlo di presente la scheda va più che bene a parte i tuoi giochi preferiti :D (DIRT e Lost Planet IMHO due giochi deludenti il primo per una giocabilità molto ma molto arcade e una fisica da brivido, Lost Planet per gli effetti DX10 che non riesco a notare, e per la sua ripetitività es. pratico affronti varie creature poi Boss finale il gioco si ripete sempre allo stesso modo l'ho trovato estramamente noiso) e fra l'altro dirt gira bene anche sui 30-40 frame e lost planet in dx9 gira egreggiamente,ATI non ha il segmento High End per questa generazione pazienza, staremo a vedere con r7xx cosa sarà in grado di fare,ma non mi sembra che dipingere la situazione di questa scheda catastrofica sia esatto ;)
non avrà il ruolo della gtx..ma i possessori della gts (entrambe le ver) hanno avuto lo stesso atteggiamento (degli gtx) se non addirittura + felici per il miglior rapporto prezzo prestazioni..
Concordo con chi parla di eventi futuristici, visto che la maggior parte di tempi usati in questo 3d è il condizionale o il futuro..
Parlate solo quando siete certi, con numeri alla mano sarebbe meglio...
Dati alla mano il presente con la 2900 mi sembra più che buono,poi che qualcuno spera nel miglioramento dei driver è ovvio e lecito aspettarselo, come è noto a tutti in questo 3d ci sono svariati problemi da risolvere ancora ma , parlando di presente i giochi girano tutti con estrema fluidità :)
TecnoWorld8
04-08-2007, 00:24
Lo sto pensando perchè dall'inizio che ti trascini il problema di r600 manco ce l'avessi :D ci sei rimasto deluso io no sinceramente...è vero non si scontra con i titani ma questo non vuole dire che la scheda fa schifo,si è posizionata tra gts e gtx e con i giochi attuali io ti parlo di presente la scheda va più che bene a parte i tuoi giochi preferiti :D (DIRT e Lost Planet IMHO due giochi deludenti il primo per una giocabilità molto ma molto arcade e una fisica da brivido, Lost Planet per gli effetti DX10 che non riesco a notare, e per la sua ripetitività es. pratico affronti varie creature poi Boss finale il gioco si ripete sempre allo stesso modo l'ho trovato estramamente noiso) e fra l'altro dirt gira bene anche sui 30-40 frame e lost planet in dx9 gira egreggiamente,ATI non ha il segmento High End per questa generazione pazienza, staremo a vedere con r7xx cosa sarà in grado di fare,ma non mi sembra che dipingere la situazione di questa scheda catastrofica sia esatto ;)
non è che siano i miei giochi preferiti, ma semplicemente i due giochi che mettono in crisi la mia - povera - schedina...e che quindi uso come pietra miliare per misurare quelle nuove high end, da cui mi aspetto invece che riescano a macinare tutti i giochi già sul mercato al max dettaglio e alta risoluzione, come fu all'uscita di G80.
+Lonewolf+
04-08-2007, 00:26
non avrà il ruolo della gtx..ma i possessori della gts (entrambe le ver) hanno avuto lo stesso atteggiamento (degli gtx) se non addirittura + felici per il miglior rapporto prezzo prestazioni..
Concordo con chi parla di eventi futuristici, visto che la maggior parte di tempi usati in questo 3d è il condizionale o il futuro..
Parlate solo quando siete certi, con numeri alla mano sarebbe meglio...
il tuo discorso non ha senso quando parli di gts...se allora c'erano già le 2900 per esempio e a maggio fossero uscite le gts probabilmente sarebbero molto + scontenti di quelli che sono in qst 3d...nn so se sn stato chiaro...
TecnoWorld8
04-08-2007, 00:29
il tuo discorso non ha senso quando parli di gts...se allora c'erano già le 2900 per esempio e a maggio fossero uscite le gts probabilmente sarebbero molto + scontenti di quelli che sono in qst 3d...nn so se sn stato chiaro...
certo che è come dici! ma le GTS (come le GTX) sono uscite a novembre 2006 e la 2900xt a maggio 2007, cioè ben 7 mesi abbondanti dopo...è proprio questo il punto.
non è che siano i miei giochi preferiti, ma semplicemente i due giochi che mettono in crisi la mia - povera - schedina...e che quindi uso come pietra miliare per misurare quelle nuove high end, da cui mi aspetto invece che riescano a macinare tutti i giochi già sul mercato al max dettaglio e alta risoluzione, come fu all'uscita di G80.
Potrei darti anche ragione se questi due giochi fossero estramamente belli ma non lo sono IMHO,quindi non me la prendo se faccio 40 fps in dirt o 60 fps in LP non sono pietre miliari per me, se la mia scheda non riuscisse a far girare BioSHock, che da quello che si dice è un capolavoro allora si che la ci sarebbe da arrabbiarsi, anche parecchio :D
certo che è come dici! ma le GTS (come le GTX) sono uscite a novembre 2006 e la 2900xt a maggio 2007, cioè ben 7 mesi abbondanti dopo...è proprio questo il punto.
Il punto che ATI non ha fatto uscire una scheda che si scontrasse con la 8800Gtx, ma che avesse un buon rapporto prezzo prestazioni con le schede presenti sul mercato questo è il punto, è vero tutti gli appasionati di vga si aspettavano una scheda che contrastasse le gtx non è avvenuto pazienza, la cosa importante e che questa scheda vendi e migliori nella gestione dei filtri (e gia lo sta facendo con le varie release dei driver) e da quello che so sta vendendo bene, e ne sono felice chi vorebbe solo un casa a produrre schede video :D
davide155
04-08-2007, 00:42
Il punto che ATI non ha fatto uscire una scheda che si scontrasse con la 8800Gtx, ma che avesse un buon rapporto prezzo prestazioni con le schede presenti sul mercato questo è il punto, è vero tutti gli appasionati di vga si aspettavano una scheda che contrastasse le gtx non è avvenuto pazienza, la cosa importante e che questa scheda vendi e migliori nella gestione dei filtri (e gia lo sta facendo con le varie release dei driver) e da quello che so sta vendendo bene, e ne sono felice chi vorebbe solo un casa a produrre schede video :D
Non ho capito una mazza di quello che hai detto :p
Soprattutto l'ultima frase.......è un rebus? :D
+Lonewolf+
04-08-2007, 00:58
Non ho capito una mazza di quello che hai detto :p
Soprattutto l'ultima frase.......è un rebus? :D
ha detto che ati + che andare di forza bruta è andata a lanciare un ottimo prodotto prezzo/prestazioni che fa ottimi numeri e che sta migliorando col tempo(e si vede)
poi ha detto che la concorrenza fa bene al portafogli nell'ultima frase
Non ho capito una mazza di quello che hai detto :p
Soprattutto l'ultima frase.......è un rebus? :D
Non mi sembra sia una rebus è scritto in italiano,e mi sembra estramamente chiaro, in sentisi...Ati non ha fatto uscire una High End pazienza non ci si può fare niente, ha fatto uscire una scheda che si posiziona tra una gtx gts con un prezzo alquanto aggressivo...la cosa importante secondo me e che questa scheda insieme a tutte le altre HD vendi( e migliori ancora un po nella gestione dei filtri con le prossime release dei driver,cosa che attualmente gia sta avvenendo con le release attuali), per non ritrovarci con un unica concorrente quindi Monopolio Nvidia a produrre gpu a prezzi esorbitanti;) penso che più chiaro di così il concetto non può essere espresso ;)
Free Gordon
04-08-2007, 01:29
Parlate solo quando siete certi, con numeri alla mano sarebbe meglio...
Io sinceramente ora mi sono proprio stufato.
Ci sono utenti che entrano in questo 3d (e le scomuniche di 2, 3 o n giorni non servono, perchè poi tornano), senza avere la scheda, solo per fare post a vanvera, senza fare discussioni tecniche e/o costruttive riguardo alla scheda o alla situazione ATI in generale. Cercando di punzecchiare in modo super-infantile e ponendo la discussione sempre e cmq sul confronto con Nvidia e vere o presunte superiorità che siano.
Ci sono i 3d dedicati alle relative schede ma sembra che questi a loro non bastino.
Questo tuo intervento è emblematico: "parlate solo quando siete certi ecc ecc.."
Ora, non vedo perchè non si possa fare una cosa di questo genere: escludere certi utenti dall'ingresso in questo 3d.
Forse non è nelle possibilità del forum ma sarei davvero felice se lo si potesse fare e si guadagnerebbe in leggibilità.
Spero che i mod ascoltino e prendano provvedimenti.
Per ora me ne vado perchè non ha più senso leggere questo 3d.
Saluti a tutti i felici possessori di R600! :D
ps. ovviamente, voglio sottolineare che per me, questo provvedimento dovrebbe valere per qualsiasi altro 3d, 8800 o vattelapesca inclusi.
Iantikas
04-08-2007, 01:30
ad essere estremamente delusi ki sa xkè son solo quelli ke nn l'hanno comprata o ke hanno una 8800 :O ...
...io ne son + ke soddisfatto (sopratutto del salto d performance ke m'ha dato rispetto alla mia "vekkia" x1900xtx)...naturale ke poi spero in futuro migliori sempre + x esserne ancora + soddisfatto...
...nn'è la skeda video + veloce attualmente in commercio? e allora?...ha un ottimo rapporto prezzo/prestazioni e rispekkia le mie esigenze ed è quello ke mi basta x esserne soddisfatto...ciao
Iantikas
04-08-2007, 01:36
Parlate solo quando siete certi, con numeri alla mano sarebbe meglio...
xkè nn inizi a farlo tu ed eviti di postare in questo 3d senza avere skeda, dati certi e numeri alla mano? ;)
Marko#88
04-08-2007, 03:17
anche io ho espresso un commento personale e non gli ho vietato di farlo...solo che mi prareva + un semi flame che un commento...
certo, peace, non voglio assolutamente flammare...sono contento che la vostra scheda migliori con ogni release dei driver :)
era più una cosa particolare, e come ho già detto, lo sbaglio più grande nel fare questa scheda non è stato nè il non voler competere con la gtx neè l'uscire con un tot di ritardo, ma solo uscire con driver indegni, se i driver maturi si fossero visti all'uscita ora vedremo molte più 2900 secondo me...vado in vacanza, ciao a tutti!:D
certo, peace, non voglio assolutamente flammare...sono contento che la vostra scheda migliori con ogni release dei driver :)
era più una cosa particolare, e come ho già detto, lo sbaglio più grande nel fare questa scheda non è stato nè il non voler competere con la gtx neè l'uscire con un tot di ritardo, ma solo uscire con driver indegni, se i driver maturi si fossero visti all'uscita ora vedremo molte più 2900 secondo me...vado in vacanza, ciao a tutti!:D
come non quotare il tallone di achille di questa vga sono stati propio i dvr all'uscita se fossero usciti con i dvr di adesso o cmq di una certa maturità o ottimizzati la vga si sarebbe attestata tra la gts e la gtx ma moolto + vicina alla gtx.
ergo la gente che vede la prime rece e vede solo i numeretti e compra in base a quello avrebbe pensato una vga come la gtx ma a 120e di meno la prendo.
invece dalla prima rece quello che hanno pensato è stato una vga come la gts?
vediamo quale delle 2 mi conviene prendere.
si questa volta davvero la mia delusione invece che sulla vga e anche sui dvr è stata propio sui programmatori ati che non sono stati in grado pur con un ritardo di 6 mesi di fare un dvr che nessuno pretendeva perfetto e che sfruttasse il 100% della vga ma nsomma che ne sfruttasse l'80%.
appena ho installato la vga invece mi pareva che la prima release ne sfruttasse si e no il 60% lasciando tutti i compiti alla potenza bruta della vga e senza un kazz di ottimizzazione
Io sinceramente ora mi sono proprio stufato.
Ci sono utenti che entrano in questo 3d (e le scomuniche di 2, 3 o n giorni non servono, perchè poi tornano), senza avere la scheda, solo per fare post a vanvera, senza fare discussioni tecniche e/o costruttive riguardo alla scheda o alla situazione ATI in generale. Cercando di punzecchiare in modo super-infantile e ponendo la discussione sempre e cmq sul confronto con Nvidia e vere o presunte superiorità che siano.
Ci sono i 3d dedicati alle relative schede ma sembra che questi a loro non bastino.
Questo tuo intervento è emblematico: "parlate solo quando siete certi ecc ecc.."
Ora, non vedo perchè non si possa fare una cosa di questo genere: escludere certi utenti dall'ingresso in questo 3d.
Forse non è nelle possibilità del forum ma sarei davvero felice se lo si potesse fare e si guadagnerebbe in leggibilità.
Spero che i mod ascoltino e prendano provvedimenti.
Per ora me ne vado perchè non ha più senso leggere questo 3d.
Saluti a tutti i felici possessori di R600! :D
ps. ovviamente, voglio sottolineare che per me, questo provvedimento dovrebbe valere per qualsiasi altro 3d, 8800 o vattelapesca inclusi.
ad essere estremamente delusi ki sa xkè son solo quelli ke nn l'hanno comprata o ke hanno una 8800 ...
Non so se voi che scrivete, pesate le vostre parole ma ne dubito; state parlando con uno più anziano di voi, e di circa 2 anni, che non ha mai dato spunto per flames, spam o robe varie. E' vero, non avrò suddetta scheda, ma siete voi stessi, possessori della 2900XT che fate confronti diretti con G80 sempre perchè mamma Ati dopo 7 mesi di ritardo non ha dato alla luce una scheda di fascia alta come la GTX..
Caro Iantikas, il tuo intervento è superfluo; Sono possessore di una 8800GTS 320Mb XFX XxX..ma sono molto lontano dall'essere deluso visto che io la mia scheda l'ho pagata appena uscita circa 180€ dalla baya..e non il doppio per prendere la 2900XT e aspettare il giorno del giudizio per driver decenti!
Con questo io chiudo..non mi va per colpa di qualc1 di voi di essere sospeso dal forum..rimango a leggervi.
Saluti.
Ragazzi su agp quali modelli si vedranno? non credo la 2900 xt.. cmq mi pare ottimo la possibilità di overvoltare da CCC . Per il resto son convinto che essendo un'architettura più "rivoluzionaria" rispetto alle 8800 sia ancora "acerba" per esser sfruttata a dovere
NvidiaMen
04-08-2007, 08:55
CONSIDERAZIONI UMANE.
Titolo: L'uomo non è mai soddisfatto.
Questo mio intervento non vuole essere assolutamente un richiamo a nessuno, ma una semplice osservazione di come le critiche partino, sempre e comunque, se la volontà di chi ha intenzione di promuoverle è quella di manifestare un disappunto soggettivo, fondato o meno che sia.
Mi spiego meglio in riferimento a due casi:
- Esce una nuova VGA High-end, alla "modica" cifra di circa 700€, che dimostra di essere sul mercato la più performante in assoluto. Tutti soddisfatti tranne chi non può permettersela, ovvero la maggior parte dell'utenza.
- Esce una nuova VGA presunta High-end, alla cifra non popolare (ma comunque molto più contenuta) di circa 370€, che dimostra di non essere la più performante in assoluto in molti ambiti, anche se stranamente in pochissimi casi lo è. Si intuisce che ci sono problemi software che impiegheranno mesi per essere risolti (ed i mesi di una VGA sono equivalenti agli anni per le autovetture...) e per questo la casa produttrice ha GIUSTAMENTE deciso di assegnarle un prezzo adatto alle prestazioni espresse al momento del lancio e non a quelle promesse.
Mi chiedo una cosa adesso. Se la VGA del caso 2 riesce comunque a gestire qualunque software videoludico ed in quello diciamo "più sfortunato" fà 40FPS anzichè 50FPS se confrontata con la corrispettiva versione Hi-End della concorrenza (non precludendo di conseguenza alcuna giocabilità) e se ad ogni release di drivers le prestazioni si avvicinano sempre più ad una top di gamma, mi chiedo:
Cosa si può rimproverare ad ATi di aver fatto risparmiare tanti eurini ai propri clienti per l'acquisto della propria soluzione certamente più inadatta alle attuali, ma certamente vecchie API DX9? Per chi vuole proprio il max poi (data la grande diffusione di motherboards certificate Crossfire anche in versanti diversi, Intel inclusa), bastava acquistare due HD2900 XT che in prezzo si avvicinano a quello di una sola 8800 Ultra, mentre in prestazioni DX9 sono molto più vicine a due Ultra, per non parlare del prezzo di quest'ultime che sarebbe il doppio rispetto a due R600 in Crossfire....
Qui un confronto, ovviamente sempre DX9, sul test 3DMark06 più significativo testato nella VGA charts da tom's hardware:
3DMark06 1.02 - HDR - SM 3.0 - 1600x1200x32 - 4xAA - 8x AF (http://www23.tomshardware.com/graphics_sli2007.html?modelx=33&model1=867&model2=819&chart=377)
tra due HD2900XT e due 8800GTX. Sarebbe molto interessante rieseguire questo test con i drivers 7.8.
NM.
TecnoWorld8
04-08-2007, 09:01
io ho iniziato a seguire questo topic in quanto pensavo, sin dall'agosto scorso, che sarei passato ad R600 appena uscito, dato che supponevo sarebbe stato un chip superiore a G80. Questo non è avvenuto, ma sono rimasto a lurkare perchè cmq mi interesso di tecnologia ed hw. La mia voleva solo essere una considerazione sul tono medio che si respira qui, cioè ricco di speranze per il futuro. Se lo si fa notare, però, tutti ad offendersi o a dire che invece sono felicissimi delle prestazioni della scheda.
bon, non dirò altro, mi limiterò, appunto, a lurkare :)
buon divertimento a chi è felice di aver acquistato la scheda. buon attesa agli altri.
che gente che circola su questo 3d!!!!!!
e poi nn avevate nessun diritto di dire a Free Gordon di andarsene, perchè così facendo è come dire: "tu nn ha la 2900, allora vattene" avete sbagliato, anche perchè in passato persone molto competenti (tra cui anche lui) hanno chiarito diversi concetti, Contenti?
davide155
04-08-2007, 09:57
Non mi sembra sia una rebus è scritto in italiano,e mi sembra estramamente chiaro, in sentisi...Ati non ha fatto uscire una High End pazienza non ci si può fare niente, ha fatto uscire una scheda che si posiziona tra una gtx gts con un prezzo alquanto aggressivo...la cosa importante secondo me e che questa scheda insieme a tutte le altre HD vendi( e migliori ancora un po nella gestione dei filtri con le prossime release dei driver,cosa che attualmente gia sta avvenendo con le release attuali), per non ritrovarci con un unica concorrente quindi Monopolio Nvidia a produrre gpu a prezzi esorbitanti;) penso che più chiaro di così il concetto non può essere espresso ;)
Era in senso ironico la mia frase.......
Cmq mi riferivo alle molteplici lettere delle parole sbagliate. E' chiaro che comunque si riusciva a capire la frase......
;)
Io non mi son lamentato di questa vga anzi son contento. Ci gira folding@home, ha ottime prestazioni e presto aumenteranno ancora grazie ai nuovi driver, ha un prezzo ottimo, ha il controllo dei voltaggi via software. Che chiedere di più? tanto una vga che costava 600 euri non l'avrei mai comprata nemmeno se vincevo alla lotteria. L'unico problema è che non è uscita in versione agp, se avevo il pci express non c'erano dubbi, vedrò quel che sarà proposto per il mercato agp ora come ora
davide155
04-08-2007, 10:24
Io non mi son lamentato di questa vga anzi son contento. Ci gira folding@home, ha ottime prestazioni e presto aumenteranno ancora grazie ai nuovi driver, ha un prezzo ottimo, ha il controllo dei voltaggi via software. Che chiedere di più? tanto una vga che costava 600 euri non l'avrei mai comprata nemmeno se vincevo alla lotteria. L'unico problema è che non è uscita in versione agp, se avevo il pci express non c'erano dubbi, vedrò quel che sarà proposto per il mercato agp ora come ora
Bè il controllo dei voltaggi via software ce l'hanno anche le x1800 e x1900......e anche la controparte nvidia :)
Le 8xxx di nvidia non ce l'hanno. Le 1xxx di Ati solo alcune (e mi risulta nessuna agp).
nico88desmo
04-08-2007, 11:47
Ero indietro di 3 pagine ma a quanto pare non mi sono perso nulla.
Visto che ho letto molti pareri, scrivo anche il mio;
Questa vga è stata posizionata in una fascia di prezzo dove c'è la 8800GTS 640. Se facciamo un confronto tra queste 2 vga ognuno si può comprare quella che più preferisce, se ha preferenza nVidia e quindi vuole una vga che vada ottimamente ora acquista la 8800 oppure sceglie Amd nel caso vuole giocare ora con la speranza di qualche miglioramente futuro.
La vga ha deluso? Al primo impatto mi ha deluso perchè non è una scheda enthusiast, però siccome il prezzo a cui è venduta non è appunto da enthusiast, allora non si può dire che questa scheda sia da buttare.
Detto questo, dico un'ultima cosa: voi che avete queste vga (8800 e HD2900) giocate al massimo dettaglio e divertitevi al posto di scrivere nel post così non leggo più pagine di commenti (:p).
Auguro buone vacanze a tutti!
Athlon 64 3000+
04-08-2007, 12:37
ieri ho fatto un paio di prove per vedere come è messa la situazione driver e ho provato stalker e Dirt con gli 8.40 rc3 e quando c'è l'AF attivato da driver il frame rate crolla è vedo che questo baco dell'af in alcuni giochi non lo hanno ancora risolto mentre sempbra che in BF2 non indica più di tanto.
C'è ancora molto da lavorare e spero che anche il problema del filtro presto lo risolvino.
ieri ho fatto un paio di prove per vedere come è messa la situazione driver e ho provato stalker e Dirt con gli 8.40 rc3 e quando c'è l'AF attivato da driver il frame rate crolla è vedo che questo baco dell'af in alcuni giochi non lo hanno ancora risolto mentre sempbra che in BF2 non indica più di tanto.
C'è ancora molto da lavorare e spero che anche il problema del filtro presto lo risolvino.
AF?
io lo tengo sempre su 16X... mai avuto problemi con nessun gioco
sommojames
04-08-2007, 13:49
Qualcuno per caso mi sa indicare qualche bench, possibilmente imparziale, fatto con i 7.7, che mostri la superiorità di questa scheda nei confronti della GTS? Grazie.
una cosa è vera: sicuramente adesso si concentreranno sulla serie HD, perché si saranno resi conto che seno perderanno una marea di quote di mercato.
anzi a dir la verità spero proprio che con i 7.8 cioè quelli di agosto ci siano netti miglioramenti, solo perché il 24 esce bioshock, e ati sicuramente nn vuole perdere la faccia, e vedrai che prima che esca crysis sicuramente compariranno degli hotfix o delle beta ufficiali 7.9 che miglioreranno le cose. se invece nn lo faranno ho proprio impressione che tanta gente si farà ancora una più pessima idei di questa scheda.
abbiamo configurazioni simili..
quanto fai al 3d mark 06 standard? ovvio indicami anche freq cpu e gpu
Io sinceramente ora mi sono proprio stufato.
Ci sono utenti che entrano in questo 3d (e le scomuniche di 2, 3 o n giorni non servono, perchè poi tornano), senza avere la scheda, solo per fare post a vanvera, senza fare discussioni tecniche e/o costruttive riguardo alla scheda o alla situazione ATI in generale. Cercando di punzecchiare in modo super-infantile e ponendo la discussione sempre e cmq sul confronto con Nvidia e vere o presunte superiorità che siano.
Ci sono i 3d dedicati alle relative schede ma sembra che questi a loro non bastino.
Questo tuo intervento è emblematico: "parlate solo quando siete certi ecc ecc.."
Ora, non vedo perchè non si possa fare una cosa di questo genere: escludere certi utenti dall'ingresso in questo 3d.
Forse non è nelle possibilità del forum ma sarei davvero felice se lo si potesse fare e si guadagnerebbe in leggibilità.
Spero che i mod ascoltino e prendano provvedimenti.
Per ora me ne vado perchè non ha più senso leggere questo 3d.
Saluti a tutti i felici possessori di R600! :D
ps. ovviamente, voglio sottolineare che per me, questo provvedimento dovrebbe valere per qualsiasi altro 3d, 8800 o vattelapesca inclusi.
Quoto tutto, almeno io non vado nei forum di prodotti che non possiedo bacchettando i commenti altrui.
Ogni volta che si cerca di iniziare un filone tecnico-informativo interessante arriva sempre il commento di sfida-infantilismo e il conseguente enorme of topic.
Se si togliesse il titolo del 3d qualcuno crede che si potrebbe realmente dedurlo? Secondo me no.
Ero indietro di 3 pagine ma a quanto pare non mi sono perso nulla.
Visto che ho letto molti pareri, scrivo anche il mio;
Questa vga è stata posizionata in una fascia di prezzo dove c'è la 8800GTS 640. Se facciamo un confronto tra queste 2 vga ognuno si può comprare quella che più preferisce, se ha preferenza nVidia e quindi vuole una vga che vada ottimamente ora acquista la 8800 oppure sceglie Amd nel caso vuole giocare ora con la speranza di qualche miglioramente futuro.
La vga ha deluso? Al primo impatto mi ha deluso perchè non è una scheda enthusiast, però siccome il prezzo a cui è venduta non è appunto da enthusiast, allora non si può dire che questa scheda sia da buttare.
Detto questo, dico un'ultima cosa: voi che avete queste vga (8800 e HD2900) giocate al massimo dettaglio e divertitevi al posto di scrivere nel post così non leggo più pagine di commenti (:p).
Auguro buone vacanze a tutti!
non ci dimintichiamo che non siamo sui consigli x gli aquisti... ma nel 3d ufficiale!
ritorniamo tutti ( me compreso ) ad una DIAGNOSTICA della scheda.. con valutazioni generali ecc ecc... basta con sti paragoni... alla fine uno compra cio' che vuole.. e tiene sempre ad una marca preferita...
chiuso ot
-Feanor-
04-08-2007, 16:06
Qualcuno per caso mi sa indicare qualche bench, possibilmente imparziale, fatto con i 7.7, che mostri la superiorità di questa scheda nei confronti della GTS? Grazie.
l'unica rece che ho trovato con i 7.7 è questa...
http://www.tweaktown.com/articles/1145/ati_catalyst_7_7_performance_analysis/index.html
tuttavia non c'è la controparte nvidia..
quindi puoi confrontare i bench per esempio con questa
http://www.tweaktown.com/reviews/1129/7/page_7_benchmarks_half_life_2_lost_coast_hdr/index.html
Qualcuno per caso mi sa indicare qualche bench, possibilmente imparziale, fatto con i 7.7, che mostri la superiorità di questa scheda nei confronti della GTS? Grazie.
se guardi a pagina 256 di questo thread troverai un bel po' di benchmark, dove la hd2900xt è sempre sopra alla gts, ma non solo, in molti bench stà pure sopra alla gtx ;)
Mister Tarpone
04-08-2007, 16:31
se guardi a pagina 256 di questo thread troverai un bel po' di benchmark, dove la hd2900xt è sempre sopra alla gts, ma non solo, in molti bench stà pure sopra alla gtx ;)
ma con o senza filtri?? :confused:
ma con o senza filtri?? :confused:
Le impostazioni utilizzate se guardi bene sopra ogni bench ci sono scritte :)
Mister Tarpone
04-08-2007, 16:48
Le impostazioni utilizzate se guardi bene sopra ogni bench ci sono scritte :)
ho visto i test :)
ciao :)
:)
SenderoLuminoso
05-08-2007, 12:57
allora con attivo AA4x ho fatto:
Punteggio Totale: 7328
SM 2.0 = 3268
SM 3.0 = 3354
senza AA
Punteggio Totale: 8331
SM 2.0 = 3607
SM 3.0 = 4263
quindi abbiamo avuto: una diminuzione del 11% nel SM 2.0, e del 21% in SM 3.0.
io edesso nn posso, magari +Lonewolf+ prova a giocare con qualcosa tipo stalker o R6 vegas, e facci sapere.
cmq che ne dite?
Cmq sei a cpu limited
+Lonewolf+
05-08-2007, 13:51
3dmark 2006 processore @3ghz
VGA@825/960
11300 marks
un ottimo results considerando che sono su vista x64...la perdita dovrebbe essere di circa 300pts...
SenderoLuminoso
05-08-2007, 17:56
Io son riuscito a far questo oggi :)
http://img464.imageshack.us/img464/784/3dmark0613027sx2.jpg (http://imageshack.us)
Shot at 2007-08-05
+Lonewolf+
05-08-2007, 17:57
Io son riuscito a far questo oggi :)
-CUT
Shot at 2007-08-05
come hai fatto a farti vedere la VGA dal 3dmark2006???:confused: poi a quanto la tenevi? cmq il procio ti fa schizzare il punteggio
Io son riuscito a far questo oggi :)
Shot at 2007-08-05
Quanto fa in 3d05!!
+Lonewolf+
05-08-2007, 18:16
ma il 3dmark 2006 ti riconosce la scheda!!!! è impossibile!!!
Mister Tarpone
05-08-2007, 18:16
ma il 3dmark 2006 ti riconosce la scheda!!!! è impossibile!!!
quindi dici che è un fake?? o no?? :confused:
.............. :confused:
+Lonewolf+
05-08-2007, 18:30
quindi dici che è un fake?? o no?? :confused:
.............. :confused:
edit;)
quindi dici che è un fake?? o no?? :confused:
.............. :confused:
Non è per niente fake basta sostituire un file all'interno della cartella del 3dmark06, e la scheda tranquillamente viene riconosciuta ;)
+Lonewolf+
05-08-2007, 18:34
Non è per niente fake basta sostituire un file all'interno della cartella del 3dmark06, e la scheda tranquillamente viene riconosciuta ;)
:ave:
Mister Tarpone
05-08-2007, 18:36
FAKE:fagiano:
Non è per niente fake basta sostituire un file all'interno della cartella del 3dmark06, e la scheda tranquillamente viene riconosciuta ;)
adesso è tutto più chiaro. grazie :confused: :confused:
ciao...:confused: :confused:
SenderoLuminoso
05-08-2007, 18:40
Quanto fa in 3d05!!
Lo sai che io il 3d...05 nonl'ho mai usato ocn sta scheda? mo ce provo
SenderoLuminoso
05-08-2007, 18:41
:ave:
Guarda se hai la 2900xt sul cd del 3dmark06 ce' l'indirizzo per scaricare la pacth
Guarda ce se hai la 2900xt sul cd del 3dmark06 ce' l'indirizzo per scaricare la pacth
ma la patch x poterlo utilizzare x vista
Guarda ce se hai la 2900xt sul cd del 3dmark06 ce' l'indirizzo per scaricare la pacth
Per chi volesse vedere la propria 2900xt nel 3Dmark 06 basta scaricare da qui http://www.sapphiretech.com/en/downl...recpll-dll.zip questo file e sostituirlo nella cartella del 3dmark06 ;) chiedo che questo link venga messo nell'altro 3d sulla 2900XT in prima pagina thx :)
Per chi volesse vedere la propria 2900xt nel 3Dmark 06 basta scaricare da qui http://www.sapphiretech.com/en/downl...recpll-dll.zip questo file e sostituirlo nella cartella del 3dmark06 ;) chiedo che questo link venga messo nell'altro 3d sulla 2900XT in prima pagina thx :)
grazie...
Lo sai che io il 3d...05 nonl'ho mai usato ocn sta scheda? mo ce provo
Prova prova :D sono curioso :sofico:
Prova prova :D sono curioso :sofico:
strano dopo il tuo punteggio:Prrr:
quindi dici che è un fake?? o no?? :confused:
.............. :confused:
anche a me riconosce la scheda con Vista 64bit ultimate e 3dmark 06 (i cata sono i 7.7)
strano dopo il tuo punteggio:Prrr:
non è vero :D
appena arriva la commando, formatto e faccio dei test sia con 3d mark 05 sia con lo 06 xo tutto a default:D
SenderoLuminoso
05-08-2007, 20:00
quindi dici che è un fake?? o no?? :confused:
.............. :confused:
Ma una fake il mio screen ? uahhahahha aou avete le pacth sotto gli occhi e neanche le vedete e accusate? ehehehe vabbbbbè
SenderoLuminoso
05-08-2007, 20:04
Quanto fa in 3d05!!
Ho scaricato il 3dmark05 e questo è il primo risultato che ho fatto :
http://img454.imageshack.us/img454/8765/3dmsrk0520910bf3.jpg (http://imageshack.us)
Shot at 2007-08-05
I driver sono i 7.7 volevo provare i 7.8 beta ma lo faro tra un po quando metto il refrigeratore al raffreddamento a liquido
Settimana scorsa era improponibile fare bench
SenderoLuminoso
05-08-2007, 20:07
strano dopo il tuo punteggio:Prrr:
Non sono stato il primo a benchare e qualched'uno se fa bench fara piu de me sicuro non ci trovo nulla i thread servono anche per questo non per fare ot e per cazzeggiare.
Non sono stato il primo a benchare e qualched'uno se fa bench fara piu de me sicuro non ci trovo nulla i thread servono anche per questo non per fare ot e per cazzeggiare.
eh? ma che hai capito?:confused:
raga un tizio mi ha detto che alla vga con i prossimi driver gli verra attivato il bus a 512 e poi le rops sara ma mi sembra una puttanat@
-Feanor-
05-08-2007, 20:43
raga un tizio mi ha detto che alla vga con i prossimi driver gli verra attivato il bus a 512 e poi le rops sara ma mi sembra una puttanat@
:mbe: specifica meglio "tizio" ......
:mbe: specifica meglio "tizio" ......
xsnakex lui ma detto cosi sapevo fosse una puttanat@ ma detto scrivilo sul forum e vedrai che ti diranno di si
nico88desmo
05-08-2007, 20:48
Xsnakex lui ma detto cosi sapevo fosse una puttanat@ ma detto scrivilo sul forume vedrai che ti diranno di si
E' un puttanata bella e buona!
I 512 bit sono già tutti presenti..solo che non vengono (forse) sfruttati a dovere.
Invece ho trovato una notizia molto più interessante...
- Programmable primitive tesselation is coming in DX11, but you can try it now on R6-family GPUs
Fonte : http://www.beyond3d.com/content/articles/89/6
E' un puttanata bella e buona!
I 512 bit sono già tutti presenti..solo che non vengono (forse) sfruttati a dovere.
Invece ho trovato una notizia molto più interessante...
- Programmable primitive tesselation is coming in DX11, but you can try it now on R6-family GPUs
Fonte : http://www.beyond3d.com/content/articles/89/6
ajahhahahahahah lo sapevo ahhahahaa lo sapevo hahahhaha lo sapevooooooooooooooooooooooo cmq ho la discusisone msn salvata se dice che non mi ha detto nulla tiro fuori le prove
+Lonewolf+
05-08-2007, 21:00
ajahhahahahahah lo sapevo ahhahahaa lo sapevo hahahhaha lo sapevooooooooooooooooooooooo cmq ho la discusisone msn salvata se dice che non mi ha detto nulla tiro fuori le prove
scusate non capisco:eek: la scheda ha feature dx11???
per quanto riguarda le rops? saranno attivate con le prossime relase dei driver? fonte ==>tizio
E' un puttanata bella e buona!
I 512 bit sono già tutti presenti..solo che non vengono (forse) sfruttati a dovere.
Invece ho trovato una notizia molto più interessante...
- Programmable primitive tesselation is coming in DX11, but you can try it now on R6-family GPUs
Fonte : http://www.beyond3d.com/content/articles/89/6
:eek: :eek:
nn ci credo, cmq prima che escano le dx11 ci sarà già R800
cmq voi sapete quanti gflops fa la 2900? io ricordo quasi 600, saglio?
il bus a 512 bit.. (come si parlava in alcuni post di 200 pagg fa su questo 3d ) era (detto da alcuni di voi) sfruttato male, xke era piu ottimizzato per i 256 bit delle x1900, che per i 512 bit della nuova famiglia...
e sempre su stò 3d si è parlato che con le prossime relase dei driver verranno attivate le rops della scheda, che attualmente ci sono ma non vengono usate :confused:
per quanto riguarda le rops? saranno attivate con le prossime relase dei driver? fonte ==>tizio
e per caso ti ha detto altro di interessante? (dove lavora?)
:eek: :eek:
nn ci credo, cmq prima che escano le dx11 ci sarà già R800
cmq voi sapete quanti gflops fa la 2900? io ricordo quasi 600, saglio?
490 GLOPS o giù di li mi pare
e per caso ti ha detto altro di interessante? (dove lavora?)
e lominide che ha risposto sopra
nico88desmo
05-08-2007, 21:05
scusate non capisco:eek: la scheda ha feature dx11???
Diciamo che la tesselation unit sarà un parte hardware della scheda video che dovrà essere presente affinchè questa rispetti le DX11.
Avendo detto questo, si può capire come l'unità tesselation non è un obbligo per le DX10 e DX10.1 (almeno fino ad'ora...poi nel futuro può cambiare...chi lo sà :D)
il bus a 512 bit.. (come si parlava in alcuni post di 200 pagg fa su questo 3d ) era (detto da alcuni di voi) sfruttato male, xke era piu ottimizzato per i 256 bit delle x1900, che per i 512 bit della nuova famiglia...
e sempre su stò 3d si è parlato che con le prossime relase dei driver verranno attivate le rops della scheda, che attualmente ci sono ma non vengono usate :confused:
si ma la cosa che molte pagine fa nn mi era chiara è che cmq il bus incide tantissimo, anzi ricordo che tutto dipende da quello, quindi un'eventuale ottimizzazione di driver per il 512 bit porterebbe un aumento prestazionale, sbaglio?
edit: grazie per la risposta sulla potenza :)
davide155
05-08-2007, 21:10
E' un puttanata bella e buona!
I 512 bit sono già tutti presenti..solo che non vengono (forse) sfruttati a dovere.
Invece ho trovato una notizia molto più interessante...
- Programmable primitive tesselation is coming in DX11, but you can try it now on R6-family GPUs
Fonte : http://www.beyond3d.com/content/articles/89/6
C'è quel try che non mi piace........
In pratica si possono provare? Cioè non sfruttare a dovere? :mbe:
Che ci prendono per i fondelli?
Cioè una demo per poi averli fra 4 anni quando ci saranno le dx11???
ghhgh adogni th mi vien voglia di cambiare la mia x1950 :D
Mi e' appena arrivato il nuovo monitor, tastiera e mouse :D
ora tocca al case e ali!
Poi mobo in rma e decido per la vga!
ma secondo voi il passaggio x1950pro 512mb @ 2900xt 512mb -> conviene?
Uso risluzione 1680*1050
Conviene usare un wb al posto dell raffreddamento originale?
Tks!
ghhgh adogni th mi vien voglia di cambiare la mia x1950 :D
Mi e' appena arrivato il nuovo monitor, tastiera e mouse :D
ora tocca al case e ali!
Poi mobo in rma e decido per la vga!
ma secondo voi il passaggio x1950pro 512mb @ 2900xt 512mb -> conviene?
Uso risluzione 1680*1050
Conviene usare un wb al posto dell raffreddamento originale?
Tks!
bè... va praticamente il triplo...
ghhgh adogni th mi vien voglia di cambiare la mia x1950 :D
Mi e' appena arrivato il nuovo monitor, tastiera e mouse :D
ora tocca al case e ali!
Poi mobo in rma e decido per la vga!
ma secondo voi il passaggio x1950pro 512mb @ 2900xt 512mb -> conviene?
Uso risluzione 1680*1050
Conviene usare un wb al posto dell raffreddamento originale?
Tks!
se proprio vuoi sapere se conviene aspetta i riscontri sui driver 7.8/7.9.
cmq da quello che so avreti un aumento prestazionale nn di poco conto
davide155
05-08-2007, 21:15
ghhgh adogni th mi vien voglia di cambiare la mia x1950 :D
Mi e' appena arrivato il nuovo monitor, tastiera e mouse :D
ora tocca al case e ali!
Poi mobo in rma e decido per la vga!
ma secondo voi il passaggio x1950pro 512mb @ 2900xt 512mb -> conviene?
Uso risluzione 1680*1050
Conviene usare un wb al posto dell raffreddamento originale?
Tks!
Io ti consiglio di aspettare le prox revisioni dei chip.
Sia di nvidia che di ati.
Ora come ora queste vga sono buone come asciugacapelli :O :D
Quando iniziano a uscire titoli dx10 a stecca allora si potrà dare un occhiata ai listini delle vga in commercio.
Ma per ora non ti conviene.
Stiamo transitando dalle dx9 alle dx10. E' una fase lenta e dolorosa, nonchè molto difficile per il mercato.
Non avere furia ;)
nico88desmo
05-08-2007, 21:15
si ma la cosa che molte pagine fa nn mi era chiara è che cmq il bus incide tantissimo, anzi ricordo che tutto dipende da quello, quindi un'eventuale ottimizzazione di driver per il 512 bit porterebbe un aumento prestazionale, sbaglio?
edit: grazie per la risposta sulla potenza :)
Farà aumentare le prestazioni nel caso sia il bus a fare da collo di bottiglia (AA e AS in teoria quindi).
Però l'HD2900 rispetto alla concorrente ha anche meno TMU e ROPs.
davide155
05-08-2007, 21:16
bè... va praticamente il triplo...
Bè adesso non esageriamo.......la vram è la stessa, ed è lei a falsare molti punteggi con le schede più vecchie.
Diciamo quasi il doppio ;)
nico88desmo
05-08-2007, 21:17
C'è quel try che non mi piace........
In pratica si possono provare? Cioè non sfruttare a dovere? :mbe:
Che ci prendono per i fondelli?
Cioè una demo per poi averli fra 4 anni quando ci saranno le dx11???
Infatti anche io ho letto quel try..che non è molto confortante.
Per ora posso pensare che l'AMD si è voluta prendere avanti di un pò di anni :D.
Staremo a vedere come finirà :)
Farà aumentare le prestazioni nel caso sia il bus a fare da collo di bottiglia (AA e AS in teoria quindi).
Però l'HD2900 rispetto alla concorrente ha anche meno TMU e ROPs.
ho capito, grazie:)
davide155
05-08-2007, 21:18
Infatti anche io ho letto quel try..che non è molto confortante.
Per ora posso pensare che l'AMD si è voluta prendere avanti di un pò di anni :D.
Staremo a vedere come finirà :)
Può arrivare anche alle dx22 per me, ma se con le attuali dx9 e 10 soprattuto, non va bene, può rimanere sullo scaffale :)
Io ti consiglio di aspettare le prox revisioni dei chip.
Sia di nvidia che di ati.
Ora come ora queste vga sono buone come asciugacapelli :O :D
Quando iniziano a uscire titoli dx10 a stecca allora si potrà dare un occhiata ai listini delle vga in commercio.
Ma per ora non ti conviene.
Stiamo transitando dalle dx9 alle dx10. E' una fase lenta e dolorosa, nonchè molto difficile per il mercato.
Non avere furia ;)
la penso come te ;)
nico88desmo
05-08-2007, 21:19
Può arrivare anche alle dx22 per me, ma se con le attuali dx9 e 10 soprattuto non va bene, può rimanere sullo scaffale :)
Questo è certo. :O
E' anche vero che non si possono trarre conclusioni ora...perchè manca il software necessario.
Infatti anche io ho letto quel try..che non è molto confortante.
Per ora posso pensare che l'AMD si è voluta prendere avanti di un pò di anni :D.
Staremo a vedere come finirà :)
be ma nn credo che abbiano tirato fuori una scheda che la si potrà sfruttare bene per altri 4 anni, cioè se così fosse sarebbe la miglio scheda mai esisteti, ma nn sarà così, cioè cosa gli costava togliere la tesselazione altro per incrementare le prestazioni?
nico88desmo
05-08-2007, 21:22
be ma nn credo che abbiano tirato fuori una scheda che la si potrà sfruttare bene per altri 4 anni, cioè se così fosse sarebbe la miglio scheda mai esisteti, ma nn sarà così, cioè cosa gli costava togliere la tesselazione altro per incrementare le prestazioni?
Infatti ho messo la smile vicino a quella frase..era in senso ironico. :)
L'utilità del tesselator per ora non c'è stata...vedremo in futuro come andranno le cose.
La scheda durerà un anno, forse meno causa DX10.
Infatti anche io ho letto quel try..che non è molto confortante.
Per ora posso pensare che l'AMD si è voluta prendere avanti di un pò di anni :D.Staremo a vedere come finirà :)
Speriamo di no…, altrimenti siamo messi male ..
davide155
05-08-2007, 21:24
la penso come te ;)
;)
Questo è certo. :O
E' anche vero che non si possono trarre conclusioni ora...perchè manca il software necessario.
Questo è vero in parte.
Il software necessario per le dx10 un pò lo abbiamo. Vedasi crysis. Si, dovrà essere ottimizzato e tutto, ma non possono diminuire di molto la qualità, il che sta a significare che queste vga per ora non ce la fanno.
Vuoi che sono mal sfruttate, vuoi che non ce la fa l'hardware a stare dietro alla richiesta onerosa delle dx10.......arriviamo al punto che dobbiamo aspettare il 2008 per poterci godere a pieno i primi titoli dx10.
Ho detto i primi......per non pensare agli altri........con la conoscenza che aumenterà da parte dei programmatori nel maneggiare le dx10......non voglio nemmeno sapere quanto saranno pesante, ma belle per gli occhi.
Vedremo.....fatto sta che per ora non ho assolutamente bisogno di queste vga.
Tutti i giochi usciti fin'ora li ho giocati bene o male con la mia x1900xt. Ho dovuto rinunciare ai filtri.......ma cmq me li sono sempre goduti al max dei dettagli.
I nuovi giochi dx10 mi imporranno di cambiare hardware sicuramente, ma vedrò se queste vga attuali saranno all'altezza quando il gioco sarà sul mercato.
Vedasi crysis.......ut3.....ecc.....
nico88desmo
05-08-2007, 21:27
;)
Questo è vero in parte.
Il software necessario per le dx10 un pò lo abbiamo. Vedasi crysis. Si dovrà essere ottimizzato e tutto, ma non possono diminuire di molto la qualità, il che sta a significare che queste vga per ora non ce la fanno.
Proprio perchè deve essere ancora ottimizzato a dovere non si possono trarre conclusioni.
Vuoi che sono mal sfruttate, vuoi che non ce la fa l'hardware a stare dietro alla richiesta onerosa delle dx10.......arriviamo al punto che dobbiamo aspettare il 2008 per poterci godere a pieno i primi titoli dx10.
Ho detto i primi......per non pensare agli altri........con la conoscenza che aumenterà da parte dei programmatori nel maneggiare le dx10......non voglio nemmeno sapere quanto saranno pesante, ma belle per gli occhi.
Concordo :O
Vedremo.....fatto sta che per ora non ho assolutamente bisogno di queste vga.
Tutti i giochi usciti fin'ora li ho giocati bene o male con la mia x1900xt. Ho dovuto rinunciare ai filtri.......ma cmq me li sono sempre goduti al max dei dettagli.
I nuovi giochi dx10 mi imporranno di cambiare hardware sicuramente, ma vedrò se queste vga attuali saranno all'altezza quando il gioco sarà sul mercato.
Vedasi crysis.......ut3.....ecc.....
Certamente la tua scheda è più che buona per i giochi attuali e hai fatto bene a tenertela.
Per l'ultima parte, oltre alla scheda video per le DX10 secondo me ci vorrà un buon processore e tanta ram (ricordo che c'è anche Vista di mezzo)
davide155
05-08-2007, 21:32
E' si....anche la ram sarà fondamentale, ma quello è il minore dei mali.
Anche il procio non è proprio una ciofeca......anzi......tiene testa a molti :O
appleroof
05-08-2007, 21:34
E' si....anche la ram sarà fondamentale, ma quello è il minore dei mali.
Anche il procio non è proprio una ciofeca......anzi......tiene testa a molti :O
quoto! :D :D
nico88desmo
05-08-2007, 21:44
Fra qualche mese si avrà sicuramente una situazione più definita.
Ora me ne vado per un pò di settimane!
Buone vacanze a tutti!
davide155
05-08-2007, 21:45
quoto! :D :D
Lo puoi dire forte :O
Fra qualche mese si avrà sicuramente una situazione più definita.
Ora me ne vado per un pò di settimane!
Buone vacanze a tutti!
Il prox appuntamento per le nostre vga dx10 e non sarà per il 24 agosto.....bioshock :O
Buone vacanze :)
appleroof
05-08-2007, 22:03
Fra qualche mese si avrà sicuramente una situazione più definita.
Ora me ne vado per un pò di settimane!
Buone vacanze a tutti!
OT
buone vacanze :) a me manca solo una settimana di sofferenza :rolleyes:
;)
/OT
davide155
05-08-2007, 22:13
OT
buone vacanze :) a me manca solo una settimana di sofferenza :rolleyes:
;)
/OT
Siamo in due :cry:
Ma venerdì........triplice fischio finale......tutti negli spogliatoi :O
:D :D :D
il bus a 512 bit.. (come si parlava in alcuni post di 200 pagg fa su questo 3d ) era (detto da alcuni di voi) sfruttato male, xke era piu ottimizzato per i 256 bit delle x1900, che per i 512 bit della nuova famiglia...
e sempre su stò 3d si è parlato che con le prossime relase dei driver verranno attivate le rops della scheda, che attualmente ci sono ma non vengono usate :confused:
Hanno riutilizzato il driver per x1900 riaddattandolo, quindi sì la scheda è a 512 bit, ma usa un driver di un altro prodotto in pratica, e con i prossimi driver vogliono riprogrammarlo.
davide155
05-08-2007, 22:19
Hanno riutilizzato il driver per x1900 riaddattandolo, quindi sì la scheda è a 512 bit, ma usa un driver di un altro prodotto in pratica, e con i prossimi driver vogliono riprogrammarlo.
Se è così buono ma perchè non ci hanno pensato prima?
Perchè dobbiamo fare sempre noi da cavie???
Si ritorna sempre ai soliti discorsi.
Ci prendono matematicamente per i fondelli ogni volta.
Basta vedere x360......ps3......e via dicendo........la storia si ripete sempre :muro:
3 pagine di questo 3d sono andate sprecate senza criterio, e ripetendo per l'ennesima volte sempre le stesse cose, che ormai sappiamo tutti :rolleyes: questo 3d dovrebbe avere un altro nome...:muro: è inutile il titolo che ha :O
Se è così buono ma perchè non ci hanno pensato prima?
Perchè dobbiamo fare sempre noi da cavie???
Si ritorna sempre ai soliti discorsi.
Ci prendono matematicamente per i fondelli ogni volta.
Basta vedere x360......ps3......e via dicendo........la storia si ripete sempre :muro:
Perchè ci vuole del tempo a programmarlo.
Hd2900 deve essere poi compatibile con un nuovo SO.
Riguardo alla citazione console lo prendo come un rimando ironico ;)
davide155
05-08-2007, 22:51
3 pagine di questo 3d sono andate sprecate senza criterio, e ripetendo per l'ennesima volte sempre le stesse cose, che ormai sappiamo tutti :rolleyes: questo 3d dovrebbe avere un altro nome...:muro: è inutile il titolo che ha :O
Bè......ma essendo un forum con più di 12mila persone iscritte la vedo dura a non ripetere più di una volta la stessa cosa.
Si ok.....non è importante postare......non è obbligatorio. Ma allora che ci sta a fare il forum?
A conteggiare quanti gb mancano per cambiare hd del cluster di hardware upgrade?
A volte non vi capisco ragazzi.
Cioè......stiamo discutendo in tutta tranquillità fra persone civili......senza flames.....trovando molti pensieri non dico uguali ma molto vicini fra loro ed ecco che a qualcuno non gli sta bene.
Sia chiaro non è nulla di personale con te chief, ma trovo ancora meno cotruttiva di queste tre pagine la tua uscita.........
Cmq finito qui l'argomento.
Non ti va bene? ok.....io mi fermo qui. Però fammela dire una cosa......che "scatole".............
davide155
05-08-2007, 22:52
Perchè ci vuole del tempo a programmarlo.
Hd2900 deve essere poi compatibile con un nuovo SO.
Riguardo alla citazione console lo prendo come un rimando ironico ;)
Ed è quello che è........ma forse l'hai fraintesa....mi riferivo ad un'altra cosa delle console......fa niente;)
Bè......ma essendo un forum con più di 12mila persone iscritte la vedo dura a non ripetere più di una volta la stessa cosa.
Si ok.....non è importante postare......non è obbligatorio. Ma allora che ci sta a fare il forum?
A conteggiare quanti gb mancano per cambiare hd del cluster di hardware upgrade?
A volte non vi capisco ragazzi.
Cioè......stiamo discutendo in tutta tranquillità fra persone civili......senza flames.....trovando molti pensieri non dico uguali ma molto vicini fra loro ed ecco che a qualcuno non gli sta bene.
Sia chiaro non è nulla di personale con te chief, ma trovo ancora meno cotruttiva di queste tre pagine la tua uscita.........
Cmq finito qui l'argomento.
Non ti va bene? ok.....io mi fermo qui. Però fammela dire una cosa......che "scatole".............
Io non ho detto di non postare sul forum ci mancherebbe,il forum è uno scambio di opinioni e idee fra più persone in maniera civile, ma permetti che ogni giorno che passa vedo che vengono scritte le solite cose :read: una cosa la dico io che "scatole" leggere sempre quasi ogni giorno discussioni ormai vecchie e stravecchie....comunque tu sei liberissimo di postare quello che vuoi su questo 3d,non dar peso alla mia opinione è molto futile,continuate pure la vostra discussione senza problemi ;)
Hanno riutilizzato il driver per x1900 riaddattandolo, quindi sì la scheda è a 512 bit, ma usa un driver di un altro prodotto in pratica, e con i prossimi driver vogliono riprogrammarlo.
ragazzi non facciamo confusione.
il bus è a 512bit e il suo dvr è programmato per gestire questo 512bit all'esterno e i suoi 1024bit all'interno, il suo problema è oltre una struttura con molti + stop del ringbus utilizzato su r5x0 è anche il fatto che virtualmente è molto + programmabile di quello di r5x0 ed ergo va ottimizzato a puntino per ogni applicazione.
la questione è semplice vedetela in questa maniera: il bus a 512bit di r600 senza ottimizzazioni ha le prestazioni di quelle alla presenzaioni e credo + che soddisfacenti(è la prima vga che con un 3dmark06 se fai il test con no aa e con aa4x perde meno di 1000pnt) visto che non ha ottimizazioni adesso lavora solo in maniera brutale attingendo solo alla sua forza bruta di puro calcolo.
l'unica cosa che ci possiamo aspettare e che da ati stanno facendo è una riscrittura di ottimizazione del dvr.
anche il concetto di riscrittura per la struttura del ringbus è sbagliato riscrivese rembra che quello attuale non vada bene.
il ringbus è estremamente programmabile.
il termine reale è propio "stanno programmando" la struttura del ringbus per rendelo efficente nelle varie applicazioni.
non essendo un semplice crossbar come sulle 8800 ovviamente va programmato applicazione per applicazione e quindi richiede + tempo per ottenere virtualmente risultati migliori.
non è che ati ha dato un prodotto incompleto o come alcuni dicevano "bus a 256bit, dvr della x1900" no è totalmente sbagliato il ringbus di r600 è notevolmente + complesso da ottimizzare che non quella di r580.
ergo ci vuole + tempo per ottimizzarlo per ogni applicazione specifica( e non so voi se avete presente la complessità dei un ringbus a 1024bit interni ma immagino i programmatori ati che per ogni gioco devono trovare modo e sistema per programmarlo per ottenere i migliori risultati)
visto che il tempo è tiranno è ovvio che alcune applicazioni non possono venire ottimizzate tutte insieme ogni mese e quindi si appoggia solo alla potenza bruta.
incominciamo a metterci nel cervello che le prestazioni del bus di r600 sono quelle della presenzazione e tutto quello che di migliore arrivado dopo lo arriva solo xè questo ringbus è totalmente programmabile e quindi ci sono ampi margini di miglioramento ma se per qualche motivo ad ati non va di ottimizzare per qualsiasi motivo le prestazioni che abbiamo queste sono e queste restano.
Capitolo rop's invece:
r600 come tutti sappiano non è che le ha disattivate se le avesse disattivate adesso nn funzionerebbe nessuna operazione di rastering.
semplicemente non vengono utilizzate nella gestione dei filtri xè si è scelto di farli passare per lo shader core.
ora yossarian ha detto che questo è stato scelto per un bug che alla presentazione non era stato sistemato ma non si è mai capito se fosse un bug software o un bug hw.
anche se a mio modesto giudizio molti vedono l'aa dell'attivazione tramite rop's come la salvezza o la manna dal cielo non è cosi almeno numericamente:
r600 ha 16rop che lavorano a 740mhz mentre le 8800gts ne hanno 20 che lavorano a 500mhz e le gtx ne hanno 24 che lavorano a 575mhz.
a conti fatti r600 riuscirebbe ad elaborare 11840 operazioni per ciclo di clock contro le 10000 della gts e le 13800 della gtx.
come vedete esattamente in mezzo tra le 2 in questo caso si eliminerebbero quegli inspiegabili cari di fps durante il gioco con aa on portandoli ad un andamento + lineare senza picchi verso il basso.
riguardo alle prestazioni invece sicuramente a livello teorico non ci dovrebbe essere ne il raggiungimento della gtx e ne tantomeno il sorpasso ma sicuramente ci sarebbe un netto stacco da parte delle hd2900xt contro le 8800gts che ad oggi in dx9 con aa attivo fanno registrare valori quasi identici.
ora non è che io stia dicendo che è sbagliato anzi avere la possibilità di afare aa sia via shader core che via rop's è ottima e sicuramente è una possibilita che allo stato attuale g80 offre e r600 no.
ricordo che per g80 ci sono voluti 7 mesi per arrivare alla piena maturità dei dvr (basti pensare dai test di hw alla presentazione e quelli eseguiti alla presentazione di r600 con le 8800 mediamente un 20% di performances in + su tutto) visto che sopra l'archidettura di r600 è notevolmente + complessa ma offre anche maggiori possibilità di ottimizazione anche io stimo un periodo di maturazione della nostra vga in 6 o 7 mesi ergo tocca pazientare visto che stiamo si e no alla seconda release di dvr all'uscita delle vga.
io credo che con i dvr 7.10-7.11(novembre dicembre per interderci) la vga sarà gia matura.
ragazzi non facciamo confusione.
Mmm a me pare che abbiano detto la stessa cosa in pratica, comunque AMD ha trascurato volutamente questo aspetto per concentrarsi sulla stabilità, Hd2900 in effetti stabile è sempre stata, e non è un approccio che non condivido.
Il ring bus va a 512 bit, ma utilizzando tempistiche e latenze, oltre che dinamiche di x1900, questo credo sia un limite che potrà dare un 10-15% in più in futuro.
Iantikas
06-08-2007, 02:13
Mmm a me pare che abbiano detto la stessa cosa in pratica, comunque AMD ha trascurato volutamente questo aspetto per concentrarsi sulla stabilità, Hd2900 in effetti stabile è sempre stata, e non è un approccio che non condivido.
Il ring bus va a 512 bit, ma utilizzando tempistiche e latenze, oltre che dinamiche di x1900, questo credo sia un limite che potrà dare un 10-15% in più in futuro.
a me invece pare ke quello ke dici tu (ed altri) nn centri niente con quello ke ha appena scritto [ripetuto] catan (e ke son le cose giuste e come stanno) :stordita: ...
...ma tanto lo si sta ripetendo da settimane e ancora con la solita solfa "driver x1900" (ke ora noto nn son + driver ma son diventate tempistike, latenze e dinamike x1900 :D )...
...l'unica cosa ke coincide (almeno) è ke c sarà un miglioramento...ma questo è scontato dato ke c'è con ogni nuova gen d skede...magari potrà essere un pelino superiore alla norma ma ki s'aspetta il miracolo (tipo prestazioni superiori GTX/Ultra) penso rimarrà deluso...ciao
Mmm a me pare che abbiano detto la stessa cosa in pratica, comunque AMD ha trascurato volutamente questo aspetto per concentrarsi sulla stabilità, Hd2900 in effetti stabile è sempre stata, e non è un approccio che non condivido.
Il ring bus va a 512 bit, ma utilizzando tempistiche e latenze, oltre che dinamiche di x1900, questo credo sia un limite che potrà dare un 10-15% in più in futuro.
posso dirti di no anche xè il ringbus di r600 è per come ho detto prima completamente diverso da quello di r5x0.
intanto ha 80 ringstop in +, ha un bus interno a 1024bit e puo arrivare a dialogare con ogni componente del chip e della ram mentre quello adottato su r5x0 praticamente lavorava dividendosi le zone del chip di competenza in 4 parti mi pare(qui nn ne sono sicuro vado molto a ricordo)
è ovvio che non puoi programmare questo ringbus comequello di r5x0 ma è anche ovvio che dopo che lo hai programmato da 0 e non hai tempo di ottimizarlo xè la presentazione incombe scegli di ottimizzarlo sfruttando il lavoro accumulato nell'anno e mezzo di lavoro sul ringbus di r5x0 che ovviamente non sfrutta il 100% del potenziale di programmazione del nuovo ringbus ma nsomma sempre meglio che non sfruttarlo tutto.
ricordo anche che con il ringbus di r5x0 quando uscirono le x1900xt era lo stesso delle x1800xt quindi appunto questo ringbus aveva almeno già 4 o 5 mesi di ottimizazioni sul groppone all'uscita delle x1900xt.
per capirci meglio tutti forse parlando del ringbus dovremmo dividere la parte di gestione del ringbus e la parte di programmabilità del ringbus.
la parte di gestione è quella e non ci si puo far nulla(se funziona cosi funziona cosi nn ci si puo far nulla) la parte invece di programmabilità con il ringbus di r600 è ancor + libera di quella di r520 il che comporta con un lavoro maggiore e certosino un aumento di prestazioni in ogni applicazione se questa viene riscritta ad hoc per il ringbus semplicemente per una migliore ottimizazione delle chiamate alla ram e per il trasporto dati.
è ovvio che se nessuno fa questo lavoro il ringbus lavora in maniera base ma non perdendo prestazioni semplicemente non guadagnandole o non sfruttando una componente di programmabilità che è alla base del progetto ringbus.
quando si dice che stanno riscrivendo il dvr + che riscrivere stanno semplicemente prendendo che so i 15 giochi + giocati o i 5 o 6 giochi in attesa(vedi bioshock, UT3 e crisys) e ne stanno programmando il ringbus ad hoc per far guadagnare prestazioni oltre quelle garantite dal ringbus senza ottimizazioni.
a me invece pare ke quello ke dici tu (ed altri) nn centri niente con quello ke ha appena scritto [ripetuto] catan (e ke son le cose giuste e come stanno) :stordita: ...
...ma tanto lo si sta ripetendo da settimane e ancora con la solita solfa "driver x1900" (ke ora noto nn son + driver ma son diventate tempistike, latenze e dinamike x1900 :D )...
...l'unica cosa ke coincide (almeno) è ke c sarà un miglioramento...ma questo è scontato dato ke c'è con ogni nuova gen d skede...magari potrà essere un pelino superiore alla norma ma ki s'aspetta il miracolo (tipo prestazioni superiori GTX/Ultra) penso rimarrà deluso...ciao
E meno male che è intervenuto il giudiche che ci dice cosa sono le cose giuste e come stanno...
I Driver non fanno altro che programmare la gestione dei dati nel ring bus, dinamiche (quindi), tempistiche (quindi) e latenze degli stessi.
Questo a seconda del codice del gioco e di cosa ha più bisogno in temini di dati incide pesantemente sul risultato.
posso dirti di no anche xè il ringbus di r600 è per come ho detto prima completamente diverso da quello di r5x0.
intanto ha 80 ringstop in +, ha un bus interno a 1024bit e puo arrivare a dialogare con ogni componente del chip e della ram mentre quello adottato su r5x0 praticamente lavorava dividendosi le zone del chip di competenza in 4 parti mi pare(qui nn ne sono sicuro vado molto a ricordo)
è ovvio che non puoi programmare questo ringbus comequello di r5x0 ma è anche ovvio che dopo che lo hai programmato da 0 e non hai tempo di ottimizarlo xè la presentazione incombe scegli di ottimizzarlo sfruttando il lavoro accumulato nell'anno e mezzo di lavoro sul ringbus di r5x0 che ovviamente non sfrutta il 100% del potenziale di programmazione del nuovo ringbus ma nsomma sempre meglio che non sfruttarlo tutto.
ricordo anche che con il ringbus di r5x0 quando uscirono le x1900xt era lo stesso delle x1800xt quindi appunto questo ringbus aveva almeno già 4 o 5 mesi di ottimizazioni sul groppone all'uscita delle x1900xt.
per capirci meglio tutti forse parlando del ringbus dovremmo dividere la parte di gestione del ringbus e la parte di programmabilità del ringbus.
la parte di gestione è quella e non ci si puo far nulla(se funziona cosi funziona cosi nn ci si puo far nulla) la parte invece di programmabilità con il ringbus di r600 è ancor + libera di quella di r520 il che comporta con un lavoro maggiore e certosino un aumento di prestazioni in ogni applicazione se questa viene riscritta ad hoc per il ringbus semplicemente per una migliore ottimizazione delle chiamate alla ram e per il trasporto dati.
è ovvio che se nessuno fa questo lavoro il ringbus lavora in maniera base ma non perdendo prestazioni semplicemente non guadagnandole o non sfruttando una componente di programmabilità che è alla base del progetto ringbus.
quando si dice che stanno riscrivendo il dvr + che riscrivere stanno semplicemente prendendo che so i 15 giochi + giocati o i 5 o 6 giochi in attesa(vedi bioshock, UT3 e crisys) e ne stanno programmando il ringbus ad hoc per far guadagnare prestazioni oltre quelle garantite dal ringbus senza ottimizazioni.
R520 e r580 possiedono un ring bus meno flessibile e meno ampio di r600, ma si è scelta una strada evolutiva piuttosto di proporre qualcosa di assolutamente nuovo, è per questo che molte delle esperienze maturate prima (leggasi drivers) possono funzionare anche su r600, sfruttando unicamente il maggior bus.
Poi verranno le ottimizzazioni ad hoc, di fatto solo ora si concentrano nativamente sulla serie hd2xxx.
ilbuglio
06-08-2007, 10:26
ALLORA , vorrei segnalare che le sapphire 2900xt sono assemblate a cazzo :cry: , magari in tutte le pagine del forum è gia stato segnalato , ma ci vuole troppo a rileggere il tutto , comunque se avete una 2900xt che scalda tanto potrebbe essere una di quellle montate a cazzo , in pratica i pad che dovrebbero far fare contatto alle ram sul dissipatore non toccano bene , dovete chiaramente se ne avete le capacità smontare la sk video , prendere i pad lato gpu e unirli insime a quelli lato processore in modo da aumentare lo spessore degli stessi e nel mezzo fra i due metteteci pure un po di pastina termoconduttiva , poi lato gpu mettete dei pad nuovi con uno spessore + alto ho usato quelli che danno di serie per montare i dissipatori sulle ram ddr-2, gia che ci siete sostituite la pasta della gpu, pure quella fa cagare .
rimontate il tutto e provatela vedrete circa un guadagno di 10 gradi in meno , inoltre voledo potete usare ati tool e settare la sk video in ambiente desktop a 170/200 mhz per gpu , 170/200 mhz per ram , e ventolina fissa a 30 % , diventa almeno silenziosa e con queste frequenze consuma meno e scalda meno , inoltre non si nota nessus rallentamento nelle funzioni desktop o movie.
Ciao a tutti.
:)
Guarda che non è solo la 2900 xt.. è un problema di molte altre schede video..
-Feanor-
06-08-2007, 14:57
ALLORA , vorrei segnalare che le sapphire 2900xt sono assemblate a cazzo :cry: , magari in tutte le pagine del forum è gia stato segnalato , ma ci vuole troppo a rileggere il tutto , comunque se avete una 2900xt che scalda tanto potrebbe essere una di quellle montate a cazzo , in pratica i pad che dovrebbero far fare contatto alle ram sul dissipatore non toccano bene , dovete chiaramente se ne avete le capacità smontare la sk video , prendere i pad lato gpu e unirli insime a quelli lato processore in modo da aumentare lo spessore degli stessi e nel mezzo fra i due metteteci pure un po di pastina termoconduttiva , poi lato gpu mettete dei pad nuovi con uno spessore + alto ho usato quelli che danno di serie per montare i dissipatori sulle ram ddr-2, gia che ci siete sostituite la pasta della gpu, pure quella fa cagare .
rimontate il tutto e provatela vedrete circa un guadagno di 10 gradi in meno , inoltre voledo potete usare ati tool e settare la sk video in ambiente desktop a 170/200 mhz per gpu , 170/200 mhz per ram , e ventolina fissa a 30 % , diventa almeno silenziosa e con queste frequenze consuma meno e scalda meno , inoltre non si nota nessus rallentamento nelle funzioni desktop o movie.
Ciao a tutti.
:)
mmm....molto interessante...non è che qualche giorno in cui non hai niente da fare puoi postarci una specie di guida con quello che hai detto correlato da foto magari...sarebbe utilissimo credo....;) grazie....
700 POST...!!! http://img148.imageshack.us/img148/2590/83wohojc6.gif (https://addons.mozilla.org/firefox/1174)
ALLORA , vorrei segnalare che le sapphire 2900xt sono assemblate a cazzo :cry: , magari in tutte le pagine del forum è gia stato segnalato , ma ci vuole troppo a rileggere il tutto , comunque se avete una 2900xt che scalda tanto potrebbe essere una di quellle montate a cazzo , in pratica i pad che dovrebbero far fare contatto alle ram sul dissipatore non toccano bene , dovete chiaramente se ne avete le capacità smontare la sk video , prendere i pad lato gpu e unirli insime a quelli lato processore in modo da aumentare lo spessore degli stessi e nel mezzo fra i due metteteci pure un po di pastina termoconduttiva , poi lato gpu mettete dei pad nuovi con uno spessore + alto ho usato quelli che danno di serie per montare i dissipatori sulle ram ddr-2, gia che ci siete sostituite la pasta della gpu, pure quella fa cagare .
rimontate il tutto e provatela vedrete circa un guadagno di 10 gradi in meno , inoltre voledo potete usare ati tool e settare la sk video in ambiente desktop a 170/200 mhz per gpu , 170/200 mhz per ram , e ventolina fissa a 30 % , diventa almeno silenziosa e con queste frequenze consuma meno e scalda meno , inoltre non si nota nessus rallentamento nelle funzioni desktop o movie.
Ciao a tutti.
:)
credo cheil tuo sia un caso isolato xè intutte ste pagine di tread nessuno ha lamentato questo problema anzi tutti ad aria con oc anche di 800mhz durante i test a cpu calda si fanno max 70-72 graadi.
cmq la vga assemblat a kaiser cpt sempre e ovviamete le 2900 no ne sono immuni
ilbuglio
06-08-2007, 16:16
domada semplice come posso allegare delle immagini un poco grossine ?
per le foto ve le mando in @mail , fatemi sapere !!
per capire guardate le immagini pure da questa recenzione
http://www.mvktech.net/content/view/3641/39/1/3/
INTANTO
Prima rimuovete tutte le viti che si trovano nel dietro della sk video (lato processore pc) , una volta rimosse ,verrà via la placca nera che dissipa le ram in quella zona , controllate i pad di contatto delle ram , sono tre e osservateli bene se fanno contatto con le ram ( ci rimane il segno quadrato delle bga ) potrebbero avere dei segni molto leggeri sui pad in quel caso bastera stendere sui pad un poco di pasta termica per avere un buon montaggio , se invece tale segni di contatto non ci sono allora ci vuole la modifica hai pad .
una volta rimosse viti e dissipatore posteriore smonate le due viti che si trovano lato connettori dvi .
fatto questo staccate la clip della alimentazione della ventola e ora delicatamente potete rimuovere la partte anteriore della sk video che verra via in blocco .
Fatto questo controllate i pad della parte gpu , vi ho allegato una foto per farvi vedere come si vede bene la differenza tra un pad che fà ben contatto (quello dei regolatori di tensione) e quello invece delle ram che non fa una sega di contatto (sempre foto sempre lato gpu)
allora se la situazione è quella di poco contatto basta ripetere quello fatto per la placca posteriore (nera ) cioè aggiungete sui pad un velo di pasta termica , sostituite se volete migliorare la dissipazione della gpu la pasta su di essa (io ho usato una artic silver 5) e rimontate il tutto (le viti vanno serrate ma state attenti a non forzarle dato che la filettatura è sull'alluminio ) e date il via al pc e testate.
se invece la situazione è differente (come la mia ) nessun contatto sui pad dovete procedere cosi , procuratevi delle strisce di pad termico gommoso possibilmente non adesivo che danno di serie con i dissipatori per le ram (io ho usato quello dei dissipatori revoltec ramfreezer copper edition) se fosse adesivo ambo i lati pulite una delle due parti con un poco di alcool .
una volta che avete il pad che chiaramente deve avere il doppio di spessore circa di quello di serie usato sulla vostra 2900xt , mettete della pasta termica (per i pad ho usato quella standar bianca) sui pad lato processore pc , placca nera , staccate i pad lato gpu (solo quelli delle ram) e accoppiateli in maniera precisa con quelli lato processore pc .
fatto questo ritagliate le strisce uguali di pad (di quelle tolte precedentemente lato gpu) con quello + alto che avete comprato sistemate la parte addesiva sul dissipatore e la parte non adesiva che andrà poi a contatto con le ram della sk video e metteteci per sicurezza (se prima era un pad addesivo ambo i lati) un velo di pasta termica .
fatto questo se avete già sostituito la pasta pure alla gpu , rimontate il tutto e testate la sk video
GRAZIE
:read:
P.S. NON SONO RESPONSABILE IN ALCUN MODO SE FATE DEI DANNI ALLA VOSTRA SK VIDEO SE NON SIETE ESPERTI CHIEDETE CONSIGLIO A CHI CI SA FARE .
CIAO.
:read:
credo cheil tuo sia un caso isolato xè intutte ste pagine di tread nessuno ha lamentato questo problema anzi tutti ad aria con oc anche di 800mhz durante i test a cpu calda si fanno max 70-72 graadi.
cmq la vga assemblat a kaiser cpt sempre e ovviamete le 2900 no ne sono immuni
concordo le temperature max registrate per la maggior parte degli utenti che posseggono l'hd 2900xt più o meno sono quelle,poi fra tante può sempre capitare la scheda non perfettamente assemblata...
ilbuglio
06-08-2007, 16:34
voglio precisare che in pratica il sistema di dissipazione delle ram è passivo mentre la ventola della sk video funziona in relazione diretta sulla gpu , nel mio caso vi era un mal assemblaggio della gpu primo fattore per cui mi scaldava la sk video , ma le ram da quello che sto vedento in giro per la rete sembra un difetto cronico della sk video , che però non implica malfuzionamenti dato che il tipo di ram montate possono funzionare anche senza dissipatori , in pratica con questa modifica che ho fatto sulle ram esse adesso vengono ben dissipate , garantendo se uno vuole ancora un miglior overclock sulle ram , io personalmente ho fatto questa modifica per ridurre le temperature generale della 2900xt a ventola fissa , cioe uso un sw per bloccare i giri al minimo e non fare casino (pare un tifone di serie quando si gioca) cosi in due 2d consumo poco tenedola a 170/170 mhz per gpu e ram e 30% fissa la ventola , e quando gioco la ventola usandola a 35/45 % max mantiene delle temperature accettabili e un rumore contenuto .
grazie.
-Feanor-
06-08-2007, 17:18
domada semplice come posso allegare delle immagini un poco grossine ?
per le foto ve le mando in @mail , fatemi sapere !!
per uppare le immagini basta andare su un sito come http://imageshack.us/ ...
una volta uppate...fai copia e incolla nel tuo post della stringa "thumbnail for forum" .....
Iantikas
06-08-2007, 17:43
voglio precisare che in pratica il sistema di dissipazione delle ram è passivo mentre la ventola della sk video funziona in relazione diretta sulla gpu , nel mio caso vi era un mal assemblaggio della gpu primo fattore per cui mi scaldava la sk video , ma le ram da quello che sto vedento in giro per la rete sembra un difetto cronico della sk video , che però non implica malfuzionamenti dato che il tipo di ram montate possono funzionare anche senza dissipatori , in pratica con questa modifica che ho fatto sulle ram esse adesso vengono ben dissipate , garantendo se uno vuole ancora un miglior overclock sulle ram , io personalmente ho fatto questa modifica per ridurre le temperature generale della 2900xt a ventola fissa , cioe uso un sw per bloccare i giri al minimo e non fare casino (pare un tifone di serie quando si gioca) cosi in due 2d consumo poco tenedola a 170/170 mhz per gpu e ram e 30% fissa la ventola , e quando gioco la ventola usandola a 35/45 % max mantiene delle temperature accettabili e un rumore contenuto .
grazie.
secondo me facevi prima a mandare la skeda in rma (cosa ke consiglio se qualcuno ha problemi simili senza "pastrokkiare" con la gpu)...
...questo xkè probabilmente in ogni caso hai una skeda difettosa...lo dico xkè i miei risultati (ke leggendo questo 3d pare anke siano la media ke rispekkia + o - tutti gli utenti) ho temp d circa 45° in 2d (freq 500/500) con la ventola al 25%...
...tu addirittura a 170/170 tieni la ventola al 30%...
...in 3d ho temp d 69/70° con la ventola al 37% (mai andata oltre il 37% anke overclokkata a 843/960)...
...a te arriva al 45%...
...la skeda con la pasta messa male può capitare...in questo caso ok è meglio smontarla, rimettere la pasta x bene ed evitare un rma con tutto ciò ke comporta...
...ma può capitare anke una skeda con un dissipatore difettoso...in questo caso piuttosto ke risolvere "artigianalmente" meglio mandare la skeda in rma...
...ciao
SgaragagghU
06-08-2007, 18:00
Ciao, mi sono appena comprato una hd 2900 xt della sapphire da 3hp
in bundle ho trovato 2 cavi da 2x3 per l'alimentazione e ho letto che per overclockare devo collegare 1 da 2x3 e 1 da 2x4! Ma dove trovo un cavo da 2x4? Ha un nome specifico? :muro: Per l'ali non ho problemi visto che ho un 750 :sofico:
Tidus.hw
06-08-2007, 19:17
Ciao, mi sono appena comprato una hd 2900 xt della sapphire da 3hp
in bundle ho trovato 2 cavi da 2x3 per l'alimentazione e ho letto che per overclockare devo collegare 1 da 2x3 e 1 da 2x4! Ma dove trovo un cavo da 2x4? Ha un nome specifico? :muro: Per l'ali non ho problemi visto che ho un 750 :sofico:
lo ripeto per la millesima volta :asd:
per overlcockare tramite l'overdriver serve il cavetto da 2x4, mentre con i 2 cavetti da 3x2 si può overlockare tramite le varie utility di terze parti tipo ati tool, rivatuner etc etc
lo ripeto per la millesima volta :asd:
per overlcockare tramite l'overdriver serve il cavetto da 2x4, mentre con i 2 cavetti da 3x2 si può overlockare tramite le varie utility di terze parti tipo ati tool, rivatuner etc etc
ma poi non ho mai capito sta cosa? perchè usate le utility proprietarie per occare?fanno pena
dategli giu di Ati Tool e via:sofico:
ma il 3dmark 2006 ti riconosce la scheda!!!! è impossibile!!!
a me 3d merd 06 non riconosce proprio il sistema... come mai?
ps MA CON VISTA al 3d si perdono punti oppure si guadagna qualcosa?
Bè......ma essendo un forum con più di 12mila persone iscritte la vedo dura a non ripetere più di una volta la stessa cosa.
Si ok.....non è importante postare......non è obbligatorio. Ma allora che ci sta a fare il forum?
A conteggiare quanti gb mancano per cambiare hd del cluster di hardware upgrade?
A volte non vi capisco ragazzi.
Cioè......stiamo discutendo in tutta tranquillità fra persone civili......senza flames.....trovando molti pensieri non dico uguali ma molto vicini fra loro ed ecco che a qualcuno non gli sta bene.
Sia chiaro non è nulla di personale con te chief, ma trovo ancora meno cotruttiva di queste tre pagine la tua uscita.........
Cmq finito qui l'argomento.
Non ti va bene? ok.....io mi fermo qui. Però fammela dire una cosa......che "scatole".............
se il primo POST in prima pagina e' aggiornato bene... non si dovrebbero ripetere le solite cose.....
in genere almeno il primo si legge di 78609 pagine
se vi possono interessare ho trovato i Cata 7.8 RC3 per:
Windows XP 32bit qui (http://www.station-drivers.com/telechargement/ati/ati_8.40-2kxp_beta(www.station-drivers.com).exe)
Windows XP 64bit qui (http://www.station-drivers.com/telechargement/ati/ati_8.40-2kxp_beta(www.station-drivers.com).exe)
Windows Vista 32/64 bit qui (http://www.station-drivers.com/telechargement/ati/ati_8.40_vista(www.station-drivers.com).exe)
Zodd_Il_nosferatu
06-08-2007, 19:55
se vi possono interessare ho trovato i Cata 7.8 RC3 per:
Windows XP 32bit qui (http://www.station-drivers.com/telechargement/ati/ati_8.40-2kxp_beta(www.station-drivers.com).exe)
Windows XP 64bit qui (http://www.station-drivers.com/telechargement/ati/ati_8.40-2kxp_beta(www.station-drivers.com).exe)
Windows Vista 32/64 bit qui (http://www.station-drivers.com/telechargement/ati/ati_8.40_vista(www.station-drivers.com).exe)
ehm è da tipo fine luglio che sn usciti :stordita:
ehm è da tipo fine luglio che sn usciti :stordita:
si ma avevo capito solo per xp, no?
se nn è così mi sarò confuso:fagiano:
ilbuglio
06-08-2007, 22:53
[QUOTE=Iantikas;18197084]secondo me facevi prima a mandare la skeda in rma (cosa ke consiglio se qualcuno ha problemi simili senza "pastrokkiare" con la gpu)...
ma scusa : ho tieni il case in frigo o non è possibile dato che guardando le varie recenzioni in rete sotto stress la sk video arriva a circa 90gradi di gpu vedi guru3d e altri che le hanno testate .
tutti i siti di test sono concordi nel dire che scalda , temperatura media in 2d attorno hai 62/66 gradi , e quando la metti sotto stress per varie ore di gioco la ventola va a stecca arrivando a 62 db di rumore .
la sk video non ritengo sia difettosa la uso tutte le sere 3/4 ore in game .
rimane il fatto che l'assemblaggio dei componenti è scadente e nel mio caso sicuramente pessimo , ma adesso con questa modifica non ho nessun problema ed essenzialmente la tengo a 170/170 per non consumare corrente inutilmente .
proverò a testarla in overclock per vedere se va + su della media dopo questa modifica e poi vi faccio sapere .
ciao.
[QUOTE=Iantikas;18197084]secondo me facevi prima a mandare la skeda in rma (cosa ke consiglio se qualcuno ha problemi simili senza "pastrokkiare" con la gpu)...
ma scusa : ho tieni il case in frigo o non è possibile dato che guardando le varie recenzioni in rete sotto stress la sk video arriva a circa 90gradi di gpu vedi guru3d e altri che le hanno testate .
tutti i siti di test sono concordi nel dire che scalda , temperatura media in 2d attorno hai 62/66 gradi , e quando la metti sotto stress per varie ore di gioco la ventola va a stecca arrivando a 62 db di rumore .
la sk video non ritengo sia difettosa la uso tutte le sere 3/4 ore in game .
rimane il fatto che l'assemblaggio dei componenti è scadente e nel mio caso sicuramente pessimo , ma adesso con questa modifica non ho nessun problema ed essenzialmente la tengo a 170/170 per non consumare corrente inutilmente .
proverò a testarla in overclock per vedere se va + su della media dopo questa modifica e poi vi faccio sapere .
ciao.
ok va bene leggere le recensioni ma se ci fai caso qui tutti noi e abbiamo case normali abbiamo temperature sotto sforzo di circa 70-75 gradi e in idle di circa 60. con ventola che nn supera mai i 35% delle rmp.
nsomma ti fidi + di una review o di 10-15 utenti che fanno registrare mediamente tutti le stesse temperature?
Iantikas
07-08-2007, 00:03
[QUOTE=Iantikas;18197084]secondo me facevi prima a mandare la skeda in rma (cosa ke consiglio se qualcuno ha problemi simili senza "pastrokkiare" con la gpu)...
ma scusa : ho tieni il case in frigo o non è possibile dato che guardando le varie recenzioni in rete sotto stress la sk video arriva a circa 90gradi di gpu vedi guru3d e altri che le hanno testate .
tutti i siti di test sono concordi nel dire che scalda , temperatura media in 2d attorno hai 62/66 gradi , e quando la metti sotto stress per varie ore di gioco la ventola va a stecca arrivando a 62 db di rumore .
la sk video non ritengo sia difettosa la uso tutte le sere 3/4 ore in game .
rimane il fatto che l'assemblaggio dei componenti è scadente e nel mio caso sicuramente pessimo , ma adesso con questa modifica non ho nessun problema ed essenzialmente la tengo a 170/170 per non consumare corrente inutilmente .
proverò a testarla in overclock per vedere se va + su della media dopo questa modifica e poi vi faccio sapere .
ciao.
x la serie "se nn vedo, nn credo" t'ho fatto uno screen del monitoring di rivatuner con tutte le info utili registrate durante un Canyon Flight a 1680x1050 4xAA 16xAF ripetuto 5 volte con la skeda a 830/981
... http://img169.imageshack.us/img169/3060/rrrvr0.th.jpg (http://img169.imageshack.us/my.php?image=rrrvr0.jpg) ...
...come vedi la ventola va prima al 31% poi arrivata la gpu a 70° passa al 37% e s'assesta tra i 68/69°...
...(cmq solitamente oscilla tra i 70/71° in load...ke probabilmente sarebbero usciti se avessi usato firefly forest)...
...questo con 26° d Tamb...ciao
p.s.: x quanto invece riguarda le temp in idle...con la skeda a def. s'assestano a 44/46° con la ventola al 25%...in oc invece, con rivatuner, c'è un bug ke nonostante uno cambi solo le freq. 3d il consumo della skeda rilevato dal monitoring in 2D passa da 11.xx a 25.xx...ciò fa si ke le temp si assestino sui 54° sempre al 25% [cosa ke quindi comporta la modifica delle impo originarie ke vogliono la ventola al 31% oltre i 50°])...
p.p.s.: io mi fideriei + di un bel gruppo d utenti ke ti stanno dicendo la stessa cosa piuttosto ke d qualke rece scritta da kissà ki e x kissà quale motivo...inoltre le rece dove mostrano le temp d cui parli son una rarità..nmella maggior parte si registrano temp in load tra i 69/76°...
RAGA... ma con vista si guadagna o si perde nel 3d mark e o giochi?
RAGA... ma con vista si guadagna o si perde nel 3d mark e o giochi?
purtroppo io non ho vista e non ho provato da quello che ho potuto vedere sul tread pare perdersi almeno nel 3dmark06 un 300pnt.
ora visto che ero impegnato nella discussione su come funzionasse il ringbus mi sono scordato di chiedere al ragazzo che aveva vista di postare anche i singoli risultati dei test oltre che i risultati dei punteggi parziali.
è vero c'è una perdita del 3% mediamente tra xp e vista ma sarebbe interessante vedere se è generalizzata(del tipo se perdo 0.5fps in ogni test rispetto a xp allora questa perdita di 300pnt è irrisoria ed è come se nn ci fosse)
oppure se è generalizzata in un test o uno dei 3 blocchi di un test.
capace che quello che perde è il cpu test e quandi la vga sta ok come su xp oppure quello che perde e come secondo me è è il primo test sm2.0 visto che le dx10 devono partire in emulezione dello sm2.0 e quandi potrebbe esserci qualche perdita ingente
NvidiaMen
07-08-2007, 08:05
RAGA... ma con vista si guadagna o si perde nel 3d mark e o giochi?
Con la funzionalità DX9 AERO attivata certamente si perde qualcosa a causa delle risorse della GPU impegnate per la gestione degli effetti a supporto del desktop di Windows Vista. Disattivandola le differenze prestazionali con XP dovrebbero certamente assottigliarsi.
Su DirectX 10 il discorso cambia in quanto oltre al fatto che il confronto non può esser fatto (causa mancanza di tali API su XP), si tratta di librerie certamente più efficienti a parità di effetti gestiti e che offrono differenti altre funzionalità aggiuntive (come ad esempio la gestione della fisica sugli effetti volumetrici dinamici dei gas, tanto per citarne una).
NM.
[QUOTE=Iantikas;18197084]secondo me facevi prima a mandare la skeda in rma (cosa ke consiglio se qualcuno ha problemi simili senza "pastrokkiare" con la gpu)...
ma scusa : ho tieni il case in frigo o non è possibile dato che guardando le varie recenzioni in rete sotto stress la sk video arriva a circa 90gradi di gpu vedi guru3d e altri che le hanno testate .
tutti i siti di test sono concordi nel dire che scalda , temperatura media in 2d attorno hai 62/66 gradi , e quando la metti sotto stress per varie ore di gioco la ventola va a stecca arrivando a 62 db di rumore .
la sk video non ritengo sia difettosa la uso tutte le sere 3/4 ore in game .
rimane il fatto che l'assemblaggio dei componenti è scadente e nel mio caso sicuramente pessimo , ma adesso con questa modifica non ho nessun problema ed essenzialmente la tengo a 170/170 per non consumare corrente inutilmente .
proverò a testarla in overclock per vedere se va + su della media dopo questa modifica e poi vi faccio sapere .
ciao.
può darsi che quei test per raggiungere tali temperature siano state fatte nei pressi di un forno crematorio o direttamente giù agli inferei:asd:,te lo dico perchè sono veramente elevate...
guarda in idle anche dopo ore di funzionamento le temp oscillano dai 56°-58,max in full load dopo un'ora e mezza di gioco intono ai 70° tutto questo d'estate a case chiuso...
ciao
-Feanor-
07-08-2007, 09:17
Con la funzionalità DX9 AERO attivata certamente si perde qualcosa a causa delle risorse della GPU impegnate per la gestione degli effetti a supporto del desktop di Windows Vista. Disattivandola le differenze prestazionali con XP dovrebbero certamente assottigliarsi.
Su DirectX 10 il discorso cambia in quanto oltre al fatto che il confronto non può esser fatto (causa mancanza di tali API su XP), si tratta di librerie certamente più efficienti a parità di effetti gestiti e che offrono differenti altre funzionalità aggiuntive (come ad esempio la gestione della fisica sugli effetti volumetrici dinamici dei gas, tanto per citarne una).
NM.
mmm....io ho sempre letto che quando parte una qualsiasi applicazione l aero viene disattivato in automatico...quindi non dovrebbe sottrarre risorse alla gpu....:stordita:
unrealman
07-08-2007, 09:52
allora sti driver quando escono ? :mbe:
x caso avete il link di atitool ? (l'ultimo )
mmm....io ho sempre letto che quando parte una qualsiasi applicazione l aero viene disattivato in automatico...quindi non dovrebbe sottrarre risorse alla gpu....:stordita:
e' cosi' infatti :)
bYeZ!
allora sti driver quando escono ? :mbe:
x caso avete il link di atitool ? (l'ultimo )
www.techpowerup.com
bYeZ!
MonsterMash
07-08-2007, 11:47
e' cosi' infatti :)
bYeZ!
Non so se incida sulle prestazioni, ma questo non è vero, perchè io utilizzo il flip 3d per switchare da un gioco 3d attivato ad un'altra finestra. Ad esempio in queso periodo con la beta di enemy territory: quake wars. Ed è anch abbastanza fico vedere il gioco girare su una finestra del flip 3d :D
Ciao
-Feanor-
07-08-2007, 12:16
Non so se incida sulle prestazioni, ma questo non è vero, perchè io utilizzo il flip 3d per switchare da un gioco 3d attivato ad un'altra finestra. Ad esempio in queso periodo con la beta di enemy territory: quake wars. Ed è anch abbastanza fico vedere il gioco girare su una finestra del flip 3d :D
Ciao
ti prego...:D
facci uno screen di et:qk che gira in filp 3d....:D
grazie...:D
MonsterMash
07-08-2007, 12:27
ti prego...:D
facci uno screen di et:qk che gira in filp 3d....:D
grazie...:D
Chiedete e vi sarà dato :D
http://img363.imageshack.us/img363/6378/scrren1pf0.th.jpg (http://img363.imageshack.us/my.php?image=scrren1pf0.jpg)
Non fate caso ai soli 21 fps mostrati da fraps, l'hd era in caricamento di qualche cosa, di solito non va mai sotto i 40 fps.
TecnoWorld8
07-08-2007, 12:28
The intensely-discussed Radeon HD 2900PRO seems to be getting a lot closer as yesterday's announcements of the new FireGL line-up features one card that is based on R600PRO, the V7600. The card unveiled by AMD features a 256-bit memory bus, 512 MB of memory and has 320 Shader Processing Units (SPUs) enabled, the same number boasted by the high-end Radeon HD 2900XT.
The codename of the V7600 indicates that AMD has a 'PRO' R600 card although the one set to arrive to air our gaming machines will probably not have all 320 SPUs enabled in order to cut costs and bring the card's price to the $199-$249 zone. Given the fact that the V7600 draws up to 150W and that the Radeon HD 2900PRO might have a PCI-Express 2.0 interface, the card will probably lack the additional power connector. Now we just need it released.
http://www.tcmagazine.com/comments.php?shownews=15656&catid=2
se veramente avesse 320 shaders (o se fosse possibile in qualche modo sbloccarli) secondo me, in virtù del processo produttivo a 65nm potrebbe davvero essere una grande scheda, per il prezzo a cui uscirà. Il consumo finalmente sarebbe decente e il margine di overclock ben superiore.
Vedremo!
The intensely-discussed Radeon HD 2900PRO seems to be getting a lot closer as yesterday's announcements of the new FireGL line-up features one card that is based on R600PRO, the V7600. The card unveiled by AMD features a 256-bit memory bus, 512 MB of memory and has 320 Shader Processing Units (SPUs) enabled, the same number boasted by the high-end Radeon HD 2900XT.
The codename of the V7600 indicates that AMD has a 'PRO' R600 card although the one set to arrive to air our gaming machines will probably not have all 320 SPUs enabled in order to cut costs and bring the card's price to the $199-$249 zone. Given the fact that the V7600 draws up to 150W and that the Radeon HD 2900PRO might have a PCI-Express 2.0 interface, the card will probably lack the additional power connector. Now we just need it released.
http://www.tcmagazine.com/comments.php?shownews=15656&catid=2
se veramente avesse 320 shaders (o se fosse possibile in qualche modo sbloccarli) secondo me, in virtù del processo produttivo a 65nm potrebbe davvero essere una grande scheda, per il prezzo a cui uscirà. Il consumo finalmente sarebbe decente e il margine di overclock ben superiore.
Vedremo!
margine di oc superiore sicuramente no visto che useranno un 65mn non evoluto come quello da 80nm che usano adesso per r600.
anche se con probabilità avendo imparato dalle x1950pro sicuramente se devono cambiare processo produttivo o bloccano direttamente gli shader non a 320 oppure lo progettano gia a 240shader nativi.
diverso discorso se avessero utilizzato r600 nativi a 80nm quindi sicuramente che venivano messi in commercio a 320sp e poi castrati li si che si poteva sperare un blocco.
cmq anche una x2900pro con 240sp e bus a 256bit non sarebbe niente male nella fascia 199E
Chiedete e vi sarà dato :D
http://img363.imageshack.us/img363/6378/scrren1pf0.th.jpg (http://img363.imageshack.us/my.php?image=scrren1pf0.jpg)
Non fate caso ai soli 21 fps mostrati da fraps, l'hd era in caricamento di qualche cosa, di solito non va mai sotto i 40 fps.
asd sei lunico uomo sulla terra a cui non faccia cosi...:mbe:
cmq adesso che mi fai venire inmente nemmeno a me lo disattiva lo fa solo con giochi che richiedono molta ram es bf2 che tende a swampare... quindi credo lo disattivi solo quando serve piu ram
NvidiaMen
07-08-2007, 13:49
mmm....io ho sempre letto che quando parte una qualsiasi applicazione l aero viene disattivato in automatico...quindi non dovrebbe sottrarre risorse alla gpu....:stordita:
Mai sentita una cosa del genere...
Io parlo per esperienza personale, in quanto allo studio usiamo softwares CAD 3D che su Vista hanno problemi nella gestione delle finestre, delle maschere e dei popup interni (errori di visualizzazione ed addirittura scomparsa di pulsanti), problemi che puntualmente spariscono disattivando la shell grafica Aero (http://davidearinni.wordpress.com/2007/04/23/velocizzare-windows-vista-con-la-disattivazione-o-modifica-di-windows-aero/).
Chiedendo al supporto tecnico mi è stato consigliato infatti di disabilitarla in quanto alcune risorse grafiche impegnate da DX9 per Aero possono entrare in violazione di condivisione di memoria grafica con quelle OGL del CAD e che avrebbero risolto il problema al più presto con una patch. Ecco perchè a mio avviso la Aero permane in ogni caso all'interno della GPU occupando, seppur in maniera limitata, risorse alla VGA anche all'avvio di applicativi grafici.
In questo link (http://lwita.com/vb/showthread.php?p=49045) trovate altri utenti di Vista (nonchè miei colleghi di lavoro) che disattivando Aero Glass hanno beneficiato di un elevato incremento prestazionale (date un'occhiata al test OpenGL SpeedUp).
NM.
GunnyITA
07-08-2007, 14:01
Qualcuno risponderebbe qui plz?
:rolleyes:
http://www.hwupgrade.it/forum/showthread.php?t=1526405
SamCapone
07-08-2007, 14:08
allora sti driver quando escono ? :mbe:
x caso avete il link di atitool ? (l'ultimo )
Qua ho trovato la driver 7.8 beta
http://www.centerzone.it/ati/driver-beta-7.8-da-ati-1661.html
E 170MB :eek:
Non lo provato non so come funziona farlo a tuo rischio .
Faro una prova . Ma dopo tutto quel casino per far funzionare CCC , mi fa un pò di paura.
Trovato anche questo
http://www.station-drivers.com/
Mai sentita una cosa del genere...
puoi dire quello che vuoi ma a me lo disattiva quando servono molte risorse...
ilbuglio
07-08-2007, 14:39
ricapitolando , la media di lavoro deve essere intorno hai 55 circa in idle e intorno hai 70 il load . volevo quindi sapere questo :
vi sono due modi di misurare la temp. che danno dei valori diversi lo vedo utilizzando amd gpu clock 0.7 , quale dei due e relativo al modo di misurare del rivatuner ?
inoltre fra amd gpu 0.7 , atitool 0.27beta 2 e rivatuner 2.x , qualle mi consigliate di utilizzare come riferimento per overclock e misurazione ?
fsccio delle prove e poi vi fsccio sapere
P.S. per la cronaca , io sto provando i drivers 8.40 rc3 e ho riscontrato i seguenti problemi : 3dmark 03, 05 06 non partono , artefatti su alcune mappe dei muri in dod source , alcuni tentennamenti in stalker .
qualcuno ha gli stessi problemi ?
grazie.
:)
Chiedete e vi sarà dato :D
http://img363.imageshack.us/img363/6378/scrren1pf0.th.jpg (http://img363.imageshack.us/my.php?image=scrren1pf0.jpg)
Non fate caso ai soli 21 fps mostrati da fraps, l'hd era in caricamento di qualche cosa, di solito non va mai sotto i 40 fps.
hai un PVT :)
Iantikas
07-08-2007, 14:51
ricapitolando , la media di lavoro deve essere intorno hai 55 circa in idle e intorno hai 70 il load . volevo quindi sapere questo :
vi sono due modi di misurare la temp. che danno dei valori diversi lo vedo utilizzando amd gpu clock 0.7 , quale dei due e relativo al modo di misurare del rivatuner ?
inoltre fra amd gpu 0.7 , atitool 0.27beta 2 e rivatuner 2.x , qualle mi consigliate di utilizzare come riferimento per overclock e misurazione ?
fsccio delle prove e poi vi fsccio sapere
P.S. per la cronaca , io sto provando i drivers 8.40 rc3 e ho riscontrato i seguenti problemi : 3dmark 03, 05 06 non partono , artefatti su alcune mappe dei muri in dod source , alcuni tentennamenti in stalker .
qualcuno ha gli stessi problemi ?
grazie.
:)
a me da le stesse identike temp sia in atitool ke in rivatuner...(amd gpu clock tool nn l'ho mai usato)....
...tra questi prog se nn vuoi toccare i voltaggi ti consiglio rivatuner...
...x quanto riguarda il 3dmark è normale ke nn ti parta...c son due soluzioni:
- o aggiungi la stringa "-nosysteminfo" alla voce destinazione ke appare cliccando col destro e aprendo le proprietà dell'eseguibile del 3dmark...
- o mi contatti in pvt mi lasci la tua mail o ti do il mio contatto msn e ti mando dei file dll modificati con relative istruzioni ke ti permettono d far funzionare i 3dmark normalmente come con qualsiasi altra skeda...
...x quanto riguarda i gioki CS nn c'è l'ho e nn ti so dire...in stalker invece nn ho problemi d questo tipo e uso i 7.7...ciao
SamCapone
07-08-2007, 15:12
Fatto installato driver 8.40 . Catayst rimane 7.7.
Il Versione del pacchetto di driver diventa 8.40-070713a-050518E-ATI.
Con 3DMarks 06 tutto sembra che va bene . Ho visto tutti I Demo .
Ilbuglio: hai scaricato il Hot fix Per 3DMark ?
Si trova dietro la custodia del CD o DVD del 3DMark.
Con il 8.40 sono passato da un 5558
A questo . 5844 non male . Prima o poi cambierò il Mobo :stordita:
http://img131.imageshack.us/img131/9472/screenshot002xu9.jpg (http://imageshack.us)
Shot at 2007-08-07
ilbuglio
07-08-2007, 15:57
Sto facendo delle prove , fra drivers e tool di clock , ma una domanda adesso dopo aver rimosso g beta driver mi rompe che non trova qualcosa cli. implementation e un errore sul mom , sicuramente è legato al netframe .
che devo fare rimuovo tutti i net frame 1 ,2 ,3 e li reinstallo ?
grazie.
SamCapone
07-08-2007, 16:12
Se non ricordo male ho tolto solo 3 poi 2 .
Ma quanto casino ho passato .
Fai la installazione dal Windows UP date.
Bè per adesso con il driver beta mi trovo bene.
-Feanor-
07-08-2007, 17:20
Chiedete e vi sarà dato :D
http://img363.imageshack.us/img363/6378/scrren1pf0.th.jpg (http://img363.imageshack.us/my.php?image=scrren1pf0.jpg)
Non fate caso ai soli 21 fps mostrati da fraps, l'hd era in caricamento di qualche cosa, di solito non va mai sotto i 40 fps.
:eekk: :sbav: :sbav: :sbav:
grazie mille...:D
fichissimo...:D
Mai sentita una cosa del genere...
Io parlo per esperienza personale, in quanto allo studio usiamo softwares CAD 3D che su Vista hanno problemi nella gestione delle finestre, delle maschere e dei popup interni (errori di visualizzazione ed addirittura scomparsa di pulsanti), problemi che puntualmente spariscono disattivando la shell grafica Aero (http://davidearinni.wordpress.com/2007/04/23/velocizzare-windows-vista-con-la-disattivazione-o-modifica-di-windows-aero/).
Chiedendo al supporto tecnico mi è stato consigliato infatti di disabilitarla in quanto alcune risorse grafiche impegnate da DX9 per Aero possono entrare in violazione di condivisione di memoria grafica con quelle OGL del CAD e che avrebbero risolto il problema al più presto con una patch. Ecco perchè a mio avviso la Aero permane in ogni caso all'interno della GPU occupando, seppur in maniera limitata, risorse alla VGA anche all'avvio di applicativi grafici.
In questo link (http://lwita.com/vb/showthread.php?p=49045) trovate altri utenti di Vista (nonchè miei colleghi di lavoro) che disattivando Aero Glass hanno beneficiato di un elevato incremento prestazionale (date un'occhiata al test OpenGL SpeedUp).
NM.
molto interessante...cmq io non parlavo per esperienza ma solo per sentito dire...:D
e' BASTATO FARE un piccolo ock del procio... da 2650@ 2750 (250x11)
per passare da 8600 pnti a 9300...... ( con CCC BILANCIATI)
http://img114.imageshack.us/img114/876/2800xtdefbilanciata250xkh1.th.jpg (http://img114.imageshack.us/my.php?image=2800xtdefbilanciata250xkh1.jpg)
ma c'e' davvero cosi' tanta differenza coi nuovi proci core duo?
Iantikas
07-08-2007, 18:42
e' BASTATO FARE un piccolo ock del procio... da 2650@ 2750 (250x11)
per passare da 8600 pnti a 9300...... ( con CCC BILANCIATI)
http://img114.imageshack.us/img114/876/2800xtdefbilanciata250xkh1.th.jpg (http://img114.imageshack.us/my.php?image=2800xtdefbilanciata250xkh1.jpg)
ma c'e' davvero cosi' tanta differenza coi nuovi proci core duo?
è normale ke vedi tutta quella differenza nel 3dmakr06...oltre al fatto ke è presente un test x la sola cpu ke influenza il punteggio finale d def il test viene svolto a 1280x10204 senza filtri...impostazione leggera x le gpu odierne e ke quindi fa dipendere molto il risultato dalla cpu...se xò gia metti 16000x1200 4xAA 16xAF e dal test elimini i due test x la cpu vedrai ke i risultati sm2.0/sm3.0 rimaranno praticamente uguali sia con la cpu a def sia overcloccata finanke a 3ghz....
...il discorso del cpu limited è molto relativo...essere cpu limited nn significa il + delle volte nn potersi godere appieno le potenzialità della skeda anzi qasi sempre il gameplay offerto dalla skeda nn varia neanke passando da un sempron 3600+ ad un E6700 (a variare saranno solo i fps, ma ke differenza c'è, a livello d gameplay, tra farne 70 e farne 130?)...
...questo ... http://www.legionhardware.com/document.php?id=672 ...è uno degli ultimi articoli usciti sull'argomento e fa vedere come il cpu limited sia un discorso relativo a molteplici fattori e ke cmq nn serve x forza l'ultimo ritrovato della teconologia x86 x far esprimere il potenziale anke d una 8800gtx...i gioki odierni dipendono quasi del tutto dalla gpu e basta una cpu d fascia media x godere appieno d una gpu d fascia alta...ciao
GunnyITA
07-08-2007, 19:30
qualcuno m'aiuta qui plz?
http://www.hwupgrade.it/forum/showthread.php?t=1526405
qualcuno m'aiuta qui plz?
http://www.hwupgrade.it/forum/showthread.php?t=1526405
1) in 2 pagine hai scirtto lo stesso post evidentemente nessuno sa aiutarti oppure la spiegazione è molto + semplice se tu avessi avuto voglia di leggere anche poche pagine di questo tread.
cmq le temperature di una hd2900xt stranno tra i 50-55 in idle e sui 70-75 in full a tutti noi possessori ad aria(lemeno il 99% della gente che sta su sto tread lo ha ad aria e a queste temperature)
sempre sto 99% ha la vga overclokkata tra gli 800-830mhz per il core e i 950-1000 mhz per le ram...
e non ci sono stati aumenti significativi di temperature sempre 50-55 in idle(la vga cmq resta a 500-500) e di 1 o 2 gradi in full max
ergoper risponderti un oc medio lo puoi tentare anche xè la vga oltre gli 825mhz sicuramente ad aria non va...
le ram tirale fino a quando puoi visto che non contribuiscono in maniera significante alla gestione del calore.
NvidiaMen
07-08-2007, 22:48
puoi dire quello che vuoi ma a me lo disattiva quando servono molte risorse...
Dato che siamo in tanti a dirlo (ecco perchè ho linkato altre esperienze di utenti con "softwarini" tipo Cinema 4D...), poi tranquillamente parlare al plurale tipo:
"...potete dire quel che volete ma a me lo disattiva quando servono molte risorse..."
PS: per quanto possa essere pesante il giochino da te provato hai idea di quante risorse occupi un modello CAD 3D estremamente complesso? Ne ho alcuni con più di 20mln di triangoli...
PS: per quanto possa essere pesante il giochino da te provato hai idea di quante risorse occupi un modello CAD 3D estremamente complesso? Ne ho alcuni con più di 20mln di vertici...
Notevole. :eek:
NvidiaMen
07-08-2007, 22:58
Notevole. :eek:
INIZIO OT: si tratta di una completa ricostruzione di un antico corso di una città nel quale sono stati riportati tridimensionalmente tutti i portali, le statue ed i rilievi architettonici dei fabbricati presenti. Un lavoro da pazzi che al momento nessuna VGA sino ad ora da me provata è in grado di muovere con la dovuta fluidità. Spero che la mia nuova scheda (R600 1GB o G92 a seconda del rapporto prezzo prestazioni) possa finalmente permettermi una gestione migliore di questi pesanti modelli CAD.
FINE OT.
Iantikas
07-08-2007, 23:09
INIZIO OT: si tratta di una completa ricostruzione di un antico corso di una città nel quale sono stati riportati tridimensionalmente tutti i portali, le statue ed i rilievi architettonici dei fabbricati presenti. Un lavoro da pazzi che al momento nessuna VGA sino ad ora da me provata è in grado di muovere con la dovuta fluidità. Spero che la mia nuova scheda (R600 1GB o G92 a seconda del rapporto prezzo prestazioni) possa finalmente permettermi una gestione migliore di questi pesanti modelli CAD.
FINE OT.
nn so se ti può interessare ma ati ha presentato la nuova linea d skede grafike professionali basate su R600 e, dai primi test, pare promettere molto bene (x es. la nuova fascia entry-level [V3600] batte la vekkia fascia media [V7200])... http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV3600/FireGLV3600P1Intro.htm ...
...ciao
NvidiaMen
08-08-2007, 07:43
nn so se ti può interessare ma ati ha presentato la nuova linea d skede grafike professionali basate su R600 e, dai primi test, pare promettere molto bene (x es. la nuova fascia entry-level [V3600] batte la vekkia fascia media [V7200])... http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV3600/FireGLV3600P1Intro.htm ...
...ciao
Link molto interessante, grazie ;) . Sempre in questo thread si parlava di una V7600, un'architettura derivata da una 2900PRO (65nm e 512bit di bus), meno potente dunque della stessa R600. Mi chiedo se sulla 2900XT funzionerà l'adattamento "forzato" dei drivers come da un pò si fà in quest'altro interessantissimo thread (http://www.hwupgrade.it/forum/showthread.php?t=1305617)...
In tal caso una 2900XT moddata potrebbe avere prestazioni maggiori di una FireGL originale...:eek: :D
unrealman
08-08-2007, 09:29
1) in 2 pagine hai scirtto lo stesso post evidentemente nessuno sa aiutarti oppure la spiegazione è molto + semplice se tu avessi avuto voglia di leggere anche poche pagine di questo tread.
cmq le temperature di una hd2900xt stranno tra i 50-55 in idle e sui 70-75 in full a tutti noi possessori ad aria(lemeno il 99% della gente che sta su sto tread lo ha ad aria e a queste temperature)
sempre sto 99% ha la vga overclokkata tra gli 800-830mhz per il core e i 950-1000 mhz per le ram...
e non ci sono stati aumenti significativi di temperature sempre 50-55 in idle(la vga cmq resta a 500-500) e di 1 o 2 gradi in full max
ergoper risponderti un oc medio lo puoi tentare anche xè la vga oltre gli 825mhz sicuramente ad aria non va...
le ram tirale fino a quando puoi visto che non contribuiscono in maniera significante alla gestione del calore.
io con la vga a default sto a 50-55° idle, e 60-65 FUll
ma con la ventola al massimo
PS: io ho un problema con 3dmark 03-05-06, non va nessuno dei tre .-. , cioe li apro, apparisce il logo e poi scompare, e nn si apre la scheramata per far partire il benchamark
xke ? O.o
io con la vga a default sto a 50-55° idle, e 60-65 FUll
ma con la ventola al massimo
PS: io ho un problema con 3dmark 03-05-06, non va nessuno dei tre .-. , cioe li apro, apparisce il logo e poi scompare, e nn si apre la scheramata per far partire il benchamark
xke ? O.o
Se il 3dMark non vi parte e resta bloccato durante la fase di analisi del sistema, dovete inserire nel collegamento all'eseguibile il parametro: "-nosysteminfo". Ricordate di mettere tra virgolette il percorso del collegamento, e fuori dalle virgolette il parametro -nosysteminfo.
Per cui nella sezione "Destinazione" ci sarà una cosa del tipo: "C:\Programmi\Futuremark\3DMark05\3DMark05.exe" -nosysteminfo
copiato paro paro dall'altro 3d su hd 2900xt :p http://www.hwupgrade.it/forum/showthread.php?t=1484107
fai cosi è vedrai che i 3dmark ti partiranno:)
ciao
[QUOTE=ilbuglio;18200238][COLOR="Red"]
x la serie "se nn vedo, nn credo" t'ho fatto uno screen del monitoring di rivatuner con tutte le info utili registrate durante un Canyon Flight a 1680x1050 4xAA 16xAF ripetuto 5 volte con la skeda a 830/981
... http://img169.imageshack.us/img169/3060/rrrvr0.th.jpg (http://img169.imageshack.us/my.php?image=rrrvr0.jpg) ...
...come vedi la ventola va prima al 31% poi arrivata la gpu a 70° passa al 37% e s'assesta tra i 68/69°...
...(cmq solitamente oscilla tra i 70/71° in load...ke probabilmente sarebbero usciti se avessi usato firefly forest)...
...questo con 26° d Tamb...ciao
p.s.: x quanto invece riguarda le temp in idle...con la skeda a def. s'assestano a 44/46° con la ventola al 25%...in oc invece, con rivatuner, c'è un bug ke nonostante uno cambi solo le freq. 3d il consumo della skeda rilevato dal monitoring in 2D passa da 11.xx a 25.xx...ciò fa si ke le temp si assestino sui 54° sempre al 25% [cosa ke quindi comporta la modifica delle impo originarie ke vogliono la ventola al 31% oltre i 50°])...
p.p.s.: io mi fideriei + di un bel gruppo d utenti ke ti stanno dicendo la stessa cosa piuttosto ke d qualke rece scritta da kissà ki e x kissà quale motivo...inoltre le rece dove mostrano le temp d cui parli son una rarità..nmella maggior parte si registrano temp in load tra i 69/76°...
Ieri sera io e un altro utente del forum (nanni) abbiamo testato la scheda in situazioni di idle e full load, con Amd Gpu, che consta di due sensori.
Se si prende il core, in idle stavo io sui 52 lui sui 55, in load dopo i primi 2 test di 3dmark 79-80 io 85 lui.
Se si utilizza come riferimento l'altro sensore siamo effettivamente a quei livelli, 69-70.
Quindi penso che le differenze siano dovute a questo, in effetti in tutte le review il core della gpu arriva a valori prossimi al 90 (hwup 88 per esempio).
Comunque sarebbe utile fare altri test da parte di utenti per capire meglio.
corradobernardi
08-08-2007, 10:24
[QUOTE=Iantikas;18200649]
Ieri sera io e un altro utente del forum (nanni) abbiamo testato la scheda in situazioni di idle e full load, con Amd Gpu, che consta di due sensori.
Se si prende il core, in idle stavo io sui 52 lui sui 55, in load dopo i primi 2 test di 3dmark 79-80 io 85 lui.
Se si utilizza come riferimento l'altro sensore siamo effettivamente a quei livelli, 69-70.
Quindi penso che le differenze siano dovute a questo, in effetti in tutte le review il core della gpu arriva a valori prossimi al 90 (hwup 88 per esempio).
Comunque sarebbe utile fare altri test da parte di utenti per capire meglio.
Con atitool ho forzato percentuali di velocità ventole in modo da non superare mai i 70°... in full direi approssimativamente che ho:
>40° = 38% (tipicamente in windows sta sui 45°)
>50° = 44% (giochi vecchi o simili stanno in questa fascia di temperatura)
>60° = 60% (range utilizzo 3D)
>70° = 85% (in modo da non superare i 70, difficilmente entra in questa fase)
Clocks a default.
Scrambler77
08-08-2007, 10:27
Ricordate di mettere tra virgolette il percorso del collegamento, e fuori dalle virgolette il parametro -nosysteminfo.
Le virgolette servono solo se nel percorso del file ci sono spazi (come ad esempio "C:\Program Files\Futuremark\3DMark05\3DMark05.exe"). Nel tuo esempio non servono. ;)
[QUOTE=Pat77;18213611]
Con atitool ho forzato percentuali di velocità ventole in modo da non superare mai i 70°... in full direi approssimativamente che ho:
>40° = 38% (tipicamente in windows sta sui 45°)
>50° = 44% (giochi vecchi o simili stanno in questa fascia di temperatura)
>60° = 60% (range utilizzo 3D)
>70° = 85% (in modo da non superare i 70, difficilmente entra in questa fase)
Clocks a default.
Si ma a rumore sarai messo maluccio o sbaglio?
fustacchione90
08-08-2007, 10:31
raga, vado un attimo in ot...io ho provato lost planet dx10 la demo, non gira affatto male come fanno credere in giro e gli artefatti sulle texture io non li ho visti!!
solo una cosa, nel demo pero bisogna lasciare i dettagli a default 1280x1024 dett medi...e se si prova a cambiare i dettagli da un errore...credete che nel gioco completo abbiano risolto sto bug? perche lo vorrei acquistare...
unrealman
08-08-2007, 10:32
[QUOTE=corradobernardi;18214027]
Si ma a rumore sarai messo maluccio o sbaglio?imho x me gia la ventola a 50% mi da fastidio ...
MonsterMash
08-08-2007, 10:39
raga, vado un attimo in ot...io ho provato lost planet dx10 la demo, non gira affatto male come fanno credere in giro e gli artefatti sulle texture io non li ho visti!!
solo una cosa, nel demo pero bisogna lasciare i dettagli a default 1280x1024 dett medi...e se si prova a cambiare i dettagli da un errore...credete che nel gioco completo abbiano risolto sto bug? perche lo vorrei acquistare...
Io l'ho provato, e mettendo tutto al massimo, compreso AA, non mi da' nessun errore. Va però a 10-15 fps, ed ho notato che mantiene questo bassissimo frame rate anche se tolgo i filtri (sia AA che AF, che per osservazione diretta so che vengono entrambi applicati in modo corretto), per cui è ovvio che si tratta di un rallentamento dovuto ad una scarsa ottimizzazione (o per colpa del gioco, o per colpa dei driver).
Inoltre ho notato che il frame rate rimane costante a 10-15 fps in tutte le condizioni di gioco, sia che si guardi un muro da pochi cm, sia che si stia combattendo insieme ai propri compagni con decine di bestioni in mezzo alla bufera di neve...
Altra cosa: il frame rate torna su ottimi livelli solo nelle cutscene, che apparentemente sono complesse almeno quanto le scene di gioco. Boo.
Ciao
ragazzi scusate se la domanda è stata posta 1000 volte, ma vorrei sapere con gli ultimi driver la scheda come va a consumi prestazioni e calore rispetto ad una 8800gtx
fustacchione90
08-08-2007, 11:12
Io l'ho provato, e mettendo tutto al massimo, compreso AA, non mi da' nessun errore. Va però a 10-15 fps, ed ho notato che mantiene questo bassissimo frame rate anche se tolgo i filtri (sia AA che AF, che per osservazione diretta so che vengono entrambi applicati in modo corretto), per cui è ovvio che si tratta di un rallentamento dovuto ad una scarsa ottimizzazione (o per colpa del gioco, o per colpa dei driver).
Inoltre ho notato che il frame rate rimane costante a 10-15 fps in tutte le condizioni di gioco, sia che si guardi un muro da pochi cm, sia che si stia combattendo insieme ai propri compagni con decine di bestioni in mezzo alla bufera di neve...
Altra cosa: il frame rate torna su ottimi livelli solo nelle cutscene, che apparentemente sono complesse almeno quanto le scene di gioco. Boo.
Ciao
sara..ma a me non da errore se lascio ltutto cosi, cioè tutto alto,qualcosa in medio aa 2x hdr high e aniso a 16x, risoluzione 1280x1024, e faccio nei 2 bench faccio 55 e 54 fps...secondo me è il tuo procio sai xk è multithreading il game...vedi test drive...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.