PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

fukka75
10-07-2007, 11:52
Tutto sta a vedere quanto impatterà sulle prestazioni ;)

3DMark79
10-07-2007, 11:56
te lo dico io che possiedo lo stesso ali (FAL600PRO)

22A+20A su due linee da +12V

Esatto! La scheda l'ho alimentata con 2 connettori da 6pin (uno esce dall'alimentatore, per l'altro ho preso un adattatore).

Edit: Mi era anche venuta l'idea malsana di scollegare il cavo 8pin dalla scheda madre e attaccarlo alla scheda video ma non credo che la mobo gradisca...

Se ho tempo stasera provo DIRT con gli stessi settaggi e lo stesso tracciato sia sotto xp che sotto vista, voglio proprio vedere le differenze di frames... A proposito, DIRT sotto vista sfrutta le DX10 o va in DX9?

Grazie, caspita non pensavo andasse bene!
Per il cavo a 8 pin non provate mai a fare cose del genere (a parte che non entra) anche perchè questo cavo che alimenta la CPU se avrai fatto caso ha i poli sempre a +12V ma opposti a quelli della sceda video!Dunque ogni positivo del cavetto andava a finire nel negativo della scheda video e viceversa per il negativo e allora vedi che disastro succedeva!:D

Quoziente
10-07-2007, 12:24
Sarebbe stato carino bruciare la scheda video dopo 20 secondi di vita...:nera: :nera: :nera:

Cmq ho fatto una prova con Dirt. Allora:
Windows XP sp2
Drivers: Catalyst 7.6
1680x1050
60Hz
16:10
AA:2x
Grafica tutto su alto tranne:
Ombre (medio)
Pubblico (medio)

Prove effettuate:
1 - circuito sterrato con BMW X3, 5 avversari, visuale casco
2 - circuito sterrato con buggy, 5 avversari, visuale posteriore auto
(penso di aver simulato le situazioni di carico peggiore per la GPU)

FPS: 31-33 fps stabile in ogni fase di gioco (in 2 occasioni durante la prima gara ho avuto per una frazione di secondo un calo a 18fps appena dopo la partenza)

Mi riservo di ripetere l'esperimento sotto Vista e in seguito con i Catalyst 7.7

+Lonewolf+
10-07-2007, 12:41
salve ragazzi...eccomi tornato....
sono stato via qualche giorno ma nonostante le 15 e passa nuove pagine del 3d (che mi sono letto)...mi pare che non ci sia stata nessuna novita significativa...correggetemi se sbaglio.......
questa notizia su r700 pero non mi pare di averla vista... http://www.dinoxpc.com/News/news.asp?ID_News=12836&What=News

già vogliono far passare r600 in secondo piano?

Free Gordon
10-07-2007, 12:48
speriamo nn sia cosi se no è la volta che per un games apro le porte del mio hd a vista!
confido nei programmatori ati per fare dei dvr che ovvino al problema

Non è un problema aggirabile via driver, come nella passata generazione ATI in Oblivion (ad es). Lì non c'erano AA+HDR assieme per deficienze di programmazione (diciamo :D ) ma sopratutto per il fatto che su nVidia non era attivabile... nel caso specifico del prox UE, non è così. E' un limite delle API dx9, solo con le 10 sarà possibile l'AA. ;)

Già oggi, in tutti i giochi che usano deferred shading (GRAW ad esempio) non è possibile inserire AA.

Catan
10-07-2007, 13:34
Non è un problema aggirabile via driver, come nella passata generazione ATI in Oblivion (ad es). Lì non c'erano AA+HDR assieme per deficienze di programmazione (diciamo :D ) ma sopratutto per il fatto che su nVidia non era attivabile... nel caso specifico del prox UE, non è così. E' un limite delle API dx9, solo con le 10 sarà possibile l'AA. ;)

Già oggi, in tutti i giochi che usano deferred shading (GRAW ad esempio) non è possibile inserire AA.


si parla sempre di AA via shader e dell'AA classico via rops.
cmq da un certo punto di vista forse dovremmo arrivare all'idea di abbandonare l'aa come dico sempre cmq nasceva per esigenza che prima i monitor facevano max un 800x600 e 3dfx e ne usci per agirare questo limite.
adesso con i 1280 e 1600 alla portata di tutti io credo che tutto il potenziale elaborativa vada lasciato intatto e che l'aa venga implementato direttamente nei giochi a seconda dei programmatori.
cosi ovviamente verrebbero messi alla ogna quei programmatori che fanno un gioco con texture sgranate o poca ottimizazioni per far andare i giochi decementemente.
in questa maniera i programmatori avrebbero + pepe al sederino xè il loro software sarebbe slegato alle implementazioni sull'hw su cui il gioco dovrebbe girare.

Defragg
10-07-2007, 13:36
già vogliono far passare r600 in secondo piano?

è la normalità ;)

M4R1|<
10-07-2007, 13:40
ad Hard-Ocp usano una metodologia diversa x testare le GPU (oltre a quella normale a parità d settaggi nella pag "apples to apples")...in pratica x ogni gioco cercano quali sono i max settaggi con cui la skeda riesce a garantire fluidità (x questo x es. nel caso ke dici tu la hd2900xt nn ha l'AA attivato mentre la GTS si...xkè nn permette d attivarlo mantenendo fluidità mentre la GTS si)...

...cmq nn posso credere ke la skeda vada veramente così...domani mattina ke finalmente arriva farò i test io e se vedrò differenze esagerate una mail dove gliene dico quattro c sta x forza...ciao

ok, contiamo su di te, postaci i tuoi valori

wiltord
10-07-2007, 13:50
è la normalità ;)

ahinoi..:( :D

M4R1|<
10-07-2007, 13:58
Senz'altro, stasera faccio qualche prova, vanno bene i valori rilevati da fraps?

si va benissimo

3DMark79
10-07-2007, 14:13
ahinoi..:( :D

Ciao Wiltord,
mi toglieresti 2 dubbi?
Ti volevo chierdere visto che hai il mio stesso ali, la linea utilizzata per alimentare i 2 connettori 6 pin PCI-E sono entrambi sulla +12V3 a 16A?Visto che sono di colori diversi i 3 positivi dagli altri 3?Seconda cosa ma il carico combinato di tutte le linee +12V a 42A e 45 PEAK quando viene utilizzato?Dimmi se dico una stupidagine, quando vi è un carico su una linea +12V e neccessita più amperè di quella che può erogare?Grazie!

nico88desmo
10-07-2007, 14:39
si parla sempre di AA via shader e dell'AA classico via rops.
cmq da un certo punto di vista forse dovremmo arrivare all'idea di abbandonare l'aa come dico sempre cmq nasceva per esigenza che prima i monitor facevano max un 800x600 e 3dfx e ne usci per agirare questo limite.
adesso con i 1280 e 1600 alla portata di tutti io credo che tutto il potenziale elaborativa vada lasciato intatto e che l'aa venga implementato direttamente nei giochi a seconda dei programmatori.
cosi ovviamente verrebbero messi alla ogna quei programmatori che fanno un gioco con texture sgranate o poca ottimizazioni per far andare i giochi decementemente.
in questa maniera i programmatori avrebbero + pepe al sederino xè il loro software sarebbe slegato alle implementazioni sull'hw su cui il gioco dovrebbe girare.

C'è anche un lato negativo però: già ora alcuni giochi sono programmati male, se i programmatori dovranno implementare anche l'AA secondo me si andrà ad appesantire più del solito (utilizzando l'AA classico) le diverse schede video proprio perchè ci sono diversi tipi di architettura.
Sotto questo punto di vista io preferisco sempre un AA programmato dalla casa produttrice della scheda video. imho così viene più sfruttata ciascuna scheda.

Catan
10-07-2007, 14:57
C'è anche un lato negativo però: già ora alcuni giochi sono programmati male, se i programmatori dovranno implementare anche l'AA secondo me si andrà ad appesantire più del solito (utilizzando l'AA classico) le diverse schede video proprio perchè ci sono diversi tipi di architettura.
Sotto questo punto di vista io preferisco sempre un AA programmato dalla casa produttrice della scheda video. imho così viene più sfruttata ciascuna scheda.

il discorso è definire tramite dx10 o altre api uno standard si smoothing delle texture con un effetto paragonabile agli effetti di un aa sulla scena e far si che questo sia un effetto pienamente eseguibile in hw dalle vga.
a questo punto una volta definito uno standard qualitativo progettare l'hw attorno a questo standard.
ad esempio tiro fuori il trueform di ati che pubilizzava in hw con le 8500 e le 9700 facevano in software semplicemente xè lo standard trueform entrava nelle capacità base di una vga dx9.
non so voi ma se vi ricordate ad esepio return to castle wolfestein con l'opzioni di abilitare il trueform come la qualità veniva incrementata e la perdita di fps era minimale

+Lonewolf+
10-07-2007, 16:18
ahinoi..:( :D

mah...imho è troppo presto...ora è uscita, nemmeno è sfruttata, già pensano ad r700...di solito durano 1 anno ste vga, colpa del ritardo?

MonsterMash
10-07-2007, 16:26
il discorso è definire tramite dx10 o altre api uno standard si smoothing delle texture con un effetto paragonabile agli effetti di un aa sulla scena e far si che questo sia un effetto pienamente eseguibile in hw dalle vga.
a questo punto una volta definito uno standard qualitativo progettare l'hw attorno a questo standard.
ad esempio tiro fuori il trueform di ati che pubilizzava in hw con le 8500 e le 9700 facevano in software semplicemente xè lo standard trueform entrava nelle capacità base di una vga dx9.
non so voi ma se vi ricordate ad esepio return to castle wolfestein con l'opzioni di abilitare il trueform come la qualità veniva incrementata e la perdita di fps era minimale

Il trueform era una funzionalità della kyro2, se non ricordo male, e non della 8500.

wiltord
10-07-2007, 16:31
mah...imho è troppo presto...ora è uscita, nemmeno è sfruttata, già pensano ad r700...di solito durano 1 anno ste vga, colpa del ritardo?

beh ma come detto è normale.
se è per questo non staranno "pensando" solo ad R700 ma anche più in là, così come adesso in Intel non staranno pensando ai quad, nokia non starà pensando a terminali a 5mpx...etc.
quello che arriva ai consumatori è stato quantomeno pensato anni e anni prima.

Iantikas
10-07-2007, 16:33
mah...imho è troppo presto...ora è uscita, nemmeno è sfruttata, già pensano ad r700...di solito durano 1 anno ste vga, colpa del ritardo?

un anno dura l'arkitettura (e quindi x un anno si ha la certezza ke la ottimizzeranno come s deve)...ma già dopo sei mesi esce il refresh...e poi dopo altri sei mesi esce la nuova arkitettura (e si può inizare a dire addio ll'ottimizzazione dei driver)...infatti R680 ke è il refresh è dato x fine anno mentre R700 ke è una nuova arkitettura x il secondo trimestre del 2008...ciao

Quoziente
10-07-2007, 16:40
mah...imho è troppo presto...ora è uscita, nemmeno è sfruttata, già pensano ad r700...di solito durano 1 anno ste vga, colpa del ritardo?

Concordo, pensate prima a buttare fuori dei drivers che sfruttino le potenzialità della scheda al 100%. Ho comprato la HD 2900 perché sono fiducioso che ATI col tempo riuscirà a spremerla al meglio soprattutto in DX10; se dovessi essere smentito dopo aver speso 400€ per una scheda video di sicuro al prossimo salto generazionale le schede ATI non le prendo più nemmeno in considerazione. Ritengo che la scheda abbia grosse potenzialità, innovazioni tecnologiche importanti che necessitano di tempo per essere sfruttate appieno dai drivers.
Mi auguro di non venire smentito dai fatti...

Chief
10-07-2007, 16:43
Concordo, pensate prima a buttare fuori dei drivers che sfruttino le potenzialità della scheda al 100%. Ho comprato la HD 2900 perché sono fiducioso che ATI col tempo riuscirà a spremerla al meglio soprattutto in DX10; se dovessi essere smentito dopo aver speso 400€ per una scheda video di sicuro al prossimo salto generazionale le schede ATI non le prendo più nemmeno in considerazione. Ritengo che la scheda abbia grosse potenzialità, innovazioni tecnologiche importanti che necessitano di tempo per essere sfruttate appieno dai drivers.
Mi auguro di non venire smentito dai fatti...

Ragazzi si parla di fine anno per un refresh di r600 quindi avrà sempre la stessa archetettura stai tranquillo per i drivers che arriveranno..per la nuova architettura si parla di secondo trimestre 2008...quindi state tranquilli ;)

zorco
10-07-2007, 16:45
un anno dura l'arkitettura (e quindi x un anno si ha la certezza ke la ottimizzeranno come s deve)...ma già dopo sei mesi esce il refresh...e poi dopo altri sei mesi esce la nuova arkitettura (e si può inizare a dire addio ll'ottimizzazione dei driver)...infatti R680 ke è il refresh è dato x fine anno mentre R700 ke è una nuova arkitettura x il secondo trimestre del 2008...ciao
mah io sapevo che l'r680 era stato cancellato e che sarebbero passati direttamente a r700 a 55nm il prossimo anno boh...

Chief
10-07-2007, 16:47
mah io sapevo che l'r680 era stato cancellato e che sarebbero passati direttamente a r700 a 55nm il prossimo anno boh...

Infati ancora niente di confermato...sono solamente ipotesi :)

Quoziente
10-07-2007, 16:49
Ragazzi si parla di fine anno per un refresh di r600 quindi avrà sempre la stessa archetettura stai tranquillo per i drivers che arriveranno..per la nuova architettura si parla di secondo trimestre 2008...quindi state tranquilli ;)

Si, infatti è questo uno dei motivi che mi ha portato a scegliere R600, volevo una scheda DX10 di fascia alta; alternative:
1- HD 2900 XT
2- 8800 GTS 640 o 8800 GTX (la ultra visto il prezzo non l'ho nemmeno considerata)
Mi sono detto: scelgo l'architettura nuova, quella che potenzialmente ha più margini di miglioramento nonostante l'avvio zoppicante che ha avuto, poi sono diverse generazioni di schede che sto con ATI e mi sono sempre trovato soddisfatto... Ok è rumorosa (neanche tanto a dire la verità) e consuma però fidiamoci...

zorco
10-07-2007, 16:53
Concordo, pensate prima a buttare fuori dei drivers che sfruttino le potenzialità della scheda al 100%. Ho comprato la HD 2900 perché sono fiducioso che ATI col tempo riuscirà a spremerla al meglio soprattutto in DX10; se dovessi essere smentito dopo aver speso 400€ per una scheda video di sicuro al prossimo salto generazionale le schede ATI non le prendo più nemmeno in considerazione. Ritengo che la scheda abbia grosse potenzialità, innovazioni tecnologiche importanti che necessitano di tempo per essere sfruttate appieno dai drivers.
Mi auguro di non venire smentito dai fatti...
anche se dovesse uscire sto refresh io la scheda non la cambio,me ne fotto:D,l'importante che mi garantirà di giocare fluido per un pò di tempo,spero almeno un'anno....

appleroof
10-07-2007, 17:41
anche se dovesse uscire sto refresh io la scheda non la cambio,me ne fotto:D,l'importante che mi garantirà di giocare fluido per un pò di tempo,spero almeno un'anno....

:asd: :asd: :asd:

DVD2005
10-07-2007, 17:43
anche se dovesse uscire sto refresh io la scheda non la cambio,me ne fotto:D,l'importante che mi garantirà di giocare fluido per un pò di tempo,spero almeno un'anno....

più chiaro di così :D

e fai bene ;)

Catan
10-07-2007, 17:44
anche se dovesse uscire sto refresh io la scheda non la cambio,me ne fotto:D,l'importante che mi garantirà di giocare fluido per un pò di tempo,spero almeno un'anno....

effettivamente nsomma chi aveva la x1800xt ha continuato a giocare benissimo anche quando sono uscite le x1900 e se nn era malato nn la cambiava!

Defragg
10-07-2007, 17:49
anche se dovesse uscire sto refresh io la scheda non la cambio,me ne fotto:D,l'importante che mi garantirà di giocare fluido per un pò di tempo,spero almeno un'anno....

bella zorco!!! :O

Iantikas
10-07-2007, 17:54
effettivamente nsomma chi aveva la x1800xt ha continuato a giocare benissimo anche quando sono uscite le x1900 e se nn era malato nn la cambiava!

beh già con i titoli usciti 2/3 mesi dopo le x1900 la differenza tra una x1800xt e una x1900xt era significativa (in quasi tutti i casi oltre il 30%) e valeva quei 100/150€ ke al'inizio si spendevano x una x1900xt vendendo la x1800xt...

...ciao

appleroof
10-07-2007, 17:57
beh già con i titoli usciti 2/3 mesi dopo le x1900 la differenza tra una x1800xt e una x1900xt era significativa (in quasi tutti i casi oltre il 30%) e valeva quei 100/150€ ke al'inizio si spendevano x una x1900xt vendendo la x1800xt...

...ciao

Come al solito tutto dipende dalle esigenze/gusti/soldi personali, non esiste secondo me una regola fissa, non critico chi ha preso una 8800ultra venendo dalla gtx anche se per me è un cambio inutile, così come non biasimo chi fà ragionamenti alla zorco (che tra l'altro per ora e credo abbastanza a lungo corrispondono esattamente ai miei) ;)

bioexml
10-07-2007, 18:09
Come al solito tutto dipende dalle esigenze/gusti/soldi personali, non esiste secondo me una regola fissa, non critico chi ha preso una 8800ultra venendo dalla gtx anche se per me è un cambio inutile, così come non biasimo chi fà ragionamenti alla zorco (che tra l'altro per ora e credo abbastanza a lungo corrispondono esattamente ai miei) ;)

quotone anche da parte mia su quello che ha scritto zorco

zorco
10-07-2007, 18:15
ragà non cambio a breve neache morto,se per caso questa scheda non sarà sufficentemente potente per far girare i titoli più attesi di quest'anno sarà la volta buona che passo definitivamente a console e vaff....:p

fukka75
10-07-2007, 18:15
anche se dovesse uscire sto refresh io la scheda non la cambio,me ne fotto:D,l'importante che mi garantirà di giocare fluido per un pò di tempo,spero almeno un'anno....

Come dovrebbe sempre essere ;)

Iantikas
10-07-2007, 18:53
Come al solito tutto dipende dalle esigenze/gusti/soldi personali, non esiste secondo me una regola fissa, non critico chi ha preso una 8800ultra venendo dalla gtx anche se per me è un cambio inutile, così come non biasimo chi fà ragionamenti alla zorco (che tra l'altro per ora e credo abbastanza a lungo corrispondono esattamente ai miei) ;)

si infatti dipende da ognuno come la pensa...cmq il cambio GTX->Ultra lo vedo inutile ankio (anke xkè a conti fatti si guadagna a malapena un 10% d media)...

...a me cmq arriva domani...se x es a fine anno nn dovesse soddisfarmi e c'è qualcosa ke potrebb farlo penso ke la rivenderò (qualcosa credo ke ancora varrà) e ne prenderò un altra...

...cmq appunto dipende dall'esigenze ke uno ha....infatti io nn x questo ke ho detto son uno ke cambia vga ogni 2 mesi...la x1900xtx x es la tenevo da 16 mesi...ciao

Iantikas
10-07-2007, 18:54
ragà non cambio a breve neache morto,se per caso questa scheda non sarà sufficentemente potente per far girare i titoli più attesi di quest'anno sarà la volta buona che passo definitivamente a console e vaff....:p


beh sempre un cambio è :p :D

3DMark79
10-07-2007, 19:04
si infatti dipende da ognuno come la pensa...cmq il cambio GTX->Ultra lo vedo inutile ankio (anke xkè a conti fatti si guadagna a malapena un 10% d media)...

...a me cmq arriva domani...se x es a fine anno nn dovesse soddisfarmi e c'è qualcosa ke potrebb farlo penso ke la rivenderò (qualcosa credo ke ancora varrà) e ne prenderò un altra...

...cmq appunto dipende dall'esigenze ke uno ha....infatti io nn x questo ke ho detto son uno ke cambia vga ogni 2 mesi...la x1900xtx x es la tenevo da 16 mesi...ciao

Quoto,
penso che anche un confronto Hd2900XT e una 8800Ultra che costa più del doppio non è giustificato dalle prestazioni.Se uno prende adesso una HD2900XT con i soldi che risparmia nel non prendere la Ultra e tra circa un anno decide di cambiarla con quei soldi rimasti può benissimo comprare una scheda più longeva e performante di una Ultra,Imho.

appleroof
10-07-2007, 19:16
si infatti dipende da ognuno come la pensa...cmq il cambio GTX->Ultra lo vedo inutile ankio (anke xkè a conti fatti si guadagna a malapena un 10% d media)...

...a me cmq arriva domani...se x es a fine anno nn dovesse soddisfarmi e c'è qualcosa ke potrebb farlo penso ke la rivenderò (qualcosa credo ke ancora varrà) e ne prenderò un altra...

...cmq appunto dipende dall'esigenze ke uno ha....infatti io nn x questo ke ho detto son uno ke cambia vga ogni 2 mesi...la x1900xtx x es la tenevo da 16 mesi...ciao

sono d'accordo al 100% ;)

M4R1|<
11-07-2007, 03:18
fra poco inizia l'E3, e me lo sto per vedere in streming, spero che accennino di crysis, visto che uno degli argomenti è game for windows, anche se cmq quello che attendo di più è quello ufficiale di domani, con quelli di Crytek:D :D

nn c'è nessuno che lo sta seguendo? anche perchè l'argomento principale sono le nuove api, quindi diranno delle attuali VGA che le supportano

Pat77
11-07-2007, 08:13
Dovrebbero presentare anche Gear Of Wars credo con supporto DX10 quindi è possibile che lo faranno girare su Hd2900.

Quoziente
11-07-2007, 08:20
fra poco inizia l'E3, e me lo sto per vedere in streming, spero che accennino di crysis, visto che uno degli argomenti è game for windows, anche se cmq quello che attendo di più è quello ufficiale di domani, con quelli di Crytek:D :D

nn c'è nessuno che lo sta seguendo? anche perchè l'argomento principale sono le nuove api, quindi diranno delle attuali VGA che le supportano

Sai dirmi dove si può seguire live?

EDIT: niente, come non detto, ho trovato...

Pat77
11-07-2007, 08:31
Assasin Creed è dx10? Ho visto che hanno appena rilasciato unv ideo ad alta risoluzione, sembra molto molto bello e credo che su hd2900 (vista la mole poligonale) possa dire la sua in modo molto apprezzabile.

fukka75
11-07-2007, 09:46
Sempre che lo facciano anche per pc ;)

JoeLatino
11-07-2007, 09:57
eccovi un'altra recensione della versione a 1gb!!;)

http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/

Quoziente
11-07-2007, 10:14
eccovi un'altra recensione della versione a 1gb!!;)

http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/

Da quello che si può leggere qui le prestazioni sono identiche a quella da 512Mb, si guadagnano in media 0,5fps (aumento secondo me dovuto più che altro alla GPU che gira 5Mhz in più della 512Mb); si ha un leggero guadagno di frames solo con Half Life 2 (6fps) e con Far Cry (ma solo a 2560x1600).

Sarebbe stato interessante vedere il comportamento delle schede con Colin Mcrae DIRT che sfrutta più di 512Mb di memoria video se settato al max...

Se i risultati sono questi IMHO la versione da 1Gb non conviene assolutamente (150 $ in più della 512Mb)...

M4R1|<
11-07-2007, 10:35
nn commento il tipo di conferenza, perchè (questa di Microsoft) è stata pietosa, davvero commerciale e basta. cmq speravo che parlassero in maniera "tecnica" delle nuone API e quindi anche di R600 e G80, ma gli unici accenni alle DX10 sono stati 2 o 3 video di pochi secondi su: crysi, bioshock, e un altro.
Peccato, spero in quello di stassera (EA, quindi Crytek) :D

Pat77
11-07-2007, 10:40
Sempre che lo facciano anche per pc ;)

Dovrebbe essere una demo pc, visto che l'ho scaricata nella sezione pc appunto di un noto sito americano.

M4R1|<
11-07-2007, 10:47
eccovi un'altra recensione della versione a 1gb!!;)

http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/

cmq queste prestazioni (soprtatutto stalker) mi sembrano Molto strane, e poi nn è possibile che in CF in DX10 in CoH mi faccia 20.2fps e invece singola 19.6, bho:confused: sono sempre più dell'idea che ormai si siano fatti un'idea sbagliate su questa scheda, e anche se le cose stanno cambiando, orami la reputazione è quella. ma chi se ne frega! tanto io mi fido solo dei giudizzi e dei test di HW (ovviamente anche dei vostri)

edit_user_name_here
11-07-2007, 10:48
Da quello che si può leggere qui le prestazioni sono identiche a quella da 512Mb, si guadagnano in media 0,5fps (aumento secondo me dovuto più che altro alla GPU che gira 5Mhz in più della 512Mb); si ha un leggero guadagno di frames solo con Half Life 2 (6fps) e con Far Cry (ma solo a 2560x1600).

Sarebbe stato interessante vedere il comportamento delle schede con Colin Mcrae DIRT che sfrutta più di 512Mb di memoria video se settato al max...

Se i risultati sono questi IMHO la versione da 1Gb non conviene assolutamente (150 $ in più della 512Mb)...

Utile nel caso si volesse giocare a risoluzioni alte o alcuni giochi che superano i 512mb... oppure per chi usa un sistema crossfire con l'a8r normale :D (forse io :asd: )
Cmq is true 100 euro in + non son pochi!

Cya

-Feanor-
11-07-2007, 10:52
avete letto la seconda parte dell intervista a amd di hw..??? molto interessante....riporto alcuni passi importanti su 2900xt

Hardware Upgrade: qual è stata la reazione di mercato a seguito della commercializzazione delle schede Radeon HD 2900 XT?

John Byrne: posso risponderti dicendoti che tutte le schede Radeon HD 2900 XT immesse sul mercato sono state vendute, e che siamo in shortage: i nostri partner AIB hanno venduto tutte le schede e se domandi loro quante schede abbiano a disposizione, la risposta è che non ne hanno a sufficienza (nota dell'autore: incuriositi da questa risposta abbiamo fatto alcune verifiche con dei partner AIB, ottenendo risposte allineate a quanto anticipato da John Byrne: le schede Radeon HD 2900 XT che sono state date ai partner sono state tutte vendute, e questi ultimi vorrebbero averne in volumi superiori in quanto la domanda continua a restare sostenuta).

Hardware Upgrade: per quale motivo, a tuo avviso, le schede Radeon HD 2900 XT hanno ottenuto questo successo commerciale, considerando il ritardo con il quale sono state presentate sul mercato?

John Byrne: prima di presentare il prodotto abbiamo analizzato internamente le prestazioni di questa soluzione, cercando di capire quale ne fosse il posizionamento di mercato ideale; abbiamo verificato come rispetto alla concorrenza in alcuni ambiti applicativi fossimo più veloci, in altri più lenti, ma scegliendo un livello di prezzo finale per l'utente di $ 399,00 avremmo avuto a disposizione una scheda che non poteva essere superata in quel segmento di mercato: questo spiega, a mio avviso, il successo che abbiamo incontrato sino ad ora.

Hardware Upgrade: puoi darci il tuo punti di vista di quello che sia il reale impatto delle architetture video DirectX 10 sul mercato, oltre a quello di veicolo marketing fenomenale per i produttori di GPU? Detto in altro modo, quando pensi che saranno disponibili applicazioni DirectX 10 realmente in grado di giustificare l'utilizzo di una architettura DX10 al posto di una DX9?

John Byrne: al momento attuale è innegabile come la presenza di applicazioni DirectX 10 sia troppo ridotta per poter rappresentare una spinta alla migrazione verso le nuove architetture hardware DirectX 10; possiamo affermare che nel corso del secondo trimestre dell'anno circa il 10% delle soluzioni video commercializzate aveva supporto hardware alle API DirectX 10. Nel corso del terzo trimestre dell'anno ci attendiamo uno spostamento attorno al 50%, quindi 1 scheda video su 2 integrerà un'architettura DX10 nativa; per il quarto trimestre dell'anno tale percentuale dovrebbe passare a circa il 70% del totale. E' evidente come con questo tasso di penetrazione nel mercato sarà possibile avere a disposizione quella base di sistemi con supporto DirectX 10 hardware tale da permettere agli sviluppatori di offrire applicazioni sviluppate per queste API.



direi molto interesante.......:)

3DMark79
11-07-2007, 10:53
Da quello che si può leggere qui le prestazioni sono identiche a quella da 512Mb, si guadagnano in media 0,5fps (aumento secondo me dovuto più che altro alla GPU che gira 5Mhz in più della 512Mb); si ha un leggero guadagno di frames solo con Half Life 2 (6fps) e con Far Cry (ma solo a 2560x1600).

Sarebbe stato interessante vedere il comportamento delle schede con Colin Mcrae DIRT che sfrutta più di 512Mb di memoria video se settato al max...

Se i risultati sono questi IMHO la versione da 1Gb non conviene assolutamente (150 $ in più della 512Mb)...

Non posso che darti ragione!
Ragazzi avete visto avete visto questo link:
http://www.tomshw.it/news.php?newsid=10738
dove Crysis è stato testato su una 8800GTX in directX 9 cosa ne pensate?
Si avvolge sempre più un gran mistero a queste schede in D.10!:muro:

-Feanor-
11-07-2007, 10:56
Non posso che darti ragione!
Ragazzi avete visto avete visto questo link:
http://www.tomshw.it/news.php?newsid=10738
dove Crysis è stato testato su una 8800GTX in directX 9 cosa ne pensate?
Si avvolge sempre più un gran mistero a queste schede in D.10!:muro:

cavolo mi hai preceduto...:muro: :muro: :muro: ...lo stavo per postare io...:D
da tenere conto che la prova è su un quad pernyn a 3,2ghz...dx 9 al massimo a una risoluzione elevata non specificata....e pare tutto fluidissimo....

3DMark79
11-07-2007, 11:02
cavolo mi hai preceduto...:muro: :muro: :muro: ...lo stavo per postare io...:D
da tenere conto che la prova è su un quad pernyn a 3,2ghz...dx 9 al massimo a una risoluzione elevata non specificata....e pare tutto fluidissimo....

Beh 1280X1024 non mi sembra poi tanto elevata.Tu pensi che sia cmq un dato positivo questo?

M4R1|<
11-07-2007, 11:09
cavolo mi hai preceduto...:muro: :muro: :muro: ...lo stavo per postare io...:D
da tenere conto che la prova è su un quad pernyn a 3,2ghz...dx 9 al massimo a una risoluzione elevata non specificata....e pare tutto fluidissimo....

mi sto sempre più preoccupando.... :( :(

M4R1|<
11-07-2007, 11:09
Non posso che darti ragione!
Ragazzi avete visto avete visto questo link:
http://www.tomshw.it/news.php?newsid=10738
dove Crysis è stato testato su una 8800GTX in directX 9 cosa ne pensate?
Si avvolge sempre più un gran mistero a queste schede in D.10!:muro:

bho, guarda io sono fiducioso, anche se... va be tanto mancano meno di 12 ore; spero proprio che diano qualche dettaglio sull'hardware consigliato, minimo e soprattutto se le attuali SV DX10 con un dual core possono far andare il gioco, e a quale dettaglio. Mi immagino anche una situazione di questo tipo:
quello che presenta: bene, ora che sapete tutto su Crysis, vi invitiamo a provare la Demo,
il pubblico: "si mette ad urlare di gioia"
quello che presenta: questa demo sarà disponibile da Adesso, e il numero massimo di demo che rilasceremo sarà di (sparo un numero) 30000
il pubblico: Corri, corri corri, hai portatili
quelli che seguono in live: dai dai dai, più veloce scarica, scarica:D :D

credo che sia un ipotesi più che plausibile, no?

ale0bello0pr
11-07-2007, 11:14
Abbiamo la conferma che il video Weapon of Crysis era assolutamente in DX9..... quindi in DX10 nn oso immaginare come può essere... :D

M4R1|<
11-07-2007, 11:15
avete letto la seconda parte dell intervista a amd di hw..??? molto interessante....riporto alcuni passi importanti su 2900xt

Hardware Upgrade: qual è stata la reazione di mercato a seguito della commercializzazione delle schede Radeon HD 2900 XT?

John Byrne: posso risponderti dicendoti che tutte le schede Radeon HD 2900 XT immesse sul mercato sono state vendute, e che siamo in shortage: i nostri partner AIB hanno venduto tutte le schede e se domandi loro quante schede abbiano a disposizione, la risposta è che non ne hanno a sufficienza (nota dell'autore: incuriositi da questa risposta abbiamo fatto alcune verifiche con dei partner AIB, ottenendo risposte allineate a quanto anticipato da John Byrne: le schede Radeon HD 2900 XT che sono state date ai partner sono state tutte vendute, e questi ultimi vorrebbero averne in volumi superiori in quanto la domanda continua a restare sostenuta).

Hardware Upgrade: per quale motivo, a tuo avviso, le schede Radeon HD 2900 XT hanno ottenuto questo successo commerciale, considerando il ritardo con il quale sono state presentate sul mercato?

John Byrne: prima di presentare il prodotto abbiamo analizzato internamente le prestazioni di questa soluzione, cercando di capire quale ne fosse il posizionamento di mercato ideale; abbiamo verificato come rispetto alla concorrenza in alcuni ambiti applicativi fossimo più veloci, in altri più lenti, ma scegliendo un livello di prezzo finale per l'utente di $ 399,00 avremmo avuto a disposizione una scheda che non poteva essere superata in quel segmento di mercato: questo spiega, a mio avviso, il successo che abbiamo incontrato sino ad ora.

Hardware Upgrade: puoi darci il tuo punti di vista di quello che sia il reale impatto delle architetture video DirectX 10 sul mercato, oltre a quello di veicolo marketing fenomenale per i produttori di GPU? Detto in altro modo, quando pensi che saranno disponibili applicazioni DirectX 10 realmente in grado di giustificare l'utilizzo di una architettura DX10 al posto di una DX9?

John Byrne: al momento attuale è innegabile come la presenza di applicazioni DirectX 10 sia troppo ridotta per poter rappresentare una spinta alla migrazione verso le nuove architetture hardware DirectX 10; possiamo affermare che nel corso del secondo trimestre dell'anno circa il 10% delle soluzioni video commercializzate aveva supporto hardware alle API DirectX 10. Nel corso del terzo trimestre dell'anno ci attendiamo uno spostamento attorno al 50%, quindi 1 scheda video su 2 integrerà un'architettura DX10 nativa; per il quarto trimestre dell'anno tale percentuale dovrebbe passare a circa il 70% del totale. E' evidente come con questo tasso di penetrazione nel mercato sarà possibile avere a disposizione quella base di sistemi con supporto DirectX 10 hardware tale da permettere agli sviluppatori di offrire applicazioni sviluppate per queste API.



direi molto interesante.......:)

ora leggo anche tutta la news, cmq speravo che parlassero anche delle prestazioni, cmq è vero la storia della competitività, cioè una scheda con queste prestazioni al MAX a 400€, che poi cmq i prezzi medi sono ben altri, mica stupidi sono stati!

M4R1|<
11-07-2007, 11:20
Abbiamo la conferma che il video Weapon of Crysis era assolutamente in DX9..... quindi in DX10 nn oso immaginare come può essere... :D

si infatti credo che sarà uno spettacolo, insuperabile per molto tempo!

-Feanor-
11-07-2007, 11:21
Beh 1280X1024 non mi sembra poi tanto elevata.Tu pensi che sia cmq un dato positivo questo?

guarda che hai capito male....leggi bene...
Crysis è giocato fluidamente al massimo dei dettagli a una risoluzione molto elevata e questo permette di capire che un sistema abbastanza aggiornato non dovrebbe aver problemi a macinarlo alla risoluzione classica di 1280 x 1024. ;)

M4R1|<
11-07-2007, 11:21
[cut]

ho letto anche il resto e devo dire che come al solito HW è sempre molto precisa e completa.
mi spiace che nn abbiano dato maggiori dettegli per il futuro GPGPU di R600.

3DMark79
11-07-2007, 11:22
bho, guarda io sono fiducioso, anche se... va be tanto mancano meno di 12 ore; spero proprio che diano qualche dettaglio sull'hardware consigliato, minimo e soprattutto se le attuali SV DX10 con un dual core possono far andare il gioco, e a quale dettaglio. Mi immagino anche una situazione di questo tipo:
quello che presenta: bene, ora che sapete tutto su Crysis, vi invitiamo a provare la Demo,
il pubblico: "si mette ad urlare di gioia"
quello che presenta: questa demo sarà disponibile da Adesso, e il numero massimo di demo che rilasceremo sarà di (sparo un numero) 30000
il pubblico: Corri, corri corri, hai portatili
quelli che seguono in live: dai dai dai, più veloce scarica, scarica:D :D

credo che sia un ipotesi più che plausibile, no?

ahah penso proprio di si!:asd:
Per quanto riguarda la CPU penso che è inutile utilizzare un Penryn,imho si mettono daccordo solo per far pubblicità.Già perso che un Core 2 Duo andrà più che bene certo nel tuo caso un pò mi preoccuperei cmq quando Crysis uscirà e verrà testato su tali CPU chissà se non io con la HD2900
ti sapremo dire se ci saranno evidenti differenze con il C2D.;)

3DMark79
11-07-2007, 11:27
guarda che hai capito male....leggi bene...
Crysis è giocato fluidamente al massimo dei dettagli a una risoluzione molto elevata e questo permette di capire che un sistema abbastanza aggiornato non dovrebbe aver problemi a macinarlo alla risoluzione classica di 1280 x 1024. ;)

Vero avevo capito male, meglio cosi!
Certo se era testato così in D.10 ero già in negozio a prendere HD2900 o quasi!

M4R1|<
11-07-2007, 11:32
ahah penso proprio di si!:asd:
Per quanto riguarda la CPU penso che è inutile utilizzare un Penryn,imho si mettono daccordo solo per far pubblicità.Già perso che un Core 2 Duo andrà più che bene certo nel tuo caso un pò mi preoccuperei cmq quando Crysis uscirà e verrà testato su tali CPU chissà se non io con la HD2900
ti sapremo dire se ci saranno evidenti differenze con il C2D.;)

ma infatti (sulla mia cpu attuale) cmq proprio per crysis mi sono comprato un Opteron 180, anche se il mio "piano" originale prevedeva di cambiare tutto a natale con un bel K10, anche se bho nn so, da diverse persone che ho sentito ho fatto la scielta migliore, almeno tiro come minimo un anno (OC la cpu ovviamente) e poi vedro, anche perchè sinceramente se avessi cambiato tutto a natale mi sarebbero usciti forse più soldi di quanti potevo metterci.

edit: il problema è che le vedo già le differenze, con chi ha un dual core, e poi cmq come dice la firma finche nn prendo il dual core nn posso mettere vista, perchè la SV nn funza sotto NT6.0 a single core (nn chiedermi il motivo ma da quello che ho letto è una csa comune)

M4R1|<
11-07-2007, 11:37
guarda che hai capito male....leggi bene...
Crysis è giocato fluidamente al massimo dei dettagli a una risoluzione molto elevata e questo permette di capire che un sistema abbastanza aggiornato non dovrebbe aver problemi a macinarlo alla risoluzione classica di 1280 x 1024. ;)

dai ragazzi, nn manca molto, stassera sapremo la verità!

ale0bello0pr
11-07-2007, 11:40
dai ragazzi, nn manca molto, stassera sapremo la verità!



io voglio proprio sapere come gira con la HD2900 XT....cavoi speriamo...sia stasera.....

+Lonewolf+
11-07-2007, 11:43
we!!!! cosa, diavolo mi allontano 2 giorni e qui nascono le attese!!! cosa c'è stasera????:confused:

M4R1|<
11-07-2007, 11:45
we!!!! cosa, diavolo mi allontano 2 giorni e qui nascono le attese!!! cosa c'è stasera????:confused:

la fine dell' E3, dove parlaranno queli di Crytek!!!

3DMark79
11-07-2007, 11:45
ma infatti (sulla mia cpu attuale) cmq proprio per crysis mi sono comprato un Opteron 180, anche se il mio "piano" originale prevedeva di cambiare tutto a natale con un bel K10, anche se bho nn so, da diverse persone che ho sentito ho fatto la scielta migliore, almeno tiro come minimo un anno (OC la cpu ovviamente) e poi vedro, anche perchè sinceramente se avessi cambiato tutto a natale mi sarebbero usciti forse più soldi di quanti potevo metterci.

edit: il problema è che le vedo già le differenze, con chi ha un dual core, e poi cmq come dice la firma finche nn prendo il dual core nn posso mettere vista, perchè la SV nn funza sotto NT6.0 a single core (nn chiedermi il motivo ma da quello che ho letto è una csa comune)

Se ci mettiamo in continuazione dietro le nuove tecnologie ci vuole una barca di soldi!Io parlando sinceramente cambio sistema se mi viene chiesto da qualcuno di fare un PC allora gli vendo il mio e aggiungo qualcosa e lo faccio nuovo sempre costatando cosa di meglio veramente ci possa essere.Non sempre cambiando un nuovo sistema si anno prestazioni bestiali rapportato al prezzo che uno debba spendere,vedi AMD con socket 939 VS AM2.

+Lonewolf+
11-07-2007, 11:47
la fine dell' E3, dove parlaranno queli di Crytek!!!

ahhhhhhhhhhhhhhhhh io pensavo qualcosa riguardante r600!!!! sisifino a li ci sono!!!:D

ale0bello0pr
11-07-2007, 11:49
la fine dell' E3, dove parlaranno queli di Crytek!!!

come la fine, ma se è appena iniziato :D fine OT

edit_user_name_here
11-07-2007, 11:51
ma infatti (sulla mia cpu attuale) cmq proprio per crysis mi sono comprato un Opteron 180, anche se il mio "piano" originale prevedeva di cambiare tutto a natale con un bel K10, anche se bho nn so, da diverse persone che ho sentito ho fatto la scielta migliore, almeno tiro come minimo un anno (OC la cpu ovviamente) e poi vedro, anche perchè sinceramente se avessi cambiato tutto a natale mi sarebbero usciti forse più soldi di quanti potevo metterci.

edit: il problema è che le vedo già le differenze, con chi ha un dual core, e poi cmq come dice la firma finche nn prendo il dual core nn posso mettere vista, perchè la SV nn funza sotto NT6.0 a single core (nn chiedermi il motivo ma da quello che ho letto è una csa comune)

Anche io ho comprato scheda madre ed opteron 180 ma già da 6 mesi ma provengo dal socket A :D dunque ci sarà una differenza abbisale!
Vi faccio immaginare la scheda grafica che avevo :asd: altro che la 9800se di un utente che ha scritto pagine addietro :asd:

Cya :)

M4R1|<
11-07-2007, 11:54
Se ci mettiamo in continuazione dietro le nuove tecnologie ci vuole una barca di soldi!Io parlando sinceramente cambio sistema se mi viene chiesto da qualcuno di fare un PC allora gli vendo il mio e aggiungo qualcosa e lo faccio nuovo sempre costatando cosa di meglio veramente ci possa essere.Non sempre cambiando un nuovo sistema si anno prestazioni bestiali rapportato al prezzo che uno debba spendere,vedi AMD con socket 939 VS AM2.

si infatti, ovvio se uno devesse stare dietro sempre alle nuove tecnologie e a quello che le aziende gli propongono, davvero nn so quanto si dovrebbe spendere (a meno che si prende il top appena escono, ma si va su di quei prezzi devvero alti)

edit: cmq fine OT pechè nn vorrei mai che imporvvisamente arrivi wiltord

M4R1|<
11-07-2007, 11:59
ahhhhhhhhhhhhhhhhh io pensavo qualcosa riguardante r600!!!! sisifino a li ci sono!!!:D

be siccome le schede che supportano le DX10 a oggi sono solo 2 (R600 e G80) credo proprio che diranno almeno se sono oppure no adeguate alla grafica Dx10, e soprattutto se dovessero fra vedere il gioco su un loro pc, sarebbe molto interessante vedere che configurazione ha, cioè se una 8800 o una 2900, e magari dirà anche il motivi del perché hanno scelto una piuttosto che un altra. Speriamo!

+Lonewolf+
11-07-2007, 12:00
be siccome le schede che supportano le DX10 a oggi sono solo 2 (R600 e G80) credo proprio che diranno almeno se sono oppure no adeguate alla grafica Dx10, e soprattutto se dovessero fra vedere il gioco su un loro pc, sarebbe molto interessante vedere che configurazione ha, cioè se una 8800 o una 2900, e magari dirà anche il motivi del perché hanno scelto una piuttosto che un altra. Speriamo!

sec me nn diranno un kaiser di tutto ciò, si limiteranno a far impazzire i fan facendo vedere dei video DX10:rolleyes:

M4R1|<
11-07-2007, 12:04
sec me nn diranno un kaiser di tutto ciò, si limiteranno a far impazzire i fan facendo vedere dei video DX10:rolleyes:

sarebbe poco correto è vero, cioè se dovessero fare una cosa così in pubblico le vendite di quella SV aumenteranno in maniera sostanziale. cmq sicuramente daranno un indicazione sul tipo di configurazione minima per DX9 e DX10 (e ho paura che alla nostra vista nn sarà molto minima)

Quoziente
11-07-2007, 12:14
Comincio ad essere preoccupato... :stordita:
Uno dei motivi per cui sono passato alla HD 2900 XT era di far girare Crysis e i prossimi giochi in DX10 e a livello di dettaglio/fluidità ottimi...

3DMark79
11-07-2007, 12:19
sec me nn diranno un kaiser di tutto ciò, si limiteranno a far impazzire i fan facendo vedere dei video DX10:rolleyes:

Sanno benissimo l'attesa che si è creata con questo fantomatico gioco e non possono non tener conto!

Quoziente
11-07-2007, 12:27
Sanno benissimo l'attesa che si è creata con questo fantomatico gioco e non possono non tener conto!

Saperlo lo sanno, stai tranquillo, penso che Crysis sia il gioco più atteso di questo E3 assieme a Bioshock...
Bisogna soltanto vedere se cercheranno di "passarla" da furbi (qualche video da sbavo e niente più) o se cominceranno a dare informazioni complete (requisiti minimi e consigliati e hardware necessario per far girare tutto al max in Dx10)...
A quanto dichiarato pochi giorni fa sono in fase pre-beta, grossomodo il gioco dovrebbe esserci salvo qualche correzione di bug e ottimizzazione...

Sperém...

-Feanor-
11-07-2007, 12:31
Sanno benissimo l'attesa che si è creata con questo fantomatico gioco e non possono non tener conto!

invece imho se ne possono fregare altamente...:p

Quoziente
11-07-2007, 13:10
Tanto per tornare "in topic", si sa mica quando rilasciano i Catalyst 7.7 definitivi? A sentire chi ha provato la beta sembra ci siano netti miglioramenti con la nostra schedina... (Schedina si fa per dire, a momenti dovevo allargare il cabinet a punta e mazzetta per farcela entrare :D )
Qualcuno poi sa dove si possono trovare le beta dei Catalyst?

Chief
11-07-2007, 13:17
Tanto per tornare "in topic", si sa mica quando rilasciano i Catalyst 7.7 definitivi? A sentire chi ha provato la beta sembra ci siano netti miglioramenti con la nostra schedina... (Schedina si fa per dire, a momenti dovevo allargare il cabinet a punta e mazzetta per farcela entrare :D )
Qualcuno poi sa dove si possono trovare le beta dei Catalyst?

Per quanto riguarda i 7.7 definitivi dovrebbero uscire a fine mese,mentre dei beta non ne ho sentito proprio parlare, al massimo ora ci sono gli hotfix 7.6 :)

×§ñåkê×
11-07-2007, 14:04
siete a conoscenza di una beta demo di crysis :stordita: ? ho letto su un forum in inglese che è possibile trovarla sul torrente :p

Catan
11-07-2007, 14:14
ragazzi posso dare l'ufficialità...
venerdi entro anche io nel club!

webbuffa
11-07-2007, 14:21
ragazzi posso dare l'ufficialità...
venerdi entro anche io nel club!

:) Bella!

P.S.
Raga vi ricordo che è uscita la open beta MP di World in Conflict :) gioco interessante!

M4R1|<
11-07-2007, 14:42
siete a conoscenza di una beta demo di crysis :stordita: ? ho letto su un forum in inglese che è possibile trovarla sul torrente :p

c'è chi ha già cercato di scaricarla;) , ma è una fake:cry:

×§ñåkê×
11-07-2007, 14:44
c'è chi ha già cercato di scaricarla;) , ma è una fake:cry:

lo sospettavo :doh:

SenderoLuminoso
11-07-2007, 14:59
ste directx10 per xp funzionano? come si montano? grazie se qualcuno lo sa.

×§ñåkê×
11-07-2007, 15:00
ste directx10 per xp funzionano? come si montano? grazie se qualcuno lo sa.

??? non credo esistano :asd:

johnson
11-07-2007, 15:05
ste directx10 per xp funzionano? come si montano? grazie se qualcuno lo sa.

Datti una letta a questo articolo http://www.beyond3d.com/content/articles/55

Spiegano perchè secondo loro sarà molto difficile vedere le dx10 su xp (con le stesse identiche caratteristiche e prestazioni di quelle di vista).

SenderoLuminoso
11-07-2007, 15:08
??? non credo esistano :asd:

estitono, esistono, tanto che qualcuno gia parla di service pack3 con le directx10 dal momento che sono svilupate da un team liberoe non microsoft.

http://www.tomshw.it/news.php?newsid=9804

http://www.dinoxpc.com/News/news.asp?ID_News=12379&What=news

non sono proprio gli untilmi arrivati da meìttere fake e tutto reale

SenderoLuminoso
11-07-2007, 15:09
Datti una letta a questo articolo http://www.beyond3d.com/content/articles/55

Spiegano perchè secondo loro sarà molto difficile vedere le dx10 su xp (con le stesse identiche caratteristiche e prestazioni di quelle di vista).

Azz e' in inglese provero' cmq piu posso tirarla senza vista melgio e' una questione di fatto contro bill ela sua logica interemente economica.

johnson
11-07-2007, 15:13
Azz e' in inglese provero' cmq piu posso tirarla senza vista melgio e' una questione di fatto contro bill ela sua logica interemente economica.

[OT]Anch'io sto cercando di tirarla più a lungo possibile, ma al primo gioco dx10, dovrò fare il cambio.[FINE OT]

×§ñåkê×
11-07-2007, 15:14
ma mettete stò vista, che prima lo fate e meglio è :asd: e sinceramente non so fino a che punto si possibile portare le dx10 su win xp, in quanto la stessa m$ ha detto che non è possibile...

SenderoLuminoso
11-07-2007, 15:17
ma mettete stò vista, che prima lo fate e meglio è :asd: e sinceramente non so fino a che punto si possibile portare le dx10 su win xp, in quanto la stessa m$ ha detto che non è possibile...
Vearemnte e' uscita una vicina che potrebbero essere integrate nel service pack.. poi l'ho gia tenuto un paio di mese l'ultimate a dire la verita se devo cambiare os lo cambio proprio nel vero senso della parola e continuero a giocare in directx9 col muletto. Semplicemente per la politica m$, sara la volta buona che metto la slack, eheh metterò windozzo98 con le directx10 non certificate m$, tu pensi che non saranno costretti a integrarle? mah

webbuffa
11-07-2007, 15:18
:D Ragazzi per chi fosse, come me, ancora interessato agli adattatori ad otto pin :D ecco una bella notizia fresca fresca arriavta dalla Enermax.

Spettabile, Fabrizio

L'adattatore per poter usufruire del connettore ad 8 Pin anche sui Liberty che ne sono sprovvisti, è acquistabile separatamente presso i rivenditori di prodotti Enermax.

Sperando di averle risposto in maniera esauriente, le porgo con la presente

Cordiali Saluti


:cool: Che fortunata un rivenditore enermax autorizzato è proprio vicino casa mia!

×§ñåkê×
11-07-2007, 15:22
:D Ragazzi per chi fosse, come me, ancora interessato agli adattatori ad otto pin :D ecco una bella notizia fresca fresca arriavta dalla Enermax.

Spettabile, Fabrizio

L'adattatore per poter usufruire del connettore ad 8 Pin anche sui Liberty che ne sono sprovvisti, è acquistabile separatamente presso i rivenditori di prodotti Enermax.

Sperando di averle risposto in maniera esauriente, le porgo con la presente

Cordiali Saluti


:cool: Che fortunata un rivenditore enermax autorizzato è proprio vicino casa mia!

??? ma basta fare 2 ponticelli con un pezzetto di filo :mbe:

×§ñåkê×
11-07-2007, 15:24
Vearemnte e' uscita una vicina che potrebbero essere integrate nel service pack.. poi l'ho gia tenuto un paio di mese l'ultimate a dire la verita se devo cambiare os lo cambio proprio nel vero senso della parola e continuero a giocare in directx9 col muletto. Semplicemente per la politica m$, sara la volta buona che metto la slack, eheh metterò windozzo98 con le directx10 non certificate m$, tu pensi che non saranno costretti a integrarle? mah

non so fino a che punto possano essere performarnti e compatibili queste ipotetiche dx10 non certificate... se poi si possono integrare in win xp e con il service pack 3 verrà fatto, meglio... ma io non ci torno + a xp, win vista è troppo :cool: , per non parlare che sfrutta meglio i proci dual quad core

Nos89
11-07-2007, 15:24
:D Ragazzi per chi fosse, come me, ancora interessato agli adattatori ad otto pin :D ecco una bella notizia fresca fresca arriavta dalla Enermax.

Spettabile, Fabrizio

L'adattatore per poter usufruire del connettore ad 8 Pin anche sui Liberty che ne sono sprovvisti, è acquistabile separatamente presso i rivenditori di prodotti Enermax.

Sperando di averle risposto in maniera esauriente, le porgo con la presente

Cordiali Saluti


:cool: Che fortunata un rivenditore enermax autorizzato è proprio vicino casa mia!

gia fra l'altro i nuovi Liberty hanno gia il connettore a 8 pin di base:)

×§ñåkê×
11-07-2007, 15:25
gia fra l'altro i nuovi Liberty hanno gia il connettore a 8 pin di base:)

anche il mio lo ha... e lo ho dovuto prendere proprio insieme la hd2900xt, quello vecchio non sarebbe sopravissuto, tutti i ali enermax con la sigla DXX hanno il conettore 8pin ;)

SenderoLuminoso
11-07-2007, 15:33
??? ma basta fare 2 ponticelli con un pezzetto di filo :mbe:
Ops basta fare due ponticelli? come dove me fai vede? Ti monto vista dopo ehhehee Bugia. Hai una foto del ponte? Che filo son da mettere perhce mi hai detto sta cosa uffs

webbuffa
11-07-2007, 15:35
Ops basta fare due ponticelli? come dove me fai vede? Ti monto vista dopo ehhehee Bugia. Hai una foto del ponte? Che filo son da mettere perhce mi hai detto sta cosa uffs

:O Sinceramente per 10€ preferisco salvaguardare la salute della scheda...

SenderoLuminoso
11-07-2007, 15:37
:O Sinceramente per 10€ preferisco salvaguardare la salute della scheda... Ok e' vero ma dove si prende a 10€?? Poi e' un ponticello che se fa la grazia di spiegarmelo ci metto 2 minuti.

webbuffa
11-07-2007, 15:38
Ok e' vero ma dove si prende a 10€?? Poi e' un ponticello che se fa la grazia di spiegarmelo ci metto 2 minuti.

Devi avere un rivenditore ufficiale enermax in zona... :) Sinceramente non saprei spiegarti come fare il ponte :eek: attenti una parere esperto :D

×§ñåkê×
11-07-2007, 15:40
Ops basta fare due ponticelli? come dove me fai vede? Ti monto vista dopo ehhehee Bugia. Hai una foto del ponte? Che filo son da mettere perhce mi hai detto sta cosa uffs

bè allora... il cavo a 8 pin è fatto così:

+ + + + 12v giallo
_ _ _ _ 0v nero

mentre quello a 6 e così

+ + + 12v giallo
_ _ _ 0v nero

basta fare

+ + +-
_ _ _-

( - = pontecello con il cavo :asd: )

ok fa pena come spiegazione però hai capito vero? vero?? :asd:

praticamente non fai altro che collegare i ultimi 2 pin che restano scoperti con i 2 pin vicino.

SenderoLuminoso
11-07-2007, 15:41
Devi avere un rivenditore ufficiale enermax in zona... :) Sinceramente non saprei spiegarti come fare il ponte :eek: attenti una parere esperto :D

Se ×§ñåkê× mi fa la grazia

×§ñåkê×
11-07-2007, 15:46
il ponticello lo potresti fare anche da dietro il pcb dove ci sono le stagnature, però li andresti a far cadere la garanzia della scheda

SenderoLuminoso
11-07-2007, 15:46
bè allora... il cavo a 8 pin è fatto così:

+ + + + 12v giallo
_ _ _ _ 0v nero

mentre quello a 6 e così

+ + + 12v giallo
_ _ _ 0v nero

basta fare

+ + +-
_ _ _-

( - = pontecello con il cavo :asd: )

ok fa pena come spiegazione però hai capito vero? vero?? :asd:

praticamente non fai altro che collegare i ultimi 2 pin che restano scoperti con i 2 pin vicino.
ahahah o mio dio cosi'?
http://img167.imageshack.us/img167/2963/cazzatame9.jpg (http://imageshack.us)
Shot at 2007-07-11

×§ñåkê×
11-07-2007, 15:48
ahahah o mio dio cosi'?
http://img167.imageshack.us/img167/2963/cazzatame9.jpg (http://imageshack.us)
Shot at 2007-07-11

esatto

Iantikas
11-07-2007, 15:50
arrivata :D ...caspita la x1900xtx con l'accelero X2 sopra sembrava na formikina rispetto alla hd2900xt sopratutto x quanto riguarda il peso...

...cmq ho fatto giusto due provette veloci x ora (poi mi son messo a giokikkiare a lost planet)...

...il solito 3dmark06 x vedere se ero in linea (10980 e qualcosa) e poi lost planet ke m'ha davvero stupito...

...lo stavo giocando (con la x1900xtx) a 1024x768 8xAF tutto al max e con un framerate medio sui 30fps...ora vado a 1440x900 4xAA 16xAF tutto al max e sto sopra i 40fps (passa pure gli 80 ma penso la media stia poco sopra i 40fps)...

...cmq + tardi faccio qualke test con fraps in vari gioki e posto qualke screen...x ora son soddisfatto...

...l'unico lato negativo è ke in full load fa un casino boia (sopratutto nella mia config dove nn si sente[iva] volare una mosca)...nn cmq quanto il dissi originale della x1900xtx ma enormente + d un accelero x2 e 6 schyte da 120mm@700rpm...ma vabbeh l'avevo preventivato e l'importante è ke in idle passa d poco il resto (ma regolando la ventola penso d risolvere e cmq x adesso va bene così)...

...l'altro piccolo problemino, o meglio bug, riguarda lost lanet...nel gioco va da dio ma nel menu (solo nella skermata principlae dove nello sfondo c'è il gioco ke gira) va ad 1fps :confused: ...poi nelle opzioni e nel gioc tutto ok ma in quella skermata s'impianta...succede anke a voi? o e qualcosa ke nn va a me? (i driver sono i 7.6)...

...ciao

×§ñåkê×
11-07-2007, 15:51
almeno così avevo letto su alcuni forum... ovviamente non mi ritengo responsabile per eventuali, incendi, esplosioni, implosioni, e altre catastrofiche cose

×§ñåkê×
11-07-2007, 15:56
e infatti come vedi i pin gialli del 12v sono tutti sopra, mentre quelli neri stanno sotto, quindi non ci sono problemi a fare il ponte

http://www.virtual-hideout.net/reviews/Zalman_HD160/zalman06.jpg

M4R1|<
11-07-2007, 15:59
almeno così avevo letto su alcuni forum... ovviamente non mi ritengo responsabile per eventuali, incendi, esplosioni, implosioni, e altre catastrofiche cose

si già che ci siamo facciamo un testata tattica :asd:

cmq teoricamente la spiegazione di ×§ñåkê× dovrebbe essere giustà, però.... :sperem: :uh:

×§ñåkê×
11-07-2007, 16:03
si già che ci siamo facciamo un testata tattica :asd:

cmq teoricamente la spiegazione di ×§ñåkê× dovrebbe essere giustà, però.... :sperem: :uh:

:asd: chi se la sente di rischiare 400€ di scheda ? :sofico:

Nos89
11-07-2007, 16:05
:asd: chi se la sente di rischiare 400€ di scheda ? :sofico:

più che altro chi rischia di mandare a puttane un Enermax:eek: :O

×§ñåkê×
11-07-2007, 16:07
più che altro chi rischia di mandare a puttane un Enermax:eek: :O

questo non credo... ha la protezione dai corto circuiti ;)

Nos89
11-07-2007, 16:08
questo non credo... ha la protezione dai corto circuiti ;)

amo gli Enermax:sofico: sopratutto il mio:sofico:

SenderoLuminoso
11-07-2007, 16:13
:asd: chi se la sente di rischiare 400€ di scheda ? :sofico:

Al massimo mandavo a puttane un silverstone
la scheda funziona va ma non abilita l'ovverdrive e tanto meno le temperature
quindi nisba.
Azz e poi l'hai detto in scioltezza pensavo fosse gia fatto da te

×§ñåkê×
11-07-2007, 16:36
Al massimo mandavo a puttane un silverstone
la scheda funziona va ma non abilita l'ovverdrive e tanto meno le temperature
quindi nisba.
Azz e poi l'hai detto in scioltezza pensavo fosse gia fatto da te

il mio ali ha gia il 8 pin nativo ;)

SenderoLuminoso
11-07-2007, 16:38
il mio ali ha gia il 8 pin nativo ;)

ce u na cosa da dire il mio ha i fili rovesciati i giali so sotto e i neri sopra.. cmq non funziona suvvia.

×§ñåkê×
11-07-2007, 16:41
ce u na cosa da dire il mio ha i fili rovesciati i giali so sotto e i neri sopra.. cmq non funziona suvvia.

ecco, meglio non rischiare.

M4R1|<
11-07-2007, 17:03
dai cosa vuoi che sia, al massimo vedrete salire la fumata delle elezioni papali, nn le vete mai viste? quelle tutte bianche!:D :D :D (esperienza personale inside)

×§ñåkê×
11-07-2007, 17:06
dai cosa vuoi che sia, al massimo vedrete salire la fumata delle elezioni papali, nn le vete mai viste? quelle tutte bianche!:D :D :D (esperienza personale inside)

:asd: xke non fai tu da cavia? :sofico:

johnson
11-07-2007, 17:16
Scusate l'ennesimo OT sulle dx10 in xp, ma ho trovato una news di oggi su INQ dove si dice che siccome Nvidia non riusciva ad implementare la virtualizzazione della memoria nei propri drivers, sembrerebbe che MS abbia reso questa feature opzionale. La virtualizzazione della memoria sarebbe statao l'ostacolo più grosso per il porting delle dx10 su winxp.

non ho capito bene però, se questa mancanza abbasserà le prestazioni dx10 di tutte le schede nvidia.

http://uk.theinquirer.net/?article=40913

-Feanor-
11-07-2007, 17:54
Scusate l'ennesimo OT sulle dx10 in xp, ma ho trovato una news di oggi su INQ dove si dice che siccome Nvidia non riusciva ad implementare la virtualizzazione della memoria nei propri drivers, sembrerebbe che MS abbia reso questa feature opzionale. La virtualizzazione della memoria sarebbe statao l'ostacolo più grosso per il porting delle dx10 su winxp.

non ho capito bene però, se questa mancanza abbasserà le prestazioni dx10 di tutte le schede nvidia.

http://uk.theinquirer.net/?article=40913

io credo che con delle ipotetiche dx10 per xp sarebbero abbassate le prestazioni di tutte le schede...ci sara sempre qualcosa di pseudo emulato...tanto piu che non è m$ a fare il porting ma uno sviluppatore indipendente che per quanto ci possa mettere tutta la buona volonta, lavora con qualcosa che non ha creato lui e quindi non puo conoscere fino in fondo...

×§ñåkê×
11-07-2007, 17:55
io credo che con delle ipotetiche dx10 per xp sarebbero abbassate le prestazioni di tutte le schede...ci sara sempre qualcosa di pseudo emulato...tanto piu che non è m$ a fare il porting ma uno sviluppatore indipendente che per quanto ci possa mettere tutta la buona volonta, lavora con qualcosa che non ha creato lui e quindi non puo conoscere fino in fondo...

già... e poi i driver? serviranno dei driver appositi per le dx10, ma non si potranno mettere quelli di windows vista :rolleyes:

-Feanor-
11-07-2007, 17:59
già... e poi i driver? serviranno dei driver appositi per le dx10, ma non si potranno mettere quelli di windows vista :rolleyes:

infatti...secondo me rimarra un progetto-utopia...in fondo poi non capisco una ultima cosa...se m$ non autorizza (e di certo non lo fara) ad usare le sue api per modificarle e ridistribuirle..il tutto diventa illegale e viene bloccato legalmente...a questo punto che portino delle dx fatte come si deve su linux..

johnson
11-07-2007, 18:01
io credo che con delle ipotetiche dx10 per xp sarebbero abbassate le prestazioni di tutte le schede...ci sara sempre qualcosa di pseudo emulato...tanto piu che non è m$ a fare il porting ma uno sviluppatore indipendente che per quanto ci possa mettere tutta la buona volonta, lavora con qualcosa che non ha creato lui e quindi non puo conoscere fino in fondo...

Non avete capito :D

MS si è sempre nascosta dietro la virtualizzazione della memoria (possibile solo su vista) per giustificare il fatto che su XP fosse impossibile importare le dx10.
Sembra invece che questa virtualizzazione non sia più fondamentale, visto che nei driver nvidia non c'è traccia. Quindi MS dovrà inventarsi un'altra scusa (il driver model differente per esempio), oppure decidersi a fare sto benedetto porting ufficiale :D

3DMark79
11-07-2007, 18:35
ce u na cosa da dire il mio ha i fili rovesciati i giali so sotto e i neri sopra.. cmq non funziona suvvia.


Infatti sono proprio così!
Forse quel connettore a 8 pin che ha postato ×§ñåkê× sarà quello per alimentare la CPU visto che è con i poli opposti come quello,mentre se vedi quello da 6 pin a i poli giusti per alimentare la scheda video.
Ragazzi una domanda a voi che avete alimentatori buoni come il mio con PFC ATTIVO non avete mai avuto problemi con l'UPS ecomonici o con la corrente diretta di casa visto che gli Ali con PCF attivo richiede una corrente con onda sinusoidale (cioè perfetta)?Visto che molti ragazzi hanno bruciato l'ali con PFC attivo per questo per via di una corrente diciamo sporca nel peggiore dei casi "onda quadra" o un pò meglio Pseusosinusoidale?:read:

-Feanor-
11-07-2007, 18:43
Non avete capito :D

MS si è sempre nascosta dietro la virtualizzazione della memoria (possibile solo su vista) per giustificare il fatto che su XP fosse impossibile importare le dx10.
Sembra invece che questa virtualizzazione non sia più fondamentale, visto che nei driver nvidia non c'è traccia. Quindi MS dovrà inventarsi un'altra scusa (il driver model differente per esempio), oppure decidersi a fare sto benedetto porting ufficiale :D

il punto è che microsoft non fara mai un porting ufficiale in quanto le dx10 sono l'unica cosa che possa rilanciare vista...e portarle su xp sarebbe un danno economico incalcolabile...e per questo m$ blocchera ogni tentativo di questo tipo...anche per via legale...

×§ñåkê×
11-07-2007, 18:44
Infatti sono proprio così!
Forse quel connettore a 8 pin che ha postato ×§ñåkê× sarà quello per alimentare la CPU visto che è con i poli opposti come quello,mentre se vedi quello da 6 pin a i poli giusti per alimentare la scheda video.
Ragazzi una domanda a voi che avete alimentatori buoni come il mio con PFC ATTIVO non avete mai avuto problemi con l'UPS ecomonici o con la corrente diretta di casa visto che gli Ali con PCF attivo richiede una corrente con onda sinusoidale (cioè perfetta)?Visto che molti ragazzi anno bruciato l'ali con PFC attivo per questo per via di una corrente diciamo sporca nel peggiore dei casi "onda quadra" o un pò meglio Pseusosinusoidale?:read:

io ho il pc attaccato direttamente alla presa, mai avuto problemi

SenderoLuminoso
11-07-2007, 20:10
Infatti sono proprio così!
Forse quel connettore a 8 pin che ha postato ×§ñåkê× sarà quello per alimentare la CPU visto che è con i poli opposti come quello,mentre se vedi quello da 6 pin a i poli giusti per alimentare la scheda video.
Ragazzi una domanda a voi che avete alimentatori buoni come il mio con PFC ATTIVO non avete mai avuto problemi con l'UPS ecomonici o con la corrente diretta di casa visto che gli Ali con PCF attivo richiede una corrente con onda sinusoidale (cioè perfetta)?Visto che molti ragazzi anno bruciato l'ali con PFC attivo per questo per via di una corrente diciamo sporca nel peggiore dei casi "onda quadra" o un pò meglio Pseusosinusoidale?:read:

Lo schema degl alimentatori dice che sono 5 neri e 3 gialli

http://www.xtremesystems.org/forums/showpost.php?p=2295272&postcount=15

http://whirlpool.net.au/forum-replies-archive.cfm/777648.html

×§ñåkê×
11-07-2007, 20:13
Lo schema degl alimentatori dice che sono 5 neri e 3 gialli

http://www.xtremesystems.org/forums/showpost.php?p=2295272&postcount=15

http://whirlpool.net.au/forum-replie...fm/777648.html

quello della scheda video? quello della cpu ha 4 gialli e 4 neri.

SenderoLuminoso
11-07-2007, 20:15
quello della scheda video? quello della cpu ha 4 gialli e 4 neri.

Leggi lo schema sul pdf su uno dei forum e vedrai so 5 gnr e 3 12

3DMark79
11-07-2007, 20:18
Lo schema degl alimentatori dice che sono 5 neri e 3 gialli

http://www.xtremesystems.org/forums/showpost.php?p=2295272&postcount=15

http://whirlpool.net.au/forum-replies-archive.cfm/777648.html

Questo link non si apre...
http://whirlpool.net.au/forum-replie...fm/777648.html
cmq dovrebbero essere aggiunti 2 pin negativi per completare gli 8 pin?
Grazie per il sondaggio ×§ñåkê×!

SenderoLuminoso
11-07-2007, 20:19
Questo link non si apre...
http://whirlpool.net.au/forum-replie...fm/777648.html
cmq dovrebbero essere aggiunti 2 pin negativi per completare gli 8 pin?

questo e' lo schema di pc power http://www.pcpower.com/products/assets/T1KWSR/specs.pdf



http://whirlpool.net.au/forum-replies-archive.cfm/777648.html

3DMark79
11-07-2007, 20:35
questo e' lo schema di pc power http://www.pcpower.com/products/assets/T1KWSR/specs.pdf



http://whirlpool.net.au/forum-replies-archive.cfm/777648.html

infatti come immaginavo 2 negativi da aggiungere grazie SenderoLuminoso!

M4R1|<
11-07-2007, 21:24
bello, e io ho detto prima che 1 giallo e 1 nero sarebbero dovuti andare, bene, e mi era venuta anche la voglia di provarlo:cry: :cry: me no male che un mio amico mi ha distolto da questa Brutta esperienza.

cmq a parte il Bom che avrei potuto fare, volevo dirvi che fra poco meno di 40 min, inizia la conferenza della EA all'E3, e siccome parlano di crysis se dicono qualcosa lo posterò subito:D

ale0bello0pr
11-07-2007, 21:31
bello, e io ho detto prima che 1 giallo e 1 nero sarebbero dovuti andare, bene, e mi era venuta anche la voglia di provarlo:cry: :cry: me no male che un mio amico mi ha distolto da questa Brutta esperienza.

cmq a parte il Bom che avrei potuto fare, volevo dirvi che fra poco meno di 40 min, inizia la conferenza della EA all'E3, e siccome parlano di crysis se dicono qualcosa lo posterò subito:D

aridaje:rolleyes:
non è oggi Crysis ma venerdi...appena apre l'ultimo giorno dell'E3:)

×§ñåkê×
11-07-2007, 21:37
aridaje:rolleyes:
non è oggi Crysis ma venerdi...appena apre l'ultimo giorno dell'E3:)

:ave: :ave: :ave: :ave: :ave: :ave: :ave:

M4R1|<
11-07-2007, 21:43
aridaje:rolleyes:
non è oggi Crysis ma venerdi...appena apre l'ultimo giorno dell'E3:)

ma davvero? io ero sicuro che fosse stato stassera, anche perchè crysis è EA, e questà la presentano adesso

edit: ho appena letto sul sito dell'E3, va be ci spero cmq.
Grazie

×§ñåkê×
11-07-2007, 21:59
dopo l'E3 uscirà la demo di crysis, non vedo l'ora... :oink:

3DMark79
11-07-2007, 22:14
Riassumo quanto detto da Crytek:
In tanti si domandano "funzionerà sul mio sistema?": Crytek ha affermato che sebbene le specifiche ufficiali non siano state ancora state stilate, è possibile giocare con un Athlon 3500+, una Radeon X1900 e 2 giga di Ram. Con queste impostazioni, dichiara uno sviluppatore, il gioco va bene al massimo delle impostazioni (ndr: potrebbe non aver impostato una risoluzione eccessiva).

http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-03

The_max_80
11-07-2007, 22:16
dopo l'E3 uscirà la demo di crysis, non vedo l'ora... :oink:

ovvero come tempi si intende quando?

Catan
11-07-2007, 22:18
Riassumo quanto detto da Crytek:
In tanti si domandano "funzionerà sul mio sistema?": Crytek ha affermato che sebbene le specifiche ufficiali non siano state ancora state stilate, è possibile giocare con un Athlon 3500+, una Radeon X1900 e 2 giga di Ram. Con queste impostazioni, dichiara uno sviluppatore, il gioco va bene al massimo delle impostazioni (ndr: potrebbe non aver impostato una risoluzione eccessiva).

http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-03

se con una x1900 e un single core andrà anche a 1280 tutto max senza filtri allora sarà un gioco perfettamente ottimizzato.
ergo credo che con un dual core amd o intel sarà possibile anche un aa2x o un af 8x.
quind presumo che su una 8800 o 2900 aa4x sarà abbordabilissimo!

×§ñåkê×
11-07-2007, 22:22
ovvero come tempi si intende quando?

probabilmente dopo il 20 di stò mese

The_max_80
11-07-2007, 22:28
probabilmente dopo il 20 di stò mese


9 gironi , magari!! :p

×§ñåkê×
11-07-2007, 22:34
9 gironi , magari!! :p

:O ho detto dopo il 20 :D , magari potrebbe essere il 5 settembre :sofico:

nitro89
11-07-2007, 22:37
Sarei il primo ad aver quella demo :sofico: :sofico:

Sto diventando mattooooooooooooooooo!!!!!!!!!:eek: :muro: :eek: :muro:


Se dopo questa data vedrò che una 2900 riesce a tirarlo a palla a 1680x1050,me la prendo :) :read:

The_max_80
11-07-2007, 22:38
:O ho detto dopo il 20 :D , magari potrebbe essere il 5 settembre :sofico:

beh si , pero si spera

M4R1|<
11-07-2007, 22:38
Riassumo quanto detto da Crytek:
In tanti si domandano "funzionerà sul mio sistema?": Crytek ha affermato che sebbene le specifiche ufficiali non siano state ancora state stilate, è possibile giocare con un Athlon 3500+, una Radeon X1900 e 2 giga di Ram. Con queste impostazioni, dichiara uno sviluppatore, il gioco va bene al massimo delle impostazioni (ndr: potrebbe non aver impostato una risoluzione eccessiva).

http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-03

bene, con il mio futuro opteron e la 2900 faremo scintille :D :D

3DMark79
11-07-2007, 22:42
Lo spero per tutti gli Atisti e siamo buoni anche per gli In-vidiosi!:vicini:

SenderoLuminoso
11-07-2007, 22:45
bello, e io ho detto prima che 1 giallo e 1 nero sarebbero dovuti andare, bene, e mi era venuta anche la voglia di provarlo:cry: :cry: me no male che un mio amico mi ha distolto da questa Brutta esperienza.

cmq a parte il Bom che avrei potuto fare, volevo dirvi che fra poco meno di 40 min, inizia la conferenza della EA all'E3, e siccome parlano di crysis se dicono qualcosa lo posterò subito:D

Eheheh conferma la facenda ho overdrive sbloccato :)))
...Poi ho tolto il dissipatore perchè volevo mettere il mio oclabs g3 ma non e' compatibile a quanto sembra, lo rismontato e la pasta era liscia come il culetto di un bimbo a conferma che non ha toccato la gpu me piange il cuore cambiare con un altro produttore.
Quindi smontando ho visto la pasta che hanno messo sulla gpu ne montavo almeno na 20ina di schede, tolta la pasta e messa la mia una zalman mi ritrovo a 45 in default invece che 60 cosa non male.
Cmq il botto non lo avresti fatto perhcè gia avevo provato il gialle e il nero. Ma l'overdrive nonera sbloccato soluzione due neutri ed il gioco le fatto. L'ho presi da un terzo cavo a 6 pin ch enon e' un pci-e ma non so a che serve ahhaah azz.

Per ×§ñåkê× dal momento che sono riuscito a sbloccare L'overdrive e il primo a postare lo schema per la felicità di molti, avevo detto che montavo Vista e da vista scrivo eheh :). Ora se qualcuno gentilmenete magari in pvt me manda il tutto per montare le directx 10 mi farebbe un favore ho visto ache dei pachetti zippati con file directx 10 in giro per la rete ma non so a che servano.

SenderoLuminoso
11-07-2007, 22:46
Lo spero per tutti gli Atisti e siamo buoni anche per gli In-vidiosi!:vicini:


Provato lo schema? funziona a meraviglia :)

3DMark79
11-07-2007, 23:10
Provato lo schema? funziona a meraviglia :)

Grande SenderoLuminoso!:D
Alla fine non penso sia tanto difficile anche se forse non si avrà un gran chè di overclock in più vero?
Certo che sei un pazzo nel senso buono visto che hai messo un positivo anzichè un negativo e mi stupisco come mai non sia successo nulla!:D
La cosa che mi stupisce è il fatto che tu dica che con una pasta termoconduttiva Zalman ti sia scesa la temp. di ben 15°!!!FANTASTICO! :eek:
Ma che pasta hanno messo originale quella del dentifricio!?!:asd:
Non capisco cerchi le DirectX10 per Vista o XP?Su Vista penso lo sai sono installate.

SenderoLuminoso
11-07-2007, 23:23
Grande SenderoLuminoso!:D
Alla fine non penso sia tanto difficile anche se forse non si avrà un gran chè di overclock in più vero?
Certo che sei un pazzo nel senso buono visto che hai messo un positivo anzichè un negativo e mi stupisco come mai non sia successo nulla!:D
La cosa che mi stupisce è il fatto che tu dica che con una pasta termoconduttiva Zalman ti sia scesa la temp. di ben 15°!!!FANTASTICO! :eek:
Ma che pasta hanno messo originale quella del dentifricio!?!:asd:
Non capisco cerchi le DirectX10 per Vista?Già sono installate.

MA tu dovevi vedere la pasta che c'era, tolto il dissi ho vista la pasta grigia, mi sono messo le mani nei capelli era ovunque anche fuori dalla cornicetta per fortuna e solo grigia,ma e' siliconica. Ho messo la zalman quella col pennellino, e sto tra i 45 -50 oscillo a sta temperatura (prima oscillavo tra i 60-5 non ti dico in full) . Per le directx 10 non so, non conosco la facenda ecc ecc, ho visto girare in giro delle cartele zip con dentro 4 o 5 file directx10 far scaricare le ultime di luglio e zippare quelle dentro al system, per quello chiedevo, non mi sono ancora informato molto per le directx 10.
Pe rla stabilita overclock ti diro poi ho visto che l'overdrive arriva fino a 900 mhz per le ram, vedremo se ci arriviamo primo e secondo vedremo se con altri programmi le superiamo. Devo solo aspettare ho tutto liquido tranne la vga so rimasto fregato pensavo che l'oclabs-g3 fose compatibile e invece cosi non sembra.

×§ñåkê×
11-07-2007, 23:37
ma veramente era messa così male la pasta termica? :eek: , mi sa che dovrò anche io smontare il dissi e metterci la zalman, cmq a me stà sui 48 in idle, mentre in render 3d sale oltre i 75°

3DMark79
11-07-2007, 23:38
MA tu dovevi vedere la pasta che c'era, tolto il dissi ho vista la pasta grigia, mi sono messo le mani nei capelli era ovunque anche fuori dalla cornicetta per fortuna e solo grigia,ma e' siliconica. Ho messo la zalman quella col pennellino, e sto tra i 45 -50 oscillo a sta temperatura (prima oscillavo tra i 60-5 non ti dico in full) . Per le directx 10 non so, non conosco la facenda ecc ecc, ho visto girare in giro delle cartele zip con dentro 4 o 5 file directx10 far scaricare le ultime di luglio e zippare quelle dentro al system, per quello chiedevo, non mi sono ancora informato molto per le directx 10.
Pe rla stabilita overclock ti diro poi ho visto che l'overdrive arriva fino a 900 mhz per le ram, vedremo se ci arriviamo primo e secondo vedremo se con altri programmi le superiamo. Devo solo aspettare ho tutto liquido tranne la vga so rimasto fregato pensavo che l'oclabs-g3 fose compatibile e invece cosi non sembra.

Adesso capisco parli per XP.
Dunque si suppone anche un miglior raffreddamento per la RAM Video giusto?
Facci sapere come si comporta la bestiolina!
Ti volevo chiedere ma sai se il nostro Silverstone ST65ZF utilizza una singola linea +12V3 per entrambi cavi a 6 pin PCI-E visto che sono di colore diverso?Nel manuale non l'ho capito!
Ed i 42A tutte le linee +12V combinati,45A di peak quando vengono utilizzate?Quando qualche linea ha bisogno di più corrente per alimentare qualcosa?

MonsterMash
11-07-2007, 23:44
MA tu dovevi vedere la pasta che c'era, tolto il dissi ho vista la pasta grigia, mi sono messo le mani nei capelli era ovunque anche fuori dalla cornicetta per fortuna e solo grigia,ma e' siliconica. Ho messo la zalman quella col pennellino, e sto tra i 45 -50 oscillo a sta temperatura (prima oscillavo tra i 60-5 non ti dico in full) . Per le directx 10 non so, non conosco la facenda ecc ecc, ho visto girare in giro delle cartele zip con dentro 4 o 5 file directx10 far scaricare le ultime di luglio e zippare quelle dentro al system, per quello chiedevo, non mi sono ancora informato molto per le directx 10.
Pe rla stabilita overclock ti diro poi ho visto che l'overdrive arriva fino a 900 mhz per le ram, vedremo se ci arriviamo primo e secondo vedremo se con altri programmi le superiamo. Devo solo aspettare ho tutto liquido tranne la vga so rimasto fregato pensavo che l'oclabs-g3 fose compatibile e invece cosi non sembra.

Ciao, le directx10 in windows vista sono installate di default (fanno parte di uno strato a basso livello dell'OS), ma vengono regolarmente aggiornate attraverso il solito metodo: scarichi da www.microsoft.com/directx le ultime, e le installi. Lui ti aggiorna solo i file che serve che vengano aggiornati.

Su windows xp invece non esistono le directx10, e, per quanto si parli parecchio di un promettente progetto esterno alla ms che ne promette il supporto in futuro, io non credo che ci saranno mai.

Per quanto riguarda il tuo oclabs, ci sarebbe un modo per adattarlo alla 2900xt. Ho letto di gente che aveva lo stesso problema anche con altri wb. Io sono stato fortunato, e il mio fa perfettamente contatto, ma pare che la cornice metallica attorno al chip in alcune schede sia di circa un millimetro troppo alta, lasciando sollevato il wb. Limando con un po' di carta vetrata questa cornice (che purtroppo non è rimuovibile), si dovrebbe ripristinare il contatto. Ovviamente purtroppo questa procedura inficia la garanzia, e cmq va fatta con particolare cautela, facendo attenzione a non toccare ne' il core, ne' i componenti discreti che lo circondano.

Ciao

3DMark79
12-07-2007, 00:03
ma veramente era messa così male la pasta termica? :eek: , mi sa che dovrò anche io smontare il dissi e metterci la zalman, cmq a me stà sui 48 in idle, mentre in render 3d sale oltre i 75°

Attendiamo allora anche tue notizie in merito se apporterai questo cambiamento ok ×§ñåkê×?:yeah:

Mister Tarpone
12-07-2007, 00:23
Riassumo quanto detto da Crytek:
In tanti si domandano "funzionerà sul mio sistema?": Crytek ha affermato che sebbene le specifiche ufficiali non siano state ancora state stilate, è possibile giocare con un Athlon 3500+, una Radeon X1900 e 2 giga di Ram. Con queste impostazioni, dichiara uno sviluppatore, il gioco va bene al massimo delle impostazioni (ndr: potrebbe non aver impostato una risoluzione eccessiva).

http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-03

moooooooooooooooooooolto interessante TUTTO quello che dice quell'articolo :) !!
consiglio di leggerlo bene :) parla anche di una 2900xt a 65nm per settembre.. e fa il punto della situazione fra ati e nvidia :read: !!

Cmq, se per giocare al max crysis basterà un 3500, 2gb e x1900!! allora credo ci giocherò discretamente bene anch'io :winner: !!!

:stordita:

3DMark79
12-07-2007, 00:29
moooooooooooooooooooolto interessante TUTTO quello che dice quell'articolo :) !!
consiglio di leggerlo bene :) parla anche di una 2900xt a 65nm per settembre.. e fa il punto della situazione fra ati e nvidia :read: !!

Cmq, se per giocare al max crysis basterà un 3500, 2gb e x1900!! allora credo ci giocherò discretamente bene anch'io :winner: !!!

:stordita:

Peccato che dice "potrebbe debuttare" dunque non è detto!:(
Anche se su Tom's mi sembrano un pò di parte l'hai notato?

Mister Tarpone
12-07-2007, 00:39
Peccato che dice "potrebbe debuttare" dunque non è detto!:(
Anche se su Tom's mi sembrano un pò di parte l'hai notato?

bohhh!! non lo leggo quasi mai :asd:
ma quell'articolo mi pare onesto nel decrivere l'attuale scenario (ati e nvidia) di queste vga ;)

cmq mi sembra una barzelletta che si possa giocare Crysis su un 3500 + 1900 al MASSIMO dettaglio.... maahhhh.... :stordita:

edit_user_name_here
12-07-2007, 01:09
bene, con il mio futuro opteron e la 2900 faremo scintille :D :D

Già già ;)

moooooooooooooooooooolto interessante TUTTO quello che dice quell'articolo :) !!
consiglio di leggerlo bene :) parla anche di una 2900xt a 65nm per settembre.. e fa il punto della situazione fra ati e nvidia :read: !!

Cmq, se per giocare al max crysis basterà un 3500, 2gb e x1900!! allora credo ci giocherò discretamente bene anch'io :winner: !!!

:stordita:

Premetto che non ho letto l'articolo x vari problemi :D cmq pensate, o sapete, se potrebbe uscire la 65nm con un 1gb con drr4 oppure la faranno come la 80nm con ddr3 e 512mb? secondo voi? oppure l'hanno detto nell'articolo? ;)

Saluti :)

+Lonewolf+
12-07-2007, 01:12
Peccato che dice "potrebbe debuttare" dunque non è detto!:(
Anche se su Tom's mi sembrano un pò di parte l'hai notato?

su tom's sono sempre stati di parte:)

e in quell'articolo poi scusatemi ma si sono proprio sputtanati

3DMark79
12-07-2007, 01:13
bohhh!! non lo leggo quasi mai :asd:
ma quell'articolo mi pare onesto nel decrivere l'attuale scenario (ati e nvidia) di queste vga ;)

cmq mi sembra una barzelletta che si possa giocare Crysis su un 3500 + 1900 al MASSIMO dettaglio.... maahhhh.... :stordita:

Certo che se ci rendiamo conto stiamo tutti impazzendo per un gioco se gira o non gira nel nostro sistema!Roba da matti :doh: :D
Neanche se dovessimo installare il più grande e perfetto sistema operativo di tutti i tempi!:sofico:

+Lonewolf+
12-07-2007, 01:15
su tom's sono sempre stati di parte:)

e in quell'articolo poi scusatemi ma si sono proprio sputtanati

per non parlare di questo...http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-01

:doh:

Mister Tarpone
12-07-2007, 01:16
su tom's sono sempre stati di parte:)

e in quell'articolo poi scusatemi ma si sono proprio sputtanati

o come mai :) ??


:)

+Lonewolf+
12-07-2007, 01:19
o come mai :) ??


:)

basta leggere gli aggettivi che riserva ad AMD e quelli che riserva nvidia, inoltre fa un quadro della situazione molto di parte...

3DMark79
12-07-2007, 01:19
Già già ;)



Premetto che non ho letto l'articolo x vari problemi :D cmq pensate, o sapete, se potrebbe uscire la 65nm con un 1gb con drr4 oppure la faranno come la 80nm con ddr3 e 512mb? secondo voi? oppure l'hanno detto nell'articolo? ;)

Saluti :)

Di essere non è specificata quale sarà, se la 512MB o quella da 1GB.Cmq se cambieranno il processo produttivo a 65nm sulla HD2900XT penso che le faranno per entrambe.

3DMark79
12-07-2007, 01:22
per non parlare di questo...http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-01

:doh:

Avevo ragione...è assurdo vero!?!

Chief
12-07-2007, 01:25
per non parlare di questo...http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-01

:doh:

Assurdo l'articolo quando dice testuali parole "I driver successivi hanno migliorato la situazione, ma rimane il sentore che il prodotto non sia stato studiato nei minimi particolari: le prestazioni migliorano, ma consumi, rumorosità e calore restano. Ma dicono seriamente li hanno provati seriamente i nuovi driver :rolleyes: Io non so come certe persone fanno a dire queste cose hanno abbassato il calore che prima sinceramente era veramente eccessivo in idle la scheda sta sui 45° e stiamo anche in estate, resto sempre più sconvolto da queste persone che senza provare una cosa danno sentenze e ci vogliono pure far credere che sia la verità BAH :rolleyes:

+Lonewolf+
12-07-2007, 01:26
Avevo ragione...è assurdo vero!?!

bah..io mi ci sono abituato, pensa che nel bench di r600 mancavano una decina di frame medi, registrati da tutti gli utenti...lasciamo stare và...peggio per loro che diventano siti-spazzatura


sono registrato per la beta di world in conflict, mi hanno fornito un torrent dove poterla scaricare e una beta-key, il download è velocissimo, per domani dovrei avere finito e testo r600;)

3DMark79
12-07-2007, 01:42
bah..io mi ci sono abituato, pensa che nel bench di r600 mancavano una decina di frame medi, registrati da tutti gli utenti...lasciamo stare và...peggio per loro che diventano siti-spazzatura


sono registrato per la beta di world in conflict, mi hanno fornito un torrent dove poterla scaricare e una beta-key, il download è velocissimo, per domani dovrei avere finito e testo r600;)

L'importante che non sia il contrario sarebbe stato peggio non credi?Che dicano ciò che vogliono
tanto noi utenti prima di acquistare sentiamo tante campane come si suol dire!
Un ringraziamento doveroso va a te Lonewolf come tanti altri ragazzi che anche dopo aver comprato questa scheda postano test a tutti noi per capirne le prestazioni!Grazie mille e buonanotte a tutti!;)

+Lonewolf+
12-07-2007, 01:46
L'importante che non sia il contrario sarebbe stato peggio non credi?Che dicano ciò che vogliono
tanto noi utenti prima di acquistare sentiamo tante campane come si suol dire!
Un ringraziamento doveroso va a te Lonewolf come tanti altri ragazzi che anche dopo aver comprato questa scheda postano test per capirne le prestazioni!Grazie e buonanotte a tutti!;)

notte, a domani sera con i results;)

edit_user_name_here
12-07-2007, 01:50
Di essere non è specificata quale sarà, se la 512MB o quella da 1GB.Cmq se cambieranno il processo produttivo a 65nm sulla HD2900XT penso che le faranno per entrambe.

Anche sulle ddr4 le faranno entrambe? cioè seguiranno come la 80 nm che hanno fatto solo la 1gb da ddr4?


L'importante che non sia il contrario sarebbe stato peggio non credi?Che dicano ciò che vogliono
tanto noi utenti prima di acquistare sentiamo tante campane come si suol dire!
Un ringraziamento doveroso va a te Lonewolf come tanti altri ragazzi che anche dopo aver comprato questa scheda postano test per capirne le prestazioni!Grazie e buonanotte a tutti!;)

Può essere :D
Buonanotte ;)

pierluigi86
12-07-2007, 08:10
perché dovete discreditare tom, quel sito non mi sembra affatto di parte. Innanzitutto perché gli articoli non sono scritti da loro ma sono traduzioni di altri
articoli stranieri provenienti da vari tom nel mondo.... e poi, non mi sembra che hanno detto cose inesatte, hanno detto che la migliore scheda per i giochi attuali è la 8800 gtx,che la scheda dalle prestazioni più elevate è la ultra ( sottolineando che è solo un overclock della gtx ad un prezzo elevatissimo) e che la fascia media è troppo inferiore alla alta... per quanto riguarda Ati ha detto che la scheda era già pronta da gennaio( ed è stata posticipata dal veto di Amd), presenta un' architettura innovativa ma ha delle prestazioni inferiori alle aspettative, ed ha un prezzo molto competitivo... per quanto riguarda i consumi chi non può notare che sia la scheda più affamata di corrente? Io concordo con voi che le prestazioni devono essere viste in un' arco di tempo più lungo, ma non troppo lungo visto che la vista di questa scheda sarà al massimo di altri 3/4 mesi... Non ci vuole molta
obiettività per dire che a questo giro va meglio nvidia... spero che nel prossimo vado meglio Ati ma al contrario di Tom sono convinto che refresh a 65nm risolverebbe il problema più importante di questa scheda cioè il consumo.

zorco
12-07-2007, 08:34
per non parlare di questo...http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-01

:doh:

no comment...

A.L.M.
12-07-2007, 08:41
perché dovete discreditare tom, quel sito non mi sembra affatto di parte. Innanzitutto perché gli articoli non sono scritti da loro ma sono traduzioni di altri
articoli stranieri provenienti da vari tom nel mondo.... e poi, non mi sembra che hanno detto cose inesatte, hanno detto che la migliore scheda per i giochi attuali è la 8800 gtx,che la scheda dalle prestazioni più elevate è la ultra ( sottolineando che è solo un overclock della gtx ad un prezzo elevatissimo) e che la fascia media è troppo inferiore alla alta... per quanto riguarda Ati ha detto che la scheda era già pronta da gennaio( ed è stata posticipata dal veto di Amd), presenta un' architettura innovativa ma ha delle prestazioni inferiori alle aspettative, ed ha un prezzo molto competitivo... per quanto riguarda i consumi chi non può notare che sia la scheda più affamata di corrente? Io concordo con voi che le prestazioni devono essere viste in un' arco di tempo più lungo, ma non troppo lungo visto che la vista di questa scheda sarà al massimo di altri 3/4 mesi... Non ci vuole molta
obiettività per dire che a questo giro va meglio nvidia... spero che nel prossimo vado meglio Ati ma al contrario di Tom sono convinto che refresh a 65nm risolverebbe il problema più importante di questa scheda cioè il consumo.

E' proprio il TOM internazionale ad essere di parte, e pure da un pezzo.
Un anno fa, quando le X1950 erano nettamente superiori alle pari fascia nVidia, nelle recensioni sembrava che facessero di tutto per trovare dei difetti, anche se poi ovviamente erano costretti a dire che si trattava di ottimi prodotti.
Quell'articolo in particolare non mi pare il peggiore, anzi: molto peggio è stata la "comparativa" tra Purevideo HD e Avivo HD, fatta il giorno in cui uscivano le HD2600/2400, ma testando la sola HD2900, i cui drivers non supportano ancora appieno l'Avivo HD. :rolleyes:

pierluigi86
12-07-2007, 09:03
E' proprio il TOM internazionale ad essere di parte, e pure da un pezzo.
Un anno fa, quando le X1950 erano nettamente superiori alle pari fascia nVidia, nelle recensioni sembrava che facessero di tutto per trovare dei difetti, anche se poi ovviamente erano costretti a dire che si trattava di ottimi prodotti.
Quell'articolo in particolare non mi pare il peggiore, anzi: molto peggio è stata la "comparativa" tra Purevideo HD e Avivo HD, fatta il giorno in cui uscivano le HD2600/2400, ma testando la sola HD2900, i cui drivers non supportano ancora appieno l'Avivo HD. :rolleyes:

ma io infatti non discuto che alcune recensioni sono di parte ( mi riferisco sopratutto a quelle dei monitor) ma nel caso specifico non mi sembra che abbiano alterato la realtà. Hanno messo in luce i difetti e i pregi dei due aziende...

driver successivi hanno migliorato la situazione, ma rimane il sentore che il prodotto non sia stato studiato nei minimi particolari: le prestazioni migliorano, ma consumi, rumorosità e calore restano.

secondo voi è di pare questa frase?????? secondo me è la sintesi di tutta la r600, cioè una scheda superiore alla 8800 gts come prestazioni e come rapporto prezzo/prestazioni ma inferiore dal punto di vista del risparmio energetico...

Fonus
12-07-2007, 10:32
Ciao raga...sto attuando un progetto...ma prima di far cazzate, vorrei sapere se secondo voi ci sta in lunghezza la skeda HD2900XT nel case COOLERMASTER MYSTIQUE 632...perchè non riesco a trovare le dimensioni della skeda!!!!
cmq già che ci sono kiedo un'altra cosa...sec voi (se quindi ci sta in lunghezza) sarà possibile un futuro up in crossfire cn una seconda 2900? sempre in termini di spazio intendo...
grazie
ciao a tutti

3DMark79
12-07-2007, 11:22
Ciao raga...sto attuando un progetto...ma prima di far cazzate, vorrei sapere se secondo voi ci sta in lunghezza la skeda HD2900XT nel case COOLERMASTER MYSTIQUE 632...perchè non riesco a trovare le dimensioni della skeda!!!!
cmq già che ci sono kiedo un'altra cosa...sec voi (se quindi ci sta in lunghezza) sarà possibile un futuro up in crossfire cn una seconda 2900? sempre in termini di spazio intendo...
grazie
ciao a tutti

Penso che non ci siano grossi problemi nel montarla visto le dimensioni standard del case 480 x 205 x 445mm.E se dovesse entrarci una non vedo perchè non sia possibile montarne un'altra,anche se imho non so se ti conviene tanto visto gli eccessivi consumi e calcola che almeno dovrai prendere un buon Ali da circa 60A sulla linea +12V e non so se basti!

Tidus.hw
12-07-2007, 11:26
ehi domani prendo lo stipendio e finalmente posso ordinare la 2900! >.<
non sto piu' nella pelle... non e' che potreste consigliarmi un negozio dove posso prenderla a buon prezzo??? (in pvt)

grazie! :D

3DMark79
12-07-2007, 11:30
@ Annihilator_86
Anche sulle ddr4 le faranno entrambe? cioè seguiranno come la 80 nm che hanno fatto solo la 1gb da ddr4?

Non penso faranno la HD2900XT da 512MB DDR4.
Se faranno la HD2900XT a 65nm sarà fatta imho sia quella da 512MB DDR3 che quella da 1GB DDR4.

Fonus
12-07-2007, 12:01
Penso che non ci siano grossi problemi nel montarla visto le dimensioni standard del case 480 x 205 x 445mm.E se dovesse entrarci una non vedo perchè non sia possibile montarne un'altra,anche se imho non so se ti conviene tanto visto gli eccessivi consumi e calcola che almeno dovrai prendere un buon Ali da circa 60A sulla linea +12V e non so se basti!

grazie...cmq per consumi ecc dovrò vedere..il PC che ho in firma non c'entra nulla..se lo faccio, lo incentro sul crossfire, e quindi su un'ottima alimentazione...grazie...vedrò se riesco a farcela stare in quel case..

Shinkaz
12-07-2007, 12:15
ragazzi illuminatemi, ho la hd 2900xt, in dotazione nn c'erano cavetti di ali, il mio ali invece ha 2 connettori pci exp a 6 pin, attaccati entrambi, la scheda lavora a 500mhz sia x le mem ke x il core, il cavo a 8pin dove diavolo lo recupero?? nn voglio cambiare ali x un cavetto cretino. mi helpate?

MonsterMash
12-07-2007, 12:18
ehi domani prendo lo stipendio e finalmente posso ordinare la 2900! >.<
non sto piu' nella pelle... non e' che potreste consigliarmi un negozio dove posso prenderla a buon prezzo??? (in pvt)

grazie! :D

Su questo thread trovi un'elenco di negozi che vendono la 2900xt:
http://www.hwupgrade.it/forum/showthread.php?t=1484107

Ciao

MonsterMash
12-07-2007, 12:22
ragazzi illuminatemi, ho la hd 2900xt, in dotazione nn c'erano cavetti di ali, il mio ali invece ha 2 connettori pci exp a 6 pin, attaccati entrambi, la scheda lavora a 500mhz sia x le mem ke x il core, il cavo a 8pin dove diavolo lo recupero?? nn voglio cambiare ali x un cavetto cretino. mi helpate?

La scheda lavora a 500 mhz quando è in modalità 2d. Quando apri un'applicazione 3d le frequenze switchano automaticamente a quelle giuste.
Se il tuo ali ha già 2 cavi da 6 pin, allora sicuramente è un ottimo alimentatore, e cambiarlo sarebbe una cavolata. Sebbene non si trovino in giro gli adattatori 6pin -> 8pin, esiste una semplice mod che ti permette di "ingannare" la scheda e farle credere che stai usando un cavo a 8 pin. Ma secondo me non ha senso ne' scervellarsi a cercare un alimentatore con cavo a 8 pin, ne' eseguire la mod, visto che la scheda funziona in maniera identica anche con i 2 x 6pin, compreso overclock, a patto di farlo con un software esterno quale AMDGPUClockTool, ATITool, o (meglio di tutti per il momento) rivatuner.

Ciao

3DMark79
12-07-2007, 12:31
ragazzi illuminatemi, ho la hd 2900xt, in dotazione nn c'erano cavetti di ali, il mio ali invece ha 2 connettori pci exp a 6 pin, attaccati entrambi, la scheda lavora a 500mhz sia x le mem ke x il core, il cavo a 8pin dove diavolo lo recupero?? nn voglio cambiare ali x un cavetto cretino. mi helpate?

Cosi basso le frequenze!?!:eek:
Possibile sia downclokkata!?!
Ma che marca è?Cmq non penso cambi con il cavetto a 8 pin però se hai intenzione di farlo non penso sia tanto difficile farlo artigianalmente.Se hai letto le nostre discussioni di ieri SenderoLuminoso lo ha già fatto e funzionava perfettamente.Bisogna aggiungere 2 fili neri (negativi)per completare gli 8.Se hai qualche vecchio ali rotto con i 4 pin che alimentano la CPU puoi prenderlo da lì e tagliarlo in due così avrai quei 2 pin che ti servono e vai a collegarli a qualche filo NERO (negativo mi raccomando).Dopo di chè lo inserisci nei 2 pin mancanti della scheda video.Penso sia fattibile!;)

3DMark79
12-07-2007, 12:35
La scheda lavora a 500 mhz quando è in modalità 2d. Quando apri un'applicazione 3d le frequenze switchano automaticamente a quelle giuste.

Ciao

Capisco!

safendi
12-07-2007, 12:38
che driver mi consigliate x questa skeda video?

Catan
12-07-2007, 12:55
che driver mi consigliate x questa skeda video?

solo e unicamente quelli ufficiali...i 7.6.
nn è come nvidia che lasciano mille beta e nn si capisce quale bene ti va bene...metti gli ufficiali e solitamente se hai qualche problemuccio basta pazientare 1 mesetto per avere i nuovi dvr ufficiali che dovrebbero risolverlo.

Tidus.hw
12-07-2007, 12:56
che driver mi consigliate x questa skeda video?

i 7.6 ufficiali con gli hotfix :)

safendi
12-07-2007, 12:58
solo e unicamente quelli ufficiali...i 7.6.
nn è come nvidia che lasciano mille beta e nn si capisce quale bene ti va bene...metti gli ufficiali e solitamente se hai qualche problemuccio basta pazientare 1 mesetto per avere i nuovi dvr ufficiali che dovrebbero risolverlo.

sui driver non bisogna lamentarsi con nvidia, ci sono mille driver appunto x non fare aspettare 1 mese. domani dovrebbe arrivarmi un'altro pc con la 2900xt, così vedrò le differenze in tempo reale, dato ke quello in firma l'ho ancora

Shinkaz
12-07-2007, 13:08
La scheda lavora a 500 mhz quando è in modalità 2d. Quando apri un'applicazione 3d le frequenze switchano automaticamente a quelle giuste.
Se il tuo ali ha già 2 cavi da 6 pin, allora sicuramente è un ottimo alimentatore, e cambiarlo sarebbe una cavolata. Sebbene non si trovino in giro gli adattatori 6pin -> 8pin, esiste una semplice mod che ti permette di "ingannare" la scheda e farle credere che stai usando un cavo a 8 pin. Ma secondo me non ha senso ne' scervellarsi a cercare un alimentatore con cavo a 8 pin, ne' eseguire la mod, visto che la scheda funziona in maniera identica anche con i 2 x 6pin, compreso overclock, a patto di farlo con un software esterno quale AMDGPUClockTool, ATITool, o (meglio di tutti per il momento) rivatuner.

Ciao

va bè ma in questo modo,nn posso cloccarla visto ke sta sempre a 500mhz, x salire + dei suoi 740mhz come faccio?, con le altre ati era diverso... a me cmq resta il dubbio ke la scheda nn funga correttamente senza il cavo a 8 pin...
la cosa bella e con il software amd ati mi vede le frequenze correttamente con il pannello di controllo ati, invece no...

Catan
12-07-2007, 13:30
sui driver non bisogna lamentarsi con nvidia, ci sono mille driver appunto x non fare aspettare 1 mese. domani dovrebbe arrivarmi un'altro pc con la 2900xt, così vedrò le differenze in tempo reale, dato ke quello in firma l'ho ancora

no no nn mi lamento affatto a aprte che ho anche una 8800gts
sono 2 modi di vedere il supporto all'utente.
nvidia ha consolidato una politica di 1 dvr ufficiale ogni 3 mesi e miriadi di beta che l'utente si puo provare a suo rischio e pericolo.
ati preferisce invece garantire un supporto mensile ufficiale in cui mediamente i dvr che portano boost prestazionali in tutto escono ogni 2 o 3 mesi e le 2 release ufficiali che intervallano queste uscite sono delle patch per correggere i problemi di conpatibilità riscontrati con al release precendente e se mai migliorare il supporto di performaces sui singolo giochi interessati.

3DMark79
12-07-2007, 13:33
Possibile una scheda tra HD2600XT e una HD2900XT staremo a vedere...:sob:

http://www.tomshw.it/news.php?newsid=10754

MonsterMash
12-07-2007, 14:07
va bè ma in questo modo,nn posso cloccarla visto ke sta sempre a 500mhz, x salire + dei suoi 740mhz come faccio?, con le altre ati era diverso... a me cmq resta il dubbio ke la scheda nn funga correttamente senza il cavo a 8 pin...
la cosa bella e con il software amd ati mi vede le frequenze correttamente con il pannello di controllo ati, invece no...

La scheda non sta sempre a 500 mhz, per clocckarla devi usare o l'AMDCGPUClock utility, o l'atitool (che però da' ancora qualche problema), o il rivatuner, che pare funzionare meglio degli altri.

Dopo che avrai effettuato l'OC, la scheda resterà cmq a 500 mhz fino a quando non avvierai un'applicazione 3d. A quel punto passerà alle nuove frequenze 3d impostate. Il sistema non è diverso da quello delle precedenti schede ati.
Per quanto riguarda la funzionalità senza cavetto a 8 pin, puoi anche non fidarti di me, ma fidati degli altri 20-30 utenti che hanno la scheda in questo forum, dei quali solo 3 o 4 la alimentano con il cavetto a 8 pin.

Per toglierti ogni dubbio, ti basta fare un rapido 3d mark e vedere se i tuoi risultati sono il linea.

Ciao

Catan
12-07-2007, 14:09
Possibile una scheda tra HD2600XT e una HD2900XT staremo a vedere...:sob:

http://www.tomshw.it/news.php?newsid=10754

a parte che lo afferma anche il personale ati intervistato da hw.
su questo furum gira da tempo illazione su una vga tra la fascia 200-300E e si parla di un rv370 versione semplificata di r600 a 65nm diciamo l'erede della x1950pro con un bus a 256bit esterno e 512bit interno(come le x19x0 per intenderci) e 240sp a questo punto immagino con gddr3 o anche 4.
che nsomma per un prezzo di 250E non sarebbe manco troppo male!

Catan
12-07-2007, 14:10
ragazzi scusate ma ho un attimo di defaiance.
allora la 2900 con 1 connettore 6pin si avvia ma senza oc oppure è possibile oc con software di terze parti(amdclock o riva?)
oppure per abilitare l'oc tramite software di terze parti tocca mettere il 6pin+6pin lasciando i primi 2 pin dell'8pin sulla scheda liberi?

Tidus.hw
12-07-2007, 14:14
ragazzi scusate ma ho un attimo di defaiance.
allora la 2900 con 1 connettore 6pin si avvia ma senza oc oppure è possibile oc con software di terze parti(amdclock o riva?)
oppure per abilitare l'oc tramite software di terze parti tocca mettere il 6pin+6pin lasciando i primi 2 pin dell'8pin sulla scheda liberi?

6+6 -> oc con tool di terze parti

6+8 -> oc anche tramite driver (overdrive)

capito?

×§ñåkê×
12-07-2007, 14:14
sui driver non bisogna lamentarsi con nvidia, ci sono mille driver appunto x non fare aspettare 1 mese. domani dovrebbe arrivarmi un'altro pc con la 2900xt, così vedrò le differenze in tempo reale, dato ke quello in firma l'ho ancora

e ritorna :D

ma tu non eri quello che odiava la hd2900xt? per non parlare della firma che avevi? :doh:

Defragg
12-07-2007, 14:16
ragazzi scusate ma ho un attimo di defaiance.
allora la 2900 con 1 connettore 6pin si avvia ma senza oc oppure è possibile oc con software di terze parti(amdclock o riva?)
oppure per abilitare l'oc tramite software di terze parti tocca mettere il 6pin+6pin lasciando i primi 2 pin dell'8pin sulla scheda liberi?

no la scheda vuole minimo i 2x6 pin o non si avvia :)
credo :stordita:

safendi
12-07-2007, 14:16
e ritorna :D

ma tu non eri quello che odiava la hd2900xt? per non parlare della firma che avevi? :doh:

ho voluto comprarla lo stesso, mi occorreva un nuovo pc e visto i prezzi bassi di ram, cpu e tutto l'ho preso simile al mio in firma solo con la 2900 dato ke mi occorre come pc scorta

MonsterMash
12-07-2007, 14:17
no la scheda vuole minimo i 2x6 pin o non si avvia :)
credo :stordita:

Esatto. Anzi, leggevo che si avviava, ma funzionava solo in 2d. Ma non ha senso anche solo pensare di tenerla in questo modo :)

Defragg
12-07-2007, 14:20
e ritorna :D

ma tu non eri quello che odiava la hd2900xt? per non parlare della firma che avevi? :doh:

ho voluto comprarla lo stesso, mi occorreva un nuovo pc e visto i prezzi bassi di ram, cpu e tutto l'ho preso simile al mio in firma solo con la 2900 dato ke mi occorre come pc scorta

com'è il detto? chi disprezza, compra :asd:

safendi
12-07-2007, 14:22
com'è il detto? chi disprezza, compra :asd:
xè so ke è meglio della gts, e questo non l'ho mai negato, e dato ke si trattava di un pc scorta (identico al mio a parte della p5wdh ke ho preso la p5k w-fi deluxe) non valeva la pena della 8800 gtx, anke xè ce l'ho già, allora mi son detto " cia che la proviamo"

Shinkaz
12-07-2007, 14:23
La scheda non sta sempre a 500 mhz, per clocckarla devi usare o l'AMDCGPUClock utility, o l'atitool (che però da' ancora qualche problema), o il rivatuner, che pare funzionare meglio degli altri.

Dopo che avrai effettuato l'OC, la scheda resterà cmq a 500 mhz fino a quando non avvierai un'applicazione 3d. A quel punto passerà alle nuove frequenze 3d impostate. Il sistema non è diverso da quello delle precedenti schede ati.
Per quanto riguarda la funzionalità senza cavetto a 8 pin, puoi anche non fidarti di me, ma fidati degli altri 20-30 utenti che hanno la scheda in questo forum, dei quali solo 3 o 4 la alimentano con il cavetto a 8 pin.

Per toglierti ogni dubbio, ti basta fare un rapido 3d mark e vedere se i tuoi risultati sono il linea.

Ciao

ciao, nn ho detto ke nn mi fido di te, anzi, grazie tante x i chiarimenti, x quanto riguarda le vekkie ati, io ho avuto x 2 anni la x850xt e le frequenze erano cmq standard nn si abbassavano quando nn giocavo.

altra curiosità, quando apro il catalyst control center, nn trovo la videata x vedere temp e frequenze ovvero ati overdrive, xke??

×§ñåkê×
12-07-2007, 14:25
com'è il detto? chi disprezza, compra :asd:

già :asd:

MonsterMash
12-07-2007, 14:26
ciao, nn ho detto ke nn mi fido di te, anzi, grazie tante x i chiarimenti, x quanto riguarda le vekkie ati, io ho avuto x 2 anni la x850xt e le frequenze erano cmq standard nn si abbassavano quando nn giocavo.

altra curiosità, quando apro il catalyst control center, nn trovo la videata x vedere temp e frequenze, xke??

Figurati, non volevo dire che non ti fidi di me :P
Per le schede ati precedenti, non mi ricordo come funzionava la seria x800, ma io ho avuto la x1900xt prima di questa, e funzionava allo stesso modo. Del resto, visti i consumi di queste schede, non avrebbe senso tenere le frequenze e i voltaggi agli stessi livelli sia in 2d che in 3d.
Purtroppo senza il cavetto da 8 pin dal CCC non si possono vedere temperature e frequenze. Ne' controllare la ventola. Per tutte queste cose devi rivolgerti ai soliti sw di terze parti.

Ciao

zorco
12-07-2007, 14:27
ragazzi scusate ma ho un attimo di defaiance.
allora la 2900 con 1 connettore 6pin si avvia ma senza oc oppure è possibile oc con software di terze parti(amdclock o riva?)
oppure per abilitare l'oc tramite software di terze parti tocca mettere il 6pin+6pin lasciando i primi 2 pin dell'8pin sulla scheda liberi?
io uso 2x6 pin e rivatuner per oc..

ciao

Shinkaz
12-07-2007, 14:28
Figurati, non volevo dire che non ti fidi di me :P
Per le schede ati precedenti, non mi ricordo come funzionava la seria x800, ma io ho avuto la x1900xt prima di questa, e funzionava allo stesso modo. Del resto, visti i consumi di queste schede, non avrebbe senso tenere le frequenze e i voltaggi agli stessi livelli sia in 2d che in 3d.
Purtroppo senza il cavetto da 8 pin dal CCC non si possono vedere temperature e frequenze. Ne' controllare la ventola. Per tutte queste cose devi rivolgerti ai soliti sw di terze parti.

Ciao

xo nn ho la schermata dell'ati overdrive, why?

MonsterMash
12-07-2007, 14:30
xo nn ho la schermata dell'ati overdrive, why?

L'intera schermata dell'overdrive nei CCC è disabilitata se non si collega il cavetto da 8 pin.

Ciao

3DMark79
12-07-2007, 14:30
a parte che lo afferma anche il personale ati intervistato da hw.
su questo furum gira da tempo illazione su una vga tra la fascia 200-300E e si parla di un rv370 versione semplificata di r600 a 65nm diciamo l'erede della x1950pro con un bus a 256bit esterno e 512bit interno(come le x19x0 per intenderci) e 240sp a questo punto immagino con gddr3 o anche 4.
che nsomma per un prezzo di 250E non sarebbe manco troppo male!

Ovviamente ti riferisci al RV670 cmq addirittura parlano di utilizzarlo a 55nm e certamente non può che far piacere ma imho sarebbe dovuto uscire da subito se volevano contrastare Nvidia in quel settore.Se uscirà ne 2008 allora buonanotte...chissà con cosa se ne usciranno gli avversari!:O

Shinkaz
12-07-2007, 14:32
L'intera schermata dell'overdrive nei CCC è disabilitata se non si collega il cavetto da 8 pin.

Ciao

uff... ma oltre a farlo in casa il cavetto, nn si vende da nessuna parte??:muro:

MonsterMash
12-07-2007, 14:37
uff... ma oltre a farlo in casa il cavetto, nn si vende da nessuna parte??:muro:

Avevo letto che i rivenditori autorizzati enermax lo vendevano, ma non so se si tratta di un adattatore, o di un cavo apposito da attaccare agli alimentatori modulari enermax (e quindi funzionante solo per quelli).
Ma cmq, perchè non usi rivatuner? Ti risparmi un sacco di sbattimenti. E ti risparmi anche la pesantezza del CCC, che tra l'altro ha anche meno funzionalità.

Ciao

Shinkaz
12-07-2007, 15:20
ok allora x ora lascio tutto cosi com'è... ora attendo ke si vendano i blocchi x il liquido sulla hd2900... voglio mettere a liquido tutta la skeda... attendo...:D

appena arriva il nuovo hw faccio test a default.

q6600
2*1gb g.skill 800mhz
asus commando

:D

3DMark79
12-07-2007, 16:27
ok allora x ora lascio tutto cosi com'è... ora attendo ke si vendano i blocchi x il liquido sulla hd2900... voglio mettere a liquido tutta la skeda... attendo...:D

appena arriva il nuovo hw faccio test a default.

q6600
2*1gb g.skill 800mhz
asus commando

:D

Ho visto quello hai fatto in passato...e che continui a fare...
e devo farti grandi complimenti Shinkaz ce l'hai nel saugue a fare il modder!:mano:

appleroof
12-07-2007, 16:36
edit

Defragg
12-07-2007, 16:37
:rotfl:

sarà il solito clone :rolleyes: :banned:

Poliphilo
12-07-2007, 16:52
ok allora x ora lascio tutto cosi com'è... ora attendo ke si vendano i blocchi x il liquido sulla hd2900... voglio mettere a liquido tutta la skeda... attendo...:D

appena arriva il nuovo hw faccio test a default.

q6600
2*1gb g.skill 800mhz
asus commando

:D

Io ce l'ho già a liquido.

webbuffa
12-07-2007, 17:03
:eek: Raga!! :eek:

Come diceva la mail :D l'adattatore 8 pin è in vendita presso gli shop UFFICIALI Enermax :D !!
Ecco lo screen (http://web.tiscali.it/buffa87/Immagini/HD2900XT/adattatore.png) con l'overdrive!! :D

Ciao all! :eek:

Tidus.hw
12-07-2007, 17:14
:eek: Raga!! :eek:

Come diceva la mail :D l'adattatore 8 pin è in vendita presso gli shop UFFICIALI Enermax :D !!
Ecco lo screen (http://web.tiscali.it/buffa87/Immagini/HD2900XT/adattatore.png) con l'overdrive!! :D

Ciao all! :eek:

ma è un adattatore o un cavo compatibile solo con gli enermax?

webbuffa
12-07-2007, 17:16
ma è un adattatore o un cavo compatibile solo con gli enermax?

:) è un adattatore pciexpress però ha due prese che vanno nell'ali, una è completa (6pin normali) e l'altra è 5 pin e due funzionanti. Quindi bisogna avere almeno 3 porte Pciexpress sull'ali... altrimenti non è compatibile. :cool:

Shinkaz
12-07-2007, 17:17
Ho visto quello hai fatto in passato...e che continui a fare...
e devo farti grandi complimenti Shinkaz ce l'hai nel saugue a fare il modder!:mano:

grazie tante... è in cantiere un nuovo lavoro ispirato a un game famoso.. x ora niente 3d, appena i lavori proseguono apro il 3d tieni d'okkio la sez modding, o la mia firma, quando meno te l'aspetti apro il 3d e la ne vedrete delle belle :)

x quanto riguarda il cavo, da dove si puo comprare??????

linkkk

webbuffa
12-07-2007, 17:20
x quanto riguarda il cavo, da dove si puo comprare??????

linkkk


:D Link non esiste... devi andare da un fornitore autorizzato enermax, negozio quindi... :) io ho la fortuna di averlo a 100 metri da casa :) per questo ci ho messo poco :eek:

3DMark79
12-07-2007, 17:21
grazie tante... è in cantiere un nuovo lavoro ispirato a un game famoso.. x ora niente 3d, appena i lavori proseguono apro il 3d tieni d'okkio la sez modding, o la mia firma, quando meno te l'aspetti apro il 3d e la ne vedrete delle belle :)

x quanto riguarda il cavo, da dove si puo comprare??????

linkkk

Mi sa che sarà difficile che possa trovarlo.
Ma sai modificare un PC e non riesci a farti un cavetto...dai!:D

Shinkaz
12-07-2007, 17:21
:D Link non esiste... devi andare da un fornitore autorizzato enermax, negozio quindi... :) io ho la fortuna di averlo a 100 metri da casa :) per questo ci ho messo poco :eek:

anke qui ti chiedo foto del tutto montato sul tuo sistema dai dai postaaaaaaa

webbuffa
12-07-2007, 17:23
anke qui ti chiedo foto del tutto montato sul tuo sistema dai dai postaaaaaaa

:) addami ad msn e ti faccio vedere in diretta :)

DVD2005
12-07-2007, 17:24
:) addami ad msn e ti faccio vedere in diretta :)

posta qualcosa anche qui :)

webbuffa
12-07-2007, 17:24
posta qualcosa anche qui :)

:) dopo, ora voglio giocare un pò. :D

DVD2005
12-07-2007, 17:29
:) dopo, ora voglio giocare un pò. :D

come darti torto ;)

webbuffa
12-07-2007, 17:31
come darti torto ;)

:) alla fine con una foto manco si capisce.... è solo una presa rossa che entra nella scheda :eek:

http://enermax.it/image.asp?file=D:\Home\enermax\upload\foto\1264_emc008_aa.jpg&dimen=348

P.S. per chi ha vista :) la dimostrazione dell'applicazione o meno dei filtri è animata ? Ora me la trovo animata con differenza prima e dopo :|!! però non ricordo se prima era cosi'... non ci ho mai fatto caso :|

DVD2005
12-07-2007, 17:32
:) alla fine con una foto manco si capisce.... è solo una presa rossa che entra nella scheda :eek:

http://enermax.it/image.asp?file=D:\Home\enermax\upload\foto\1264_emc008_aa.jpg&dimen=348

io pensavo si riferisse a tutto il sistema ;)

Shinkaz
12-07-2007, 17:43
:) addami ad msn e ti faccio vedere in diretta :)

sono al lavoro msn nn posso usarlo

cmq snake_17@hotmail.com manda la foto tramite mail :D

ma quindi occupa 2 pin da 6??:eek:

webbuffa
12-07-2007, 17:45
ma quindi occupa 2 pin da 6??:eek:

:eek: Esatto!! se non hai la serie DXX devi avere un ali con almeno 3 Prese 6 Pin!! :| altrimenti non alimenti non funziona 8|!!

×§ñåkê×
12-07-2007, 17:46
per chi ha vista :) la dimostrazione dell'applicazione o meno dei filtri è animata ? Ora me la trovo animata con differenza prima e dopo :|!! però non ricordo se prima era cosi'... non ci ho mai fatto caso :|

animata, dici che senza 8 pin resterebbe fissa? strano :mbe:

webbuffa
12-07-2007, 17:49
animata, dici che senza 8 pin resterebbe fissa? strano :mbe:

:eek: Si! Su xp è sempre fissa c'è l'immagine fissa che si corregge man mano che aggiungi il filtraggio. Qui invece è in 3d e fa vedere la differenza prima e dopo l'applicazione.

Potrei anche sbagliarmi eh, qualcuno conferma ?

Tidus.hw
12-07-2007, 17:52
:eek: Si! Su xp è sempre fissa c'è l'immagine fissa che si corregge man mano che aggiungi il filtraggio. Qui invece è in 3d e fa vedere la differenza prima e dopo l'applicazione.

Potrei anche sbagliarmi eh, qualcuno conferma ?

da me è animata perfino con la x550 :asd:

×§ñåkê×
12-07-2007, 17:52
:eek: Si! Su xp è sempre fissa c'è l'immagine fissa che si corregge man mano che aggiungi il filtraggio. Qui invece è in 3d e fa vedere la differenza prima e dopo l'applicazione.

Potrei anche sbagliarmi eh, qualcuno conferma ?

su xp è sempre stata fissa :sofico:

webbuffa
12-07-2007, 17:53
da me è animata perfino con la x550 :asd:

:) Perfetto allora era una mia illusione... non ci avevo mai fatto caso, chiedo venia :D

M4R1|<
12-07-2007, 17:57
per non parlare di questo...http://www.tomshw.it/graphic.php?guide=20070709&page=schede_video_directX_10_prima_generazione-01

:doh:

bho, il discorso di R600, mi ha lasciato un po' così (quello del suo ritardo) no so, anch'io speravo che R600 avrebbe rivaleggiato con la GTX, a oggi nn è successo ma cmq si vede che in alcuni game supera persino la Ultra, e cmq la differenza nella maggiorparte dei game con la GTX è minima; però quello che mi lascia più scosso è che Dave Orton aveva detto che G80 non sarebbe sato un problema, bo sono confuso sinceramente inizo a pensare che l'acquisizione di ATI da parte di AMD nn sia proprio una cosa giusta, bho:confused: :confused:

Tidus.hw
12-07-2007, 18:03
bho, il discorso di R600, mi ha lasciato un po' così (quello del suo ritardo) no so, anch'io speravo che R600 avrebbe rivaleggiato con la GTX, a oggi nn è successo ma cmq si vede che in alcuni game supera persino la Ultra, e cmq la differenza nella maggiorparte dei game con la GTX è minima; però quello che mi lascia più scosso è che Dave Orton aveva detto che G80 non sarebbe sato un problema, bo sono confuso sinceramente inizo a pensare che l'acquisizione di ATI da parte di AMD nn sia proprio una cosa giusta, bho:confused: :confused:

infatti le 8800 non sono un problema... le 2900 vanno letterlamente a ruba :)

Catan
12-07-2007, 18:04
Ovviamente ti riferisci al RV670 cmq addirittura parlano di utilizzarlo a 55nm e certamente non può che far piacere ma imho sarebbe dovuto uscire da subito se volevano contrastare Nvidia in quel settore.Se uscirà ne 2008 allora buonanotte...chissà con cosa se ne usciranno gli avversari!:O

si si rv670 volevo correggere ma mi sn scordato di editare:D
cmq gia i 55nm nn sarebbero male anche se viste le tempistiche ricuramente nn sarebbero cosi fini da ottenere clock altissimi anche se oggettivamente un 600mhz andrebbero benissimo x questa vga.
purtroppo ati adesso nn ha + potere decisionale nelle vendite ma lo decide amd e secondo me amd con r600 ci ha messo anche troppo a farlo uscire speriamo che con questa nn si ripeta l'errore e credo che oggettivamente sia abbastanza facile da far uscire nsomma il processo a 65nm lo hanno con la 2600 ed è abbastanza avanzato da garantire i 600mhz di core.
il pcb e bus non sarebbe nemmeno troppo difficile da riadattare quello della x1950pro.
io credo che se volessero a settembre l'avrebbero pronta.
e con nvidia che ha lo stesso buco tra la 8600gts e la 8800gts 320mb si potrebbero realizzare vendite soddisfacenti

appleroof
12-07-2007, 18:15
cut

e con nvidia che ha lo stesso buco tra la 8600gts e la 8800gts 320mb si potrebbero realizzare vendite soddisfacenti

per questo c'è chi (in verità sempre informatissimo su Nvidia) sostiene che in quel caso avrebbe già pronta una "8800gt", o al limite l'arma dell' ulteriore abbassamento del prezzo della 8800gts320

Per come si sono messe le cose in questi ultimi mesi, a causa del ritardo Ati, Nvidia ha il privilegio di limitarsi ad aspettare cosa fa l'altra, in qualunque fascia, non stà a lei la prima mossa per ora, poi si vedrà ;)

SenderoLuminoso
12-07-2007, 19:42
Adesso capisco parli per XP.
Dunque si suppone anche un miglior raffreddamento per la RAM Video giusto?
Facci sapere come si comporta la bestiolina!
Ti volevo chiedere ma sai se il nostro Silverstone ST65ZF utilizza una singola linea +12V3 per entrambi cavi a 6 pin PCI-E visto che sono di colore diverso?Nel manuale non l'ho capito!
Ed i 42A tutte le linee +12V combinati,45A di peak quando vengono utilizzate?Quando qualche linea ha bisogno di più corrente per alimentare qualcosa?
Queste cose on le so... So che ho usato due linee per fare il conettore da 8 quella della 6 pin pci-e e quella del conettore tipo pci.e che io non usavo forse sara' per il p4, e o preso i neutri da li. Quindi chi ha detto che funzionava solo se era la stessa linea ha sbagliato. Alla fine ho preso i due neutri da una linea a se. Il famoso ocnettore a 6pin ch e on so a che serva.

M4R1|<
12-07-2007, 19:50
infatti le 8800 non sono un problema... le 2900 vanno letterlamente a ruba :)

si infatti hai ragione, effettivamente questa scheda da delle presazioni mostruose, e ha un prezzo davvero accessibile, tanto che sto pensando di farmi un CF :D appena scende di prezzo (appena va tipo sotto i 300), cosa davvero impossibile (per le mie finanze) da fare con una GTX, figurimoci con le Ultra.

Catan
12-07-2007, 20:02
per questo c'è chi (in verità sempre informatissimo su Nvidia) sostiene che in quel caso avrebbe già pronta una "8800gt", o al limite l'arma dell' ulteriore abbassamento del prezzo della 8800gts320

Per come si sono messe le cose in questi ultimi mesi, a causa del ritardo Ati, Nvidia ha il privilegio di limitarsi ad aspettare cosa fa l'altra, in qualunque fascia, non stà a lei la prima mossa per ora, poi si vedrà ;)

oggettivamente nvidia potrebbe avere una bella mossa in una vga con 64spe e un bus a 256bit e frequenze alte anche se a questo punto converrebbe togliere la 8800gts da 320mb in modo da abbassare i costi(sicuramente un g80 gli costa di questo ipotetico "g86") era lo stesso quesito che si ponevano in molti all'uscita delle 8600gts che sperano avesse 64spe.
credo che una 8600gts con 64spe e anche il bus a 128bit ma con ram a 2200mhz sarebbe competitva in questo campo!

pierluigi86
12-07-2007, 22:31
oggettivamente nvidia potrebbe avere una bella mossa in una vga con 64spe e un bus a 256bit e frequenze alte anche se a questo punto converrebbe togliere la 8800gts da 320mb in modo da abbassare i costi(sicuramente un g80 gli costa di questo ipotetico "g86") era lo stesso quesito che si ponevano in molti all'uscita delle 8600gts che sperano avesse 64spe.
credo che una 8600gts con 64spe e anche il bus a 128bit ma con ram a 2200mhz sarebbe competitva in questo campo!

io sono sempre convinto che i prezzi dell' hardware ai produttori sia sempre bassissimo, e se produrranno una 8800 gt, al posto di una 8800 gts ulteriormente ribassata di prezzi è perché non vogliono far diventare la 8800 gts 640 una scheda inutile e non conveniente.

3DMark79
12-07-2007, 23:21
Queste cose on le so... So che ho usato due linee per fare il conettore da 8 quella della 6 pin pci-e e quella del conettore tipo pci.e che io non usavo forse sara' per il p4, e o preso i neutri da li. Quindi chi ha detto che funzionava solo se era la stessa linea ha sbagliato. Alla fine ho preso i due neutri da una linea a se. Il famoso ocnettore a 6pin ch e on so a che serva.

Il neutro cioè il negativo penso che sia unico per tutte le linee dell'alimentatore,ci credo che è una gran fesseria dire che bisogna prendere il negativo della stessa linea!Le varie linee dovrebbero differenziarsi solo dai vari positivi,correggetemi se sbaglio.

×§ñåkê×
12-07-2007, 23:33
Il neutro cioè il negativo penso che sia unico per tutte le linee dell'alimentatore,ci credo che è una gran fesseria dire che bisogna prendere il negativo della stessa linea!Le varie linee dovrebbero differenziarsi solo dai vari positivi,correggetemi se sbaglio.

il cavo nero, è unico, per tutte le linee e non si chiama nè negativo, nè neutro, ma massa ;)

3DMark79
12-07-2007, 23:59
il cavo nero, è unico, per tutte le linee e non si chiama nè negativo, nè neutro, ma massa ;)

Quanto sei pignolo!:Prrr:
Hai confermato ciò che pensavo.:read: :D

×§ñåkê×
13-07-2007, 00:12
Quanto sei pignolo!:Prrr:
Hai confermato ciò che pensavo.:read: :D

quindi per la mod a 8 pin basta fare questo?

http://img526.imageshack.us/img526/6167/pontedg2.th.jpg (http://img526.imageshack.us/my.php?image=pontedg2.jpg)

:confused: