View Full Version : [THREAD UFFICIALE] ATI Radeon X1900 Series
Pagine :
1
2
3
4
[
5]
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Non ne ho fretta. :O
Poi sai com'è, mai dire mai. :p
Agilulfo
04-12-2006, 10:05
Non ne ho fretta. :O
Poi sai com'è, mai dire mai. :p
infatti questione di tempo ....
io voglio l' astronave nuova al posto della mia opel corsa :D ;)
gianlu75xp
04-12-2006, 11:26
Agilulfo, sistema la sign prima che la veda Wiltord.... è vagamente fuori regolamento :p
Agilulfo, sistema la sign prima che la veda Wiltord.... è vagamente fuori regolamento :p
eccomi :cool:
max 3 righe a 1024 grazie.
Agilulfo
04-12-2006, 12:58
eccomi :cool:
max 3 righe a 1024 grazie.
ooook
ora edito
Agilulfo
04-12-2006, 13:01
editato
pissicchia
04-12-2006, 13:49
ma ndo sta la classifica del 3dmark
ma ndo sta la classifica del 3dmark
se volete potete postare i vostri risultati qui
LINK (http://www.hwupgrade.it/forum/showthread.php?t=1331710&page=1&pp=20)
pissicchia
04-12-2006, 14:00
scusa io ho dato la mia foto a belin per la classifica che sta su sto sito, di la ci sono quattro gatti non c'è molto gusto.
scusa io ho dato la mia foto a belin per la classifica che sta su sto sito, di la ci sono quattro gatti non c'è molto gusto.
Mica si aggiorna automaticamente, appena puo' belin l'aggiornera'.
raga volendo collegare un lcd con ingresso HDMI alla nostra scheda come si fa?
dov'e' l'uscita HD sulla nostra vga?
davide155
05-12-2006, 16:42
raga volendo collegare un lcd con ingresso HDMI alla nostra scheda come si fa?
dov'e' l'uscita HD sulla nostra vga?
Il dvi :)
Ci sono i cavi che entrano in dvi ed escano in HDMI......il brutto è trovarli :p
Il dvi :)
Ci sono i cavi che entrano in dvi ed escano in HDMI......il brutto è trovarli :p
piu' che trovarli e' pagarli....costicchiano!
davide155
05-12-2006, 19:34
piu' che trovarli e' pagarli....costicchiano!
Si anche.....se non erro sui 20 euri lo trovi ;)
Il dvi :)
Ci sono i cavi che entrano in dvi ed escano in HDMI......il brutto è trovarli :p
ma poi la standard e' HDMI o dvi ottimizzato...mi spiego...ottengo l'alta definizione?
pincopaolino
05-12-2006, 23:45
State facendo un pò di confusione :O
lo standard è HDV e da queste sigla nascono tutte le altre! VIDEO ALTA DEFINIZIONE ;) High Definition Video (HDV) :cool: !
IN ALTERNATIVA NEL CAMPO DELLE TELEVISIONI HDTV (High Definition Television) ;)
MENTRE NEL CASO DEI CAVI E' High-Definition Multi-media Interface HDMI ;)
State facendo un pò di confusione :O
lo standard è HDV e da queste sigla nascono tutte le altre! VIDEO ALTA DEFINIZIONE ;) High Definition Video (HDV) :cool: !
IN ALTERNATIVA NEL CAMPO DELLE TELEVISIONI HDTV (High Definition Television) ;)
MENTRE NEL CASO DEI CAVI E' High-Definition Multi-media Interface HDMI ;)
...Per scendere nel dettaglio:
Lo standard HDMI supporta tre modalità di trasferimento del segnale video (standard, enhanced, alta definizione) e del segnale audio digitale multicanale, su un unico cavo.
Il connettore standard HDMI "Tipo A" è a 19 pin (il tipo B poco in uso e' utilizzato per risoluzioni piu' elevate.
L'HDMI tipo A è retrocompatibile con l'interfaccia DVI single-link attualmente usata sui monitor e schede grafiche per computer. In tal modo una sorgente di segnale DVI è in grado di gestire un monitor HDMI (o viceversa) attraverso un opportuno cavo o adattatore, anche se è necessario rinunciare all'audio e alle funzioni di controllo remoto previste dallo standard HDMI. Inoltre, in assenza del supporto per la tecnologia di protezione HDCP il dispositivo di visualizzazione potrebbe degradare la qualità e la risoluzione dell'immagine.
giusto per iscrivermi senno' perdo il thread :burp:
ma i bench di Ati Tray non si prendono in considerazione (sembra che stressino per bien vga_cpu_ram .. o no?)
http://img120.imageshack.us/img120/2097/attbenchx1900xt3800233xds4.jpg
pissicchia
06-12-2006, 10:43
ragazzi una domandina, ma i voltaggi come si aumentano sulla mia scheda madre?
@kean3d: sistema la sign, massimo 3 righe a 1024.
@pissicchia: domanda nel 3d della tua scheda madre.
...Per scendere nel dettaglio:
Lo standard HDMI supporta tre modalità di trasferimento del segnale video (standard, enhanced, alta definizione) e del segnale audio digitale multicanale, su un unico cavo.
Il connettore standard HDMI "Tipo A" è a 19 pin (il tipo B poco in uso e' utilizzato per risoluzioni piu' elevate.
L'HDMI tipo A è retrocompatibile con l'interfaccia DVI single-link attualmente usata sui monitor e schede grafiche per computer. In tal modo una sorgente di segnale DVI è in grado di gestire un monitor HDMI (o viceversa) attraverso un opportuno cavo o adattatore, anche se è necessario rinunciare all'audio e alle funzioni di controllo remoto previste dallo standard HDMI. Inoltre, in assenza del supporto per la tecnologia di protezione HDCP il dispositivo di visualizzazione potrebbe degradare la qualità e la risoluzione dell'immagine.
bene quindi con la nostra schda posso gestire perfettamente un lcd con ingresso hdmi...sempr trovando prima l'adattatore dvi->hdmi
bene quindi con la nostra schda posso gestire perfettamente un lcd con ingresso hdmi...sempr trovando prima l'adattatore dvi->hdmi
confermato! e non penso che avrai problemi a trovarlo "nel paese delle meraviglie" :D
il mondo del video digitale è conteso tra le connessioni DVI e HDMI, entrambe capaci di grosse prestazioni e grande qualità, la cui principale differenza riguarda la possibilità di veicolare anche l'audio, assente nella prima, cavallo di battaglia della seconda.
Tra l'altro come gia' saprai le schede di nuova generazione implementeranno insieme al DVI anche l'HDMI quindi quando un giorno cambierai scheda
l'adattatore DVI/HDMI non ti servira' piu',e spero che allora il cavo
HDMI/HDMI, che oggi costa un botto, venga incluso nel bandle, ma ne dubito. Quindi alla luce di quanto detto spendere oggi dei soldi per un cavo DVI/HDMI che rispetto ad un normale DVI/DVI non ti da nulla se non un audio digitale ,che su un pc non e' importante per ovvi motivi,non so se ne vale la pena ;)
gianni1879
07-12-2006, 21:51
è uscita una nuova versione di AtiTrayTool ;)
http://www.hwupgrade.it/download/file/2068.html
Tetsujin
08-12-2006, 00:06
un confronto tra E6600 a default con tutto il sistema a default rispetto al precedente sistema con Opteron @FX57
Conroe @def:
http://img383.imageshack.us/img383/1225/05e6600default10988zu5.th.jpg (http://img383.imageshack.us/my.php?image=05e6600default10988zu5.jpg)
FX57:
http://img504.imageshack.us/img504/1320/x1900xtdefault11035fx57fk2.th.jpg (http://img504.imageshack.us/my.php?image=x1900xtdefault11035fx57fk2.jpg)
posto il 2005 che è meno dual core dipendente rispetto al 2006
spaventoso questo Conroe :eek:
(la X1900 è a default in entrambi i test)
renax200
08-12-2006, 07:59
un confronto tra E6600 a default con tutto il sistema a default rispetto al precedente sistema con Opteron @FX57
Conroe @def:
http://img383.imageshack.us/img383/1225/05e6600default10988zu5.th.jpg (http://img383.imageshack.us/my.php?image=05e6600default10988zu5.jpg)
FX57:
http://img504.imageshack.us/img504/1320/x1900xtdefault11035fx57fk2.th.jpg (http://img504.imageshack.us/my.php?image=x1900xtdefault11035fx57fk2.jpg)
posto il 2005 che è meno dual core dipendente rispetto al 2006
spaventoso questo Conroe :eek:
(la X1900 è a default in entrambi i test)
mi sembra strano che comunque il conroe a default sia un po' sotto all'fx57 :confused:
io prima avevo un 170 @ 2.7 e il conroe stava sopra anche a default....forse sono io che ricordo male... :)
mi sembra strano che comunque il conroe a default sia un po' sotto all'fx57 :confused:
io prima avevo un 170 @ 2.7 e il conroe stava sopra anche a default....forse sono io che ricordo male... :)
bè considera che nel 2005 il secondo core non conta ;)
Tetsujin
08-12-2006, 11:46
mi sembra strano che comunque il conroe a default sia un po' sotto all'fx57 :confused:
io prima avevo un 170 @ 2.7 e il conroe stava sopra anche a default....forse sono io che ricordo male... :)
Non saprei, se riesci a recuperare uno screen mi fai un favore, così mi rendo conto se ho configurato male qualcosa.
Considera pero' che oltre all'FX57 anche le ram erano spinte, ed erano delle Geil OneS non ram qualunque :)
Adesso ho la cpu a default, le ram a default, il bios non l'ho manco toccato (ho semplicemente montato tutto cosi come è) e senza sforzo ho lo stesso punteggio della game machine di prima (in cui avevo impiegato settimane per ottimizzare tutto)
inoltre non sto ancora sfruttando il secondo core :D
confermato! e non penso che avrai problemi a trovarlo "nel paese delle meraviglie" :D
il mondo del video digitale è conteso tra le connessioni DVI e HDMI, entrambe capaci di grosse prestazioni e grande qualità, la cui principale differenza riguarda la possibilità di veicolare anche l'audio, assente nella prima, cavallo di battaglia della seconda.
Tra l'altro come gia' saprai le schede di nuova generazione implementeranno insieme al DVI anche l'HDMI quindi quando un giorno cambierai scheda
l'adattatore DVI/HDMI non ti servira' piu',e spero che allora il cavo
HDMI/HDMI, che oggi costa un botto, venga incluso nel bandle, ma ne dubito. Quindi alla luce di quanto detto spendere oggi dei soldi per un cavo DVI/HDMI che rispetto ad un normale DVI/DVI non ti da nulla se non un audio digitale ,che su un pc non e' importante per ovvi motivi,non so se ne vale la pena ;)
ok tutto compreso resta il fatto che adesso che mi arriva l'lcd dovro perforza trovare questo adattatore o altrimenti dovro' utilizzare l'ingresso pc standard ma poi non ottengo l'alta definizione e' mi dispiacerebbe un pochettino :(
poi ti chiedevo usando l'adattatore porterei solo il video in digitale...per l'audio? dovrei usare i soliti cavi rca?
ragazzi io dovrei cambiare la mia 1800xl per sostituirla con una 1900xt tanto per tirare avanti fino a giugno quando passerò alle schede dx10 e anche per avere un prodotto che mi ci faccia arrivare senza rossi problemi e che non mi costi un patrimonio col cambio(al massimo ci spenderò sui 100€) :D Volevo sapere una cosa però: io con la 1800xl giochi come gothic 3 e oblivion ho dei problemi a giocarli al max(e chi non ne ha con sti due titoli :muro: :D )ora volevo sapere una cosa con la 1900xt potrò giocarci al max dei dettagli?Calcolate che io non attiverei aa e userei una ris di 1024*768
ragazzi io dovrei cambiare la mia 1800xl per sostituirla con una 1900xt tanto per tirare avanti fino a giugno quando passerò alle schede dx10 e anche per avere un prodotto che mi ci faccia arrivare senza rossi problemi e che non mi costi un patrimonio col cambio(al massimo ci spenderò sui 100€) :D Volevo sapere una cosa però: io con la 1800xl giochi come gothic 3 e oblivion ho dei problemi a giocarli al max(e chi non ne ha con sti due titoli :muro: :D )ora volevo sapere una cosa con la 1900xt potrò giocarci al max dei dettagli?Calcolate che io non attiverei aa e userei una ris di 1024*768
con una risoluzione cosi' bassa e senza aa direi di si.
ok tutto compreso resta il fatto che adesso che mi arriva l'lcd dovro perforza trovare questo adattatore o altrimenti dovro' utilizzare l'ingresso pc standard ma poi non ottengo l'alta definizione e' mi dispiacerebbe un pochettino :(
poi ti chiedevo usando l'adattatore porterei solo il video in digitale...per l'audio? dovrei usare i soliti cavi rca?
Il discorso dell'audio portato dall'HDMI non si applica naturalmente ai pc perche' la scheda video portera 'sempre e soltanto il segnale video.
se il monitor e' multimediale quindi compreso di casse,e vuoi sfruttarle allora devi adeguarti ai connettori d'scita della scheda audio e quelli d'entrata del monitor.ciao
LightForce
08-12-2006, 16:55
ragazzi io dovrei cambiare la mia 1800xl per sostituirla con una 1900xt tanto per tirare avanti fino a giugno quando passerò alle schede dx10 e anche per avere un prodotto che mi ci faccia arrivare senza rossi problemi e che non mi costi un patrimonio col cambio(al massimo ci spenderò sui 100€) :D Volevo sapere una cosa però: io con la 1800xl giochi come gothic 3 e oblivion ho dei problemi a giocarli al max(e chi non ne ha con sti due titoli :muro: :D )ora volevo sapere una cosa con la 1900xt potrò giocarci al max dei dettagli?Calcolate che io non attiverei aa e userei una ris di 1024*768
ci giochi a 1280 con i filtri con la x1900 ;)
renax200
08-12-2006, 17:09
Non saprei, se riesci a recuperare uno screen mi fai un favore, così mi rendo conto se ho configurato male qualcosa.
Considera pero' che oltre all'FX57 anche le ram erano spinte, ed erano delle Geil OneS non ram qualunque :)
Adesso ho la cpu a default, le ram a default, il bios non l'ho manco toccato (ho semplicemente montato tutto cosi come è) e senza sforzo ho lo stesso punteggio della game machine di prima (in cui avevo impiegato settimane per ottimizzare tutto)
inoltre non sto ancora sfruttando il secondo core :D
vedo di recuperarti uno screen...cmq anche io non avevo ram da poco..2x512 G.skill PC4800LE extreme series settate a 315mhz 2.5-4-3-0 :cool:
Il discorso dell'audio portato dall'HDMI non si applica naturalmente ai pc perche' la scheda video portera 'sempre e soltanto il segnale video.
se il monitor e' multimediale quindi compreso di casse,e vuoi sfruttarle allora devi adeguarti ai connettori d'scita della scheda audio e quelli d'entrata del monitor.ciao
mi dicono sul thread della mia mobo che La scheda madre ha la possibilita' di collegare alla scheda video l'SPDIF.In pratica viene mandato il flusso digitale audio alla scheda video,e quindi viene trasmessa a alla presa HDMI se la VGA e' predisposta.
Chicco85
08-12-2006, 17:56
Non saprei, se riesci a recuperare uno screen mi fai un favore, così mi rendo conto se ho configurato male qualcosa.
Considera pero' che oltre all'FX57 anche le ram erano spinte, ed erano delle Geil OneS non ram qualunque :)
Adesso ho la cpu a default, le ram a default, il bios non l'ho manco toccato (ho semplicemente montato tutto cosi come è) e senza sforzo ho lo stesso punteggio della game machine di prima (in cui avevo impiegato settimane per ottimizzare tutto)
inoltre non sto ancora sfruttando il secondo core :D
Se può essere utile come confronto io faccio circa 12100 punti con xtx a default e cpu a 2,8 GHz (ram a 254 MHz 3-4-4-8 1T). :)
Se clocco la vga cambia pochissimo (13k a 720/1630 MHz mi pare), segno che sono pesantemente cpu limited. :D
Comunque, cloccalo e vedrai che volerai... ;)
ci giochi a 1280 con i filtri con la x1900 ;)
quindi non dovrei avere problemi con oblivion no?
E' uscito Atitool 0.26 ed è senza il beta! :eek: ....:D
1100000110100000
:D
Tetsujin
08-12-2006, 21:13
vedo di recuperarti uno screen...cmq anche io non avevo ram da poco..2x512 G.skill PC4800LE extreme series settate a 315mhz 2.5-4-3-0 :cool:
eh beh...315...sticazzi :D
Tetsujin
08-12-2006, 21:15
Se può essere utile come confronto io faccio circa 12100 punti con xtx a default e cpu a 2,8 GHz (ram a 254 MHz 3-4-4-8 1T). :)
Se clocco la vga cambia pochissimo (13k a 720/1630 MHz mi pare), segno che sono pesantemente cpu limited. :D
Comunque, cloccalo e vedrai che volerai... ;)
beh dai...13k invece di 12100 è sono 900 punti, mica bruscoletti :D
dovrei provare a oc la mia x1900 @xtx ma per l'oc rimando al 20 dicembre
quindi non dovrei avere problemi con oblivion no?
no :)
...aggiornata la prima pagina con:
--> ATITool 0.26 (http://www.techpowerup.com/atitool/)
Full support for all ATI and NVIDIA cards. Only X1950 Pro overclocking is not supported
To overclock ATI X1k cards, you do not need to disable the services in Windows
Fan settings can be saved to a profile
Memory timings can be saved to a profile
BIOS dump works on X1000 Series
Thermal monitoring defaults to on
Voltage control for several X1800 and X1900 cards
Control over Adaptive Anti-Aliasing
New settings tab "Driver Tweaks"
Current Draw monitoring for several ATI cards
:)
Tetsujin
09-12-2006, 01:08
Ciao ragazzi, era da un pò che non postavo, cmq sono stato uno dei primi a prendere questa scheda, non se se alcuni di voi ricordano ma avevo problemi con gli fps (test fear per esempio fps massimo 110 con medi 45..).
Sto postando per dire che ho finalmente (dopo 9 mesi) risolto il problema...
E può sembrare incredibile ma non era nulla all'interno del computer (che ho cmq smontato pezzo per pezzo e riprovato su altri pc con test incrociati).
L'altro giorno cmq mi è preso lo schizzo di provare qualcos'altro per vedere cosa poteva creare questo problema, e visto che considerato che il pc in se funzionava perfettamente mi è venuto in mente di smontare mouse e tastiera (rispettivamente Logitech G5 e Logitech G15) e fare un test di fear...
Beh, inutile dirvelo.. fps minimi 45 medi 80 massimi 245... sono rimasto così :sbavvv:
La prima cosa che ho fatto è levare i driver di entrambi i pezzi e provarne diversi tipi (fino a toglierli completamente dal sistema).
Visto e considerato che non cambiava nulla ho preso una tastiera e un mouse da 10 euro e ho provato... e il tutto funziona perfettamente..
Io non ho idea di come può essere questo possibile ma tantè che ora gioco perfettamente :sofico:
Dunque ho postato questo per avvertire cmq di questo fatto, se qualcuno ha un idea di come ciò sia possibile battete un colpo :D ^^
scusa ma i giochi andavano lenti anche se usavi il G5 + G15 senza driver?
mi dicono sul thread della mia mobo che La scheda madre ha la possibilita' di collegare alla scheda video l'SPDIF.In pratica viene mandato il flusso digitale audio alla scheda video,e quindi viene trasmessa a alla presa HDMI se la VGA e' predisposta.
Scusa ma c'e' qualcosa che mi sfugge: a cosa serve far interpolare il flusso audio dalla scheda video?
perche' non usare direttamente l'S/PDIF?
beh dai...13k invece di 12100 è sono 900 punti, mica bruscoletti :D
dovrei provare a oc la mia x1900 @xtx ma per l'oc rimando al 20 dicembre
Ehi, scusami l'ot. Come vanno le ram che hai in sign?
Mi devo ricredere sullo zalman VF900-Cu
Originariamente i 4 famosi gommini neri nn toccavano la base del pcb, creando una pressione minima sul processore che nn mi soddisfaceva (x farli toccare ho intuito (ma nn l'ho fatto) che la vga si incurvava pericolosamente)
ho provveduto a modificare i due VF900-Cu nella viteria utilizzando la crocera cromata elastica che c'e' sotto il pcb del dissi originale
Ora il dissi e' ben aderente e con la giusta pressione (come il dissi originale) sul processore. Le temperature con Everest sono:
Temp ambiente: 23.3°
Temp GPU1: 33°
Temp GPU2: 34°
Ambiente GPU1: 29°
Ambiente GPU2: 33/34°
GPU1 VRM: 42°
GPU2 VRM: 42°
proseguiro' con le prove di temp (questo e' stato il primo assaggio)
ho un mare di parametri e regolazioni da fare sulle ventole (tutte sotto rheobus)
Cmq una cosa fondamentale, con lo zalman bisogna assolutamente avere (almeno) una fan da 120 sufficientemente potente posizionata in direzione delle 2 VGA (da questo lato devo dire che sono stato aiutato dal case Baydream con 2 fan da 120 frontali posizionate in asse tra loro, una davanti all'altra)
Tetsujin
09-12-2006, 09:40
Ehi, scusami l'ot. Come vanno le ram che hai in sign?
per ora sono a default e fanno il loro dovere
per il comportamento in oc non so, ma dalle prove che ho visto paiono molto buone :)
per ora sono a default e fanno il loro dovere
per il comportamento in oc non so, ma dalle prove che ho visto paiono molto buone :)
già ;)
Scusa ma c'e' qualcosa che mi sfugge: a cosa serve far interpolare il flusso audio dalla scheda video?
perche' non usare direttamente l'S/PDIF?
l'S/PDIF lo hanno come ingresso tutti gli lcd?se e' cosi hai ragione!!
INFECTED
09-12-2006, 11:37
Mi devo ricredere sullo zalman VF900-Cu....
Ottimo.... anche io, avendo cmq già ottim temperature con il mio vf900, ho notato che la scheda è molto incurvata.... ma fino ad ora 0 problemi fortunatamente :sperem:
:tie:
per ora sono a default e fanno il loro dovere
per il comportamento in oc non so, ma dalle prove che ho visto paiono molto buone :)
Ah ok, pensavo che le avessi già overclockate ;)
LightForce
09-12-2006, 20:31
ragazzi sto rosikando in una maniera mostruosa...X1900XT 256 @ 700/1700 e mi fa solo 4966 punti nel 3d mark 2006... :mc:
gianlu75xp
09-12-2006, 22:21
ragazzi sto rosikando in una maniera mostruosa...X1900XT 256 @ 700/1700 e mi fa solo 4966 punti nel 3d mark 2006... :mc:
sei fortemente cpu limited... 3D Mark 06 predilige cpu dual core ;)
LightForce
09-12-2006, 23:21
gia..me ne sn accorto vedendo i cpu score degli altri utenti...pero anche sul 3d mark 2005 faccio solo 11017...sempre cpu? eppure il 2005 nn dovrebbe essere ottimizzatissimo x i dual
gia..me ne sn accorto vedendo i cpu score degli altri utenti...pero anche sul 3d mark 2005 faccio solo 11017...sempre cpu? eppure il 2005 nn dovrebbe essere ottimizzatissimo x i dual
sempre per colpa della CPU, il punteggio della VGA non cambia, è quello della CPU ad influire molto .
LightForce
10-12-2006, 02:55
bah...lascio perdere i 3d mark va ...tanto nn rispecchiano le prestazioni reali del sistema nei giochi :Prrr:
Fabbro76
10-12-2006, 07:16
Ma come cpu limited?
Con un 2750?
E io che ho un x2 a 2650?
Ma che cpu bisogna avere per sfruttare appieno la 1900xt?
Ottimo.... anche io, avendo cmq già ottim temperature con il mio vf900, ho notato che la scheda è molto incurvata.... ma fino ad ora 0 problemi fortunatamente :sperem:
:tie:
Occhio, che in un'altro forum un'altro utente a lungo andare con scheda incurvata ha avuto grossi prb
davide155
10-12-2006, 12:26
sempre per colpa della CPU, il punteggio della VGA non cambia, è quello della CPU ad influire molto .
NO!
Nel 3dmark 2005 il punteggio della cpu non influenza il punteggio finale.
Infatti se provate a selezionare solo i primi tre test (senza selezionare quello del processore) e lanciare il 3dmark vedrete che il punteggio sarà lo stesso di come averlo fatto anke con il test cpu ;)
Chicco85
10-12-2006, 12:35
Ma che cpu bisogna avere per sfruttare appieno la 1900xt?
Un conroe discretamente cloccato direi... ma questo nei bench...
Se giochi da risoluzioni di 1280x1024 in su con AA, AF e magari anche HDR, allora la cpu diventa molto meno importante. Per cui, giocate! :D
pincopaolino
10-12-2006, 14:28
Un conroe discretamente cloccato direi... ma questo nei bench...
Se giochi da risoluzioni di 1280x1024 in su con AA, AF e magari anche HDR, allora la cpu diventa molto meno importante. Per cui, giocate! :D
ti quoto in pieno ;)
NO!
Nel 3dmark 2005 il punteggio della cpu non influenza il punteggio finale.
Infatti se provate a selezionare solo i primi tre test (senza selezionare quello del processore) e lanciare il 3dmark vedrete che il punteggio sarà lo stesso di come averlo fatto anke con il test cpu ;)
Ma io non mi riferisco alla resa della vga ma al punteggio finale che ovviamente è influenzato da quell'unico test. :)
davide155
10-12-2006, 14:35
Ma io non mi riferisco alla resa della vga ma al punteggio finale che ovviamente è influenzato da quell'unico test. :)
Ahhhh...ecco.
Si cmq io con la mia x1900xt 256mb occata a 670/740 e 4400x2 a 2650mhz totalizzo 11317punti al 3dmark 2005.
;)
darkfear
10-12-2006, 14:46
salvee :D :)
problemuccio :mc:
Sapphire ATi Radeon X1900gt (su una asrock dual cioe' sia AGP 8x che AGI 4x che credo sia una sorta di PCI-X 4x forse migliore del normale pcx 4x...mah...)
su P4 Northwood 478 2,6Ghz
a 1024 x 768
3d mark 2005 5100 (la prima volta e poi il punteggio va a scendere :mc: anche a 4700 :cry: )
ora...mi trovo giochi (ad esempio Counter Strike Source) dove se metto i dettagli minimo senza alcun filtro e praticamente quasi tutto disattivato in alcune mappe mi fa 20 fps...e se metto dettagli massimi + hdr + AA 4x Adaptive + AF 16x High Quality mi fa sempre 20 fps... :mbe:
aiuto :mc:
cpu limited? (nel caso lo fossi...come...limito il cpu limited? :asd: risoluzioni + alte? :help: )
PCI-X 4x limitante ? (nn sn molto sicuro di questo pero'...)
TigerTank
10-12-2006, 14:49
Mi potreste dare delle delucidazioni e chiarimenti su questo aspetto di Ati tray Tools?
Sì possono creare dei profili utilizzando 2 metodi: Low Level e Driver Level.
Da quanto ho capito con il primo metodo è fondamentale la disattivazione del servizio Ati Hotkey Poller mentre con il secondo questa cosa non è necessaria. Ci sono altre differenze?
Grazie
gianlu75xp
10-12-2006, 14:52
Si più o meno con un 4400+ siamo a quel livello, questo lo screen che ho fatto un po' di tempo fa (da non amante dei test sintetici :mbe: )
http://img208.imageshack.us/img208/4654/3d05recordeu3.th.jpg (http://img208.imageshack.us/my.php?image=3d05recordeu3.jpg)
davide155
10-12-2006, 14:57
Si più o meno con un 4400+ siamo a quel livello, questo lo screen che ho fatto un po' di tempo fa (da non amante dei test sintetici :mbe: )
http://img208.imageshack.us/img208/4654/3d05recordeu3.th.jpg (http://img208.imageshack.us/my.php?image=3d05recordeu3.jpg)
Si la tua vga è un pò più potente della mia......però 700pt non sono nulla nei gioki :Prrr:
darkfear
10-12-2006, 15:12
salvee :D :)
problemuccio :mc:
Sapphire ATi Radeon X1900gt (su una asrock dual cioe' sia AGP 8x che AGI 4x che credo sia una sorta di PCI-X 4x forse migliore del normale pcx 4x...mah...)
su P4 Northwood 478 2,6Ghz
a 1024 x 768
3d mark 2005 5100 (la prima volta e poi il punteggio va a scendere :mc: anche a 4700 :cry: )
ora...mi trovo giochi (ad esempio Counter Strike Source) dove se metto i dettagli minimo senza alcun filtro e praticamente quasi tutto disattivato in alcune mappe mi fa 20 fps...e se metto dettagli massimi + hdr + AA 4x Adaptive + AF 16x High Quality mi fa sempre 20 fps... :mbe:
aiuto :mc:
cpu limited? (nel caso lo fossi...come...limito il cpu limited? :asd: risoluzioni + alte? :help: )
PCI-X 4x limitante ? (nn sn molto sicuro di questo pero'...)
mi avete completamente scavalcato :incazzed: :cry: :help:
gianlu75xp
10-12-2006, 15:24
Si la tua vga è un pò più potente della mia......però 700pt non sono nulla nei gioki :Prrr:
Si ma infatti ;)
davide155
10-12-2006, 15:32
Si ma infatti ;)
;)
INFECTED
10-12-2006, 16:00
Occhio, che in un'altro forum un'altro utente a lungo andare con scheda incurvata ha avuto grossi prb
:tie::tie::tie:
Cmq vabbè sono 8 mesi che ce l'ho :p (grat grat grat grat...) Cmq non è che è incurvatissima, ma, come dire, ha la tendenza :D
darkfear
10-12-2006, 16:38
non è che forse devo spostare il mio post in quello dedicato alle GT? >_>
ma che senso ha farne uno apposta...se alla fine sono tutte X1900 series :mbe:
:help:
Agilulfo
10-12-2006, 20:15
nessuno sa per caso come killare definitivamente ati overdrive???
Ho provato a
1) killare ati overdrive da Ati tray tools : NULLA
2) Disabilitare ati overdrive da tabella desktop : NULLLA
3) eliminare il servizio ati hotkey poller e smart : NULLA
4) utilizzare l'ultima versione di att : NULLA
5) utilizzare ultimi drivers : NULLA
in nessun modo si prescinde dal fatto che SE ENTRO IN VISUALIZZAZIONE DI UN FILMATO AD ESEMPIO ATI OVERDRIVE MI SETTA LA SCHEDA A 500:600 COME VUOLE LUI E MI TOCCA ANDARE A RIMETTERMI IL MIO PROFILO MANUALMENTE IN ATT...
QUALCUNO NE SA NULLA????
davide155
10-12-2006, 20:38
Provato rainbow six vegas sul pc che ho in firma :D
La grafica è di alto livello, ma non esprime la massima potenza dell'ue3 come in gears of war.
Cmq mi tocca giocarlo a 1024x768 con tutti i dettagli al max e va molto fluido, tranne in pochissimi frangenti.
Se metto a 1280x960 il gioco inizia a calare di frame rate, quindi per me poco giocabile.
Cmq a 1024 questa scheda si comporta egregiamente ;)
tsunamitaly
10-12-2006, 20:38
non è che forse devo spostare il mio post in quello dedicato alle GT? >_>
ma che senso ha farne uno apposta...se alla fine sono tutte X1900 series :mbe:
:help:
Il fatto è che è difficile trovare delle soluzioni alternative al cambio del sistema :)
5100 per quella scheda è uno sproposito (in senso negativo, si intende).
Già io con la mia 1950pro e un venice 3500 sono cpu limited e sfioro appena i 10000, figurati tu! :(
Provato rainbow six vegas sul pc che ho in firma :D
La grafica è di alto livello, ma non esprime la massima potenza dell'ue3 come in gears of war.
Cmq mi tocca giocarlo a 1024x768 con tutti i dettagli al max e va molto fluido, tranne in pochissimi frangenti.
Se metto a 1280x960 il gioco inizia a calare di frame rate, quindi per me poco giocabile.
Cmq a 1024 questa scheda si comporta egregiamente ;)
scusa la domanda....ma è uscita la demo? il gioco finale? ma come l'hai provato??????
davide155
10-12-2006, 21:37
scusa la domanda....ma è uscita la demo? il gioco finale? ma come l'hai provato??????
Dovrebbe uscire domani.......
darkfear
10-12-2006, 22:06
Il fatto è che è difficile trovare delle soluzioni alternative al cambio del sistema :)
5100 per quella scheda è uno sproposito (in senso negativo, si intende).
Già io con la mia 1950pro e un venice 3500 sono cpu limited e sfioro appena i 10000, figurati tu! :(
quindi è cpu limited? il cambio di risoluzione lo limita? tipo se passo a 1280?
o cmq un procio che nn stria oltre i 70-80 eurozzi e nn mi renda trp cpu limited a 1024? (1 solo cambio...o monitor o cpu a max 80 euro..)
Chicco85
10-12-2006, 22:18
Mi devo ricredere sullo zalman VF900-Cu
Originariamente i 4 famosi gommini neri nn toccavano la base del pcb, creando una pressione minima sul processore che nn mi soddisfaceva (x farli toccare ho intuito (ma nn l'ho fatto) che la vga si incurvava pericolosamente)
ho provveduto a modificare i due VF900-Cu nella viteria utilizzando la crocera cromata elastica che c'e' sotto il pcb del dissi originale
Ora il dissi e' ben aderente e con la giusta pressione (come il dissi originale) sul processore. Le temperature con Everest sono:
Temp ambiente: 23.3°
Temp GPU1: 33°
Temp GPU2: 34°
Ambiente GPU1: 29°
Ambiente GPU2: 33/34°
GPU1 VRM: 42°
GPU2 VRM: 42°
proseguiro' con le prove di temp (questo e' stato il primo assaggio)
ho un mare di parametri e regolazioni da fare sulle ventole (tutte sotto rheobus)
Cmq una cosa fondamentale, con lo zalman bisogna assolutamente avere (almeno) una fan da 120 sufficientemente potente posizionata in direzione delle 2 VGA (da questo lato devo dire che sono stato aiutato dal case Baydream con 2 fan da 120 frontali posizionate in asse tra loro, una davanti all'altra)
Toglimi una curiosità, ai montato lo zalman come si monta di solito solo che ai aggiunto la croce posteriore... quasi quasi provo anche io... ;)
darkfear
10-12-2006, 22:26
quindi è cpu limited? il cambio di risoluzione lo limita? tipo se passo a 1280?
o cmq un procio che nn stria oltre i 70-80 eurozzi e nn mi renda trp cpu limited a 1024? (1 solo cambio...o monitor o cpu a max 80 euro..)
anzi ritiro tutto..nn credo esista un 478 in grado....e nn poss ocambiare tutto...
chi m isa dire se aumentando la risoluzione riesca a diminuire in qualche modo il cpu limited????
3dmark 5500 (riprovato per bene) a 1024 x 768
a 1280? andrei meglio? e ad una risoluzione maggiore?? PLZ AIUTATEMIIII!! :help: :help: :help: :help: :help: :help: :help: :help: :help:
Agilulfo
10-12-2006, 22:32
anzi ritiro tutto..nn credo esista un 478 in grado....e nn poss ocambiare tutto...
chi m isa dire se aumentando la risoluzione riesca a diminuire in qualche modo il cpu limited????
3dmark 5500 (riprovato per bene) a 1024 x 768
a 1280? andrei meglio? e ad una risoluzione maggiore?? PLZ AIUTATEMIIII!! :help: :help: :help: :help: :help: :help: :help: :help: :help:
dubito che a risoluzioni maggiori andresti meglio per quel che ne so...
comunque un upgrade mirato e saggio potrebbe costarti meno di quello che pensi ...
Agilulfo
10-12-2006, 22:35
Mi potreste dare delle delucidazioni e chiarimenti su questo aspetto di Ati tray Tools?
Sì possono creare dei profili utilizzando 2 metodi: Low Level e Driver Level.
Da quanto ho capito con il primo metodo è fondamentale la disattivazione del servizio Ati Hotkey Poller mentre con il secondo questa cosa non è necessaria. Ci sono altre differenze?
Grazie
driver level non risente di ati tray tools mentre per low level lo devi disabilitare. a parte cio low level garantisce prestazioni senza dubbio maggiori.
tigertank leggo adesso dalla tua sign che hai il mouse cibersnipa.... potresti dirmi onestamente come va? volevo comprarne uno tempo fa ma non avevo riferimenti....
darkfear
10-12-2006, 22:55
dubito che a risoluzioni maggiori andresti meglio per quel che ne so...
comunque un upgrade mirato e saggio potrebbe costarti meno di quello che pensi ...
io sapevo che il cpu limited diminuiva sposptyando il carico di lavoro + sulla GPU e questo accadeva aumentando la risoluzione...usando filtri eccetera... :confused:
aiuto!!
da 1024 a 1280 o superiori otterrei migliroamenti? :mc:
TigerTank
10-12-2006, 23:54
driver level non risente di ati tray tools mentre per low level lo devi disabilitare. a parte cio low level garantisce prestazioni senza dubbio maggiori.
tigertank leggo adesso dalla tua sign che hai il mouse cibersnipa.... potresti dirmi onestamente come va? volevo comprarne uno tempo fa ma non avevo riferimenti....
Guarda a parte che mi si sono già bruciati 2 led blu, se installo i drivers proprietari con alcuni giochi ho problemi sul tasto destro (a volte non risponde) mentre con i drivers nativi di windows nessun problema.
Altra cosa, io lo uso sempre con i led rossi (non ricordo i dpi) perchè se lo metto in modalità blu il mouse schizza via troppo...mi manca molto la regolazione graduale della sensibilità che avevo sul Plasma.
In definitiva ti consiglio Logitech o Razer.
Agilulfo grazie per la risposta, allora meglio low level.
pincopaolino
11-12-2006, 00:26
io sapevo che il cpu limited diminuiva sposptyando il carico di lavoro + sulla GPU e questo accadeva aumentando la risoluzione...usando filtri eccetera... :confused:
aiuto!!
da 1024 a 1280 o superiori otterrei migliroamenti? :mc:
è al contrario più sali di risoluzione e più sei cpu limited perchè il sistema richiede più potenza alla cpu e di conseguenza la tua cpu non può accontettare le richieste.
Inoltre mi sembra strano che hai un canale pci-e 4x solitamente il pci-e lavora a 16x ;) quindi al contrario se cosi fosse ti crea problemi proprio il pci-e a 4x.
Non penso che quel punteggio sia dovuto alla cpu ma a un problema hardware sei sicuro che questa 1900gt non ha problemi?!?!?
Considera che stai sotto del 50% in prestazioni mica bruscolini!
è al contrario più sali di risoluzione e più sei cpu limited perchè il sistema richiede più potenza alla cpu e di conseguenza la tua cpu non può accontettare le richieste.
falsissimo, più scendi di risoluzione e più sei cpu limited. ;)
Toglimi una curiosità, ai montato lo zalman come si monta di solito solo che ai aggiunto la croce posteriore... quasi quasi provo anche io... ;)
+ o - si
La modifica x poter utilizzare la crocera consiste nell'utilizzo di viti senza testa (filetto da mm 2,3) lunghe 24 mm, l'ideale sarebbe (come ho fatto io) trovare una barretta filettata in ottone lunga una 20ina di cm, tagliare con un piccolo seghetto da ferro 4 spezzoni appunto da 24 mm (x le misurazioni e' meglio utilizzare un calibro)
Avvitare lo spezzone (vite) sulla gamba (del VF900-Cu) libera sulla parte superiore dalle alette in rame del dissi, avvitarla a raso nella parte superiore della gamba e bloccarla con un primo dado, prendere la misura con il calibro della lunghezza dello spazzone (dado esluso) e ripetere il montaggio x le altre 3 gambe. Avvitare un secondo dado accompagnato da un gommino nero e posizionarlo (con il gommino) a pochi mm dal primo. Inserire ora (x prova) le 4 gambe sul pcb della VGA, rovesciare la VGA, inserire prima la rondella di plastica trasparente (in dotazione con il VF 900) accompagnate da altre 2 rondelle metalliche (la rondella di plastica trasparente + le 2 rondelle metalliche servono x fare da spessore e uguagliare lo spessore di quei (4) piccoli parallelepipedi trasparenti incollati sotto la crocera cromata)
Inserire la crocera ed avvitare gli ultimi 4 dadi in senso diagonale tra loro con piccoli avvitamenti alternati, fino a quando la crocera vista di profilo nn appare come una retta.
Accompagnare e bloccare i 4 famosi gommini neri contro il pvb con il dado che avevamo inserito prima
Fine
Materiale occorrente:
Una barra filettata da mm 2,3
un calibro
12 dadi
8 rondelle
1 chiave a tubo da 5 mm
1 chiave fissa aperta da 5 mm
Buon lavoro
PS) aiutatevi con il calibro x tutte le misurazioni possibili x avere il dissi perfettamente montato in piano sul processore
falsissimo, più scendi di risoluzione e più sei cpu limited. ;)
Cosa intendi di preciso? Che giocando sotto i 1280 e' indipendente che cpu (amd o conroe equivalenti) usai, avrai piu' o meno le stesse prestazioni? Perche' avevo notato dai bench che piu' salivi di risoluzione (o sistemi sli/crossfire con maggiore capacita' elaborativa per la gpu), piu' il divario conroe-amd aumentava a favore di conroe indice che appunto si sfruttava il maggior potenziale di calcolo...
intendo che più la risoluzione è bassa, maggiore è il carico sulla cpu. e viceversa.
pincopaolino
11-12-2006, 09:30
falsissimo, più scendi di risoluzione e più sei cpu limited. ;)
ma questa non la sapevo cmq mi sembra strano che se fa 5000 punti al 3dmark05 a 1024 aumentando la risoluzione ne realizzi di più o in game migliori le prestazioni perchè poi è cpu e vga limited (ovviamente con filtri attivati etc) ;) quindi non penso che cambi molto, perchè non è propio come si pensa è vero che incide dimeno la cpu ad alte risoluzioni ma in percentuale non che lavori meno, faccio un esempio:
Se a 1024 la cpu incide il 40% sulle prestazioni a risoluzioni maggiori incide al 30% ma questo non significa che il carico di lavoro della cpu è inferiore ma semplicemente che grava di più sulla vga ;) ma nella migliore delle ipotesi lavora sempre al 100% se non di più solo che in proporzione incide dimeno rispetto alle basse risoluzioni e cosi va a peggiorare ulteriormente le prestazioni generali.
Se fosse come dici tu basterebbe un pentium 3 450mhz e un 8800gtx per giocare a risoluzioni mostruose tanto il processore più sali meno lavora :D
Come anche nel 3dmark05 incide minimamente la cpu ma resta il fatto che realizza 5000 punti quindi penso sia un problema legato a qualcos'altro e non alla cpu.
darkfear
11-12-2006, 09:36
si ma tipo se a 1024 faccio 5500
a 1280 un minimo di 6000-7000 penso dovrei aspettarmelo...
inoltre cmq l'aumento di risoluzione dovrebbe richiedere almeno meno filtri
e cmq mi basta giocare a SCDA con l'hdr (media di 15-20 fps :cry: :cry: ) in maniera decente... :muro: :muro:
l'AGI express 4x è la + grossa banfata mai esistita...sul retro della scatola della mobo ci sn i risultati dei bench con configurazioni uguali con pci-x a 16 e differiscono di poche centinaia di punti dall' AGI-X 4x...mentre quelle con pci-x 4x sono le peggiori...
in pratica
PCI- X 16x = AGIX 4x
PCI-X 4x
il fatto è che cmq abbassi i dettagli...CSS (un esempio) va UGUALE a prima quindi o bassi o alti nn cambia un ciufolo :muro: :muro: :muro:
ps: dubito che con una X1900gt se andassi a 1280 graverebbe tanto sulle prestazioni...
pincopaolino
11-12-2006, 09:40
si ma tipo se a 1024 faccio 5500
a 1280 un minimo di 6000-7000 penso dovrei aspettarmelo...
inoltre cmq l'aumento di risoluzione dovrebbe richiedere almeno meno filtri
e cmq mi basta giocare a SCDA con l'hdr (media di 15-20 fps :cry: :cry: ) in maniera decente... :muro: :muro:
l'AGI express 4x è la + grossa banfata mai esistita...sul retro della scatola della mobo ci sn i risultati dei bench con configurazioni uguali con pci-x a 16 e differiscono di poche centinaia di punti dall' AGI-X 4x...mentre quelle con pci-x 4x sono le peggiori...
in pratica
PCI- X 16x = AGIX 4x
PCI-X 4x
il fatto è che cmq abbassi i dettagli...CSS (un esempio) va UGUALE a prima quindi o bassi o alti nn cambia un ciufolo :muro: :muro: :muro:
non hai un problema di cpu il tuo problema risiede altrove, o meglio se sommi cpu poco performante, AGI 4x che non rende come il pci-e 16x etc etc trovi la spiegazione, nel tuo caso IMHO sono una serie di fattori che limitano la scheda video.
magari hai un problema di switch delle frequenze 2d 3d e ti resta sulle frequenze 2d quando giochi ;) basta una cavolata del genere sommata a tutto il resto e hai la ricetta dei tuoi problemi :cool:
darkfear
11-12-2006, 09:46
non hai un problema di cpu il tuo problema risiede altrove, o meglio se sommi cpu poco performante, AGI 4x che non rende come il pci-e 16x etc etc trovi la spiegazione, nel tuo caso IMHO sono una serie di fattori che limitano la scheda video.
è su questo punto che nn sn sicuro...
cmq io so che nel caso di cpu limited funziona cosi'...
il rallentamento è dovuto ad una serie di calcoli affidai alla CPU la quale essendo
+ lenta della GPU nn permette a quest'ultima di renderizzare con la dovuta velocita'... (sbaglio? :stordita: )
qundi...se il carico di calcoli da eseguire si sposa sulla gpu nn dovrebbe accadere un calo di prestazioni ma tutt'altro...
e nel 3dmark la cpu conta proprio nei casi di cpu limited...nn nel test della cpu in se...non è che il 3dmark fa solo uso della sv...per realizzare l'ambiente 3d utilizza cmq la cpu...e questo provoca lo stesso rallentamento...
(se ho detto banfate al massimo un colpettino sull'anca con un asta di 54kg)
pincopaolino
11-12-2006, 09:49
è su questo punto che nn sn sicuro...
cmq io so che nel caso di cpu limited funziona cosi'...
il rallentamento è dovuto ad una serie di calcoli affidai alla CPU la quale essendo
+ lenta della GPU nn permette a quest'ultima di renderizzare con la dovuta velocita'... (sbaglio? :stordita: )
qundi...se il carico di calcoli da eseguire si sposa sulla gpu nn dovrebbe accadere un calo di prestazioni ma tutt'altro...
e nel 3dmark la cpu conta proprio nei casi di cpu limited...nn nel test della cpu in se...non è che il 3dmark fa solo uso della sv...per realizzare l'ambiente 3d utilizza cmq la cpu...e questo provoca lo stesso rallentamento...
(se ho detto banfate al massimo un colpettino sull'anca con un asta di 54kg)
ti rispondo cosi:
ma questa non la sapevo cmq mi sembra strano che se fa 5000 punti al 3dmark05 a 1024 aumentando la risoluzione ne realizzi di più o in game migliori le prestazioni perchè poi è cpu e vga limited (ovviamente con filtri attivati etc) ;) quindi non penso che cambi molto, perchè non è propio come si pensa è vero che incide dimeno la cpu ad alte risoluzioni ma in percentuale non che lavori meno, faccio un esempio:
Se a 1024 la cpu incide il 40% sulle prestazioni a risoluzioni maggiori incide al 30% ma questo non significa che il carico di lavoro della cpu è inferiore ma semplicemente che grava di più sulla vga ;) ma nella migliore delle ipotesi lavora sempre al 100% se non di più solo che in proporzione incide dimeno rispetto alle basse risoluzioni e cosi va a peggiorare ulteriormente le prestazioni generali.
Se fosse come dici tu basterebbe un pentium 3 450mhz e un 8800gtx per giocare a risoluzioni mostruose tanto il processore più sali meno lavora :D
Come anche nel 3dmark05 incide minimamente la cpu ma resta il fatto che realizza 5000 punti quindi penso sia un problema legato a qualcos'altro e non alla cpu.
non è proprio come si pensa che più sali di risoluzione e meno sei cpu limited altrimenti nessuno cambierebbe la cpu e basterebbe aggiornare la scheda video troppo bello per essere vero :D
darkfear
11-12-2006, 09:52
Leggi qualche post su e capisci il perchè non è proprio come si pensa che più sali di risoluzione e meglio è altrimenti nessuno cambierebbe la cpu e basterebbe aggiornare la scheda video troppo bello per essere vero :D
eh no aspe...
se poi si sale a risoluzioni trp alte è normale che la scheda ne risenta...tipo se vado a 2048x1536 n nsaro' + cpu limited ma mi si frigge la sv :asd:
è normale questo...anche la sv ha un limite ma fino a 1280 e magari (leggasi magari) anche oltre posso spingermi prima di raggiungerlo...
per questo n nbasta tenersi cpu vecchissime per aumentare solo la risoluzione :p
pincopaolino
11-12-2006, 09:56
Inoltre se consideri che l'x1900xt con filtri tutti attivi come superi le risoluzionè di 1280 con i game più recenti ha un calo prestazionale anche su
configurazioni con processori più potenti figuriamoci nel tuo caso con un x1900gt che digerisce meno i filtri e sei cpu limited :muro:
pincopaolino
11-12-2006, 09:58
Cmq ripeto se sali di risoluzione non risolvi un ciufolo il divario è troppo alto 5000 punti sono una miseria e la causa non può essere solo la cpu :O
darkfear
11-12-2006, 10:01
Inoltre se consideri che l'x1900xt con filtri tutti attivi come superi le risoluzionè di 1280 con i game più recenti ha un calo prestazionale anche su
configurazioni con processori più potenti figuriamoci nel tuo caso con un x1900gt che digerisce meno i filtri e sei cpu limited :muro:
a parte che a 1280 nn penso uno va ad attivare l'adaptive 6x
ma io al massimo il 2x (a quella risoluzione) o niente proprio nel caso dell'HDR...
con l'aumento di risoluzione il carico va a spostarsi sulla GPU ed una volta raggiunto il suo limite (nel caso della XT a ris maggiori di 1280) bum è finita :O
edit:
Cmq ripeto se sali di risoluzione non risolvi un ciufolo il divario è troppo alto 5000 punti sono una miseria e la causa non può essere solo la cpu :O
si ma cosa? :(
l'agi nn credo e cmq nn riesco a trovare una qualche comparazione da nessuna parte...
pincopaolino
11-12-2006, 11:06
Tutto quello che so sull' AGI è un film che ho visto qualche tempo fa AGI LEE :D non so che dirti solo che è poco utilizzato e non ha riscosso un grande successo per il resto puoi fare qualche ricerca su google ;)
darkfear
11-12-2006, 11:13
Tutto quello che so sull' AGI è un film che ho visto qualche tempo fa AGI LEE :D non so che dirti solo che è poco utilizzato e non ha riscosso un grande successo per il resto puoi fare qualche ricerca su google ;)
sullabattuta del film nn commento >_> :asd:
qualcuno mi aiutiii!! :cry: :mc: :cry:
ho installato i warcat...disinstallando i cata e pulendo con driver cleaner...
nn cambia niente... sempre 5564... :cry: aiutatemiii!!
ps: condemned ho una media di 50 fps a dettagli max con aa 4x e hq af 16x e 30 fps nelle situazioni + concitate (3-4 nemici su schermo)
pps: quake 4 va a 60 fps fissi..a volte cade a 30 in spazi molto ampi...con molti nemici su schermo...
pps2: Dark Messiah: nelle zone lontane e molto dettagliate vado anche a 25 fps ma per il resto vado sui 75 (col v-synch ovviamente il 3dmerd lo faccio senza :P)
:mc: :mc: :mc:
pps3: Splinter Cell Double Agent: NO COMMENT :cry: media di 15-20 fps
pps4: Prey: va benissimo ma nelle situazioni + concitate scende a 30...per il resto è cmq giocabilissimo al max
STO SOFFRENDO!! :mc: DEVE ESSERE UN INCUBO :cry: :cry: :cry: :cry:
pincopaolino
11-12-2006, 11:28
potresti postare tutta la configurazione in modo che chi legge adesso ti può dare maggiori consigli, inoltre se hai una x1900gt è meglio che posti nel forum specifico sicuramente la conoscono meglio qui 80% possiede xt e xtx ;) perchè questo post ha preso il posto di quello dedicato a queste schede :stordita:
darkfear
11-12-2006, 11:31
potresti postare tutta la configurazione in modo che chi legge adesso ti può dare maggiori consigli, inoltre se hai una x1900gt è meglio che posti nel forum specifico sicuramente la conoscono meglio qui 80% possiede xt e xtx ;) perchè questo post ha preso il posto di quello dedicato a queste schede :stordita:
io ho visto 1 commentino poco rassicurante sull' AGI 4x che lo definisce un PCI-X 4x poco performante e suggerisce di evitare le asrock se proprio nn ci tenete alle prestazioni :asd: :cry:
e io dove la trovo una mobo con socket 478 e pci-x? :mc: :mc:
ce la faccio con 120euro ad avere un procio ed una mobo con pci-x 16x decente? :mc:
pissicchia
11-12-2006, 11:36
io ho visto 1 commentino poco rassicurante sull' AGI 4x che lo definisce un PCI-X 4x poco performante e suggerisce di evitare le asrock se proprio nn ci tenete alle prestazioni :asd: :cry:
e io dove la trovo una mobo con socket 478 e pci-x? :mc: :mc:
ce la faccio con 120euro ad avere un procio ed una mobo con pci-x 16x decente? :mc:
no
pincopaolino
11-12-2006, 11:36
io ho visto 1 commentino poco rassicurante sull' AGI 4x che lo definisce un PCI-X 4x poco performante e suggerisce di evitare le asrock se proprio nn ci tenete alle prestazioni :asd: :cry:
e io dove la trovo una mobo con socket 478 e pci-x? :mc: :mc:
se proprio vuoi cambaire tutto e sfruttare al 100% la scheda video ti consiglio di passare su soket 775 e buona notte mobo 775 130 euro, ram ddr2 2gb 180 euro e processore 250 con circa 500 euro dovresti cavartela, in alternativa passi ad AMD con 400 euro o se cerchi solo la mobo 478 segui il mercatino informatico o dai un occhiata su eBay ;)
ps: con 120 euro mi sa che trovi solo la mobo ovviamente spendendo meno sempre se esistono con pci-e io non so dirtelo :stordita:
se proprio vuoi cambaire tutto e sfruttare al 100% la scheda video ti consiglio di passare su soket 775 e buona notte mobo 775 130 euro, ram ddr2 2gb 180 euro e processore 250 con circa 500 euro dovresti cavartela, in alternativa passi ad AMD con 400 euro o se cerchi solo la mobo 478 segui il mercatino informatico o dai un occhiata su eBay ;)
ps: con 120 euro mi sa che trovi solo la mobo ovviamente spendendo meno sempre se esistono con pci-e io non so dirtelo :stordita:
Anche meno di 500 se non vuole componenti da gara.
E6300+ASRock ConroeXFire+2x1GB DDR2 667 S3+ vengono 426.80€, aggiungi 10€ di s.s. ed è sistemato. :p
Altrimenti con la P5B liscia verrebbe 479.50€
pincopaolino
11-12-2006, 11:44
Anche meno di 500 se non vuole componenti da gara.
E6300+ASRock ConroeXFire+2x1GB DDR2 667 S3+ vengono 426.80€, aggiungi 10€ di s.s. e sei apposto. :P
infatti io parlavo del E6400 e di qualcosa un pò più prestazionale ma anche il sistema che consigli tu e 100 volte meglio del suo attuale sistema ;)
darkfear
11-12-2006, 13:51
see vabbe' domani... :mc:
ciao...500..."solo" 470... buonanotte :muro: :muro:
io nn voglio sfruttare la sv al 100% al massimo un 70% :mc:
nn voglio un sistema da 800 e rotti euro...mi basta una cosa vecchia ed economica che abbia il pci-x 16x e un procio 10 volte + tosto di questo nn 100 :mc: :mc: :mc:
tsunamitaly
11-12-2006, 14:07
see vabbe' domani... :mc:
ciao...500..."solo" 470... buonanotte :muro: :muro:
io nn voglio sfruttare la sv al 100% al massimo un 70% :mc:
nn voglio un sistema da 800 e rotti euro...mi basta una cosa vecchia ed economica che abbia il pci-x 16x e un procio 10 volte + tosto di questo nn 100 :mc: :mc: :mc:
a sto punto vai sul mercatino e trovi tutto quello che vuoi ;)
darkfear
11-12-2006, 14:21
a sto punto vai sul mercatino e trovi tutto quello che vuoi ;)
ma in realta' qualcosa l'avrei gia' trovato...in tutto sui 200 euro compreso procio e mobo
Cpu Intel P4 820 2.8ghz Skt775 Fsb800 Dual Core 2mb Cache Boxed a 125 eurozzi
e
Mb Micro Atx Intel D102ggc2 Oem, Lga 775, Ddr Ii, Fsb 1066, Pci-Express, Lan, S-Ata come mobo a 83,50 eurozzi
come ce li vedere? :|
ps: il titolo della mobo potrebbe ingannare ma tra il supporto c'e anche :
Supporto memorie DDR 400/533MHz
Agilulfo
11-12-2006, 17:04
ma in realta' qualcosa l'avrei gia' trovato...in tutto sui 200 euro compreso procio e mobo
Cpu Intel P4 820 2.8ghz Skt775 Fsb800 Dual Core 2mb Cache Boxed a 125 eurozzi
e
Mb Micro Atx Intel D102ggc2 Oem, Lga 775, Ddr Ii, Fsb 1066, Pci-Express, Lan, S-Ata come mobo a 83,50 eurozzi
come ce li vedere? :|
ps: il titolo della mobo potrebbe ingannare ma tra il supporto c'e anche :
Supporto memorie DDR 400/533MHz
compra una p5b (cosi un domani puoi avere conroe se vuoi).
se la trovi usata meglio.
poi come procio per il momento metti un pentium d che trovi sul mercatino.
le ram idem tanto la frequenza conta pokissimo
secondo me puoi finire sui 350....
onestamente se devi spendere 200 euro per avere un sistema che ti lascia quasi nelle stesse condizioni allora tanto vale che lasci stare ti tieni i soldi e ti ci compri da vestire o da mangiare (che non sono mai soldi buttati lol :p )
darkfear
11-12-2006, 18:05
compra una p5b (cosi un domani puoi avere conroe se vuoi).
se la trovi usata meglio.
poi come procio per il momento metti un pentium d che trovi sul mercatino.
le ram idem tanto la frequenza conta pokissimo
secondo me puoi finire sui 350....
onestamente se devi spendere 200 euro per avere un sistema che ti lascia quasi nelle stesse condizioni allora tanto vale che lasci stare ti tieni i soldi e ti ci compri da vestire o da mangiare (che non sono mai soldi buttati lol :p )
gia' 200 è troppo...faccio prima a passare alle console...
pissicchia
12-12-2006, 13:52
no non lo sentire questo, fai così, ti compri la asrock dual 50 euro, un athlon 3500 60 euro (quando lo oveclokki va meglio del conroe), 100 euri memoria e a170 euri 1900gt e giochi a tutto :D
renax200
12-12-2006, 14:02
no non lo sentire questo, fai così, ti compri la asrock dual 50 euro, un athlon 3500 60 euro (quando lo oveclokki va meglio del conroe), 100 euri memoria e a170 euri 1900gt e giochi a tutto :D
giochi a tutto proprio... :sofico:
a giocare ci giochi...devi vedere poi come :asd:
gianlu75xp
12-12-2006, 14:06
no non lo sentire questo, fai così, ti compri la asrock dual 50 euro, un athlon 3500 60 euro (quando lo oveclokki va meglio del conroe), 100 euri memoria e a170 euri 1900gt e giochi a tutto :D
potevo tenermi il 3500+ allora.... :asd:
non penso proprio che vada meglio del Conroe ;)
SilveRazzo
12-12-2006, 14:16
no non lo sentire questo, fai così, ti compri la asrock dual 50 euro, un athlon 3500 60 euro (quando lo oveclokki va meglio del conroe), 100 euri memoria e a170 euri 1900gt e giochi a tutto :D
:asd:
potevo tenermi il 3500+ allora.... :asd:
non penso proprio che vada meglio del Conroe ;)
eh già...
pincopaolino
12-12-2006, 14:39
no non lo sentire questo, fai così, ti compri la asrock dual 50 euro, un athlon 3500 60 euro (quando lo oveclokki va meglio del conroe), 100 euri memoria e a170 euri 1900gt e giochi a tutto :D
certo che quando puoi una balla la spari sempre :sofico: ma in quale test hai visto il conroe che le prende da un AMD 64 3500 STAI SOGNANDO :D
A vabbe dimenticavo tu sei quello che dice che 2 gb di memoria non servono a nulla, che l'alimentatore in un pc non conta (e poi è corso a comprarlo e adesso ne monta due :asd: ) etc etc hai una filosofia hardware tutta tua :O
renax200
12-12-2006, 14:42
eh già...
all'inizio pensavo stesse scherzando...ma se fa davvero...:asd:
pincopaolino
12-12-2006, 14:43
all'inizio pensavo stesse scherzando...ma se fa davvero...:asd:
eheh ma stai scherzando :D dice sul serio ha aperto certi flame con le sue teorie :sofico: :sofico: :sofico: 1 contro tutti :D siamo un branco di incopetenti rispetto a lui :Prrr:
TigerTank
12-12-2006, 14:44
Già che ci siamo si può presumere che il 3500 se overcloccato possa battere il Conroe soprattutto nei giochi ottimizzati per il dual core... :D
No scherzi a parte ma affermazioni del genere potrebbero seriamente dare una mazzata ad un niubbo di informatica che deve fare l'upgrade...
pincopaolino
12-12-2006, 14:46
Già che ci siamo si può presumere che il 3500 se overcloccato possa battere il Conroe soprattutto nei giochi ottimizzati per il dual core... :D
e se lo clokki con il ghiaccio secco a 16 Ghz o con l'azoto liquido a 30 Ghz batte anche i qud core non lo sapevi :asd: cmq lasciamo perdere chiudiamo il falme altrimenti finisce a gara a chi le spara più grosse :sofico:
renax200
12-12-2006, 15:19
e se lo clokki con il ghiaccio secco a 16 Ghz o con l'azoto liquido a 30 Ghz batte anche i qud core non lo sapevi :asd: cmq lasciamo perdere chiudiamo il falme altrimenti finisce a gara a chi le spara più grosse :sofico:
povero me che sono passato da un 3500+ ad un 170....nemmeno un conroe!!!...ora addirittura da 170 a quello in sign...proprio spreco i soldi...potrei avere benissimo un 3500+...:asd:
dai ora la smetto...prometto :D
certo che quando puoi una balla la spari sempre :sofico: ma in quale test hai visto il conroe che le prende da un AMD 64 3500 STAI SOGNANDO :D
A vabbe dimenticavo tu sei quello che dice che 2 gb di memoria non servono a nulla, che l'alimentatore in un pc non conta (e poi è corso a comprarlo e adesso ne monta due :asd: ) etc etc hai una filosofia hardware tutta tua :O
fermatelo prima che faccia troppi danni.... :asd:
Pero' bisogna ammetterlo in un 3d che ormai non e' piu' vitale come prima,ci propone nuovi argomenti da discutere... :asd:
Tetsujin
12-12-2006, 17:03
Non mi voglio perdere l'immancabile spiegazione che verrà, a supporto della teoria che AMD 3500+ > Conroe E6600 :asd:
pincopaolino
12-12-2006, 20:07
Non mi voglio perdere l'immancabile spiegazione che verrà, a supporto della teoria che AMD 3500+ > Conroe E6600 :asd:
tu sei peggio di me :D dai io porto le birre tu porta i pop corn e mettiamoci comodi ;)
...basta OT inutili, pensiamo a cose serie:
Catalyst 6.12 beta con Alpha Coverage AA (http://www.hwupgrade.it/forum/showthread.php?t=1356509)
;)
pissicchia
13-12-2006, 13:52
giochi a tutto proprio... :sofico:
a giocare ci giochi...devi vedere poi come :asd:
guarda che io a 2400 giga faccio 9300 punti con 3dmark 2005 un conroe 6300 fa 10000 e costa il TRIPLO. Se compri un 3500 e lo overclokki ti fa pure di più di 10000. Il fatto è i conroe e i dual core non servono ancora a niente perchè i giochi non li supportano infatti le prestazioni sono molto simili se non inferiori ai single core a seconda delle frequenze questo. Penso che sia giusto comprare il dual core quando tutti i giochi lo supportareranno, in maniera che non si spendano ora dei soldi per una cpu che si sfrutta al 50%. Infatti io con il mio computerino gioco a tutto e ho speso pochissimo! :ciapet:
pissicchia
13-12-2006, 13:55
certo che quando puoi una balla la spari sempre :sofico: ma in quale test hai visto il conroe che le prende da un AMD 64 3500 STAI SOGNANDO :D
A vabbe dimenticavo tu sei quello che dice che 2 gb di memoria non servono a nulla, che l'alimentatore in un pc non conta (e poi è corso a comprarlo e adesso ne monta due :asd: ) etc etc hai una filosofia hardware tutta tua :O
alientatori ne ho due e non l'ho comprato il secondo ne ho uno da 400 18 ampere e uno da 250 con 8 ampere e va tutto bene!! Guarda il punteggio di un conroe standard e di un Athlon64 a 2600mhz poi mi dici.
questo. Penso che sia giusto comprare il dual core quando tutti i giochi lo supportareranno, in maniera che non si spendano ora dei soldi per una cpu che si sfrutta al 50%. Infatti io con il mio computerino gioco a tutto e ho speso pochissimo! :ciapet:
hai parzialmente ragione su questo, il fatto e' che sebbene i giochi non sfruttino i dual core nativamente comunque hai dei servizi in background quando giochi (antivirus, firewall, etc.) che vengono gestiti dai due core. Certamente non sono ottimizzati, ma un certo vantaggio lo si sente, poi c'e' anche chi, come me, ama lavorare in parallelo quindi masterizzo e gioco spesso contemporaneamente e non ho avuto mai grossi problemi. Concordo invece sul discorso amd-conroe: prendere ora quello che costa meno (non solo come chip, ma anche come mobo e soprattutto memoria) anche dual core e' la scelta giusta, specie se ci abbini una buona scheda video e non giochi ad altissime risoluzioni...poi ognuno difende i propi "investimenti" come vuole, gli hobbies sono tanti e spesso "dall' esterno" sembrano soldi buttati :D
pissicchia
13-12-2006, 16:16
hai parzialmente ragione su questo, il fatto e' che sebbene i giochi non sfruttino i dual core nativamente comunque hai dei servizi in background quando giochi (antivirus, firewall, etc.) che vengono gestiti dai due core. Certamente non sono ottimizzati, ma un certo vantaggio lo si sente, poi c'e' anche chi, come me, ama lavorare in parallelo quindi masterizzo e gioco spesso contemporaneamente e non ho avuto mai grossi problemi. Concordo invece sul discorso amd-conroe: prendere ora quello che costa meno (non solo come chip, ma anche come mobo e soprattutto memoria) anche dual core e' la scelta giusta, specie se ci abbini una buona scheda video e non giochi ad altissime risoluzioni...poi ognuno difende i propi "investimenti" come vuole, gli hobbies sono tanti e spesso "dall' esterno" sembrano soldi buttati :D
no no io non parlo di soldi buttati solo ora come ora i dual core non sono sfruttati nei giochi certo può essere un acquisto che dura nel tempo, ma fino a quando saranno supportati in tutti i gioco i prezzi scenderanno e in quel momento potrò comprare una cpu più potente di quella che potrei prendere ora con gli stessi soldi e che non sfrutterei subito. Poi degustibus...
Tetsujin
13-12-2006, 17:30
guarda che ci sono già i giochi che sfruttano i dual core. Quello che dici è :old: da diversi mesi ormai. Oblivion, per fare un esempio, ti dice niente?
Tetsujin
13-12-2006, 17:36
guarda che io a 2400 giga faccio 9300 punti con 3dmark 2005 un conroe 6300 fa 10000 e costa il TRIPLO. Se compri un 3500 e lo overclokki ti fa pure di più di 10000. Il fatto è i conroe e i dual core non servono ancora a niente perchè i giochi non li supportano infatti le prestazioni sono molto simili se non inferiori ai single core a seconda delle frequenze questo. Penso che sia giusto comprare il dual core quando tutti i giochi lo supportareranno, in maniera che non si spendano ora dei soldi per una cpu che si sfrutta al 50%. Infatti io con il mio computerino gioco a tutto e ho speso pochissimo! :ciapet:
il triplo??? AMD 3500+ 85 euro. E6300 160 euro.
Tetsujin
13-12-2006, 17:37
tu sei peggio di me :D dai io porto le birre tu porta i pop corn e mettiamoci comodi ;)
:asd:
bè parlando di 3d mark si potrebbe vedere che differenza c'è fra un venice 3500 clocckato ed un e6300 a default con la stessa vga :sofico:
Cmq sono state tirate fuori decine e decine di patch per far sì che i giochi si appoggino su entrambi i core ;)
Tetsujin
13-12-2006, 17:47
alientatori ne ho due e non l'ho comprato il secondo ne ho uno da 400 18 ampere e uno da 250 con 8 ampere e va tutto bene!! Guarda il punteggio di un conroe standard e di un Athlon64 a 2600mhz poi mi dici.
beh ma che c'entra, come overclokki l'athlon, cosi overclocchi il conroe (stai parlando sempre del 6300 vero?)
INFECTED
13-12-2006, 18:40
Finalmente disponibili i 6.12 :)
http://www.hwupgrade.it/news/software/catalyst-612-disponibili-per-il-download_19532.html
Catalyst 6.12 Windows 2K-XP + Catalyst Control Center (http://www.hwupgrade.it/download/file/3013.html)
Catalyst 6.12 XP x64 + Catalyst Control Center (http://www.hwupgrade.it/download/file/3012.html)
Catalyst 6.12 Windows Vista RTM + Catalyst Control Center (http://www.hwupgrade.it/download/file/3011.html)
ATI AVIVO Video Converter (http://www.hwupgrade.it/download/file/2536.html)
pissicchia
13-12-2006, 19:29
guarda che ci sono già i giochi che sfruttano i dual core. Quello che dici è :old: da diversi mesi ormai. Oblivion, per fare un esempio, ti dice niente?
oblivion non supporta il dual core
pissicchia
13-12-2006, 19:37
[QUOTE=Tetsujin]beh ma che c'entra, come overclokki l'athlon, cosi overclocchi il conroe (stai parlando sempre del 6300 vero?)[/QUO
io il computer lo cambio quando ce ne uno che mi da il doppio della potenza oggi come oggi non esistono giochi a cui tu puoi e io no, giochi che vanno bene solo sul conroe overclokkato a 3500 mhz, guarda le recensioni sulle riviste, massimo che scrivono è pentium 4 a 3,4 giga e per inciso il mio è più, tutti i giochi che scattano anche su queste configurazioni sono delle merde programmate male, non ho mai visto nessuna recensione in cui c'è scritto che serve un conroe a 3.5 giga, semplicemente perchè nessun pazzo programmatore fa un gioco per un processore che hanno in pochi, poi fatemi un esempio a quale gioco potete giocare voi a cui io non posso giocare con il mio?
renax200
13-12-2006, 19:39
oblivion non supporta il dual core
guarda non parlare se non sai le cose...io sono passato da un 3500+@2620 ad un 170 senza cambiare vga...ti dico che in alcuni punti di oblivion ( casuali) ero pesantemente cpu limited ...tipo mi fermavo davanti ad un muro e facevo 17 fps...ora cio' non accade + ...e oblivion ora va perfettamente fluido..cosa che sarebbe stata impossibile col 3500+@ 2620 pur tirando il + possibile la vga... ;)
gianlu75xp
13-12-2006, 19:40
oblivion non supporta il dual core
e invece sì :asd:
http://www.tweakguides.com/Oblivion_13.html
Dual Core & HyperThreading CPUs
One of the questions people have been asking is whether Oblivion takes advantage of Dual Core or HyperThreading CPUs by "multithreading" tasks in parallel. Having tested the .ini variables which relate to this functionality, and noting that the GameBryo engine does officially support the use of multithreading, I can confirm that it appears to be the case. My X2 4400+ Dual Core CPU clearly benefits from smoother performance and slightly better FPS when the multithreading options are enabled, and combined CPU usage will regularly exceed 50%. Since the CPU is a major contributor to performance in Oblivion, I strongly suggest all Dual Core/HT users implement the relevant tweaks in the Advanced Tweaking section.
Furthermore, for those having problems with AMD Dual Core CPUs, I don't recommend the installation of the X2 CPU drivers or the Microsoft Hotfix which is usually suggested as a fix for this issue. The simplest solution is to disable 'Cool'n'Quiet' functionality in your BIOS, which also helps prevent problems with other games, since Cool'n'Quiet is not really designed with gaming in mind and can reduce performance.
Update: You should also install the AMD Dual Core Optimizer if you run an AMD dual core CPU as this will help achieve maximum performance and prevent any problems.
pissicchia
13-12-2006, 19:41
comunque voglio mettere tutti d'accordo, se dovessi cambiare ora il computer prendere il 6300 sicuramente perchè è un processorone e non costa molto, però che quel ragazzo di prima con l'opteron voglia cambiare ancora processore allora non sono d'accordo...
Tetsujin
13-12-2006, 19:54
[QUOTE=Tetsujin]beh ma che c'entra, come overclokki l'athlon, cosi overclocchi il conroe (stai parlando sempre del 6300 vero?)[/QUO
io il computer lo cambio quando ce ne uno che mi da il doppio della potenza oggi come oggi non esistono giochi a cui tu puoi e io no, giochi che vanno bene solo sul conroe overclokkato a 3500 mhz, guarda le recensioni sulle riviste, massimo che scrivono è pentium 4 a 3,4 giga e per inciso il mio è più, tutti i giochi che scattano anche su queste configurazioni sono delle merde programmate male, non ho mai visto nessuna recensione in cui c'è scritto che serve un conroe a 3.5 giga, semplicemente perchè nessun pazzo programmatore fa un gioco per un processore che hanno in pochi, poi fatemi un esempio a quale gioco potete giocare voi a cui io non posso giocare con il mio?
su oblivion ti hanno gia risposto. Inoltre in Oblivion ci sono evidenti vantaggi utilizzando un dual quando sono presenti parecchi nemici sullo schermo.
Non si tratta di poter o non poter giocare, ma di come si gioca ;)
TigerTank
13-12-2006, 20:22
Finalmente disponibili i 6.12 :)
http://www.hwupgrade.it/news/software/catalyst-612-disponibili-per-il-download_19532.html
Catalyst 6.12 Windows 2K-XP + Catalyst Control Center (http://www.hwupgrade.it/download/file/3013.html)
Catalyst 6.12 XP x64 + Catalyst Control Center (http://www.hwupgrade.it/download/file/3012.html)
Catalyst 6.12 Windows Vista RTM + Catalyst Control Center (http://www.hwupgrade.it/download/file/3011.html)
ATI AVIVO Video Converter (http://www.hwupgrade.it/download/file/2536.html)
Grazie Infected, sai se hanno già quella storia del nuovo AA che aveva indicato Belin?
pissicchia
13-12-2006, 20:36
che oblivion non sfrutta il secondo core è stato già detto tempo fa quando intendo "gioco" intendo un gioco che ti fa dai 30 ai 60 frame con i dettagli alti, cmq non mi va di continuare che me frega, solo vorrei che la gente non abboccasse qualsiasi cosa mettono in giro sborsando soldini giusto per non assecondare la smania consumista di un capitalismo spregiudicato...ma fa niente...
INFECTED
13-12-2006, 20:37
Grazie Infected, sai se hanno già quella storia del nuovo AA che aveva indicato Belin?
Uhm non ne ho idea.... nelle release note non c'è scritto :(
Tetsujin
13-12-2006, 21:05
che oblivion non sfrutta il secondo core è stato già detto tempo fa quando intendo "gioco" intendo un gioco che ti fa dai 30 ai 60 frame con i dettagli alti, cmq non mi va di continuare che me frega, solo vorrei che la gente non abboccasse qualsiasi cosa mettono in giro sborsando soldini giusto per non assecondare la smania consumista di un capitalismo spregiudicato...ma fa niente...
beh uno i propri soldi li spende come vuole e ne risponde unicamente alla propria coscienza.
Le tue parole invece sembrano l'ennesima variante del "vorrei ma non posso"
comunque riguardo a oblivion:
http://www.firingsquad.com/hardware/oblivion_athlon_64_x2_fx_cpu_performance/images/dualmts800.gif
il 3500+ e il 4200 hanno la stessa frequenza (2.2 Ghz)
gianlu75xp
13-12-2006, 21:28
beh uno i propri soldi li spende come vuole e ne risponde unicamente alla propria coscienza.
Le tue parole invece sembrano l'ennesima variante del "vorrei ma non posso"
comunque riguardo a oblivion:
http://www.firingsquad.com/hardware/oblivion_athlon_64_x2_fx_cpu_performance/images/dualmts800.gif
il 3500+ e il 4200 hanno la stessa frequenza (2.2 Ghz)
Direi che il grafico è inequivocabile.
Tetsujin
13-12-2006, 21:48
Direi che il grafico è inequivocabile.
e se ancora non basta:
http://img158.imageshack.us/img158/2581/immaginehq8.jpg
TigerTank
13-12-2006, 22:04
Oblivion il secondo core lo sfrutta anche se solo parzialmente. per vedere basta lanciarlo in finestra con aperto il task manager, se con un dual core la percentuale di utilizzo del processore va oltre il 50% vuol dire che utilizza entrambi i core. Per chi ha un AMD X2 è possibile vedere la cosa anche tramite il Power Monitor di AMD.
Cmq raga benchè se ne dica sul minor peso del processore dai 1280x1024 in su, io passando dal 4400 X2 al Conroe 6600 @ 3200 MHz a parità di vga ho trovato sicuramente una fluidità maggiore nei giochi.
gianlu75xp
13-12-2006, 22:11
Oblivion il secondo core lo sfrutta anche se solo parzialmente. per vedere basta lanciarlo in finestra con aperto il task manager, se con un dual core la percentuale di utilizzo del processore va oltre il 50% vuol dire che utilizza entrambi i core. Per chi ha un AMD X2 è possibile vedere la cosa anche tramite il Power Monitor di AMD.
Cmq raga benchè se ne dica sul minor peso del processore dai 1280x1024 in su, io passando dal 4400 X2 al Conroe 6600 @ 3200 MHz a parità di vga ho trovato sicuramente una fluidità maggiore nei giochi.
e il 4400+ era overclocckato? :fagiano: <== :asd:
TigerTank
13-12-2006, 22:11
e il 4400+ era overclocckato? :fagiano: <== :asd:
A 2500 MHz
gianlu75xp
13-12-2006, 22:12
A 2500 MHz
Capito, grazie per l'info Tiger ;)
bart noel
13-12-2006, 22:27
guardate che belli 'sti grafici di Splinter Cell 4 :D
http://images.anandtech.com/graphs/splinter%20cell%20double%20agent%20art_12080611233/13649.png
http://images.anandtech.com/graphs/splinter%20cell%20double%20agent%20art_12080611233/13646.png
Le Ati pur avendo HDR attivato vanno qualcosina di più delle nvidia con HDR disattivato :ave:
anandtech dice anche che il gioco con le Ati risulta essere + stabile (senza bugs, crashes, etc.)
TigerTank
13-12-2006, 22:31
Scusate l'OT, apro e chiudo questa parentesi per far chiarezza:
Task manager permette di decidere di far lavorare entrambi o un solo core, basta ad esempio aprire Orthos, andare nei processo del task manager, cliccare sul processo di orthos con tasto dx e scegliere "Imposta affinità". Dalla finestrella che esce potete scegliere su quale processore (nel nostro caso quale dei 2 core) sarà permessa l'esecuzione del programma.
In questi 2 screen sotto che ho fatto qualche tempo fà potete vedere la differenza tra orthos su entrambi i core e su uno solo dei 2 oltre che al relarivo comportamento della barra di utilizzo del processore presente nel task manager.
http://web.tiscali.it/tigertank/orthos01.jpg
http://web.tiscali.it/tigertank/orthos02.jpg
Questo dimostra che se lanciate un gioco in finestra (se possibile) e in task manager la percentuale non supera il 50% allora il gioco non sfrutta il dual core mentre se va oltre il 50% lo utilizza (anche se in certi casi solo parzialmente).
Fine OT. Scusate.
pissicchia
14-12-2006, 00:20
beh uno i propri soldi li spende come vuole e ne risponde unicamente alla propria coscienza.
Le tue parole invece sembrano l'ennesima variante del "vorrei ma non posso"
comunque riguardo a oblivion:
http://www.firingsquad.com/hardware/oblivion_athlon_64_x2_fx_cpu_performance/images/dualmts800.gif
il 3500+ e il 4200 hanno la stessa frequenza (2.2 Ghz)
va più veloce perchè hanno il bus più alto non per il dual core, non è il vorrei ma non posso, si tratta di non farmi scucire soldini che posso usare per altre cose che mi servono perciò faccio scelte oculate, cmq i soldi ci sono o non ci sono non mi piace buttarli, poi le mie opinioni non intaccano le scelte altrui nè cercano di deleggittimarle. Amen. Un hardiskino mi dovrei prendere.
pissicchia
14-12-2006, 00:29
Direi che il grafico è inequivocabile.
inequivocabile de che secondo te se il dual core venisse sfruttato fra il 3500 e il 4200 ci sarebbero solo 10 frame di differenza? Ma siamo fuori?
Cmq raga benchè se ne dica sul minor peso del processore dai 1280x1024 in su, io passando dal 4400 X2 al Conroe 6600 @ 3200 MHz a parità di vga ho trovato sicuramente una fluidità maggiore nei giochi.
Sicuramente, pero' quanto hai speso in piu' in piu'? Se tanto hai speso e tanto hai guadagnato allora hai fatto un affare, se tanto hai speso , ma hai guadagnato meno allora sei stato vittima del mercato :D Penso che alla fine e' questo il pensiero di pissicchia, dipende tutto da chi spende e da cosa vuole e cosa spera e ottiene.
Tetsujin
14-12-2006, 08:24
va più veloce perchè hanno il bus più alto non per il dual core, non è il vorrei ma non posso, si tratta di non farmi scucire soldini che posso usare per altre cose che mi servono perciò faccio scelte oculate, cmq i soldi ci sono o non ci sono non mi piace buttarli, poi le mie opinioni non intaccano le scelte altrui nè cercano di deleggittimarle. Amen. Un hardiskino mi dovrei prendere.
cosa intendi per "bus" piu alto? :confused:
TigerTank
14-12-2006, 08:35
Sicuramente, pero' quanto hai speso in piu' in piu'? Se tanto hai speso e tanto hai guadagnato allora hai fatto un affare, se tanto hai speso , ma hai guadagnato meno allora sei stato vittima del mercato :D Penso che alla fine e' questo il pensiero di pissicchia, dipende tutto da chi spende e da cosa vuole e cosa spera e ottiene.
Guarda sottraendo il ricavato dei precedenti componenti che ho avuto la fortuna di vendere comodamente in blocco, ho speso 300€.
Gil Estel
14-12-2006, 08:51
Premetto che non sono riuscito a leggere tutte e 58 le pagine precedenti...
fino ad 1 sett fa usavo una 9800 pro e tutto andava bene...
ora ho preso pc nuovo con la x1950xt sapphire e collegando la TV (tramite l'apposito adattatore visto che l'svideo non è compatibile con la presa della vga) ho impostato il tutto...
ma vedo solo in bianco e nero... ho provato tutti i formati PAL che c'erano sul CCC ma niente da fare resta sempre B/N...
soprattutto non riesco ad installare i driver senza CCC (ho provato gli omega e dopo riavviato come se nulla fosse)
sapreste aiutarmi?
Guarda sottraendo il ricavato dei precedenti componenti che ho avuto la fortuna di vendere comodamente in blocco, ho speso 300€.
Ovviamente ho fatto anche io i miei conti, faccio un esempio di come ho ragionato (ripeto, e' un mio modo di spendere nell'informatica quindi non lo giudico migliore di altri ci mancherebbe): se vendo il mio opteron 165+asrock+ram e prendo un 6600+scheda+2gb ram devo metterci sopra piu' o meno 300-350 euro, quanto ci guadagno in prestazioni? Secondo i bench in giro con il mio opteron praticamente come un fx-62 e l' e6600 a 3.2ghz mantenendo la x1900 a 1280 ho circa il 10-15% forse anche 20% in piu' , ho speso 300 euro avrei dovuto avere almeno il 60-70% di prestazioni in piu' (con la x1900 a 1280 sempre, non ho crossfire e non penso di averlo mai :) ) per essere vantaggioso, conclusione: mi tengo tutto fino a quando non trovo giochi impossibili da far girare o il pc arranca, in quel momento spendere 300 o anche di piu' mi permette di avere sicuramente piu' prestazioni di ora. Ovviamente chi deve comprarsi un pc exnovo allora e' fortemente consigliato il core duo se non vuole cimentarsi in overclock spinti di chip amd 165 "fortunelli" e simili, ma chi ha gia' un amd oltre i 2.7 ghz e una x1900 con monitor lcd (quindi ris max 1280) per me puo' risparmiare e magari investirli nelle nuove schede video dx10 (comunque che se ne dica per me a 1280 la cpu non fa la differenza, mia opinione personale )
pincopaolino
14-12-2006, 10:32
Sicuramente, pero' quanto hai speso in piu' in piu'? Se tanto hai speso e tanto hai guadagnato allora hai fatto un affare, se tanto hai speso , ma hai guadagnato meno allora sei stato vittima del mercato :D Penso che alla fine e' questo il pensiero di pissicchia, dipende tutto da chi spende e da cosa vuole e cosa spera e ottiene.
concordo pienamente con te, per chi gioca a 1280x1024 passare adesso a conroe, 8800gtx e solo un modo come un altro per farsi un ragalo, ma se dobbiamo essere sinceri cambiare adesso per chì è un gamer incallito come me non ne vale la pena non c'è 1 titolo e dico 1 che giustifichi la spesa, (parlo di aggiornare il pc se si deve assemblare un pc nuovo l'acquisto del conroe è d'obbligo ;) ) e non venitemi a dire ora arriva crysis perchè è previsto per fine marzo :muro: e non si sa come gira su un sistema del genere, inoltre la data è certa al 40% quindi nemmeno e sicuro, tutti gli altri titoli dx10 degni di nota sono previsti per fine 2007 quindi apparte il gusto personale di fare più punti nei test video e giocare con un gioco ottimizzato malissimo come gothic 3 facendo 5 frame in più non mi sembra che ci siano grosse motivazioni IMHO, col mio pc a 1280x1024 gioco con tutto e quando dico tutto intendo dire tutto a palla (sto prendendo 2gb di ram ddr 500 proprio perchè è il solo componente che mi delude) con filtri e compagnia, inoltre ho appena preso un XBOX360 spendevo meno per aggiornare il pc :D la scelta è stata per esperienza personale ho sempre avuto una console e un pc e non me ne sono mai pentito meglio avere la possibiltà di scegliere che avere un pc ultra alla moda (perchè in fondo di moda si tratta visto che un aggiornamento al mio sistema totale era solo superfluo fatto oggi) e giocare a oblivion o gothic 3 con 5 frame in più ;) quindi non è un problema di money ma è un discorso ragionato e ponderato ;) a settembre riparliamo di hardware pc e dx10 :cool:
ragionato e ponderato ;) a settembre riparliamo di hardware pc e dx10 :cool:
Esatto e aggiungo che statisticamente cambiare pc in toto ogni 2-3 anni e' il modo migliore per risparmiare e aggiornarsi con le ultime tecnologie, nel tempo tra gli aggiornamenti puoi mettere da parte i soldi e poi farti un bel pc piuttosto che spendere "di continuo", IMHO sempre !
pincopaolino
14-12-2006, 11:09
Esatto e aggiungo che statisticamente cambiare pc in toto ogni 2-3 anni e' il modo migliore per risparmiare e aggiornarsi con le ultime tecnologie, nel tempo tra gli aggiornamenti puoi mettere da parte i soldi e poi farti un bel pc piuttosto che spendere "di continuo", IMHO sempre !
ti quoto ma 3 anni sono tanti se non fai aggiornamenti minimi sei out io direi piccoli aggiornamenti ogni tanto e ogni 2 anni cambio radicale , ad esempio il mio pc l'ho assemblato a settembre 2005, a distanza di un anno a ottobre ho cambiato cpu con pochissimi euro e scheda video sempre con pochi euro (calcolando che ho rivenduto il materiale che ho sostituito) ;) e ho ancora un pc competitivo :D
Molti pensano che sia sbagliato perchè dopo 2 anni ti pagano poco la merce usata, ma non è cosi perchè se si considera che tra 1 anno venderò meno i miei componenti hardware, allo stesso tempo spederò meno per quelli nuovi e ho il vantaggio che so come girerà crysis tanto per fare un esempio e potro scegliere l'hardware che più mi aggrada più tosto che farlo adesso alla cieca :cool:
Inoltre visto il prezzo già basso dei conroe non è che chi li rivendera tra un anno ci ricaverà chissa che cosa :asd: idem per 8800gtx tra 6 mesi vale la metà :O è statisticamente provato che la maggior parte dell'hardware nel giro di 6 mesi svaluta quasi la metà e dopo svaluta piano piano :O
ovviamente IMHO :read:
gianlu75xp
14-12-2006, 11:45
e non venitemi a dire ora arriva crysis perchè è previsto per fine marzo :muro: e non si sa come gira su un sistema del genere, inoltre la data è certa al 40% quindi nemmeno e sicuro
Ti do una conferma: Crysis è stato ufficialmente posticipato a fine 2007 :D , Stalker invece è dato in uscita il 20 marzo ;)
Per il tipo di gamers che siamo noi i ns sistemi possono bastare ampiamente fino a settembre/ottobre 2007 :mano:
pissicchia
14-12-2006, 11:53
Sicuramente, pero' quanto hai speso in piu' in piu'? Se tanto hai speso e tanto hai guadagnato allora hai fatto un affare, se tanto hai speso , ma hai guadagnato meno allora sei stato vittima del mercato :D Penso che alla fine e' questo il pensiero di pissicchia, dipende tutto da chi spende e da cosa vuole e cosa spera e ottiene.
si certo intendo questo, voglio cioè dare valore alle spese che faccio, cmq io gioco ancora a giochi di uno o due anni fa insieme a cose nuove perciò ho molti titoli da fare fuori con questa macchinetta. :)
pissicchia
14-12-2006, 11:54
cosa intendi per "bus" piu alto? :confused:
HTT a 1000mhz
pissicchia
14-12-2006, 11:56
Guarda sottraendo il ricavato dei precedenti componenti che ho avuto la fortuna di vendere comodamente in blocco, ho speso 300€.
quanto hai guadagnato al 3dmark 05 dal vecchio al nuovo procio?
pissicchia
14-12-2006, 12:06
concordo pienamente con te, per chi gioca a 1280x1024 passare adesso a conroe, 8800gtx e solo un modo come un altro per farsi un ragalo, ma se dobbiamo essere sinceri cambiare adesso per chì è un gamer incallito come me non ne vale la pena non c'è 1 titolo e dico 1 che giustifichi la spesa, (parlo di aggiornare il pc se si deve assemblare un pc nuovo l'acquisto del conroe è d'obbligo ;) ) e non venitemi a dire ora arriva crysis perchè è previsto per fine marzo :muro: e non si sa come gira su un sistema del genere, inoltre la data è certa al 40% quindi nemmeno e sicuro, tutti gli altri titoli dx10 degni di nota sono previsti per fine 2007 quindi apparte il gusto personale di fare più punti nei test video e giocare con un gioco ottimizzato malissimo come gothic 3 facendo 5 frame in più non mi sembra che ci siano grosse motivazioni IMHO, col mio pc a 1280x1024 gioco con tutto e quando dico tutto intendo dire tutto a palla (sto prendendo 2gb di ram ddr 500 proprio perchè è il solo componente che mi delude) con filtri e compagnia, inoltre ho appena preso un XBOX360 spendevo meno per aggiornare il pc :D la scelta è stata per esperienza personale ho sempre avuto una console e un pc e non me ne sono mai pentito meglio avere la possibiltà di scegliere che avere un pc ultra alla moda (perchè in fondo di moda si tratta visto che un aggiornamento al mio sistema totale era solo superfluo fatto oggi) e giocare a oblivion o gothic 3 con 5 frame in più ;) quindi non è un problema di money ma è un discorso ragionato e ponderato ;) a settembre riparliamo di hardware pc e dx10 :cool:
d'accordissimo ora come ora con un computer medio non vale la pena cambiare niente (se hai una bella scheda come la nostra ovvio) poi quando il mercato sfrutterà dx10 e dual core allora si vedrà, certo se uno ha un pentium 4 a 2.4 giga e una 9800pro allora può prendere conroe sicuramente, poi io paragonerei le prestazione del mio processore con uno standard non overclokkato, ma alla fine abbiamo detto già tutto. Io devo ancora finire Thief 3 :sofico:
pissicchia
14-12-2006, 12:09
Esatto e aggiungo che statisticamente cambiare pc in toto ogni 2-3 anni e' il modo migliore per risparmiare e aggiornarsi con le ultime tecnologie, nel tempo tra gli aggiornamenti puoi mettere da parte i soldi e poi farti un bel pc piuttosto che spendere "di continuo", IMHO sempre !
bhe oddio 3 anni è tosta....io ho fatto due conti che se riesci a mettere da parte 600 euro circa all'anno (anche meno se vendi la roba) riesci ad avere un computer sempre aggiornato. Sono tipo 50 euri al mese non è tanto. :stordita:
pincopaolino
14-12-2006, 12:10
d'accordissimo ora come ora con un computer medio non vale la pena cambiare niente (se hai una bella scheda come la nostra ovvio) poi quando il mercato sfrutterà dx10 e dual core allora si vedrà, certo se uno ha un pentium 4 a 2.4 giga e una 9800pro allora può prendere conroe sicuramente, poi io paragonerei le prestazione del mio processore con uno standard non overclokkato, ma alla fine abbiamo detto già tutto. Io devo ancora finire Thief 3 :sofico:
però non dire che il 3500+ è superiore ;) che ti piacchiano :D
Ti do una conferma: Crysis è stato ufficialmente posticipato a fine 2007 :D , Stalker invece è dato in uscita il 20 marzo ;)
Per il tipo di gamers che siamo noi i ns sistemi possono bastare ampiamente fino a settembre/ottobre 2007 :mano:
ps:gianlu e noi sempre daccordo andiamo :cincin:
...quante pagine ancora su A64 e Conroe??? ...dai ragazzi, bastaaaa!!! :D
:)
pissicchia
14-12-2006, 12:15
pinco un 6600 standard non overclokkato con la mia scheda fa 10000 un 3500 oveclokkato di 400mhz fa di più. :D domandina: secondo voi meglio prendere l'artic coler freezer 64 o il Coolermaster Hyper TX - AMD che va anche su am2 ma raffredda un pò meno?
...quante pagine ancora su A64 e Conroe??? ...dai ragazzi, bastaaaa!!! :D
:)
quoto, rientriamo nei binari della discussione ragazzi ;)
pincopaolino
14-12-2006, 12:25
quoto, rientriamo nei binari della discussione ragazzi ;)
YES :D MADLITA' OT END :banned:
NvidiaMen
14-12-2006, 13:49
Scusate ragazzi riporto un problema (da me già segnalato nella sezione principale delle discussioni generali) anche in questo thread nel quale certamente sarà facile trovare un guru :ave: in grado di rispondermi. ;)
Volevo un'informazione dato che non ho mai avuto modo di provare una VGA con bios non PAL. Il fatto che una scheda video come la x1900 aiw abbia nel bios impostato il formato NTSC, che limitazioni determina? :confused: A quanto vedo non si trovano bios PAL sulla rete per questa scheda video... Il dubbio mi è anche venuto cercando di leggere questa review in portoghese (http://www.forumpcs.com.br/review.php?r=148174&page=5)... :stordita:
Sarebbe opportuno, ad ogni domanda, una risposta netta tipo VERO o FALSO. ;)
1) Impedisce la visualizzazione del desktop e del S.O. del PC sul televisore PAL. (Supposizione personale che credo vera).
2) Impedisce alla scheda di ricevere e visualizzare canali analogici in formato PAL con il suo sintonizzatore analogico interno.
3) Impedisce alla scheda di ricevere e visualizzare canali del digitale terrestre in formato PAL con il suo sintonizzatore digitale interno.
4) Impedisce alla scheda di acquisire trasmissioni da fonti esterne collegate attraverso s-video (ad esempio decoder satellitari tipo sky) per poterli registrare con il multimedia center di ATI su hard disk.
Spero in qualche vostro intervento "illuminante" e figlio di test diretti in tal senso. :)
Grazie. NM.
pissicchia
14-12-2006, 14:41
Non credo che ati commercializzerebbe in italia schede che non funzionano sulla televisione pal.
pincopaolino
14-12-2006, 14:51
ma fino ad asso non ho trovato nessuna limitazione in tal senso non vedo perchè crearsi tutti questi problemi :D
NvidiaMen @ hai la firma parecchio irregolare ;)
NvidiaMen
14-12-2006, 15:17
ma fino ad asso non ho trovato nessuna limitazione in tal senso non vedo perchè crearsi tutti questi problemi :D
Quali problemi? :confused: Stò semplicemente chiedendo se un bios NTSC può impedire un'utilizzazione a 360° della scheda, dato che ne dovrei prenderne una e non ho la possibilità di provarla ne io ne chi me la fornisce... Ho offeso per caso qualcuno? :mbe:
NvidiaMen @ hai la firma parecchio irregolare ;)
:stordita: L'ho accorciata. Adesso và bene? :)
C'è ancora un rigo in più.
pissicchia
14-12-2006, 16:02
Quali problemi? :confused: Stò semplicemente chiedendo se un bios NTSC può impedire un'utilizzazione a 360° della scheda, dato che ne dovrei prenderne una e non ho la possibilità di provarla ne io ne chi me la fornisce... Ho offeso per caso qualcuno? :mbe:
:stordita: L'ho accorciata. Adesso và bene? :)
senti leggi una recensione di questa scheda se non c'è menzione di questa problema vai al negozio e te la prendi ok? Secondo te fanno una scheda fatta proprio per AiW che non va bene sulla televisione?
NvidiaMen
14-12-2006, 17:37
senti leggi una recensione di questa scheda se non c'è menzione di questa problema vai al negozio e te la prendi ok? Secondo te fanno una scheda fatta proprio per AiW che non va bene sulla televisione?
Il problema è che molte di queste schede sono importate dagli USA e hanno il formato NTSC come quella propostami. Esiste anche una versione PAL ecco il perchè delle mie domande. Di recensioni che riguardano la versione NTSC non ce ne sono in Europa poichè logicamente è stata testata la versione PAL. In ogni caso non vedo il perchè di tutta questa ostilità nel rispondermi... :rolleyes:
Il problema è che molte di queste schede sono importate dagli USA e hanno il formato NTSC come quella propostami. Esiste anche una versione PAL ecco il perchè delle mie domande. Di recensioni che riguardano la versione NTSC non ce ne sono in Europa poichè logicamente è stata testata la versione PAL. In ogni caso non vedo il perchè di tutta questa ostilità nel rispondrmi... :rolleyes:
non prendertela , purtroppo,a mio parere ti sei incontrato con il piu' fastidioso del 3d che oltre a sparare un sacco di sciocchezze non e' nuovo nell'utilizzo di questi toni da saccente arrogante...ignoralo
In ogni caso non vedo il perchè di tutta questa ostilità nel rispondermi... :rolleyes:
manco io sinceramente :rolleyes:
domandare è lecito ....
pincopaolino
14-12-2006, 18:47
non prendertela , purtroppo,a mio parere ti sei incontrato con il piu' fastidioso del 3d che oltre a sparare un sacco di sciocchezze non e' nuovo nell'utilizzo di questi toni da saccente arrogante...ignoralo
:asd:
pincopaolino
14-12-2006, 18:55
Il problema è che molte di queste schede sono importate dagli USA e hanno il formato NTSC come quella propostami. Esiste anche una versione PAL ecco il perchè delle mie domande. Di recensioni che riguardano la versione NTSC non ce ne sono in Europa poichè logicamente è stata testata la versione PAL. In ogni caso non vedo il perchè di tutta questa ostilità nel rispondermi... :rolleyes:
cmq acethor non si riferisce a me ;) io volevo traquillizzarti nel post precedente, una risposta più tecnica non può dartela nessuno se non un utente che possiede un x1900 ntsc :rolleyes: però non penso che ha delle limitazioni o quanto meno non tutte quelle non è mica una console, cmq non per farmi i fatti tuoi ma primo quanto la paghi questa? secondo la devi ritirare da fuori l'europa presumo?
te lo chiedo....
primo perchè dipende quanto la stai pagando ti conviene prenderla in europa tipo per un risparmio 20 euro di differenza.
secondo ritirandola da fuori la comunità europea c'è il rischio tasse doganali ;)
terzo ti togli tutti questi dubbi e vai sul sicuro :O
quarto in europa l'hanno comprata in tanti, specialmente i primi possesori l'hanno ritirata dagli usa e malgrado frequento questo post da molto tempo non ho mai sentito nessuno che ha dei problemi del genere per via del formato ntcs o pal :cool:
senti leggi una recensione di questa scheda se non c'è menzione di questa problema vai al negozio e te la prendi ok? Secondo te fanno una scheda fatta proprio per AiW che non va bene sulla televisione?
questo tono saccente e arrogante comincia a stufarmi..valuta te, io ti ho avvisato.
pissicchia
14-12-2006, 19:39
il tono saccente lo metti tu forse, il fatto è che se vuoi equivocare il tono di una frase scritta lo fai facilmente perchè la interpreti tu... ;)
vedo che il messaggio non è arrivato.
questa volta sei sospeso 3gg, se al tuo ritorno non avrai compreso il valore di un richiamo di un moderatore, la sanzione sarà più pesante.
inoltre, se non hai voglia di aiutare chi ha un problema, limitati a non farlo. è abbastanza inutile fargli pesare il fatto che ignora una cosa che a te pare tanto ovvia. ;)
NvidiaMen
14-12-2006, 20:14
non prendertela , purtroppo,a mio parere ti sei incontrato con il piu' fastidioso del 3d che oltre a sparare un sacco di sciocchezze non e' nuovo nell'utilizzo di questi toni da saccente arrogante...ignoralo
Grazie acethor, mi spiace soprattutto, con le mie richieste sull'NTSC, di aver provocato la sospensione di un utente, non era questa la mia intenzione e me ne dispiaccio non poco. :(
INFECTED
14-12-2006, 20:22
Grazie acethor, mi spiace soprattutto, con le mie richieste sull'NTSC, di aver provocato la sospensione di un utente, non era questa la mia intenzione e me ne dispiaccio non poco. :(
Ciao
ma figurati hai tutta la nostra solidarietà ;)
Tornando al tuo problema, credo che teoricamente ci sia la possibilità di impostare la scheda a PAL
gianlu75xp
14-12-2006, 20:23
Qualcuno ha provato i nuovi Catalyst 6.12? Io li ho scaricati ed ho letto la release note, a parte quanto riportato di seguito non apportano miglioramenti sostanziali [sembrerebbe... a dopo per le conferme]
# Black&White 2: Slow frame rate is no longer noticed when playing the game under Windows XP when setting the graphics to the lowest possible settings. Further details can be found in topic number 737-23714
# Neverwinter Nights: Enabling super AA and CrossFire within the Catalyst Control Center no longer results in display corruption being noticed within the game's main menu. Further details can be found in topic number 737-23718
NvidiaMen
14-12-2006, 20:28
cmq acethor non si riferisce a me ;) io volevo traquillizzarti nel post precedente, una risposta più tecnica non può dartela nessuno se non un utente che possiede un x1900 ntsc :rolleyes:
Infatti ecco perchè nella richiesta chiedevo un intervento illuminante di un possessore di una x1900aiw...
Il mio dubbio è che, data l'esclusività della scheda rispetto alle classiche x1900, difficilmente un possessore di questo tipo di scheda per di più NTSC potrà frequentare questo thread con una frequenza accettabile. Avevo aperto una richiesta all'esterno del thread per aumentare le possibilità, ma a quanto pare non è previsto dal regolamento e mi è stata chiusa... :(
però non penso che ha delle limitazioni o quanto meno non tutte quelle non è mica una console, cmq non per farmi i fatti tuoi ma primo quanto la paghi questa? secondo la devi ritirare da fuori l'europa presumo?
te lo chiedo....
primo perchè dipende quanto la stai pagando ti conviene prenderla in europa tipo per un risparmio 20 euro di differenza.
secondo ritirandola da fuori la comunità europea c'è il rischio tasse doganali ;)
terzo ti togli tutti questi dubbi e vai sul sicuro :O
La stò scambiando con la mia x1800xl aiw Pal sul mercatino qui ad hwu pagando la differenza al venditore. :)
quarto in europa l'hanno comprata in tanti, specialmente i primi possesori l'hanno ritirata dagli usa e malgrado frequento questo post da molto tempo non ho mai sentito nessuno che ha dei problemi del genere per via del formato ntcs o pal :cool:
Infatti anche io ho sempre creduto non vi debbano essere particolari problemi. Il dubbio mi è venuto subito dopo la lettura di un pvt, a me indirizzato da un utente, nel quale venivano messe in dubbio alcune funzionalità sui sintonizzatori NTSC e sull'acquisizione di segnale video da fonti esterne PAL, tra l'altro avvalorate dal link sulla recensione della versione NTSC che ho segnalato in precedenza. In ogni caso ti ringrazio per la tua valutazione sulla base del numero di possessori che non hanno in alcun modo sollevato problematiche in questo senso sino ad ora. Spererei comunque che un possessore di x1900 aiw NTSC possa avvalorare tali conclusioni con la propria esperienza diretta.
Ciao. NM.
pincopaolino
14-12-2006, 20:29
allora il sintonizzatore non va se non è pal in italia :muro:
inoltre ci sono vari sistemi pal per le varie nazioni europe ma questo per le schede tv normali non so se vale anche per l'x1900, su questo non ci piove ;)
non posso darti altre conferme per il resto la cosa strana e che il venditore ti ha detto che non può provarla :fiufiu: sento puzza di bruciato :rolleyes: perche anche se fosse come mai non l'ha mai provata ;) magari mi sbaglio ma questi dubbi se non te li chiarisce il venditore che la posside la vedo dura :rolleyes:
NvidiaMen
14-12-2006, 20:42
allora il sintonizzatore non va se non è pal in italia inoltre ci sono vari sistemi pal per le varie nazioni europe ma questo per le schede tv normali non so se vale anche per l'x1900, su questo non ci piove ;)
Anche tommydc in questo vecchio post (http://www.hwupgrade.it/forum/archive/index.php/t-877712.html) su una 9700 aiw NTSC è giunto a queste conclusioni...
Quindi mi sà che la problematica esiste... :cry:
non posso darti altre conferme per il resto la cosa strana e che chi l'ha ti ha detto che non può provarla :fiufiu: sento puzza di bruciato :rolleyes: perche anche se fosse come mai non l'ha mai provata ;)
A questa tua osservazione non saprei proprio come risponderti... :stordita:
pincopaolino
14-12-2006, 20:45
Anche tommydc in questo vecchio post (http://www.hwupgrade.it/forum/archive/index.php/t-877712.html) su una 9700 aiw NTSC è giunto a queste conclusioni...
Quindi mi sà che la problematica esiste... :cry:
A questa tua osservazione non saprei proprio come risponderti... :stordita:
un cosniglio lascia perdere se non hai la certezza che funge come una normale pal ;)
NvidiaMen
14-12-2006, 20:52
un cosniglio lascia perdere se non hai la certezza che funge come una normale pal ;)
Forse hai ragione tu.
In ogni caso sono andato direttamente alla fonte (sito Ati) per vedere la differenza tra la versione europea e quella statunitense. Alla voce TV tuner requirements ho letto:
1) per la versione europea: Hybrid PAL/SECAM + DVB-T (Europe) (http://ati.amd.com/products/radeonx1900/aiwx1900/specseuro.html)
2) per la versione statunitense: NTSC (North America, Japan, and Latin America) (http://ati.amd.com/products/radeonx1900/aiwx1900/specs.html)
Quindi nella versione statunitense il sintonizzatore analogico non dovrebbe funzionare con trasmissioni PAL ed inoltre mancherebbe anche quello del digitale terrestre...
Almeno leggendo dalle specifiche... :rolleyes:
NvidiaMen ti confermo tutto. ATi ha sempre prodotto e produce due diversi tipi di AIW. Quelle per il mercato americano e giapponese che utlizzano sintonizzato NTSC e quelle per il mercato europeo che utlizzano sintonizzatore PAL\SECAM.
La Tv europea trasmette in formato PAL\SECAM, qualsiasi scheda video\tv\decoder con sintonizzatore NTCS non sarà in grado di ricevere alcun segnale europeo.
...ciao!
NvidiaMen
14-12-2006, 22:59
NvidiaMen ti confermo tutto. ATi ha sempre prodotto e produce due diversi tipi di AIW. Quelle per il mercato americano e giapponese che utlizzano sintonizzato NTSC e quelle per il mercato europeo che utlizzano sintonizzatore PAL\SECAM.
La Tv europea trasmette in formato PAL\SECAM, qualsiasi scheda video\tv\decoder con sintonizzatore NTCS non sarà in grado di ricevere alcun segnale europeo.
...ciao!
Ciao Belin :) . Grazie per la tua puntuale risposta. ;) Ho avvertito, ringraziandolo per la disponibilità, l'utente a cui avevo proposto lo scambio.
Mi domando ancora a cosa serva acquistare una All in Wonder NTSC qui in Europa anche pagandola molto di meno... :rolleyes:
...sostanzialmente a nulla! una AIW va acquistata qui in Europa, oppure negli USA ma specificando che si vuole ricevere la versione europea.
...la versione europea ha sintonizzatore TV Hybrid PAL/SECAM, il chip ATI Rage Theater 200 e il chip NxtWave NXT6000 per il digitale DVB-T.
...ciao! :)
NvidiaMen
14-12-2006, 23:29
E' un piacere sapere che esistano utenti disponibili e cordiali come Belin. Ciao e grazie ancora per le tue risposte. A buon rendere, NM. ;)
pincopaolino
15-12-2006, 00:15
...sostanzialmente a nulla! una AIW va acquistata qui in Europa, oppure negli USA ma specificando che si vuole ricevere la versione europea.
...la versione europea ha sintonizzatore TV Hybrid PAL/SECAM, il chip ATI Rage Theater 200 e il chip NxtWave NXT6000 per il digitale DVB-T.
...ciao! :)
infatti detto con parole più tecniche :D complimenti belin ;)
cmq acethor non si riferisce a me ;) io volevo traquillizzarti nel post precedente, una risposta più tecnica non può dartela nessuno se non un utente che possiede un x1900 ntsc :rolleyes: però non penso che ha delle limitazioni o quanto meno non tutte quelle non è mica una console, cmq non per farmi i fatti tuoi ma primo quanto la paghi questa? secondo la devi ritirare da fuori l'europa presumo?
te lo chiedo....
primo perchè dipende quanto la stai pagando ti conviene prenderla in europa tipo per un risparmio 20 euro di differenza.
secondo ritirandola da fuori la comunità europea c'è il rischio tasse doganali ;)
terzo ti togli tutti questi dubbi e vai sul sicuro :O
quarto in europa l'hanno comprata in tanti, specialmente i primi possesori l'hanno ritirata dagli usa e malgrado frequento questo post da molto tempo non ho mai sentito nessuno che ha dei problemi del genere per via del formato ntcs o pal :cool:
chiaramente no... ;)
Grazie acethor, mi spiace soprattutto, con le mie richieste sull'NTSC, di aver provocato la sospensione di un utente, non era questa la mia intenzione e me ne dispiaccio non poco. :(
non dispiacerti,non hai provocato nulla....la storia e' molto lunga,e i post precedenti ti fanno capire gli umori degl'altri amici del 3d ,che come me hanno assistito a diverse perfomance del genere, dell'utente sospeso.
Quindi a mio parere ,giusta e puntuale la sanzione di wiltord ,che ha poi aggiunto delle "sante parole":
se non hai voglia di aiutare chi ha un problema, limitati a non farlo. è abbastanza inutile fargli pesare il fatto che ignora una cosa che a te pare tanto ovvia. ed io aggiungerei:
se decidi di farlo fallo con rispetto ed umilta' ;)
Qualcuno ha provato i nuovi Catalyst 6.12? Io li ho scaricati ed ho letto la release note, a parte quanto riportato di seguito non apportano miglioramenti sostanziali [sembrerebbe... a dopo per le conferme]
un leggero miglioramento del punteggio 3d mark 2006 quasi insignificante ma c'e' (6024 prima 6002)
INFECTED
15-12-2006, 11:26
“Versione 9.0c delle API Microsoft; permettono di sfruttare appieno le funzionalità delle più recenti schede video 3D, in particolare con versioni 2.0b e 3.0 degli Shader.”
Versione aggiornata al mese di Dicembre 2006.
DirectX 9.0c (http://www.hwupgrade.it/software_dl2.php?id=1796&url=1)
;)
Non mi si apre il link... :stordita:
-EDIT-
Ah si, dopo un pò è partito.
Ragazzi io torno alla carica con il mio problema di temperature... :(
In pratica ormai ogni volta che provo a giocare a qualcosa col mio pc (need fors speed carbon, the settlers 5, NWN2, e via dicendo) la Temp. della sk video arriva anche a 100 °C... eppure sopra c'e uno zalman VF900-Cu, l'ho smontato e rimontato piu' volte, come pasta uso l'artic silver 5, ho anche tolto i dissini in bundle con lo zalman, non so piu' che diamine pensare... e la ventola gira sempre al max (2500 rpm).
Per quale dannato motivo mi raggiunge queste temperature impossibili?
Aggiungo che la sk video non e' overclocckata ma gira a default.
Ragazzi io torno alla carica con il mio problema di temperature... :(
In pratica ormai ogni volta che provo a giocare a qualcosa col mio pc (need fors speed carbon, the settlers 5, NWN2, e via dicendo) la Temp. della sk video arriva anche a 100 °C... eppure sopra c'e uno zalman VF900-Cu, l'ho smontato e rimontato piu' volte, come pasta uso l'artic silver 5, ho anche tolto i dissini in bundle con lo zalman, non so piu' che diamine pensare... e la ventola gira sempre al max (2500 rpm).
Per quale dannato motivo mi raggiunge queste temperature impossibili?
fermo restando che lo zalman ha bisogno di una buona areazione e dando per scontato che tu ce l'abbia,sicuramente e' un problema di assemblaggio dovuto al fatto che su alcune schede ,e non si capisce per quale motivo, gli o-ring non toccano il pcb, e quindi non c'e' l'aderenza ottimale tra chip e dissi.
Qualcuno pare abbia risolto utilizzando,per colmare gli spazi,il supporto a croce in ferro del dissi stock.
Imho per un corretto montaggio gli o-ring devono toccare ,e la scheda non deve flettersi altrimenti qlcosa non va.
io in idle sto @35° full 75° ;)
Non mi si apre il link... :stordita:
-EDIT-
Ah si, dopo un pò è partito.
si ma il download e' lentoooooooooooo
fermo restando che lo zalman ha bisogno di una buona areazione e dando per scontato che tu ce l'abbia,sicuramente e' un problema di assemblaggio dovuto al fatto che su alcune schede ,e non si capisce per quale motivo, gli o-ring non toccano il pcb, e quindi non c'e' l'aderenza ottimale tra chip e dissi.
Qualcuno pare abbia risolto utilizzando,per colmare gli spazi,il supporto a croce in ferro del dissi stock.
Imho per un corretto montaggio gli o-ring devono toccare ,e la scheda non deve flettersi altrimenti qlcosa non va.
io in idle sto @35° full 75° ;)
In effetti per far toccare gli o-ring neri ho dovuto stringere molto e la scheda si era incurvata parecchio, ora ho allentato un pelo le viti perche' non mi piaceva affatto quella curvatura sulla scheda.
Quindi mi consigli di ingegnarmi per trovare degli spessori da mettere sotto gli o-ring?
A trovarli ora degli affarini adatti :confused:
Capello82
15-12-2006, 17:42
In effetti per far toccare gli o-ring neri ho dovuto stringere molto e la scheda si era incurvata parecchio, ora ho allentato un pelo le viti perche' non mi piaceva affatto quella curvatura sulla scheda.
Quindi mi consigli di ingegnarmi per trovare degli spessori da mettere sotto gli o-ring?
A trovarli ora degli affarini adatti :confused:
Io avevo i tuoi stessi problemi.... alla fine come avrai letto nei precedenti miei interventi sono tornato al dissipatore stock + Asrtic Silver 5 con risultati buoni.
Io avevo i tuoi stessi problemi.... alla fine come avrai letto nei precedenti miei interventi sono tornato al dissipatore stock + Asrtic Silver 5 con risultati buoni.
Questo WE faccio un'ultima prova montando qualcosa che faccia da spessore per gli o-ring, se non funziona rimetto su il dissi stock e vedo che cosa succede.
In effetti per far toccare gli o-ring neri ho dovuto stringere molto e la scheda si era incurvata parecchio, ora ho allentato un pelo le viti perche' non mi piaceva affatto quella curvatura sulla scheda.
Quindi mi consigli di ingegnarmi per trovare degli spessori da mettere sotto gli o-ring?
A trovarli ora degli affarini adatti :confused:
prova ,come ti dicevo prima ,ad utilizzare come spessore quel supporto a croce che hai smontato dallo stock qualcuno ha fatto cosi' ed ha risolto.
ritornare allo stock, che dovrai far girare al max, si da buoni risultati ma anche tanto fracasso.
risolvi il problema degli spessori e vedrai che tutto cambia ;)
Capello82
15-12-2006, 20:28
prova ,come ti dicevo prima ,ad utilizzare come spessore quel supporto a croce che hai smontato dallo stock qualcuno ha fatto cosi' ed ha risolto.
ritornare allo stock, che dovrai far girare al max, si da buoni risultati ma anche tanto fracasso.
risolvi il problema degli spessori e vedrai che tutto cambia ;)
Il mio stock non gira al massimo.. ho impostato un profilo adeguato su ATT... il rumore è sopportabile a 70°C.
Il mio stock non gira al massimo.. ho impostato un profilo adeguato su ATT... il rumore è sopportabile a 70°C.
non metto in dubbio il tuo giudizio ,tra l'altro ho seguito da vicino la tua vicenda,e sono fermamente convinto che ,se anche tu avessi risolto il problema degli spessori, non avresti cambiato lo zalman per lo stock.
Mi devo ricredere sullo zalman VF900-Cu
Originariamente i 4 famosi gommini neri nn toccavano la base del pcb, creando una pressione minima sul processore che nn mi soddisfaceva (x farli toccare ho intuito (ma nn l'ho fatto) che la vga si incurvava pericolosamente)
ho provveduto a modificare i due VF900-Cu nella viteria utilizzando la crocera cromata elastica che c'e' sotto il pcb del dissi originale
Ora il dissi e' ben aderente e con la giusta pressione (come il dissi originale) sul processore. Le temperature con Everest sono:
Temp ambiente: 23.3°
Temp GPU1: 33°
Temp GPU2: 34°
Ambiente GPU1: 29°
Ambiente GPU2: 33/34°
GPU1 VRM: 42°
GPU2 VRM: 42°
proseguiro' con le prove di temp (questo e' stato il primo assaggio)
ho un mare di parametri e regolazioni da fare sulle ventole (tutte sotto rheobus)
Cmq una cosa fondamentale, con lo zalman bisogna assolutamente avere (almeno) una fan da 120 sufficientemente potente posizionata in direzione delle 2 VGA (da questo lato devo dire che sono stato aiutato dal case Baydream con 2 fan da 120 frontali posizionate in asse tra loro, una davanti all'altra)
eccovi la testimonianza di genoma a proposito del problema degli o-ring
+ o - si
La modifica x poter utilizzare la crocera consiste nell'utilizzo di viti senza testa (filetto da mm 2,3) lunghe 24 mm, l'ideale sarebbe (come ho fatto io) trovare una barretta filettata in ottone lunga una 20ina di cm, tagliare con un piccolo seghetto da ferro 4 spezzoni appunto da 24 mm (x le misurazioni e' meglio utilizzare un calibro)
Avvitare lo spezzone (vite) sulla gamba (del VF900-Cu) libera sulla parte superiore dalle alette in rame del dissi, avvitarla a raso nella parte superiore della gamba e bloccarla con un primo dado, prendere la misura con il calibro della lunghezza dello spazzone (dado esluso) e ripetere il montaggio x le altre 3 gambe. Avvitare un secondo dado accompagnato da un gommino nero e posizionarlo (con il gommino) a pochi mm dal primo. Inserire ora (x prova) le 4 gambe sul pcb della VGA, rovesciare la VGA, inserire prima la rondella di plastica trasparente (in dotazione con il VF 900) accompagnate da altre 2 rondelle metalliche (la rondella di plastica trasparente + le 2 rondelle metalliche servono x fare da spessore e uguagliare lo spessore di quei (4) piccoli parallelepipedi trasparenti incollati sotto la crocera cromata)
Inserire la crocera ed avvitare gli ultimi 4 dadi in senso diagonale tra loro con piccoli avvitamenti alternati, fino a quando la crocera vista di profilo nn appare come una retta.
Accompagnare e bloccare i 4 famosi gommini neri contro il pvb con il dado che avevamo inserito prima
Fine
Materiale occorrente:
Una barra filettata da mm 2,3
un calibro
12 dadi
8 rondelle
1 chiave a tubo da 5 mm
1 chiave fissa aperta da 5 mm
Buon lavoro
PS) aiutatevi con il calibro x tutte le misurazioni possibili x avere il dissi perfettamente montato in piano sul processore
questi i dettagli di come ha fatto lui ,ma i modi per arrivare allo scopo possono essere altri ,dipende dall'ingegno e dalla fantasia ;)
Capello82
16-12-2006, 07:53
non metto in dubbio il tuo giudizio ,tra l'altro ho seguito da vicino la tua vicenda,e sono fermamente convinto che ,se anche tu avessi risolto il problema degli spessori, non avresti cambiato lo zalman per lo stock.
Si ne sono convinto anche io... Però al negozio si sono limitati a montarlo su una scheda dello stesso mio modello e anche a loro gli o-ring non aderivano. Però cmq non hanno ritenuto il prodotto difettoso in quanto sostenevano che c'era pieno contatto con la base di rame e il chip... Potrebbe pure essere .. mah :muro:
questi i dettagli di come ha fatto lui ,ma i modi per arrivare allo scopo possono essere altri ,dipende dall'ingegno e dalla fantasia ;)
Non ha postato foto del lavoro eseguito? giusto per avere un'idea precisa (piu' o meno ho capito come ha fatto, ma giusto per essere sicuri).
In effetti per far toccare gli o-ring neri ho dovuto stringere molto e la scheda si era incurvata parecchio, ora ho allentato un pelo le viti perche' non mi piaceva affatto quella curvatura sulla scheda.
Quindi mi consigli di ingegnarmi per trovare degli spessori da mettere sotto gli o-ring?
A trovarli ora degli affarini adatti :confused:
Nn mettere assolutamente spessori sotto gli o-ring...rischieresti di avere si la VGA piatta, ma di nn avere la pressione sufficiente del dissi sul processore, anzi potresti rischiare adirittura che nn vi sia contatto micrometrico tra i 2 componenti.
l'unica soluzione-modifica fattibile e' quella fatta da me
Daltronde guardando la vga di profilo si capisce perche' si incurva pericolosamente montando lo zalman senza modifica, perche' e' proprio il pcb della vga che fa' da elastico_pressione, mentre montando la crocera originale la stessa fa perno al centro sotto il processore lasciando libero il pcb
Cia ragazzi.
Possiedo una X1900 Xtx da circa 4-5 mesi e nonl'ho mai overcloccata.
Desideravo spingerla un poco ma purtroppo ho ancora il dissi originale.
Cosa mi consigliate per overcloccare?
Quanto dovrei salire più o meno di V ad aria?
Grazie
buioomega2002
17-12-2006, 09:37
Ciao a tutti.Volevo chiedervi un'informazione per me di vitale importanza....
Come faccio a collegare alla scheda un apparecchio esterno tipo videoregistratore o xbox360?La mia asus ha entrambi i cavi sia audio video e ad alta definizione.Tuttavia una volta collegato xbox non ho alcun programma per visualizzarlo sul mio monitor....sapreste darmi qualche indicazione?
MakenValborg
18-12-2006, 12:57
Ciao a tutti.Volevo chiedervi un'informazione per me di vitale importanza....
Come faccio a collegare alla scheda un apparecchio esterno tipo videoregistratore o xbox360?La mia asus ha entrambi i cavi sia audio video e ad alta definizione.Tuttavia una volta collegato xbox non ho alcun programma per visualizzarlo sul mio monitor....sapreste darmi qualche indicazione?
funziona come tv out, non in.
anche se dovrebbe esserci una specie di acquisizione video... cmq se vuoi attaccare l'xbox al monitor non devi passare per la vga...
INFECTED
18-12-2006, 13:11
funziona come tv out, non in.
anche se dovrebbe esserci una specie di acquisizione video... cmq se vuoi attaccare l'xbox al monitor non devi passare per la vga...
Le x1900xt e x1900xtx sono dotate di funzioni AVIVO e cioè Ati Video In Video Out, quindi funziona in tutti e 2 i sensi ;)
Ovviamente se ci deve collegare la xbox360 fa prima che si compra il cavo vga e collega direttamente al monitor...
MakenValborg
18-12-2006, 13:22
Le x1900xt e x1900xtx sono dotate di funzioni AVIVO e cioè Ati Video In Video Out, quindi funziona in tutti e 2 i sensi ;)
Ovviamente se ci deve collegare la xbox360 fa prima che si compra il cavo vga e collega direttamente al monitor...
anche la x1800xt ;)
cmq il senso era quello :)
ciao
INFECTED
18-12-2006, 13:26
anche la x1800xt ;)
cmq il senso era quello :)
ciao
;)
...arieccomi! questo weekend ho avuto un pò da fare...tra le altre cose sono andato al MARC alla fiera di Genova; sono entrato alle 10 di sabato mattina dopo 15 minuti di coda per i biglietti...quanta gente c'era!!! :eek:
...comunque...ho fatto un pò di spesa - :cool: - basta guardare la mia firma... ASUS A8R32-MVP Deluxe (chipset ATI XPRESS 3200 Crossfire e ULI M1575) ! devo ancora montare il tutto perchè la mobo è pci-ex e la mia X800 Pro è AGP... quindi... mi manca un pezzetto da nulla... :D ...e per questa volta sarete voi a consigliarmi!!!
considerate che:
1) la mobo ASUS A8R32-MVP Deluxe sarà la nuova casa del futuro R600 "Occhi di gatto" :cool: (sicuramente quando costerà meno, non acquisto una vga appena uscita! -genovese inside-)
2) in attesa di R600 "Occhi di gatto" ho intenzione di comprare una X1K tra queste: X1650 XT, X1900 GT, X1950 PRO, X1900 XT, oppure una X1800 XT. Ho bisogno che mi consigliate sui prezzi, non tanto sulle prestazioni (leggo tante recensioni e sempre quelle di HwUpgrade)
3) il Venice sarà cambiato tra un pò, destinazione X2 (che sarà la mia ultima cpu 939)
...ciao! :)
MakenValborg
18-12-2006, 14:03
...arieccomi! questo weekend ho avuto un pò da fare...tra le altre cose sono andato al MARC alla fiera di Genova; sono entrato alle 10 di sabato mattina dopo 15 minuti di coda per i biglietti...quanta gente c'era!!! :eek:
...comunque...ho fatto un pò di spesa - :cool: - basta guardare la mia firma... ASUS A8R32-MVP Deluxe (chipset ATI XPRESS 3200 Crossfire e ULI M1575) ! devo ancora montare il tutto perchè la mobo è pci-ex e la mia X800 Pro è AGP... quindi... mi manca un pezzetto da nulla... :D ...e per questa volta sarete voi a consigliarmi!!!
considerate che:
1) la mobo ASUS A8R32-MVP Deluxe sarà la nuova casa del futuro R600 "Occhi di gatto" :cool: (sicuramente quando costerà meno, non acquisto una vga appena uscita! -genovese inside-)
2) in attesa di R600 "Occhi di gatto" ho intenzione di comprare una X1K tra queste: X1650 XT, X1900 GT, X1950 PRO, X1900 XT, oppure una X1800 XT. Ho bisogno che mi consigliate sui prezzi, non tanto sulle prestazioni (leggo tante recensioni e sempre quelle di HwUpgrade)
3) il Venice sarà cambiato tra un pò, destinazione X2 (che sarà la mia ultima cpu 939)
...ciao! :)
se è di intermezzo direi che l'ideale sarebbe trovare una x1800xt usata ( ne troppo ne poco), così puoi sempre giocare senza problemi, e risparmi qualcosa ;)
Signori e signore (ce ne sono? :D ) ho risolto i miei problemi con il dissipatore Zalman VF 900-Cu.
Temperature in idle tra i 35-39 °C, dipende se uso la tv sul pc, a pieno carico, dopo 2 ore a NFSC temp. max raggiunta 78 °C.
In pratica ho seguito un mezzo consiglio... ho usato la "crociera" del dissi stock ed ho spostato di posto la sk tv pci, dallo slot sotto la sk video a quello sopra ed ora va' tutto a meraviglia.
In settimana mi arrivera' anche una ventola da 12 che installero' sulla paratia laterale del case all'altezza della vga, dovro' vedere se metterla in aspirazione o in estrazione, e cosi dovrei migliorare ancora un po le temperature.
Finalmente posso godermi un po la sk senza patemi... :)
ciondolo
18-12-2006, 14:50
...arieccomi! questo weekend ho avuto un pò da fare...tra le altre cose sono andato al MARC alla fiera di Genova; sono entrato alle 10 di sabato mattina dopo 15 minuti di coda per i biglietti...quanta gente c'era!!! :eek:
...comunque...ho fatto un pò di spesa - :cool: - basta guardare la mia firma... ASUS A8R32-MVP Deluxe (chipset ATI XPRESS 3200 Crossfire e ULI M1575) ! devo ancora montare il tutto perchè la mobo è pci-ex e la mia X800 Pro è AGP... quindi... mi manca un pezzetto da nulla... :D ...e per questa volta sarete voi a consigliarmi!!!
considerate che:
1) la mobo ASUS A8R32-MVP Deluxe sarà la nuova casa del futuro R600 "Occhi di gatto" :cool: (sicuramente quando costerà meno, non acquisto una vga appena uscita! -genovese inside-)
2) in attesa di R600 "Occhi di gatto" ho intenzione di comprare una X1K tra queste: X1650 XT, X1900 GT, X1950 PRO, X1900 XT, oppure una X1800 XT. Ho bisogno che mi consigliate sui prezzi, non tanto sulle prestazioni (leggo tante recensioni e sempre quelle di HwUpgrade)
3) il Venice sarà cambiato tra un pò, destinazione X2 (che sarà la mia ultima cpu 939)
...ciao! :)
come processore se lo trovi ancora,( guarda magari nell'usato) prenditi un 4800x2
Fabbro76
18-12-2006, 15:28
Ragazzi ho bisogno di sapere una cosa: c'è nessuno tra voi che (o con il dissy stock o con uno nuovo) è riuscito a far andare la X1900XT 256 MB a 750 Mhz di GPU? E a che voltaggio?
Io con dissy stock, ventola a palla e 1,6V non riesco a rimanere stabile a 750Mhz.
Per la RAM a quanto siete arrivati? A che voltaggio? Con quale "trucco" di dissipazione?
MakenValborg
18-12-2006, 15:32
Ragazzi ho bisogno di sapere una cosa: c'è nessuno tra voi che (o con il dissy stock o con uno nuovo) è riuscito a far andare la X1900XT 256 MB a 750 Mhz di GPU? E a che voltaggio?
Io con dissy stock, ventola a palla e 1,6V non riesco a rimanere stabile a 750Mhz.
Per la RAM a quanto siete arrivati? A che voltaggio? Con quale "trucco" di dissipazione?
ambisci alla fusione vga? :confused: :mbe:
Fabbro76
18-12-2006, 15:58
No.
Era per chiedere se qualcuno (magari senza dissy stock) riesce a lavorare a 750 Mhz e con che voltaggio.
Stesso discorso per le mem.
MakenValborg
18-12-2006, 16:00
No.
Era per chiedere se qualcuno (magari senza dissy stock) riesce a lavorare a 750 Mhz e con che voltaggio.
Stesso discorso per le mem.
auguri :stordita:
Fabbro76
18-12-2006, 16:06
Anche a te. ;)
Le x1900xt e x1900xtx sono dotate di funzioni AVIVO e cioè Ati Video In Video Out, quindi funziona in tutti e 2 i sensi ;)
Ovviamente se ci deve collegare la xbox360 fa prima che si compra il cavo vga e collega direttamente al monitor...
Interessante...
praticamente e' possibile collegare una telecamera con uscita S-VHS al connettore rotondo S-VHS che c'e' dietro alla x1900xtx?? e utilizzarlo come segnale video d'ingresso alla vga??
Tetsujin
18-12-2006, 16:22
...arieccomi! questo weekend ho avuto un pò da fare...tra le altre cose sono andato al MARC alla fiera di Genova; sono entrato alle 10 di sabato mattina dopo 15 minuti di coda per i biglietti...quanta gente c'era!!! :eek:
...comunque...ho fatto un pò di spesa - :cool: - basta guardare la mia firma... ASUS A8R32-MVP Deluxe (chipset ATI XPRESS 3200 Crossfire e ULI M1575) ! devo ancora montare il tutto perchè la mobo è pci-ex e la mia X800 Pro è AGP... quindi... mi manca un pezzetto da nulla... :D ...e per questa volta sarete voi a consigliarmi!!!
considerate che:
1) la mobo ASUS A8R32-MVP Deluxe sarà la nuova casa del futuro R600 "Occhi di gatto" :cool: (sicuramente quando costerà meno, non acquisto una vga appena uscita! -genovese inside-)
2) in attesa di R600 "Occhi di gatto" ho intenzione di comprare una X1K tra queste: X1650 XT, X1900 GT, X1950 PRO, X1900 XT, oppure una X1800 XT. Ho bisogno che mi consigliate sui prezzi, non tanto sulle prestazioni (leggo tante recensioni e sempre quelle di HwUpgrade)
3) il Venice sarà cambiato tra un pò, destinazione X2 (che sarà la mia ultima cpu 939)
...ciao! :)
che monitor hai? giochi coi filtri?
in linea generale, se hai intenzione di acquistare R600 al lancio, allora direi di buttarti su una X1650XT. Se invece aspetterai un paio di mesi che i prezzi di R600 si assestino, allora starei almeno su una X1950pro oppure su una X1900XT usata.
TigerTank
18-12-2006, 16:26
Interessante...
praticamente e' possibile collegare una telecamera con uscita S-VHS al connettore rotondo S-VHS che c'e' dietro alla x1900xtx?? e utilizzarlo come segnale video d'ingresso alla vga??
Mi pare di sì, bisogna anche installare i drivers WDM mentre per l'acquisizione audio devi usare una scheda audio PCI o l'integrato (credo). Cmq ovviamente non è al pari di una videocamera DV via firewire.
Cmq tempo fà volevo utilizzare questa funzione della vga per collegare il videoregistratore al pc e trasferire su dvd dei vecchi filmati di famiglia da vhs ma non ho ancora trovato il tempo per farlo...
Mi pare di sì, bisogna anche installare i drivers WDM mentre per l'acquisizione audio devi usare una scheda audio PCI o l'integrato (credo). Cmq ovviamente non è al pari di una videocamera DV via firewire.
Cmq tempo fà volevo utilizzare questa funzione della vga per collegare il videoregistratore al pc e trasferire su dvd dei vecchi filmati di famiglia da vhs ma non ho ancora trovato il tempo per farlo...
azz ero convinto che la vga accettasse solo video in uscita....
quindi x l'acquisizione Video vanno installati i WDM...??
Chissa se funziona anche con il CrossFire abilitato??
buioomega2002
18-12-2006, 17:24
Ma che voi sappiate,non esiste un programma tipo quello delle vecchie matrox che ti consente di vedere a pieno schermo un videoregistratore per es anche se non aquisisci?Quello che c'è dentro ti fa aquisire e poi vedi con media player.....
INFECTED
18-12-2006, 17:31
Interessante...
praticamente e' possibile collegare una telecamera con uscita S-VHS al connettore rotondo S-VHS che c'e' dietro alla x1900xtx?? e utilizzarlo come segnale video d'ingresso alla vga??
Certo ;) Non dimenticatevi che sono ottime schede di acquisizione.... e ci credo, con quello che ce l'han fatte pagare :p
Edit: Per l'audio solitamente si usa l'ingresso Line IN della scheda audio ;)
come processore se lo trovi ancora,( guarda magari nell'usato) prenditi un 4800x2
Anche un Opteron se ha :ciapet:
se è di intermezzo direi che l'ideale sarebbe trovare una x1800xt usata ( ne troppo ne poco), così puoi sempre giocare senza problemi, e risparmi qualcosa ;)
...volevo prendere qualcosa di nuovo, per farmi un altro regalo di Natale! ed ho notato che le poche X1800 rimaste costano di più delle X1900. :mbe:
:)
che monitor hai? giochi coi filtri?
in linea generale, se hai intenzione di acquistare R600 al lancio, allora direi di buttarti su una X1650XT. Se invece aspetterai un paio di mesi che i prezzi di R600 si assestino, allora starei almeno su una X1950pro oppure su una X1900XT usata.
...ho un flatron F700B (classico 17pollici piatto) ed utilizzo i filtri...devo dire che la X800 Pro ha cominiciato ad accusarli solo con gli ultimi giochi. Non so, sono un pò indeciso... stavo facendo un pensierino alla X1650 XT, ma anche alla X1950 PRO. Non credo proprio che acquisterò R600 all'uscita (non l'ho mai fatto, non sono il tipo) però lo farò sicuramente dopo qualche mese. mmm...devo pensare...!
:)
INFECTED
18-12-2006, 22:57
...ho un flatron F700B (classico 17pollici piatto) ed utilizzo i filtri...devo dire che la X800 Pro ha cominiciato ad accusarli solo con gli ultimi giochi. Non so, sono un pò indeciso... stavo facendo un pensierino alla X1650 XT, ma anche alla X1950 PRO. Non credo proprio che acquisterò R600 all'uscita (non l'ho mai fatto, non sono il tipo) però lo farò sicuramente dopo qualche mese. mmm...devo pensare...!
:)
Consiglio? Vai di x1950pro, spendi relativamente poco per quello che ti offre (secondo me ha il miglior rapporto prezzo prestazioni) e salta a piè pari r600.... aspetta la generazione successiva che sarà sicuramente più collaudata... sono convinto che riuscirai ad arrivarci con la x1950pro senza particolari intoppi
Inoltre un altro consiglio, tieniti caro caro il tuo Lg Flatron poichè questi gioielli non se ne trovano più in circolazione
Ciao e a buon rendere ;)
Consiglio? Vai di x1950pro, spendi relativamente poco per quello che ti offre (secondo me ha il miglior rapporto prezzo prestazioni) e salta a piè pari r600.... aspetta la generazione successiva che sarà sicuramente più collaudata... sono convinto che riuscirai ad arrivarci con la x1950pro senza particolari intoppi
Inoltre un altro consiglio, tieniti caro caro il tuo Lg Flatron poichè questi gioielli non se ne trovano più in circolazione
Ciao e a buon rendere ;)
Anche io te la consiglio assolutamente. Io ne ho provate 2-3 e devo dire che sono fantastiche per quel che costano. Nei bench è ovvio che la x1900xt picchi di più ma nei giochi io che non amo i filtri a palla non ho notato molte differenze ;).
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.