View Full Version : Aspettando Ati Radeon HD 4870X2
Immortal
15-07-2008, 13:24
ho capito...abbiamo tutti voglia di aprire il nuovo "aspettando R800" :sofico:
Sui 2000 shaders, NordicHardware linkava sè stesso, dicendo...
Cioè 1000x2 SP, solo 200 in più degli 800 attuali!
Questi rumor possono essere veri per "RV780" e non a 40nm, ma al massimo a 45nm, che ci sta esca a a fine 2008/ inizio 2009.
Già. La prima notizia su RV870 era di Chiphell , in particolare di Napoleon che è spesso affidabile (il primo rumor sugli 800sp partiva da lui). Questa notizia parlava di 1000sp, ma non c'era scritto nulla sul processo produttivo.
Oltre al fatto che 1000sp richiedono di rimaneggiare la struttura dei SIMD, dubito che ce ne stiano così pochi su chip delle dimensioni di RV770 (per il bus a 256bit) a 45nm. Figurarsi a 40nm.
Per quanto riguarda i consumi RV770 mi sembra che dimostri che ATi sia piuttosto brava a contenerli: stesso pp di RV670, 60-70% e oltre delle prestazioni (3870->4850) , 30% in più di transistor e i consumi sono aumentati di poco.
Un RV870 con quelle specifiche (2000sp) avrebbe talmente tanta potenza da poter tenere clock bassi. Una HD5850 a 500Mhz avrebbe valori teorici di il 70% superiori ad una HD4870.
-
E se iniziassero a mettere i chip in un unico package? stile dual core intel o magari una GPU dual core nativa come i quad AMD??? tanto per fantasticare XD
cristian-BG
15-07-2008, 23:19
ciao a tutti.. ho appena venduto la mia gtx280 che tra l'altro è un mistero quella scheda che avevo pagato l'ho pagata come normale default...
ma con gpuz e altri programmi mi da i clock della gpu a 621 come il modello oc della scheda ... in pratica c'è una partita di schede gtx280 oc della evga che le fa pagare come non oc... mistero...
l'ho venduta xè voglio passare alla 4870x2 e forse fare un quadcrossfire
vedendo i primi test e consumi ... sembra consumare 570w sistema completo??? in full?
soll mio ezcool 1050w 2 di queste ce le fa a reggere? ha 2 linee da 20a e 2 da 36A
cmq pensavo consumasse un pò meno... ma l'importante è che spinge :D la data di presentazione delle schede quando sarebbe? primi d'agosto?
scusate....abbaimo assistito ad un anno passato, nel mercato video, al palo tecnologico.
ora si, sono uscite architetture nuove , con ai rv770 e gtx 200, ma non proprio nuove , anzi.
il mio timore è questo, possibile che ora dovremo aspettare un altro anno per vedere RV 870??? e quindi architettura seminuova???
mi sembra che anche il mercato video stia procedendo a passo di lumaca.
ora se nvidia esce con gt200b a 55 nm e magari dx 10.1, possibile che sino a dicembre, (5 mesi apartire da ora) Ati, si sieda sugli allori, e non faccia almeno un RV 780 o RV 790, come lo volete chiamare, con almeno 1200 sp su singola scheda ed aumentando ad esempoio almeno a 50 TMu????
Sempre se a 55nm!!
O ame no che non passino entro dicembre a 45 0 40nm!!
Cioè è possibile che sino a dicembre , vedremo solo, un aumento delle frequenze sulla gpu rv770 0 780 , come si chiamerà???
Cavolo io ricordo, che 2 3 anni fà, anche nei refresh , amentavano le pipeline oltre alle freuenze e alle tmu, nei chip.
mo in 6 mesi, com'è che tra 1000 problemi , la il refresh è praticamente la scheda precedente?????
Insomma ati o nvidia, ma spero ati ovviamente, potrà ancora stupirci con effetti "speciali" , ma davvero "speciali" , sino a fine anno????
Con processo a 55 0 45 nm che sia????:cry: :cry:
ciao a tutti.. ho appena venduto la mia gtx280 che tra l'altro è un mistero quella scheda che avevo pagato l'ho pagata come normale default...
ma con gpuz e altri programmi mi da i clock della gpu a 621 come il modello oc della scheda ... in pratica c'è una partita di schede gtx280 oc della evga che le fa pagare come non oc... mistero...
l'ho venduta xè voglio passare alla 4870x2 e forse fare un quadcrossfire
vedendo i primi test e consumi ... sembra consumare 570w sistema completo??? in full?
soll mio ezcool 1050w 2 di queste ce le fa a reggere? ha 2 linee da 20a e 2 da 36A
cmq pensavo consumasse un pò meno... ma l'importante è che spinge :D la data di presentazione delle schede quando sarebbe? primi d'agosto?
Attento che HWU misura i consumi dalla presa ;)
Quindi devi tener conto dell' efficienza dell' alimentatore, che si aggira sugli 80%.
Tenendo conto di questo numero approssimato da 570W passiamo a 456W di carico sull' alimentatore ;)
Non troppo distanti dai 407W misurati da Anandtech, che non sono nulla di speciale quindi :)
Ce la fai senza problemi...
Rougequellovero
16-07-2008, 06:32
ciao a tutti.. ho appena venduto la mia gtx280 che tra l'altro è un mistero quella scheda che avevo pagato l'ho pagata come normale default...
ma con gpuz e altri programmi mi da i clock della gpu a 621 come il modello oc della scheda ... in pratica c'è una partita di schede gtx280 oc della evga che le fa pagare come non oc... mistero...
l'ho venduta xè voglio passare alla 4870x2 e forse fare un quadcrossfire
vedendo i primi test e consumi ... sembra consumare 570w sistema completo??? in full?
soll mio ezcool 1050w 2 di queste ce le fa a reggere? ha 2 linee da 20a e 2 da 36A
cmq pensavo consumasse un pò meno... ma l'importante è che spinge :D la data di presentazione delle schede quando sarebbe? primi d'agosto?
Per reggere regge senz'altro. ma spero che tu abbia anche in programma il cambio del momitor. Se usi quello in firma, che è un HD ready, di ste schede ne puoi fare anche a meno...
Osiride3
16-07-2008, 07:47
Cmq questa scheda è una figata in dato le ottime prestazione, metterne 2 in crossfire, pero bisogna avere un case very very :sofico: , e sopratutto ariato.
Pero se riusciamo a malapena a sfruttare il crossfire di 2 gpu, che c'e ne facciamo di 4??:confused:
halduemilauno
16-07-2008, 07:48
Cmq questa scheda è una figata in dato le ottime prestazione, metterne 2 in crossfire, pero bisogna avere un case very very :sofico: , e sopratutto ariato.
Pero se riusciamo a malapena a sfruttare il crossfire di 2 gpu, che c'e ne facciamo di 4??:confused:
basta non comprarle.
;)
Osiride3
16-07-2008, 07:52
scusate....abbaimo assistito ad un anno passato, nel mercato video, al palo tecnologico.
il mio timore è questo, possibile che ora dovremo aspettare un altro anno per vedere RV 870??? e quindi architettura seminuova???
,
mo in 6 mesi, com'è che tra 1000 problemi , la il refresh è praticamente la scheda precedente?????
Insomma ati o nvidia, ma spero ati ovviamente, potrà ancora stupirci con effetti "speciali" , ma davvero "speciali" , sino a fine anno????
Con processo a 55 0 45 nm che sia????:cry: :cry:
Io direi che se ottimizzano e faranno finalmente dei driver per ste benedette DDR5 di effetti speciali ne vedremo, altrimenti che senso ha produrre nuove schede se nn risolvono il bug di quelle precedenti che hanno gia una nuova tecnologia?
Osiride3
16-07-2008, 07:53
basta non comprarle.
;)
ok, ma non era questo il senso della mia domanda,
Mi sa che non ha dato la stessa risposta a chi voleva fare il triple sly XD :fagiano:
Cmq questa scheda è una figata in dato le ottime prestazione, metterne 2 in crossfire, pero bisogna avere un case very very :sofico: , e sopratutto ariato.
Pero se riusciamo a malapena a sfruttare il crossfire di 2 gpu, che c'e ne facciamo di 4??:confused:
ci arriveranno ci arriveranno.. questi maledetti programmatori ci arriveranno...:D
i primi tempi a volte neanche i giochi partivano o si piantavano se avevi uno sli o cf :rolleyes:
Mercuri0
16-07-2008, 11:36
l'avevi già letto... http://www.beyond3d.com/content/news/636
con i 40nm i consumi calano di meno rispetto al calare della superificie. Quindi consumerebbe moltissimo un architettura così a 40nm e con un die di 256mm2 .
Proprio in quell'articolo Arun suggerisce che le prossime ottimizzazioni saranno sulla potenza a scapito dell'area.
L'area del chip di persé non scalda, scaldano i transistor che ci sono sopra. Per esempio, se metti i transistor a un kilometro di distanza uno dall'altro, consumi area ma non tanta potenza. :D
(giusto per far capire, eh, non sono queste le tecniche che si usano e la distanza da anche problemi di potenza a causa della capacità delle interconessioni)
Le GDDR5 a 5Gbit/s andrebbero poi a 1250Mhz :D
Il clock va a 1250Mhz, ma sul bus dati hai sempre 5Ghz no? Per trasmettere 5Gbit/s ti servono 5G di commutazioni al secondo sul filo dei dati. O giù di lì, anche se per fare una stima seria bisognerebbe fare qualche considerazione di carattere statistico e vedere se a quelle frequenze si usano modulazioni particolari... ma il nocciolo non cambia troppo.
Foglia Morta
16-07-2008, 12:08
Proprio in quell'articolo Arun suggerisce che le prossime ottimizzazioni saranno sulla potenza a scapito dell'area.
L'area del chip di persé non scalda, scaldano i transistor che ci sono sopra. Per esempio, se metti i transistor a un kilometro di distanza uno dall'altro, consumi area ma non tanta potenza. :D
(giusto per far capire, eh, non sono queste le tecniche che si usano e la distanza da anche problemi di potenza a causa della capacità delle interconessioni)
Ma secondo me non si cambia densità ai transistor a proprio piacimento. Poi magari mi sbaglio , non ne so nulla. Comunque il bus esterno non è vincolato al numero RBE. Eventualmente per avere un bus 192bit che modifiche devono fare ?
Il clock va a 1250Mhz, ma sul bus dati hai sempre 5Ghz no? Per trasmettere 5Gbit/s ti servono 5G di commutazioni al secondo sul filo dei dati. O giù di lì, anche se per fare una stima seria bisognerebbe fare qualche considerazione di carattere statistico e vedere se a quelle frequenze si usano modulazioni particolari... ma il nocciolo non cambia troppo.
Si un segnale che trasmetta 5Gbit/s ci vorrà per forza , però se entro fino 2008 ci saranno le GDDR5 a 6Gbit/sec non dev'essere un ostacolo insormontabile
Mercuri0
16-07-2008, 12:32
Ma secondo me non si cambia densità ai transistor a proprio piacimento. Poi magari mi sbaglio
I transistor possono disegnarsi come si vuole dove si vuole, purché rispecchino certe geometrie minime che appunto migliorano passando di processo produttivo.
Ovvio che se passi di processo produttivo lo fai perché speri di metterci più roba nello stesso spazio (aumentare la densità dei transistor)
In realtà comunque non è una questione tanto di transistor, ma i porte logiche (più transistor messi insieme...) si possono fare porte logiche ottimizzate per l'area, altre per i consumi, altre per la velocità, etc etc.
Per esempio è molto probabile che AMD abbia fatto largo uso di logica dinamica in RV770.(che è vantaggiosa sopratutto per ridurre l'area). Qualcuno ha postato un link in cui si rivelava che AMD è cliente di una azienda specializzata in soluzioni basate su questo tipo di logica.
Si un segnale che trasmetta 5Gbit/s ci vorrà per forza , però se entro fino 2008 ci saranno le GDDR5 a 6Gbit/sec non dev'essere un ostacolo insormontabile
Non saprei non ho fatto il conto, e dipende dal materiale del PCB e dalla distanza dei chip. Certo che a pensarci 6ghz è tanto assai, siamo nei campi delle "micronde". Pensa che il segnale di un telefonino GSM dual banda viaggia a 800Mhz o 1.8Ghz... Non mi stupirei se cominciassero ad avere problemi a tenere i campi elettromagnetici sul PCB. :D
Devo dire che non so davvero in che forma passino i dati dalla GDRAM alla GPU, a quelle frequenze, dovrei dar un occhiata.
Via che si passa alle interconnessioni ottiche :D
Fire Hurricane
16-07-2008, 12:34
raga complimenti per i consumi contenuti :Prrr: :Prrr: :ciapet: :ciapet:
gianni1879
16-07-2008, 12:48
raga complimenti per i consumi contenuti :Prrr: :Prrr: :ciapet: :ciapet:
oddio si ricomincia :rolleyes:
yossarian
16-07-2008, 13:08
raga complimenti per i consumi contenuti :Prrr: :Prrr: :ciapet: :ciapet:
un appunto; nel tuo thread 260 vs 4870, non hai tenuto conto di alcune cose:
1) assassin creed è testato in modalità dx10 e non dx10.1; la patch dx10.1 di AC dà ventaggi solo con l'applicazione del MSAA: a 4x con RV770 non si hanno cali di prestazioni e con 8x il calo è minimo, mentre crollano quelle di GT200;
2) bioshock non è ottimizzato per ATi; lo stesso anand lo definisce il gioco meglio ottimizzato per entrambe le architetture (tanto che è quello che presenta il miglior rapporto W/fps sia per RV770 che pert GT200). Le review leggile per intero e non guardare solo i bench :read:
http://www.anandtech.com/video/showdoc.aspx?i=3341&p=7
3) Lost Planet è, di fatto, un techdemo nVidia e non è affatto pesante come motore grafico ma è solo basato sull'uso massiccio di dependent read instruction che penalizzano l'architettura delle gpu ATi e favoriscono quella delle gpu nVidia
Quindi, molto più attendibili bioshock e AC (con patch dx10.1 in prospettiva futura) che non LP, per valutare le prestazioni delle 2 gpu. Il tutto senza sottolineare il fatto che GT200 è grande più del doppio rispetto a RV770 :D
raga complimenti per i consumi contenuti :Prrr: :Prrr: :ciapet: :ciapet:
mi sembra giusto, prestazioni alte, consumo alto, prezzo adeguato... al contrario di certe da 649$ e delle aziende a cui tocca pure sborsare un rimborso per mantenersi gli utenti niubbi......
Foglia Morta
16-07-2008, 14:08
Per esempio è molto probabile che AMD abbia fatto largo uso di logica dinamica in RV770.(che è vantaggiosa sopratutto per ridurre l'area). Qualcuno ha postato un link in cui si rivelava che AMD è cliente di una azienda specializzata in soluzioni basate su questo tipo di logica.
Non penso proprio che abbiano usato Fast14 con RV770. IMO si vedrà con la gpu DX11 , non prima. Meglio , sarà più interessante :D
raga complimenti per i consumi contenuti :Prrr: :Prrr: :ciapet: :ciapet:
Se tu per 80W ti strappi i capelli...a discapito di prestazioni superbe....non é la scheda per te.
Per l'idle aspetta il powerplay ;)
Comunque al prossimo tentativo di flame mi sentiró nel dovere di segnalare, giusto per non ricominciare la solita storia.
http://images.anandtech.com/graphs/r700_071308223626/17191.png
appleroof
16-07-2008, 14:20
Se tu per 80W ti strappi i capelli...a discapito di prestazioni superbe....non é la scheda per te.
Per l'idle aspetta il powerplay ;)
Comunque al prossimo tentativo di flame mi sentiró nel dovere di segnalare, giusto per non ricominciare la solita storia.
per così poco....se per ogni post dei rossi stile "centrale nucleare obsession" (quelli che adesso su questo aspetto tacciono :what: ) quando stava debuttando gtx 280 avessi avuto 1 euro, mi sarei fatto un CFX di 4870x2 gratis :asd: :asd:
per il resto, coerentemente, ti dò perfettamente ragione ;)
per così poco....se per ogni post dei rossi stile "centrale nucleare obsession" (quelli che adesso su questo aspetto tacciono :what: ) quando stava debuttando gtx 280 avessi avuto 1 euro, mi sarei fatto un CFX di 4870x2 gratis :asd: :asd:
per il resto, coerentemente, ti dò perfettamente ragione ;)
Piú che altro per non iniziare la solita guerra verdi vs rossi.
Dopo aver visto quello che é successo nel thread della gtx280 ci sono rimasto male :(
E non vorrei succedesse pure qui.
appleroof
16-07-2008, 14:26
Piú che altro per non iniziare la solita guerra verdi vs rossi.
Dopo aver visto quello che é successo nel thread della gtx280 ci sono rimasto male :(
E non vorrei succedesse pure qui.
hai ragione, i flame sono sempre fastidiosi (ma purtroppo inevitabili :asd: ) :)
dewwwxx84
16-07-2008, 14:31
hai ragione, i flame sono sempre fastidiosi (ma purtroppo inevitabili :asd: ) :)
be' allora cambiando discorso:D questa scheda funziona bene su di un pcix16 versione 1???:mc:
;) Piú che altro per non iniziare la solita guerra verdi vs rossi.
Dopo aver visto quello che é successo nel thread della gtx280 ci sono rimasto male :(
E non vorrei succedesse pure qui.
tranquillo, basta non dargli peso a certi commenti ;)
HackaB321
16-07-2008, 14:35
1) assassin creed è testato in modalità dx10 e non dx10.1; la patch dx10.1 di AC dà ventaggi solo con l'applicazione del MSAA: a 4x con RV770 non si hanno cali di prestazioni e con 8x il calo è minimo, mentre crollano quelle di GT200
Yoss mi spieghi (se lo sai) perchè l'MSAA+deferred shading non è compatibile (se non con artifici particolari) con le DX < 10.1?
Io so che il deferred shading è una tecnica di rendering dove sostanzialmente la geometria viene separata dall'illuminazione: prima viene renderizzata la struttura poligonale dell'immagine e poi (tramite passaggi di post-processing) vengono elaborati gli shaders che definiscono l'illuminazione della scena. Il vantaggio evidente e che verranno elaborati solo i pixel che superano lo z test e saranno quindi evitati i calcoli relativi a pixel occultati.
Ma a parte questo dove stà l'incompatibilità con l'MSAA? E perchè con le 10.1 è stato risolto (forse per l'accesso diretto degli shaders agli z-buffer dei sample ma perchè?)
The_max_80
16-07-2008, 14:47
Se tu per 80W ti strappi i capelli...a discapito di prestazioni superbe....non é la scheda per te.
Per l'idle aspetta il powerplay ;)
Comunque al prossimo tentativo di flame mi sentiró nel dovere di segnalare, giusto per non ricominciare la solita storia.
http://images.anandtech.com/graphs/r700_071308223626/17191.png
ma questa è sicuro che sia il totale sistema o è solo la singola scheda?
ma questa è sicuro che sia il totale sistema o è solo la singola scheda?
L'intero sistema (come é anche scritto nell'img :))
La scheda ha un tdp di 275W se non erro.
yossarian
16-07-2008, 15:11
Yoss mi spieghi (se lo sai) perchè l'MSAA+deferred shading non è compatibile (se non con artifici particolari) con le DX < 10.1?
Io so che il deferred shading è una tecnica di rendering dove sostanzialmente la geometria viene separata dall'illuminazione: prima viene renderizzata la struttura poligonale dell'immagine e poi (tramite passaggi di post-processing) vengono elaborati gli shaders che definiscono l'illuminazione della scena. Il vantaggio evidente e che verranno elaborati solo i pixel che superano lo z test e saranno quindi evitati i calcoli relativi a pixel occultati.
Ma a parte questo dove stà l'incompatibilità con l'MSAA? E perchè con le 10.1 è stato risolto (forse per l'accesso diretto degli shaders agli z-buffer dei sample ma perchè?)
si può fare anche con le dx10, ma a scapito delle prestazioni.
Il problema, con le dx precedenti alle 10, sta tutto nell'impossibilità di salvare i risultati ottenuti renderizzando la geometria. Una volta effettuato lo z-test (e rimossa una parte delle superfici visibili), le primitive vengono inviate alle rop's che applicano il MSAA su tutti i poligono presenti. Con il deferred rendering, invece, la renderizzazione avviene dopo l'eliminazione completa delle superfici invisibili (si renderizzano quindi solo i poligono o, meglio, i pixel visibili). L'impossibilità di salvare i risultati precedentemente ottenuti dal rendering delle geometrie obbliga, ad esempio con illuminazione dinamica, a renderizzare di nuovo l'intera geometria ogni volta che cambia la luce. Per questo motivo, quando si forza il MSAA con le dx9, in realtà non si tratta di vero MSAA e si fa uso di un'illuminazione non di tipo dinamico. Il problema non è molto differente da quello che non permetteva l'applicazione di MSAA e HDR con i chip NV precedenti a G80: HDR utilizza un rendering a fp16 o fp32 mentre per il MSAA si utilizza INT8; non potendo salvare i risultati dell'uno e potendo utilizzare un solo render target si doveva scegliere se applicare l'uno o l'altro; i chip ATi della serie R5x0, invece, permettevano il salvataggio dei risultati del MSAA su una texture, quindi si applicava l'HDR; si faceva downsample da fp32 a INT8 e si faceva blending prima dell'invio al monitor.
Con le dx10 si introduce, invece, la possibilità di salvare il risultato ottenuto dopo l'applicazione del MSAA su una texture che può venire manipolata in un secondo tempo rendendo possibile l'applicazione del MSAA con deferred rendering. Con le dx10.1 si ampliano le possibilità offerte, in quanto lo shader core ha a disposizione più render target rispetto alle dx10 e le rbe possono utilizzare differenti render target con differenti modalità di blending per color e z-ops; fino alle dx10 si può avere una situazione in cui per le color ops si fa blending a fp32 e il MSAA utilizza INT8 e le due modalità di blending utilizzano un solo render target, rendendo nexessari più passaggi di rendering. Con le dx10.1 (e successive) si utilizzeranno più RT (quindi, ad esempio, MSAA a INT16, che diventa obbligatorio con le dx10.1, mentre è opzionale con le dx10, e color ops a fp32 su 2 diversi render target e in contemporanea).
Tidus.hw
16-07-2008, 15:42
domandina:
cos'è un render target? T_T
yossarian
16-07-2008, 15:47
domandina:
cos'è un render target? T_T
uno spazio nel frame buffer su cui hai la possibilità di scrivere e da cui puoi leggere. Insomma, un'area della ram video dedicata a determinate operazioni (semplificando al massimo)
Free Gordon
16-07-2008, 15:48
Con le dx10.1 (e successive) si utilizzeranno più RT (quindi, ad esempio, MSAA a INT16, che diventa obbligatorio con le dx10.1, mentre è opzionale con le dx10, e color ops a fp32 su 2 diversi render target e in contemporanea).
^_^
appleroof
16-07-2008, 16:06
be' allora cambiando discorso:D questa scheda funziona bene su di un pcix16 versione 1???:mc:
se intendi che cala di prestazioni rispetto al pci-ex 2.0, non saprei, non ho trovato nulla al riguardo, cmq mi sento di escluderlo
basta non comprarle.
;)
quello che dici hal se è riferito a due 4870x2 è abbastanza vero, ma per la singola nn ha senso ;) anzi per chi vuole godersi il full hd con tutti i filtri al massimo (traducesi in massima IQ) è la scelta migliore ;)
raga complimenti per i consumi contenuti :Prrr: :Prrr: :ciapet: :ciapet:
commento utile ed istruttivo :rolleyes:
appleroof
16-07-2008, 16:10
un appunto; nel tuo thread 260 vs 4870, non hai tenuto conto di alcune cose:
1) assassin creed è testato in modalità dx10 e non dx10.1; la patch dx10.1 di AC dà ventaggi solo con l'applicazione del MSAA: a 4x con RV770 non si hanno cali di prestazioni e con 8x il calo è minimo, mentre crollano quelle di GT200;
2) bioshock non è ottimizzato per ATi; lo stesso anand lo definisce il gioco meglio ottimizzato per entrambe le architetture (tanto che è quello che presenta il miglior rapporto W/fps sia per RV770 che pert GT200). Le review leggile per intero e non guardare solo i bench :read:
http://www.anandtech.com/video/showdoc.aspx?i=3341&p=7
3) Lost Planet è, di fatto, un techdemo nVidia e non è affatto pesante come motore grafico ma è solo basato sull'uso massiccio di dependent read instruction che penalizzano l'architettura delle gpu ATi e favoriscono quella delle gpu nVidia
Quindi, molto più attendibili bioshock e AC (con patch dx10.1 in prospettiva futura) che non LP, per valutare le prestazioni delle 2 gpu. Il tutto senza sottolineare il fatto che GT200 è grande più del doppio rispetto a RV770 :D
visto che si parla di giochi, che ne pensi di Crysis? Come si spiega quella pesantezza assoluta? E' davvero solo incapacità a programmarlo oppure secondo te c'è dell'altro? Mi piacerebbe sapere la tua opinione, al riguardo
michelgaetano
16-07-2008, 16:11
commento utile ed istruttivo :rolleyes:
è irrecuperabile, lascia stare.
è irrecuperabile, lascia stare.
grazie ma l'avevo capito anch'io da un paio di cosette.... :asd:
michelgaetano
16-07-2008, 16:19
grazie ma l'avevo capito anch'io da un paio di cosette.... :asd:
Dal thread del confronto finale (lo rinominerei "riscontro finale del fanboy"), da ogni suo post che insulta ATI, o dal fatto he non riesce proprio ad evitare di farsi sospendere offendendo a destra e a manca?
:asd:
mi associo a apple: vorrei sentire l'opnione del guru yossarian riguardo Crysis :ave:
yossarian
16-07-2008, 16:39
visto che si parla di giochi, che ne pensi di Crysis? Come si spiega quella pesantezza assoluta? E' davvero solo incapacità a programmarlo oppure secondo te c'è dell'altro? Mi piacerebbe sapere la tua opinione, al riguardo
non conosco l'engine di crysis e non so cosa pensare, considerando che va male su entrambe le architetture e scala malissimo all'aumentare della potenza e del numero delle unità di calcolo; inoltre sembra anche poco influenzato dalla bandwidth. :boh:
provo a chiedere a chi di engine grafici ne sa più di me :D
appleroof
16-07-2008, 16:45
non conosco l'engine di crysis e non so cosa pensare, considerando che va male su entrambe le architetture e scala malissimo all'aumentare della potenza e del numero delle unità di calcolo; inoltre sembra anche poco influenzato dalla bandwidth. :boh:
provo a chiedere a chi di engine grafici ne sa più di me :D
magari :D
quello che vorrei capire è se è un buon banco di prova (sopratutto in "prospettiva") per le prestazioni di una vga "x" oppure solo un obbrobbrio di programmazione...
appleroof
16-07-2008, 16:52
Continuo a puntare sulla seconda...
:asd: :asd: si lo so come la pensi :D
dewwwxx84
16-07-2008, 17:00
se intendi che cala di prestazioni rispetto al pci-ex 2.0, non saprei, non ho trovato nulla al riguardo, cmq mi sento di escluderlo
grazie x la risposta, aspettero' qualche test piu' approfondito, xche senno' dovrei cambiare mobo.:mbe:
yossarian
16-07-2008, 17:09
magari :D
quello che vorrei capire è se è un buon banco di prova (sopratutto in "prospettiva") per le prestazioni di una vga "x" oppure solo un obbrobbrio di programmazione...
Continuo a puntare sulla seconda...
:asd: :asd: si lo so come la pensi :D
dalla regia mi comunicano che molto probabilmente si tratta proprio di cattiva ottimizzazione :D
halduemilauno
16-07-2008, 17:24
quello che dici hal se è riferito a due 4870x2 è abbastanza vero, ma per la singola nn ha senso ;) anzi per chi vuole godersi il full hd con tutti i filtri al massimo (traducesi in massima IQ) è la scelta migliore ;)
commento utile ed istruttivo :rolleyes:
si riferito a due 4870x2.
Continuo a puntare sulla seconda...Ecco, pure io :stordita:
dalla regia mi comunicano che molto probabilmente si tratta proprio di cattiva ottimizzazione :DAllora é praticamente ufficiale :ciapet:
appleroof
16-07-2008, 18:13
dalla regia mi comunicano che molto probabilmente si tratta proprio di cattiva ottimizzazione :D
azz.
Eppure sono uno dei team più cazzuti al mondo, inoltre lo hanno rimandato un sacco di volte :rolleyes:
stranissimo poi che editando alcuni parametri dell' .ini si riesca addirittura ad avere una qualità migliore con prestazioni migliori e che, provando l'editor, puoi infarcire la scena e cmq andrà meglio che il gioco stesso....:confused:
va bene, cmq grazie mille della risposta ;)
sbaglio oppure a 2560x1600 è ancora meglio la gtx280?
sbaglio oppure a 2560x1600 è ancora meglio la gtx280?
Sbagli :D
yossarian
16-07-2008, 18:28
azz.
Eppure sono uno dei team più cazzuti al mondo, inoltre lo hanno rimandato un sacco di volte :rolleyes:
stranissimo poi che editando alcuni parametri dell' .ini si riesca addirittura ad avere una qualità migliore con prestazioni migliori e che, provando l'editor, puoi infarcire la scena e cmq andrà meglio che il gioco stesso....:confused:
va bene, cmq grazie mille della risposta ;)
il porblema potrebbe essere imputabile proprio ai continui rinvii che potrebbero aver provocato una non perfetta ottimizzazione. Alla fine rischi di trovarti un motore grafico non ottimizzato per nessuna api e che implementa, magari, feature dx10 in modalità dx9 in maniera macchinosa e richiedendo più passaggi di rendering del necessario.
Il fatto stesso che editando l'ini ottieni una migliore qualità (che ci può stare, succede, ad esempio, anche con oblivion) ma con prestazioni superiori, potrebbe indicare che qualcosa a livello di ottimizzazioni non è andato come avrebbe dovuto
sbaglio oppure a 2560x1600 è ancora meglio la gtx280?
Sbagli :)
è proprio a questa risoluzione che la 4870x2 da il meglio di sé.
In alcuni casi batte l' SLI di gtx280 :eek:
appleroof
16-07-2008, 18:34
il porblema potrebbe essere imputabile proprio ai continui rinvii che potrebbero aver provocato una non perfetta ottimizzazione. Alla fine rischi di trovarti un motore grafico non ottimizzato per nessuna api e che implementa, magari, feature dx10 in modalità dx9 in maniera macchinosa e richiedendo più passaggi di rendering del necessario.
Il fatto stesso che editando l'ini ottieni una migliore qualità (che ci può stare, succede, ad esempio, anche con oblivion) ma con prestazioni superiori, potrebbe indicare che qualcosa a livello di ottimizzazioni non è andato come avrebbe dovuto
già...assolutamente convincente...mi viene da pensare poi che uno edita l'ini parametro per parametro a casa e con calma e cerca il perfetto bilanciamento per la propria configurazione, loro devono pensare a decine di macchine diverse (ma in effetti questo varrebbe per qualsiasi motore....c'è poco da fare, obbrobbrio di ottimizzazione ed ha ragione Ratatosk :D )
vediamo se warhead porta miglioramenti in questo senso, perchè cmq imho graficamente crysis in VH è senza dubbio migliore della migliore implementazione dell'ultimo unreal....
vabbè, scusate per l'ot, grazie ancora delle info :)
dalla regia mi comunicano che molto probabilmente si tratta proprio di cattiva ottimizzazione :D
:asd: seriamente parlando e senza essere esperti lo si era intuito ;)
si riferito a due 4870x2.
;)
sbaglio oppure a 2560x1600 è ancora meglio la gtx280?
sbagli a quella risoluzione la X2 aumenta il divarion con una singola GTX 280 e si avvicina sempre più ad uno SLI di due GTX 280 ;) ecco perchè è una vga perfetta per avere la massima qualità dell'immagine con frame da record ;)
Sbagli :)
è proprio a questa risoluzione che la 4870x2 da il meglio di sé.
In alcuni casi batte l' SLI di gtx280 :eek:
allora tutte le cose che ho letto su sli/cross a 2560x1600 non valgono con questa vga?
siete sicuri?
Rougequellovero
16-07-2008, 21:15
allora tutte le cose che ho letto su sli/cross a 2560x1600 non valgono con questa vga?
siete sicuri?
L'hai letta?
http://www.hwupgrade.it/articoli/skvideo/2007/ati-radeon-hd-4870-x2-r700-in-preview_index.html
L'hai letta?
http://www.hwupgrade.it/articoli/skvideo/2007/ati-radeon-hd-4870-x2-r700-in-preview_index.html
be ce ne sono anche altre :D basta andare indietro di 2 o 3 pagine....
cristian-BG
16-07-2008, 22:28
Ma a che ti serve una GTX280 o ancora peggio due 4870 x2 con quel monitor?
a settembre prendo un bravia 37 full hd :) tranquilli :)
Osiride3
16-07-2008, 22:52
be' allora cambiando discorso:D questa scheda funziona bene su di un pcix16 versione 1???:mc:
Teoricamente si, o meglio, io sulla mia bus 1.0 ho montato la 9800GTX che ha bus 2.0, quindi sono retrocompatibili, parlo della mia vecchia configurazione MSI con chipset 965 quindi era pure un po vecchiotto, pero, mio fratello, scheda Asus, bus 1.0 ha messo una 8800GT e nn funzionava, questi sono i misteri, che Mobo hai,?
Cmq senza voler fare cattiva pubblicità, ma ste stracomercializzate Asus, vanno bene solo i Top di gamma:confused: tantissimi utenti si lamentano, pero vendono di brutto, mahhh, altro mistero :mbe:
The_max_80
16-07-2008, 23:04
sbaglio oppure a 2560x1600 è ancora meglio la gtx280?
sbagli., tra l'altro per queste risoluzioni sara piu indicata la veriosione 1x2gb
cristian-BG
16-07-2008, 23:31
nn si sa nulla sulla data di rilascio della bestiolina 2x1gb?
nn si sa nulla sulla data di rilascio della bestiolina 2x1gb?
beh, dovrebbe ucire insieme alla 2x512 :D
cristian-BG
17-07-2008, 00:00
beh, dovrebbe ucire insieme alla 2x512 :D
sono pronto venduto la 280gtx piu m becco il rimborso di 125$ ora attendo con ansia sta scheda... :) e se renderà bene in crossfire gli darò del fuoco :D :D :D
Cooperdale
17-07-2008, 00:34
A dire il vero le prime preview mi avevano messo un pò di dubbi: rumorosità, consumi... Però il fatto che sia apparentemente scomparso il microstuttering mi incoraggia, penso proprio che la versione 2x1Gb sarà mia.
sono pronto venduto la 280gtx piu m becco il rimborso di 125$ ora attendo con ansia sta scheda... :) e se renderà bene in crossfire gli darò del fuoco :D :D :D
bravo anche perchè così facendo ci hai guadangato (o sei andato quasi alla pari;) )
A dire il vero le prime preview mi avevano messo un pò di dubbi: rumorosità, consumi... Però il fatto che sia apparentemente scomparso il microstuttering mi incoraggia, penso proprio che la versione 2x1Gb sarà mia.
i consumi in idle caleranno nn con driver decenti ma che almeno supportino la vga e ricordo che oggi nn ne esistono, per quelli in full load be direi che ci stanno visto di quanto si fuma le gtx 280.... per la rumorosità imho vai di cuffie ;)
Cooperdale
17-07-2008, 00:51
i consumi in idle caleranno nn con driver decenti ma che almeno supportino la vga e ricordo che oggi nn ne esistono, per quelli in full load be direi che ci stanno visto di quanto si fuma le gtx 280.... per la rumorosità imho vai di cuffie ;)
Più che di cuffie mi toccherà cambiare la ventola se davvero è rumorosa. Ho due pc nella stessa stanza della tv e spesso io sto al pc e la fidanzata guarda la tv, non posso permettermi tanto rumore pena ire funeste ;).
HackaB321
17-07-2008, 07:15
dalla regia mi comunicano che molto probabilmente si tratta proprio di cattiva ottimizzazione :D
la regia è forse rappresentata da un nome di tre lettere di cui la prima è "f"?:D
il porblema potrebbe essere imputabile proprio ai continui rinvii che potrebbero aver provocato una non perfetta ottimizzazione. Alla fine rischi di trovarti un motore grafico non ottimizzato per nessuna api e che implementa, magari, feature dx10 in modalità dx9 in maniera macchinosa e richiedendo più passaggi di rendering del necessario.
un pò la stessa cosa che è successa, in misura minore, con l'engine di Stalker (che qualche rinvio dovrebbe averlo avuto:D ).
Chiedo a voi che magari mi sapete dire qualcosa:D allora oltre che per giocare, uso il pc per fare grafica 3d, ora, tutti i programmi 3D usano la visuale in OpenGL. Come si comportano i drivers AMD ultimamente? Posso comprare questa scheda per sostituire al 8800GTS 640MB e avere ottime performance nel 3D pro, oltre che nei giochi? grazie ^^'
Più che di cuffie mi toccherà cambiare la ventola se davvero è rumorosa. Ho due pc nella stessa stanza della tv e spesso io sto al pc e la fidanzata guarda la tv, non posso permettermi tanto rumore pena ire funeste ;).
immagino :asd:
dado1979
17-07-2008, 10:24
sbaglio oppure a 2560x1600 è ancora meglio la gtx280?
Questo vale solo nel gioco Crysis. In tutti gli altri giochi la 4870X2 va meglio.
OT :
Se osservo Crysis da un punto di vista tecnico convengo con tutti voi sul pessimo lavoro di ottimizzazione che è stato eseguito...ma, se osservo lo stesso dal punto di vista dei produttori di VGA e/o CPU non posso che affermare che si tratta dello stato dell'arte...: un ottimo esempio di come rilanciare le vendite hardware...!!
Del resto è mio convinzione che Crytek sia stata abbondantemente ripagata da Nvidia; insomma, le mancate vendite all'utenza sono state diversamente bilanciate.
Direi un'operazione di marketing ben studiata......
HackaB321
17-07-2008, 10:56
OT :
Se osservo Crysis da un punto di vista tecnico convengo con tutti voi sul pessimo lavoro di ottimizzazione che è stato eseguito...ma, se osservo lo stesso dal punto di vista dei produttori di VGA e/o CPU non posso che affermare che si tratta dello stato dell'arte...: un ottimo esempio di come rilanciare le vendite hardware...!!
Del resto è mio convinzione che Crytek sia stata abbondantemente ripagata da Nvidia; insomma, le mancate vendite all'utenza sono state diversamente bilanciate.
Direi un'operazione di marketing ben studiata......
In realtà se l'acquirente medio si comportasse razionalmente dovrebbe valere l'opposto: se tanto non esiste sistema al mondo che lo possa far girare al massimo, perchè cambiare hw?
yossarian
17-07-2008, 11:04
la regia è forse rappresentata da un nome di tre lettere di cui la prima è "f"?:D
si: è il mio punto di riferimento per gli engine grafici :D
un pò la stessa cosa che è successa, in misura minore, con l'engine di Stalker (che qualche rinvio dovrebbe averlo avuto:D ).
penso di si; solitamente succede quando lo sviluppo di un titolo si protrae molto a lungo a si trova ad avere come riferimento non solo piattaforme ma anche API differenti
magnusll
17-07-2008, 11:19
OT :
Se osservo Crysis da un punto di vista tecnico convengo con tutti voi sul pessimo lavoro di ottimizzazione che è stato eseguito...ma, se osservo lo stesso dal punto di vista dei produttori di VGA e/o CPU non posso che affermare che si tratta dello stato dell'arte...: un ottimo esempio di come rilanciare le vendite hardware...!!
Del resto è mio convinzione che Crytek sia stata abbondantemente ripagata da Nvidia; insomma, le mancate vendite all'utenza sono state diversamente bilanciate.
Direi un'operazione di marketing ben studiata......
Ci avevo pensato anch' io a questo aspetto... il dubbio che lo "sviluppo" di Crysis sia stato pagato da Intel, AMD/ATI e nVidia m'e' venuto...
serve un alimentatore esagerato come per la gtx280?
In realtà se l'acquirente medio si comportasse razionalmente dovrebbe valere l'opposto: se tanto non esiste sistema al mondo che lo possa far girare al massimo, perchè cambiare hw?
Laddove vi è conoscenza e consapevolezza dovrebbe funzionare come dici tu...ma non credo che l'utenza media faccia quel genere di considerazione...
Leggo in questo forum di config 3-Way-SLI , CrossfireX nonostante qualsivolgia review degna di questo nome abbia dimostrato l'assoluta inutilità di queste configurazioni....quindi ti lascio immaginare..
Quante volte hai letto nella sezione VGA/CPU cose del tipo : "con questa config girerà crysis?"
Ebbene, se diamo a questa community il giusto valore statistico e sociologico (età media-scolarizzazione etc etc) è evidente che Crysis abbia avuto un forte ruolo nello spingere il mercato del hardware....(anche con Vista è accaduto qualcosa di simile)
penso di si; solitamente succede quando lo sviluppo di un titolo si protrae molto a lungo a si trova ad avere come riferimento non solo piattaforme ma anche API differenti
Parli di uno sviluppo nasce con l'intento di proporre un game DXn compliant e che poi si protrae tanto da assistere la presentazione delle API successive DXn+1?Intendi questo?
Come fatto notare da hacka per Stalker è avvenuta la stessa cosa...nasce come DX8 e poi vengono presentate le DX9....
Con la differenza che Crysis di DX10 non ha nulla, se non il marchio; tanto è vero che il prossimo WARHEAD disporrà del setting VH in DX9...
yossarian
17-07-2008, 12:12
Parli di uno sviluppo nasce con l'intento di proporre un game DXn compliant e che poi si protrae tanto da assistere la presentazione delle API successive DXn+1?Intendi questo?
si
Come fatto notare da hacka per Stalker è avvenuta la stessa cosa...nasce come DX8 e poi vengono presentate le DX9....
Con la differenza che Crysis di DX10 non ha nulla, se non il marchio; tanto è vero che il prossimo WARHEAD disporrà del setting VH in DX9...
nessuno dei giochi attuali ha un engine nativo dx10; si tratta di tutti titoli che presentano qualche feature dx10 (giusto per fregiarsi di tale titolo) che non è detto che sia sempre stata implementata nel migliore dei modi.
Può darsi semplicemente che crysis faccia le stesse cose di altri engine grafici semplicemente in maniera meno ottimizzata (e quindi lo vedremo girare fluidamente con gpu cha avranno un fillrate 4 volte superiore alle attuali :D )
HackaB321
17-07-2008, 13:35
Laddove vi è conoscenza e consapevolezza dovrebbe funzionare come dici tu...ma non credo che l'utenza media faccia quel genere di considerazione...
Leggo in questo forum di config 3-Way-SLI , CrossfireX nonostante qualsivolgia review degna di questo nome abbia dimostrato l'assoluta inutilità di queste configurazioni....quindi ti lascio immaginare..
Quante volte hai letto nella sezione VGA/CPU cose del tipo : "con questa config girerà crysis?"
Ebbene, se diamo a questa community il giusto valore statistico e sociologico (età media-scolarizzazione etc etc) è evidente che Crysis abbia avuto un forte ruolo nello spingere il mercato del hardware....(anche con Vista è accaduto qualcosa di simile)
Tra l'altro dove manca completamente l'ottimizzazione è nella modalità vh: se il gioco si fermasse all'high sarebbe pesante ma non scandaloso (è giocabile in high anche con una 3870 o una 9600Gt). In vh invece è appena giocabile con sli o cf da 400 e passa euro.
Questo dimostra che la modalità vh per me è stata aggiunta all'ultimo minuto per avere il supporto alle DX10 e creare un pò di scimmia per l'aggiornamento hw (e far contenta una nota azienda produttrice di vga il cui nome non inizia nè A nè per I). In realtà fornisce effetti DX10 su una engine di base che è DX9 aumentando a dismisura la pesantezza del gioco e senza nemmeno scaling per il multigpu.
E' un peccato perchè se si fossero fermati alla modalità high avremmo avuto un gioco sempre graficamente bellissimo e di una pesantezza accettabile per quello che visivamente offre. Cosi' invece penso che fra 10 anni ci ricorderemo di Crysis più per questa barzelletta del "ma ce la farà con Crysis?" che per la qualità grafica raggiunta.
Diobrando_21
17-07-2008, 14:34
scusate ragazzi ho letto la preview della 4870x2 e nelle considerazioni veniva menzionato il problema della compatibilità tra scheda, driver e giochi per sfruttare tutte e 2 le gpu...
quindi volevo chiedervi, il problema è un ipotesi lontana o c'è probabilità che mi compro 'sta scheda con il rischio che poi uso solo la metà delle potenzialià?
Io ho visto che tutti i giochi testati funzionano con il dual gpu..... probabilmente qualche gioco non avrà il supporto e non so se i driver possono risolvere il problema, ma penso che funzioni con il 90% dei giochi attuali........
Diobrando_21
17-07-2008, 14:55
grazie...
per esempio, tanto per avere un'idea, la 3870x2 ha mai avuto di questi problemi?
HackaB321
17-07-2008, 14:58
scusate ragazzi ho letto la preview della 4870x2 e nelle considerazioni veniva menzionato il problema della compatibilità tra scheda, driver e giochi per sfruttare tutte e 2 le gpu...
quindi volevo chiedervi, il problema è un ipotesi lontana o c'è probabilità che mi compro 'sta scheda con il rischio che poi uso solo la metà delle potenzialià?
c'è probabilità. E' il difetto di questa scheda insieme ai consumi. Ma quando le due gpu funzionano entrambe, vola.
Diobrando_21
17-07-2008, 15:01
ma è un problema di questa scheda o è un problema di tutte le schede dual gpu?
HackaB321
17-07-2008, 15:07
ma è un problema di questa scheda o è un problema di tutte le schede dual gpu?
di tutte. Anzi questa ne sembra afflitta un pò meno. Ed è un problema che NON riguarda i giochi più diffusi e pubblicizzati (a parte Crysis dove lo scaling è minimo ma quello è un altro discorso). C'è bisogno infatti che i driver contengano un apposito profilo dual-gpu per ogni gioco. Se il profilo manca non ti resta che sperare nella prossima release dei driver e intanto usare una gpu sola.
Diobrando_21
17-07-2008, 15:21
ok, ma questa scheda ancora non è uscita quindi parlarne è sempre relativo...
per avere un'idea più concreta in che entità il problema si è verificato con la 3870x2 e la 9800gx2?
Ragazzi qualcuno sa una data di uscita per la 4870X2?
Quando pensate si potrà trovare in italia?
Grazie
dasheroll
17-07-2008, 16:30
Ragazzi qualcuno sa una data di uscita per la 4870X2?
Quando pensate si potrà trovare in italia?
Grazie
a partire da fine agosto;) ma se nn vuoi aspettare vai di crossfire hd 4870 che a volte sn pure 2-3 Fps di più ma a volte anche 2-3 Fps meno...:D Io le ho prese (2 HD4870)!!!:)
Cavolo non prima?
Ma con 2 4870 SLI non spendo di più? :cry:
Cavolo non prima?
Ma con 2 4870 SLI non spendo di più? :cry:
E quanto consuma un sistema medio con la 4870x2 in termini di watt?
Grazie
Scusate per il doppio post :(
dasheroll
17-07-2008, 16:48
Cavolo non prima?
Ma con 2 4870 SLI non spendo di più? :cry:
E quanto consuma un sistema medio con la 4870x2 in termini di watt?
Grazie
No nn spendi di più se nn 10€ cmq è crossfire nn sli (lo sli è quello delle NVIDIA)
P.S= La 4870x2 ha 15watt in più di un crossfire di due hd4870 saluti!:D
Scusate ma secondo voi il mio ali della Corsair 620 HX la regge questa scheda?
Diobrando_21
17-07-2008, 18:12
ragazzi il problema di sfruttare due gpu con i giochi è un problema che riguarda tutte le schede dual gpu, giusto?
per avere un'idea concreta, in che entità il problema si è verificato con la 3870x2 e la 9800gx2?
Si ha un'idea di cosa accadrà con la 4870x2
Diobrando_21
17-07-2008, 18:13
a partire da fine agosto;) ma se nn vuoi aspettare vai di crossfire hd 4870 che a volte sn pure 2-3 Fps di più ma a volte anche 2-3 Fps meno...:D Io le ho prese (2 HD4870)!!!:)
come vanno le 2 schede in crossfire? riesci a sfruttare le 2 gpu con tutti i giochi?
Non è un gioco, ma un proof of concept. Il concetto che è stato provato è che risorse hardware finite non sono in grado di alimentare requisiti infiniti.
auuauaua bella questa :D :D :D
massimomarc
17-07-2008, 18:58
a partire da fine agosto;) ma se nn vuoi aspettare vai di crossfire hd 4870 che a volte sn pure 2-3 Fps di più ma a volte anche 2-3 Fps meno...:D Io le ho prese (2 HD4870)!!!:)
la x2 va sempre più di un crossfire di 3870 in ogni situazione, e in casi estremi non di poco (15\20%).
e non è vero che consuma di più di un crossfire di 4870, ma qualcosa di meno :)
imho, se non ha urgenza di comprare, può aspettare 3\4 settimane e vedere a che prezzo sarà proposto r700. e li decidere.
come vanno le 2 schede in crossfire? riesci a sfruttare le 2 gpu con tutti i giochi?
Allora, se pensi di ottenere constantemente prestazioni doppie rispetto ad una singola GPU: "lascia stare..."
Come detto in precedenza, le prestazioni variano fortemente a seconda del gioco, e con lo stesso titolo molto dipende dalla risoluzione utilizzata e delle impostazioni scelte......
Quando uscì la 3870X2 c'erano molti titoli che davano rogne, adesso le cose dovrebbero andare decisamente meglio, quindi almeno i games più importanti (quelli più attesi ed utilizzati per le recensioni) non dovrebbero essere problematici..ovviamente se vuoi una stima numerica su quanti giochi vanno e quanti no ..francamente non so dirti, ma di sicuro sono più problematici quelli "vecchiotti".
Inoltre nella scelta della tua nuova VGA dovresti tener conto del monitor di cui disponi : una 4870x2 ha senso solo se utilizzata almeno a 1900*1200 con filtri a palla ....
Diobrando_21
17-07-2008, 19:22
Allora, se pensi di ottenere constantemente prestazioni doppie rispetto ad una singola GPU: "lascia stare..."
Come detto in precedenza, le prestazioni variano fortemente a seconda del gioco, e con lo stesso titolo molto dipende dalla risoluzione utilizzata e delle impostazioni scelte......
Quando uscì la 3870X2 c'erano molti titoli che davano rogne, adesso le cose dovrebbero andare decisamente meglio, quindi almeno i games più importanti (quelli più attesi ed utilizzati per le recensioni) non dovrebbero essere problematici..ovviamente se vuoi una stima numerica su quanti giochi vanno e quanti no ..francamente non so dirti, ma di sicuro sono più problematici quelli "vecchiotti".
Inoltre nella scelta della tua nuova VGA dovresti tener conto del monitor di cui disponi : una 4870x2 ha senso solo se utilizzata almeno a 1900*1200 con filtri a palla ....
non intendo andare sempre il doppio questo lo so bene...vorrei sapere se riesco a stare sempre sopra una gtx280 però...
per i giochi veecchiotti beh, penso che basti anche solo una gpu per farli girare fluidi, no?
cmq intendo attaccare il pc al mio samsung full hd 40 pollici...dimmi pure un tuo parere, grazie
Cooperdale
17-07-2008, 19:26
Ma si i giochi nuovi andranno tutti dai. Se poi uno non va si bestemmia tutti in coro e arrivano i fix e caxxi vari.
Piuttosto io spero di prenderla prima di fine agosto, ho già quasi tutto il nuovo sistema che costruisco intorno a questa scheda, non ho badato a spese, ora spero di comprarla prima di fine agosto.
Magari in germania, ultimamente mi servo molto dai negozi online tedeschi perché sono puntuali, hanno più hardware nuovo a disposizione molto prima che da noi e i prezzi sono inferiori; spesso con le spese di trasporto spendo comunque meno che in italia.
Diobrando_21
17-07-2008, 19:33
speriamo bene staremo a vedere l'importante è risolverli i problemi
non intendo andare sempre il doppio questo lo so bene...vorrei sapere se riesco a stare sempre sopra una gtx280 però...
per i giochi veecchiotti beh, penso che basti anche solo una gpu per farli girare fluidi, no?
cmq intendo attaccare il pc al mio samsung full hd 40 pollici...dimmi pure un tuo parere, grazie
Mediamente 2 4870 in Crossfire dovrebbero essere sempre superiori ad una GTX280 ,ad eccezione dei casi in cui la Vram della GTX280 fa la differenza e rogne software di cui parlavamo......
La tv che vuoi utilizzare in quanto FullHD ha un pannello con risoluzione 1920*1080 quindi il territorio adatto a configurazioni DualGPU...in verità a questa risoluzione "potrebbe" bastare anche una singola 4870 ma considerato che si tratta di un 40" non puoi prescindere dall'utilizzo intenso del filtro antialiasing..
Se dai uno sguardo al 3d della 4870 in prima pagina troverai alcune recensioni che includono il Crossfire di due 4870 (giusto per rendersi conto delle prestazioni della fututa 4870X2)
Un paio di review te le linko io ;) ...:
http://www.driverheaven.net/reviews.php?reviewid=585&pageid=1
http://www.matbe.com/articles/lire/921/radeon-hd-4870-et-4850-seules-et-en-crossfire/
Siccome chi ha aperto il 3d ufficiale della 4870 non ha inserito molte recensioni gli utenti di cuore :D sono pregati di suggerircene qualcuna .....:O :D
Diobrando_21
17-07-2008, 19:55
Mediamente 2 4870 in Crossfire dovrebbero essere sempre superiori ad una GTX280 ,ad eccezione dei casi in cui la Vram della GTX280 fa la differenza e rogne software di cui parlavamo......
La tv che vuoi utilizzare in quanto FullHD ha un pannello con risoluzione 1920*1080 quindi il territorio adatto a configurazioni DualGPU...in verità a questa risoluzione "potrebbe" bastare anche una singola 4870 ma considerato che si tratta di un 40" non puoi prescindere dall'utilizzo intenso del filtro antialiasing..
Se dai uno sguardo al 3d della 4870 in prima pagina troverai alcune recensioni che includono il Crossfire di due 4870 (giusto per rendersi conto delle prestazioni della fututa 4870X2)
Un paio di review te le linko io ;) ...:
http://www.driverheaven.net/reviews.php?reviewid=585&pageid=1
http://www.matbe.com/articles/lire/921/radeon-hd-4870-et-4850-seules-et-en-crossfire/
Siccome chi ha aperto il 3d ufficiale della 4870 non ha inserito molte recensioni gli utenti di cuore :D sono pregati di suggerircene qualcuna .....:O :D
per le prestazioni della 4870x2 cmq c'è una preview su "hardware upgrade" che già ci da un'idea...
cmq vorrei prendere questa dual perché voglio essere sicuro che nessun gioco scatti...odio i rallentamenti e gli scatti, mi danno ai nervi, ti giuro...
ah una cosa: posso stare tranquillo che la mia tv possa ricevere via HDMI anche un segnale video PC?
Ti ho indirizzato verso altre review perchè prendono in considerazione un Crossfire 4870 con molti titoli...a differenza di quanto accade nella preview...
2 VGA 4870 più o meno equivalgono una 4870X2: dai uno sguardo alle recensioni e fatti un'idea di quanto puoi ottenere e se ciò andrà a soddisfare le tue esigenze...
Dovrai usare un adattatore DVI>HDMI , ma non avrai alcun problema...
dewwwxx84
17-07-2008, 22:53
Teoricamente si, o meglio, io sulla mia bus 1.0 ho montato la 9800GTX che ha bus 2.0, quindi sono retrocompatibili, parlo della mia vecchia configurazione MSI con chipset 965 quindi era pure un po vecchiotto, pero, mio fratello, scheda Asus, bus 1.0 ha messo una 8800GT e nn funzionava, questi sono i misteri, che Mobo hai,?
Cmq senza voler fare cattiva pubblicità, ma ste stracomercializzate Asus, vanno bene solo i Top di gamma:confused: tantissimi utenti si lamentano, pero vendono di brutto, mahhh, altro mistero :mbe:
ho una asus P5K PRO' che a dire la verita' mi trovo moooooooooooooolto bene:cool:
Free Gordon
18-07-2008, 01:28
vediamo se warhead porta miglioramenti in questo senso, perchè cmq imho graficamente crysis in VH è senza dubbio migliore della migliore implementazione dell'ultimo unreal....
Sotto certi pdv, è vero. Crysis, soprattutto a livello di texture, è davvero massiccio.
Ma non in tutti i campi! Lo stesso GoW, gioco 360 di fine 2006, in molti aspetti è allo stesso livello..
Inoltre devi considerare che i giochi che usano l'UE3 vanno a 300mila frames al secondo sulle schede attuali.. :D non come Crysis, che stenta i 30 su configurazioni stellari...
la x2 va sempre più di un crossfire di 3870 in ogni situazione, e in casi estremi non di poco (15\20%).
e non è vero che consuma di più di un crossfire di 4870, ma qualcosa di meno :)
imho, se non ha urgenza di comprare, può aspettare 3\4 settimane e vedere a che prezzo sarà proposto r700. e li decidere.
La sfortuna è che ho un pò di fretta...
Quindi la 4870X2 dovrebbe essere disponibile in italia verso 15 agosto?
Come prezzi la versione da 1 gb è sui 500 dollari o sbaglio?
HackaB321
18-07-2008, 10:09
ancora "sparate" su RV870, fanno anche confusione tra ALU e SP
It is said that AMD next generation graphic core possible be named RV870 and according to TSMC technology, it will use 40nm or 45nm technology. The core area of RV870 will be about 140m㎡ which is much smaller than RV770 260m㎡. As we know by now, it will have 192 ALU. RV770 each ALU matched 5SP and then RV870 will have 960SP. In order to control the core area, it is still 256bit. We believe RV870 will be 1.2 times than RV770 in performances, but this will be decided by the clock of RV870.
It is also said that AMD next generation R800 will use new design. We know Radeon HD3870X2 and the coming Radeon HD4870X2 both used single PCB+dual graphic core design while R800 will possible use real dual core design. If so, AMD next generation flagship R800 will be the first dual core GPU. The specs of R800 will double RV870.
Advanced 45nm (40nm?) will bring RV870 smaller core area. The current RV770 did well in performances but the temperature is really terrible. If RV870 can settle this problem and further improve performances, it will be really excited for us and it will be the first real dual core GPU possibly.
http://en.hardspell.com/doc/showcont.asp?news_id=3768
metterei un sti caxxi......
ancora "sparate" su RV870, fanno anche confusione tra ALU e SP
http://en.hardspell.com/doc/showcont.asp?news_id=3768
A prescindere dalla credibilità del rumor in oggetto...non credo che per quanto riguarda RV870 le cose scritte siano tanto assurde; forse, ci sarebbe da speculare su R800, ma in sintesi, sono decisamente più credibili questi rumor di quanto non lo siano quelli per la controparte NVidia...(GT300 )
Cmq sia , imho, oggi è evidente la bonta del progetto R600, il quale con le dovute e apportate modifiche sembra aumentare le performance proporzionalmente al numero di SP...
Lo stesso GoW, gioco 360 di fine 2006, in molti aspetti è allo stesso livello
:asd: per me proprio no.
Andrea deluxe
18-07-2008, 13:11
:asd: per me proprio no.
infatti con monitor grossi e risoluzioni grosse, vengono agli occhi cose che non arrivano a 1280x1024 o 1440x900 o 1680x1050
Foglia Morta
18-07-2008, 15:39
Riporto una riflessione di Corsini che mi pare interessante ( tanto questo è un thread "aspettando...." e di speculazioni se ne possono fare )
L'annuncio del cambio di guardia in AMD, con Dirk Meyer che ha sostituito Hector Ruiz quale CEO di AMD, era attesa da molti operatori del settore da lungo tempo ma francamente non si pensava potesse concretizzarsi alla fine del secondo trimestre 2008.
Per svariate considerazioni si attendeva la seconda metà dell'anno, presumibilmente tra terzo e quarto trimestre, per una mossa di questo tipo: il punto di svolta sarebbe stato quello del tanto atteso ritorno alla profittabilità, indicato per l'appunto nella seconda metà del 2008 da parte dello stesso Hector Ruiz in più occasioni.
Ieri sera stavo ascoltando in diretta l'annuncio dei risultati finanziari di AMD: alle parole di Ruiz che annunciava Dirk Meyer come nuovo CEO dell'azienda sono rimasto a dir poco sorpreso (ed è per questo motivo che mi sono affrettato a scrivere una news in merito e a pubblicarla).
Trascorse un po' di ore, è il caso di provare a fare qualche riflessione. Il cambio di guida in AMD era atteso da molto tempo, e Dirk Meyer è indubbiamente la persona più indicata per questo guardando quella che è la dirigenza attuale di AMD. Non credo che Hector Ruiz uscirà di scena nel breve periodo, in quanto l'aver comunicato l'intenzione di proseguire a sviluppare la strategia Assets Light per AMD ha a mio avviso quale implicazione che Ruiz potrebbe seguire come CEO, o con una posizione molto elevata, una nuova azienda che potrebbe venir creata prossimamente e nella quale verranno fatte confluire le capacità produttive di AMD.
La risultante sarebbe la creazione di due poli distinti: l'attuale AMD, senza fabbriche, quale azienda specializzata nella progettazione e nel design di componenti e piattaforme, guidata da una persona dall'indubbio profilo tecnico quale è Dirk Meyer. La seconda azienda di fatto una vera fonderia, specializzata nella produzione di componenti per AMD ma presumibilmente anche pronta a costruire chip per partner terzi, guidata da un Ruiz sicuramente meno tecnica di Meyer ma molto più esperta dal punto di vista del puro business.
Nella giornata di ieri NVIDIA ha annunciato la propria adesione al consorzio SOI: questo può implicare utilizzare IBM come partner produttivo per future generazioni di prodotti NVIDIA oppure, più realisticamente, che GPU e componenti NVIDIA possano venir prodotti a Dresda. Le mie sono speculazioni, ma ci vedo una certa logica di fondo. Nella conference call di ieri sera AMD ha precisato come nel corso del terzo trimestre verrà fatto un annuncio importante circa la strategia Assets Light: resta ora da vedere non tanto i modi, quanto il momento in cui questo avverrà.
Ma LOOOL GPU Nvidia prodotte da AMD XD :sofico:
ancora "sparate" su RV870, fanno anche confusione tra ALU e SP
http://en.hardspell.com/doc/showcont.asp?news_id=3768
A 45nm ci sta tutto, per non corrisponde per il bus. 256bit? Mah dovrebbe aver trovato un modo di comprimere le esigenze minime di spazio. Vediamo.. a questo punto con quelle specifiche me lo aspetto per fine 2008.
Foglia Morta
19-07-2008, 08:40
A 45nm ci sta tutto, per non corrisponde per il bus. 256bit? Mah dovrebbe aver trovato un modo di comprimere le esigenze minime di spazio. Vediamo.. a questo punto con quelle specifiche me lo aspetto per fine 2008.
hardspell riporta più o meno le stesse speculazioni che avevo fatto io qualche giorno fa ( tranne per il bus 256bit e 2 simd aggiuntivi ). Quindi imo sono proprio speculazioni e nulla più. Il problema è che con l'AFR se bisogna scrivere più di 2 volte ( una volta per ogni gpu ) gli stessi dati nel frame buffer diventa troppo frazionato e lo spreco sarebbe assurdo... Per 2 gpu è accettabile , oltre direi proprio di no. Quindi o ci saranno ulteriori innovazioni nel multi-gpu o troveranno altre soluzioni.
appleroof
19-07-2008, 09:45
Sotto certi pdv, è vero. Crysis, soprattutto a livello di texture, è davvero massiccio.
Ma non in tutti i campi! Lo stesso GoW, gioco 360 di fine 2006, in molti aspetti è allo stesso livello..
Inoltre devi considerare che i giochi che usano l'UE3 vanno a 300mila frames al secondo sulle schede attuali.. :D non come Crysis, che stenta i 30 su configurazioni stellari...
:asd: per me proprio no.
infatti con monitor grossi e risoluzioni grosse, vengono agli occhi cose che non arrivano a 1280x1024 o 1440x900 o 1680x1050
quoto, imho gow non è proprio la migliore implementazione unreal, tutto "plasticoso" e immobile...al limite prenderei come esempio della migliore implementazione di questo motore mass effect, stupendo davvero ma appunto non al livello di crysis in vh sempre secondo me (e non è solo questione di texture, ma di grafica nel suo complesso)
hardspell riporta più o meno le stesse speculazioni che avevo fatto io qualche giorno fa ( tranne per il bus 256bit e 2 simd aggiuntivi ). Quindi imo sono proprio speculazioni e nulla più. Il problema è che con l'AFR se bisogna scrivere più di 2 volte ( una volta per ogni gpu ) gli stessi dati nel frame buffer diventa troppo frazionato e lo spreco sarebbe assurdo... Per 2 gpu è accettabile , oltre direi proprio di no. Quindi o ci saranno ulteriori innovazioni nel multi-gpu o troveranno altre soluzioni.
Parla di "real dual-core GPU": non penso sia qualcosa gestito dal CF. Potrebbe essere un thread dispatch processor esterno.
Ragionando un attimo, alla fin fine la bandwidth potrebbe essere un limite all'aumentare dei SIMD. Per fine 2008 non ci saranno GDDR5 superiori a 5Ghz, e 12 SIMD con 80Gb/s di banda passante sarebbero un limite alla scheda. Serve per forza un bus a 256bit, ma è strano che siano riusciti a ridurne così tanto le richieste di spazio. Interessante la progressione di ATI. 4 SIMD/8 SIMD (così doveva essere RV770) / 12 SIMD.. RV970 ne avrà 16 (45nm di seconda gen) e RV1070 (40nm) 20?
RV870 fine 2008, RV970 metà 2009, RV1070 fine 2009.
R800 dual-core, R900 tri-core, R1000 quad-core.
Semplice no? Così per fine 2009 avremmo un chip da 6400sp/320TMU/MC da 1024bit/4 Gb di GDDR5@6Ghz. :sofico:
Per contenere i consumi sarà obbligatorio usare logica attiva, magari di seconda generazione o terza. :O
quoto, imho gow non è proprio la migliore implementazione unreal, tutto "plasticoso" e immobile...al limite prenderei come esempio della migliore implementazione di questo motore mass effect, stupendo davvero ma appunto non al livello di crysis in vh sempre secondo me (e non è solo questione di texture, ma di grafica nel suo complesso)
La migliore implementazion dell'UE3 è Mirror's Edge. Io lo trovo graficamente bellissimo e artisticamente incredibile. Sembra un engine creato ad hoc.
http://www.gametrailers.com/player/36281.html
La migliore implementazion dell'UE3 è Mirror's Edge. Io lo trovo graficamente bellissimo e artisticamente incredibile. Sembra un engine creato ad hoc.
http://www.gametrailers.com/player/36281.html
quoto,gioco graficamente spettacolare.... ma siamo sicuri che sia basato sull'UE3? ..pare tutt'altro motore grafico:stordita:
Foglia Morta
19-07-2008, 10:26
Parla di "real dual-core GPU": non penso sia qualcosa gestito dal CF. Potrebbe essere un thread dispatch processor esterno.
Ragionando un attimo, alla fin fine la bandwidth potrebbe essere un limite all'aumentare dei SIMD. Per fine 2008 non ci saranno GDDR5 superiori a 5Ghz, e 12 SIMD con 80Gb/s di banda passante sarebbero un limite alla scheda. Serve per forza un bus a 256bit, ma è strano che siano riusciti a ridurne così tanto le richieste di spazio. Interessante la progressione di ATI. 4 SIMD/8 SIMD (così doveva essere RV770) / 12 SIMD.. RV970 ne avrà 16 (45nm di seconda gen) e RV1070 (40nm) 20?
RV870 fine 2008, RV970 metà 2009, RV1070 fine 2009.
R800 dual-core, R900 tri-core, R1000 quad-core.
Semplice no? Così per fine 2009 avremmo un chip da 6400sp/320TMU/MC da 1024bit/4 Gb di GDDR5@6Ghz. :sofico:
Per contenere i consumi sarà obbligatorio usare logica attiva, magari di seconda generazione o terza. :O
Parla di gpu da 140mm2 . IMHO usa il termine dual core a sproposito... ma l'idea più o meno è sempre quella ( tipo 2 die nello stesso package ).
Le GDDR5 a 6Gbit/sec dovrebbero essere già in produzione e disponibili per fine anno: http://www.hwupgrade.it/news/memorie/samsung-memorie-gddr5-da-6-gigabit-al-secondo_23477.html
Ma queste memorie non ce le vedo in schede da 150-300 dollari :D . 80GB di banda imo potranno andare bene per una scheda da 125 dollari ( 140 mm2 di die e pcb con pochi layer grazie anche al bus 128bit e probabilmente bassi consumi per evitare il connettore aggiuntivo , quindi 625Mhz come la 4850 ).
Poi grazie anche alle superiori rese produttive ( se un wafer prodotto a 40nm fosse simile ad uno a 55nm ) si avrebbe una gpu che costa meno della metà di RV770...
Alla fine la strada scelta da ATi è quella delle performance/$ e multi gpu quindi queste speculazioni un senso ce l'hanno :D
michelgaetano
19-07-2008, 10:34
La migliore implementazion dell'UE3 è Mirror's Edge. Io lo trovo graficamente bellissimo e artisticamente incredibile. Sembra un engine creato ad hoc.
http://www.gametrailers.com/player/36281.html
Sembra notevole.
Speculazioni sulla data d'uscita?
quoto,gioco graficamente spettacolare.... ma siamo sicuri che sia basato sull'UE3? ..pare tutt'altro motore grafico:stordita:
E' una versione "custom" dell'UE3, come quello di Bioshock. Hanno usato un engine proprietario per l'illuminazione. ;)
Mercuri0
19-07-2008, 10:40
A 45nm ci sta tutto, per non corrisponde per il bus. 256bit? Mah dovrebbe aver trovato un modo di comprimere le esigenze minime di spazio. Vediamo.. a questo punto con quelle specifiche me lo aspetto per fine 2008.
Già, comunque sull'area, Hardspell, imo ha sparato cazzate, a meno che TSMC non sia riuscita a diminuire le dimensioni dei pad nel suo processo (improbabile, è una cosa che coinvolge troppi aspetti della catena.)
La roadmap di AMD prevede un chip ogni sei mesi. Questo "R870" dovrebbe uscire a dicembre/gennaio ed essere un RV770 stereoidato.
Ma LOOOL GPU Nvidia prodotte da AMD XD :sofico:
Secondo me è più realistico pensare che anche le altre fonderie stiano pensando di usare il SOI (come TSMC). Quindi nVidia è nel consorzio per farsi "spiegare" da AMD (e gli altri membri) come si progetta su SOI. ;)
Tra l'altro nVidia è uno dei pochi non produttori li in mezzo.
E' una versione "custom" dell'UE3, come quello di Bioshock. Hanno usato un engine proprietario per l'illuminazione. ;)
kapito:)
yossarian
19-07-2008, 11:10
Secondo me è più realistico pensare che anche le altre fonderie stiano pensando di usare il SOI (come TSMC). Quindi nVidia è nel consorzio per farsi "spiegare" da AMD (e gli altri membri) come si progetta su SOI. ;)
Tra l'altro nVidia è uno dei pochi non produttori li in mezzo.
tsmc fa già uso di soi
Cooperdale
19-07-2008, 12:36
tsmc fa già uso di soi
A volte mi viene il dubbio che tutto questo proliferare di sigle e acronimi sia un segno dell'apocalisse.
yossarian
19-07-2008, 12:40
A volte mi viene il dubbio che tutto questo proliferare di sigle e acronimi sia un segno dell'apocalisse.
dubbio più che legittimo :D
Ragazzi, potrà sembrarvi una domanda idiota (e molto probabilmente lo è...) ma in generale il Cross-Fire/SLI interno delle schede X2 non viene in qualche modo "limitato" da un bus PCIex 16x che si suddivide in due linee 8x (come la mia vecchia A8n-SLI o la recente Maximus II Formula)?
La migliore implementazion dell'UE3 è Mirror's Edge.
Il game non è ancora uscito, come possiamo definirlo la migliore implementazione del U3 Engine....?
Io lo trovo graficamente bellissimo e artisticamente incredibile. Sembra un engine creato ad hoc.
Anche a me piace moltissimo, finalmente una scelta cromatica e di design diversa...:basta con ambientazioni cupe, tetre, post-atomiche, post-minchia etc. etc....finalmente luce!
Cooperdale
19-07-2008, 16:14
Ragazzi, potrà sembrarvi una domanda idiota (e molto probabilmente lo è...) ma in generale il Cross-Fire/SLI interno delle schede X2 non viene in qualche modo "limitato" da un bus PCIex 16x che si suddivide in due linee 8x (come la mia vecchia A8n-SLI o la recente Maximus II Formula)?
Non più di tanto, come sempre le soluzioni più evolute delle schede madri non sono pienamente sfruttate né dall'hardware né di conseguenza dal software. Credo la differenza per ora sia minima. Quando diventerà misurabile ci sarà già un nuovo tipo di bus probabilmente.
A volte mi viene il dubbio che tutto questo proliferare di sigle e acronimi sia un segno dell'apocalisse.
*
Drakon99
20-07-2008, 12:34
Ragazzi, potrà sembrarvi una domanda idiota (e molto probabilmente lo è...) ma in generale il Cross-Fire/SLI interno delle schede X2 non viene in qualche modo "limitato" da un bus PCIex 16x che si suddivide in due linee 8x (come la mia vecchia A8n-SLI o la recente Maximus II Formula)?
Il crossfire "interno" funziona autonomamente. E'possibile montare una VGA con doppia GPU anche su motherboard a singolo slot PCI-E.
Mettendo una HD4870 x2 su bus PCI-E 1.1@16x avrai la stessa bandwidth di un PCI-E 2.0@8x.
La differenza di prestazioni sarà minima. ;)
Cooperdale
21-07-2008, 10:21
Nuova preview su Guru32, molto positiva:
http://www.guru3d.com/article/radeon-hd-4870-x2-preview/
Però queste temperature continuano a inquietarmi.
Nuova preview su Guru32, molto positiva:
http://www.guru3d.com/article/radeon-hd-4870-x2-preview/
Però queste temperature continuano a inquietarmi.
veramente ottima questa scheda.... spero esca presto, così finalmente aggiorno il mio pc.....
Immortal
21-07-2008, 13:49
Nuova preview su Guru32, molto positiva:
http://www.guru3d.com/article/radeon-hd-4870-x2-preview/
Però queste temperature continuano a inquietarmi.
questa scheda mi lascia perplesso e spero che i nuovi driver possano chiarire meglio la situazione:
in alcuni bench a 2500 di risoluzione supera il CF di 4870 (evidentemente solo in quel caso serviva 1gb di ram per gpu), mentre in molti altri casi il CF di 4870 batte o pareggia la 4870x2 avendo la metà di ram e in teoria avendo latenze superiori (le 2 gpu devono comunicare con una distanza maggiore). Boh...non mi convince molto :stordita:
Raga allora sapete dirmi quando esce o quando potremmo averla disponibile in italia?
GRazie! :rolleyes:
E come prezzo 500 dollarozzi circa?
madeofariseo
21-07-2008, 14:31
penso per i primi di agosto ???
Iantikas
21-07-2008, 17:01
Raga allora sapete dirmi quando esce o quando potremmo averla disponibile in italia?
GRazie! :rolleyes:
E come prezzo 500 dollarozzi circa?
dovrebbe essere messa in vendita a metà agosto...verso "fine agosto - inizio settembre" dovrebbe trovarsi in buone quantità nei vari shop italiani...ciao
Cooperdale
21-07-2008, 17:10
questa scheda mi lascia perplesso e spero che i nuovi driver possano chiarire meglio la situazione:
in alcuni bench a 2500 di risoluzione supera il CF di 4870 (evidentemente solo in quel caso serviva 1gb di ram per gpu), mentre in molti altri casi il CF di 4870 batte o pareggia la 4870x2 avendo la metà di ram e in teoria avendo latenze superiori (le 2 gpu devono comunicare con una distanza maggiore). Boh...non mi convince molto :stordita:
In realtà le schede attualmente in prova hanno 512Mbx2, quindi come vram sono esattamente equivalenti a un CF di 4870. Le differenze nelle prestazioni sembrano trascurabili, il vantaggio è avere una scheda sola.
dovrebbe essere messa in vendita a metà agosto...verso "fine agosto - inizio settembre" dovrebbe trovarsi in buone quantità nei vari shop italiani...ciao
Io penso che la comprerò dall'estero, probabilmente in Germania: hanno l'hardware con settimane di anticipo, a prezzi così bassi rispetto ai nostri shop che ci si risparmia comunque anche con 40-50 euro di spese di spedizione...
Speriamo per circa 400€ XD
Immortal
21-07-2008, 17:39
In realtà le schede attualmente in prova hanno 512Mbx2, quindi come vram sono esattamente equivalenti a un CF di 4870. Le differenze nelle prestazioni sembrano trascurabili, il vantaggio è avere una scheda sola.
quella linkata prima dicevano fosse 2x1gb ;)
appleroof
21-07-2008, 17:56
A volte mi viene il dubbio che tutto questo proliferare di sigle e acronimi sia un segno dell'apocalisse.
dubbio più che legittimo :D
:asd: :asd:
appleroof
21-07-2008, 18:02
La migliore implementazion dell'UE3 è Mirror's Edge. Io lo trovo graficamente bellissimo e artisticamente incredibile. Sembra un engine creato ad hoc.
http://www.gametrailers.com/player/36281.html
conosco quel gioco e lo aspetto con uguale interesse tuo :read:
Cooperdale
21-07-2008, 18:24
quella linkata prima dicevano fosse 2x1gb ;)
Eh già, e l'ho pure linkata io... Mi prostro umilmente.
Foglia Morta
22-07-2008, 07:30
Ricordate Charlie Demerjian , quello che prima dell'uscita delle GTX era stato definito "delirante"... ma poi ci ha indovinato.
Forse anche XFX ed EVGA si decideranno a vendere anche ATi. L'articolo non dice che sarà ATi , ma mi pare molto difficile possa essere S3 , forse Intel ma se è così ci manca ancora parecchio tempo.
http://www.theinquirer.net/gb/inquirer/news/2008/07/21/two-nvidia-partners-defect
THE PAIN JUST KEEPS coming for Nvidia, this time in the partner space. Two of their key 'alpha' partners have just defected.
It is nearly impossible to make money selling Nvidia cards right now, NV squeezed partners margins too much, and when the going got rough, prioritised its own margins over partner survival. This gave partners the choice of popping like a zit financially or moving to less green pastures.
Like Gainward before them, two of the largest ones, XFX and EVGA have defected. Want to bet Nvidia doesn't know yet? In any case, partners leaving a company like rats leaving a sinking ship is never a good sign, lets see what happens in the coming months when the pain really piles on at NV.
The really interesting part is who they defected to, and it isn't ATI. Paperwork has been signed though, and it is a done deal.
Like we said it is going to be an interesting summer. µ
michelgaetano
22-07-2008, 07:43
Ricordate Charlie Demerjian , quello che prima dell'uscita delle GTX era stato definito "delirante"... ma poi ci ha indovinato.
Non conosco la faccenda, spiega spiega ^^
L'articolo l ho letto da toms :P
Foglia Morta
22-07-2008, 07:55
Non conosco la faccenda, spiega spiega ^^
L'articolo l ho letto da toms :P
prima della presentazione ufficiale praticamente aveva indovinato le performance delle schede . Il rapporto qualità/prezzo molto sconveniente e il fatto che sarebbe stata battuta di larga misura dalla 4870X2. E dato che le aspettative erano totalmente diverse avevamo bollato i suoi articoli come "catastrofici" , "da fanboy" o "deliranti" . Il problema è che poi si sono rivelate esatte le sue info :D
michelgaetano
22-07-2008, 08:08
prima della presentazione ufficiale praticamente aveva indovinato le performance delle schede . Il rapporto qualità/prezzo molto sconveniente e il fatto che sarebbe stata battuta di larga misura dalla 4870X2. E dato che le aspettative erano totalmente diverse avevamo bollato i suoi articoli come "catastrofici" , "da fanboy" o "deliranti" . Il problema è che poi si sono rivelate esatte le sue info :D
L'articolo quindi è suo? Inquietante o_O
eVGA e XFX sono tra i partners maggiori, anche per le mobo, una simile defezione sarebbe preoccupante davvero.
Foglia Morta
22-07-2008, 08:20
L'articolo quindi è suo? Inquietante o_O
eVGA e XFX sono tra i partners maggiori, anche per le mobo, una simile defezione sarebbe preoccupante davvero.
si è sempre suo l'articolo... il tempo ci dirà se ha ragione o meno
Io penso che la comprerò dall'estero, probabilmente in Germania: hanno l'hardware con settimane di anticipo, a prezzi così bassi rispetto ai nostri shop che ci si risparmia comunque anche con 40-50 euro di spese di spedizione...
Sarei interessato pure io..
Sai darmi qualche link utile per reperire l'hardware in Germania?
Grazie!
Cooperdale
22-07-2008, 08:27
Sarei interessato pure io..
Sai darmi qualche link utile per reperire l'hardware in Germania?
Grazie!
Ti rispondo via pm, non credo qui sia possibile inserire link commerciali.
Cooperdale
22-07-2008, 08:53
Ragazzi, qui dice che si nota ancora lo stuttering...
http://www.guru3d.com/article/radeon-hd-4870-x2-preview/9
E vai di jastemme.
Immortal
22-07-2008, 20:40
Ragazzi, qui dice che si nota ancora lo stuttering...
http://www.guru3d.com/article/radeon-hd-4870-x2-preview/9
E vai di jastemme.
ma allora quello che diceva mercuri0 non torna con quella recensione :stordita:
lui diceva (se nn ho interpretato male) che oltre i 60 fps lo stuttering non avviene e in ogni caso, attivando il v-sync e quindi murando a 60 fps il gioco (cosa più che accettabile), i frame sono sincronizzati e lo stuttering cessa.
Quindi mi chiedo..non bastava attivare il v-sync? :stordita:
boh..forse sono troppo ignorante per capire queste cose :fagiano:
ma cos'è lo stuttering? :confused:
appleroof
22-07-2008, 21:10
ma cos'è lo stuttering? :confused:
sostanzialmente microscatti dell'immagine
sostanzialmente microscatti dell'immagine
ah ok, grazie. :)
Mister Tarpone
24-07-2008, 11:33
http://img178.imageshack.us/img178/2679/radeonhd4870x201ny1.jpg (http://imageshack.us)
http://img382.imageshack.us/img382/1482/radeonhd4870x200fv9.jpg (http://imageshack.us)
http://img178.imageshack.us/img178/7475/radeonhd4870x202mi8.jpg (http://imageshack.us)
Sperando che sia la versione oem, comincio a dubitare che possa entrare nel mio rc-690 :D
michelgaetano
24-07-2008, 11:38
Saran gusti, ma è proprio brutto quel dissi :asd:
Saran gusti, ma è proprio brutto quel dissi :asd:
a me piace ma tanto sopra ci va una bella pecetta :D
magari ci metto la faccia di rocco viste le dimensioni del coso :D
cut
cut
cut
ahia!
Molto fallica devo dire :fagiano:
Molto fallica devo dire :fagiano:
lol! :asd:
comunque è 27cm... nel mio case ci sta solo perchè ho tolto il cassettino degli H.D. :fagiano:
però a questo punto non ci sarebbero state nemmeno la 8800GTX e le GTX200... :)
Sperando che sia la versione oem, comincio a dubitare che possa entrare nel mio rc-690 :D
C'è una soluzione a tutto :D
http://www.rcreator.com/flessibile.jpg
Mister Tarpone
24-07-2008, 12:25
Molto fallica devo dire :fagiano:
ma quindi ti pace o no?? :fagiano: :confused:
a me piace ma tanto sopra ci va una bella pecetta :D
magari ci metto la faccia di rocco viste le dimensioni del coso :D
e che è sta pecetta?? :confused:
ma quindi ti pace o no?? :fagiano: :confused:
Ah ah ah.
NO. :O [cit.]
Ma tanto alla fine una scheda grafica di solito se ne sta bella chiusa nel case e chi si preoccupa di dimensioni africane o di forme varie. :O
ma quindi ti pace o no?? :fagiano: :confused:
:asd: sempre il solito porco! :oink: :oink: :oink: :oink: :oink: :oink:
( :fagianporco: )
Cooperdale
24-07-2008, 15:57
Penso che inizierò a progettare il furto di una versione preview. Non riesco ad aspettare.
Penso che inizierò a progettare il furto di una versione preview. Non riesco ad aspettare.
Sto progettando una "visita guidata" a TSMC, con la mia fidanzata (che guardacaso é proprio di Taiwan) :asd:
michelgaetano
24-07-2008, 17:50
Sto progettando una "visita guidata" a TSMC, con la mia fidanzata (che guardacaso é proprio di Taiwan) :asd:
:O
:D
Sto progettando una "visita guidata" a TSMC, con la mia fidanzata (che guardacaso é proprio di Taiwan) :asd:
portamene una anche a me allora! :D
Mantis86
24-07-2008, 18:53
Mah ragazzi, leggendo il test sui giochi su HW sta scheda non mi è sembrato così tanto performante rispetto ad una 280gtx? :what:
voi che dite?
*mi correggo, alcuni dicevano che era del 70% più veloce di una 280 ma non mi sembra, anche se in ogni caso resta un scheda da urlo...
Cooperdale
24-07-2008, 19:10
Qui si parla dappertutto di temperature da altiforno, la cosa mi allarma perché odio l'alta temperatura nell'hardware. E odio sostituire le ventole alle schede video.
Spero che con un maggior controllo della ventola il problema rientri.
The_max_80
24-07-2008, 23:44
Mah ragazzi, leggendo il test sui giochi su HW sta scheda non mi è sembrato così tanto performante rispetto ad una 280gtx? :what:
voi che dite?
*mi correggo, alcuni dicevano che era del 70% più veloce di una 280 ma non mi sembra, anche se in ogni caso resta un scheda da urlo...
guardando TUTTE le preview cosi da avere un idea generale, siamo intorno al 45/50 di media con picchi superiori e picchi inferiori
ma allora quello che diceva mercuri0 non torna con quella recensione :stordita:
lui diceva (se nn ho interpretato male) che oltre i 60 fps lo stuttering non avviene e in ogni caso, attivando il v-sync e quindi murando a 60 fps il gioco (cosa più che accettabile), i frame sono sincronizzati e lo stuttering cessa.
Quindi mi chiedo..non bastava attivare il v-sync? :stordita:
boh..forse sono troppo ignorante per capire queste cose :fagiano:
Quello di cui avevamo discusso in passato è semplicemente che qualunque variazione repentina di framerate, se rimane oltre i 60fps (o i 75fps nel caso di schermo lcd a 75Hz, molto raro), è qualcosa che l'occhio umano non riesce a cogliere. Se hai uno schermo a 60 Hz, ti mostrerà solo 60 immagini max al secondo, facendo 60 refresh in un secondo. Pure se in teoria la scheda in un dato gioco ha un output di 120fps, mettiamo, sempre 60 ne vedrai. Quindi anche eventuali svarioni enormi di framerate, tipo da 60fps a 140 e ritorno, non te ne accorgerai quasi. Se poi metti il vsync col triple buffering, il framerate è bloccato, quindi a meno che l'output framerate della scheda (chiamiamolo così) non scenda sotto i 60 fps, nel qual caso scenderesti di colpo a 45fps, credo (per via del vsync). ;)
Passando ad altro, non so se è già stata postata questa review di HardOCP dei diversi AA di ATI e NVidia. :)
http://enthusiast.hardocp.com/article.html?art=MTUzMiwxLCxoZW50aHVzaWFzdA==
si sà che alimentatore serve? un 500w basta?
Quello di cui avevamo discusso in passato è semplicemente che qualunque variazione repentina di framerate, se rimane oltre i 60fps (o i 75fps nel caso di schermo lcd a 75Hz, molto raro), è qualcosa che l'occhio umano non riesce a cogliere. Se hai uno schermo a 60 Hz, ti mostrerà solo 60 immagini max al secondo, facendo 60 refresh in un secondo. Pure se in teoria la scheda in un dato gioco ha un output di 120fps, mettiamo, sempre 60 ne vedrai. Quindi anche eventuali svarioni enormi di framerate, tipo da 60fps a 140 e ritorno, non te ne accorgerai quasi. Se poi metti il vsync col triple buffering, il framerate è bloccato, quindi a meno che l'output framerate della scheda (chiamiamolo così) non scenda sotto i 60 fps, nel qual caso scenderesti di colpo a 45fps, credo (per via del vsync). ;)
Passando ad altro, non so se è già stata postata questa review di HardOCP dei diversi AA di ATI e NVidia. :)
http://enthusiast.hardocp.com/article.html?art=MTUzMiwxLCxoZW50aHVzaWFzdA==
non sono daccordo, io ho il monitor impostato a 60hz, allora perche cod4 con 60-70frame sembra che scatti mentre con 90-120 risulta fluido?:confused:
non sono daccordo, io ho il monitor impostato a 60hz, allora perche cod4 con 60-70frame sembra che scatti mentre con 90-120 risulta fluido?:confused:
forse se attivi il vsync fai meno di 60-70....
controlla
Penso che inizierò a progettare il furto di una versione preview. Non riesco ad aspettare.
Mi associo...
Sono stufo di aspettare :D :D
non sono daccordo, io ho il monitor impostato a 60hz, allora perche cod4 con 60-70frame sembra che scatti mentre con 90-120 risulta fluido?:confused:
Dipende dall'andamento del framerate. Col Vsync attivato se vai anche solo a 59fps il framerate scende a 45, credo. Se sei costantemente (ossia il framerate minimo è superiore ai 60fps) sopra i 60fps, non puoi accorgerti di nulla, perchè il tuo schermo fa refresh una volta al secondo, quindi se in un secondo la vga produce più di un frame, tu non te ne accorgerai. ;)
forse se attivi il vsync fai meno di 60-70....
controlla
vsync disattivo
Radeon HD 4870 X2 reviewed (http://www.pcghx.com/aid,653537/Reviews/Radeon_HD_4870_X2_reviewed/&page=1) :O :O
madeofariseo
25-07-2008, 18:38
si sà che alimentatore serve? un 500w basta?
non penso :doh:
anche se lo spero...
Cooperdale
25-07-2008, 18:43
Radeon HD 4870 X2 reviewed (http://www.pcghx.com/aid,653537/Reviews/Radeon_HD_4870_X2_reviewed/&page=1) :O :O
Grandi picchi di performance, ma anche molte fonti di preoccupazione:
-alte temperature
-livello di rumore altissimo
-microstuttering ancora assolutamente presente
-consumi pazzeschi
non so se era stata gia postata .............:)
http://www.guru3d.com/article/radeon-hd-4870-x2-preview/
..................oaic
Vista. Visti i grafici.
Che dire, quella che sta per uscire è veramente una scheda d'ottima fattura, un vero mostro di potenza. E io non vedo l'ora di averla tra le mani, la sto aspettando con ansia :D
Che gran bel prodotto sta sfornando ATi, grandissimi. ;)
system450
26-07-2008, 02:13
Dipende dall'andamento del framerate. Col Vsync attivato se vai anche solo a 59fps il framerate scende a 45, credo. Se sei costantemente (ossia il framerate minimo è superiore ai 60fps) sopra i 60fps, non puoi accorgerti di nulla, perchè il tuo schermo fa refresh una volta al secondo, quindi se in un secondo la vga produce più di un frame, tu non te ne accorgerai. ;)
A 60 Hz l'immagine viene disegnata 60 volte al secondo, altro che una volta al secondo...
In un secondo la vga produce più di un frame ? Spero proprio di sì, e spero siano anche più di 30, se no scatt, scatt... :D
Andrea deluxe
26-07-2008, 10:29
Vista. Visti i grafici.
Che dire, quella che sta per uscire è veramente una scheda d'ottima fattura, un vero mostro di potenza. E io non vedo l'ora di averla tra le mani, la sto aspettando con ansia :D
Che gran bel prodotto sta sfornando ATi, grandissimi. ;)
Leggi bene la review!
http://www.pcghx.com/aid,653537/Reviews/Radeon_HD_4870_X2_reviewed/&page=10
non mi pare un ottimo prodotto....per adesso!
e io che pensavo di farmici un crossfire con 2 di queste...:(
sono due review molto differenti..
bisogna aspettare l'uscita ufficiale con driver ufficiali e test fatti di persona da videogiocatori sotto ogni aspetto...
Cooperdale
26-07-2008, 11:52
Leggi bene la review!
http://www.pcghx.com/aid,653537/Reviews/Radeon_HD_4870_X2_reviewed/&page=10
non mi pare un ottimo prodotto....per adesso!
e io che pensavo di farmici un crossfire con 2 di queste...:(
Beh direi che è un ottimo prodotto ma con tutta una serie di problemi che forse verranno risolti e forse no.
mircocatta
26-07-2008, 11:52
sono due review molto differenti..
bisogna aspettare l'uscita ufficiale con driver ufficiali e test fatti di persona da videogiocatori sotto ogni aspetto...
driver immaturi
si ma mi sa che x dei driver decenti si fa natale :stordita:
Leggi bene la review!
http://www.pcghx.com/aid,653537/Reviews/Radeon_HD_4870_X2_reviewed/&page=10
non mi pare un ottimo prodotto....per adesso!
e io che pensavo di farmici un crossfire con 2 di queste...:(
in quella review hanno sicuramente problemi con i driver, se si usano gli 8.7 il cf funziona perfettamente con crysis... ;)
la review migliore per ora è su guru3d... :)
si ma mi sa che x dei driver decenti si fa natale :stordita:
non credo proprio, già gli 8.9 daranno un bel boost (settembre)...
non credo proprio, già gli 8.9 daranno un bel boost (settembre)...
speriamo , sta scheda mi attizza tanto :D
Cooperdale
26-07-2008, 16:06
in quella review hanno sicuramente problemi con i driver, se si usano gli 8.7 il cf funziona perfettamente con crysis... ;)
la review migliore per ora è su guru3d... :)
Il microstuttering non è mai stato un problema di driver però, e a quanto pare c'è ancora.
Andrea deluxe
26-07-2008, 17:17
Il microstuttering non è mai stato un problema di driver però, e a quanto pare c'è ancora.
il problema e' che le poche situazioni dove non e' presente sono sui 60frame per secondo, ma si verifica di brutto nella fascia 30-40-50fps
Cooperdale
26-07-2008, 19:11
il problema e' che le poche situazioni dove non e' presente sono sui 60frame per secondo, ma si verifica di brutto nella fascia 30-40-50fps
Puah... Sta cosa mi incarognisce abbastanza.
Andrea deluxe
26-07-2008, 19:15
Puah... Sta cosa mi incarognisce abbastanza.
dalla review:
"The microstuttering is gone.” That's what has been heard on the internet lately. But here it hasn't - although it got better with some of the more prominent examples. UT3 is running smooth all the time and we can't record any frame drops. In Crysis the situation was noticeably improved in DX 9 mode, but the lineup of frames is not as smooth in some situations as it is with a single GPU. Crossfire fails at the DX 10 mode - there are lags and the fps rate is low.
In 3DMark Vantage the first bumpy situations appear in the Extreme preset. Race Driver Grid delivers microstuttering if the frame rate drops below 50 - the subjective frame rate lies between 30 and 40. NfS Carbon and Half-Life 2 (dt.) produce microstuttering at frame rates below 40 fps. Playing at this frame rate feels like it does on a single GPU that delivers about 20 fps.
Andrea deluxe
26-07-2008, 19:17
cmq ho notato che pure la 9800gx2 aveva seri problemi in dx10.... qualche limite intrinseco della tecnologia sli/crossfire....
io sinceramente continuo a non capire se convenga campare 400 e passa € su sta scheda quando con 220 (credo) mi prendo una ottim 4870 da 1 gb...
poi appena esce la 5000 amen cambio di nuovo...
Pero spendere tutti sti soldi e avere i problemi del dual gpu ecc...mi rosicherebbe non poco.
In mio unico rammarico è che avendo un 24" sarebbe bello giocare sempre a 1920 e con questa sicuramente ce la si fa....
Bho, magari un crossino di 4850...non so più che fare:muro:
Il punto è che ormai con l'andazzo attuale che esce una famiglia di schede nuove ogni 6 mesi lo trovo un tantino antieconomico spendere 400€ ogni volta:D bho....
cmq ho notato che pure la 9800gx2 aveva seri problemi in dx10.... qualche limite intrinseco della tecnologia sli/crossfire....
direi qualche limite intrinseco del cry engine visto che molti altri motori la sfruttano decisamente meglio....
gia il fatto che uno sli ha un 50-60 % di performance in piu di un crossfire in quel gioco la dice lunga.... :mc:
io sinceramente continuo a non capire se convenga campare 400 e passa € su sta scheda quando con 220 (credo) mi prendo una ottim 4870 da 1 gb...
poi appena esce la 5000 amen cambio di nuovo...
Pero spendere tutti sti soldi e avere i problemi del dual gpu ecc...mi rosicherebbe non poco.
In mio unico rammarico è che avendo un 24" sarebbe bello giocare sempre a 1920 e con questa sicuramente ce la si fa....
Bho, magari un crossino di 4850...non so più che fare:muro:
Il punto è che ormai con l'andazzo attuale che esce una famiglia di schede nuove ogni 6 mesi lo trovo un tantino antieconomico spendere 400€ ogni volta:D bho....
dipende da che tipo di investimenti sei solito fare.
prendere una scheda top di gamma a un prezzo onesto (un po dopo l'uscita ufficiale quindi) e rivenderla dopo 6 mesi a un 60-70 % del suo prezzo per poi rinnovare tecnologia non è male.
se ci pensi fino a un anno fa (e fino a uscita gtx280) i prezzi dei top erano stabilizzati sui 550-600 euro...
gia se fosse 400 ci sarebbe un margine piu che ottimo. ovviamente imho
dipende da che tipo di investimenti sei solito fare.
prendere una scheda top di gamma a un prezzo onesto (un po dopo l'uscita ufficiale quindi) e rivenderla dopo 6 mesi a un 60-70 % del suo prezzo per poi rinnovare tecnologia non è male.
se ci pensi fino a un anno fa (e fino a uscita gtx280) i prezzi dei top erano stabilizzati sui 550-600 euro...
gia se fosse 400 ci sarebbe un margine piu che ottimo. ovviamente imho
Cavoli, quando compro HW non rieco proprio chiamarlo investimento! LOL peggio delle azioni parmalat di sti tempi XD
o si!
Mi ricordo ancora la 9800xt appena uscita a 599€:ciapet:
Ma guarda, io non sono mai riuscito a vendere una scheda dopo 6 mesi al 60% del valore...
Sarebbe bello se si andasse avanti sempre cosi, schede video eccezionali come una 4870 a 200€ non mi farei remore a upgradare ogni 6 mesi, e lo farei col sorrriso!
Il problema di ste top gamma (questa magari no perchè 2 gpu è un po diverso)
vedi la 280 gtx...sisi potenza bruta tutto quel che vuoi, ma quando una 4870 comincia a far fatica e va cambiata non è quel 20% in più che ti toglie dalla cacca, quindi non sono un grande investimento.
Certo se sto cross (e anche sli) rendessero davvero sempre seza problemi sarebbe un altro discorso...
Secondo voi una 4870 + una 50 viene fuori una porcata?:D
Cavoli, quando compro HW non rieco proprio chiamarlo investimento! LOL peggio delle azioni parmalat di sti tempi XD
o si!
Mi ricordo ancora la 9800xt appena uscita a 599€:ciapet:
Ma guarda, io non sono mai riuscito a vendere una scheda dopo 6 mesi al 60% del valore...
Sarebbe bello se si andasse avanti sempre cosi, schede video eccezionali come una 4870 a 200€ non mi farei remore a upgradare ogni 6 mesi, e lo farei col sorrriso!
Il problema di ste top gamma (questa magari no perchè 2 gpu è un po diverso)
vedi la 280 gtx...sisi potenza bruta tutto quel che vuoi, ma quando una 4870 comincia a far fatica e va cambiata non è quel 20% in più che ti toglie dalla cacca, quindi non sono un grande investimento.
Certo se sto cross (e anche sli) rendessero davvero sempre seza problemi sarebbe un altro discorso...
Secondo voi una 4870 + una 50 viene fuori una porcata?:D
4870 + 4850 in crossx?
non ne ho idea ma non mi suona molto bene...
"investimento" lo metto tra virgolette, investimento per il tuo divertimento, insomma il miglior modo di spendere meno e avere il massimo dai giochi rinnovando periodicamente :)
Ma la data ufficiale di lancio si sa?
In giro ho letto il 14 Agosto...
Se così fosse per settembre forse si riuscirebbe a metterci sopra le mani...
Cooperdale
27-07-2008, 12:29
io sinceramente continuo a non capire se convenga campare 400 e passa € su sta scheda quando con 220 (credo) mi prendo una ottim 4870 da 1 gb...
poi appena esce la 5000 amen cambio di nuovo...
Pero spendere tutti sti soldi e avere i problemi del dual gpu ecc...mi rosicherebbe non poco.
In mio unico rammarico è che avendo un 24" sarebbe bello giocare sempre a 1920 e con questa sicuramente ce la si fa....
Bho, magari un crossino di 4850...non so più che fare:muro:
Il punto è che ormai con l'andazzo attuale che esce una famiglia di schede nuove ogni 6 mesi lo trovo un tantino antieconomico spendere 400€ ogni volta:D bho....
Beh secondo me per giocare a 1920 una 4870 1Gb basta e avanza. Certo non avrai fps massimi ogni secondo ma giochi da dio penso. Io con la 8800 gioco a 1920 a quasi tutto. Non a Crysis, ma tanto non mi entusiasma come gioco.
Beh secondo me per giocare a 1920 una 4870 1Gb basta e avanza. Certo non avrai fps massimi ogni secondo ma giochi da dio penso. Io con la 8800 gioco a 1920 a quasi tutto. Non a Crysis, ma tanto non mi entusiasma come gioco.
Secondo te ha senso cambiare una XFX 8800 Ultra XXX per una HD 4870 da 1 GB? A Oblivion ci giochi con la tua 8800 a che risoluzione e con quali settaggi? Usi HDR+AA?
Cooperdale
27-07-2008, 15:47
Secondo te ha senso cambiare una XFX 8800 Ultra XXX per una HD 4870 da 1 GB? A Oblivion ci giochi con la tua 8800 a che risoluzione e con quali settaggi? Usi HDR+AA?
Gioco abbastanza bene a 1600x1200 con AA 4x e HDR. Secondo me ha senso soprattutto per la quantità di memoria: se usi Qarl's Texture Pack 3 le texture sono enormi e 1Gb di vram fa comodo.
edit_user_name_here
27-07-2008, 22:54
Mi iscrivo al thread ma non ho ancora deciso per l'acquisto :)
Sperando a breve una data certa.
Saluti!
Dopo l'entusiasmo iniziale per questa scheda sono giunti pensieri più razionali :D
Nello specifico:
Attualmente con una 4870 512 la maggior parte dei titoli vanno a 1920x1200 con tutto attivato (mi riferisco a COD4, GOW, Bioshock, etc.. che sono anche pesantini come giochi)
L'unica cosa che ovviamente non gira full è il solito Crysis...
Sto quindi inziando a pensare che una scheda del genere attualmente serva solo per levarsi lo sfizio del suddetto gioco impostando al massimo (o quasi). Oltre a questo cosa resta a giustificare il doppio della spesa di una 4870 liscia? Magari altri titoli come Grid? Ancora non mi pare sufficiente..
Ok, andando avanti usciranno giochi con cui sfruttarla, ma in ottica futura non è meglio tenersi in tasca la metà dei soldi e usarli non appena una "semplice" 4870 non ci soddisfa più e sul mercato è uscito qualcosa di veramente nuovo?
In poche parole.. forse è meglio una 4870 oggi e un'altra scheda domani usando i soldi risparmiati che una spropositata (oserei dire in parte inutile) 4870x2 oggi e basta
Qualcuno condivide o ha idee differenti?
Marko#88
28-07-2008, 06:25
Dopo l'entusiasmo iniziale per questa scheda sono giunti pensieri più razionali :D
Nello specifico:
Attualmente con una 4870 512 la maggior parte dei titoli vanno a 1920x1200 con tutto attivato (mi riferisco a COD4, GOW, Bioshock, etc.. che sono anche pesantini come giochi)
L'unica cosa che ovviamente non gira full è il solito Crysis...
Sto quindi inziando a pensare che una scheda del genere attualmente serva solo per levarsi lo sfizio del suddetto gioco impostando al massimo (o quasi). Oltre a questo cosa resta a giustificare il doppio della spesa di una 4870 liscia? Magari altri titoli come Grid? Ancora non mi pare sufficiente..
Ok, andando avanti usciranno giochi con cui sfruttarla, ma in ottica futura non è meglio tenersi in tasca la metà dei soldi e usarli non appena una "semplice" 4870 non ci soddisfa più e sul mercato è uscito qualcosa di veramente nuovo?
In poche parole.. forse è meglio una 4870 oggi e un'altra scheda domani usando i soldi risparmiati che una spropositata (oserei dire in parte inutile) 4870x2 oggi e basta
Qualcuno condivide o ha idee differenti?
si ma in genere quando si parla di vga di fascia alta e sopratutto di top di gamma non si guarda più al rapporto prezzo/prestazioni...alcuni pretendono il top del top (anche se costa caro) nonostante con meno euri si giochi poco peggio...ma è giusto per avere il top...nelle altre fasce invece no, li secondo me si guarda più il prezzo in relazione alle prestazioni...
;)
Andrea deluxe
28-07-2008, 09:46
Va aggiunto che da quanto visto fin'ora le GX2 o X2 non garantiscono prestazioni costanti, la cosa è di nuovo rimandata alla prossima generazione, il best buy rimane la 4870 liscia ;)
QUOTO
Ragazzi mi sapete dire come vanno i drivers ATi sotto win? sono decenti o scandalosi? so che sotto linux lasciano moltissimo a desiderare :D avrei necessità di usare anche opengl.
Ragazzi mi sapete dire come vanno i drivers ATi sotto win? sono decenti o scandalosi? so che sotto linux lasciano moltissimo a desiderare :D avrei necessità di usare anche opengl.
be sotto win vanno bene anche se potrebbero fare di piu ma miglioreranno si spera. sotto linux si sa che sono scandalosi :D
IN fin dei conti mi servono sotto windows, sia per giocare che per qualche programma di grafica.
Va detto che la 4870 ha spezzato in modo netto questo concetto. Le prestazioni di quella scheda a quel prezzo sono talmente appetibili da aver lasciato nella polvere la GTX280 nonostante le prestazioni (seppur di poco) superiori di quest'ultima.
Va aggiunto che da quanto visto fin'ora le GX2 o X2 non garantiscono prestazioni costanti, la cosa è di nuovo rimandata alla prossima generazione, il best buy rimane la 4870 liscia ;)
Dopo l'entusiasmo iniziale per questa scheda sono giunti pensieri più razionali :D
Nello specifico:
Attualmente con una 4870 512 la maggior parte dei titoli vanno a 1920x1200 con tutto attivato (mi riferisco a COD4, GOW, Bioshock, etc.. che sono anche pesantini come giochi)
L'unica cosa che ovviamente non gira full è il solito Crysis...
Sto quindi inziando a pensare che una scheda del genere attualmente serva solo per levarsi lo sfizio del suddetto gioco impostando al massimo (o quasi). Oltre a questo cosa resta a giustificare il doppio della spesa di una 4870 liscia? Magari altri titoli come Grid? Ancora non mi pare sufficiente..
Ok, andando avanti usciranno giochi con cui sfruttarla, ma in ottica futura non è meglio tenersi in tasca la metà dei soldi e usarli non appena una "semplice" 4870 non ci soddisfa più e sul mercato è uscito qualcosa di veramente nuovo?
In poche parole.. forse è meglio una 4870 oggi e un'altra scheda domani usando i soldi risparmiati che una spropositata (oserei dire in parte inutile) 4870x2 oggi e basta
Qualcuno condivide o ha idee differenti?
quoto entrambi!
IMHO vale la pena solo per chi gioca a 2560x1600... :read:
Per tutto il resto la 4870 domina incontrastata come rapporto prezzo / prestazioni... ;)
Cooperdale
28-07-2008, 11:34
Nel mio budget per il nuovo pc ci starebbe tranquillamente una 4870x2, però non mi convince molto per ora. Troppi problemi. Neanche la 4870 mi soddisfa però. Rumore e temperature sono gli aspetti che mi danno più fastidio.
Nel mio budget per il nuovo pc ci starebbe tranquillamente una 4870x2, però non mi convince molto per ora. Troppi problemi. Neanche la 4870 mi soddisfa però. Rumore e temperature sono gli aspetti che mi danno più fastidio.
:confused:
Non è rumorosa e con una semplice modifica del bios o sui driver le temperature diminuiscono in un attimo... (x maggiori info guarda il 3d ufficiale) :read:
Domanda: che vga ti convince allora?? ( :D )
Cooperdale
28-07-2008, 12:13
:confused:
Non è rumorosa e con una semplice modifica del bios o sui driver le temperature diminuiscono in un attimo... (x maggiori info guarda il 3d ufficiale) :read:
Domanda: che vga ti convince allora?? ( :D )
Sì so della modifica ma ho letto di gente che dice che alzando la ventola sembra di avere un jet in casa...
Al momento nessuna mi convince in pieno, al di là del prezzo (avevo preventivato 500€ per la scheda video, quindi ci starò dentro in ogni caso).
Sì so della modifica ma ho letto di gente che dice che alzando la ventola sembra di avere un jet in casa...
Al momento nessuna mi convince in pieno, al di là del prezzo (avevo preventivato 500€ per la scheda video, quindi ci starò dentro in ogni caso).
ma se ne ho due in crossfire e casino non fanno.....vabbe dai :rolleyes:
Marko#88
28-07-2008, 12:34
Va detto che la 4870 ha spezzato in modo netto questo concetto. Le prestazioni di quella scheda a quel prezzo sono talmente appetibili da aver lasciato nella polvere la GTX280 nonostante le prestazioni (seppur di poco) superiori di quest'ultima.
Non del tutto...ci sono sempre i veri enthusiast, quelli che se ne sbattono del p/p e che prendono il top a prescindere dal prezzo...magari può capitare che in una generazione siano in meno a fare questa scelta ma è un discorso che è sempre valido...poi è chiaro che se una vga va X, l'altra va 1.2X e costa le due volte e mezzo bisogna essere dei veri infuocati per scegliere la seconda...:asd:
io adesso una GTX280 non la prenderei nemmeno in considerazione a quel prezzo...
Non del tutto...ci sono sempre i veri enthusiast, quelli che se ne sbattono del p/p e che prendono il top a prescindere dal prezzo...magari può capitare che in una generazione siano in meno a fare questa scelta ma è un discorso che è sempre valido...poi è chiaro che se una vga va X, l'altra va 1.2X e costa le due volte e mezzo bisogna essere dei veri infuocati per scegliere la seconda...:asd:
io adesso una GTX280 non la prenderei nemmeno in considerazione a quel prezzo...
beh, visto l'abbassamento del prezzo a 350€ non è poi così male come scelta, di sicuro è una scelta obbligata per chi gioca a 2560x1600 (fino all'uscita dell'X2, ma c'è sempre chi preferisce la singola rispetto alla dual gpu) e appetibile per chi gioca a 1920x1200. Sinceramente se avessi saputo che in così poco tempo la GTX280 fosse scesa a 350€ (e sta scendendo ancora!!) probabilmente non avrei fatto il CF di 4850 ma avrei preso direttamente quella... (gioco a 1920x1200). ;)
Ragazzi ciau ;)
Sto seguendo questo thread e quello della 4870, e ho letto molto bene soprattutto quello della 4870, ero partito con l'idea di prendermi questa 4870 singola, ma la versione da 1Gb che secondo me risulterà utile per giocare a 1900x1200 con anche i filtri attivi. Poi c'ho ripensato, visto che ho un signor alimentatore che sta aspettando di fare sul serio e visto che ho preso le misure della scheda e all'interno del mio case ci starebbe benissimo (circa, visto che finirebbe dentro al cestello degli HD ma dove non ce n'è nessuno) avevo deciso di spendere due volte tanto e portarmi a casa questa magnifica Trojan, 4870X2. Ho letto comunque diversi articoli che parlando ancora del microstuttering, e dell'implementazione ancora immatura di più processori grafici in un sistema, e questo mi ha fatto storcere veramente il naso, o meglio, mi ha fatto tornare a convincermi dell'acquisto della soluzione singola da 1Gb. Voi che dite, sarà come con la 3870X2 che ha fatto penare molti utenti, ci sarà questo maledetto microstuttering è vero? Perchè non ho intenzione di prendermi un'ammiraglia del genere e di soffrire del cattivo coordinamento dei frames in una soluzione multigpu.
Qualcuno mi viene incontro e mi spiega per bene le cause, o se non ci sara proprio niente da fare? (In quel caso mi vedrete al più presto con una 4870 da 1Gb).
Grazie ;)
Andrea deluxe
28-07-2008, 13:00
Ragazzi ciau ;)
Sto seguendo questo thread e quello della 4870, e ho letto molto bene soprattutto quello della 4870, ero partito con l'idea di prendermi questa 4870 singola, ma la versione da 1Gb che secondo me risulterà utile per giocare a 1900x1200 con anche i filtri attivi. Poi c'ho ripensato, visto che ho un signor alimentatore che sta aspettando di fare sul serio e visto che ho preso le misure della scheda e all'interno del mio case ci starebbe benissimo (circa, visto che finirebbe dentro al cestello degli HD ma dove non ce n'è nessuno) avevo deciso di spendere due volte tanto e portarmi a casa questa magnifica Trojan, 4870X2. Ho letto comunque diversi articoli che parlando ancora del microstuttering, e dell'implementazione ancora immatura di più processori grafici in un sistema, e questo mi ha fatto storcere veramente il naso, o meglio, mi ha fatto tornare a convincermi dell'acquisto della soluzione singola da 1Gb. Voi che dite, sarà come con la 3870X2 che ha fatto penare molti utenti, ci sarà questo maledetto microstuttering è vero? Perchè non ho intenzione di prendermi un'ammiraglia del genere e di soffrire del cattivo coordinamento dei frames in una soluzione multigpu.
Qualcuno mi viene incontro e mi spiega per bene le cause, o se non ci sara proprio niente da fare? (In quel caso mi vedrete al più presto con una 4870 da 1Gb).
Grazie ;)
se vuoi veramente un consiglio spassionato, prenditi la gtx280!
se non hai soldi la 4870 1gb!
non ci guadagno nulla...
e' un consiglio...
e tieni pure in considerazione che sei cpu limited!
ho venduto qualche tempo fa la 8800gtx ad un mio vicino, e con un amd athlon 64 x2 @ 2700 la differenza con il mio vecchio c2d e6600 e' netta a lui arranca in giochi che a me volavano...(parlo anche di fps medi non solo picchi)
sempre un consiglio, quello di cambiare mobo e cpu....e purre ram altrimenti scordati di giocare bene a 1920x1200!
gioco anche io a quella risoluzione...
Cooperdale
28-07-2008, 13:41
ma se ne ho due in crossfire e casino non fanno.....vabbe dai :rolleyes:
Non mi sembra educato rollare gli occhi solo per una constatazione. Ho letto quello che dici tu ma ho letto anche di parecchia gente che la ritiene rumorosa. La soglia di sopportazione del rumore è soggettiva, la mia è piuttosto bassa quindi cerco di non basarmi esclusivamente sulla tua opinione.
se vuoi veramente un consiglio spassionato, prenditi la gtx280!
se non hai soldi la 4870 1gb!
non ci guadagno nulla...
e' un consiglio...
e tieni pure in considerazione che sei cpu limited!
ho venduto qualche tempo fa la 8800gtx ad un mio vicino, e con un amd athlon 64 x2 @ 2700 la differenza con il mio vecchio c2d e6600 e' netta a lui arranca in giochi che a me volavano...(parlo anche di fps medi non solo picchi)
sempre un consiglio, quello di cambiare mobo e cpu....e purre ram altrimenti scordati di giocare bene a 1920x1200!
gioco anche io a quella risoluzione...
eheh ricordati che dovrò venire a dirti come va il CF di 4850!
Comunque visti i prezzi la GTX280 è sicuramente consigliabile ora per giocare a 1920x1200, anche se la 4870 IMHO rimane preferibile visto il miglior rapporto prezzo / prestazioni, il minor consumo e la buona occabilità (cosa che cmq anche la GTX280 ha)... ;)
Andrea deluxe
28-07-2008, 14:04
eheh ricordati che dovrò venire a dirti come va il CF di 4850!
Comunque visti i prezzi la GTX280 è sicuramente consigliabile ora per giocare a 1920x1200, anche se la 4870 IMHO rimane preferibile visto il miglior rapporto prezzo / prestazioni, il minor consumo e la buona occabilità (cosa che cmq anche la GTX280 ha)... ;)
ma infatti, nulla togliere alla 4870, ma a 1920x1200 se non vuoi avere problemi e vuoi performance "stabili" serve la gtx280!
ma infatti, nulla togliere alla 4870, ma a 1920x1200 se non vuoi avere problemi e vuoi performance "stabili" serve la gtx280!
secondo me basta anche la 4870.
comunque è questione di punti di vista e di disponibilità di portafogli, visto che penso che se uno ha disponibilità economica è ovvio che va sulla GTX280!
Io stesso ti dico che se avessi saputo che la GTX280 fosse scesa così tanto c'avrei pensato bene prima di fare il CF di 4850 e probabilmente avrei preso quella.
bo io uso un 1900 1200 , mi devo preoccupare con questa scheda (4870x2)?
qualcuno che ci faccia sapere come va il crossfire a queste risoluzionI???:p
bo io uso un 1900 1200 , mi devo preoccupare con questa scheda (4870x2)?
qualcuno che ci faccia sapere come va il crossfire a queste risoluzionI???:p
beh, va sicuramente bene, 1920 e 2560 sono le risoluzioni IDEALI per il crossfire ;)
Io sono tentato dalla 4870 riuscirei a piazzare bene la mia 8800GTS640 ma ho paura per i drivers.
Tidus.hw
28-07-2008, 15:58
ma infatti, nulla togliere alla 4870, ma a 1920x1200 se non vuoi avere problemi e vuoi performance "stabili" serve la gtx280!
secondo me se un gioco va male sulla 4870 in alta risoluzione va male pure sulla 280 visto che sono relativamente vicine come prestazioni..
Io sono tentato dalla 4870 riuscirei a piazzare bene la mia 8800GTS640 ma ho paura per i drivers.
per la 4870 di cosa vuoi aver paura? potevo capire un dual gpu... ma poi skerzi? se riesci a piazzare quella sòla della 8800 640 fai un affarone :D
per la 4870 di cosa vuoi aver paura? potevo capire un dual gpu... ma poi skerzi? se riesci a piazzare quella sòla della 8800 640 fai un affarone :D
Sola, è una signora scheda, anzianotta ma bona :D
secondo me se un gioco va male sulla 4870 in alta risoluzione va male pure sulla 280 visto che sono relativamente vicine come prestazioni..
Per un discorso molto simile non avrei neppure la certezza che questa scheda sia in grado di far girare FarCry a 1920x1200 con settaggi al massimo, prima di tutto perchè praticamente ogni gioco settato al massimo qualche problema lo crea, poi se si raddoppiano le impostazioni non basta raddoppiare l'hardware per compensare..
Insomma, magari si riesce, ma non mi stupirei se le prestazioni non fossero ottimali come ci si potrebbe aspettare
Marko#88
28-07-2008, 16:23
beh, visto l'abbassamento del prezzo a 350€ non è poi così male come scelta, di sicuro è una scelta obbligata per chi gioca a 2560x1600 (fino all'uscita dell'X2, ma c'è sempre chi preferisce la singola rispetto alla dual gpu) e appetibile per chi gioca a 1920x1200. Sinceramente se avessi saputo che in così poco tempo la GTX280 fosse scesa a 350€ (e sta scendendo ancora!!) probabilmente non avrei fatto il CF di 4850 ma avrei preso direttamente quella... (gioco a 1920x1200). ;)
no, io a 350 non la prenderei ancora viste le prestazioni della sorella minore che costa 100 e rotti euri in meno...io non ragiono nel modo che dicevo prima, di volere il top a prescindere dal prezzo...io guardo molto il p/p e in questo caso (oltretutto giocando a 1680) non avrebbe senso la 280 a quel prezzo...per chi gioca a risoluzioni sovrumane ancora ancora...certo è che a 350 è comprabile, a 500 non lo era per nulla...
...per chi gioca a risoluzioni sovrumane ancora ancora...
Già...maledetti LCD che constringono ad usare la risoluzione nativa... :muro:
Io sono tentato dalla 4870 riuscirei a piazzare bene la mia 8800GTS640 ma ho paura per i drivers.
paura di cosa? :confused:
qua si è fatto terrorismo riguardo ai driver ATI, arrivando addirittura a dire che sono VIRUS!! :muro: :muro:
I driver ATI vanno bene esattamente quanto gli nvidia. :)
È solo il CF che non è ancora a livelli dello SLI nvidia, ma non per scalabilità (dove anzi il CF in genere vince rispetto allo SLI), ma per numero di games compatibili, che nel CF sono inferiori e non di poco rispetto allo SLI che in genere va bene con tutti i giochi. :read:
Cooperdale
28-07-2008, 17:00
Già...maledetti LCD che constringono ad usare la risoluzione nativa... :muro:
Io gioco spesso a risoluzioni non native, non mi sembra una tragedia.
no, io a 350 non la prenderei ancora viste le prestazioni della sorella minore che costa 100 e rotti euri in meno...io non ragiono nel modo che dicevo prima, di volere il top a prescindere dal prezzo...io guardo molto il p/p e in questo caso (oltretutto giocando a 1680) non avrebbe senso la 280 a quel prezzo...per chi gioca a risoluzioni sovrumane ancora ancora...certo è che a 350 è comprabile, a 500 non lo era per nulla...
beh è ovvio che se giochi a 1680 la GTX280 è inutile, ma io gioco a 1920 e sinceramente se avessi saputo che fosse arrivata a quel prezzo c'avrei pensato 2 volte prima di buttarmi su un CF di 4850 ;)
P.s.: 1920 non è una risoluzione sovrumana ;)
appleroof
28-07-2008, 17:11
beh è ovvio che se giochi a 1680 la GTX280 è inutile, ma io gioco a 1920 e sinceramente se avessi saputo che fosse arrivata a quel prezzo c'avrei pensato 2 volte prima di buttarmi su un CF di 4850 ;)
P.s.: 1920 non è una risoluzione sovrumana ;)
bè, diciamo che ormai ci stiamo "abituando" (imho ormai la 1680x1050 rappresenta quella che un paio di anni fà era 1280x1024....) ma rimane imho cmq una risoluzione non da poco per una vga media (parlo di 1920x1200), sopratutto se alzi i filtri....
bè, diciamo che ormai ci stiamo "abituando" (imho ormai la 1680x1050 rappresenta quella che un paio di anni fà era 1280x1024....) ma rimane imho cmq una risoluzione non da poco per una vga media (parlo di 1920x1200), sopratutto se alzi i filtri....
eh si, ormai 1680 è la risoluzione media e 1920 è la risoluzione alta. Ma comunque visto il costo dei monitor da 24" in continua discesa, il prezzo delle vga calato a picco e la possinbilità di usare la 1920 con una vga da 200€ direi che non si può più considerare una "risoluzione sovrumana". :D
appleroof
28-07-2008, 17:22
eh si, ormai 1680 è la risoluzione media e 1920 è la risoluzione alta. Ma comunque visto il costo dei monitor da 24" in continua discesa, il prezzo delle vga calato a picco e la possinbilità di usare la 1920 con una vga da 200€ direi che non si può più considerare una "risoluzione sovrumana". :D
secondo me siamo anche in un momento particolare dove a fronte di vga sempre più potenti la maggior parte dei giochi "corre meno" (colpa/grazie alle consolle) in termini di potenza necessaria, anche questo conta imho, resta da vedere quanto e come questa situazione (che mi fà piacere sotto questo punto di vista, ovvio) permane così com'è.....
euronymous86x
28-07-2008, 18:04
PER LA GIOIA DI MOLTI : http://www.pcghx.com/aid,653711/Practice/PCGH_proves_micro_stuttering_on_the_Radeon_HD_4870_X2/
PER LA GIOIA DI MOLTI : http://www.pcghx.com/aid,653711/Practice/PCGH_proves_micro_stuttering_on_the_Radeon_HD_4870_X2/
crysis è ingiocabile :muro:
lor68pdit
28-07-2008, 18:33
Ma possibile che qualcuno ancora crede che crysis sia il benchmark per vedere il vero valore di una vga? In questo modo il mercato e le recensioni girano attorno a questo malfatto game che neanche mi piace.
Revenge81
28-07-2008, 18:41
vabè, ke crysis nn sia ottimizzato bene, nn c'è dubbio, basti pensare ke durante una partita con esplosioni a volonta su skermo il gioco nn scnedeva sotto i 30, poi guardo un fumogeno e scende a 10..:D:D cionostante nn si può assolutamente dire ke sia fatto male, anzi, è quanto d meglio si sia mai visto sotto il rpofilo grafico nella storia dei gioki e scusate se è poco....
a me sembra che stiamo divagando qua non si parla del gioco più o meno pesante come anche nella review ma del fatto che a quanto sembra la 4870 x2 ha diversi problemi decisamente pesanti di stuttering che non sono ancora stati risolti e spero riescano a risolverli con qualche driver più ben fatto (sperando che non sia un problema fisico della scheda se no sono dolori) e la cosa mi fa pensare a sto punto di rivalutare una 4870 da 1gb (se mai uscirà , anzi se qualcuno sa qualcosa e lo posta ne sarei grato) o una gtx 280 dato oltretutto che quest'ultima è scesa un botto e mi sa che andrà ancora un po giù
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.