View Full Version : AMD gioca al raddoppio: Radeon HD3870x2
Evangelion01
28-01-2008, 17:33
però si aumenti il risparmio ma scendi prestazioni e quindi la forchetta si allarga. l'avversaria migliore della 3870x2 è la 8800gts512. praticamente perfetta in quel ruolo. ha tutto le prestazioni e il risparmio ambedue corposi.
;)
Si , questo si se la vediamo dal p.d.v. del rapporto prezzo-prestazioni. Dal p.d.v. delle prestazioni pure diciamo che l' avversaria è la 8800ultra. Cmq l' arrivo di questa soluzione , pur non apportando nulla di nuovo, potrebbe far smuovere un po' le acque in fascia altissima, cosa che andrà a vantaggio di noi utenti , si spera... :D
appleroof
28-01-2008, 17:36
Si , questo si se la vediamo dal p.d.v. del rapporto prezzo-prestazioni. Dal p.d.v. delle prestazioni pure diciamo che l' avversaria è la 8800ultra. Cmq l' arrivo di questa soluzione , pur non apportando nulla di nuovo, potrebbe far smuovere un po' le acque in fascia altissima, cosa che andrà a vantaggio di noi utenti , si spera... :D
dai grafici della rece si vede come già una 8800gts65nm è praticamente (leggi in media ed in sostanza) al pari della 3870x2....:boh:
halduemilauno
28-01-2008, 17:36
Siete tutti fissati con il risparmio quando si tratta di schede ati. Quando invece si è trattato di acquistare la 8800 ultra allora li il prezzo era giustificato...Per le prestazioni che offriva rispetto alla GTX non l avrei presa a quel prezzo neanche se li avessi da spendere tutti quei soldi, per vedere un gioco come crysis, pubblicizzato come super ottimizzato nvidia, fare gli stessi frame di una ati di fascia media. Ma dai siate seri... il prezzo di questo gioiellino a mio avviso è ottimo, proprio ciò che aspettavo!
assolutamente no. 150€ in + per un 10% in + di prestazioni rispetto alla 8800gtx. no mai e poi mai. IO.
halduemilauno
28-01-2008, 17:38
Si , questo si se la vediamo dal p.d.v. del rapporto prezzo-prestazioni. Dal p.d.v. delle prestazioni pure diciamo che l' avversaria è la 8800ultra. Cmq l' arrivo di questa soluzione , pur non apportando nulla di nuovo, potrebbe far smuovere un po' le acque in fascia altissima, cosa che andrà a vantaggio di noi utenti , si spera... :D
ma la ultra costa 150€ di +. non a caso essa è morta il giorno che è stata presentata la 8800gts512. per la cronaca è morta sul serio non la fanno +. G80 ha chiuso i battenti. 15 mesi di ininterrotta produzione.
;)
Evangelion01
28-01-2008, 17:41
dai grafici della rece si vede come già una 8800gts65nm è praticamente (leggi in media ed in sostanza) al pari della 3870x2....:boh:
Hai ragione... riguardavo adesso i grafici, e a parte supreme commander, direi che le soluzioni si equivalgono, anzi la 8800gtx in certi casi la spunta pure. Nella rece di tom's la situazione è simile, anche se li la x2 sembra più veloce.
halduemilauno
28-01-2008, 17:42
Insomma, ecco spiegato il perchè Nvidia ha rimandato la 9800gx2 (ma la farà a questo punto?): le attuali schede Nvidia (novembre 2006) non hanno ancora nulla da "temere" sul piano prestazionale nemmeno da questa dual gpu.
Direi che r600 è ufficialmente il peggior chip della storia Ati, capita.
G92-450.
;)
Evangelion01
28-01-2008, 17:45
Certo che siete forti...è ovvio che le prestazioni non siano alle stelle rispetto alle soluzioni già presenti in commercio ma c'è anche da considerare che nvidia è stata ad ottimizzare i suoi driver per le schede per più di un anno mentre i test effettuati con questa nuova scheda sono stati eseguiti con driver beta. Diamo tempo ad ati di ottimizzare i suoi driver e poi vediamo se a nvidia inizieranno a venire i bruciori ;) C'è poi da considerare le nuove tecnologie implementate da ati rispetto ad nvidia con l introduzione di dx10.1 processore uvd dedicato e sm 4.1
E dai su...ormai le schede nvidia sono obsolete! Aspetto di vedere le sue nuove serie tra cui la sua nuova soluzione dual gpu mi incuriosisce molto!
No dai... non ricominciamo con la storia dei driver miracolosi adesso... molti lo sostenevano ai tempi della 2900, poi si è visto com' è andata a finire... :read:
Le dx10.1 non sono sfuttate attualmente da nessun gioco, percìò son fuori discorso. Le schede invidia dal p.d.v. tecnologico saranno anche obsolete, ma reggono il passo alla grande. ;)
halduemilauno
28-01-2008, 17:46
Certo che siete forti...è ovvio che le prestazioni non siano alle stelle rispetto alle soluzioni già presenti in commercio ma c'è anche da considerare che nvidia è stata ad ottimizzare i suoi driver per le schede per più di un anno mentre i test effettuati con questa nuova scheda sono stati eseguiti con driver beta. Diamo tempo ad ati di ottimizzare i suoi driver e poi vediamo se a nvidia inizieranno a venire i bruciori ;) C'è poi da considerare le nuove tecnologie implementate da ati rispetto ad nvidia con l introduzione di dx10.1 processore uvd dedicato e sm 4.1
E dai su...ormai le schede nvidia sono obsolete! Aspetto di vedere le sue nuove serie tra cui la sua nuova soluzione dual gpu mi incuriosisce molto!
per favore risparmiaci la querelle driver immaturi e l'attesa conseguente e i dx10.1/sm4.1. se le prestazioni sono quelle sotto gli occhi di tutti(o quasi)è perchè la base è quella.
poi addirittura le schede nvidia sono obsolete.
:boh:
halduemilauno
28-01-2008, 17:49
Ma scusa come caspita li fai sti conti? Non sono mai stato un genio in matematica ma se prendi due 3870 diciamo sapphire di certo non arrivi a pagarle sotto i 200 o al massimo 190. Ne acquisti due e paghi 380/400. Non ci rientri nella fascia di prezzo? A questo punto ne prendi una e stai a posto...e ovvio poi che si sia il furbetto che vuole vendertela a 450 ma quello è assolutamente da scartare ;)
io parlavo della 8800gts512 a 270/280€ vs la 3870x2 a 400/420€.
appleroof
28-01-2008, 17:49
G92-450.
;)
azz....quindi ciò potrebbe significare più che "soltanto" 2 g92 "gts" insieme....
No dai... non ricominciamo con la storia dei driver miracolosi adesso... molti lo sostenevano ai tempi della 2900, poi si è visto com' è andata a finire... :read:
Le dx10.1 non sono sfuttate attualmente da nessun gioco, percìò son fuori discorso. Le schede invidia dal p.d.v. tecnologico saranno anche obsolete, ma reggono il passo alla grande. ;)
per favore risparmiaci la querelle driver immaturi e l'attesa conseguente e i dx10.1/sm4.1. se le prestazioni sono quelle sotto gli occhi di tutti(o quasi)è perchè la base è quella.
poi addirittura le schede nvidia sono obsolete.
:boh:
quoto tutto
p.s.: le schede nvidia obsolete :doh:
Ma se avessero utilizzato 4 Gb di ram anzichè 2 per il test non avremmo visto risultati superiori? Potrebbe fare la differenza?
Secondo me è un 'ottima scheda e se faranno una versione con più ram x gpu allora non ci sarebbero + colli di bottiglia e le invidia verrebbero maggiormente staccate in termini di prestazioni.
E poi i driver sono solo all'inizio, come dice la recensione ati ha rilasciato una nuova versione poco prima del test, aspettiamo, le cose già sono buone , miglioreranno sicuramente..
Evangelion01
28-01-2008, 17:54
Ma chi sta parlando di driver miracolosi..scusa nvidia ha avuto tempo di ottimizzare i suoi driver (sto parlando di ottimizzazioni) non di miracoli, e allora dai anche il tempo a ati di ottimizzare i suoi! Ricompariamo le due schede a distanza di cinque o sei mesi e poi vediamo se la tanto acclamata soluzione nvidia sarà in grado di offrire ancora queste grandi prestazioni.
Vogliamo vedere? ;)
Le ottimizzazioni posso darti discreti boost prestazionali, ma non è che tra 5 mesi la x2 andrà il doppio.
La base è questa, poi i margini son tutti da vedere : e ripensando alla 2900 , le premesse non sono certo eccezzionali... :)
Senza contare che nei prossimi mesi nvidia non starà certo a guardare. Di sicuro anch se uscirà una gx2 g92-based io aspetterò una vera nuova generazione : non mi va di aggiornare alimentatore, e vedere il contatore enel che vola... già come sono adesso mi sento in colpa ad accendere il pc.... :rotfl:
Evangelion01
28-01-2008, 17:57
La tua tanto miracolata gts costerà pur di meno ma è una scheda di fascia media e come per la versione precedente che non faceva altro che dare problemi in continuazione e prestazioni ridicole non so a chi possa interessare.
Scheda di fascia media ??? :mbe:
Problemi? Prestazioni ridicole? :rolleyes:
No dai, non cominciamo con le fanboyate per favore, che tanto non è una guerra...
halduemilauno
28-01-2008, 17:58
azz....quindi ciò potrebbe significare più che "soltanto" 2 g92 "gts" insieme....
quoto tutto
p.s.: le schede nvidia obsolete :doh:
e gia. la 8800gts512 ha il G92-400 mentre la 9800gx2 il G92-450.
;)
Goofy Goober
28-01-2008, 17:59
mah... dire brava amd dopo che batte una scheda vecchia come la 8800? ci mancherebbe che dopo così tanto tempo ha fatt uscire una scheda che batte un top di gamma vecchio come il cucco...
hanno aspettato il giusto, proprio prima dell'uscita dei nuovi top di gamma nvidia.
a quelli della AMD nn piace stare in vetta alle classifiche si vede....
io direi piuttosto, potevate aspettare ancora un po!! ghghgh
Evangelion01
28-01-2008, 18:01
Obsolete perchè le tecnologie che montano ormai sono superate.... raga ma toglietemi una curiosità, ma voi l italiano lo capite? Se parliamo di frame allora li tanto di cappello ma se parliamo di ciò che è stato implementato in questa nuova scheda a differenza di ciò che monta una ultra beh li il paragone regge poco.
E di grazia, dove sarebbe la grande novità di implementare 2 chip a 55nm sullo stesso pcb? Se non erro fu fatto anche ai tempi della voodoo..... :stordita: L' architettura di base è sempre quella. Se fosse un nuovo chip il discorso sarebbe diverso, ma questo è un puro e semplice crossfire su singolo slot. Dove la vedi questa tecnologia avanzata? :)
halduemilauno
28-01-2008, 18:01
Obsolete perchè le tecnologie che montano ormai sono superate.... raga ma toglietemi una curiosità, ma voi l italiano lo capite? Se parliamo di frame allora li tanto di cappello ma se parliamo di ciò che è stato implementato in questa nuova scheda a differenza di ciò che monta una ultra beh li il paragone regge poco.
ma la tecnologia(in questo caso)deve esser al servizio proprio dei frame. se proprio quelli sono insufficienti o cmq inferiori...
ari :boh:
halduemilauno
28-01-2008, 18:02
Sai che inizi davvero a preoccuparmi.. non sei grado di leggere, non sai fare due conti! Cioè ma ti rendi conto che i tuoi interventi sono privi di pathos. Per cortesia evita di intervenire se non conosci. Sto parlando di ottimizzazione non di fare miracoli, ci arrivi fin qui o no?
La tua tanto miracolata gts costerà pur di meno ma è una scheda di fascia media e come per la versione precedente che non faceva altro che dare problemi in continuazione e prestazioni ridicole non so a chi possa interessare.
stesso scenario della 2900xt. identico. questa volta abbiate la compiacenza di sperarvi in silenzio.
appleroof
28-01-2008, 18:03
Obsolete perchè le tecnologie che montano ormai sono superate.... raga ma toglietemi una curiosità, ma voi l italiano lo capite? Se parliamo di frame allora li tanto di cappello ma se parliamo di ciò che è stato implementato in questa nuova scheda a differenza di ciò che monta una ultra beh li il paragone regge poco.
gli shader unificati? rappresentano lo stato dell'arte nel campo vga, sia pure con interpretazioni diverse tra nvidia (efficienza) e ati (inutile potenza matematica) dello stesso concetto
le memorie? la 3870x2 mi pare montino gddr3, come la gtx e le altre 8800 (d'altra parte la distanza dalle ddr4 è attualmente quasi zero)
il processo produttivo? Ati 55, Nvidia 65
il bus? anche qui intepretazioni diverse, allo stato praticamente nessuna prevale sull'altra nel complesso
che rimane? il pcb? uno è rosso, l'altro per lo più verde a volte come la mia nero
forse la 3870x2 monta lo switch pci-ex? no, non è una novità tecnologica, è stato introdotto qualche anno fà dalla 7950gx2
io non vedo immani differenze di tecnologia, in senso qualitativo, tra le 2 schede, anzi non ne vedo 1 che sia 1
cosa rimane? a già, le prestazioni pure, dove ati rincorre nvidia......
Evangelion01
28-01-2008, 18:06
Vogliamo giocarci una bevuta? ;) Non dico certo che questa scheda possa arrivare ad andare il doppio ma di certo non mi sembra neanche corretto scartarla dal momento che i test proposti sono stati effettuati con driver beta. Capisco che nvdia non starà certo a guardare ma da tempo di sistemarli sti driver. La 2900xt è una serie mal riuscita e su questo non c'è dubbio anche se a mio avviso, e ne parlo da ex possessore, era una gran bella scheda. Ha dato ciò che poteva ma di certo non chè la GTX andasse tanto di più.... bisogno essere onesti sulle cose!
:cincin:
ok ci stò... :O :D
Ma nessuno quì la sta scartando... stiamo solo dicendo che come rapporto prezzo-prestazioni a 400€ è meglio una 8800gts512 ( o ancor meglio la 8800gt ), e su questo non mi sembra ci sia molto da obiettare visti i bench. "bisogno essere onesti sulle cose!" ---> appunto. :)
halduemilauno
28-01-2008, 18:09
Sai che inizi davvero a preoccuparmi.. non sei grado di leggere, non sai fare due conti! Cioè ma ti rendi conto che i tuoi interventi sono privi di pathos. Per cortesia evita di intervenire se non conosci. Sto parlando di ottimizzazione non di fare miracoli, ci arrivi fin qui o no?
La tua tanto miracolata gts costerà pur di meno ma è una scheda di fascia media e come per la versione precedente che non faceva altro che dare problemi in continuazione e prestazioni ridicole non so a chi possa interessare.
ho parlato di immaturità infatti.
per il resto se consideri la 8800gts una scheda di fascia media mica sbagli ma è il risultato che conta. e per una media tallonare una di fascia alta è quest'ultima(ovvero i suoi utenti) che si deve preoccupare.
Evangelion01
28-01-2008, 18:10
Ma scusa la gts me la chiami una scheda di fascia alta? Che cos'è che ha mai avuto di buono quella scheda... forse il prezzo ma conoscendo nvdia per le prestazioni che offre i prezzi sono sempre alle stelle! e su dai.... ma quali fan boiate qui si sta parlando di ciò che si vede e dai test vari sparsi in rete! ;)
Viste le prestazioni direi proprio di si, la 8800gts512 è una vga di fascia alta ( non massima eh... ) , e lo dicono i bench. Se poi i prezzi sono sempre alle stelle lo sai di chi è la colpa? Di ATI : vedasi mancanza di concorrenza. Se ci fosse stata una concorrente decente, dopo più di 1 anno la 8800gtx non costava ancora 350€. :nono:
The Solutor
28-01-2008, 18:15
cosa rimane?
Perdonami ma rimane la qualità dei driver, e non parlo esclusivamente di giochi e di framerate, parlo di qualità di riproduzione video incommensurabilmente a favore di Ati, parlo del fatto che non devi diventare un ingegnere nucleare per fare andare un gioco ad una frequenza di refresh diversa da 60 Hz, parlo di guardarsi la propria scheda TV e di vederci la tv dentro e non un rettangolo celeste come troppe volte accade con le schede nvidia di qualsiasi generazione.
Anche se le vga ati facessero 70 FPS dove l'equivalente nvidia ne facesse 100 non ci penserei 2 volte a scegliere e consigliare ati, visto che poi non è così, tanto di guadagnato.
appleroof
28-01-2008, 18:16
Sulla questione GDDR3 concordo pienamente..e non capisco questa scelta poco sensata di ati..anche se sicuramente ne uscirà una avente GDDR4 anche se bisognerà spendere quella 50 euro in più cosa che in questo caso trovo al quanto assurda. Per il resto è possibile fare paragoni solo con la GT anche se non supporta le dx10.1 Le cosa bisogna dirle come stanno...
gts....:D
quanto alle dx10.1, forse su una scheda come la 3870x2 cominciano ad acquistare un minimo senso (sulle altre Ati è fuffa commerciale al 100%), è vero, ma nel complesso non tale da risultare un elemento determinante della scelta (prezzo/prestazioni) rispetto ad una gts65, secondo me, perchè quando si avranno le dx10.1 sfruttate a pieno (se mai accadrà) la 3870x2 sarà già bella che dimenticata, molto probabilmente una fascia media (di prezzo, questa volta) della stessa Ati andrà meglio della 3870x2
ho parlato di immaturità infatti.
per il resto se consideri la 8800gts una scheda di fascia media mica sbagli ma è il risultato che conta. e per una media tallonare una di fascia alta è quest'ultima(ovvero i suoi utenti) che si deve preoccupare.
Viste le prestazioni direi proprio di si, la 8800gts512 è una vga di fascia alta ( non massima eh... ) , e lo dicono i bench. Se poi i prezzi sono sempre alle stelle lo sai di chi è la colpa? Di ATI : vedasi mancanza di concorrenza. Se ci fosse stata una concorrente decente, dopo più di 1 anno la 8800gtx non costava ancora 350€. :nono:
mi tocca riquotarvi in toto :D
Evangelion01
28-01-2008, 18:17
Sulla questione GDDR3 concordo pienamente..e non capisco questa scelta poco sensata di ati..anche se sicuramente ne uscirà una avente GDDR4 anche se bisognerà spendere quella 50 euro in più cosa che in questo caso trovo al quanto assurda. Per il resto è possibile fare paragoni solo con la GT anche se non supporta le dx10.1 Le cosa bisogna dirle come stanno...
La scelta ddr3 è probabilmente imputabile alla volontà di mantenere un prezzo più basso possibile ( 1gb di ddr3 costano molto meno di 1gb di ddr4 ).
Per quanto riguarda le dx10.1, ancora non sfruttano decentemente le dx10.... quando inizieranno con le 10.1, queste vga saranno preistoriche. ;)
Evangelion01
28-01-2008, 18:20
Perdonami ma rimane la qualità dei driver, e non parlo esclusivamente di giochi e di framerate, parlo di qualità di riproduzione video incommensurabilmente a favore di Ati, parlo del fatto che non devi diventare un ingegnere nucleare per fare andare un gioco ad una frequenza di refresh diversa da 60 Hz, parlo di guardarsi la propria scheda TV e di vederci la tv dentro e non un rettangolo celeste come troppe volte accade con le schede nvidia di qualsiasi generazione.
Anche se le vga ati facessero 70 FPS dove l'equivalente nvidia ne facesse 100 non ci penserei 2 volte a scegliere e consigliare ati, visto che poi non è così, tanto di guadagnato.
Hai provato una 8800 per dire che la riproduzione video è a favore di Ati? Mi posti qualche test che sostiene la tua tesi? ;)
appleroof
28-01-2008, 18:21
Perdonami ma rimane la qualità dei driver, e non parlo esclusivamente di giochi e di framerate, parlo di qualità di riproduzione video incommensurabilmente a favore di Ati, parlo del fatto che non devi diventare un ingegnere nucleare per fare andare un gioco ad una frequenza di refresh diversa da 60 Hz, parlo di guardarsi la propria scheda TV e di vederci la tv dentro e non un rettangolo celeste come troppe volte accade con le schede nvidia di qualsiasi generazione.
Anche se le vga ati facessero 70 FPS dove l'equivalente nvidia ne facesse 100 non ci penserei 2 volte a scegliere e consigliare ati, visto che poi non è così, tanto di guadagnato.
io una scheda la compro al 99,99% per giocare al pc, e non credo proprio che compro 400 euro di vga per guardare la tv o i filmati sul pc (per quello ci sono le schede da 100 euro in giu, sia ati che nvidia, che vanno benissimo)
mi potrai obiettare che allora quello che compra questa scheda (3870x2) vuole giocare bene e anche guardare bene i film: ammesso e non concesso che tu abbia ragione (ammetto che la questione mi interessa relativamente poco e niente, per cui sull'aspetto specifico non sono informatissimo, e cmq con i giochi non ho avuto mai un problema di driver che sia davvero tale, da novembre 2006, e uso vista64 da febbraio 2007) la percentuale di questi utenti che ripeto spende 400 euro per prendere una vga e guardare i filmati è verosimilmente molto bassa
The Solutor
28-01-2008, 18:25
Hai provato una 8800 per dire che la riproduzione video è a favore di Ati? Mi posti qualche test che sostiene la tua tesi? ;)
Mi apssano per le mani 400 PC all'anno tra nuovi ed in manutenzione, non credo di peccare di presunzione ritenendo la mia esperienza personale come il migliore test possibile.
Evangelion01
28-01-2008, 18:26
io una scheda la compro al 99,99% per giocare al pc, e non credo proprio che compro 400 euro di vga per guardare la tv o i filmati sul pc (per quello ci sono le schede da 100 euro in giu, sia ati che nvidia, che vanno benissimo)
mi potrai obiettare che allora quello che compra questa scheda (3870x2) vuole giocare bene e anche guardare bene i film: ammesso e non concesso che tu abbia ragione (ammetto che la questione mi interessa relativamente poco e niente, per cui sull'aspetto specifico non sono informatissimo, e cmq con i giochi non ho avuto mai un problema di driver che sia davvero tale, da novembre 2006, e uso vista64 da febbraio 2007) la percentuale di questi utenti che ripeto spende 400 euro per prendere una vga e guardare i filmati è verosimilmente molto bassa
Appunto. Se guardi le funzioni multimediali non vai a comprarti una 3780x2.... ti pigli una fascia medio bassa tipo una 2600, che per quello scopo è 1000 volte meglio. Ma se vuoi giocare allora le prestazioni pure sono quello che conta ( assieme al prezzo ovviamente, quello conta sempre ).
io una scheda la compro al 99,99% per giocare al pc, e non credo proprio che compro 400 euro di vga per guardare la tv o i filmati sul pc (per quello ci sono le schede da 100 euro in giu, sia ati che nvidia, che vanno benissimo)
mi potrai obiettare che allora quello che compra questa scheda (3870x2) vuole giocare bene e anche guardare bene i film: ammesso e non concesso che tu abbia ragione (ammetto che la questione mi interessa relativamente poco e niente, per cui sull'aspetto specifico non sono informatissimo, e cmq con i giochi non ho avuto mai un problema di driver che sia davvero tale, da novembre 2006, e uso vista64 da febbraio 2007) la percentuale di questi utenti che ripeto spende 400 euro per prendere una vga e guardare i filmati è verosimilmente molto bassa
quoto.
The Solutor
28-01-2008, 18:28
io una scheda la compro al 99,99% per giocare al pc, e non credo proprio che compro 400 euro di vga per guardare la tv o i filmati sul pc (per quello ci sono le schede da 100 euro in giu, sia ati che nvidia, che vanno benissimo)
Potrei risponderti che se il tuo scopo è solo giocare avresti fatto meglio a spendere i 400 euro per comprarti una "giocostazione", ma non lo faccio. Ognuno fa col proprio pc quello che gli pare.
Ma visto che la VGA non è un joystick e non serve solo per giocare, io mi scelgo quella con le prestazioni che mi soddisfano di piu a tutto tondo, valutando frame rate, qualità video, qualità dei drivers, consumi, qualità del segnale analogico in uscita ecc.. ecc...
Evangelion01
28-01-2008, 18:29
Mi apssano per le mani 400 PC all'anno tra nuovi ed in manutenzione, non credo di peccare di presunzione ritenendo la mia esperienza personale come il migliore test possibile.
Sarà, ma se io ti dicessi che in mano mia ne passano molti di più? ;)
Bench, non parole. E cmq questo aspetto in questo contesto imho è un po' fuori luogo, visto che si parla di schede votate al gaming, non di soluzioni htpc. Non andiamo troppo Ot. :)
appleroof
28-01-2008, 18:36
Potrei risponderti che se il tuo scopo è solo giocare avresti fatto meglio a spendere i 400 euro per comprarti una "giocostazione", ma non lo faccio. Ognuno fa col proprio pc quello che gli pare.
Ma visto che la VGA non è un joystick e non serve solo per giocare, io mi scelgo quella con le prestazioni che mi soddisfano di piu a tutto tondo, valutando frame rate, qualità video, qualità dei drivers, consumi, qualità del segnale analogico in uscita ecc.. ecc...
in realtà l'hai fatto :D
potrei risponderti dicendo che la 8800gtx che ho comprato a novembre 2006 si stà rivelando praticamente una "giocostazione", quanto a longevità (assicurandomi peraltro una visione ottima dei film e tv --certo non al livello di un lettore blu-ray dedicato su un tv full-hd, ma chissene, non è per quello che l'ho comprata-- e tutto il resto di utilizzo che un pc mi dà ed una "giocostazione" no), ma non lo faccio, anche per non apparire troppo :cool:
e non uscire troppo OT
Evangelion01
28-01-2008, 18:37
Vada per la bevuta allora ;) Beh la GT non penso posso andare meglio di questa. Andava sicuramente meglio di una singola 3870 ma il distacco era di pochi frame. E poi il costo è di 250 e come soluzione attuale per la fascia media e sicuramente ottima anche se non capisco perchè nvidia tenda sempre a mirare sul risparmio dei dissi anzichè proporne alcuni che non al riscaldino troppo. La gts non mi è mai piaciuta e tutt'ora penso sia una scheda da scartare essendo una scheda di fascia medio/alta, e le prestazioni offerte non mi sembrano sbalorditive perchè se proprio dovrei prenderei una GT.:D
Errore progettuale imho, visto che in commercio i partner hanno cambiato i dissy differenziandoli in tutte le salse... Giusto ieri ho maneggiato una 8800gt 1gb by sparkle : ventola enorme e reference simile a quello standard. Un motivo ci sarà... :D
RICKYL74
28-01-2008, 18:37
:(
Ma io vedo tanta confusione nel mercato informatico oggi, ho già detto la mia su questa scheda, ma la cosa che non capisco e perchè continuano ad insistere con queste GX2 o X2 X-Pro-Dual, chiamatele come volete ma non ne capisco l'utilità, fino ad oggi sono state un chiaro FLOP!! ma quante mai ne avranno vendute? io credo pochissime, chi c***o se le compra ste schede qua :boh: (almeno fino a quando non ci sarà una stabilizzazione, queste schede saranno oggetto di discussione perenne)
sono sempre alle prese con l'ottimizzazione dei driver che gira e rigira si rivelano sempre inadeguati "o così sembra", stanno riscontrando problemi di produzione cercando di contenere i costi, non c'è un effettivo salto prestazionale che ne giustifichi l'acquisto (solo per aver qualche FPS in più! che ottimisticamente parlando si parla sempre di un 10-15% rispetto alla versione a sigola scheda o singolo chip). OH!! na questi di produrre schede di dimensioni "diciamo normali", che non consumino quanto un'intero pc, che non scaldino quanto una pentola a vapore e di conseguenza che non siano rumorose come un mini aspirapolvere, non ne vogliono proprio sapere EH! :mad: l'idea non gli si pone lontanamente..
..Poi dire che è stato meglio produrla con gddr3 invece che gddr4 solo per paura di non aver disponibilità da parte del fornitore delle ram la trovo una presa per i fondelli colossale, perchè non dicono che cambiando solo le ram con gddr4 sarebbe stata dura proporre la scheda a prezzi competitivi e che tanto le prestazioni sarebbero rimaste più o meno simili. Sono contento che AMD riesca a fronteggiare nVidia e parlo da consumatore, in questo modo i prezzi riescono ad essere contenuti.. io è circa un anno che possiedo una 8800, mai acquisto fu più azzeccato di questo (per quanto riguarda le schede video), anche se il prezzo fu decisamente alto.. il problema se mai sono sempre i giochi, perennemente in ritardo rispetto all'hardware disponibile o mal sfruttato, nVidia sta sviluppando i nuovi ShaderModel 5.0, questi non riesco a sfruttare la versione 3.0, e i produttori di schede lavorano sulle SM 5.0 :doh: che confusione. saluti.
_______________________________________________________________________________________________________________________
Dfi lanparty p35-t2r - Q6600 "G0" @3.6Ghz - Zalman 9700NT - DDR2 800 2Gb Teamgroup (3-3-3-8) - nVidia Pow-8800Ultra - Creative X-FI Fatal1ty fps - Hercules Dj Console - Sistema audio 5.1 su Yamaha RX-V357 - Raptor 74Gb - Maxtor sata2 250x3 - DVDRW Samsung 18X - DVDRom Benq 48X - OCZ GameXtream powersupply 700W - Asus Lcd 22" 2ms - Revoltec Gaming Steel Grid Fightboard advanced - FightMouse Advanced Steel Grid 2400Dpi laser tracking 6.4Mp Adjustable sensitivity - Win-Xp pro x32
_______________________________________________________________________________________________________________________
The Solutor
28-01-2008, 18:38
Sarà, ma se io ti dicessi che in mano mia ne passano molti di più? ;)
Anche le frasi le dedichiamo al gaming ?
Possibile che nessuno riesca in questi tread ad uscire dalla logica di chi ce l'ha piu lungo ?
Non me ne frega una cippa se ti passano x le mani 10 o 1000 PC, ti ho detto quanti ne passano per le mie di mani giusto per dirti che non sono l'ultimo pirla appena atteerrato sul pianeta terra, fine del discorso.
Tornando a noi se stessimo guardando un forum di auto l'omino nvidia sarebbe quello che guarda quanto fa un'auto di tachimetro e se ne frega di tutto il resto.
Potro volere correre in macchina ma se ho bisogno di metterci una valigia dentro potro valutare anche quanto è grosso il bagagliaio ?
Potro informarmi se l'aria condizionata funziona ?
Potro chiedere se i sedili sono comodi senza che ci sia nessuno che mi dica " con quell'auto ci devi correre che ti frega se è comoda ?"
Evangelion01
28-01-2008, 18:38
in realtà l'hai fatto :D
potrei risponderti dicendo che la 8800gtx che ho comprato a novembre 2006 si stà rivelando praticamente una "giocostazione", quanto a longevità (assicurandomi peraltro una visione ottima dei film e tv --certo non al livello di un lettore blu-ray dedicato su un tv full-hd, ma chissene, non è per quello che l'ho comprata-- e tutto il resto di utilizzo che un pc mi dà ed una "giocostazione" no), ma non lo faccio, anche per non apparire troppo :cool:
Mi associo al collega. :asd:
Mai avuta una vga più longeva... :D
nico88desmo
28-01-2008, 18:45
Finalmente ho letto la rece di HwUpgrade di questa scheda!
Alla fine le prestazioni sono come immaginavo: top per quanto riguarda gli fps però sempre con l'incognita crossFire.
Come visto questo benedetto crysis non gira molto bene con settaggi very-high nemmeno con questa scheda.
Molti alti i consumi, troppo forse.
Senza che leggo tutti i post, i vostri commenti in breve quali sono? (un riassunto breve ;))
halduemilauno
28-01-2008, 18:48
Finalmente ho letto la rece di HwUpgrade di questa scheda!
Alla fine le prestazioni sono come immaginavo: top per quanto riguarda gli fps però sempre con l'incognita crossFire.
Come visto questo benedetto crysis non gira molto bene con settaggi very-high nemmeno con questa scheda.
Molti alti i consumi, troppo forse.
Senza che leggo tutti i post, i vostri commenti in breve quali sono? (un riassunto breve ;))
8800gts512 a 270€.
;)
nico88desmo
28-01-2008, 18:49
8800gts512 a 270€.
;)
Chiaro e preciso :D
appleroof
28-01-2008, 18:51
cut
E' normale che la gts a parità di test risulti più veloce...è uscita prima e i driver sono stati ottimizzati per poterla spingere al massimo ma la X2 è appena uscita e non è ancora a pieni regimi...diamo un pò di tempo alla casa e sicuramente qualcosina in più si vedrà come è d'altronde ammissione do coloro che hanno effettuato i test. I tempi non sono ancora maturi per delle buone comparazioni.
bè...il CF di r600 (perchè quello è) non è che esiste da ieri, è vero che finora si saranno dedicati poco allo sviluppo di driver specifici per il CF per ragioni di mercato (già faticavano per la single gpu, immagina se potevano pensare all'1%del loro mercato) ma ci credo poco a questi miracoli (crysis anche con i driver ad hoc và quanto una 8800gtx non overcloccata.....) e la storia di r600 avrebbe dovuto insegnare molto, da questo punto di vista
al max potrei capire di aspettare a comprare la scheda per vedere se la situazione driver migliora, di certo non la compreri oggi con la gts65 sul mercato, ma se aspetto e aspetto escono g100 e r700.....
Bella e buon prezzo....interessante il supporto crossfire e crossfireX senza vincoli con il tipo di chipset utilizzato dalla scheda madre (purche PCIe x16).......per il giudizio finale attenderei la 9800GX2 di NVIDIA.....infatti paragonare la scheda ATI uscita or ora con una risalente a più di un anno fa e affermare che la nuova va meglio ed è più performante della vecchia....mi pare assai scontato (e se così non fosse stato sarebbe molto grave la cosa!!!)....
Kharonte85
28-01-2008, 18:59
bè...il CF di r600 (perchè quello è) non è che esiste da ieri, è vero che finora si saranno dedicati poco allo sviluppo di driver specifici per il CF per ragioni di mercato (già faticavano per la single gpu, immagina se potevano pensare all'1%del loro mercato) ma ci credo poco a questi miracoli (crysis anche con i driver ad hoc và quanto una 8800gtx non overcloccata.....) e la storia di r600 avrebbe dovuto insegnare molto, da questo punto di vista
al max potrei capire di aspettare a comprare la scheda per vedere se la situazione driver migliora, di certo non la compreri oggi con la gts65 sul mercato, ma se aspetto e aspetto escono g100 e r700.....
Un driver che si chiamera' 8900gx2 o g100 o r700 :sofico: :asd:
Onestamente questa me la salterei...
Nemesis1984
28-01-2008, 19:00
Bhe almeno nel comparto video AMD sta di nuovo risalendo la china, le nuove soluzioni sono veramente azzeccate per il rapporto prezzo/prestazioni.
Adesso deve darsi una mossa solo sulle CPU....
Speriamo bene :sperem:
AnonimoVeneziano
28-01-2008, 19:01
Personalmente non la vedo male questa scheda.
Consuma un po' di più della 8800 Ultra, ma a detta dei bench di quel sito tedesco, va un po' di più e costa meno .
Inoltre sicuramente i drivers potranno magari essere ancora migliorati un pochino , portando un miglioramento di 1 o 2 FPS che non sarebbe male (e soprattutto risolvere il problema di qualche gioco che va più lento che con la scheda a GPU singla che, ovviamente , non è normale ed è un problema di drivers).
Certo, è evidente che il progetto della GPU NVIDIA è superiore a livello di tecnica, ma questa scheda non è per niente male. ( E la storia " fa schifo perchè è dual" non regge. I consumi sono alti, ma non così alti come ci si aspetterebbe da una scheda dual, sinonimo del fatto che è stata curata molto sotto quest'aspetto)
Ciao
nico88desmo
28-01-2008, 19:05
Personalmente non la vedo male questa scheda.
Consuma un po' di più della 8800 Ultra, ma a detta dei bench di quel sito tedesco, va un po' di più e costa meno .
Inoltre sicuramente i drivers potranno magari essere ancora migliorati un pochino , portando un miglioramento di 1 o 2 FPS che non sarebbe male (e soprattutto risolvere il problema di qualche gioco che va più lento che con la scheda a GPU singla che, ovviamente , non è normale ed è un problema di drivers).
Certo, è evidente che il progetto della GPU NVIDIA è superiore a livello di tecnica, ma questa scheda non è per niente male. ( E la storia " fa schifo perchè è dual" non regge. I consumi sono alti, ma non così alti come ci si aspetterebbe da una scheda dual, sinonimo del fatto che è stata curata molto sotto quest'aspetto)
Ciao
Anche i 55nm aiutano parecchio.
Sotto questo aspetto Amd è sempre stata in vantaggio rispetto a nVidia (è da NV30 che nVidia non azzarda molto con i nuovi processi produttivi)
nico88desmo
28-01-2008, 19:07
Bhe almeno nel comparto video AMD sta di nuovo risalendo la china, le nuove soluzioni sono veramente azzeccate per il rapporto prezzo/prestazioni.
Adesso deve darsi una mossa solo sulle CPU....
Speriamo bene :sperem:
Si, vero.
Speriamo che questo scuoti un pò la concorrenza che ultimamente, secondo me, è stata un pò a guardare.
In effetti farsi concorrente da sola, per nVidia sarebbe stato controproducente ;)
Mike_MTB
28-01-2008, 19:56
Usare 2 GPU, per affiancare le prestazioni di una singola ( ed anche oramai vecchiotta), é come dire:
Tieni fermo il vecchietto che lo azzoppo !
Da ATI consumer fin dal 1998, lasciatemelo dire , le ultime vere ATI son state le X1950 , fare schede video non è ancora mestiere AMD (per ora, ma con l'esperienza....magari....).
poi.... pensatela come vi pare.
bollicina31
28-01-2008, 20:01
Mà io mi aspettavo di più da questa scheda che era annunciata coma la " spaccatutto", saranni driver inmaturi ma in crysis, wic e coh, la differenza è quasi nulla, anzi...
Per mè il poco vantaggio lo dà la ram.
ottimo il prezzo, molto meno consumi ecc....
Spero che nvidia non crei la x2 con 2 8800ultra perchè senò c'è da comprarsi 1 centrale nucleare, ma spero tanto in g100 che vada di brutto
@quota\articolo\pag2
Messa a nudo, la scheda mette in mostra ancora più chiaramente le scelte dei tecnici AMD. Si notano subito i due chip grafici, in mezzo ai quali spicca il grosso bridge PLX (PCI Express 1.1) per la configurazione on-board in modalità CrossFire. La scelta è ricaduta su questo bridge, basato non su tecnologia PCI Express 2.0, in quanto più facilmente integrabile dai partner.
Chissà se qualche produttore di nicchia deciderà di optare per la versione 2.0 sarei super curioso di vedere le realidifferenze di prestazioni
dragonheart81
28-01-2008, 20:05
Bene aspetto l'articolo HD3870X2 VS Nvidia 8900 GX2 :D
aaasssdddfffggg
28-01-2008, 20:05
"With the increasing demand for AMD's Radeon HD 3800 series (RV670) graphics cards, the company is planning to bring forward the launch schedule of its next generation RV770 GPU. This has triggered Nvidia to also accelerate the launch of its G100 (D9x) GPU, according to a Chinese-language Commercial Times report, citing sources at graphics card makers."
Il vero mostro è dietro l'angolo alias G100.Potrebbe uscire già per inizio dell'estate prossima.E' chiaro che adesso sia ATI e nVIDIA non stanno facendo altro che spremere al massimo quello che hanno prodotto quindi queste soluzioni dual GPU lasciano il tempo che trovano.
ghiltanas
28-01-2008, 20:14
Salve a tutti, intervengo solo per un punto: molti di voi criticano il fatto che è una soluzione dual gpu. La vedete come "barare"... insomma ragazzi... non siamo bambini...
Costa circa 400 € (io pagai di più l'X1900XT appena uscita...) ed ha ottime prestazioni... ne parlate come se non foste consumatori ma solamente doveste fare del tifo... che negli acquisti onestamente non serve.
Ottime prestazioni, prezzo contenuto (per la fascia di prestazioni) e, unico aspetto negativo, consumi elevati (la rumorosità non si discosta di molta dalla 8800GTX).
Questo è quanto... il resto sono solo discorsi da bambini (senza considerare che, lo dico da informatico, il parallelismo è chiaramente il futuro della tecnologia: RAID, CPU multicore, memorie DIMM, Crossfire e SLI ecc. ecc.).
il parallelismo è giusto se realizzato come si deve. per prima cosa ti dico già che le vga se nn lo sai sono di suo multi core, mentre imho unire due gpu in questa maniera è solo un ripiego, una vera rivoluzione sarebbe realizzare un unico die integrante 2 gpu del genere, che gestiscono in maniera distinta ed efficiente carichi diversi: un esempio grossolano, a un core gli dai la gestione dei filtri, a uno la fisica, ecc..allora si che avremo un bel salto, e considera che questa vga ha un processo produttivo che permetterebbe di gran lunga di realizzare quanto ho detto...
per il disc driver: la finiamo con disc arriveranno dei driver che faranno questo, faranno quello, questa architettura l'amd la conosce bene, se nn ha tirato fuori driver efficienti da subito vuol dire che se ne è stata con le mani in mano..no via nn sopporto questi rimpiazzi spacciati quasi per serie nuove, imho queste vga vanno evitate, bisogna puntare sulle serie nuove, altrimenti uno risparmia un bel pò e si prende o una gt o 3870 liscia che vanno benissimo.
in realtà l'hai fatto :D
potrei risponderti dicendo che la 8800gtx che ho comprato a novembre 2006 si stà rivelando praticamente una "giocostazione", quanto a longevità (assicurandomi peraltro una visione ottima dei film e tv --certo non al livello di un lettore blu-ray dedicato su un tv full-hd, ma chissene, non è per quello che l'ho comprata-- e tutto il resto di utilizzo che un pc mi dà ed una "giocostazione" no), ma non lo faccio, anche per non apparire troppo :cool:
e non uscire troppo OT
pure io ce l'ho da novembre 2006, ma quando mi ricapita di nuovo :D
Finalmente ho letto la rece di HwUpgrade di questa scheda!
Alla fine le prestazioni sono come immaginavo: top per quanto riguarda gli fps però sempre con l'incognita crossFire.
Come visto questo benedetto crysis non gira molto bene con settaggi very-high nemmeno con questa scheda.
Molti alti i consumi, troppo forse.
Senza che leggo tutti i post, i vostri commenti in breve quali sono? (un riassunto breve ;))
8800gts512 a 270€.
;)
:D
alla faccia di chi diceva che ati amd avrebbe pianto a lungo
si apre una nuova era, la doppia scheda su unico "pezzo"
la via è segnata.
a quando un pc desktop con doppia mobo (una economica per office-email) e un sistema potente per giocare.
tutto dentro un unico case-ottone
nico88desmo
28-01-2008, 20:44
"With the increasing demand for AMD's Radeon HD 3800 series (RV670) graphics cards, the company is planning to bring forward the launch schedule of its next generation RV770 GPU. This has triggered Nvidia to also accelerate the launch of its G100 (D9x) GPU, according to a Chinese-language Commercial Times report, citing sources at graphics card makers."
Il vero mostro è dietro l'angolo alias G100.Potrebbe uscire già per inizio dell'estate prossima.E' chiaro che adesso sia ATI e nVIDIA non stanno facendo altro che spremere al massimo quello che hanno prodotto quindi queste soluzioni dual GPU lasciano il tempo che trovano.
Speriamo
alla faccia di chi diceva che ati amd avrebbe pianto a lungo
si apre una nuova era, la doppia scheda su unico "pezzo"
la via è segnata.
a quando un pc desktop con doppia mobo (una economica per office-email) e un sistema potente per giocare.
tutto dentro un unico case-ottone
era in senso ironico? :)
Comunque almeno ora nVidia si sente "un pò" di più sotto pressione, era da un bel pò di tempo che non perdeva la leadership con scheda singola :D
aaasssdddfffggg
28-01-2008, 20:46
e quanto durerà questa leadership?30 giorni?Ma dai che poi ci ha messo più di anno per strappare qualche frame in più (giusto qualche piccolo frame)rispetto alla rivale e senza considerare la ultra che pur sempre è ancora lei l'ammiraglia nVIDIA al momento.
nico88desmo
28-01-2008, 20:50
e quanto durerà questa leadership?30 giorni?Ma dai che poi ci ha messo più di anno per strappare qualche frame in più (giusto qualche piccolo frame)rispetto alla rivale e senza considerare la ultra che pur sempre è ancora lei l'ammiraglia nVIDIA al momento.
piuttosto di niente meglio piuttosto.
nVidia ha fatto un'architettura davvero eccelente equilibrata e più facilmente programmabile rispetto alla sua concorrente.
Ciò non toglie che amd con la HD3870/50 ha fatto una scheda dalle buone prestazioni per il prezzo a cui è venduta, e con quest'ultima scheda, ossia la HD3870X2, è tornata al top.
Se poi piace o meno come è fatta è un conto (io non la acquisterei mai solo perchè è dual-gpu), però ora come ora è il top.
Pancho Villa
28-01-2008, 20:50
Qualcuno mi spiega come fa ad avere temp così basse questa scheda consumando così tanto? E non mi dite il sistema di dissipazione perché non è nulla di più del dual slot della 8800 gts 512...
PS: 'azz, non mi ricordavo che la gts avesse temp così tanto più basse della gt...
appleroof
28-01-2008, 20:59
Un driver che si chiamera' 8900gx2 o g100 o r700 :sofico: :asd:
:asd: :asd:
la x2 che dire, è una gran scheda, ma secondo me rimane piu equilibrata la 8800GTS...nel senso prezzo/prestazioni...e dalla race si vede molto bene...sbaglio?
no
realista
28-01-2008, 21:27
...RICORDO........che non si puo dare un giudizio sicuro prima di almeno 1 mese e poco piu.. i driver andranno migliorati!!!! e gia quelli daranno un 10% di boost in piu. per non contare che la VERA dual 3870 arrivera solo quando verranno usate ddr4 circa a 2200 ma anche 2400. e i consumi diminuiranno. la scheda va benissimo x essere appena nata......
aaasssdddfffggg
28-01-2008, 21:29
...solo che doveva nascere un anno fa se porta queste prestazioni.
realista
28-01-2008, 21:31
ah 1 cosa.... le 8800 gs come vanno? :P io ho un 19 wide....vorrei cpmprare una scheda video per i 1440 x 900...che m iconsigliate? 3850..... nvidia 9600 ( ke m isa costera troppo x cio ke dara vabbe) o una 8800 gs( non piu di una gs.. vi ricordo.. 1440x900!) ???
MiKeLezZ
28-01-2008, 21:36
ennesima fregatura multi-scheda
se R700 mi esce con queste premesse (crossfire pure nel mid e high) mi fallisce già in partenza, dato che a malapena si raggiunge il 30% di incremento
Faustinho DaSilva
28-01-2008, 21:38
ah 1 cosa.... le 8800 gs come vanno? :P io ho un 19 wide....vorrei cpmprare una scheda video per i 1440 x 900...che m iconsigliate? 3850..... nvidia 9600 ( ke m isa costera troppo x cio ke dara vabbe) o una 8800 gs( non piu di una gs.. vi ricordo.. 1440x900!) ???
3850
cmq c'e una sezione consigli per gli acquisti nella sezione schede video;)
Qualcuno mi spiega come fa ad avere temp così basse questa scheda consumando così tanto? E non mi dite il sistema di dissipazione perché non è nulla di più del dual slot della 8800 gts 512...
PS: 'azz, non mi ricordavo che la gts avesse temp così tanto più basse della gt...
Perché non é un chip da 200W, ma 2 da 100W.
Quindi deve smaltire il calore in 2 posti distinti, ambedue coperti dal dissipatore ;)
Immortal
28-01-2008, 22:21
vorrei fare alcune precisazioni...
Intanto da altre recensioni si vede che utilizzando un chipset diverso un alimentatore da 450 max 500W basta e avanza, quindi si..questa scheda consuma ma i valori presenti in questa rece sono un po' sballati.
Inoltre mi associo a quanto richiesto dagli altri..ovvero ad una comparativa tra un crossfire di 3870 e questa 3870x2, poiché ero curioso di vedere le differenze di consumo e margini in overclock (la 3870 ha gddr4).
Questa scheda non è poi così male, malgrado dopo aver letto queste 17 pagine nn ho potuto fare a meno di notare i soliti fanboy nvidia pronti a sputargli addosso.
Obiettivamente la scheda se voleva realmente posizionarsi al vertice, avrebbe dovuto optare per un maggior quantitativo di ram per gpu, un bridge pci-ex 2.0 e magari gddr4, sarebbe forse costata di più ma ripeto che questa scheda è il top-gamma per amd/ati.
Inoltre una piccola nota sul prezzo...dal comunicato di AMD si legge:
The ATI Radeon 3870 X2 delivers a new class of price and performance leadership with unbelievable enthusiast value at a suggested retail price of US $449.
449$ / 1.4 = 320€ circa..
se si iniziasse a trovare anche solo a 350€ credo che in molti ci faranno un pensierino :)
vorrei fare alcune precisazioni...
Intanto da altre recensioni si vede che utilizzando un chipset diverso un alimentatore da 450 max 500W basta e avanza, quindi si..questa scheda consuma ma i valori presenti in questa rece sono un po' sballati.
Inoltre mi associo a quanto richiesto dagli altri..ovvero ad una comparativa tra un crossfire di 3870 e questa 3870x2, poiché ero curioso di vedere le differenze di consumo e margini in overclock (la 3870 ha gddr4).
Questa scheda non è poi così male, malgrado dopo aver letto queste 17 pagine nn ho potuto fare a meno di notare i soliti fanboy nvidia pronti a sputargli addosso.
Obiettivamente la scheda se voleva realmente posizionarsi al vertice, avrebbe dovuto optare per un maggior quantitativo di ram per gpu, un bridge pci-ex 2.0 e magari gddr4, sarebbe forse costata di più ma ripeto che questa scheda è il top-gamma per amd/ati.
Inoltre una piccola nota sul prezzo...dal comunicato di AMD si legge:
449$ / 1.4 = 320€ circa..
se si iniziasse a trovare anche solo a 350€ credo che in molti ci faranno un pensierino :)
per la mancata rece con il paragone con il CF, Bordin ha detto che era prevista ma non è arrivata in tempo la seconda HD3870 e che rimedieranno a breve (se rimedia lui dopo il PMA di Las Vegas a cui partecipa).
per quanto riguarda il prezzo l'ho vista sotto i 380 (da Monc****)
MenageZero
28-01-2008, 22:30
ok, quindi la differenza (o una delle diff.) tra g92-270 (gt) e g92-400 (gts) è la fisica assenza nel primo di 16 sp ?
si ipotizzano delle differenze (conoscibili dal profano), apparte eventualmente i clock, tra g92-400 e g92-450 (gx2) ?
la gt ha il bus ram "strozzato" anche
pensavo fosse lampante che mi riferivo alle gt e gts fatte con il g92 (o più precisamente, a quanto diceva halduemilauno, con due diverse varianti comunemente referenziate entrambe come "g92"), non alle gts fatte con il g80 ... :sofico:
cmq, sia la gt che la nuova gts hanno entrambe 4 "moduli" di mc da 64bit e 16 rops(le cito visto che in g8x/g9x le rops sembrano essere correlate in rapporto di 1 a 4 con i moduli di mc)
Faustinho DaSilva
28-01-2008, 22:43
pensavo fosse lampante che mi riferivo alle gt e gts fatte con il g92 (o più precisamente, a quanto diceva halduemilauno, con due diverse varianti comunemente referenziate entrambe come "g92"), non alle gts fatte con il g80 ... :sofico:
cmq, sia la gt che la nuova gts hanno entrambe 4 "moduli" di mc da 64bit e 16 rops(le cito visto che in g8x/g9x le rops sembrano essere correlate in rapporto di 1 a 4 con i moduli di mc)
cmq io m riferivo erroneamente alla gs e non alle gt x il bus delle memorie strozzate:D mea culpa
8800gts512 a 270€.
;)
Ma non c'è l'obbligo di inserire la scritta "messaggio promozionale" nelle pubblicità? E sì che il garante con la Rai e Mediaset è piuttosto ferreo.
ennesima fregatura multi-scheda
se R700 mi esce con queste premesse (crossfire pure nel mid e high) mi fallisce già in partenza, dato che a malapena si raggiunge il 30% di incremento
Oggi leggendo l'articolo di TomsHw, a questa frase "l chip R680 in realtà non esiste, si tratta di due GPU RV670 montate sullo stesso PCB." mi è venuta in mente la tua firma ;)
leoneazzurro
28-01-2008, 23:01
Mi chiedo come abbia fatto una casa come nvidia a studiare cosi bene strategie per spillare soldi alla gente e far dire alle gente che hanno fatto un buon affare...cioè se mi insegni il trucco ricomprerò in futuro qualche tua scheda! ;)
Raptor, non sono intervenuto prima perchè sembrava che la "discussione" si fosse esaurita, quindi per piacere non flammiamo...
E questo vale per tutti, ovviamente.
ghiltanas
28-01-2008, 23:01
Mi chiedo come abbia fatto una casa come nvidia a studiare cosi bene strategie per spillare soldi alla gente e far dire alle gente che hanno fatto un buon affare...cioè se mi insegni il trucco ricomprerò in futuro qualche tua scheda! ;)
semplice ultimamente fa solo schede migliori ;)
Parappaman
28-01-2008, 23:06
semplice ultimamente fa solo schede migliori ;)
Straquoto, io sono un estimatore ATI memore anche del supporto che danno in ambito Mac, ma a livello di forza bruta e potenza di calcolo la nVidia oggi è categoricamente una spanna avanti :O
Faustinho DaSilva
28-01-2008, 23:07
semplice ultimamente fa solo schede migliori ;)
Straquoto, io sono un estimatore ATI memore anche del supporto che danno in ambito Mac, ma a livello di forza bruta e potenza di calcolo la nVidia oggi è categoricamente una spanna avanti :O
:ot:
ghiltanas
28-01-2008, 23:09
Straquoto, io sono un estimatore ATI memore anche del supporto che danno in ambito Mac, ma a livello di forza bruta e potenza di calcolo la nVidia oggi è categoricamente una spanna avanti :O
il fatto è che qui stiamo paragonando la top ati con una vga nvidia uscita da oltre un anno, la gtx, e trall'altro nn è neanche la top di gamma attuale nvidia. Aspettiamo di confrontarla con la 9800...
cmq sia chiaro che anche la 9800 dual gpu nn mi piace a prescindere da come andrà, in quanto sostengo che la strada giusta nn è questa...bisogna cercare di ottimizzare prestazioni e consumi e nn lo si fa mettendo 2 gpu insieme :doh:
Faustinho DaSilva
28-01-2008, 23:16
il fatto è che qui stiamo paragonando la top ati con una vga nvidia uscita da oltre un anno, la gtx, e trall'altro nn è neanche la top di gamma attuale nvidia. Aspettiamo di confrontarla con la 9800...
quoto ma cmq il confronto attuale rimane quello con gtx (gts visto che le prestazioni sono molto simili)
cmq sia chiaro che anche la 9800 dual gpu nn mi piace a prescindere da come andrà, in quanto sostengo che la strada giusta nn è questa...bisogna cercare di ottimizzare prestazioni e consumi e nn lo si fa mettendo 2 gpu insieme :doh:
questa è una tua opinione condivisibile, nei fatti però ati sta puntando fortemente sul cf (sia esso su mobo o su pcb), cft dichiarazioni del direttore generale e dirigenza ati.
poi perchè essa punti sul cf è un altro discorso più lungo da sviscerare ma la strategia che ha adottato è questa:D
ghiltanas
28-01-2008, 23:21
Beh ora non esageriamo... da qui a dire che sono migliore ce ne passa! ;)
Finalmente un intervento sensato... chi ha acquistato una GTX o una GT oppure ancora una 3870 cerca semplicemente pretesti per affermare che la sua scheda sia migliore ma nessuno ha la saggezza ed onesta di dire che questa nuova X2 per un pò resterà la scheda più veloce attualmente in commercio come lo è stato per la ultra e la GTX. ;)
io infatti nn critico le prestazioni a se (che è innegabile, tranne in alcuni test, amio avviso cmq un pò indicativi, che siano a vantaggio della 3970x2), critico il metodo che si sono messi in testa i produttori di vga(entrambi nn parlo solo di ati) per raggiungerli...
inoltre secondo me chi compra questa scheda dovrebbe attendere l'uscita della versione gddr4 che uscirà sicuramente, cosi si avranno freq maggiori e consumi forse ridotti, cosi come il prezzo.
Io se dovessi consigliare di prendere una vga adesso per giocare consiglierei solo 3 schede attualmente: la 3870 che viene sotto i 200, la gt da 512 che h un ottimo prezzo/prestazioni, la gts che ha prestazioni ottime e ora cala sicuramente di prezzo. Oppure direi di attendere le 2 vere serie nuove, nn questi rimpiazzi temporanei
leoneazzurro
28-01-2008, 23:21
Leoneazzurro guarda che io non ho alcuna intenzione di creare problemi anzi...sto semplicemente esprimendo il mio parare, come d'latronde anche nelle discussioni precedenti! Però è scocciante sentire ogni volta che le schede ati non valgano nulla o quasi ed nvidia invece per quei pochi frame in più e prezzi a volte doppi deve invece avere tutta questa approvazione. Esistono per entrmabe le case pro e contro ma qui a dire che le soluzione odierne nvidia siano imbattibili e per sempre lo saranno mi sempre troppo estremisti, e non lo sto dicendo da fanboy di alcuna delle due..bensi come un perfetto estraneo alla quale interessa la situazione e gli sviluppi di mercato.
Se dici che Nvidia "spilla soldi agli utenti" a me pare flammare. E ricordo che se altri flammano (a proposito, hal, non si era detto di darci un taglio con le "proposte economiche"?) si segnala e si attende. Punto.
Poi ogni VGA ovviamente ha punti di forza e punti deboli, e ognuno compra in base alle proprie esigenze. Che poi le proprie esigenze debbano per forza essere quelle di tutti (e qui mi riferisco a tutti i fan di una marca o dell'altra, in generale) non esiste proprio.
Mister Tarpone
28-01-2008, 23:23
Beh ora non esageriamo... da qui a dire che sono migliore ce ne passa! ;)
Finalmente un intervento sensato... chi ha acquistato una GTX o una GT oppure ancora una 3870 cerca semplicemente pretesti per affermare che la sua scheda sia migliore ma nessuno ha la saggezza ed onesta di dire che questa nuova X2 per un pò resterà la scheda più veloce attualmente in commercio come lo è stato per la ultra e la GTX. ;)
quoto.
per un mesetto questa x2 sarà la scheda più veloce...
poi vabbè....dopo arriverà la 9800... e allora tanti saluti alla 3870x2, per chi cerca il top.... :Perfido: :asd:
ciao :Perfido:
ghiltanas
28-01-2008, 23:23
quoto ma cmq il confronto attuale rimane quello con gtx (gts visto che le prestazioni sono molto simili)
questa è una tua opinione condivisibile, nei fatti però ati sta puntando fortemente sul cf (sia esso su mobo o su pcb), cft dichiarazioni del direttore generale e dirigenza ati.
poi perchè essa punti sul cf è un altro discorso più lungo da sviscerare ma la strategia che ha adottato è questa:D
se è questa io la critico fortemente, perchè imho è indice di mancanza di idee innovative...è come se da un giorno all'altro intel e amd dicessero, basta ottimizzare i processori e inserire + core in unico die, è molto + facile usare 3o 4 processori separati e chissenefrega...
Faustinho DaSilva
28-01-2008, 23:25
Poi ogni VGA ovviamente ha punti di forza e punti deboli, e ognuno compra in base alle proprie esigenze. Che poi le proprie esigenze debbano per forza essere quelle di tutti (e qui mi riferisco a tutti i fan di una marca o dell'altra, in generale) non esiste proprio.
infatti nessuno si deve sentire in obbligo di acquistare o far acquistare alla fine siamo noi i consumatori decidiamo in base ai nostri bisogni e desideri che spesso non coincidono:D
ghiltanas
28-01-2008, 23:30
Beh in effetti anche per me sarebbe più sensato acquistare una seconda 3870 GDDR4, che questa avente le GDDR3 o magari aspettarne una versione GDDR4 ma a prezzi non molto competitivi...Per essere onesti amd avrebbe dovuto lanciare qusta scheda con le GDDR4 a prezzi non superiori ai 400 ma come volevasi dimostrare cosi non è stato! Pazienza ;)
p.s. Non ho nulla in contrario ad ascoltare le opinioni altrui e non vorrei te la fossi presa :)
ma che scherzi raptor??? :D queste sono scaramucce, se la prendessi per queste idiozie starei fresco, il bello sta proprio nell'avere opinioni diverse, altrimenti le convesazioni sarebbero noiose e ripetitive ;) :friend:
Faustinho DaSilva
28-01-2008, 23:33
se è questa io la critico fortemente, perchè imho è indice di mancanza di idee innovative...è come se da un giorno all'altro intel e amd dicessero, basta ottimizzare i processori e inserire + core in unico die, è molto + facile usare 3o 4 processori separati e chissenefrega...
alla fine con questo progetto si riesce a prendere "2 piccioni con un fava" 1 sfruttare a pieno un architettura e il relativo processo produttivo 2 si risparmia ottenendo maggiori prestazioni
cmq il qx6850 era un quadcore con 2 dual in parallelo e pure il top di gamma di intel fino al suo successore qx9650 e io non vedo lo scandalo:D
ghiltanas
28-01-2008, 23:40
alla fine con questo progetto si riesce a prendere "2 piccioni con un fava" 1 sfruttare a pieno un architettura e il relativo processo produttivo 2 si risparmia ottenendo maggiori prestazioni
cmq il qx6850 era un quadcore con 2 dual in parallelo e pure il top di gamma di intel fino al suo successore qx9650 e io non vedo lo scandalo:D
verissimo, ma infatti i quad intel per quanto prestanti nn mi inspiravano diciamo (eccetto forse il q6600 che ora si trova ad un prezzo molto interessante), ora che i quad sono nativi allora si ;) , ma cmq io per i processori aspetto il mio tesssssoroo ....nehalem :ave:
chiuso ot
Samuele86
29-01-2008, 00:07
mah...non mi pare grankè...chiss perchè non hanno messo il confronto anke con una ultra...forse xchè gli spaccava un pò piu il c..o rispetto alla semplice gtx...eheh...e cmq non mi sembra niente di ke...ora esce la 9800 nvidia...sono anke quelle 2 gpu unite...se già una singola riesce a stargli dietro...beh...ho detto tutto ^_^ ehheeh
dragotic
29-01-2008, 00:08
Se tutti ci mettessimo a giocare con questi PC, il blackout sarebbe inevitabile....a voglia mettere le lampadine a risparmio energetico per tutta casa....torneremo ad accendere le candele...col PC di fianco....
Evangelion01
29-01-2008, 00:23
Se tutti ci mettessimo a giocare con questi PC, il blackout sarebbe inevitabile....a voglia mettere le lampadine a risparmio energetico per tutta casa....torneremo ad accendere le candele...col PC di fianco....
Purtroppo l' andazzo delle vga è questo...
Ma almeno coi proci sembra che stia avvenendo il contrario. :)
superbau
29-01-2008, 00:35
non mi è mai piaciuto ne amd ne ati, cmq sono contento che ritorni per il discorso "concorrenza mode one"... ma non ditemi che sia una bella scheda... con quei consumi, arriva a malapena ad eguagliare una scheda nvidia uscita un anno fa... fra l'altro sicuramente i driver saranno un pugno nello stomaco, mentre nvidia in un anno ha fatto un bel rodaggio!!
Peccato che se la prenderanno solo i fanboy amd/ati.. pk così non penso che nvidia sentirà tanto la concorrenza...
Ah.. aspettando le nuove gpu nvida... LOL che fa poi amd/ati? ...
Peccato che nn ci siano altre case, o AMD/ati o NVIDIA... nessuno che si intromette.... ANZI, o NVIDIA O NVIDIA ^^
Se tutti ci mettessimo a giocare con questi PC, il blackout sarebbe inevitabile....a voglia mettere le lampadine a risparmio energetico per tutta casa....torneremo ad accendere le candele...col PC di fianco....
Infilaci un neon e ti passa la paura :D
Comunque, al di lá dei consumi, una nota positiva di questa scheda é sicuramente il non aver bisogno di mobo crossfire...il che vuol dire poter risparmiare sulla mobo...
Parappaman
29-01-2008, 00:40
non mi è mai piaciuto ne amd ne ati, cmq sono contento che ritorni per il discorso "concorrenza mode one"... ma non ditemi che sia una bella scheda... con quei consumi, arriva a malapena ad eguagliare una scheda nvidia uscita un anno fa... fra l'altro sicuramente i driver saranno un pugno nello stomaco, mentre nvidia in un anno ha fatto un bel rodaggio!!
Peccato che se la prenderanno solo i fanboy amd/ati.. pk così non penso che nvidia sentirà tanto la concorrenza...
Ah.. aspettando le nuove gpu nvida... LOL che fa poi amd/ati? ...
Peccato che nn ci siano altre case, o AMD/ati o NVIDIA... nessuno che si intromette.... ANZI, o NVIDIA O NVIDIA ^^
Boh, io vedo sempre che nel listino delle schede ATI per come si sta delineando mancano ancora i numeri 3890 e 39x0. Magari ci stupiranno con quelle :asd:
a me mi fanno incazzare fuori misura :incazzed:
consumi da americanata, livelli di rumorosità indecenti dopo mezzanotte per chi abita in condominio
ma sopratutto è un'anno che ho uno schermo full-hd con hdmi, quando minkia me la date una scheda con uscita hdmi da attaccare al mio schermo prima che diventi vecchio e lo devo buttare??? :incazzed:
complimenti per il modello Asus che uscirà con 4!!!! DVI, ne avevo proprio bisogno, così adesso con altre 3 so dove attaccare lo schermo ogni giorno della settimana :doh:
la scheda da fanboy Ati mi fa pena in generale, molto meglio 2x8800GT in sli, sia adesso che dopo al momento di rivenderle
Free Gordon
29-01-2008, 02:18
ripeto... si compra una vga x le prestazioni che ha OGGI e non x quelle che avra' coi driver di DOMANI
RAGA.. fate la fine della 2900xt se iniziate a sperare nei catalyst xyz!
esatto. il precedente questo ci fa dire.
;)
Hanno ragionato così anche i possessori di 7950gx2... :asd: ma non credo che attualmente siano molto contenti della loro scheda!!
Io direi che una regola non c'è...
ps.
Anzi c'è! :D
Prendi quello che ti và al minor prezzo possibile... :sofico:
Free Gordon
29-01-2008, 02:22
ma sopratutto è un'anno che ho uno schermo full-hd con hdmi, quando minkia me la date una scheda con uscita hdmi da attaccare al mio schermo prima che diventi vecchio e lo devo buttare??? :incazzed:
ehmm.. è da quanto è uscito R600 a maggio che le schede di questa famiglia si possono collegare ad un tv con presa HDMI in 1920x1080, veicolando anche l'audio... :rolleyes:
The Solutor
29-01-2008, 03:00
quando minkia me la date una scheda con uscita hdmi da attaccare al mio schermo prima che diventi vecchio e lo devo buttare???
Sveglia ! qualsiasi HD2400 da 30 euro ha l'uscita hdmi, figuriamoci la X2
dinigio63
29-01-2008, 08:06
Da quanto vedo nei test, non è mai apparso un indicatore di utilizzo della CPU al fianco della barretta dei frames(non lo fa nessuno), secondo me sarebbe invece indispensabile per capire la bontà della GPU, vedere quando si è CPU limited, e quanto sgravia il lavoro della CPU stessa, e da questo si potrebbero ricavare altre informazioni per ottenere dei parametri che consentono anche a chi non ha lo stesso sistema, di valutare grosso modo il prodotto sulla propria piattaforma.
:)
Scrambler77
29-01-2008, 09:00
"Porre due chip grafici configurati in modalità Crossfire sullo stesso PCB potrebbe sembrare quasi un modo di barare, ma così non è, anche in considerazione del prezzo di acquisto."
ROFL!! :D
Domanda (anche per la redazione):
Osservando il grafico dei consumi mi sono spaventato e non solo per quanto riguarda il consumo di questa scheda ma in generale. Allora sono andato a rivedere la prova del QX9650 pubblicata il 12 novembre 2007, in cui si confrontava il nuovo Penryn con il QX6850 che è lo stesso processore di questa prova. La scheda montata era una 8800 GT, per cui ho provato a confrontare il consumo rilevato in quella circostanza con quello riportato in questa prova per la 8800 gt:
nella prova del 12 novembre il consumo era (idle/full CPU / full CPU + GPU) 155/196/268 (parlo del QX6850 ovviamente, per il QX9650 era significativamente più basso) . In questa prova per la 8800 GT si riporta 216/333/436 !!!!! A pari scheda e GPU, c'è un 60% in più di consumo usando (mi pare di capire) le stesse metodolgie di test!!!! L'unica differenza (molto) significativa che mi è parso di cogliere è il chipset, in particolare la Gigabyte della prova di novembre monta un P35 Express mentre la scheda di questa prova usa NVidia NForce 680i, inoltre nella prova di novembre non era specificato l'alimentatore usato. A parte quello nessuna differenza significativa, per cui mi piacerebbe capire da dove si origina questa enorme differenza (non per amore della precisione, ma per capire quanto longevo potrà essere il mio Corsair 520 ... ). 4 ipotesi:
1) Il chipset Nvidia, a confronto con il P35, è affamato quanto una Chevrolet Corvette del '70 (ma a giudicare dai test dei chipset che ho letto non sembrerebbe)
2) E' stato usato un alimentatore super-efficiente nella prova di novembre, mentre per questa prova l'alimentatore aveva un'efficienza pessima per lo meno a questi carichi di lavoro (mi sembra l'ipotesi più probabile).
3) La metodologia di test non era esattamente la stessa (da quanto leggo sembrerebbe di no ma potrei aver frainteso).
4) all of the above
Qualcuno mi aiuta a dissipare questo dubbio? Grazie in anticipo.
Domanda (anche per la redazione):
Osservando il grafico dei consumi mi sono spaventato e non solo per quanto riguarda il consumo di questa scheda ma in generale. Allora sono andato a rivedere la prova del QX9650 pubblicata il 12 novembre 2007, in cui si confrontava il nuovo Penryn con il QX6850 che è lo stesso processore di questa prova. La scheda montata era una 8800 GT, per cui ho provato a confrontare il consumo rilevato in quella circostanza con quello riportato in questa prova per la 8800 gt:
nella prova del 12 novembre il consumo era (idle/full CPU / full CPU + GPU) 155/196/268 (parlo del QX6850 ovviamente, per il QX9650 era significativamente più basso) . In questa prova per la 8800 GT si riporta 216/333/436 !!!!! A pari scheda e GPU, c'è un 60% in più di consumo usando (mi pare di capire) le stesse metodolgie di test!!!! L'unica differenza (molto) significativa che mi è parso di cogliere è il chipset, in particolare la Gigabyte della prova di novembre monta un P35 Express mentre la scheda di questa prova usa NVidia NForce 680i, inoltre nella prova di novembre non era specificato l'alimentatore usato. A parte quello nessuna differenza significativa, per cui mi piacerebbe capire da dove si origina questa enorme differenza (non per amore della precisione, ma per capire quanto longevo potrà essere il mio Corsair 520 ... ). 4 ipotesi:
1) Il chipset Nvidia, a confronto con il P35, è affamato quanto una Chevrolet Corvette del '70 (ma a giudicare dai test dei chipset che ho letto non sembrerebbe)
2) E' stato usato un alimentatore super-efficiente nella prova di novembre, mentre per questa prova l'alimentatore aveva un'efficienza pessima per lo meno a questi carichi di lavoro (mi sembra l'ipotesi più probabile).
3) La metodologia di test non era esattamente la stessa (da quanto leggo sembrerebbe di no ma potrei aver frainteso).
4) all of the above
Qualcuno mi aiuta a dissipare questo dubbio? Grazie in anticipo.
uno dei pochi commenti seri di 19 pagine.......
Sherydan73
29-01-2008, 10:33
uno dei pochi commenti seri di 19 pagine.......
Evidentemente non bisogna prendere tutti i test (soprattutto in assenza di corrispettivi su altre testate ) come oro colato...In effetti una tale discrepanza mi lascia perplesso...
Ho letto svariati commenti circa i consumi,e devo dire che l'analisi fatta mi sembra a tratti fuorviante,mi spiego meglio.Si paragona una scheda con un crossfire interno ad altre concorrenti semplicemente perchè non esistono singole schede con doppio chip grafico? Bene,allora che si provino a paragonare i consumi di sistemi sli o crossfire con suddetta vga e vediamo il risultato.Ecco perchè intendo fuorviante l'analisi. Quanto costerebbe ad un acquirente montare un nuovo ali con questa vga rispetto a cambiare mobo,ali,e comprare 2 vga insieme? Credo che l'obbiettivo di Amd sia stato duplice:da un lato dare una mazzata al mercato di nvidia,per carità...ma poter offrire una solizione cross-fire economica mi sembra quello primario.
Farei più paragoni consumo-costi-prestazioni in quel senso,più che con schede a chip singolo
Faustinho DaSilva
29-01-2008, 10:44
Io direi che una regola non c'è...
ps.
Anzi c'è! :D
Prendi quello che ti và al minor prezzo possibile... :sofico:
vero :D
whitedream
29-01-2008, 11:00
come da titolo se compro una 8800 ultra vado bene?? durerà qualche annetto? come prestazioni come va? dove trovo una classifica per le schede video aggiornata??
cosi da vedere la situzaione attuale??
whitedream
29-01-2008, 11:03
come da titolo se prendo una 8800 ultra credete si ancora valida??
dove trovo una classifica delle schede video aggiornata cosi da vedere la situazione attuale??
Immortal
29-01-2008, 11:16
come da titolo se prendo una 8800 ultra credete si ancora valida??
dove trovo una classifica delle schede video aggiornata cosi da vedere la situazione attuale??
non vorrei essere sgarbato, ma google ti fa schifo? :muro:
ad ogni modo questa scheda offre prestazioni lievemente superiori alla ultra con un costo sensibilmente inferiore, inoltre adotta tutte le ultime features (dx 10.1, sm 4.1, uvd) che la rendono sicuramente + longeva della ultra.
Free Gordon
29-01-2008, 11:23
Insomma, ecco spiegato il perchè Nvidia ha rimandato la 9800gx2 (ma la farà a questo punto?): le attuali schede Nvidia (novembre 2006) non hanno ancora nulla da "temere" sul piano prestazionale nemmeno da questa dual gpu.
Direi che r600 è ufficialmente il peggior chip della storia Ati, capita.
Questo non è R600... e cmq l'unico grosso problema di R600 erano i consumi, ora risolti con Rv670. ;)
Che R600 sia il peggior chip della storia di ATI sono daccordo (più che altro per realizzazione e timing che come progettazione) ma che sia un brutto chip (diciamo come potrebbe essere un nv30 :D ), direi proprio di no. :D
Free Gordon
29-01-2008, 11:28
io parlavo della 8800gts512 a 270/280€ vs la 3870x2 a 400/420€.
Se cerchi bene, trovi forbici anche più ampie Hal.. :asd:
Dai che ce la puoi fare!!! :sofico:
Free Gordon
29-01-2008, 11:33
Ma chi sta parlando di driver miracolosi..scusa nvidia ha avuto tempo di ottimizzare i suoi driver (sto parlando di ottimizzazioni) non di miracoli, e allora dai anche il tempo a ati di ottimizzare i suoi! Ricompariamo le due schede a distanza di cinque o sei mesi e poi vediamo se la tanto acclamata soluzione nvidia sarà in grado di offrire ancora queste grandi prestazioni.
Quì, più che ottimizzare, i driver devono "funzionare" bene (o perlomeno benino) in tutti i giochi e sopratutto a tutte le risoluzioni..
Perchè se noti succedono cose molto strane (guarda bene il sunto delle percentuali alla fine della rece, Crysis a parte che è sbagliato) anche in situazioni non cpu-limited. ;)
E poi eventuali limitazioni dalla parte CPU, per schede simili (doppie), possono dipendere sicuramente dai driver in senso lato (oltre che dalla potenza della cpu stessa).
Free Gordon
29-01-2008, 11:38
E dai su...ormai le schede nvidia sono obsolete!
Obsolete...? :mbe:
E perchè mai?
Faustinho DaSilva
29-01-2008, 11:42
Obsolete...? :mbe:
E perchè mai?
intendeva dire imho vissute, visto l'uscita di 15 mesi fa... poi conta gordon che ieri sera i toni erano abbastanza pesantucci:D e scappato qualche post di troppo
Free Gordon
29-01-2008, 11:43
quanto alle dx10.1, forse su una scheda come la 3870x2 cominciano ad acquistare un minimo senso (sulle altre Ati è fuffa commerciale al 100%), è vero, ma nel complesso non tale da risultare un elemento determinante della scelta (prezzo/prestazioni) rispetto ad una gts65, secondo me, perchè quando si avranno le dx10.1 sfruttate a pieno (se mai accadrà) la 3870x2 sarà già bella che dimenticata, molto probabilmente una fascia media (di prezzo, questa volta) della stessa Ati andrà meglio della 3870x2
Ultimemante leggo in giro di gente che paragona le schede per risoluzione (questa è per la 1280, quella per la 1900x1200.. :asd: ) e che pensa che le dx10 non sia semplicemente una nuova API grafica ma che siano esse stesse dei motori grafici molto pesanti da far girare.. :D
I giochi dx10 (quando ci saranno), come i giochi dx9 attuali, avranno impostazioni e tweak per renderli più o meno digeribili dall'hw che si utilizza.
Le feature invece.. beh, quelle non si adattano/inventano. O le hai o non le hai (e bada bene, non sto parlando di dx10 vs dx10.1 ;) ).
ghiltanas
29-01-2008, 11:48
come da titolo se prendo una 8800 ultra credete si ancora valida??
dove trovo una classifica delle schede video aggiornata cosi da vedere la situazione attuale??
primo sei pienamente OT, secondo edita che hai postato 2 volte il solito messaggio, 3 se ti fai un giretto nel thread vedi che casualmente è diviso in sezioni ;) , vai nella sezione schede video\consigli per gli acquisti
RICKYL74
29-01-2008, 12:02
Però è scocciante sentire ogni volta che le schede ati non valgano nulla o quasi ed nvidia invece per quei pochi frame in più e prezzi a volte doppi deve invece avere tutta questa approvazione. Esistono per entrmabe le case pro e contro ma qui a dire che le soluzione odierne nvidia siano imbattibili e per sempre lo saranno mi sempre troppo estremisti, e non lo sto dicendo da fanboy di alcuna delle due..bensi come un perfetto estraneo alla quale interessa la situazione e gli sviluppi di mercato.
lo era anche quando ATI costava di più e nVidia costava meno :D
Tecnopixel
29-01-2008, 12:37
Allora ragà calmatevi un pò tutti quanti.
premetto che non sono il prof della situazione, ma da oltre 10 anni mi occupo ad altissimi livelli di computer animtion con server dedicati e customizzati con "schede grafiche con 32 GPU".
avete presente un cluster PC, stessa cosa ma dedicati alla computer animation. Detto questo, trovo la recensione stilisticamene ben fatta, ma un pò ingenua, e mi spiego, pensate che esistono sul mercato giochi customizzati e o programmati a 2 e n+ GPU? io ho i miei dubbi. Mi fa ridere il o.s. vista a 32 Bit chissà le Api dx 10.1 come si comportono in presenza di GPU x2 o Nx GPU? ma ne ho visto e sentito di tutti i colori. Il consumo poi una singola GPU invida di fascia alta quanto assorbe? Le specifiche AMD parlano di tecnologia crossfireX e i consumi non sono uguali come nel caso della tecnologia SLI dove le schede sono sempre alimentate al massimo assorbimento, al contraio di AMD dove solo se si sfrutterà la seconda GPU avremmo un carico di assorbimento massimo teorico dei 600W come evidenziati dalla rece. Per il resto mi trovo d'accordo con chi pensa che sicuramente questa è la strada da imboccare, poi chi vince o chi perde è una cosa del tutto secondaria
se ci saranno schede con 2 GPU al prezzo di una, tanto meglio e le previsioni future come ci dimostra il mercato sono sempre a scendere. Concludo facendovi osservare che la HD 3870 X2 è la prima scheda grafica consumer ad infrangere la barriera del teraFLOPS, ossia del trilione di operazioni in virgola mobile al secondo. Se pensate che nel mio settore per avere queste perfomance bisogna spendere almeno 2000/3000 euretti la cosa non è poi tanto male, vebbè che ai gamers interessano di più gli FPS ma questa è un altra storia perchè chi programma giochi non lo fà per il 10% del mercato ma per il 90% che come me hanno un PC con una GPU di fascia media...
Free Gordon
29-01-2008, 12:40
lo era anche quando ATI costava di più e nVidia costava meno :D
Mai successo... :mbe:
Anzi, molto più spesso è successo il contrario anche se in passato la situazione di vantaggio prestazionale di ATI, avrebbe portato al contrario in condizioni normali (ma nVidia vende di più da sempre e ha un nutrito gruppo di fan -e fanboy- al seguito che ATI non è mai riuscita ad intaccare).
non mi sembra sta grande scheda dato che va poco di + di una scheda di 1 anno e passa fa.
ehmm.. è da quanto è uscito R600 a maggio che le schede di questa famiglia si possono collegare ad un tv con presa HDMI in 1920x1080, veicolando anche l'audio... :rolleyes:
non vedo nessun connettore HDMI, vedo tanti DVI da far venire la nausea e non intendevo DVI to HDMI ma HDMI nativo che non vedo neanche col binocolo
Sveglia ! qualsiasi HD2400 da 30 euro ha l'uscita hdmi, figuriamoci la X2
forse non sei al corrente ma questo è il thread della 3870x2 :D nella quale non vedo nessun connettore HDMI
una lancia per i consumi e rumori... nelle rece c'è scritto chiaramente che i 55db sono stati toccati poche volte quando il sistema era proprio al limite con i test quindi secondo me la ventola si può impostare anche che non giri o che non arrivi per forza al 100%..... e così quindi anche per i consumi, tenendo conto che non monterei mai una ati su un sistema Nvidia.....
IlNiubbo
29-01-2008, 13:28
Domanda (anche per la redazione):
Osservando il grafico dei consumi mi sono spaventato e non solo per quanto riguarda il consumo di questa scheda ma in generale. Allora sono andato a rivedere la prova del QX9650 pubblicata il 12 novembre 2007, in cui si confrontava il nuovo Penryn con il QX6850 che è lo stesso processore di questa prova. La scheda montata era una 8800 GT, per cui ho provato a confrontare il consumo rilevato in quella circostanza con quello riportato in questa prova per la 8800 gt:
nella prova del 12 novembre il consumo era (idle/full CPU / full CPU + GPU) 155/196/268 (parlo del QX6850 ovviamente, per il QX9650 era significativamente più basso) . In questa prova per la 8800 GT si riporta 216/333/436 !!!!! A pari scheda e GPU, c'è un 60% in più di consumo usando (mi pare di capire) le stesse metodolgie di test!!!! L'unica differenza (molto) significativa che mi è parso di cogliere è il chipset, in particolare la Gigabyte della prova di novembre monta un P35 Express mentre la scheda di questa prova usa NVidia NForce 680i, inoltre nella prova di novembre non era specificato l'alimentatore usato. A parte quello nessuna differenza significativa, per cui mi piacerebbe capire da dove si origina questa enorme differenza (non per amore della precisione, ma per capire quanto longevo potrà essere il mio Corsair 520 ... ). 4 ipotesi:
1) Il chipset Nvidia, a confronto con il P35, è affamato quanto una Chevrolet Corvette del '70 (ma a giudicare dai test dei chipset che ho letto non sembrerebbe)
2) E' stato usato un alimentatore super-efficiente nella prova di novembre, mentre per questa prova l'alimentatore aveva un'efficienza pessima per lo meno a questi carichi di lavoro (mi sembra l'ipotesi più probabile).
3) La metodologia di test non era esattamente la stessa (da quanto leggo sembrerebbe di no ma potrei aver frainteso).
4) all of the above
Qualcuno mi aiuta a dissipare questo dubbio? Grazie in anticipo.
Quoto. E' possibile avere una risposta dalla redazione?
Evangelion01
29-01-2008, 13:28
forse non sei al corrente ma questo è il thread della 3870x2 :D nella quale non vedo nessun connettore HDMI
Forse a qualcuno sfugge la differenza tra hdmi e dvi... :)
leoneazzurro
29-01-2008, 13:28
Allora ragà calmatevi un pò tutti quanti.
premetto che non sono il prof della situazione, ma da oltre 10 anni mi occupo ad altissimi livelli di computer animtion con server dedicati e customizzati con "schede grafiche con 32 GPU".
avete presente un cluster PC, stessa cosa ma dedicati alla computer animation. Detto questo, trovo la recensione stilisticamene ben fatta, ma un pò ingenua, e mi spiego, pensate che esistono sul mercato giochi customizzati e o programmati a 2 e n+ GPU? io ho i miei dubbi. Mi fa ridere il o.s. vista a 32 Bit chissà le Api dx 10.1 come si comportono in presenza di GPU x2 o Nx GPU? ma ne ho visto e sentito di tutti i colori. Il consumo poi una singola GPU invida di fascia alta quanto assorbe? Le specifiche AMD parlano di tecnologia crossfireX e i consumi non sono uguali come nel caso della tecnologia SLI dove le schede sono sempre alimentate al massimo assorbimento, al contraio di AMD dove solo se si sfrutterà la seconda GPU avremmo un carico di assorbimento massimo teorico dei 600W come evidenziati dalla rece. Per il resto mi trovo d'accordo con chi pensa che sicuramente questa è la strada da imboccare, poi chi vince o chi perde è una cosa del tutto secondaria
se ci saranno schede con 2 GPU al prezzo di una, tanto meglio e le previsioni future come ci dimostra il mercato sono sempre a scendere. Concludo facendovi osservare che la HD 3870 X2 è la prima scheda grafica consumer ad infrangere la barriera del teraFLOPS, ossia del trilione di operazioni in virgola mobile al secondo. Se pensate che nel mio settore per avere queste perfomance bisogna spendere almeno 2000/3000 euretti la cosa non è poi tanto male, vebbè che ai gamers interessano di più gli FPS ma questa è un altra storia perchè chi programma giochi non lo fà per il 10% del mercato ma per il 90% che come me hanno un PC con una GPU di fascia media...
Ci sono alcune imprecisioni in quello che scrivi: Sli o Crossfire, tutte le schede hanno sistemi che regolano la velocità tra 2D e 3D, e tutte hanno assorbimenti variabili a seconda del carico di lavoro. Quindi anche le schede Nvidia non hanno sempre l'assorbimento di picco. Poi è vero che il Powerplay dovrebbe aiutare un pò i consumi, ma al momento l'implementazione è ancora lontana dall'essere perfetta, per usare un eufemismo.
non vedo nessun connettore HDMI, vedo tanti DVI da far venire la nausea e non intendevo DVI to HDMI ma HDMI nativo che non vedo neanche col binocolo
forse non sei al corrente ma questo è il thread della 3870x2 :D nella quale non vedo nessun connettore HDMI
Il connettore HDMI dovrebe essere fornito come adattatore esterno da DVI a HDMI (come nelle 2900XT al debutto), mentre su alcune schede di fascia inferiore è integrato come uscita a sè. E' possibile che su alcuni in modelli commerciali venga comunque integrato a bordo.
Tuttavia l'adattatore non sembra essere "castrato" in termini di prestazioni in quanto si riesce a veicolare comunque tutti i segnali HDMI necessari e anche l'audio a causa del fatto che l'uscita DVI presente su queste schede è una versione "by ATI".
Alcuni modelli di HD34X0/3650 integrano invece una porta Displayport.
Evangelion01
29-01-2008, 13:30
Cmq dovrebbero esserci gli adattatori dvi -> hdmi da pochi €... certo il segnale non avrà la stessa qualità.
ghiltanas
29-01-2008, 13:38
Tuttavia l'adattatore non sembra essere "castrato" in termini di prestazioni in quanto si riesce a veicolare comunque tutti i segnali HDMI necessari e anche l'audio a causa del fatto che l'uscita DVI presente su queste schede è una versione "by ATI".
Alcuni modelli di HD34X0/3650 integrano invece una porta Displayport.
questo è interessante, cmq io tifo per il displayport alla facciaccia dell'hdmi ;)
RICKYL74
29-01-2008, 13:48
..doppio click!!! Sorry
RICKYL74
29-01-2008, 13:55
Mai successo... :mbe:
Anzi, molto più spesso è successo il contrario anche se in passato la situazione di vantaggio prestazionale di ATI, avrebbe portato al contrario in condizioni normali (ma nVidia vende di più da sempre e ha un nutrito gruppo di fan -e fanboy- al seguito che ATI non è mai riuscita ad intaccare).
No, ma io mi riferivo al costo, nelle passate generazione di schede ATI costava di più di nVidia infatti se confrontavi per esempio una 5600 con una 9600 oppure una 9200 con una 5200 pagavi più ATI, infatti all'epoca scelsi nVidia che presentava costi inferiori a discapito di una maggiore qualità di ATI..
theGiallo
29-01-2008, 14:51
scusate ma la Zotac 8800 GT costa 250€ e la versione AMP! 270 e non è così tanto inferiore a questa mi sembra, no? Daccordo che è appena uscita ma non è meglio la 8800 GT in qualità/prezzo?
Evangelion01
29-01-2008, 14:55
scusate ma la Zotac 8800 GT costa 250€ e la versione AMP! 270 e non è così tanto inferiore a questa mi sembra, no? Daccordo che è appena uscita ma non è meglio la 8800 GT in qualità/prezzo?
Certo che è meglio, manco chiedere...
Allora ragà calmatevi un pò tutti quanti.
premetto che non sono il prof della situazione, ma da oltre 10 anni mi occupo ad altissimi livelli di computer animtion con server dedicati e customizzati con "schede grafiche con 32 GPU".
avete presente un cluster PC, stessa cosa ma dedicati alla computer animation. Detto questo, trovo la recensione stilisticamene ben fatta, ma un pò ingenua, e mi spiego, pensate che esistono sul mercato giochi customizzati e o programmati a 2 e n+ GPU? io ho i miei dubbi. Mi fa ridere il o.s. vista a 32 Bit chissà le Api dx 10.1 come si comportono in presenza di GPU x2 o Nx GPU? ma ne ho visto e sentito di tutti i colori. Il consumo poi una singola GPU invida di fascia alta quanto assorbe? Le specifiche AMD parlano di tecnologia crossfireX e i consumi non sono uguali come nel caso della tecnologia SLI dove le schede sono sempre alimentate al massimo assorbimento, al contraio di AMD dove solo se si sfrutterà la seconda GPU avremmo un carico di assorbimento massimo teorico dei 600W come evidenziati dalla rece. Per il resto mi trovo d'accordo con chi pensa che sicuramente questa è la strada da imboccare, poi chi vince o chi perde è una cosa del tutto secondaria
se ci saranno schede con 2 GPU al prezzo di una, tanto meglio e le previsioni future come ci dimostra il mercato sono sempre a scendere. Concludo facendovi osservare che la HD 3870 X2 è la prima scheda grafica consumer ad infrangere la barriera del teraFLOPS, ossia del trilione di operazioni in virgola mobile al secondo. Se pensate che nel mio settore per avere queste perfomance bisogna spendere almeno 2000/3000 euretti la cosa non è poi tanto male, vebbè che ai gamers interessano di più gli FPS ma questa è un altra storia perchè chi programma giochi non lo fà per il 10% del mercato ma per il 90% che come me hanno un PC con una GPU di fascia media...
+
e quindi?
puoi essere anche il creatore della gpu ati.... ma??
si sa tutti che e' inutile avere 4 core.. se i giochi son stati scritti x 1...
si sa tutti che avremmo delle prestaszioni esaltanti fossero stati scritti diversamente...
si sa tutti che lo sli o la seconda gpu da pochssimo in piu....:
quindi?
Abbiamo delle moto da corsa... ma in circuiti non adatti... pero' un pochino meglio vanno!
sarebbe l'ora che si diano una svegliata... con delle patch apposite... o magari proprio una scrittura x sistemi HIGH END... o presunt tali..
sfortunatamente noi gamers.. ci facciamo prendere x il naso.. e andiamo dietro a mode o necessita' che vanno dai 4 ai 20 frame in piu'... ma dopo tutto ognuno butta i soldi nello modo piu' opportuno....
ma i gamers non vogliono solo frame ora come ora vogliona avere la possibilita di giocare a giochi che hanno una grafica superiore alle console fluidamente vedi crysis........................quando infatti nvida produrra una scheda video che fara almeno 40 fps di media a crysis con risoluzione 1900x1600 tutto su ultra allora saro soddisfatto: si che i computer avranno una grafica migliore delle console aspettando ovviamente far cry 2..................................................................
ghiltanas
29-01-2008, 15:53
ma i gamers non vogliono solo frame ora come ora vogliona avere la possibilita di giocare a giochi che hanno una grafica superiore alle console fluidamente vedi crysis........................quando infatti nvida produrra una scheda video che fara almeno 40 fps di media a crysis con risoluzione 1900x1600 tutto su ultra allora saro soddisfatto: si che i computer avranno una grafica migliore delle console aspettando ovviamente far cry 2..................................................................
allora devi aspettare un anno per quello :mbe:
Il connettore HDMI dovrebe essere fornito come adattatore esterno da DVI a HDMI (come nelle 2900XT al debutto), mentre su alcune schede di fascia inferiore è integrato come uscita a sè. E' possibile che su alcuni in modelli commerciali venga comunque integrato a bordo.
Tuttavia l'adattatore non sembra essere "castrato" in termini di prestazioni in quanto si riesce a veicolare comunque tutti i segnali HDMI necessari e anche l'audio a causa del fatto che l'uscita DVI presente su queste schede è una versione "by ATI".
Alcuni modelli di HD34X0/3650 integrano invece una porta Displayport.
sì questo lo sapevo cmq ti ringrazio della spiegazione, il fatto è che rode avere in casa da più di un anno!! TV plasma e monitor per pc tutti e due con uscita HDMI e non poterli collegare nativamente :( da sottolineare che ho speso all'epoca 37€ per un cavo da 2mt HDMI to HDMI placcato oro che non sono mai riuscito ad usare se non con i dovuti adattatori, vabbè.... come dice qualcuno ormai è l'ora del displayport, forse adesso resteranno "gabbati" quelli che prendono monitor e cavi con questa porta e cominceranno a far uscire qualcosa con HDMI, o forse non vedremo mai neanche queste porte e farà in tempo ad uscire qualcos'altro :muro:
Cmq dovrebbero esserci gli adattatori dvi -> hdmi da pochi €... certo il segnale non avrà la stessa qualità.
ti assicuro che è così, tra l'altro l'HDMI ha banda passante esattamente doppia del DVI, che non è cosa di poco conto :cry:
The Solutor
29-01-2008, 17:18
non vedo nessun connettore HDMI, vedo tanti DVI da far venire la nausea e non intendevo DVI to HDMI ma HDMI nativo che non vedo neanche col binocolo
Sarà i caso che usi un pelo di fantasia in più
forse non sei al corrente ma questo è il thread della 3870x2 :D nella quale non vedo nessun connettore HDMI
Il fatto che tu non li veda dimostra rolo che sei un po' precipitoso nel dare giudizi, non che non ci siano i connettori.
Ti sei chiesto che ci sta a fare la sigla HD nelle serie 2xxx e 3xxx ?
Forse a qualcuno sfugge la differenza tra hdmi e dvi... :)
Forse qualcun altro non sa che usare lo spirito di patate non è produttivo quando non si sa quello che si sta dicendo...
se non altro io ho 400 euro risparmiati e la prima scheda grafica che garantisce 40fps a crysis a 1900x1600 è mia anche se devo spendere quella cifra...........confido nel chipset g100.......non sottovalutando l'r700 ati
The Solutor
29-01-2008, 17:26
Allora ragà calmatevi un pò tutti quanti.
premetto che non sono il prof della situazione, ma da oltre 10 anni mi occupo ad altissimi livelli di computer animtion con server dedicati e customizzati con "schede grafiche con 32 GPU".
avete presente un cluster PC, stessa cosa ma dedicati alla computer animation. Detto questo, trovo la recensione stilisticamene ben fatta, ma un pò ingenua, e mi spiego, pensate che esistono sul mercato giochi customizzati e o programmati a 2 e n+ GPU?
No, non esistono i giochi sviluppati x sfruttare due GPU, non esistono per il semplice motivo che non ce n'è alcun bisogno.
Sotto windows il gioco interroga le API, e queste sono informate dell'HW che ci sta sotto ed agiscono di conseguenza.
Diverso sarebbe stato se stessimo usando il DOS, li era il gioco che gestiva direttamente la scheda grafica, oltretutto non sempre (vedi 3dfx dove esistevano le API per il DOS).
L'unica cosa di cui l'utente deve preoccuparsi nel nostro caso è che i drivers siano ben fatti e sappiano sfruttare efficientemente e senza problemi una o più GPU.
Evangelion01
29-01-2008, 17:27
Forse qualcun altro non sa che usare lo spirito di patate non è produttivo quando non si sa quello che si sta dicendo...
Beh? cosa sono questi toni? ti ho forse attaccato :rolleyes: ? Se ci tieni tanto a essere segnalato accomodati pure. Oltretutto riguardo la faccenda del connettore hdmi Leoneazzurro è stato abbastanza chiaro mi pare. Cerchiamo di evitare flame inutili grazie.
Evangelion01
29-01-2008, 17:48
non vedo nessun connettore HDMI, vedo tanti DVI da far venire la nausea e non intendevo DVI to HDMI ma HDMI nativo che non vedo neanche col binocolo
Oltretutto non vedo perchè non dovremmo credergli, la scheda è sua. The solutor, lui intende uscita hdmi NATIVA senza necessità di utilizzare adattatori. Che poi le hd supportino i flussi omonimi è cosa ben nota.
E permettimi di farti notare che hai un tono veramente poco garbato nel discutere con le persone....anzichè rispondere "Sarà i caso che usi un pelo di fantasia in più", potresti semplicemente spiegargli un po' meglio le cose, o sbaglio? Mica tutti siamo guru dell' informatica.
The Solutor
29-01-2008, 17:53
Beh? cosa sono questi toni? ti ho forse attaccato :rolleyes: ?
Il tono fuoriluogo lo hai usato tu, dandomi neanche tanto implicitamente dell'ignorante in materia.
The Solutor
29-01-2008, 17:55
potresti semplicemente spiegargli un po' meglio le cose, o sbaglio?
Potrei, se la domanda fosse posta in maniera non ironica.
Non lo è ed ho risposto a tono, tono peraltro altrettanto ironico, sicuramente non sgarbato.
Evangelion01
29-01-2008, 17:58
Il tono fuoriluogo lo hai usato tu, dandomi neanche tanto implicitamente dell'ignorante in materia.
Se fosse come dici tu avrei quotato la tua risposta, cosa che non ho fatto, e anzichè mettere questa faccia :) , avrei messo magari questa :rolleyes: .
Leggere bene i messaggi non costa molto mi sembra. Cmq per me possiamo chiuderla quì.
Resta il fatto che mi è parso di capire che non tutti i modelli di 2xxx hd supportano l' uscita nativa, quindi i dubbi di D69 mi sembrano più che fondati. Correggimi se sbaglio... ;)
The Solutor
29-01-2008, 18:27
Resta il fatto che mi è parso di capire che non tutti i modelli di 2xxx hd supportano l' uscita nativa, quindi i dubbi di D69 mi sembrano più che fondati. Correggimi se sbaglio... ;)
Non posso dirlo con certezza ma suppongo che sbagli, tutte le hd 2400 che ho visto avevano l'adattatore hdmi, ed il fondamentale supporto hdcp sta nel chip. Ergo suppongo che il peggio che possa capitare è che con una scheda particolarmente economica non venga fornito l'adattatore.
In ogni caso venendo ai dubbi di d69, non vedo dove stia il problema...
La domanda che uno deve porsi è "posso attacare il mio televisore ad una scheda ATI serie HD ?" E la risposta è si.
Bande passanti varie e "peggioramenti del segnale" sono discorsi accademici nel primo caso, sciocchezze nel secondo... stiamo parlando di segnali digitali ed a meno di cavi scadenti o lunghi al limite delle specifiche un adattatore in più sul percorso ha un impatto uguale a zero.
Bella scheda e molto innovativa come struttura!
Come prestazioni non è eccezionale nei confronti della GTX ma è da considerare che questa scheda è il piioniere del vero multiGPU e che ha bisogno di revisioni a livello driver ed architetturale.
Secondo me il balzo prestazionale si avrà co la futura e tanto attesa famigli HD 4000 la cui architettura in tutte lle sue fasce prestazionali sarà fondata su quella ella HD3800x2!
Scrambler77
29-01-2008, 18:58
Questa scheda sarebbe pioniera del multi-gpu su stesso pcb??? :O
halduemilauno
29-01-2008, 19:11
Bella scheda e molto innovativa come struttura!
Come prestazioni non è eccezionale nei confronti della GTX ma è da considerare che questa scheda è il piioniere del vero multiGPU e che ha bisogno di revisioni a livello driver ed architetturale.
Secondo me il balzo prestazionale si avrà co la futura e tanto attesa famigli HD 4000 la cui architettura in tutte lle sue fasce prestazionali sarà fondata su quella ella HD3800x2!
a proposito di pioniera.
http://www.tomshw.it/graphic.php?guide=20080123&page=radeon_hd_3870_x2-01
Questa scheda sarebbe pioniera del multi-gpu su stesso pcb??? :O
La rage fury maxx e la voodoo 5 :D
In tempi piú "moderni" anche la dual x1950pro mi pare fosse sullo stesso pcb.
MiKeLezZ
29-01-2008, 19:41
Oltretutto non vedo perchè non dovremmo credergli, la scheda è sua. The solutor, lui intende uscita hdmi NATIVA senza necessità di utilizzare adattatori. Che poi le hd supportino i flussi omonimi è cosa ben nota.
E permettimi di farti notare che hai un tono veramente poco garbato nel discutere con le persone....anzichè rispondere "Sarà i caso che usi un pelo di fantasia in più", potresti semplicemente spiegargli un po' meglio le cose, o sbaglio? Mica tutti siamo guru dell' informatica.Lo standard HDMI è per l'elettronica di consumo. Francamente non vedo il perchè di tutta questa polemica
Se c'è bene, se non c'è stigrandissimicazzi, datosi che l'HDMI non è altro che un DVI sotto diversa forma, ed esistono quindi sia cavetti DVI-HDMI sia adattatori DVI-HDMI
Delta Highest
29-01-2008, 19:53
Non ho capito una cosa.... La Radeon in questione ha due GPU giusto? E la 8800GTX ne ha una... Giusto? Se è così non ha senso comparare una Vga con 2 GPU e una Vga con 1 GPU -.-"
E il bello è che la differenza non è nemmeno tanta
Evangelion01
29-01-2008, 19:58
Lo standard HDMI è per l'elettronica di consumo. Francamente non vedo il perchè di tutta questa polemica
Se c'è bene, se non c'è stigrandissimicazzi, datosi che l'HDMI non è altro che un DVI sotto diversa forma, ed esistono quindi sia cavetti DVI-HDMI sia adattatori DVI-HDMI
Non c'è dubbio, ma il punto non era questo. :)
Non posso dirlo con certezza ma suppongo che sbagli, tutte le hd 2400 che ho visto avevano l'adattatore hdmi,
In ogni caso venendo ai dubbi di d69, non vedo dove stia il problema...
Non mi sbaglio invecie. Fai una ricerca con google, e vedrai che molti modelli di hd2400 NON integrano l' uscita hdmi. Basta guardare queste immagini per esempio. :read:
http://www.diamondmm.com/images/materials/new/stealth_2400pro256pe_hd2400_pro_pcie_256mb_product_image.jpg
http://www.vpd.it/images/SAPPHIRE%20HD%202400%20PRO%20256MB.jpg
E ho preso giusto le prime 2 che mi son capitate.
, ed il fondamentale supporto hdcp sta nel chip. Ergo suppongo che il peggio che possa capitare è che con una scheda particolarmente economica non venga fornito l'adattatore.
Questo è verissimo. :)
In ogni caso venendo ai dubbi di d69, non vedo dove stia il problema...
Il problema era semplicemente capire il perchè di questa risposta :
Sveglia ! qualsiasi HD2400 da 30 euro ha l'uscita hdmi, figuriamoci la X2
quando la realtà è un altra...
Cmq fine OT.
MiKeLezZ
29-01-2008, 20:04
Il problema era semplicemente capire il perchè di questa risposta.IMHO è più sensato che HDMI ci sia nelle schede di fascia bassa (destinate a HTPC e quindi ad interagire con apparecchi televisivi) che non in quelle di fascia alta (gaming estremo / professionale), dove al massimo capirei il DisplayPort (ora che sono usciti i Delloni).
La connessione DVI, rispetto la HDMI, è pure meglio perchè ha anche una resistenza meccanica alla trazione (fornita dalle due viti a lato).
Io uso il DVI-HDMI con la TV 37" e non vedo, ancora, il problema.
Evangelion01
29-01-2008, 20:07
Non ho capito una cosa.... La Radeon in questione ha due GPU giusto? E la 8800GTX ne ha una... Giusto? Se è così non ha senso comparare una Vga con 2 GPU e una Vga con 1 GPU -.-"
E il bello è che la differenza non è nemmeno tanta
Ha senso nel momento in cui la vga dual gpu la puoi montare su un singolo slot meccanico come fosse una vga single gpu. Naturalmente la 3870x2 altro non è che un crossfire di 2 3870 su un unico pcb , con tutti i vantaggi ( e la maggior parte degli svantaggi ) del caso.
Evangelion01
29-01-2008, 20:10
IMHO è più sensato che HDMI ci sia nelle schede di fascia bassa (destinate a HTPC e quindi ad interagire con apparecchi televisivi) che non in quelle di fascia alta (gaming estremo / professionale), dove al massimo capirei il DisplayPort (ora che sono usciti i Delloni).
La connessione DVI, rispetto la HDMI, è pure meglio perchè ha anche una resistenza meccanica alla trazione (fornita dalle due viti a lato).
Io uso il DVI-HDMI con la TV 37" e non vedo, ancora, il problema.
Certo, son perfettamente d' accordo. Il punto era semplicemente ( se rileggi il discorso ) chiarire un dubbio a D69 che non trovava ( ovviamente ) l' uscita hdmi sulla sua vga.
Anch'io poi ho provato la connessione dvi su un Samsung 40' full hd : non ti dico lo spettacolo... :sofico:
The Solutor
29-01-2008, 20:22
http://www.diamondmm.com/images/materials/new/stealth_2400pro256pe_hd2400_pro_pcie_256mb_product_image.jpg
http://www.vpd.it/images/SAPPHIRE%20HD%202400%20PRO%20256MB.jpg
E ho preso giusto le prime 2 che mi son capitate.
Cioè, tu capisci da una foto se la scheda supporta o meno l'hdmi ? :eek:
Per la cronaca la scheda del secondo link, ce l'ho a casa e ti garantico che l'hdmi ce l'ha, anzi direi che inizio ad essere proprio certo che qualsiasi HDxxx ce l'abbia.
Scrambler77
29-01-2008, 20:37
The Solutor... penso che tu abbia le idee poco chiare...
Quale tra quei 3 connettori sarebbe l'hdmi?? :O
MiKeLezZ
29-01-2008, 20:41
Certo, son perfettamente d' accordo. Il punto era semplicemente ( se rileggi il discorso ) chiarire un dubbio a D69 che non trovava ( ovviamente ) l' uscita hdmi sulla sua vga.
Anch'io poi ho provato la connessione dvi su un Samsung 40' full hd : non ti dico lo spettacolo... :sofico::cincin:
The Solutor
29-01-2008, 20:45
The Solutor... penso che tu abbia le idee poco chiare...
Penso che le idee poco chiare ce le abbiate voi.
Quale tra quei 3 connettori sarebbe l'hdmi?? :O
Quello nella scatola
Evangelion01
29-01-2008, 21:01
Penso che le idee poco chiare ce le abbiate voi.
Quello nella scatola
:rolleyes:
The solutor, a questo punto comincio a chiedermi : ma cosa devo fare per farti capire QUALE e' l' uscita HDMI ????
Qui l' unico che non ha capito nulla del discorso sei TU ! Scusa, ma ti ho persino postato delle foto, più di così non so proprio che fare !
Io non è che CAPISCO dalla foto se una vga supporta un flusso hd, ma diamine... mi spieghi DOVE vedi in quelle 2 schede l' uscita hdmi ???? Sarò cieco io, ma a me pare che abbiano 1 uscita dvi e una semplice vga... Tu vedi connettori hdmi NATIVI in quelle schede?
Ragazzi, diteglielo voi.... :nono:
ghiltanas
29-01-2008, 21:02
gente mi pare ci sia un pò di confusione in giro fra hdmi e hdcp :sofico: ...
il primo è un tipo di connettore per l'alta definizione, il secondo è un sistema di protezione dei contenuti usato per l'alta definizione, cioè per fruire di un video in hd protetto, tutti i componenti devono implementare l'hdcp (monitor vga ecc..)
ghiltanas
29-01-2008, 21:05
ora nn so se hai postato le immagini sbagliate, cmq quelle vga hanno 3 connettori di cui uno è s-video, uno vga e uno dvi, mentre ti posso garantire che nn c'è ombra di connettore hdmi ;)
Evangelion01
29-01-2008, 21:07
ora nn so se hai postato le immagini sbagliate, cmq quelle vga hanno 3 connettori di cui uno è s-video, uno vga e uno dvi, mentre ti posso garantire che nn c'è ombra di connettore hdmi ;)
Solutor, adesso ci devi dire dove hai visto il connettore hdmi. :muro:
The Solutor
29-01-2008, 21:11
:rolleyes:
Tu vedi connettori hdmi NATIVI in quelle schede?
Ragazzi, diteglielo voi.... :nono:
Si li vedo dentro la scatola, ho quella scheda in casa, te lo ripeto.
Tu, ci scommetto, mi dirai che uello è solo un adattatore, io ti rispondo che se bastasse l'adattatore per avere il supporto all'hdtv bsterebbe comprarne uno e piazzarlo sulla prima G400 che passa... invece non è così, perche la G400 non ha l'hdmi nativo. La serie HD invece ce l'ha
Chi ha fatto la domand iniziale (che qui ti quoto)
quando minkia me la date una scheda con uscita hdmi da attaccare al mio schermo prima che diventi vecchio e lo devo buttare???
Aveva il problema di attaccare il televisore, non quello di vedere il connettore direttamente sulla bandellina. E gli ho risposto che era possibilissimo su qualsiasi scheda ati serie HD, se non hai ancora capito adesso non so piu che dirti, mi spiace.
leoneazzurro
29-01-2008, 21:11
Sarà i caso che usi un pelo di fantasia in più
Il fatto che tu non li veda dimostra rolo che sei un po' precipitoso nel dare giudizi, non che non ci siano i connettori.
Ti sei chiesto che ci sta a fare la sigla HD nelle serie 2xxx e 3xxx ?
Forse qualcun altro non sa che usare lo spirito di patate non è produttivo quando non si sa quello che si sta dicendo...
Beh? cosa sono questi toni? ti ho forse attaccato :rolleyes: ? Se ci tieni tanto a essere segnalato accomodati pure. Oltretutto riguardo la faccenda del connettore hdmi Leoneazzurro è stato abbastanza chiaro mi pare. Cerchiamo di evitare flame inutili grazie.
Il tono fuoriluogo lo hai usato tu, dandomi neanche tanto implicitamente dell'ignorante in materia.
Per piacere, niente flame tralaltro inutili. Comunque si, tutte le HD 2XXX e 3xxx supportano nativamente l'HDMI, ma l'uscita è tramite l'adattatore, le HD3450/3470/3650 supportano nativamente anche la Displayport. Alcuni produttori integrano una porta HDMI direttamente su scheda anzichè fornire l'adattatore, un esempio era la HD3870 della Powercolor usata da HWupgrade per l'articolo su RV670.
x d69: La banda passante dell'HDMI è il doppio di un DVI single link, e solo nel caso di versione HDMI 1.3 o superiore. I DVI delle schede video in oggetto sono tutti dual link, in grado quindi di pilotare display da 2560x1600 punti a 60 Hz. HDMI oltre a questo integra l'HDCP nativamente (nel DVI è opzionale) e il trasporto dei segnali audio. Ad ogni modo, l'adattatore usato nella serie HD di ATI sfrutta sia le potenzialità del dual link (quindi l'HDMI ha banda passante "piena") che la possibilità di inviare il segnale audio.
Dato poi che il segnale è digitale, a meno di problemi di connessione non ci dovrebbe essere un degrado della qualità delle immagini visualizzate.
Evangelion01
29-01-2008, 21:12
The Solutor... penso che tu abbia le idee poco chiare...
Quale tra quei 3 connettori sarebbe l'hdmi?? :O
Lo vorrei sapere anch' io....
Forse qualcun altro non sa che usare lo spirito di patate non è produttivo quando non si sa quello che si sta dicendo...
:banned:
Evangelion01
29-01-2008, 21:14
Per piacere, niente flame tralaltro inutili. Comunque si, tutte le HD 2XXX e 3xxx supportano nativamente l'HDMI, ma l'uscita è tramite l'adattatore, le HD3450/3470/3650 supportano nativamente anche la Displayport. Alcuni produttori integrano una porta HDMI direttamente su scheda anzichè fornire l'adattatore, un esempio era la HD3870 della Powercolor usata da HWupgrade per l'articolo su RV670.
x d69: La banda passante dell'HDMI è il doppio di un DVI single link, e solo nel caso di versione HDMI 1.3 o superiore. I DVI delle schede video in oggetto sono tutti dual link, in grado quindi di pilotare display da 2560x1600 punti a 60 Hz. HDMI oltre a questo integra l'HDCP nativamente (nel DVI è opzionale) e il trasporto dei segnali audio. Ad ogni modo, l'adattatore usato nella serie HD di ATI sfrutta sia le potenzialità del dual link (quindi l'HDMI ha banda passante "piena") che la possibilità di inviare il segnale audio.
Dato poi che il segnale è digitale, a meno di problemi di connessione non ci dovrebbe essere un degrado della qualità delle immagini visualizzate.
Oh, ecco svelato tutto il mistero... grazie leoneazzurro, ora abbiamo tutti le idee più chiare... :)
Evangelion01
29-01-2008, 21:17
Per piacere, niente flame tralaltro inutili. Comunque si, tutte le HD 2XXX e 3xxx supportano nativamente l'HDMI, ma l'uscita è tramite l'adattatore, le HD3450/3470/3650 supportano nativamente anche la Displayport. Alcuni produttori integrano una porta HDMI direttamente su scheda anzichè fornire l'adattatore, un esempio era la HD3870 della Powercolor usata da HWupgrade per l'articolo su RV670.
Però mi chiedo perchè non integrare in tutti i modelli direttamente il connettore hdmi sul retro della scheda anzichè dover usare per forza l' adattatore.
The Solutor
29-01-2008, 21:17
Leoneazzurro for president !:ave: :ave: :ave:
The Solutor
29-01-2008, 21:21
Però mi chiedo perchè non integrare in tutti i modelli direttamente il connettore hdmi sul retro della scheda anzichè dover usare per forza l' adattatore.
Perchè poi diventa difficile attaccarci un monitor VGA, se se ne ha necessità
Coi connettori DVI invece puoi attaccarti Via DVi,via vga, via hdmi ecc...
Evangelion01
29-01-2008, 21:24
Perchè poi diventa difficile attaccarci un monitor VGA, se se ne ha necessità
Coi connettori DVI invece puoi attaccarti Via DVi,via vga, via hdmi ecc...
Beh, dai magari si riuscurebbe a fare lo spazio per implementare direttamente tutti e 3 i connettori sul retroscheda.... :p
The Solutor
29-01-2008, 21:31
Beh, dai magari si riuscurebbe a fare lo spazio per implementare direttamente tutti e 3 i connettori sul retroscheda.... :p
Con l'imporsi della tv digitale inizia a perdere senso il minidin di IO analogico, quello sarà il primo a sloggiare.
Comunque gia adesso può avere un senso (almeno sulle VGA low end) mettere un DVI + HDMI al posto di VGA + DVI.
E qualcuno lo ha già fatto.
leoneazzurro
29-01-2008, 21:38
Però mi chiedo perchè non integrare in tutti i modelli direttamente il connettore hdmi sul retro della scheda anzichè dover usare per forza l' adattatore.
Per motivi di diffusione del DVI in campo informatico (solo recentemente sono arrivati in commercio numerosi modelli di monitor con infresso HDMI) e perchè esistevano già sia gli adattatori DVI-> VGA che DVI-> HDMI. In sostanza, per risparmiare il più possibile.
MiKeLezZ
29-01-2008, 21:44
Per motivi di diffusione del DVI in campo informatico (solo recentemente sono arrivati in commercio numerosi modelli di monitor con infresso HDMI) e perchè esistevano già sia gli adattatori DVI-> VGA che DVI-> HDMI. In sostanza, per risparmiare il più possibile.Se l'avessero fatto ora sul forum ci sarebbero n persone incazzate a bestia perchè la loro VGA ha il connettore HDMI anzichè DVI, e non riescono ad attaccarci il monitor LCD... se tiri da una parte si scopre dall'altra
ghiltanas
29-01-2008, 21:47
io cmq tifo moltissimo per il display port in quanto free e libero da schifezze varie...come qualità è allo stesso livello dell'hdmi?
leoneazzurro
29-01-2008, 22:02
io cmq tifo moltissimo per il display port in quanto free e libero da schifezze varie...come qualità è allo stesso livello dell'hdmi?
Si
Ha senso nel momento in cui la vga dual gpu la puoi montare su un singolo slot meccanico come fosse una vga single gpu. Naturalmente la 3870x2 altro non è che un crossfire di 2 3870 su un unico pcb , con tutti i vantaggi ( e la maggior parte degli svantaggi ) del caso.
beh io mi chiedo se ci sia da esaltare cosi tanto che uno sli amd vada poco piu di una singola nvidia. appena ci sarà la scheda nvdia che nello stesso pcb questa sarà sicuramente dietro. Purtroppo bisogna aspettare la prossiama generazione per amd.
davidTrt83
29-01-2008, 22:37
Comunque i test sul consumo lasciano come al solito troppe perplessità. C'è sempre troppa discordanza.
Ad esempio su tom's hanno ottenuto risultati del tutto diversi sia da un punto di vista assoluto che relativo, e con una configurazione molto simile.http://www.tomshw.it/guides/hardware/graphic/20080123/images/total_power.png
http://www.hwupgrade.it/articoli/skvideo/1888/power.png
può dipendere anche dai programmi utilizzati?? qua si diceva che pochi erano cmq i giochi, se non nessuno, quelli che avrebbero tenuto la potenza propria al 100%.... anche se la differenza è molto notevole... magari alcuni sono filtrati boooo
Dipende soprattutto da 2 cose:
1- con quali programmi é stato effettuato il test di load
2- se il consumo indicato é riferito al solo consumo del sistema o se é inclusa anche l' efficienza dell' alimentatore...
Horizont
30-01-2008, 09:18
io la vedo tutt'altro che una vittoria per AMD/ATI, sono d'accordo con chi dice che questo sorpasso è un po' inutile e scontato dato che avviene ai danni di una vga di più di un anno fa e soprattutto con un architettura, per forza di cose, chiaramente inferiore e meno al passo coi tempi.
Sinceramente vedo questa mossa di AMD/ATI quasi della serie "THO! Pigliati questa NVIDIA, finalmente sono io che ce l'ho più lungo".
Senza contare che sta vga non farà altro che rendere più felice l'utenza NVIDIA.
Boh...però è anche vero che prima o poi AMD/ATI avrebbe dovuto mostrare cose di questo genere altrimenti sarebbe rimasta nell'ombra per sempre.
IlNiubbo
30-01-2008, 14:28
con trovaprezzi c'è sa sapphire a 360€ spese incluse, forse così raccoglierà più clientela.
http://www.trovaprezzi.it/categoria.aspx?libera=3870x2&id=28&prezzoMin=&prezzoMax=&sbox=sb
cosa ne dite?
che secondo me caleranno anche quei 60€ prima o poi quando arriveranno i modelli + evoluti della HD3870X2
Free Gordon
30-01-2008, 15:59
non vedo nessun connettore HDMI, vedo tanti DVI da far venire la nausea e non intendevo DVI to HDMI ma HDMI nativo che non vedo neanche col binocolo
forse non sei al corrente ma questo è il thread della 3870x2 :D nella quale non vedo nessun connettore HDMI
Il connettore è presente nel bundle con la scheda (nella mia 3870 ad esempio c'è) e ti permette di collegare la VGA ad un qualsiasi tv HD o fullHD e veicolare il segnale audio...(no formati loseless..ma questo è un altro discorso)
Che c'entra che non è integrato?
Alcuni modelli di schede (come nelle mobo 690G) hanno già HDMI integrato, altri usano l'adattatore, ma la sostanza è identica... :rolleyes:
Free Gordon
30-01-2008, 16:06
Non posso dirlo con certezza ma suppongo che sbagli, tutte le hd 2400 che ho visto avevano l'adattatore hdmi, ed il fondamentale supporto hdcp sta nel chip. Ergo suppongo che il peggio che possa capitare è che con una scheda particolarmente economica non venga fornito l'adattatore.
In ogni caso venendo ai dubbi di d69, non vedo dove stia il problema...
La domanda che uno deve porsi è "posso attacare il mio televisore ad una scheda ATI serie HD ?" E la risposta è si.
Bande passanti varie e "peggioramenti del segnale" sono discorsi accademici nel primo caso, sciocchezze nel secondo... stiamo parlando di segnali digitali ed a meno di cavi scadenti o lunghi al limite delle specifiche un adattatore in più sul percorso ha un impatto uguale a zero.
Concordo. Esatto.
Free Gordon
30-01-2008, 16:19
Oh, ecco svelato tutto il mistero... grazie leoneazzurro, ora abbiamo tutti le idee più chiare... :)
Mah, a dire la verità le idee poco chiare le avevate solo voi. Io e Solutor abbiamo sostenuto questa cosa sin dall'inizio... :rolleyes:
Evangelion01
30-01-2008, 16:38
Mah, a dire la verità le idee poco chiare le avevate solo voi. Io e Solutor abbiamo sostenuto questa cosa sin dall'inizio... :rolleyes:
Freegordon , non hai seguito il discorso dall' inizio.
Ma siccome 1° siamo OT , 2° è già stato detto tutto, 3° le idee sono sempre state chiarissime... non ha senso continuare. :)
La rage fury maxx e la voodoo 5 :D
In tempi piú "moderni" anche la dual x1950pro mi pare fosse sullo stesso pcb.
Quella della sapphire
The Solutor
30-01-2008, 23:17
Concordo. Esatto.
:cincin:
gran bella schedonzola, finalmente c'è stato il tanto osannato sorpasso, anche se in alcuni casi non è cosi marcato rispetto a una ormai vetusta 8800gtx. Il prezzo è ottimo, i consumi fanno venir da piangere ma c'era da aspettarselo :)
HEHEHE ME NE SONO COMPRATE 2 CHE DOMANI MI MONTO IN CROSSFIRE (ASPETTO L'ALIMENTATORE ADEGUATO)
Essendo un rivenditore appena le ho viste pronte dal mio distrributore non ho resistito :D :D :D
ragazzi mi è venuto un dubbio sto per acquistare un computer con due schede hd 3870 X2 in crossfire...
funzioneranno in parallelo o ci vogliono drive ottimizzati?
ragazzi mi è venuto un dubbio sto per acquistare un computer con due schede hd 3870 X2 in crossfire...
funzioneranno in parallelo o ci vogliono drive ottimizzati?
Funzionano, devi solo aspettare i driver ottimizzati per sfruttarle meglio
HEHEHE ME NE SONO COMPRATE 2 CHE DOMANI MI MONTO IN CROSSFIRE (ASPETTO L'ALIMENTATORE ADEGUATO)
Essendo un rivenditore appena le ho viste pronte dal mio distrributore non ho resistito :D :D :D
Facci sapere come frullano!
Horizont
01-02-2008, 15:20
HEHEHE ME NE SONO COMPRATE 2 CHE DOMANI MI MONTO IN CROSSFIRE (ASPETTO L'ALIMENTATORE ADEGUATO)
Essendo un rivenditore appena le ho viste pronte dal mio distrributore non ho resistito :D :D :D
ovvero il galaxy :D :D
HEHEHE ME NE SONO COMPRATE 2 CHE DOMANI MI MONTO IN CROSSFIRE (ASPETTO L'ALIMENTATORE ADEGUATO)
Essendo un rivenditore appena le ho viste pronte dal mio distrributore non ho resistito :D :D :D
Dopo topic coi test
illidan2000
02-02-2008, 07:49
Dopo topic coi test
sbaglio o il crossfire rende più dello SLI? andrebbe visto il confronto con due 8800ultra
sbaglio o il crossfire rende più dello SLI? andrebbe visto il confronto con due 8800ultra
Si, il crossfire è più efficiente;)
Ma ati non ha mai sviluppato dei driver per conf quad gpu, o sbaglio?
illidan2000
02-02-2008, 12:05
Si, il crossfire è più efficiente;)
Ma ati non ha mai sviluppato dei driver per conf quad gpu, o sbaglio?
non ancora
RAGAZZI GRANDE DELUSIONE,
MONTATE SU ASUS P5E DRIVER CORRETTI ECC... LE SCHEDE NON LAVORANO CORRETTAMENTE, ADDIRITTURA IL PANNELLO DI CONTROLLO ATI NON PARTE E DA ERRORE COME SE NON VEDESSE HARDWARE APPROPRIATO :muro:
illidan2000
02-02-2008, 12:14
RAGAZZI GRANDE DELUSIONE,
MONTATE SU ASUS P5E DRIVER CORRETTI ECC... LE SCHEDE NON LAVORANO CORRETTAMENTE, ADDIRITTURA IL PANNELLO DI CONTROLLO ATI NON PARTE E DA ERRORE COME SE NON VEDESSE HARDWARE APPROPRIATO :muro:
il problema che hanno tutti... prox release da attendere
il problema che hanno tutti... prox release da attendere
Per release intendi dei driver?
PS
Ma come hanno fatto i test se la GPU non funziona bene?
Free Gordon
02-02-2008, 15:57
2 3870 X2 non funzionano, in crossfire.
Una funziona eccome. :D
2 3870 X2 non funzionano, in crossfire.
Una funziona eccome. :D
E come fuzionano?
E come fuzionano?
NOn funzionano:D
Faustinho DaSilva
02-02-2008, 19:05
NOn funzionano:D
per ora:D
E come fuzionano?
ti tocca aspettare i driver nuovi. Intanto fai qualche test con 1 sola :D
e ci mancherebbe se no il pettine cosa glielo mettevano a fare???
Re Lothar
03-02-2008, 09:38
Buongiorno :D Interessante vedere commenti alle 6.30 di mattina :D
:D bhe sai com'è aspettando di andare a scuola vedo un po' cosa succede in giro :)
waterblock :sofico: :
http://ekwaterblocks.com/shop/product_info.php?products_id=233
se il link non va bene perdonatemi
aaasssdddfffggg
03-02-2008, 16:14
nVIDIA ha ufficialmente affermato che presenterà il suo nuovo gioiello 9800GTX al CEBIT 2008 che si terrà in Germania appunto a Marzo.Ci siamo ormai...
Faustinho DaSilva
03-02-2008, 19:26
nVIDIA ha ufficialmente affermato che presenterà il suo nuovo gioiello 9800GTX al CEBIT 2008 che si terrà in Germania appunto a Marzo.Ci siamo ormai...
poi è da vedere quando esce nei negozi;)
Free Gordon
03-02-2008, 21:46
poi è da vedere quando esce nei negozi;)
Ma più che altro, che cos'è la 9800GTX?
Una dual GPU oppure l'erede della 8800GTX?
A giudicare dal nome, dovrebbe essere l'erede.. il G90/100 presumo. Ma la mano sul fuoco non la metterei.
MiKeLezZ
03-02-2008, 21:57
RAGAZZI GRANDE DELUSIONE,
MONTATE SU ASUS P5E DRIVER CORRETTI ECC... LE SCHEDE NON LAVORANO CORRETTAMENTE, ADDIRITTURA IL PANNELLO DI CONTROLLO ATI NON PARTE E DA ERRORE COME SE NON VEDESSE HARDWARE APPROPRIATO :muro:Soldi spesi bene, insomma
Se te ne avanzano altri ti do il mio n. di postepay
lor68pdit
05-02-2008, 07:05
Un confronto andava fatto con un CrossFire 3870. Test incompleto.
kinotto82
06-02-2008, 23:14
1 brava alla redazione!!!!!!!
un solo dubbio............ma che generatore di corrente devo acquistare per farmi un sistema con 2 skede 3870x2????
skerzi a parte nn immaginavo fossero così alti i consumi delle skede video..........ed io ke ieri ho acquistato una 8800gts 512MB ed adesso nn so se il mio alimentatore (tagan 480w) mi basta, d'oh!
Faustinho DaSilva
06-02-2008, 23:27
1 brava alla redazione!!!!!!!
un solo dubbio............ma che generatore di corrente devo acquistare per farmi un sistema con 2 skede 3870x2????
skerzi a parte nn immaginavo fossero così alti i consumi delle skede video..........ed io ke ieri ho acquistato una 8800gts 512MB ed adesso nn so se il mio alimentatore (tagan 480w) mi basta, d'oh!
no almeno da 550w
non so se qualcuno avesse già postato questa rece:
http://en.expreview.com/?p=219
1 brava alla redazione!!!!!!!
un solo dubbio............ma che generatore di corrente devo acquistare per farmi un sistema con 2 skede 3870x2????
skerzi a parte nn immaginavo fossero così alti i consumi delle skede video..........ed io ke ieri ho acquistato una 8800gts 512MB ed adesso nn so se il mio alimentatore (tagan 480w) mi basta, d'oh!
Per la GTS basta.
Per 2 3870x2 neanche per scherzo :D
Le schede viaggiano abbastanza bene... servono come ripiego in attesa di G100 per chi ha un sistema basato su piattaforma intel ;) ripeto non sono male...
b4stardo
11-02-2008, 01:23
Ragazzi, alla fine dell'articolo dice che sarà possibile mettere 2 3870x2 in crossfire, inmodo da avere un Quad-Crossfire....il mio secondo slot pci-e purtroppo è 8x a differenza del principale che è 16x....ci sarebbero reali vantaggi a usarle tutte e 2 a 8x?
ps:il mio pci-e è 1.0...avrei colli di bottiglia?
mi sembra che sul 8X non ci siano rallentamenti degni di nota.... diverso il discorso per il 4X
Faustinho DaSilva
12-02-2008, 08:37
Ragazzi, alla fine dell'articolo dice che sarà possibile mettere 2 3870x2 in crossfire, inmodo da avere un Quad-Crossfire....il mio secondo slot pci-e purtroppo è 8x a differenza del principale che è 16x....ci sarebbero reali vantaggi a usarle tutte e 2 a 8x?
ps:il mio pci-e è 1.0...avrei colli di bottiglia?
no nn li avresti, il problema è se effetivamente lo andrai a supportare il cfx, bisogna aspettare l'uscita driver e vedere la compatibilità col chipset che hai sulla mobo
fireball84
12-02-2008, 10:28
scusate la domanda forse da niubbo ma la memoria non si somma in questo caso. trattandosi di un crossfire la memoria viene vista come 512 mb non 1 gb oppure ogni chip può accedere alla memoria dedicata dell'altro?
Parappaman
12-02-2008, 10:38
Viene vista come 512mb, infatti nella recensione è sottolineato come questo possa essere un collo di bottiglia :O
fireball84
12-02-2008, 10:42
se è così me la tolgo dalla testa :) la prossima scheda che acquisto deve avere sicuramente + di 512 mb di ram. tanto tra poco non basteranno + 512mb
Parappaman
12-02-2008, 11:25
Per R700 o successivi si parla infatti di memoria totale condivisa, quello sarebbe un bel passo in avanti. Per ora, comunque, continuo a ritenere la 3870x2 un buon paliativo in attesa di questa evoluzione, nonostante le limitazioni del caso. :O
Ho seguito un'asta ebay sulla HD3870X2 sapphire nuova fatturabile ecc ecc.... conclusa a 301€.... ottimo XD
randomxx
13-02-2008, 21:17
Rapporto prezzo/prestazioni 5.5 :)
rapporto consumo/prestazioni 4.0 :mad:
conclusione: IO NON LA PRENDO :D
2 3870 X2 non funzionano, in crossfire.
Una funziona eccome. :D
per essere 2 gpu non è che sia una gran scheda, anzi
b4stardo
14-02-2008, 14:01
Se si potrà mettere in crossfire con una seconda scheda video, appena ho i dindina la prendo al volo!
per essere 2 gpu non è che sia una gran scheda, anzi
Infatti... la grande scheda sara' G100 ;) le altre son tutte per chi si accontenta.... ho provato a fare girare crysis in full hd tutti i filtri a palla con gpu a 900mhz e ddr3 a 1000mhz non gira malaccio... ma niente in confronto alla controparte nvidia... ;)
Per chi come me sta aspettando... ripeto sta scheda non è male! :)
b4stardo
14-02-2008, 20:22
Avendo lo slot Pci-express 1.0, come so fino a quale scheda mi conviene acquistare?Dopo un po' per me sarebbe inutile, dato che lo slot mi taglierebbe la banda.
illidan2000
14-02-2008, 23:51
Avendo lo slot Pci-express 1.0, come so fino a quale scheda mi conviene acquistare?Dopo un po' per me sarebbe inutile, dato che lo slot mi taglierebbe la banda.
non credo proprio
b4stardo
15-02-2008, 12:01
non credo proprio
come no?Prima o poi uscirà una scheda video 2.0 che non potrò sfruttare a pieno, perchè il mio slot 1.0 ha dei limiti....volevo sapere come posso capire il limite, non sarebbe bello dover prendere che so, una 3870x2 e sapere che su un 2.0 va meglio
Parappaman
15-02-2008, 12:38
come no?Prima o poi uscirà una scheda video 2.0 che non potrò sfruttare a pieno, perchè il mio slot 1.0 ha dei limiti....volevo sapere come posso capire il limite, non sarebbe bello dover prendere che so, una 3870x2 e sapere che su un 2.0 va meglio
Lo standard 2.0 per ora non è realmente una necessità, nessuna scheda video in commercio è lontanamente in grado di saturare la banda passante di una connessione PCIe 1.1 a 16 linee elettriche, neanche questa 3870X2. Puoi tranquillamente evitare di avere complessi d'inferiorità per ora, e credo anche per l'immediato futuro. :asd:
Evangelion01
15-02-2008, 13:00
Lo standard 2.0 per ora non è realmente una necessità, nessuna scheda video in commercio è lontanamente in grado di saturare la banda passante di una connessione PCIe 1.1 a 16 linee elettriche, neanche questa 3870X2. Puoi tranquillamente evitare di avere complessi d'inferiorità per ora, e credo anche per l'immediato futuro. :asd:
Quoto. Le bande passanti delle connessioni pci ex son ben lungi dall' essere saturate, così come quelle dei canali sata. E tutto marketing. ;)
Lo standard 2.0 per ora non è realmente una necessità, nessuna scheda video in commercio è lontanamente in grado di saturare la banda passante di una connessione PCIe 1.1 a 16 linee elettriche, neanche questa 3870X2. Puoi tranquillamente evitare di avere complessi d'inferiorità per ora, e credo anche per l'immediato futuro. :asd:
C'é un solo caso in cui il Pci-E 2.0 mostra vantaggi... schede con poca ram, come ad esempio la 3850 256mb.
Lí la differenza la fa la maggior velocitá nella trasferenza di dati.
La banda passante invece é lungi dall' essere saturata :)
Faustinho DaSilva
15-02-2008, 16:06
C'é un solo caso in cui il Pci-E 2.0 mostra vantaggi... schede con poca ram, come ad esempio la 3850 256mb.
Lí la differenza la fa la maggior velocitá nella trasferenza di dati.
La banda passante invece é lungi dall' essere saturata :)
:asd:
MenageZero
16-02-2008, 11:46
C'é un solo caso in cui il Pci-E 2.0 mostra vantaggi... schede con poca ram, come ad esempio la 3850 256mb.
Lí la differenza la fa la maggior velocitá nella trasferenza di dati.
La banda passante invece é lungi dall' essere saturata :)
:wtf:
quantomeno in scenari in cui la q.tà di dati da spostare nell'unità di tempo è >= al valore max permesso dalla connessione in questione (valore, con rif. al max teorico, a cui spesso ci si riferisce con "banda passante" o "bandwidth/largh. di banda", non so fino a che punto propriamente, rispetto al significato riginale, in altri ambiti, dei termini in questione), sostanzialmente:
"velocitá nella trasferenza di dati" = "banda passante"
(a meno che tu con "velocitá nella trasferenza" non intenda qualcosa di sostanzialmente diverso da "velocità di trasferimento", ma dal contesto non penso proprio)
l'essere lungi o meno dall'essere saturata, la banda del pci-e (o cmq in generale di altri bus) dipende proprio da cosa fa la periferica:
certo ad ora probabilmente è tutt'altro che ferquente, se mai accade, che il pci-e 2.0 o anche 1.x diventi il fattore limitante delle prestazioni, per mancanza di badwidth, almeno con le s.v. che hanno 512MB di vram o più,
tuttavia proprio nell'esempio che facevi tu (ovvero app. che richiede nettamente più mem. video di quanta fisicamente presente sulla s.v., sottintendendo che si abbiano cpu e gpu abbastanza performanti da non essere la loro capacità di calcolo il primo collo di bottiglia), tanto maggiore è il max data-rate (banda) possibile tra periferica e mem. centrale tanto meglio, da cui il fatto che in un tale scenario il pci-e 2.0 potrebbe dare vantaggi prestazionali rispetto alla v. 1.x, proprio perché la "banda" della connessione 1.x verrebbe in effetti "saturata" dall'uso che la periferica ne fa (così come come con ogni probabilità verrebbe "saturato" anche il pci-e 2.0, ma dato che tale vers. offre una "banda" circa doppia, l' op. di i/o verrebbe cmq completata più rapidamente)
illidan2000
16-02-2008, 12:04
:wtf:
quantomeno in scenari in cui la q.tà di dati da spostare nell'unità di tempo è >= al valore max permesso dalla connessione in questione (valore, con rif. al max teorico, a cui spesso ci si riferisce con "banda passante" o "bandwidth/largh. di banda", non so fino a che punto propriamente, rispetto al significato riginale, in altri ambiti, dei termini in questione), sostanzialmente:
"velocitá nella trasferenza di dati" = "banda passante"
(a meno che tu con "velocitá nella trasferenza" non intenda qualcosa di sostanzialmente diverso da "velocità di trasferimento", ma dal contesto non penso proprio)
l'essere lungi o meno dall'essere saturata, la banda del pci-e (o cmq in generale di altri bus) dipende proprio da cosa fa la periferica:
certo ad ora probabilmente è tutt'altro che ferquente, se mai accade, che il pci-e 2.0 o anche 1.x diventi il fattore limitante delle prestazioni, per mancanza di badwidth, almeno con le s.v. che hanno 512MB di vram o più,
tuttavia proprio nell'esempio che facevi tu (ovvero app. che richiede nettamente più mem. video di quanta fisicamente presente sulla s.v., sottintendendo che si abbiano cpu e gpu abbastanza performanti da non essere la loro capacità di calcolo il primo collo di bottiglia), tanto maggiore è il max data-rate (banda) possibile tra periferica e mem. centrale tanto meglio, da cui il fatto che in un tale scenario il pci-e 2.0 potrebbe dare vantaggi prestazionali rispetto alla v. 1.x, proprio perché la "banda" della connessione 1.x verrebbe in effetti "saturata" dall'uso che la periferica ne fa (così come come con ogni probabilità verrebbe "saturato" anche il pci-e 2.0, ma dato che tale vers. offre una "banda" circa doppia, l' op. di i/o verrebbe cmq completata più rapidamente)
a parte il linguaggio quasi incomprensibile. ma allo stato attuale non c'è nessuna scheda video che possa saturare la banda. E si prevede che neppure le nuove 9800gtx nVidia possano farlo. Quindi NON è un problema attuale il cambio di mobo
dileovalentino
18-02-2008, 20:03
nvidia sara anche superiore come prestazioni, ma come la mettiamo col prezzo?nvidia mi sembra decisamente piu costosa......io ho una hd2900pro....sinceramente mi lasciamo perplesso le temperature di funzionamento delle scheda equipaggiate nvidia.....100 gradi non sono un po troppi?
Evangelion01
18-02-2008, 23:13
nvidia sara anche superiore come prestazioni, ma come la mettiamo col prezzo?nvidia mi sembra decisamente piu costosa......io ho una hd2900pro....sinceramente mi lasciamo perplesso le temperature di funzionamento delle scheda equipaggiate nvidia.....100 gradi non sono un po troppi?
Non per dire, ma proprio la 2900 non è che abbia sto sistema di dissipazione efficace, anzi le 8800 , gt a parte scaldano meno della tua...vedasi link (http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html). semmai è buono quello della 3870x2 , che tiene la vga bella fresca. Gli ingegneri Ati in questo senso hanno imparato qualcosa dagli errori progettuali della 2900. ;)
Faustinho DaSilva
19-02-2008, 13:55
Non per dire, ma proprio la 2900 non è che abbia sto sistema di dissipazione efficace, anzi le 8800 , gt a parte scaldano meno della tua...vedasi link (http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html). semmai è buono quello della 3870x2 , che tiene la vga bella fresca. Gli ingegneri Ati in questo senso hanno imparato qualcosa dagli errori progettuali della 2900. ;)
si ma ha avuto un peso (1097g):D :D :D :D :D
MenageZero
19-02-2008, 15:45
a parte il linguaggio quasi incomprensibile. ma allo stato attuale non c'è nessuna scheda video che possa saturare la banda. E si prevede che neppure le nuove 9800gtx nVidia possano farlo. Quindi NON è un problema attuale il cambio di mobo
mi potresti anche spiegare il motivo per cui "allo stato attuale non c'è nessuna scheda video che possa saturare la banda" ?
perché, per es, se avessi una app che carica/crea 512MB di dati nella mem. video e una s.v con 256MB di mem, la banda del pci-e non potrebbe cmq esser saturata ?
c'è forse un collo di bottiglia hw nella gpu, che mantiene il data-rate max possibile sull'intefaccia pci-e nettamente inferiore ai 4GB/s, sempre e cmq e anche sulle gpu pci-e 2.0 ? (dove il val max per il pci-e 2.0 dovrebbe essere circa 8GB/s, valori riferiti alla singola direzione);
ci sono inoltre test in cui sono presenti s.v. tra cui la diff. è la q.tà di vram (per es gts320 vs gts640), e ci sono casi in cui le prestazioni di quella com meno vram "crollano" rispetto all'altra (anche se ovviamente non certo la maggoranza dei casi)
ps: mai sostenuto che ci fosse il problema del "cambio di mobo", nel senso che di solito il giocatore esigente che arriva a porsi questo tipo di interrogativi ha una s.v. in cui la vram alle risoluzioni a cui gioca è sufficiente anche per i titoli più esigenti del momento, quindi la gpu non necessita di un massiccio uso della ram centrale e quindi la connessione gpu<->chipset non diventa un fattore limitante delle prestazioni;
inoltre, se anche stessi "sotto-sfruttando" la mia s.v. in quanto pci-e 2.0 e ed il chipset pci-e 1.0, significherebbe che ho troppa poca vram per quello che voglio fare ed anche passando ad una mobo pci-e 2.0, gli eventuali miglioramenti sarebbero irrisori rispetto al passare ad una s.v.(ovviamente non meno potente) con più memoria, dato che cmq la banda verso la memoria video è molto maggiore anche di quella del pci-e 2.0;
(senza contare che anche se aumenti il data-rate del bus a cui è connessa la s.v. , un fattore limitante potrebbe cmq essere la effettiva velocità dell'interfaccia dati della ram centrale, nonché eventualmente quella di eventuali altre connessioni lungo il "percorso" gpu<->ram)
tuttavia è un discorso ben diverso dall'affermare che non è possibile saturare il pci-e x16 1.x
illidan2000
19-02-2008, 16:33
mi potresti anche spiegare il motivo per cui "allo stato attuale non c'è nessuna scheda video che possa saturare la banda" ?
perché, per es, se avessi una app che carica/crea 512MB di dati nella mem. video e una s.v con 256MB di mem, la banda del pci-e non potrebbe cmq esser saturata ?
tuttavia è un discorso ben diverso dall'affermare che non è possibile saturare il pci-e x16 1.x
io intendevo appunto la banda del pci x16 1.x
MenageZero
19-02-2008, 18:47
io intendevo appunto la banda del pci x16 1.x
mmm... probabilmente dipende da me e dal fatto che avrò forse qualche neurone in sciopero non autorizzato, ma quindi volevamo esprimere lo stesso concetto ? o invece proprio no ? :stordita:
mmm... probabilmente dipende da me e dal fatto che avrò forse qualche neurone in sciopero non autorizzato, ma quindi volevamo esprimere lo stesso concetto ? o invece proprio no ? :stordita:
Bon, prima mi sono spiegato da cani :)
Quello che intendo io é che con schede di fascia altissima oggi non si riesce a saturare la banda, ma la maggior parte delle persone continua a credere che fascia alta sia sinonimo di trasferenze assurde.
Ma siccome hanno quantitativi di memoria altrettanto alti questo non accade.
Invece una schedina che oggi é da fascia media come la 3850 256mb, e che quindi ha una quantitá di memoria bassa (anche se la potenza del chip é buona), ha bisogno di questa banda per poter rinnovare i dati il piú velocemente possibile.
MenageZero
19-02-2008, 19:52
Bon, prima mi sono spiegato da cani :)
Quello che intendo io é che con schede di fascia altissima oggi non si riesce a saturare la banda, ma la maggior parte delle persone continua a credere che fascia alta sia sinonimo di trasferenze assurde.
Ma siccome hanno quantitativi di memoria altrettanto alti questo non accade.
Invece una schedina che oggi é da fascia media come la 3850 256mb, e che quindi ha una quantitá di memoria bassa (anche se la potenza del chip é buona), ha bisogno di questa banda per poter rinnovare i dati il piú velocemente possibile.
penso che allora eravamo sostanzialmente convergenti su tale concetto :)
Parappaman
19-02-2008, 20:34
Bon, prima mi sono spiegato da cani :)
Quello che intendo io é che con schede di fascia altissima oggi non si riesce a saturare la banda, ma la maggior parte delle persone continua a credere che fascia alta sia sinonimo di trasferenze assurde.
Ma siccome hanno quantitativi di memoria altrettanto alti questo non accade.
Invece una schedina che oggi é da fascia media come la 3850 256mb, e che quindi ha una quantitá di memoria bassa (anche se la potenza del chip é buona), ha bisogno di questa banda per poter rinnovare i dati il piú velocemente possibile.
E' assurdo aspettarsi un miglioramento prestazionale di una scheda con poca VRAM dall'aumento della velocità del bus a cui si appoggia: qualunque tipo di connessione concepibile sarà di diversi ordini di grandezza più lenta anche del più lento bus GPU-VRAM di una scheda di fascia media o anche inferiore (ovviamente parlando delle prestazioni delle schede odierne), e fungerà in ogni caso da collo di bottiglia nelle situazioni critiche. Se ad esempio la scheda X ha un'ampiezza di banda di memoria di 32 GBps, di sicuro anche una connessione PCI-e 2.0 a 16 linee (che dovrebbe aggirarsi sugli 8 GBps, in condizioni ottimali, in una singola direzione) non sarebbe sufficiente per gestire efficacemente il flusso di dati necessario, e il crollo di FPS al termine della memoria on board ci sarebbe in ogni caso.
Il nuovo bus è nato per ben altre esigenze, e queste esigenze con l'hardware disponibile al giorno d'oggi non sono sentite. :O
MenageZero
19-02-2008, 20:50
E' assurdo aspettarsi un miglioramento prestazionale di una scheda con poca VRAM dall'aumento della velocità del bus a cui si appoggia: qualunque tipo di connessione concepibile sarà di diversi ordini di grandezza più lenta anche del più lento bus GPU-VRAM di una scheda di fascia media o anche inferiore (ovviamente parlando delle prestazioni delle schede odierne), e fungerà in ogni caso da collo di bottiglia nelle situazioni critiche. Se ad esempio la scheda X ha un'ampiezza di banda di memoria di 32 GBps, di sicuro anche una connessione PCI-e 2.0 a 16 linee (che dovrebbe aggirarsi sugli 8 GBps, in condizioni ottimali, in una singola direzione) non sarebbe sufficiente per gestire efficacemente il flusso di dati necessario, e il crollo di FPS al termine della memoria on board ci sarebbe in ogni caso.
Il nuovo bus è nato per ben altre esigenze, e queste esigenze con l'hardware disponibile al giorno d'oggi non sono sentite. :O
quello che dici non fa una piega, ma lui non voleva mica dire che, se hai una "scheda x" pci-e 2.0 (su chipset pci-e 1.0) che ha poca vram per il "gioco y" e la passi su un chipset pci-e 2.0, la maggior velocità del bus "compensa" la vram(con appunto banda cmq molto maggiore) che non hai,
ma solo che, se hai una situazione in cui il primo collo di bottiglia è la q.tà di vram (ovvero di conseguenza la lentezza del path gpu <-> ram centrale), a parità di tutto il resto se aumenti la banda del bus(ammesso e non concesso che verso la ram non ci siano altri colli di bottiglia rendono di loro la cosa inutile) qualche (piccolo) beneficio potresti averlo
;)
illidan2000
19-02-2008, 21:22
quello che dici non fa una piega, ma lui non voleva mica dire che, se hai una "scheda x" pci-e 2.0 (su chipset pci-e 1.0) che ha poca vram per il "gioco y" e la passi su un chipset pci-e 2.0, la maggior velocità del bus "compensa" la vram(con appunto banda cmq molto maggiore) che non hai,
ma solo che, se hai una situazione in cui il primo collo di bottiglia è la q.tà di vram (ovvero di conseguenza la lentezza del path gpu <-> ram centrale), a parità di tutto il resto se aumenti la banda del bus(ammesso e non concesso che verso la ram non ci siano altri colli di bottiglia rendono di loro la cosa inutile) qualche (piccolo) beneficio potresti averlo
;)
ma in effetti non c'è, poiché i colli di bottiglia sono appunto la velocità della vram stessa
MenageZero
19-02-2008, 21:43
ma in effetti non c'è, poiché i colli di bottiglia sono appunto la velocità della vram stessa
cmq volevi dirlo senza la "v" , suppongo :D
Parappaman
19-02-2008, 22:17
Senza la "v" ovviamente. Ribadisco che la necessità del PCIe 2.0 non è per niente legata allo specifico caso in cui la VRAM non sia sufficiente a coprire il fabbisogno della data applicazione. Passare da 10 a 12 fps in quella data applicazione non sarebbe certo il motivo scatenante per l'adozione di una nuova tecnologia... :O
Senza la "v" ovviamente. Ribadisco che la necessità del PCIe 2.0 non è per niente legata allo specifico caso in cui la VRAM non sia sufficiente a coprire il fabbisogno della data applicazione. Passare da 10 a 12 fps in quella data applicazione non sarebbe certo il motivo scatenante per l'adozione di una nuova tecnologia... :O
Infatti non consiglierei mai di comprare una mobo pci-e 2.0 per avere il 20% di performance su una 3850...
Fai prima a prendere questa differenza e comprare una 8800gts g92 :D
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.