View Full Version : NVIDIA GeForce 8800 GT, potenza a buon prezzo
si ti sei spiegato da una parte la 8800gts oc e dall'altra la 8800gt default. ma tutto questo perchè?
;)
si anche perchè costa di meno la 8800GTS non conviene :D
edit : ( ovviamente volevo dire 8800GTS )
Jaguar64bit
30-10-2007, 13:35
si ti sei spiegato da una parte la 8800gts oc e dall'altra la 8800gt default. ma tutto questo perchè?
;)
errore ..
da una parte l'8800GT occata di fabbrica e dall'altra la 8800GTS dowcloccata di fabbrica.. , ecco il perchè..;)
io cmq la equipaggerei con un bel hr-03 plus così da poterla oc a manetta dato che presumo salira una bestia visto il processo produttivo a 65
infatti...giusta considerazione...questa va tenuta un pò a bada ma sale d sicuro...
Jaguar64bit
30-10-2007, 13:41
Che dite sarà possibile installare questo sistema di dissipazione dato che scalda un po' troppo?
http://www.vmodtech.com/spaw/images/vf1000_f_p.jpg
Si abbasserà un po di piu' la temperatura...
IN DOLCE ATTESA DELLA 8800 GT
8800GT 220€ + 40€ con questo dissi siamo a 260€
cmq se vendo la mia e per pazzia passo alla 8800GT di sicuro gli cambio il dissi.... ottimo questo zalman ma anche il thermalright non è male.
errore ..
da una parte l'8800GT occata di fabbrica e dall'altra la 8800GTS dowcloccata di fabbrica.. , ecco il perchè..;)
si ma cmq secondo me qui il confronto cerca di farlo soprattutto chi ha già una 8800gts e allora è comprensibile ma chi deve comprare non lo fa di sicuro il confronto e non sta a pensare alle frequenze...quella va di + e costa meno,ha 112 stream contro 96....se vuoi gli metti un buon dissipatore e sali ancora...questa è la castrata della gtx non della gts.il VP2 è anche interessante...
Jaguar64bit
30-10-2007, 13:50
si ma cmq secondo me qui il confronto cerca di farlo soprattutto chi ha già una 8800gts e allora è comprensibile ma chi deve comprare non lo fa di sicuro il confronto e non sta a pensare alle frequenze...quella va di + e costa meno,ha 112 stream contro 96....se vuoi gli metti un buon dissipatore e sali ancora...questa è la castrata della gtx non della gts
chi adesso deve scegliere una vga di fascia media deve puntare su una 8800GT... al max cambierà il dissi.
ovvio che il mio dicorso era dall'ottica di un possessore di 8800GTS.
ovvio che il mio dicorso era dall'ottica di un possessore di 8800GTS.
secondo me cmq fai bene a tenerla e aspetti la prox gen
Jaguar64bit
30-10-2007, 14:10
secondo me cmq fai bene a tenerla e aspetti la prox gen
posso ancora tenerla perchè gioco su di un monitor lcd che non sorpassa la risol. di 1280x1024 , certo se mi gira vendo la GTS a 140€ ci aggiungo 100€ e mi ritrovo una 8800GT nel case.. , bah vedrò..per ora l'orientamento e di tenermi la GTS... ma è innegabile che la GT sia riuscita bene.
Grave Digger
30-10-2007, 14:14
non c'è bs82 a dire che R600 è invincibile :D ????
che strano,da quando si è appurato come vada R600,è sparito dalla circolazione limitando i propri interventi ad osannare i proci AMD denigrando intel :read: .....
Free Gordon
30-10-2007, 14:16
E' una scheda che rasenta l'incredibile :
1) perchè è stata chiamata 8800gt invece di 8900gt
2) come mai nvidia ha deciso di fare concorrenza a se stessa (GTX) ??
3) per chi come me ha in negozio , ed ha pagato 280€ una 8800GTS640 , cosa fa ??
1) perchè le 8900 avranno un'architettura differente, probabilmente.
2) perchè con l'uscita delle 8900 sarà cmq una scheda di fascia media questa 8800GT. ;)
3) mi dispiace molto per tutti gli onesti negozianti, questo è un vero problema per loro (ma anche per i distributori).
non c'è bs82 a dire che R600 è invincibile :D ????
che strano,da quando si è appurato come vada R600,è sparito dalla circolazione limitando i propri interventi ad osannare i proci AMD denigrando intel :read: .....
LOL :D
Free Gordon
30-10-2007, 14:23
Le 8800GT sono solo DX10. :)
Sei sicuro?
Ecco, ora ci hanno aggiunto pure la griglia: per il barbecue è perfetta... :asd:
A parte gli scherzi, la scheda è ottima, ma sinceramente non mi pare il tipo di scheda adatta per il passive cooling. ;)
Basta downvoltarle.
Bisogna vedere quanto costerà la passiva..
Free Gordon
30-10-2007, 14:27
la specifche DX10.1 richiedono (tra le varie cose) AA 4x come minimo, quindi è presumibile che ci sia AA free, altrimenti in molti giochi si potrebbe essere fregati, quindi è altrettanto presumibile che le nuove ati abbiano questa specifica.
Le 10.1 non richiedono AA free ma AA 4x inserito nel motore grafico e non come filtro applicato dall'hw, post-processing.
MiKeLezZ
30-10-2007, 14:44
Ci sono alcune cose da precisare :
fatto saldo che l'8800GT è più veloce come architettura , c'è da dire che le 8800GTS vengono vendute downcloccate a default perchè tutti i modelli di 8800 GTS potrebbero essere venduti da nvidia tranquillamente a 600/1800 con gli shader alzati di frequenza in perfetta stabilità col dissi stock e con temperature normali , non si può non tener conto dell'overcolck che una scheda può raggiungere ( che poi nel caso della GTS non lo chiamerei nemmeno overclock quando si parla di frequenze tipo 600/1800 che vengono raggiunte in scioltezza e stabilità massima da tutti i modelli di GTS in commercio ) , sopratutto tenendo in conto che viene venduta molto bassa di frequenze..
in definitiva mi aspetterei di vedere una rece con una 8800GTS alle frequenze di una 8800GT e dunque con anche gli shader alzati di frequenza con rivatuner , ok la GTS perderebbe il confronto per via dell'architettura ma le differenze sarebbero meno marcate...
non so se mi sono spiegato.Se vuoi mettere i puntini sulle i, perchè non dici anche che la 8800GT ha memorie da 1GHz (visto che a default sono 0,9GHz significa sono downclockate) e che si overclocca fino a 700MHz senza problemi (da 600MHz)... quindi torniamo lì
non c'è bs82 a dire che R600 è invincibile :D ????
che strano,da quando si è appurato come vada R600,è sparito dalla circolazione limitando i propri interventi ad osannare i proci AMD denigrando intel :read: .....
ma a noi che ce ne frega? non mi sembra sia un commento inerente alla notizia, anzi.
assolutamente no, però come ho + volte detto nelle revisioni ati in genere fa meglio, e nn sai come lo spero, perchè io voglio giocare bene a crysis cacchio:mad: , e ho riposto veramente un mucchio di speranze nella serie 3***
eh pure io vorrei, ma al momento sto gioco sembra proprio fuori portata per le schede attuali, basti vedere gli fps ridicoli che anche le 8800gtx\ultra hanno :asd:
secondo me questo gioco ce lo godremo con la prossima generazione di schede, per il momento bisogna accontentarsi :)
+Lonewolf+
30-10-2007, 14:54
non c'è bs82 a dire che R600 è invincibile :D ????
che strano,da quando si è appurato come vada R600,è sparito dalla circolazione limitando i propri interventi ad osannare i proci AMD denigrando intel :read: .....
ora cosa centra???
niente:rolleyes:
il Caccia
30-10-2007, 14:54
a me sta scheda piace un casino, sto vermante pensando di prenderla..pero' tra 20 gg come la mettiamo con le 3850? che vadano meglio o peggio di sicuro si abbassa il prezzo delle 8800gt..che si fa? comprate o aspettate? tanto crysis e call of duty 4 escono tra un paio di settimane, per cui..
io ho deciso di aspettare questi 15-20 giorni ma sto facendo fatica. Davvero, la tentazione di accaparrarsi sto mostriciattolo è grossa
tatovm2s
30-10-2007, 14:59
nessuna news sulla dissipazione delle altre marche?
il Caccia
30-10-2007, 15:01
io ho deciso di aspettare questi 15-20 giorni ma sto facendo fatica. Davvero, la tentazione di accaparrarsi sto mostriciattolo è grossa
concordo, fa una gola matta
nonikname
30-10-2007, 15:02
1) perchè le 8900 avranno un'architettura differente, probabilmente.
2) perchè con l'uscita delle 8900 sarà cmq una scheda di fascia media questa 8800GT. ;)
3) mi dispiace molto per tutti gli onesti negozianti, questo è un vero problema per loro (ma anche per i distributori).
1) Conoscendo il reparto marketing nVIDIA ho come l'impressione che l'8900GT non uscirà mai : che abbiano in mente un nuovo criterio di numerazione ??? (aka AMD , Intel)
2) Resta il fatto che i distibutori hanno interrotto gli ordini di GTS gia da un mese a questa parte , mentre le GTX hanno ancora una discreta EOL
3) E' una cosa che mi è già successa e che continuerà a succedermi...solo che essendo buono x natura tendo a non riuscire a rifilare pacchi ...spero solo che mi capiti il "fissato" che vuole a tutti i costi la VGA con più memoria... ;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3918&Itemid=34
Sei sicuro?
Al 99.9%. :D
Scusa, se tu avessi un elemento di marketing come il supporto alle DX10.1 pensi che non lo scriveresti sulle scatole/documenti/ovunque? :D
Io penso di sì. Tra l'altro credo che G92, tolte alcune modifiche alle ROPs, il chip NVIO nella gpu e il VP2, è esattamente identico a G80 (solo a 65nm).
Lo hanno confermato pure spokesperson ufficiali che gli SP sono identici tra G80 e G92, mentre per le DX10.1 bisognerebbe fare delle modifiche (per consentire migliorie al vertex shader processing introdotte dalle nuove librerie). E questo è solo uno degli esempi. ;)
io ho deciso di aspettare questi 15-20 giorni ma sto facendo fatica. Davvero, la tentazione di accaparrarsi sto mostriciattolo è grossa
Prendila no? Non credo che allo stesso prezzo tu possa prendere qualcosa che va molto di più da renderla obsoleta ;)
MiKeLezZ
30-10-2007, 15:18
credo che G92
- tolte alcune modifiche alle ROPs,
- tolte alcune modifiche agli stream processors,
- il chip NVIO nella gpu,
- il VP2,
- a 65nm,
- 2x dual-link DVI outputs + HDCP
- PCI-e 2.0
- con supporto 256/512/1GB
è esattamente identico a G80:asd:
Un ali da 550W è sufficiente per alimentare correttamente un picci provvisto di Intel Core 2 DUO E6600, 2gbRAM value, 2 HDD da 7200RPM e scheda video 8800GT? Grazie per le eventuali risposte
Grave Digger
30-10-2007, 15:19
Al 99.9%. :D
Scusa, se tu avessi un elemento di marketing come il supporto alle DX10.1 pensi che non lo scriveresti sulle scatole/documenti/ovunque? :D
Io penso di sì. Tra l'altro credo che G92, tolte alcune modifiche alle ROPs, il chip NVIO nella gpu e il VP2, è esattamente identico a G80 (solo a 65nm).
Lo hanno confermato pure spokesperson ufficiali che gli SP sono identici tra G80 e G92, mentre per le DX10.1 bisognerebbe fare delle modifiche (per consentire migliorie al vertex shader processing introdotte dalle nuove librerie). E questo è solo uno degli esempi. ;)
sulle directx 10 e 10.1 la storia è piuttosto nebulosa,perchè a quanto pare le 10.1 rendono obbligatori alcuni strumenti ed alcuni effetti che in precedenza erano facoltativi programmando in dx10 :) ....
in ogni caso,al di là del fatto che questa gt si appresta a diventare un best seller nella sua fascia di prezzo,è veramente una scheda che offre prestazioni davvero buone,oltre che rispetto alla concorrenza,addirittura anche nei confronti delle schede nvidia stesse :eek: ......
il Caccia
30-10-2007, 15:22
Un ali da 550W è sufficiente per alimentare correttamente un picci provvisto di Intel Core 2 DUO E6600, 2gbRAM value, 2 HDD da 7200RPM e scheda video 8800GT? Grazie per le eventuali risposte
dipende da quale alimentatore..fai riferimento ai thread sugli ali
Un ali da 550W è sufficiente per alimentare correttamente un picci provvisto di Intel Core 2 DUO E6600, 2gbRAM value, 2 HDD da 7200RPM e scheda video 8800GT? Grazie per le eventuali risposte
se non è una "cineseria" ma un ali di buona marca direi sicuramente di sì.
desmacker
30-10-2007, 15:24
Un'ottima scheda ad un prezzo invitante,però il dissipatore mi sembra un pò sottodimensionato.
Adesso tocca ad Ati con la HD3870 e HD3850 così finalmente potremo fare dei confronti rispetto all' 8800Gt e sui miglioramenti dell'architettura rispetto all'R600.
Prezioso
30-10-2007, 15:25
ragazzi ma quale best seller.....è una scheda a fine carriera.....voi ancora pensate di comprare una 8800?!?!?! mha....:rolleyes:
per me è una scelta nvidia fatta per arrangiare ancora un pò dato che magari ancora non sono pronti con chip 10.1....e poi è un anno che ci sono le 8800....per me non è un acquisto sensato considerando che già ora una Ultra non è un grankè con i primi 'effetti' dx10 figuratevi una GT.....non ha VITA LUNGA come si diceva 1 anno fa quando si preferiva una 8800 gts ad una x1950xtx.....e infatti questa vita più lunga io non la vedo proprio neanche ora :D
Non dovrebbe essere una cineseria!Vorrei cambiare questi componenti e riutilizzare almeno l'ali che è un Super Flower. Grazie per l'info
nonikname
30-10-2007, 15:35
Primo batch di 50k schede terminato , secondo pacco di 50k gpu inviate da nvidia agli assemblatori...
Ieri sera provando crysis con la Biostar 8800gt per ben 2 ore sono arrivato a 92C° (case chiuso VGA 740-1050-1760) e la ventola rimaneva sempre al 30-40% della velocità max...
Il punto è : il thermal trottle di questa scheda è 130 C° , quindi siamo ben lontani dalla soglia di rallentamento del core .. e l'incremento dei gradi nei confronti della GTX , all'interno del case , è di appena 2 C° .....perciò non fatevi preoccupazioni strane riguardo la temp.
Se avete case piccoli o non volete cambiare il dissi standard ricordatevi la 6800gt... questa 8800gt è perfettamente comparabile alla mitica 6800gt , anche se decisamente più silenziosa...
il Caccia
30-10-2007, 15:36
Non dovrebbe essere una cineseria!Vorrei cambiare questi componenti e riutilizzare almeno l'ali che è un Super Flower. Grazie per l'info
non conosco i super flower,ma dal nome non promette niente di buono come affidabilità, mi sa che dovrai cambiarlo, pero' vai sul thread degli alimentatori, li sai di sicuro..
prezioso hai visto i bench della 8800gt? a me non sembra per niente una scheda nata già vecchia, anche perchè credo sia la prima a 65nm..poi fai tu
il Caccia
30-10-2007, 15:38
mi mandate un pvt con il negozio online in cui la trovate disponibile please?
Prezioso
30-10-2007, 15:42
per me una scheda che nasce 1 anno dopo....è vecchia....paragono questa mossa nvidia ad esempio ai vari amd black edition di amd.....processori e gpu tirate per 'arrangiare' un altro poco.....
e poi se per te non è 'inutile' una scheda che non serve in dx10 ora......figurati tra 5/6 mesi....:rolleyes: ....
nonikname come va Crysis? dettagli? fps?
non conosco i super flower,ma dal nome non promette niente di buono come affidabilità, mi sa che dovrai cambiarlo, pero' vai sul thread degli alimentatori, li sai di sicuro..
Sono ottimi alimentatori.
xnonikname: il sistema di controllo automatico delle ventole io non lo sopporto. La variazione di velocità la trovo fastidiosa, e devo stare ai comodi del sensore che fa' accelerare la ventola ma solo a 82 C° (nel caso della 8800GTS).
Loro potranno pure dirmi che 82 C°, 92° sono sicuri, ma il MIO silicio preferisco tenerlo a temp. più basse.
Meglio tenere la ventola fissa al 50-60%, o più ma solo in caso di overclock.
In questo modo, tengo la mia 8800GTS 640Mb, a 260/2000 nel 2D e 675/1566/2000 nel 3D, ventola a 1950g (75%) e Tmax di 70-72 C°, con Tamb. di 21 C°, case chiuso.
halduemilauno
30-10-2007, 15:47
Primo batch di 50k schede terminato , secondo pacco di 50k gpu inviate da nvidia agli assemblatori...
Ieri sera provando crysis con la Biostar 8800gt per ben 2 ore sono arrivato a 92C° (case chiuso VGA 740-1050-1760) e la ventola rimaneva sempre al 30-40% della velocità max...
Il punto è : il thermal trottle di questa scheda è 130 C° , quindi siamo ben lontani dalla soglia di rallentamento del core .. e l'incremento dei gradi nei confronti della GTX , all'interno del case , è di appena 2 C° .....perciò non fatevi preoccupazioni strane riguardo la temp.
Se avete case piccoli o non volete cambiare il dissi standard ricordatevi la 6800gt... questa 8800gt è perfettamente comparabile alla mitica 6800gt , anche se decisamente più silenziosa...
ti quoto.
;)
il Caccia
30-10-2007, 15:48
Sono ottimi alimentatori.
allora ritiro, è da un po' che non li seguo in effetti.. buon per mgnts :-)
prezioso: inutile con dx 10? ripeto hai visto i bench??
Prezioso
30-10-2007, 15:56
allora ritiro, è da un po' che non li seguo in effetti.. buon per mgnts :-)
prezioso: inutile con dx 10? ripeto hai visto i bench??
se per te 35/38 fps di media sono buoni....per me no....sarà ke sono abituato a giocare online e quindi voglio ALMENO 50fps.....
cmq per me ora come ora non vale niente sta scheda....comprerei solo una 8800ultra USATA :D
il Caccia
30-10-2007, 16:00
beh chiaro hai ragione, pero' sul mercato ci sono pochissime schede che con dx 10 vadano di piu' della 8800 gt, e costano quasi il suo doppio..
Ciao.
Chi aiuterebbe un ignorante in materia?
Vorrei cambiare la mia Radeon X600. Ho una mobo ASUS P5Gd1 con un P4 3200 Prescott e 1 giga di Ram ddr-400.
Pensate che questa scheda sia eccessiva e che il sistema non riesca a sfruttarla appieno? I
In alternativa, che scheda mi consigliate date le caratteristiche del mio pc?
Grazie per l'aiuto.
ma scusate na cosa... ma Crysys va giocato "per forza" a risoluzioni sovrumane? :D
+Lonewolf+
30-10-2007, 17:19
ma scusate na cosa... ma Crysys va giocato "per forza" a risoluzioni sovrumane? :D
beh...:rolleyes:
halduemilauno
30-10-2007, 17:21
Ciao.
Chi aiuterebbe un ignorante in materia?
Vorrei cambiare la mia Radeon X600. Ho una mobo ASUS P5Gd1 con un P4 3200 Prescott e 1 giga di Ram ddr-400.
Pensate che questa scheda sia eccessiva e che il sistema non riesca a sfruttarla appieno? I
In alternativa, che scheda mi consigliate date le caratteristiche del mio pc?
Grazie per l'aiuto.
la sez. giusta dove chiedere è questa.
http://www.hwupgrade.it/forum/forumdisplay.php?f=71
cmq si con magari una occatina al procio.
;)
il Caccia
30-10-2007, 17:23
il problema è che anche a 1280x1024 con crysis ci vuole una scheda top con dx10, e i frame non sono poi tanti..il che vuol dire che se tra qualche mese esce un nuovo gioco un tantino piu' pesante la scheda video top di oggi già è in crisi
ghiltanas
30-10-2007, 17:28
se per te 35/38 fps di media sono buoni....per me no....sarà ke sono abituato a giocare online e quindi voglio ALMENO 50fps.....
cmq per me ora come ora non vale niente sta scheda....comprerei solo una 8800ultra USATA :D
primo nn tutti vogliono giocare a crysis, ci sono moltissimi altri titoli, altri che stanno per uscire come ut3 e cod4, che girano e gireranno molto bene con questa scheda. Secondo, molti hanno esigenza di cambiare scheda urgentemente, e cmq nn tutti possono spendere cifre atronomiche per una vga, e per 250 comprese ss ti porti a casa già un bell'oggetto. Terzo la nvidia poteva tranquillamente sbattersene ed evitare di lanciarle magari ritoccando leggermente le soluzioni precedenti (gts e gtx) quindi gli acquirenti ci avrebbero rimesso rispetto a questa soluzione.Quarto personalmente se le soluzioni di prossima uscita di ati nn mi soddisferanno punterò a questa scheda che mi pare molto buona
+Lonewolf+
30-10-2007, 17:37
Ciao.
Chi aiuterebbe un ignorante in materia?
Vorrei cambiare la mia Radeon X600. Ho una mobo ASUS P5Gd1 con un P4 3200 Prescott e 1 giga di Ram ddr-400.
Pensate che questa scheda sia eccessiva e che il sistema non riesca a sfruttarla appieno? I
In alternativa, che scheda mi consigliate date le caratteristiche del mio pc?
Grazie per l'aiuto.
quel procio ti iperlimita:eek:
il problema è che anche a 1280x1024 con crysis ci vuole una scheda top con dx10, e i frame non sono poi tanti..il che vuol dire che se tra qualche mese esce un nuovo gioco un tantino piu' pesante la scheda video top di oggi già è in crisi
Credo che fino al 2009 non vedremo engine più avanzati del CryEngine 2. L'investimento economico e di risorse umane di Crytek è stato elevatissimo, irripetibile per molte altre software house, e il risultato è un motore che sarà al top per molto tempo, e di cui ancora abbiamo visto poco. E' altamente probabile che oltre Very High ci siano almeno uno o perfino due livelli di dettaglio superiori. (Ultra ed Extreme?)
il Caccia
30-10-2007, 17:51
beh allora cè da pensare, forse è meglio aspettare un attimo e prendere una ultra o aspettare 3850-3870 di ati e vedere come vanno, e poi decidere
Alessio73
30-10-2007, 18:02
Mi fa piacere che qualcuno che posta commenti qui sia consapevole che la 8800Gt è nata vecchia....
Pancho Villa
30-10-2007, 18:18
Ciao.
Chi aiuterebbe un ignorante in materia?
Vorrei cambiare la mia Radeon X600. Ho una mobo ASUS P5Gd1 con un P4 3200 Prescott e 1 giga di Ram ddr-400.
Pensate che questa scheda sia eccessiva e che il sistema non riesca a sfruttarla appieno? I
In alternativa, che scheda mi consigliate date le caratteristiche del mio pc?
Grazie per l'aiuto.
quel procio ti iperlimita:eek:Mah, dopo aver visto l'ultima comparativa sui processori di questo sito mi sono convinto che cambiare il procio per avere performance più elevate con i videogiochi sono soldi buttati, basta dare un'occhiata a questo grafico. L'unica giustificazione che può avere cambiare la CPU per chi è interessato prima di tutto al videogaming è passare dal single core al multicore, ma a questo punto per quelli come me (e come Metax) conviene prendere direttamente un quad core. Gli ultimi giochi sembra infatti che si avvantaggino del multithreading (anche se in misura molto marginale).
http://www.hwupgrade.it/articoli/cpu/1826/fear_2.png
Questa (http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_8.html) pagina della rece mostra chiaramente che con settaggi grafici elevati le CPU più potenti danno ben pochi FPS in più...
+Lonewolf+
30-10-2007, 18:24
Mah, dopo aver visto l'ultima comparativa sui processori di questo sito mi sono convinto che cambiare il procio per avere performance più elevate con i videogiochi sono soldi buttati, basta dare un'occhiata a questo grafico. L'unica giustificazione che può avere cambiare la CPU per chi è interessato prima di tutto al videogaming è passare dal single core al multicore, ma a questo punto per quelli come me (e come Metax) conviene prendere direttamente un quad core. Gli ultimi giochi sembra infatti che si avvantaggino del multithreading (anche se in misura molto marginale).
http://www.hwupgrade.it/articoli/cpu/1826/fear_2.png
Questa (http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_8.html) pagina della rece mostra chiaramente che con settaggi grafici elevati le CPU più potenti danno ben pochi FPS in più...
beh...cmq un dual core è caldamente consigliato da accoppiare ad una 8800gt
nonikname
30-10-2007, 19:44
per me una scheda che nasce 1 anno dopo....è vecchia....paragono questa mossa nvidia ad esempio ai vari amd black edition di amd.....processori e gpu tirate per 'arrangiare' un altro poco.....
e poi se per te non è 'inutile' una scheda che non serve in dx10 ora......figurati tra 5/6 mesi....:rolleyes: ....
nonikname come va Crysis? dettagli? fps?
Se per te una scheda di fascia media che esce un anno dopo fa come la fascia alta attuale , nasce vecchia ... o hai qualche problema ad interpretare i benchmark o sei spudoratamente ottimista sulle capacità di progettazione hw degli ingegneri del genere umano...
http://img266.imageshack.us/img266/4182/gtxbioshockwy6.jpg
http://img220.imageshack.us/img220/1931/gtxcod4kn8.jpg
http://img220.imageshack.us/img220/6577/gtxhl2hz6.jpg
http://img514.imageshack.us/img514/7004/gtxoblivioniw3.jpg
http://img99.imageshack.us/img99/6149/gtxqwna7.jpg
http://img204.imageshack.us/img204/3773/gtxut3mp1.jpg
Per quanto riguarda crysis posso dirti che a 1680x1050 ultra high (Vista) il bench integrato della gpu mi ha dato 34fps con la 8800gt e 33fps con la 8800gtx... :)
Non ha caso , elite bastard è riuscito a cogliere le grandi migliorie delle texturing units del g92 vs il g80...
http://img231.imageshack.us/img231/1816/3dmark06fillratelc3.jpg
ragazzi ma quale best seller.....è una scheda a fine carriera.....voi ancora pensate di comprare una 8800?!?!?! mha....:rolleyes:
per me è una scelta nvidia fatta per arrangiare ancora un pò dato che magari ancora non sono pronti con chip 10.1....e poi è un anno che ci sono le 8800....per me non è un acquisto sensato considerando che già ora una Ultra non è un grankè con i primi 'effetti' dx10 figuratevi una GT.....non ha VITA LUNGA come si diceva 1 anno fa quando si preferiva una 8800 gts ad una x1950xtx.....e infatti questa vita più lunga io non la vedo proprio neanche ora :D
beh, potra' essere vecchia... ma ti costa 240 euro!
se da qui ed un anno ti stufi la rivendi a 100 e con 340 euro (quindi di veri soldi da sborsare 240 euro) ti prenderai una scheda video di fascia medio alta DX 10.1 (o quello che ci sara')... Visto che se adesso si aspetta gennaio - febbraio (qualcuno dice anche maggio giugno) per una nuova top di gamma si spenderanno i soliti 500 euro (minimo)...
Ma intanto ti godi per un po di mesi una scheda che ha poco da invidiare anche alla GTX, e fra un anno avrai un'altra scheda che sara' migliore della top di gamma che uscira all'inizio del prossimo anno!
Insomma secondo me conviene sempre prendersi schede non top, ma magari cambiarle piu' spesso...
Ciao!
nonikname
30-10-2007, 20:47
beh, potra' essere vecchia... ma ti costa 240 euro!
se da qui ed un anno ti stufi la rivendi a 100 e con 340 euro (quindi di veri soldi da sborsare 240 euro) ti prenderai una scheda video di fascia medio alta DX 10.1 (o quello che ci sara')... Visto che se adesso si aspetta gennaio - febbraio (qualcuno dice anche maggio giugno) per una nuova top di gamma si spenderanno i soliti 500 euro (minimo)...
Ma intanto ti godi per un po di mesi una scheda che ha poco da invidiare anche alla GTX, e fra un anno avrai un'altra scheda che sara' migliore della top di gamma che uscira all'inizio del prossimo anno!
Insomma secondo me conviene sempre prendersi schede non top, ma magari cambiarle piu' spesso...
Ciao!
Questa è una scheda di fascia alta ad un prezzo da fascia media...
Al momento attuale è una vga fuori mercato : solo quella piccola fascia di gamers che gioca a 2560x1600 potrebbe optare per la ultra , ma tutti gli altri possono tranquillamente prendere questa ..(ovviamente se si ha intenzione di spendere 230€ e di non aspettare altri 15gg)
Le ultime indiscrezioni che ho sentito riguardo l'HD3870 dicono che costerà 15€ in meno , ma avrà prestazioni leggermente superiori alla 8800gts 640 (non so se con i filtri o senza)... solo che sarà dx10.1 ..
Prendete queste indiscrezioni con le dovute cautele , dato che dei commerciali è sempre meglio non fidarsi ... mentre di una cosa sono sicuro , l'8800gt scenderà di un buon 10% già fra poco più di un mese... ;)
Quindi la battaglia nella fascia medio-alta si farà sempre più dura ... scommetto che il reparto marketing delle due case comincia già ad affilare le katane... :D
MiKeLezZ
30-10-2007, 21:10
Questa è una scheda di fascia alta ad un prezzo da fascia media...
Al momento attuale è una vga fuori mercato : solo quella piccola fascia di gamers che gioca a 2560x1600 potrebbe optare per la ultra , ma tutti gli altri possono tranquillamente prendere questa ..(ovviamente se si ha intenzione di spendere 230€ e di non aspettare altri 15gg)
Le ultime indiscrezioni che ho sentito riguardo l'HD3870 dicono che costerà 15€ in meno , ma avrà prestazioni leggermente superiori alla 8800gts 640 (non so se con i filtri o senza)... solo che sarà dx10.1 ..
Prendete queste indiscrezioni con le dovute cautele , dato che dei commerciali è sempre meglio non fidarsi ... mentre di una cosa sono sicuro , l'8800gt scenderà di un buon 10% già fra poco più di un mese... ;)
Quindi la battaglia nella fascia medio-alta si farà sempre più dura ... scommetto che il reparto marketing delle due case comincia già ad affilare le katane... :DNon bisogna certo esser commercianti per sapere che le 3870 andranno circa l'8% in meno rispetto le 8800GT e verranno prezzate sui 229€/199€, mentre per le 8800GT è già previsto un abbassamento di prezzo per la fine dell'anno che farà arrivare la versione 512MB anche lei a 199€...
Ciao
paolox86
30-10-2007, 21:12
Aspetto la 3870 prima di decidere cosa comprare.... Intanto si trovano già a 239 €....
kikkobna
30-10-2007, 21:26
qualcuno sa dirmi dove si puo' trovare la Zotac amp edition????
mandatemi anche un pvt se la trovate
nonikname
30-10-2007, 22:10
Non bisogna certo esser commercianti per sapere che le 3870 andranno circa l'8% in meno rispetto le 8800GT e verranno prezzate sui 229€/199€, mentre per le 8800GT è già previsto un abbassamento di prezzo per la fine dell'anno che farà arrivare la versione 512MB anche lei a 199€...
Ciao
Beh , diciamo che ora ho sentito una fonte più autorevole del solito fudo ... anche se ultimamente (da quando ha fondato fudzilla) devo ammettere che le sue news si sono sempre rivelate affidabili...
Cmq sarei molto contento per amd e la concorrenza se il distacco dalla 8800gt sarà di una sola cifra percentuale...
Resta solo l'incognita filtri ... e sinceramente non credo che AMD sia così ingenua da commettere 2 volte lo stesso errore...
qualcuno sa dirmi dove si puo' trovare la Zotac amp edition????
mandatemi anche un pvt se la trovate
Le 8800gt stanno finendo ovunque in eurapa , mentre in usa sono state vendute tutte in 24H... 1
100k gpu vendute in meno di 2gg...e se il trend positivo prosegue , nvidia potrebbe piazzare circa un milione di gpu prima del debutto di RV670...:eek:
MiKeLezZ
30-10-2007, 22:24
L'unica cosa davvero interessante che ho sentito a riguardo delle 3870 è un rumor dell'implementazione delle tecnologie usate in ambito mobile per diminuire il consumo energetico.
Il che, accoppiato ai 55nm, potrebbe fare la differenza (anche se non in load, chiaramente).
Per il resto, io fra ieri e oggi ho guardato alcuni test prestazionali di questa 8800GT, e l'occhio non poteva cadere anche sulla HD2900XT che vedo sempre fanalino di coda.
Fra l'altro una cosa che non vedo mai citata è la qualità di filtro anisotropico, ben superiore sulle 8800.
Ci si aspetta forse un po' troppo da questa 3870, e questo renderà nuovamente amaro il suo lancio...
Free Gordon
30-10-2007, 23:39
Prodotto interessante.
Ma io questa generazione di schede video preferisco saltarla. Motivo principale: deludenti con Crysis.
Per ora hai ragione.
Free Gordon
30-10-2007, 23:46
Da possessore di 8800GTS la tua visione è chiaramente distorta! Il cambio è favorevole poichè:
a. ci si guadagna in termini monetari!
b. ci si guadagna in termini prestazionali (soprattutto nelle risoluzioni che più servono, ovvero da 1280x1024 a 1920x1080)!
c. ci si guadagna in termini di consumo/dissipazione/rumorosità (metto tutto assieme in quanto, anche se alcuni non ci sono ancora arrivati, è tutto collegato)
per chi ha una 8800GTS 640, il cambio non è per niente favorevole.. (ci perdi molti soldi).
Quando usciranno G100 e R700 ci sarà Crysis 2 e la storia si ripeterà... ;)
Ella peppa!! :D Quando usciranno le prossime architetture, ci sarà magari fuori la patch 10.1 per Crysis, altro che Crysis2!
Free Gordon
30-10-2007, 23:58
anzi consuma di +, devo montare per forza i 700watt per farla andare e stare sul sicuro
:rotfl:
focustep81
31-10-2007, 07:21
CHI LO SA MI DICE QUANDO ESCE E DOVE SI POTRA' TROVARE LA 8800 GT DELLA ZOTAC AMP EDITION? FINO AD ORA E' QUELLA CHE STA DIETRO ALLA ULTRA
Bulz rulez
31-10-2007, 09:11
CHI LO SA MI DICE QUANDO ESCE E DOVE SI POTRA' TROVARE LA 8800 GT DELLA ZOTAC AMP EDITION? FINO AD ORA E' QUELLA CHE STA DIETRO ALLA ULTRA
Mi associo alla richiesta
il Caccia
31-10-2007, 10:30
chi l'ha già acquistata puo' dirmi dove gentilmente?
halduemilauno
31-10-2007, 10:33
CHI LO SA MI DICE QUANDO ESCE E DOVE SI POTRA' TROVARE LA 8800 GT DELLA ZOTAC AMP EDITION? FINO AD ORA E' QUELLA CHE STA DIETRO ALLA ULTRA
Mi associo alla richiesta
chi l'ha già acquistata puo' dirmi dove gentilmente?
vedete il thread ufficiale.
http://www.hwupgrade.it/forum/showthread.php?t=1584294
ultime pagine.
;)
il Caccia
31-10-2007, 10:33
ritiro, trovata..la zotac tralaltro a chi interessava.. trovaprezzi.it
Io penso di prendere l'occata a 700.
Non ho voglia di mettermi io a fare test e a fronte di un costo che mi sembra equiparato la preferisco
Io ho una X1550, quindi non ho problemi a cambiarla (dovrei guadagnarne :D)
Al momento ho un 17pollici a 1280x1024 quindi immagino potrò giocare a qualunque cosa per parecchio tempo
Ciao
Horizont
31-10-2007, 12:31
io mi sa proprio che la prendo, vedendo i bench a 1200x1024 (ovvero l unica risoluzione a cui giocherò, visto il vx922), la scheda raggiunge fps da paura.
Zannawhite
31-10-2007, 12:50
Sono sempre più impressionato :eek:
Ha spazzato via tutta la serie GTS e sta solleticando la schiena della GTX :sbonk:
Goofy Goober
31-10-2007, 13:27
scusate ma non ho capito il paragone con le soluzioni GTX. è così tanto potente questa scheda?
non capisco. cioè la 8800 GT distrugge davvero la GTS 320 mega e si avvicina alla GTX?
grazie in anticipo a chi mi risponde.
+Lonewolf+
31-10-2007, 13:31
scusate ma non ho capito il paragone con le soluzioni GTX. è così tanto potente questa scheda?
non capisco. cioè la 8800 GT distrugge davvero la GTS 320 mega e si avvicina alla GTX?
grazie in anticipo a chi mi risponde.
diciamo che la gt è praticamente una gtx...
Goofy Goober
31-10-2007, 13:33
la GT è una GTX anche se ha molto meno bus di memoria??
mi pare abb assurdo visto il prezzo ancora alto delle GTX ora!!
Bulz rulez
31-10-2007, 13:35
e totalmente diversa diverso processo produttivo, diverso core...cambia tutto
halduemilauno
31-10-2007, 13:41
la GT è una GTX anche se ha molto meno bus di memoria??
mi pare abb assurdo visto il prezzo ancora alto delle GTX ora!!
ma la gtx è una gt anche se ha molto meno frequenza?
;)
ghiltanas
31-10-2007, 14:00
Io penso di prendere l'occata a 700.
Non ho voglia di mettermi io a fare test e a fronte di un costo che mi sembra equiparato la preferisco
Io ho una X1550, quindi non ho problemi a cambiarla (dovrei guadagnarne :D)
Al momento ho un 17pollici a 1280x1024 quindi immagino potrò giocare a qualunque cosa per parecchio tempo
Ciao
qualunque cosa eccetto crysis...:asd:
Horizont
31-10-2007, 14:01
qualunque cosa eccetto crysis...:asd:
cmq io non ho ancora capito, con la 8800GT non si gioca a crysis???? ma vi state riferendo a specifiche altissime!
se io con la mia 7900 ci sto giocando a 1024x768 dettagli medi. come minimo la 8800GT permetterà un 1200 dettagli alti.
Bah come al solito si esagera.... sembra che tutti debbano giocare a 1920x1080 sul 30'' ...
Mi sa che a 1280x0124 a dettagli alti la 8800GT andrà più che bene.
ghiltanas
31-10-2007, 14:09
ma dai che avevo messo anche la faccina :D
certo che ci si potrà giocare, era per scherzare un pò...
io cmq voglio giocarci a 1680*1050 senza aa e quindi il disc cambia (8800gt Vs nuove ati...chi vincerà? ...)
Grave Digger
31-10-2007, 14:13
crysis non gira :D ????
mo prendine 2 e le metti in sli :D !!!!che tanto,con quei requisiti,non sei mai cpu limited!!!!!
p.s.:da leggersi alla loris batacchi :D
Horizont
31-10-2007, 14:30
Bah come al solito si esagera.... sembra che tutti debbano giocare a 1920x1080 sul 30'' ...
Mi sa che a 1280x0124 a dettagli alti la 8800GT andrà più che bene.
perfetto, a me basta questo :)
che 8800GT sia allora :)
cazzarola, fortuna che ho avuto la forza di aspettare a comprare la 8800GTS 640 :/
gianni1879
31-10-2007, 15:02
se volete dare un'occhiata link (http://www.hwstation.net/forum/showthread.php?p=457#post457)
ci sono un pò di chiarimenti sui miglioramenti di G92 vs G80 e le specifiche in dettaglio ;)
qualunque cosa eccetto crysis...:asd:
Io non ci posso giocare sono fortunato :D
Tutti gli sparatutto, ma in generale tutti i giochi in soggettiva dove "gira tutto intorno a me" mi fanno sentire male, mi viene da rimettere dopo si e no 2 minuti di gioco
Io sono per gli strategici e motoristici :D
Mi piacerebbe avere prima o poi un 30"... ma quando sarà ci penserò
Grave Digger
31-10-2007, 15:12
Io non ci posso giocare sono fortunato :D
Tutti gli sparatutto, ma in generale tutti i giochi in soggettiva dove "gira tutto intorno a me" mi fanno sentire male, mi viene da rimettere dopo si e no 2 minuti di gioco
Io sono per gli strategici e motoristici :D
Mi piacerebbe avere prima o poi un 30"... ma quando sarà ci penserò
daveru :D ????
allora vai in pista con la moto,la prima volta che alcuni miei amici ci sono andati,dopo 3 giri hanno iniziato a sboccare sfincionello a destra e a manca :asd: ......
cmnq ho intenzione di prendere uno sli di 8800gt a breve ;)...
Horizont
31-10-2007, 15:20
io per adesso mi accontento di prenderne 1 :D
dopo vi faccio sapere, cmq andate sul topic ufficiale che stasera probabilmente si avranno dei dati concreti da un paio di utenti :D
Grave Digger
31-10-2007, 15:25
io per adesso mi accontento di prenderne 1 :D
dopo vi faccio sapere, cmq andate sul topic ufficiale che stasera probabilmente si avranno dei dati concreti da un paio di utenti :D
ottimo,thx for the info :mano:
se devo essere sincero,ho molto sentito parlare di queste fantomatiche dx 10.1,alla fin fine le 8800 saranno compatibili anche con queste,non c'è alcun problema....siamo ben lontani dai tempi in cui le X8xx non supportavano lo sm3.0 ;) .....
Goofy Goober
31-10-2007, 15:51
ma la gtx è una gt anche se ha molto meno frequenza?
;)
pensavo che contasse di più un bus di memoria parecchio più alto che le frequenze vedendo le 8600 con i 128 bit
halduemilauno
31-10-2007, 16:12
pensavo che contasse di più un bus di memoria parecchio più alto che le frequenze vedendo le 8600 con i 128 bit
va vista nel suo insieme. cmq vale di + il chip poi il comparto ram(frequenza, bus, quantità).
;)
ghiltanas
31-10-2007, 16:23
nn so se lo sapete già, cmq su un noto sito (+ per le sue sparate grosse che altro...fudzilla) è stato detto che ati lancierà le sue nuove soluzioni al prezzo di 199 dollari, perchè probabilmente la potenza sarà prossima alla gt se nn meno. Ve lo dico solo a titolo informativo e di confronto, e cmq è una notizia da prendere molto alla leggera data la fonte
MiKeLezZ
31-10-2007, 16:49
il sito delle sparate è the inquirer, non fudzilla
comunque il lancio a 199$ è proprio perchè le 3870 andranno di meno
ghiltanas
31-10-2007, 17:01
il sito delle sparate è the inquirer, non fudzilla
comunque il lancio a 199$ è proprio perchè le 3870 andranno di meno
io sapevo fudzilla per le sparate...
cmq va be il mio problema resta quel cavolo di crysis...sennò credo che con una gt o con futura ati nn avrei problemi a giocare con nessun gioco, compreso cod4 che ho provato oggi, e giocando a 1280*800 come frame rate sto sopra crysis a 800*600 e talvolta nn di poco.....
il Caccia
31-10-2007, 17:14
pero' i bench con crysis, con dx10, che sarebbe la cosa piu' interessante al momento, a 1280x1024 con dettagli al massimo si sta di media poco sopra il limite dello scattamento..chiaro che si puo' abbassare il dettaglio un po' qui un po' li, ma non so se avete visto i video e le immagini che girano di crysis, differenza dx9 e dx10..una robona, meriterebbe giocato con tutti i dettagli e i filtri attivi perchè è una cosa mai vista
+Lonewolf+
31-10-2007, 18:33
il sito delle sparate è the inquirer, non fudzilla
comunque il lancio a 199$ è proprio perchè le 3870 andranno di meno
http://storianaturale.museo.unipi.it/images/futuro.gif
MiKeLezZ
31-10-2007, 18:37
http://storianaturale.museo.unipi.it/images/futuro.gifhmmm... Lonewolf... segnato
Il 15 ti vengo a cercare...
Goofy Goober
31-10-2007, 18:59
scusatemi visto che questa GT costa così poco (almeno a me pare poco se va come una GTX ora) quando usciranno le prossime schede nvidia che a rigor di logica costando un po di più (diciamo sui 350 euro?) avranno prestazioni più spinte anche di questa GT?
io punterei a quelle visto che ora ho una 8800GTS
scusate io le sto trovando a 239€...ma non dovevano costare di meno???
halduemilauno
31-10-2007, 19:10
scusatemi visto che questa GT costa così poco (almeno a me pare poco se va come una GTX ora) quando usciranno le prossime schede nvidia che a rigor di logica costando un po di più (diciamo sui 350 euro?) avranno prestazioni più spinte anche di questa GT?
io punterei a quelle visto che ora ho una 8800GTS
certo fai bene a puntare su quelle.
;)
halduemilauno
31-10-2007, 19:11
scusate io le sto trovando a 239€...ma non dovevano costare di meno???
esattamente 239€. anzi alcuni dicevano 249€.
;)
io sapevo fudzilla per le sparate...
Fudzilla e Inquirer sono praticamente la stessa cosa quanto a balle, visto che Fuad, il tizio che "dirige" ( :asd: ) Fudzilla, prima scriveva per The Inquirer. ;)
Per il prezzo, let's wait and see. Se fosse vero quello che dice Fudzilla, la HD3870 dovrebbe costare il 15-20% in meno della 8800GT, andando in alcuni giochi l'8-10% in meno. Il rapporto prezzo-prestazioni in questo caso rischierebbe di essere comunque a favore di ATi (8-10% performance vs 15-20% prezzo).
Comunque si continua a parlare del nulla, finche non uscirà qualche test. :)
questa scheda, oltre a cancellare le 8800 GTS e HD2900, svaluta drasticamente anche le 8600 GT & GTS: a occhio e croce sono 3 volte piu' lente, quindi le devono vendere a (molto) meno di 100 euro
halduemilauno
31-10-2007, 19:44
questa scheda, oltre a cancellare le 8800 GTS e HD2900, svaluta drasticamente anche le 8600 GT & GTS: a occhio e croce sono 3 volte piu' lente, quindi le devono vendere a (molto) meno di 100 euro
le gt gia si riescono a trovare a meno di 90€. dagli tempo le 8800gt sono appena uscite.
;)
+Lonewolf+
31-10-2007, 21:10
hmmm... Lonewolf... segnato
Il 15 ti vengo a cercare...
escono il 19...
MIRAGGIO
31-10-2007, 22:44
esattamente 239€. anzi alcuni dicevano 249€.
;)
249€ la versione occata di 100mhz in + su gpu shader e ram
halduemilauno
31-10-2007, 22:47
249€ la versione occata di 100mhz in + su gpu shader e ram
veramente è quella o anche quella che costa 239€.
;)
MiKeLezZ
01-11-2007, 00:13
Per il prezzo, let's wait and see. Se fosse vero quello che dice Fudzilla, la HD3870 dovrebbe costare il 15-20% in meno della 8800GT, andando in alcuni giochi l'8-10% in meno. Il rapporto prezzo-prestazioni in questo caso rischierebbe di essere comunque a favore di ATi (8-10% performance vs 15-20% prezzo).
Comunque si continua a parlare del nulla, finche non uscirà qualche test. :)Non capisco perchè sottolinei in -alcuni giochi-, io in tutte le recensioni che ho visto la hd2900xt stava sotto alla 8800gt, ma soprattutto il rumor che parlava del 8%-10% in meno di prestazioni si riferiva a una MEDIA, e non "ad alcuni giochi", e MEDIA significa che in alcuni va il 20% in meno, in altri al limite uguale...
Comunque let's wait and see... proprio come è successo con la hd2900xt di cui tutti avevano super aspettative
p.s. ma secondo voi, e qui lo ridico per l'ennesiva volta dopo mesi, se la hd3870 bastonava di brutto la 8800gt, non erano già usciti dei simpatici leak di notizie, proprio come quello sulle dx10.1, per frenare la gente all'accquisto delle nvidia? chi si ricorda i core 2 duo di cui si sapeva già morte e miracoli 3 mesi prima dell'uscita?
ciao
chicochico
01-11-2007, 09:16
nella bellissima recensione, viene riportato che le frequenze di lavoro della 8800 gt siano 600 - 1800, mentre mi risulta che siano di 600 - 1500. E' un errore?
nella bellissima recensione, viene riportato che le frequenze di lavoro della 8800 gt siano 600 - 1800, mentre mi risulta che siano di 600 - 1500. E' un errore?
no le frequenze sono proprio 600/1800.....1500 è la frequenza degli shader
Non capisco perchè sottolinei in -alcuni giochi-, io in tutte le recensioni che ho visto la hd2900xt stava sotto alla 8800gt, ma soprattutto il rumor che parlava del 8%-10% in meno di prestazioni si riferiva a una MEDIA, e non "ad alcuni giochi", e MEDIA significa che in alcuni va il 20% in meno, in altri al limite uguale...
Comunque let's wait and see... proprio come è successo con la hd2900xt di cui tutti avevano super aspettative
p.s. ma secondo voi, e qui lo ridico per l'ennesiva volta dopo mesi, se la hd3870 bastonava di brutto la 8800gt, non erano già usciti dei simpatici leak di notizie, proprio come quello sulle dx10.1, per frenare la gente all'accquisto delle nvidia? chi si ricorda i core 2 duo di cui si sapeva già morte e miracoli 3 mesi prima dell'uscita?
ciao
Appunto... figurati se ATI già non sapeva le prestazioni della 8800GT... spesso ci scordiamo che stiamo parlando di aziende enormi con un mare di risorse...
La 2900XT è stato un flop alla faccia di chi diceva che i driver avrebbero fatto miracoli.
MiKeLezZ
01-11-2007, 09:53
Appunto... figurati se ATI già non sapeva le prestazioni della 8800GT... spesso ci scordiamo che stiamo parlando di aziende enormi con un mare di risorse...
La 2900XT è stato un flop alla faccia di chi diceva che i driver avrebbero fatto miracoli.Se la HD2900XT è stato un flop non mi aspetterei miracoli dalla 3870:
RV670XT to end up 20+ percent slower from 8800GT
The sources have confirmed that RV670XT (Radeon HD 3870) should end up more than 20% slower than the 8800GT 512MB at its default clock.
ATI's chip simply cannot compete with 112 Shader units at such a high clock but it will sell for some -$50 -$60 to begin with.
RV670PRO will end up even cheaper as it has a hard task to fight soon to be launched 8800GT 256MB version.
The performance analysis is based on more than ten games and the current drivers, so if ATI comes up with a miraculous drivers maybe they are going to be even more competitive.
Quindi avevo ragione io come al solito, il divario può arrivare al 20% (sempre a favore di 8800GT). Almeno, a quanto pare, costerà poco, il che male non fa.
+Lonewolf+
01-11-2007, 09:58
Se la HD2900XT è stato un flop non mi aspetterei miracoli dalla 3870:
RV670XT to end up 20+ percent slower from 8800GT
The sources have confirmed that RV670XT (Radeon HD 3870) should end up more than 20% slower than the 8800GT 512MB at its default clock.
ATI's chip simply cannot compete with 112 Shader units at such a high clock but it will sell for some -$50 -$60 to begin with.
RV670PRO will end up even cheaper as it has a hard task to fight soon to be launched 8800GT 256MB version.
The performance analysis is based on more than ten games and the current drivers, so if ATI comes up with a miraculous drivers maybe they are going to be even more competitive.
Quindi avevo ragione io come al solito, il divario può arrivare al 20% (sempre a favore di 8800GT). Almeno, a quanto pare, costerà poco, il che male non fa.
fonte?
halduemilauno
01-11-2007, 10:03
Non capisco perchè sottolinei in -alcuni giochi-, io in tutte le recensioni che ho visto la hd2900xt stava sotto alla 8800gt, ma soprattutto il rumor che parlava del 8%-10% in meno di prestazioni si riferiva a una MEDIA, e non "ad alcuni giochi", e MEDIA significa che in alcuni va il 20% in meno, in altri al limite uguale...
Comunque let's wait and see... proprio come è successo con la hd2900xt di cui tutti avevano super aspettative
p.s. ma secondo voi, e qui lo ridico per l'ennesiva volta dopo mesi, se la hd3870 bastonava di brutto la 8800gt, non erano già usciti dei simpatici leak di notizie, proprio come quello sulle dx10.1, per frenare la gente all'accquisto delle nvidia? chi si ricorda i core 2 duo di cui si sapeva già morte e miracoli 3 mesi prima dell'uscita?
ciao
Appunto... figurati se ATI già non sapeva le prestazioni della 8800GT... spesso ci scordiamo che stiamo parlando di aziende enormi con un mare di risorse...
La 2900XT è stato un flop alla faccia di chi diceva che i driver avrebbero fatto miracoli.
Se la HD2900XT è stato un flop non mi aspetterei miracoli dalla 3870:
RV670XT to end up 20+ percent slower from 8800GT
The sources have confirmed that RV670XT (Radeon HD 3870) should end up more than 20% slower than the 8800GT 512MB at its default clock.
ATI's chip simply cannot compete with 112 Shader units at such a high clock but it will sell for some -$50 -$60 to begin with.
RV670PRO will end up even cheaper as it has a hard task to fight soon to be launched 8800GT 256MB version.
The performance analysis is based on more than ten games and the current drivers, so if ATI comes up with a miraculous drivers maybe they are going to be even more competitive.
Quindi avevo ragione io come al solito, il divario può arrivare al 20% (sempre a favore di 8800GT). Almeno, a quanto pare, costerà poco, il che male non fa.
;)
+Lonewolf+
01-11-2007, 10:05
;)
come fai ad essere così sicuro che sarà inferiore?
MiKeLezZ
01-11-2007, 10:06
fonte?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3961&Itemid=1
ma aspetta 2 sett e avrai tutte le fonti che vuoi :asd:
+Lonewolf+
01-11-2007, 10:07
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3961&Itemid=1
ma aspetta 2 sett e avrai tutte le fonti che vuoi :asd:
convinto?
per l'amor di dio può darsi che sia come dica tu però tutta questa sicurezza io la terrei da parte;)
Grave Digger
01-11-2007, 10:33
convinto?
per l'amor di dio può darsi che sia come dica tu però tutta questa sicurezza io la terrei da parte;)
non ci vuole molto a capire che se un'architettura è scadente,un die shrink ed una mezza rattoppata al circuito per l'AA in hardware non possono ribaltare le sorti....se poi dovete a tutti i costi difendere un acquisto ok,ma la realtà è ben diversa ;) .....
cmnq quoto mikelezz,ha ragione ;) ...
e tra parentesi,io,halduemilauno,scrambler77,evangelion01 e qualche altro che adesso non ricordo capimmo subito che la scheda fu un flop,ma tutti gli atisti a menarla con i driver.......bene,siamo stati insultati pesantemente da un tale,siamo stati per giunta sospesi per aver espresso educatamente una opinione,ma alla fine avevamo ragione.....e secondo me non c'è soddisfazione più grande ;) ......
+Lonewolf+
01-11-2007, 10:36
non ci vuole molto a capire che se un'architettura è scadente,un die shrink ed una mezza rattoppata al circuito per l'AA in hardware non possono ribaltare le sorti....se poi dovete a tutti i costi difendere un acquisto ok,ma la realtà è ben diversa ;) .....
cmnq quoto mikelezz,ha ragione ;) ...
e tra parentesi,io,halduemilauno,scrambler77,evangelion01 e qualche altro che adesso non ricordo capimmo subito che la scheda fu un flop,ma tutti gli atisti a menarla con i driver.......bene,siamo stati insultati pesantemente da un tale,siamo stati per giunta sospesi per aver espresso educatamente una opinione,ma alla fine avevamo ragione.....e secondo me non c'è soddisfazione più grande ;) ......
nn sto difendendo niente...dico solo che aspetto recensioni prima di dirvi, avete ragione...cmq la cosa principale che menava r600 in basso era la bassa freq del core(risolta in qst refresh) e l'AA (rsi spera risolto) ;)
io sn fiducioso...poi nn è che se hai capito mesi prima il destino di r600 adesso mi sai dire il futuro di AMD, io la penso così;)
MiKeLezZ
01-11-2007, 10:38
nn sto difendendo niente...dico solo che aspetto recensioni prima di dirvi, avete ragione...cmq la cosa principale che menava r600 in basso era la bassa freq del core(risolta in qst refresh) e l'AA (rsi spera risolto) ;)...e consumi, UVD mancante, filtro anisotropico di qualità inferiore
halduemilauno
01-11-2007, 10:42
non ci vuole molto a capire che se un'architettura è scadente,un die shrink ed una mezza rattoppata al circuito per l'AA in hardware non possono ribaltare le sorti....se poi dovete a tutti i costi difendere un acquisto ok,ma la realtà è ben diversa ;) .....
cmnq quoto mikelezz,ha ragione ;) ...
e tra parentesi,io,halduemilauno,scrambler77,evangelion01 e qualche altro che adesso non ricordo capimmo subito che la scheda fu un flop,ma tutti gli atisti a menarla con i driver.......bene,siamo stati insultati pesantemente da un tale,siamo stati per giunta sospesi per aver espresso educatamente una opinione,ma alla fine avevamo ragione.....e secondo me non c'è soddisfazione più grande ;) ......
ok. ma cmq rimaniamo in attesa di riscontri.
;)
+Lonewolf+
01-11-2007, 10:43
...e consumi, UVD mancante, filtro anisotropico di qualità inferiore
i consumi mi pare siano stati risolti, l'UVD me ne sbatto, l'af inferiore? ma di quanto? sec te non giustificherebbe l'acquisto una vga con i bug di r600 risolti?
Grave Digger
01-11-2007, 10:43
nn sto difendendo niente...dico solo che aspetto recensioni prima di dirvi, avete ragione...cmq la cosa principale che menava r600 in basso era la bassa freq del core(risolta in qst refresh) e l'AA (rsi spera risolto) ;)
io sn fiducioso...poi nn è che se hai capito mesi prima il destino di r600 adesso mi sai dire il futuro di AMD, io la penso così;)
oh beh,il futuro di amd non lo dico nemmeno perchè mi bannano a vita se dico ciò che penso ;) .......
cmnq la frequenza del core non c'entra una benemerita,con 825 mhz al massimo avrai 5 frames in più con tutti i filtri attivati,ad essere generosi ovviamente....l'AA è solo uno specchio per le allodole principalmente,come è uno specchio per le allodole il continuo sbandierare d'essere dx 10.1 compliant.....io lo dico sempre,ati nvidia intel e amd non fanno beneficenza,per loro noi siamo solo numeretti da spolpare,per cui quando ati con la x800 diceva di fregarsene dello shader model 3.0 contro nvidia,lo faceva solo per contingenza...adesso guarda un po' come son cambiate le cose ;) .....
+Lonewolf+
01-11-2007, 10:48
oh beh,il futuro di amd non lo dico nemmeno perchè mi bannano a vita se dico ciò che penso ;) .......
cmnq la frequenza del core non c'entra una benemerita,con 825 mhz al massimo avrai 5 frames in più con tutti i filtri attivati,ad essere generosi ovviamente....l'AA è solo uno specchio per le allodole principalmente,come è uno specchio per le allodole il continuo sbandierare d'essere dx 10.1 compliant.....io lo dico sempre,ati nvidia intel e amd non fanno beneficenza,per loro noi siamo solo numeretti da spolpare,per cui quando ati con la x800 diceva di fregarsene dello shader model 3.0 contro nvidia,lo faceva solo per contingenza...adesso guarda un po' come son cambiate le cose ;) .....
sono d'accordo...cmq 3 puntualizzazioni
1)5 frames in + nn sono pochi
2)l'AA non lo vedo AFFATTO come uno specchietto per le allodole, calcolando che questo è il bug + grande di r600...se lo hanno risolto sono 100punti x AMD
3)le dx10.1 sono uno specchietto x le allodole si...
Grave Digger
01-11-2007, 10:51
sono d'accordo...cmq 3 puntualizzazioni
1)5 frames in + nn sono pochi
2)l'AA non lo vedo AFFATTO come uno specchietto per le allodole, calcolando che questo è il bug + grande di r600...se lo hanno risolto sono 100punti x AMD
3)le dx10.1 sono uno specchietto x le allodole si...
ehm :stordita: ,guarda che i 5 frames in più erano ipotizzati con tutte le ottimizzazioni dell'AA ed a 1280x1024......se sali di risoluzione :fagiano: ........
halduemilauno
01-11-2007, 10:51
oh beh,il futuro di amd non lo dico nemmeno perchè mi bannano a vita se dico ciò che penso ;) .......
cmnq la frequenza del core non c'entra una benemerita,con 825 mhz al massimo avrai 5 frames in più con tutti i filtri attivati,ad essere generosi ovviamente....l'AA è solo uno specchio per le allodole principalmente,come è uno specchio per le allodole il continuo sbandierare d'essere dx 10.1 compliant.....io lo dico sempre,ati nvidia intel e amd non fanno beneficenza,per loro noi siamo solo numeretti da spolpare,per cui quando ati con la x800 diceva di fregarsene dello shader model 3.0 contro nvidia,lo faceva solo per contingenza...adesso guarda un po' come son cambiate le cose ;) .....
su le frequenze fan testo tutti i possessori di 2900 che l'hanno oc a 850/870 di core(+ ram a 2000)e non scalfiscono la 8800gtx. questa 3870 sarà 825/2400 vedremo. una cosa, si sente tanto parlare del prezzo ma come si fa a proporla a quei prezzi avendo 512 mega di ram gddr4 ultra veloce?
come gia detto aspettiamo riscontri e fine ot.
;)
Grave Digger
01-11-2007, 10:56
su le frequenze fan testo tutti i possessori di 2900 che l'hanno oc a 850/870 di core(+ ram a 2000)e non scalfiscono la 8800gtx. questa 3870 sarà 825/2400 vedremo. una cosa, si sente tanto parlare del prezzo ma come si fa a proporla a quei prezzi avendo 512 mega di ram gddr4 ultra veloce?
come gia detto aspettiamo riscontri e fine ot.
;)
stavo pensando proprio quello ;) .non ho citato la spinosa questione oc perchè altrimenti mi si sarebbe risposto che certi utenti bleffano/non sanno fare i test :read: ....cmnq anche a me alcuni conti non tornano,staremo a vedere ;) ...
concordo sulla chiusura dell'OT,ma d'altra parte è quasi fisiologico fare i confronti con le schede concorrenti di imminente uscita ;) ....
oh beh,il futuro di amd non lo dico nemmeno perchè mi bannano a vita se dico ciò che penso ;) .......
cmnq la frequenza del core non c'entra una benemerita,con 825 mhz al massimo avrai 5 frames in più con tutti i filtri attivati,ad essere generosi ovviamente....l'AA è solo uno specchio per le allodole principalmente,come è uno specchio per le allodole il continuo sbandierare d'essere dx 10.1 compliant.....io lo dico sempre,ati nvidia intel e amd non fanno beneficenza,per loro noi siamo solo numeretti da spolpare,per cui quando ati con la x800 diceva di fregarsene dello shader model 3.0 contro nvidia,lo faceva solo per contingenza...adesso guarda un po' come son cambiate le cose ;) .....
Vorrei fare una piccola considerazione. R600 era un chip che consumava 200W e aveva prestazioni allineate a un chip che ne consumava meno di 140W. Con lo sviluppo di RV670, Amd ha curato moltissimo l'aspetto dei consumi. Si parla un TDP per la "fascia alta" di 100W, con consumi effettivi di 85W, e prestazioni leggermente superiori ad R600. Inoltre il prezzo sembra particolarmente basso (199$?), permettendo anche di rivalutare le considerazioni sul Crossfire, visto che 2 HD3870 costeranno come un R600, consumeranno meno e saranno nettamente superiori. E Nvidia ha risposto lanciando la 8800GT, con prestazioni quasi da 8800GTX e un prezzo eccezionale, per incentivare lo Sli.
I consumatori faranno affari d'oro questo Natale. :)
Grave Digger
01-11-2007, 11:06
Vorrei fare una piccola considerazione. R600 era un chip che consumava 200W e aveva prestazioni allineate a un chip che ne consumava meno di 140W. Con lo sviluppo di RV670, Amd ha curato moltissimo l'aspetto dei consumi. Si parla un TDP per la "fascia alta" di 100W, con consumi effettivi di 85W, e prestazioni leggermente superiori ad R600. Inoltre il prezzo sembra particolarmente basso (199$?), permettendo anche di rivalutare le considerazioni sul Crossfire, visto che 2 HD3870 costeranno come un R600, consumeranno meno e saranno nettamente superiori. E Nvidia ha risposto lanciando la 8800GT, con prestazioni quasi da 8800GTX e un prezzo eccezionale, per incentivare lo Sli.
I consumatori faranno affari d'oro questo Natale. :)
già,senza contare il fatto che chi ha un tagan/seasonic/enermax da 500/600 watt,potrà nuovamente prendere in considerazione uno sli/crossfire,che non è cosa da poco :) .....
Diabolik.cub
01-11-2007, 11:09
Scusate ma la rumorosità è in full load, vero? Perché non avete messo anche il valore in idle?
halduemilauno
01-11-2007, 11:12
Vorrei fare una piccola considerazione. R600 era un chip che consumava 200W e aveva prestazioni allineate a un chip che ne consumava meno di 140W. Con lo sviluppo di RV670, Amd ha curato moltissimo l'aspetto dei consumi. Si parla un TDP per la "fascia alta" di 100W, con consumi effettivi di 85W, e prestazioni leggermente superiori ad R600. Inoltre il prezzo sembra particolarmente basso (199$?), permettendo anche di rivalutare le considerazioni sul Crossfire, visto che 2 HD3870 costeranno come un R600, consumeranno meno e saranno nettamente superiori. E Nvidia ha risposto lanciando la 8800GT, con prestazioni quasi da 8800GTX e un prezzo eccezionale, per incentivare lo Sli.
I consumatori faranno affari d'oro questo Natale. :)
ecco torno sul prezzo i primi rumors parlavano di 299$, poi ridotti a 249$ e ora si parla di 199$. effetto 8800gt? amd sarà in grado di reggere tutto questo?
;)
ULTIME NEWS SULLE 8800 GTS DI PROSSIMA USCITA:
-65nm
-128 shader units
-GDDR3 512 MB e/o 1024 MB
-256 bit memory interface
in poche parole la base é l'attuale 8800 GT che ha 16 shader disattivati, che verranno sbloccati sulle nuove 8800 GTS!
Le prestazioni della versione da 1GB dovrebbe essere intorno ai 12500 punti al 3D mark06 (1280x1024), là dove la Ultra si ferma sugli 11900!
Fonte news:
http://www.dailytech.com/But+Wait+T...article9474.htm
Un'altra fonte da cui si apprende la news é:
http://forums.vr-zone.com/showthread.php?t=200005
http://www.dailytech.com/But+Wait+Theres+More+NVIDIA+G92+for+2007/article9474.htm
rmarango
01-11-2007, 11:47
Ieri sera provando crysis con la Biostar 8800gt per ben 2 ore sono arrivato a 92C° (case chiuso VGA 740-1050-1760) e la ventola rimaneva sempre al 30-40% della velocità max...
Il punto è : il thermal trottle di questa scheda è 130 C° , quindi siamo ben lontani dalla soglia di rallentamento del core .. e l'incremento dei gradi nei confronti della GTX , all'interno del case , è di appena 2 C° .....perciò non fatevi preoccupazioni strane riguardo la temp.
Scusa...ma non hai considerato il fatto che siamo nella stagione fredda...io quest'estate avevo la GPU piu' calda di almeno 4-5 gradi, per cui immagino che si possa tranquillamente arrivare al punto di ebollizione dell'acqua come faceva notare qualcuno dopo stress opportuno della scheda, se non si prende un provvedimento sul sistema di dissipazione.
Poi ci sono considerazioni anche sul delta termico apportato agli altri componenti del p.c. e sul fatto che alla lunga temperature cosi' alte inducano strani fenomeni al silicio pero' e' un discorso troppo lungo ...
Sugli screen di lost planet si vede che gli fps sono maggiori in cave,per tutte le schede,io ho un 8800 gts 320 mb e in cave gli fps sono minori che in snow
+Lonewolf+
01-11-2007, 12:41
Sugli screen di lost planet si vede che gli fps sono maggiori in cave,per tutte le schede,io ho un 8800 gts 320 mb e in cave gli fps sono minori che in snow
il test cave è molto cpu limited...
serve un processore occato abbestia x nn essere limited
quindi con un 4200+ x2 2.2Ghz sono limitato...se lo overclocco a 2.6 Ghz forse guadagno qualcosa ...
+Lonewolf+
01-11-2007, 13:12
quindi con un 4200+ x2 2.2Ghz sono limitato...se lo overclocco a 2.6 Ghz forse guadagno qualcosa ...
sicuro;)
ghiltanas
01-11-2007, 13:18
quindi con un 4200+ x2 2.2Ghz sono limitato...se lo overclocco a 2.6 Ghz forse guadagno qualcosa ...
nn è assolutamente vero, specie sopra una certa risoluzione un processore vale l'altro
Grave Digger
01-11-2007, 13:26
nn è assolutamente vero, specie sopra una certa risoluzione un processore vale l'altro
esattamente ;)
+Lonewolf+
01-11-2007, 13:36
nn è assolutamente vero, specie sopra una certa risoluzione un processore vale l'altro
si ma quel test è particolarmente soggetto alla cpu;)
pensda che ianktas, un utente, è limited con un core duo a 3.15ghz non mi ricordo che ris, ma di certo non 1024;)
opposing
01-11-2007, 13:51
da essedi le hanno già queste schede 8800GT da 512 mb. e stanno a un prezzo di 235 euro, sto considerando di sostituirla nel preventivo al posto della 880GTS da 320 mb. non vorrei fare una cappellata però prendendo una scheda dove sopra ci posso friggere le uova... :rolleyes:
MiKeLezZ
01-11-2007, 13:58
ecco torno sul prezzo i primi rumors parlavano di 299$, poi ridotti a 249$ e ora si parla di 199$. effetto 8800gt? amd sarà in grado di reggere tutto questo?
;)...e 179$ per la PRO! Il gatto e il topo...
cicciopalla
01-11-2007, 14:08
ma quindi si ha la certezza che siano compatibili col mio impolverato vf900? qualcuno ha trovato qualche rece con temperature con altri dissi?
Campioni del Mondo 2006!!
01-11-2007, 14:27
Ottima, ottima scheda.. perà tanto vale aspettare ancora qlc giorno e vedere che mette ati sul mercato.. non può fare un buco nell'acqua anche con RV670..
opposing
01-11-2007, 14:30
minchia che casino, mi sa che posso ritirare l'ordine e aspettare che esca qualche novità a giorni :muro:
Ottima, ottima scheda.. perà tanto vale aspettare ancora qlc giorno e vedere che mette ati sul mercato.. non può fare un buco nell'acqua anche con RV670..
forse io non ci capisco molto, ma credo ke ormai la parola "aspettare" è morta... adesso le case produttrici di pezzi hw importanti come proci e skede video, ke a mio avviso sono i pezzi + venduti, sfornano un pezzo nuovo e + potente ogni giorno... quindi tu se vuoi puoi anke aspettare 5 giorni ke esce la risposta ATi, tanto dopo 5 giorni dall'ATi uscirà la risposta nVidia... secondo me nn potete pensare di avere sempre il top montato sopra ad un pc... uno deve decidere x cosa vuole usare il proprio computer e quando l'ha deciso prende tt il top ke trova QUEL giorno... poi dopo 6 mesi, 10 mesi, 1 anno o 1 anno e mezzo rifà tutto da capo portandosi dietro solo i pezzi ke ankora possono essere utili al tipo di uso ke uno ne vuole fare :P
va beh, kiusa sta parentesi troppo lunga volevo solo sapere una cosa, 9 fan da 120x120(Portata Aria: 134.46 m³/h ~ 79.14 CFM) dentro ad un Cooler Master Stacker, quanto potranno incidere sul raffreddamento di 2 8800GT in SLI?
Grazie in anticipo x le eventuali risposte...
opposing
01-11-2007, 14:43
forse io non ci capisco molto, ma credo ke ormai la parola "aspettare" è morta... ormai le case produttrici di pezzi hw importanti come proci e skede video, ke a mio avviso sono i pezzi + venduti, sfornano un pezzo nuovo e + potente ogni giorno... quindi tu se vuoi puoi anke aspettare 5 giorni ke esce la risposta ATi, tanto dopo 5 giorni dall'ATi uscirà la risposta nVidia... secondo me nn potete pensare di avere sempre il top montato sopra ad un pc... uno deve decidere x cosa vuole usare il proprio computer e quando l'ha deciso prende tt il top ke trova QUEL giorno... poi dopo 6 mesi, 10 mesi, 1 anno o 1 anno e mezzo rifà tutto da capo portandosi dietro solo i pezzi ke ankora possono essere utili al tipo di uso ke uno ne vuole fare :P
va beh, kiusa sta parentesi troppo lunga volevo solo sapere una cosa, 9 fan da 120x120(Portata Aria: 134.46 m³/h ~ 79.14 CFM) dentro ad un Cooler Master Stacker, quanto potranno incidere sul raffreddamento di 2 8800GT in SLI?
Grazie in anticipo x le eventuali risposte...
no va bhe, io volevo solo aspettare di vedere se esce qualche modello 8800GT con una dissipazione migliore di quella attuale o al massimo qualche nuovo modello ATI con buone prestazioni a prezzi accettabili (ho comprato una mobo con il crossfire per cui preferirei mettere una scheda ATI, ma attualmente le 2900XT fanno pena).
Campioni del Mondo 2006!!
01-11-2007, 14:44
forse io non ci capisco molto, ma credo ke ormai la parola "aspettare" è morta... adesso le case produttrici di pezzi hw importanti come proci e skede video, ke a mio avviso sono i pezzi + venduti, sfornano un pezzo nuovo e + potente ogni giorno... quindi tu se vuoi puoi anke aspettare 5 giorni ke esce la risposta ATi, tanto dopo 5 giorni dall'ATi uscirà la risposta nVidia... secondo me nn potete pensare di avere sempre il top montato sopra ad un pc... uno deve decidere x cosa vuole usare il proprio computer e quando l'ha deciso prende tt il top ke trova QUEL giorno... poi dopo 6 mesi, 10 mesi, 1 anno o 1 anno e mezzo rifà tutto da capo portandosi dietro solo i pezzi ke ankora possono essere utili al tipo di uso ke uno ne vuole fare :P
va beh, kiusa sta parentesi troppo lunga volevo solo sapere una cosa, 9 fan da 120x120(Portata Aria: 134.46 m³/h ~ 79.14 CFM) dentro ad un Cooler Master Stacker, quanto potranno incidere sul raffreddamento di 2 8800GT in SLI?
Grazie in anticipo x le eventuali risposte...
Si beh.. ma qui non si tratta di aspettare 1 anno, ma 10 giorni.. mi pare stupido prendere ora una scheda, sapendo che a 10 giorni ne esce un'altra che potrebbe essere più adatta alle proprio esigenze.. (con un processo produttivo nuovo a 55nm)
poi ognuno fa come meglio crede..
ecco torno sul prezzo i primi rumors parlavano di 299$, poi ridotti a 249$ e ora si parla di 199$. effetto 8800gt? amd sarà in grado di reggere tutto questo?
;)
Amd si muove a lanciare un bel prodotto, Nvidia risponde, e Amd rilancia. Io credo che anche a 199$, Amd guadagni bene, grazie ai 55nm. Nvidia non può giocare alla guerra dei prezzi alla stessa maniera, visto che usa un processo produttivo con un costo superiore.
Alla fine, se le HD3870 si rivelano delle eccellenti schede per il Crossfire a basso prezzo, magari con prestazioni il 20% superiori ad una singola ultra in Crysis,AMD guadagnerà molto, moltissimo. Venderà infatti il chipset, il processore e due schede allo stesso utente, e se non guadagna molto dalle due schede video, guadagnerà sul resto ;)
Nvidia può reggere tutto questo?
ghiltanas
01-11-2007, 14:45
se si tratta di aspettare qualche giorno è + che condivisibile. anch'io aspetto le proposte ati, che senso ha fare un acquisto importante come la vga per poi pentirsene...nn si parla di aspettare dei mesi, ma 1 o2 settimane
Campioni del Mondo 2006!!
01-11-2007, 14:46
se si tratta di aspettare qualche giorno è + che condivisibile. anch'io aspetto le proposte ati, che senso ha fare un acquisto importante come la vga per poi pentirsene...nn si parla di aspettare dei mesi, ma 1 o2 settimane
Quoto
ghiltanas
01-11-2007, 14:48
Amd si muove a lanciare un bel prodotto, Nvidia risponde, e Amd rilancia. Io credo che anche a 199$, Amd guadagni bene, grazie ai 55nm. Nvidia non può giocare alla guerra dei prezzi alla stessa maniera, visto che usa un processo produttivo con un costo superiore.
Alla fine, se le HD3870 si rivelano delle eccellenti schede per il Crossfire a basso prezzo, magari con prestazioni il 20% superiori ad una singola ultra in Crysis,AMD guadagnerà molto, moltissimo. Venderà infatti il chipset, il processore e due schede allo stesso utente, e se non guadagna molto dalle due schede video, guadagnerà sul resto ;)
Nvidia può reggere tutto questo?
il problema del multi gpu è serio secondo me...sembra che il trend del prossimo anno sarà realizzare vga molto economiche con discreta potenza e puntare molto su sitema con 3 o 4 vga...spero sinceramente nn sia questo il trend perchè le soluzioni sli o crossfire nn mi piacciono, preferisco una vga potente che 2 mediocri in parallelo
Questa GT è davvero ma davvero una scheda portentosa, la vedo dura per l'RV passarla :rolleyes:
Campioni del Mondo 2006!!
01-11-2007, 14:58
Questa GT è davvero ma davvero una scheda portentosa, la vedo dura per l'RV passarla :rolleyes:
Si però se costasse 50 euro in meno la HD3870 e andasse solo poco meno..
Si però se costasse 50 euro in meno la HD3870 e andasse solo poco meno..
da vedere quanto meno... perchè con Crysis in giro più potenza c'è meglio è :mc:
un occhio anche all'overclock, xchè la GT in questo campo fa paura :)
Campioni del Mondo 2006!!
01-11-2007, 15:22
da vedere quanto meno... perchè con Crysis in giro più potenza c'è meglio è :mc:
un occhio anche all'overclock, xchè la GT in questo campo fa paura :)
Cmq io non comprerei una scehda solo per un gioco.. e cmq per giocare a crysis al max ci vuole la ultra!!!.. ihmo non giocherò al massimo :D
Cmq io non comprerei una scehda solo per un gioco.. e cmq per giocare a crysis al max ci vuole la ultra!!!.. ihmo non giocherò al massimo :D
Ma la GT ben clockata alla Ultra gli va vicino mi par di capire :oink: in ogni caso vediamo cosa fa la RV
cmq il trend di richieste hardware per i giochi di punta è in ascesa meglio premunirsi :) in ogni caso Crysis è IL gioco :p
Campioni del Mondo 2006!!
01-11-2007, 15:35
Ma la GT ben clockata alla Ultra gli va vicino mi par di capire :oink:
cmq il trend di richieste hardware per i giochi di punta è in ascesa meglio premunirsi :) in ogni caso Crysis è IL gioco :p
Ma deve ancora uscire!! e cmq quasi tutti i giochi Dx10 che usciranno (se non usciranno solo DX10.1) avranno richieste ben superiori sia alla 8800gt che alla ultra.. se si vuole il max dettaglio..
A me quindi non interessa :p
il problema del multi gpu è serio secondo me...sembra che il trend del prossimo anno sarà realizzare vga molto economiche con discreta potenza e puntare molto su sitema con 3 o 4 vga...spero sinceramente nn sia questo il trend perchè le soluzioni sli o crossfire nn mi piacciono, preferisco una vga potente che 2 mediocri in parallelo
diciamo che sono soluzioni che ancora soffrono parecchio per via del supporto driver e ciò le fa apparire inutili e dispendiose. Aggiungiamo anche i consumi che aumentano a dismisura costringendoti a cambiare alimentatore ecc.. Se non ci fossero questi problemi, penso che sarebbe una buona idea puntare in un futuro (non definito, potrebbe essere fra un anno come fra 5-6) su sistemi con 3-4 gpu, magari quando usciranno schede video dal processo produttivo ridottissimo che permetteranno di contenere enormemente i consumi rispetto a ora. E ovviamente con una spesa adeguata alla maggior parte delle tasche.
Campioni del Mondo 2006!!
01-11-2007, 15:46
Seconde me tra 2 o 3 anni usciranno delle scheda con già incorporate su un'unica vga 2 o 4 gpu come è avvenuto con i processori..
Dubito che 4 schede video quad sli o crossfire possa avere molto futuro..
opposing
01-11-2007, 16:06
Seconde me tra 2 o 3 anni usciranno delle scheda con già incorporate su un'unica vga 2 o 4 gpu come è avvenuto con i processori..
Dubito che 4 schede video quad sli o crossfire possa avere molto futuro..
che io sappia le hanno già fatte anche in passato schede con 2 GPU su un'unica scheda video, al momento mi viene in mente la 6600GT che usciva con 2 gpu su un'unica scheda ma credo che lo abbiano fatto anche con altri modelli.
MiKeLezZ
01-11-2007, 16:11
Si però se costasse 50 euro in meno la HD3870 e andasse solo poco meno..Se costa 50 euro in meno, andrà 50 euro in meno.. minimo (anche perchè han anche la scusetta DX 10.1 per mungere meglio) ;)
Amd si muove a lanciare un bel prodotto, Nvidia risponde, e Amd rilancia. Io credo che anche a 199$, Amd guadagni bene, grazie ai 55nm. Nvidia non può giocare alla guerra dei prezzi alla stessa maniera, visto che usa un processo produttivo con un costo superiore.
Alla fine, se le HD3870 si rivelano delle eccellenti schede per il Crossfire a basso prezzo, magari con prestazioni il 20% superiori ad una singola ultra in Crysis,AMD guadagnerà molto, moltissimo. Venderà infatti il chipset, il processore e due schede allo stesso utente, e se non guadagna molto dalle due schede video, guadagnerà sul resto ;)
Nvidia può reggere tutto questo?E' sbagliato il concetto di fondo. Anche NVIDIA volendo potrebbe costruire le sue schede a 55nm, non è un vero e proprio die shrink che necessita di studi specifici e re-ingegnerizzazione, ma solo un rimpicciolimento del processo a 65nm.
Non lo fa perchè non vale la pena (datosi che da 90nm e poi passata a 65nm, e sta sicuramente già preventivando i 45nm), e questo gli consente inoltre una maggior libertà di azione (vedi per esempio il debutto delle 8800GT prima del tempo).
Ovvero, mettiamo che contratto e apertura di una linea di produzione a 55nm costi 2000 dobloni, mentre quella da 65nm (maggiormente collaudata) costi 1000 dobloni.
A queste aggiungiamo le spese per materiale, spedizione, che vi saranno per ogni sfornata di chip, costo 200 dobloni a botta.
Una sfornata a 55nm fa 100 chip, mentre quella a 65nm ne fa 80.
Quindi per fare un totale di 800 chip spenderemmo (somma) 2000+200*8=3600 dobloni in un caso (55nm), e 1000+200*10=3000 dobloni nell'altro (65nm)... ovvero risulta in realtà più conveniente la produzione a 65nm.
Il punto di "break-even", ovvero oltre il quale avviene il pareggio e diventa più conveniente la soluzione a 55nm, è quando dovremmo fare 2100 chip (2000+200*21=6200 , 1000+200*27=6400).
Nel caso di AMD gli 80nm prima, e i 55nm dopo, non sono in realtà un modo per massimizzare il profitto (anzi, dato lo scarsissimo successo commerciale della serie HD2900XT, secondo me ci sono andati a perdere con tale scelta), ma anche un modo per instillare nella gente la credenza di esser avanti tecnologicamente, e un modo per ridurre gli evidenti problemi di consumi (il che pregiudica anche la fattibilità di sistemi multi-chip).
Campioni del Mondo 2006!!
01-11-2007, 16:12
si mi pare con la 7959 gx2.. però riducendo il processo produttivo le cose non possono che migliorare..
ghiltanas
01-11-2007, 16:13
Se costa 50 euro in meno, andrà 50 euro in meno.. minimo
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:
e infatti la gt costa 200 euro e passa meno della gtx e va 200 euro meno della gtx? :rolleyes:
evitiamoli questi commenti da ultra fan boy...
+Lonewolf+
01-11-2007, 16:19
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:
e infatti la gt costa 200 euro e passa meno della gtx e va 200 euro meno della gtx? :rolleyes:
evitiamoli questi commenti da ultra fan boy...
stavo per scirverlo io
Campioni del Mondo 2006!!
01-11-2007, 16:19
Penso anche io che andrà meno veloce della 8800 gt.. ma dire se andrà 30 o 20 euro in meno mi pare un pò eccessivo..
Campioni del Mondo 2006!!
01-11-2007, 16:19
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:
e infatti la gt costa 200 euro e passa meno della gtx e va 200 euro meno della gtx? :rolleyes:
evitiamoli questi commenti da ultra fan boy...
quoto
+Lonewolf+
01-11-2007, 16:20
Penso anche io che andrà meno veloce della 8800 gt.. ma dire se andrà 30 o 20 euro in meno mi pare un pò eccessivo..
ma come mai tutti pensano che andrà meno???? nn capisco!!!!ancora deve uscire!!!
MiKeLezZ
01-11-2007, 16:20
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:
e infatti la gt costa 200 euro e passa meno della gtx e va 200 euro meno della gtx? :rolleyes:
evitiamoli questi commenti da ultra fan boy...Che esempio stupido il tuo! Bisogna guardare la concorrenza, non le schede della stessa casa, per cui è normalissimo un andamento dei prezzi a parabola (figuriamoci se poi sono modelli ormai vecchietti in procinto di sostituzione, ma dai).
La HD2900XT, scheda di top gamma, è uscita a prezzi da fascia media (d'altronde si confrontava con la GTS), e lo stesso si può dire del A64 6400+, prezzato addirittura da fascia bassa (!), che poi è quella Intel dove cade prestazionalmente.
Vedi che se la HD2900PRO la prezzano a 199$ significa che non andrà più veloce della 8800GT da 239$ neppure se preghi Dio Maometto e Buddha assieme...
Comunque te eri già segnato :-)
Campioni del Mondo 2006!!
01-11-2007, 16:23
Che esempio stupido il tuo! Bisogna guardare la concorrenza, non le schede della stessa casa, per cui è normalissimo un andamento dei prezzi a parabola (figuriamoci se poi sono modelli ormai vecchietti in procinto di sostituzione, ma dai).
La HD2900XT, scheda di top gamma, è uscita a prezzi da fascia media (d'altronde si confrontava con la GTS), e lo stesso si può dire del A64 6400+, prezzato addirittura da fascia bassa (!), che poi è quella Intel dove cade prestazionalmente.
Vedi che se la HD2900PRO la prezzano a 199$ significa che non andrà più veloce della 8800GT da 239$ neppure se preghi Dio Maometto e Buddha assieme...
Comunque te eri già segnato :-)
La 2900xt mi pare costasse 400 euro, non 260 o 340 come la gts 320 e 640..
Cmq sono tutte supposizioni.. non ci resta che aspettare il 15 :)
opposing
01-11-2007, 16:26
ma si infatti, se non escono le schede in commercio per poterle provare si sta parlando di aria fritta :D
ghiltanas
01-11-2007, 16:29
ma si infatti, se non escono le schede in commercio per poterle provare si sta parlando di aria fritta :D
esatto, infatti nn capisco perchè criticare già vga nn ancora uscite. tutto qui.
MiKeLezZ
01-11-2007, 16:31
Zoccolo duro dei sognatori alla riscossa, vedo...
La 2900xt mi pare costasse 400 euro, non 260 o 340 come la gts 320 e 640..
Cmq sono tutte supposizioni.. non ci resta che aspettare il 15 :)Il prezzo di debutto della HD2900XT era esattamente di una manciata di euro inferiore a quello della 8800GTS da 640MB. Anche adesso, il prezzo rimane comparabile (sui 350 euro).
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_21.html
il prezzo ufficiale proposto da AMD è di 399,00€ IVA compresa nel canale retail, con possibili diminuzioni da parte di alcuni partner. Si tratta di cifre mediamente inferiori a quelle delle soluzioni GeForce 8800 GTS 640 Mbytes anche se non sussistono differenze estremamente elevate al momento;
Campioni del Mondo 2006!!
01-11-2007, 16:34
Già.. Cmq alla fine mi hai dato ragione.. costava meno.. e andava leggermente di più.. :p
3DMark79
01-11-2007, 16:52
Il prezzo di debutto della HD2900XT era esattamente di una manciata di euro inferiore a quello della 8800GTS da 640MB. Anche adesso, il prezzo rimane comparabile (sui 350 euro).
Quoto, vicino casa la Hd2900XT è sempre costata da quando uscii 357Euro :).
Free Gordon
01-11-2007, 17:33
Se la HD2900XT è stato un flop non mi aspetterei miracoli dalla 3870:
RV670XT to end up 20+ percent slower from 8800GT
Probabilmente, è semplicemente un R600 con freq a 825mhz e bus a 256bit.
Le rops saranno identiche.
In queste condizioni, è probabile che i risultati ottenibili da questo chip coi giochi attuali, siano molto simili a quelli di R600.. dato che in molti giochi "fillrate limited", l'incremento delle prestazioni con 100mhz in più sul core, è essenzialmente marginale.
Free Gordon
01-11-2007, 17:35
e tra parentesi,io,halduemilauno,scrambler77,evangelion01 e qualche altro che adesso non ricordo capimmo subito che la scheda fu un flop,
E menomale che ci siste voi esperti di GPU, in questo forum... :rotfl:
amd sarà in grado di reggere tutto questo?
;)
Secondo me AMD, è destinata al fallimento...e Halduemilauno con i suoi compari esperti di GPU l'avevano predetto. ;)
Free Gordon
01-11-2007, 17:38
filtro anisotropico di qualità inferiore
ma questa cosa, l'hai verificata, tu, direttamente? :D
perchè vedo che la metti sempre in mezzo, ma sono certo che se ti mettessi di fronte alle due immagini, con AF16x "HQ" delle due GPU (G80 ed R600) non riusciresti a scorgerne la differenza... cioè il gioco: di chi è l'immagine? :D
(io l'ho provato personalmente, sullo stesso monitor crt).
3DMark79
01-11-2007, 17:47
Certo ragazzi che se avrebbero fatto una bella scheda o ATI o Nvidia con 320sp, frequenza stream processors a 1500mhz, bus a 512bit, 800mhz GPU, DDR4 2200mhz da 1GB , processo produttivo 55nm...volevo vedere come girava Crysis...ma per adesso e solo un sogno...:ronf: :rolleyes:
Free Gordon
01-11-2007, 17:53
Già.. Cmq alla fine mi hai dato ragione.. costava meno.. e andava leggermente di più.. :p
:D
halduemilauno
01-11-2007, 18:02
E menomale che ci siste voi esperti di GPU, in questo forum... :rotfl:
Secondo me AMD, è destinata al fallimento...e Halduemilauno con i suoi compari esperti di GPU l'avevano predetto. ;)
esser stato il primo a dire che era un flop me ne prendo tutti i meriti.
destinata al fallimento non lo so. cmq appena ho qualche elemento a prova ne renderò partecipe.
E' sbagliato il concetto di fondo. Anche NVIDIA volendo potrebbe costruire le sue schede a 55nm, non è un vero e proprio die shrink che necessita di studi specifici e re-ingegnerizzazione, ma solo un rimpicciolimento del processo a 65nm.
Non lo fa perchè non vale la pena (datosi che da 90nm e poi passata a 65nm, e sta sicuramente già preventivando i 45nm), e questo gli consente inoltre una maggior libertà di azione (vedi per esempio il debutto delle 8800GT prima del tempo).
Ovvero, mettiamo che contratto e apertura di una linea di produzione a 55nm costi 2000 dobloni, mentre quella da 65nm (maggiormente collaudata) costi 1000 dobloni.
A queste aggiungiamo le spese per materiale, spedizione, che vi saranno per ogni sfornata di chip, costo 200 dobloni a botta.
Una sfornata a 55nm fa 100 chip, mentre quella a 65nm ne fa 80.
Quindi per fare un totale di 800 chip spenderemmo (somma) 2000+200*8=3600 dobloni in un caso (55nm), e 1000+200*10=3000 dobloni nell'altro (65nm)... ovvero risulta in realtà più conveniente la produzione a 65nm.
Il punto di "break-even", ovvero oltre il quale avviene il pareggio e diventa più conveniente la soluzione a 55nm, è quando dovremmo fare 2100 chip (2000+200*21=6200 , 1000+200*27=6400).
Nel caso di AMD gli 80nm prima, e i 55nm dopo, non sono in realtà un modo per massimizzare il profitto (anzi, dato lo scarsissimo successo commerciale della serie HD2900XT, secondo me ci sono andati a perdere con tale scelta), ma anche un modo per instillare nella gente la credenza di esser avanti tecnologicamente, e un modo per ridurre gli evidenti problemi di consumi (il che pregiudica anche la fattibilità di sistemi multi-chip).
Certamente Amd ha fatto un investimento superiore ad Nvidia per quanto riguarda l'aggiornamento delle fab, ma RV670 non sarà l'unico chip prodotto a 55nm e l'investimento diventerà maggiormente proficuo con R700.
Per quanto riguarda Nvidia, dubito che riescano ad arrivare a 45nm entro breve, anche per massimizzare l'investimento effettuato nell'aggiornare le fab a 65nm.
Se l'uso di un processo produttivo minore non darà discreti vantaggi ad Amd nella sfida 38x0 vs 8800GT, potrà darli nella sfida R700 vs G100, sopratutto sul fronte consumi. Un vantaggio che non è da sottovalutare con l'avvento del GPGPU di massa e Fusion.
MiKeLezZ
01-11-2007, 18:39
ma questa cosa, l'hai verificata, tu, direttamente? :D
perchè vedo che la metti sempre in mezzo, ma sono certo che se ti mettessi di fronte alle due immagini, con AF16x "HQ" delle due GPU (G80 ed R600) non riusciresti a scorgerne la differenza... cioè il gioco: di chi è l'immagine? :D
(io l'ho provato personalmente, sullo stesso monitor crt).Bhe, certo, se minimizziamo diventa buona pure l'integrata :D ... AF tanto non me ne accorgo, UVD c'ho la CPU potente non mi serve, AA poi non vedo i pixel meglio lo tengo disattivo, 1920x1200 non va ma uso la 1024x768 riscalata che funziona uguale, se consuma 250W meglio così mi riscaldo di inverno, etc :D :D
Comunque sì, ho visto degli screen uno di fianco all'altro e la differenza è minima, ma non si può certo dire che non c'è, soprattutto nel caso di piani obliqui
Certamente Amd ha fatto un investimento superiore ad Nvidia per quanto riguarda l'aggiornamento delle fab, ma RV670 non sarà l'unico chip prodotto a 55nm e l'investimento diventerà maggiormente proficuo con R700.
Per quanto riguarda Nvidia, dubito che riescano ad arrivare a 45nm entro breve, anche per massimizzare l'investimento effettuato nell'aggiornare le fab a 65nm.
Se l'uso di un processo produttivo minore non darà discreti vantaggi ad Amd nella sfida 38x0 vs 8800GT, potrà darli nella sfida R700 vs G100, sopratutto sul fronte consumi. Un vantaggio che non è da sottovalutare con l'avvento del GPGPU di massa e Fusion.No, non hai compreso a pieno la questione.
ATI e NVIDIA sono aziende fabless, ovvero loro progettano solo il chip su carta, poi si affidano conto terzi per la costruzione dello stesso.
Quindi il fattore limitante in questi casi è l'avanzamento tecnologico delle fonderie a cui si appoggiano, che sono sempre aggiornate (per esempio non hanno problemi a 65nm), ma non certamente avanti a tutti (per esempio stanno ancora lavorando sui 45nm).
Bisogna prendere mano al progetto del chip ogni volta che si decida di passare a diverse nanometrie, ovvero da 110nm a 90nm a 65nm a 45nm a 32nm, questo perchè bisogna fare controlli per il routing dei segnali, dissipazione, prevedere i leakage, etc; quelle intermedie come ad esempio 80nm e 55nm non necessitano invece di riprogettazione, sono direttamente derivate da rispettivamente i progetti per i 65nm e i 45nm: prendono le immagini relative a tali nanometrie e con photoshop li riscalano del 15%, ecco fatto :D (ovviamente scherzo... o forse no).
L'investimento dei 55nm, inteso come ritorno monetario, diventa vantaggioso, come ho scritto, solo nei casi in cui sia necessario immettere nel mercato un'elevata quantità di chip (magari per evitare che la troppa domanda porti a empty stock e quindi i clienti si rivolgano alla concorrenza, facendo perdere potenziali profitti) e/o si preveda l'immissione sul mercato di un'elevata quantità di chip (cioè se il ciclo produttivo non cessa, come invece è successo con HD2900XT, dopo soli 6 mesi, ma magari è pensato per un anno).
Per la sfida G100 vs R700, ci sono team che ci lavorano già da parecchio, non disturbati dagli avvenimenti attuali, ma la capacità di entrambe le case è finora limitata ai soli 65nm (come già detto, i 55nm non contano): per i 45nm dovranno entrambi farsi il culo con respin del silicio e bugfix, e ATI in questo caso non può neppure contare sul supporto di AMD in quanto anche lei è ancora in alto mare... quella ancora in vantaggio è NVIDIA visto che G80 è stato lanciato 12 mesi fa, mentre R600 ha 6 mesi: 6 mesi di vantaggio.
qualcuno sa dove è possibile acquistare una 8800GT?
Bhe, certo, se minimizziamo diventa buona pure l'integrata :D ... AF tanto non me ne accorgo, UVD c'ho la CPU potente non mi serve, AA poi non vedo i pixel meglio lo tengo disattivo, 1920x1200 non va ma uso la 1024x768 riscalata che funziona uguale, se consuma 250W meglio così mi riscaldo di inverno, etc :D :D
Comunque sì, ho visto degli screen uno di fianco all'altro e la differenza è minima, ma non si può certo dire che non c'è, soprattutto nel caso di piani obliqui
No, non hai compreso a pieno la questione.
ATI e NVIDIA sono aziende fabless, ovvero loro progettano solo il chip su carta, poi si affidano conto terzi per la costruzione dello stesso.
Quindi il fattore limitante in questi casi è l'avanzamento tecnologico delle fonderie a cui si appoggiano, che sono sempre aggiornate (per esempio non hanno problemi a 65nm), ma non certamente avanti a tutti (per esempio stanno ancora lavorando sui 45nm).
Bisogna prendere mano al progetto del chip ogni volta che si decida di passare a diverse nanometrie, ovvero da 110nm a 90nm a 65nm a 45nm a 32nm, questo perchè bisogna fare controlli per il routing dei segnali, dissipazione, prevedere i leakage, etc; quelle intermedie come ad esempio 80nm e 55nm non necessitano invece di riprogettazione, sono direttamente derivate da rispettivamente i progetti per i 65nm e i 45nm: prendono le immagini relative a tali nanometrie e con photoshop li riscalano del 15%, ecco fatto :D (ovviamente scherzo... o forse no).
L'investimento dei 55nm, inteso come ritorno monetario, diventa vantaggioso, come ho scritto, solo nei casi in cui sia necessario immettere nel mercato un'elevata quantità di chip (magari per evitare che la troppa domanda porti a empty stock e quindi i clienti si rivolgano alla concorrenza, facendo perdere potenziali profitti) e/o si preveda l'immissione sul mercato di un'elevata quantità di chip (cioè se il ciclo produttivo non cessa, come invece è successo con HD2900XT, dopo soli 6 mesi, ma magari è pensato per un anno).
Per la sfida G100 vs R700, ci sono team che ci lavorano già da parecchio, non disturbati dagli avvenimenti attuali, ma la capacità di entrambe le case è finora limitata ai soli 65nm (come già detto, i 55nm non contano): per i 45nm dovranno entrambi farsi il culo con respin del silicio e bugfix, e ATI in questo caso non può neppure contare sul supporto di AMD in quanto anche lei è ancora in alto mare... quella ancora in vantaggio è NVIDIA visto che G80 è stato lanciato 12 mesi fa, mentre R600 ha 6 mesi: 6 mesi di vantaggio.
Grazie per la spiegazione dettagliata :)
Quindi con molta probabilità sia G100 che R700 saranno a 65nm, visto che le top-gamma difficilmente vendono grosse quantità di chip o fanno sold out...
+Lonewolf+
01-11-2007, 23:00
Zoccolo duro dei sognatori alla riscossa, vedo...
).
la tua certezza che andrà di meno è irritante...inoltre la tua aroganza incornicia bene il fatto che ti stai rivelando un fanboy...
MarcoSonoIo
02-11-2007, 01:20
ciao, mi sapete dire se queste dissipatori sono buoni per la 8800gt?
http://www.hardmicro-fr.net/uploads/img46db184c210b8.gif
http://overclockers.ru/images/news/2007/06/06/zalman_03.jpg
grazie
ciao, mi sapete dire se queste dissipatori sono buoni per la 8800gt?
http://www.hardmicro-fr.net/uploads/img46db184c210b8.gif
http://overclockers.ru/images/news/2007/06/06/zalman_03.jpg
grazie
http://www.hwupgrade.it/forum/showthread.php?t=1589739
>bYeZ<
MarcoSonoIo
02-11-2007, 01:43
grazie, nn pensavo ke già c'era un discussione. ciauz
c'è anche quello sulla scheda video... cmq questi sono i commenti agli articoli.. cmq eri OT.. 2 volte :D
>bYeZ<
poi ognuno fa come meglio crede..
Questo è owio... la mia era solo un'osservazione :P
Free Gordon
02-11-2007, 13:41
Bhe, certo, se minimizziamo diventa buona pure l'integrata :D ... AF tanto non me ne accorgo, UVD c'ho la CPU potente non mi serve, AA poi non vedo i pixel meglio lo tengo disattivo, 1920x1200 non va ma uso la 1024x768 riscalata che funziona uguale, se consuma 250W meglio così mi riscaldo di inverno, etc :D :D
Comunque sì, ho visto degli screen uno di fianco all'altro e la differenza è minima, ma non si può certo dire che non c'è, soprattutto nel caso di piani obliqui
Ah.. allora la differenza è minima.. :asd:
Mi pareva fosse un difettone che portavi come bandiera della riscossa "IQ" di nVidia.. :D
ps.
cmq se metti AF HQ da driver, con ATI, non dovresti avere grossi problemi anche coi piani obliqui.
Free Gordon
02-11-2007, 13:47
quella ancora in vantaggio è NVIDIA visto che G80 è stato lanciato 12 mesi fa, mentre R600 ha 6 mesi: 6 mesi di vantaggio.
Eh già...proprio come R520/580 e concorrenti nVidia... :asd:
G70 esce 4 prima di R520 ed R580 esce un mese prima di G71...
Come vedi le tue equazioni commerciali non sono sempre così certe. :D
ps.
Cmq R700 uscirà a 55nm.
Campioni del Mondo 2006!!
02-11-2007, 13:49
Questo è owio... la mia era solo un'osservazione :P
Era inteso che tu sei liberissimo di comprare subito, non che lo sono io.. dicevo che io penso di aspettare, però tu sei liberissimo di fare il contrario.. non era in tono accusatorio ;)
MiKeLezZ
02-11-2007, 14:12
Eh già...proprio come R520/580 e concorrenti nVidia... :asd:
G70 esce 4 prima di R520 ed R580 esce un mese prima di G71...
Come vedi le tue equazioni commerciali non sono sempre così certe. :D
ps.
Cmq R700 uscirà a 55nm.Cavolo, e senti, ma che c'è scritto qua?
Senza occhiali non leggo bene, dammi una mano
http://www.xbitlabs.com/news/video/display/20071029062106.html
p.s.
Le 8800 sono uscite nel 3Q 2006
p.s.
55nm=65nm
http://www.eetimes.com/news/semi/showArticle.jhtml?articleID=198700276
:friend:
dragonheart81
02-11-2007, 15:30
Sono arrivato tardi questo giro ho finito di leggere ora l'articolo...bhé che dire a questo prezzo e agli ottimi punteggi segnati nei test sarà la mia prossima scheda video in versione overclocked magari visto il costo d'acquisto...
ghiltanas
02-11-2007, 15:37
sapete se qualcuno ne propone una versione senza il dissipatore della disney? (si della disney perchè l'ha sviluppato paperino e l'ha revisionato pippo)
che senso ha ridurre l'ingombro a sfavore della temperatura nn lo capisco...
opposing
02-11-2007, 15:45
sapete se qualcuno ne propone una versione senza il dissipatore della disney? (si della disney perchè l'ha sviluppato paperino e l'ha revisionato pippo)
che senso ha ridurre l'ingombro a sfavore della temperatura nn lo capisco...
ecco questo mi interesserebbe saperlo, perchè se c'è una versione con dissy migliorato con un adeguato rapporto calore/rumore la prendo, sennò mi oriento sulla gts da 320
Io ho acquistato questa scheda considerando l' ottimo rapporto qualità prezzo. Sono molto contento dell' acquisto per il momento considerando che la risoluzione max a cui gioco è 1280x1024 e questa scheda mi consente di poter applicare diversi filtri senza avere grossi rallentamenti pur avendo una configurazione hardware del mio pc un poco vecchiotta. Riguardo alle temperature di esercizio della scheda, fino ad ora non ho avuto problemi. Anche io aspetto, anzi sono curioso di vedere che scheda top di gamma sarà in grado di fare con questa nuova tecnologia G92...., intanto mi diverto con questa geforce 8800gt.
55nm=65nm
http://www.eetimes.com/news/semi/showArticle.jhtml?articleID=198700276
Non mi pare proprio ci sia scritto 55nm=65nm... E' uno shrinking che permette minori consumi e minore ingombro... Se si consuma meno si può occare di più come minimo...
MiKeLezZ
04-11-2007, 12:01
Non mi pare proprio ci sia scritto 55nm=65nm... E' uno shrinking che permette minori consumi e minore ingombro... Se si consuma meno si può occare di più come minimo...Certo, chiaro, c'è pure scritto :) :) :) .
Il punto è che non è un nuovo step del processo produttivo, come ad esempio potrebbe esserlo i 45nm, ma è semplicemente basato sempre sui 65nm ;) ;) ;) .
Bella inc.... per chi da poco ha preso una 8800GTS 320Mb... complimenti... :mad:
ghiltanas
05-11-2007, 09:47
nn so se l'avete visto ma su vrzone e' apparsa la notizia che il 3 dicembre uscira' la 8800gts nuova in due versioni, il prezzo (credo sia quello ) e' di 308 usd, cosa significa?:confused:
ps nn so se aspettarla oppure scegliere fra la gt o le nuove ati..dipende dal prezzo
sommojames
05-11-2007, 09:53
nn so se l'avete visto ma su vrzone e' apparsa la notizia che il 3 dicembre uscira' la 8800gts nuova in due versioni, il prezzo (credo sia quello ) e' di 308 usd, cosa significa?:confused:
ps nn so se aspettarla oppure scegliere fra la gt o le nuove ati..dipende dal prezzo
Cosa, usd? United States Dollars. Da noi fa pure 308 euro ;)
ghiltanas
05-11-2007, 09:55
Cosa, usd? United States Dollars. Da noi fa pure 308 euro ;)
grazie mille, lo supponevo ma ne volevo la certezza.:D
ok allora mi dispiace ma questa scheda e' fuori dalla mia portata, poi considerando quando esce, prima che me la consegnino si andrebbe all'anno nuovo :sofico:
Io alla mia risoluzione non credo di sfruttare neanche la GT al massimo, figuriamoci la GTS :D
Mi tengo qualche soldino in tasca
Free Gordon
05-11-2007, 13:06
Cavolo, e senti, ma che c'è scritto qua?
Senza occhiali non leggo bene, dammi una mano
http://www.xbitlabs.com/news/video/display/20071029062106.html
Evvaiii, siii, dai facciamo un pò di spam pro nVidia sul forum!!! :asd:
Son contento che nVidia accresca la sua quota di mercato ma cosa c'entra col discorso ATI in ritardo, nVidia in vantaggio che facevamo sopra?
R580 è uscito o no prima di G71? :D
p.s.
Le 8800 sono uscite nel 3Q 2006
Mi sfugge il nesso col discorso che affrontavamo nel messaggio che m'hai quotato. :mbe:
Cmq, storicamente, ATI è sempre uscita dopo Nvidia (col concorrente diretto). Solo con R300 è uscita prima (ed è stato più che altro un caso).
p.s.
55nm=65nm
http://www.eetimes.com/news/semi/showArticle.jhtml?articleID=198700276
:friend:
Era solo una precisazione eh.. :D non ti scomporre eh! :asd:
Dato che sostenevi che lo shrink ottico serve solo per le architetture di massa che non necessitano di frequenze performanti ma più che altro di alte rese, ti ho fatto notare che la prossima architettura di punta, uscirà proprio a 55nm (almeno stando a quanto è emerso fino ad oggi).
ghiltanas
05-11-2007, 22:41
raga siccome mi sta interessando parecchio the witcher che ho scoperto solo da poco, come pensate che andrà con questa scheda?
benissimo
Io lo gioco a 1920x1200 tutto al max con una vecchia x1900xtx ( con rallentamenti )
Con la 8800 ti volera';)
Secondo voi su un P4 Prescott a 3,4ghz otterrei dei miglioramenti significativi nel passare da una 7900GS a questa 8800GT? O sarebbero soldi buttati?
Secondo voi su un P4 Prescott a 3,4ghz otterrei dei miglioramenti significativi nel passare da una 7900GS a questa 8800GT? O sarebbero soldi buttati?
secondo me si anche perchè la cpu conta nel 3dmark ma se andiamo a vedere sono ancora pochi i giochi che sfruttano il multi-core anche se si stanno un pò tutte adeguando le software house.quindi è soprattutto di potenza grafica che si ha bisogno e tra le 2 non ci penso 2 volte a scegliere la 8800
ghiltanas
08-11-2007, 14:44
cavoli ste schede sono andate veramente a ruba, su internet la gt nn si trova praticamente da nessuna parte...
se dovessi optare per la gt sono indeciso fra xfx e bfg, mi sembrano 2 ottime marche, cmq anche per queste 8800 cambia praticamente solo l'adesivo che ci mettono? per il resto sono uguali fra loro? salvo ovviamente oc
Pancho Villa
08-11-2007, 14:47
Secondo voi su un P4 Prescott a 3,4ghz otterrei dei miglioramenti significativi nel passare da una 7900GS a questa 8800GT? O sarebbero soldi buttati?
secondo me si anche perchè la cpu conta nel 3dmark ma se andiamo a vedere sono ancora pochi i giochi che sfruttano il multi-core anche se si stanno un pò tutte adeguando le software house.quindi è soprattutto di potenza grafica che si ha bisogno e tra le 2 non ci penso 2 volte a scegliere la 8800Assolutamente sì.
http://www.hwupgrade.it/forum/showthread.php?p=19394924#post19394924
ghiltanas
09-11-2007, 14:22
raga la galaxy si prepara a lanciare la prima gt con raffreddamento a doppio slot:
Galaxy Technology prepared one of the first non reference products based on G92 chipset on the market
la notizia è su vrzone
raga la galaxy si prepara a lanciare la prima gt con raffreddamento a doppio slot:
Galaxy Technology prepared one of the first non reference products based on G92 chipset on the market
la notizia è su vrzone
scusa ma a me non sembra proprio a due slot (nel senso chiusa e che fa uscire l'aria da dietro il case).
riporto anche che la Gigabyte uscirà con una 8800 GT equipaggiata di Zalmann (e anche una hd 3850 con zalmann).
ghiltanas
09-11-2007, 14:37
scusa ma a me non sembra proprio a due slot (nel senso chiusa e che fa uscire l'aria da dietro il case).
riporto anche che la Gigabyte uscirà con una 8800 GT equipaggiata di Zalmann (e anche una hd 3850 con zalmann).
dici? :confused:
boh forse hai ragione, cmq monta memorie + veloci (1,0 ns contro gli 1,2 standard), ha un sistema a 3 fasi + stabile quindi in oc, e dovrebbe essere molto effeciente come raffreddamento. Stiamo a vedere
ps la versione con lo zalman l'ho già vista, ma nn mi inspira e sicuramente costerà troppo
con un E4300 e una 8800 GT
reggo il 1680x1050?
pLay.hArd
09-11-2007, 15:32
con un E4300 e una 8800 GT
reggo il 1680x1050?
overclocca 4300 a 3ghz vedrai come vola
dici? :confused:
boh forse hai ragione, cmq monta memorie + veloci (1,0 ns contro gli 1,2 standard), ha un sistema a 3 fasi + stabile quindi in oc, e dovrebbe essere molto effeciente come raffreddamento. Stiamo a vedere
infatti. che sia più efficiente del design standard è fuori di dubbio
ps la versione con lo zalman l'ho già vista, ma nn mi inspira e sicuramente costerà troppo
veramente la news dove l'ho trovata (sul sito tomshw it) dice che il prezzo è molto simile alla reference board. anzi secondo me costa più la galaxy che non la gigabyte...
roller18
09-11-2007, 15:49
Cosa, usd? United States Dollars. Da noi fa pure 308 euro ;)
perchè?
col cambio attuale non dovrebbe essere 209€ da noi?
con un E4300 e una 8800 GT
reggo il 1680x1050?
ehhh hai voglia :D senza problemi
raga ho trovato la GIGABYTE SVGA GIGABYTE PCI-EX 8800GT 512MB GDDR3 TV+DVI a 224 euro,vorrei sapere se e uguale come prestazione a questa
raga ho trovato la GIGABYTE SVGA GIGABYTE PCI-EX 8800GT 512MB GDDR3 TV+DVI a 224 euro,vorrei sapere se e uguale come prestazione a questa
a questa quale?? una 8800GT è sempre una 8800GT indipendentemente dalla marca (a meno di modelli oc di fabbrica o con raffreddamento diverso dalla reference board. ma la gigabyte è standardissima su tutti i fronti).
perchè?
col cambio attuale non dovrebbe essere 209€ da noi?
perchè il rapporto dollaro euro per i prodotti informatici è 1:1 :rolleyes:
sommojames
11-11-2007, 10:44
perchè il rapporto dollaro euro per i prodotti informatici è 1:1 :rolleyes:
Quoto, a volte sale addirittura rispetto all'1:1.
Quoto, a volte sale addirittura rispetto all'1:1.
l'europa è il 3° mondo dell'informatica. :rolleyes:
Ma questa scheda necessita anche di raffreddamento alle ram oppure essendo ddr3 non serve? perche io ho già il raffreddamento a liquido che ora uso sulla mia 6800gt e vorrei poterlo riutilizzare ma fredda solo la cpu.
3DMark79
11-11-2007, 15:45
perchè il rapporto dollaro euro per i prodotti informatici è 1:1 :rolleyes:
Perchè siamo sempre noi a prenderla nel :ciapet: anche quando c'è qualcosa di positiva come il cambio Dollaro-Euro!:muro:
Perchè siamo sempre noi a prenderla nel :ciapet: anche quando c'è qualcosa di positiva come il cambio Dollaro-Euro!:muro:
e se uno si comprasse la scheda in un negozio di e-commerce in america e poi paga con paypal il cambio sarebbe favorevole?
e se uno si comprasse la scheda in un negozio di e-commerce in america e poi paga con paypal il cambio sarebbe favorevole?
credo di si...anche se non lo ho mai fatto.
Grave Digger
11-11-2007, 16:15
e se uno si comprasse la scheda in un negozio di e-commerce in america e poi paga con paypal il cambio sarebbe favorevole?
ovvio,il problema dell'acquisto in italia sono le tasse e gli intermediari ;) ....
Tank Ule
11-11-2007, 16:16
Bella inc.... per chi da poco ha preso una 8800GTS 320Mb... complimenti... :mad:
esatto, come me, porca*****!
350 euro di scheda 2 mesi fa ora surclassata da 250 euro!!!!!!!!!!!!!!!! non si può
credo di si...anche se non lo ho mai fatto.
l' unico problema sono le spese di spedizione, qualcuno conosce qualche negozio americano di e-commerce?:D
3DMark79
11-11-2007, 16:16
credo di si...anche se non lo ho mai fatto.
Penso anch'io ma mai fatto, dipende quando si prendono di spedizione. ;)
Penso anch'io ma mai fatto, dipende quando si prendono di spedizione. ;)
anche questo è vero...insomma comunque la si rigira lo si piglia in culo lo stesso. :rolleyes:
Penso anch'io ma mai fatto, dipende quando si prendono di spedizione. ;)
xo con google non riesco a trovare siti di ecommerce stranieri , me li trova tutti italiani.:muro:
xo con google non riesco a trovare siti di ecommerce stranieri , me li trova tutti italiani.:muro:
cerca con google.com
cerca con google.com
alla fine sono andato sul sito di xfx e poi da li ho trovato vari shop americani e ho trovato uno zune da 30GB a 90 $:eek: x 2 giorni ancora
e poi una EN 8800GT a 289$ fate voi i conti xche nn ricordo a quanto e' il cambio
:D
il cambio mi pare sia 1:1,3/1,4
non credo che le bestemmie siano concesse:D
non credo che le bestemmie siano concesse:D
fidati che lo sono
bell arrobba alloooo:eek: :eek: :eek: :eek: :confused: :confused: :mad: :mad: :mad:
ghiltanas
11-11-2007, 17:40
si ma se comprate in america dopo le spese di trasporto nn sono esorbitanti?
e poi l'iva credo ci vada messo lo stesso...quindi alla fine è lo stesso prezzo che danoi..
esatto, come me, porca*****!
350 euro di scheda 2 mesi fa ora surclassata da 250 euro!!!!!!!!!!!!!!!! non si può
Posso capire la seccatura, ma modera i toni in futuro, le bestemmie non le vogliam vedere... Sei sospeso 3gg
fidati che lo sono
Assolutamente no! ;)
Se le scoviamo sono sanzionate...
si ma se comprate in america dopo le spese di trasporto nn sono esorbitanti?
e poi l'iva credo ci vada messo lo stesso...quindi alla fine è lo stesso prezzo che danoi..
credo anche io...però gli americani la pagano meno.
Assolutamente no! ;)
Se le scoviamo sono sanzionate...
la mia era una battuta...mi ero dimenticato di mettere le faccine. :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.