PDA

View Full Version : [IN CHIUSURA] Aspettando RV670


Pagine : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17

Massy84
12-11-2007, 15:15
Ma anche il modello di 512Mb ?

a me pare di si :)

c&c
12-11-2007, 15:20
a me pare di si :)

OK. tnks ;)

belin
12-11-2007, 15:24
con un piccola limatina IMHO sono prezzi + che giusti
Prezzi non malaccio tranne per il 3870 . Mi aspettavo 210.
...aspettatevi 219€ entro pochi giorni, questi sono prezzi pre-order. Ed aspettatevi anche versioni "diverse" da 249$.

;)

Ma tra la 3850 512Mb e la 3870 cambia qualcos'altro oltre le frequenze ?
Ram gddr3 al posto delle gddr4.

Massy84
12-11-2007, 15:26
...aspettatevi 219€ entro pochi giorni, questi sono prezzi pre-order. Ed aspettatevi anche versioni "diverse" da 249$.

;)


Ram gddr3 al posto delle gddr4.

io spero nei 170€ per la 3850 :sofico:

taleboldi
12-11-2007, 15:27
...
Ed aspettatevi anche versioni "diverse" da 249$.

in che senso diverse ?

...Ram gddr3 al posto delle gddr4.

e il dissi dual slot
;)

ciauz

wiltord
12-11-2007, 15:27
Ed aspettatevi anche versioni "diverse" da 249$.

;)


parli di clock o di dissi? :)

Massy84
12-11-2007, 15:30
parli di clock o di dissi? :)

per me fondamentalmente clock...per il dissy penso che si vedranno soluzioni passive ma restando sull'attivo non penso che ci sia poi tanto di meglio rispetto a quello stock

belin
12-11-2007, 15:36
in che senso diverse ?

parli di clock o di dissi? :)

Di clock della gpu superiori a quelli standard. Il dissy della HD3870 è di ottima fattura, ma usciranno versioni con dissy differenti. Praticamente quello che non è successo con R600, causa temperature alte della gpu. Vedrete che usciranno molte versioni di RV670.

:)

Errik89
12-11-2007, 15:36
per me fondamentalmente clock...per il dissy penso che si vedranno soluzioni passive ma restando sull'attivo non penso che ci sia poi tanto di meglio rispetto a quello stock
soluzioni passive penso che le vedremo solo sulle hd 3850. Comunque ste schede promettono davvero bene... alla fine se le prestazioni sono quelle sono di pochissimo sotto le 8800GT (parlo di un 5%). Ottimo!

jventure
12-11-2007, 15:46
si è detto che al momento del lancio di queste schede ci saranno già le prime recensioni ....
quindi le maggiori testate giornalistiche di hardware avranno già dei sample di questo e di quel produttore già ora oppure anche loro devono aspettare il lancio ufficiale?

chissà se negli uffici di HWupgrade si stanno già divertendo con queste schedine ...

DjLode
12-11-2007, 15:49
We found ATi HD3870 is actually has better picture process while Crysis benching.


Giusto perchè non avevo ancora visto gli screen, magari per ciecatezza ( :sofico: ) mia:

http://i14.photobucket.com/albums/a310/L7R/normal02.jpg

http://i14.photobucket.com/albums/a310/L7R/bug02.jpg

Indovinate quale è lo screen "bacato".

x.vegeth.x
12-11-2007, 15:55
mm..quindi la 3870 la fanno pagare esattamente come la 8800gt...??

confido in un calo da parte di nvidia non appena escono ste ati..:sperem:

e perchè mai dovrebbero calare di prezzo, se vanno effettivamente meglio? :) :(

Marko91
12-11-2007, 15:56
sono d'accordo.
Vedere dei frame rate cosi bassi anche con una 8800Ultra è una cosa vergognosa visto che anche in dx9 in high setting tutte le schede vanno da cani.
Non ci sono scuse ad una situazione io questo gioco non lo compro adesso e neanche tra 6 mesi perchè mi rifiuto di dare dei soldi a della gente che mette sul mercato un aborto di programmazione del genere.
Consiglio anche a tutti voi di non comprarlo.

Dovresti informarti meglio. Il Cryengine è un motore veramente scalabile e programmato in maniera eccezionale.
Schede vecchie di quasi 2 anni (x1900) riescono a farlo viaggiare ottimamente a dettagli medio-alti. I problemi di questo engine sono solo relativi al Very High sotto Vista, in modalità Dx10. Secondo me questi problemi verranno risolti con patch per Vista e driver migliori.

mah mi sa che Crysis, con le vga di oggi, o lo si gioca solo a ris basse e senza filtri oppure non ci si gioca perché è stato programmato da degli idioti che l'hanno fatto pensando ai PC del 2050.

E' da persone ignoranti pensare che ci ha programmato Crysis sia un idiota. Tutt'altro. E' un engine talmente avanzato che sarà al top per almeno 2 anni.
Se non gira ottimamente sulle vga top-gamma attuali al massimo non vedo perchè farne un dramma, si giocherà a dettagli high fino alla patch o driver migliori. Dopotutto prima o poi arriva un gioco che mette in crisi la propria scheda....

belin
12-11-2007, 15:59
Giusto perchè non avevo ancora visto gli screen, magari per ciecatezza ( :sofico: ) mia:

http://i14.photobucket.com/albums/a310/L7R/normal02.jpg

http://i14.photobucket.com/albums/a310/L7R/bug02.jpg

Indovinate quale è lo screen "bacato".

...mmm...vediamo un pò...forse quello dove gli fps medi sono nettamente di più?!

:D

belin
12-11-2007, 16:03
A quanto pare alcune nostre supposizioni non erano del tutto infondate: Nvidia mystery 'thermal analysis' explained. (http://www.theinquirer.net/gb/inquirer/news/2007/11/11/nvidia-mystery-thermal-analysis)

8800GT non doveva avere i clock e le conseguenti temperature che ha adesso. HD3870 è stata la causa dell'aumento. Lo riporta TheInq, che è sempre TheInq, ma almeno non è Fud...chiaro, no?!

:D

DjLode
12-11-2007, 16:04
...mmm...vediamo un pò...forse quello dove gli fps medi sono nettamente di più?!

:D

Ci sei andato vicino, è quello dove le ombre sono state rimpiazzate da macchie di petrolio. Da notare che cade la teoria del bug visto che qui è stato cambiato nome all'eseguibile :)

ATi7500
12-11-2007, 16:08
Ci sei andato vicino, è quello dove le ombre sono state rimpiazzate da macchie di petrolio. Da notare che cade la teoria del bug visto che qui è stato cambiato nome all'eseguibile :)

si dice che l'origine del bug sia il profilo SLI relativo a Crysis che viene applicato anche sulle schede singole. Per saperne di più, qualcuno sul forum con SLI e 169.04 potrebbe farci uno screen per chiarirci le idee :)

bYeZ!

gianni1879
12-11-2007, 16:16
Ci sei andato vicino, è quello dove le ombre sono state rimpiazzate da macchie di petrolio. Da notare che cade la teoria del bug visto che qui è stato cambiato nome all'eseguibile :)

le ombre e riflessi sull'acqua delle isole sono totalmente diverse!!! alla faccia dell'ottimizzazione :D

gianni1879
12-11-2007, 16:18
Ci sei andato vicino, è quello dove le ombre sono state rimpiazzate da macchie di petrolio. Da notare che cade la teoria del bug visto che qui è stato cambiato nome all'eseguibile :)

cambiando ovviamente il nome all'eseguibile i driver non lo riconoscono più e non applicano le ottimizzazioni.

non se hai notato ma anche gli alberi sono un pò diversi in alcuni punti!! e come se ci fosse una specie di foschia permanente

TecnoWorld8
12-11-2007, 16:20
sono incuriosito: come mai nella prova di CF che è uscita per le 3870, in crysis non usano il CF, ma la scheda singola?

gianni1879
12-11-2007, 16:22
A quanto pare alcune nostre supposizioni non erano del tutto infondate: Nvidia mystery 'thermal analysis' explained. (http://www.theinquirer.net/gb/inquirer/news/2007/11/11/nvidia-mystery-thermal-analysis)

8800GT non doveva avere i clock e le conseguenti temperature che ha adesso. HD3870 è stata la causa dell'aumento. Lo riporta TheInq, che è sempre TheInq, ma almeno non è Fud...chiaro, no?!

:D

beh diciamo che non era un mistero, era abbastanza evidente la cosa ;)

DjLode
12-11-2007, 16:25
non se hai notato ma anche gli alberi sono un pò diversi in alcuni punti!! e come se ci fosse una specie di foschia permanente

Sugli alberi mi sbilancio meno perchè potrebbe anche dipendere dalla compressione o dalla lieve differenza di visuale che c'è quasi sempre in screen presi "live".

x.vegeth.x
12-11-2007, 16:29
edit

x.vegeth.x
12-11-2007, 17:02
Volevi dire che sarà al top fra due anni :asd:

Un motore al top è quello di UT3, che ottiene il massimo dall'hardware attuale. Se produci un propellente a base di uranio liquido ( :asd: ) hai utilizzato una tecnica avanzatissima per produrlo eoni avanti alle tecniche per la produzione del normale combustibile a base di idrocarburi ma sei senz'altro un'idiota e un incapace visto che nessuno ha un motore che possa utilizzarlo.

Ad un programmatore si chiede di programmare, non di scrivere un Dialogo sui massimi sistemi, altrimenti è un programmatore incapace.

:mbe:

ma non capisco perchè ve la prendete tanto per il fatto che il motore sia scalabile anche verso l'alto...se il massimo di crysis fosse stato il dettaglio high, saresti stato più contento perchè potevi dire di giocarlo al "massimo"?

vi lamentate della pesantezza dei dettagli very high? non avete visto niente, pare che il motore sia ancora parecchio castrato :rolleyes:

DjLode
12-11-2007, 17:03
vi lamentate della pesantezza dei dettagli very high? non avete visto niente, pare che il motore sia ancora parecchio castrato :rolleyes:

Ceeeerto ci sono i dettagli uber-high :D

zorco
12-11-2007, 17:07
Ceeeerto ci sono i dettagli uber-high :D
:asd:

Brightblade
12-11-2007, 17:12
Ad un programmatore si chiede di programmare, non di scrivere un Dialogo sui massimi sistemi, altrimenti è un programmatore incapace.

Questo e' vero, pero' siamo anche in un anno "atipico" per il trend degli ultimi anni...ovvero niente fascia alta che doppia (+ o -) la precedente fascia alta.

Probabilmente se al posto di questa uber midrange fosse uscita la bestiola da 1Tflop e la sua controparte, staremmo facendo commenti diversi. Poi uno con 500 euri puo' comunque farsi un sistema dual GPU con tutti i vantaggi e gli svantaggi che ne conseguono...

3DMark79
12-11-2007, 17:15
Un saluto a tutti,
non so se sia stato postato per intero cmq...
http://iax-tech.com/video/3870/38701.htm
Io confido davvero tanto in questa scheda (HD3870) anche se dovesse andare un 10% (spero) in meno di una 8800GT penso sia un buon acquisto calcolando che quella è un forno!
Pensate che i driver potrebbero migliorare lievemente la situazione?

sonnet
12-11-2007, 17:18
io spero nei 170€ per la 3850 :sofico:

Ho gia' postato prima il link ad un negozio tedesco che la da a 171 euro la versione da 512mb.
Quindi puoi ritenerti gia' appagato.
Io direi che per la HD 3850 si puo' ipotizzare un prezzo di 150 euro una settimana dopo il lancio,visto che ora i prezzi saranno inflazionati.

A.L.M.
12-11-2007, 17:18
Ceeeerto ci sono i dettagli uber-high :D

I dettagli extreme saranno DX10.1 only (l'ha detto Yerli in un'intervista). ;)

Comunque, tanto per tornare più IT, ecco un po' di immagini delle varie versioni di RV670... :)

Asus HD3870:

http://www.overclockers.co.uk/pimg/GX-145-AS_400.jpg

Asus HD3850:

http://www.overclockers.co.uk/pimg/GX-144-AS_400.jpg

HIS HD3870:

http://www.overclockers.co.uk/pimg/GX-086-HT_400.jpg

HIS HD3850:

http://www.overclockers.co.uk/pimg/GX-085-HT_400.jpg

Sapphire HD3870:

http://www.overclockers.co.uk/pimg/GX-165-SP_400.jpg

Sapphire HD3850:

http://www.overclockers.co.uk/pimg/GX-166-SP_400.jpg

P.S.: le foto vengono da Overclockers.co.uk, che non è uno dei siti più economici (anche perchè in UK costa tutto un po' di più). Lì la HD3870 costa circa 224-225€ in preordine, penso che quindi i prezzi debbano scendere. Gibbo, uno dei venditori, ha detto che le schede ce le hanno già, quindi disponibilità immediata (e ha detto anche che stanno per testare un tri-Crossfire di HD3870 :asd: )

P.P.S.: a chi chiedeva la mobo del test di RV670, è un chipset P35.

DjLode
12-11-2007, 17:18
Questo e' vero, pero' siamo anche in un anno "atipico" per il trend degli ultimi anni...ovvero niente fascia alta che doppia (+ o -) la precedente fascia alta.

Probabilmente se al posto di questa uber midrange fosse uscita la bestiola da 1Tflop e la sua controparte, staremmo facendo commenti diversi. Poi uno con 500 euri puo' comunque farsi un sistema dual GPU con tutti i vantaggi e gli svantaggi che ne conseguono...

Perchè tu credi veramente che, come la chiami tu, la bestiola da 1TF fosse veramente una gpu singola? ;) Fai due conti, moltiplica per due la potenza (teorica) della 8800 GT e vedi cosa ottieni :)

HackaB321
12-11-2007, 17:22
Se si son viste le 8800GT passive non ci sono problemi a fare delle 3870 passive ;)



Volevi dire che sarà al top fra due anni :asd:

Un motore al top è quello di UT3, che ottiene il massimo dall'hardware attuale. Se produci un propellente a base di uranio liquido ( :asd: ) hai utilizzato una tecnica avanzatissima per produrlo eoni avanti alle tecniche per la produzione del normale combustibile a base di idrocarburi ma sei senz'altro un'idiota e un incapace visto che nessuno ha un motore che possa utilizzarlo.

Ad un programmatore si chiede di programmare, non di scrivere un Dialogo sui massimi sistemi, altrimenti è un programmatore incapace.

Il top attuale di crysis e high. In quella modalità le schede top di gamma attuali riescono a farlo girare a risoluzioni normali in modo decente (a 1600x1200 è almeno giocabile con Ultra-GTX-XT e GT). E in quella modalità si tratta di uno spettacolo che nessun gioco ha finora lontanamente raggiunto.

La modalità very-high esiste per due altri scopi secondo me:
1)Reclamizzare un motore grafico che dovrà fare le fortune di Crytek negli anni a venire quando esisterà hw in grado di far girare anche il very-high
2)Spingere più utenti possibile a comprare sistemi SLI (lo sponsor è infatti un'azienda con il logo verde e sede a Santa Clara...)

Come detto già da altri, situazioni simili si sono verificate in passato con Far Cry e Doom 3 non ha caso due giochi start-up di motori grafici che avrebbero avuto una longevità impressionate (far-cry stressa anche le schede attuali e il motore di doom3 è stato usato in Prey e nel recente ETQW).

Brightblade
12-11-2007, 17:24
Perchè tu credi veramente che, come la chiami tu, la bestiola da 1TF fosse veramente una gpu singola? ;) Fai due conti, moltiplica per due la potenza (teorica) della 8800 GT e vedi cosa ottieni :)

Non saprei, se comunque il trend sara' lo stesso di sempre, mi immagino sia rispettata la tradizione che vuole come top di gamma una scheda con GPU singola (vabbe', a parte le variazioni successive che si sono viste in passato tipo 7950GX2 ecc ecc), poi puo' benissimo cambiare tutto...pero' mi sa che andiamo OT, da parte mia chiuderei qui.

davide155
12-11-2007, 17:25
A dettagli low va fluido come il motore di UT3 al massimo di tutto, ai quali peraltro è mostruosamente bello da vedersi.

Io direi che è programmato coi piedi. O forse sono i programmatori dell'UT3 che vengono da Alpha Centauri, ma non cambia niente, il confronto è tutto e questo confronto Crytek lo ha perso.
Si torna sempre ai soliti discorsi....
Vuoi paragonare il cry engine 2 con l'unreal torunament 3?

Due motori grafici di due ere non molto diverse, ma distanti.

L'ue3 ormai è passato. Ha una ottima resa grafica, ma non è malleabile come il motore dei crytek.
E cmq a parte questo vuoi paragonare la quantità di poligoni che c'è nella mappa della demo di crysis con quelli della mappuccia di ut3??
Va bene che le texture a 2048x2048 in ut3 saranno implementate solo nella versione finale, ma cmq non sono minimamente paragonabili come motori grafici.
E poi gli effetti particellari, di luce, e delle textures (vedi displacement mapping) in crysis è impressionante!
Non so se hai visto il filmato iniziale nell'aereo....lascia a bocca aperta!

Io confido molto in entrambi i titoli, ma non do assolutamente ai crytek degli incapaci. Tanto meno quando ancora il gioco completo e i driver giusti non sono usciti ;)

Errik89
12-11-2007, 17:26
se la scheda dovesse andare realmente così, ati ha riconquistato tutta la mia fiducia!

Comunque le "ottimizzazzioni" nei driver nvidia erano già note da tempo e anche per altri giochi... si è sempre comportata così...
Per fortuna che qualcuno riconosce che le ATI hanno una migliore qualità d'immagine finalmente eh! :)

wiltord
12-11-2007, 17:33
Ti (vi?) sfugge qualcosa. E' un gioco il cui centro dovrebbe essere la competizione online.


permettimi di dire che sfugge a te il fatto che questa sia solo la tua opinione ;)

Defragg
12-11-2007, 17:33
Va bene che le texture a 2048x2048 in ut3 saranno implementate solo nella versione finale, ma cmq non sono minimamente paragonabili come motori grafici.

Manca anche l'illuminazione dinamica, anche quella nella versione finale.

3DMark79
12-11-2007, 17:34
se la scheda dovesse andare realmente così, ati ha riconquistato tutta la mia fiducia!

Comunque le "ottimizzazzioni" nei driver nvidia erano già note da tempo e anche per altri giochi... si è sempre comportata così...
Per fortuna che qualcuno riconosce che le ATI hanno una migliore qualità d'immagine finalmente eh! :)

Quoto!Hai percaso qualche link dove si vede la supremazia delle nuove ATi con le Nvidia per quanto concerne la qualità d'immagine?

davide155
12-11-2007, 17:36
Manca anche l'illuminazione dinamica, anche quella nella versione finale.

Si giusto.......

calabar
12-11-2007, 17:42
Ma chi ce lo fa fare di comprare un gioco con una grafica senz'altro bella ma che a quel dettaglio è uno schifo se paragonata a quella dell'UT3 pompato al massimo che va anche meglio?
Beh, il fatto è che non c'è solo la resa grafica, ma anche la fisica.
Il motore di crisys (correggetemi se sbaglio) consente un'interazione molto più elevata con l'ambiente. E questo fa cambiare le cose nella sostanza.

Del resto, da ex giocatore di q3, posso dire che, se la grafica buona la usi per vederti le demo o gustarti un po' grafica, quando giochi online la tendenza è quella di avere la grafica di pacman!
E non tanto per avere più fps (cento, anche quelli...), ma per avere una migliore visione dell'ambiente di gioco, non "distratta" da particolati poco rilevanti.

Infine anche Q3 (gioco praticamente solo multiplayer), ai tempi, costrinse il 90% della comunità dei quakers a cambiare non scheda video, ma l'intero pc. E per i 60 fps si gridava al miracolo!
A me non pare che le cose siano così cambiate, e che crytec stia seguendo una cattiva strada, come il passato dimostra...

MiKeLezZ
12-11-2007, 17:47
Ciao sottomano io invece ho questi

http://www.legionhardware.com/document.php?id=683&p=2

http://www.legionhardware.com/document.php?id=681&p=9

http://www.anandtech.com/video/showdoc.aspx?i=3122&p=3

http://www.anandtech.com/video/showdoc.aspx?i=3127&p=8

http://www.tomshw.it/graphic.php?guide=20071030&page=geforce_8800gt-06

Il confronto con la Gt non ho capito che c'entra. Poi per ma basta qui visto che siamo pesantemente otMi linki i noAA? Dovrebbe esser la scheda al top, se non la attiviamo su questa i filtri... :-)

Comunque interessanti i risultati del tuo link:
http://www.legionhardware.com/document.php?id=681&p=11
There have been a lot of reports that the Radeon HD 2900XT is much faster than the GeForce 8800 GTX in Bioshock which is strange because we did not see this.
The Radeon HD 2900XT seemed to drop a lot more frames when walking into bigger more open rooms. Some rooms have very tall sky lights which when you look up at them, you can see the Radeon HD 2900XT drop a heap of frames. But when in the smaller rooms the frames fly right up, so we are not sure what is going on there.

Sì, dai finiamola qua. :-)

Concentriamoci su 8800GT vs 3870, che vedo i primi benchmark... :-)
Contatto prettamente diretto con i responsabili Sapphire, non esiste nessun link ovviamente. Come detto prima, la stessa Sapphire sa molto poco su R680 (si è discusso cmq su progetto monolitico e non dice moltissimo su altre info), quindi tutto quello che si legge/vede in giro sono solo notizie campate un pò in aria.Ciao, vediamo se ho capito giusto: sei in contatto con i responsabili Sapphire e questi ti confidano notizie in anteprima, così in anteprima che i vari FudZilla, The Inquirer, DailyTech neppure immaginano (che eppure loro sono proprio in contatto con le fabbriche taiwanesi...).
Il tutto ovviamente non puoi provarlo.
Ciliegina sulla torta, affermi che neppure quelli di Sapphire siano sicuri di come sia fatta questa nuova scheda che fra due mesi pensano di commercializzare.
E' uno scherzo, giusto? :-)
comunque guardando le immagini dubito che 2 texture microscopiche apportino migliorie sostanziali agli fps :)Se avessero preso gli stessi frame sarebbe stato bello :-)
Comunque va bene anche creare il polverone, così "nvidia, anche se fosse nel giusto, che neppure ci provi"... Sulla qualità non si può scherzare.A quanto pare alcune nostre supposizioni non erano del tutto infondate: Nvidia mystery 'thermal analysis' explained. (http://www.theinquirer.net/gb/inquirer/news/2007/11/11/nvidia-mystery-thermal-analysis)Più che altro The Inq, come vedi dal tema con il colore rosso vivo, è un -pochino- pro-ATI e pro-AMD... un pochino, eh :-)
Del tipo che alla recensione della 8800GT ha scritto "sì, una scheda discreta, ma nulla di che", e gli ha dato voto 8/10...
Poi fate voi :-)Giusto perchè non avevo ancora visto gli screen, magari per ciecatezza ( :sofico: ) mia:

Indovinate quale è lo screen "bacato".Da quello che ho capito sono entrambi "giusti", il "bug" è semplicemente un tempo di aggiornamento delle ombre (riflessi) sull'acqua, maggiore per le schede NVIDIA, il che incide meno sui FPS e quindi fa registrare valori più elevati. Sicuramente è stato da furbacchioni, a proposito, ma è anche vero i driver siano beta, quindi c'è una mezza scusa... Diciamo che a NVIDIA stavolta è andata male.Insomma... Io avevo sia la 9600xt che la 5900 xt e quest'ultima era molto superiore... D'altronde era una fascia alta depotenziata con bus a 256bit.. ;)Erano i tempi in cui dipendeva molto da come i giochi venivano scritti, c'eranno quelli che prediligevano più le schede ATI, e quelli in cui le NVIDIA brillavano. In ogni caso la 9600XT era pensata come un rimpiazzo delle 9700 pro, anche se il numero di pipeline inferiore in realtà donava meno "forza bruta". Simile a ora 8800GTS e 8800GT, per dire.



p.s. Voglio sollevare un interrogativo.
A quanto pare Crysis fatica a girare sulle 3870 già a dettagli Super-High (ovvero DX10), e con risoluzioni tutt'altro che elitarie.
Le 3870 pubblicizzano tanto le DX10.1, ma a che pro, quindi? Già faticano con le DX10.
Fra l'altro le DX10.1 giungeranno insieme al SP1 per Vista, che è previsto NON PRIMA di Febbraio 2008.
Tirate voi le conclusioni!

MiKeLezZ
12-11-2007, 17:59
Ti (vi?) sfugge qualcosa. E' un gioco il cui centro dovrebbe essere la competizione online.

Ora molti storcono il naso e si trovano male se scendono sotto i 100FPS, quando giocano un FPS online.Ciao, i 100fps andavano di moda 5 anni fa, quando la gente vedeva i pro di ConterStrike giocare a 640x480 con le DX7, e solo perchè la modalità WireFrame si poteva attivare solo con AimBot (altrimenti avrebbero usato pure quella).
Da allora i developers hanno pensato a come arginare vari problemi, e già Quake 3 mi sembra avesse un limite di FPS. UT3, a quanto pare, è limitato a 62fps.
Non solo, nel frattempo sono dilagati a macchia di olio i vari schermi LCD che hanno due pecularietà:
- Hanno un refresh fisso a 60Hz, percui è inutile andare a 2024947390 FPS visto che tu al massimo ne vedrai 60.
- Hanno insito, rispetto ai CRT, un delay, che dipende da pannello usato (S-PVA, S-IPS, TN), e da elettronica montata. Il che, se andiamo a fare i conti, provoca una disallineamento di 2-3 frame al secondo (ovvero fino a 50ms), che ritengo molto più grave di stare a preoccuparsi il giochino sia a 60fps oppure 120fps (8ms di guadagno, impercettibili per il corpo umano).
In relatà, nei giochi online la vera differenza la fa la connessione. Per quanto possa esser ottimizzato il net-code, ci sarà sempre una netta differenza fra uno che pinga 8ms in fast a uno che fa 60ms in interleaved, che magari ha un bel packet loss proprio nel momento di vuotare il caricatore :-)

DjLode
12-11-2007, 18:01
Da quello che ho capito sono entrambi "giusti", il "bug" è semplicemente un tempo di aggiornamento delle ombre (riflessi) sull'acqua, maggiore per le schede NVIDIA, il che incide meno sui FPS e quindi fa registrare valori più elevati. Sicuramente è stato da furbacchioni, a proposito, ma è anche vero i driver siano beta, quindi c'è una mezza scusa... Diciamo che a NVIDIA stavolta è andata male.

Guarda sono anche convinto che il "bug" sia più rilevante con immagini fisse che con immagini in movimento. Probabilmente giocando non ci si accorgerebbe della cosa neanche fissando il monitor a 2 cm.
Comunque sia da una parte che dall'altra a me queste ottimizzazioni piacciono poco è anche vero che si tratta pur sempre del 7% di prestazioni (se non ho fatto male i conti) in più e che si parla in sostanza di 2fps, poco o nulla sia con l'ottimizzazione che senza il gioco va molto piano.

Sul discorso che fai sulle DX10.1 il supporto è dichiarato ma inutile esattamente come la X2400 che ho montato sul pc dei miei (l'ho presa perchè passiva :) ) si dichiara DX10 compliant. Mi vergognerei a farci girare anche Half Life sopra...
Comunque anche con le attuali top e le Dx10 non c'è da stare allegri.

josefor
12-11-2007, 18:03
Ti (vi?) sfugge qualcosa. E' un gioco il cui centro dovrebbe essere la competizione online.


Ma non credo, non si chiama Unreal Turnament, già il nome richiama decisamente meno il netgaming, poi con quello che ha da offrire direi che anche in sigleplayer è un capolavoro.
Io mi ricordo di un giocatore (non il nome) italiano fortissimo in Painkiller, che giocava con dettagli talmente bassi che il gioco era quasi irriconoscibile, pure io tuttora giocando ad HL2 online e derivati con la 8800gtx scalo e AA manco lo uso ,addirittura si scala la versione di DX da usare per avere la fluidità massima, fidati che scaleranno pure UT3, chi gioca in rete non vuole compromessi, anche se hai 200 fps normalmente e in una fase coincitata hai un drop troppo elevato di fps lo scali altro che.

Mister Tarpone
12-11-2007, 18:09
Tirate voi le conclusioni!

che il supporto alle dx10/dx10.1 fa cagare con le schede di entrambe le marche :asd:

Grey 7
12-11-2007, 18:12
Io mi ricordo di un giocatore (non il nome) italiano fortissimo in Painkiller

era mica Forrest? tra l'altro era un ex giocatore di unreal tournament e sapevo che un po' di tempo fa era passato a penekiller :asd:

\ot

A.L.M.
12-11-2007, 18:16
che il supporto alle dx10/dx10.1 fa cagare con le schede di entrambe le marche :asd:

Quoto. :asd: :mano:
Anche se più che altro direi che sono le modalità DX10 dei giochi usciti finora a fare pena.
Bassissimo uso dei geometry shaders, giochi ancora molto legati alle capacità delle unità non programmabili, overhead ancora elevatissimo. Sembra quasi che ormai le sh se ne freghino di programmare bene i giochi per pc, visto che fanno più soldi con i giochi per console.

TecnoWorld8
12-11-2007, 18:20
mi pare che in CF due 3870 vadano più di due GT in SLI...o sbaglio?

appleroof
12-11-2007, 18:21
Ci sei andato vicino, è quello dove le ombre sono state rimpiazzate da macchie di petrolio. Da notare che cade la teoria del bug visto che qui è stato cambiato nome all'eseguibile :)

cambiando ovviamente il nome all'eseguibile i driver non lo riconoscono più e non applicano le ottimizzazioni.

non se hai notato ma anche gli alberi sono un pò diversi in alcuni punti!! e come se ci fosse una specie di foschia permanente

ho notato immediatamente la cosa, si vedeva proprio evidente, cmq è tutto rientrato con gli ultimi whql, che ho installato anche perchè i 169.04 beta per vista64 erano molto instabili (provato addirittura su formattone docuto a cambio conf.)

anche io non lo prendo per ora, tuttavia non penso sia stato programmato male in quanto e' molto scalabile e giocabile su tante cfg anche non piu' al passo, basta rinunciare ad un po' di cose. Personalmente preferisco non rinunciarvi ed aspettare, tuttavia ho visto degli screen postati in game nel 3D uff. e la qualità raggiunta e' altissima, quindi un tal peso e' almeno giustificato dai risultati ottenibili e non, come accaduto spesso, che ad una pesantezza notevole corrispondesse una qualità grafica mediocre.

quoto tutto, però io credo che lo prendo lo stesso al lancio perchè per fortuna sulla mia conf. è giocabilissimo quasi a very high alle ris. solite mie dove oc la vga si mantiene sui 30fps medi....la cosa assurda ma ormai assodata su centinaia di conf. diverse (quindi a prescindere da ati/nvidia) è l'assoluta giocabilità sui 20fps, dove tutti gli altri giochi diventano tipicamente "scattosi" ed ingiocabili.....per me questo invece dimostra estrema abilità a programmare

ma è ovvio che per vederlo girare bene (sempre oltre a 25fps minimi) al max dello splendore grafico :D occorrerà aspettare la prox gen di vga (compreso R700 o come si chiamerà)...

aggiungo solo che l'Ut3 è bellissimo e sono contento verrà utilizzato come base per molti giochi, ovviamente per i motivi che sappiamo, ma Crysis raggiunge (giocando con i vari settaggi del config) livelli di fotorealismo che non ho mai personalmente visto finora in alcun gioco, c'è poco da fare

DVD2005
12-11-2007, 18:24
quoto tutto, però io credo che lo prendo lo stesso al lancio perchè per fortuna sulla mia conf. è giocabilissimo quasi a very high alle ris. solite mie dove oc la vga si mantiene sui 30fps medi....la cosa assurda ma ormai assodata su centinaia di conf. diverse (quindi a prescindere da ati/nvidia) è l'assoluta giocabilità sui 20fps, dove tutti gli altri giochi diventano tipicamente "scattosi" ed ingiocabili.....per me questo invece dimostra estrema abilità a programmare

ma è ovvio che per vederlo girare bene (sempre oltre a 25fps minimi) al max dello splendore grafico :D occorrerà aspettare la prox gen di vga (compreso R700 o come si chiamerà)...

aggiungo solo che l'Ut3 è bellissimo e sono contento verrà utilizzato come base per molti giochi, ovviamente per i motivi che sappiamo, ma Crysis raggiunge (giocando con i vari settaggi del config) livelli di fotorealismo che non ho mai personalmente visto finora in alcun gioco, c'è poco da fare

fai bene vista la tua cfg ;)

grng
12-11-2007, 18:29
Ti (vi?) sfugge qualcosa. E' un gioco il cui centro dovrebbe essere la competizione online.

crysis? ma anche no...farà la fine dei vari fear(far cry, motori molto belli ma pesanti = community quasi inesistente (di fear hanno addirittura pubblicato gratuitamente la parte multiplayer, tanto non se la filava nessuno :) )
Semmai sono ut3 e cod4 quelli su cui si basa parecchio il multiplayer, essendo giochi che hanno alle spalle parecchi players

gianni1879
12-11-2007, 18:31
Ciao, vediamo se ho capito giusto: sei in contatto con i responsabili Sapphire e questi ti confidano notizie in anteprima, così in anteprima che i vari FudZilla, The Inquirer, DailyTech neppure immaginano (che eppure loro sono proprio in contatto con le fabbriche taiwanesi...).
Il tutto ovviamente non puoi provarlo.
Ciliegina sulla torta, affermi che neppure quelli di Sapphire siano sicuri di come sia fatta questa nuova scheda che fra due mesi pensano di commercializzare.
E' uno scherzo, giusto? :-)

dipende il rapporto di amicizia... cmq non ho detto che mi confidano nulla in anteprima assoluto, anche perchè non sono in direttocontatto proprio con me (ma c'è un tramite più grosso di me ovviamente), molte notizie sul monolitico sono trapelate anche tempo fa poi è spuntata sto discorso del doppio RV670 su stesso pcb. Ma cmq ogni tanto si lasciano scappar qualcosa a livello personale, ne che si va a rilevare ai quattro venti, e poi ho detto che sono abbastanza abbottonati su questo discorso lo erano molto meno su RV670, mentre su R680 lasciano intuire qualcosa sul monolitico, non ho mai detto che c'è la certezza al 100%.
Sapphire ovviamente sa, ma ovviamente lascia trapelare pochissime notizie, non ho detto che manco lei sa quello che deve fare.
Prendile e interpretale come vuoi, fai come vuoi ma i fatti sono così!

Poi invece le tue certezze e presunzione su cosa si basano su Fud e Inquirer??

Se poi vogliamo polemizzare a tutti i costi non c'è problema basta che uno lo sappia...

grng
12-11-2007, 18:33
Ciao, i 100fps andavano di moda 5 anni fa, quando la gente vedeva i pro di ConterStrike giocare a 640x480 con le DX7, e solo perchè la modalità WireFrame si poteva attivare solo con AimBot (altrimenti avrebbero usato pure quella).
Da allora i developers hanno pensato a come arginare vari problemi, e già Quake 3 mi sembra avesse un limite di FPS. UT3, a quanto pare, è limitato a 62fps.
No il discorso è un altro, molti di quei giochi (rtcw, et, i cod, i moh, i cs in parte) derivano dal motore di q3, la cui fisica è influita dal numero di fps (più ne fai più salti lungo/veloce), quindi per le competizioni hanno scelto di limitarli a 125 (1000/8).
Tant'è che in questi giochi i 125fps servono ancora oggi...per q4 hanno riscritto il motore (han preso quello di d3, che non soffre di legami tra fisica e frames), ed era inizialmente bloccato a 63fps, dopo petizioni varie la id ha alzato il limite a 90, e il gioco è molto più fluido così :)
Mi immagino succederà la stessa cosa per ut3, quando giochi n ore al giorno, ti accorgi subito della differenza tra 60 e 90 fps

A.L.M.
12-11-2007, 18:34
mi pare che in CF due 3870 vadano più di due GT in SLI...o sbaglio?

Sembra di sì, anche perchè credo che nessuna configurazione a doppia scheda uscita finora a default faccia più di 20000 punti al 3DMark. Basti pensare che il record per lo SLi credo sia di 23000 circa con 2 GTX clockate a 850/870 sul core ad azoto liquido (cioè sottozero): non so se hanno provato pure con le Ultra.
Spero che scalino così anche nei giochi. :)

grng
12-11-2007, 18:36
era mica Forrest? tra l'altro era un ex giocatore di unreal tournament e sapevo che un po' di tempo fa era passato a penekiller :asd:
Immagino era stermy

3DMark79
12-11-2007, 18:48
Iniziano a ridurre i prezzi delle vecchie Hd29xx. :asd:
http://www.dinoxpc.com/News/news.asp?ID_News=13465&What=News&tt=Sapphire+riduce+i+prezzi+delle+schede+grafiche+HD+2900

Massy84
12-11-2007, 18:50
mi sa che mi spendo questi 50€ in + e prendo la 3870 :D le DDR4 mi allettano, idem le frequenze stock...e mi ispira cmq di + questa (per via dei 55nm e del dissy) della 8800GT :D

spero di non pentirmene

MiKeLezZ
12-11-2007, 18:52
dipende il rapporto di amicizia... cmq non ho detto che mi confidano nulla in anteprima assoluto, anche perchè non sono in direttocontatto proprio con me (ma c'è un tramite più grosso di me ovviamente), molte notizie sul monolitico sono trapelate anche tempo fa poi è spuntata sto discorso del doppio RV670 su stesso pcb. Ma cmq ogni tanto si lasciano scappar qualcosa a livello personale, ne che si va a rilevare ai quattro venti, e poi ho detto che sono abbastanza abbottonati su questo discorso lo erano molto meno su RV670, mentre su R680 lasciano intuire qualcosa sul monolitico, non ho mai detto che c'è la certezza al 100%.
Sapphire ovviamente sa, ma ovviamente lascia trapelare pochissime notizie, non ho detto che manco lei sa quello che deve fare.
Prendile e interpretale come vuoi, fai come vuoi ma i fatti sono così!

Poi invece le tue certezze e presunzione su cosa si basano su Fud e Inquirer??

Se poi vogliamo polemizzare a tutti i costi non c'è problema basta che uno lo sappia...Ciao, la "notizia sul core monolitico" è nata su una news di VR-Zone in cui l'autore descrive una slide-marketing trapelata di AMD in cui si evidenziano le peculiarità del prossimo R680 (ovvero le stesse di RV670). L'autore, forse preso dall'euforia del momento, pensa quindi che l'immagine a corredo (un banale chip con i piedini) sia R680 e, non notando la presenza di un chip-fratellino, ipotizza/spera che questo R680 sia un "tutto-in-uno".
Da lì credo che un po' troppe persone ci abbiano costruito castelli in aria, con a corredo le più fantasiose dicerie, ovviamente senza possibilità di dare link a riguardo :-)
Bastava semplicemente seguire tutte le news per conoscere come fosse già in progetto un dual-chip sullo stesso PCB sulla falsariga della X2600 Gemini mai commercializzata, ma basato su RV670, e come questo, durante il suo sviluppo, abbia poi visto cambiare il proprio nome in R680...

"Pluralitas non est ponenda sine neccesitate"

p.s. Sui FPS di Q3 non ero a conoscenza, non pratico sorry :D

TecnoWorld8
12-11-2007, 19:07
mi sa che mi spendo questi 50€ in + e prendo la 3870 :D le DDR4 mi allettano, idem le frequenze stock...e mi ispira cmq di + questa (per via dei 55nm e del dissy) della 8800GT :D

spero di non pentirmene

io questa volta sono davvero in dubbio se stare con ATi o andare con nVidia. due sono i parametri che attendo di conoscere con ansia, che determineranno la mia scelta:

1) la conferma dell'uscita a breve di un G92 con 128 sp
2) le prestazioni in SLI di 3870 con crysis

a seconda di queste due cose deciderò su cosa buttarmi

DVD2005
12-11-2007, 19:13
io questa volta sono davvero in dubbio se stare con ATi o andare con nVidia. due sono i parametri che attendo di conoscere con ansia, che determineranno la mia scelta:

1) la conferma dell'uscita a breve di un G92 con 128 sp
2) le prestazioni in SLI di 3870 con crysis

a seconda di queste due cose deciderò su cosa buttarmi

anche a me incuriosisce questa.

appleroof
12-11-2007, 19:14
io questa volta sono davvero in dubbio se stare con ATi o andare con nVidia. due sono i parametri che attendo di conoscere con ansia, che determineranno la mia scelta:

1) la conferma dell'uscita a breve di un G92 con 128 sp
2) le prestazioni in SLI di 3870 con crysis

a seconda di queste due cose deciderò su cosa buttarmi

anche a me incuriosisce questa.

a me incuriosisce più questa :sofico: :asd:

DVD2005
12-11-2007, 19:15
a me incuriosisce più questa :sofico: :asd:

pensavo prediligessi il CrossFire di 8800GT :sofico:

appleroof
12-11-2007, 19:17
pensavo prediligessi il CrossFire di 8800GT :sofico:

:D :D :D

stavo pensando di farmi un quad CSLIF di 3870/8800gtx, una ce l'ho già :fagiano: :asd: :asd:


tecnoworld, si scherza eh? :)

MiKeLezZ
12-11-2007, 19:18
io questa volta sono davvero in dubbio se stare con ATi o andare con nVidia. due sono i parametri che attendo di conoscere con ansia, che determineranno la mia scelta:

1) la conferma dell'uscita a breve di un G92 con 128 sp
2) le prestazioni in SLI di 3870 con crysis

a seconda di queste due cose deciderò su cosa buttarmi
1) Consumo
2) Prezzo
3) Qualità AF
4) Lunghezza Scheda

:/

gianni1879
12-11-2007, 19:23
Ciao, la "notizia sul core monolitico" è nata su una news di VR-Zone in cui l'autore descrive una slide-marketing trapelata di AMD in cui si evidenziano le peculiarità del prossimo R680 (ovvero le stesse di RV670). L'autore, forse preso dall'euforia del momento, pensa quindi che l'immagine a corredo (un banale chip con i piedini) sia R680 e, non notando la presenza di un chip-fratellino, ipotizza/spera che questo R680 sia un "tutto-in-uno".
Da lì credo che un po' troppe persone ci abbiano costruito castelli in aria, con a corredo le più fantasiose dicerie, ovviamente senza possibilità di dare link a riguardo :-)
Bastava semplicemente seguire tutte le news per conoscere come fosse già in progetto un dual-chip sullo stesso PCB sulla falsariga della X2600 Gemini mai commercializzata, ma basato su RV670, e come questo, durante il suo sviluppo, abbia poi visto cambiare il proprio nome in R680...

"Pluralitas non est ponenda sine neccesitate"

p.s. Sui FPS di Q3 non ero a conoscenza, non pratico sorry :D

che un doppio RV670 gemini sia previsto è sicuro, ma a quanto detto non è R680. A quello che si sono lasciati scappare non sono la stessa cosa, ora ovviamente non c'è la sicurezza al 100%, potrebbero benissimo dare un pò de news fuorvianti, anche se cmq mi fido..

gianni1879
12-11-2007, 19:27
ah scusate un pò non ho resistito, ma guardate un pò che mi è arrivato via mail da AMD ;)
http://img80.imageshack.us/img80/5863/immaginejr9.th.jpg (http://img80.imageshack.us/my.php?image=immaginejr9.jpg)

:D

pierluigi86
12-11-2007, 19:37
mi sembra lo stemma di heroes, quella palla di fuoco

appleroof
12-11-2007, 19:40
ah scusate un pò non ho resistito, ma guardate un pò che mi è arrivato via mail da AMD ;)
http://img80.imageshack.us/img80/5863/immaginejr9.th.jpg (http://img80.imageshack.us/my.php?image=immaginejr9.jpg)

:D

come non avere i biglietti da visita personalizzati?? E' un'occasione imperdibile, beato te! :asd: :asd: :asd:

Defragg
12-11-2007, 19:41
mi sembra lo stemma di heroes, quella palla di fuoco

Ma che stemma, è una semplice eclissi quella di heroes! :D

Lo stemma è questo.
http://it.wikipedia.org/wiki/Immagine:Simbolo_Heroes.png

Chiuso ot su heroes. http://www.gamesforum.it/board/images/smilies/pf.gif

Diabolik.cub
12-11-2007, 19:56
ancora nessuna review o benchmark con un minimo di credibilità? :mc:

ATi7500
12-11-2007, 19:59
1) Consumo -> ATi
2) Prezzo -> Impossibile da decidere, ma ci sarà una gran battaglia
3) Qualità AF -> nvidia
4) Lunghezza Scheda - nessuna differenza tra le due case, a meno di pcb custom

:/

:)

bYeZ!

cristch
12-11-2007, 20:18
1) Consumo
2) Prezzo
3) Qualità AF
4) Lunghezza Scheda

:/

:cool:

MiKeLezZ
12-11-2007, 20:30
:)

bYeZ!Le 3870 sono 23cm? Sicuro?

ATi7500
12-11-2007, 20:33
Le 3870 sono 23cm? Sicuro?

la lunghezza è standard, anche le 1800/1900/2600/2900 erano così :)
a dirtela tutta io spero in una 3850 custom :) nel mio Lanbox non c'è tanto spazio, e mi piacciono le schede compatte :)

bYeZ!

MiKeLezZ
12-11-2007, 20:34
la lunghezza è standard, anche le 1800/1900/2600/2900 erano così :)

bYeZ!Sì, buonanotte :D

jok3r87
12-11-2007, 20:45
Le 3870 sono 23cm? Sicuro?

Tu sei sicuro del contrario ?

MiKeLezZ
12-11-2007, 20:51
Tu sei sicuro del contrario ?Io chiedo. Qua vedo che arriva alla porta EIDE:
http://www.hwupgrade.it/forum/showpost.php?p=19562793&postcount=2606
Quindi credo sui 24cm

paolox86
12-11-2007, 20:52
5)Temperature e Dissipatore ----> ATI
6)Overcloccabilità -----> 99% ATI
7)Prestazioni ------> NVIDIA probabilmente ma se il punto 6 fosse sfruttabile a dovere.....

:D

Marko91
12-11-2007, 20:52
Se si son viste le 8800GT passive non ci sono problemi a fare delle 3870 passive ;)



Volevi dire che sarà al top fra due anni :asd:

Un motore al top è quello di UT3, che ottiene il massimo dall'hardware attuale. Se produci un propellente a base di uranio liquido ( :asd: ) hai utilizzato una tecnica avanzatissima per produrlo eoni avanti alle tecniche per la produzione del normale combustibile a base di idrocarburi ma sei senz'altro un'idiota e un incapace visto che nessuno ha un motore che possa utilizzarlo.

Ad un programmatore si chiede di programmare, non di scrivere un Dialogo sui massimi sistemi, altrimenti è un programmatore incapace.

Non sono d'accordo.
Il Cryengine 2 è il motore grafico tecnologicamente più avanzato disponibile ed è anche graficamente il più impressionante.
L'Unreal Engine 3 è eccellente dal punto di vista visivo ma dal punto di vista tecnologico viene superato da vari altri engine. Più che un eccellente lavoro di programmazione, vi è un eccellente lavoro di artistico.
Non mi sembra giusto paragonare il framerate di due engine talmente diversi:
il primo gestisce un intera isola, dettagliatissima dal punto di vista poligonale, con texture di elevata risoluzione, shader fotorealistici, e un sistema di illuminazione all'avanguardia.
Il secondo ambienti aperti ma di dimensioni più contenute, dettagliati con normal-map e con un un sistema di illuminazione e ombre decisamente meno evoluto.

Non stiamo parlando di un motore che a dettagli minimi non gira su nessuna configurazione, ma che a dettagli massimi fatica sul massimo disponibile in quel momento, cioè una GPU che ha ormai un anno alle spalle.
Nel giro di 4-5 mesi ci saranno schede in grado di far girare Crysis a Very High a 1920x1200-4xFSAA@60fps medi, non vedo perchè farne un dramma.

Marko91
12-11-2007, 20:54
5)Temperature e Dissipatore ----> ATI
6)Overcloccabilità -----> 99% ATI
7)Prestazioni ------> NVIDIA probabilmente ma se il punto 6 fosse sfruttabile a dovere.....

:D

Anche le 8800GT si overcloccano bene. Per raggiungere le prestazione di una GT a 700Mhz, una HD3870 dovrebbe cloccata ad 1 Ghz :D

Mister Tarpone
12-11-2007, 20:56
5)Temperature e Dissipatore ----> ATI
6)Overcloccabilità -----> 99% ATI
7)Prestazioni ------> NVIDIA probabilmente ma se il punto 6 fosse sfruttabile a dovere.....

:D

ma se si oc una si oc anche l'altra.. e con gli shader separati... la gt si pappa anche la hd 3999x3
;)


c'è scappata pure l'imitazione di hal :D

paolox86
12-11-2007, 20:59
Anche le 8800GT si overcloccano bene. Per raggiungere le prestazione di una GT a 700Mhz, una HD3870 dovrebbe cloccata ad 1 Ghz :D

Beh io se devo overcloccare una 8800 gt con dissi standard e avere temperature sui 100 gradi passo.... E sotto questo punto di vista avere un procio a 55nm e memorie ddr4 mi ispira molto di più... e non lo dico per fanboismo: ho sempre alternato schede ati a schede nvidia...:D

MiKeLezZ
12-11-2007, 21:02
Beh io se devo overcloccare una 8800 gt con dissi standard e avere temperature sui 100 gradi passo.... E sotto questo punto di vista avere un procio a 55nm e memorie ddr4 mi ispira molto di più... e non lo dico per fanboismo: ho sempre alternato schede ati a schede nvidia...:DNon contano i °c ma i W

paolox86
12-11-2007, 21:07
Non contano i °c ma i W

Non stavo parlando di consumi ma di temperature... ;)
E i 55nm sicuramente un pò aiutano, si parla di massimo 50°c (anche meno) contro i 93 a default

folken84
12-11-2007, 21:10
Su vr-zone ho visto che una 3870 passando da 777/1125 a 860/1351 faceva 13000 punti a 3dmark avendo solo 66°, osando un po' di più sul core dovrebbe migliorare ancora parecchio..
in più un utente aveva detto che molto probabilmente le memorie della 3870 saranno a 0,7 ns e quindi capaci di 1400!!!

p.s.
le gt con un OC davvero spinto 735/1770/1050 con la stessa configurazione sono arrivati a 14000 punti!

Darkgift
12-11-2007, 21:17
Piccola prima mini-review

http://www.dinoxpc.com/News/news.asp?ID_News=13463&What=News&tt=Mini-review+sulla+GPU+Ati+HD+3870

Se ci danno sotto coi drivers la 8800 GT è vicinissima.(almeno da questi iniziali e non si sa quanto attendibili test)

MiKeLezZ
12-11-2007, 21:22
mi pare che in CF due 3870 vadano più di due GT in SLI...o sbaglio?A me pare che -DUE- 3870 in CF vadano più di -UNA- 8800GT, grazie al c.... :D

A.L.M.
12-11-2007, 21:26
Le 3870 sono 23cm? Sicuro?

Non credo che un centimetro (se anche ci fosse) faccia la differenza. ;)
Non è 10cm più lunga.

Non contano i °c ma i W

Dillo alla gpu. A 100° inizia a rallentare per evitare di friggersi. :asd:
Il fatto che possono resistere fino a 125° significa pochino, se comunque NVidia mette il trigger a 100° significa che qualche problemino, se si va oltre quelle temperature, potrebbe esserci. ;)
I watt con tutta probabilità saranno del tutto comparabili, e se possibile inferiori in varie situazioni. Non credo che la 8800GT in idle consumi meno di 34W (fonte AMD per il consumo in idle della HD3870).

Diabolik.cub
12-11-2007, 21:30
Su vr-zone ho visto che una 3870 passando da 777/1125 a 860/1351 faceva 13000 punti a 3dmark avendo solo 66°, osando un po' di più sul core dovrebbe migliorare ancora parecchio..
in più un utente aveva detto che molto probabilmente le memorie della 3870 saranno a 0,7 ns e quindi capaci di 1400!!!

p.s.
le gt con un OC davvero spinto 735/1770/1050 con la stessa configurazione sono arrivati a 14000 punti!
per quel che conta il 3dmark... l'importante è vedere come si comporterà nei giochi veri!
Mi sembri un po' alle prime armi... :ciapet:

x.vegeth.x
12-11-2007, 21:40
Ceeeerto ci sono i dettagli uber-high :D

:asd:

sfottete? ci sono i dettagli extreme

A dettagli low va fluido come il motore di UT3 al massimo di tutto, ai quali peraltro è mostruosamente bello da vedersi.

Io direi che è programmato coi piedi. O forse sono i programmatori dell'UT3 che vengono da Alpha Centauri, ma non cambia niente, il confronto è tutto e questo confronto Crytek lo ha perso.

scusami ma il fatto che in crysis il cryengine 2 muove triliardi di poligoni in più di quanto faccia l'unreal su ut3 non lo prendi in considerazione? vuoi paragonare le micro-arene di ut3 con l'immensa isola di crysis? :oink:

folken84
12-11-2007, 21:42
A me pare che -DUE- 3870 in CF vadano più di -UNA- 8800GT, grazie al c.... :D

http://www.hwmania.org/forum/showthread.php?t=1036

qua ci sono 2 gt in sli... 18200

nella rece di iax-tech le 2 3870 hanno fatto 20000 con il processore con 400Mhz in più...
diciamo che se la giocano... ;)

appleroof
12-11-2007, 21:45
Piccola prima mini-review

http://www.dinoxpc.com/News/news.asp?ID_News=13463&What=News&tt=Mini-review+sulla+GPU+Ati+HD+3870

Se ci danno sotto coi drivers la 8800 GT è vicinissima.(almeno da questi iniziali e non si sa quanto attendibili test)

scusa ma lo screen fatto con la 8800gt è da ridere, davvero.

A meno che tra la mia e la gt ci sia una differenza in peggio del 90% in qualità grafica...:asd: :asd:

eppure dinox non mi sembra un sito farlocco...:what:

jok3r87
12-11-2007, 21:48
Io chiedo. Qua vedo che arriva alla porta EIDE:
http://www.hwupgrade.it/forum/showpost.php?p=19562793&postcount=2606
Quindi credo sui 24cm

A me non sembra, comunque 23/24cm non è un problema credevo si trattasse di una differenza maggiore.

folken84
12-11-2007, 21:50
per quel che conta il 3dmark... l'importante è vedere come si comporterà nei giochi veri!
Mi sembri un po' alle prime armi... :ciapet:

Uno giudica le schede con i bench che ha, lo so anch'io che 3dmark non è attendibile, ma per ora si ha solo quello! In verità c'è anche crysis, ma nvidia bara sui driver :D :D

p.s.
[OT]vatti ad allenare ad orschesleben invece di rompere le palle :Prrr: ;) [ot]

MiKeLezZ
12-11-2007, 21:51
Non credo che un centimetro (se anche ci fosse) faccia la differenza. ;) 'somma...
http://img159.imageshack.us/img159/2930/dsc00638an2.jpg
:D

Diabolik.cub
12-11-2007, 21:57
scusa ma lo screen fatto con la 8800gt è da ridere, davvero.

A meno che tra la mia e la gt ci sia una differenza in peggio del 90% in qualità grafica...:asd: :asd:

eppure dinox non mi sembra un sito farlocco...:what:
Fa ridere sì... salvali tutti e due sull'hard disk e guardali in sequenza, sono stati fatti in due instanti diversi. Ovviamente quello relativo alla 8800GT è stato fatto ad inquadratura lontana quando c'è ancora un velo di nebbia così a confronto sembra che la qualità video faccio schifo.
Mi sa proprio di review ultra oggettiva :read:
[OT]vatti ad allenare ad orschesleben invece di rompere le palle :Prrr: ;) [ot]
l'hai già abbattuto il muro del 1:19? :asd:

sonnet
12-11-2007, 22:01
Ciao, la "notizia sul core monolitico" è nata su una news di VR-Zone in cui l'autore descrive una slide-marketing trapelata di AMD in cui si evidenziano le peculiarità del prossimo R680 (ovvero le stesse di RV670). L'autore, forse preso dall'euforia del momento, pensa quindi che l'immagine a corredo (un banale chip con i piedini) sia R680 e, non notando la presenza di un chip-fratellino, ipotizza/spera che questo R680 sia un "tutto-in-uno".
Da lì credo che un po' troppe persone ci abbiano costruito castelli in aria, con a corredo le più fantasiose dicerie, ovviamente senza possibilità di dare link a riguardo :-)
Bastava semplicemente seguire tutte le news per conoscere come fosse già in progetto un dual-chip sullo stesso PCB sulla falsariga della X2600 Gemini mai commercializzata, ma basato su RV670, e come questo, durante il suo sviluppo, abbia poi visto cambiare il proprio nome in R680...

"Pluralitas non est ponenda sine neccesitate"

p.s. Sui FPS di Q3 non ero a conoscenza, non pratico sorry :D


La 2600xt gemini e' stata commercializzata e in shop tedeschi la si trova.
Il fatto che tu non la trovi dal negozietto sotto casa tua non vuol dire che non si esista..:rolleyes:
Non e' che casa tua sia il solo mondo possibile

appleroof
12-11-2007, 22:02
Fa ridere sì... salvali tutti e due sull'hard disk e guardali in sequenza, sono stati fatti in due instanti diversi. Ovviamente quello relativo alla 8800GT è stato fatto ad inquadratura lontana quando c'è ancora un velo di nebbia così a confronto sembra che la qualità video faccio schifo.
Mi sa proprio di review ultra oggettiva :read:

l'hai già abbattuto il muro del 1:19? :asd:

:asd: :asd: :asd:

davide155
12-11-2007, 22:09
scusa ma lo screen fatto con la 8800gt è da ridere, davvero.

A meno che tra la mia e la gt ci sia una differenza in peggio del 90% in qualità grafica...:asd: :asd:

eppure dinox non mi sembra un sito farlocco...:what:

Si infatti.......cmq se si guarda bene le due immagini di crysis si vede che sono due frame diversi.
Quello della nvidia è preso qualche frame prima di quello ati. Infatti c'è ancora la foschia delle nuvole e quindi i colori potrebbero essere più "scialbi" per questo.

Bisogna aspettare via.......una comparazione così non è affatto razionale.

Errik89
12-11-2007, 22:09
http://www.hwmania.org/forum/showthread.php?t=1036

qua ci sono 2 gt in sli... 18200

nella rece di iax-tech le 2 3870 hanno fatto 20000 con il processore con 400Mhz in più...
diciamo che se la giocano... ;)
e poi diciamo che il 3d mark non conta 1 azzo!
le hd2900xt facevano più della 8800GTX nel 3d mark ma poi abbiamo visto nei giochi come andavano realmente...
penso che adesso le parti siano invertite con la hd 3870: fa meno al 3d mark ma in proporzione (almeno per crysis) nei giochi è sostanzialmente alla pari... contando anche le "ottimizzazioni" (spinte) di nvidia... :D

A.L.M.
12-11-2007, 22:09
'somma...
:D

Secondo me se uno ha un case microscopico non può comprare nemmeno una scheda single slot "calda" come la GT, visto che tutto il calore finisce nel case. ;)


Qualche foto delle Sapphire.

http://img131.imageshack.us/img131/2397/f0d2e065c64142528526a32dy0.th.jpg (http://img131.imageshack.us/my.php?image=f0d2e065c64142528526a32dy0.jpg) http://img411.imageshack.us/img411/6568/9d12837b0c574e0bb77c1f8ht3.th.jpg (http://img411.imageshack.us/my.php?image=9d12837b0c574e0bb77c1f8ht3.jpg) http://img411.imageshack.us/img411/3149/517c8132bad14f89bf2a00fdy1.th.jpg (http://img411.imageshack.us/my.php?image=517c8132bad14f89bf2a00fdy1.jpg)

http://img411.imageshack.us/img411/5632/cbce181a98c748179c5dc97lp2.th.jpg (http://img411.imageshack.us/my.php?image=cbce181a98c748179c5dc97lp2.jpg) http://img80.imageshack.us/img80/3038/713b6ee47e2744e29e385e8yc4.th.jpg (http://img80.imageshack.us/my.php?image=713b6ee47e2744e29e385e8yc4.jpg) http://img80.imageshack.us/img80/9005/a04fd8f6af884af184f5a87ax2.th.jpg (http://img80.imageshack.us/my.php?image=a04fd8f6af884af184f5a87ax2.jpg)

http://img80.imageshack.us/img80/5143/b935ff8169fd4158a8a781apk3.th.jpg (http://img80.imageshack.us/my.php?image=b935ff8169fd4158a8a781apk3.jpg) http://img80.imageshack.us/img80/2599/1bca7e735747495a9a387f6rd9.th.jpg (http://img80.imageshack.us/my.php?image=1bca7e735747495a9a387f6rd9.jpg) http://img137.imageshack.us/img137/5892/0cbaa4141a6945c8886db22wr9.th.jpg (http://img137.imageshack.us/my.php?image=0cbaa4141a6945c8886db22wr9.jpg)

http://img137.imageshack.us/img137/4291/fb98b1b1c5bf49a7b5c15d7po2.th.jpg (http://img137.imageshack.us/my.php?image=fb98b1b1c5bf49a7b5c15d7po2.jpg) http://img137.imageshack.us/img137/2410/2a41223444834ad1ae24fbayp9.th.jpg (http://img137.imageshack.us/my.php?image=2a41223444834ad1ae24fbayp9.jpg) http://img137.imageshack.us/img137/4985/65f043a097ac4c4db2d5c79pz7.th.jpg (http://img137.imageshack.us/my.php?image=65f043a097ac4c4db2d5c79pz7.jpg)

http://img134.imageshack.us/img134/4051/1c16f9c12970434f932b61dov7.th.jpg (http://img134.imageshack.us/my.php?image=1c16f9c12970434f932b61dov7.jpg) http://img134.imageshack.us/img134/4246/3b7ae6a455a741cb986a76dkk1.th.jpg (http://img134.imageshack.us/my.php?image=3b7ae6a455a741cb986a76dkk1.jpg)

MiKeLezZ
12-11-2007, 22:10
La 2600xt gemini e' stata commercializzata e in shop tedeschi la si trova.
Il fatto che tu non la trovi dal negozietto sotto casa tua non vuol dire che non si esista..:rolleyes:
Non e' che casa tua sia il solo mondo possibileA cosa devo il piacere di questo tono strafottente?
Ti informo che i produttori di VGA si sono rifiutati di commercializzarla, ed è questo il motivo manchi nel mercato.
Se spulciando i motori di ricerva ne trovi un esemplare non significa un cazzo, perchè io vedo anche delle 9600XT a 164 euro che dovrebbero esser estinte da 3 generazioni di schede (4 se contiamo la furbata del HD3xx0).
;)

Errik89
12-11-2007, 22:12
'somma...
http://img159.imageshack.us/img159/2930/dsc00638an2.jpg
:D
è 23cm di sicuro: è dalla x1800xt che ATI usa lo stesso PCB per le sue schede di fascia medio-alta e con lo stesso layout!! Figurati: se erano 23cm per la HD2900XT figurati se per la HD3870 sono di più quando il chip è grande poco più della metà!! :)

appleroof
12-11-2007, 22:12
Secondo me se uno ha un case microscopico non può comprare nemmeno una scheda single slot "calda" come la GT, visto che tutto il calore finisce nel case. ;)


Qualche foto delle Sapphire.

http://img131.imageshack.us/img131/2397/f0d2e065c64142528526a32dy0.th.jpg (http://img131.imageshack.us/my.php?image=f0d2e065c64142528526a32dy0.jpg) http://img411.imageshack.us/img411/6568/9d12837b0c574e0bb77c1f8ht3.th.jpg (http://img411.imageshack.us/my.php?image=9d12837b0c574e0bb77c1f8ht3.jpg) http://img411.imageshack.us/img411/3149/517c8132bad14f89bf2a00fdy1.th.jpg (http://img411.imageshack.us/my.php?image=517c8132bad14f89bf2a00fdy1.jpg)

http://img411.imageshack.us/img411/5632/cbce181a98c748179c5dc97lp2.th.jpg (http://img411.imageshack.us/my.php?image=cbce181a98c748179c5dc97lp2.jpg) http://img80.imageshack.us/img80/3038/713b6ee47e2744e29e385e8yc4.th.jpg (http://img80.imageshack.us/my.php?image=713b6ee47e2744e29e385e8yc4.jpg) http://img80.imageshack.us/img80/9005/a04fd8f6af884af184f5a87ax2.th.jpg (http://img80.imageshack.us/my.php?image=a04fd8f6af884af184f5a87ax2.jpg)

http://img80.imageshack.us/img80/5143/b935ff8169fd4158a8a781apk3.th.jpg (http://img80.imageshack.us/my.php?image=b935ff8169fd4158a8a781apk3.jpg) http://img80.imageshack.us/img80/2599/1bca7e735747495a9a387f6rd9.th.jpg (http://img80.imageshack.us/my.php?image=1bca7e735747495a9a387f6rd9.jpg) http://img137.imageshack.us/img137/5892/0cbaa4141a6945c8886db22wr9.th.jpg (http://img137.imageshack.us/my.php?image=0cbaa4141a6945c8886db22wr9.jpg)

http://img137.imageshack.us/img137/4291/fb98b1b1c5bf49a7b5c15d7po2.th.jpg (http://img137.imageshack.us/my.php?image=fb98b1b1c5bf49a7b5c15d7po2.jpg) http://img137.imageshack.us/img137/2410/2a41223444834ad1ae24fbayp9.th.jpg (http://img137.imageshack.us/my.php?image=2a41223444834ad1ae24fbayp9.jpg) http://img137.imageshack.us/img137/4985/65f043a097ac4c4db2d5c79pz7.th.jpg (http://img137.imageshack.us/my.php?image=65f043a097ac4c4db2d5c79pz7.jpg)

http://img134.imageshack.us/img134/4051/1c16f9c12970434f932b61dov7.th.jpg (http://img134.imageshack.us/my.php?image=1c16f9c12970434f932b61dov7.jpg) http://img134.imageshack.us/img134/4246/3b7ae6a455a741cb986a76dkk1.th.jpg (http://img134.imageshack.us/my.php?image=3b7ae6a455a741cb986a76dkk1.jpg)

ancora stà storia della 8800gt che scalda troppo....ma non ho letto sul tread che le temp sono assolutamente normali, una volta portata la ventola al 50%? :confused:

carina la sappire ;)

A.L.M.
12-11-2007, 22:13
Si infatti.......cmq se si guarda bene le due immagini di crysis si vede che sono due frame diversi.
Quello della nvidia è preso qualche frame prima di quello ati. Infatti c'è ancora la foschia delle nuvole e quindi i colori potrebbero essere più "scialbi" per questo.

Che quell'"ottimizzazione" ( :asd: ) portasse una qualità peggiore è innegabile, basta guardare un po' di immagini in giro su internet, non credo servano quelle immagini.

Bisogna aspettare via.......una comparazione così non è affatto razionale.

Sulle performance aspetterei pure io, ma ho postato qualche pagina fa un grafico di una comparazione fatta da PCGamesHardware (sito tedesco abbastanza serio, visto che stampano vari magazine specializzati) in cui le performance delle 8800GT ricalcano quelle viste in quel test.
Tutto può essere... :boh:

Errik89
12-11-2007, 22:14
A cosa devo il piacere di questo tono strafottente?
Ti informo che i produttori di VGA si sono rifiutati di commercializzarla, ed è questo il motivo manchi nel mercato.
Se spulciando i motori di ricerva ne trovi un esemplare non significa un cazzo, perchè io vedo anche delle 9600XT a 164 euro che dovrebbero esser estinte da 3 generazioni di schede (4 se contiamo la furbata del HD3xx0).
;)
ma perchè "ce l'hai su" così tanto con ATI? Ke ti ha fatto per definire "furbata" quella di rinominare una generazione di schede? Bah... :)

Mister Tarpone
12-11-2007, 22:15
molto bella la 3850

Errik89
12-11-2007, 22:16
molto bella la 3850
a me ste schede attirano troppo tanto... costano poco e vanno, spero che non deludano in prestazioni quando usciranno test seri. Quasi quasi... :D

davide155
12-11-2007, 22:16
Che quell'"ottimizzazione" ( :asd: ) portasse una qualità peggiore è innegabile, basta guardare un po' di immagini in giro su internet, non credo servano quelle immagini.



Non ti seguo :wtf:

MiKeLezZ
12-11-2007, 22:17
Certo che con la 3870 si risparmia per il dissi visto che ha una variante dell'Artic Cooling.

Ma insomma, ci son le schede, ma non i benchmark?

wiltord
12-11-2007, 22:19
Piccola prima mini-review

http://www.dinoxpc.com/News/news.asp?ID_News=13463&What=News&tt=Mini-review+sulla+GPU+Ati+HD+3870

Se ci danno sotto coi drivers la 8800 GT è vicinissima.(almeno da questi iniziali e non si sa quanto attendibili test)

non mi apre nulla...

Errik89
12-11-2007, 22:19
Certo che con la 3870 si risparmia per il dissi visto che ha una variante dell'Artic Cooling.

Ma insomma, ci son le schede, ma non i benchmark?
si, anche se spero che non faccia lo stesso casino della mia x1950xt perchè quando è vicina al 100% è peggio di un phon (e non sto scherzando) oltre a scaldare tantissimo (questa si che si avvicina ai 90° - in full ovviamente)...

A.L.M.
12-11-2007, 22:20
ancora stà storia della 8800gt che scalda troppo....ma non ho letto sul tread che le temp sono assolutamente normali, una volta portata la ventola al 50%? :confused:

Quello che dico (e ne parlo da potenziale acquirente di una versione dual slot, se HD3870 dovesse andare male, anche se temo che le Gainward dual slot costeranno un botto) è che se uno ha dei problemi ad infilare nel case una scheda da 24cm, avrà dei problemi pure a metterci una single slot da 23cm che spara aria calda all'interno del case, o sbaglio? ;)

appleroof
12-11-2007, 22:20
Che quell'"ottimizzazione" ( :asd: ) portasse una qualità peggiore è innegabile, basta guardare un po' di immagini in giro su internet, non credo servano quelle immagini.


non capisco se hanno usato i 169.04 beta o altri, perchè sono solo quelli a dare quegli artefatti....

appleroof
12-11-2007, 22:22
Quello che dico (e ne parlo da potenziale acquirente di una versione dual slot, se HD3870 dovesse andare male, anche se temo che le Gainward dual slot costeranno un botto) è che se uno ha dei problemi ad infilare nel case una scheda da 24cm, avrà dei problemi pure a metterci una single slot da 23cm che spara aria calda all'interno del case, o sbaglio? ;)

puoi sempre prendere una 8800gt con dissi particolare (come la gainward che citi) oppure metterne uno aftermarket.....invece se non ti entra, son azzi ;)

A.L.M.
12-11-2007, 22:23
Non ti seguo :wtf:

Che quelle immagini siano o meno truccate importa relativamente (anche perchè il tizio che ha fatto il test lo fa per hobby, non ha certo la pretesa di essere la Bibbia in fatto di recensioni), visto che le conclusioni alle quali giunge (con quei drivers NVidia la qualità video è migliore sulle ATi) non sono poi così sbagliate. ;)

Se fosse stata una recensione più "seria" avrebbe certo dovuto dire pure che il problema potrebbe risolversi con le future versioni dei drivers.

davide155
12-11-2007, 22:26
Che quelle immagini siano o meno truccate importa relativamente (anche perchè il tizio che ha fatto il test lo fa per hobby, non ha certo la pretesa di essere la Bibbia in fatto di recensioni), visto che le conclusioni alle quali giunge (con quei drivers la qualità video è migliore sulle ATi) non sono poi così sbagliate. ;)

Dammi di deficiente, ma continuo a non capire cosa vuoi dire.

Cioè? Che i driver nvidia con cui lui ha provato sono vecchi?
Che la scheda nvidia è effettivamente sotto di qualità?
Non capisco........:stordita:

davide155
12-11-2007, 22:26
non mi apre nulla...

A me funziona

appleroof
12-11-2007, 22:27
Dammi di deficiente, ma continuo a non capire cosa vuoi dire.

Cioè? Che i driver nvidia con cui lui ha provato sono vecchi?
Che la scheda nvidia è effettivamente sotto di qualità?
Non capisco........:stordita:

neanche io :wtf: , saremo limitati noi? :stordita:

EDIT:ha editato, Alm ma si sà che gli ultimi whql ( e quelli precedenti ai 169.04 beta) non hanno bug con Crysis, cosa costava specificarlo? (sempre se hanno usato i 169.04 beta, perchè da dinox non è dato saperlo per nulla)

cmq se non lo sapevi te lo dico con certezza: con gli ultimi whql il problema è rientrato

paolox86
12-11-2007, 22:28
le recensioni saranno presenti a breve secondo la mia impressione... spero anche domani..:D

A.L.M.
12-11-2007, 22:30
Dammi di deficiente, ma continuo a non capire cosa vuoi dire.

Cioè? Che i driver nvidia con cui lui ha provato sono vecchi? Non sono proprio gli ultimi disponibili, ma sono comunque recentissimi
Che la scheda nvidia è effettivamente sotto di qualità? Sì, almeno con quei drivers.
Non capisco........:stordita:

Il ragazzo in questione ha provato la 8800GT con dei drivers abbastanza nuovi (credo i penultimi, di non molti giorni fa), ma quei drivers hanno una ottimizzazione (così è stata chiamata ufficialmente da NVidia) che porta ad un peggioramento dei riflessi (in alcuni casi inesistenti) e ad un lieve aumento di performance. Le ATi quest'ottimizzazione non ce l'hanno e quindi giocoforza hanno una qualità video superiore, visto che mostrano correttamente l'immagine ed i riflessi.
Qui c'è la storia.
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

Che quell'immagine postata dal tizio sulla review sia errata conta poco, perchè le conclusioni alle quali giunge nell'articolo (e cioè che con quelle impostazioni/drivers la qualità video ATi è superiore) sono comunque corrette. Capito ora? ;)

MiKeLezZ
12-11-2007, 22:31
Quello che dico (e ne parlo da potenziale acquirente di una versione dual slot, se HD3870 dovesse andare male, anche se temo che le Gainward dual slot costeranno un botto) è che se uno ha dei problemi ad infilare nel case una scheda da 24cm, avrà dei problemi pure a metterci una single slot da 23cm che spara aria calda all'interno del case, o sbaglio? ;)Sicuramente avere un dissipatore che butta fuori l'aria è meglio, ma lo sarebbe anche nel case grande!
Con 24cm dubito semplicemente di riuscire a connettere il cavo di alimentazione PCI-E...

MiKeLezZ
12-11-2007, 22:34
Che quelle immagini siano o meno truccate importa relativamente (anche perchè il tizio che ha fatto il test lo fa per hobby, non ha certo la pretesa di essere la Bibbia in fatto di recensioni), visto che le conclusioni alle quali giunge (con quei drivers NVidia la qualità video è migliore sulle ATi) non sono poi così sbagliate. ;)

Se fosse stata una recensione più "seria" avrebbe certo dovuto dire pure che il problema potrebbe risolversi con le future versioni dei drivers.Veramente io di Crysis non ho letto problemi di qualità, il problema è che i riflessi sull'acqua sono calcolati dinamicamente a ogni tuo spostamento (in modo che gli oggetti siano correttamente in prospettiva); i driver nvidia semplicemente raddoppiano il tempo dopo il cui questi riflessi sono calcolati, il che quindi riesce a strappare 2-3 frames in più. E' solo l'esperienza di gioco che diminuisce un po'.
Qua non vorrei si ricominciasse con le dicerie :D

A.L.M.
12-11-2007, 22:35
Sicuramente avere un dissipatore che butta fuori l'aria è meglio, ma lo sarebbe anche nel case grande!
Con 24cm dubito semplicemente di riuscire a connettere il cavo di alimentazione PCI-E...

Boh, penso che nelle prime recensioni diranno la lunghezza esatta. :)

LCol84
12-11-2007, 22:36
Veramente io di Crysis non ho letto problemi di qualità, il problema è che i riflessi sull'acqua sono calcolati dinamicamente a ogni tuo spostamento (in modo che gli oggetti siano correttamente in prospettiva); i driver nvidia semplicemente raddoppiano il tempo dopo il cui questi riflessi sono calcolati, il che quindi riesce a strappare 2-3 frames in più. E' solo l'esperienza di gioco che diminuisce un po'.
Qua non vorrei si ricominciasse con le dicerie :D

nn mi è molto chiaro :muro:

A.L.M.
12-11-2007, 22:39
Veramente io di Crysis non ho letto problemi di qualità, il problema è che i riflessi sull'acqua sono calcolati dinamicamente a ogni tuo spostamento (in modo che gli oggetti siano correttamente in prospettiva); i driver nvidia semplicemente raddoppiano il tempo dopo il cui questi riflessi sono calcolati, il che quindi riesce a strappare 2-3 frames in più. E' solo l'esperienza di gioco che diminuisce un po'.
Qua non vorrei si ricominciasse con le dicerie :D

La cosa effettiva che si nota è che in certi frangenti i riflessi è come se non ci fossero proprio. A me pare che sia un problemino di qualità video. :stordita:
Che poi sia un problema di tempi di calcolo dei riflessi direi che al "giocatore della strada" frega abbastanza poco... :D
Questa immagine (vetri della jeep) mi pare altamente esplicativa.
http://i11.photobucket.com/albums/a154/eastcoasthandle/1.jpg

MiKeLezZ
12-11-2007, 22:45
nn mi è molto chiaro :muro:Immagina i riflessi come fossero l'ombra degli oggetti che "si muove" a seconda di dove metti la luce.
Ora immagina che la posizione di questa ombra venga calcolata ogni secondo. Bene, il "problema" è che usando gli ultimi driver nvidia il calcolo non avviene ogni secondo, ma ogni 2.

MiKeLezZ
12-11-2007, 22:49
Forse ci sono anche problemi di qualità, per prendere quei frames in più:
http://enthusiast.hardocp.com/image.html?image=MTE5MzQzMjA0MzdoSkVhYTExQVVfM18yOF9sLnBuZw==
Comunque i WHQL (da poco usciti) non hanno problemi

Errik89
12-11-2007, 22:50
Sicuramente avere un dissipatore che butta fuori l'aria è meglio, ma lo sarebbe anche nel case grande!
Con 24cm dubito semplicemente di riuscire a connettere il cavo di alimentazione PCI-E...
comunque ti ripeto ancora che la scheda è di 23cm non 24cm. state facendo una polemica lunga ormai 2 pagine di 3d su una stupidata che avete supposto voi quando news ufficiose hanno già detto ke è 23cm!!

<^MORFEO^>
12-11-2007, 22:55
La cosa effettiva che si nota è che in certi frangenti i riflessi è come se non ci fossero proprio. A me pare che sia un problemino di qualità video. :stordita:
Che poi sia un problema di tempi di calcolo dei riflessi direi che al "giocatore della strada" frega abbastanza poco... :D
Questa immagine (vetri della jeep) mi pare altamente esplicativa.
http://i11.photobucket.com/albums/a154/eastcoasthandle/1.jpg

Beh, qui si vedo veramente bene le differenze sulla qualità d'immagine di casa ATI e quella di casa nVidia e confemo quanto già detto diverse pagine fa, ATI sarà anche inferiore in fatto di prestazioni, ma dimostra la sua superiorità nella nella qualità del prodotto e dell'immagine... ;)

davide155
12-11-2007, 22:56
Il ragazzo in questione ha provato la 8800GT con dei drivers abbastanza nuovi (credo i penultimi, di non molti giorni fa), ma quei drivers hanno una ottimizzazione (così è stata chiamata ufficialmente da NVidia) che porta ad un peggioramento dei riflessi (in alcuni casi inesistenti) e ad un lieve aumento di performance. Le ATi quest'ottimizzazione non ce l'hanno e quindi giocoforza hanno una qualità video superiore, visto che mostrano correttamente l'immagine ed i riflessi.
Qui c'è la storia.
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

Che quell'immagine postata dal tizio sulla review sia errata conta poco, perchè le conclusioni alle quali giunge nell'articolo (e cioè che con quelle impostazioni/drivers la qualità video ATi è superiore) sono comunque corrette. Capito ora? ;)

Tutto chiarissimo adesso! :D

Ma questa ottimizzazione sarà tolta nelle prossime release (cioè era solo per prova) oppure sarà obbligatoria d'ora in poi?
Se così fosse sarebbe una mazzata nelle balle per nvidia :mbe:

Gioman
12-11-2007, 22:59
Certo che in fatto di Ottimizzazioni in casa Nvidia sono molto preparati :D

A.L.M.
12-11-2007, 23:01
Tutto chiarissimo adesso! :D

Ma questa ottimizzazione sarà tolta nelle prossime release (cioè era solo per prova) oppure sarà obbligatoria d'ora in poi?
Se così fosse sarebbe una mazzata nelle balle per nvidia :mbe:

Pare che se si fa lo SLi per ora rimanga e che forse negli ultimi drivers per le configurazioni single card sia stata eliminata. Ma il tutto è ancora da confermare. :)

A.L.M.
12-11-2007, 23:03
neanche io :wtf: , saremo limitati noi? :stordita:

EDIT:ha editato, Alm ma si sà che gli ultimi whql ( e quelli precedenti ai 169.04 beta) non hanno bug con Crysis, cosa costava specificarlo? (sempre se hanno usato i 169.04 beta, perchè da dinox non è dato saperlo per nulla)

cmq se non lo sapevi te lo dico con certezza: con gli ultimi whql il problema è rientrato

L'ho scritto, infatti. :)
Comunque prima di dire con certezza che il problema non esiste più aspetterei qualche altro articolo come quello che ho postato con una comparazione di screenshots. ;)

LCol84
12-11-2007, 23:04
Immagina i riflessi come fossero l'ombra degli oggetti che "si muove" a seconda di dove metti la luce.
Ora immagina che la posizione di questa ombra venga calcolata ogni secondo. Bene, il "problema" è che usando gli ultimi driver nvidia il calcolo non avviene ogni secondo, ma ogni 2.

AH :eek: Che roba...

Massy84
12-11-2007, 23:04
secondo voi quali saranno i primi shop ad avere disponibili queste schede?

davide155
12-11-2007, 23:08
secondo voi quali saranno i primi shop ad avere disponibili queste schede?

Visto che è un hard lunch credo un pò tutti.

Soprattutto quelli rinominati come drako ecc.......

MiKeLezZ
12-11-2007, 23:10
Beh, qui si vedo veramente bene le differenze sulla qualità d'immagine di casa ATI e quella di casa nVidia e confemo quanto già detto diverse pagine fa, ATI sarà anche inferiore in fatto di prestazioni, ma dimostra la sua superiorità nella nella qualità del prodotto e dell'immagine... ;)Il filtro anisotropico di ATI ha qualità inferiore a quello di NVIDIA e il problema di Crysis si presenta unicamente con i driver beta 169.xx (nessun problema con gli ultimi WHQL 163.75).
Quandò uscì Lost Planet mi ricordo che le schede ATI non solo avevano problemi di visualizzazione, ma anche a farlo partire, senza contare i vari difettucci con Half Life 2 e i vari mod... Percui eviterei certe facili generalizzazioni.

MiKeLezZ
12-11-2007, 23:11
Certo che in fatto di Ottimizzazioni in casa Nvidia sono molto preparati :DE' guerra aperta anche in questo campo :-)
http://www.theregister.co.uk/2003/05/27/ati_admits_it_optimised_drivers/

A.L.M.
12-11-2007, 23:21
Il filtro anisotropico di ATI ha qualità inferiore a quello di NVIDIA e il problema di Crysis si presenta unicamente con i driver beta 169.xx (nessun problema con gli ultimi WHQL 163.75).
Quandò uscì Lost Planet mi ricordo che le schede ATI non solo avevano problemi di visualizzazione, ma anche a farlo partire, senza contare i vari difettucci con Half Life 2 e i vari mod... Percui eviterei certe facili generalizzazioni.

Le generalizzazioni sono da evitare, ma gli esempi che hai fatto c'entrano poco, soprattutto se si pensa che Crysis è un gioco TWIMTBP (e NVidia e Crytek hanno sbandierato ai 4 venti che hanno collaborato per non so quante migliaia di ore). Tra l'altro quello che tu (ed io) chiami "problema" da NVidia è stato chiamato "ottimizzazione", quindi la cosa era voluta, e non accidentale. ;)

<^MORFEO^>
12-11-2007, 23:27
Il filtro anisotropico di ATI ha qualità inferiore a quello di NVIDIA e il problema di Crysis si presenta unicamente con i driver beta 169.xx (nessun problema con gli ultimi WHQL 163.75).
Quandò uscì Lost Planet mi ricordo che le schede ATI non solo avevano problemi di visualizzazione, ma anche a farlo partire, senza contare i vari difettucci con Half Life 2 e i vari mod... Percui eviterei certe facili generalizzazioni.

E' guerra aperta anche in questo campo :-)
http://www.theregister.co.uk/2003/05/27/ati_admits_it_optimised_drivers/

Leggendo i tuoi post ho pensato ad una cosa, ma sei un pò fanboy nVidia??? :D
Non ho mai letto da te un post di apprezzamento sulle ATI e di sdegno per la nVidia... Se sbaglio, correggimi pure! Cmq ora non occorre polemizzare... ;)
In ogni caso io mi riferivo anche al prodotto e quindi alla scheda di per sè! La serie HD38xx la vedo come una scheda molto più curata e bilanciata nelle sue componenti se paragonata alla 8800GT... Il dissi in primis! :O
Si vede cha nVidia è stata costratta ad aumentare le frequenze della sua 8800GT prima di rilasciarla sul mercato perchè altrimento sarebbe stata pareggiata o superata dalla 3870! :D

cristch
12-11-2007, 23:29
Visto che è un hard lunch credo un pò tutti.

Soprattutto quelli rinominati come drako ecc.......

seee sarà un hard lanch come quello della 8800gt poche schede che tempo 2 giorni finiscono in tutti quei pochi negozi che le hanno prese...la disponibilità ci sarà a Natale

Errik89
12-11-2007, 23:32
seee sarà un hard lanch come quello della 8800gt poche schede che tempo 2 giorni finiscono in tutti quei pochi negozi che le hanno prese...la disponibilità ci sarà a Natale
alcuni shop hanno detto che per le 8800GT si dovrà aspettare a gennaio ormai.
Se ATI ha fatto le cose per bene riuscendo a mettere sul mercato un bel po' di schede sfonderà qualsiasi previsione di vendita visto la mancanza di 8800GT!
Speriamo in un po' di concorrenza comunque, perchè forse se ATI è certa della carenza di 8800GT potrebbe anche aumentare il prezzo di rv670... :muro:

<^MORFEO^>
12-11-2007, 23:35
seee sarà un hard lanch come quello della 8800gt poche schede che tempo 2 giorni finiscono in tutti quei pochi negozi che le hanno prese...la disponibilità ci sarà a Natale

nooooooo....... ;)
Proprio grazie alla corsa alle 8800GT, una buona parte degli acquirenti si sono già messi a posto con il loro acquisto (la 8800GT appunto) quindi noi, reduci della psicologia attendista, avremo vita facile proprio perchè il numero di tutti coloro che per natale volevano farsi il pc nuovo, sarà almeno dimezzati! :O :D

alcuni shop hanno detto che per le 8800GT si dovrà aspettare a gennaio ormai.
Se ATI ha fatto le cose per bene riuscendo a mettere sul mercato un bel po' di schede sfonderà qualsiasi previsione di vendita visto la mancanza di 8800GT!
Speriamo in un po' di concorrenza comunque, perchè forse se ATI è certa della carenza di 8800GT potrebbe anche aumentare il prezzo di rv670... :muro:

Oppure potrebbe buttarle fuori comunque al prezzo competitivo di cui si è tanto sentito parlare per dare una bella mazzata ad nVidia (assente sul mercato per mancanza di schede in magazzino) e riprendersi una bella fetti di mercato! ;) :oink:

The_SaN
12-11-2007, 23:36
seee sarà un hard lanch come quello della 8800gt poche schede che tempo 2 giorni finiscono in tutti quei pochi negozi che le hanno prese...la disponibilità ci sarà a Natale

Spero di no, ma questo si saprá solo tra qualche giorno.
Ormai manca pochissimo :eek:

A.L.M.
12-11-2007, 23:36
seee sarà un hard lanch come quello della 8800gt poche schede che tempo 2 giorni finiscono in tutti quei pochi negozi che le hanno prese...la disponibilità ci sarà a Natale

La 8800GT è dovuta uscire in anticipo (ed infatti uno dei 2 fornitori, Flextronics, non è stato in grado di consegnare le sue schede per il lancio), forse per battere sul tempo ATi, e pare che abbia pessimi yield (ossia ricavano pochi chip da ogni wafer).
Ancora oggi molti shop non ce l'hanno nemmeno in ordinazione.
Per RV670 non dovrebbe essere così. Poi tutto può succedere... :fagiano:

Errik89
12-11-2007, 23:37
Spero di no, ma questo si saprá solo tra qualche giorno.
Ormai manca pochissimo :eek:
-6 al 19!!!

A.L.M.
12-11-2007, 23:38
-6 al 19!!!

Ma l'NDA non scade il 15? :stordita:

cristch
12-11-2007, 23:38
alcuni shop hanno detto che per le 8800GT si dovrà aspettare a gennaio ormai.
Se ATI ha fatto le cose per bene riuscendo a mettere sul mercato un bel po' di schede sfonderà qualsiasi previsione di vendita visto la mancanza di 8800GT!
Speriamo in un po' di concorrenza comunque, perchè forse se ATI è certa della carenza di 8800GT potrebbe anche aumentare il prezzo di rv670... :muro:

purtroppo non è un ipotesi da scartare..e giustificherebbe pure i prezzi in rete non in linea con quanto ci aspettavamo...:muro:

<^MORFEO^>
12-11-2007, 23:39
-6 al 19!!!

:nonsifa:
-3 al 15!!! :oink:

The_SaN
12-11-2007, 23:41
La 8800GT è dovuta uscire in anticipo (ed infatti uno dei 2 fornitori, Flextronics, non è stato in grado di consegnare le sue schede per il lancio), forse per battere sul tempo ATi, e pare che abbia pessimi yield (ossia ricavano pochi chip da ogni wafer).
Ancora oggi molti shop non ce l'hanno nemmeno in ordinazione.
Per RV670 non dovrebbe essere così. Poi tutto può succedere... :fagiano:

Oltre ai pessimi yield, mettici anche un numero di schede DOA (dead on arrival) superiore alla media...e si capisce il perché della poca disponibilitá

E proprio ora che ATi si prepara al lancio (e sembra avere buone rese)

A.L.M.
12-11-2007, 23:44
Oltre ai pessimi yield, mettici anche un numero di schede DOA (dead on arrival) superiore alla media...e si capisce il perché della poca disponibilitá

E proprio ora che ATi si prepara al lancio (e sembra avere buone rese)

Non saprei, sembra che sia successo solo alle BFG e che comunque sia una mezza montatura... :fagiano:

ATi7500
12-11-2007, 23:47
è 23cm di sicuro: è dalla x1800xt che ATI usa lo stesso PCB per le sue schede di fascia medio-alta e con lo stesso layout!! Figurati: se erano 23cm per la HD2900XT figurati se per la HD3870 sono di più quando il chip è grande poco più della metà!! :)

quando l'ho detto io, il buon vecchio Mikelezz (che si lamenta del tono di strafottenza di altri nei suoi riguardi) mi ha augurato molto cordialmente la buonanotte :sofico:

bYeZ!

MiKeLezZ
12-11-2007, 23:48
Le generalizzazioni sono da evitare, ma gli esempi che hai fatto c'entrano poco, soprattutto se si pensa che Crysis è un gioco TWIMTBP (e NVidia e Crytek hanno sbandierato ai 4 venti che hanno collaborato per non so quante migliaia di ore). Tra l'altro quello che tu (ed io) chiami "problema" da NVidia è stato chiamato "ottimizzazione", quindi la cosa era voluta, e non accidentale. ;)Se per questo le HD2900XT furono posticipate proprio per migliorare il supporto driver, quindi farle uscire che avevano dei problemi con il motore grafico di Half Life 2 (che oltretutto era dato in bundle con alcune schede e da sempre è stato cavallo di battaglia in casa ATI) mi sembra altrettanto riprovevole...
Per nvidia alcuni parlano di bug, io parlo di cheat, in ogni caso non mi sembra il caso (ancora) di tirare le conclusioni dicendo che le ATI siano migliori in fatto di IQ (tantopiù che è stata una "caduta in piedi", dato che i driver erano beta).quando l'ho detto io, il buon vecchio Mikelezz (che si lamenta del tono di strafottenza di altri nei suoi riguardi) mi ha augurato molto cordialmente la buonanotte :sofico:

bYeZ!Te mi hai detto che HD2600 e HD2900XT hanno PCB lungo identico. 23cm per una schedina di fascia media mi sembrano un po' eccessivi. Rimango scettico, aspetterò il buon Corsini che lo (la?) misuri con il righello...

The_SaN
12-11-2007, 23:49
Non saprei, sembra che sia successo solo alle BFG e che comunque sia una mezza montatura... :fagiano:

Qui in Brasile 3 dei rivenditori che conosco hanno avuto problemi con le BFG e EVGA. E non sono state poche, tanto che adesso prevedono di importarle solo verso natale o dopo.
Ma la cosa strana é come diavolo fanno cosi tante schede ad essere morte se le testano prima di metterle in scatola...

belin
12-11-2007, 23:54
seee sarà un hard lanch come quello della 8800gt poche schede che tempo 2 giorni finiscono in tutti quei pochi negozi che le hanno prese...la disponibilità ci sarà a Natale
Ci sono siti che cominciano a considerare la possibilità che AMD vinca la battaglia delle vendite natalizie proprio grazie alla disponibilità in grandi quantità della serie HD3800, contrapposta alla possibilità di non vedere 8800GT per ancora alcune settimane e/o comunque in numero ridotto.
L'ipotesi non è campata in aria e sarebbe linfa vitale per ATI.
In UK, ad esempio, negozi segnalano pre-order contemporanei per più marche (Sapphire, HIS, MSI, GeCube).

:)

ATi7500
12-11-2007, 23:56
Se per questo le HD2900XT furono posticipate proprio per migliorare il supporto driver, quindi farle uscire che avevano dei problemi con il motore grafico di Half Life 2 (che oltretutto era dato in bundle con alcune schede e da sempre è stato cavallo di battaglia in casa ATI) mi sembra altrettanto riprovevole...
Per nvidia alcuni parlano di bug, io parlo di cheat, in ogni caso non mi sembra il caso (ancora) di tirare le conclusioni dicendo che le ATI siano migliori in fatto di IQ (tantopiù che è stata una "caduta in piedi", dato che i driver erano beta).Te mi hai detto che HD2600 e HD2900XT hanno PCB lungo identico. 23cm per una schedina di fascia media mi sembrano un po' eccessivi. Rimango scettico, aspetterò il buon Corsini che lo (la?) misuri con il righello...
io parlavo della HD2600 GDDR4, di cui HwUpgrade ha anche una recensione :) e si, ha lo stesso pcb (in lunghezza) delle Hd2900

bYeZ!

The_SaN
12-11-2007, 23:57
Ci sono siti che cominciano a considerare la possibilità che AMD vinca la battaglia delle vendite natalizie proprio grazie alla disponibilità in grandi quantità della serie HD3800, contrapposta alla possibilità di non vedere 8800GT per ancora alcune settimane e/o comunque in numero ridotto.
L'ipotesi non è campata in aria e sarebbe linfa vitale per ATI.
In UK, ad esempio, negozi segnalano pre-order contemporanei per più marche (Sapphire, HIS, MSI, GeCube).

:)

Avevo letto da qualche parte (credo su tomshw italia) di un certo ottimismo sulle vendite della serie 3800. Probabilmente si riferivano a questo.

<^MORFEO^>
13-11-2007, 00:01
Ci sono siti che cominciano a considerare la possibilità che AMD vinca la battaglia delle vendite natalizie proprio grazie alla disponibilità in grandi quantità della serie HD3800, contrapposta alla possibilità di non vedere 8800GT per ancora alcune settimane e/o comunque in numero ridotto.
L'ipotesi non è campata in aria e sarebbe linfa vitale per ATI.
In UK, ad esempio, negozi segnalano pre-order contemporanei per più marche (Sapphire, HIS, MSI, GeCube).

:)

Quello che ho detto anch'io! Sarebbe una bella rivincita per ATI e una bella mazzata a nVidia causata proprio dalla sua negligenza nel produrre poche schede...
Sono convinto che ATI sta producendo HD38xx in pompa magna da 1 mese a questa parte per evitare proprio i problemi che si sono visti per nVidia! :O

belin
13-11-2007, 00:01
La cosa effettiva che si nota è che in certi frangenti i riflessi è come se non ci fossero proprio. A me pare che sia un problemino di qualità video.

Questa immagine (vetri della jeep) mi pare altamente esplicativa.
http://i11.photobucket.com/albums/a154/eastcoasthandle/1.jpg
Questa immagine non so se mi fa più incazzare o rimanere male... :mad: :(
Spero che il bug\cheat\ocomecavolovoglionochiamarlo sia stato risolto con gli utlimi driver. Comunque non sono pochi i siti esteri che se ne sono accorti.

:)

LCol84
13-11-2007, 00:05
Questa immagine non so se mi fa più incazzare o rimanere male... :mad: :(
Spero che il bug\cheat\ocomecavolovoglionochiamarlo sia stato risolto con gli utlimi driver. Comunque non sono pochi i siti esteri che se ne sono accorti.

:)

Già, speriamo risolvano presto quelli di nvidia, perchè l'immagine è nettamente inferiore da questa slide...

Errik89
13-11-2007, 00:10
Quello che ho detto anch'io! Sarebbe una bella rivincita per ATI e una bella mazzata a nVidia causata proprio dalla sua negligenza nel produrre poche schede...
Sono convinto che ATI sta producendo HD38xx in pompa magna da 1 mese a questa parte per evitare proprio i problemi che si sono visti per nVidia! :O

Eh infatti! O nvidia si muove e mette sul mercato più 8800gt oppure la battaglia delle vendite sarà vinta da ati. Soprattutto considerando ke ati ha 1 asso nella manica che è la 3850 alla quale nvidia attualmente nn può rispondere in breve tempo e che spazza via le 8600gts che o calano molto di prezzo oppure nn tenderanno per niente.

Errik89
13-11-2007, 00:13
Già, speriamo risolvano presto quelli di nvidia, perchè l'immagine è nettamente inferiore da questa slide...

Quoto. Anke xké dopo la pubblicazione di alcune comparative sulle scatole delle 8800gt con ipotetiche prestazioni di rv670 farebbe proprio 1 brutta figuraccia...

Mister Tarpone
13-11-2007, 00:22
Eh infatti! O nvidia si muove e mette sul mercato più 8800gt oppure la battaglia delle vendite sarà vinta da ati. Soprattutto considerando ke ati ha 1 asso nella manica che è la 3850 alla quale nvidia attualmente nn può rispondere in breve tempo e che spazza via le 8600gts che o calano molto di prezzo oppure nn tenderanno per niente.

l'avversaria della 3850 dovrebbe essere la 8800GS ( se esce veramente.. ) o la GT 256... la 8600 non è della stessa fascia, e infatti non è proprio paragonabile a livello hw con rv670.. :asd: cmq le prossime schede ati della fascia di 2600/8600 saranno le 3550/3570, se non sbaglio... ;)

grng
13-11-2007, 00:22
Quello che ho detto anch'io! Sarebbe una bella rivincita per ATI e una bella mazzata a nVidia causata proprio dalla sua negligenza nel produrre poche schede...
Rivincita...lo sarebbe sicuramente, ma io preferirei che una delle due "vincesse" perchè ha messo sul mercato il miglior prodotto o dal rapporto prezzo/prestazioni più conveniente, non perchè l'altra non riesce a produrre abbastanza schede -.-

wiltord
13-11-2007, 00:49
A me funziona

ok và ;)

TecnoWorld8
13-11-2007, 03:16
anche se mi fido di ATi ormai molto meno di una volta, devo dire che questa scheda mi incuriosisce parecchio per due potenziali motivi:

1) l'architettura mutuata da R600 (che checchè se ne dica è assai innovativa) ma ottimizzata
2) la potenzialità in crossfire, che pare veramente eccellente come efficienza, sfruttabile anche con una mobo vecchia come la mia

aspetto di vedere i primi bench di crysis con questa scheda in CF. se andrà decisamente bene, penso che ne prenderò due.

eru
13-11-2007, 08:32
beh dai ATI è da poco + di un annetto che toppa, sennò prima è sempre stata ottima. Mi ricordo quando passai dalla 9700PRO ATI all'attuale 7800GTX Nvidia è verò che il salto prestazionale l'ho notato (ovviamente sono di due generazioni diverse), ma fui molto colpito dalla minore qualità di immagine di nvidia. Ati ha sempre dimostrato di elaborare una migliore qualità di immagine, magari sì a scapito di qualche FPS ma mentre la differenza di 5 frame non la noto la differenza qualitativa complessiva la noto.

Se a questo aggiungiamo la netta superiorità delle mobo x38 su quelle NVIDIA SLI e quindi la possibilità di un xfire, e la migliore architettura in termini di calore/rumore di ATI mi posso ritenere fortunato di non aver beccato le ultimissime 8800 GT ....almeno fino al 15 in cui usciranno valanghe di rece.

edit_user_name_here
13-11-2007, 08:36
Mi unisco anche io alla discussione tanto che ultimamente non riesco + a informarmi molto su tutte le schede che ci sono in giro.

Saluti

gianni1879
13-11-2007, 08:41
io parlavo della HD2600 GDDR4, di cui HwUpgrade ha anche una recensione :) e si, ha lo stesso pcb (in lunghezza) delle Hd2900

bYeZ!

io ho avuto la hd2600xt GDDR3 è il pcb era più corto della x1900xtx, pensavo che anche quella con GDDR4 avesse stessa lunghezza

Foglia Morta
13-11-2007, 08:58
http://www.tgdaily.com/content/view/34818/118/

Nvidia to miss out on holiday sales

Culver City (CA) - On October 29th Nvidia introduced its GeForce 8800GT targeting the mid-range enthusiast segment. Demand has been high and within days the shelves of retailers were emptied of the cards. Two weeks later we are still in the same situation. Although a new shipment hit the stores last night, this supply appears to be limited. After our initial probe into the premium on the new product we unearthed more information regarding supplies.

In conversations with industry sources, 40,000 units of the GeForce 8800GT have shipped worldwide. To put these volume numbers into perspective, other sources have stated that AMD has already fulfilled orders for 250,000 of its Radeon HD 3850 and 3870 models for its launch later this week. It was stated that an additional 150,000 will ship before year end. Prices for 3800 series cards should ship between $180-220.

Sources told TG Daily that performance difference between AMD and Nvidia’s newest cards are within 10% in some cases and on par in other metrics. If AMD can deliver a high performance part for 2/3 the cost in volume, it could mean the graphics pendulum is about to swing the other direction. With holiday shopping ramping up, a lack of supply and new competition, Nvidia might be getting a lump of coal in its stocking this year.

halduemilauno
13-11-2007, 09:10
l'avversaria della 3850 dovrebbe essere la 8800GS ( se esce veramente.. ) o la GT 256... la 8600 non è della stessa fascia, e infatti non è proprio paragonabile a livello hw con rv670.. :asd: cmq le prossime schede ati della fascia di 2600/8600 saranno le 3550/3570, se non sbaglio... ;)

le 8800gt 256 son gia segnalate nei siti dei produttori. cmq volevo segnalarvi trovaprezzi.
http://www.trovaprezzi.it/categoria.aspx?libera=3850&id=28&prezzoMin=&prezzoMax=&sbox=sb

http://www.trovaprezzi.it/categoria.aspx?libera=3870&id=28&prezzoMin=&prezzoMax=&sbox=sb

;)

jventure
13-11-2007, 09:12
http://www.trovaprezzi.it/categoria.aspx?libera=3850&id=28&prezzoMin=&prezzoMax=&sbox=sb

http://www.trovaprezzi.it/categoria.aspx?libera=3870&id=28&prezzoMin=&prezzoMax=&sbox=sb

;)

si spera sempre siano prezzi da preorder e che poi al momento del lancio subiscano una limatina al ribasso...

jventure
13-11-2007, 09:24
Con questi prezzi voglio vederlo in faccia chi prende la 3850 256MB :asd:

a mio avviso finirà su molti computer come oem per il periodo natalizio

gianni1879
13-11-2007, 09:36
Con questi prezzi voglio vederlo in faccia chi prende la 3850 256MB :asd:

Vediamo che succede quando comincerà la guerra dei prezzi fra i vari negozi :>

infatti aspettiamo qualche giorno :)

<^MORFEO^>
13-11-2007, 09:47
infatti aspettiamo qualche giorno :)

Dall'articolo citato poco fa si dice che in certi casi sarà inferiore del 10% e che in altri saranno alla pari... Alla luce di questo, quanto risentiranno le prestazioni in oc della 3870 contando che l'architettura è simile a R600? R600 in oc guadagnava qualcosa o non serviva poi a molto in fatto di fps? :stordita:
Cioè, facendo un oc, l'incremento prestazionale, meriterà o sarà irrisorio contando che a mio parere almeno sul core si potranno raggiungere i 900MHz(:oink:)?

paolox86
13-11-2007, 09:56
non solo con il procio... essendo delle gddr4 sembrerebbe @ 0.7 ns si potrebbe salire molto anche qui...

Foglia Morta
13-11-2007, 09:57
questi sono rimasti a 750 - 825Mhz

http://www.digitimes.com/NewsShow/MailHome.asp?datePublish=2007/11/12&pages=PD&seq=204

With Nvidia launching its GeForce 8800GT (G92) early on October 29, AMD has dropped its ATI Radeon HD 3800 series (RV670) price from US$199-259 to US$179-239 in preparation for its launch later this month, according to sources at graphics card makers.

The ATI Radeon HD 3800 will be available in two versions, the 3870 (RV670 XT) and 3850 (RV670 PRO), noted the sources, adding that the chips also support CrossFire X technology when combined with the upcoming 790FX chipset platform allowing to up to four graphics cards to work together.

In an update to a previous report, the Radeon HD 3850 supports 256/512MB GDDR3 memory with a core frequency of 750MHz and memory frequency of 1.8GHz, while the Radeon HD 3870 adopts 512MB GDDR4 with a core frequency of 825MHz and memory frequency of 2.4GHz.

Foglia Morta
13-11-2007, 10:00
http://blog.yam.com/hardwareclub/article/12562032

<^MORFEO^>
13-11-2007, 10:04
http://blog.yam.com/hardwareclub/article/12562032

:sbav: :sbav: :sbav:

taleboldi
13-11-2007, 10:06
http://blog.yam.com/hardwareclub/article/12562032

:eek: stika !!!

Athlon 64 3000+
13-11-2007, 10:14
spero che RV670 venga presentato tra 2 giorni e non il 19 visto che lo stesso giorno della presentazione di RV670 dovrebbero uscire anche i tanto agognati catalyst 7.11

HackaB321
13-11-2007, 10:14
Mi linki i noAA? Dovrebbe esser la scheda al top, se non la attiviamo su questa i filtri... :-)


Che la gestione dell'AA sia un problema di R600 è cosa nota e comunque in 2 di quelle recensioni trovi anche i test con AA . Il punto del mio discorso comunque non è questo: quando la scheda uscì fu testata con giochi che ne penalizzavano l'architettura perchè quelli erano i giochi esistenti.I giochi successivi hanno cambiato un pò la situazione perchè hanno un rapporto ALU:TEX ben diverso.
Questo spiega ad esempio risultati così diversi

http://www.hwupgrade.it/articoli/skvideo/1725/STALKER_1920.png

http://www.hwupgrade.it/articoli/skvideo/1833/ut3.png

Per questo dico che per un giudizio completo sulla scheda non è corretto basarsi solo sulle recensioni all'uscita.

sonnet
13-11-2007, 10:21
le 8800gt 256 son gia segnalate nei siti dei produttori. cmq volevo segnalarvi trovaprezzi.
http://www.trovaprezzi.it/categoria.aspx?libera=3850&id=28&prezzoMin=&prezzoMax=&sbox=sb

http://www.trovaprezzi.it/categoria.aspx?libera=3870&id=28&prezzoMin=&prezzoMax=&sbox=sb

;)
256 mb sono ormai ridicoli sia che si tratti di ati che di nvidia.
X quanto riguarda i prenzzzi che hai linkato, in Germania lala 3850HD 512mb si trova gia' a 170 euro.
Tieni presente che sempre in Germania la 8800gt in preorder costava sui 230 mentre ora si trova gia sotto i 200 (parlo della zotac OC 660/1900), quindi immagina quali saranni i prezzi della 3850 512mb una settimana dopo il lancio.

roccodifilippo
13-11-2007, 10:21
Leggete qua:

http://www.dailytech.com/AMD+Radeon+HD+3800+Launch+Almost+Upon+Us/article9613.htm

c&c
13-11-2007, 10:21
http://blog.yam.com/hardwareclub/article/12562032

:sbav:

c&c
13-11-2007, 10:23
Leggete qua:

http://www.dailytech.com/AMD+Radeon+HD+3800+Launch+Almost+Upon+Us/article9613.htm

Già postato .

grng
13-11-2007, 10:24
L'incremento prestazionale, meriterà o sarà irrisorio contando che a mio parere almeno sul core si potranno raggiungere i 900MHz(:oink:)?
Considerando che la GT passa da 600 a 700 e shader da 1500 a 1700, penso che 900 sia insufficiente per pareggiare...forse dovrebbe andare a 950-1ghz

Campioni del Mondo 2006!!
13-11-2007, 10:25
http://blog.yam.com/hardwareclub/article/12562032

Stica.. ma sono alimentate da una centrale nucleare?

sonnet
13-11-2007, 10:25
Cmq secondo me e' vera la storia che abbiano in corsa abbassato le frequenze, ma questo non per un problema di resa i altro, ma solo per poter poi proporre un ulteriore modello con frequenze pompate per rispondere alla nuova 8800gts.
Credo che potranno benissimo proporre un modello con frequenze oltre gli 850mhz per rispondere alla nuova gts.

Massy84
13-11-2007, 10:26
Considerando che la GT passa da 600 a 700 e shader da 1500 a 1700, penso che 900 sia insufficiente per pareggiare...forse dovrebbe andare a 950-1ghz

bè è anche vero che la GT si ferma a 2Ghz per le ram :O la 3870 def le ha a 2.4Ghz :read:

Cloud76
13-11-2007, 10:37
Stica.. ma sono alimentate da una centrale nucleare?

Dato che sono 4 3850 direi di no... a mio parere un buon alimentatore da 600-650 Watt è sufficiente a stare perfettamente stabili.

calabar
13-11-2007, 10:40
Considerando che la GT passa da 600 a 700 e shader da 1500 a 1700, penso che 900 sia insufficiente per pareggiare...forse dovrebbe andare a 950-1ghz
Si, ma se nel core, passando da 600 a 700mhz, abbiamo un ottimo incremento (oltre 15%), negli shader, passando da 1,5 a 1,7ghz, l'incremento è minore (inferiore al 15%).

Insomma, possiamo parlare di un incremento medio del 15%, che per 3870 significherebbe un passaggio da 775 a meno di 900mhz (non certo 950mhz o 1ghz).

gianni1879
13-11-2007, 10:44
Dall'articolo citato poco fa si dice che in certi casi sarà inferiore del 10% e che in altri saranno alla pari... Alla luce di questo, quanto risentiranno le prestazioni in oc della 3870 contando che l'architettura è simile a R600? R600 in oc guadagnava qualcosa o non serviva poi a molto in fatto di fps? :stordita:
Cioè, facendo un oc, l'incremento prestazionale, meriterà o sarà irrisorio contando che a mio parere almeno sul core si potranno raggiungere i 900MHz(:oink:)?

la frequenza default di 775 MHz è stata sicuramente pensata per aumentare le rese produttive, mentre per il discorso oc, su R600 l'aumento del core si sentiva abbastanza e credo lo si sentira ancora meglio su RV670 ;)

DVD2005
13-11-2007, 10:48
penso di attendere il 3 dicembre:
http://www.hwupgrade.it/news/skvideo/geforce-8800-gts-512mbytes-le-specifiche-finali_23235.html

Agonia
13-11-2007, 10:49
penso di attendere il 3 dicembre:
http://www.hwupgrade.it/news/skvideo/geforce-8800-gts-512mbytes-le-specifiche-finali_23235.html

già...ma su quella fascia di prezzo io lascio...:D

DVD2005
13-11-2007, 10:50
già...ma su quella fascia di prezzo io lascio...:D

si sa già la fascia di prezzo ?

io è un annetto che risparmio.... :D

Agonia
13-11-2007, 10:51
si sa già la fascia di prezzo ?

io è un annetto che risparmio.... :D

300/350 forse

halduemilauno
13-11-2007, 10:52
penso di attendere il 3 dicembre:
http://www.hwupgrade.it/news/skvideo/geforce-8800-gts-512mbytes-le-specifiche-finali_23235.html



che ti dicevo?

:mano:

cmq dall'articolo sottolineo questa frase che ha attinenza con questo thread.
"Non abbiamo al momento attuale informazioni sui prezzi di questa nuova serie di schede video; riteniamo che il listino non potrà discostarsi sensibilmente da quello delle schede video GeForce 8800 GT,
quindi mi pare ovvio che la 8800gt scenda di prezzo.
;)

Foglia Morta
13-11-2007, 10:52
quella da un tera

http://www.nordichardware.com/news,7038.html

We found out that AMD is quite pleased with the progress of the R680 card. The dual-GPU RV670 card is suppose to be the next big thing from AMD/ATI, and right now it seems that the card will be ready for launch in January or early February. At the same time we hear that the card itself is suppose to be quite convenient in size. Although still big, the card is suppose to keep the same height as current high-end cards, just longer. There will be people with too narrow cases, but it shouldn't be a problem for the high-end users.

Even though the upcoming Radeon HD 3870 and 3850 will sport lower frequencies than expected, this is entirely due to the coolers. R680 will instead sport a massive cooler similar to the one R600 has, and we all know that this is a good cooler considering the heat that the R600 emits. Copper and heatpipes will join to keep the beast at bay, and even make it possible for it to run at frequencies similar to that of Radeon HD 3870, which means about 775 MHz.

Marco88.25
13-11-2007, 10:55
Ma se nvidia esce con sta nuova 8800 gts che probabilmante andra un bel pò di più della 3870, ATI come risponde... prima di natale esce con una nuova scheda tipo la 3890???

Foglia Morta
13-11-2007, 10:55
cmq dall'articolo sottolineo questa frase che ha attinenza con questo thread.
"Non abbiamo al momento attuale informazioni sui prezzi di questa nuova serie di schede video; riteniamo che il listino non potrà discostarsi sensibilmente da quello delle schede video GeForce 8800 GT,
quindi mi pare ovvio che la 8800gt scenda di prezzo.
;)

ottimi affari per gli acquirenti e probabilmente pessimi per nvidia... una gpu con un die così grosso ad un prezzo così basso significa sacrificare gran parte del margine di guadagno.

Spike79
13-11-2007, 10:55
A leggere gli articoli sulla 3870, sono entrato in crisi....dovendo cambiare scheda, ero propenso verso la 8800GT , ma a questo punto potrei anche rimanere con Ati.... si sa niente di preciso sui prezzi nei negozi italiani ? la 8800GT si attesta sui 220-280€ (dalla base alla versione OC da 700mhz) ma la 3870 ? la fascia di prezzo dovrebbe più o meno essere la stessa, o sbaglio ?

halduemilauno
13-11-2007, 10:57
ottimi affari per gli acquirenti e probabilmente pessimi per nvidia... una gpu con un die così grosso ad un prezzo così basso significa sacrificare gran parte del margine di guadagno.

ma che stai a di???? è g92 e 65nm. una scheda sui 300€ che va + di una ultra se ne venderanno a vagonate su vagonate.
:boh:

Foglia Morta
13-11-2007, 11:03
ma che stai a di???? è g92 e 65nm. una scheda sui 300€ che va + di una ultra se ne venderanno a vagonate su vagonate.
:boh:

che sono 289mm2 , ed è quello che conta. I margini sulla nuova GTS possono andare bene, i pessimi margini saranno con la GT

DVD2005
13-11-2007, 11:06
che ti dicevo?

:mano:

cmq dall'articolo sottolineo questa frase che ha attinenza con questo thread.
"Non abbiamo al momento attuale informazioni sui prezzi di questa nuova serie di schede video; riteniamo che il listino non potrà discostarsi sensibilmente da quello delle schede video GeForce 8800 GT,
quindi mi pare ovvio che la 8800gt scenda di prezzo.
;)

:mano:

belin
13-11-2007, 11:15
Ma se nvidia esce con sta nuova 8800 gts che probabilmante andra un bel pò di più della 3870, ATI come risponde... prima di natale esce con una nuova scheda tipo la 3890???

HD3870/8800GT e 8800GTS sono vga di fascia differenti, con prezzi differenti e numero di vendite differenti.
Comunque sono probabili anche versioni di HD3870 con clock più alti.

:)

belin
13-11-2007, 11:19
A leggere gli articoli sulla 3870, sono entrato in crisi....dovendo cambiare scheda, ero propenso verso la 8800GT , ma a questo punto potrei anche rimanere con Ati.... si sa niente di preciso sui prezzi nei negozi italiani ?

Massimo 230/240€ in pre-order, poi sui 219€ (anche meno).


:)

Spike79
13-11-2007, 11:22
A vedere questi grafici (che non so se avete già visto), pare consumare davvero poco...non vedo l'ora di qualche bench (su VRZone una 3870 OC ha fatto 12900 al 3dMark06...direi non male!)
http://www.nordichardware.com/image3.php?id=4071

halduemilauno
13-11-2007, 11:24
Conta la dimensione del die, non il processo produttivo, perché il costo è "per wafer" e va da sé che a die più grande corrisponde un numero di die per wafer minore, ovvero un maggior costo per wafer e quindi minori margini.

ma costerà sempre meno dell'attuale g80. quindi che state a di??? se poi pensavate al confronto con le rv670 anche la gt è g92 e quindi?

cristch
13-11-2007, 11:26
A vedere questi grafici (che non so se avete già visto), pare consumare davvero poco...non vedo l'ora di qualche bench (su VRZone una 3870 OC ha fatto 12900 al 3dMark06...direi non male!)
http://www.nordichardware.com/image3.php?id=4071
con questi consumi ed il costo contenuto, se le prestazioni si avvicineranno a quelle della gt penso sia un ottima scheda e sarà la mia scelta..aspetto i bench

grng
13-11-2007, 11:26
bè è anche vero che la GT si ferma a 2Ghz per le ram :O la 3870 def le ha a 2.4Ghz :read:Si, ad alte res molto utile, sulle medie si fa sentire di più il core
Si, ma se nel core, passando da 600 a 700mhz, abbiamo un ottimo incremento (oltre 15%), negli shader, passando da 1,5 a 1,7ghz, l'incremento è minore (inferiore al 15%).
Insomma, possiamo parlare di un incremento medio del 15%, che per 3870 significherebbe un passaggio da 775 a meno di 900mhz (non certo 950mhz o 1ghz).
Coinsidera cmq che GT dovrebbe partire da un 5-10% in più (se fosse vero quel bench di crysis, 14fps vs 16, la differenza di 2fps si tradurrebbe nel 14%, un po' troppo ampia), quindi come oc per pareggiare la 3870 dovrebbe salire di più, altro che 850, cosa cmq possibile dato il W basso e il doppio slot di dissipazione

halduemilauno
13-11-2007, 11:31
Si, ad alte res molto utile, sulle medie si fa sentire di più il core

Coinsidera cmq che GT dovrebbe partire da un 5-10% in più (se fosse vero quel bench di crysis, 14fps vs 16, la differenza di 2fps si tradurrebbe nel 14%, un po' troppo ampia), quindi come oc per pareggiare la 3870 dovrebbe salire di più, altro che 850, cosa cmq possibile dato il W basso e il doppio slot di dissipazione

non credo che faccia molto testo quel bench. nel senso è ingiocabile per ambedue quindi su crysis la lotta sarà a dettagli alti e magari filtri attivati. e li per fare un'esempio la differenza tra la gt e la xt è ben superiore a 2. ma questo è per fare un'esempio non si sa la 3870 come andrà.
;)

halduemilauno
13-11-2007, 11:32
E' vero che risparmiano rispetto al G80, ma lo vendono anche ad un prezzo smodatamente inferiore :>

E sì, pensavo al confronto con RV670, ma non ho capito la tua frase :mbe:

e io avevo capito che ti riferivi alla rv670. se non si è sollevata la questione con la gt perchè sollevarla con la gts che è lo stesso chip sempre g92?

grng
13-11-2007, 11:34
non credo che faccia molto testo quel bench. nel senso è ingiocabile per ambedue quindi su crysis la lotta sarà a dettagli alti e magari filtri attivati. e li per fare un'esempio la differenza tra la gt e la xt è ben superiore a 2. ma questo è per fare un'esempio non si sa la 3870 come andrà.
;)
si, io ragionavo in %, se ci sono 2fps a 14, salendo ce ne saranno di più, ad esempio 42 vs 48, 56 vs 64 etc :)
Considerando le punte di fps minimi, averne di più fa sempre comodo...
Cmq vedremo i primi bench "seri", ormai manca poco...se in giro non si trova la GT mi toccherà passare ad ati (cosa che avrei fatto volentieri con le 1900 1 anno e mezzo fa, ma con le 3870 sarà un'incognita :asd:)

MiKeLezZ
13-11-2007, 11:34
Conta la dimensione del die, non il processo produttivo, perché il costo è "per wafer" e va da sé che a die più grande corrisponde un numero di die per wafer minore, ovvero un maggior costo per wafer e quindi minori margini.Non penso proprio ci siano di questi problemi, per i 90nm (contro 80nm) non ci sono stati:
http://www.easybourse.com/Website/dynamic/News.php?NewsID=336785
:-)

halduemilauno
13-11-2007, 11:38
Non penso proprio ci siano di questi problemi, per i 90nm (contro 80nm) non ci sono stati:
http://www.easybourse.com/Website/dynamic/News.php?NewsID=336785
:-)

pensa quel trimestre è finito il 28 ottobre il giorno prima dell'avvento della 8800gt. quindi tutta farina del sacco g80. poi ci sarà questa seconda g92...
;)

calabar
13-11-2007, 11:43
Non penso proprio ci siano di questi problemi, per i 90nm (contro 80nm) non ci sono stati:
http://www.easybourse.com/Website/dynamic/News.php?NewsID=336785
:-)
Si, ma prima R600 era un chip costoso e che non rendeva le performance che avrebbe dovuto: ati era in svantaggio nel gioco dei prezzi.
Ora rv680 è piccolo e pare abbia rese produttive elevate, il che probabilmente pone ati in vantaggio da questo punto di vista.

Il dubbio sulla perdita di nvidia sta proprio nell'affermazine della news: dice che 8800gts 128sp non avrà un prezzo eccessivamente elevato. Quindi se consegunetemente le GT si abbasseranno di prezzo, il margine di queste sarà poco, mentre quello di amd, che ha costi produttivi inferiori, potrà reggere meglio questo calo di prezzi.
Naturalmente sono tutte supposizioni, la realtà credo la si potrà constatare in futuro.

HackaB321
13-11-2007, 11:46
Massimo 230/240€ in pre-order, poi sui 219€ (anche meno).


:)

C'è già uno shop italiano dove si può ordinarla a 219,94

Massy84
13-11-2007, 11:48
C'è già uno shop italiano dove si può ordinarla a 219,94

dove? anche in pm ;)

Marco88.25
13-11-2007, 11:52
HD3870/8800GT e 8800GTS sono vga di fascia differenti, con prezzi differenti e numero di vendite differenti.
Comunque sono probabili anche versioni di HD3870 con clock più alti.

:)

Si ma se non mi sbaglio la 3870 doveva essere la nuova XT e si confronta con la gts...!!!! e la XTX (3890) si confronta con la gtx, a me pare che sta 3870 ne come prezzo, ma nemmeno come prestazioni si può paragonare alla serie XT (e quindi alle gts), più che altro mi sembra una Pro... Secondo me qualcuno si è sbagliato con sti numeri!!!!!

taleboldi
13-11-2007, 11:53
dove? anche in pm ;)

anche a me please !!!

ciauz.

c&c
13-11-2007, 11:56
dove? anche in pm ;)

http://shop.systempointnet.com/svga-pcie-sapphire-hd3870-512mb-gddr4-256bit-2dvi-p-3969.html

http://shop.systempointnet.com/svga-pcie-sapphire-hd3850-256mb-gddr3-p-3966.html

http://shop.systempointnet.com/svga-pcie-sapphire-hd3850-512mb-gddr3-p-3968.html


Prezzi:
HD3870 512Mb -> €219,94
HD3850 512Mb -> €180,00
HD3850 256Mb -> €163,85

Ottimi prezzi direi .

cristch
13-11-2007, 11:59
http://shop.systempointnet.com/svga-pcie-sapphire-hd3870-512mb-gddr4-256bit-2dvi-p-3969.html

http://shop.systempointnet.com/svga-pcie-sapphire-hd3850-256mb-gddr3-p-3966.html

http://shop.systempointnet.com/svga-pcie-sapphire-hd3850-512mb-gddr3-p-3968.html

ottimo!!!! vuol dire che la 3850 me la porto a casa sotto i 150e appena è disponibile in quantità...sarà miaaaaaaaaaaaaaaaaaaaaa

HackaB321
13-11-2007, 12:02
Si ma se non mi sbaglio la 3870 doveva essere la nuova XT e si confronta con la gts...!!!! e la XTX (3890) si confronta con la gtx, a me pare che sta 3870 ne come prezzo, ma nemmeno come prestazioni si può paragonare alla serie XT (e quindi alle gts), più che altro mi sembra una Pro... Secondo me qualcuno si è sbagliato con sti numeri!!!!!

:wtf:

dovrebbe essere una cosa di questo genere
(anche se fino al 15 sono solo ipotesi)
xt<3870<=gt
pro<3850<=xt

cristch
13-11-2007, 12:06
:wtf:

dovrebbe essere una cosa di questo genere
(anche se fino al 15 sono solo ipotesi)
xt<3870<=gt
pro<3850<=xt

si il quadro dovrebbe essere questo...

Massy84
13-11-2007, 12:07
http://shop.systempointnet.com/svga-pcie-sapphire-hd3870-512mb-gddr4-256bit-2dvi-p-3969.html

http://shop.systempointnet.com/svga-pcie-sapphire-hd3850-256mb-gddr3-p-3966.html

http://shop.systempointnet.com/svga-pcie-sapphire-hd3850-512mb-gddr3-p-3968.html


Prezzi:
HD3870 512Mb -> €219,94
HD3850 512Mb -> €180,00
HD3850 256Mb -> €163,85

Ottimi prezzi direi .

si ottimi davvero...visto che non posso aspettare che i prezzi scendano, mi prenderò direttamente la 3870 :read:

Dexther
13-11-2007, 12:07
bei prezzi :)

Pat77
13-11-2007, 12:08
Se hanno ottenuto ottime rese, i prezzi vedo molto competitivi, la compatibilità con dx10.1 come plus, le performance superiori in alcuni casi a hd2900xt, non vedo perchè non possano avere un ottimo successo.

Secondo me per molti aspetti sono le schede più promettenti dell'ultimo periodo.

3DMark79
13-11-2007, 12:11
Ecco un Quad Crossfire HD3850 con CPU Phenom...
http://www.techpowerup.com/?44381

taleboldi
13-11-2007, 12:16
Se hanno ottenuto ottime rese, i prezzi vedo molto competitivi, la compatibilità con dx10.1 come plus, le performance superiori in alcuni casi a hd2900xt, non vedo perchè non possano avere un ottimo successo.

Secondo me per molti aspetti sono le schede più promettenti dell'ultimo periodo.

soprattutto considerando che la maggior parte degli utenti (io tra questi) non si può permettere schede top

ciauz

Dexther
13-11-2007, 12:18
soprattutto considerando che la maggior parte degli utenti (io tra questi) non si può permettere schede top

ciauz

infatti la supremazia nella fascia enthusiast giova più ad un discorso di immagine che ad altro, la grana grossa si fà sulla fascia media :) .

P.S. ovviamente di riflesso una supremazia sul top di gamma influenza positivamente la vendita di VGA di fascia media ..

taleboldi
13-11-2007, 12:20
...

P.S. ovviamente di riflesso una supremazia sul top di gamma influenza positivamente la vendita di VGA di fascia media ..

ovviamente se si trovano in giro :asd:

Dexther
13-11-2007, 12:25
edit

sorry, thread sbagliato :p

Diabolik.cub
13-11-2007, 12:25
3850 e 3870 hanno lo stesso core (e possibilità di oc :D )? Cambiano "solo" le memorie? :stordita:

Massy84
13-11-2007, 12:28
3850 e 3870 hanno lo stesso core (e possibilità di oc :D )? Cambiano "solo" le memorie? :stordita:

yes :)

<^MORFEO^>
13-11-2007, 12:39
Non mi aspettavo l'uscita della nuova GTS così presto! E' già il 3 dicembre... :eek:
Viste le info su questa nuova scheda (che dicono essere superiore all'Ultra :oink: ) e che il suo prezzo non dovrebbe essere poi tanto superiore alla GT, mi sa che aspetterò l'uscita di anche questa così se la GTS alla fine costerà troppo per le mie tasche, mi prenderò una GT o una 3870 a prezzi sicuramente più bassi... :O

Spike79
13-11-2007, 12:40
La 3870 è dual slot mi pare no ?
Cmq la differenza di mhz nel core e nelle ram è parecchia, se fosse lo stesso preciso core, con la 3850 dovrebbe cmq potersi raggiungere la stessa velocità che nella 3870, no?
E se OC la 70 ? per la stessa 'regola' detta ora, dovrebbe anche la 50 potersi OC alla stessa velocità....

c&c
13-11-2007, 12:42
Non mi aspettavo l'uscita della nuova GTS così presto! E' già il 3 dicembre... :eek:
Viste le info su questa nuova scheda (che dicono essere superiore all'Ultra :oink: ) e che il suo prezzo non dovrebbe essere poi tanto superiore alla GT, mi sa che aspetterò l'uscita di anche questa così se la GTS alla fine costerà troppo per le mie tasche, mi prenderò una GT o una 3870 a prezzi sicuramente più bassi... :O

Il mio stesso ragionamento .

3DMark79
13-11-2007, 12:49
La 3870 è dual slot mi pare no ?
Cmq la differenza di mhz nel core e nelle ram è parecchia, se fosse lo stesso preciso core, con la 3850 dovrebbe cmq potersi raggiungere la stessa velocità che nella 3870, no?
E se OC la 70 ? per la stessa 'regola' detta ora, dovrebbe anche la 50 potersi OC alla stessa velocità....

Si la Hd3870 sarà dual slot, la HD3850 non lo è.

dix619
13-11-2007, 12:51
ma quando escono queste nuove schede?
la 3870 sara' + potente della 8800gt?
:D

cristch
13-11-2007, 12:54
Non mi aspettavo l'uscita della nuova GTS così presto! E' già il 3 dicembre... :eek:
Viste le info su questa nuova scheda (che dicono essere superiore all'Ultra :oink: ) e che il suo prezzo non dovrebbe essere poi tanto superiore alla GT, mi sa che aspetterò l'uscita di anche questa così se la GTS alla fine costerà troppo per le mie tasche, mi prenderò una GT o una 3870 a prezzi sicuramente più bassi... :O

tanto sarai costretto ad aspettare forzatamente dicembre...prima che tutti i negozi abbiano piena disponibilità passerà minimo un mese

halduemilauno
13-11-2007, 12:56
http://www.hwupgrade.it/news/skvideo/taglio-di-prezzi-atteso-per-le-schede-video-radeon-hd-3800_23231.html
;)

TecnoWorld8
13-11-2007, 12:58
non avendo grossi limiti di spesa (ok, diciamo che fino a 500€ ci posso stare) cosa prendereste tra:

1) due 3870 in CF (tenendo conto che la mia mobo permette un CF 16x-4x)
2) una nuova 8800GTS 512MB con 128SP

Secondo voi quale combinazione andrà meglio con crysis?

<^MORFEO^>
13-11-2007, 12:59
non avendo grossi limiti di spesa (ok, diciamo che fino a 500€ ci posso stare) cosa prendereste tra:

1) due 3870 in CF (tenendo conto che la mia mobo permette un CF 16x-4x)
2) una nuova 8800GTS 512MB con 128SP

Secondo voi quale combinazione andrà meglio con crysis?

Secondo me meglio 2x3870 in CF! ;)

3DMark79
13-11-2007, 13:00
ma quando escono queste nuove schede?
la 3870 sara' + potente della 8800gt?
:D

Si presume che non lo sia ma non di molto cmq.
Speriamo che i driver possano ridurlo ancora di più.:sperem:

halduemilauno
13-11-2007, 13:02
non avendo grossi limiti di spesa (ok, diciamo che fino a 500€ ci posso stare) cosa prendereste tra:

1) due 3870 in CF (tenendo conto che la mia mobo permette un CF 16x-4x)
2) una nuova 8800GTS 512MB con 128SP

Secondo voi quale combinazione andrà meglio con crysis?

in'attesa di vederle all'atto pratico e facendo alcune considerazioni direi risparmia i 100 e fatti la nuova gts 128 shader.
;)

halduemilauno
13-11-2007, 13:03
Questo taglio di prezzi per la 3800 in particolare mi sa tanto di deja-vu stile 2900xt! :asd:

manca poco e si saprà tutto.
;)

Feidar
13-11-2007, 13:03
non avendo grossi limiti di spesa (ok, diciamo che fino a 500€ ci posso stare) cosa prendereste tra:

1) due 3870 in CF (tenendo conto che la mia mobo permette un CF 16x-4x)
2) una nuova 8800GTS 512MB con 128SP

Secondo voi quale combinazione andrà meglio con crysis?

Per ovvie motivazioni il CF.
Ma ti consiglio di aspettare Dicembre a meno che tu non abbia fretta.

mokaverus
13-11-2007, 13:06
si potranno collegare le future HD3xxx in uno slot pci-ex 1.0 a 4x?

c'è una perdita de prestazioni a collegare una scheda video in crossfire nello slot a 4x?

se si quanto?



PS. la scheda madre in questione è la p5k-e

grazie.