PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

atomo37
11-12-2009, 16:23
Quindi per la x2 ci vuole giugno??

sei troppo avanti, qui non si sa più nemmeno se nvidia arriverà a pasqua
:Prrr:

halduemilauno
11-12-2009, 16:24
Quindi per la x2 ci vuole giugno??

dice marzo.

Kharonte85
11-12-2009, 16:25
il turco è notoriamente di facile compensione
:doh:

Dice questo:


Luciano Alibrandi came to Istanbul, Fermi architecture said the fastest graphics solution will provide.

GeForce GTX 360 and GeForce GTX 380 in the first stage to bring to market two new models in the front Nvidia expected, not having concerns about performance leadership. Speaking opportunity we have Nvidia executives Fermi advanced features of the architecture is the fastest graphics solution, and this issue will bring to market any doubt specify do not live.


Finalmente cominciano a parlarne da esaltati...probabilmente siamo vicini.

Simedan1985
11-12-2009, 16:27
A sto punto mi ci butto su 5970..a febbraio già esce alien ,a gennaio la beta di BBC2 ,poi a marzo il gioco definitivo tutto in dx11 .Se fermi singola gpu è inferiore di molto a 5970,mi butto su ati

Simedan1985
11-12-2009, 16:29
dice marzo.

Donanimhaber.com also underlines that, Dual GPU Fermi (maybe it will called GTX 395) will be launched sooner than expected probably one or two months later than GTX 360/380 launch date.

Scusa ma due mesi dopo....magari maggio

Kharonte85
11-12-2009, 16:31
Per la x2 ci vuole o un nuovo processo produttivo o di affiancare due GPU piuttosto monche o non rientrano nei 300W obbligatori.

Nel primo caso non si vedrà proprio se non dopo la revisione del chip a 28nm a fine 2010, altrimenti da quando esce la single conta una paio di mesi e la cosa è fattibile.

Potrebbero decidere di farla con due gtx 360 per starci dentro....chi lo sa :boh:

halduemilauno
11-12-2009, 16:31
A sto punto mi ci butto su 5970..a febbraio già esce alien ,a dicembre la beta di BBC2 ,poi a marzo il gioco definitivo tutto in dx11 .Se fermi singola gpu è inferiore di molto a 5970,mi butto su ati

io con una simile bestia...Evga gtx 295 co-op Superclocked ed. quantomeno aspetterei la GTX380. quantomeno.

Kharonte85
11-12-2009, 16:32
io con una simile bestia...Evga gtx 295 co-op Superclocked ed. quantomeno aspetterei la GTX380. quantomeno.

io non cambierei più scheda video...:sofico:

halduemilauno
11-12-2009, 16:32
Donanimhaber.com also underlines that, Dual GPU Fermi (maybe it will called GTX 395) will be launched sooner than expected probably one or two months later than GTX 360/380 launch date.

Scusa ma due mesi dopo....magari maggio

appunto due mesi dopo gennaio è marzo. poi fai come ti pare.

halduemilauno
11-12-2009, 16:33
Potrebbero decidere di farla con due gtx 360 per starci dentro....chi lo sa :boh:

come è stato fatto per la gtx295 due gtx260 e non due gtx280/285.
;)

Rsdj
11-12-2009, 16:34
come è stato fatto per la gtx295 due gtx260 e non due gtx280/285.
;)
Ma non erano 2 gtx275?

halduemilauno
11-12-2009, 16:35
io non cambierei più scheda video...:sofico:

no cambiare no(ma ho capito cosa intendi)però con quella scheda mi sentirei al sicuro per parecchio tempo e cmq come detto aspetterei di valutare bene il tutto.
;)

atomo37
11-12-2009, 16:36
Ma non erano 2 gtx275?

si sono due 275

Simedan1985
11-12-2009, 16:37
appunto due mesi dopo gennaio è marzo. poi fai come ti pare.

Scusa hal...ma contavo da marzo.io intendo sul mercato no sulla carta....
Devo dire che la mia gpu,va più che bene:sofico: ...scusatemi sono uno di quei deviati che vorebbe vede crysis a 60 fps in full hd...

halduemilauno
11-12-2009, 16:37
Ma non erano 2 gtx275?

frequenze, rops e bus della gtx260.

Legolas84
11-12-2009, 16:37
si sono due 275

e già la 275 singola con i giochi attuali è un mostro... :asd:

Kharonte85
11-12-2009, 16:38
Ma non erano 2 gtx275?
sì hai ragione tu
no cambiare no(ma ho capito cosa intendi)però con quella scheda mi sentirei al sicuro per parecchio tempo e cmq come detto aspetterei di valutare bene il tutto.
;)
Battuta a parte anche io, anzi io lo sto facendo :read: pero' con la 8800gts 512mb :fagiano:

Simedan1985
11-12-2009, 16:39
Appunto "monche" :)


Beh a gennaio sugli scaffali comunque non ci saranno. Se va di lusso potresti trovarle a febbraio, più probabilmente a marzo.

infatti io da li contavo...

Siamo a pagina 512.....come i cuda core di fermi:ciapet:

halduemilauno
11-12-2009, 16:40
Scusa hal...ma contavo da marzo.io intendo sul mercato no sulla carta....
Devo dire che la mia gpu,va più che bene:sofico: ...scusatemi sono uno di quei deviati che vorebbe vede crysis a 60 fps in full hd...

li si parla di due mesi dopo la presentazione di gtx380 dandola a gennaio. poi come hai detto te la tua scheda è ottima quindi hai tutto il tempo per valutare.

Kharonte85
11-12-2009, 16:41
Appunto "monche" :)

Ti ricordo che con le G200 hanno aspettato uno shrink ottico che qui non possono fare, quindi saranno più monche per forza di cose.
Senza dubbio...



Beh a gennaio sugli scaffali comunque non ci saranno. Se va di lusso potresti trovarle a febbraio, più probabilmente a marzo.
Credo anche io, Gennaio è il best case (che di fatto raramente si verifica)

atomo37
11-12-2009, 16:41
frequenze, rops e bus della gtx260.

frequenze 260, rops 280/285, bus 260/275
insomma una via di mezzo.

halduemilauno
11-12-2009, 16:42
si sono due 275

no. come detto frequenze, rop, tmu e bus sono della gtx260. della gtx275 solo gli shader quindi molto + simile alla 260 che alla 275.

Rsdj
11-12-2009, 16:43
Veramente qualcuno qui pensa che la gtx380 supererà così tanto la gtx295 da avvicinarsi alla 5970?? Io ho dei dubbi anche che sia davanti alla 295...

halduemilauno
11-12-2009, 16:44
frequenze 260, rops 280/285, bus 260/275
insomma una via di mezzo.

no rops 28 come le 260/275 non 32 come le 280/285.

Simedan1985
11-12-2009, 16:44
Veramente qualcuno qui pensa che la gtx380 supererà così tanto la gtx295 da avvicinarsi alla 5970?? Io ho dei dubbi anche che sia davanti alla 295...

Bè nn so se supera la 5970...ma che debba superare la 295 ,penso che per nvidia stessa sia obbligatorio

Rsdj
11-12-2009, 16:46
Bè nn so se supera la 5970...ma che debba superare la 295 ,penso che per nvidia stessa sia obbligatorio
La vedo difficile... uffa ma quando arrivano sti bench??

halduemilauno
11-12-2009, 16:46
Veramente qualcuno qui pensa che la gtx380 supererà così tanto la gtx295 da avvicinarsi alla 5970?? Io ho dei dubbi anche che sia davanti alla 295...

confidenze a parte personalmente sono in attesa di tutti i riscontri del caso.

Bastoner
11-12-2009, 16:57
confidenze a parte personalmente sono in attesa di tutti i riscontri del caso.

:confused:

okorop
11-12-2009, 17:00
:confused:

:confused: quoto son dati sparati a caso altro che confidenze......... Manco Jen-Hsun Huang sa le prestazioni di Fermi

persa
11-12-2009, 17:01
no rops 28 come le 260/275 non 32 come le 280/285.

frequenze come la 260, rops bus e memorie come la 260-275, tmu shaders come la 275-280-285.

per essere precisissimi :D

Simedan1985
11-12-2009, 17:02
Scusate ,vi faccio una domanda soggettiva..secondo voi i nuovi giovhi dx11 di inizio 2010,valgono a far sostituire una scheda come la mia ,in favore di una Dx11??

halduemilauno
11-12-2009, 17:02
frequenze come la 260, rops bus e memorie come la 260-275, tmu shaders come la 275-280-285.

per essere precisissimi :D

giusto per essere precisissimi.
;)

Bastoner
11-12-2009, 17:03
Scusate ,vi faccio una domanda soggettiva..secondo voi i nuovi giovhi dx11 di inizio 2010,valgono a far sostituire una scheda come la mia ,in favore di una Dx11??

http://it.dreamstime.com/stregone-con-la-sfera-magica-thumb7782552.jpg

persa
11-12-2009, 17:04
Scusate ,vi faccio una domanda soggettiva..secondo voi i nuovi giovhi dx11 di inizio 2010,valgono a far sostituire una scheda come la mia ,in favore di una Dx11??

per adesso c'è dirt 2 ma la differenza tra dx9 ed 11 è poca quindi non passerei ad una scheda dx11 per questo gioco. alien vs predator vedremo... poi quali altri giochi dx11 stanno per uscire?

halduemilauno
11-12-2009, 17:04
Scusate ,vi faccio una domanda soggettiva..secondo voi i nuovi giovhi dx11 di inizio 2010,valgono a far sostituire una scheda come la mia ,in favore di una Dx11??

per me neanche una come la mia. hai detto soggettiva e ho detto la mia. per dirla tutta aspetterei giochi dx11 nativi.
;)

persa
11-12-2009, 17:06
per dirla tutta aspetterei giochi dx11 nativi.
;)

previsti per.... :help: ?

Simedan1985
11-12-2009, 17:08
Allora mi sembra che Alien sia nativo ... poi nn mi ricordo se la stessa cosa vale per Battlefield(dicevano che la beta è ritardata apèposta per stupire graficamente :asd:) e per Assassin creed

halduemilauno
11-12-2009, 17:10
previsti per.... :help: ?

seconda metà 2010. diciamo fra un'annetto. tempo fa ho fatto la battuta e ho detto 2011.
;)

persa
11-12-2009, 17:10
Allora mi sembra che Alien sia nativo ... poi nn mi ricordo se la stessa cosa vale per Battlefield(dicevano che la beta è ritardata apèposta per stupire graficamente :asd:) e per Assassin creed

ma un gioco nativo dx11 dovrebbe andare solo in dx11 o sbaglio? non mi sembra il caso di alien che andrà anche in dx10 ed in dx11 vedrai gli alieni un pò più stondati x merito del tessellone. imho.

okorop
11-12-2009, 17:11
Allora mi sembra che Alien sia nativo ... poi nn mi ricordo se la stessa cosa vale per Battlefield(dicevano che la beta è ritardata apèposta per stupire graficamente :asd:) e per Assassin creed

stalker call of prypiat ricompilato in dx11 :)

Simedan1985
11-12-2009, 17:11
previsti per.... :help: ?

http://www.tomshw.it/cont/news/aliens-vs-predator-il-19-febbraio-e-in-edizione-hunter/23171/1.html

e battlefield x il 3 marzo,la beta a gennaio

persa
11-12-2009, 17:12
stalker call of prypiat ricompilato in dx11 :)

provato il bench e quel gioco sembrava quasi in dx8 anche con gli effetti al massimo :asd:

Simedan1985
11-12-2009, 17:13
provato il bench e quel gioco sembrava quasi in dx8 anche con gli effetti al massimo :asd:

O anche a me ha dato l'impressione di un titolo...alla buona di 4 anni fa

okorop
11-12-2009, 17:14
http://www.tomshw.it/cont/news/aliens-vs-predator-il-19-febbraio-e-in-edizione-hunter/23171/1.html

e battlefield x il 3 marzo,la beta a gennaio

Battelfield dovrebbe usare un motore in dx11 sponsorizzato per ati, il frostbite 2 (http://game.amd.com/us-en/play_info.aspx?p=0&id=57), come alien vs pèredator e stalker

Simedan1985
11-12-2009, 17:17
Battelfield dovrebbe usare un motore in dx11 sponsorizzato per ati, il frostbite 2 (http://game.amd.com/us-en/play_info.aspx?p=0&id=57), come alien vs pèredator e stalker

Come Ati?? Io so nvidia...cmq un ottimo motore grafico x quello che si sente dire

okorop
11-12-2009, 17:19
provato il bench e quel gioco sembrava quasi in dx8 anche con gli effetti al massimo :asd:

anche mirrors edge, batman archam asylium, bioshock, sembran tutti con una grafica di 4 anni fa ed in effetti han l'ut3 di 4 anni fa :asd:...... stalker nel bench non è assai dimostrativo della grafica, probabilmente in game si noterà di piu'.........

persa
11-12-2009, 17:22
anche mirrors edge, batman archam asylium, bioshock, sembran tutti con una grafica di 4 anni fa ed in effetti han l'ut3 di 4 anni fa :asd:...... stalker nel bench non è assai dimostrativo della grafica, probabilmente in game si noterà di piu'.........

sarà ma i giochi che hai citato mi sembrano tutti nettamente + belli graficamente di stalker, per quello che ho visto nel benchmark :asd: :asd:

okorop
11-12-2009, 17:25
sarà ma i giochi che hai citato mi sembrano tutti nettamente + belli graficamente di stalker, per quello che ho visto nel benchmark :asd: :asd:

belli brutti hanno un motore grafico di base di 4 anni fa, a me sinceramente i paesaggi di stalker gli effetti di luce e il cielo sono a mio avviso superiori ad ogni engine che ci sia, poi per carità che le dx11 non portino assai quali mutamenti in quel gioco lo so, son solo ricompilati, vedremo in alien vs predator che ne esce fuori :)

aaasssdddfffggg
11-12-2009, 17:50
belli brutti hanno un motore grafico di base di 4 anni fa, a me sinceramente i paesaggi di stalker gli effetti di luce e il cielo sono a mio avviso superiori ad ogni engine che ci sia, poi per carità che le dx11 non portino assai quali mutamenti in quel gioco lo so, son solo ricompilati, vedremo in alien vs predator che ne esce fuori :)

il più potente e avanzato motore grafico 3d resta ancora il cryengine 2,in attesa del cryengine 3 in versione directx11.

aaasssdddfffggg
11-12-2009, 17:57
La vedo difficile... uffa ma quando arrivano sti bench??

Sei ancora convinto che non uscirà mai la dualgpu su base FERMI?Io la do' al massimo dopo 2 tre mesi dalla comparsa di Fermi.Ma che esca puoi starne certo.:D

aaasssdddfffggg
11-12-2009, 18:07
Come Ati?? Io so nvidia...cmq un ottimo motore grafico x quello che si sente dire

Stalker continua a usare l'X-Ray engine quindi non sarà un motore grafico nativo ma adattato alle nuove api e sarà l'ultima volta (a detta dgli sviluppatori)che verrà utilizzato nei loro titoli.E' prossimo alla pensione..;)

Rsdj
11-12-2009, 18:08
Sei ancora convinto che non uscirà mai la dualgpu su base FERMI?Io la do' al massimo dopo 2 tre mesi dalla comparsa di Fermi.Ma che esca puoi starne certo.:D
Dicono che anche se esce non avrà performance così mostruose, causa difficoltà nel far rientrare 2 chip in un solo pcb. Se non sbaglio lo ha detto anche Yoss, quindi ne sono certo ;)

aaasssdddfffggg
11-12-2009, 18:10
Dicono che anche se esce non avrà performance così mostruose, causa difficoltà nel far rientrare 2 chip in un solo pcb. Se non sbaglio lo ha detto anche Yoss, quindi ne sono certo ;)

Si ,perchè Yoss lavora a santa clara.Lo volete capire o no che qui dentro nessuno sa ancora quanto e se va forte Fermi?Ognuno è libero di fare le sue conclusioni ma questo è tutto un altro discorso.Comunque un passo avanti lo abbiamo fatto....adesso ci credi un po' di più che esce la dualgpu su base FERMI.:D

E' facile che per la dual ripiegheranno ad un chip ibrido tipo la soluzione scelta per la gtx295 che tutti noi sappiamo quanto va forte ancora oggi.

zorco
11-12-2009, 18:18
Sei ancora convinto che non uscirà mai la dualgpu su base FERMI?Io la do' al massimo dopo 2 tre mesi dalla comparsa di Fermi.Ma che esca puoi starne certo.:D
cè chi sostiene che nemmanco uscirà fermi,altro che la dual :asd:

aaasssdddfffggg
11-12-2009, 18:19
cè chi sostiene che nemmanco uscirà fermi,altro che la dual :asd:

:D

Rsdj
11-12-2009, 18:19
Si ,perchè Yoss lavora a santa clara.Lo volete capire o no che qui dentro nessuno sa ancora quanto e se va forte Fermi?Ognuno è libero di fare le sue conclusioni ma questo è tutto un altro discorso.Comunque un passo avanti lo abbiamo fatto....adesso ci credi un po' di più che esce la dualgpu su base FERMI.:D

E' facile che per la dual ripiegheranno ad un chip ibrido tipo la soluzione scelta per la gtx295 che tutti noi sappiamo quanto va forte.
Si ma ha dovuto ripiegare sui 55nm per dar vita alla 295, e tra l'altro è uscita molto dopo della 4870X2. Probabilmente una 4890X2 sarebbe anche uscita ma forse ATI non ne aveva bisogno. Adesso come faranno ad andare sotto i 40nm?? Sarò veramente curioso di vedere sta cosa, giuro... :D :D

persa
11-12-2009, 18:20
Appunto "monche" :)

Ti ricordo che con le G200 hanno aspettato uno shrink ottico che qui non possono fare, quindi saranno più monche per forza di cose.
.

vero, il gt200 aveva un die size di 576, ma fermi se non sbaglio avrà un chip grande come il gt200b... o forse anche qualcosa meno...
correggetemi se sbaglio.

aaasssdddfffggg
11-12-2009, 18:21
Si ma ha dovuto ripiegare sui 55nm per dar vita alla 295, e tra l'altro è uscita molto dopo della 4870X2. Probabilmente una 4890X2 sarebbe anche uscita ma forse ATI non ne aveva bisogno. Adesso come faranno ad andare sotto i 40nm?? Sarò veramente curioso di vedere sta cosa, giuro... :D :D

è nel dna di nvidia fare le dualgpu.Troveranno una soluzione.Secondo te nvidia lascia ad ati campo aperto per la dualgpu dopo l'uscita di FERMI?Vedremo...

Rsdj
11-12-2009, 18:23
è nel dna di nvidia fare le dualgpu.Vedremo...
Si ma se le voci saranno confermate, ovvero che la gtx380 consumerà oltre 225W, per la dualgpu dovremmo mettere 100 pannelli fotovoltaici sui case???

aaasssdddfffggg
11-12-2009, 18:25
Si ma se le voci saranno confermate, ovvero che la gtx380 consumerà oltre 225W, per la dualgpu dovremmo mettere 100 pannelli fotovoltaici sui case???

Non so risponderti e nessuno lo sa.Dobbiamo solo attendere e vedere cosa farà,ma credo che la dual su base FERMI la vedremo.Non so dirti di più.A santa clara non mi fanno nemmeno scavalcare i cancelli.

persa
11-12-2009, 18:26
magari riducono il bus facendo 320bit x2 e frequenze anche + basse, ma mantenendo 1024 shader (512 x2) :boh:

Rsdj
11-12-2009, 18:26
Non so risponderti e nessuno lo sa.Dobbiamo solo attendere e vedere cosa farà,ma credo che la dual su base FERMI la vedremo.Non so dirti di più.A santa clara non mi fanno nemmeno scavalcare i cancelli.
Però almeno una dannata slide, uno straccio di tabella tipo come ha fatto ATI potevano farcela vedere... non credi?

aaasssdddfffggg
11-12-2009, 18:28
Però almeno una dannata slide, uno straccio di tabella tipo come ha fatto ATI potevano farcela vedere... non credi?

Al ces di las vegas sapremo tuti molte cose in più.Mancano 25 giorni all'apertura.;)

halduemilauno
11-12-2009, 18:33
Al ces di las vegas sapremo tuti molte cose in più.Mancano 25 giorni all'apertura.;)

quoto per avere tutti i riscontri del caso tocca solo aspettare.
;)

zorco
11-12-2009, 18:43
è nel dna di nvidia fare le dualgpu.Troveranno una soluzione.Secondo te nvidia lascia ad ati campo aperto per la dualgpu dopo l'uscita di FERMI?Vedremo...
secondo mè non cè ne sarà di bisogno della dual...;)

atomo37
11-12-2009, 18:53
secondo mè non cè ne sarà di bisogno della dual...;)

si vabbè allora non c'è bisogno manco di sli, il futuro è proprio il multi gpu!

Iantikas
11-12-2009, 18:53
secondo me il 3d x adesso può essere anke kiuso :sofico: ...


...se tra 25 giorni nvidia rilascia qualcosa di tangibile si riapre, altrimenti s'aspetta febbraio/marzo x aprire il 3d "aspettando fermi" :D

Iantikas
11-12-2009, 18:56
si vabbè allora non c'è bisogno manco di sli, il futuro è proprio il multi gpu!

ma spero ke nel futuro la tecnologia ke ne sta alla base sia migliorata...xkè x quello ke è adesso io nn la vedo una scelta saggia nè adesso nè nel prossimo futuro...


...ciao

Rsdj
11-12-2009, 19:26
Ho capito che al Ces mancano 25 giorni ma per chi come me sta senza pc da diversi mesi e non vede l'ora di riaverlo al più presto come la mettiamo, considerando anche i problemi per TSMC? E' ovvio che mi butto su ciò che offre il mercato adesso, anche perchè parliamoci chiaro, se Fermi veramente andrà il 20% più di una 5870 alla fine che me ne farei io con una 5970? Anche se uscisse la dual che m'importerebbe di fare 400 fps anzichè 330?? Sempre ammesso che vada di più...

Legolas84
11-12-2009, 20:00
Ho capito che al Ces mancano 25 giorni ma per chi come me sta senza pc da diversi mesi e non vede l'ora di riaverlo al più presto come la mettiamo, considerando anche i problemi per TSMC? E' ovvio che mi butto su ciò che offre il mercato adesso, anche perchè parliamoci chiaro, se Fermi veramente andrà il 20% più di una 5870 alla fine che me ne farei io con una 5970? Anche se uscisse la dual che m'importerebbe di fare 400 fps anzichè 330?? Sempre ammesso che vada di più...

E' esattamente quello che è successo a me.

Dopo un anno lontano dai PC ho dovuto metter su una macchina a ottobre perchè finalmente avevo di nuovo tempo da dedicare...

Lo volevo subito perchè usciva Risen ed ecco il risultato... avevo ordinato una HD5850 ma visto che ci voleva più di un mese per averla mi sono buttato sulla comunque più che sufficiente GTX 275 (forse la miglior proposta nVIDIA ad oggi come rapporta qualità prezzo).....

Iantikas
11-12-2009, 20:06
Ho capito che al Ces mancano 25 giorni ma per chi come me sta senza pc da diversi mesi e non vede l'ora di riaverlo al più presto come la mettiamo, considerando anche i problemi per TSMC? E' ovvio che mi butto su ciò che offre il mercato adesso, anche perchè parliamoci chiaro, se Fermi veramente andrà il 20% più di una 5870 alla fine che me ne farei io con una 5970? Anche se uscisse la dual che m'importerebbe di fare 400 fps anzichè 330?? Sempre ammesso che vada di più...

nn so se hai già avuto esperienze col multi-gpu...ma se è la prima volta e proprio lo vuoi provare io ti consiglio di prendere 2 hd5870 anzikè una hd5970...così dopo ke l'hai provato in caso una hd5870 la puoi rivendere e rientrare della spesa...


...io fino a poco fa avevo una gtx295 (e lato driver è pensiero comune ke nvidia stia messa meglio di ati in campo multi-gpu) ma lo stesso nn son rimasto pienamente soddisfatto dell'esperienza (anke se nel complesso la ricordo con piacere)...


...in sintesi tutto sommato se le gpu te le devi tenere x + di qualke mese imho sli o crossfire sono un fregatura...i motivi principali son questi...

...innanzitutto ci stanno i driver...se con nvidia m'è capitato + volte di aspettare qualke settimana x avere lo sli abilitato nei nuovi titoli, con ati ti capiterà + spesso e magari anzikè settimane potrà capitare d'aspettare mesi...

...inoltre i problemi lato driver nn son sol legati alla doppia gpu ke funziona o meno ma a bug o veri e propri crash se si utilizzano entrambe le gpu...con casi paradossali di gioki ke x svariate release di driver funzionano a meraviglia e poi alla successiva (ke magari ti serve xkè abilita lo sli nel titolo peso X) smettono di funzionare o lo fanno con artefatti lasciando lo sli attivo...


...tralasciando i driver, penso cmq la maggior parte di noi gioki con v-sync e triple-buffering...quindi quello ke serve son i 60fps fissi o giù di li...un sistema multi-gpu ti da un boost in gran parte dei gioki ma son poki i gioki dove veramente c'è bisogno di questo boost (almeno se nn si possiede un 30"...e se già i sistemi multi-gpu son la minoranza...i casi in cui son abbinati ad un monitor con ris nativa oltre i 1920x1200 son ancora + rari)...

...a questo punto subentra la fregatura micro-lag...ke in un sistema multi-gpu (quando + quando - a seconda delle ottimizzazioni lato driver) è sempre presente...e se poco percepibile laddove si fanno cento e passa frame (ma è appunto il caso dove il boost rispetto alla soluzione singola nn'è così necessario) diventa invece un problema quando i frame si aggirano intorno alla sessantina o stanno anke sotto...


...il micro-lag a mio avviso mina seriamente la longevità dei sistemi multi-gpu xkè appena uscito con i titoli odierni dove quasi sempre sforna vagonate di fps nn te ne accorgi, ma nn appena iniziano ad uscire titoli pesanti ke ne ridimensionano le prestazioni inizi ad avvertirlo...con l'aggravante ke il micro-lag ti farà percepire poco fluidi anke framerate giudicati + ke decenti se fatti girare da una singola gpu...


...e poi con tutti i multipiatta ke girano attualmente (e il fenomeno nn si prevede diminuisca, anzi) se nn usi un 30" son davvero poki i gioki dove una hd5970 può portare ad un incremento significativo del gameplay rispetto x es. ad una singola hd5870...e x questi piccoli miglioramenti ti bekki tutti i contro del caso (oltre a quelli già elencati s'aggiungono consumi, temp e sopratutto rumore superiori rispetto ad una singola gpu)...


...se proprio ci tieni a farti un CF fallo di due skede separate...ma altrimenti, imho, finkè nn cambia la tecnologia ke sta alla base dei sistemi multi-gpu molto meglio prendere la miglior singola gpu ke il mercato ci offre e cambiarla nn appena avremo l'esigenza di qualcosa di meglio e il mercato offrirà l'upgrade opportuno...


...ciao

DukeIT
11-12-2009, 20:08
Ho capito che al Ces mancano 25 giorni ma per chi come me sta senza pc da diversi mesi e non vede l'ora di riaverlo al più presto come la mettiamo, considerando anche i problemi per TSMC? E' ovvio che mi butto su ciò che offre il mercato adesso, anche perchè parliamoci chiaro, se Fermi veramente andrà il 20% più di una 5870 alla fine che me ne farei io con una 5970? Anche se uscisse la dual che m'importerebbe di fare 400 fps anzichè 330?? Sempre ammesso che vada di più...
Ma infatti, io continuo a rimanere dell'idea che, quando si ha bisogno di una VGA, ci si guarda attorno e si sceglie.
Aspettare perchè? Per avere un po' più di velocità (in questo caso non si sa a che prezzo)? Per un calo di prezzi (ma non siamo sicuri che Nvidia farà guerra sui prezzi, di solito la fa ATI semmai)?
Indubbiamente aspettando i prezzi calano e le prestazioni aumentano, ma questo avviene sempre, non solo da Settembre ad Aprile :rolleyes:
Caso diverso se c'è un'uscita imminente o se ci sono tecnologie importanti all'orizzonte (ma le dx11, unica novità, sono già uscite).
IMHO

Bastoner
11-12-2009, 20:15
nn so se hai già avuto esperienze col multi-gpu...ma se è la prima volta e proprio lo vuoi provare io ti consiglio di prendere 2 hd5870 anzikè una hd5970...così dopo ke l'hai provato in caso una hd5870 la puoi rivendere e rientrare della spesa...


...io fino a poco fa avevo una gtx295 (e lato driver è pensiero comune ke nvidia stia messa meglio di ati in campo multi-gpu) ma lo stesso nn son rimasto pienamente soddisfatto dell'esperienza (anke se nel complesso la ricordo con piacere)...


...in sintesi tutto sommato se le gpu te le devi tenere x + di qualke mese imho sli o crossfire sono un fregatura...i motivi principali son questi...

...innanzitutto ci stanno i driver...se con nvidia m'è capitato + volte di aspettare qualke settimana x avere lo sli abilitato nei nuovi titoli, con ati ti capiterà + spesso e magari anzikè settimane potrà capitare d'aspettare mesi...

...inoltre i problemi lato driver nn son sol legati alla doppia gpu ke funziona o meno ma a bug o veri e propri crash se si utilizzano entrambe le gpu...con casi paradossali di gioki ke x svariate release di driver funzionano a meraviglia e poi alla successiva (ke magari ti serve xkè abilita lo sli nel titolo peso X) smettono di funzionare o lo fanno con artefatti lasciando lo sli attivo...


...tralasciando i driver, penso cmq la maggior parte di noi gioki con v-sync e triple-buffering...quindi quello ke serve son i 60fps fissi o giù di li...un sistema multi-gpu ti da un boost in gran parte dei gioki ma son poki i gioki dove veramente c'è bisogno di questo boost (almeno se nn si possiede un 30"...e se già i sistemi multi-gpu son la minoranza...i casi in cui son abbinati ad un monitor con ris nativa oltre i 1920x1200 son ancora + rari)...

...a questo punto subentra la fregatura micro-lag...ke in un sistema multi-gpu (quando + quando - a seconda delle ottimizzazioni lato driver) è sempre presente...e se poco percepibile laddove si fanno cento e passa frame (ma è appunto il caso dove il boost rispetto alla soluzione singola nn'è così necessario) diventa invece un problema quando i frame si aggirano intorno alla sessantina o stanno anke sotto...


...il micro-lag a mio avviso mina seriamente la longevità dei sistemi multi-gpu xkè appena uscito con i titoli odierni dove quasi sempre sforna vagonate di fps nn te ne accorgi, ma nn appena iniziano ad uscire titoli pesanti ke ne ridimensionano le prestazioni inizi ad avvertirlo...con l'aggravante ke il micro-lag ti farà percepire poco fluidi anke framerate giudicati + ke decenti se fatti girare da una singola gpu...


...e poi con tutti i multipiatta ke girano attualmente (e il fenomeno nn si prevede diminuisdca, anzi) se nn usi un 30" son davvero poki i gioki dove una hd5970 può portare ad un incremento significativo del gameplay rispetto x es. ad una singola hd5870...e x questi piccoli miglioramenti ti bekki tutti i contro del caso...


...se proprio ci tieni a farti un CF fallo di due skede separate...ma altrimenti, imho, finkè nn cambia la tecnologia ke sta alla base dei sistemi multi-gpu molto meglio prendere la miglior singola gpu ke il mercato ci offre e cambiarla nn appena avremo l'esigenza di qualcosa di meglio e il mercato offrirà l'upgrade opportuno...


...ciao

Quoto dalla prima all'ultima parola.
E in particolare: meglio comprare due VGA single GPU che una VGA a doppia GPU. Se ti scocci ne vendi una, ed in ogni caso sono più rivendibili della dual gpu, che finisce nell'obsolescenza all'uscita della nuova generazione

Esempio: la 9800gx2 adesso è un obbrobrio, chi la comprerebbe? Uno si compra una gtx275/285 e ha le stesse prestazioni con meno consumo, meno problemi, meglio tutto. Stessa cosa vale per la 3870x2 e stessa cosa succederà a breve alla 4870x2, che campa ancora grazie alla penuria di wafer a 40nm.
Lasciatemelo dire, chi compra le dual gpu è un nabbo (in senso affettuoso :asd:).

Bastoner
11-12-2009, 20:24
Chi ha una mobo con un solo slot PCIe x16 e vuole le prestazioni CF/SLi è costretto a prendere una dual. nondimeno sono convinto che se ha preso questa decisione avrebbe senz'altro potuto investire pochi € in più in una mobo adeguata e risparmiarne molti in obsolescenza...

Appunto :asd:

okorop
11-12-2009, 20:26
Chi ha una mobo con un solo slot PCIe x16 e vuole le prestazioni CF/SLi è costretto a prendere una dual. nondimeno sono convinto che se ha preso questa decisione avrebbe senz'altro potuto investire pochi € in più in una mobo adeguata e risparmiarne molti in obsolescenza...

p55 è nuovo ma garantisce x8 x8 su due pcie...........

Simedan1985
11-12-2009, 20:42
Scusate ma mi sento un po chiamato in causa....
io ho avuto 4 dual..2 esperienze negative e due positive.
La dual consuma meno del crossfire...
Come costo iniziale è vantaggioso..
Sembra che la 5970 vada di + del cross fire
Prima avevo la 275 ottima...messa questa e come se avessi sempre la 275 ,ZERO PROBLEMI

Bastoner
11-12-2009, 20:46
Scusate ma mi sento un po chiamato in causa....
io ho avuto 4 dual..2 esperienze negative e due positive.
La dual consuma meno del crossfire...
Come costo iniziale è vantaggioso..
Sembra che la 5970 vada di + del cross fire
Prima avevo la 275 ottima...messa questa e come se avessi sempre la 275 ,ZERO PROBLEMI

Ritiro tutto :D

Rsdj
11-12-2009, 20:52
Guardate ne vengo da una 4870X2 e devo dire che mi sono trovato bene, mai avuto problemi diversi da quelli che avrei potuto avere con una gpu singola ;) Scelgo la 5970 perchè innanzitutto si trova a 479 euro, molto meno di 330 x 2, e poi mi danno la possibilità di un futuro upgrade. Insomma per me è meglio una dual gpu piuttosto che averne 2 in crossfire, ma cmq non critico chi sceglie il crossfire ;)
Sono contento che abbiate capito la mia situazione e che la pensiate come me. Spero solo di trovarla presto :sperem:
Alla fine secondo me parecchi clienti nvidia li sta perdendo anche così...

p.s: cmq su Italia 1 stanno facendo Mistero e stanno parlando di Tesla... però di Nikola Tesla :asd: :asd: :asd:

Simedan1985
11-12-2009, 20:54
Ritiro tutto :D
NN si tratta di ritirare tutto ...ognuno ha le sue esperienze personali:)

eXeS
11-12-2009, 21:13
...il micro-lag a mio avviso mina seriamente la longevità dei sistemi multi-gpu xkè appena uscito con i titoli odierni dove quasi sempre sforna vagonate di fps nn te ne accorgi, ma nn appena iniziano ad uscire titoli pesanti ke ne ridimensionano le prestazioni inizi ad avvertirlo...con l'aggravante ke il micro-lag ti farà percepire poco fluidi anke framerate giudicati + ke decenti se fatti girare da una singola gpu...

In quali titoli hai avvertito questo micro-lag ?
Per verificare che dipendesse dal multi-gpu hai provato a forzare il single e vedere che succedeva ?
Lo hai riscontrato anche con vsync attivo ?

Ti faccio queste domande perchè quello che dici era quello che sostenevano pcgh e computerbase l'anno scorso, uniche testate che hanno documentato il problema con fraps, ma che io, forse perchè gioco sempre con vsync attivo, non ho mai riscontrato, manco con crysis.

Anzi, in questi giorni sto giocando a GTA4, e la scarsa sensazione di fluidità a parità di framerate, perchè questo gioco quantomeno alla mia risoluzione non scala una cippa, la percepisco sia con multi-gpu abilitato, che in single, ovviamente anche con questo gioco ho impostato il vsync attivo.

aaasssdddfffggg
11-12-2009, 22:22
Vsync sempre su on e triple buffering attivo.Quando gli fps saranno pari o superiori agli Hz del proprio LCD tutto scorrerà fluidissimo (tutti i frame superiori al valore degli Hz del proprio LCD andranno persi comunque, evitando anche di sforzare la VGA inutilmente)e non si hanno problemi di nessun tipo,ma il problema nasce quando gli fps risulteranno inferiori e questi andranno a sottomultipli del tempo di refresh...
Se ad esempio imposto gli hz a 60 e il PC riesce a calcolare solo 55 fps, al momento di visualizzare l'immagine la scheda video non l'avrà ancora pronta e manderà a video quella vecchia e gli fps crolleranno a 30 all'improvviso... se gli Hz fossero stati 100, ne avrebbe visualizzati 50 invece di 55.
La potenza grafica della vga quindi per quanto ci riguarda ci serve per non scendere (o cercare almeno di non scendere)sotto i 60fps mentre andare oltre non ci interessa proprio dal momento che il vsync taglierà i frame in eccesso.Ovvio che più si sale di risoluzione e più potenza di calcolo servirà per evitare che ciò accada.;)

aaasssdddfffggg
11-12-2009, 22:31
Le due affermazioni collidono...

si?Puoi spiegarmi meglio?;)

okorop
11-12-2009, 22:33
Le due affermazioni collidono...

quoto

aaasssdddfffggg
11-12-2009, 22:51
Guardate ne vengo da una 4870X2 e devo dire che mi sono trovato bene, mai avuto problemi diversi da quelli che avrei potuto avere con una gpu singola ;) Scelgo la 5970 perchè innanzitutto si trova a 479 euro, molto meno di 330 x 2, e poi mi danno la possibilità di un futuro upgrade. Insomma per me è meglio una dual gpu piuttosto che averne 2 in crossfire, ma cmq non critico chi sceglie il crossfire ;)
Sono contento che abbiate capito la mia situazione e che la pensiate come me. Spero solo di trovarla presto :sperem:
Alla fine secondo me parecchi clienti nvidia li sta perdendo anche così...

p.s: cmq su Italia 1 stanno facendo Mistero e stanno parlando di Tesla... però di Nikola Tesla :asd: :asd: :asd:

Guarda se fossi al posto tuo e volessi indirizzarmi su ATI adesso anche io prenderei la 5970.Va benissimo ,bench alla mano,quindi non hai nulla da preoccuparti.
Se fossi al posto tuo ho detto (però non lo sono.:) )

Iantikas
11-12-2009, 23:04
In quali titoli hai avvertito questo micro-lag ?
Per verificare che dipendesse dal multi-gpu hai provato a forzare il single e vedere che succedeva ?
Lo hai riscontrato anche con vsync attivo ?

Ti faccio queste domande perchè quello che dici era quello che sostenevano pcgh e computerbase l'anno scorso, uniche testate che hanno documentato il problema con fraps, ma che io, forse perchè gioco sempre con vsync attivo, non ho mai riscontrato, manco con crysis.

Anzi, in questi giorni sto giocando a GTA4, e la scarsa sensazione di fluidità a parità di framerate, perchè questo gioco quantomeno alla mia risoluzione non scala una cippa, la percepisco sia con multi-gpu abilitato, che in single, ovviamente anche con questo gioco ho impostato il vsync attivo.

i gioki in cui l'ho notato son i gioki in cui alzando al max le impo e magari attivando qualke filtro dal pannello dei driver il framerate nn era sempre abbondantemente sopra i 60fps ma tra i 40/70fps...


...crysis warhead (in crysis no), clear sky, trackmania united (soprattutto circuiti rally e bay), gtr 2 e GTRevo, saints row 2, arma e arma 2 son quelli ke ho usato di recente e/o uso frequentemente ke mi vengono in mente adesso...


...lo kiamo micro-lag xkè vari siti hanno denominato così questo fenomeno facendo anke varie prove al riguardo analizzando l'andamento dei frame (e denotando una nn perfetta sincronizzazione tra i frame renderizzati da una e dall'altra gpu, con un ritardo + o - elevato a seconda del titolo, dei driver e del sistema multi-gpu in esame)...


...all'atto pratico quello ke ho visto io è ke fraps ti segna 60fps ma ti muovi col personaggio o corri con l'auto e ti sembra di stare a 30/40fps piuttosto ke a 60fps...


...se questo ke mi capitava fosse sicuramente micro-lag o se il micro-lag realmente esiste nn ho fatto personalmente i test x accertarmene (nè m'interessa farlo)...so solo ke con una 8800ultra negli stessi gioki (tra la 295 della gainward, quella della evga e ora la 5870 si è alternata + volte la 8800ultra, quindi ho giocato vari titoli sia con una ke con l'altra sullo stesso sistema) potevo aver anke un frame medio leggermente inferiore ma all'atto pratico lo percepivo fluido...


...così ora con una hd5870 x es. in crysis warhead se faccio il bench a parità di impo segna una manciata di frame in meno rispetto alla gtx295...ma all'atto pratico giocando lo percepisco sensibilmente + fluido rispetto a prima (e nn ho + texture lampeggianti in lontananza)...


...cmq se a te piacciono i sistemi multi-gpu, nn hai mai avuto neanke il + piccolo inconveniente e ti trovi da dio...buon x te...spero x tutti l'esperienza sia come la tua...


...io la ricordo con piacere ma dopo averla avuta penso ke x le mie esigenze (e in generale x ki nn deve giocare su un 30") una singola gpu sia la scelta migliore...poi ognuno è libero di vederla come preferisce, nn sono il detentore delle sacrescritture ed ho solo voluto dare un (giusto x come la vedo io ma magari sbagliato in assoluto) consiglio a ki s'apprestava ad acquistare una hd5970 da utilizzare su un 26"...


..ciao.

Iantikas
11-12-2009, 23:05
Le due affermazioni collidono...

quoto

okorop
11-12-2009, 23:08
i gioki in cui l'ho notato son i gioki in cui alzando al max le impo e magari attivando qualke filtro dal pannello dei driver il framerate nn era sempre abbondantemente sopra i 60fps ma tra i 40/70fps...


...crysis warhead (in crysis no), clear sky, trackmania united, gtr 2 e GTRevo, saints row 2, arma e arma 2 son quelli ke ho usato di recente e/o uso frequentemente ke mi vengono in mente adesso...


...lo kiamo micro-lag xkè vari siti hanno denominato così questo fenomeno facendo anke varie prove al riguardo analizzando l'andamento dei frame (e denotando una nn perfetta sincronizzazione tra i frame renderizzati da una e dall'altra gpu, con un ritardo + o - elevato a seconda del titolo, dei driver e del sistema multi-gpu in esame)...


...all'atto pratico quello ke ho visto io è ke fraps ti segna 60fps ma ti muovi col personaggio o corri con l'auto e ti sembra di stare a 30/40fps piuttosto ke a 60fps...


...se questo ke mi capitava fosse sicuramente micro-lag o se il micro-lag realmente esiste nn ho fatto personalmente i test x accertarmene (nè m'interessa farlo)...so solo ke con una 8800ultra negli stessi gioki (tra la 295 della gainward, quella della evga e ora la 5870 se alternata + volte la 8800ultra, quindi ho giocato vari titoli sia con una ke con l'altra sullo stesso sistema) potevo aver anke un frame medio leggermente inferiore ma all'atto pratico lo percepivo fluido...


...così ora con una hd5870 x es. in crysis warhead se faccio il bench a parità di impo segna una manciata di frame in meno rispetto alla gtx295...ma all'atto pratico giocando lo percepisco sensibilmente + fluido rispetto a prima (e nn ho + texture lampeggianti in lontananza)...


...cmq se a te piacciono i sistemi multi-gpu, nn hai mai avuto neanke il + piccolo inconveniente e ti trovi da dio...buon x te...spero x tutti l'esperienza sia come la tua...


...io la ricordo con piacere ma dopo averla avuta penso ke x le mie esigenze (e in generale x ki nn deve giocare su un 30") una singola gpu sia la scelta migliore...poi ognuno è libero di vederla come preferisce, nn sono il detentore delle sacrescritture ed ho solo voluto dare un (giusto x come la vedo io ma magari sbagliato in assoluto) consiglio a ki s'apprestava ad acquistare una hd5970 da utilizzare su un 26"...


..ciao.

Sinceramente quoto e devo dire che sia con le nvida sia con le ati avviene l'inconveniente se usate in multi gpu, crossfire di 5870 tenuto nel case 1 giorno proprio per sti problemi, devo dire che dual gpu sullo stesso pcb nel case non le ho mai messe, le ho usate solo per benciare, ma secondo me hanno gli inconvenienti dello sli crossfire e in piu' il problema temperature........

persa
11-12-2009, 23:09
p55 è nuovo ma garantisce x8 x8 su due pcie...........

con alcune schede madri gestisce anche il 16x 16x

persa
11-12-2009, 23:14
Da quanto so il die size definitivo dovrebbe essere fra i 470mm^2 di G200@55nm ed i 576mm^2 di G200@65nm (mi ronza in testa 530mm^2 ma non mi ricordo e quindi prendi l'informazione come del tutto inaffidabile :asd: )

La grossa problematica relativamente a ciò è che non esiste un processo produttivo che possa essere usato per fare un die shrink ottico di G300@40nm, quindi la stessa cosa non potrà essere fatta.

hai ragione ma se poi il chip sarà + piccino del gt200 forse questa volta non sarà neanche necessario fare un die shrink per la dual gpu ;)

okorop
11-12-2009, 23:19
con alcune schede madri gestisce anche il 16x 16x


guarda nel mio case van solo schede madri top di gamma con processori tra i 200-300 euro che si cloccan bene, ho provato due schede madri msi la gd65 e la gd80 con due i7 860 per un contest solo sotto phase ed azoto, facevan talmente schifo come stabilità, bios, che dopo aver speso ben 100 litri di azoto liquido ho deciso di vendere il tutto..... sconsiglio a tutti di prendere 1156, a l'unica nota positiva è che non è andato a fuoco il chipset :asd: scusate per l'ot e discorso pci e ....... ;)

calabar
11-12-2009, 23:26
hai ragione ma se poi il chip sarà + piccino del gt200 forse questa volta non sarà neanche necessario fare un die shrink per la dual gpu ;)
Non può essere più piccolo, perchè significherebbe creare un nuovo chip, quindi un nuovo progetto con relativi costi.
Se quindi si possono disattivare SP e abbassare le frequenze per risolvere problemi di consumo e calore, nulla si può fare per la dimensione del chip che rimarebbe sempre la stessa.

Anche io sono quelli che dubitano di vedere a breve delle dual gpu con fermi: basta vedere le difficoltà (e i tempi) che ci sono state con gt200, e aggiungere l'impossibilità dello shrink ottico: forse riusciranno a farla per l'uscita della prossima generazione ati, sempre che ati rispetti i tempi dichiarati.

Iantikas
11-12-2009, 23:32
guarda nel mio case van solo schede madri top di gamma con processori tra i 200-300 euro che si cloccan bene, ho provato due schede madri msi la gd65 e la gd80 con due i7 860 per un contest solo sotto phase ed azoto, facevan talmente schifo come stabilità, bios, che dopo aver speso ben 100 litri di azoto liquido ho deciso di vendere il tutto..... sconsiglio a tutti di prendere 1156, a l'unica nota positiva è che non è andato a fuoco il chipset :asd: scusate per l'ot e discorso pci e ....... ;)

hai provato anke altre mobo?...



...te lo kiedo x curiosità xkè il discorso m'interessava...tra un raptus di follia e l'altro :oink: avevo pensato ad un downgrade dall'attuale classified + 920 + 6gb ad un p55 + i5 + 4gb...


...in verità avevo anke pensato di stravolgere il tutto e fare un sistema mini-itx...o cmq un midi-tower (sto impazzendo x il x500 della lian-li ma ce la dovrei ficcare a pezzi la classi x farcela entrare)...


...siccome è l'edizione limitata e759 e vendendola ci ricaverei ancora nn c'è male potrei anke farla la pazzia...xò occare sugli i7 (forse anke grazie alla classified) è na strada in discesa, sugli i5 nn mi son grankè informato, ma se è parekkio peggio nn ho + la testa di sbattere tra tremila test e settaggi...


...ciao.

Kharonte85
11-12-2009, 23:34
si vabbè allora non c'è bisogno manco di sli, il futuro è proprio il multi gpu!
Ma anche no...:tie:


:D

persa
11-12-2009, 23:35
guarda nel mio case van solo schede madri top di gamma con processori tra i 200-300 euro che si cloccan bene,

ma veramente? eppure qualche pagina tu stesso dicesti che avevi un i7 sfigato che voleva troppi volt x superare i 4ghz :confused: :boh:

ho provato due schede madri msi la gd65 e la gd80 con due i7 860 per un contest solo sotto phase ed azoto, facevan talmente schifo come stabilità, bios, che dopo aver speso ben 100 litri di azoto liquido ho deciso di vendere il tutto..... sconsiglio a tutti di prendere 1156, a l'unica nota positiva è che non è andato a fuoco il chipset :asd: scusate per l'ot e discorso pci e ....... ;)

ma cosa c'entra la tua deludente esperienza di overclock sotto azoto, con il fatto che alcune schede madri p55 vanno a 16x16x? :confused: che non sono quelle che hai provato te xchè gd65 e gd80 vanno ad 8x8x :D

okorop
11-12-2009, 23:39
ma veramente? eppure qualche pagina tu stesso dicesti che avevi un i7 sfigato che voleva troppi volt x superare i 4ghz :confused: :boh:



ma cosa c'entra la tua deludente esperienza di overclock sotto azoto, con il fatto che alcune schede madri p55 vanno a 16x16x? :confused: che non sono quelle che hai provato te xchè gd65 e gd80 vanno ad 8x8x :D

ma di 920 ne ho due e un terzo l'ha il mio team, quello sfigato lo tengo per il daily, quello buono sta sotto azoto o phase e mi fa i 5.3 ghz benciabili..... :asd:
Discorso 1156 c'entra con il fatto che lo sconsiglio ed è proprio su quella piattaforma a meno di chip supplementari nella scheda madre le pci e vanno a 8x 8x ;)

hai provato anke altre mobo?...



...te lo kiedo x curiosità xkè il discorso m'interessava...tra un raptus di follia e l'altro :oink: avevo pensato ad un downgrade dall'attuale classified + 920 + 6gb ad un p55 + i5 + 4gb...


...in verità avevo anke pensato di stravolgere il tutto e fare un sistema mini-itx...o cmq un midi-tower (sto impazzendo x il x500 della lian-li ma ce la dovrei ficcare a pezzi la classi x farcela entrare)...


...siccome è l'edizione limitata e759 e vendendola ci ricaverei ancora nn c'è male potrei anke farla la pazzia...xò occare sugli i7 (forse anke grazie alla classified) è na strada in discesa, sugli i5 nn mi son grankè informato, ma se è parekkio peggio nn ho + la testa di sbattere tra tremila test e settaggi...


...ciao.

son peggio non far la pazzia che tra un mese esce i9 :D

Iantikas
11-12-2009, 23:39
mi sa ke su mobo p55 e oc i5 mi conviene kiedere nei 3d appositi :oink: :stordita: ...


...scusate l'OT ma vabbeh un post in + nel contatore nn fa mai male :sofico:

persa
11-12-2009, 23:39
hai provato anke altre mobo?...



...te lo kiedo x curiosità xkè il discorso m'interessava...tra un raptus di follia e l'altro :oink: avevo pensato ad un downgrade dall'attuale classified + 920 + 6gb ad un p55 + i5 + 4gb...


...in verità avevo anke pensato di stravolgere il tutto e fare un sistema mini-itx...o cmq un midi-tower (sto impazzendo x il x500 della lian-li ma ce la dovrei ficcare a pezzi la classi x farcela entrare)...


...siccome è l'edizione limitata e759 e vendendola ci ricaverei ancora nn c'è male potrei anke farla la pazzia...xò occare sugli i7 (forse anke grazie alla classified) è na strada in discesa, sugli i5 nn mi son grankè informato, ma se è parekkio peggio nn ho + la testa di sbattere tra tremila test e settaggi...


...ciao.

si, ci sono schede madri p55 che hanno il 16x16 tipo asus supercomputer alcune msi, evga ed a breve anche la gigabyte ud7. come cpu sono ottime le i5, le i7 800 sono uguali alle i7 900 come prestazioni e consumi inferiori. cmq in generale in overclock vogliono + vcore dei bloomfield

ciao

calabar
11-12-2009, 23:41
EDIT: ero OT

persa
11-12-2009, 23:47
ma di 920 ne ho due e un terzo l'ha il mio team, quello sfigato lo tengo per il daily, quello buono sta sotto azoto o phase e mi fa i 5.3 ghz benciabili..... :asd:
Discorso 1156 c'entra con il fatto che lo sconsiglio ed è proprio su quella piattaforma a meno di chip supplementari nella scheda madre le pci e vanno a 8x 8x ;)

ma io ce l'ho e va proprio bene senti. forse per queste cavolate di overclock estremi ad azoto meglio un 1366, ma per un utilizzo normale con anche un discreto overclock va benissimo, io e vedo tanti altri, ne siamo soddisfatti :boh: inoltre, ci sono review su review che dicono che sono ottime cpu, in particolare la i5 che costa pochissimo e nei giochi va uguale alle i7 ;)

non far la pazzia che tra un mese esce i9 :D

be la pazzia può anche essere quella di spendere 1000€ per la i9 quando qualche mese dopo ci sarà sandy bridge :asd: ciao ;)

Iantikas
11-12-2009, 23:51
son peggio non far la pazzia che tra un mese esce i9 :D

in effetti come psicofarmaco mi sa ke funziona e l'aspetterò :D ...



...xò ogni volta ke mi capita di vedere il x500 mi sale la scimmia e parte un embolo :oink: ...in effetti c'è anke l'x2000 xò io li tengo sulla scrivania e mi so un pò stufato di vedere sti armadi ke mi sovrastano...


...vabbeh meglio darci un taglio se no tra poco vado così OT da dovermi trasderire in piazzetta...


...ciao

persa
11-12-2009, 23:55
Non può essere più piccolo, perchè significherebbe creare un nuovo chip, quindi un nuovo progetto con relativi costi.

ovvio lo so benissimo ma infatti chi ha detto il contrario? io no :boh:
io dicevo che il chip di fermi completo di tutti gli shader ecc, dovrebbe essere + piccolo del gt200 prima versione, chip talmente grande che nvidia fu costretta a passare a quello a 55nm, per realizzare la dual... ma ripeto, se il chip di fermi è + piccolo del gt200a...allora magari... una dual gpu potrebbe essere + fattibile :D

Kharonte85
12-12-2009, 00:15
ovvio lo so benissimo ma infatti chi ha detto il contrario? io no :boh:
io dicevo che il chip di fermi completo di tutti gli shader ecc, dovrebbe essere + piccolo del gt200 prima versione, chip talmente grande che nvidia fu costretta a passare a quello a 55nm, per realizzare la dual... ma ripeto, se il chip di fermi è + piccolo del gt200a...allora magari... una dual gpu potrebbe essere + fattibile :D
GF100 dovrebbe essere un chip da 3 miliardi di transistor con un'area di 500 mm2...ma il problema non è la dimensione del Chip (per quello si puo' rispolverare il panino di 2 pcb) è il consumo.

persa
12-12-2009, 00:21
GF100 dovrebbe essere un chip da 3 miliardi di transistor con un'area di 500 mm2...ma il problema non è la dimensione del Chip (per quello si puo' rispolverare il panino di 2 pcb) è il consumo.


edit: mi sono accorto di aver scritto una cacchiata. il chip grande o piccolo alla fine non vuol dire niente. come hai scritto tu, conta il consumo. quindi se anche il chip fosse da 576 di die size, ma con consumi ottimi, sarebbe + fattibile fare la dual rispetto a, magari, un chip con die size + piccolo ma che consuma di più. :asd:

si ma penso che con un chip di fermi con qualcosa disattivato forse ce la faranno a fare la dual :D

okorop
12-12-2009, 00:23
su questo siamo d'accordo! faranno la dual con un chip a frequenze + basse e magari meno shader o bus, ma resta il fatto che essendo un chip + piccolo del gt200a, non ci sarà secondo me a questo giro bisogno di un die shrink come successe per la gtx295. imho!!!

è tutto un casino concordo, già nvida ha difficoltà a produrre e commercializzare la single gpu non oso immaginare che succede con la dual......

eXeS
12-12-2009, 00:24
...lo kiamo micro-lag xkè vari siti hanno denominato così questo fenomeno facendo anke varie prove al riguardo analizzando l'andamento dei frame (e denotando una nn perfetta sincronizzazione tra i frame renderizzati da una e dall'altra gpu, con un ritardo + o - elevato a seconda del titolo, dei driver e del sistema multi-gpu in esame)...

Si, ma la metodologia utilizzata non è detto che sia affidabile al 100%, se fraps rileva ad esempio l'intervallo che intercorre tra due frame successivi usando come riferimento il framebuffer della scheda primaria, e in una dual di framebuffer ne abbiamo due, il dato misurato non è corretto.

...all'atto pratico quello ke ho visto io è ke fraps ti segna 60fps ma ti muovi col personaggio o corri con l'auto e ti sembra di stare a 30/40fps piuttosto ke a 60fps...

Bo, ripeto che gioco con vsync attivo, ma quando evga precision mi segna 60, la sensazione di fluidità è totale.


...cmq se a te piacciono i sistemi multi-gpu, nn hai mai avuto neanke il + piccolo inconveniente e ti trovi da dio...buon x te...spero x tutti l'esperienza sia come la tua...

Mhhh... non è che mi piacciono o non ho mai avuto inconvenienti, con GTA4 ad esempio ci sono soprattutto negli interni luci e/o ombre lampeggianti, ma è che a volte penso che ci si lasci troppo suggestionare da quello che si legge e/o si sente.

aaasssdddfffggg
12-12-2009, 09:46
L'abilitazione del Triple Buffering serve proprio ad eliminare il problema da te descritto (in realtà lo riduce) e a non avere il dimezzamento degli fps scendendo anche di un solo fps sotto alla frequenza di refresh verticale del monitor.

Allora forse hai capito male il mio post e tutto torna : intendevo dire proprio questo,ovvero che per eliminare quel problema da me descritto bisgona sempre tenere abilitato il vsync e il triple buffer.
Mi hai frainteso.:)

aaasssdddfffggg
12-12-2009, 09:51
si vabbè allora non c'è bisogno manco di sli, il futuro è proprio il multi gpu!

Sposo perfettamente la tua analisi in pieno.;)

aaasssdddfffggg
12-12-2009, 09:57
Ecco qua.....così adesso chi crede ancora che non arriverà in tempi brevi la dualGPU su base FERMI si metterà il cuore in pace :D :

http://vr-zone.com/forums/519373/gf100-will-be-fastest-gpu-dual-gpu-fermi-is-coming-.html

Non ho sbagliato previsione.Sarà lanciata al massimo dopo soli 2 mesi dal lancio di FERMI.

Simedan1985
12-12-2009, 10:02
Ecco qua.....così adesso chi crede ancora che non arriverà in tempi brevi la dualGPU su base FERMI si metterà il cuore in pace :D :

http://vr-zone.com/forums/519373/gf100-will-be-fastest-gpu-dual-gpu-fermi-is-coming-.html

Non ho sbagliato previsione.Sarà lanciata al massimo dopo soli 2 mesi dal lancio di FERMI.

Meno male:rolleyes: ....a sto punto la curiosità di vede le prestazioni di fermi a singola gpu aumentano sempre di +

aaasssdddfffggg
12-12-2009, 10:04
Meno male:rolleyes: ....a sto punto la curiosità di vede le prestazioni di fermi a singola gpu aumentano sempre di +

Guarda,più si avvicina il CES e più sono convinto che FERMI sarà una bestia di vga (non mi lascio mica condizionare dai malumori che circolano nella rete.Quelle sono e restano chiacchiere fine a se stesse).Posso anche sbagliarmi per carità ma fino adesso ci ho preso.....

Andrea deluxe
12-12-2009, 10:06
sono curioso di vedere cosa combina con dirt2 in dx11.......


1920*1200 tutto al max AA4/2X AF16X

con la 5870 e' ingiocabile....

aaasssdddfffggg
12-12-2009, 10:11
sono curioso di vedere cosa combina con dirt2 in dx11.......


1920*1200 tutto al max AA4/2X AF16X

con la 5870 e' ingiocabile....

bene,cominciano a uscire i "limiti" allora.Andrea a sentire gli altri la 5870 vola su tutto anche su Dirt2.
Buono questo tuo riscontro molto attendibile conoscendoti nei vari Thread da diverso tempo.;)

Simedan1985
12-12-2009, 10:11
sono curioso di vedere cosa combina con dirt2 in dx11.......


1920*1200 tutto al max AA4/2X AF16X

con la 5870 e' ingiocabile....

Azz Veramente:eek: ....io in dx 10 l'ho giocato tutto al max ,col monitor e gpu in firma ...fluidissimo.Possibile che in dx11 vada cosi in crisi?? e Poi per kissa quale effetti:p
Ma poi l'ego engine nn era leggerissimo come motore??

aaasssdddfffggg
12-12-2009, 10:12
Azz Veramente:eek: ....io in dx 10 l'ho giocato tutto al max ,col monitor in firma ...fluidissimo.Possibile che in dx11 vada cosi in crisi?? e Poi per kissa quale effetti:p

giusto 2 contati con il contagocce per le nuove API.;)

Simedan1985
12-12-2009, 10:14
giusto 2 contati con il contagocce per le nuove API.;)

Si l'acqua e il riflesso dell'alettone :asd:

Andrea deluxe
12-12-2009, 10:14
Azz Veramente:eek: ....io in dx 10 l'ho giocato tutto al max ,col monitor e gpu in firma ...fluidissimo.Possibile che in dx11 vada cosi in crisi?? e Poi per kissa quale effetti:p
Ma poi l'ego engine nn era leggerissimo come motore??

il gioco scala:

DX9

oppure


DX11


non va in DX10

Andrea deluxe
12-12-2009, 10:16
vediamo cosa combinano i driver 9.12.....


altrimenti....... green is the way.....

Simedan1985
12-12-2009, 10:16
il gioco scala:

DX9

oppure


DX11


non va in DX10

Si sto fatto anche io lo avevo sentito ...ma mi sembrava che al momento della config la scheda me la riconosceva dx 10 e il sistema dx11.

Simedan1985
12-12-2009, 10:21
vediamo cosa combinano i driver 9.12.....


altrimenti....... green is the way.....

Quante volte ho sentito sta frase e visto questa situazione:sofico:

Andrea deluxe
12-12-2009, 10:23
Quante volte ho sentito sta frase e visto questa situazione:sofico:

si ma a differenza degli altri io sono:

IL PUTTANIERE DELLE SCHEDE VIDEO......

:sbonk:


non so mica come certi, che hanno i prosciutti sugli occhi.....:D

AnonimoVeneziano
12-12-2009, 10:25
guarda nel mio case van solo schede madri top di gamma con processori tra i 200-300 euro che si cloccan bene, ho provato due schede madri msi la gd65 e la gd80 con due i7 860 per un contest solo sotto phase ed azoto, facevan talmente schifo come stabilità, bios, che dopo aver speso ben 100 litri di azoto liquido ho deciso di vendere il tutto..... sconsiglio a tutti di prendere 1156, a l'unica nota positiva è che non è andato a fuoco il chipset :asd: scusate per l'ot e discorso pci e ....... ;)

Ah già, perchè tutti vogliono cloccare con l'azoto ... :stordita:

Simedan1985
12-12-2009, 10:27
si ma a differenza degli altri io sono:

IL PUTTANIERE DELLE SCHEDE VIDEO......

:sbonk:


non so mica come certi, che hanno i prosciutti sugli occhi.....:D

GG x te ,che sei come me...in meno di due anni..... 3 4870x2 , 2 gtx295 ,1 gtx 275.
Mi dispiace dirlo ...ma co ati sempre impicci e imbrogli.Le nvidia so state tutte cambiate per dare seconde possibilità alle rosse ....ma ti giuro le green so un altro pianeta

aaasssdddfffggg
12-12-2009, 10:29
GG x te ,che sei come me...in meno di due anni..... 3 4870x2 , 2 gtx295 ,1 gtx 275.
Mi dispiace dirlo ...ma co ati sempre impicci e imbrogli.Le nvidia so state tutte cambiate per dare seconde possibilità alle rosse ....ma ti giuro le green so un altro pianeta

ti credo ti credo, e come se ti credo.Io non ho avtuo ATI ultimamente ma le serie 4000 le ho provate in lab.NVIDIA è su un altro passo.:)

Iantikas
12-12-2009, 10:32
sono curioso di vedere cosa combina con dirt2 in dx11.......


1920*1200 tutto al max AA4/2X AF16X

con la 5870 e' ingiocabile....

questa tua affermazione collide con l'esperienza di tutti gli altri possessori nel 3d ufficiale, con tutte le recensioni in giro (e nn da parte di un sito ma decine...guru3d, pcgames, hardocp, bittech, etc han tutti fatto analisi delle perfromance in dirt 2) e x ultimo (ma nn meno importante :sofico: ) con la mia...



...ci gioco tranquillissimo a 1920x1200 4xAA 16xAF tutto al max in DX11...ed uso i cat 9.11 whql...

...solo abilitando 8xAA si inizia a notare qualke rallentamento...


...se le varie rece in giro nn son sufficenti ma volete test con fraps, screen o altro...basta kiedere...ciao

Simedan1985
12-12-2009, 10:35
ti credo ti credo, e come se ti credo.Io non ho avtuo ATI ultimamente ma le serie 4000 le ho provate in lab.NVIDIA è su un altro passo.:)

Ma per amor di Dio ,che nn si pensi che voglio screditare ati,anzi se vi posso dire la verità come azienda in questo momento mi piace assai ,la vedo agressivissima sul mercato nella ricerca molto + di nvidia che si è cullata ecc ecc. e sopratutto meno male che c'è una bella concorrenza tra le due case
Pero ,nn posso negare l'evidenza....questa nuova 5970 ci stavo facendo un pensierino,avevo contatato già due store .....ma poi porca puxxxxx leggi certe cose di utenti che c'è l'hanno ti passa la voglia,allora dici ,sulla tua esperienza personale,adesso dovrei abbandonare la mia splendida evga che mi fa giocare a tutto in maniera perfetta...per prende qualcosa che nn so se co quello ci gira co quello no e i micro lag ,e i fischi ...ecc ecc No mi dispiace a sto giro aspetto.

aaasssdddfffggg
12-12-2009, 10:39
Ma per amor di Dio ,che nn si pensi che voglio screditare ati,anzi se vi posso dire la verità come azienda in questo momento mi piace assai ,la vedo agressivissima sul mercato nella ricerca molto + di nvidia che si è cullata ecc ecc. e sopratutto meno male che c'è una bella concorrenza tra le due case
Pero ,nn posso negare l'evidenza....questa nuova 5970 ci stavo facendo un pensierino,avevo contatato già due store .....ma poi porca puxxxxx leggi certe cose di utenti che c'è l'hanno ti passa la voglia,allora dici ,sulla tua esperienza personale,adesso dovrei abbandonare la mia splendida evga che mi fa giocare a tutto in maniera perfetta...per prende qualcosa che nn so se co quello ci gira co quello no e i micro lag ,e i fischi ...ecc ecc No mi dispiace a sto giro aspetto.

Si certo,poi proprio tu che hai una gtx295 (seconda solo alla 5970 a tutt'oggi)non vuoi aspettare FERMI per valutare meglio e confrontare realmente ATI e NVIDIA sullo steso piano generazionale?;)

Andrea deluxe
12-12-2009, 10:40
questa tua affermazione collide con l'esperienza di tutti gli altri possessori nel 3d ufficiale, con tutte le recensioni in giro (e nn da parte di un sito ma decine...guru3d, pcgames, hardocp, bittech, etc han tutti fatto analisi delle perfromance in dirt 2) e x ultimo (ma nn meno importante :sofico: ) con la mia...



...ci gioco tranquillissimo a 1920x1200 4xAA 16xAF tutto al max in DX11...ed uso i cat 9.11 whql...

...solo abilitando 8xAA si inizia a notare qualke rallentamento...


...se le varie rece in giro nn son sufficenti ma volete test con fraps, screen o altro...basta kiedere...ciao

che ti devo dire, ho provato di tutto.....

anche senza antialiasing il gioco scatta....

9.11whql

addirittura dopo un po di prove il gioco, adesso se imposto dx11 mi rimane cappato a 30fps.....:confused:

Iantikas
12-12-2009, 10:53
che ti devo dire, ho provato di tutto.....

anche senza antialiasing il gioco scatta....

9.11whql

addirittura dopo un po di prove il gioco, adesso se imposto dx11 mi rimane cappato a 30fps.....:confused:

e nn ti pare evidente ke sia il tuo sistema ad avere qualke problema?...


fatta ora con fraps una gara in marocco...

2009-12-12 11:40:42 - dirt2_game
Frames: 13090 - Time: 180000ms - Avg: 72.722 - Min: 63 - Max: 87


stessa gara ma durante il replay

2009-12-12 11:44:21 - dirt2_game
Frames: 10278 - Time: 180000ms - Avg: 57.100 - Min: 39 - Max: 78



...mi sembra evidente ke la hd5870 ne abbia in avanzo di potenza in questo gioco x farlo girare a 1920x1200 4xAA/16xAF in DX11, addirittura nn'è scesa mai sotto i 63fps durante la gara...


...ciao.

aaasssdddfffggg
12-12-2009, 10:54
e nn ti pare evidente ke sia il tuo sistema ad avere qualke problema?...


fatta ora con fraps una gara in marocco...

2009-12-12 11:40:42 - dirt2_game
Frames: 13090 - Time: 180000ms - Avg: 72.722 - Min: 63 - Max: 87


stessa gara ma durante il replay

2009-12-12 11:44:21 - dirt2_game
Frames: 10278 - Time: 180000ms - Avg: 57.100 - Min: 39 - Max: 78



...mi sembra evidente ke la hd5870 ne abbia in avanzo di potenza in questo gioco x farlo girare a 1920x1200, addirittura nn'è scesa mai sotto i 63fps durante la gara...


...ciao.

Oddio quel Min 39 mi spaventa.Io per i titoli racing non voglio vedere mai numeri sotto il 60.Sono mie valutazioni per cosa intendo per fluidità costante sempre e in ogni condizione.:)

TheDarkAngel
12-12-2009, 11:00
Oddio quel Min 39 mi spaventa.Io per i titoli racing non voglio vedere mai numeri sotto il 60.Sono mie valutazioni per cosa intendo per fluidità costante sempre e in ogni condizione.:)

stessa gara ma durante il replay

Simedan1985
12-12-2009, 11:01
Al momento attuale ,l'unica scimmia che mi prende ,è avere una gpu dx11 per alien e la demo di battlefield BC2(sono un malato dei giochi di guerra e sparatutto )..però in fatto di potenza la mia scheda è bella appagante:D ,oltre che ad andare fluidissima con tutti i titoli...NN è vero che le schede dual danno problemi ...a mio avviso dico che i fatti o si fanno bene o si fanno male ,la mia l'hanno fatta bene sia come materiali che come driver ...ho avuto 2 schede che erano fatte male sia di materiale che di supporto software,ma lasciamo perdere.

aaasssdddfffggg
12-12-2009, 11:02
stessa gara ma durante il replay

Si l'ho letto bene durante il replay,ma il replay non è una cosa marginale del gioco.Gradirei,per come la vedo io,che la mia scheda video non mi perdesse frame durante il replay che mi voglio godere a gara conclusa.;)

Iantikas
12-12-2009, 11:03
Oddio quel Min 39 mi spaventa.Io per i titoli racing non voglio vedere mai numeri sotto il 60.Sono mie valutazioni per cosa intendo per fluidità costante sempre e in ogni condizione.:)

ehh si...durante il replay un min a 39fps da proprio fastidio :sofico:


...se nn c'è fraps neanke te ne accorgi ke quello sia un 39fps o un 80fps...



...discorso diverso se fosse stato in gara...ma in gara già è tanto se scende sotto i 60fps...


...se proprio si vuole trovare un difetto è ke queste prestazioni avrebbe potute darle con 8xAA, invece ce la fa solo con 4xAA (con 8xAA invece il min in gara arriva sui 40fps)...


...ciao

persa
12-12-2009, 11:04
ultra 1920x1080 aa4x

croazia. velebitska avantura

2009-12-11 23:27:12 - dirt2_game
Frames: 7267 - Time: 124355ms - Avg: 58.438 - Min: 52 - Max: 61


croazia. novigrad raid

2009-12-11 23:33:09 - dirt2_game
Frames: 7265 - Time: 123318ms - Avg: 58.913 - Min: 46 - Max: 61


giappone. domination

2009-12-11 21:34:38 - dirt2_game
Frames: 8263 - Time: 140110ms - Avg: 58.975 - Min: 53 - Max: 62


bassa cail. landrush ensenada

2009-12-11 21:38:57 - dirt2_game
Frames: 10263 - Time: 172267ms - Avg: 59.576 - Min: 54 - Max: 61


london. battle of battersea

2009-12-11 21:23:53 - dirt2_game
Frames: 7630 - Time: 133883ms - Avg: 56.990 - Min: 50 - Max: 61

con 5870 overclock

aaasssdddfffggg
12-12-2009, 11:05
Al momento attuale ,l'unica scimmia che mi prende ,è avere una gpu dx11 per alien e la demo di battlefield BC2(sono un malato dei giochi di guerra e sparatutto )..però in fatto di potenza la mia scheda è bella appagante:D ,oltre che ad andare fluidissima con tutti i titoli...NN è vero che le schede dual danno problemi ...a mio avviso dico che i fatti o si fanno bene o si fanno male ,la mia l'hanno fatta bene sia come materiali che come driver ...ho avuto 2 schede che erano fatte male sia di materiale che di supporto software,ma lasciamo perdere.

e comunque quando il mercato comincerà a presentare altri titoli DirectX11,anche Fermi sarà pronto o giù di lì al lancio.I tempi sono corretti.Che fretta ce avere oggi una DirectX11 se non esiste nulla a riguardo?Dirt 2 lo abbiamo ricordato di cosa include delle nuove API...

Simedan1985
12-12-2009, 11:07
Contento per tutti quelli che c'è l'anno e gli va benissimo :sofico: ,si vede che ati sta lavorando davvero bene:) ...
Vi prego nn alimentiamo flame ,ognuno ha le sue esperienze personali.
@nemesis
Infatti aspetto fermi.

aaasssdddfffggg
12-12-2009, 11:07
ehh si...durante il replay un min a 39fps da proprio fastidio :sofico:


...se nn c'è fraps neanke te ne accorgi ke quello sia un 39fps o un 80fps...



...discorso diverso se fosse stato in gara...ma in gara già è tanto se scende sotto i 60fps...


...se proprio si vuole trovare un difetto è ke queste prestazioni avrebbe potute darle con 8xAA, invece ce la fa solo con 4xAA (con 8xAA invece il min in gara arriva sui 40fps)...


...ciao

Vabè sono punti di vista.Ho detto per come la vedo io...sono maniaco per queste cose che ci vuoi fà.:)

Iantikas
12-12-2009, 11:07
ultra 1920x1080 aa4x

croazia. velebitska avantura

2009-12-11 23:27:12 - dirt2_game
Frames: 7267 - Time: 124355ms - Avg: 58.438 - Min: 52 - Max: 61


croazia. novigrad raid

2009-12-11 23:33:09 - dirt2_game
Frames: 7265 - Time: 123318ms - Avg: 58.913 - Min: 46 - Max: 61


giappone. domination

2009-12-11 21:34:38 - dirt2_game
Frames: 8263 - Time: 140110ms - Avg: 58.975 - Min: 53 - Max: 62


bassa cail. landrush ensenada

2009-12-11 21:38:57 - dirt2_game
Frames: 10263 - Time: 172267ms - Avg: 59.576 - Min: 54 - Max: 61


london. battle of battersea

2009-12-11 21:23:53 - dirt2_game
Frames: 7630 - Time: 133883ms - Avg: 56.990 - Min: 50 - Max: 61

con 5870 overclock

ma sono con v-sync e triple buffering, vero?...


...ciao

persa
12-12-2009, 11:10
si...

Iantikas
12-12-2009, 11:11
Vabè sono punti di vista.Ho detto per come la vedo io...sono maniaco per queste cose che ci vuoi fà.:)

e ki dice niente :D ...


...guarda ke spero ank'io ke fermi spakki di brutto (anke se quello ke spero nn coincide con quello ke prevedo dai poki dati usciti finora) così a marzo/aprile ho un bel upgrade x la gpu da poter fare...


...ciao

aaasssdddfffggg
12-12-2009, 11:12
Al CES tutti dovremmo avere un idea più chiara di cosa ci aspetta.Vediamo dai.:)

appleroof
12-12-2009, 11:34
questa tua affermazione collide con l'esperienza di tutti gli altri possessori nel 3d ufficiale, con tutte le recensioni in giro (e nn da parte di un sito ma decine...guru3d, pcgames, hardocp, bittech, etc han tutti fatto analisi delle perfromance in dirt 2) e x ultimo (ma nn meno importante :sofico: ) con la mia...



...ci gioco tranquillissimo a 1920x1200 4xAA 16xAF tutto al max in DX11...ed uso i cat 9.11 whql...

...solo abilitando 8xAA si inizia a notare qualke rallentamento...


...se le varie rece in giro nn son sufficenti ma volete test con fraps, screen o altro...basta kiedere...ciao

già....con quelle impo già la mia non tentenna minimamente, a freq. default :boh:

persa
12-12-2009, 11:36
già....con quelle impo già la mia non tentenna minimamente, a freq. default :boh:

appleroof prova a giocare con il v-sync e vedrai che 60 frames minimi non li vedi + :asd:

anche se cmq devo dire che gira bene, non mi lamento di come va!!!

appleroof
12-12-2009, 11:48
appleroof prova a giocare con il v-sync e vedrai che 60 frames minimi non li vedi + :asd:

anche se cmq devo dire che gira bene, non mi lamento di come va!!!

ah in effetti non lo attivo mai il v-sync...ma anche con il TB i frames crollano? cmq farò delle prove :)

persa
12-12-2009, 12:02
ah in effetti non lo attivo mai il v-sync...ma anche con il TB i frames crollano? cmq farò delle prove :)

no ma che crollano.... va bene! solo che i risultati non sono come quelli postati da jantikas... a lui come minimi faceva addirittura 63 frames mentre a me in media sta un pò sopra i 50 come minimi che cmq va bene ;)

Kharonte85
12-12-2009, 12:12
Tornate IT!!! :grrr: :D




Stavo rileggendo l'articolo del nostro "amico Charlie" (questo: http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/ per chi se lo fosse perso) e noto che non c'è più nessun tono derisorio e sarcastico...un articolo che definirei quasi equilibrato...si limita a descrivere il caso peggiore ritenendolo come possibile pero' ho come l'impressione che le voci che ha sentito lo abbiano abbacchiato un po' http://img111.imageshack.us/img111/5315/olapated5un1.gif


e questa potrebbe essere una buona notizia :D

appleroof
12-12-2009, 12:20
Tornate IT!!! :grrr: :D




Stavo rileggendo l'articolo del nostro "amico Charlie" (questo: http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/ per chi se lo fosse perso) e noto che non c'è più nessun tono derisorio e sarcastico...un articolo che definirei quasi equilibrato...si limita a descrivere il caso peggiore ritenendolo come possibile pero' ho come l'impressione che le voci che ha sentito lo abbiano abbacchiato un po' http://img111.imageshack.us/img111/5315/olapated5un1.gif


e questa potrebbe essere una buona notizia :D

:asd: :asd:

Diobrando_21
12-12-2009, 12:27
scusate ma come fate a giocare senza v-sync attivato? non avete problemi di tearing?...per quanto riguarda il v-sync vi posso dire che limita ovviamente i frames massimi ma non ho mai avuto cali su quelli minimi: se il picco minimo è sopra i 60fps anche con v-sync attivo rimane tale, allo stesso modo se dovesse essere 40-50 sempre quello rimane (ovviamente con triple buffer attivo)...

halduemilauno
12-12-2009, 12:40
Tornate IT!!! :grrr: :D




Stavo rileggendo l'articolo del nostro "amico Charlie" (questo: http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/ per chi se lo fosse perso) e noto che non c'è più nessun tono derisorio e sarcastico...un articolo che definirei quasi equilibrato...si limita a descrivere il caso peggiore ritenendolo come possibile pero' ho come l'impressione che le voci che ha sentito lo abbiano abbacchiato un po' http://img111.imageshack.us/img111/5315/olapated5un1.gif


e questa potrebbe essere una buona notizia :D

basta dire che è passato da maggio/giugno a febbraio. si mi pare decisamente una buona notizia.
per carità sempre in attesa di tutti i riscontri del caso.
;)

eXeS
12-12-2009, 13:51
scusate ma come fate a giocare senza v-sync attivato? non avete problemi di tearing?...per quanto riguarda il v-sync vi posso dire che limita ovviamente i frames massimi ma non ho mai avuto cali su quelli minimi: se il picco minimo è sopra i 60fps anche con v-sync attivo rimane tale, allo stesso modo se dovesse essere 40-50 sempre quello rimane (ovviamente con triple buffer attivo)...
Appunto, ma si è talmente convinti che la fluidità dipenda dal numerello mostrato da fraps, che basta vedere 70-80 fps per convincersi che il gioco sia fluido, quando con la maggior parte dei giochi ivi compreso l'ultimo dirt, i 70/80 fps senza vsync danno una sensazione di fluidità nettamente peggiore rispetto ai 60 ottenuti con vsync, almeno per quanto riguarda i miei canoni di fluidità, e con monitor aventi frequenza di refresh di 60Hz.

Kharonte85
12-12-2009, 14:42
In realtà si limita a descrivere il caso migliore e quello peggiore;

Appunto...di solito non lo fa...per lui il caso peggiore è sempre quello di Nvidia e di solito si attesta su un "Nvidia is DOOOMEED!" :sofico:


Il che mi fa pensare che le voci che ha sentito siano positive per nvidia.

appleroof
12-12-2009, 15:29
Appunto...di solito non lo fa...per lui il caso peggiore è sempre quello di Nvidia e di solito si attesta su un "Nvidia is DOOOMEED!" :sofico:


Il che mi fa pensare che le voci che ha sentito siano positive per nvidia.

esatto :asd:

aaasssdddfffggg
12-12-2009, 16:19
scusate ma come fate a giocare senza v-sync attivato? non avete problemi di tearing?...per quanto riguarda il v-sync vi posso dire che limita ovviamente i frames massimi ma non ho mai avuto cali su quelli minimi: se il picco minimo è sopra i 60fps anche con v-sync attivo rimane tale, allo stesso modo se dovesse essere 40-50 sempre quello rimane (ovviamente con triple buffer attivo)...

Semplice,si gioca da schifo.Come ho già postato qualche pagina fa a riguardo io consiglio sempre di tenere il vsync on e triple buffer attivo durante i games.Sempre.

aaasssdddfffggg
12-12-2009, 16:21
Appunto, ma si è talmente convinti che la fluidità dipenda dal numerello mostrato da fraps, che basta vedere 70-80 fps per convincersi che il gioco sia fluido, quando con la maggior parte dei giochi ivi compreso l'ultimo dirt, i 70/80 fps senza vsync danno una sensazione di fluidità nettamente peggiore rispetto ai 60 ottenuti con vsync, almeno per quanto riguarda i miei canoni di fluidità, e con monitor aventi frequenza di refresh di 60Hz.

Ovvio che la sensazione di fluidità è peggiore nonostante si vada a 70-80fps : il monitor con un refresh di 60hz non riesce a seguire i frame sparati dalla vga.Il vsync va tenuto sempre su on con relativo triple buffer.;)

persa
12-12-2009, 16:22
Semplice,si gioca da schifo.Come ho già postato qualche pagina fa a riguardo io consiglio sempre di tenere il vsync on e triple buffer attivo durante i games.Sempre.

si anche io faccio così.

aaasssdddfffggg
12-12-2009, 16:25
si anche io faccio così.

e te li godi bene i giochi.;)

persa
12-12-2009, 16:26
e te li godi bene i giochi.;)

:cool: certo ;)

Diobrando_21
12-12-2009, 16:36
Appunto, ma si è talmente convinti che la fluidità dipenda dal numerello mostrato da fraps, che basta vedere 70-80 fps per convincersi che il gioco sia fluido, quando con la maggior parte dei giochi ivi compreso l'ultimo dirt, i 70/80 fps senza vsync danno una sensazione di fluidità nettamente peggiore rispetto ai 60 ottenuti con vsync, almeno per quanto riguarda i miei canoni di fluidità, e con monitor aventi frequenza di refresh di 60Hz.

Quoto...infatti indipendentemente dall'avere un monitor a 60-85-120hz la cosa più importante è che il refresh sia sincronizzato con la vga altrimenti si hanno più problemi che benefici...io ho giocato a dead space su monitor 120hz e dovevo anche in quel caso tenere il v-sync attivo altrimenti tearing a manetta ;)

aaasssdddfffggg
12-12-2009, 16:38
Quoto...infatti indipendentemente dall'avere un monitor a 60-85-120hz la cosa più importante è che il refresh sia sincronizzato con la vga altrimenti si hanno più problemi che benefici...io ho giocato a dead space su monitor 120hz e dovevo anche in quel caso tenere il v-sync attivo altrimenti tearing a manetta ;)

Hehehe,ci mancherebbe che non fosse il contrario.Sai quanti frame spara il tuo SLI su DEAD SPACE senza vsync?Altro che un monitor da 120Hz per seguire le tue vga.:)

Iantikas
12-12-2009, 16:51
beh penso ke tutti giokino con v-sync e triplo buffer attivi (magari forse qualcuno nn gioca con quest'ultimo xkè nn sa come attivarlo in tutti i gioki)...


...xò se uno deve fare un bench nn lascia mica il v-sync attivo (x questo nn era presente nella gara con fraps postata prima)...ciao

Kharonte85
12-12-2009, 16:52
C'è un trhead apposta per queste cose: Tearing, v-sync e triple buffering http://www.hwupgrade.it/forum/showthread.php?t=1319188&page=23

halduemilauno
12-12-2009, 17:01
Semplice,si gioca da schifo.Come ho già postato qualche pagina fa a riguardo io consiglio sempre di tenere il vsync on e triple buffer attivo durante i games.Sempre.

Ovvio che la sensazione di fluidità è peggiore nonostante si vada a 70-80fps : il monitor con un refresh di 60hz non riesce a seguire i frame sparati dalla vga.Il vsync va tenuto sempre su on con relativo triple buffer.;)

si anche io faccio così.

e te li godi bene i giochi.;)

:cool: certo ;)

Quoto...infatti indipendentemente dall'avere un monitor a 60-85-120hz la cosa più importante è che il refresh sia sincronizzato con la vga altrimenti si hanno più problemi che benefici...io ho giocato a dead space su monitor 120hz e dovevo anche in quel caso tenere il v-sync attivo altrimenti tearing a manetta ;)

Hehehe,ci mancherebbe che non fosse il contrario.Sai quanti frame spara il tuo SLI su DEAD SPACE senza vsync?Altro che un monitor da 120Hz per seguire le tue vga.:)

beh penso ke tutti giokino con v-sync e triplo buffer attivi (magari forse qualcuno nn gioca con quest'ultimo xkè nn sa come attivarlo in tutti i gioki)...


...xò se uno deve fare un bench nn lascia mica il v-sync attivo (x questo nn era presente nella gara con fraps postata prima)...ciao

OT!

Diobrando_21
12-12-2009, 17:06
Semplice,si gioca da schifo.Come ho già postato qualche pagina fa a riguardo io consiglio sempre di tenere il vsync on e triple buffer attivo durante i games.Sempre.

si l'avevo letto e quoto perfettamente ;)

halduemilauno
13-12-2009, 09:13
C'è un trhead apposta per queste cose: Tearing, v-sync e triple buffering http://www.hwupgrade.it/forum/showthread.php?t=1319188&page=23

se svuotassi la casella pvt te ne manderei uno, saran tre giorni che ci provo.
ciao e scusate l'ot.
;)

Kharonte85
13-12-2009, 09:31
In realtà fa sempre caso migliore/caso peggiore quando non fa solo caso migliore, che poi è sempre stato marzo. Oggi azzarda un caso migliore a febbraio, ma sappiamo tutti che quanto a reale disponibilità di mercato febbraio è fin troppo ottimistico ;)
Credo anche io...
se svuotassi la casella pvt te ne manderei uno, saran tre giorni che ci provo.
ciao e scusate l'ot.
;)
Ah ecco perchè non scassava più nessuno...:sofico: fatto ;)

halduemilauno
13-12-2009, 09:35
Credo anche io...

Ah ecco perchè non scassava più nessuno...:sofico: fatto ;)

fatto.
;)

eXeS
13-12-2009, 15:36
Già postati ?
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/

persa
13-12-2009, 15:37
Già postati ?
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/

sti gran caz.. :) :D

Bastoner
13-12-2009, 15:44
sti gran caz.. :) :D

Secondo guru3d è un superfake, e pure secondo me. Sarebbe bello però se fosse vero...

persa
13-12-2009, 15:44
SE queste fossero veramente le prestazioni, ed anche con altri giochi, prevedo un abbassamento pazzesco di prezzi per le radeon... pure la 5970..

veltosaar
13-12-2009, 15:44
Saranno veri?? se così fosse sarebbe una bella botta per ati che una single vga batte una dual!

Pelvix
13-12-2009, 15:46
sti gran caz.. :) :D

Se sono veritieri, l'attesa sarà davvero ripagata..
Anche se ci credo poco che un solo 380 gtx possa andare circa il 25-30% in più di una 5970, oltretuttu con driver del tutto da ottimizzare...:mbe:
A meno che il 380 gtx non sia una dual gpu...:mbe:

persa
13-12-2009, 15:48
vediamo però in effetti mi sembrano prestazioni esagerate... cioè se fossero veri una gtx360 molto overclockata immagino che starebbe li con la 5970.. :eek:

okorop
13-12-2009, 15:49
SE queste fossero veramente le prestazioni, ed anche con altri giochi, prevedo un abbassamento pazzesco di prezzi per le radeon... pure la 5970..

vedremo se saran bench confermati........

aaasssdddfffggg
13-12-2009, 15:57
Se sono veritieri, l'attesa sarà davvero ripagata..
Anche se ci credo poco che un solo 380 gtx possa andare circa il 25-30% in più di una 5970, oltretuttu con driver del tutto da ottimizzare...:mbe:
A meno che il 380 gtx non sia una dual gpu...:mbe:

No,la dual dovrebbe apparire sotto il nome di gtx 395 e non la dovremmo vedere prima di un paio di mesi dal lancio di FERMI.Comunque ragazzi,il CES è ormai dietro l'angolo e qualcosa comincia a uscire fuori.Resto spiazzato da quei bench perchè se così fosse ATI sarebbe sotterrata e umiliata dalla potenza della rivale.Attendiamo il CES per avere notizie più "realistiche".

mister-x
13-12-2009, 15:59
Ci sarebbero anche questi:
http://www.tomshardware.co.uk/forum/page-276100_15_0.html

Chiedo scusa se son già stati postati.

Foglia Morta
13-12-2009, 15:59
Secondo guru3d è un superfake, e pure secondo me. Sarebbe bello però se fosse vero...

Anche perchè Guru3d non è la fonte , ma semplicemente riportano quanto hanno visto altrove ma solo in parte. Alla fonte si dice GTX 280 2GB , con bus esterno 384bit è piuttosto difficile avere 2GB :D

Pelvix
13-12-2009, 15:59
No,la dual dovrebbe apparire sotto il nome di gtx 395 e non la dovremmo vedere prima di un paio di mesi dal lancio di FERMI.Comunque ragazzi,il CES è ormai dietreo l'angolo e qualcosa comincia a uscire fuori.Resto spaizzato da quei bench perchè se così fosse ATI sarebbe sotterrata e umiliata dalla potenza della rivale.

Allora dubito seriamente che quei bench possano esser attendibili...:mbe:

persa
13-12-2009, 16:01
mmmmm.... strano però il taglio di memoria ... la 360 dovrebbe essere a 448bit per avere 1.8gb di ram (arrotondati xchè in realtà verrebbe 1792mb )

Pelvix
13-12-2009, 16:04
mmmmm.... strano però il taglio di memoria ... la 360 dovrebbe essere a 448bit per avere 1.8gb di ram (arrotondati xchè in realtà verrebbe 1792mb )

Ma la 380 ha il bus @ 512 bit con DDR 5?!?!:eek: :eek: :eek: :eek: :eek:
E di quanta banda ha bisogno sta gpu?:mbe:

aaasssdddfffggg
13-12-2009, 16:06
Ma la 380 ha il bus @ 512 bit con DDR 5?!?!:eek: :eek: :eek: :eek: :eek:
E di quanta banda ha bisogno sta gpu?:mbe:

Non mi risulta.Ha un interfaccia di 384 bit su 1,5 giga di gddr5 di memoria video.Parlo per la 380.Qualcosa non mi torna...

okorop
13-12-2009, 16:07
Non mi risulta.Ha un interfaccia di 384 bit su 1,5 giga di gddr5 di memoria video.Parlo per la 380.Qualcosa non mi torna...

ergo bench non attendibili, aspettiamo altri riscontri e altri bench :) comunque se fosse vero :eek:

persa
13-12-2009, 16:07
Non mi risulta.Ha un interfaccia di 384 bit su 1,5 giga di gddr5 di memoria video.Parlo per la 380.Qualcosa non mi torna...

e infatti... gli ultimi schemi davano la 380 con il 384bit e la 360 con il 320bit

aaasssdddfffggg
13-12-2009, 16:08
infatti... gli ultimi schemi davano la 380 con il 384bit e la 360 con il 320bit

sempre se nvidia non abbia mai tirato fuori sin dall'inzio dati veritieri per restare completamente coperta sulla rivale...

mister-x
13-12-2009, 16:08
Gli FPS in far cry 2 conicidono a 1920x1200 quindi chiunque li abbia fatti se sono fake li ha fatti entrambi ;)
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/
http://www.tomshardware.co.uk/forum/page-276100_15_0.html

persa
13-12-2009, 16:08
sempre se nvidia non abbia mai tirato fuori sin dall'inzio dati veritieri per restare completamente coperta sulla rivale...

che ci può stare xchè fece così anche con il g80..

aaasssdddfffggg
13-12-2009, 16:09
Gli FPS in far cry 2 conicidono a 1920x1200 quindi chiunque li abbia fatti se sono fake li ha fatti entrambi ;)
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/
http://www.tomshardware.co.uk/forum/page-276100_15_0.html

Si,lo stavo notando anche io...

aaasssdddfffggg
13-12-2009, 16:10
che ci può stare xchè fece così anche con il g80..

Si,infatti ricordo bene allora...io credo che NVIDIA sotto sotto questo silenzio abbia qualcosa di grosso tra le mani ...

aaasssdddfffggg
13-12-2009, 16:12
" I can confirm that the layout and style is exactly what NVIDIA uses for it's presentations."

E' questa frase che mi lascia perplesso (sulla verità o no di quei bench) più di tutti...

Foglia Morta
13-12-2009, 16:14
La fonte è successful_troll :asd: ( http://www.tomshardware.co.uk/forum/page-276100_15_0.html ) , i grafici stile nVidia sono stati fatti qui: http://www.nvnews.net/vbulletin/showthread.php?t=142476

persa
13-12-2009, 16:17
troppo troppo troppo alte quelle prestazioni :asd:

aaasssdddfffggg
13-12-2009, 16:20
troppo troppo troppo alte quelle prestazioni :asd:

se così fosse vero Fermi sarebbe stato sviluppato su tecnologia proveniente da un altro mondo...:)

persa
13-12-2009, 16:22
se così fosse vero Fermi sarebbe stato sviluppato su tecnologia proveniente da un altro mondo...:)

e si... :asd:

Iantikas
13-12-2009, 16:38
lo spero ke siano veri...almeno se lo fossero e le prestazioni fossero dello stesso livello anke in dx11, uno avrebbe un bel upgrade da fare x marzo/aprile...


...sempre ke nvidia, forte di quelle prestazioni, nn decida di prendere la strada dei prezzi altissimi tipo 8800ultra e compagnia...

...cmq i tagli della ram farebbero pensare al fake xkè x i dati ke si hanno x adesso la GTX380 dovrebbe avere 1536mb di ram, mentre la GTX360 1280mb...quindi o son fake (probabile) o nvidia ha in sderbo qualke sorpresa e il bus verso la mem è superiore a quanto finora trapelato...


...ciao

aaasssdddfffggg
13-12-2009, 16:41
lo spero ke siano veri...almeno se lo fossero e le prestazioni fossero dello stesso livello anke in dx11, uno avrebbe un bel upgrade da fare x marzo/aprile...


...sempre ke nvidia, forte di quelle prestazioni, nn decida di prendere la strada dei prezzi altissimi tipo 8800ultra e compagnia...

...cmq i tagli della ram farebbero pensare al fake xkè x i dati ke si hanno x adesso la GTX380 dovrebbe avere 1536mb di ram, mentre la GTX360 1280mb...quindi o son fake (probabile) o nvidia ha in sderbo qualke sorpresa e il bus verso la mem è superiore a quanto finora trapelato...


...ciao

Ah guarda,se fossero veri quei bench preparati pure a 600 euro per la gtx380 senza problemi ma ripeto,l'interfaccia di memoria e il taglio di ram non coincidono con quanto trapelato fino ad oggi.:D

persa
13-12-2009, 16:46
Ah guarda,se fossero veri quei bench preparati pure a 600 euro per la gtx380 senza problemi ma ripeto,l'interfaccia di memoria e il taglio di ram non coincidono con quanto trapelato fino ad oggi.:D

450€ la 360 550€ la 380 850€ la 395 :asd:

veltosaar
13-12-2009, 16:49
Anche perchè Guru3d non è la fonte , ma semplicemente riportano quanto hanno visto altrove ma solo in parte. Alla fonte si dice GTX 280 2GB , con bus esterno 384bit è piuttosto difficile avere 2GB :D

mmmmm.... strano però il taglio di memoria ... la 360 dovrebbe essere a 448bit per avere 1.8gb di ram (arrotondati xchè in realtà verrebbe 1792mb )

Ma la 380 ha il bus @ 512 bit con DDR 5?!?!:eek: :eek: :eek: :eek: :eek:
E di quanta banda ha bisogno sta gpu?:mbe:

Non mi risulta.Ha un interfaccia di 384 bit su 1,5 giga di gddr5 di memoria video.Parlo per la 380.Qualcosa non mi torna...

Scusate, che nesso c'è tra il bus di memoria e i giga?? Non capisco.. sono ignorante scusate :mbe:

Cmq io sapevo che la 380 doveva averne 512 di bit.. come 280 e 285.

aaasssdddfffggg
13-12-2009, 16:57
Scusate, che nesso c'è tra il bus di memoria e i giga?? Non capisco.. sono ignorante scusate :mbe:

Cmq io sapevo che la 380 doveva averne 512 di bit.. come 280 e 285.

Qui potrai farti un idea più accurata sull'importanza e la necessità di avere un interfaccia di memoria + o - alta :

http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_5.html

Comunque ti ripeto,a tutt'oggi,la gtx 380 dovrebbe avere 384 bit di interfaccia su 1,5 giga GDDR5.;)

veltosaar
13-12-2009, 17:02
So che sono Ot ma quale è la formula che lega frequenza, quantitativo memoria e bus alla bandwith?

DVD2005
13-12-2009, 17:04
450€ la 360 550€ la 380 850€ la 395 :asd:

ma se andasse così li spendiamo volentieri :D

DukeIT
13-12-2009, 17:04
Magari fossero ver quei bench, significherebbe una ricollocazione di prezzo delle HD5870/HD5850 e possibilità per tutti di prendersi una VGA potentissima dx11 partendo da prezzi bassissimi.
Purtroppo ho seri dubbi ed anche se fossero veri i bench Nvidia, poi bisognerebbe vederli alla prova con test "neutrali" che sicuramente la ridimensionerebbero, inoltre se Nvidia avesse sul serio bench di quel genere tra le mani, coprirebbe ogni angolo del WEB con quei dati riducendo gli effetti negativi degli "acquisti natalizi" che in questo momento "dicono bene" ad ATI.

Simedan1985
13-12-2009, 17:05
Ragazzi se i risultati sono quelli...bè bella botta per ati.
Ma mi sa anche a me molto di fake.

aaasssdddfffggg
13-12-2009, 17:06
ma se andasse così li spendiamo volentieri :D

e ci mancherebbe che non si prendono.:D

X86User
13-12-2009, 17:18
Già postati ?
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/

il ritorno del G80 :O
se vengono da guru3d allora sul fatto del fake potrebbe esserci il beneficio del dubbio.

inoltre durante l'intervista ricordiamo che il CEO Nvidia ha detto che la nuova VGA avrebbe contrastato hemlock, magari non vera ma vicina. potrebbe essere un fake però non è sicuro.

DarkNiko
13-12-2009, 17:21
Mi permetto, anche qui, di dire la mia.

Spero vivamente che quei test siano fake per 2 semplici ragioni.
Primo perchè non si è mai visto (salvo forse 1 volta ma non ne sono del tutto certo) che una scheda a singola GPU (GTX380) possa battere un crossfire della casa concorrente (5970).
Secondo perchè, se fosse realmente così potente, il mercato verrebbe letteralmente ucciso, non vi sarebbe concorrenza alcuna e NVidia potrebbe monopolizzare tutto proponendo, tra l'altro, prezzi molto più alti in vista della maggiore potenza elaborativa (8800 GTX insegna).

Il quadro che invece troverei più verosimile è di sperare che la GTX380 si collochi a cavallo tra la 5870 e la 5970 di ATi, altrimenti vi siete chiesti che senso avrebbe l'uscita (comunque prevista) di una dual gpu NVidia basata su GT300 ?
Sarebbe più sensato pensare alla dual GPU proprio per battere una 5970 (soluzione sempre a dual gpu).
In altri termini la concorrenza nasce tra categorie di prodotti omologhi, vale a dire singola gpu nvidia -> singola gpu ATi, dual gpu nvidia -> dual gpu ATi, altrimenti ATi dovrebbe davvero chiudere i battenti e cambiare mestiere.

IMHO chi vivrà vedrà, come si suol dire. :D

atinvidia284
13-12-2009, 17:23
I bench penso proprio che siano veri...................se nvidia fosse riuscita a fare retroingegneria alinea :fiufiu:

yossarian
13-12-2009, 17:35
Scusate, che nesso c'è tra il bus di memoria e i giga?? Non capisco.. sono ignorante scusate :mbe:

Cmq io sapevo che la 380 doveva averne 512 di bit.. come 280 e 285.

un memory controlle ha un'interfaccia a 64 bit e gestisce un certo numenri di chip di ram. La situazion e migliore è che un MC gestisca non più di 2 chip di ram, per non avere latenze troppo elevate dovute a concomitanti accessi a chip di ram gestiti dallo stesso MC.
Fermi in versione 380 ha 6 MC per un totale di 384 bit di bus (64*6); le gddr5 hanno tagli da 128 MB (menyre fino alle gddr4 i tagli erano da 64 MB). Questo significa che se ciscun MC gestisce 2 banchi, la 380 ha 1536 MB di ram.Un quantitativo superiore (3 o 4 chip di ram per MC) aumenta solo le latenze senza dare benefici a livello di frame buffer, quindi diventa controproducente.

quei bench sono fake e nVidia non ha fornito informazioni volutamente sbagliate alla presentazione di Fermi sull'ampiezza del bus. Piuttosto non le avrebbe fornite se avesse voluto tenere segreto qualcosa. Questo significa che, con 6 MC, la 380 non può avere in alcun modo 2 GB di ram (ma evidentemente chi ha fatto quei grafici non lo sa :D )

DukeIT
13-12-2009, 17:37
Spero vivamente che quei test siano fake per 2 semplici ragioni.
Primo perchè non si è mai visto (salvo forse 1 volta ma non ne sono del tutto certo) che una scheda a singola GPU (GTX380) possa battere un crossfire della casa concorrente (5970).
Secondo perchè, se fosse realmente così potente, il mercato verrebbe letteralmente ucciso, non vi sarebbe concorrenza alcuna e NVidia potrebbe monopolizzare tutto proponendo, tra l'altro, prezzi molto più alti in vista della maggiore potenza elaborativa (8800 GTX insegna).A dire il vero se quei bench fossero veri non sarei così catastrofista, prima di tutto perchè ovviamente dei bench reali ridimensionerebbero la cosa, inoltre avendo Nvidia un ritardo di 6 mesi rispetto ad ATI si troverebbe semplicemente prima indietro, poi avanti e quindi nuovamente ad inseguire (se ATI rispetterà il lancio dopo 12 mesi della nuova serie).
Non vedrei nemmeno rischi per ATI dato che si troverebbe sempre avanti nel periodo natalizio e potendo inoltre rivedere tranquillamente i propri prezzi grazie a costi di produzione più bassi (rimanendo competitiva anche mentre è superata).
Il problema penso sorgerebbe se quei grafici non fossero veri, con un pareggio od una vittoria di misura di Nvidia, ma in ritardo di 6 mesi, con un prodotto che viene fuori in periodo estivo invece che natalizio... con un chip che sembra essere anche più costoso, con la possibilità di una serie 6xx0 dopo soli 6 mesi.

aaasssdddfffggg
13-12-2009, 17:38
il ritorno del G80 :O
se vengono da guru3d allora sul fatto del fake potrebbe esserci il beneficio del dubbio.

inoltre durante l'intervista ricordiamo che il CEO Nvidia ha detto che la nuova VGA avrebbe contrastato hemlock, magari non vera ma vicina. potrebbe essere un fake però non è sicuro.

Il problema è che qui la 5970 non è contrastata ma mangia polvere da una singola GPU su base FERMI.Meglio attendere il CES per avere dati più "realistici".

appleroof
13-12-2009, 17:41
ma se andasse così li spendiamo volentieri :D

:D

cut

quei bench sono fake e nVidia non ha fornito informazioni volutamente sbagliate alla presentazione di Fermi sull'ampiezza del bus. Piuttosto non le avrebbe fornite se avesse voluto tenere segreto qualcosa. Questo significa che, con 6 MC, la 380 non può avere in alcun modo 2 GB di ram (ma evidentemente chi ha fatto quei grafici non lo sa :D )

a prescindere dal discorso sui quei bench ecc, cosa ti dà tanta certezza in merito? Potresti avere ragione, certo, ma in caso contrario non sarebbe certo il primo caso di info volutamente svianti (per motivi strategici ecc) nè da parte di Nvidia nè da parte di aziende dei più svariati settori in situazioni analoghe...

Rhadamanthis
13-12-2009, 17:42
comunque vada, marzo/aprile fermi ready via!!!!!!!!!???????????????????
Fermiiiiiiiiiiiiiiiiiiiiiiiii!!!!!!!!!!!!!!!:D

X86User
13-12-2009, 17:42
veramente una 8800Ultra di quelle occate di fabbrica mandavano a casa le 3870 X2.

Se al posto di dire che le prestazioni a pari stream sono diminuite perchè nvidia non mostra nulla, si possa invece pensare che siano migliorate e gli stream più che raddoppiati e anche con un clock degli shader molto superiore alla vecchia generazione........


E' ATi che non ha colpito con un 30-35% meglio di una GTX 285, visto che nvidia ha sempre superato abbastanza tangibilmente i dual GPu della vecchia generazione con le single GPU della nuova, anche con GT200 pur non avendo raddoppiato gli stream è riuscita comunque a superare la 9800GX2 con entrambi i modelli ( alla 260 gli hanno aumentato gli stream ma fa niente ).
Anche per ATI con la 4850 ha superato la 3870 X2 e con la 4870 ha staccato, stavolta invece la 5870 fa fatica a star davanti alla 4870 x2 e la 5850 è pure dietro.


Nvidia ricordiamo che ha più che raddoppiato gli stream, aumentato le frequenze e magari aver migliorato un IPC a parità di stream.

yossarian
13-12-2009, 17:47
:D



a prescindere dal discorso sui quei bench ecc, cosa ti dà tanta certezza in merito? Potresti avere ragione, certo, ma in caso contrario non sarebbe certo il primo caso di info volutamente svianti (per motivi strategici ecc) nè da parte di Nvidia nè da parte di aziende dei più svariati settori in situazioni analoghe...

apple, secondo te nVidia fa una presentazione ufficiale in cui elargisce informazioni volutamente sbagliate? Un conto è non dare informazioni un altro è fornirne di non corrette. Perderebbe la faccia. Nè nVIdia né alcun altro ha mai fatto una cosa del genere prima né mai la farà.
Quando kirk lasciò intendere che forse G80 non avrebbe avuto shader unificati.......appunto lo lasciò intendere ma non lo disse in maniera chiara e inequivocabile e, soprattutto, non nell'ambito di una presentazione ufficiale della tecnologia alla base di G80 (a parte il fatto che molti, compreso il sottoscritto, non presero mai sul serio l'idea che G80 avesse shader dedicati :D ).

Capisci cosa intendo e perchè non considero affatto quei bench? :D

appleroof
13-12-2009, 17:50
apple, secondo te nVidia fa una presentazione ufficiale in cui elargisce informazioni volutamente sbagliate? Un conto è non dare informazioni un altro è fornirne di non corrette. Perderebbe la faccia. Nè nVIdia né alcun altro ha mai fatto una cosa del genere prima né mai la farà.
Quando kirk lasciò intendere che forse G80 non avrebbe avuto shader unificati.......appunto lo lasciò intendere ma non lo disse in maniera chiara e inequivocabile e, soprattutto, non nell'ambito di una presentazione ufficiale della tecnologia alla base di G80 (a parte il fatto che molti, compreso il sottoscritto, non presero mai sul serio l'idea che G80 avesse shader dedicati :D ).

Capisci cosa intendo e perchè non considero affatto quei bench? :D

si, in effetti non consideravo quel contesto...:doh:

...però potrebbero cambiare le spec in corsa...:D :D

yossarian
13-12-2009, 17:52
si, in effetti non consideravo quel contesto...:doh:

...però potrebbero cambiare le spec in corsa...:D :D

assolutamente no; non si improvvisa in corsa una cosa importante come l'organizzazione degli accessi alla memoria di un chip. Inoltre non avrebbe alcun senso complicare le cose con un bus a 512 bit quando 384 sono più che sufficienti :D

aaasssdddfffggg
13-12-2009, 17:54
assolutamente no; non si improvvisa in corsa una cosa importante come l'organizzazione degli accessi alla memoria di un chip. Inoltre non avrebbe alcun senso complicare le cose con un bus a 512 bit quando 384 sono più che sufficienti :D

ovvio....questo sempre se NVIDIA non abbia beffato tutti,per non dare alcun riferimento all'avversario, sulle specifiche sin dal primo annuncio...
Alla fin fine ancora oggi FERMI è coperto da un velo segretissimo.Pochissimi sample funzionanti saranno ben chiusi nel cassetto dentro qualche lab. in SANTA CLARA.

DukeIT
13-12-2009, 18:01
ovvio....questo sempre se NVIDIA non abbia beffato tutti,per non dare alcun riferimento all'avversario, sulle specifiche sin dal primo annuncio...
Alla fin fine ancora oggi FERMI è coperto da un velo segretissimo.Pochissimi sample funzionanti saranno ben chiusi nel cassetto dentro qualche lab. in SANTA CLARA.
Ma se è una bomba di VGA, a che pro mantenere tutto questo segreto? Per permettere ad ATI di vendere indisturbata fino ad Aprile?
In nessun campo ho mai visto mantenere in tal modo il segreto e, nei pochi casi visti, serviva solo per poter vendere le proprie vecchie scorte... ma non per farle vendere alla concorrenza ^^

aaasssdddfffggg
13-12-2009, 18:03
Ma se è una bomba di VGA, a che pro mantenere tutto questo segreto? Per permettere ad ATI di vendere indisturbata fino ad Aprile?
In nessun campo ho mai visto mantenere in tal modo il segreto e, nei pochi casi visti, serviva solo per poter vendere le proprie vecchie scorte... ma non per farle vendere alla concorrenza ^^

Il CES è dietro l'angolo.A breve sveleranno tutto...;)

appleroof
13-12-2009, 18:04
assolutamente no; non si improvvisa in corsa una cosa importante come l'organizzazione degli accessi alla memoria di un chip. Inoltre non avrebbe alcun senso complicare le cose con un bus a 512 bit quando 384 sono più che sufficienti :D

era una battuta la mia :)

Ma se è una bomba di VGA, a che pro mantenere tutto questo segreto? Per permettere ad ATI di vendere indisturbata fino ad Aprile?
In nessun campo ho mai visto mantenere in tal modo il segreto e, nei pochi casi visti, serviva solo per poter vendere le proprie vecchie scorte... ma non per farle vendere alla concorrenza ^^

quoto, più che con il silenzio su g80, se dovessi trovare per forza analogie, quello su g100 mi pare il silenzio che gravava su r600...:stordita:

ovviamente spero di sbagliarmi, e spero pure che quei bench in qualche modo siano veritieri.

Rsdj
13-12-2009, 18:05
Ma dai ragà, come potete credere a quei bench??? Io la trova l'ultima spiaggia da parte di Nvidia per poter detrarre ulteriori clienti ad ATI, certo però non so fino a che punto sia giusto imbrogliarli così, perchè poi c'è chi ci crede veramente :asd:

p.s: vedesi caso 5870 che prima dell'uscita avrebbe dovuto andare quasi il doppio della gtx295 :asd: :asd: :asd:

mister-x
13-12-2009, 18:24
Ragazzi anche se è ovvio che siano dei fake provo a dare una spiegazione più "diretta" basata sull'osservazione dei presunti grafici di tom's hw.
Il grafico incriminato è questo (http://img686.imageshack.us/img686/8986/crysisgtx300.png).
Se facciamo un raffronto con l'originale (http://www.tomshw.it/files/2009/11/immagini/22847/crysis-noaa_t.png) si può vedere chiaramente che la gtx295 ottiene una media fps maggiore di circa 2fps nei test a 1920*1200 e a 1680x1050 mentre il test alla max risoluzione resta stranamente uguale :confused:. Può essere dovuto ai driver ma allora perchè con le altre vga nvidia il punteggio non cambia?? (questo vale anche per lo sli nel caso avvantaggiasse solo le config. dual gpu)
Inoltre non so voi ma sul mio monitor noto una certa differenza di colori, soprattutto sul blu, passando dall'immagine originale a quella incriminata (segno di tarocco).
Questo non si verifica invece se metto a confronto due grafici con gli stessi colori presi da tom's (questo (http://www.tomshw.it/files/2009/11/immagini/22847/grand-theft-auto-iv_t.png) ad esempio).
Infine guardando il risultato della gtx380 si può vedere come il test a 1920x1200 si stato letteralmente copiato da quello a max risoluzione dello SLI di gtx285 cambiando colore. Guardando invece il risultato alla minima risoluz della 380 si può vedere se confrontato con il 64.06 di questo (http://img341.imageshack.us/img341/5606/grandtheftautoivopoojjt.png) (originale tagliato da me) che la barra è più lunga di quello che dovrebbe essendo in scala.
Per confrontare la lunghezza io ho aperto le due immagini in due schede adiacenti di firefox e fissato il mouse sulla barra, con ctrl+tab le scorrevo ed è emersa la differenza che non dovrebbe esserci mentre i limiti dei grafici coincidono. Infatti come si può notare da questo grafico originale (http://www.tomshw.it/files/2009/11/immagini/22847/grand-theft-auto-iv_t.png) la differenza di 0.10 non determina alcuna variazione tangibile nella lunghezza delle barre figuriamoci una diff di 0.04 .
In conclusione sono FAKE :D.

halduemilauno
13-12-2009, 18:25
:D



a prescindere dal discorso sui quei bench ecc, cosa ti dà tanta certezza in merito? Potresti avere ragione, certo, ma in caso contrario non sarebbe certo il primo caso di info volutamente svianti (per motivi strategici ecc) nè da parte di Nvidia nè da parte di aziende dei più svariati settori in situazioni analoghe...

ma di quali bench stai/state parlando? di questi...
http://img16.imageshack.us/img16/8425/residentevil5gtx300n.png
http://img705.imageshack.us/img705/5503/stalkerclearskygtx300n.png
http://img705.imageshack.us/img705/2432/farcry2gtx300n.png

o di quelli marchiati toms hardware con annesse delle specifiche diverse da quanto gia visto?
perchè le fonti sono diverse.
io ovviamente rimango in attesa di tutti i riscontri del caso.
;)

yossarian
13-12-2009, 18:25
ovvio....questo sempre se NVIDIA non abbia beffato tutti,per non dare alcun riferimento all'avversario, sulle specifiche sin dal primo annuncio...
Alla fin fine ancora oggi FERMI è coperto da un velo segretissimo.Pochissimi sample funzionanti saranno ben chiusi nel cassetto dentro qualche lab. in SANTA CLARA.

a settembre ATi aveva già presentato i suoi prodotti; non ha senso il discorso di tener segreto qualcosa a qualcuno che sta giocando a carte scoperte.
E non ha senso fornire dati sbagliati in un apresentazione ufficiale. In tal caso, eviti di fare la presentazione (sempre nell'improbabile ipotesi che si vglia bluffare).
Non voglio raffreddare i vostri entusiasmi ma quei bench sono autentici come una banconota da 4 € e chi li ha postati non conosce neppure le specifiche del chip o non sa quali siano i limiti nella gestione delle ram da parte di un MC. Di sicuro tenderei ad escludere nVidia come fonte di quelle tabelle :D

aaasssdddfffggg
13-12-2009, 18:29
a settembre ATi aveva già presentato i suoi prodotti; non ha senso il discorso di tener segreto qualcosa a qualcuno che sta giocando a carte scoperte.
E non ha senso fornire dati sbagliati in un apresentazione ufficiale. In tal caso, eviti di fare la presentazione (sempre nell'improbabile ipotesi che si vglia bluffare).
Non voglio raffreddare i vostri entusiasmi ma quei bench sono autentici come una banconota da 4 € e chi li ha postati non conosce neppure le specifiche del chip o non sa quali siano i limiti nella gestione delle ram da parte di un MC. Di sicuro tenderei ad escludere nVidia come fonte di quelle tabelle :D

Che quei bench siano FAKE lo abbiamo capito tutti...se fosse il contrario ATI dovrebbe cominciare seriamente a pensar di chiudere.;)

appleroof
13-12-2009, 18:30
ma di quali bench stai/state parlando? di questi...
http://img16.imageshack.us/img16/8425/residentevil5gtx300n.png
http://img705.imageshack.us/img705/5503/stalkerclearskygtx300n.png
http://img705.imageshack.us/img705/2432/farcry2gtx300n.png

o di quelli marchiati toms hardware con annesse delle specifiche diverse da quanto gia visto?
perchè le fonti sono diverse.
io ovviamente rimango in attesa di tutti i riscontri del caso.
;)

non avevo capito nulla: pensavo che sia guru3d che tom's hw si rifacessero alla stessa fonte :doh:

Rsdj
13-12-2009, 18:33
Che quei bench siano FAKE lo abbiamo capito tutti...se fosse il contrario ATI dovrebbe cominciare seriamente a pensar di chiudere.;)
Certo anche se fosse vero che la gtx380 andasse come una gtx285 nvidia sarebbe destinata a chiudere... ma noi non dobbiamo basarci sui se e sui ma. Fatto sta che IMHO se circola sta roba secondo me nvidia sta nei guai, e poi dico almeno cercate di rendere le cose credibili... che ne so fatela andare un 40% in più di una 5870, ma addirittura superare una 5970, neanche pareggiarla ma proprio superarla.... ma chi li ha fatti quei grafici Giacobbo oppure Ruggeri?

yossarian
13-12-2009, 18:33
non avevo capito nulla: pensavo che sia guru3d che tom's hw si rifacessero alla stessa fonte :doh:

fanno riferimento alla stessa fonte; anche guru3d dice che si tratta di slide postate da un utente sul forum e non di tabelle che sono arrivate da nVidia.
Quindi, in entrambi i casi, parliamo di tabelle postate da un utente su un forum; il fatto che lo stile sia nVidia-like non le rende più credibili e, come ha fatto notare qualcuno, nell'unico gioco presente in entrame (farcry2) i valori sono identici.

okorop
13-12-2009, 18:34
sinceramente io penso che quei benchmark siano dei Fake in quanto appena prima di Natale nvida avrebbe dovuto in qualche slide ufficiale magari proprio sul suo sito mostrare i benchmark, invece sono apparsi cosi' con marchio Nvida su un sito a caso nella rete....... dubito che siano veritieri

yossarian
13-12-2009, 18:34
Certo anche se fosse vero che la gtx380 andasse come una gtx285 nvidia sarebbe destinata a chiudere... ma noi non dobbiamo basarci sui se e sui ma. Fatto sta che IMHO se circola sta roba secondo me nvidia sta nei guai, e poi dico almeno cercate di rendere le cose credibili... che ne so fatela andare un 40% in più di una 5870, ma addirittura superare una 5970, neanche pareggiarla ma proprio superarla.... ma chi li ha fatti quei grafici Giacobbo oppure Ruggeri?

non è stata nVidia a mettere in giro quella roba :D

Kharonte85
13-12-2009, 18:34
Già postati ?
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/
Prestazioni imho troppo elevate, ma se la fonte fosse Nvidia (ne dubito) potrebbero essere verosimili e rappresentare il "best case scenario" (anche nelle presentazioni di AMD della serie HD5xx0 spararono molto più alto di quello che le prove su strada stabilirono)
Ci sarebbero anche questi:
http://www.tomshardware.co.uk/forum/page-276100_15_0.html

Chiedo scusa se son già stati postati.
Fake al 99,9%.

halduemilauno
13-12-2009, 18:35
non avevo capito nulla: pensavo che sia guru3d che tom's hw si rifacessero alla stessa fonte :doh:

o forse non ho capito io. quelli in stile toms hardware con annesse specifiche che fanno vedere quantitativi di ram non consoni ai bus essendo appunto non consoni sono sbagliati e quindi falsi. ripeto parlo delle caratteristiche li enunciate. per il resto chiedevo a te/voi.
;)

okorop
13-12-2009, 18:37
non è stata nVidia a mettere in giro quella roba :D

apputno........ :doh: mi auguro che sia una bella competizione, intanto le vga me le provo tutte..........anche se le prestazioni fossero deludenti :asd:

Rsdj
13-12-2009, 18:39
non è stata nVidia a mettere in giro quella roba :D
Si ma infatti mi riferisco a chiunque li abbia fatti... ho dei seri dubbi sul creatore. Penso molto probabilmente che il più quotato sia Giacobbo e che sta roba la vedremo a Voyager, subito dopo il servizio che da per certa la fine del mondo prevista dai maya :asd:

halduemilauno
13-12-2009, 18:39
Prestazioni imho troppo elevate, ma se la fonte fosse Nvidia (ne dubito) potrebbero essere verosimili e rappresentare il "best case scenario" (anche nelle presentazioni di AMD della serie HD5xx0 spararono molto più alto di quello che le prove su strada stabilirono)

Fake al 99,9%.

ecco quelle postate da tal successful troll con annesse tabelle credo che dubbi non ce ne possano essere. per il resto rimango in attesa di tutti i riscontri del caso.
;)

yossarian
13-12-2009, 18:42
ecco quelle postate da tal successful troll con annesse tabelle credo che dubbi non ce ne possano essere. per il resto rimango in attesa di tutti i riscontri del caso.
;)

i risultati sono gli stessi come pure la fonte :D

okorop
13-12-2009, 18:44
i risultati sono gli stessi come pure la fonte :D

a ecco quindi tutti riconducibili a un troll bene cosi.......:doh:

fdadakjli
13-12-2009, 18:45
i risultati sono gli stessi come pure la fonte :D

:asd:

Ste...meglio aspettare i dati nvidia... :p

halduemilauno
13-12-2009, 18:46
i risultati sono gli stessi come pure la fonte :D

quindi lo stesso troll(chiamiamolo cosi)avrebbe agito su due siti diversi in due stili diversi e in uno solo dei due avrebbe anche fornito una tabella di specifiche.
ok sei pronto per la partita di stasera?
;)

Kharonte85
13-12-2009, 18:48
Gli FPS in far cry 2 conicidono a 1920x1200 quindi chiunque li abbia fatti se sono fake li ha fatti entrambi ;)
http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/
http://www.tomshardware.co.uk/forum/page-276100_15_0.html
Hai ragione, non puo' essere un caso quindi la fonte è la stessa...ergo sono due superfake.

okorop
13-12-2009, 18:49
:asd:

Ste...meglio aspettare i dati nvidia... :p

ma anche no io aspetto i dati reali delle recensioni delle testate di hardware, non mi fido sinceramente nè dei benchmark ufficiali di nvida ne di quelli di Ati

fdadakjli
13-12-2009, 18:52
ma anche no io aspetto i dati reali delle recensioni delle testate di hardware, non mi fido sinceramente nè dei benchmark ufficiali di nvida ne di quelli di Ati

...diciamo che è meglio prendersi le schede e provarsele... :asd:

okorop
13-12-2009, 18:53
...diciamo che è meglio prendersi le schede e provarsele... :asd:

quoto me ne prendo due al lancio che cosi tutti contenti :asd: sperando di prendere qualche punticino su hwbot :asd:

halduemilauno
13-12-2009, 18:53
Hai ragione, non puo' essere un caso quindi la fonte è la stessa...ergo sono due superfake.

ok e ripeto ok ma una cosa perchè toms hardware non smentisce, non cancella, non chiude, non banna il burlone di turno. basterebbe un post del mod o meglio di un suo amministratore. quanta gente può esser stata ingannata e toms lo permette non intervenendo?
tutto qui.
;)

fdadakjli
13-12-2009, 18:55
quoto me ne prendo due al lancio che cosi tutti contenti :asd:

cosa buona e giusta... :D
...ma ti prendi 2 single o 2 dual???

okorop
13-12-2009, 18:57
cosa buona e giusta... :D
...ma ti prendi 2 single o 2 dual???

probabilmente due single, facciamo prima una e poi la seconda dipenderà se mi servirà o meno senno faccio come le 5870 ne prendo due bencio poi prendo la migliore e me la tengo nel case :asd:

fdadakjli
13-12-2009, 18:59
probabilmente due single, facciamo prima una e poi la seconda dipenderà se mi servirà o meno senno faccio come le 5870 ne prendo due bencio poi prendo la migliore e me la tengo nel case :asd:

ottimo... :)

okorop
13-12-2009, 19:02
Direi che il problema non si pone :asd:







Svianti è una cosa, dare informazioni chiare ma sbagliate in dichiarazioni pubbliche è un reato penale per una societa quotata e quindi sotto il controllo della SEC ;)

E Fermi non ha praticamente nessun segreto ormai. L'unica incognita sono le frequenze di funzionamento, l'architettura ce l'hanno raccontata fino alla nausea...



Sembra più quella situazione, compresi i bench favolosi e chiaramene farlocchi.

Mi auguro che sia concorrenziale con le HD5xxx, soprattutto con Intel che si farà attendere a lungo in questo mercato...
sicuramente nvida non si strapperà i capelli dopo il rilascio di quelle tabelle seppur totalmente sbagliate......tutto cio' che fa pubblicità va a vantaggio loro ;)

yossarian
13-12-2009, 19:31
:asd:

Ste...meglio aspettare i dati nvidia... :p

direi di si :)

yossarian
13-12-2009, 19:35
quindi lo stesso troll(chiamiamolo cosi)avrebbe agito su due siti diversi in due stili diversi e in uno solo dei due avrebbe anche fornito una tabella di specifiche.
ok sei pronto per la partita di stasera?
;)

no, lo stesso troll avrebbe fornito delle presunte tabelle recanti il logo di nVidia e queste sarebbero state riprese da Tom's.
Su guru3d, dove sono state postate, sul forum da un utente, gli stessi che riportano la news prendono le distanze dicendo che, a loro giudizio, si tratta di fake. Fa un po' tu :p

zorco
13-12-2009, 19:37
per mè quei bench sono veri:asd: