View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Giudizio personale? so che non interessa a nessuno. Ma per me applicazioni come Crysis non hanno senso di esistere.
Mi spiego meglio. E' un capolavoro. Ma che senso ha fare un gioco bellissimo che però non può essere giocato.
Mi viene in mente il campo dei motori e delle auto.
Dal punto di vista teorico non ci vuole molto a passare da 200 a 300 cavalli. Il problema è che a fronte di un aumento del 50% di potenza si ha un incremento di consumi di circa il 200%!
Questo per spiegare che sono buoni tutti a fare dell'hadware o del software potentissimo. La sfida è mantenere costi e consumi. Facile sarebbe fare una scheda video con 4GPU!! Ma poi i consumi?? Ecco, io credo che tutto debba essere sostenibile. Ma non per un principio di ambientalismo che personalmente non mi interessa ma proprio per un principio di efficienza.
Ad esempio al raddoppiare della potenza dovrebbero aumentare MENO che proporzionalmente i consumi. Se non rimanere uguali. Se non diminuire in un cambio generazionale. Se ciò vale per l'hardware perchè non deve valere per i software. Ci sono persone che hanno giocato con il max fps a giochi come far cry 2, batman, Resident evil 5.. eppure su Crysis restano a 30\35 frame.. SE GLI VA BENE!
va be alla fine con le impostazioni giuste si giocava benissimo già con la mia vecchie gtx280, è chiaro che pompando tutto diventa impossibile, ma già con una buona scheda si giocava dignitosamente, cmq mi sta venendo troppo voglia di provarlo con le due 5870 e vedere un po' come va.
A crisys ci gioco bene io con una 4850 overloccata figariamoci voi con queste schede!! :rolleyes:
E comunque di giochi con la grafica di Crisys non ne sono più usciti (ma manco avvicinati), io di certo non mi lamento di questo, ma anzi... per fortuna che esiste una casa che spinge i nostri hw al limite...
aaasssdddfffggg
19-12-2009, 12:01
A crisys ci gioco bene io con una 4850 overloccata figariamoci voi con queste schede!! :rolleyes:
E comunque di giochi con la grafica di Crisys non ne sono più usciti (ma manco avvicinati), io di certo non mi lamento di questo, ma anzi... per fortuna che esiste una casa che spinge i nostri hw al limite...
questo perchè il CRYENGINE2 è a tutt'oggi il più potente e avanzato motore grafico 3D in circolazione....in attesa del CRYENGINE 3 con l'implementazione delle nuove API.:)
questo perchè il CRYENGINE2 è a tutt'oggi il più potente e avanzato motore grafico 3D in circolazione....in attesa del CRYENGINE 3 con l'implementazione delle nuove API.:)
Crysis 2 in DirectX 11???? :eek: :eek: :eek: :sofico:
aaasssdddfffggg
19-12-2009, 12:10
Crysis 2 in DirectX 11???? :eek: :eek: :eek: :sofico:
nella versione PC saranno implementate le nuove librerie.E' la CRYTEK stessa ad averlo detto (ovvio che non sarò un motore riscritto da zero per ovvi motivi).;)
questo perchè il CRYENGINE2 è a tutt'oggi il più potente e avanzato motore grafico 3D in circolazione....in attesa del CRYENGINE 3 con l'implementazione delle nuove API.:)
Infatti, senza dimenticare che Crisys ha due anni... invece di lodare chi s'impegna lo si denigra, addirittura spesso leggo commenti sui programmatori dell'engine dove li si paragona a incapaci totali :muro:
Non vedo l'ora di avere tra le mani il Cry engine 3 :cool:
aaasssdddfffggg
19-12-2009, 12:15
Infatti, senza dimenticare che Crisys ha due anni... invece di lodare chi s'impegna lo si denigra, addirittura spesso leggo commenti sui programmatori dell'engine dove li si paragona a incapaci totali :muro:
Non vedo l'ora di avere tra le mani il Cry engine 3 :cool:
a febbraio saranno pubblicati i primi screen in game.;)
luX0r.reload
19-12-2009, 12:42
Crysis 2 in DirectX 11???? :eek: :eek: :eek: :sofico:
Beh certo... avranno fatto accordi con chi produce schede grafiche per farlo ancora più pensante del primo :D
In dx10 il primo capitolo fa fatica ancora oggi a girare su schede grafiche anche di un certo livello... sicuramente in dx11 neanche le bestioline ATI 5000 riusciranno a farlo girare decentemente :stordita:
Magari ce la farà FERMI :ciapet:
DavidM74
19-12-2009, 12:43
Beh certo... avranno fatto accordi con chi produce schede grafiche per farlo ancora più pensante del primo :D
In dx10 il primo capitolo fa fatica ancora oggi a girare su schede grafiche anche di un certo livello... sicuramente in dx11 neanche le bestioline ATI 5000 riusciranno a farlo girare decentemente :stordita:
Magari ce la farà FERMI :ciapet:
zizi! :D
Beh certo... avranno fatto accordi con chi produce schede grafiche per farlo ancora più pensante del primo :D
In dx10 il primo capitolo fa fatica ancora oggi a girare su schede grafiche anche di un certo livello... sicuramente in dx11 neanche le bestioline ATI 5000 riusciranno a farlo girare decentemente :stordita:
Magari ce la farà FERMI :ciapet:
si 4 in quad sli se è come il primo crysis :asd: :Prrr: :ciapet:
aaasssdddfffggg
19-12-2009, 13:46
si 4 in quad sli se è come il primo crysis :asd: :Prrr: :ciapet:
un fondo di verità ce in quello che dici....l'ultima versione dell'evga precision (1.8.1)per le nvidia è già pronta a supportare fino a 8 gpu...
un fondo di verità ce in quello che dici....l'ultima versione dell'evga precision (1.8.1)per le nvidia è già pronta a supportare fino a 8 gpu...
ma crysis 2 non doveva essere + leggero del primo? e cmq dove avete letto che supporterà le dx11 :fagiano: ?
aaasssdddfffggg
19-12-2009, 13:55
ma crysis 2 non doveva essere + leggero del primo? e cmq dove avete letto che supporterà le dx11 :fagiano: ?
dovrebbe essere più leggero del primo visto che è multipiattaforma con qualche effetto in aggiunta delle nuove api per la versione PC.Ovvio.E' la crytek stessa ad averlo detto.;)
dovrebbe essere più leggerodel primo visto che è multipiattaforma con qualche effetto in aggiunta delle nuove api per la versione PC.Ovvio.E' la crytek stessa ad averlo detto.;)
bo qui non c'è scritto nulla del supporto alle nuove dx http://www.gamersdigest.net/2483/cryengine-3-features-in-detail/
:boh:
aaasssdddfffggg
19-12-2009, 14:01
bo qui non c'è scritto nulla del supporto alle nuove dx http://www.gamersdigest.net/2483/cryengine-3-features-in-detail/
:boh:
"Crytek has mentioned that DirectX 11 support for CryEngine 3 is coming soon, so it's pretty much safe to say that Crysis 2 will have support for it as well. "
http://www.incrysis.com/index.php?option=com_content&task=view&id=22&Itemid=37
;)
"Crytek has mentioned that DirectX 11 support for CryEngine 3 is coming soon, so it's pretty much safe to say that Crysis 2 will have support for it as well. "
http://www.incrysis.com/index.php?option=com_content&task=view&id=22&Itemid=37
;)
:eek: ;)
bene bene. dunque prepariamoci ad andare a 15 frames con tessellone ON ;)
aaasssdddfffggg
19-12-2009, 14:05
:eek: ;)
bene bene. dunque prepariamoci ad andare a 15 frames con tessellone ON ;)
aridaie....ancora non esiste e mostrato nulla a proposito e già siete arrivati alla conclusione.Ma è una malattia contagiosa qui dentro per caso?:D
aridaie....ancora non esiste e mostrato nulla a proposito e già siete arrivati alla conclusione.Ma è una malattia contagiosa qui dentro per caso?:D
e scusa ma un pochino ho paura che la mia scheda non ce la farà con tutto al massimo 1920x :asd:
aaasssdddfffggg
19-12-2009, 14:07
e scusa ma un pochino ho paura che la mia scheda non ce la farà con tutto al massimo 1920x :asd:
questo è un altro discorso.;)
questo è un altro discorso.;)
si ma se è come il primo crysis, che ci sono volute tre generazioni di schede x farlo andare bene in full hd max detail, allora ho paura che neanche fermi lo farà andare tanto bene :stordita: :fagiano: ci vorranno fermi 3 la vendetta ed hd 7870;)
poi bo magari mi sbaglio e questa volta girerà da subito benissimo già con le hd 5000 e gf100 :fagiano:
aaasssdddfffggg
19-12-2009, 14:14
si ma se è come il primo crysis, che ci sono volute tre generazioni di schede x farlo andare bene in full hd max detail, allora ho paura che neanche fermi lo farà andare tanto bene :stordita: :fagiano: ci vorranno fermi 3 la vendetta ed hd 7870;)
poi bo magari mi sbaglio e questa volta girerà da subito benissimo già con le hd 5000 e gf100 :fagiano:
non so' risponderti adesso...quando lo vedrò girare su PC ti saprò dire e saprò trarre delle conclusioni più mirate(e lo saprai anche tu allora...).;)
non so' risponderti adesso...quando lo vedrò girare su PC ti saprò dire e saprò trarre delle conclusioni più mirate(e lo saprai anche tu allora...).;)
speriamo bene :fagiano:
un fondo di verità ce in quello che dici....l'ultima versione dell'evga precision (1.8.1)per le nvidia è già pronta a supportare fino a 8 gpu...
già sli ec crossfire non van tanto bene con 2 gpu figuriamoci con 8 .....
aaasssdddfffggg
19-12-2009, 14:31
già sli ec crossfire non van tanto bene con 2 gpu figuriamoci con 8 .....
ho detto solo che l'evga precision supporta fino ad 8 gpu con la nuova release...se poi nvidia ha in mente qualcosa per il futuro non ne ho idea...;)
già sli ec crossfire non van tanto bene con 2 gpu figuriamoci con 8 .....
quoto ...
si ma se è come il primo crysis, che ci sono volute tre generazioni di schede x farlo andare bene in full hd max detail, allora ho paura che neanche fermi lo farà andare tanto bene :stordita: :fagiano: ci vorranno fermi 3 la vendetta ed hd 7870;)
poi bo magari mi sbaglio e questa volta girerà da subito benissimo già con le hd 5000 e gf100 :fagiano:Se non fanno la stessa cazzata delle dx10 potrebbe essere addirittura piú leggero del primo.
Non so per quale oscuro motivo, crysis andava piú veloce in dx9 + fix very high che in dx10, pur avendo la stessa identica grafica.
Doveva essere esattamente l'inverso, forse un motivo per chiamarli "incapaci" c'era...
Detto questo, se mantengono la grafica del primo e usano le dx11 + tessellation, le performance dovrebbero essere sensibilmente migliori.
Speriamo in un' implementazione fatta come si deve...
cut
Detto questo, se mantengono la grafica del primo e usano le dx11 + tessellation, le performance dovrebbero essere sensibilmente migliori.
Speriamo in un' implementazione fatta come si deve...
si speriamo. anche se x adesso il tessellone però si è dimostrato un effetto che fa appesantire la grafica.. :fagiano:
x il primo crisis concordo. in dx10 è una farsa bella e buona... in dx9 va meglio e la grafica è uguale..
Diobrando_21
19-12-2009, 16:07
già sli ec crossfire non van tanto bene con 2 gpu figuriamoci con 8 .....
io non ho mai avuto problemi con 2 gpu...anzi ho un notevole boost soprattutto sul framerate minimo...soddisfattissimo ;)
si speriamo. anche se x adesso il tessellone però si è dimostrato un effetto che fa appesantire la grafica.. :fagiano:
x il primo crisis concordo. in dx10 è una farsa bella e buona... in dx9 va meglio e la grafica è uguale..E certo che il tessellation ti appesantisce la grafica, introduce piú vertici rispetto al "no tessellation" :D
Non puoi avere la botte piena e la moglie ubriaca...
Quello che dico é: se mantengono la STESSA grafica e usano in modo intelligente il tessellation, le prestazioni aumentano in modo sensibile ;)
io non ho mai avuto problemi con 2 gpu...anzi ho un notevole boost soprattutto sul framerate minimo...soddisfattissimo ;)
idem, sono finiti da un pezzo i tempi in cui cf e sli davano problemi, dalla gtx 295 è cambiato tutto, soluzioni fantastiche!
fdadakjli
19-12-2009, 16:18
idem, sono finiti da un pezzo i tempi in cui cf e sli davano problemi, dalla gtx 295 è cambiato tutto, soluzioni fantastiche!
quoto... :)
aaasssdddfffggg
19-12-2009, 16:20
idem, sono finiti da un pezzo i tempi in cui cf e sli davano problemi, dalla gtx 295 è cambiato tutto, soluzioni fantastiche!
Vaglielo a fa capì a chi si ostina a dire ancora che il multiGPU dà solo problemi : il multiGPU è il futuro.;)
quoto... :)
xò altri utenti non la pensano così... :) :fagiano: a chi credere allora? :) :fagiano:
PConly92
19-12-2009, 16:22
Vaglielo a fa capì a chi si ostina a dire ancora che il multiGPU dà solo problemi : il multiGPU è il futuro.;)
...: per chi ha soldi:rolleyes:
...: per chi ha soldi:rolleyes:
ehehehehe... :asd:
fdadakjli
19-12-2009, 16:29
xò altri utenti non la pensano così... :) :fagiano: a chi credere allora? :) :fagiano:
bho...io ho sempre avuto sli (normale, triple e quad) dalle 7800GTX fino alle 295GTX (comprese tutte le geforce top che ci stanno in mezzo) e di problemi ne ho avuti ben pochi... :)
ora con il crossfire mi trovo altrettanto bene... ;)
Vaglielo a fa capì a chi si ostina a dire ancora che il multiGPU dà solo problemi : il multiGPU è il futuro.;)
sicuramente è il futuro anche perchè s'è bello e capito che le gpu sono arrivate, non possono continuare a fare padelle di 10 cm quadrati per avere più prestazioni, poi se prende piede il multimonitor a maggior ragione
bho...io ho sempre avuto sli (normale, triple e quad) dalle 7800GTX fino alle 295GTX (comprese tutte le geforce top che ci stanno in mezzo) e di problemi ne ho avuti ben pochi... :)
ora con il crossfire mi trovo altrettanto bene... ;)
io all'inizio avevo qualche problema col dual monitor, diciamo secondo me dopo l'inizio del 2009 i driver per sli sono diventati davvero maturissimi.
bho...io ho sempre avuto sli (normale, triple e quad) dalle 7800GTX fino alle 295GTX (comprese tutte le geforce top che ci stanno in mezzo) e di problemi ne ho avuti ben pochi... :)
ora con il crossfire mi trovo altrettanto bene... ;)
sono contento che ti ci trovi bene :);)
sicuramente è il futuro anche perchè s'è bello e capito che le gpu sono arrivate, non possono continuare a fare padelle di 10 cm quadrati per avere più prestazioni, poi se prende piede il multimonitor a maggior ragione
io preferisco tirare avanti con la 5870 xchè mi basta. poi dopo cambierò o per fermi o per la 6870 a 3200 shader. che sarà ovviamente, migliore delle dual di adesso :O ;)
mapoetti
19-12-2009, 16:36
si speriamo. anche se x adesso il tessellone però si è dimostrato un effetto che fa appesantire la grafica.. :fagiano:
x il primo crisis concordo. in dx10 è una farsa bella e buona... in dx9 va meglio e la grafica è uguale..
:eek: :eek: :eek:
[/B]
:eek: :eek: :eek:
e che l'hai scoperto ora? :asd:
mapoetti
19-12-2009, 16:40
e che l'hai scoperto ora? :asd:
no...veramente non mi sembra la stessa cosa.....anzi mi sembra una gran c....a quella che hai detto.....senza offesa.....
come può essere uguale che in dx9 non carica nemmeno il post processing...?:eek: :doh:
no...veramente non mi sembra la stessa cosa.....anzi mi sembra una gran c....a quella che hai detto.....senza offesa.....
come può essere uguale che in dx9 non carica nemmeno il post processing...?:eek: :doh:
apparte che lo abbiam detto in 2 sta "caz..." ..cmq è così te prendi crysis warhead e prova a giocarlo in enthusiast dx9 e dx10...e dimmi quali differenze grafiche ci trovi... te lo dico io, nessuna :stordita:
ed anche crysis 1 se metti i file very high su quelli high in dx9, è uguale al very high dx10 ;)
no...veramente non mi sembra la stessa cosa.....anzi mi sembra una gran c....a quella che hai detto.....senza offesa.....
come può essere uguale che in dx9 non carica nemmeno il post processing...?:eek: :doh:Non si sta parlando di "high dx9" vs "very high dx10" ;)
Facevo riferimento al mod che abilita gli effetti presenti nel "very high" anche in dx9.
In veritá il suddetto mod non fa altro che cambiare dei parametri nei file di gioco...
Il tutto per dimostrare che in crysis le dx10 sono state implementate talmente male da peggiorare le prestazioni rispetto alla medesima soluzione in dx9.
mapoetti
19-12-2009, 16:51
apparte che lo abbiam detto in 2 sta "caz..." ..cmq è così te prendi crysis warhead e prova a giocarlo in enthusiast dx9 e dx10...e dimmi quali differenze grafiche ci trovi... te lo dico io, nessuna :stordita:
ed anche crysis 1 se metti i file very high su quelli high in dx9, è uguale al very high dx10 ;)
crysis warhead è un discorso...è l'engine ottimizzato
crysis 1 se parli di patch in dx9 ...si hai un risultato simile...ma a mia esperienza in alcuni casi creano piu problemi delle dx10...
parlo per esperienza personale.......ho provato praticamente qualsiasi patch ultra quality esistente....questo perchè avendo una sola vga in dx9 mi permette di avere una media di 50 fps......
ma ti assicuro che in dx10 l'impatto grafico è diverso.....
e comunque prova a chiedere a qualche utente con 2 vga se gioca in dx9...ne dubito.......
DarkNiko
19-12-2009, 16:53
Vaglielo a fa capì a chi si ostina a dire ancora che il multiGPU dà solo problemi : il multiGPU è il futuro.;)
Sicuramente sì, ma devi anche concordare sul fatto che alcuni giochi lo SLi o il CrossFire non lo pensano proprio. Uno fra tutti, non a caso, Dirt 2 e Grid prima di lui. Per Dirt 2 non esiste, al momento, alcun profilo SLi nei drivers NVidia e il buon NHancer, che tanto ha aiutato i vecchi possessori, come me, di GX2 e schede in SLi a forzare l'exe al riconoscimento del multigpu, non è compatibile con gli ultimi ForceWare.
Da ex possessore di 9800 GX2, quando ho preso la GTX280, sono spariti i microscattini fastidiosi in alcuni giochi, ho beneficiato di temperature di esercizio nettamente più basse e ho potuto constatare che una VGA singola (inteso non SLi o Crossfire o GX2 che dir si voglia) dà meno grattacapi in assoluto rispetto ad una multigpu.
Con ciò non voglio ovviamente criticare chi utilizza sistemi simili, però che ogni tanto il multigpu non renda come dovrebbe è un dato di fatto e negarlo non è una buona cosa. Trovi che abbia torto ? ;)
io non parlo delle mod grafiche.
io parlo di prendere--tutti-- i files impostati a very high e di metterli sopra quelli high ed il gioco ti assicuro che sarà uguale alla dx10, al 100%.
Sicuramente sì, ma devi anche concordare sul fatto che alcuni giochi lo SLi o il CrossFire non lo pensano proprio. Uno fra tutti, non a caso, Dirt 2 e Grid prima di lui. Per Dirt 2 non esiste, al momento, alcun profilo SLi nei drivers NVidia e il buon NHancer, che tanto ha aiutato i vecchi possessori, come me, di GX2 e schede in SLi a forzare l'exe al riconoscimento del multigpu, non è compatibile con gli ultimi ForceWare.
Da ex possessore di 9800 GX2, quando ho preso la GTX280, sono spariti i microscattini fastidiosi in alcuni giochi, ho beneficiato di temperature di esercizio nettamente più basse e ho potuto constatare che una VGA singola (inteso non SLi o Crossfire o GX2 che dir si voglia) dà meno grattacapi in assoluto rispetto ad una multigpu.
Con ciò non voglio ovviamente criticare chi utilizza sistemi simili, però che ogni tanto il multigpu non renda come dovrebbe è un dato di fatto e negarlo non è una buona cosa. Trovi che abbia torto ? ;)
io grid lo giocavo con la gtx295 e andava veramente in modo spettacolare, dirt 2 ci gioco in cf con due 5870 ed è l'unico modo per giocare a 60 fps in synch a 1920x1200 con tutto al massimo.
onestamente con gtx295 non ho mai avuto problemi, e con questo cf nemmeno, qualche vecchio gioco potrebbe non andare in dual gpu, quindi metti con un semplice click in mono gpu e risolvi, non mi pare un problema.
aaasssdddfffggg
19-12-2009, 16:59
Sicuramente sì, ma devi anche concordare sul fatto che alcuni giochi lo SLi o il CrossFire non lo pensano proprio. Uno fra tutti, non a caso, Dirt 2 e Grid prima di lui. Per Dirt 2 non esiste, al momento, alcun profilo SLi nei drivers NVidia e il buon NHancer, che tanto ha aiutato i vecchi possessori, come me, di GX2 e schede in SLi a forzare l'exe al riconoscimento del multigpu, non è compatibile con gli ultimi ForceWare.
Da ex possessore di 9800 GX2, quando ho preso la GTX280, sono spariti i microscattini fastidiosi in alcuni giochi, ho beneficiato di temperature di esercizio nettamente più basse e ho potuto constatare che una VGA singola (inteso non SLi o Crossfire o GX2 che dir si voglia) dà meno grattacapi in assoluto rispetto ad una multigpu.
Con ciò non voglio ovviamente criticare chi utilizza sistemi simili, però che ogni tanto il multigpu non renda come dovrebbe è un dato di fatto e negarlo non è una buona cosa. Trovi che abbia torto ? ;)
Dici benissimo,ma leva dalla lista GRID che è stato risolto il problema con lo SLI e QuadSLI da una vita ormai.Certo,i driver devono "seguire"il software al fine di ottimizzare il lavoro multigpu.Vedrai che presto,si sistemerà anche Dirt2 sotto multigpu con una nuova release (riferito al multiGPU nvidia).;)
mapoetti
19-12-2009, 17:01
io non parlo delle mod grafiche.
io parlo di prendere--tutti-- i files impostati a very high e di metterli sopra quelli high ed il gioco ti assicuro che sarà uguale alla dx10, al 100%.
si ma le mod grafiche es:ultra quality mod,natural mod,quality mod,un altra mod fotorealistica ecc.. modificano quel file e anche xml...ma solo a scopo grafico.....
comunque io resto della mia idea:il primo crysis "crysis" per godere a pieno bisigna giocarlo in dx10......:O
fdadakjli
19-12-2009, 17:01
Dici benissimo,ma leva dalla lista GRID che è stato risolto il problema con lo SLI e QuadSLI da una vita ormai.Certo,i driver devono "seguire"il software al fine di ottimizzare il lavoro multigpu.Vedrai che presto,per il multiGPU,si sistemerà anche Dirt2 sotto multigpu.;)
dirt2 funziona benissimo in crossfire...;)
con lo sli alla fine basta attendere i prossimi forceware che sicuramente risolveranno il problema...
aaasssdddfffggg
19-12-2009, 17:03
dirt2 funziona benissimo in crossfire...;)
con lo sli alla fine basta attendere i prossimi forceware che sicuramente risolveranno il problema...
si in fatti ho specificato.I problemucci ci sono per il multigpu di nvidia al momento.Ma verrano risolti con la prossima release,come sempre d'altronde.;)
comunque io resto della mia idea:il primo crysis "crysis" per godere a pieno bisigna giocarlo in dx10......:O
x me no ;)
mapoetti
19-12-2009, 17:14
x me no ;)
:stordita:
:boh:
:friend:
x me no ;)
Quoto, capisco che grafica fa la sua parte.. ma fino a un certo punto :p
Diciamo che in DX10 su Vista/7 il realismo in generale del gioco è maggiore.
Quoto, capisco che grafica fa la sua parte.. ma fino a un certo punto :p
Diciamo che in DX10 su Vista/7 il realismo in generale del gioco è maggiore.
il fatto è che in dx9 -@ very high- su xp (o vista ecc) è uguale ;)
mapoetti
19-12-2009, 17:24
gli utenti delly,nemesi,noobever..ecc ecc...secondo tè mettono la patch o modificano il file e giocano in dx9?:D
sono qui che aspetto fermi per giocarmelo a palla in dx10...lol
comunuqe se sei convinto...
fine ot
il fatto è che in dx9 -@ very high- su xp (o vista ecc) è uguale ;)
no questo non è vero.. nemmeno con le mod per metterlo in dx10 su XP la resa è come su Vista/7 in dx10.. sono dettagli ok ma la differenza c'è e parlo per esperienza personale ;)
fdadakjli
19-12-2009, 17:27
gli utenti delly,nemesi,noobever..ecc ecc...secondo tè mettono la patch o modificano il file e giocano in dx9?:D
io ripeto che ci ho giocato quando uscì con le 8800...non mi pare vi fossero in giro ancora le patch ecc...l'ho finito così...disinstallato e dimenticato...;)
mi chiedo mediamente quante volte avete finito crysis???...a quanto leggo è abitudine rigiocarlo con ogni vga uscita...
se dovevo fare così anche io adesso mi sa che lo finirei pure bendato...lol :sofico:
be delly mi pare di aver letto che non ci gioca neanche + con crysis, da un pezzo :asd: e cmq come ci giocano gli altri a me non interessa :asd:
no questo non è vero.. nemmeno con le mod per metterlo in dx10 su XP la resa è come su Vista/7 in dx10.. sono dettagli ok ma la differenza c'è e parlo per esperienza personale ;)
in realtà con alcune mod toste diventa anche migliore del classico very high dx10, xchè spingono i parametri grafici oltre quelli del very high :asd:
chiudiamo l'ot xchè sta diventando lungo!! ;)
mapoetti
19-12-2009, 17:30
io ripeto che ci ho giocato quando uscì con le 8800...non mi pare vi fossero in giro ancora le patch ecc...l'ho finito così...disinstallato e dimenticato...;)
che tu l'abbia dimenticato è un altro discorso...evidentemente non ti piace....
comunque stiamo parlando delle differenze tra dx9 e dx10 tutto qui....
io comunque penso che se dovresti giocarlo....non starestri li a patcharlo per poi giocare in dx9...:)
fdadakjli
19-12-2009, 17:34
che tu l'abbia dimenticato è un altro discorso...evidentemente non ti piace....
non direi...mi è piaciuto un sacco...ma l'ho finito ai tempi un paio di volte...e mi basta...non vedo perchè rigiocarlo all'infinito...
anche doom, quake, duke nukem, max payne, sof, cod, fear, mafia, farcry ed altri 2000 titoli mi sono piaciuti un sacco ma non mi metto a rigiocarli ogni volta che cambio una vga... ;)
con questo crysis è di moda...ma mi sa più per vedere i numeretti con fraps che altro... :D
che tu l'abbia dimenticato è un altro discorso...evidentemente non ti piace....
comunque stiamo parlando delle differenze tra dx9 e dx10 tutto qui....
io comunque penso che se dovresti giocarlo....non starestri li a patcharlo per poi giocare in dx9...:)
beh alcune mod apportano benefici evidenti più che alla qualità grafica, al framerate, e permettono di giocarlo decentemente anche con hardware "obsoleto"(che obsoleto non è...)quindi non è proprio corretto ciò che dici...
mapoetti
19-12-2009, 17:40
non direi...mi è piaciuto un sacco...ma l'ho finito ai tempi un paio di volte...e mi basta...non vedo perchè rigiocarlo all'infinito...
anche doom, quake, duke nukem, max payne, sof, cod, fear, mafia, farcry ed altri 2000 titoli mi sono piaciuti un sacco ma non mi metto a rigiocarli ogni volta che cambio una vga... ;)
con questo crysis è di moda...ma mi sa più per vedere i numeretti con fraps che altro... :D
certo...comunque è una tua opinione.....che rispetto....
io invece la penso all'incontrario.....mi piace giocare i giochi "quelli ben fatti" soprattutto quando cambio hardware....
anche perchè del genere che piacciono a me ce ne sono pochi....
poi comunque anche per i test per mè è importante.....
tutto ciò però non riguarda alla differenza tra dx9 e dx10 :)
beh alcune mod apportano benefici evidenti più che alla qualità grafica, al framerate, e permettono di giocarlo decentemente anche con hardware "obsoleto"(che obsoleto non è...)quindi non è proprio corretto ciò che dici...
c'è mod e mod ;) quelli per maggiori performance e quelli per maggiore qualità ;)
aaasssdddfffggg
19-12-2009, 17:42
certo...comunque è una tua opinione.....che rispetto....
io invece la penso all'incontrario.....mi piace giocare i giochi "quelli ben fatti" soprattutto quando cambio hardware....
anche perchè del genere che piacciono a me ce ne sono pochi....
poi comunque anche per i test per mè è importante.....
tutto ciò però non riguarda alla differenza tra dx9 e dx10 :)
Parlo per mia esperienza personale.Sotto quadsli l'ho rimesso,installato tutte (e solo quelle)le patch ufficiali del gioco e sotto vista64 (all'epoca) l'ho rigiocato tutto a 1920x1200 tutto al massimo tranne l'aa e vsync on.Semplicmente spettacolare e appagante.Una fluidtà straordinaria che prima con lo sli di gtx280 mi sono solo potuto sognare.;)
fdadakjli
19-12-2009, 17:43
io comunque penso che se dovresti giocarlo....non starestri li a patcharlo per poi giocare in dx9...:)
si...probabile che non userei alcuna patch...
ma ai tempi quella patch mi pare venisse usata più per tenersi winxp (per chi non voleva passare a vista) e giocare dignitosamente al gioco con una qualità simile a quella ottenibile in vista+dx10 e con maggiore fluidità...o sbaglio???
mapoetti
19-12-2009, 17:45
Parlo per mia esperienza personale.Sotto quadsli l'ho rimesso,installato tutte (e solo quelle)le patch ufficiali del gioco e sotto vista64 (all'epoca) l'ho rigiocato tutto a 1920x1200 tutto al massimo tranne l'aa e vsync on.Semplicmente spettacolare e appagante.Una fluidtà straordinaria che prima con lo sli di gtx280 mi sono solo potuto sognare.;)
azz :)
si ma dx10?
fine ot
aaasssdddfffggg
19-12-2009, 17:46
azz :)
si ma dx10?
Ma ovvio.Io cerco di andare sempre avanti,mai indietro.;)
mapoetti
19-12-2009, 17:47
si...probabile che non userei alcuna patch...
ma ai tempi quella patch mi pare venisse usata più per tenersi winxp (per chi non voleva passare a vista) e giocare dignitosamente al gioco con una qualità simile a quella ottenibile in vista+dx10 e con maggiore fluidità...o sbaglio???
si..è proprio cosi...
Ma ovvio.Io cerco di andare sempre avanti,mai indietro.;)
capisco....
fdadakjli
19-12-2009, 17:48
si..è proprio cosi...
ricordavo bene allora... :D
si...probabile che non userei alcuna patch...
ma ai tempi quella patch mi pare venisse usata più per tenersi winxp (per chi non voleva passare a vista) e giocare dignitosamente al gioco con una qualità simile a quella ottenibile in vista+dx10 e con maggiore fluidità...o sbaglio???
anche si! fu con le prime patch che molti iniziarono a rendersi conto che le dx10 in crysis non servivano a nulla, visto che in dx9 era identico...ed infatti poi alla crytek fecero il warhead con il very high accessibile anche in dx9 :asd:
cmq di patch ne han fatte molte.. alcune serivano ad avere una qualità "simile" al very high con prestazioni di molto maggiori, però quella mod non metteva tutti gli effetti in very high , solo quelli + importanti :D
fdadakjli
19-12-2009, 17:50
anche si! fu con le prime patch che molti iniziarono a rendersi conto che le dx10 in crysis non servivano a nulla, visto che in dx9 era identico...
si...anche quello mi pare di ricordare :asd:
aaasssdddfffggg
19-12-2009, 17:53
Diciamo che io non mi sono mai posto il problema.Ero sotto DIRECTX10,messe tutte le patch ufficiali...e via nell'isola.:D
Ciao a tutti,senza stare a leggere 500 e passa pagine,dato ke in prima pagina nn è molto aggiornata,potrei sapere + o - quando uscirà sta benedetta nvidia fermi ?
Grazie ;)
aaasssdddfffggg
19-12-2009, 18:08
Ciao a tutti,senza stare a leggere 500 e passa pagine,dato ke in prima pagina nn l'ho trovato,potrei sapere + o - quando uscirà sta benedetta nvidia fermi ?
Grazie ;)
Sono attese per il primo q1 2010 (il q1 è il primo periodo dell'anno che inizia il 26 gennaio e termina il 26 aprile).
penso a marzo.
Sono attese per il primo q1 2010 (il q1 è il primo periodo dell'anno che inizia il 26 gennaio e termina il 26 aprile).
Azz non so se ciò tutta sta voglia di aspettare...,mi sa ke andrò di 5870... bha vedremo...
appleroof
19-12-2009, 18:21
io ripeto che ci ho giocato quando uscì con le 8800...non mi pare vi fossero in giro ancora le patch ecc...l'ho finito così...disinstallato e dimenticato...;)
mi chiedo mediamente quante volte avete finito crysis???...a quanto leggo è abitudine rigiocarlo con ogni vga uscita...
se dovevo fare così anche io adesso mi sa che lo finirei pure bendato...lol :sofico:
idem: giocato 1 volta crysis con la 88gtx e 2 volte warhead, la prima sempre con 88gtx e la seconda con la 4870 :)
fdadakjli
19-12-2009, 19:05
idem: giocato 1 volta crysis con la 88gtx e 2 volte warhead, la prima sempre con 88gtx e la seconda con la 4870 :)
io al contrario ho finito un paio di volte crysis e una sola volta warhead... :asd:
quindi nemmeno a te viene la voglia di riprovarlo x vedere che dice fraps??? heheheheh :D
fdadakjli
19-12-2009, 19:06
Azz non so se ciò tutta sta voglia di aspettare...,mi sa ke andrò di 5870...
e fai bene... ;)
appleroof
19-12-2009, 19:18
io al contrario ho finito un paio di volte crysis e una sola volta warhead... :asd:
quindi nemmeno a te viene la voglia di riprovarlo x vedere che dice fraps??? heheheheh :D
ma proprio no :D
anche perchè è ormai assodato che quel motore è stato scritto male per cui non ha senso prenderlo come benchmark...mi sarebbe sfiziato di più un motore scritto come si deve per testare come la nuova vga và rispetto alla vecchia: in passato ad esempio lo facevo con Fear e prima ancora con Half Life 2, in tempi più recenti l'unico gioco dx10 per me credibile per testare le vga è World in Conflict :)
fdadakjli
19-12-2009, 19:22
bene...la pensiamo all'incirca allo stesso modo... :)
E dai ragà basta un po' co sto c***o di Crysis!!! :p :p :D
Apparte scherzi, basta OT prima che arrivi qualche provvedimento serio ;)
fdadakjli
19-12-2009, 19:53
E dai ragà basta un po' co sto c***o di Crysis!!! :p :p :D
Apparte scherzi, basta OT prima che arrivi qualche provvedimento serio ;)
non è che siamo molto OT...la metà di quelli che qui dentro attendono Fermi hanno come obiettivo quello di rigiocare a Crysis con la nuova nVidia...hahaha... :asd: :stordita:
Questa immagine è già stata postata?
http://img96.imageshack.us/img96/4331/wtmnvidiateslafermioakr.jpg
E questa slide proveniente dal webinar del 16?
http://img.donanimhaber.com/images/haber/WTM_nvidia_tesla_fermi_fi_1_dh_fx57.jpg
Questa immagine è già stata postata?
http://img96.imageshack.us/img96/4331/wtmnvidiateslafermioakr.jpg
E questa slide proveniente dal webinar del 16?
http://img.donanimhaber.com/images/haber/WTM_nvidia_tesla_fermi_fi_1_dh_fx57.jpg
ora ho capito perchè stanno trascurando il gaming per il supercomputing, guarda che prezzi! :)
non è che siamo molto OT...la metà di quelli che qui dentro attendono Fermi hanno come obiettivo quello di rigiocare a Crysis con la nuova nVidia...hahaha... :asd: :stordita:
OT Scusa eh,ma veramente hai 2 5970 In cross ?:eek:/OT
Athlon 64 3000+
19-12-2009, 21:18
Sembra che almeno sul fronte GPGPU qualcosa venga fuori.
Peccato che quello che sta combinando Nvidia nell'ambito Gaming non mi piace per niente.
Invece che mostrare schete fasulle,fare sparate di marketing e dire che le dx11 sono inutili farebbero bene a darsi una mossa a far uscire le Geforce 360 e 380 o almeno fare una presentazione a gennaio e se poi le schede arrivano a marzo chissenefrega.
Diobrando_21
19-12-2009, 21:39
non è che siamo molto OT...la metà di quelli che qui dentro attendono Fermi hanno come obiettivo quello di rigiocare a Crysis con la nuova nVidia...hahaha... :asd: :stordita:
io rispetto a voi mi trovo in una via di mezzo...nn ho mai rigiocato un gioco in vita mia (più che altro perché già faccio fatica a trovare il tempo x giocarli una volta sola), però mi fa sempre piacere riprovare con il nuovo hardware e x piccole sessioni un gioco che nn sono riuscito a farlo giarare tutto al max ad almeno 60fps con il vecchio (quindi solo crysis)...
...e cmq nn ho dubbi: se effettuerò il cambio sarà uno SLI di gt380 :D :D ;)
ora ho capito perchè stanno trascurando il gaming per il supercomputing, guarda che prezzi! :)
ho visto una Quadro da 8200€ XD
non è che siamo molto OT...la metà di quelli che qui dentro attendono Fermi hanno come obiettivo quello di rigiocare a Crysis con la nuova nVidia...hahaha... :asd: :stordita:
mi sa di si :asd:
ora ho capito perchè stanno trascurando il gaming per il supercomputing, guarda che prezzi! :)Bisogna tenere conto di almeno 2 cose:
- il prezzo della ram ECC che costa come una martellata sui maroni
- il volume di vendita di questa tipologia di scheda, molto inferiore a quelle gaming
Quindi, almeno nei periodi iniziali, non vedo tutti questi vantaggi nel dare prioritá a questo tipo di soluzioni...
Poi magari sará un settore che spopolerá, ma di sicuro non ora.
- il volume di vendita di questa tipologia di scheda, molto inferiore a quelle gaming
.
ma con prezzi assurdamente + alti, quindi imho anche se in volumi minori i soldi penso ce li fanno un minimo!
cmq le schede professionali sono sempre costate di + rispetto alle gaming.
e fermi credo costerà imho sulle 5 - 8 volte di meno rispetto a queste tesla :fagiano:
ma con prezzi assurdamente + alti, quindi imho anche se in volumi minori i soldi penso ce li fanno un minimo!
cmq le schede professionali sono sempre costate di + rispetto alle gaming.
e fermi credo costerà imho sulle 5 - 8 volte di meno rispetto a queste tesla :fagiano:
sisi anche meno... si spera XD
ma con prezzi assurdamente + alti, quindi imho anche se in volumi minori i soldi penso ce li fanno un minimo!
cmq le schede professionali sono sempre costate di + rispetto alle gaming.
e fermi credo costerà imho sulle 5 - 8 volte di meno rispetto a queste tesla :fagiano:Quello che voglio dire, é che se moltiplichiamo la (almeno per ora) bassa richiesta con il guadagno sulle schede (che puoi star certo NON é sulle 5-8 volte piú di fermi, visto l'altissimo prezzo della ram ECC) il risultato non é tale da giustificare questa prioritá.
Come ho detto prima la situazione potrá benissimo cambiare...ma non in 1-2 mesi.
PS: guarda la differenza tra le schede a 3GB e 6GB per farti un'idea del prezzo della ram.
sisi anche meno... si spera XD
e be speriamo :asd: dipende da come andrà :D
Quello che voglio dire, é che se moltiplichiamo la (almeno per ora) bassa richiesta con il guadagno sulle schede (che puoi star certo NON é sulle 5-8 volte piú di fermi, visto l'altissimo prezzo della ram ECC) il risultato non é tale da giustificare questa prioritá.
Come ho detto prima la situazione potrá benissimo cambiare...ma non in 1-2 mesi.
PS: guarda la differenza tra le schede a 3GB e 6GB per farti un'idea del prezzo della ram.
sia che non ne sono convinto al 100%. anche mettendo il prezzo spropositato delle ram ecc penso che ci ricavino più soldi da una tesla che da un fermi a 500€ (ipotesi, ma non penso costerà di +) con gddr5 normali :fagiano: ma forse mi sbaglio io :fagiano:
inoltre non hai pensato che la priorità per queste soluzioni potrebbe derivare anche dal fatto, che x ora non riescono ad avere dei chip da gaming con frequenze elevate? quindi bassa resa e quindi quei chip li usano per le tesla che non hanno bisogno di essere spinti come quelli "più raffinati" che finiranno su geforce 380 :fagiano:
magari quelle tesla sono su step a2...
IMHO!!!!
sia che non ne sono convinto al 100%. anche mettendo il prezzo spropositato delle ram ecc penso che ci ricavino più soldi da una tesla che da un fermi a 500€ (ipotesi, ma non penso costerà di +) con gddr5 normali :fagiano: ma forse mi sbaglio io :fagiano:Non ho mai detto il contrario eh :D
Certo che ci guadagnano di piú a vendere una tesla...ho solo specificato che il guadagno su una tesla non é enormemente superiore ad una fermi anche se il prezzo di vendita lo é.
Poi oltre alla ram ECC mi sono dimenticato di mettere pure le gpu selezionate, visto che dovranno lavorare 24/7 ;)
Questi dati, quando relazionati col basso numero (ribadisco, per ora) di schede vendute rispetto a quelle gaming, fanno di questo mercato un'opzione meno vantaggiosa.
Ma é un mercato nuovo, quindi a lungo termine tutto potrá cambiare.
inoltre non hai pensato che la priorità per queste soluzioni potrebbe derivare anche dal fatto, che x ora non riescono ad avere dei chip da gaming con frequenze elevate? quindi bassa resa e quindi quei chip li usano per le tesla che non hanno bisogno di essere spinti come la geforce 380 :fagiano:
magari quelle tesla sono su step a2...
IMHO!!!!Non possono mettere degli "scarti" (notare le virgolette) su schede da 3000 dollari :)
Sono schede che devono lavorare 24 ore su 24, quindi gpu belle selezionate, anche se lavorano a frequenze conservative.
Tipo gli xeon di intel e gli opteron di amd.
e di quello che ho scritto dopo che ne pensi? :confused:
e di quello che ho scritto dopo che ne pensi? :confused:Ho editato, e aggiunto la seconda parte :)
edit.
errore mio :fagiano:
ho visto :)
xò resto dell'idea che i chip delle tesla sono chip più facili da tirare fuori x nvidia, rispetto a quelli destinati alle geforce, visto che funzionano a frequenze basse :D e deve essere così xchè vedendo quello schema, se non ho capito male, le tesla pare siano già pronte, a differenza delle geforce che richiedono chip più performanti = con frequenze spinte :asd:Guarda le date :D
Dovrebbe uscire prima fermi, con circa 3 mesi di vantaggio.
Il tempo giusto per racimolare una discreta quantitá di chip belli selezionati :fiufiu:
non avevo letto, ho solo guardato prezzi e caratteristiche tecniche :doh: :D
be cmq ho sempre il dubbio che non vengono utilizzati tutti quei chip che potrebbero perfettamente funzionare a "frequenze da tesla" ma non a frequenze da geforce. xchè che fanno? li buttano? non penso :boh:
non avevo letto, ho solo guardato prezzi e caratteristiche tecniche :doh: :DHehehe lo so, quelli saltano subito all'occhio :D
Ciao, vado a nanna :coffee:
DavidM74
20-12-2009, 02:19
Hehehe lo so, quelli saltano subito all'occhio :D
Ciao, vado a nanna :coffee:
buenas noches :D
Hehehe lo so, quelli saltano subito all'occhio :D
Ciao, vado a nanna :coffee:
ehehehe....tra febbre e ascesso..., perdonatemi se mi era sfuggito, che in queste condizioni sono un pò stordito :asd:
cmq prima di andare a letto leggi questo :D
be cmq ho sempre il dubbio che non vengono utilizzati tutti quei chip che potrebbero perfettamente funzionare a "frequenze da tesla" ma non a frequenze da geforce. xchè che fanno? li buttano? non penso :boh:
:confused:
fdadakjli
20-12-2009, 09:21
OT Scusa eh,ma veramente hai 2 5970 In cross ?:eek:/OT
certamente... :cool: :ciapet:
http://www.pctunerup.com/up/results/_200912/th_20091214084759_PICT8476small.jpg (http://www.pctunerup.com/up/image.php?src=_200912/20091214084759_PICT8476small.jpg)
ehehehe....tra febbre e ascesso..., perdonatemi se mi era sfuggito, che in queste condizioni sono un pò stordito :asd:
cmq prima di andare a letto leggi questo :D
:confused:Penso che possano essere usati per fare le prime gtx360...
Frequenze minori, qualche blocco tagliato a laser...
pasqualaccio
20-12-2009, 11:30
certamente... :cool: :ciapet:
http://www.pctunerup.com/up/results/_200912/th_20091214084759_PICT8476small.jpg (http://www.pctunerup.com/up/image.php?src=_200912/20091214084759_PICT8476small.jpg)
eheh mitico delly che realizza quello che io posso solo sognare :D
certamente... :cool: :ciapet:
http://www.pctunerup.com/up/results/_200912/th_20091214084759_PICT8476small.jpg (http://www.pctunerup.com/up/image.php?src=_200912/20091214084759_PICT8476small.jpg)
puoi postare un bench al thread del vantage ?
http://www.hwupgrade.it/forum/showthread.php?t=1733413&page=96
A marzo dovrebbe uscire Crysis 2. Quello dovrebbe essere un buon gioco per benchmark.
aaasssdddfffggg
20-12-2009, 12:01
A marzo dovrebbe uscire Crysis 2. Quello dovrebbe essere un buon gioco per benchmark.
Si certo......a marzo del 2011 però.Non sono nemmeno a metà dell'opera...;)
Si certo......a marzo del 2011 però.Non sono nemmeno a metà dell'opera...;)
facciamo in tempo a comprarci ancora due generazioni nuove di schede video prima di giocarlo :asd:
aaasssdddfffggg
20-12-2009, 12:03
facciamo in tempo a comprarci ancora due generazioni nuove di schede video prima di giocarlo :asd:
+ o -.
Si certo......a marzo del 2011 però.Non sono nemmeno a metà dell'opera...;)
sto reinstallando in questo momento crysis warhead, voglio proprio vedere come va con le due bestioline, l'avevo giocato con la gtx295, e cmq già andava molto bene :)
aaasssdddfffggg
20-12-2009, 12:09
sto reinstallando in questo momento crysis warhead, voglio proprio vedere come va con le due bestioline, l'avevo giocato con la gtx295, e cmq già andava molto bene :)
comunque il primo CRYSIS resta superiore in qualità grafica rispetto al secondo.Non ci sono dubbi su questo.Il secondo sembra quasi che abbiano dovuto optare per qualche compromesso,per accontentare un po' meglio tutta la clientela.;)
Si certo......a marzo del 2011 però.Non sono nemmeno a metà dell'opera...;)
Un uscita a marzo è improbabile, però credo che per fine 2010 sarà pronto.
D'altronde l'engine (CE3) è già in vendita, e natale 2010 sarà importante se vogliono vendere sulle console.
comunque il primo CRYSIS resta superiore in qualità grafica rispetto al secondo.Non ci sono dubbi su questo.Il secondo sembra quasi che abbiano dovuto optare per qualche compromesso,per accontentare un po' meglio tutta la clientela.;)
Warhead? Non ho giocato nessun Crysis, ma rispetto al primo l'engine di Warhead ha un migliore sistema particellare.
aaasssdddfffggg
20-12-2009, 12:21
Un uscita a marzo è improbabile, però credo che per fine 2010 sarà pronto.
D'altronde l'engine (CE3) è già in vendita, e natale 2010 sarà importante se vogliono vendere sulle console.
si,i piani inziali di CRYTEK erano proprio quelli di lanciarlo entro la fine del 2010....sempre se non incotrano intoppi.;)
aaasssdddfffggg
20-12-2009, 12:22
Warhead? Non ho giocato nessun Crysis, ma rispetto al primo l'engine di Warhead ha un migliore sistema particellare.
guarda ,gioca a WARHEAD e poi torna sull'isola di CRYSIS.Noterai a vista d'occhio come l'engine sia stato più snellito in warhead rispetto al primo.Soffermati sulle piante e sugli alberi e capirai da solo come il primo CRYSIS resta superiore e senza compromessi sulla grafica.
davide155
20-12-2009, 12:32
Warhead? Non ho giocato nessun Crysis, ma rispetto al primo l'engine di Warhead ha un migliore sistema particellare.
Come fai a dirlo se sostieni di non aver mai giocato a nessun Crysis? è proprio quello che hanno ridotto il sistema particellare :asd:
Guardati le esplosioni anche dei semplici barili infiammabili, prima in crysis e poi in warhead. Nel secondo hanno la metà degli effetti grafici particellari
Però da qualche parte dovevano pur tirare il lenzuolo.....
Penso che possano essere usati per fare le prime gtx360...
Frequenze minori, qualche blocco tagliato a laser...
possibile si....se la 360 avrà frequenze basse come le tesla... altrimenti se le avesse + alte certi chip non andrebbero bene neanche per questa scheda :fagiano: !
guarda ,gioca a WARHEAD e poi torna sull'isola di CRYSIS.Noterai a vista d'occhio come l'engine sia stato più snellito in warhead rispetto al primo.Soffermati sulle piante e sugli alberi e capirai da solo come il primo CRYSIS resta superiore e senza compromessi sulla grafica.
ma che mattone non me lo ricordavo più, per avere una 60ina di fps fluidi a 1920x1200 dvo mettere filtri 4x e tutto su gamer, ma è normale con due 5870 secondo te?
aaasssdddfffggg
20-12-2009, 13:15
ma che mattone non me lo ricordavo più, per avere una 60ina di fps fluidi a 1920x1200 dvo mettere filtri 4x e tutto su gamer, ma è normale con due 5870 secondo te?
Si è normale.Magari leva l'aa a 1920x1200 (il cryengine2 usa già di per se l'edge aa)già sei apposto e alza il livello di dettaglio.
Si è normale.Magari leva l'aa a 1920x1200 (il cryengine2 usa già di per se l'edge aa)già sei apposto e alza il livello di dettaglio.
cmq vero ho visto i bench della 5970 e siamo li, un mattonazzo spaventoso, ma daltronde ha degli spazi aperti micidiali.
quindi tolgo completamente l'aa e metto su enthusiast?
ma che mattone non me lo ricordavo più, per avere una 60ina di fps fluidi a 1920x1200 dvo mettere filtri 4x e tutto su gamer, ma è normale con due 5870 secondo te?
leva l'aa e rimani con edgeaa ;)!
aaasssdddfffggg
20-12-2009, 13:19
cmq vero ho visto i bench della 5970 e siamo li, un mattonazzo spaventoso, ma daltronde ha degli spazi aperti micidiali.
quindi tolgo completamente l'aa e metto su enthusiast?
Si.E' pesante perchè come CRYSIS ancora non ce nulla dopo 2 anni.Il CRYENGINE2 è un motore grafico spaventoso.
Si.
ottimo grazie ora provo ;)
ma che mattone non me lo ricordavo più, per avere una 60ina di fps fluidi a 1920x1200 dvo mettere filtri 4x e tutto su gamer, ma è normale con due 5870 secondo te?In DX10 o 9? Se imposti le 9 è molto più leggero per le radeon. Forse con Fermi ci giocheremo bene. :D
mapoetti
20-12-2009, 16:16
Si.E' pesante perchè come CRYSIS ancora non ce nulla dopo 2 anni.Il CRYENGINE2 è un motore grafico spaventoso.
:asd:
sertopica
20-12-2009, 16:18
cmq vero ho visto i bench della 5970 e siamo li, un mattonazzo spaventoso, ma daltronde ha degli spazi aperti micidiali.
quindi tolgo completamente l'aa e metto su enthusiast?
Consiglio personale: metti tutto al max (tranne AA ed AF) e, da console, inserisci questi 4 comandi (nell'ordine che ti ho scritto):
con_restricted=0
r_texturesstreaming=0
e_lods=0 (non indispensabile ma migliora ulteriormente la qualità visiva, anche se talvolta mazzula il framerate quando c'è un orizzonte visivo ampio)
r_useedgeaa=2 (una versione migliore dell'edgeaa usato di default)
Tanto ci sono tanti di quei poligoni che l'aliasing si nota poco... :asd:
Fine OT direi... :D
mapoetti
20-12-2009, 16:19
comunque il primo CRYSIS resta superiore in qualità grafica rispetto al secondo.Non ci sono dubbi su questo.Il secondo sembra quasi che abbiano dovuto optare per qualche compromesso,per accontentare un po' meglio tutta la clientela.;)
menomale che qualcuno la pensa come mè....:)
ps:da ieri fino al 29 dicembre si può scaricare crysis wars che è il multy player di crysis warhead gratis...è un ottima possibilità per chi non possiede il gioco e per testare le vostre bestioline :)
kinotto88
20-12-2009, 17:24
ps:da ieri fino al 29 dicembre si può scaricare crysis wars che è il multy player di crysis warhead gratis...è un ottima possibilità per chi non possiede il gioco e per testare le vostre bestioline :)
vero, la settimana di natale si può giocare al multi gratuitamente è sufficiente essere iscritti a mycrysis.com..
In DX10 o 9? Se imposti le 9 è molto più leggero per le radeon. Forse con Fermi ci giocheremo bene. :D
dx 9
Consiglio personale: metti tutto al max (tranne AA ed AF) e, da console, inserisci questi 4 comandi (nell'ordine che ti ho scritto):
con_restricted=0
r_texturesstreaming=0
e_lods=0 (non indispensabile ma migliora ulteriormente la qualità visiva, anche se talvolta mazzula il framerate quando c'è un orizzonte visivo ampio)
r_useedgeaa=2 (una versione migliore dell'edgeaa usato di default)
Tanto ci sono tanti di quei poligoni che l'aliasing si nota poco... :asd:
Fine OT direi... :D
grazie :)
proverò
puoi postare un bench al thread del vantage ?
http://www.hwupgrade.it/forum/showthread.php?t=1733413&page=96
Nella sua firma puoi trovare il link alla sua pagina di HWBot... Lì ci sono quanti bench vuoi... delly è uno dei più importanti overclockers italiani... ;)
halduemilauno
21-12-2009, 10:20
edit
Foglia Morta
21-12-2009, 10:25
[IMG]http://img94.imageshack.us/img94/957/amdslideshd5870vsfermi1.jpg[IMG]
[IMG]http://img94.imageshack.us/img94/8315/amdslideshd5870vsfermi1m.jpg[IMG]
Roba del 14 Ottobre: http://www.hardocp.com/article/2009/10/14/amd_briefing_eric_demers/ e postata al tempo che fu
Gabriyzf
21-12-2009, 12:46
vedendo quelle slides, Fermi sembra nettamente inferiore alla 5870
halduemilauno
21-12-2009, 12:53
edit
Roba del 14 Ottobre: http://www.hardocp.com/article/2009/10/14/amd_briefing_eric_demers/ e postata al tempo che fu
ok.
halduemilauno
21-12-2009, 12:55
vedendo quelle slides, Fermi sembra nettamente inferiore alla 5870
come tutte le nvidia degli ultimi tre anni e magari +. poi invece...
e cmq sempre in attesa di tutti i riscontri del caso.
aaasssdddfffggg
21-12-2009, 13:05
come tutte le nvidia degli ultimi tre anni e magari +. poi invece...
e cmq sempre in attesa di tutti i riscontri del caso.
...in fondo in quelle slides ,ATI stava lanciando la sua nuova serie.:)
Foglia Morta
21-12-2009, 13:25
768 Gflops in DP significa 1.500 Mhz per lo shader core. 520 Gflops in DP vuol dire poco più di 1.000 Mhz e 630 Gflops circa 1.230 Mhz . Frequenze molto più basse di quelle di cui parlava Rys. Nell' attuale generazione le schede Tesla hanno una frequenza di circa il 10% più basse rispetto alla versione desktop. O sono versioni ultra-castrate che vogliono vendere per monetizzare qualcosa il più presto possibile in attesa della versione buona oppure si sono rassegnati a tenersi quelle frequenze :confused:
Kharonte85
21-12-2009, 13:40
Notavo questa cosa:
Le stime di AMD parlano di 768GFLOPS DP mentre la slide nVidia sulle Tesla C20 dicono 520/630.
Visto che le stime AMD vengono da un whitepaper nVidia la questione del problema nel raggiungere il target di frequenza è abbastanza palese, con un caso peggiore (520) addirittura imbarazzante, visto che è addirittura inferiore a Cypress in un ambito in cui la potenza teorica è tutto e che dovrebbe essere il cavallo di battaglia dell'architettura Fermi.
Vediamo cosa succede, soprattutto riguardo alle versioni GeForce che in teoria potrebbero avere frequenze più alte...
Infatti le stime di AMD si riferiscono alla versione Geforce e sono fatte ipotizzando una frequenza degli Shader di 1500Mhz; nelle versioni Tesla stando a quei numeri le frequenze di clock sono decisamente più basse (attorno ai 1200).
Kharonte85
21-12-2009, 13:49
Fermi tutti!
Credo di aver fatto una scoperta clamorosa
http://i47.tinypic.com/hry4ae.jpg
Direttamente da un documento ufficiale di Nvidia:
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
http://digilander.libero.it/arosati76/Noname.gif
Per chi fosse paricolarmente distratto: gli Stream processor sono 448 invece dei 512 che usavamo per fare i conti.
Questo significa che probabilmente nvidia sta usando per le tesla le GPU "di scarto".
Andrea deluxe
21-12-2009, 13:51
:D
Foglia Morta
21-12-2009, 13:53
225W la versione castrata di due cluster... stanno freschi :D
Fermi tutti!
Credo di aver fatto una scoperta clamorosa
[IMG]http://i47.tinypic.com/hry4ae.jpg/IMG]
Direttamente da un documento ufficiale di Nvidia:
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
[IMG]http://digilander.libero.it/arosati76/Noname.gif/IMG]
Per chi fosse paricolarmente distratto: gli Stream processor sono 448 invece dei 512 che usavamo per fare i conti.
Questo significa che probabilmente nvidia sta usando per le tesla le GPU "di scarto".Non possono usare le gpu di scarto su tesla ;)
Le date di rilascio della scheda parlano chiaro.
Sono schede care, che devono funzionare 24 ore su 24 e hanno software e garanzie particolari. Sono gli xeon/opteron di nVidia.
Probabilmente, visto l'alto quantitativo di ram che possiedono, hanno dovuto ridurre il numero di SP per rientrare nei consumi previsti.
halduemilauno
21-12-2009, 13:59
Fermi tutti!
Credo di aver fatto una scoperta clamorosa
http://i47.tinypic.com/hry4ae.jpg
Direttamente da un documento ufficiale di Nvidia:
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
http://digilander.libero.it/arosati76/Noname.gif
Per chi fosse paricolarmente distratto: gli Stream processor sono 448 invece dei 512 che usavamo per fare i conti.
Questo significa che probabilmente nvidia sta usando per le tesla le GPU "di scarto".
può essere. cmq...qui(GF100)son 512...
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png
;)
Andrea deluxe
21-12-2009, 14:01
forse hanno castrato le tesla per stare entro i 225w....
forse hanno castrato le tesla per stare entro i 225w....
le tesla sono schede concepite per stare praticamente sempre h24 a pieno regime a macinare calcoli, quindi non possono essere fornetti come le schede pensate per il gaming.
I misteri aumentano :asd:
Unico dubbio è l'alimentazione. Se ha un 2x4 e un 2x3 vuol dire che a 225W ci siamo, quindi un gran spazio per farne una versione desktop a 512SP aumentando anche le frequenze non c'è...
Vebbè è la novella dello stento, aspettiamo e vediamo...C'é da dire che le tesla hanno 3GB e 6GB di ram, che non consumano poco...
Credo che con 512SP e 1.5GB ci rientreranno nei 225W, anche se staranno molto a ridosso.
Solo le prestazioni potranno dirci se questo consumo sará giustificabile o no, una 5870 arriva a 180W.
Kharonte85
21-12-2009, 14:09
225W la versione castrata di due cluster... stanno freschi :D
Quello è il TDP in realtà leggendo tutto il resto si vede come la scheda funzioni anche con meno potenza, funziona anche con un connettore da 8pin.
Non possono usare le gpu di scarto su tesla ;)
Le date di rilascio della scheda parlano chiaro.
Sono schede care, che devono funzionare 24 ore su 24 e hanno software e garanzie particolari. Sono gli xeon/opteron di nVidia.
Probabilmente, visto l'alto quantitativo di ram che possiedono, hanno dovuto ridurre il numero di SP per rientrare nei consumi previsti.
GPU di "scarto" non significa che non vanno :D
Ci saranno mille motivi per fare così che noi non conosciamo, quello pero' che adesso sappiamo è che non sono le frequenze il "problema" (fino a 1400 ci arrivano).
E poi la scheda è lunga solo 24.8 cm :confused:
greeneye
21-12-2009, 14:12
Sacrificare 2 cluster serve per incrementare le rese (probabilmente per ora i chip 'perfetti' sono probabilmente un'utopia).
E' la stessa politica di ati che, secondo le voci di corridoio, sacrifica 400 shader nelle 5870.
GPU di "scarto" non significa che non vanno :D
Ci saranno mille motivi per fare così che noi non conosciamo, quello pero' che adesso sappiamo è che non sono le frequenze il "problema" (fino a 1400 ci arrivano).
E poi la scheda è lunga solo 24.8 cmCerto che lo so, infatti qualche post fa rispondevo sullo stesso argomento con Persa.
Le tesla sono schede di alto livello e funzionano 24 ore su 24.
Devono quindi reggere frequenze molto maggiori di quelle dichiarate, per avere il 101% di stabilitá a default.
Ti faccio l'esempio di uno xeon: ha frequenze inferiori rispetto ai core i7, eppure ha un silicio piú pregiato.
Molti overclockers li preferiscono perché arrivano a frequenze piú alte con minor voltaggio. Mi pare ovvio che non sono gli "scarti", ma i chip meglio riusciti.
Con tesla é lo stesso discorso...
É mooolto piú probabile che gli "scarti" siano usati per le gtx360 ;)
Foglia Morta
21-12-2009, 14:17
Quello è il TDP in realtà leggendo tutto il resto si vede come la scheda funzioni anche con meno potenza, funziona anche con un connettore da 8pin.
lo so , ed è su quello che si basano per fissare le specifiche
Severnaya
21-12-2009, 14:21
Fermi tutti!
sei bastard inside :asd:
halduemilauno
21-12-2009, 14:29
Certo che lo so, infatti qualche post fa rispondevo sullo stesso argomento con Persa.
Le tesla sono schede di alto livello e funzionano 24 ore su 24.
Devono quindi reggere frequenze molto maggiori di quelle dichiarate, per avere il 101% di stabilitá a default.
Ti faccio l'esempio di uno xeon: ha frequenze inferiori rispetto ai core i7, eppure ha un silicio piú pregiato.
Molti overclockers li preferiscono perché arrivano a frequenze piú alte con minor voltaggio. Mi pare ovvio che non sono gli "scarti", ma i chip meglio riusciti.
Con tesla é lo stesso discorso...
É mooolto piú probabile che gli "scarti" siano usati per le gtx360 ;)
esatto.
sickofitall
21-12-2009, 14:37
appunto, secondo me le 5850 di ati non sono delle 5870 venute male, ma hanno semplicemente disattivato un blocco
con le tesla sarà uguale, mentre gli scarti li useranno per la 360 :)
la butto li....ma non potrebbe essere che useranno anche chip da 448shader per una gts350? ( o gt350) ??
gts350 448 shader 1400mhz 600mhz core 256bit
gtx360 480 shader 1500mhz 650mhz core 320bit
gtx380 512 shader 1600mhz 700mhz core 384bit
che dite? :fagiano:
appunto, secondo me le 5850 di ati non sono delle 5870 venute male, ma hanno semplicemente disattivato un blocco
con le tesla sarà uguale, mentre gli scarti li useranno per la 360 :)
...si ma qui i documenti di nVidia sono stati ritoccati verso il basso di un 10%...
...ciao Andrea...
Kharonte85
21-12-2009, 15:25
Uhm non credo, soprattutto per una Tesla. Come sappiamo ormai basta un furmark per sforare il TDP in consumi di una qualunque scheda e una VGA adibita al GPU Computing mi immagino che sfrutti la potenza grezza che ha, altrimenti non avrebbe senso farsi così tanto mazzo per portare i calcoli su GPU se poi sta a girarsi i pollici :D
Il discorso però potrebbe essere valido per il gaming, anche se la GTX280 insegna che chi la scheda la produce non si sogna nemmeno per un attimo di fidarsi di questa eventualità (tant'è che quella scheda, appunto, con un TDP di 228W è uscita con alimentazioni per 300W, proprio come dovrebbe essere questa Tesla)
Non è detto che ci arrivino a 1400, in quel documento c'è un range, più stretto rispetto a quello della slide precedente, presumibilmente perché stanno arrivando pian piano alle specifiche finali, ma è pur sempre un range ;)
Pero' prima il range ipotizzato era da 1000 a 1200, mi pare ci sia una bella differenza, e considerando che da sempre queste schede sono più conservative è ipotizzabile che le versioni Geforce almeno a 1500, se non di più (considerando che sono in revision a3 e il pp@40nm dovrebbe andare migliorando) ci arriveranno.
Sul TDP come detto da altri influisce anche il quantitativo di memoria; direi che togliendo quei tagli di memoria pazzeschi e altre menate quali ECC potrebbero rientrare nei 225W che comunque ricordo che sono ancora pochi rispetto ai 236W di TDP della GTX 280.
Certo che lo so, infatti qualche post fa rispondevo sullo stesso argomento con Persa.
Le tesla sono schede di alto livello e funzionano 24 ore su 24.
Devono quindi reggere frequenze molto maggiori di quelle dichiarate, per avere il 101% di stabilitá a default.
Ti faccio l'esempio di uno xeon: ha frequenze inferiori rispetto ai core i7, eppure ha un silicio piú pregiato.
Molti overclockers li preferiscono perché arrivano a frequenze piú alte con minor voltaggio. Mi pare ovvio che non sono gli "scarti", ma i chip meglio riusciti.
Con tesla é lo stesso discorso...
É mooolto piú probabile che gli "scarti" siano usati per le gtx360 ;)
In questo caso non si capirebbe come mai non utilizzare una GPU a 512SP (che sono ormai più volte dati per certi su Fermi) e frequenze più basse, come si pensava appunto prima che io facessi la scoperta del secolo :sofico:
Altri dati interessanti dal documento:
E' datato 16 Nov.
http://i47.tinypic.com/1t3a6c.jpg
http://i46.tinypic.com/rvjzpi.jpg
Kharonte85
21-12-2009, 16:12
Uhm... si erano ipotizzati 1000-1200 a partire dai FLOPS dichiarati (520-630) e dai 512SP.
Essendo 448 quelle frequenze erano sbagliate in partenza e avremmo dovuto ipotizzare frequenze fra 1250 e 1400, che sono quelle che si vedono nel documento che hai scovato ;)
Esatto
Poi si possono evincere anche le frequenze delle memorie GDDR5 che sono da 3600 Mhz a 4000 Mhz (nvidia in queste tabelle dice da 1.8 Ghz a 2.0 Ghz), dato che il documento cita un "more than 170Gb/sec" pero' è probabile che siano stati conservativi dato il quantitativo.
Nessuna nuova sul fronte geforce? scusate ma mi sono preso indietro con le pagine. mi basta un sì o, come probabile, un no. su gamesvillage hanno postato da guru3d dei benchmark ma sono quasi di sicuro dei fake, in ogni caso dateci un'occhiata
fdadakjli
21-12-2009, 16:32
Nessuna nuova sul fronte geforce? scusate ma mi sono preso indietro con le pagine. mi basta un sì o, come probabile, un no. su gamesvillage hanno postato da guru3d dei benchmark ma sono quasi di sicuro dei fake, in ogni caso dateci un'occhiata
aspetta ancora qualche mese...:p
sono fake...;)
AgonizedPhobos
21-12-2009, 17:30
Esatto
Poi si possono evincere anche le frequenze delle memorie GDDR5 che sono da 3600 Mhz a 4000 Mhz (nvidia in queste tabelle dice da 1.8 Ghz a 2.0 Ghz), dato che il documento cita un "more than 170Gb/sec" pero' è probabile che siano stati conservativi dato il quantitativo.
Sono d'accordo su quanto dici.
appleroof
21-12-2009, 17:42
Fermi tutti!
:asd: :asd: :asd:
Credo di aver fatto una scoperta clamorosa
cut
Direttamente da un documento ufficiale di Nvidia:
cut
Per chi fosse paricolarmente distratto: gli Stream processor sono 448 invece dei 512 che usavamo per fare i conti.
Questo significa che probabilmente nvidia sta usando per le tesla le GPU "di scarto".
probabile, e chi sà che non spieghi in parte i dati inferiori alle attese, quanto alle prestazioni in fp64 (cmq già uguali a cypress, se ricordo bene) che commentava yossarian qualche tempo fà su questo tread
p.s.: finalmente qualcosa di più concreto da commentare :)
Kharonte85
21-12-2009, 18:29
:asd: :asd: :asd:
:asd:
probabile, e chi sà che non spieghi in parte i dati inferiori alle attese, quanto alle prestazioni in fp64 (cmq già uguali a cypress, se ricordo bene) che commentava yossarian qualche tempo fà su questo tread
p.s.: finalmente qualcosa di più concreto da commentare :)
Provando a ragionarci un po' su:
Che senso avrebbe per nvidia progettare una GPU con 512 core per poi usarne solo 448 sui modelli in assoluto più costosi?
Forse vuole contenere i consumi? Ma si otterrebbe lo stesso risultato con 512SP diminuendo le frequenze (che era appunto quello che pensavamo prima), lasciandosi poi maggiori margini per modelli futuri a frequenze maggiori.
L'unica alternativa valida è che gli conviene fare così. Cioè forse le rese delle sue GPU a 512SP funzionanti correttamente erano/sono troppo basse? Fermi è pensato per avere 512sp ma li vedremo sulle schede GF100?
Una cosa Nvidia l'ha dimostrata (anche se contro la mia curiosità nulla ha potuto :O ): che ha ancora qualche segreto da svelare ;)
appleroof
21-12-2009, 18:33
:asd:
Provando a ragionarci un po' su:
Che senso avrebbe per nvidia progettare una GPU con 512 core per poi usarne solo 448 sui modelli in assoluto più costosi?
Forse vuole contenere i consumi? Ma si otterrebbe lo stesso risultato con 512SP diminuendo le frequenze (che era appunto quello che pensavamo prima), lasciandosi poi maggiori margini per modelli futuri a frequenze maggiori.
L'unica alternativa valida è che gli conviene fare così. Cioè forse le rese delle sue GPU a 512SP funzionanti correttamente erano/sono troppo basse? Fermi è pensato per avere 512sp ma li vedremo sulle schede GF100?
Una cosa Nvidia l'ha dimostrata (anche se contro la mia curiosità nulla ha potuto :O ): che ha ancora qualche segreto da svelare ;)
:D
credo che le ipotesi che fai sono tutte valide e non è detto che si escludano a vicenda se mi spiego...
Kharonte85
21-12-2009, 19:15
Più che a scopo progettare mi viene da chiedere a che scopo pubblicare le specifiche con 512SP nella presentazione ufficiale dell'architettura per poi commercializzarla con 448SP massimi. E visto che la presentazione ufficiale era orientata decisamente al GPU Computing e non certo al Gaming il fatto che l'architettura ufficiale venga rimaneggiata proprio in quell'ambito è segnale decisamente preoccupante.
Il tutto se queste cose finiranno per essere confermate, anche se venendo da un documento nVidia non vedo perché non dovrebbero...
E' la cosa a cui pensavo anche io...oppure non è vero che nvidia si sia convertita del tutto al GPU computing (e questa soluzione per tesla sarebbe nata per massimizzare i vantaggi) e in GF100 vedremo i 512 SP che ci aspettiamo :boh:
:asd:
Provando a ragionarci un po' su:
Che senso avrebbe per nvidia progettare una GPU con 512 core per poi usarne solo 448 sui modelli in assoluto più costosi?
Forse vuole contenere i consumi? Ma si otterrebbe lo stesso risultato con 512SP diminuendo le frequenze (che era appunto quello che pensavamo prima), lasciandosi poi maggiori margini per modelli futuri a frequenze maggiori.
L'unica alternativa valida è che gli conviene fare così. Cioè forse le rese delle sue GPU a 512SP funzionanti correttamente erano/sono troppo basse? Fermi è pensato per avere 512sp ma li vedremo sulle schede GF100?
Una cosa Nvidia l'ha dimostrata (anche se contro la mia curiosità nulla ha potuto :O ): che ha ancora qualche segreto da svelare ;)
Più che a scopo progettare mi viene da chiedere a che scopo pubblicare le specifiche con 512SP nella presentazione ufficiale dell'architettura per poi commercializzarla con 448SP massimi. E visto che la presentazione ufficiale era orientata decisamente al GPU Computing e non certo al Gaming il fatto che l'architettura ufficiale venga rimaneggiata proprio in quell'ambito è segnale decisamente preoccupante.
Il tutto se queste cose finiranno per essere confermate, anche se venendo da un documento nVidia non vedo perché non dovrebbero...
Da una cosa del genere si possono fare alcune illazioni, imho, tutte più o meno verosimili:
1) Il sample mostrato da JHH era effettivamente farlocco, tanto farlocco da non essere ancora sicuri di potersi permettere certe specifiche. Perchè mi sbaglio o JHH aveva parlato chiaramente di 512SP pure per la Fermi di Tesla? Ed ambedue i documenti/annunci sono certamente veri (l'ultimo è più aggiornato, quindi più vicino alla realtà, credo)
2) Alla NVidia sapevano del problema di rese, ma speravano di poterle risolvere con la terza revision. Cosa che però non è avvenuta, spingendoli a fare retromarcia sulle specifiche, pompando maggiormente sulle frequenze, nei limiti che permettono le quantità ingenti di ram da alimentare...
3) Che anche le GTX380 siano a 448SP, con solo frequenze maggiormente pompate (consentite dal fatto che ovviamente non vedremo 3GB - 6GB su schede destinate al mercato consumer, quindi si ottiene un po' di headroom)?
Andrea deluxe
21-12-2009, 19:24
http://www.techpowerup.com/111029/Hynix_Introduces_World_s_First_40_nm_Class_2_Gb_GDDR5_DRAM.html
:fiufiu:
Dal momento che i 448SP dovevano essere quelli della versione "castrata" della scheda, non escluderei che possano uscire inizialmente solo con questa ed in seguito, con il migliorare del processo produttivo e quindi delle rese, fare uscire la versione con i 512 SP.
Insomma, Tesla con 512 SP potrebbe subire semplicemente un ritardo e non un annullamento. E questo potrebbe valere anche per le versioni gaming.
sickofitall
21-12-2009, 19:54
secondo voi è possibile che nvidia possa fare una mossa come fece ati con x1800 e x1900? nel senso che magari intanto mette sul mercato la scheda, e nello stesso momento continuerà lo sviluppo presentando più avanti una versione "pompata"
Che fosse farlocco è assodato, i 512SP vengono da nVidia stessa al famoso press event in cui JHH teneva in mano la patacca:
Eppure mi sembra talmente assurdo...
Sul sito NVidia si continua a parlare di 512SP... Boh, magari hai ragione tu e fanno uscire una top di gamma vaporware a 512SP (in quantitativi almeno necessari per inviarle alle redazioni) e poi le GTX360 in volumi... :boh:
Dal momento che i 448SP dovevano essere quelli della versione "castrata" della scheda, non escluderei che possano uscire inizialmente solo con questa ed in seguito, con il migliorare del processo produttivo e quindi delle rese, fare uscire la versione con i 512 SP.
Insomma, Tesla con 512 SP potrebbe subire semplicemente un ritardo e non un annullamento. E questo potrebbe valere anche per le versioni gaming.
Tutto è possibile, però sinceramente un Fermi anche con frequenze non basse, a 448SP potrebbe non essere abbastanza per battere RV870 nella misura che gli servirebbe per giustificare il prezzo sicuramente più alto di queste schede, sempre che riescano a batterlo.
Senza considerare che per una cosa del genere potrebbero volerci mesi, e considerando che già GF100 as it is lo vedremo a marzo... Considera pure che tra una balla e l'altra a settembre-ottobre 2010 verrebbe fuori RV970, probabilmente.
@Kharonte85:
Ho già provveduto a diffondere la scoperta... :asd: Io ho postato su Beyond3D, e da lì un utente di B3D su XtremeSystems.
Il tam tam è iniziato, scommettiamo che tra qualche ora/giorno la ritroviamo su Fudzilla? :asd:
secondo voi è possibile che nvidia possa fare una mossa come fece ati con x1800 e x1900? nel senso che magari intanto mette sul mercato la scheda, e nello stesso momento continuerà lo sviluppo presentando più avanti una versione "pompata"
E dopo mesi di attesa e di ritardo sulla concorrente uscire con una VGA più lenta? Non credo proprio, sarebbe un bruttissimo flop, perdipiù dopo il flop dato dal ritardo, specie se il tutto è stato condito con mosse ad arte per alimentare le speranze di un modello velocissimo.
Io penso che cercheranno di uscire, magari anche ritardando, con una VGA più veloce e comunque con il meglio che si possa fare.
Kharonte85
21-12-2009, 20:21
Eppure mi sembra talmente assurdo...
Sul sito NVidia si continua a parlare di 512SP... Boh, magari hai ragione tu e fanno uscire una top di gamma vaporware a 512SP (in quantitativi almeno necessari per inviarle alle redazioni) e poi le GTX360 in volumi... :boh:
sì, potrebbero farlo...:boh:
@Kharonte85:
Ho già provveduto a diffondere la scoperta... :asd: Io ho postato su Beyond3D, e da lì un utente di B3D su XtremeSystems.
Il tam tam è iniziato, scommettiamo che tra qualche ora/giorno la ritroviamo su Fudzilla? :asd:
Ottimo...:asd:
A me basta di non ritrovarmi gli nvidia-Men alla porta di casa...:ops: :D
Severnaya
21-12-2009, 20:40
sì, potrebbero farlo...:boh:
Ottimo...:asd:
A me basta di non ritrovarmi gli nvidia-Men alla porta di casa...:ops: :D
e ti sparafleshano con una versione farlocca di Fermi? :asd:
dejavù :D
Eyes Of The tiger
21-12-2009, 20:45
Eppure mi sembra talmente assurdo...
Sul sito NVidia si continua a parlare di 512SP... Boh, magari hai ragione tu e fanno uscire una top di gamma vaporware a 512SP (in quantitativi almeno necessari per inviarle alle redazioni) e poi le GTX360 in volumi... :boh:
Tutto è possibile, però sinceramente un Fermi anche con frequenze non basse, a 448SP potrebbe non essere abbastanza per battere RV870 nella misura che gli servirebbe per giustificare il prezzo sicuramente più alto di queste schede, sempre che riescano a batterlo.
Senza considerare che per una cosa del genere potrebbero volerci mesi, e considerando che già GF100 as it is lo vedremo a marzo... Considera pure che tra una balla e l'altra a settembre-ottobre 2010 verrebbe fuori RV970, probabilmente.
vorrei ricordarti che la 5870 è superiore solo un 30% rispetto ad una GTX 285 da 240 stream e vecchia architettura, senza considerare che da quando è uscito nel web dovrebbe avere valori molto alti di banda, fillrate, tmu, rops e altro ancora, quindi immagino i colli di bottiglia decisamente più ristretti della 58xx.
ovviamente poi non tutti vogliono un prezzo prestazioni, basta solo un nome, un titolo per cominciare a forzare la mano con pubblicità e strategie di marketing.
secondo voi quando usciranno?
Marscorpion
21-12-2009, 21:29
secondo voi quando usciranno?
Secondo le ultime voci non prima di Marzo......
Secondo le ultime voci non prima di Marzo......
e il prezzo sarà alto immagino?
Kharonte85
21-12-2009, 22:01
e ti sparafleshano con una versione farlocca di Fermi? :asd:
dejavù :D
Speriamo di no :D
Foglia Morta
21-12-2009, 23:57
Speriamo di no :D
Sei la fonte: http://www.semiaccurate.com/2009/12/21/nvidia-castrates-fermi-448sps/
Kharonte85
22-12-2009, 00:41
Sei la fonte: http://www.semiaccurate.com/2009/12/21/nvidia-castrates-fermi-448sps/
:rotfl: :rotfl: :rotfl:
Almeno per una volta sono sicuro che non spara caxxate...:asd:
Edit: i suoi ragionamenti pero' sono al solito...
molochgrifone
22-12-2009, 07:50
:rotfl: :rotfl: :rotfl:
Almeno per una volta sono sicuro che non spara caxxate...:asd:
Edit: i suoi ragionamenti pero' sono al solito...
Effettivamente l'articolo è mostruosamente fazioso, considerato che noi sappiamo qual è l'origine dello stesso :rolleyes:
Faccio una domanda da ignorantissimo: perché per cercare di capire il potenziale di Fermi in ambito game non si testa una Tesla? Sono così profondamente diverse (SP, RAM) da dare indicazioni del tutto sballate o per altri motivi (costi, ecc.)?
x.vegeth.x
22-12-2009, 07:52
sento puzza di fail
Non ho capito il concetto. L'origine dell'articolo è il documento ufficiale nVidia scovato da Kharonte. Perché fazioso dunque, visto che le fonti sono due, nVidia e nVidia, quindi entrambe ufficiali, una che dice 512SP e l'altra 448SP? Hanno detto ufficialmente 512SP con il paperlaunch dell'architettura fatto spudoratamente per cercare di distogliere dell'attenzione dalle HD5xxx, e ora sono costretti a ritrattare per l'impossibilità di fare quello che speravano (e ci speravano solamente, visto che non avevano una sola VGA funzionante al tempo).
quoto, tuttavia secondo me il progetto di per sè è notevole, sebbene forzato poichè Nvidia DEVE trovare uno sbocco commerciale alternativo alle semplici vga (chipset r.i.p.), il problema è che Nvidia forse dovrebbe attendere un pp migliore, in grado di contenere le richieste termiche ed elettriche. Mi sembra il problema della 2900 a 80nm o del phenom1 a 65nm, entrambi migliorati da un pp successivo.
cmq, "Si attendono tutti i riscontri del caso".. (cit)
Eyes Of The tiger
22-12-2009, 08:28
sento puzza di fail
non credo, il distacco dalla attuale 285 non è nulla di chè, non credo ci voglia tanto a colmarlo o almeno ad essere competitivi al peggior dei casi. se parli di prezzo, io sono disposto a pagarla senza problemi.
Eyes Of The tiger
22-12-2009, 08:44
:asd:
http://img36.imageshack.us/img36/7932/30683370.jpg (http://img36.imageshack.us/i/30683370.jpg/)
http://img97.imageshack.us/img97/9489/14481107.jpg (http://img97.imageshack.us/i/14481107.jpg/)
http://img200.imageshack.us/img200/4608/35428115.jpg (http://img200.imageshack.us/i/35428115.jpg/)
è la solita falsità a scopo di creare brutte discussioni.
preso da computerbase e palesemente falsa, hai altre recensioni fra cui quelle italiane perchè sei andato a cercare quella ? la 4890 non va più forte della GTX 275, nè tanto meno alla 285 e la GTX 295 dovrebbe essere superiore quasi sempre sia alla x2 che alla 5870. inoltre la gtx 260 che dovrebbe essere sempre superiore alla 4870, sta sempre sotto assieme alla 275 ? recensione proprio truccata a occhio nudo e anche chi l'ha postata è un fanboy.
c'è solo da vergognarsi.
non credo, il distacco dalla attuale 285 non è nulla di chè, non credo ci voglia tanto a colmarlo o almeno ad essere competitivi al peggior dei casi. se parli di prezzo, io sono disposto a pagarla senza problemi.
che Dio ti benedica, ma non tutti credo sventoleranno 4-500 euro per una vga che nel peggiore dei casi se la batte con una 5870 (per allora) a 200 euro.
la serie 4xxx la conosciamo bene; ha portato tutti noi a godere di una vga discreta da soli 100-150 euro in su. Se poi contiamo la crisi mondiale, il fenomeno viene amplificato. Gli enthusiast erano, sono e saranno sempre una percentuale risicata.
Eyes Of The tiger
22-12-2009, 08:54
A questo punto, visto che mi dai del fanboy, hai due scelte:
1. Mi posti le recensioni in cui con le stesse impostazioni i risultati sono come dici tu.
2. Ti scusi e ti rimangi quello che hai scritto.
sicuro ma se te le posto ti scusi tu
http://www.techradar.com/news/computing-components/graphics-cards/nvidia-s-fermi-graphics-architecture-explained-657489
spanillo2003
22-12-2009, 09:00
ragazzi ,io sono un possessore di una 4870, e onestamente volevo passare a nvidia ,visto che in dx10 e' stata sempre superiore alle ati, quindi sono uno di quelli che a messo dentro ad un bussolo 250\300 euro (quello e' il mio badget)per aspettare la gtx360, ma ragazzi qui nvidia sta proprio mettendo a dura prova i suoi fans ,prima fai vedere una scheda falsa ,poi dice che la suddetta scheda CARNEVALE uscira' entro la fine del 2009(bugia),confermi delle caratteristiche tecniche che poi ti rimangi, ragazzi questi della nvidia si sono avviati in un proggetto sicuramente evolutivo ma troppo precocemente,fermi ha dei problemi . se io sarei nvidia e avrei tra le mani una scheda funzionante e valida con un pcb gia definitivo ,per fermare la gente come me (sotto natale)tentati dalle ati ,manderei dei benchmark online ufficiali .ma visto che anno una scheda calda affamata di corrente e chi sa quale altro intoppo, io appena usciranno le 5850 con dissipatori alternativi e sicuramente con frequenze piu elevate mi ci buttero a capofitto
ci sono troppi parametri diversi tra le recensioni, e ogni volta fanno la differenza, quindi è nell'insieme che si nota se una vga va meglio/peggio di un'altra. Ati perde decisamente meno con l'AA, Nvidia perde meno nei giochi TWI....... e offre il physix (che stronca quasi il 50% delle prestazioni).
infine sui costi, Ati è quasi sempre conveniente a fronte di un 15-20% in meno di prestazione (ma in alcuni casi è anche superiore). Ci sono troppi parametri per sentenziare, tuttavia in linea di massima siamo così.
aaasssdddfffggg
22-12-2009, 09:01
http://www.techradar.com/news/computing-components/graphics-cards/nvidia-s-fermi-graphics-architecture-explained-657489
la stavo leggendo proprio adesso.Mi hai anticipato a postarla.:D
la stavo leggendo proprio adesso.Mi hai anticipato a postarla.:D
ti leggo nel pensiero ti leggo:fagiano:
Eyes Of The tiger
22-12-2009, 09:04
guru3d (http://www.guru3d.com/article/radeon-hd-5870-review-test/17)
Hwupgrade (http://www.hwupgrade.it/articoli/skvideo/2287/ati-radeon-hd-5870-la-prima-scheda-video-per-directx-11_index.html)
THG (http://www.tomshw.it/graphic.php?guide=20090923)
XBITLABS (http://www.xbitlabs.com/articles/video/display/radeon-hd5870.html)
HARDWARECANUCH (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/23415-sapphire-radeon-hd-5870-1gb-gddr5-review.html)
Xbitlabs e guru3d mi smebrano i portali più seri, la 4870 è inferiore o vicina alla GTX260 quasi sempre e idem per la 4890 e GTX 275, la 295 è un po' superiore alla 5870 e la 5850 lo è un po' sulla 285.Se vuoi guardati anche bi-tech e dinoxpc, che non ho messo.
Eyes Of The tiger
22-12-2009, 09:18
Certamente ;)
prego :rolleyes:
molochgrifone
22-12-2009, 09:18
Non ho capito il concetto. L'origine dell'articolo è il documento ufficiale nVidia scovato da Kharonte. Perché fazioso dunque, visto che le fonti sono due, nVidia e nVidia, quindi entrambe ufficiali, una che dice 512SP e l'altra 448SP? Hanno detto ufficialmente 512SP con il paperlaunch dell'architettura fatto spudoratamente per cercare di distogliere dell'attenzione dalle HD5xxx, e ora sono costretti a ritrattare per l'impossibilità di fare quello che speravano (e ci speravano solamente, visto che non avevano una sola VGA funzionante al tempo).
Li ha trattati fin troppo bene, per quanto mi riguarda, sono dei pallari...
Per quanto riguarda l'uso di una Tesla per immaginarsi le prestazioni delle GeForce ci sono almeno due problemi:
1. Le vecchie Tesla non avevano un output video, quindi era impossibile. Non so se le nuove lo avranno, comunque
2. Le Tesla disponibili per fare dei test sono lo stesso numero delle GeForce: 0.
Rata se non mi sono perso un pezzo della vostra discussione/supposizione - possibilissimo, visto che lavoro 16 ore al giorno in questo periodo e quando riesco a sbirciare sul forum rischio di vedere c@zzi per mazzi - mi sembrava di aver colto che gli SP "ridotti" fossero solo per le Tesla per mantenere il TDP entro i 225 W visti gli alti quantitativi di RAM delle Tesla stesse, ottenuti disattivando una parte degli SP del chip completo; inoltre per quanto riguarda le GeForce questo al momento non s'ha da sapere. Mentre Demerjan presenta il tutto con la certezza assoluta che sarà così e che Fermi sarà un fallimento.
Ora, io penso che allo stato attuale delle cose Fermi sia sulla buona strada per essere un fallimento, a meno che non tiri fuori performance davvero convincenti, però diciamo che il buon Charlie dà un po' troppe certezze in articoli che non sono sostenuti al 100% da dati oggettivi. :)
Per quanto riguarda il test della Tesla tolto il fatto che non ne esistono al momento e che non sapevo della cosa dell'uscita video, in un ipotetico caso le prossime Tesla avessero un'uscita video sarebbe possibile, quando saranno sul mercato, fare quello che ho supposto nel post precedente? :confused:
Eyes Of The tiger
22-12-2009, 09:20
Hai visto bene le impostazioni che ho postato io?
AA8x AF16x @ 1680, 1920, 2560
Nelle recensioni che mi hai linkato non c'è quasi nulla a quelle impostazioni oppure è scritto che c'è l'AA8x ma non si sa l'AF e viceversa (oppure si tratta di HL2 che facendo 8000FPS è CPU limited sempre).
a mio parere sono tutte scuse queste, la 58xx ti ricordo che ha un bus da 256bit e una banda poco superiore alla 4890.
a mio parere sono tutte scuse queste, la 58xx ti ricordo che ha un bus da 256bit e una banda poco superiore alla 4890.
tuttavia il confronto giusto dovrebbe essere a parità di impostazioni, senza flame, non mi sembra una scusa; è risaputo che le recensioni hanno una moltitudine di parametri.
Kharonte85
22-12-2009, 09:44
Effettivamente l'articolo è mostruosamente fazioso, considerato che noi sappiamo qual è l'origine dello stesso :rolleyes:
L'origine è affidabile :O semmai sono i ragionamenti che fa di seguito ad essere mostruosamente faziosi (come al solito).
Nelle pagine passate ci siamo posti degli interrogativi anche noi (io per primo), ma arrivare a quello che dice lui (come lo dice lui) ce ne passa.
Faccio una domanda da ignorantissimo: perché per cercare di capire il potenziale di Fermi in ambito game non si testa una Tesla? Sono così profondamente diverse (SP, RAM) da dare indicazioni del tutto sballate o per altri motivi (costi, ecc.)?
Forse si potrebbe ma non avresti risultati significativi...hanno anche alcune features (ECC) che ne rallenterebbero l'esecuzione.
è la solita falsità a scopo di creare brutte discussioni.
preso da computerbase e palesemente falsa, hai altre recensioni fra cui quelle italiane perchè sei andato a cercare quella ? la 4890 non va più forte della GTX 275, nè tanto meno alla 285 e la GTX 295 dovrebbe essere superiore quasi sempre sia alla x2 che alla 5870. inoltre la gtx 260 che dovrebbe essere sempre superiore alla 4870, sta sempre sotto assieme alla 275 ? recensione proprio truccata a occhio nudo e anche chi l'ha postata è un fanboy.
c'è solo da vergognarsi.
Non c'è bisogno di dare del falso a dx e a manca, è noto che l'AA8x funziona meglio sulle AMD/ATI, se "scendi" ad un più comune 4x le prestazioni sono più vicine e le differenze meno marcate.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet
è la solita falsità a scopo di creare brutte discussioni.
preso da computerbase e palesemente falsa [...]
Cerchiamo di analizzare le cose con più tranquillità.
Computer Base ha sempre fatto ottime recensioni, molto equilibrate ed accurate. Sembra che siccome i risultati non sono quelli che ci aspettiamo (o come in questo caso non li abbiamo osservati con sufficiente attenzione) allora devono essere false o faziose.
Come lui stesso ti ha fatto notare, Ratatosk è stato un po' "furbetto": ha postato bench con AntiAliasing 8x, che sappiamo bene essere uno dei punti di forza dell'architettura ATI attuale.
In quel contesto le ATI guadagnano posizioni sulle Nvidia, e questo è un dato di fatto. Che poi tale impostazione sia utile o meno, che si abbia intenzione di usarla o meno, è un altro discorso.
Allo stesso modo bisogna però notare che il filtro anitrosopico pesa più per le ATI che per le Nvidia, ma quello attuale delle ATI è di qualità superiore. Quindi al netto del filtro anitrosopico, il vantaggio delle ATI potrebbe essere anche superiore nel complesso. Ma all'anitrosopico si rinuncia più difficilmente.
Morale della favola, il vantaggio su gtx 280 c'è ed è netto, ma varia a seconda di molti parametri
Come dimostra GT200 nei confronti di G92, il raddoppiare le specifiche non porta un raddoppio di prestazioni, quindi anche per Fermi c'è da aspettarsi un aumento di prestazioni si, ma non un raddoppio. Senza contare le differenze tra Fermi e GT200, in particolare l'architettura delle ALU, che per i giochi dovrebbero favorire GT200 (che se non erro in taluni casi poteva compiere se non ricordo male un'operazione mul in più, o qualcosa del genere).
Se i problemi di frequenza e il numero ridotto di SP fossero confermati, allora Fermi potrebbe essere meno competitivo di quanto ci si aspettava all'inizio.
Visti i costi, anche una superiorità marginale rispetto a 5870 sarebbe un problema per nvidia, anche se non dubito che in seguito possano far uscire una versione più spinta. Ma ricordiamo che anche ATI ne ha una pronta.
Eyes Of The tiger
22-12-2009, 09:59
inutile parlare tanto gran parte di voi ha ati o vuole comprarla, quando usciranno le prossime Nvidia ne riparleremo. io so solo che Nvidia ha sempre superato ad ogni passaggio di generazione quella vecchia anche se in dual GPU.
ATi invece non ha superato la 295 e non credo sia difficile tirar giù l'rv870 dal trono anche a costo di usare il modello di punta Gt380 ( non GTX, la denominazione è cambiata, bata vedere i modelli a 40nm di nvidia si chiamano tutti gt ).
della recensione di computerbase io penso sia un falso allucinante in quanto la 4870 alla GTX 260 se è a 216 stream, non può proprio osare nulla e tanto meno alla 275, non esiste proprio.
molochgrifone
22-12-2009, 10:02
L'origine è affidabile :O semmai sono i ragionamenti che fa di seguito ad essere mostruosamente faziosi (come al solito).
Non volevo darti del poco affidabile, mi sono espresso male. Intendevo come poco affidabile il ragionamento che da per certo che TUTTE le Fermi saranno con 448 SP ;)
della recensione di computerbase io penso sia un falso allucinante in quanto la 4870 alla GTX 260 se è a 216 stream, non può proprio osare nulla e tanto meno alla 275, non esiste proprio.
invece di disperarti e ripeterti in testa (No, no, non può essere), trova i grafici che confermano la tua tesi, sconfessando i parametri di Ratatosk; dire semplicemente "non esiste proprio"... ti relega a fanboy, come da te accusato.
Severnaya
22-12-2009, 10:09
nn mi stupirei se a metà dell'anno prossimo ati uscisse con la serie 6, supponendo che nvidia esca a marzo nn credo avrebbero il tempo per uscire di nuovo con una versione di fermi riveduta e corretta
mi ricorda tanto la serie 5 di nvidia questo fermi
Eyes Of The tiger
22-12-2009, 10:11
invece di disperarti e ripeterti in testa (No, no, non può essere), trova i grafici che confermano la tua tesi, sconfessando i parametri di Ratatosk; dire semplicemente "non esiste proprio"... ti relega a fanboy, come da te accusato.
basta guardare nel thread ufficiale della gtx 260_216.
;)
basta guardare nel thread ufficiale della gtx 260_216.
;)
non è una risposta, basta guardare allora su google.
Eyes Of The tiger
22-12-2009, 10:14
io comunque non voglio più esprimermi in questo thread che trovo non utile in quanto si sparla di prodotti non usciti con supposizioni a volte anche a livello di funzionamento logico dell'architettura manco ad essere ingenieri perciò chiedo scusa a tutti ma stare in un thred nvidia con tutta gente che sta quì per splalare sporcizia per difendere la propria ati mettendo pure in dubbio la superiorità anche deilla generazione precedente, così non mi piace.
computerbase fra l'altro fà recensioni penose e manco azzeccate anche per i dissipatori.
sickofitall
22-12-2009, 10:17
io comunque non voglio più esprimermi in questo thread che trovo non utile in quanto si sparla di prodotti non usciti con supposizioni a volte anche a livello di funzionamento logico dell'architettura manco ad essere ingenieri perciò chiedo scusa a tutti ma stare in un thred nvidia con tutta gente che sta quì per splalare sporcizia per difendere la propria ati mettendo pure in dubbio la superiorità anche deilla generazione precedente, così non mi piace.
computerbase fra l'altro fà recensioni penose e manco azzeccate anche per i dissipatori.
:mano: sono d'accordo con te
io comunque non voglio più esprimermi in questo thread che trovo non utile in quanto si sparla di prodotti non usciti con supposizioni a volte anche a livello di funzionamento logico dell'architettura manco ad essere ingenieri perciò chiedo scusa a tutti ma stare in un thred nvidia con tutta gente che sta quì per splalare sporcizia per difendere la propria ati mettendo pure in dubbio la superiorità anche deilla generazione precedente, così non mi piace.
computerbase fra l'altro fà recensioni penose e manco azzeccate anche per i dissipatori.
è una tua opinione, e la rispetto, se avrai qualche grafico da condividere invece di semplice scetticismo di parte, lo condivideremo tranquillamente. Infine ti ricordo che il thread "Aspettando...." si basa appunto su tutte le news (vere e non) che capitano, con tutte le ipotesi che ne seguono, quindi non è tanto spalare m.... quanto vedere il bicchiere mezzo pieno/vuoto.
Degustibus
aaasssdddfffggg
22-12-2009, 10:21
io comunque non voglio più esprimermi in questo thread che trovo non utile in quanto si sparla di prodotti non usciti con supposizioni a volte anche a livello di funzionamento logico dell'architettura manco ad essere ingenieri perciò chiedo scusa a tutti ma stare in un thred nvidia con tutta gente che sta quì per splalare sporcizia per difendere la propria ati mettendo pure in dubbio la superiorità anche deilla generazione precedente, così non mi piace.
computerbase fra l'altro fà recensioni penose e manco azzeccate anche per i dissipatori.
Guarda ,essendo un forum pubblico ognuno puo' esprimere la propria opinione...poi se sarà vero o sbagliato lo vedremo presto.Tutti toccheremo con mano FERMI molto presto quindi,basta solo attendere ancora un pochino per sapere realmente come stanno le cose.:)
Anche perché la m* ha provveduto nVidia a spalarsela addosso mostrando una scheda patacca ad una press conference. Il resto discende tutto da qui, più umiltà avrebbe fatto bene, dovrà remare molto.
effettivamente quella poteva evitarsela, anche perchè (imho) è controproducente. Cmq, tralasciando le possibilità di Fermi, questi 40 nm sono stati devastanti per entrambe. Spero che GF diventi operativa per la prox serie e almeno Ati (Nvidia non ci pensa manco morta) si scrolla sta zavorra di TSMC
Eyes Of The tiger
22-12-2009, 10:29
non stavamo parlando di fermi.
ma di tutte le recensioni che dicevano una cosa e una emarginata che ne dice un altra, e mi vieni a dire che non sono valide perchè la tua sta a impostazioni diverse ? per me le hanno fatte così apposta per differenziarle dagli altri, ma anche lasciando perdere il discorso la GTX 260 e la GTX 275 non stanno sotto alla 4870 e la 4890 non sta sopra la 285, questo a mio avviso e parere è mettere in dubbio una cosa già consolidata più volte.
Per il discorso fermi a parte 2 frasi non ho detto nulla.
ciao.
io comunque non voglio più esprimermi in questo thread che trovo non utile in quanto si sparla di prodotti non usciti con supposizioni a volte anche a livello di funzionamento logico dell'architettura manco ad essere ingenieri perciò chiedo scusa a tutti ma stare in un thred nvidia con tutta gente che sta quì per splalare sporcizia per difendere la propria ati mettendo pure in dubbio la superiorità anche deilla generazione precedente, così non mi piace.
Scusa, ma in un thread "aspettando" cosa pensi di trovare?
Anzi, ultimamente il topic sta anche andando bene dato che si sta parlando di slides ufficiali nvidia e di alcune feature tecniche relative alla CPU.
Qualche pagina fa era molto peggio :asd:
Se poi vuoi convincerti che chiunque qui non lodi nvidia sia un possessore ATI che viene a spalare fango, fai pure, ma questo fa passare te come fazioso e non gli altri.
Io ti sto scrivendo da un pc con grafica nvidia, e l'ultima scheda che ho consigliato di comprare è stata una geforce.
Ti sono stati forniti dati su cui valutare le parole dette qui dentro, sta a te la volontà di rifletterci sopra.
@Severnaya
Secondo me, nonostante le difficoltà del progetto, non credo si possa paragonare a NV30.
Oltretutto Fermi avrà la possibilità di mostrare i muscoli in quegli ambiti per cui è stata pensata, l'architettura ancor più superscalare e gli incrementi nei calcoli a doppia precisione sono comunque un punto di forza innegabile.
Se dovesse andar male magari non farà faville in ambito game, ma difficilmente sarà un progetto mal riuscito nel suo complesso.
Eyes Of The tiger
22-12-2009, 10:37
hai un integrata nvidia e con questo ? non hai una Nvidia di fascia alta e non credo prediligi questo ambito, vedo che prediligi le configurazioni economiche quindi tutti con l'occhio strizzato su AMD /ATI.
il titolo è aspettando le nuove Nvidia, quindi mi aspettavo di trovare commenti di possessori di Gt200.
hai un integrata nvidia e con questo ? non hai una Nvidia di fascia alta e non credo prediligi questo ambito, vedo che prediligi le configurazioni economiche quindi tutti con l'occhio strizzato su AMD /ATI.
io metterei un questionario all'ingresso del thread, se non sei un enthusiast, non entri...... :doh:
il titolo è aspettando le nuove Nvidia, quindi mi aspettavo di trovare commenti di possessori di Gt200.
morale........
BARBONI con le Ati e integrate, via da qui !!!!!!! :asd:
:rolleyes: :rolleyes:
hai un integrata nvidia e con questo ? non hai una Nvidia di fascia alta e non credo prediligi questo ambito, vedo che prediligi le configurazioni economiche quindi tutti con l'occhio strizzato su AMD /ATI.
il titolo è aspettando le nuove Nvidia, quindi mi aspettavo di trovare commenti di possessori di Gt200.
Fascia alta? coloro che hanno gt200? :stordita: Maddai se ti aspetti solo commenti positivi su Fermi allora sei capitato nel Thread sbagliato, NVidia con questa nuova architettura sembra proprio che abbia toppato alla grande
è la solita falsità a scopo di creare brutte discussioni.
preso da computerbase e palesemente falsa, hai altre recensioni fra cui quelle italiane perchè sei andato a cercare quella ? la 4890 non va più forte della GTX 275, nè tanto meno alla 285 e la GTX 295 dovrebbe essere superiore quasi sempre sia alla x2 che alla 5870. inoltre la gtx 260 che dovrebbe essere sempre superiore alla 4870, sta sempre sotto assieme alla 275 ? recensione proprio truccata a occhio nudo e anche chi l'ha postata è un fanboy.
c'è solo da vergognarsi.Veramente è cosa risaputa che le ATI con i filtri AA8x si comportano molto meglio delle schede nvidia. Possiamo anche discutere dell'utilità di un filtro tanto spinto, ma ciò non toglie che le ATI vadano meglio con quelle impostazioni. Poi ovviamente sei liberissimo di credere ciò che vuoi : che la 260 gtx sia sempre avanti alla 4870 e così via. (sono shcede che hanno prestazioni praticamente identiche) :)
devAngnew
22-12-2009, 11:01
http://www.tomshw.it/cont/news/cpu-x86-nvidia-la-ftc-ha-in-mano-il-jolly/23304/1.html
Possibili sviluppi per Nvidia in ambito x86.
hai un integrata nvidia e con questo ?
Vedo che di tutto quello che ho scritto hai colto solamente la riga meno significativa... :asd:
Evabbè, non devo convincere nessuno. Chi ha oreccihe per sentire, ascolti.
Comuque se hai letto il link della mia firma "la mia config hardware" stai fresco... :rolleyes:
non lo aggiorno da secoli, l'avevo messo tempo fa solo per chiedere un aiuto su quel pc, e poi è rimasta li...
yossarian
22-12-2009, 11:25
Ma magari, avere tre competitor con tre piattaforme complete sarebbe il massimo per noi che alla fine facciamo periodicamente sanguinare la carta di credito.
Di certo non sarà facile, anche perché x86 vuol dire cross-licensing e questo vuol dire che non possono imporre nulla ad AMD così come a IBM a causa della posizione dominante di Intel.
Restiamo in attesa, sarà un'attesa lunga comunque :)
non è neppure deto che riescano ad imporre qualcosa ad intel.
Tornando IT, per ora ci sono i presunti periodi di lancio delle versioni tesla presentate lo scorso ottobre.
Availability: Tesla C2050 in early Q2 2010, Tesla C2070 in Q3 2010.
http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html
Availability: Tesla C2050 in early Q2 2010, Tesla C2070 in Q3 2010.
domanda profana: ma le tesla vengono prodotte prima o dopo le geforce ?
Kharonte85
22-12-2009, 11:34
non è neppure deto che riescano ad imporre qualcosa ad intel.
Tornando IT, per ora ci sono i presunti periodi di lancio delle versioni tesla presentate lo scorso ottobre.
Availability: Tesla C2050 in early Q2 2010, Tesla C2070 in Q3 2010.
http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html
Ciao, non so se hai letto le pag. precedenti...
http://www.hwupgrade.it/forum/showthread.php?t=1815796&page=573
che ne pensi dei 448SP?
Kharonte85
22-12-2009, 11:36
domanda profana: ma le tesla vengono prodotte prima o dopo le geforce ?
Le geforce sono previste per il Q1 2010
The Tesla C2050 and C2070 products will retail for $2,499 and $3,999 and the Tesla S2050 and S2070 will retail for $12,995 and $18,995. Products will be available in Q2 2010. For more information about the new Tesla 20-series products, visit the Tesla product pages.
Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010.
http://www.nvidia.com/object/io_1258360868914.html
Le geforce sono previste per il Q1 2010
si, lo sapevo, ma immaginavo (visto che essenzialmente l'HW è identico) che le date quasi coincidessero. perchè le tesla dovrebbero ulteriormente slittare a 2010 inoltrato ? forse per migliorie/stabilità o per volumi ?
si, lo sapevo, ma immaginavo (visto che essenzialmente l'HW è identico) che le date quasi coincidessero. perchè le tesla dovrebbero ulteriormente slittare a 2010 inoltrato ? forse per migliorie/stabilità o per volumi ?
edit. mi ha risposto ratatosk.... GDDR5
yossarian
22-12-2009, 11:47
Ciao, non so se hai letto le pag. precedenti...
http://www.hwupgrade.it/forum/showthread.php?t=1815796&page=573
che ne pensi dei 448SP?
ho dato un'occhiata veloce; intanto complmenti per la scoperta ed anche per le considerazioni. In effetti, non credo sia un problema di TDP: abbassando le frequenze e utilizzando 16 sp invece di 14 avrebbero ottenuto almeno le stesse prestazioni a parità di potenza dissipata. A questo punto è plausibile l'ipotesi che abbiano problemi di rese e che non siano riusciti, finora, a produrre chip con tutte le alu funzionanti. D'altra parte, se così fosse, la cosa non dovrebbe stupire più di tanto. All'aumentare della complesità del chip e del numero di unità, la probabilità che ne esca qualcuna difettosa aumenta in percentuale. Considerato che i chip nVidia non dovrebbero avere unità ridondanti (se seguono il trend delle serie precedenti), è plausibile l'ipotesi che, al momento, questo è il meglio che riescono a fare.
Se poi, oltre questi dovessero esserci anche problemi di frequenze non saprei dire (certo, con 64 alu in meno, qualcosa di più sulle frequenze si può spingere). Però penso che come problema questo è già più che sufficiente a giustificare la finora mancata pubblicazione di bench della versione gaming.
secondo voi costeranno care?
fssdfsfsdfdsfsfd
22-12-2009, 11:57
Prima verrano commercializzate le GeForce, non per altro, semplicemente per le Tesla hanno bisogno di moduli di GDDR5 che non sono ancora disponibili :)
scusa la domanda ma sono più potenti le geforce o le tesla ?? che sono stè tesla??:help:
ho dato un'occhiata veloce; intanto complmenti per la scoperta ed anche per le considerazioni. In effetti, non credo sia un problema di TDP: abbassando le frequenze e utilizzando 16 sp invece di 14 avrebbero ottenuto almeno le stesse prestazioni a parità di potenza dissipata. A questo punto è plausibile l'ipotesi che abbiano problemi di rese e che non siano riusciti, finora, a produrre chip con tutte le alu funzionanti. D'altra parte, se così fosse, la cosa non dovrebbe stupire più di tanto. All'aumentare della complesità del chip e del numero di unità, la probabilità che ne esca qualcuna difettosa aumenta in percentuale. Considerato che i chip nVidia non dovrebbero avere unità ridondanti (se seguono il trend delle serie precedenti), è plausibile l'ipotesi che, al momento, questo è il meglio che riescono a fare.
Se poi, oltre questi dovessero esserci anche problemi di frequenze non saprei dire (certo, con 64 alu in meno, qualcosa di più sulle frequenze si può spingere). Però penso che come problema questo è già più che sufficiente a giustificare la finora mancata pubblicazione di bench della versione gaming.
ma in termini di performance quanto la gtx380 dovrà rinunciare con il passaggio da 512 SP a 448 SP?
yossarian
22-12-2009, 12:06
ma in termini di performance quanto la gtx380 dovrà rinunciare con il passaggio da 512 SP a 448 SP?
non ha senso parlare di performance se non abbiamo notizie sulle frequenze. 448 alu a 1300 MHz sono ben diverse da 448 alu a 1800 MHz.
Foglia Morta
22-12-2009, 12:06
Quello è ciò che stimano di poter vendere nel Q2 e nel Q3 , se sapevano che poteva non essere l' offerta definitiva allora perchè farla ? Se invece fanno l'offerta per il Q2 e Q3 e si riservano di integrarla con versioni più potenti e prezzo maggiorato quanto meno significa che stanno ancora in una situazione di incertezza.
'sta cosa dei 448 SP e la non disponibilità della versione a 512 sp su delle Tesla da migliaia di dollari fa pensar proprio male... sono schede che devono essere vendute in volumi ridotti , se io avessi delle gpu funzionanti con 512 sp le venderei a chi me le compra al prezzo più alto , se i 448 SP vanno su schede da 2500 - 4000 dollari allora con la potenza ottenibile con 512 sp il cliente potrebbe essere disposto a pagare 1000 dollari in più. Da una parte mi pare strano che non riescano ad avere gpu con 512 sp , dall' altra mi pare ancor più assurdo che quei pochi pezzi preferiscano venderli su un mercato meno redditizio ( serie Geforce )
Quello è ciò che stimano di poter vendere nel Q2 e nel Q3 , se sapevano che poteva non essere l' offerta definitiva allora perchè farla ? Se invece fanno l'offerta per il Q2 e Q3 e si riservano di integrarla con versioni più potenti e prezzo maggiorato quanto meno significa che stanno ancora in una situazione di incertezza.
'sta cosa dei 448 SP e la non disponibilità della versione a 512 sp su delle Tesla da migliaia di dollari fa pensar proprio male... sono schede che devono essere vendute in volumi ridotti , se io avessi delle gpu funzionanti con 512 sp le venderei a chi me le compra al prezzo più alto , se i 448 SP vanno su schede da 2500 - 4000 dollari allora con la potenza ottenibile con 512 sp il cliente potrebbe essere disposto a pagare 1000 dollari in più. Da una parte mi pare strano che non riescano ad avere gpu con 512 sp , dall' altra mi pare ancor più assurdo che quei pochi pezzi preferiscano venderli su un mercato meno redditizio ( serie Geforce )
Non potrebbe essere che invece, a dispetto di tutta la campagna pro GPU computing, a Nvidia interessi al momento rimanere con un'immagine di azienda leader nelle prestazioni di prodotti per quello che penso sia il suo core business? E che quindi si tenga il meglio per avere delle gtxyz380 perfette?
halduemilauno
22-12-2009, 12:18
per me avete alzato un polverone che nemmeno avrebbe ragione di esistere. quel documento cita esplicitamente le tesla chi può mai dire che le tesla sin dall'inizio non fossero previste gia a 448 cores? dopotutto il massimo della potenza erogabile(diciamo cosi)servono nelle versioni gaming ovvero le geforce ed ecco quindi il massimo consentito dalla architettura fermi ovvero i 512. dopotutto fermi quando appunto citato come tale, fermi, sin dall'inizio è citato 512 e quindi i 512 erano sempre riferiti a fermi nell'accesso + ampio/potente del termine/famiglia.
tesla 448 core a 1404. geforce 512 core a(i bene informati dicono)1692.
ovviamente sempre in attesa di tutti i riscontri del caso.
;)
Foglia Morta
22-12-2009, 12:28
Non potrebbe essere che invece, a dispetto di tutta la campagna pro GPU computing, a Nvidia interessi al momento rimanere con un'immagine di azienda leader nelle prestazioni di prodotti per quello che penso sia il suo core business? E che quindi si tenga il meglio per avere delle gtxyz380 perfette?
Il problema è quante. Se preferiscono farne una questione di immagine vuol dire che il problema di fondo resta sempre per quello: avere gpu con 512 sp in volumi accettabili. Forse vogliono fare come ai tempi della 7800GTX 512MB , solo marketing.
Kharonte85
22-12-2009, 12:28
ho dato un'occhiata veloce; intanto complmenti per la scoperta ed anche per le considerazioni. In effetti, non credo sia un problema di TDP: abbassando le frequenze e utilizzando 16 sp invece di 14 avrebbero ottenuto almeno le stesse prestazioni a parità di potenza dissipata. A questo punto è plausibile l'ipotesi che abbiano problemi di rese e che non siano riusciti, finora, a produrre chip con tutte le alu funzionanti. D'altra parte, se così fosse, la cosa non dovrebbe stupire più di tanto. All'aumentare della complesità del chip e del numero di unità, la probabilità che ne esca qualcuna difettosa aumenta in percentuale. Considerato che i chip nVidia non dovrebbero avere unità ridondanti (se seguono il trend delle serie precedenti), è plausibile l'ipotesi che, al momento, questo è il meglio che riescono a fare.
Se poi, oltre questi dovessero esserci anche problemi di frequenze non saprei dire (certo, con 64 alu in meno, qualcosa di più sulle frequenze si può spingere). Però penso che come problema questo è già più che sufficiente a giustificare la finora mancata pubblicazione di bench della versione gaming.
In questa situazione lo scenario possibile che si profila è quindi quello di un lancio della scheda Geforce di punta con disponibilità molto limitata (gtx380 come la 7800gtx) mentre la seconda (Gtx360) ed un refresh a breve quando e se saranno migliorate le rese...sempre ammesso che le nostre ipotesi siano giuste e che non siano altri i motivi per cui la versione tesla ha 448SP invece che 512SP.
Non potrebbe essere che invece, a dispetto di tutta la campagna pro GPU computing, a Nvidia interessi al momento rimanere con un'immagine di azienda leader nelle prestazioni di prodotti per quello che penso sia il suo core business? E che quindi si tenga il meglio per avere delle gtx380 perfette?
Non è improbabile, pero' è evidente che se non avessero avuto problemi di rese derivate dal progetto complicato e dai problemi produttivi di TSMC avrebbe potuto usare tutto il potenziale anche per le schede Tesla (dato che sono anche le più costose).
Il problema è quante. Se preferiscono farne una questione di immagine vuol dire che il problema di fondo resta sempre per quello: avere gpu con 512 sp in volumi accettabili. Forse vogliono fare come ai tempi della 7800GTX 512MB , solo marketing.
quindi dopo l'isola ci sarà anche la scheda video che non c'è? Secondo me la gtx380 avrà 448 Sp a scalare per i modelli inferiori....
sickofitall
22-12-2009, 13:24
denigrate tanto nvidia, e poi magari quando esce ve la comprate :asd: (anche se va di meno di ati)
Andrea deluxe
22-12-2009, 13:25
denigrate tanto nvidia, e poi magari quando esce ve la comprate :asd: (anche se va di meno di ati)
io non vengo tanto qua dentro altrimenti mi casca la mentula a terra.......
sickofitall
22-12-2009, 13:38
io non vengo tanto qua dentro altrimenti mi casca la mentula a terra.......
a me cascano altre cose :asd:
aaasssdddfffggg
22-12-2009, 13:40
a me cascano altre cose :asd:
ma perchè?per quello che leggete qui dentro?Eppure di FERMI non si conosce nemmeno un bench.L'avete proprio crocifisso ancor prima di nascere e mostrare bench realistici.:D
Le geforce sono previste per il Q1 2010
quindi entro aprile giusto?
aaasssdddfffggg
22-12-2009, 13:46
quindi entro aprile giusto?
Si.Il q1 parte dal 26 gennaio e finisce il 26 aprile.In questo arco di tempo Fermi arriverà sul mercato.Prendi il cebit di HANNOVER che si apre nella seconda metà di marzo come probabile data e disponibilità immediata di lancio.;)
Eyes Of The tiger
22-12-2009, 13:49
parliamo di un prodotto che ancora non ha presentato sample e non sappiamo se riuscirà o meno a risolvere i problemi, a marzo mancano 3 mesi. ovviamente scusate se il prezzo è alto vuol dire che le prestazioni ci sono o pensano che ci saranno, perchè sta volta è ati ad essere uscita per prima quindi nvidia sa la fascia di prezzo che dovrà avere non è come nelle gt200 che gli ha fatto la sorpresina, adesso è nvidia a conoscere ati in anticipo.
se il prezzo è previsto molto più alto il motivo c'è, magari non prestazioni molto più avanti ma penso sufficienti a riprendere il primato di performance. altrimenti non vedo cosa possa servire un prezzo molto più alto, al massimo sarà un po' più alto se le prestazioni non saranno all'altezza.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.