PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

michelgaetano
12-10-2009, 12:30
sulla finta-fermi lo stesso Corsini è stato chiarissimo definendola...(versetto 62)
http://www.hwupgrade.it/forum/showthread.php?t=2062392&page=4


Per quanto la cosa (comprensibilmente, lì era la presentazione ad importare) possa non avere rilevanza (quel che importa era il prototipo nel case), è il fatto che la cosa non sia stata minimamente menzionata a non piacere.

DVD2005
12-10-2009, 12:49
sulla finta-fermi lo stesso Corsini è stato chiarissimo definendola...(versetto 62)
http://www.hwupgrade.it/forum/showthread.php?t=2062392&page=4
in quanto al concreto...
A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi.
;)

mi ero perso i due post di Corsini sull'argomento, interessanti (In parte ha gli stessi nostri dubbi pur avendo un punto di osservazione "privilegiato")

Aspettiamo allora la presentazione entro fine anno di cui si è parlato nell'intervista per capire se-come-quanto le Geforce derivate da Fermi siano performati-disponibili ed a che prezzo.

Severnaya
12-10-2009, 13:42
Ora confermano anche i partner, ma ci saranno almeno 13 persone a dire che Charlie ha scritto una cosa sbagliata anche di fronte all'ennesima evidenza :asd:


Charlie ha scritto una cosa sbagliata :O

halduemilauno
12-10-2009, 13:45
mi ero perso i due post di Corsini sull'argomento, interessanti (In parte ha gli stessi nostri dubbi pur avendo un punto di osservazione "privilegiato")

Aspettiamo allora la presentazione entro fine anno di cui si è parlato nell'intervista per capire se-come-quanto le Geforce derivate da Fermi siano performati-disponibili ed a che prezzo.

dubbi sull'esistenza della scheda? o cosa?
;)

faber80
12-10-2009, 14:07
dubbi sull'esistenza della scheda? o cosa?
;)

francamente attendo qualcosa che nn sia altro vaporware, ovvero bench (veri) e sample fisici (veri). Tutto il resto sono illazioni e congetture varie......

Per quanto possa credere a Corsini (anche se critico fortemente che una testata giornalistica oscuri la news-fake, solo perchè "nn è una notizia" O.o), attendo qualcos'altro, nn slide di powerpoit.

DukeIT
12-10-2009, 14:40
Troppo vago dire "entro fine anno", sembra la frase perfetta per prendere tempo: fino al 31 Dicembre siamo ancora nel 2009, poi basta aspettare qualche giorno (e siamo in Gennaio) e uscire con un comunicato che si dovrà aspettare un altro mese... e siamo a Febbraio. Da qui, anche di fronte ad una presentazione, passerebbe comunque ancora tempo... e siamo a Marzo, ma poi anche per una distribuzione in volumi potrebbe rendersi necessario altro tempo.
Volendo un "entro fine anno" potrebbe significare 6 mesi... di fronte al nulla e con un comunicato di questo tipo, qualsiasi speculazione sulla data di uscita di Fermi potrebbe andare bene.

Severnaya
12-10-2009, 14:41
dubbi sull'esistenza della scheda? o cosa?
;)


sinceramente si, altrimenti felice di essere smentito

Ywes
12-10-2009, 14:57
secondo me fino a 1920x1200 con una 295 o una 5870 si va benissimo, ma ai 2560x1600 del mio 30" mi sto accorgendo che ci vuole sicuramente una marcia in più e francamente un crossfire di 5870 mi intriga, tanto quando usciranno ste famigerate nuove nvidia faccio sempre in tempo a cambiare se valesse davvero la pena.

Ma se tra un mese esce la 5870x2, forse non vale la candela prendere ora una 2 5870 non pensi?

Ren
12-10-2009, 15:30
Le critiche rivolte ad nvidia, mi sembrano eccessive, se consideriamo che tutto il comparto GPU vale 3.2 miliardi secondo le stime di AMD.

Il settore gaming desktop tra OEM e retail fattura poco più di 1.5 miliardi, quello notebook 1mld e le wokstation 500 milioni. (il restante è diviso tra console ed altri settori minori)

Le stime dichiarate sul solo sul settore HPC valgono 1mld, se poi aggiungiamo che il settore delle workstation potrebbe ravvivarsi coinvolgendo molti più professionisti non mi stupisco della scelta di nvidia.

Cercare di differenziare il proprio business non mi pare un errore, le soluzioni Tegra ad esempio dopo un accoglienza freddina stanno cominciando a diffondersi. Come tutti noi sappiamo il settore mobile-pda vale molti soldini.

Anche se la nuova architettura nel settore gaming non è l'ideale, nvidia potrà sempre aumentare i fondi sul supporto a pagamento degli sviluppatori, riequilibrando le performance.

L'incognita rimane Larrabee (ultimamente, non mi pare prometta bene), ma se intel fa cilecca nvidia rimpinguerà per bene i suoi bilanci nei prossimi anni...

kiriranshelo
12-10-2009, 15:58
L'incognita rimane Larrabee (ultimamente, non mi pare prometta bene), ma se intel fa cilecca nvidia rimpinguerà per bene i suoi bilanci nei prossimi anni...

ATI la fai sparire? :rolleyes:

Ren
12-10-2009, 16:25
ATI la fai sparire?

Non mi pare ci sia la volontà né i soldi(AMD non può accollarsi rischi) per investire seriamente nel GPGPU, ma semplicemente la voglia di accodarsi agli standard che si diffonderanno autonomamente.

Nvidia ha una piattaforma di sviluppo più rodata, il supporto al C++ ed altre risorse da mettere in campo. Fare i pionieri ha i suoi rischi, ma anche i suoi vantaggi...

Ad oggi Ati, non è ancora pronta, ma del resto sta riconquistando quote nel settore gaming, soprattutto in quello notebook, dopo le figuracce di nvidia sul affidabilità delle GPU.

Credo che Ati continuerà ad aumentare le sue quote di mercato nel settore gaming, fino ad arrivare massimo al 25% (ad oggi nvidia detiene il 30% ed ati il 19%), cedendo leggermente nelle workstation. Nvidia rimane pur sempre una società sana, con bilancio in pareggio anche considerando la politica dissennata del enorme die-size, quindi qualcosa si inventeranno per tamponare i ritardi dal punto di vista economico.

atomo37
12-10-2009, 16:58
Ma se tra un mese esce la 5870x2, forse non vale la candela prendere ora una 2 5870 non pensi?

le ho ordinate e preferisco le due schede francamente, girano voci che la x2 sarà in qualche modo castrata nelle frequenze perchè sullo stesso pbc ci sono problemi di consumi e temp, così come è stato per la gtx295, e poi sono anche più rivendibili due schede singole.

Kharonte85
12-10-2009, 17:33
A me pare la solita fesseria alla JHH, secondo il quale ricordiamo che oggi Nvidia sarebbe dovuta essere più grande di Intel... :asd:
Solita intervista che dice tutto ma non dice nulla.



In quel versetto Corsini da' anche un parere su Charlie molto interessante, che è quello che dicevamo da tempo.
Sì vabbe'...anche le leggende hanno un fondo di verità ma non è che esistono i vampiri...:asd: Come tutti un po' ci azzecca e un po' no...solo che è un fanboy Ati dichiarato quindi il suo bias di fondo è sempre presente e questa è una cosa che lo allontana dalla verità anche quando ha la notizia buona.

Comunque la faccenda del ritiro dal mercato se vera sarebbe preoccupante (sempre ammesso che Fermi non sia più vicino di quanto tutti possiamo immaginare :mbe: )

michelgaetano
12-10-2009, 17:51
sempre ammesso che Fermi non sia più vicino di quanto tutti possiamo immaginare

Hal parlava di un ipotetico 1 Dicembre. :stordita:

A.L.M.
12-10-2009, 19:30
Solita intervista che dice tutto ma non dice nulla.

In realtà se fosse vero sarebbe una mezza catastrofe per il comparto... In pratica prevede una contrazione del 30-40% in controvalore del mercato gpu per pc...
Vuol dire che la battaglia di prezzi sarà ancora più feroce nel futuro (probabilmente perchè crede che Intel sarà molto aggressiva per introdursi nel mercato)...

goldorak
12-10-2009, 23:02
Hal parlava di un ipotetico 1 Dicembre. :stordita:

Hal ha fatto una traduzione letterale che in questo caso e' sbagliata.
Quando gli americani dicono scherzosamente che tale software sara' rilasciato martedi' significa ne piu' ne meno che non hanno la piu' pallida idea di quando uscira'.
Non hanno ancora fissato una data ufficiale. Tutto qui.
Quindi Huang ha detto scherzosamente che Fermi uscira' quando sara' pronto. :asd: Oggi, domani, un martedi'.... :p

The_SaN
13-10-2009, 01:52
le ho ordinate e preferisco le due schede francamente, girano voci che la x2 sarà in qualche modo castrata nelle frequenze perchè sullo stesso pbc ci sono problemi di consumi e temp, così come è stato per la gtx295, e poi sono anche più rivendibili due schede singole.Hai detto tutto. É sempre stato cosi per entrambe le marche...

atomo37
13-10-2009, 08:40
Hai detto tutto. É sempre stato cosi per entrambe le marche...

infatti quando preso la gtx295 dopo un po' mi pentii tantissimo di non aver preso due 285 che andavano molto meglio, stavolta non ho rifatto lo stesso errore, vediamo quanto pompa il crossfire con queste due bestiole, spero di averle inizio settimana prossima, la 295 intanto è già sulla baia ;)

faber80
13-10-2009, 08:51
http://vr-zone.com/articles/nvidia-partners-deny-eol-of-gtx-200-series/7855.html?doc=7855

già i topi cominciano ad abbandonare la nave, Nvidia ha i prezzi bloccati.
http://www.fudzilla.com/content/view/15919/1/

e intanto il colpo di grazia (la fascia media, il VERO guadagno) Ati l'ha già dato.....

http://www.hwupgrade.it/articoli/skvideo/2301/ati-radeon-hd-5700-directx-11-per-la-fascia-media_11.html

Chiacchera, chiacchera Jen........ in mancanza d'altro..

Kharonte85
13-10-2009, 09:02
http://vr-zone.com/articles/nvidia-partners-deny-eol-of-gtx-200-series/7855.html?doc=7855

Il ragionamento non è sbagliato nel senso che piuttosto che vendere in perdita meglio vendere meno ma guadagnare qualcosa puntando sul nome e sull'ignoranza generalizzata, qualcuno trovano di sicuro...direi comunque che le gtx 260 e le gtx 275 sono ancora comprabili, mentre la gtx 285 è una "truffa" e chi la compra è uno scellerato.

Pat77
13-10-2009, 09:31
In questi giorni ho letto diverse voci, credete ci sia la possibilità concreta che nvidia lasci la fascia di mercato più elevata, concentrandosi su ion e altri tipi di prodotti?

Andrea deluxe
13-10-2009, 09:40
In questi giorni ho letto diverse voci, credete ci sia la possibilità concreta che nvidia lasci la fascia di mercato più elevata, concentrandosi su ion e altri tipi di prodotti?

no!

nvidia sta puntando ad un prodotto che vada molto bene in ambito gp-gpu (settore dove si guadagnano molti soldi) e che vada bene anche nel gaming.

se ci riesce, si impone in maniera massiva tra i professionisti e conserva una discreta quota di mercato nel gaming.


se nel caso, non riuscisse ad avere prestazioni o prezzi buoni nel gaming avrebbe ripercussioni negative tutta l'azienda....

fare ipotesi piu' precise e' impossibile perche' non sappiamo tutto.....


aspettiamo fine anno e vediamo che succede.....

Pat77
13-10-2009, 09:56
Alcune mosse però fanno pensare, supporto software nativo note, 0.40 micron che debuttano proprio in ambito mobile, Ion, ricerca di tecnologie come valore aggiunto, GT300 che mi sembra lontano, eppure doveva essere una priorità, certo è un nuovo inizio come fu 2900XT, con tutti i problemi annessi.

halduemilauno
13-10-2009, 10:46
Il ragionamento non è sbagliato nel senso che piuttosto che vendere in perdita meglio vendere meno ma guadagnare qualcosa puntando sul nome e sull'ignoranza generalizzata, qualcuno trovano di sicuro...direi comunque che le gtx 260 e le gtx 275 sono ancora comprabili, mentre la gtx 285 è una "truffa" e chi la compra è uno scellerato.

http://en.expreview.com/2009/10/13/nvidia-partners-claim-gt200-still-in-mass-production.html

Aenil
13-10-2009, 14:04
ragazzi in mezzo a queste pagine di fanboysmi vari c'è qualche news interessante? :stordita: si sa qualcosa di nuovo perlomeno?

halduemilauno
13-10-2009, 14:14
ragazzi in mezzo a queste pagine di fanboysmi vari c'è qualche news interessante? :stordita: si sa qualcosa di nuovo perlomeno?

siamo fermi a questo...
"A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi."
;)

Aenil
13-10-2009, 14:35
siamo fermi a questo...
"A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi."
;)

ok me ne sto col cuore in pace allora, grazie 1000 :)

kiriranshelo
13-10-2009, 15:53
Non mi pare ci sia la volontà né i soldi(AMD non può accollarsi rischi) per investire seriamente nel GPGPU, ma semplicemente la voglia di accodarsi agli standard che si diffonderanno autonomamente.

Nvidia ha una piattaforma di sviluppo più rodata, il supporto al C++ ed altre risorse da mettere in campo. Fare i pionieri ha i suoi rischi, ma anche i suoi vantaggi...

Ad oggi Ati, non è ancora pronta, ma del resto sta riconquistando quote nel settore gaming, soprattutto in quello notebook, dopo le figuracce di nvidia sul affidabilità delle GPU.

Bè in realtà, sembra, che ad ora abbia raggiunto una piattaforma molto flessibile, deve solo supportare nativamente alcuni linguaggi ed è più orientata al lato gaming in quanto ADESSO è quello che rende e non ci sono possibili investimenti da fare in quanto mancano i soldi o meglio, ci sono debiti da ripianare

Credo che Ati continuerà ad aumentare le sue quote di mercato nel settore gaming, fino ad arrivare massimo al 25% (ad oggi nvidia detiene il 30% ed ati il 19%), cedendo leggermente nelle workstation. Nvidia rimane pur sempre una società sana, con bilancio in pareggio anche considerando la politica dissennata del enorme die-size, quindi qualcosa si inventeranno per tamponare i ritardi dal punto di vista economico.

!? 49%? di solito è il 100% il totale! :asd:
Considerando solo il mercato delle schede discrete Nvidia ha il 64% e ATI il 26% mi pare, mentre il restante 10% distribuito da aziende minori. tu stai considerando il mercato dei chip in generale

ippo.g
13-10-2009, 17:39
Il ragionamento non è sbagliato nel senso che piuttosto che vendere in perdita meglio vendere meno ma guadagnare qualcosa puntando sul nome e sull'ignoranza generalizzata, qualcuno trovano di sicuro...direi comunque che le gtx 260 e le gtx 275 sono ancora comprabili, mentre la gtx 285 è una "truffa" e chi la compra è uno scellerato.

:mad: :boxe:



:asd:

Kharonte85
13-10-2009, 17:48
http://en.expreview.com/2009/10/13/nvidia-partners-claim-gt200-still-in-mass-production.html
In questo caso dovrebbero abbassare i prezzi...
:mad: :boxe:



:asd:
Perchè tu l'hai presa adesso? :asd:

halduemilauno
13-10-2009, 17:55
In questo caso dovrebbero abbassare i prezzi...

Perchè tu l'hai presa adesso? :asd:

le 260 e le 275...
http://vr-zone.com/articles/nvidia-partners-deny-eol-of-gtx-200-series/7855.html?doc=7855
le 285 dovrebbero effettivamente sparire.
;)

Kharonte85
13-10-2009, 17:57
Io delle generazioni precedenti (a parte la parte bassa del mercato che concorderai non ce ne frega niente a noi due ma anche alla maggioranza degli utenti di questo forum :asd: ) consiglierei solo 4870 e 260, attualmente, il resto ormai è overpriced rispetto a quanto offre.
Secondo me finche' la situazione è questa, con la hd4850 difficilmente trovabile e sopra i 200e la gtx 275 ha ancora senso:

http://www.trovaprezzi.it/prezzo_schede-grafiche_hd5850.aspx

http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx_275.aspx

Sia per quelli che non vogliono/possono superare i 200e sia per quelli che non hanno voglia di aspettare che le schede arrivino con disponibilità elevate e conseguente stabilizzazione dei prezzi.

Kharonte85
13-10-2009, 18:00
le 260 e le 275...
http://vr-zone.com/articles/nvidia-partners-deny-eol-of-gtx-200-series/7855.html?doc=7855
le 285 dovrebbero effettivamente sparire.
;)

Se le gtx 260 e le gtx 275 si abbassano di prezzo possono ancora dire la loro mentre per la gtx 285 l' EOL sarebbe la cosa giusta.

ippo.g
13-10-2009, 18:05
In questo caso dovrebbero abbassare i prezzi...

Perchè tu l'hai presa adesso? :asd:

no, un anno fa :fagiano: e starà come vga principale fino all'uscita di Stalker, però potrei sempre usarla come VGA per la fisica :mc:

Kharonte85
13-10-2009, 18:06
no, un anno fa :fagiano:
E allora sei a posto ancora per un bel po' ;)

Andrea deluxe
13-10-2009, 21:11
so che non c'entra una mazza ma leggete....

http://www.brightsideofnews.com/news/2009/10/13/nvidia-tegra-wins-contract-for-next-gen-nintendo-ds.aspx

luce nel tunnel?

Matalf
13-10-2009, 21:15
so che non c'entra una mazza ma leggete....

http://www.brightsideofnews.com/news/2009/10/13/nvidia-tegra-wins-contract-for-next-gen-nintendo-ds.aspx

luce nel tunnel?

ma la nintendo lo sa che nvidia nelle console porta sfiga? :asd:

Andrea deluxe
13-10-2009, 21:16
ma la nintendo lo sa che nvidia nelle console porta sfiga? :asd:

pero' se ingrana..... i ds vendono come il pane....

ilratman
13-10-2009, 21:30
ma la nintendo lo sa che nvidia nelle console porta sfiga? :asd:

perchè?

Matalf
13-10-2009, 21:33
perchè?

xbox( la prima) e PS3 ;)

entrambe montano chip invidia entrambe dei flop :)

Matalf
13-10-2009, 21:42
Ed entrambe in pesante ritardo sulla concorrenza, fattore massimo responsabile dei flop.


io piùttosto direi che nonostante un forte ritardo non sono state in grado di sovrastare la concorrenza, e questo ne ha determinato il flop :)

comunque siamo un po OT :asd:




P.s: io posiedo un ps3 tra laltro :asd:

Andrea deluxe
13-10-2009, 21:42
Ed entrambe in pesante ritardo sulla concorrenza, fattore massimo responsabile dei flop.

se pensate che quei folli della sony volevano far fare tutta la grafica a 2 cell affiancati......


poi dopo aver visto le spec della 360...

7800gtx stracastrata su ps3.....

ilratman
13-10-2009, 21:46
xbox( la prima) e PS3 ;)

entrambe montano chip invidia entrambe dei flop :)

Ed entrambe in pesante ritardo sulla concorrenza, fattore massimo responsabile dei flop.

xbox sono daccordo ma ps3 non mi pare prorpio un flop, diciamo un floppino.

il problema di ps3 invece non è stato il ritardo ma lacomplessità nello sviluppo dei titoli.

poi ovviamente io non concepisco le consolle ma è un'altro disc orso.

Foglia Morta
14-10-2009, 07:09
Praticamente aveva ragione Charlie: http://www.anandtech.com/video/showdoc.aspx?i=3659

Simedan1985
14-10-2009, 08:27
Praticamente aveva ragione Charlie: http://www.anandtech.com/video/showdoc.aspx?i=3659

Cavolo ma questi stanno proprio messi male ,peggio di come si immaginava,se l'andazzo è questo la 5870 la paghiamo 300 euro per molto tempo

atomo37
14-10-2009, 08:30
Cavolo ma questi stanno proprio messi male ,peggio di come si immaginava,se l'andazzo è questo la 5870 la paghiamo 300 euro per molto tempo

c'è da dire che comunque è un buon prezzo per una scheda del genere, io due le ho pagate 650.

halduemilauno
14-10-2009, 09:52
http://www.youtube.com/watch?v=10xKBSEEvwQ

Kharonte85
14-10-2009, 09:56
http://www.youtube.com/watch?v=10xKBSEEvwQ

Attendibilità? :fagiano:


A vederlo così direi prossimo allo zero...:stordita:

Simedan1985
14-10-2009, 10:05
http://www.youtube.com/watch?v=10xKBSEEvwQ


:eekk: ...Ovviamente ,un fake:(

Maury
14-10-2009, 10:07
Attendibilità? :fagiano:


A vederlo così direi prossimo allo zero...:stordita:

Solo zero ? :stordita:

sei ottimista, è un fake così fake che si sente la puzza da qui alla cina :asd:

Simedan1985
14-10-2009, 10:10
Catapultiamo la domanda............E se fosse vero??

halduemilauno
14-10-2009, 10:11
Attendibilità? :fagiano:


A vederlo così direi prossimo allo zero...:stordita:

:sofico: :boh: :fiufiu:
;)

Maury
14-10-2009, 10:12
Catapultiamo la domanda............E se fosse vero??

Maddai e li metti su youtube ? va bene credere a tutto ma fare i polli no :rolleyes:

minimo li fai vedere alla presentazione della scheda...fake pure lei :asd:

Seph
14-10-2009, 10:21
mainstream a marzo 2010
http://www.fudzilla.com/content/view/15954/1/

halduemilauno
14-10-2009, 10:22
http://www.fudzilla.com/content/view/15955/1/

Looks good to them

Nvidia partners have high hopes that GF100, Fermi chip, should end up as a good one and they are already ordering some huge quantities of it.

The reasons behind such a risky decision are quite clear. GT200 is not that widely available anymore and probably someone at Nvidia messed up with 55nm wafer orders, as Nvidia didn’t expect to have such a strong demand in Q3 and Q4, and therefore partners do hope that Fermi can fix the situation.

You have to be the early birds with your orders as once Nvidia show it to all of the partners, the waiting line to get chips might already be too long. It is not that Nvidia partners have much of a choice, as GT200 is slowly being discontinued and Fermi is supposed to fill the gap.

Nvidia and its partners believe that Fermi should destroy Radeon 5870 and 5850 sales, but this is only once when Fermi starts shipping and it strongly depends on the quantities of what Nvidia can deliver. Until then ATI will be making quite a lot of money on 58x0 and 57x0 series.
;)

Simedan1985
14-10-2009, 10:26
Ahhhhh troppi indizzi fanno una prova :asd: ....Siamo d'avanti ad un mostro di potenza???

okorop
14-10-2009, 10:42
http://www.fudzilla.com/content/view/15955/1/

Looks good to them

Nvidia partners have high hopes that GF100, Fermi chip, should end up as a good one and they are already ordering some huge quantities of it.

The reasons behind such a risky decision are quite clear. GT200 is not that widely available anymore and probably someone at Nvidia messed up with 55nm wafer orders, as Nvidia didn’t expect to have such a strong demand in Q3 and Q4, and therefore partners do hope that Fermi can fix the situation.

You have to be the early birds with your orders as once Nvidia show it to all of the partners, the waiting line to get chips might already be too long. It is not that Nvidia partners have much of a choice, as GT200 is slowly being discontinued and Fermi is supposed to fill the gap.

Nvidia and its partners believe that Fermi should destroy Radeon 5870 and 5850 sales, but this is only once when Fermi starts shipping and it strongly depends on the quantities of what Nvidia can deliver. Until then ATI will be making quite a lot of money on 58x0 and 57x0 series.
;)
diciamo che distruggerà tutto :asd: speriamo che esca presto :)

michelgaetano
14-10-2009, 10:43
http://www.fudzilla.com/content/view/15955/1/

Looks good to them

Nvidia partners have high hopes that GF100, Fermi chip, should end up as a good one and they are already ordering some huge quantities of it.

The reasons behind such a risky decision are quite clear. GT200 is not that widely available anymore and probably someone at Nvidia messed up with 55nm wafer orders, as Nvidia didn’t expect to have such a strong demand in Q3 and Q4, and therefore partners do hope that Fermi can fix the situation.

You have to be the early birds with your orders as once Nvidia show it to all of the partners, the waiting line to get chips might already be too long. It is not that Nvidia partners have much of a choice, as GT200 is slowly being discontinued and Fermi is supposed to fill the gap.

Nvidia and its partners believe that Fermi should destroy Radeon 5870 and 5850 sales, but this is only once when Fermi starts shipping and it strongly depends on the quantities of what Nvidia can deliver. Until then ATI will be making quite a lot of money on 58x0 and 57x0 series.
;)

Fuad on fire :asd:

kiriranshelo
14-10-2009, 10:52
Ahhhhh troppi indizzi fanno una prova :asd: ....Siamo d'avanti ad un mostro di potenza???

diciamo che distruggerà tutto :asd: speriamo che esca presto :)

probabile. Anche perchè l'uscita di GT300 combacia (circa) con l'uscita del refresh di ATI quindi non è la HD5870 che si deve confrontare fermi ma con HD5890 e HD5890 X2. Lo spero per loro che sia veramente così potente

atomo37
14-10-2009, 10:53
diciamo che distruggerà tutto :asd: speriamo che esca presto :)

uhm, più che altro sono curioso di vedere nvidia a 330 e 240 euro cosa offrirà (e quando).

michelgaetano
14-10-2009, 10:59
uhm, più che altro sono curioso di vedere nvidia a 330 e 240 euro cosa offrirà (e quando).

Di Fermi si parlava di 499 $, quindi al cambio saremmo purtroppo ben oltre i 400. Aggiungeteci gli shop a rubarci, e la "fama" di cui Nvidia comunque gode, ed ecco i 450 € serviti :stordita:

atomo37
14-10-2009, 11:01
Di Fermi si parlava di 499 $, quindi al cambio saremmo purtroppo ben oltre i 400. Aggiungeteci gli shop a rubarci, e la "fama" di cui Nvidia comunque gode, ed ecco i 450 € serviti :stordita:

esattamente, per questo penso che polverizzare le vendite di ati in questo momento non sia facile visto che èentrata veramente di cattiveria, e penso che in questo momento si importante che ati si rimetta un po' in ciccia perchè se no la concorrenza che aiuta noi ce la possiamo scordare.

halduemilauno
14-10-2009, 11:06
uhm, più che altro sono curioso di vedere nvidia a 330 e 240 euro cosa offrirà (e quando).

le gtx370 e 360 ovvero le versioni a 480 e 448 shader. quando? in contemporanea infatti si parla di serie entro la fine dell'anno. per la gtx390 ovvero la dual gpu probabilmente toccherà aspettare gennaio(7?).
semper fidelis hem sempre in attesa.
;)

michelgaetano
14-10-2009, 11:07
esattamente, per questo penso che polverizzare le vendite di ati in questo momento non sia facile visto che èentrata veramente di cattiveria, e penso che in questo momento si importante che ati si rimetta un po' in ciccia perchè se no la concorrenza che aiuta noi ce la possiamo scordare.

Ma il punto è, che per le prestazioni che già avevamo con le serie "vecchie" e quelle che abbiamo ora con 5850 e 5870, Fermi per giustificare una cifra del genere deve andare uno sproposito, roba da far rizzare i capelli. Questo non è ovviamente scontato.

ATi dalla sua ha il vantaggio di poter agevolmente droppare i prezzi delle proprie schede (e sul momento sta guadagnando).

Speriamo Fermi vada di brutto :D

Simedan1985
14-10-2009, 11:11
Di Fermi si parlava di 499 $, quindi al cambio saremmo purtroppo ben oltre i 400. Aggiungeteci gli shop a rubarci, e la "fama" di cui Nvidia comunque gode, ed ecco i 450 € serviti :stordita:

no dai spero su 350

paolox86
14-10-2009, 11:14
A me interesserebbe la 360, degna sostituta della mia attuale 260, speriamo di non andare oltre i 350€ :)

michelgaetano
14-10-2009, 11:14
no dai spero su 350

Stai scherzando o cosa? È come credere in babbo natale :asd:

Non oso pensare cosa succederebbe se dopo tutto il FUD che nVidia fa girare per vie non ufficiali Fermi non dovesse stracciare tutto e alla grande in ambito gaming...

Io spero stracci tutto, così ATi droppa i prezzi e fa uscire eventuali refresh, e Nvidia ci da (troppo speranzoso?) una nuova 8800 GT :stordita:

atomo37
14-10-2009, 11:17
no dai spero su 350

purtroppo sono molto più plausibili i 450 di cui sopra.

Simedan1985
14-10-2009, 11:20
Stai scherzando o cosa? È come credere in babbo natale :asd:


IO a Babbo ci credo :asd: ,apparte gli scherzi quindi un eventuale x2 ,annunciata ,a quanto dovremmo acquistarla??
Sento puzza di ULTRAprezzi:cry:

Seph
14-10-2009, 11:21
Stai scherzando o cosa? È come credere in babbo natale :asd:

ahaha

per quanto mi riguarda sono "costretto" a puntare su nvidia avendo il 3d vision, e poi dopo aver visto di cosa é capace il physx su un gioco come batman arkham asylum non ho decisamente più dubbi :cool:

Kharonte85
14-10-2009, 11:31
Non oso pensare cosa succederebbe se dopo tutto il FUD che nVidia fa girare per vie non ufficiali Fermi non dovesse stracciare tutto e alla grande in ambito gaming...

Mi ricorda molto la vicenda GT200, che doveva spaccare tutto e invece sono stati più i delusi che i contenti all'uscita della GTX280 grazie all'hype che i soliti male informati hanno diffuso a pioggia...
Non è che andasse piano...solo che forse qualcuno si aspettava un G80 2...la stessa cosa comunque è successa per la hd5870 che era data poco prima dell'uscita come nettamente superiore alla gtx295...la realtà rivelata pochi giorni dopo è stata diversa (ma anche in questo caso non si puo' dire che la scheda vada piano)...è solo un discorso di aspettative sbagliate.

Su una cosa pero' nvidia ci ha abituati: la Top successiva supera la precedente Dual GPU quindi non ho motivo di dubitare che anche questa volta si verifichi lo stesso.

Seph
14-10-2009, 11:34
Dimezzare gli FPS senza aggiungere nulla al sistema di gioco? Un middleware per la fisica? Dai su...

beh ti assicuro che 3dstereo+physx su un titolo del genere cambiano totalmente l'atmosfera di gioco

qui c'e' un video di confronto
http://www.youtube.com/watch?v=6GyKCM-Bpuw

paolox86
14-10-2009, 11:35
Dimezzare gli FPS senza aggiungere nulla al sistema di gioco? Un middleware per la fisica? Dai su...

Quoto, è solo una piccola ciliegina sulla torta ma sono imho altri i parametri per scegliere una Gpu.
Io valuterò come ho sempre fatto quella migliore per le mie esigenze in rapporto al prezzo e le 2 candidate saranno hd 5850 e Gtx360.
Certo vedendo le specifiche di fermi, ora mi vedrei di più con la 360 ma preferisco non sbilanciarmi in anticipo e vedere i prezzi che saranno proposti quando tutte e due le famiglie di schede saranno lì a battagliare sul campo.

Kharonte85
14-10-2009, 11:41
Certo, di questo parlavo e per questo criticai certi utenti di questo forum. Un prodotto, qualunque prodotto, se atteso con roboanti annunci di prestazioni incredibili e allucinanti finisce per essere una delusione e basta, anche se è un prodotto buono o ottimo.

Poi si possono fare tutte le disquisizioni possibili su rapporti prezzo/prestazioni (importantissimi per noi) o die area/prestazioni (importantissimi per chi le GPU le vende) ma il concetto che esprimevo, e che al tempo rafforzai con una bella antologia di vaccate, era proprio questo.
E allora siamo d'accordo :mano:

Errik89
14-10-2009, 13:03
Non è che andasse piano...solo che forse qualcuno si aspettava un G80 2...la stessa cosa comunque è successa per la hd5870 che era data poco prima dell'uscita come nettamente superiore alla gtx295...la realtà rivelata pochi giorni dopo è stata diversa (ma anche in questo caso non si puo' dire che la scheda vada piano)...è solo un discorso di aspettative sbagliate.

Su una cosa pero' nvidia ci ha abituati: la Top successiva supera la precedente Dual GPU quindi non ho motivo di dubitare che anche questa volta si verifichi lo stesso.
ALT, questo succedeva ed è successo fino all'anno scorso ANCHE perchè il dual gpu non rendevano molto bene. Ora si è visto che grazie anche ai core i5&i7 i dual gpu rendono MOLTO meglio (vedi CF&SLI che scalano quasi sempre a 1.7-1.8x anche a risoluzioni medio-basse con punte che si avvicinano al 100% a risoluzioni altissime) quindi ora è più difficile battere la vecchia dual gpu di quanto non lo fosse un anno e mezzo fa. Con questo non voglio dire che G300 non batterà GTX295, anzi penso proprio e soprattutto spero che la batta altrimenti in confronto a RV870 sarà un mezzo flop, ma comunque non mi aspetterei margini alti in confronto alla GTX295.
Se la situazione del CF/SLI fosse quella di un anno e mezzo fa probabilmente anche la 5870 avrebbe battuto la GTX295, e comunque è sotto di un 10% di performance.

Errik89
14-10-2009, 13:06
http://en.inpai.com.cn/doc/enshowcont.asp?id=7166

Non è che mi sia molto chiaro il senso che danno alla parola "mainstream", più probabilmente intendono "Performance" usando una parola che anche in questo forum viene spesso usata a sproposito :)
LATE Q1 2010??? Azzzz :muro: :muro:
Mi aspettavo al massimo fine gennaio 2010 magari con presentazione entro natale e disponibilità in massa per metà-fine gennaio. (una specie di semi-paper-launch tipo quello delle 5850) :(

atomo37
14-10-2009, 13:08
beh ti assicuro che 3dstereo+physx su un titolo del genere cambiano totalmente l'atmosfera di gioco

qui c'e' un video di confronto
http://www.youtube.com/watch?v=6GyKCM-Bpuw

effettivamente ;)

atomo37
14-10-2009, 13:16
Sono rumors come gli altri, crederemo quando vedremo.

Probabilmente il paper lunch sarà effettivamente prima della fine dell'anno, ma la disponibilità in volumi sarà ben lontana da venire, mesi, non settimane.

mesi?
è ormai da parecchio tempo che il lancio delle schede video viene effettuato qualche giorno prima della reale disponibilità del prodotto su tutti i mercati mondiali.
giusto un esempio: nda scaduto la mattina dell'8 gennaio 2009 per la presentazione della gtx295, stessa mattina esce recensione su hardware upgrade, io l'ho ordinata il giorno dopo da nexth, ricevuta 12 gannaio.

Severnaya
14-10-2009, 13:17
beh ti assicuro che 3dstereo+physx su un titolo del genere cambiano totalmente l'atmosfera di gioco

qui c'e' un video di confronto
http://www.youtube.com/watch?v=6GyKCM-Bpuw


indubbiamente l'atmosfera cambia ma...


sono incredibilmente scettico sul fatto che quegli effetti nn si sarebbero potuti fare in maniera "classica"

Errik89
14-10-2009, 13:27
mesi?
è ormai da parecchio tempo che il lancio delle schede video viene effettuato qualche giorno prima della reale disponibilità del prodotto su tutti i mercati mondiali.
giusto un esempio: nda scaduto la mattina dell'8 gennaio 2009 per la presentazione della gtx295, stessa mattina esce recensione su hardware upgrade, io l'ho ordinata il giorno dopo da nexth, ricevuta 12 gannaio.
si, però in questo caso nvidia se sarà in ritardo potrà decidere di fare una specie di paper-launch.
Comunque per alcune schede anche recentemente ci sono stati problemi di reperibilità dopo il lancio, vedi 8800GT e ultimamente con la HD5850.

kiriranshelo
14-10-2009, 13:34
LATE Q1 2010??? Azzzz :muro: :muro:
Mi aspettavo al massimo fine gennaio 2010 magari con presentazione entro natale e disponibilità in massa per metà-fine gennaio. (una specie di semi-paper-launch tipo quello delle 5850) :(

Bè innanzitutto dipende se si riferiscono all'anno fiscale o reale. Fiscale parte da ottobre/novembre-febbraio/marzo, reale da gennaio/marzo.

mesi?
è ormai da parecchio tempo che il lancio delle schede video viene effettuato qualche giorno prima della reale disponibilità del prodotto su tutti i mercati mondiali.
giusto un esempio: nda scaduto la mattina dell'8 gennaio 2009 per la presentazione della gtx295, stessa mattina esce recensione su hardware upgrade, io l'ho ordinata il giorno dopo da nexth, ricevuta 12 gannaio.

Considera che però sono in ritardo e per non perdere clienti e aumentare l'hype potrebbe presentarsi la situazione che ha descritto ratatosk

Probabilmente il paper lunch sarà effettivamente prima della fine dell'anno, ma la disponibilità in volumi sarà ben lontana da venire, mesi, non settimane.

indubbiamente l'atmosfera cambia ma...
sono incredibilmente scettico sul fatto che quegli effetti nn si sarebbero potuti fare in maniera "classica"

Effettivamente non è che cambi chissà che cosa in rapporto alla diminuzione di fps, il physx probabilmente è studiato appositamente per due gpu non per una; a questo punto havok tutta la vita che fa eseguire la fisica alla cpu

Aenil
14-10-2009, 14:31
indubbiamente l'atmosfera cambia ma...


sono incredibilmente scettico sul fatto che quegli effetti nn si sarebbero potuti fare in maniera "classica"

sì e ci sono pure come vedi :) peccato siano per lo più prerenderizzati.. al massimo si può usare qualcosa con l'havock ma i risultati sono ben diversi.

Severnaya
14-10-2009, 18:16
cioè tu assumi che i pre renderizzati siano gli effetti con Physx off???


http://www.diesirae-guild.eu/smf/Smileys/dies/look.gif

Sergio_Di_Rio
14-10-2009, 18:32
beh ti assicuro che 3dstereo+physx su un titolo del genere cambiano totalmente l'atmosfera di gioco

qui c'e' un video di confronto
http://www.youtube.com/watch?v=6GyKCM-Bpuw

Beh, bisogna ammettere che pur non aggiungendo nulla al gameplay, gli effetti physx fanno la loro "porca" :oink: figura.

Il calo di prestazioni è però decisamente eccessivo (-67% su una GTX280 in Batman Arkham Asylum):

http://endeavorquest.net:8888/index.htm

http://tinyurl.com/yjkxm64

Nino Grasso
14-10-2009, 19:58
Dimezzare gli FPS senza aggiungere nulla al sistema di gioco? Un middleware per la fisica? Dai su...

:mc: :mc: :mc: :mc: :mc: :mc:

Tipico ragionamento dell'italiano medio scettico alle innovazioni. Meno male che c'è gente (probabilmente non sfacciati fanboy ATi) che preferisce gustarseli i giochi. Detto questo se ragionassi come te starei giocando a Super Mario Bros in questo momento, e per fortuna non sono come te.

Aenil
14-10-2009, 20:55
cioè tu assumi che i pre renderizzati siano gli effetti con Physx off???

http://www.diesirae-guild.eu/smf/Smileys/dies/look.gif

sì alcuni si vedono bene, altri invece non lo sono.. perchè?

michelgaetano
14-10-2009, 21:00
Fossi come me probabilmente conosceresti il significato della parola "fisica" e capiresti come non ci sia alcuna "fisica" in Batman: AA ;)

Ricambio e condivido il pensiero totalmente :kiss:

:asd:

Nino Grasso
14-10-2009, 21:11
Ma le cose che dici non stanno né in cielo né in terra. La cosa patetica è che c'è gente che ti dà pure corda. Faresti di tutto per affossare nVidia, ammettilo a te stesso, perché secondo me nemmeno tu lo capisci tanto infoiato sei.

Ma scusami l'anti-alias cambia qualcosa al game-play? I vari effetti di bump mapping? La fisica cosa sarebbe? Sparare con una pistola su una palma e vederla spezzettarsi in mille pezzi?

La verità è che nel caso di Batman AA attivare il PhysX cambia l'esperienza di gioco. Che poi è destinato a morire con l'OpenCL, o che nVidia (secondo i tuoi strampalatissimi calcoli) stia per morire o abbandonare il mercato delle schede video è un altro discorso. In soldoni: specificatamente con Batman AA si ha un'esperienza di gioco migliore con PhysX attivo. Vero o Falso? Tu risponderesti falso, e questo è non voler vedere con gli occhi ma con il tifo.

Fatti tuoi.

Non vorrai ammetterlo mai, lo so, ma in questo modo non screditi solo nVidia, ma i programmatori che a differenza tua fanno qualcosa nella vita, invece che screditare l'operato altrui.

Gli effetti fisici di Batman migliorano notevolmente l'esperienza visiva del gioco, non serve a questo una scheda grafica? Mi raccomando giocali al minimo i giochi perché la grafica (per te) non serve a nulla.

michelgaetano
14-10-2009, 21:19
Ma scusami l'anti-alias cambia qualcosa al game-play? I vari effetti di bump mapping? La fisica cosa sarebbe? Sparare con una pistola su una palma e vederla spezzettarsi in mille pezzi?


Io pretendo l'AA. Se non posso attivarlo sulla mia scheda, devi specificarmelo sulla confezione. (Parlo in linea teorica, ho una 260 nel case)

DVD2005
14-10-2009, 21:52
Io pretendo l'AA. Se non posso attivarlo sulla mia scheda, devi specificarmelo sulla confezione. (Parlo in linea teorica, ho una 260 nel case)

su questo sono d'accordo con te, in special modo se nella demo me lo hai fatto applicare, è stata una mossa davvero brutta.
per quanto riguarda physX, pur non essendo un qualcosa che riguarda strettamente la fisica per come la intendiamo in un vg, è, però, innegabile che abbia aggiunto al titolo un tocco in più e nemmeno di poco conto. Imho

Nino Grasso
14-10-2009, 21:57
Prova a giocare a Dark Messiah of Might and Magic. Quella è fisica.

Nel film Blade Runner, l'atmosfera noir era realizzata magnificamente tramite un sapiente uso delle luci. Seguendo il tuo ragionamento non servono a nulla perché tanto anche senza quelle il film lo si capisce lo stesso.

O le scenografie de Il Signore degli Anelli togliamole e facciamo recitare Frodo e compagnia bella in una stanza d'albergo, tanto alla fine il senso lo si coglie anche senza quelle. Non capisco come abbiano potuto spendere quelle cifre enormi.

Ti posso fare esempi che non c'entrano nulla (come il tuo) quanti ne vuoi e tutti ti vanno a dire che quello che c'è in più male non fa, anzi migliora l'esperienza. Ancora aspetto la tua risposta al mio quesito: l'utilizzo di PhysX migliora l'esperienza di gioco?

Mi aspetto una risposta del tipo: "Non ci sono le strade e fanno il ponte?" da gente che la Sicilia l'ha vista solo nei depliant degli alberghi di Taormina. :\

Andrea deluxe
14-10-2009, 22:21
Ma le cose che dici non stanno né in cielo né in terra. La cosa patetica è che c'è gente che ti dà pure corda. Faresti di tutto per affossare nVidia, ammettilo a te stesso, perché secondo me nemmeno tu lo capisci tanto infoiato sei.

Ma scusami l'anti-alias cambia qualcosa al game-play? I vari effetti di bump mapping? La fisica cosa sarebbe? Sparare con una pistola su una palma e vederla spezzettarsi in mille pezzi?

La verità è che nel caso di Batman AA attivare il PhysX cambia l'esperienza di gioco. Che poi è destinato a morire con l'OpenCL, o che nVidia (secondo i tuoi strampalatissimi calcoli) stia per morire o abbandonare il mercato delle schede video è un altro discorso. In soldoni: specificatamente con Batman AA si ha un'esperienza di gioco migliore con PhysX attivo. Vero o Falso? Tu risponderesti falso, e questo è non voler vedere con gli occhi ma con il tifo.

Fatti tuoi.

Non vorrai ammetterlo mai, lo so, ma in questo modo non screditi solo nVidia, ma i programmatori che a differenza tua fanno qualcosa nella vita, invece che screditare l'operato altrui.

Gli effetti fisici di Batman migliorano notevolmente l'esperienza visiva del gioco, non serve a questo una scheda grafica? Mi raccomando giocali al minimo i giochi perché la grafica (per te) non serve a nulla.

Nel film Blade Runner, l'atmosfera noir era realizzata magnificamente tramite un sapiente uso delle luci. Seguendo il tuo ragionamento non servono a nulla perché tanto anche senza quelle il film lo si capisce lo stesso.

O le scenografie de Il Signore degli Anelli togliamole e facciamo recitare Frodo e compagnia bella in una stanza d'albergo, tanto alla fine il senso lo si coglie anche senza quelle. Non capisco come abbiano potuto spendere quelle cifre enormi.

Ti posso fare esempi che non c'entrano nulla (come il tuo) quanti ne vuoi e tutti ti vanno a dire che quello che c'è in più male non fa, anzi migliora l'esperienza. Ancora aspetto la tua risposta al mio quesito: l'utilizzo di PhysX migliora l'esperienza di gioco?

Mi aspetto una risposta del tipo: "Non ci sono le strade e fanno il ponte?" da gente che la Sicilia l'ha vista solo nei depliant degli alberghi di Taormina. :\

hai pienamente ragione!

io ho ordinato una hd5870 che mi gusto fino a quando esce la gtx 380...

posso avere tutto.... voglio tutto.....(con la 380)

gianni1879
14-10-2009, 22:52
che dite? date un taglio a questa discussione?


Tornate IT

Severnaya
14-10-2009, 23:12
sì alcuni si vedono bene, altri invece non lo sono.. perchè?


perché i programmatori hanno voluto così? http://www.diesirae-guild.eu/smf/Smileys/dies/look.gif

Seph
15-10-2009, 11:51
io mi riferivo più che altro al fatto che la scheda si chiama Nvidia Fermi, ci sarà in qualche modo attinenza al nobel italiano per la fisica, ovvio poi che in batman arkham asylum siamo solo agli inizi ma il risultato é notevolmente superiore a quello di inizio anno con Mirror's Edge. Gli effetti che si attivano non sono molti ma il gioco ne fa larghissimo uso:

Nvidia's PhysX Enhancements to Batman Arkham Asylum PC
- destructible object and gpu rigid bodies
- dynamic smoke, steam and ground fog simulation
- dynamic paper
- cloth simulation
- tearable cloth/mattresses
- dynamic environmental effects (webs, leafs, sparks, etc.)

"After spending a weekend with the game, we can report that we were pleasantly surprised at how much the PhysX effects enhanced the atmosphere of the game's gloomy setting. Our last outing with a PhysX-enabled AAA PC game, Mirror's Edge back in January, was much clunkier. In Batman, sheets of paper scattered on the floor move convincingly as characters walk over them. Bricks, glass, and tiles shatter and break apart realistically. Fog, smoke, and spider webs waft and curl around characters realistically. With PhysX off you get none of those effects, and a less interesting environment as a result. Compared to the tacked on PhysX-effects in Mirror's Edge, the effects in Batman noticeably improve the atmosphere. We're clearly still in the early days of hardware physics acceleration. It will likely be another generation or two (Windows 9/DirectX 13, we'd speculate) before the physics-capable player base is large enough to support games with physics built-in from top to bottom. Nvidia's PhysX is also not the only hardware-accelerated solution out there, as ATI has partnered with physics software maker Havok to support its HavokFX hardware physics code. The DirectCompute portion of Microsoft's DirectX 11, coming along with Windows 7, is also poised to open up a hardware agnostic path to all of that parallel processing capability on your 3D card that physics acceleration requires."

Confermo comunque il notevole calo di prestazioni a causa del physx a settaggio high, tra l'altro ho un ulteriore dimezzamento degli fps siccome uso i 3d googles con il monitor samsung 2233rz, però con una gtx295 non me ne importa molto visto che regge tranquillamente i 60fps in fullhd e l'effetto di avere miriadi di particles che "saltano fuori" dallo schermo é assolutamente da provare. Massima fiducia in nvidia, dall'anno prossimo tral'altro sembra certo il passaggio al 3d anche sulle tv e in futuro si spera consoles..

http://www.avmagazine.it/news/diffusori/ifa-tv-sony-bravia-3d-nel-2010_4592.html
http://www.avmagazine.it/news/televisori/samsung-lcd-240hz-3d-da-55-pollici_4699.html

persa
15-10-2009, 11:54
che dite? date un taglio a questa discussione?


Tornate IT

infati, basta la polenmtica :) :fagiano:

Diobrando_21
15-10-2009, 13:27
ma cosa intendete x calo di prestazioni con physx in batman? Nel senso generale o solo in determinate situazioni? Io per esempio ho dei cali quando viene inquadrato da vicino il fumo o nelle sezioni contro spaventapasseri, quando volano i pezzi di mattoni...vi risulta?

michelgaetano
15-10-2009, 13:29
ma cosa intendete x calo di prestazioni con physx in batman? Nel senso generale o solo in determinate situazioni? Io per esempio ho dei cali quando viene inquadrato da vicino il fumo o nelle sezioni contro spaventapasseri, quando volano i pezzi di mattoni...vi risulta?

Attivando PhysX al massimo il framerate droppa in maniera quasi indecente (vedasi gente con gtx 280 scendere sotto i 30 frames).

In questo senso, quei "poveracci" con una GTS 250 (che detto così pare uno schifo di scheda, quando in realtà è ben altro - oltre un rebrand, si intende) cosa dovrebbero dire? :stordita:

goldorak
15-10-2009, 13:35
Attivando PhysX al massimo il framerate droppa in maniera quasi indecente (vedasi gente con gtx 280 scendere sotto i 30 frames).

In questo senso, quei "poveracci" con una GTS 250 (che detto così pare uno schifo di scheda, quando in realtà è ben altro - oltre un rebrand, si intende) cosa dovrebbero dire? :stordita:

Presente :D , dicono che il PhysX e' inutile perche' rende il gioco ingiocabile.

persa
15-10-2009, 13:36
Presente :D , dicono che il PhysX e' inutile perche' rende il gioco ingiocabile.

hai provato? quidi è vero? :confused:

michelgaetano
15-10-2009, 13:37
Presente :D , dicono che il PhysX e' inutile perche' rende il gioco ingiocabile.

hai provato? quidi è vero? :confused:

Se su una 280, che è ancora una bestia di scheda, i risultati sono quelli... :stordita:

Diventa giocabile solo delegando la fisica ad un'altra vga :rolleyes:

persa
15-10-2009, 13:39
peccato :nono:

Gabriyzf
15-10-2009, 13:50
ho finito batman con la scheda in firma a 1920x1080 tutto a palla, aa 2x e physx su normale senza alcun rallentamento percepibile

persa
15-10-2009, 13:51
ho finito batman con la scheda in firma a 1920x1080 tutto a palla, aa 2x e physx su normale senza alcun rallentamento percepibile

ache un mio amico afferma questo, tutti i efetti al massimo. a chi credere?:mc:

Gabriyzf
15-10-2009, 13:57
ache un mio amico afferma questo, tutti i efetti al massimo. a chi credere?:mc:

cosa ci guadagnerei dicendoti una bugia? ;)

Gabriyzf
15-10-2009, 14:02
Immagino nemmeno gli altri che hanno una GTX260 ci guadagnino :)

onestamente a me dei fanboy non può importare di meno: controlla tutti i miei post e dimmi se mi sono comportato in malafede una sola volta.
Poi tu sei abbastanza apertamente tifoso ati e parteggi per chi dice che è ingiocabile.Vieni a trovarmi e ti mostro che invece è come dico io ;)
Comunque guardate nel 3d ufficiale di Batman e ci sono delle prove di prestazioni che sostanzialmente confermano quanto ho detto

persa
15-10-2009, 14:02
onestamente a me degli altri non può importare di meno: controlla tutti i miei post e dimmi se mi sono comportato in malafede una sola volta.
Poi tu sei un fanboy ati e chiaramente tifi per chi dice che è ingiocabile.Vieni a trovarmi e ti mostro che invece è come dico io ;)

ok ti credo ma non bisticciate ragazzi:p

Bastoner
15-10-2009, 14:05
onestamente a me dei fanboy non può importare di meno: controlla tutti i miei post e dimmi se mi sono comportato in malafede una sola volta.
Poi tu sei abbastanza apertamente tifoso ati e partegghi per chi dice che è ingiocabile.Vieni a trovarmi e ti mostro che invece è come dico io ;)
Comunque guardate nel 3d ufficiale di Batman e ci sono delle prove di prestazioni che sostanzialmente confermano quanto ho detto

Bhé mi sembra difficile crederti, visto che col sistema in firma ho dei paurosi cali di frame....

persa
15-10-2009, 14:06
Bhé mi sembra difficile crederti, visto che col sistema in firma ho dei paurosi cali di frame....

:eek:

Gabriyzf
15-10-2009, 14:09
Bhé mi sembra difficile crederti, visto che col sistema in firma ho dei paurosi cali di frame....


mi sembra assurdo: avrai altri problemi...


Mi fido dei benchmark. Sarà perché sono un fanboy :asd:

http://www.pcgameshardware.com/screenshots/original/2009/09/Batman_Arkham_Asylum_Benchmarks_6.PNG

http://www.pcgameshardware.com/aid,695577/Batman-Arkham-Asylum-Physx-benchmarks-with-comparison-shots-and-video/Practice/

FPS dimezzati con PhysX a Medium e ancora peggio a High.

non ho detto che non ci siano dimezzamenti di fps, ho detto che rimane giocabilòissimo: con physx su normale, non su alto, ché tanto visivamente cambia ben poco

Aenil
15-10-2009, 14:09
Bhé mi sembra difficile crederti, visto che col sistema in firma ho dei paurosi cali di frame....

scusate se continuo il semi OT ma credo che tu come altri abbiate dei problemi col pc.. è più probabile questa cosa rispetto al fatto che il mio pc come quello di altri sia miracolato e riesce a reggere Batman AA con tutto al massimo physiX compreso, non credi?

Bastoner
15-10-2009, 14:11
scusate se continuo il semi OT ma credo che tu come altri abbiate dei problemi col pc.. è più probabile questa cosa rispetto al fatto che il mio pc come quello di altri sia miracolato e riesce a reggere Batman AA con tutto al massimo physiX compreso, non credi?

Si come no.
Hai 60 frames costanti? Gioca con fraps attivo e poi ne parliamo :asd:

persa
15-10-2009, 14:12
però basta vada a 35 frmes ;) ed e giocabile;)

Gabriyzf
15-10-2009, 14:13
Si come no.
Hai 60 frames costanti? Gioca con fraps attivo e poi ne parliamo :asd:

io quando gioco, gioco e i cali di fps li vedo ad occhio, se ci sono, poi verifico con fraps: se tutto rimane fluido e giocabile a che pro far partire fraps?

Bastoner
15-10-2009, 14:14
però basta vada a 35 frmes ;) ed e giocabile;)

Giocabile non vuol dire che va bene. Con un sistema di fascia alta non ci si può accntentare del "giocabile" :rolleyes:

Bastoner
15-10-2009, 14:14
io quando gioco, gioco e i cali di fps li vedo ad occhio, se ci sono, poi verifico con fraps: se tutto rimane fluido e giocabile a che pro far partire fraps?

Allora i cali ci sono, lo dici anche tu. Quindi che stiamo discutendo a fare?

persa
15-10-2009, 14:16
giocable a casa mia vuol dire che il gioco te lo godi, era brutt se faceva solo 20 frame ;)

Aenil
15-10-2009, 14:20
Si come no.
Hai 60 frames costanti? Gioca con fraps attivo e poi ne parliamo :asd:

ma voi mi sa che... no dai lasciamo stare..

comunque scusami se sono così stupido da giocare a fine giornata con un bel VG senza pensare troppo a queste cose, fraps e menate varie, se ti dico che ci gioco bene evidentemente non ho riscontrato problemi, se fa 45 fps invece che 60-70 manco me ne accorgo..

"bastoner" se ti sta tanto a cuore la cosa sei liberissimo di pensarla come vuoi, credevo di avere anch'io il diritto di dire la mia opinione, scusate..

/OT

Gabriyzf
15-10-2009, 14:20
Allora i cali ci sono, lo dici anche tu. Quindi che stiamo discutendo a fare?

sto parlando in senso generico :O

Gabriyzf
15-10-2009, 14:25
Beh in quella benchmark di fps ne fa 29 minimi con un i7 a 3.5GHz e una GTX285, che non si vedano rallentamenti con una 260 è almeno dubbio...

...il bello è che mi devo vedere anche scritto che sono un fanboy. Anche i benchmark sono fanboy? Mah... curatevi... ma da uno bravo...

ti ho già ribadito con physx su normal: se lo setti su alto allora con la 260 gs non ci giochi.

E comunque la differenza visiva tra physx normal e high è trascurabile.

luX0r.reload
15-10-2009, 14:35
ti ho già ribadito con physx su normal: se lo setti su alto allora con la 260 gs non ci giochi.
E comunque la differenza visiva tra physx normal e high è trascurabile.
Ma giocate o fate benchmark?
Perchè se vi limitate a giocare, vi dico che io Batman l'avevo iniziato a giocare con la 8800GT (tirata a morte è vero, ma pur sempre una GT) e physx attivo e non ho avuto nessun problema :rolleyes:
Certo non avrò avuto 60fps di average, come dice qualcuno, ma era giocabilissimo.

Bastoner
15-10-2009, 14:36
ma voi mi sa che... no dai lasciamo stare..

comunque scusami se sono così stupido da giocare a fine giornata con un bel VG senza pensare troppo a queste cose, fraps e menate varie, se ti dico che ci gioco bene evidentemente non ho riscontrato problemi, se fa 45 fps invece che 60-70 manco me ne accorgo..

"bastoner" se ti sta tanto a cuore la cosa sei liberissimo di pensarla come vuoi, credevo di avere anch'io il diritto di dire la mia opinione, scusate..

/OT

Hai avuto una giornata pesante?
Non ti ho mica negato il diritto di avere la tua opinione. Puoi giocare anche a 20 frames se ti va bene, ma il fatto é che physix ti fa calare il framerate fino a 25/30, e non mi sembra una cosa buona :rolleyes:

Gabriyzf
15-10-2009, 14:51
Ma giocate o fate benchmark?
Perchè se vi limitate a giocare, vi dico che io Batman l'avevo iniziato a giocare con la 8800GT (tirata a morte è vero, ma pur sempre una GT) e physx attivo e non ho avuto nessun problema :rolleyes:
Certo non avrò avuto 60fps di average, come dice qualcuno, ma era giocabilissimo.

è proprio questo il punto...

Legolas84
15-10-2009, 14:56
ti ho già ribadito con physx su normal: se lo setti su alto allora con la 260 gs non ci giochi.

E comunque la differenza visiva tra physx normal e high è trascurabile.

Non date da mangiare ai troll che ogni tanto rispuntano... ;)

Bastoner
15-10-2009, 15:14
Non date da mangiare ai troll che ogni tanto rispuntano... ;)

Scusa a chi ti riferisci?
Ti prego di non fare allusioni vaghe.

luX0r.reload
15-10-2009, 15:34
Si riferisce a me. Quando porto fatti contro fanboy lui mi definisce troll. E' uno sport come un altro, del tutto innocuo. D'altra parte confutare fatti è molto più complicato che dare del troll... :rolleyes:
Da quel che leggo però non mi sembra che ci sia stata da parte sua nessun tipo di allusione al numero di fps:rolleyes:
Quindi quel che per te può essere ingiocabile, per lui potrebbe esserlo.
Non tutti gli engine sono uguali. Ad esempio Crysis a 20fps per alcuni era giocabile, magari per via dell'effetto di motion blur applicato durante i movimenti.

Gabriyzf
15-10-2009, 15:36
Infatti quello che ho scritto si riferiva al normal, non all'high:





ti posso assicurare che su normale a 1920x1080 tutto il resto alto e aa2x e occlusione ambientale abilitata con gli ultimi driver 191.07 si gioca alla grande con una 260 o.c.: se ancora non mi credi mi dispiace ma è un problema tuo, non mio: io mi sono divertito una cifra.
Ho avuto sia nvida che ati e l'unico mio fanboysmo nelle vga, se così si può chiamare, è per il miglior rapporto q/p, indipendentemente dalle marche.

Bastoner
15-10-2009, 15:51
A parte che qualcuno ha scritto che a 35 è giocabile, tutto è nato dal fatto che ho scritto che chi ha una 260 e dice che è ingiocabile non ci guadagna nulla tanto quanto lui a dire che lo è, al che ha voluto a tutti i costi darmi del fanboy.

In ogni caso gli FPS sono un dato oggettivo, al contrario di "è giocabile"/"è ingiocabile".

Così come è oggettivo che se con un i7@3.5GHz e una GTX285 fa 29 di minimo con una 260 ne farà sicuramente meno.

Poi ognuno è libero di voler credere che Cristo è morto dal freddo, ma i dati sono li e parlano per chi è fanboy e chi no.

Esatto, la questione non é giocabile/ingiocabile. Perché ogni volta che si tira fuori questo discorso c'è qualcuno che interviene dicendo "i vostri pc hanno problemi, é perfettamente giocabile" :rolleyes:
Fraps parla chiaro (e anche i miei occhi), con Physx disattivato fa più di 80 frames in ogni situazione, con Physx attivo il framerate scende e si attesta sui 50-60, ma con vistosi e fastidiosi cali a 30-35 negli ambienti aperti, nei combattimenti affollati, nelle situazioni in cui ci sono foglie e carta che svolazzano.
Ora, si tratta di valutare se questa perdita di performance é giustificata dalla bellezza che il gioco acquista grazie a Physx. Ebbene, la risposta non può essere che no.

luX0r.reload
15-10-2009, 16:04
A parte che qualcuno ha scritto che a 35 è giocabile, tutto è nato dal fatto che ho scritto che chi ha una 260 e dice che è ingiocabile non ci guadagna nulla tanto quanto lui a dire che lo è, al che ha voluto a tutti i costi darmi del fanboy.

In ogni caso gli FPS sono un dato oggettivo, al contrario di "è giocabile"/"è ingiocabile".

Così come è oggettivo che se con un i7@3.5GHz e una GTX285 fa 29 di minimo con una 260 ne farà sicuramente meno.

Poi ognuno è libero di voler credere che Cristo è morto dal freddo, ma i dati sono li e parlano per chi è fanboy e chi no.
Ho capito quel che intendi, ma come hai detto ora anche tu, il giocabile/ingiocabile è soggettivo e i bench che hai postato non dimostrano niente perchè essendo "semplici" numeri, non possono tener conto della concezione (soggettiva) che l'utente ha di giocabile e ingiocabile (che varia anche da gioco a gioco).
Quindi non vedo perchè insistere con i bench visto che in questo caso lasciano il tempo che trovano, sopratutto per un gioco come Batman.

EDIT: Vabbè vedo che anche bastoner sta parlando di fps... quindi i tuoi bench in questo caso tornano a fare testo. Io vi saluto :)

DVD2005
15-10-2009, 16:06
Esatto, la questione non é giocabile/ingiocabile. Perché ogni volta che si tira fuori questo discorso c'è qualcuno che interviene dicendo "i vostri pc hanno problemi, é perfettamente giocabile" :rolleyes:
Fraps parla chiaro (e anche i miei occhi), con Physx disattivato fa più di 80 frames in ogni situazione, con Physx attivo il framerate scende e si attesta sui 50-60, ma con vistosi e fastidiosi cali a 30-35 negli ambienti aperti, nei combattimenti affollati, nelle situazioni in cui ci sono foglie e carta che svolazzano.
Ora, si tratta di valutare se questa perdita di performance é giustificata dalla bellezza che il gioco acquista grazie a Physx. Ebbene, la risposta non può essere che no.

per me ad esempio la risposta è si.

sickofitall
15-10-2009, 16:11
ragazzi, dobbiamo fare 15 pagine di ot come l'altra volta oppure ci date un taglio? qui si parla delle nuove gtx, non di physx o guerre su chi ce l'ha più lungo e bello :fagiano:

Andrea deluxe
15-10-2009, 16:15
ragazzi, dobbiamo fare 15 pagine di ot come l'altra volta oppure ci date un taglio? qui si parla delle nuove gtx, non di physx o guerre su chi ce l'ha più lungo e bello :fagiano:

quoto!
http://91.121.132.199/gifs/11360.gif

gianni1879
15-10-2009, 16:18
Allora o ci date un taglio o ci date un taglio, non ci sono alternative.

Ultimo avviso dopo di che pioveranno i provvedimenti, nessuno escluso


:read:

Bastoner
15-10-2009, 16:20
edit

sorry gianni, non avevo letto.

The_SaN
15-10-2009, 16:23
edit


EDIT: ho appena visto il messaggio di gianni. Il mio non sembra un commento di parte/flame, ma se si ritiene opportuno edito :)

Severnaya
15-10-2009, 16:37
edit

gianni1879
15-10-2009, 16:40
edit

http://www.hwupgrade.it/forum/showpost.php?p=29291248&postcount=7358

nervoteso
16-10-2009, 08:52
raga, non so se aspettare ste nuove gtx o farmi una 5870. secondo voi con la 5870 faccio un bel salto in avanti rispetto alla gtx 280?

gianni1879
16-10-2009, 09:51
raga, non so se aspettare ste nuove gtx o farmi una 5870. secondo voi con la 5870 faccio un bel salto in avanti rispetto alla gtx 280?

e che centra in questo thread???

i consigli per gli acquisti sono da un'altra parte

ais001
16-10-2009, 10:22
...
... praticamente nVidia temporeggia??? (tanto per cambiare) :mbe:

ais001
16-10-2009, 11:10
... si quello dei 100gg l'ho capita, ma comunque resta il fatto che non fanno trapelare nessuna nuova notizia sui nuovi modelli e/o date fittizie di commercializzazione :mbe:

ais001
16-10-2009, 11:20
... e quindi temporeggiano :asd:

Severnaya
16-10-2009, 12:12
a questo punto mi chiedo se a nvidia nn convenga saltare una generazione aspettare di fare uscire la prima versione a marzo dell'anno prossimo nn so quanto sia conveniente ma vabè si saran fatti i loro conti



oppure potremmo avere una "guerra delle vga" sfasata di 6 mesi fra l'uscita delle ati e dell'nvidia con buona pace di tutti coloro che "aspetto l'uscita della xxx per vedere com'è" :asd:

Pike79
16-10-2009, 12:37
a questo punto mi chiedo se a nvidia nn convenga saltare una generazione aspettare di fare uscire la prima versione a marzo dell'anno prossimo nn so quanto sia conveniente ma vabè si saran fatti i loro conti



oppure potremmo avere una "guerra delle vga" sfasata di 6 mesi fra l'uscita delle ati e dell'nvidia con buona pace di tutti coloro che "aspetto l'uscita della xxx per vedere com'è" :asd:

Secondo me non hai detto un' atrocità. In effetti se la prossima scheda fosse in grado, come le precedenti incarnazioni di G80, di reggere il botto di due generazioni della concorrenza, alla fine male male non sarebbe...probabilmente sarebbe anche economicamente meno impegnativo per Nvidia saltare un turno.

ais001
16-10-2009, 12:48
... secondo me l'hanno già pensato e lo stanno pure facendo :asd:

Pike79
16-10-2009, 13:44
Allo stato attuale non sta reggendo nemmeno la prima, ma mi sembra comunque estremamente improbabile che ne possano reggere due.

Infatti sono solito mettere un "SE" davanti ad una ipotesi e un "PROSSIMA" ad indicare che in effetti detta scheda non è ancora sul mercato.
Nulla vieta che, nel momento in cui finalmente si avrà qualcosa di definito e sicuro in mano, sia così efficiente da permettere un salto a piè pari.
Non sarà domani? Non sarà fra tre mesi? A chi importa davvero?
Al contrario, non sarà così potente e versatile da surclassare la concorrenza?.....e chissenefrega?
Io ho la mia personalissima ipotesi rispetto a g300 (mi fa un pò impressione il nome Fermi per una scheda...), e aspettero' le prove sul campo di battaglia per vederla confutata o demolita. Allo stato attuale delle cose mi spiace un pò vedere che le notizie in pratica non ci sono, solo rumors e invettive di utenti contro altri utenti, anche per colpa di Nvidia che ha scelto di dare "bella mostra" di sè presentando un "niente travestito da poco".
Sempre secondo me in Nvidia non avrebbero dovuto cadere nella trappola del "lancio prima io", ma cominciare ad annunciare il prodotto tipo un mese prima del lancio, e supportarlo con dati già maturi e confronti con la nuova generazione avversaria. Amen, hanno sbagliato, spero per loro che si riprendano, ma credo che dormirò lo stesso anche se il tutto si risolverà in un flop!

Andrea deluxe
16-10-2009, 14:03
Infatti sono solito mettere un "SE" davanti ad una ipotesi e un "PROSSIMA" ad indicare che in effetti detta scheda non è ancora sul mercato.
Nulla vieta che, nel momento in cui finalmente si avrà qualcosa di definito e sicuro in mano, sia così efficiente da permettere un salto a piè pari.
Non sarà domani? Non sarà fra tre mesi? A chi importa davvero?
Al contrario, non sarà così potente e versatile da surclassare la concorrenza?.....e chissenefrega?
Io ho la mia personalissima ipotesi rispetto a g300 (mi fa un pò impressione il nome Fermi per una scheda...), e aspettero' le prove sul campo di battaglia per vederla confutata o demolita. Allo stato attuale delle cose mi spiace un pò vedere che le notizie in pratica non ci sono, solo rumors e invettive di utenti contro altri utenti, anche per colpa di Nvidia che ha scelto di dare "bella mostra" di sè presentando un "niente travestito da poco".
Sempre secondo me in Nvidia non avrebbero dovuto cadere nella trappola del "lancio prima io", ma cominciare ad annunciare il prodotto tipo un mese prima del lancio, e supportarlo con dati già maturi e confronti con la nuova generazione avversaria. Amen, hanno sbagliato, spero per loro che si riprendano, ma credo che dormirò lo stesso anche se il tutto si risolverà in un flop!

sante parole

appleroof
16-10-2009, 14:45
Allo stato attuale non sta reggendo nemmeno la prima, ma mi sembra comunque estremamente improbabile che ne possano reggere due.

:mbe:

G80 andava meglio di r600; g92 andava meglio di rv670 e se l'è giocata con rv7x0 (ricordo che g92 era uno shrink "diretto" di g80; rv670 e rv770 non lo sono stati di r600)
per il futuro quoto Pike79, chi vivrà vedrà :boh:

appleroof
16-10-2009, 16:39
A parte che G92 non è manco per idea uno shrink diretto di G80... ma... quindi?

aspetta...e cosa sarebbe? :eek:

e cmq...quindi è vero che g80 ha tenuto botta per 2 (e 1/2, se consideriamo rv770 dove - a parte la 4870- g92 se la batteva benissimo) gen di chip Ati (che invece da r600 a rv670 prima e rv770 dopo ha cambiato molto di più che Nvidia da g80 a g92), eppure mi sembrava chiaro :boh:

Andrea deluxe
16-10-2009, 17:09
fidati..... nel momento in cui usciranno le schede, tutte queste illazioni saranno dimenticate......
cosi come molti si dimenticheranno che è uscita con mesi di ritardo....

e molti si faranno una grossa, grassa risata.....

Ale55andr0
16-10-2009, 17:18
Aspettando le nuove nVidia GTX...


....farete la muffa :asd:

:Prrr: :ciapet:

faber80
16-10-2009, 17:20
fidati..... nel momento in cui usciranno le schede, tutte queste illazioni saranno dimenticate......
cosi come molti si dimenticheranno che è uscita con mesi di ritardo....

e molti si faranno una grossa, grassa risata.....

profezie, profezie.......
già che ci siamo fantastichiamo anche sulle hd 6xxx..... xD
A me sinceramente poco importa chi "vince".... l'importante è il costo a me, utente finale. Su questo Nvidia credo nn sarà mai competitiva, (bella la scheda fermi, compratevela voi a 500 euro, mentre una 5850 la lanciano a 100-150 euro). Abbiamo ancora dei mesi prima di finire con tutto sto vaporware, e nel frattempo Ati farà un bel pò di cassa, in quanto -sola- su high-end, mainstream, e entry level ....

(tutte a dx11, potenza del marketing) xD

Andrea deluxe
16-10-2009, 17:24
profezie, profezie.......
già che ci siamo fantastichiamo anche sulle hd 6xxx..... xD
A me sinceramente poco importa chi "vince".... l'importante è il costo a me, utente finale. Su questo Nvidia credo nn sarà mai competitiva, (bella la scheda fermi, compratevela voi a 500 euro, mentre una 5850 la lanciano a 100-150 euro). Abbiamo ancora dei mesi prima di finire con tutto sto vaporware, e nel frattempo Ati farà un bel pò di cassa, in quanto -sola- su high-end, mainstream, e entry level ....

(tutte a dx11, potenza del marketing) xD

io sono un "puttaniere" delle sk video.....

lunedi mi arriva una 5870 e appena esce la gtx 380, se mi piglia me la prendo.....

non mi faccio problemi.....:)

faber80
16-10-2009, 17:27
io sono un "puttaniere" delle sk video.....
lunedi mi arriva una 5870 e appena esce la gtx 380, se mi piglia me la prendo.....
non mi faccio problemi.....:)

Dio ti benedica....... xD
io cambio una serie si una no. per me è il turno delle 6xxx. Sarebbe stato un buon momento per prendere Nvidia (uso anche ion nell'htpc), ma con tali ritardi, saranno carucce, ergo nn "butterò soldi" per adesso.

appleroof
16-10-2009, 17:37
Uno shrink diretto 90nm -> 65nm non esiste perché non può esistere.

vabbè intendevo dire che g80 è pressochè identico a g92, se non per il p/p, il cambiamento si è avuto con G200; cosa che non è per i chip Ati dx10 che si sono succeduti

ma sono quasi sicuro che avevi capito benissimo :Perfido:

Si era partiti da un "se la prossima scheda fosse in grado di", non da un "non è mai successo che".

La situazione attuale non mi sembra presagire uno scenario simile a quanto già successo con G80.

non lo so come andrà Fermi, ma sicuramente non avremo uno scenario simile a quello che c'era quando uscì G80.

Ale55andr0
16-10-2009, 17:39
Anche perché se non hanno cambiato nuovamente idea non dovrebbero chiamarsi GTX ma GeForce 3xx. Non che mi stupirei se avessero cambiato idea, eh...


Io non mi stupirei nel vedere l'ennesima gpu 8xxx rimarchiata :p


vabè, fermi sarà tutta un'altra cosa è ovvio, anche se l'assenza del tassellator e le ultime genialate nVidia (vedi il fake mostrato alla stampa) mi portano a pensare più in male che in bene, si vedrà :)

appleroof
16-10-2009, 17:47
No, non avevo capito cosa intendessi, G92 è figlio di G80, ma è stato rifatto vista la distanza di un nodo e anche scelte diverse nella sua realizzazione (bus ridotto, mi pareva anche TMU modificate)....

cmq modifiche minime in sè, e ancor più se pensiamo ai cambiamenti da r600>rv670>rv770 (sopratutto ribadisco da r600 a rv670)



Che è quello che dicevo all'inizio ;)



si ma è una cosa lampante, non ci vuole il mago Othelma, non fosse altro che siamo a parti completamente invertite...:stordita:

DVD2005
16-10-2009, 17:47
Perché, hanno detto che non c'è un tassellator? :mbe:

ci manca solo anche questa.

Simedan1985
16-10-2009, 17:48
io sono un "puttaniere" delle sk video.....

lunedi mi arriva una 5870 e appena esce la gtx 380, se mi piglia me la prendo.....

non mi faccio problemi.....:)



IO sono esattamente come te...però la 5870 nn mi ispira,forse perche ho avuto la 295.....,vedrò hemlock;)

Ale55andr0
16-10-2009, 17:53
Perché, hanno detto che non c'è un tassellator? :mbe:

ci manca solo anche questa.

Scusate non ho capito sta cosa del mancato tassellator, è un'idea lanciata a caso da qualcuno o l'hanno proprio detto? :mbe:

Hanno detto che il tassellator hardware non ci sarà, lo emuleranno via software. Se è vero non lo so, ma mi stupisce che nel thread nVidia la notizia, falsa o no non sia nota :O

Nino Grasso
16-10-2009, 17:53
A quanto ne so c'è scritto anche nel press kit di nVidia (che non è presente in hardware)

Ale55andr0
16-10-2009, 17:59
A quanto ne so c'è scritto anche nel press kit di nVidia (che non è presente in hardware)

Bello il tuo avatar, sono un grandissimo appassionato di hifi :) nonchè tuo concittadino :D

Defragg
16-10-2009, 18:01
No, non avevo capito cosa intendessi, G92 è figlio di G80, ma è stato rifatto vista la distanza di un nodo e anche scelte diverse nella sua realizzazione (bus ridotto, mi pareva anche TMU modificate)....

Confermo. ;)
Perché, hanno detto che non c'è un tassellator? :mbe:

No non c'è, verrà emulato.

Ale55andr0
16-10-2009, 18:02
Non che non mi fidi ma mi sembra strano, qualcuno ha un link a conferma?


hai ragione (a volerti togliere il dubbio) ma io l'ho letto parecchie volte in vari forum, se sia solo una voce di corridoio non saprei :boh:

appleroof
16-10-2009, 18:24
ci manca solo anche questa.

nell'articolo di hwupgrade, analizzando l'architettura presentata, non se ne fà menzione...ma non mi stupirei affatto che non sia stato detto tutto su quell'architettura....

:confused:

Intendevi da RV670 a RV770 immagino?


si intendevo quello, anche se cmq il supporto dx10.1 mi sembra giusto qualcosina in più che riduzione del bus/ottimizzazione tmu :read:

Confermo. ;)



azz...a me non confermi? :cry:

Bastoner
16-10-2009, 18:43
Ricordo anch'io che è stato detto e confermato che il tassellator non c'è. Non so però trovare un link che confermi la cosa ufficialmente.

Bastoner
16-10-2009, 18:47
Trovata, tradotto dal russo:

Lack of hardware tessellation unit, this functional will be implemented in software


http://translate.google.it/translate?prev=hp&hl=it&js=y&u=http%3A%2F%2Foverclockers.ru%2Fhardnews%2F34496.shtml&sl=ru&tl=en&history_state0=

Non so quanto sia attendibile.

devAngnew
16-10-2009, 18:49
Diciamo che l'ipotesi della mancanza del tesselator è stata mia (almeno in questo forum non ho molto tempo di leggerne altri :asd: :asd: ), cmq se vedete il documento ufficiale dell'architettura Fermi http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf del tesselator non ve ne traccia... anche se devo ammettere a me sembra incompleto....

Kharonte85
16-10-2009, 18:49
La sapevo anche io così...


Se vero un'altra occasione persa: non avremo mai Tesselatore per tutti, sicuro...:muro:

appleroof
16-10-2009, 18:54
La sapevo anche io così...


Se vero un'altra occasione persa: non avremo mai Tesselatore per tutti, sicuro...:muro:

sono d'accordo...vedremo...

Ale55andr0
16-10-2009, 18:54
Fino a quando la tecnologia non sarà uguale per tutti...
vedi la fisica con Physx, o le dx 10.1 su Assassin Creed....
chi ci rimette siamo noi, anche se alcune rotture di OO le si deve a quel kakkio di logo all'inizio del 99% dei game :O

Andrea deluxe
16-10-2009, 19:10
se le cose vanno per sto verso, mi monto una 5870 sul primo slot pci express e una gtx 380 sul secondo....

cosi il gioco verde lo faccio andare con il secondo slot e il gioco rosso con il primo...

che merda.....

Ale55andr0
16-10-2009, 19:21
se le cose vanno per sto verso, mi monto una 5870 sul primo slot pci express e una gtx 380 sul secondo....

cosi il gioco verde lo faccio andare con il secondo slot e il gioco rosso con il primo...
che merda.....


La mia Ati ha il PCB blu :O

:p

Andrea deluxe
16-10-2009, 19:23
La mia Ati ha il PCB blu :O

:p

ma ha il cuore rosso.....:Perfido:

Ale55andr0
16-10-2009, 19:30
:D

Defragg
16-10-2009, 19:49
azz...a me non confermi? :cry:

Mi sono perso qualcosa? :stordita: :fagiano:

appleroof
16-10-2009, 19:52
Mi sono perso qualcosa? :stordita: :fagiano:

il senso dell'umorismo :D

Defragg
16-10-2009, 20:03
il senso dell'umorismo :D

Sono fuso :O

Jackaos
16-10-2009, 20:59
Non ricordo dove l'ho letto, ma non mi pareva una voce di corridoio ne l'ipotesi di qualcuno, magari faccio confusione, ma mi pare proprio che la mancanza del tesselator e l'emulazione di quest'ultimo siano state trattate in qualche articolo scritto in italiano..o forse no... non è che lo disse yossarian in base alle rivelazioni di nVidia circa la futura architettura? O forse era proprio su di un articolo di HWUP?

Ale55andr0
16-10-2009, 23:55
Non è che visto che non avranno detto anche cosa fa ogni singolo transistor e visto che era una presentazione orientata al GPU computing non ne hanno fatto menzione perché irrilevante in quel frangente?

Non mi stupirei che sia solo una voce nata dal fatto che non ne hanno parlato (anche perché non è che ci sia molto da dire).

...

Io l'ho letto, sia sul forum (e non parlo solo di hwupgrade...ne' solo di forum italiani...) che da qualche altra parte, non è un sopposizione degli utenti è quanto si sa, se poi sia vero o no non saprei, ma non è una supposizione. Se poi nvidia oltre a mostrare finte schede dichiara finte specifiche azzacci suoi :rolleyes:
quando si parlava di utilizzare unità di calcolo unificate (stream processor) per le dx10 nvidia disse che avrebbe mantenuto separate le unità di shading da quelle per il calcolo dei poligoni, ma poi non fu così...si vedrà

The_SaN
17-10-2009, 01:17
ma ha il cuore rosso.....:Perfido:Ormai é verde anche lei... :stordita:

maurilio968
17-10-2009, 09:36
La stessa ATI non si sbilancia se Fermi abbia o meno il tessellator hardware, vedi questa slide

link originale qui (http://www.pcgameshardware.com/aid,697385/AMD-presentation-attacks-Nvidias-Fermi/News/&menu=browser&entity_id=154104&image_id=1207286&article_id=697385&page=2&show=original)


Tra l'altro è una serie di slides utile per capire quanto ad oggi si sa di fermi.
Io le ho viste seguendo un link di Ratatosk nel thread "aspettando Hemlock,.." . Fate un giro anche di là.

wijjyu
17-10-2009, 13:24
Ora, non giudicatemi dal mio avatar, ma francamente credo sia giusto dare a nvidia un po' di tempo ancora e non fare previsioni affrettate. Non è sicuro al 100% che fermi costerà 500€, come non è detto che sia così performante come dicono. Tuttavia io aspetto, almeno fino a natale.

gianni1879
18-10-2009, 09:52
Thread ripulito.


Vediamo se la finite o meno...

Andrea deluxe
18-10-2009, 11:49
http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300-fermi-cgpu-to-power-worlds-most-powerful-supercomputer.aspx

mi scuso se e' old!

wijjyu
18-10-2009, 12:18
Senza dubbio GT300 quando arriverà (marzo) sarà un mostro...
Sta cosa di marzo da dove è venuta fuori? da quell'articolo in cui si parlava di "mainstream"? Non è un po' poco per dire che uscirà a marzo? Huang ha detto che prima della fine dell'anno hanno questo importante evento, però si capisce anche che non hanno molto in mano. Io non sparerei date senza esserne sicuro... Boh io spero di vedere le geforce fermi sugli scaffali entro natale ma oramai ci credo poco. In tutte le notizie che sono uscite ci sono speculazioni sul prezzo? Avremo secondo voi qualche speranza di trovare una nvidia "concorrenziale" se non addirittura "conveniente" o dovremo rassegnarci a gtx380 500+€ e gtx360 400€?

Andrea deluxe
18-10-2009, 13:14
gtx380 500+€ e gtx360 400€?

http://91.121.132.199/gifs/2440.gif

Fireboy
18-10-2009, 13:18
http://91.121.132.199/gifs/2440.gif

LOOL

luX0r.reload
18-10-2009, 16:26
LOOL
Magari LOL :D

goldorak
18-10-2009, 16:45
http://91.121.132.199/gifs/2440.gif


:sbonk: lo voglio come avatar. :sofico:

Andrea deluxe
20-10-2009, 11:09
http://www.fudzilla.com/content/view/16048/1/

Andrea deluxe
20-10-2009, 11:30
Ci pensa Fuad o JHH a riscrivere tutto Windows per funzionare su Fermi 2?

chesso' faranno Windows 7 TWIMTBP edition :asd:

kiriranshelo
20-10-2009, 14:16
Ci pensa Fuad o JHH a riscrivere tutto Windows per funzionare su Fermi 2?

Hanno DirectCompute per fare questa cosa, dubito che se mai dovessero decidere di farla la chiuderebbero su hardware nvidia.

Senza contare che la cosa è subordinata alla presenza di un driver, quindi...

però tutto sommato può essere una soluzione veritiera per il futuro di Nvidia. Dotarsi di una piattaforma sua, non proprio usuale. Bisogna vedere però se riesce a far funzionare dei software x86 su Fermi

scorpion73
20-10-2009, 14:30
insomma ma alla fine io mica ho capito : sto fermi sarà una GPU compatibile DirectX 11 oppure un microprocessore dove viene emulata di fatto una piattaforma grafica compatibile Direct X 11?
Oppure sarà Fermi 2 che cambierà rotta?

scorpion73
20-10-2009, 14:40
quindi scusa, ma se è una GPU ed ha anche hardware per general purpose, significa che non è solo una GPU, sennò di fatto "tutto l'hardware" verrebbe usato per fare i compiti di una GPU.
Non vorrei infatti che questi circuiti destinati al general purpose finissero per rallentare il gaming invece di velocizzarlo..
Fondamentalmente, quello che non vorrei infatti è di ritrovarmi un "Larrabee" Nvidia dentro al PC...

atomo37
20-10-2009, 14:44
questa Fermi sta assumendo, ogni giorno che passa, i connotati di.....
.....KAISER SOZE!

a parte gli scherzi, sta diventanto sempre più irreale e leggendaria questa gpu, che sia proprio la loro strategia marketing?

devAngnew
20-10-2009, 16:57
Ma che state a dììì :asd: :asd: :asd:
E' stato già ampiamente detto che Fermi oltre a supportare DX 11, OpenCL , Fortran, OpenGL, supporta alcuni linguaggi come Fortran, C (CUda) ma soprattutto C++. Ed è grazie a quest'ultimo fatto vi è la possibilità di usarlo per processare classi C++ in modo da accellerare molte parti del futuro Windows e Linux e non sostituirsi a x86; a meno che Nvidia non abbia acquistato la licenza per usare x86 nei suoi futuri processori ma ci credo poco :asd:

Oltretutto c'è da mettere in chiaro che poichè sarà possibile scrivere codice c++ processabile da fermi implica che tale gpu non è più strettamente legata ad una o più API quindi anche i programmatori di giochi non saranno più vincolati all'evoluzione di OpenGL o DX11 perciò potranno scrivere i loro software senza imparare 1000000 API :asd: :asd: :asd: .

martinez1983
20-10-2009, 17:08
Ma che state a dììì :asd: :asd: :asd:
E' stato già ampiamente detto che Fermi oltre a supportare DX 11, OpenCL , Fortran, OpenGL, supporta alcuni linguaggi come Fortran, C (CUda) ma soprattutto C++. Ed è grazie a quest'ultimo fatto vi è la possibilità di usarlo per processare classi C++ in modo da accellerare molte parti del futuro Windows e Linux e non sostituirsi a x86; a meno che Nvidia non abbia acquistato la licenza per usare x86 nei suoi futuri processori ma ci credo poco :asd:

Oltretutto c'è da mettere in chiaro che poichè sarà possibile scrivere codice c++ processabile da fermi implica che tale gpu non è più strettamente legata ad una o più API quindi anche i programmatori di giochi non saranno più vincolati all'evoluzione di OpenGL o DX11 perciò potranno scrivere i loro software senza imparare 1000000 API :asd: :asd: :asd: .

Meno che qualcuno ci riporta sulla retta via!!!;)

devAngnew
20-10-2009, 17:18
Meno che qualcuno ci riporta sulla retta via!!!;)

Bhe ecco perchè Nvidia cerca di diffondere la sua piattaforma prima che arrivi Intel....ma comunque la vedo dura intel ha una grande potenza di fuoco e può permettersi tutto il ritardo che vuole.... ;)





Ps: Grande la tua nuova firma Marti stò ancora :rotfl:

Defragg
20-10-2009, 18:45
E' una GPU così come Larrabee è una CPU multi-multi-core.

Entrambe le architetture cercano di sfondare nell'altro campo. Entrambi i progetti sono in effetti veramente grandi a livello di die size e non so se sia un caso.

La parte dedicata al GP di Fermi è il double precision molto spinto, irrilevante in ambito gaming, ma che in termini di die size ha un suo peso, e l'ECC, che invece ha impatti negativi sulle performance gaming (non so se sia però semplicemente disabilitabile nelle versioni GeForce di Fermi) e che ha comunque un costo in transistor.

Alla fin fine le RAM ECC le monteranno solo le Tesla, al massimo qualche Quadro anche, ma non credo tutte. Le GeForce si appoggeranno sulle RAM normali, pertanto niente decadimento prestazionale, ma solo dei transistor in più inutilizzati.
Ora sorge una riflessione, in percentuale, quante saranno le GeForce, le Quadro e le Tesla, basate su Fermi che saranno vendute? Una roba del tipo 85%, 10% e 5%? (numeri a caso) Quindi ne deduciamo che nVidia spreca una marea di silicio e di transistor per feature che la maggiorparte dell'utenza non sfrutterà.

appleroof
20-10-2009, 18:52
Alla fin fine le RAM ECC le monteranno solo le Tesla, al massimo qualche Quadro anche, ma non credo tutte. Le GeForce si appoggeranno sulle RAM normali, pertanto niente decadimento prestazionale, ma solo dei transistor in più inutilizzati.
Ora sorge una riflessione, in percentuale, quante saranno le GeForce, le Quadro e le Tesla, basate su Fermi che saranno vendute? Una roba del tipo 85%, 10% e 5%? (numeri a caso) Quindi ne deduciamo che nVidia spreca una marea di silicio e di transistor per feature che la maggiorparte dell'utenza non sfrutterà.

si può dire che spreca o si può dire "scommette" (che il mercato workstation e sopratutto GPGPU aumenti nell'arco di vita del chip)...solo il tempo dirà quale termine è più adatto :)

appleroof
20-10-2009, 18:56
Lascia perdere il workstation, l'ECC è solo per il GPGPU

era solo un riferimento alle percentuali indicate da Defragg, non a caso ho scritto sopratutto GPGPU

Defragg
20-10-2009, 19:03
Già (sei stato fin troppo buono con le percentuali, secondo me), motivo per cui sostengo che questa è una strategia sbagliata.
Ma infatti i miei numeri sono stati molto approssimativi.
si può dire che spreca o si può dire "scommette" (che il mercato workstation e sopratutto GPGPU aumenti nell'arco di vita del chip)...solo il tempo dirà quale termine è più adatto :)

Si ma di quanto? :(

appleroof
20-10-2009, 19:12
Si ma di quanto? :(

di quanto scommette? Oggi come oggi è la sua maggiore scommessa...tutto stà a vedere cmq la bontà del chip in ambito gaming (per fare soldi nell'immediato), poi magari le rese saranno sempre migliori grazie ai 28nm (pare entro l'anno prox) ma non nego che sia la scommessa più forte di Nvidia secondo me, ma anche una scelta obbligata, visto che tra i big in gioco è l'unica a non avere le cpu

vediamo, gli scenari del mondo hw cambiano talmente velocemente e quello che sembrava morto l'anno prima l'anno dopo è citato in Forbes :asd:

devAngnew
20-10-2009, 20:44
E' una GPU così come Larrabee è una CPU multi-multi-core.

Entrambe le architetture cercano di sfondare nell'altro campo. Entrambi i progetti sono in effetti veramente grandi a livello di die size e non so se sia un caso.

La parte dedicata al GP di Fermi è il double precision molto spinto, irrilevante in ambito gaming, ma che in termini di die size ha un suo peso, e l'ECC, che invece ha impatti negativi sulle performance gaming (non so se sia però semplicemente disabilitabile nelle versioni GeForce di Fermi) e che ha comunque un costo in transistor.

Qui ti sbagli in quanto le FPU sono usate 2 nel caso gaming quindi single precision 32bit segue che abbiamo 512 fpu in single precison mentre in double sono giusto la metà quindi 256....

unnilennium
20-10-2009, 20:57
Io credo che per i 28nm sarà lunga e questo mi preoccupa molto, perché se da un lato servono come l'aria a nVidia tanto più avanti con i 40nm rispetto alle prestazioni attuali non ci potrà andare nemmeno AMD.

Secondo me faranno un passo di solo mezzo nodo a questo giro, scegliendo i 32nm per la prossima generazione...

come insegna il passaggio di amd da 90 a 65nm... senza un buon progetto di architettura, serve a poco 32nm o anche 28 cambia poco. i 40 fanno già cagare... le 220 sto ancora cercando il perchè esiste, rispetto a una 9500gt, per pochi watt in meno con uguali prestazioni e architettura... e costa pure tanto in proporzione...

devAngnew
20-10-2009, 21:40
Certo e si accorpano gratis secondo te?

Bhe certo che no, perchè per Ati si accorpano gratis ?

A te la palla ... :asd:

martinez1983
20-10-2009, 22:08
Bhe ecco perchè Nvidia cerca di diffondere la sua piattaforma prima che arrivi Intel....ma comunque la vedo dura intel ha una grande potenza di fuoco e può permettersi tutto il ritardo che vuole.... ;)





Ps: Grande la tua nuova firma Marti stò ancora :rotfl:

Grazie per la firma!!!:D in onore del mio compagno di gioco!!!:D


Cmq sentivo che intel sta incontrando problemi mica da poco!!!(forse è la soluzione ancora più innovativa in assoluto)
Sono in forte trepidazione per vedere cosa potrà fare questo chip!! Le sue potenzialità sono enormi e veramente rivoluzionarie!!!

maxmix65
21-10-2009, 08:17
:D Coda processore a mano ti mando un pvt

Crysis90
21-10-2009, 11:14
:D Coda processore a mano ti mando un pvt

:ot: :D

devAngnew
21-10-2009, 19:35
Credi che il 2:1 sia allo stesso prezzo di silicio di un 5:1? :asd:

Vedo che dopo circa 1 giorno hai trovato una contro risposta.... :asd: :asd: :asd: (scherzo....)

Perchè credi che il 5:1 funzioni sempre come tale a parte lo spazio su silicio ?
A parte che anche ATI ha fatto un quasi paper launch aspettiamo le schede per dicembre ..... :asd:

A scusa.... a ben vedere i benckmark Dx 9 e Dx 10 penso tu abbia ragione....:sofico:

A te la palla .... :asd: :asd: :asd:

devAngnew
21-10-2009, 19:58
Non ti dispiacerà se metto questa cosa nei bookmarks in modo da fartela rivedere a febbraio...

Non mi facciò mica un problema sono solo schede video...
Metti in conto che i problemi di TSMC IMO non sono risolti... :asd:

:D

;)

kiriranshelo
22-10-2009, 08:13
della serie: 'con Fermi non siamo in acqua alta... molto di più'; staremo a vedere certo che se lo dice Obi-Wan Kenobi :asd:
comunque supporta i directx 11? non credo, mi pare un dx10.1 :confused:

Andrea deluxe
22-10-2009, 08:28
mio dio ci avevo pensato l'altro ieri mentre mi facevo la doccia.....:eek:


apriro' un chiosco e faro' il chiromante......:D

Andrea deluxe
22-10-2009, 09:17
http://www.tomshw.it/news.php?newsid=19791

Matalf
22-10-2009, 09:24
http://www.tomshw.it/news.php?newsid=19791

:sbonk: al modico prezzo di 350$ immagino :sbonk:


ultimamente nvidia mi sembra una barzelletta :asd:

ais001
22-10-2009, 09:30
... solo a me sembra uno scherzo da carnevale??? :mbe:
... se questa è la strada che vogliono intraprendere coi nuovi modelli....... siamo alla deriva :asd:

... comunque ho trovato una Asus Mars in rete a 800€.... quasi quasi mi sa che mi conviene puntare a quella.... viste certe notizie... :asd:

zorco
22-10-2009, 09:34
quindi si tratterebbe solo di una gtx275 + g92 per la fisica,in sostanza niente di nuovo..

entrambi i chip a 55nm giusto?

sickofitall
22-10-2009, 09:40
:sbonk: al modico prezzo di 350$ immagino :sbonk:


ultimamente nvidia mi sembra una barzelletta :asd:

... solo a me sembra uno scherzo da carnevale??? :mbe:
... se questa è la strada che vogliono intraprendere coi nuovi modelli....... siamo alla deriva :asd:

... comunque ho trovato una Asus Mars in rete a 800€.... quasi quasi mi sa che mi conviene puntare a quella.... viste certe notizie... :asd:

quindi si tratterebbe solo di una gtx275 + g92 per la fisica,in sostanza niente di nuovo..

entrambi i chip a 55nm giusto?

:blah: :blah: :blah:

sempre le solite trollate su rumor che non si sa quanto veritieri siano :rolleyes:

goldorak
22-10-2009, 09:41
:sbonk: :rotfl: :sbonk: :rotfl: non sanno piu' come racimolare qualche $/€/£ dopo che ATI si e' pappato tutto il mercato. :asd:
Sono impazziti o si sono rico******** non ce' altra spiegazione. :sofico:

ais001
22-10-2009, 09:41
@ zorco
... se leggi c'è scritto:
"EVGA created a dual GPU card by combining GeForce GTS 250 with GeForce GTX 275"

... ed anche:
"you have 896MB used by the GTX 275, and the second GPU G92 uses only 512MB, making up for a never-seen-before 1408MB of GDDR3 video memory"

ilratman
22-10-2009, 09:42
ma non petrebbero fare un gx2+1 con due g300 e un g92b a 40nm per la fisica tutto in una scheda?

scusate mi quoto perche' ci avevo quasi preso un mese fa. Fra un po' mando il curriculum a nvidia. :O :D

ais001
22-10-2009, 09:44
.. magari è la volta buona che ti prendono e che iniziano a fare schede serie :asd:

Legolas84
22-10-2009, 09:44
:sbonk: :rotfl: :sbonk: :rotfl: non sanno piu' come racimolare qualche $/€/£ dopo che ATI si e' pappato tutto il mercato. :asd:
Sono impazziti o si sono rico******** non ce' altra spiegazione. :sofico:

AMD quindi ha superato il market share di nVIDIA? Notevole mi ero perso la notizia...

ais001
22-10-2009, 09:45
... raga, questa l'avevate letta???

-> http://www.brightsideofnews.com/news/2009/10/1/nvidia-gt300-real-power-consumption-revealed-not-300w!.aspx

zorco
22-10-2009, 09:46
@ zorco
... se leggi c'è scritto:
"EVGA created a dual GPU card by combining GeForce GTS 250 with GeForce GTX 275"

... ed anche:
"you have 896MB used by the GTX 275, and the second GPU G92 uses only 512MB, making up for a never-seen-before 1408MB of GDDR3 video memory"
si non avevo letto bene...

ilratman
22-10-2009, 09:47
.. magari è la volta buona che ti prendono e che iniziano a fare schede serie :asd:

questo e' sicuro! :asd:

ais001
22-10-2009, 09:52
questo e' sicuro!
... agli AMICI fai fare lo sconto per gli acquisti vero??? :asd:

ilratman
22-10-2009, 09:57
... agli AMICI fai fare lo sconto per gli acquisti vero??? :asd:

ovvio che si, anzi gli faccio fare i beta tester! :D cmq adesso nanca una 5870x2 con a bordo un g92b o g200b per la fisica, cosi almeno nvidia vende qualche scheda. :asd:

ais001
22-10-2009, 10:10
... ti faccio anche da Gamma e Delta tester se mi fai un buon prezzo "amico" :asd:

calabar
22-10-2009, 10:19
Boa, oddio, in effetti se vendut ad un prezzo aggressivo, potrebbe non essere tanto male per cui cerca una soluzione di questo tipo e ha un solo slot disponibile.
Certo, come longevità e rivendibilità questa scheda non mi pare abbia buone prospettive, e certo non è ciò che gli utenti nvidia desiderano per controbattere le nuove proposte ati.

AMD quindi ha superato il market share di nVIDIA? Notevole mi ero perso la notizia...
Beh spero che ti renda conto della differenza tra cannibalizzare il mercato e superare il market share, ossia un bacino di utenza che richiede tempo per essere eroso anche una volta che si è "cannibalizzato il mercato".

devAngnew
22-10-2009, 10:56
AMD quindi ha superato il market share di nVIDIA? Notevole mi ero perso la notizia...

Boa, oddio, in effetti se vendut ad un prezzo aggressivo, potrebbe non essere tanto male per cui cerca una soluzione di questo tipo e ha un solo slot disponibile.
Certo, come longevità e rivendibilità questa scheda non mi pare abbia buone prospettive, e certo non è ciò che gli utenti nvidia desiderano per controbattere le nuove proposte ati.


Beh spero che ti renda conto della differenza tra cannibalizzare il mercato e superare il market share, ossia un bacino di utenza che richiede tempo per essere eroso anche una volta che si è "cannibalizzato il mercato".

Guarda che Legolas era sarcastico.... :asd: :asd: :asd:
E' ovvio che il market share non cambia cosi velocemente... ;)

sertopica
22-10-2009, 12:36
A me non sembra tanto malvagia sta cosa della dual GPU Render+PhysX, anzi... Aldilà del fatto che di Fermi ancora non si veda nulla, la trovo una soluzione molto comoda per chi non vuole montarsi due schede nel case, magari per problemi di spazio o temperature, anche se comunque ammetto che potevano arrivarci prima. :asd:

Bisogna vedere i prezzi, se saranno alti si daranno una zappata sui piedi e di certo, personalmente, non cambierei la mia scheda per questa.

ais001
22-10-2009, 12:55
... io ho letto da qlc parte sui 350€ :mbe:

Defragg
22-10-2009, 13:02
... io ho letto da qlc parte sui 350€ :mbe:

Per me possono pure prendersela quella scheda e farci una sonda anale...:mbe:

Matalf
22-10-2009, 13:08
Ah beh, molto competitivo... :mbe: mah...

:asd: l'ho letto anchio qui su HW praticamente la presenterano nella fascia di prezzo della 5870:asd:

Andrea deluxe
22-10-2009, 13:12
http://us.download.nvidia.com/downloads/GTC%20videos/Opening%20keynote/500_nv_keynote_090930_trimmed.mp4

1:30:50 dice che: una geforce basata su fermi e' prevista, ma dovrete aspettare un po di tempo....

atomo37
22-10-2009, 13:42
http://us.download.nvidia.com/downloads/GTC%20videos/Opening%20keynote/500_nv_keynote_090930_trimmed.mp4

1:30:50 dice che: una geforce dasata su fermi e' prevista, ma dovrete aspettare un po di tempo....

certo se stanno ancora al generico "è prevista!".

ais001
22-10-2009, 13:43
... tranquillo.... prima del 2012 esce sicuramente :asd:

atomo37
22-10-2009, 13:45
... tranquillo.... prima del 2012 esce sicuramente :asd:

NON TI SBILANCIARE CON L'OTTIMISMO! :p

sertopica
22-10-2009, 13:46
... tranquillo.... prima del 2012 esce sicuramente :asd:

E sarà la fine del mondo! :O

Scusa, questa la dovevo dì... :stordita:

ilratman
22-10-2009, 14:34
http://us.download.nvidia.com/downloads/GTC%20videos/Opening%20keynote/500_nv_keynote_090930_trimmed.mp4

1:30:50 dice che: una geforce dasata su fermi e' prevista, ma dovrete aspettare un po di tempo....

cioe' ati avra' tutto il tempo per fare il raddoppio di rv870, quindi 970, a 32nm e loro non saranno ancora pronti con i 40nm? Vogliono proprio chiudere.

Andrea deluxe
22-10-2009, 14:37
cioe' ati avra' tutto il tempo per fare il raddoppio di rv870, quindi 970, a 32nm e loro non saranno ancora pronti con i 40nm? Vogliono proprio chiudere.

:boh:

http://img195.imageshack.us/img195/9264/slic.jpg

mariade
22-10-2009, 14:40
qua c'e la full review della nuova 240 GT a 40nm.
http://vga.it168.com/a2009/1019/763/000000763107.shtml
Purtroppo non riesco ad accedere al sito.
Non e' che qualcuno posta i benchmark e la tabella sui consumi?

atomo37
22-10-2009, 14:45
cioe' ati avra' tutto il tempo per fare il raddoppio di rv870, quindi 970, a 32nm e loro non saranno ancora pronti con i 40nm? Vogliono proprio chiudere.

secondo me sono tutti concentrati al supercomputing con tesla ora come ora.

kiriranshelo
22-10-2009, 14:53
EDIT

ais001
22-10-2009, 14:59
E sarà la fine del mondo!
... beh no.... loro metteranno in vendita il prodotto l' 01.01.2012, la fine del mondo è prevista per il 31.12.2012.... quindi hanno 1 anno di tempo per raccimolare i soldi :asd:

ais001
22-10-2009, 15:00
Vogliono proprio chiudere.
... non hai capito nulla..... nVidia ha già la tecnologia per costruire a 0,00010nm è che non vogliono farlo sapere prima del tempo :asd:

The_SaN
22-10-2009, 15:03
:asd: l'ho letto anchio qui su HW praticamente la presenterano nella fascia di prezzo della 5870:asd:Eh beh, ma andrá di piú della 5870...
Cosi come la gts250 ;)

Seph
22-10-2009, 15:07
http://us.download.nvidia.com/downloads/GTC%20videos/Opening%20keynote/500_nv_keynote_090930_trimmed.mp4

1:30:50 dice che: una geforce basata su fermi e' prevista, ma dovrete aspettare un po di tempo....

rovinat' semo :doh: