Entra

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

devAngnew
07-10-2009, 22:02
G300 è un passo deciso, ma non è un unico tutto insieme. La strategia era chiara già con G200.

E comunque che la DP per il consumer non serve a niente lo sapevano già prima, è una scelta strategica, non un errore di valutazione sulla ricaduta nel consumer, ma un errore di valutazione della sua importanza.

Fermi sarà un mostro di potenza nel GPU-Computing. Nel gaming vedremo, di certo il gaming non è stato il "motore" del progetto.

DI questo non ne puoi essere sicuro in quanto ti ricordo che il Fermi core ha due FPU a 32 bit per cui di potenza per gli shader c'è ne.....IMO la verità stà nel mezzo...
Cmq vedremo...
;)

Severnaya
07-10-2009, 22:05
http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high


no nvidia nn può abbandonare la fascia high end http://www.diesirae-guild.eu/smf/Smileys/dies/face4.gif


senza concorrenti il rischio è di vedere ati che passa al lato oscuro della forza con zero progresso tecnologico, prezzi esorbitanti, un monopolio di fatto

l'unica concorrenza sarebbe data da Larabee o come si scrive, ma dubito che inizialmente sia capace di essere competitivo in fascia media e alta, e intel nn può comrpare la divisone di nvidia per l'antitrust come già giustamente è stato detto, ma almeno potrebbe entrare come socio anche se nn credo veda propspettive di guadagno a breve termine http://www.diesirae-guild.eu/smf/Smileys/dies/face4.gif

okorop
07-10-2009, 22:05
DI questo non ne puoi essere sicuro in quanto ti ricordo che il Fermi core ha due FPU a 32 bit per cui di potenza per gli shader c'è ne.....IMO la verità stà nel mezzo...
Cmq vedremo...
;)
il problema che quella bellissima architettura che ci han mostrato c'è solamente su un pezzo di carta, è realizzabile non si sa, manco il ceo nvida aveva un sample da mostrarci.....se lo avesse avuto al posto di quel mega fake ci avrebbe mostrato una gpu con su gt300.......

http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high


no nvidia nn può abbandonare la fascia high end http://www.diesirae-guild.eu/smf/Smileys/dies/face4.gif


senza concorrenti il rischio è di vedere ati che passa al lato oscuro della forza con zero progresso tecnologico, prezzi esorbitanti, un monopolio di fatto

l'unica concorrenza sarebbe data da Larabee o come si scrive, ma dubito che inizialmente sia capace di essere competitivo in fascia media e alta, e intel nn può comrpare la divisone di nvidia per l'antitrust come già giustamente è stato detto, ma almeno potrebbe entrare come socio anche se nn credo veda propspettive di guadagno a breve termine http://www.diesirae-guild.eu/smf/Smileys/dies/face4.gif

la forza è possente in te mio giovane padawan :asd:

devAngnew
07-10-2009, 22:06
il problema di fondo sta nel fatto che sto fermi non esiste e se esiste solo in forma di prototipo e o di progetto architetturale, le vga a 40nm con gpu di piccole dimensioni sono uscite ora e non come prospettava nvida a febbraio marzo......se avessero sfornato delle gpu per il mercato consumer piu' piccole e capaci di avere delle prestazioni del 5% in piu' di ati ora non saremmo qui a dire che ha fallito tutti i progetti nvida invece ha voluto mescolare le carte facendo una gpu per entrambi i mercati ed ora paga la sua scelta infelice.....

Infatti anche tu lo dici... ma questo non è un problema di core business che si sposta da game a gpgpu ma di scelte progettuali....

okorop
07-10-2009, 22:09
Infatti anche tu lo dici... ma questo non è un problema di core business che si sposta da game a gpgpu ma di scelte progettuali....

legate proprio allo spostamento del core business dal lato gaming a quello professionale

devAngnew
07-10-2009, 22:11
Le notizie di oggi non rallegrano certo la scena!!! E ad essere sinceri non pensavo che fossero messi così!!!(ammesso che sia confermato tutto)

Cmq chi dice che questo gt300 va male in ambito mercato consumer????:confused:

Forse sono ancora in fase di prototipo e poi ricordo che stiamo speculando su notizie da prendere con le pinze!!!

Quoto e aggiungo che si stà parlando più di Nvidia che di ATI viste le presunte notizie...


P.s: la forza di richiamo verso Nvidia è forte raga.... :asd: :asd: :asd:

okorop
07-10-2009, 22:13
Quoto e aggiungo che si stà parlando più di Nvidia che di ATI viste le presunte notizie...


P.s: la forza di richiamo verso Nvidia è forte raga.... :asd: :asd: :asd:

eccoti servito :asd:
http://www.hwupgrade.it/immagini/GT220.jpg

Matalf
07-10-2009, 22:14
Quoto e aggiungo che si stà parlando più di Nvidia che di ATI viste le presunte notizie...


P.s: la forza di richiamo verso Nvidia è forte raga.... :asd: :asd: :asd:

e beh siamo ner 3D per nvidia di cosa vuoi parlare :asd:

Severnaya
07-10-2009, 22:17
la forza è possente in te mio giovane padawan :asd:


maestro


http://tecnoblog.girlpower.it/wp-content/gallery/emoticon-msn/1206807353.gif

devAngnew
07-10-2009, 22:19
legate proprio allo spostamento del core business dal lato gaming a quello professionale

Ma anche no, ti ripeto è solo dovuto alla scelta di come è stato progettato il chip infatti le FPU lavorando a singola precisione vengo usate dai giochi.....
Cmq io già ho premesso che la verità stà nel mezzo e cioè che Fermi è adatto a sia ai giochi che gpgpu con un vantaggio teorico non di molto in DP su Ati.


;)

devAngnew
07-10-2009, 22:21
eccoti servito :asd:
http://www.hwupgrade.it/immagini/GT220.jpg

Bhe quella cifeca la devi comprare tu se non vuoi che ATi abbi il monopolio e ti faccia pagare le sue gpu uno sproposito ;) ..... :asd: :asd: :asd: :asd: :asd:

devAngnew
07-10-2009, 22:26
e beh siamo ner 3D per nvidia di cosa vuoi parlare :asd:

Intendevo che anche i "tifosi" di Ati ormai non parlano che di Nvidia... :asd: :asd: :asd:
ormai si stanno convincendo che vogliono una nvidia nel loro case.... :asd: :asd: :asd:

Matalf
07-10-2009, 22:30
Intendevo che anche i "tifosi" di Ati ormai non parlano che di Nvidia... :asd: :asd: :asd: :asd: :asd:

:asd: e pensare che Fake...em...Fermi aveva quasi convito ad aspettare anche me che sono sempre stato rosso :asd:

devAngnew
07-10-2009, 22:38
:asd: e pensare che Fake...em...Fermi aveva quasi convito ad aspettare anche me che sono sempre stato rosso :asd:

Bella questa la nuova gpu nvidia si chiama Fakermi....:asd: :asd: :asd:
IMO ti conviene aspettare altrimenti potresti rimanere


sorpreso
:eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :asd:

Matalf
07-10-2009, 22:42
IMO ti conviene aspettare altrimenti potresti rimanere
:eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:



ormai, domani arriva la bestia :asd:
aspettare altri 4 mesi con la 3870 mi sparerei :asd:

devAngnew
07-10-2009, 22:45
ormai, domani arriva la bestia :asd:
aspettare altri 4 mesi con la 3870 mi sparerei :asd:

Pensa se Fakermi esce a Dicembre 2009.... :asd: :asd: :asd:



P.S: Perchè lo spoiler non mi funziona dove sbaglio ?

Matalf
07-10-2009, 22:50
Pensa se Fakermi esce a Dicembre 2009.... :asd: :asd: :asd:



P.S: Perchè lo spoiler non mi funziona dove sbaglio ?

se esce a dicembre è comunque 2 mesi troppo tardi :asd: poi prima che sia disponibile passeranno altri 20/30gg senza contare una 5890 gia annungiata nel Q1/2 olè :D

se aspetti sempre non compri mai nulla ;)


P.s: su Hwupgrade lo spoiler funziona così "testo e sfondo dello stesso colore" ;)

devAngnew
07-10-2009, 22:53
se esce a dicembre è comunque 2 mesi troppo tardi :asd: poi prima che sia disponibile passeranno altri 20/30gg senza contare una 5890 gia annungiata nel Q1/2 olè :D

Si giusto due mesi di leader poi con Fakermi dovrai abdicare e poi la AMP edition super super clock altro che 4890.... :asd: :asd: :asd:
;)

Mercuri0
07-10-2009, 23:25
Cazz, che commenti catastrofisti per qualche mese di ritardo!

Il cambio di strategia commerciale di AMD (puntare al chip performance anziché al cippone enthusiast) + i 40nm di TSMC + il preventivato chippone GPGPU hanno portato a questa situazione.

Ma francamente penso che il Fermi il suo lo farà :D
(e anche soffrisse di problemi di gioventù come sempre è stato ogni grosso passo, il Fermi 2 lo vendicherà a dovere, come sempre è stato...)

Le difficoltà a lungo termine di nVidia penso che più che per ATI o questo mese di ritardo, seguiranno la crisi del mercato gaming PC... se crisi ci sarà.

Severnaya
07-10-2009, 23:32
Fermi 2 il ritorno... nel 2011 nei cinema! ! !

DukeIT
07-10-2009, 23:32
Cazz, che commenti catastrofisti per qualche mese di ritardo!Mi ricorda la pubblicità: "Gianni, L'ottimismo è Il Profumo Della Vita!" :D

molochgrifone
07-10-2009, 23:47
Mi ricorda la pubblicità: "Gianni, L'ottimismo è Il Profumo Della Vita!" :D

La versione televisiva o quella "alternativa"? :asd:

Sergio_Di_Rio
08-10-2009, 00:07
[UPDATED: This in from an NVIDIA spokesperson:

"We are not phasing out the products you list below [the GTX 260, GTX 275, and GTX 285] by the end of this year. We are in the process of transitioning to Fermi-class GPUs and, in time, phasing out existing products.”

http://blogs.zdnet.com/hardware/?p=5759

Severnaya
08-10-2009, 00:17
sperem

leoneazzurro
08-10-2009, 00:46
[UPDATED: This in from an NVIDIA spokesperson:

"We are not phasing out the products you list below [the GTX 260, GTX 275, and GTX 285] by the end of this year. We are in the process of transitioning to Fermi-class GPUs and, in time, phasing out existing products.”

http://blogs.zdnet.com/hardware/?p=5759

Il che sembra confermare che alla commercializzazione di GF100 manca ancora un pó.

Red Dragon
08-10-2009, 01:31
SE QUESTA NOTIZIA E' VERA LE COSE SI SONO MESSE MALE DAVVERO STAVOLTA X NVIDIA

Niente più GTX285, 275 e 260. NVIDIA lascia i mercati mid e high

“Troppi fallimenti hanno portato a non avere più cartucce in canna e ora è impossibile competere”



Secondo voci non ufficialmente confermate, NVIDIA è in una situazione molto grave e le prime ripercussioni di ciò potrebbero essere causa di un completo abbandono delle fasce midrange e high-end del mercato della grafica 3D. La produzione di schede, quali GeForce GTX260, GTX275 e GTX285, con il modello GTX295 a seguire, potrebbe perciò essere terminata.

Le motivazioni addotte per questa decisione vanno ricercate in una lunga serie di fallimenti nella realizzazione di una nuova architettura e nella migrazione di quelle esistenti verso processi più avanzati. Addirittura sembra che i profitti di tutte le linee di prodotto di NVIDIA siano davvero pessimi tali da poter portare l´azienda al fallimento.

Le notizie sono arrivate da fonti vicine agli OEM i quali sono stati notificati da NVIDIA stessa circa il fatto che i chip GTX285 e GTX260 non saranno più disponibili entro il mese di Novembre o al massimo quello di Dicembre, mentre il chip GTX275 raggiungerà il suo ultimo giorno di produzione entro un paio di settimane. L´unico sopravvissuto, a questo punto, resta il modello GTX295 disponibile, attualmente, come scheda grafica completa direttamente da NVIDIA.

In pratica l´azienda del camaleonte è rimasta a secco di novità, nonostante abbia voluto convincere l´opinione pubblica del contrario, dopo ripetuti fallimenti nel tentare di realizzare una nuova architettura high end; ora non ha nulla per competere con le schede ATI Evergreen HD5870 e HD5850 così come contro le prossime soluzioni Juniper.

G200b sarebbe potuta essere una discreta arma ma non abbastanza affilata sotto il punto di vista dei costi di produzione. In aggiunta, come ipotizzato anche sul nostro forum, la nuova architettura Fermi al momento resta un progetto solo sulla carta. Sembra infatti che NVIDIA non avrà un prodotto finito prima di ulteriori due trimestri: il die di Fermi avrebbe un´area di ben 530 millimetri quadrati con la produzione a 40nm di TSMC, oltre il doppio di quello delle schede HD5870 e HD5850.

Se una ripresa ci sarà questa non potrà avvenire prima del prossimo mese di Gennaio e sicuramente dovrà partire da soluzioni low-end. Non si capisce, però, come si è potuti arrivare a questo punto e nulla di peggio può esserci di un management poco lungimirante.

Ovviamente, lo ripetiamo, queste notizie vanno prese con le dovute cautele in quanto non sono basate su dati ed informazioni ufficiali. Non appena ci saranno aggiornamenti ve li comunicheremo.

http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high

goldorak
08-10-2009, 05:51
Il che sembra confermare che alla commercializzazione di GF100 manca ancora un pó.


Gia', ma dimostra anche come Nvidia abbia gettato la spugna per quanto riguarda le GTX260/275/285 etc...
I chip che ci sono si vendono (sperando che ci siano acquirenti) per il resto si aspetta il salvatore della patria. Tanto era evidente che il giochino di vendere le GTX200 sottocosto soltanto per mantenere il market share a lungo andare sarabbe stata una mossa negativa.

Legolas84
08-10-2009, 05:52
Intendevo che anche i "tifosi" di Ati ormai non parlano che di Nvidia... :asd: :asd: :asd:
ormai si stanno convincendo che vogliono una nvidia nel loro case.... :asd: :asd: :asd:

tanto sono solo 2 utenti basterebbe ignorarli ;)

Skullcrusher
08-10-2009, 08:02
Spero che le ultime news si rivelino infondate....sarebbe molto triste se Nvidia sparisse dal mercato delle vga high-end per pc...Ati resterebbe da sola e addio concorrenza...sarebbe lo scenario peggiore :muro:

Pat77
08-10-2009, 09:03
Sono tutte speculazioni che credo verranno subito smentite, che il mercato note e net sia più reditizio era evidente e non a caso sono passati a 0.40 prima li.
Secondo Steam le schede Nvidia hanno il 60% del mercato quindi non mi preoccuperei eccessivamente. Ogni fase di transizione comporta queste voci, secondo alcuni il cubo doveva essere l'ultima console Nintendo, si è visto...

devAngnew
08-10-2009, 09:39
Il fatto è che oltre a scelte progettuali di voler fare un chip molto grande rispetto alla concorrenza ci si mette pure TSMC e i problemi ben noti con la produzione a 40nm che stanno dando molti problemi; la stessa Ati ha avuto problemi pur avendo scelto una strada meno complicata dal lato della produzione del silicio.

okorop
08-10-2009, 09:46
il gpu gpu minato dai virus......
E se i virus arrivassero anche sulle schede video? Non è l'opinione di qualche delirante folle, ma di Philipp Gerasimov, software development relation specialist di Intel che, nel corso di una discussione dalle pagine di un sito russo, ripresa da Xbitlabs, spiega in che modo Intel si sta muovendo per scongiurare che le tecniche GPGPU diventino una nuova arma nelle mani di hacker e virus writer.

"Senza alcun dubbio, dal momento che i processori grafici diventano più complessi, la questione della sicurezza divverrà sempre più significativa e, forse, dovremo avere a che fare il primo virus per GPU. Questo è il motivo per il quale stiamo attentamente studiando tutte le possibilità per garantire la giusta sicurezza conLlarrabee, sia a livello di api, sia a livello driver" ha dichiarato Gerasimov.

Ora come ora nessuna scheda video è in grado di cancellare o infettare file o sottrarre informazioni sensibili, ma bisogna prendere atto del fatto che le GPU stanno via via acquistando maggiori funzionalità e non è da escludere che presto o tardi possa essere individuata una strada per impiegare tali funzionalità in maniera dannosa. Tra le caratteristiche di Larrabee vi è la compatibilità x86, tra i punti di forza di NVIDIA Fermi, la possibilità di eseguire codice da C++ a Fortran: indubbiamente gli sviluppatori di malware potrebbero presto avere a disposizione una vasta serie di nuove opportunità.

http://www.hwupgrade.it/news/sicurezza/gpgpu-e-virus-una-nuova-minaccia_30364.html

BebeMatley
08-10-2009, 09:50
Sono tutte speculazioni che credo verranno subito smentite, che il mercato note e net sia più reditizio era evidente e non a caso sono passati a 0.40 prima li.
Secondo Steam le schede Nvidia hanno il 60% del mercato quindi non mi preoccuperei eccessivamente. Ogni fase di transizione comporta queste voci, secondo alcuni il cubo doveva essere l'ultima console Nintendo, si è visto...

Infatti, non solo come quota di mercato è messa ancora bene, ma come azienda si può permettere "tranquillamente" qualche trimestre fiscali in rosso, dato che ha riserve che non vorrei sbagliarmi, si aggirano sui 3 miliardi di dollari.

Volevo aggiungere una considerazione, mi pare che con Fermi, Nvidia si ritrovi con lo stesso problema che ha avuto Ati con la R600, in quel caso fù introdotta una nuova architettura molto interessante sulla carta, che a causa del processo produttivo a 80nm non riusci a raggiungere i livelli che loro si erano prefissati in fase di progettazione (numero di shader non sufficienti che portarono a prestazioni non da scheda "Top" e consumi elevati). Ora Nvidia con Fermi ha un progetto interessante con prestazioni (sulla carta) notevoli, ma purtroppo per lei forse non idoneo con l'attuale tecnologia produttiva a 40nm.
Forse sono andati troppo oltre, dovevano proporre una evoluzione del G200b sfruttando il processo produttivo a 40nm e poi magari nel terzo trimestre presentare Fermi.
Ovviamente mi baso sulle voci che circolano, può essere che in 2 mesi i problemi vengano risolti e ci rimangiamo il tutto.

Ciao

mister-x
08-10-2009, 11:01
SE QUESTA NOTIZIA E' VERA LE COSE SI SONO MESSE MALE DAVVERO STAVOLTA X NVIDIA

Niente più GTX285, 275 e 260. NVIDIA lascia i mercati mid e high

“Troppi fallimenti hanno portato a non avere più cartucce in canna e ora è impossibile competere”



Secondo voci non ufficialmente confermate, NVIDIA è in una situazione molto grave e le prime ripercussioni di ciò potrebbero essere causa di un completo abbandono delle fasce midrange e high-end del mercato della grafica 3D. La produzione di schede, quali GeForce GTX260, GTX275 e GTX285, con il modello GTX295 a seguire, potrebbe perciò essere terminata.

Le motivazioni addotte per questa decisione vanno ricercate in una lunga serie di fallimenti nella realizzazione di una nuova architettura e nella migrazione di quelle esistenti verso processi più avanzati. Addirittura sembra che i profitti di tutte le linee di prodotto di NVIDIA siano davvero pessimi tali da poter portare l´azienda al fallimento.

Le notizie sono arrivate da fonti vicine agli OEM i quali sono stati notificati da NVIDIA stessa circa il fatto che i chip GTX285 e GTX260 non saranno più disponibili entro il mese di Novembre o al massimo quello di Dicembre, mentre il chip GTX275 raggiungerà il suo ultimo giorno di produzione entro un paio di settimane. L´unico sopravvissuto, a questo punto, resta il modello GTX295 disponibile, attualmente, come scheda grafica completa direttamente da NVIDIA.

In pratica l´azienda del camaleonte è rimasta a secco di novità, nonostante abbia voluto convincere l´opinione pubblica del contrario, dopo ripetuti fallimenti nel tentare di realizzare una nuova architettura high end; ora non ha nulla per competere con le schede ATI Evergreen HD5870 e HD5850 così come contro le prossime soluzioni Juniper.

G200b sarebbe potuta essere una discreta arma ma non abbastanza affilata sotto il punto di vista dei costi di produzione. In aggiunta, come ipotizzato anche sul nostro forum, la nuova architettura Fermi al momento resta un progetto solo sulla carta. Sembra infatti che NVIDIA non avrà un prodotto finito prima di ulteriori due trimestri: il die di Fermi avrebbe un´area di ben 530 millimetri quadrati con la produzione a 40nm di TSMC, oltre il doppio di quello delle schede HD5870 e HD5850.

Se una ripresa ci sarà questa non potrà avvenire prima del prossimo mese di Gennaio e sicuramente dovrà partire da soluzioni low-end. Non si capisce, però, come si è potuti arrivare a questo punto e nulla di peggio può esserci di un management poco lungimirante.

Ovviamente, lo ripetiamo, queste notizie vanno prese con le dovute cautele in quanto non sono basate su dati ed informazioni ufficiali. Non appena ci saranno aggiornamenti ve li comunicheremo.

http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high

Risposta di Nvidia:

As many of our readers have been discussing Charlie's recent article. There is some serious scuttlebutt going around about NVIDIA's market intentions. Here is what Charlie Demerjian lead with yesterday.

NVIDIA IS KILLING the GTX260, GTX275, and GTX285 with the GTX295 almost assured to follow as it (Nvidia: NVDA) abandons the high and mid range graphics card market. Due to a massive series of engineering failures, nearly all of the company's product line is financially under water, and mismanagement seems to be killing the company.

You can find the rest of the article here.

I have known Charlie for a long time and have shared time with him all over the globe, and I will say that there is almost always a basis of truth in his stories. That said, there is almost always a reach to dramatize and spin the article into line with what I think are personal motivations. Regardless of your opinion on this, I see what Charlie writes as "Tech Tabloid" and I think most of us will agree on this.

Headlines like Charlie is writing now should not go unanswered, so we asked NVIDIA for an official statement as to this topic so we could publish it for [H] readers, and here it is from Ken Brown at NVIDIA PR:

Hi Kyle,

Thanks for asking.

There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad.

Please let your readers know, and let us know if you have any more questions.

Thanks.

Wow. Don't think there is anything left to say on this. Enjoy.

Fonte: Nvidia Abandons Market????? (http://enthusiast.hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363)

Axelt
08-10-2009, 11:29
Spero che le ultime news si rivelino infondate....sarebbe molto triste se Nvidia sparisse dal mercato delle vga high-end per pc...Ati resterebbe da sola e addio concorrenza...sarebbe lo scenario peggiore :muro:

nn sarebbe lo scenario peggiore ma un disastro colossale :( .... con un solo produttore di vga sul mercato si annullerebbe logicamente la concorrenza è i prezzi sarebbero altissimi..........speriamo che siano notizie fake altrimenti siamo fregati

freedom07
08-10-2009, 11:41
secondo il mio modesto parere nvidia è in ritardo ed su questo nn ci piove ..ma ora ad abbandonare delle fascie di mercato ad ati ce ne passa.. io dico prima di dare per spacciata questo colosso di vga aspettiamo ... come prima data il 22 del corrente mese ed poi la prima metà di dicembre dove penso ke li ci saranno dati certii su cosa sta lavorando nvidiaa ..

devAngnew
08-10-2009, 11:49
Risposta di Nvidia:
cut.........

Hi Kyle,

Thanks for asking.

There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad.

Please let your readers know, and let us know if you have any more questions.

Thanks.

Wow. Don't think there is anything left to say on this. Enjoy.

Fonte: Nvidia Abandons Market????? (http://enthusiast.hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363)

CVD......... :asd: :asd: :asd:

Foglia Morta
08-10-2009, 11:59
CVD......... :asd: :asd: :asd:

Hai dimostrato di non sapere leggere :rolleyes: , i link pubblcitari in prima pagina: 1 (http://www.biohazard-computers.com/) , 2 (http://flyspy.com/) , 3 (http://www.tigerdirect.com/applications/campaigns/campaigntemplate.asp?CampaignID=1062) , e gli articoli spaziano da LSI , Intel , Sony e così via... IMO pubblicità occulta non ne fa

calabar
08-10-2009, 12:04
CVD......... :asd: :asd: :asd:
Detto dal rappresentante Nvidia non è queste parole che Dimostrino molto! :p

Piuttosto il giornalista scrive: "I have known Charlie for a long time and have shared time with him all over the globe, and I will say that there is almost always a basis of truth in his stories."
L'astio verso Nvidia è risaputo, ma è il "fondo di verità" che potrebbe essere preoccupante.

L'abbandono da parte di nvidia della fascia alta sarebbe davvero preoccupante per noi utenti, ma probabilmente (se fosse veritiero) consentirebbe loro di risparmiare denaro in attesa dell'uscita sul mercato dei nuovi prodotti.
Se questa uscita non è eccessivamente in ritardo si tratterebbe comunque di un brutto periodo ma tutto sommato accettabile per rimettersi in pista.

Foglia Morta
08-10-2009, 12:10
Detto dal rappresentante Nvidia non è queste parole che Dimostrino molto! :p

Piuttosto il giornalista scrive: "I have known Charlie for a long time and have shared time with him all over the globe, and I will say that there is almost always a basis of truth in his stories."
L'astio verso Nvidia è risaputo, ma è il "fondo di verità" che potrebbe essere preoccupante.

L'abbandono da parte di nvidia della fascia alta sarebbe davvero preoccupante per noi utenti, ma probabilmente (se fosse veritiero) consentirebbe loro di risparmiare denaro in attesa dell'uscita sul mercato dei nuovi prodotti.
Se questa uscita non è eccessivamente in ritardo si tratterebbe comunque di un brutto periodo ma tutto sommato accettabile per rimettersi in pista.

Infatti, bisogna cercare di distinguere le sue opinioni personali dai dati più o meno oggettivi ( variano da articolo ad articolo ) dai quali parte. Ha detto cose corrette che se uno tentasse 10.000 volte di provare a indovinare comunque non ci riuscirebbe , poi però a volte esagera nelle conclusioni che ne trae... ma inizialmente parte da qualche dato.

devAngnew
08-10-2009, 12:26
Hai dimostrato di non sapere leggere :rolleyes: , i link pubblcitari in prima pagina: 1 (http://www.biohazard-computers.com/) , 2 (http://flyspy.com/) , 3 (http://www.tigerdirect.com/applications/campaigns/campaigntemplate.asp?CampaignID=1062) , e gli articoli spaziano da LSI , Intel , Sony e così via... IMO pubblicità occulta non ne fa

Guarda avresti potuto rispondere che il giudizio è di parte anzichè partire in quarta con i tui commenti.....:rolleyes:

okorop
08-10-2009, 12:28
Hai dimostrato di non sapere leggere :rolleyes: , i link pubblcitari in prima pagina: 1 (http://www.biohazard-computers.com/) , 2 (http://flyspy.com/) , 3 (http://www.tigerdirect.com/applications/campaigns/campaigntemplate.asp?CampaignID=1062) , e gli articoli spaziano da LSI , Intel , Sony e così via... IMO pubblicità occulta non ne fa

quoto dice cose molto obiettive escludendo le conclusioni.....è un giornalista che sa fare il suo lavoro a mio avviso, di giornalisti "scomodi" che dicono la realtà delle cose come lui a mio avviso ce ne dovrebbero essere di piu'

Legolas84
08-10-2009, 13:17
quoto dice cose molto obiettive escludendo le conclusioni.....è un giornalista che sa fare il suo lavoro a mio avviso, di giornalisti "scomodi" che dicono la realtà delle cose come lui a mio avviso ce ne dovrebbero essere di piu'

:asd:

devAngnew
08-10-2009, 14:36
Detto dal rappresentante Nvidia non è queste parole che Dimostrino molto! :p

cut



Certo come pure le parole Charlie.....

jok3r87
08-10-2009, 15:31
Detto dal rappresentante Nvidia non è queste parole che Dimostrino molto! :p

Piuttosto il giornalista scrive: "I have known Charlie for a long time and have shared time with him all over the globe, and I will say that there is almost always a basis of truth in his stories."
L'astio verso Nvidia è risaputo, ma è il "fondo di verità" che potrebbe essere preoccupante.

L'abbandono da parte di nvidia della fascia alta sarebbe davvero preoccupante per noi utenti, ma probabilmente (se fosse veritiero) consentirebbe loro di risparmiare denaro in attesa dell'uscita sul mercato dei nuovi prodotti.
Se questa uscita non è eccessivamente in ritardo si tratterebbe comunque di un brutto periodo ma tutto sommato accettabile per rimettersi in pista.

Ma non avrebbe senso nvidia può continuare a vendere le gtx285 a 300€ che la gente le comprerebbe ugualmente solo perchè sono nvidia.

DVD2005
08-10-2009, 15:50
Ma non avrebbe senso nvidia può continuare a vendere le gtx285 a 300€ che la gente le comprerebbe ugualmente solo perchè sono nvidia.

ho appena letto la rece della 5850 che a 230€ va meglio, insomma, per quanto uno possa essere legato al marchio deve essere anche autolesionista.....

halduemilauno
08-10-2009, 15:55
ho appena letto la rece della 5850 che a 230€ va meglio, insomma, per quanto uno possa essere legato al marchio deve essere anche autolesionista.....

quoto. aggiungo che la gtx285 era gia morta appena uscita la gtx275 una scheda che gli sta immediatamente sotto a ben oltre 100€ di meno. non a caso la 285 sarà la prima gtx ad andare in fine produzione cosa che accadrà entro questo mese.
;)

ilratman
08-10-2009, 16:02
quoto. aggiungo che la gtx285 era gia morta appena uscita la gtx275 una scheda che gli sta immediatamente sotto a ben oltre 100€ di meno. non a caso la 285 sarà la prima gtx ad andare in fine produzione cosa che accadrà entro questo mese.
;)

già

ma nvidia sta perdendo un po' di clienti anche per via delle dimensioni, per esempio schede come la 275 pur se ormai costano poco non ci stanno nei middle di fascia bassa, tipo cm elite 330, mentre la 5850 ci sta senza problemi e quindi anche gli utenti o prendono una 9800gt o una 5850 e immagino che la scelta se uno vuole qualcosa di più non possa che andare sulla 5850.

io sono anni che aspetto una sostituta della 8800gt amp che abbia le stesse dimensioni e l'unica che esiste è la 5850.

secondo me ati ha fatto una mossa corretta a fare due schede molto simili ma così diverse sia come dimensioni che come layout così puoi vendere a tutti.

spero nvidia faccia altrettanto altrimenti venderà molto poco nella fascia "alta ma non troppo".

halduemilauno
08-10-2009, 16:05
già

ma nvidia sta perdendo un po' di clienti anche per via delle dimensioni, per esempio schede come la 275 pur se ormai costano poco non ci stanno nei middle di fascia bassa, tipo cm elite 330, mentre la 5850 ci sta senza problemi e quindi anche gli utenti o prendono una 9800gt o una 5850 e immagino che la scelta se uno vuole qualcosa di più non possa che andare sulla 5850.

io sono anni che aspetto una sostituta della 8800gt amp che abbia le stesse dimensioni e l'unica che esiste è la 5850.

secondo me ati ha fatto una mossa corretta a fare due schede molto simili ma così diverse sia come dimensioni che come layout così puoi vendere a tutti.

spero nvidia faccia altrettanto altrimenti venderà molto poco nella fascia "alta ma non troppo".

la gtx275 era nata per ben altra fascia.
;)

zorco
08-10-2009, 16:13
mi pare già ci siano le gtx260 con pcb più corto,penso lo stesso si possa fare anche con le 275..

Errik89
08-10-2009, 16:16
edit, thread sbagliato!! :asd:

ilratman
08-10-2009, 16:23
mi pare già ci siano le gtx260 con pcb più corto,penso lo stesso si possa fare anche con le 275..

si è vero è stata presentata di recente ma secondo me con un anno di ritardo!

tu prenderesti una scheda vecchia come la 260 se la 5850 ha le stesse dimensioni e va molto di più, certo che se costasse 100 euro e consumasse in idle meno della 5850 un pensiero serio lo farei di sicuro.

con rammarico mi sa che stavolta prendo ati, sarebbe la mia prima ati gaming dal 1998!

io devo sostituire la 8800gt amp che consuma 30W in idle e voglio una scheda che al max in idle consumi così anzi se meno meglio visto che l'htpc il 90% del tempo è in idle!

Errik89
08-10-2009, 16:23
quoto. aggiungo che la gtx285 era gia morta appena uscita la gtx275 una scheda che gli sta immediatamente sotto a ben oltre 100€ di meno. non a caso la 285 sarà la prima gtx ad andare in fine produzione cosa che accadrà entro questo mese.
;)
quoto, IMHO saranno le GTX285 e GTX295 ad andarsene. Mentre le GTX260 e 275 rimarrano. Spero in un PCB + compatto. Comunque anche se rimarranno contro le 4770 e la 5850 non sono comunque preferibili, ma almeno ad nvidia rimane qualcosa nella fascia media.. :)

ilratman
08-10-2009, 16:26
quoto, IMHO saranno le GTX285 e GTX295 ad andarsene. Mentre le GTX260 e 275 rimarrano. Spero in un PCB + compatto. Comunque anche se rimarranno contro le 4770 e la 5850 non sono comunque preferibili, ma almeno ad nvidia rimane qualcosa nella fascia media.. :)

già ma poi le fasce a cui sarebbero indirizzate non riuscirebbero ad alimentarle correttamente, ricordiamo che chi prende una scheda di fascia media è di solito uno che non ha certo un pc con ali decenti.

la 4770 consuma 70W mentre la 260 non credo faccia tanto!

nvidia ha perso molto terreno nei consumi, era riuscita a ridurli con g92b e poi mi è andata a fare un g200 che consuma uno sfracelo.

Errik89
08-10-2009, 16:32
già ma poi le fasce a cui sarebbero indirizzate non riuscirebbero ad alimentarle correttamente, ricordiamo che chi prende una scheda di fascia media è di solito uno che non ha certo un pc con ali decenti.

la 4770 consuma 70W mentre la 260 non credo faccia tanto!

nvidia ha perso molto terreno nei consumi, era riuscita a ridurli con g92b e poi mi è andata a fare un g200 che consuma uno sfracelo.
quoto, comunque volevo dire 5770 e non 4770 :D
Comunque sempre meglio che non avere NULLA.

Ma un cazz o di G92b a 40nm almeno con frequenze un po' tirate non potevano farlo?? Non penso che non ci riuscissero..

ilratman
08-10-2009, 16:36
quoto, comunque volevo dire 5770 e non 4770 :D
Comunque sempre meglio che non avere NULLA.

Ma un cazz o di G92b a 40nm almeno con frequenze un po' tirate non potevano farlo?? Non penso che non ci riuscissero..

che ti devo dire, un g92c sarebbe ottimo per htpc e permetterebbe schede anche lowprofile oltre che corte, con consumi sotto i 70-80W, se tirato sotto i 100W.

diciamo che un g92c tirato sarebbe quasi come una 260 192 e di sicuro come una 5750!

non ho mai avuto l'esigenza di cambiare la 8800gt proprio perchè a 800MHz di pot ne ha abbastanza ancora!

Andrea deluxe
08-10-2009, 16:37
http://www.tweaktown.com/articles/2958/nvidia_directx_11_questionnaire_a_response_to_amd_s_views/index.html

okorop
08-10-2009, 16:55
Ma lol leggete dall'articolo le dichiarazioni nvida:
Even today our GeForce GTX 285 significantly outperforms the HD 5870 in next gen games like Batman Arkham Asylum with physics.
e certo quella ciofeca di physx non si puo' attivare con le ati lol :sbonk: next generation games? si si usa l'ue3 vecchio di 2 quasi 3 anni.....:rolleyes:
questo è arrampicari sui vetri!!!!!

Poi: domanda su Physx vs Havock
PhysX is the most widely used physics API with support across all platforms; console, PC and even the iPhone. Our Developer Relations team is working with game developers to add GPU-accelerated PhysX effects into some of the hottest PC games, so GeForce gamers are going to be in for a real treat.



people with GeForce GPUs get an awesome in-game physics experience with Batman: Arkham Asylum T

Se lo dice il vice president nvida allora ci fidiamo :asd: pero' con i frame dimezzati....


Questione driver, WHQLed certificati ogni 4 mesi, da non crederci!!!! Ed inoltre dicono di usare i beta......scandaloso
NVIDIA has a steady cadence of high quality driver updates for desktop and notebook GPUs that happen every quarter at a minimum (sometimes it is faster than that). But customers that want drivers more frequently can always grab a driver from our BETA section. The quarterly driver is WHQLed and the BETAs are usually in the process of getting WHQLed.

Again, we are not pushing proprietary standards. We are pushing innovation.

E si perchè chiudere con cuda la fisica ( se cosi si puo' definire) nei videogiochi è un innovazione......

zorco
08-10-2009, 17:18
si è vero è stata presentata di recente ma secondo me con un anno di ritardo!

tu prenderesti una scheda vecchia come la 260 se la 5850 ha le stesse dimensioni e va molto di più, certo che se costasse 100 euro e consumasse in idle meno della 5850 un pensiero serio lo farei di sicuro.

con rammarico mi sa che stavolta prendo ati, sarebbe la mia prima ati gaming dal 1998!

io devo sostituire la 8800gt amp che consuma 30W in idle e voglio una scheda che al max in idle consumi così anzi se meno meglio visto che l'htpc il 90% del tempo è in idle!
concordo non la prenderei neanche io la 260 per i motivi che hai specificato..

attualmente sto aspettando l'rma della 9800 quindi per ora non compro nulla...

devAngnew
08-10-2009, 17:27
Ma lol leggete dall'articolo le dichiarazioni nvida:

e certo quella ciofeca di physx non si puo' attivare con le ati lol :sbonk: next generation games? si si usa l'ue3 vecchio di 2 quasi 3 anni.....:rolleyes:
questo è arrampicari sui vetri!!!!!

Poi: domanda su Physx vs Havock


Poi


Se lo dice il vice president nvida allora ci fidiamo :asd:

E si è talmente tanto usata che l'han chiusa al supporto con le ati

Questione driver, WHQLed certificati ogni 4 mesi, da non crederci!!!! Ed inoltre dicono di usare i beta......scandaloso




E si perchè chiudere con cuda la fisica ( se cosi si puo' definire) nei videogiochi è un innovazione......

Ma perchè dite sempre le stesse cose non lo sò proprio mha, cmq. Nvidia ha fatto un investimento e vuole un ritorno economico no ....poi se Bullet o Havok (per Havok penso che si dovrà aspettare parecchio vito il ritardo larrabee :asd: ) diverrà realtà (P.S ci stà lavorando anche lei al suo sviluppo (Bullet)) penso che ovviamente renderà PhysX disponibile a tutti ma fino ad allora Nisba.....
Altrimenti visto che reputi il suo modo di fare egoistico iniza a comprare vga Dx11 e distribuiscile a tutti ..... :asd: :asd: :asd: ;)

unreal engine 3 sarà anche vecchio ma il suo sviluppo non è statico visto che supporta gli shader 4...non sarà Dx 11 con uso del tesselation unit che diventerà standard (il 22 ottobre 2009) ma di certo non è rimasto fermo allo shader model 3.
Come tutti i prodotti sarà tirato per il collo :asd: fino alle nuova versione completamente rivista almeno si spera... :asd:

okorop
08-10-2009, 17:35
Ma perchè dite sempre le stesse cose non lo sò proprio mha, cmq. Nvidia ha fatto un investimento e vuole un ritorno economico no ....poi se Bullet o Havok (per Havok penso che si dovrà aspettare parecchio vito il ritardo larrabee :asd: ) diverrà realtà (P.S ci stà lavorando anche lei al suo sviluppo (Bullet)) penso che ovviamente renderà PhysX disponibile a tutti ma fino ad allora Nisba.....
Altrimenti visto che reputi il suo modo di fare egoistico iniza a comprare vga Dx11 e distribuiscile a tutti ..... :asd: :asd: :asd: ;)

unreal engine 3 sarà anche vecchio ma il suo sviluppo non è statico visto che supporta gli shader 4...non sarà Dx 11 con uso del tesselation unit che diventerà standard (il 22 ottobre 2009) ma di certo non è rimasto fermo allo shader model 3.
Come tutti i prodotti sarà tirato per il collo :asd: fino alle nuova versione completamente rivista almeno si spera... :asd:
ho detto la mia opinione sulle cose dette dal vice president nvida, e non mi pare per nulla nuovo il motore di batman e sti spettacolari effetti di physx che sto osservando mi sembrano solo un contorno e non come da lui detto rendono piu' spettacolare il gioco essendo parte integrante, si stanno arrampicando sugli specchi per non guardare realmente alla realtà dei fatti......:rolleyes:
poi questione driver: per lui è normale fare dei driver certificati ogni 4 dico 4 mesi, anche dal quel versante stan perdendo colpi

kiriranshelo
08-10-2009, 17:52
poi questione driver: per lui è normale fare dei driver certificati ogni 4 dico 4 mesi, anche dal quel versante stan perdendo colpi

bè se perdono anche questo altro che rimonta di ATI, per quanto riguarda il marketshare

Walrus74
08-10-2009, 17:52
CUT...
poi questione driver: per lui è normale fare dei driver certificati ogni 4 dico 4 mesi, anche dal quel versante stan perdendo colpi

:confused:

Driver WHQL -> quindi certificati

185.85 del 07.05.2009
186.18 del 18.06.2009
190.38 del 21.07.2009
190.62 del 21.08.2009
191.07 del 05.10.2009

:rolleyes:

Kharonte85
08-10-2009, 17:54
http://www.tweaktown.com/articles/2958/nvidia_directx_11_questionnaire_a_response_to_amd_s_views/index.html

Non dice niente di interessante, come al solito succede per queste interviste...

Legolas84
08-10-2009, 17:57
:confused:

Driver WHQL -> quindi certificati

185.85 del 07.05.2009
186.18 del 18.06.2009
190.38 del 21.07.2009
190.62 del 21.08.2009
191.07 del 05.10.2009

:rolleyes:

Non date da mangiare ai troll ;)

devAngnew
08-10-2009, 18:13
ho detto la mia opinione sulle cose dette dal vice president nvida, e non mi pare per nulla nuovo il motore di batman e sti spettacolari effetti di physx che sto osservando mi sembrano solo un contorno e non come da lui detto rendono piu' spettacolare il gioco essendo parte integrante, si stanno arrampicando sugli specchi per non guardare realmente alla realtà dei fatti......:rolleyes:


No, da quello che hai scritto hai dato la tua opinione su PhysiX intendendo che Ati non può usarla a causa di scelte di Nvidia, allora agisci di conseguenza compra a tutti schede DX 11 4870 e distribuiscile.... gratuitamente e distinguiti altrimenti ti conviene non giudicare....:rolleyes:
Ma perchè io ho detto che il motore è nuovo....:read:
Ovviamente mica EIDOS poteva usare PhyX in modo tale da non vendere ai possessori Ati.... :asd: :asd: :asd: ma ha aggiunto effetti tali da rendere il titolo molto più bello da vedere con Nvidia...e spingere a comprare Nvidia..


poi questione driver: per lui è normale fare dei driver certificati ogni 4 dico 4 mesi, anche dal quel versante stan perdendo colpi
Apparte il fatto :
Driver WHQL
185.85 del 07.05.2009
186.18 del 18.06.2009
190.38 del 21.07.2009
190.62 del 21.08.2009
191.07 del 05.10.2009

Nvidia si può "permettere" anche di fare driver ogni 4 mesi
poichè l'architettura Nvidia è diversa da quella Ati ed ha bisogno di meno aggiornamenti rispetto ad Ati e al suo compilatore per l'architettura VLIW.

Infine la realtà è questa che sul fronte Dx 11 Nvidia ancora non ha prodotti in commercio (aspettiamo no... :asd: io da appassionato faccio cosi mica sono tifoso come qualcun'altro ....:fiufiu: ) ma in Dx 10 e Dx 9 le prestazioni tra la serie G2xx e Ati 5xxx non sono poi cosi lontane; la differenza ci sarà solo con titoli DX 11 e non credo che STALKER e DIRT 2 siano veri titoli Dx11 quindi sostanziali differenze per il prossimo futuro non ce ne saranno...

;)

devAngnew
08-10-2009, 18:14
Non date da mangiare ai troll ;)

Mi sà che devo proprio quotarti.... :asd: :asd: :asd:
ma io li devo convertire sono sulla cattiva strada del "tifoso" devono tornare sulla retta via dell'appassionato ... :asd: :asd: :asd:

Sergio_Di_Rio
08-10-2009, 18:24
cut.. Nvidia's DirectX 11 Fermi-based entry level won't arrive until first half of 2010.

http://www.fudzilla.com/content/view/15881/1/

Errik89
08-10-2009, 18:40
cut.. Nvidia's DirectX 11 Fermi-based entry level won't arrive until first half of 2010.

http://www.fudzilla.com/content/view/15881/1/
dell'entry level non è che me ne freghi più di tanto, a me interessa che asso ha nella manica nvidia per la fascia media, dove per ora sembra avere il NULLA, lasciando campo libero alle 5700 e alla 5850.. :(

Legolas84
08-10-2009, 18:55
Mi sà che devo proprio quotarti.... :asd: :asd: :asd:
ma io li devo convertire sono sulla cattiva strada del "tifoso" devono tornare sulla retta via dell'appassionato ... :asd: :asd: :asd:

Suvvia sono solo due utenti in tutta la sezione, basta non rispondergli e si ritroveranno a discutere solo tra di loro... quando ero solito frequentare questi lidi con costanza (qualche anno fa) funzionava così :)

Comunque rigardo quello che hai detto sono daccordo, anche se sono dell'idea che nVIDIA debba sbrigarsi soprattutto per non perdere troppo marketshare anche perchè le nuove soluzioni ATI sono davvero ottime anche sul lato consumi. Sebbene dal punto di vista prestazionale non hanno aggiunto molto se non le prestazioni dual-gpu su una single... (che comunque non è cosa da poco)....

The_SaN
08-10-2009, 19:02
Suvvia sono solo due utenti in tutta la sezione, basta non rispondergli e si ritroveranno a discutere solo tra di loro... quando ero solito frequentare questi lidi con costanza (qualche anno fa) funzionava così :)

Comunque rigardo quello che hai detto sono daccordo, anche se sono dell'idea che nVIDIA debba sbrigarsi soprattutto per non perdere troppo marketshare anche perchè le nuove soluzioni ATI sono davvero ottime anche sul lato consumi. Sebbene dal punto di vista prestazionale non hanno aggiunto molto se non le prestazioni dual-gpu su una single... (che comunque non è cosa da poco)....É quello che succede ad ogni cambio generazionale :stordita:

Legolas84
08-10-2009, 19:12
É quello che succede ad ogni cambio generazionale :stordita:

Con G80 si era andati oltre.... questo mi attend da un cambio di architettura... :)

Senza contare che il vero salto lo faranno le prossime dual....

The_SaN
08-10-2009, 19:16
Con G80 si era andati oltre.... questo mi attend da un cambio di architettura... :)

Senza contare che il vero salto lo faranno le prossime dual....Da quel che mi ricordo io, all'inizio la 7900gx2 e la 8800gtx erano praticamente equivalenti, gioco piú/gioco meno.
Con il vantaggio che g80 era single chip e andava sempre bene.
Poi con la normale ottimizzazione drivers (+15% circa nel ciclo vitale di tutte le schede)e con i giochi nuovi e piú pesanti...il divario si é allargato.

Non mi pare la situazione oggi sia molto diversa :)

Errik89
08-10-2009, 20:16
Da quel che mi ricordo io, all'inizio la 7900gx2 e la 8800gtx erano praticamente equivalenti, gioco piú/gioco meno.
Con il vantaggio che g80 era single chip e andava sempre bene.
Poi con la normale ottimizzazione drivers (+15% circa nel ciclo vitale di tutte le schede)e con i giochi nuovi e piú pesanti...il divario si é allargato.

Non mi pare la situazione oggi sia molto diversa :)
quoto e poi bisogna considerare che rispetto ai tempi della 7950GX2 ora SLI e CF sono molto più efficienti e quindi in proporzione considerando qsto è meglio la 5870 rispetto alla 8800GTX come scarto sulle dual gpu :)

devAngnew
08-10-2009, 20:25
Suvvia sono solo due utenti in tutta la sezione, basta non rispondergli e si ritroveranno a discutere solo tra di loro... quando ero solito frequentare questi lidi con costanza (qualche anno fa) funzionava così :)

Comunque rigardo quello che hai detto sono daccordo, anche se sono dell'idea che nVIDIA debba sbrigarsi soprattutto per non perdere troppo marketshare anche perchè le nuove soluzioni ATI sono davvero ottime anche sul lato consumi. Sebbene dal punto di vista prestazionale non hanno aggiunto molto se non le prestazioni dual-gpu su una single... (che comunque non è cosa da poco)....

Certamente anch'io sono della stessa idea nessuno nega la qualità di fondo del lavoro svolto da Ati però il fanboysmo fà diventar cechi le persone...


Da quel che mi ricordo io, all'inizio la 7900gx2 e la 8800gtx erano praticamente equivalenti, gioco piú/gioco meno.
Con il vantaggio che g80 era single chip e andava sempre bene.
Poi con la normale ottimizzazione drivers (+15% circa nel ciclo vitale di tutte le schede)e con i giochi nuovi e piú pesanti...il divario si é allargato.

Non mi pare la situazione oggi sia molto diversa :)

Quoto però Crysis titolo molto shader intensive non è migliorato affato anche con la 5870 sarà il forward rendering bha.....

Legolas84
08-10-2009, 20:41
Da quel che mi ricordo io, all'inizio la 7900gx2 e la 8800gtx erano praticamente equivalenti, gioco piú/gioco meno.
Con il vantaggio che g80 era single chip e andava sempre bene.
Poi con la normale ottimizzazione drivers (+15% circa nel ciclo vitale di tutte le schede)e con i giochi nuovi e piú pesanti...il divario si é allargato.

Non mi pare la situazione oggi sia molto diversa :)

Ma si, anche se resto dell'idea che la vera scheda da comprare per chi ha la 295 sarà la 5870 dual (o la controparte verde) :)

Infatti nel primo post tra parentesi ho messo "che comunque non è cosa da poco".... ;)

Legolas84
08-10-2009, 20:42
Certamente anch'io sono della stessa idea nessuno nega la qualità di fondo del lavoro svolto da Ati però il fanboysmo fà diventar cechi le persone...

Quanto hai ragione... ci mettono poco a diventare ridicoli i fanboy.... si ritrovano a scrivere le stesse ammenità in tutti i post... :asd: Ma come ti ho detto imho basta non rispondergli (cosa facile visto che non sono tanti ma solo due) :)

eXeS
08-10-2009, 21:00
Da quel che mi ricordo io, all'inizio la 7900gx2 e la 8800gtx erano praticamente equivalenti, gioco piú/gioco meno.
Con il vantaggio che g80 era single chip e andava sempre bene.
Poi con la normale ottimizzazione drivers (+15% circa nel ciclo vitale di tutte le schede)e con i giochi nuovi e piú pesanti...il divario si é allargato.

Non mi pare la situazione oggi sia molto diversa :)
G80 era mediamente del 20/25% più performante della GX2, ricordi male :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating

devAngnew
08-10-2009, 22:09
Dal nostro sito di riferimento cioè Hardwareupgrade le ultimissime...


.... i driver WHQL GeForce 186.91, viene ufficializzato, anche se involontariamente e indirettamente, il nome e l'arrivo delle nuove GPU NVIDIA, GeForce 300.

L'aggiornamento, disponibile Windows Vista e 7, è datato 1 di Setembre e supporta schede Quadro, ION, diversi IGP e GeForce 6,7,8,9,100,200 e ovviamente, anche la nuova serie 300. Questo il passo estrapolato dal file .INF incriminato:

- NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A66.01 = "NVIDIA GeForce 310"
- NVIDIA_DEV.0A6E.01 = "NVIDIA GeForce 305M"
- NVIDIA_DEV.0A75.01 = "NVIDIA GeForce 310M"
- NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
- NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
- NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"


A quanto pare c'è la 310 pe la versione desktop....:stordita:

The_SaN
08-10-2009, 22:11
G80 era mediamente del 20/25% più performante della GX2, ricordi male :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performanceratingHai ragione, pensavo fosse un po' meno.
Peró non possiamo fare comparazioni tra 7900gx2 e gtx295, sli e crossfire hanno fatto passi da gigante in quanto a efficienza.
Se prima si faticava ad arrivare al 50-55% di boost, oggi si supera in tranquillitá il 70% quando non si é cpu limited.

devAngnew
08-10-2009, 22:14
Da Fudzilla per quel che può contare....

http://www.fudzilla.com/content/view/15881/34/

In pratica dice che il 12 ottobre sarà lanciata la GT220 Dx10.1....mentre l'entry level dx 11 non si avrà prima della metà del 2010....


Nvidia plans to launch a “new” generation of what´s exclusively been a OEM product and this new card will get a Geforce GT220 brand name.

The launch date is October 12th, which is just one day before the launch of Radeon HD 5770 and 5750, both DirectX 11 cards that might dominate this market segment.

Geforce GT220 works from 615MHz all the way to 700MHz depending on the configuration, while most of the cards use 1GB of 790MHz clocked 128-bit DDR3 memory. This is a single slot card with shader clock at 1335MHz.

The cards we've found listed should be selling from €57 to €72 which sounds quite affordable. Nvidia's DirectX 11 Fermi-based entry level won't arrive until first half of 2010.

DVD2005
08-10-2009, 22:15
Dal nostro sito di riferimento cioè Hardwareupgrade le ultimissime...


.... i driver WHQL GeForce 186.91, viene ufficializzato, anche se involontariamente e indirettamente, il nome e l'arrivo delle nuove GPU NVIDIA, GeForce 300.

L'aggiornamento, disponibile Windows Vista e 7, è datato 1 di Setembre e supporta schede Quadro, ION, diversi IGP e GeForce 6,7,8,9,100,200 e ovviamente, anche la nuova serie 300. Questo il passo estrapolato dal file .INF incriminato:

- NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A66.01 = "NVIDIA GeForce 310"
- NVIDIA_DEV.0A6E.01 = "NVIDIA GeForce 305M"
- NVIDIA_DEV.0A75.01 = "NVIDIA GeForce 310M"
- NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
- NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
- NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"


A quanto pare c'è la 310 pe la versione desktop....:stordita:

non erano sigle per delle vga "rimarchiate" ? non ricordo.

Errik89
08-10-2009, 22:22
non erano sigle per delle vga "rimarchiate" ? non ricordo.
beh 310 sta comunque ad indicare fascia bassa.. :(

RaZoR93
08-10-2009, 22:52
G80 era mediamente del 20/25% più performante della GX2, ricordi male :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performanceratingMa questa 7950x2 era un modello OC?
http://www.hwupgrade.it/articoli/skvideo/1597/fear_2.png
http://www.hwupgrade.it/articoli/skvideo/1597/far_cry.png

beh 310 sta comunque ad indicare fascia bassa.. :(

Ma non si era detto che schede di fascia bassa non si sarebbero viste prima della metà del 2010?

Jackaos
09-10-2009, 00:02
non erano sigle per delle vga "rimarchiate" ? non ricordo.

Pareva così anche a me, anche se a dire il vero mi pareva che la rimarchiatura riguardasse solo le versioni per portatili, comunque sia non è ne 380 ne 360.

Nino Grasso
09-10-2009, 00:57
quoto e poi bisogna considerare che rispetto ai tempi della 7950GX2 ora SLI e CF sono molto più efficienti e quindi in proporzione considerando qsto è meglio la 5870 rispetto alla 8800GTX come scarto sulle dual gpu :)

Lol!!! Spero che tu stia scherzando! Paragonare le due cose fa capire quanto sia lungimirante il tuo modo di pensare.

Ti spiego: in ogni "balzo" generazionale si cerca "storicamente" di raggiungere un aumento prestazionale del 100%. Ce lo insegna 8800GTX, GTX280. La 5870 va circa il 25% in più rispetto al massimo ottenibile con una singola GPU nella passata generazione, e non riesce nemmeno ad eguagliare la dual GPU top sempre della scorsa generazione.

L'8800GTX a suo tempo fece molto, ma molto di più, quindi non cercare di paragonare cose che non hanno nulla a che vedere fra di loro. Per quanto possa essere un'ottima scelta per chi assembla un computer oggi, e non ne può fare a meno, la 5870 non è assolutamente quel portento tecnologico che si pensa spesso "erroneamente" (IMHO) su questo forum, e la GT300 sono sicuro che lo dimostrerà.

Poi se fare i sarcastici in un post in cui siete PALESEMENTE OT vi fa sentire meglio riguardo il vostro recente acquisto, sono fatti vostri. :)
nVidia ha già detto inoltre che presenterà una scheda top, una di fascia medio alta, e forse persino una dual GPU direttamente al lancio.

The_SaN
09-10-2009, 01:53
Ma neanche la 8800gtx andava il 100% in piú della x1950xtx (la top single dell' epoca), ma si limita ad un divario tra il 30 e il 60%

Questo puó accadere per vari motivi:
- cpu limited
- limite di framebuffer (quindi un modello con piú ram aumenta il divario)
- gli engine grafici non sfruttano la gpu nuova a dovere
- altro

Con questo non voglio dire che la 8800gtx non sia buona (anzi, insieme a r300 sono imho le migliori schede della storia), ma che il risultato puó cambiare con nuovi scenari di utilizzo (ad esempio con cpu molto overcloccata - vedi articolo anandtech su scaling cpu)

Quindi secondo me la 5870 é un bel balzo in avanti (nel mio scenario di utilizzo é il 44% piú veloce di una 285gtx), grande quasi come il vantaggio 8800gtx/x1950xtx.
Spero anche che Fermi faccia di meglio, costringendo AMD ad abbassare ulteriormente i prezzi.

Legolas84
09-10-2009, 05:53
In effetti Lestat.me ha ragione, prestazionalmente non riesce nemmeno a stare sempre avanti alla 295.... però ripeto a parte le prestazioni la scheda è buona... consumi ridotti e DX11. Di certo se si dovesse fare un PC nuovo ora io sceglierei o la 5850 o la 5870 a seconda della risoluzione da usare.... Peccato che, almeno le prime, non si trovino quasi da nessuna parte attualmente.

Severnaya
09-10-2009, 07:50
c'è gente che già ce l'ha la 5870 :asd:


e per quando uscirà la GT300 deve essere prestazionalmente superiore anche perché col tempo che ci impiegherà ad uscire se sta pure dietro addio :V

ilratman
09-10-2009, 08:07
Lol!!! Spero che tu stia scherzando! Paragonare le due cose fa capire quanto sia lungimirante il tuo modo di pensare.

Ti spiego: in ogni "balzo" generazionale si cerca "storicamente" di raggiungere un aumento prestazionale del 100%. Ce lo insegna 8800GTX, GTX280. La 5870 va circa il 25% in più rispetto al massimo ottenibile con una singola GPU nella passata generazione, e non riesce nemmeno ad eguagliare la dual GPU top sempre della scorsa generazione.

L'8800GTX a suo tempo fece molto, ma molto di più, quindi non cercare di paragonare cose che non hanno nulla a che vedere fra di loro. Per quanto possa essere un'ottima scelta per chi assembla un computer oggi, e non ne può fare a meno, la 5870 non è assolutamente quel portento tecnologico che si pensa spesso "erroneamente" (IMHO) su questo forum, e la GT300 sono sicuro che lo dimostrerà.


sono daccordo, g80 fu una svolta epocale quasi come lo fu il geforce 2, e nessuna altra scheda ha fatto questo per ora, le 5870/50 che sono ottime schede non sono altro che un raddoppio delle 4870 quindi nulla di eclatante come architettura, nel senso che se la architettura è buona se la raddoppio ovviamente schifo non farà.

ho letto le caratteristiche di fermi e se sono vere sarà un buon passo in avanti ma non mi pare neanche lui un cambio generazionale significativo.

diciamo che mi aspettavo molto di più.

una cosa invece deve fare nvidia è mettere a posto le opengl che ultimamente sono abbastanza scarse.

detto questo mi sa che predno lo stesso la 5850 visto che nvidia non ha schede di questo livello, si acome ridotte dimensioni che come consumi rispetto alla potenza espressa.

Pat77
09-10-2009, 08:08
Dal nostro sito di riferimento cioè Hardwareupgrade le ultimissime...


.... i driver WHQL GeForce 186.91, viene ufficializzato, anche se involontariamente e indirettamente, il nome e l'arrivo delle nuove GPU NVIDIA, GeForce 300.

L'aggiornamento, disponibile Windows Vista e 7, è datato 1 di Setembre e supporta schede Quadro, ION, diversi IGP e GeForce 6,7,8,9,100,200 e ovviamente, anche la nuova serie 300. Questo il passo estrapolato dal file .INF incriminato:

- NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A66.01 = "NVIDIA GeForce 310"
- NVIDIA_DEV.0A6E.01 = "NVIDIA GeForce 305M"
- NVIDIA_DEV.0A75.01 = "NVIDIA GeForce 310M"
- NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
- NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
- NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"


A quanto pare c'è la 310 pe la versione desktop....:stordita:

Punta forte sul mobile ottimo.

Pat77
09-10-2009, 08:12
sono daccordo, g80 fu una svolta epocale quasi come lo fu il geforce 2, e nessuna altra scheda ha fatto questo per ora, le 5870/50 che sono ottime schede non sono altro che un raddoppio delle 4870 quindi nulla di eclatante come architettura, nel senso che se la architettura è buona se la raddoppio ovviamente schifo non farà.

ho letto le caratteristiche di fermi e se sono vere sarà un buon passo in avanti ma non mi pare neanche lui un cambio generazionale significativo.

diciamo che mi aspettavo molto di più.

una cosa invece deve fare nvidia è mettere a posto le opengl che ultimamente sono abbastanza scarse.

detto questo mi sa che predno lo stesso la 5850 visto che nvidia non ha schede di questo livello, si acome ridotte dimensioni che come consumi rispetto alla potenza espressa.

Tutto deriva dall'ottima r600, che se si guarda è molto simile alle attuali, che ne rappresentano un'ottimizzazione (cambiano il rapporto sp e tmu/rops se si guarda, il ringbus imho era meglio, così come il controller a 512 Bit).
Nvidia vuol creare un'architettura che avrà lo stesso obiettivo, apri pista.

ilratman
09-10-2009, 08:17
Tutto deriva dall'ottima r600, che se si guarda è molto simile alle attuali, che ne rappresentano un'ottimizzazione (cambiano il rapporto sp e tmu/rops se si guarda, il ringbus imho era meglio, così come il controller a 512 Bit).
Nvidia vuol creare un'architettura che avrà lo stesso obiettivo, apri pista.

si il ringbus era decisamente meglio ma era difficile per gli sviluppatori di giochi usarlo infatti era sottosfruttato e lo hanno tolto per un approccio più tradizionale.

io spero che nvidia faccia nuovamente da apripista ma spero anche che il top non consumi W in maniera sconsiderata, non lo accetterei neanche fosse la scheda più potente per i prossimi 10 anni!

Pat77
09-10-2009, 08:22
si il ringbus era decisamente meglio ma era difficile per gli sviluppatori di giochi usarlo infatti era sottosfruttato e lo hanno tolto per un approccio più tradizionale.

io spero che nvidia faccia nuovamente da apripista ma spero anche che il top non consumi W in maniera sconsiderata, non lo accetterei neanche fosse la scheda più potente per i prossimi 10 anni!

Io sono ormai 3 anni che ho solo soluzioni mobile per giocare e sfondi una porta aperta, di fatto una delle cose più apprezzabili di ati è stata la cura verso i consumi e il mese prossimo debuttano le mobility 5xxx.
Nvidia è posizionata nel segmento top mobile in modo eccellente indi serve l'alternativa.

sonnet
09-10-2009, 08:30
sono daccordo, g80 fu una svolta epocale quasi come lo fu il geforce 2, e nessuna altra scheda ha fatto questo per ora, le 5870/50 che sono ottime schede non sono altro che un raddoppio delle 4870 quindi nulla di eclatante come architettura, nel senso che se la architettura è buona se la raddoppio ovviamente schifo non farà.

ho letto le caratteristiche di fermi e se sono vere sarà un buon passo in avanti ma non mi pare neanche lui un cambio generazionale significativo.

diciamo che mi aspettavo molto di più.

una cosa invece deve fare nvidia è mettere a posto le opengl che ultimamente sono abbastanza scarse.

detto questo mi sa che predno lo stesso la 5850 visto che nvidia non ha schede di questo livello, si acome ridotte dimensioni che come consumi rispetto alla potenza espressa.
Svolta epocale? ma quale svolta. G80 non porto' proprio a nessuna svolta, Nvidia fece valere tutto il suo peso per forzare la mano a Microsoft a rilasciare delle dx10 "castrate", rallentando il progresso dei videogiochi su pc.
La vera svolta fu r600 che praticamente implemento' tutte le features previste inzialmente dalle dx10.
Tant'e' che ad oggi non hanno avuto problemi perche' il "compitino" l'avevano gia' fatto 2 oltre anni fa.
Poi se il giocatore la vede come svolta perche' fa supernumeri al 3d mark, ok.
Ma di solito per svolta si intende altro.

ilratman
09-10-2009, 08:39
Svolta epocale? ma quale svolta. G80 non porto' proprio a nessuna svolta, Nvidia fece valere tutto il suo peso per forzare la mano a Microsoft a rilasciare delle dx10 "castrate", rallentando il progresso dei videogiochi su pc.
La vera svolta fu r600 che praticamente implemento' tutte le features previste inzialmente dalle dx10.
Tant'e' che ad oggi non hanno avuto problemi perche' il "compitino" l'avevano gia' fatto 2 oltre anni fa.
Poi se il giocatore la vede come svolta perche' fa supernumeri al 3d mark, ok.
Ma di solito per svolta si intende altro.

infatti chi parlava della dx10, hai tiratu tu in ballo la cosa e non capisco il perchè.

g80 fu una svolta invece perchè fece cambiare l'approccio statico che avevano le schede video, vertex e pixel shaders, con gli shaders unificati e questo in ambito professionale fu decisamente rivoluzionario.

io con schedine da 4 soldi ho triplicato le prestazioni in opengl professionale!

la mia fx560 128bit di bus ddr3, basata su 7600gt, è stata strabattuta da una scarsissima fx360m, basata su 8400gs mobile con 64bit di bus ddr2.

nei giochi invece la 7600gt strabatte la 8400gs.

forse ripeto a me non interessano i giochi quando confronto un'architettura con un'altra.

sinceramente chi se ne frega dei giochi!

r600 è stata la svolta anche nell'opengl professionale da quel che so proprio no?

Legolas84
09-10-2009, 08:40
Svolta epocale? ma quale svolta. G80 non porto' proprio a nessuna svolta, Nvidia fece valere tutto il suo peso per forzare la mano a Microsoft a rilasciare delle dx10 "castrate", rallentando il progresso dei videogiochi su pc.
La vera svolta fu r600 che praticamente implemento' tutte le features previste inzialmente dalle dx10.
Tant'e' che ad oggi non hanno avuto problemi perche' il "compitino" l'avevano gia' fatto 2 oltre anni fa.
Poi se il giocatore la vede come svolta perche' fa supernumeri al 3d mark, ok.
Ma di solito per svolta si intende altro.

lol..... G80= prima scheda DX10, prima scheda con shader unificati, nuovo tipo di Filtro Anisotropico ecc, ecc.... nessuna svolta eh :asd:

Legolas84
09-10-2009, 08:41
c'è gente che già ce l'ha la 5870 :asd:


Infatti... qualche appassionato si è preso le prime uscite con il contagocce... ora però c'è il deserto per tutti gli altri.... :)

ilratman
09-10-2009, 08:48
lol..... G80= prima scheda DX10, prima scheda con shader unificati, nuovo tipo di Filtro Anisotropico ecc, ecc.... nessuna svolta eh :asd:

gia!

non capisco questo fanboysmo ne da una parte ne dall'altra.

Severnaya
09-10-2009, 08:58
Infatti... qualche appassionato si è preso le prime uscite con il contagocce... ora però c'è il deserto per tutti gli altri.... :)


io nn ricordo una scheda appena uscita già disponibile in volumi sostanziosi :mbe:

sickofitall
09-10-2009, 09:06
io nn ricordo una scheda appena uscita già disponibile in volumi sostanziosi :mbe:

ma nemmeno che dopo 2 settimane abbondanti non se ne trovi nemmeno una :mc:

Matalf
09-10-2009, 09:07
io nn ricordo una scheda appena uscita già disponibile in volumi sostanziosi :mbe:

io invece mi ricordo che alcuni utenti avevano delle 4850 Gigabyte ancora prima che scadesse l'NDA :asd:

Severnaya
09-10-2009, 09:09
io invece mi ricordo che alcuni utenti avevano delle 4850 Gigabyte ancora prima che scadesse l'NDA :asd:


O_o!

Legolas84
09-10-2009, 09:11
io nn ricordo una scheda appena uscita già disponibile in volumi sostanziosi :mbe:

mha... io non ho mai avuto grossi problemi... invece sta volta dopo quello che mi ha scritto Tecno sono dovuto andare su altro....

Errik89
09-10-2009, 09:14
io invece mi ricordo che alcuni utenti avevano delle 4850 Gigabyte ancora prima che scadesse l'NDA :asd:

Tipo me!! :D

halduemilauno
09-10-2009, 09:15
mha... io non ho mai avuto grossi problemi... invece sta volta dopo quello che mi ha scritto Tecno sono dovuto andare su altro....

scusa ma tu hai una gtx275 e stai pensando di andare su una 5850?

Legolas84
09-10-2009, 09:17
scusa ma tu hai una gtx275 e stai pensando di andare su una 5850?

No, io ho preso la 275 perchè la 5850 non esiste.... :)

Bastoner
09-10-2009, 09:18
No, io ho preso la 275 perchè la 5850 non esiste.... :)

Secondo me non é stata una mossa furba. La 5850 esiste eccome, la puoi prendere dalla Germania se in Italia non c'è.

sickofitall
09-10-2009, 09:21
Secondo me non é stata una mossa furba. La 5850 esiste eccome, la puoi prendere dalla Germania se in Italia non c'è.

secondo me ha fatto bene, anche perchè la 275 costa almeno 50€ in meno, risparmiati pure le smenate delle dx11 che tanto prima del 2011 non verranno utilizzate ;)

halduemilauno
09-10-2009, 09:22
No, io ho preso la 275 perchè la 5850 non esiste.... :)

a ecco. se non altro hai risparmiato un 50€ per un 10% di meno.

jok3r87
09-10-2009, 09:23
mha... io non ho mai avuto grossi problemi... invece sta volta dopo quello che mi ha scritto Tecno sono dovuto andare su altro....

:sbonk:

Proprio ieri solo su questo forum sono arrivate le 5850 a tre utenti da tre shop diversi... certo che hanno fatto presto con sti chip in un giorno ATI li ha mandati ai partners che hanno assemblato le schede, che le hanno vendute ai distrubotori che le hanno date ai negozi che le hanno spedite, il tutto in meno di 24h :asd:

ippo.g
09-10-2009, 09:23
secondo me ha fatto bene, anche perchè la 275 costa almeno 50€ in meno, risparmiati pure le smenate delle dx11 che tanto prima del 2011 non verranno utilizzate ;)

Stalker esce nel 2011? l'hanno posticipato ancora? :confused:

jok3r87
09-10-2009, 09:27
Ma non avrebbe senso nvidia può continuare a vendere le gtx285 a 300€ che la gente le comprerebbe ugualmente solo perchè sono nvidia.

No, io ho preso la 275 perchè la 5850 non esiste.... :)

secondo me ha fatto bene, anche perchè la 275 costa almeno 50€ in meno, risparmiati pure le smenate delle dx11 che tanto prima del 2011 non verranno utilizzate ;)

a ecco. se non altro hai risparmiato un 50€ per un 10% di meno.

CVD ;)

Se le tolgono dal mercato è solo per commercializzare Fermi.

sickofitall
09-10-2009, 09:29
Stalker esce nel 2011? l'hanno posticipato ancora? :confused:

per l'europa si parla del 2010, andiamo a vedere se poi è un gioco full dx11 oppure aggiunge solo qualche spruzzatina qua e la, come han fatto in battle forge o nel futuro dirt 2 (posticipato per aggiungere qualche feature di dx11, non credo si mettano a riscrivere tutto il codice)

Bastoner
09-10-2009, 09:30
secondo me ha fatto bene, anche perchè la 275 costa almeno 50€ in meno, risparmiati pure le smenate delle dx11 che tanto prima del 2011 non verranno utilizzate ;)

Stai calmo amico, non stai parlando con tuo fratello né con tuo cugino. Non avrei fatto nessuna smenata sulle dx11, e anche se l'avessi fatta non é affar tuo, quindi abbassa i toni.

Legolas84
09-10-2009, 09:30
a ecco. se non altro hai risparmiato un 50€ per un 10% di meno.


Alla fine giocando a 1920x1080 non mi cambia granchè attualmente... più avanti la cambierò con qualcosa di DX11 quando le schede i saranno per davvero ;)

Legolas84
09-10-2009, 09:31
Stai calmo amico, non stai parlando con tuo fratello né con tuo cugino. Non avrei fatto nessuna smenata sulle dx11, e anche se l'avessi fatta non é affar tuo, quindi abbassa i toni.

Non penso ci sia bisogno di scaldarsi così.....

Bastoner
09-10-2009, 09:34
Non penso ci sia bisogno di scaldarsi così.....

Ah lo dici a me?

molochgrifone
09-10-2009, 09:35
Secondo me non é stata una mossa furba. La 5850 esiste eccome, la puoi prendere dalla Germania se in Italia non c'è.

Scusa ma se non leggo male la recensione della 5850 di HWUp non mi sembra ci sia questo divario prestazionale nei confronti della 275, soprattutto non tale da giustificare il prezzo superiore di quasi il 30%, per non parlare della disponibilità.
E ovviamente le DX11 in questo momento manco le considero.

Io non mi ritengo fanboy, anzi se dovessi comprare una VGA ora prenderei senza dubbio la 5870 che è nettamente superiore, però non mi pare di vedere le proposte ATI così tanto in vantaggio rispetto a quelle nvidia, visto che stiamo paragonando la nuova generazione ATI a quella precedente nVidia, e che appunto la 5850 non strappa numeri così schiaccianti. Per mancanza di tempo ho letto solo la rece di HWUp, magari nelle altre c'è più divario, però ci sono sempre anche 50 € di differenza nel costo di acquisto che non sono proprio pochi :mbe:

Fortuna (:ciapet: ) vuole che dovevo cambiare VGA a novembre e invece spese impreviste mi obbligheranno a posticipare il cambio HW nel nuovo anno (comprensivo di cambio di mobo, procio e ram) e quindi forse riuscirò ad attendere il debutto di Fermi. Certo è che se nel momento in cui aggiornerò l'HW la situazione sarà quella attuale una 5870 vapor-x non me la toglierà nessuno, però spero che avrò un ventaglio di scelte più ampio per quel momento! :D

sickofitall
09-10-2009, 09:36
Stai calmo amico, non stai parlando con tuo fratello né con tuo cugino. Non avrei fatto nessuna smenata sulle dx11, e anche se l'avessi fatta non é affar tuo, quindi abbassa i toni.

mi scusi Signor Bastoner, se mi sono rivolto a Lei con questo tono, non era mia intenzione distrurbarla...

Non te la prendere, non ho la minima intenzione di darti addosso, ci mancherebbe :rolleyes:

Don't worry, be happy :)

Severnaya
09-10-2009, 09:37
Anandtech ha fatto già test con un gioco directx 11 :mbe:


http://www.anandtech.com/video/showdoc.aspx?i=3650&p=2

halduemilauno
09-10-2009, 09:38
CVD ;)

Se le tolgono dal mercato è solo per commercializzare Fermi.

un conto è la gtx275 che costa un 50€ di meno e va un 10% di meno e ben altra è la gtx285 che va un 2/3% di meno e che costa un 70€ di +. la seconda è incomprabile e lo è da quando è uscita proprio la gtx275 che come detto va poco meno ma costa ben 50€ di meno per me quella(dal punto di vista commerciale)è la vera antagonista della 5850. in quanto alle dx11 per renderle discriminanti/appetibili aspetterei una diffusione sufficientemente corposa quindi + o - 2010 inoltrato. ovviamente questo non vale per chi cmq desidera ottenere un netto boost anche in ambito dx10.

Bastoner
09-10-2009, 09:38
Scusa ma se non leggo male la recensione della 5850 di HWUp non mi sembra ci sia questo divario prestazionale nei confronti della 275, soprattutto non tale da giustificare il prezzo superiore di quasi il 30%, per non parlare della disponibilità.
E ovviamente le DX11 in questo momento manco le considero.

Io non mi ritengo fanboy, anzi se dovessi comprare una VGA ora prenderei senza dubbio la 5870 che è nettamente superiore, però non mi pare di vedere le proposte ATI così tanto in vantaggio rispetto a quelle nvidia, visto che stiamo paragonando la nuova generazione ATI a quella precedente nVidia, e che appunto la 5850 non strappa numeri così schiaccianti. Per mancanza di tempo ho letto solo la rece di HWUp, magari nelle altre c'è più divario, però ci sono sempre anche 50 € di differenza nel costo di acquisto che non sono proprio pochi :mbe:

Fortuna (:ciapet: ) vuole che dovevo cambiare VGA a novembre e invece spese impreviste mi obbligheranno a posticipare il cambio HW nel nuovo anno (comprensivo di cambio di mobo, procio e ram) e quindi forse riuscirò ad attendere il debutto di Fermi. Certo è che se nel momento in cui aggiornerò l'HW la situazione sarà quella attuale una 5870 vapor-x non me la toglierà nessuno, però spero che avrò un ventaglio di scelte più ampio per quel momento! :D


Si lo so, il divario prestazionale non é così ampio. Infatti io se avessi una 275 non la cambierei con una 5850 (infatti non cambio le mie gtx280, per ora). Ma se fossi in procinto di prendere una vga perché sono senza, andrei di sicuro su una 5850, anche contando 50 euro di differenza.

molochgrifone
09-10-2009, 09:49
Si lo so, il divario prestazionale non é così ampio. Infatti io se avessi una 275 non la cambierei con una 5850 (infatti non cambio le mie gtx280, per ora). Ma se fossi in procinto di prendere una vga perché sono senza, andrei di sicuro su una 5850, anche contando 50 euro di differenza.

Invece dovessi scegliere una VGA ora direi 5870, altrimenti 275 :O

halduemilauno
09-10-2009, 10:01
Invece dovessi scegliere una VGA ora direi 5870, altrimenti 275 :O

si sostanzialmente d'accordo. base gtx275 e per chi può i 150€ in + la 5870.
mia modesta opinione.
;)

jok3r87
09-10-2009, 10:05
un conto è la gtx275 che costa un 50€ di meno e va un 10% di meno e ben altra è la gtx285 che va un 2/3% di meno e che costa un 70€ di +. la seconda è incomprabile e lo è da quando è uscita proprio la gtx275 che come detto va poco meno ma costa ben 50€ di meno per me quella(dal punto di vista commerciale)è la vera antagonista della 5850. in quanto alle dx11 per renderle discriminanti/appetibili aspetterei una diffusione sufficientemente corposa quindi + o - 2010 inoltrato. ovviamente questo non vale per chi cmq desidera ottenere un netto boost anche in ambito dx10.

Ho scritto gtx285 come caso limite, e i quote erano per ribadire che è meglio tenere a mercato GT200 invece che nulla, qualcuno che le compra per un motivo o per un altro c'è. Nvidia lo sa e se interrompe la produzione è solo per far posto alle nuove uscite.

Non entravo nel merito della bontà dell'acquisto nel caso specifico, ognuno ha le sue esigenze.

ippo.g
09-10-2009, 10:09
si sostanzialmente d'accordo. base gtx275 e per chi può i 150€ in + la 5870.
mia modesta opinione.
;)

quoto, anche se non vedo tutta sta fretta di cambiare, qualche mese di attesa e ci saranno più opzioni ed a prezzi più vantaggiosi

halduemilauno
09-10-2009, 10:10
Ho scritto gtx285 come caso limite, e i quote erano per ribadire che è meglio tenere a mercato GT200 invece che nulla, qualcuno che le compra per un motivo o per un altro c'è. Nvidia lo sa e se interrompe la produzione è solo per far posto alle nuove uscite.

Non entravo nel merito della bontà dell'acquisto nel caso specifico, ognuno ha le sue esigenze.

non c'è dubbio alcuno che è meglio mantenere le gt200 che avere il nulla. dicevo solo che la gtx285 ha perso ogni ragione di esistere quando è uscita la gtx275. non a caso la gtx285 sarà la prima delle attuali gtx ad uscire fuori di produzione mentre la gtx275 sarà l'ultima.

halduemilauno
09-10-2009, 10:14
quoto, anche se non vedo tutta sta fretta di cambiare, qualche mese di attesa e ci saranno più opzioni ed a prezzi più vantaggiosi

certo. ma questo è il thread delle future GTX e quindi non parliamo di amd.
;)

Foglia Morta
09-10-2009, 10:29
L'anno scorso nVidia era entrata a far parte del consorzio SOI. Poteva sembrare un passo verso una gpu prodotta con quella tecnologia... però mi sa che sarà per chip Tegra: http://brightsideofnews.com/news/2009/10/9/arm-showcases-4025-power-savings-when-using-soi.aspx

DVD2005
09-10-2009, 10:32
certo. ma questo è il thread delle future GTX e quindi non parliamo di amd.
;)
a dire il vero qui non si parla d'altro........
quoto, anche se non vedo tutta sta fretta di cambiare, qualche mese di attesa e ci saranno più opzioni ed a prezzi più vantaggiosi

sono d'accordo con te al 50% :D nel senso che chi oggi è ben messo può attendere sviluppi serenamente, chi invece, per un verso o per l'altro, si trova a dover acquistare una nuova vga deve scegliere ed io, personalmente, mi trovo d'accordo con molochgrifone: GTX275 o 5870 a seconda del budget disponibile.

halduemilauno
09-10-2009, 10:40
a dire il vero qui non si parla d'altro........


sono d'accordo con te al 50% :D nel senso che chi oggi è ben messo può attendere sviluppi serenamente, chi invece, per un verso o per l'altro, si trova a dover acquistare una nuova vga deve scegliere ed io, personalmente, mi trovo d'accordo con molochgrifone: GTX275 o 5870 a seconda del budget disponibile.

purtroppo è cosi.



giusto. e quindi sei anche d'accordo con me.
;)

DVD2005
09-10-2009, 10:44
purtroppo è cosi.



giusto. e quindi sei anche d'accordo con me.
;)

si ;)

devAngnew
09-10-2009, 10:48
a dire il vero qui non si parla d'altro........


sono d'accordo con te al 50% :D nel senso che chi oggi è ben messo può attendere sviluppi serenamente, chi invece, per un verso o per l'altro, si trova a dover acquistare una nuova vga deve scegliere ed io, personalmente, mi trovo d'accordo con molochgrifone: GTX275 o 5870 a seconda del budget disponibile.

Mi accodo..... :asd: :asd: :asd:

eXeS
09-10-2009, 12:00
Ma questa 7950x2 era un modello OC?
http://www.hwupgrade.it/articoli/skvideo/1597/fear_2.png
http://www.hwupgrade.it/articoli/skvideo/1597/far_cry.png

Direi di si

ShineOn
09-10-2009, 12:17
non c'è dubbio alcuno che è meglio mantenere le gt200 che avere il nulla. dicevo solo che la gtx285 ha perso ogni ragione di esistere quando è uscita la gtx275. non a caso la gtx285 sarà la prima delle attuali gtx ad uscire fuori di produzione mentre la gtx275 sarà l'ultima.

nel mio caso stavo benissimo con la 8800 prima che saltasse, ora avendo ancora una decina di giochi buoni usciti nell'ultimo anno e mezzo da iniziare non ho l'esigneza di una scheda che mi faccia andare fluido il gioco che esce oggi...pertanto ora prenderò una nvidia risparmiando e puntando tra un'anno ad una scheda probabilmente ancor più potente della 5870 (pagandola gli stessi soldi) nel momento esatto che tale potenza inizierà a servirmi.

Anche perchè vedo che TUTTI snobbano l'eyefinity e la potenza necessaria a far girare un gioco su 3 monitor, che me ne faccio di tale tecnologia se la scheda che ho (mettiamo 5870) a volte arranca già solo a 2560x1600????

Mi consigliate la gtx 275 oppure se vado sulla gtx 260 (216sp) va bene lo stesso? gicoo sempre a 1920x1200

halduemilauno
09-10-2009, 13:15
nel mio caso stavo benissimo con la 8800 prima che saltasse, ora avendo ancora una decina di giochi buoni usciti nell'ultimo anno e mezzo da iniziare non ho l'esigneza di una scheda che mi faccia andare fluido il gioco che esce oggi...pertanto ora prenderò una nvidia risparmiando e puntando tra un'anno ad una scheda probabilmente ancor più potente della 5870 (pagandola gli stessi soldi) nel momento esatto che tale potenza inizierà a servirmi.

Anche perchè vedo che TUTTI snobbano l'eyefinity e la potenza necessaria a far girare un gioco su 3 monitor, che me ne faccio di tale tecnologia se la scheda che ho (mettiamo 5870) a volte arranca già solo a 2560x1600????

Mi consigliate la gtx 275 oppure se vado sulla gtx 260 (216sp) va bene lo stesso? gicoo sempre a 1920x1200

calcolando che la differenza è minima consiglierei la gtx275 ovviamente al prezzo + basso possibile.
;)

Severnaya
09-10-2009, 13:15
contenti voi :asd:


spero che questa sia una news nn troppo old :asd:


http://www.xbitlabs.com/news/video/display/20091005180319_Nvidia_Can_Disable_Certain_Fermi_Features_on_Gaming_Graphics_Cards.html

halduemilauno
09-10-2009, 13:33
contenti voi :asd:


spero che questa sia una news nn troppo old :asd:


http://www.xbitlabs.com/news/video/display/20091005180319_Nvidia_Can_Disable_Certain_Fermi_Features_on_Gaming_Graphics_Cards.html

si gia discussa. il fermi presentato era una tesla, per il gaming verranno presentate le classiche GeForce. in quanto agli shader si gia detto per le versioni inferiori saranno tolti blocchi da 32 shader quindi la 480 e la 448 per le due schede inferiori quelle che dovranno vedersela direttamente con le 5870 e 5850. meno complessità e meno shader(per venir incontro a chip nati non al 100%)faranno si da offrire prodotti + economici. in quanto alla rev. presentata è la rev.1 del 9 luglio la rev.0 è stata la prima. che ci sia la necessità della rev.2 è tutta da verificare.
insomma nulla di nuovo.

molochgrifone
09-10-2009, 16:51
si ;)

Ciao "ospite" :asd: occhio a non prendere troppo freddo lassù che poi vi ammalate :p

unnilennium
09-10-2009, 17:17
certo che dopo tanto tempo in vetta, una top di gamma in grazia la potevano fare, ci hanno viziato sempre, ma adesso, chipset non ne devono sviluppare, stanno cercando disperatamente di piazzare i vari tegra, ion,e similia, ma il core business sono le vga, se non adottano una politica dei prezzi degna di questo nome, la vedo buia io, di questi tempi di crisi,
sulla guida all'acquisto di toms ci sono solo ati,era da parecchio che non succedeva,forse dalle 9700 agp....

DVD2005
09-10-2009, 17:23
Ciao "ospite" :asd: occhio a non prendere troppo freddo lassù che poi vi ammalate :p

non ti preoccupare, dura poco la permanenza da quelle parti :p

ShineOn
09-10-2009, 17:28
calcolando che la differenza è minima consiglierei la gtx275 ovviamente al prezzo + basso possibile.
;)

dato che ci sei mi consigli una marca di gtx 275 da prendere oppure una da evitare?

Grazie

sickofitall
09-10-2009, 17:43
dato che ci sei mi consigli una marca di gtx 275 da prendere oppure una da evitare?

Grazie

prendi quella dal prezzo più basso ;)

alla fine cambia solo la dotazione nella scatola

halduemilauno
09-10-2009, 18:09
dato che ci sei mi consigli una marca di gtx 275 da prendere oppure una da evitare?

Grazie

prendi quella dal prezzo più basso ;)

alla fine cambia solo la dotazione nella scatola

quoto.
;)

Cocco83
09-10-2009, 18:34
certo che dopo tanto tempo in vetta, una top di gamma in grazia la potevano fare, ci hanno viziato sempre, ma adesso, chipset non ne devono sviluppare, stanno cercando disperatamente di piazzare i vari tegra, ion,e similia, ma il core business sono le vga, se non adottano una politica dei prezzi degna di questo nome, la vedo buia io, di questi tempi di crisi,
sulla guida all'acquisto di toms ci sono solo ati,era da parecchio che non succedeva,forse dalle 9700 agp....

ci hanno scucito sempre il maggior numero di soldi possibili e ora sono in pappa.... bella gestione dei nostri fondi XD XD..... da un lato gli sta anke bene

A.L.M.
10-10-2009, 14:23
Nvidia wants to hide stuff from AMD

Nvidia's excuse for not showing GT300, Fermi based board is that they want to hide some things from the red green competition.

Since the latest GPU technology conference was all about how to make money on GPU computing, Nvidia didn't want to cloud this with a DirectX 11 demo, which would actually prove that Fermi GT300 board is real.

The second reason is that the board has a lot of wires sticking out, as well as test modules, and looks like a character from Terminator. Judging from we've learned in the last few days we are talking about a handful of boards if not even less than that.

Production is not that far away but Nvidia still works heavily to make the November launch possible. We believe that the decision to show a mock up card is definitely a bad idea as now, it looks like Nvidia wanted to deceive journalists and the rest of the world, with a mock up, claiming that this is the real deal.

NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month. We do expect big shortage of chips at launch due to high demand. Just remember what happened when G80 and G92 got out.

http://www.fudzilla.com/content/view/15813/1/

;)

Apperò, sono furbi... :asd:
Fanno fare foto ravvicinate di un fake, cosa che tra l'altro potevano tranquillamente proibire, fanno una presentazione apposta, mostrano di fatto già metà dell'architettura (che è la parte più sensibile di un nuovo prodotto di questo genere), e poi dicono che vogliono nascondersi alla concorrenza (che tra l'altro ha già presentato un prodotto analogo)? :stordita: :fagiano:

Das~Ich
10-10-2009, 14:46
Apperò, sono furbi... :asd:
Fanno fare foto ravvicinate di un fake, cosa che tra l'altro potevano tranquillamente proibire, fanno una presentazione apposta, mostrano di fatto già metà dell'architettura (che è la parte più sensibile di un nuovo prodotto di questo genere), e poi dicono che vogliono nascondersi alla concorrenza (che tra l'altro ha già presentato un prodotto analogo)? :stordita: :fagiano:

Stanno cercando di mettere una pezza alla pessima immagine che hanno dato in quell'occasione, fingendo appunto tattiche di marketing premeditate. Insomma, non sanno che pesci pigliare, se non altro sanno quali teste dovranno cadere ed in primis quella di un certo Huang :p

sickofitall
10-10-2009, 14:59
Stanno cercando di mettere una pezza alla pessima immagine che hanno dato in quell'occasione, fingendo appunto tattiche di marketing premeditate. Insomma, non sanno che pesci pigliare, se non altro sanno quali teste dovranno cadere ed in primis quella di un certo Huang :p

si possono fare solo supposizioni, madi certo ancora non c'è nulla purtroppo

non resta che dire "stay tuned" :asd:

ShineOn
10-10-2009, 15:44
prendi quella dal prezzo più basso ;)

alla fine cambia solo la dotazione nella scatola

Ordinata in negozio stamattina XFX GTX 275 core ed. a 175 euro :)

Dovrebbe essere un prezzo onesto credo.

michelgaetano
10-10-2009, 15:46
Ordinata in negozio stamattina XFX GTX 275 core ed. a 175 euro :)

Dovrebbe essere un prezzo onesto credo.

Il prezzo è buono. Non li avrei speso davvero però per una 275, con poco più prendi una 5850, mentre risparmiando 40 euro prendi una 260 che è più lenta solo di un 10 % o poco oltre.

The_SaN
10-10-2009, 15:57
Ordinata in negozio stamattina XFX GTX 275 core ed. a 175 euro :)

Dovrebbe essere un prezzo onesto credo.Il prezzo é onesto, fatto sta che io avrei preso 2 tipologie di scheda:
- 4870 1Gb / gtx260 (vanno poco meno e risparmi)
- 5850 (va di piú, costa un po' di piú e ha dx11)

Comunque é un'ottima scheda, eh :)

Legolas84
10-10-2009, 15:58
arrivata la 275 in attesa sempre di Fermi e dei primi giochi DX11 (nonchè del lancio capillare delle soluzioni AMD) :)

ShineOn
10-10-2009, 16:10
Il prezzo è buono. Non li avrei speso davvero però per una 275, con poco più prendi una 5850, mentre risparmiando 40 euro prendi una 260 che è più lenta solo di un 10 % o poco oltre.

La 260 il mio negoziante me la dava a 160 euro (sono legato a lui visto che mi ha prestato una scheda per tirare avanti) per cui a quel prezzo è più conveniente la 275. Quanto alla 5850 i suoi fornitori gli dicevano fine mese (forse) e di aspettare ancora non ne ho voglia visto che ora come ora riesco solo a navigare...poi francamente volevo restare con nvidia, tra 12 mesi se ne riparla ;)

Andrea deluxe
10-10-2009, 16:19
arrivata la 275 in attesa sempre di Fermi e dei primi giochi DX11 (nonchè del lancio capillare delle soluzioni AMD) :)

correggi la firma.....:)

896mb

Andrea deluxe
10-10-2009, 16:20
La 260 il mio negoziante me la dava a 160 euro (sono legato a lui visto che mi ha prestato una scheda per tirare avanti) per cui a quel prezzo è più conveniente la 275. Quanto alla 5850 i suoi fornitori gli dicevano fine mese (forse) e di aspettare ancora non ne ho voglia visto che ora come ora riesco solo a navigare...poi francamente volevo restare con nvidia, tra 12 mesi se ne riparla ;)

noterai una grandissima differenza prestazionale tra 8800 e 275.....


sono quelle sensazioni impagabili di chi cambia vga meno spesso......


io ormai sono abituato a cambi con guadagni risicati.....:(

Andrea deluxe
10-10-2009, 16:27
GPU: G215 (40nm)
DX: 10.1
Memory: 1024MB GDDR3 (at 1800Mhz) or 512MB GDDR5 (at 3600MHz)
Memory interface: 128-bit
GPU: 96 CUDA cores
Core: 650MHz
Shaders: 1590Mhz

michelgaetano
10-10-2009, 16:27
GPU: G215 (40nm)
DX: 10.1
Memory: 1024MB GDDR3 (at 1800Mhz) or 512MB GDDR5 (at 3600MHz)
Memory interface: 128-bit
GPU: 96 CUDA cores
Core: 650MHz
Shaders: 1590Mhz

Davvero li chiamano cuda cores? :stordita: :doh:

Inutili le GDDR5 vista la necessità banda di queste schede schede.

ShineOn
10-10-2009, 16:27
noterai una grandissima differenza prestazionale tra 8800 e 275.....

dici sul serio? :rolleyes:


io ormai sono abituato a cambi con guadagni risicati.....:(

io porto avanti la politica del cambio solo nel momento del bisogno (o dell'obbligo come stavolta) :stordita:

Andrea deluxe
10-10-2009, 16:30
dici sul serio? :rolleyes:



io porto avanti la politica del cambio solo nel momento del bisogno (o dell'obbligo come stavolta) :stordita:

1) giuro!

2) e fai bene!

nb: hai il procio overclocato?

michelgaetano
10-10-2009, 16:36
dici sul serio? :rolleyes:


Se giochi a 1280*1024 vedrai poco, perchè già una 8800 gt basta. Poi dipende da cosa avevi :stordita: (una 8800 gts 320 mb è poca cosa ad esempio).

Andrea deluxe
10-10-2009, 16:37
Se giochi a 1280*1024 vedrai poco, perchè già una 8800 gt basta. Poi dipende da cosa avevi :stordita: (una 8800 gts 320 mb è poca cosa ad esempio).

lui gioca a 1920*1200

ed aveva una 8800 gtx 768mb

Das~Ich
10-10-2009, 16:48
Ordinata in negozio stamattina XFX GTX 275 core ed. a 175 euro :)

Dovrebbe essere un prezzo onesto credo.

Secondo me non è stata una buona scelta, a 130 euro ci sono le 260 che se overcloccate vanno un 15% di più del normale ovvero meglio di una 275 stock. La 275, come la 285 in oc guadagnano poco che sono già parecchio tirate. La 275 era ottima appena uscita, adesso secondo me non vale molto.

E parlo da ex possessore. Molto meglio una 260 oc, magari sull'usato a 110 euro (prezzo affare) ; se devo spendere 180 euro a questo punto mi prendo la 5850 che in overclock va poco meno di una 5870 overcloccata a 950mhz (la 5850 ad 1ghz). Noto come al solito gli eccellenti consigli di halduemilauno, sempre appropriati ma soprattutto opportuni :rolleyes: .

Tra parentesi, le 275 scaldano di brutto dato che hanno il dissipatore castrato, una classica 260 reference ha un dissipatore migliore, e pure la placca anteriore per le ram (le ottime 65nm).

La 260 il mio negoziante me la dava a 160 euro (sono legato a lui visto che mi ha prestato una scheda per tirare avanti) per cui a quel prezzo è più conveniente la 275. Quanto alla 5850 i suoi fornitori gli dicevano fine mese (forse) e di aspettare ancora non ne ho voglia visto che ora come ora riesco solo a navigare...poi francamente volevo restare con nvidia, tra 12 mesi se ne riparla ;)

In tal caso allora hai fatto una buona scelta, però se posso permettermi io andrei sui negozi online, la differenza di prezzo poi magari la investite in qualche gioco appena uscito, oppure una bella pizza e dopocena con la ragazza :D

noterai una grandissima differenza prestazionale tra 8800 e 275.....
sono quelle sensazioni impagabili di chi cambia vga meno spesso......
io ormai sono abituato a cambi con guadagni risicati.....:(

Vero, prestazionalmente parlando le gt200 camminano parecchio, specialmente se avete una 260 a 576mhz e poi decidete di overcloccarla sui 750 ;) (due schede diverse)
Davvero li chiamano cuda cores? :stordita: :doh:

Inutili le GDDR5 vista la necessità banda di queste schede schede.
Mica tanto inutili.. bus a 128bit, minori consumi per il clock gating maggiore, probabile costo in discesa per le gddr5 (a maggior ragione se 512mb), prime prove tecniche per le gddr5 su schede decenti (nvidia a quanto sembra ha avuto molti problemi con i controller delle memorie, sembra che siano dovuti a questo i ritardi o cancellazioni dei progetti gt212)

ShineOn
10-10-2009, 16:57
nb: hai il procio overclocato?

si, quando serve lo porto a 3200...ma sono in fase di cambio verso un quad core sempre su socket 775.

Gioco a 1920x1200...tra l'altro ricordo che io e te abbiamo preso i nostri rispettivi 27" praticamente nello stesso momento :)

Das~Ich
10-10-2009, 16:59
si, quando serve lo porto a 3200...ma sono in fase di cambio verso un quad core sempre su socket 775.

Gioco a 1920x1200...tra l'altro ricordo che io e te abbiamo preso i nostri rispettivi 27" praticamente nello stesso momento :)

Con la cpu stai a posto allora, a quella risoluzione 3.2ghz vanno benissimo. Poi comunque la 275 ti darà belle soddisfazioni, tecnicamente è una scheda valida anche se comunque non mi piace il fatto che siano andati al risparmio un pò troppo su questo modello, specialmente riguardo la dissipazione.

ShineOn
10-10-2009, 17:00
Sperò se posso permettermi io andrei sui negozi online, la differenza di prezzo poi magari la investite in qualche gioco appena uscito, oppure una bella pizza e dopocena con la ragazza :D

bhè, su trovaprezzi la prima GTX 275 è quotata 171 + s.s.

Das~Ich
10-10-2009, 17:01
bhè, su trovaprezzi la prima GTX 275 è quotata 171 + s.s.

Certamente, ma io infatti mi riferivo a questo ;) : http://www.trovaprezzi.it/categoria.aspx?libera=gtx+260&id=28&prezzoMin=&prezzoMax=&sbox=sb (le asus sono eccellenti modelli, hanno anche lo smartdoctor con piena funzionalità, e tre anni di garanzia della casa)

Errik89
10-10-2009, 17:03
GPU: G215 (40nm)
DX: 10.1
Memory: 1024MB GDDR3 (at 1800Mhz) or 512MB GDDR5 (at 3600MHz)
Memory interface: 128-bit
GPU: 96 CUDA cores
Core: 650MHz
Shaders: 1590Mhz
performance da 9800GT (o forse anche meno), ma almeno è a 40nm, DX10.1 e supporta le GDDR5. Rimane pur sempre una vga di fascia medio - bassa. :(

Bastoner
10-10-2009, 17:05
Davvero li chiamano cuda cores? :stordita: :doh:



Incredibile ma vero :rotfl:

Errik89
10-10-2009, 17:05
Secondo me non è stata una buona scelta, a 130 euro ci sono le 260 che se overcloccate vanno un 15% di più del normale ovvero meglio di una 275 stock. La 275, come la 285 in oc guadagnano poco che sono già parecchio tirate. La 275 era ottima appena uscita, adesso secondo me non vale molto.

E parlo da ex possessore. Molto meglio una 260 oc, magari sull'usato a 110 euro (prezzo affare) ; se devo spendere 180 euro a questo punto mi prendo la 5850 che in overclock va poco meno di una 5870 overcloccata a 950mhz (la 5850 ad 1ghz). Noto come al solito gli eccellenti consigli di halduemilauno, sempre appropriati ma soprattutto opportuni :rolleyes: .

Tra parentesi, le 275 scaldano di brutto dato che hanno il dissipatore castrato, una classica 260 reference ha un dissipatore migliore, e pure la placca anteriore per le ram (le ottime 65nm).



In tal caso allora hai fatto una buona scelta, però se posso permettermi io andrei sui negozi online, la differenza di prezzo poi magari la investite in qualche gioco appena uscito, oppure una bella pizza e dopocena con la ragazza :D



Vero, prestazionalmente parlando le gt200 camminano parecchio, specialmente se avete una 260 a 576mhz e poi decidete di overcloccarla sui 750 ;) (due schede diverse)

Mica tanto inutili.. bus a 128bit, minori consumi per il clock gating maggiore, probabile costo in discesa per le gddr5 (a maggior ragione se 512mb), prime prove tecniche per le gddr5 su schede decenti (nvidia a quanto sembra ha avuto molti problemi con i controller delle memorie, sembra che siano dovuti a questo i ritardi o cancellazioni dei progetti gt212)
QUOTO TUTTO.
Soprattutto sui consigli di hal e sulle gddr5 su GT240 ;) :D
IMHO non ha senso la GTX275 oggi, o si va di 260 o di 5850.

ShineOn
10-10-2009, 17:06
Con la cpu stai a posto allora, a quella risoluzione 3.2ghz vanno benissimo. Poi comunque la 275 ti darà belle soddisfazioni, tecnicamente è una scheda valida.

Si, non penso di essere cpu limited...semmai pensavo ad un quad per avere più agilità in windows e per giochi futuri che supportano 4 core (tipo un q9550...che ne dici? :confused: ). Tieni conto che poi sono un bel po' di giochi indietro causa tempo libero (crysis warhead,fear2, mass effect,fallout 3,dead space,x3 gold ed,empire TW,world in conflict,men of war...e pure oblivion -non scherzo è vero :D-) tutti da iniziare, per cui non ho bisogno ne di dx11 e ne di tutta sta potenza al momento.

Maury
10-10-2009, 17:14
Certo che ci vuole un bel pelo sullo stomaco per consigliare una 275 al posto di una 5850... le bandiere ogni tanto andrebbero lasciate da parte ... :rolleyes:

Andrea deluxe
10-10-2009, 17:15
si, quando serve lo porto a 3200...ma sono in fase di cambio verso un quad core sempre su socket 775.

Gioco a 1920x1200...tra l'altro ricordo che io e te abbiamo preso i nostri rispettivi 27" praticamente nello stesso momento :)

ok a 3200 va benone! ma meglio 3600!!!

siamo stati i pionieri del 27" insieme a appleroof ed altri (medesimo pannelo samsung e dell)...... (impagabile goduria dal primo giorno ad ogni accensione):)

Bastoner
10-10-2009, 17:16
Certo che ci vuole un bel pelo sullo stomaco per consigliare una 275 al posto di una 5850... le bandiere ogni tanto andrebbero lasciate da parte ... :rolleyes:

Sono d'accordo.
Ne discutevamo qualche giorno fa, n'altro poco mi linciavano :asd:

Bastoner
10-10-2009, 17:17
ok a 3200 va benone! ma meglio 3600!!!

siamo stati i pionieri del 27" insieme a appleroof ed altri (medesimo pannelo samsung e dell)...... (impagabile goduria dal primo giorno ad ogni accensione):)

Ma non é troppo grande? Devi stare a 2 metri di distanza, o no?

Andrea deluxe
10-10-2009, 17:42
Ma non é troppo grande? Devi stare a 2 metri di distanza, o no?

io a circa 80cm

michelgaetano
10-10-2009, 17:49
Sono d'accordo.
Ne discutevamo qualche giorno fa, n'altro poco mi linciavano :asd:

Mi accodo anch'io :D

ShineOn
10-10-2009, 19:45
io a circa 80cm

idem...

Mi accodo anch'io :D

vedo che siete abbastanza divisi sui consigli...

Errik89
10-10-2009, 20:03
idem...



vedo che siete abbastanza divisi sui consigli...
è questione di essere OGGETTIVI e non divisi.
IMHO o si va sulla 260 a 130€ (che va il 10% in meno della 275 ma si occa bene e raggiunge e supera la 275 in OC) oppure si va sulla 5850 che va circa il 15-20% in più della 275 e costa 220€ però ha anche dx11 ecc ecc oltre a consumare meno (anche della 260).
Spendere 175€ per la 275 è da pazzi IMHO.

Cocco83
10-10-2009, 20:03
michaelgaetano si riferiva alla questione ATI VS NVIDIA... non sulla questione monitor XD

ShineOn
10-10-2009, 23:17
è questione di essere OGGETTIVI e non divisi....
Spendere 175€ per la 275 è da pazzi IMHO.

si ma all'oggettività del caso si deve abbinare la soggettività della mia situazione, data dal fatto che la 260 io la pagherei 160 e delle dx11 non me ne importa quasi nulla avendo quella sfilza di giochi da fare al termine dei quali una 5850 magari sarà già schiattata :D (senza essere sfruttata). Per non parlare poi che il problema principale risiede nel fatto che di 5850 non se na parla per altri 20gg e io ne ho le balle piene...:mbe:

Inoltre alla mia risoluzione con AA 4x attivato (non riesco a giocare senza) con una 5850 e futuri giochi dx11 è quasi sicuro che non avrò la potenza sufficiente a far girare tutto bene (per non parlare poi che passerei ad ati quasi solo per l'eyefinity, e con 3 monitor altro che 5870 servirebbe...)

Tra 12 mesi mi prenderò una 5870x2 allo stesso prezzo di una 5870 singola in questo momento e magari riuscirò a sfruttare 3 monitor...optando per una 5850 ora, tra 12 mesi ho la sensazione che mi ritroverei in riserva di potenza come con una gtx 275 (certo, probabilmente riuscirei a rivendere meglio l'ati che la nvidia...che parte cmq con 45 euro di vantaggio..)

Poi scusate l'OT, ma vedendo gli screens del prossimo stalker, tutti sti motivi per usare le dx11 rispetto alle dx10 per ora non si vedono...

ShineOn
10-10-2009, 23:25
Ad ogni modo lunedì posso ancora modificare l'ordine, le scelte sono queste...

xfx gtx 275 a 175euro
zotac gtx 260 a 160euro
sapphire 4870 1gb ddr5 a 135euro
sapphire 5850 a 220euro (tra 20gg...o 25gg...o 30gg...o ??...io non mi meraviglieri)

di altre schede non ho chiesto...potrei sempre farlo ma non vedo alternative.

ShineOn
11-10-2009, 00:12
oppure si va sulla 5850 che va circa il 15-20% in più della 275

sono andato ad esaminare con più attenzione il test di hardware upgrade della 5850 e francamente ora non vedo proprio chiari i motivi per i quali dovrei aspettare un mese per sta scheda...non so quali altri test abbiate visto voi ma su 9 giochi testati, in ben 6 di questi le prestazioni tra la 275 e la 5850 sono praticamente IDENTICHE a 1920x1200...quindi parlare di scheda superiore del 15/20% mi sembra ottimistico, visto che il vantaggio non è generalizzato...

15-20% sui restanti 3 titoli si, ma negli altri 6 proprio no :read:

Io tutto sto scandalo nel non spendere 45 euro in più per la 5850 non lo vedo, fatemi vedere la luce voi...

Kharonte85
11-10-2009, 00:32
C'è poco da dire....se non riesci ad aspettare l'unica alternativa sensata è la gtx 275 (scheda validissima e di sicuro delle dx11 se ne puo' fare a meno)...io pero' fossi in te aspetterei (avendo una 8800gtx potresti farlo benone direi).

DukeIT
11-10-2009, 00:38
Io tutto sto scandalo nel non spendere 45 euro in più per la 5850 non lo vedo, fatemi vedere la luce voi...
Vediamo.

Prestazioni superiori in FullHD mediamente del 13% (più o meno a seconda dei siti): http://www.techpowerup.com/reviews/HIS/HD_5850/30.html

Dx11, in 12 mesi penso proprio ne usciranno di giochi dx11.

Consumo/rumore.

Ed infine prezzo molto vicino.
Qui purtroppo hai un rivenditore che ti vende la GTX275 al prezzo più basso della rete, mentre la HD5850 no. In effetti in rete nei negozi dove si trova la GTX275 a 175 euro (prezzo più basso, quindi negozi più convenienti), la HD5850 non si trova ancora. Nei negozi che hanno a disposizione entrambi i modelli, la differenza è contenuta in non più di 20 euro, così è facile supporre che al momento la VGA sarà disponibile in numero adeguato il prezzo diminuirà e soprattutto quando sarà disponibile anche nei negozi che praticano i prezzi più bassi, le due VGA (se come detto Nvidia non abbasserà i prezzi), avranno prezzi molto vicini.
Ovviamente visto i prezzi praticati a te, la differenza è effettivamente di 45 euro, personalmente anche così sceglierei senza pensarci una HD5850, ma se per te quei 45 euro sono importanti e se non puoi aspettare una quindicina di giorni per trovarla a prezzi più bassi, non mi pare tu abbia scelta ^^

The_SaN
11-10-2009, 00:44
Ad ogni modo lunedì posso ancora modificare l'ordine, le scelte sono queste...

xfx gtx 275 a 175euro
zotac gtx 260 a 160euro
sapphire 4870 1gb ddr5 a 135euro
sapphire 5850 a 220euro (tra 20gg...o 25gg...o 30gg...o ??...io non mi meraviglieri)

di altre schede non ho chiesto...potrei sempre farlo ma non vedo alternative.So che siamo in un thread nVidia, ma a quei prezzi secondo me sono meglio la 4870 e la 5850 (io propenderei per la seconda per via delle dx11).
La gtx260 dovrebbe costare meno, circa come la 4870. Cosi non vale la pena. E la gtx275 (come la 4890) non offre praticamente nulla di piú a dispetto di un prezzo piú alto.

Qui i casi ragionevoli sarebbero 2:
- Prendi una scheda "vecchia" : allora prendi quella che costa meno, le prestazioni sono simili. Inoltre la 4870 é anche é dx10.1
- Prendi la vga "nuova" spendendo di piú, ma avendo una maggior longevitá. Con i giochi nuovi il divario aumenterá sensibilmente. (basta vedere battleforge)

ShineOn
11-10-2009, 01:33
Cio pero' fossi in te aspetterei (avendo una 8800gtx potresti farlo benone direi).

eh, il problema è che è saltata due settimane fa, altrimenti non mi vedavate da queste parti per almeno altri 6 mesi :fagiano: ...ora ho aggiornato la firma ;)

io ne ho viste tante in passato e, ripeto, non mi meraviglierei se tra un mese fossi ancora qua ad aspettare una 5850...


ma se per te quei 45 euro sono importanti e se non puoi aspettare una quindicina di giorni per trovarla a prezzi più bassi, non mi pare tu abbia scelta ^^

il problema non sono certo i 45 euro, è il tempo in più che devo aspettare e le prime lamentele che ho letto in giro sui driver abbinati alle nuove radeon...in particolare microscatti con alcuni giochi (che non so perchè soffrivo anche con la ati che avevo prima della 8800gtx e che mi facevano penare...)

endi una scheda "vecchia" : allora prendi quella che costa meno, le prestazioni sono simili. Inoltre la 4870 é anche é dx10.1
- Prendi la vga "nuova" spendendo di piú, ma avendo una maggior longevitá. Con i giochi nuovi il divario aumenterá sensibilmente. (basta vedere battleforge)

guarda sarei molto più vicino a prendere una 4870 1gb che una 5850 in questo momento...ma francamente per mia esperienza (che non implica debba essere anche la vostra eh ;) ) ripongo più fiducia nei drivers nvidia e quindi tra 4870 e 275 la bilancia pende sempre per quest'ultima...cmq grazie a tutti per i consigli che state dando ;)

The_SaN
11-10-2009, 03:36
guarda sarei molto più vicino a prendere una 4870 1gb che una 5850 in questo momento...ma francamente per mia esperienza (che non implica debba essere anche la vostra eh ;) ) ripongo più fiducia nei drivers nvidia e quindi tra 4870 e 275 la bilancia pende sempre per quest'ultima...cmq grazie a tutti per i consigli che state dando ;)Beh insomma...puoi preferire le nVidia per tutti i motivi del mondo...ma prestazioni e driver direi che sono da escludere...
Ho testato schede di entrambi i brand (mx400, fx5200, 9500pro, x850pro, 2600xt, 9600gt che uso ora, 4850 prestata per test) e giuro che non ho mai avuto problemi con nessuna di queste schede.

Ho il sedere grosso come una capanna? O sará perché ad ogni cambio scheda formatto tutto e installo i driver/programmi in ordine minuzioso per evitare conflitti?

Per mia esperienza, mi sento di dire che come driver sono equivalenti...

halduemilauno
11-10-2009, 07:36
Ad ogni modo lunedì posso ancora modificare l'ordine, le scelte sono queste...

xfx gtx 275 a 175euro
zotac gtx 260 a 160euro
sapphire 4870 1gb ddr5 a 135euro
sapphire 5850 a 220euro (tra 20gg...o 25gg...o 30gg...o ??...io non mi meraviglieri)

di altre schede non ho chiesto...potrei sempre farlo ma non vedo alternative.

a quei prezzi consiglierei la gtx275. delle dx11 hai gia detto e la 5850 va si e no un 10% in +. poi per chi parla di oc si oc una si oc pure l'altra e le nvidia in oc(vedi resa non numeretti)eccellono.
ps ora smettiamola con l'ot.

Andrea deluxe
11-10-2009, 09:06
intanto il processo a 40nm ha prodotto questo:

Based on 40nm GT215, GT240 boasts 96 stream processors like we said. It’s shipping with 1GB SDDR3 or 512MB GDDR5 memory, 128bit memory interface and Core/Shader/Memory clock of 550/1340/900MHz, with support for DirectX 10.1

http://en.expreview.com/img/2009/10/10/GT240_01.jpg
http://en.expreview.com/img/2009/10/10/GT240_02.jpg
http://en.expreview.com/img/2009/10/10/GT240_03.jpg

leoneazzurro
11-10-2009, 09:44
A occhio e croce gli score 3Dmark vantage sono sbagliati...

Errik89
11-10-2009, 10:17
intanto il processo a 40nm ha prodotto questo:

Based on 40nm GT215, GT240 boasts 96 stream processors like we said. It’s shipping with 1GB SDDR3 or 512MB GDDR5 memory, 128bit memory interface and Core/Shader/Memory clock of 550/1340/900MHz, with support for DirectX 10.1

[img]http://en.expreview.com/img/2009/10/10/GT240_01.jpg[img]
[img]http://en.expreview.com/img/2009/10/10/GT240_02.jpg[img]
[img]http://en.expreview.com/img/2009/10/10/GT240_03.jpg[img]
Niente male, ma siamo sempre nella fascia bassa. Un buon sostituto a G92b delle 9800GT se tirato come si deve.

gianni1879
11-10-2009, 11:00
Vi ricordo che siete OT i consigli per gli acquisti sono nell'apposita sezione.

gianni1879
11-10-2009, 11:06
a quei prezzi consiglierei la gtx275. delle dx11 hai gia detto e la 5850 va si e no un 10% in +. poi per chi parla di oc si oc una si oc pure l'altra e le nvidia in oc(vedi resa non numeretti)eccellono.
ps ora smettiamola con l'ot.

evitando ulteriori consigli per gli acquisti.

La HD5850 va da un 15/18% in più di prestazioni rispetto alla gtx275 con punte anche del 30% con AA8x

halduemilauno
11-10-2009, 11:13
evitando ulteriori consigli per gli acquisti.

La HD5850 va da un 15/18% in più di prestazioni rispetto alla gtx275 con punte anche del 30% con AA8x

nel suo scenario ideale ovvero 1680x1050 4/8(l'AA8x non serve a nulla)...
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating_qualitaet
è + 10%.




ps non è un consiglio per gli acquisti è solo, e senza polemica alcuna, una risposta a Te.
ps2 parliamo delle future GTX.

Errik89
11-10-2009, 11:17
nel suo scenario ideale ovvero 1680x1050 4/8(l'AA8x non serve a nulla)...
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating_qualitaet
è + 10%.




ps non è un consiglio per gli acquisti è solo, e senza polemica alcuna, una risposta a Te.
ps2 parliamo delle future GTX.
Il suo scenario ideale è 1920x1200 non raccontiamo vaccate, e comunque che l'AA8x sia inutile non è vero. ;)


Quando esce la GT240 e a che prezzo verrà proposta?? Monta gddr5??

halduemilauno
11-10-2009, 11:21
Il suo scenario ideale è 1920x1200 non raccontiamo vaccate, e comunque che l'AA8x sia inutile non è vero. ;)


Quando esce la GT240 e a che prezzo verrà proposta?? Monta gddr5??

quello è quello della 5870. e se stai pensando alle ris. ancora + elevate quello è/sarà il territorio delle 5870x2.





ps una cortesia non essere scurrile si sta discutendo in santa pace.

gianni1879
11-10-2009, 11:22
nel suo scenario ideale ovvero 1680x1050 4/8(l'AA8x non serve a nulla)...
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating_qualitaet
è + 10%.




ps non è un consiglio per gli acquisti è solo, e senza polemica alcuna, una risposta a Te.
ps2 parliamo delle future GTX.
sono vga per il full-hd minimo...

cmq chiudiamo questa parentesi



Errik89


Non esageriamo con i toni

freedom07
11-10-2009, 11:31
secondo mè nvidia sta facendo le prove generali sia per il controller ddr5 ke per le prime gpu a 40 nm .. come un banco di prova .. se queste vanno bene ho la sensazione ke piano piano inizieranno la vera produzione di altre fascie di mercato ....

suneatshours86
11-10-2009, 13:12
per voi..
Anche se la gpu NVIDIA GeForce GT240 non è stata ancora annunciata dal chip maker statunitense sono già in rete i primi risultati di alcuni test che hanno misurato le prestazioni di una scheda grafica basata su tale processore grafico in ambiente 3DMark Vantage e 3DMark 06. Le performance del controller grafico sono state comparate con quelle offerte dalle GeForce 9600GT, GeForce 9800GT e GeForce GT250 Green di NVIDIA e dalla HD4850 di ATI & AMD.

La GeForce GT240 è basata sul chip GT215, che è realizzato in tecnologia a 40nm e integra 96 stream processor. Le frequenze di clock di core grafico, shader e RAM on board sono pari rispettivamente a 5500MHz, 1340MHz e 900MHz in accordo al design reference mentre il bus con la memoria locale è a 128-bit.
Sono possibili due varianti della card, una dotata di 1GB di SDDR3 e una equipaggiata con 512MB di G-DDR5: in entrambi i casi le API grafiche supportate, in riferimento al solo mondo Microsoft, sono le DirectX 10.1.

Seguono i diagrammi che mostrano i risultati dei vari benchmark.
http://www.atizone.it/images/?object=news11644_1.jpg
http://www.atizone.it/images/?object=news11644_2.jpg
http://www.atizone.it/images/?object=news11644_3.jpg

Da essi si evince che le performance della scheda, almeno con il sistema di misura utilizzato in questo caso, si collocano tra quelle della GeForce 9600GT e quelle della GeForce 9800GT. Inoltre, la GT240 con RAM G-DDR5, che risulta essere più veloce di quella con SDDR3, è comunque indietro alla concorrenza nella maggior parte delle prove: tuttavia in condizioni di overclock (650MHz, 1590MHz e 900MHz per core grafico, shader e RAM on board) supera anche la GT250 Greeen utilizzando 3DMark Vantage in modalità performance.

Il consumo di potenza e il prezzo saranno presumibilmente i punti di forza di questa card di cui peraltro non si conoscono ancora la data di lancio e quella di commercializzazione.


arrivato tardi, chiedo scusa ad andrea deluxe :P

michelgaetano
11-10-2009, 13:31
nel suo scenario ideale ovvero 1680x1050 4/8(l'AA8x non serve a nulla)...
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating_qualitaet
è + 10%.


Dal 10 al 33% a seconda della situazione. L'aa 8x non serve a nulla lo decide chi compra (e se la scheda lo permette, come la 5850, lo attiva), o posta qualche screen. Da quelli che feci e che comparammo nel thread aspettando RV800 con Crysis, la differenza c'era in ogni passaggio (1x -> 2x -> 4x -> 8x), semplicemente con quel titolo è ingiocabile.

Ma nessuno prenderebbe una scheda che va meno (contando i drivers ancora acerbi), che consuma e scalda di più, che ha meno vram, che è ferma alle directx 10.

Edit: visto ora gianni, sorry :D

Athlon 64 3000+
11-10-2009, 13:42
E inutile che cercate di convicerci di preferire una GTX275 o GTX260-216 ad una HD 5850 oppure all'eventuale futura HD 5770 perchè le ATI sono migliori in tutto e per tutto.
E come tornare indietro di 2 anni e mezzo e cercare di far convincere alla gente di preferire la HD 2900XT alla 8800GTX quando quest'ultima era più veloce e basta.
E la HD 2900XT la ho avuta per 14 mesi,ma alla lunga le 8800 sono state migliori e basta rispetto a questa scheda.

Errik89
11-10-2009, 14:08
per voi..


arrivato tardi, chiedo scusa ad andrea deluxe :P
ok grazie. Comunque sarà la sostituta della 9800GT. Penso che farà concorrenza alle future 5600 visto che le 4600 sono già battute. Come consumo IMHO (e spero!!) sarà sui 70W max e spero non richieda un connettore pci-e 6pin aggiuntivo.
Un'ottima VGA di fascia medio-bassa insomma!! :)

Dal 10 al 33% a seconda della situazione. L'aa 8x non serve a nulla lo decide chi compra (e se la scheda lo permette, come la 5850, lo attiva), o posta qualche screen. Da quelli che feci e che comparammo nel thread aspettando RV800 con Crysis, la differenza c'era in ogni passaggio (1x -> 2x -> 4x -> 8x), semplicemente con quel titolo è ingiocabile.

Ma nessuno prenderebbe una scheda che va meno (contando i drivers ancora acerbi), che consuma e scalda di più, che ha meno vram, che è ferma alle directx 10.

Edit: visto ora gianni, sorry :D

E inutile che cercate di convicerci di preferire una GTX275 o GTX260-216 ad una HD 5850 oppure all'eventuale futura HD 5770 perchè le ATI sono migliori in tutto e per tutto.
E come tornare indietro di 2 anni e mezzo e cercare di far convincere alla gente di preferire la HD 2900XT alla 8800GTX quando quest'ultima era più veloce e basta.
E la HD 2900XT la ho avuta per 14 mesi,ma alla lunga le 8800 sono state migliori e basta rispetto a questa scheda.
quotone. ;)
Scusate se ho usato termini scurrili e ho alzato i toni ma quando leggo certe cose non riesco a scrivere "civilmente" purtroppo. :fagiano:

halduemilauno
11-10-2009, 14:43
E inutile che cercate di convicerci di preferire una GTX275 o GTX260-216 ad una HD 5850 oppure all'eventuale futura HD 5770 perchè le ATI sono migliori in tutto e per tutto.
E come tornare indietro di 2 anni e mezzo e cercare di far convincere alla gente di preferire la HD 2900XT alla 8800GTX quando quest'ultima era più veloce e basta.
E la HD 2900XT la ho avuta per 14 mesi,ma alla lunga le 8800 sono state migliori e basta rispetto a questa scheda.

guarda personalmente alle persone che a suo tempo si sono comprate le varie 2900, 2600 e le varie 3xxx e paccottiglia simile non penso neppure per un'attimo a consigliargli qualunque cosa in ambito schede video ma credo qualunque cosa in ambito pc ma credo(sempre personalmente)proprio il nulla assoluto e totale in tutto.
tutto questo con il massimo rispetto dovuto.




ps credimi ho visto solo dopo che tu sei stata una di quelle.
ps2 se per favore si può parlare dell'argomento di questo thread ovvero le future schede nvidia in particolare quelle di fascia alta(GTX).
GRAZIE.

halduemilauno
11-10-2009, 14:48
per voi..


arrivato tardi, chiedo scusa ad andrea deluxe :P

bhe per esser la sostituta della 9600gt...quello della 9800 è la gts250 che di fatto ha sostituito tutte le 9800. cmq aspettiamo rece esaustive.

Bastoner
11-10-2009, 14:52
guarda personalmente alle persone che a suo tempo si sono comprate le varie 2900, 2600 e le varie 3xxx e paccottiglia simile non penso neppure per un'attimo a consigliargli qualunque cosa in ambito schede video ma credo qualunque cosa in ambito pc ma credo(sempre personalmente)proprio il nulla assoluto e totale in tutto.
tutto questo con il massimo rispetto dovuto.




ps credimi ho visto solo dopo che tu sei stata una di quelle.
ps2 se per favore si può parlare dell'argomento di questo thread ovvero le future schede nvidia in particolare quelle di fascia alta(GTX).
GRAZIE.


Addirittura?! Chi ha comprato la serie 2000 e anche la serie 3000 (discreta, per altro) non merita nemmeno la tua considerazione? Il "nulla assoluto totale di tutto"? Non ti sembra di aver perso di vista un cosa importante, cioè che stiamo parlando di schede video? Fa sorridere molto che tu la prenda così sul personale e che mostri così tanto disprezzo. Un po' di distacco secondo me ti farebbe bene. Noi siamo umani, le nostre qualità morali prescindono dalla scheda video che scegliamo.

dj883u2
11-10-2009, 15:01
Farebbero bene i "Moderatori" ad intervenire per cercare di portare le discussione nella direzione che compete al thread in questione.
La sezione "Consigli per gli acquisti" è un'altra.....qui si deve parlare delle future Gpu Nvidia.......

halduemilauno
11-10-2009, 15:01
Addirittura?! Chi ha comprato la serie 2000 e anche la serie 3000 (discreta, per altro) non merita nemmeno la tua considerazione? Il "nulla assoluto totale di tutto"? Non ti sembra di aver perso di vista un cosa importante, cioè che stiamo parlando di schede video? Fa sorridere molto che tu la prenda così sul personale e che mostri così tanto disprezzo. Un po' di distacco secondo me ti farebbe bene. Noi siamo umani, le nostre qualità morali prescindono dalla scheda video che scegliamo.

non è una questione di disprezzo è che è inutile starci li a perder tempo. si è visto da subito che quelle schede non andavano nemmeno sfiorate con la mente eppure...eppure come si è visto son state comprate e difese quindi a quelle persone che ci parlo a fare? tutto qui non è disprezzo non a caso ho detto "con il massimo rispetto dovuto" è proprio che allora fu una perdita di tempo e ne ho fatto tesoro e quindi rispondendo all'amico lungi da me il cercare di convincervi. ti faccio poi notare che addirittura lui gia mette in mezzo la futura 5770 della quale nulla si sa eppure lui sempre lui ha gia sentenziato. posso mai star li a perder tempo? appunto dato che si sta parlando di schede video neanche ci penso un'attimo.
mo però torniamo OT.

halduemilauno
11-10-2009, 15:04
Farebbero bene i "Moderatori" ad intervenire per cercare di portare le discussione nella direzione che compete al thread in questione.
La sezione "Consigli per gli acquisti" è un'altra.....qui si deve parlare delle future Gpu Nvidia.......

ecco almeno non solo il solo.
grazie.
:mano:

Bastoner
11-10-2009, 15:06
Guarda non ho parole. Inutile parlare con chi vive in un mondo fatto solo di vga. Meglio tornare OT.

appleroof
11-10-2009, 15:07
ok a 3200 va benone! ma meglio 3600!!!

siamo stati i pionieri del 27" insieme a appleroof ed altri (medesimo pannelo samsung e dell)...... (impagabile goduria dal primo giorno ad ogni accensione):)

quoto! :)

intanto il processo a 40nm ha prodotto questo:

Based on 40nm GT215, GT240 boasts 96 stream processors like we said. It’s shipping with 1GB SDDR3 or 512MB GDDR5 memory, 128bit memory interface and Core/Shader/Memory clock of 550/1340/900MHz, with support for DirectX 10.1

[img]http://en.expreview.com/img/2009/10/10/GT240_01.jpg
[img]http://en.expreview.com/img/2009/10/10/GT240_02.jpg
[img]http://en.expreview.com/img/2009/10/10/GT240_03.jpg

una bella scheda se prezzata come si deve...

dj883u2
11-10-2009, 15:08
ecco almeno non solo il solo.
grazie.
:mano:
Quando ci vuole ci vuole, mi pare che si stia degenerando sul ridico con alcune discussioni inutili e faziose;)

halduemilauno
11-10-2009, 15:16
Guarda non ho parole. Inutile parlare con chi vive in un mondo fatto solo di vga. Meglio tornare OT.

questo thread non è il mondo. neanche questa sezione schede video lo è anzi neppure tutto il Forum. ma qui, in questo specifico in questo piccolissimo si e di quello parlo. anzi in questo specifico si dovrebbe parlare solo delle future schede video nvidia di fascia alta(GTX). passi che si parli delle future(ma sempre nvidia)in generale.

halduemilauno
11-10-2009, 15:29
Guarda non ho parole. Inutile parlare con chi vive in un mondo fatto solo di vga. Meglio tornare OT.

ho ricevuto il tuo pvt costellato di insulti. te lo dico in pubblico in maniera chiara, univoca non importunarmi ne con altri pvt e possibilmente ne con altri mezzi.
il moderatore di sezione sarà avvertito.

appleroof
11-10-2009, 15:30
ho ricevuto il tuo pvt costellato di insulti. te lo dico in pubblico in maniera chiara, univoca non importunarmi ne con altri pvt e possibilmente ne con altri mezzi.
il moderatore di sezione sarà avvertito.

lascia perdere Hal...appena hai notizie su g300 continua a postare che fai un lavoro utilissimo, almeno dal mio punto di vista :)

Bastoner
11-10-2009, 15:31
ho ricevuto il tuo pvt costellato di insulti. te lo dico in pubblico in maniera chiara, univoca non importunarmi ne con altri pvt e possibilmente ne con altri mezzi.
il moderatore di sezione sarà avvertito.

Guarda quello che ti dico in pvt rigurda solo il pvt. Che c'entra il thread ora? Stai chiedendo da molte pagina di tornare OT, allora torna OT prima tu.
ps: esiste la funzione ignore se non vuoi ricevere i miei pvt, non serve inquinare il thread.

FreeMan
11-10-2009, 15:33
ho ricevuto il tuo pvt costellato di insulti. te lo dico in pubblico in maniera chiara, univoca non importunarmi ne con altri pvt e possibilmente ne con altri mezzi.
il moderatore di sezione sarà avvertito.

Guarda quello che ti dico in pvt rigurda solo il pvt. Che c'entra il thread ora? Stai chiedendo da molte pagina di tornare OT, allora torna OT prima tu.

Finitela tutti e due.. Bastoner, sarà il caso che ti dai una regolata perchè non ci limiteremo alle sospensioni se non cambierai atteggiamento, sia nei 3d che in pvt :)

halduemilauno, non discutere pubblicamente dei pvt


ps: esiste la funzione ignore se non vuoi ricevere i miei pvt, non serve inquinare il thread.

visto che aggiungi, rispondo: esiste anche per te l'ignore list :)

e ora stop!

>bYeZ<

halduemilauno
11-10-2009, 15:35
Guarda quello che ti dico in pvt rigurda solo il pvt. Che c'entra il thread ora? Stai chiedendo da molte pagina di tornare OT, allora torna OT prima tu.

se permetti quando mi si insulta lo faccio presente al mod. e a maggior ragione quando questo accade con il mezzo del pvt. usato in questo caso per subdoli motivi.
segnalerò anche questo.

FreeMan
11-10-2009, 15:37
le comunicazioni ai mod si fanno in PVT

STOP!!

>bYeZ<

halduemilauno
11-10-2009, 15:37
Finitela tutti e due.. Bastoner, sarà il caso che ti dai una regolata perchè non ci limiteremo alle sospensioni se non cambierai atteggiamento, sia nei 3d che in pvt :)

halduemilauno, non discutere pubblicamente dei pvt



visto che aggiungi, rispondo: esiste anche per te l'ignore list :)

e ora stop!

>bYeZ<

visto solo ora. non a caso ho evitato di quotare pubblicamente i suoi pvt.
mi auguro che sia finita.

halduemilauno
11-10-2009, 15:39
le comunicazioni ai mod si fanno in PVT

STOP!!

>bYeZ<

certo. ho usato il mezzo del segnala perchè pensavo che in questo caso potesse bastare. se in questo ho sbagliato chiedo scusa.

halduemilauno
11-10-2009, 15:43
Quando ci vuole ci vuole, mi pare che si stia degenerando sul ridico con alcune discussioni inutili e faziose;)

lascia perdere Hal...appena hai notizie su g300 continua a postare che fai un lavoro utilissimo, almeno dal mio punto di vista :)

Grazie ad entrambi.
:mano:

appleroof
11-10-2009, 15:46
Grazie ad entrambi.
:mano:

;)

p.s.: io ho capito a cosa ti riferivi prima, credo fosse lampante

FreeMan
11-10-2009, 15:49
certo. ho usato il mezzo del segnala perchè pensavo che in questo caso potesse bastare. se in questo ho sbagliato chiedo scusa.

la segnalazione va bene ma non va pubblicizzata e non si devono portare sul forum le beghe in pvt

sono cose che ormai DEVI sapere.

>bYeZ<

halduemilauno
11-10-2009, 16:00
la segnalazione va bene ma non va pubblicizzata e non si devono portare sul forum le beghe in pvt

sono cose che ormai DEVI sapere.

>bYeZ<

OK. Chiarissimo.
;)

appleroof
11-10-2009, 16:09
:confused:

overclock?

zorco
11-10-2009, 16:16
ma da quale chip derivano questi g215 e g240 dal g92?

Pat77
11-10-2009, 16:42
E inutile che cercate di convicerci di preferire una GTX275 o GTX260-216 ad una HD 5850 oppure all'eventuale futura HD 5770 perchè le ATI sono migliori in tutto e per tutto.
E come tornare indietro di 2 anni e mezzo e cercare di far convincere alla gente di preferire la HD 2900XT alla 8800GTX quando quest'ultima era più veloce e basta.
E la HD 2900XT la ho avuta per 14 mesi,ma alla lunga le 8800 sono state migliori e basta rispetto a questa scheda.

Dipende da troppi fattori una scelta, ora come ora, senza fare assolutismi, almeno nel segmento che mi interessa è meglio ati.

dj883u2
11-10-2009, 16:54
ma da quale chip derivano questi g215 e g240 dal g92?
Die del core grafico del G200 basato a 40nm con il supporto alle DX10.1.

Athlon 64 3000+
11-10-2009, 18:38
Dipende da troppi fattori una scelta, ora come ora, senza fare assolutismi, almeno nel segmento che mi interessa è meglio ati.

AL tempo quando presi la HD 2900XT(anche se nel 2007 sono andato 2 volte molto vicino a prendere la 8800GTS 640) è vero che la difendevo a spada tratta e ancora oggi non posso negare di essere di parte anche perchè Nvidia non mi sta per niente simpatica.
Comunque se ho sollevo un polverone mi scuso con tutti,ma volevo solo dire la mia opinione e io di solito da polemiche pesanti e dall'insultare gli altri mi sono sempre tenuto alla larga.
A questo punto torniamo in topic e a parlare di GT300 alias Fermi.

sonnet
11-10-2009, 20:33
Die del core grafico del G200 basato a 40nm con il supporto alle DX10.1.

ma non ho capito:quando escono? se ne parla da maggio giugnoe ancora niente, in particolare la 240.

Andrea deluxe
11-10-2009, 21:47
:eek:

http://www.evga.com/forums/tm.asp?m=100960237&mpage=1&key=%EF%BF%BD#

A.L.M.
11-10-2009, 22:19
:eek:

http://www.evga.com/forums/tm.asp?m=100960237&mpage=1&key=%EF%BF%BD#

A me pare un po' un cazzaro, con rispetto parlando... Un post solo... Scrive che ci sono le foto, ma poi linka un sito vuoto... :rolleyes:
Tra l'altro non parla di giochi ma di folding, se anche fosse vero quindi non si potrebbe capire nulla del comportamento nei giochi di Fermi... Non hanno manco le uscite video, a quanto scrive. Se non fosse un cazzaro, sarebbe abbastanza preoccupante che con 7 schede (seppure in OC estremo), di cui una solo parzialmente loaded, ed un core i7, il power draw effettivo del sistema sia 2400W. Tanto per dare un'idea per un crossfire-X di HD5870 con un sistema della madonna basta "tranquillamente" una PSU da 1000-1200W... Staremmo parlando di TDP nel range di oltre 250W a scheda (singola). Se fosse vero altro che GTX395... :asd:

Andrea deluxe
11-10-2009, 22:29
:stordita:

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/24145-gpu-technology-conference-nvidias-new-focus-changing-market.html

atomo37
12-10-2009, 09:46
mi sa che mi sto per prendere 2 5870, la 295 è un po' in difficoltà col mio nuovo 30", tanto mi sa che nvidia qua ha bisogno ancora di mesi prima di sfornare il mostro.

Simedan1985
12-10-2009, 09:50
mi sa che mi sto per prendere 2 5870, la 295 è un po' in difficoltà col mio nuovo 30", tanto mi sa che nvidia qua ha bisogno ancora di mesi prima di sfornare il mostro.

Cavolo Atomo ...anche io nn so che fare sto sul 26 con la 275,no apparte gli scherzi ,per adesso nella maggioranza degli ultimi giochi tutto al max sto sui 45 fps,vabbe il mattone manco lo installato.....pero aspetto veramente fermi ,oppure vediamo hemlock

halduemilauno
12-10-2009, 09:54
http://www.hwupgrade.it/articoli/business/2300/quattro-chiacchiere-con-jen-hsun-huang-ceo-di-nvidia_4.html


"Nel corso della discussione ampio spazio è stato riservato al mondo gaming e al mondo dell'intrattenimento in senso più generico. Direttamente interpellato in merito, il CEO di NVIDIA ha confermato che l'azienda è ancora impegnata nell'ambito videludico aggiungendo a ciò l'avvertenza a non travisare il senso di un evento come GPU Technology Conference: si è trattato di una conferenza appositamente indirizzata agli sviluppatori che lavorano con il GPU Computing ed in genere a quella schiera di professionisti che vedono il GPU Computing come una efficace soluzione per una serie di problemi. Semplicemente il GTC non è stato un evento rivolto al mondo dei videogiochi. A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi. "

tutto molto molto interessante in particolare il grassettato.
;)

atomo37
12-10-2009, 09:55
Cavolo Atomo ...anche io nn so che fare sto sul 26 con la 275,no apparte gli scherzi ,per adesso nella maggioranza degli ultimi giochi tutto al max sto sui 45 fps,vabbe il mattone manco lo installato.....pero aspetto veramente fermi ,oppure vediamo hemlock

secondo me fino a 1920x1200 con una 295 o una 5870 si va benissimo, ma ai 2560x1600 del mio 30" mi sto accorgendo che ci vuole sicuramente una marcia in più e francamente un crossfire di 5870 mi intriga, tanto quando usciranno ste famigerate nuove nvidia faccio sempre in tempo a cambiare se valesse davvero la pena.

atomo37
12-10-2009, 09:57
http://www.hwupgrade.it/articoli/business/2300/quattro-chiacchiere-con-jen-hsun-huang-ceo-di-nvidia_4.html


"Nel corso della discussione ampio spazio è stato riservato al mondo gaming e al mondo dell'intrattenimento in senso più generico. Direttamente interpellato in merito, il CEO di NVIDIA ha confermato che l'azienda è ancora impegnata nell'ambito videludico aggiungendo a ciò l'avvertenza a non travisare il senso di un evento come GPU Technology Conference: si è trattato di una conferenza appositamente indirizzata agli sviluppatori che lavorano con il GPU Computing ed in genere a quella schiera di professionisti che vedono il GPU Computing come una efficace soluzione per una serie di problemi. Semplicemente il GTC non è stato un evento rivolto al mondo dei videogiochi. A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi. "

tutto molto molto interessante in particolare il grassettato.
;)

tutta fuffa e poche deadline ;)

halduemilauno
12-10-2009, 10:08
tutta fuffa e poche deadline ;)



secondo me fino a 1920x1200 con una 295 o una 5870 si va benissimo, ma ai 2560x1600 del mio 30" mi sto accorgendo che ci vuole sicuramente una marcia in più e francamente un crossfire di 5870 mi intriga, tanto quando usciranno ste famigerate nuove nvidia faccio sempre in tempo a cambiare se valesse davvero la pena.

ti sei gia dato una risposta.
;)

goldorak
12-10-2009, 10:11
http://www.hwupgrade.it/articoli/business/2300/quattro-chiacchiere-con-jen-hsun-huang-ceo-di-nvidia_4.html


"Nel corso della discussione ampio spazio è stato riservato al mondo gaming e al mondo dell'intrattenimento in senso più generico. Direttamente interpellato in merito, il CEO di NVIDIA ha confermato che l'azienda è ancora impegnata nell'ambito videludico aggiungendo a ciò l'avvertenza a non travisare il senso di un evento come GPU Technology Conference: si è trattato di una conferenza appositamente indirizzata agli sviluppatori che lavorano con il GPU Computing ed in genere a quella schiera di professionisti che vedono il GPU Computing come una efficace soluzione per una serie di problemi. Semplicemente il GTC non è stato un evento rivolto al mondo dei videogiochi. A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi. "

tutto molto molto interessante in particolare il grassettato.
;)


Ed e' altrettanto interessante quello che Huang ha detto su come si aspetta il futuro dell'azienda :


Riguardo al futuro, invece, una previsione di come sarà il mercato fra cinque anni: Huang vede interessanti tassi di crescita per tutte le soluzioni parallel computing e per le soluzioni mobile computing, mentre invece afferma che, in termini di revenue, il computing tradizionale resterà piatto: "Aumenteranno i volumi ma al contempo diminuiranno i prezzi, e fra cinque anni il PC rappresenterà non più della metà del nostro business".


Non e' molto positivo per quanto riguarda il settore pc e quindi il gaming.

;)

kiriranshelo
12-10-2009, 10:47
Non e' molto positivo per quanto riguarda il settore pc e quindi il gaming.
;)

bè in realtà potrebbe dire molte cose, potrebbero raddoppiare il fatturato con il cloud computing e il gioco della frase è fatto.

atomo37
12-10-2009, 11:23
ti sei gia dato una risposta.
;)

infatti :) ordinate a €650 tutte e due, alla fine mi sembra un buon prezzo, credo che anche a rivenderle tra 4-6 mesi non dovrei perderci troppo.

DVD2005
12-10-2009, 11:42
C.V.D.

Spero che visto che ora è lo stesso JHH a dirlo si possa farla finita di darmi del fanboy dopo che lo dico da due anni che nVidia sta puntando al GPU Computing (che attualmente è una porzione di mercato insignificante) a scapito del suo core business: le VGA.

secondo te con PC intendeva il gaming su pc o proprio il pc in generale ?

goldorak
12-10-2009, 11:45
secondo te con PC intendeva il gaming su pc o proprio il pc in generale ?


Mi pare evidente che si riferisse al gaming.
Chi compra una scheda video dedicata in ambito consumer se non per darsi al gaming ?
Escludo da questo la Quadro che sono nella fascia professionale.

faber80
12-10-2009, 11:47
bè in realtà potrebbe dire molte cose, potrebbero raddoppiare il fatturato con il cloud computing e il gioco della frase è fatto.

comunque vada, anche se (e sottolineo -se-) fermi vedrà la luce entro gennaio (ma nn credo, nn hanno nenache una foto vera da mostrare, nè un bench da divulgare), sarà di fascia alta, quindi Ati ha già vinto, poichè i soldi, signori, si fanno con la fascia media e bassa (milioni di vendite, a fronte delle poche decine di migliaia sulla alta). Ati qui l'ha fot...ta. Ha già pronte le 57xx / 56xx.

Fermi potrà essere quello che volete (anche se la volontaria mancanza di un bench mi ricorda il bleff stile Phenom), ma le vendite per mesi e mesi saranno pro Ati, tra nuovi pc, pre-assemblati, high-end...

partita chiusa comunque .

DVD2005
12-10-2009, 11:56
Secondo me in generale. Se punta sul computing punta su mercati molto lontani dall'home computing, visto che in ambito home il GPU computing è semplicemente inutile, visto che non sembra una gran necessità accelerare Office o Internet Explorer con una GPU quando le persone hanno tutta l'intenzione di continuare a farlo con una CPU single core spompata :)

A meno che Intel non li convinca del contrario, nel qual caso compreranno comunque un prodotto Intel "per andare veramente in internet"...

ok.

ad ogni modo ed indipendentemente da come uno la pensi (o la desideri pensare) è sicuramente una fase "anomala" quella che si sta vivendo in casa nvidia, anche questa volta che ha parlato Jen- Hsun Huang mi aspettavo di leggere qualcosa di più concreto (per quello che è il settore che a me interessa = gaming). Inoltre credevo che gli venisse chiesto qualcosa circa la "finta-Fermi", a meno che non avesse lui stesso posto un veto a chi lo intervistava.

halduemilauno
12-10-2009, 12:18
ok.

ad ogni modo ed indipendentemente da come uno la pensi (o la desideri pensare) è sicuramente una fase "anomala" quella che si sta vivendo in casa nvidia, anche questa volta che ha parlato Jen- Hsun Huang mi aspettavo di leggere qualcosa di più concreto (per quello che è il settore che a me interessa = gaming). Inoltre credevo che gli venisse chiesto qualcosa circa la "finta-Fermi", a meno che non avesse lui stesso posto un veto a chi lo intervistava.

sulla finta-fermi lo stesso Corsini è stato chiarissimo definendola...(versetto 62)
http://www.hwupgrade.it/forum/showthread.php?t=2062392&page=4
in quanto al concreto...
A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi.
;)

A.L.M.
12-10-2009, 12:27
C.V.D.

Spero che visto che ora è lo stesso JHH a dirlo si possa farla finita di darmi del fanboy dopo che lo dico da due anni che nVidia sta puntando al GPU Computing (che attualmente è una porzione di mercato insignificante) a scapito del suo core business: le VGA.

A me pare la solita fesseria alla JHH, secondo il quale ricordiamo che oggi Nvidia sarebbe dovuta essere più grande di Intel... :asd:

sulla finta-fermi lo stesso Corsini è stato chiarissimo definendola...(versetto 62)
http://www.hwupgrade.it/forum/showthread.php?t=2062392&page=4
in quanto al concreto...
A tal proposito l'azienda di Santa Clara ha già in programma, a data da definirsi, un altro evento entro la fine dell'anno, per celebrare il lancio della nuova serie di schede GeForce basate su architettura Fermi.
;)

In quel versetto Corsini da' anche un parere su Charlie molto interessante, che è quello che dicevamo da tempo.

atinvidia284
12-10-2009, 12:30
Several Nvidia partners have confirmed that they had to decide to cancel GTX 285 and GTX 275 based products, as availability was simply disastrous.

We still don’t now if this is Nvidia's strategy to keep the market hungry for Fermi or they simply didn't order enough wafers, but availability of GTX260, GTX275 and GTX285 was so bad that many decided to drop these products and wait for Fermi.

The lucky ones can sell Radeon HD 5870 and 5850, as they are selling good, but the 5870 is mainly on allocation and that doesn’t really help a lot.

The GT200 generation is slowly but surely running towards its retirement and if you want one, simply grab it while you still can, or get RV870 or Fermi when it comes out.
Le speculazioni di alcuni giorni fa sembrano confermate,si parla di aspettare addirittura fermi,penso che nvidia non sia in grado di sostenere un abbassamento di prezzi allineato alla nuova serie ati 58xx...periodo nero.