PDA

View Full Version : GT300, primi dettagli sulla prossima architettura Nvidia


Redazione di Hardware Upg
19-01-2009, 09:11
Link alla notizia: http://www.hwupgrade.it/news/skvideo/gt300-primi-dettagli-sulla-prossima-architettura-nvidia_27743.html

Emergono le prime informazioni circa l'architettura di nuova generazione con cui Nvidia intende supportare DirectX 11

Click sul link per visualizzare la notizia.

Automator
19-01-2009, 09:17
speriamo davvero in un calo consistente dei consumi.... cavolaccio

zani83
19-01-2009, 09:17
...bah....la vedo grigia x nvidia...non so quanto ridurrà i consumi con una mimd......sono sempre + convinto ke verrà staccata da ati...ma....spettiamo e vediamo....

bs82
19-01-2009, 09:21
E si copia da Ati ;-) ... beh dopottuto è la soluzione più efficente.... vedi prestazioni per transistori di Rv770 vs Gt2xx ;-)

giaballante
19-01-2009, 09:22
diminuirà le frequenze di clock? :mbe:

siamo sicuri di questa affermazione? :confused:

viper-the-best
19-01-2009, 09:24
mah..ce n'è di tempo da aspettare..possono succederne di cose...

2012comin
19-01-2009, 09:26
"Nvidia diminuirà le frequenze di clock e il consumo energetico"

cioè? :confused:
da quel che mi ricordo la freq della gpu Nvidia sono mediamente attorno ai 650 Mhz dalla serie 7900 o prima... con un range tra i 500 e i 700 circa

è possibile avere qualche info in più? :)

Joxer
19-01-2009, 09:33
Che belle notizie da uno che aspetta a momenti la gtx295. Ma questo è da sempre il mondo dell'hardware c'è poco da fare.

Cialtrone
19-01-2009, 09:35
Di per se, quando si cambia architettura di un processore, un aumento o una diminuzione di frequenza non implicano necessariamente un aumento delle prestazioni e/o dei consumi..dipende tutto da come sono strutturate le unità logiche all'interno! La progettazione di un processore è una cosa terribilmente complessa!

XFer
19-01-2009, 09:38
Premetto che sono uno sviluppatore CUDA.
Le frequenze delle GPU Nvidia sono più complicate.
Gli shader di una 9800 GTX sfiorano gli 1.7 GHz, mentre i ROP vanno attorno a 700 MHz e gli instruction issuer degli shader a 1/4 degli shader.
Per calcolare la capacità di calcolo di picco va preso come riferimento il clock degli shader, quindi nell'esempio che ho fatto circa 1.7 GHz.
Con la serie GT200 a parità di processo (65nm) i clock sono stati abbassati (shader attorno a 1.3 GHz) per via dell'aumento di transistor e quindi di consumo.
Forse con la nuova architettura NVidia userà un clock unico per tutto il chip, e a quel punto gli shader potrebbero viaggiare ad un clock più basso rispetto all'attuale, com'è appunto il caso di ATI.

Piccola osservazione del tutto personale: ho l'impressione che NVidia da G80 in poi abbia iniziato a puntare più sulla flessibilità, e quindi allo sfruttamento della GPU per CUDA e PhysX, che sulle prestazioni "hardcore" in ambito gaming. Ecco che ATI si è rifatta prepotentemente sotto... vedremo, bella comunque la competizione! :D

halduemilauno
19-01-2009, 10:04
Che belle notizie da uno che aspetta a momenti la gtx295. Ma questo è da sempre il mondo dell'hardware c'è poco da fare.

il GT300 è previsto per novembre.
;)

ghiltanas
19-01-2009, 10:06
nn vedo l'ora :D

inoltre è auspicabile che finalmente andranno ad utilizzare le nuove dx11...mmm e le 10? le hanno saltate? :confused: :stordita:

ghiltanas
19-01-2009, 10:07
il GT300 è previsto per novembre.
;)

è probabilissima come data, anche g80 (che bei ricordi :D) usci a novembre

DjLode
19-01-2009, 10:25
Forse con la nuova architettura NVidia userà un clock unico per tutto il chip, e a quel punto gli shader potrebbero viaggiare ad un clock più basso rispetto all'attuale, com'è appunto il caso di ATI.


Lo troverei abbastanza strano, Nvidia si è fatta da un pò "promotrice" della cosa e ha sempre usato frequenze diverse per lo shader core.
Il calo di frequenza secondo me è imputabile ad un aumento della complessità che (anche a processi produttivi più bassi ) porterebbe ad aumenti di consumi.
Se invece stesse pensando anche Nvidia che è meglio una gpu piccola magari da proporre in multi gpu rispetto alla solita gpu monolitica?
Comunque troverei strano anche questa inversione di tendenza.


Piccola osservazione del tutto personale: ho l'impressione che NVidia da G80 in poi abbia iniziato a puntare più sulla flessibilità, e quindi allo sfruttamento della GPU per CUDA e PhysX, che sulle prestazioni "hardcore" in ambito gaming. Ecco che ATI si è rifatta prepotentemente sotto... vedremo, bella comunque la competizione! :D

Nvidia ha puntato molto su CUDA e PhysX, ma con le gpu monolitiche che si ritrova in casa l'aumento di prestazioni (quindi frequenze o shader) non è così semplice (una gpu grossa da fare aumentare ancora di più) quindi volente o nolente si è dovuta un attimino fermare.
Ati dal canto suo ha fatto le mosse giuste, una gpu piccola ma molto prestante che accorpata ad una sua sorella ha di fatto sopravanzato la gpu di punta Nvidia, costando anche meno.
Da qui il mio pensiero sopra, cioè che anche Nvidia stia pensando di fare la stessa cosa, accorpare due gpu piccole le dovrebbe risultare semplice visto che di solito lo fa con quelle grosse :)

Mparlav
19-01-2009, 10:30
xghiltanas: diciamo che vanno a "supportare" le Directx11 :D
Da qui ad "utilizzarle" realmente, campa cavallo...
Infatti, continuiamo ad aspettare i giochi Directx10: magari poi ne esce qualcuno, così per errore ;-)

Con i budget di sviluppo delle software house quest'anno ridotti all'osso, sempre più dedicati alle console, che queste sono e restano invariate anche nel 2010 se non anche 2011, voglio proprio vedere quanti giochi PC usciranno l'anno prossimo in Direct11.

Non è un caso che questo GT300 continua a spingere architetturalmente col discorso Gpgpu, considerando che Larrabee uscirà più o meno nello stesso periodo.

ghiltanas
19-01-2009, 10:32
xghiltanas: diciamo che vanno a "supportare" le Directx11 :D
Da qui ad "utilizzarle" realmente, campa cavallo...
Infatti, continuiamo ad aspettare i giochi Directx10: magari poi ne esce qualcuno, così per errore ;-)

Con i budget di sviluppo delle software house quest'anno ridotti all'osso, sempre più dedicati alle console, che queste sono e restano invariate anche nel 2010 se non anche 2011, voglio proprio vedere quanti giochi PC usciranno l'anno prossimo in Direct11.

Non è un caso che questo GT300 continua a spingere architetturalmente col discorso Gpgpu, considerando che Larrabee uscirà più o meno nello stesso periodo.

per vari motivi imho le dx11 saranno realmente utilizzate, basta pensare ad esempio che saranno utilizzate su 2 so diversi, invece che solo su uno, appena uscito, come successe per le 10. Inoltre vista sarà ormai parecchio diffuso e quindi sarà interesse delle software house puntare alle 11 :)

Mparlav
19-01-2009, 10:50
per vari motivi imho le dx11 saranno realmente utilizzate, basta pensare ad esempio che saranno utilizzate su 2 so diversi, invece che solo su uno, appena uscito, come successe per le 10. Inoltre vista sarà ormai parecchio diffuso e quindi sarà interesse delle software house puntare alle 11 :)

Certo che le utilizzeranno: ci mancherebbe.
E' sul "quando" che sono molto scettico, visto che quest'anno assisteremo ad un forte rallentamento dello sviluppo in diversi settori, e non vedo molte società pronte a gareggiare per proporre il primo gioco Directx11 per fare il figo con Windows 7 subito dopo il debutto.

0sc0rpi0n0
19-01-2009, 11:24
A mio avviso con questi nuovi prodotti ci sarà un salto prestazionale notevole , più di altre volte .

Notturnia
19-01-2009, 11:42
aspetterò :-D

il GT280 va bene.. quindi posso aspettare il 300 e saltare il 295

coschizza
19-01-2009, 11:49
Certo che le utilizzeranno: ci mancherebbe.
E' sul "quando" che sono molto scettico, visto che quest'anno assisteremo ad un forte rallentamento dello sviluppo in diversi settori, e non vedo molte società pronte a gareggiare per proporre il primo gioco Directx11 per fare il figo con Windows 7 subito dopo il debutto.

le Directx11 sono per windows 7 e windows vista quindi all'uscita il parco di utenza sarà molto ampio rispetto alla storia recente delle Directx10

le Directx11 sono un espansione modulare delle Directx10 e 10.1 quindi, si puo decidere di sviluppare utilizzando le vecchie librerie senza rischiare di avere problemi di compatibilità o altro, la situazione è diametralmente opposta rispetto il passato e il passaggio dalle Directx7-8-9.

Kuarl
19-01-2009, 11:58
@coschizza
non solo, ma le operazioni aggiuntive previste dalle dx11, se non supportate in hardware dalla gpu saranno elaborate via software dalla cpu. Naturalmente con un degrado prestazionale sensibile, ma con gli attuali quad in larga parte inutilizzati sarebbe comunque un modo costruttivo di utilizzare questa potenza.

CoolBits
19-01-2009, 12:48
finalmente in arrivo un architettura realmente nuova e non la solita minestra riscaldata

Obi 2 Kenobi
19-01-2009, 12:49
le Directx11 sono per windows 7 e windows vista quindi all'uscita il parco di utenza sarà molto ampio rispetto alla storia recente delle Directx10

le Directx11 sono un espansione modulare delle Directx10 e 10.1 quindi, si puo decidere di sviluppare utilizzando le vecchie librerie senza rischiare di avere problemi di compatibilità o altro, la situazione è diametralmente opposta rispetto il passato e il passaggio dalle Directx7-8-9.

cioè? io posso usare le directx 11 su una scheda video che supporta le 10? O sto dicendo una fesseria? :confused:

ghiltanas
19-01-2009, 12:51
cioè? io posso usare le directx 11 su una scheda video che supporta le 10? O sto dicendo una fesseria? :confused:

nn credo proprio :asd:, le dx11 hanno un'architettura differente. Puoi usare una shceda dx9 per usare le dx10? direi di no ;)

Mister Tarpone
19-01-2009, 12:55
vai vai.. aspetto il GT300... st'altra roba a 55 e 40nm in dx10 la salto..
! :sborone:a sto giro voglio il mostro come quando uscì G80 :sborone: !

M@tteo79
19-01-2009, 12:55
"Nvidia diminuirà le frequenze di clock e il consumo energetico, introducendo così anche il nuovo processo produttivo a 40nm"

Non è vero. Il processo produttivo a 40nm sarà introdotto tra circa 3 mesi con la presentazione di GT212 che di certo sarà una GPU a cui non mancherà la forza bruta.

Mister Tarpone
19-01-2009, 12:56
Che belle notizie da uno che aspetta a momenti la gtx295.

:sbonk:

ghiltanas
19-01-2009, 12:58
vai vai.. aspetto il GT300... st'altra roba a 55 e 40nm in dx10 la salto..
! :sborone:a sto giro voglio il mostro come quando uscì G80 :sborone: !

ma te sei il re della fascia media :p , se anche il mister passa alla fascia enthusiast dove andrà a finire sto mondo? :sob:










scherzo eh :Prrr:

newtechnology
19-01-2009, 13:00
...bah....la vedo grigia x nvidia...non so quanto ridurrà i consumi con una mimd......sono sempre + convinto ke verrà staccata da ati...ma....spettiamo e vediamo....
Bhe non ne sono molto convinto , devo ricordare che ati per battere la gtx 280 ha dovuto utilizzare una scheda dual gpu senza contare il fatto che la 4870 è uscita diversi mesi dopo , io da possessore di sli 295 , passato poco tempo fa da crossfirex 4870x2 x2 posso dire che la qualità di costruzione della reference nvidia e di gran lunga superiore a quella ati , la 4870x2 scaldava come un forno , le 295 sono praticamente fredde , e si overcloccano da paura.

Mister Tarpone
19-01-2009, 13:01
ma te sei il re della fascia media :p , se anche il mister passa alla fascia enthusiast dove andrà a finire sto mondo? :sob:
scherzo eh :Prrr:

a sto giro invece diventerò il principe della fascia alta :tie:

e che ti devo dire... :asd:

SwatMaster
19-01-2009, 13:21
Bene, voglio ATI e nVidia belli agguerriti. Non può che far bene al nostro portafogli. :D

coschizza
19-01-2009, 13:33
cioè? io posso usare le directx 11 su una scheda video che supporta le 10? O sto dicendo una fesseria? :confused:

veramente non è cosi le directx 9 sono differenti come struttura alle 10 mentre le 11 sono le 10 con nuovi moduli

quindi in realtà puoi usare un motore directx 11 su un hardware directx 10 ma le funzioni non supportate verranno disabilitate o al limite emulate via software.

è questa la fifferenza introdotta con vista e le directx 10. mentre in passato ogni directx era assestante ora si parte dalla base 10 e tutte le revisioni sono un superset delle funzioni in questo modo si facilita la vita ai produttori di hardware e software perche hanno uno standard unico che devono rispettare in pieno e non come in passato dove ogniuno faceva delle personalizzazioni proprietarie

sniperspa
19-01-2009, 13:41
Sembra si stiano mobilitando parecchio all'nvidia!:asd:

E stanno anche puntando molto a CUDA...

Obi 2 Kenobi
19-01-2009, 15:40
nn credo proprio :asd:, le dx11 hanno un'architettura differente. Puoi usare una shceda dx9 per usare le dx10? direi di no ;)

:asd:

Bhe comunque a me interessano di più i consumi.
Vedremo come andranno ste gt300 anche se ho già la sensazione che consumeranno quanto il titanic :asd:

Grey 7
19-01-2009, 15:42
il GT300 è previsto per novembre.
;)

in tempo per l'eventuale uscita di seven...cosi come fu per il g80 e l'imminente uscita di vista

Mister Tarpone
19-01-2009, 15:43
in tempo per l'eventuale uscita di seven...cosi come fu per il g80 e l'imminente uscita di vista

e così come fu per il g80 spero che venga fuori una cosa mostruosa come prestazioni...

ghiltanas
19-01-2009, 15:49
:asd:

Bhe comunque a me interessano di più i consumi.
Vedremo come andranno ste gt300 anche se ho già la sensazione che consumeranno quanto il titanic :asd:

mah nn ti credere..in fondo nvidia testerà i 40 nm con gt212 e arriverà discretamente preparata a gt300, e con i 40 nm si possono ottenre consumi veramente contenuti

Obi 2 Kenobi
19-01-2009, 15:50
"veramente contenuti" cosa vuol dire esattamente? :asd:
no perchè qui ognuno di noi ha un concetto tutto suo del "veramente contenuti" :asd:

ghiltanas
19-01-2009, 16:16
edit

ghiltanas
19-01-2009, 16:17
"veramente contenuti" cosa vuol dire esattamente? :asd:
no perchè qui ognuno di noi ha un concetto tutto suo del "veramente contenuti" :asd:

effettivamente il termine "veramente contenuti" nn ha molto senso :p
intendevo dire che imho avranno un'ottimo rapporto prestazioni/watt, però nn saprei quantificarlo :fagiano:

per farti un esempio: la 8800gt ha un ottimo rapporto prestazioni/watt (specie quando usci, che era seconda solo alla gtx ;) )

Grey 7
19-01-2009, 16:40
e così come fu per il g80 spero che venga fuori una cosa mostruosa come prestazioni...

credo che sarà cosi...come il g80 stravolse completamente lo scenario lo stesso farà il gt300. Non ho la palla di vetro ma ho questo presentimento :)

Mister Tarpone
19-01-2009, 16:43
credo che sarà cosi...come il g80 stravolse completamente lo scenario lo stesso farà il gt300. Non ho la palla di vetro ma ho questo presentimento :)

idem :asd: :cool:

appleroof
19-01-2009, 16:48
per vari motivi imho le dx11 saranno realmente utilizzate, basta pensare ad esempio che saranno utilizzate su 2 so diversi, invece che solo su uno, appena uscito, come successe per le 10. Inoltre vista sarà ormai parecchio diffuso e quindi sarà interesse delle software house puntare alle 11 :)

Io la vedrei così: queste schede dx11 faranno andare alla grande i giochi dx10, come quelle attuali fanno volare quelli dx9

insomma, se già nel corso dele 2010 uscissero giochi veramente dx10 , e con queste schede li si potrebbe far girare bene, io sarei già soddisfattissimo, per i "veri" giochi dx11 si aspetta l'evoluzione di queste prime schede dx11 (e i tempi forse coincideranno)

ovviamente tutto imho :D


quanto al chip in sè, se verranno confermati questi rumors, a me pare che Nvidia abbia viaggiato di pari passo con l'evoluzione dei giochi (o forse il contrario :D ) : con quelli "finti dx10" l'architettura attuale (con gli shader SIMD a frequenza molto più alta del core) rulla una bellezza, seguendo quella che sarebbe l'evoluzione dei giochi, si cambia architettura e si cambia tipologia di shader (ed evidentemente non solo);

Ati mi pare invece abbia agito all'opposto, da subito puntando su un'architettura più "adatta" alle dx10/dx11, affinandola ed evolvendone i concetti di fondo nel tempo, e questa strategia se all'inizio non ha pagato alla lunga industrialmente si è rivelata migliore, o cmq più lungimirante

ovviamente non sono un tecnico e quindi non mi esprimo in maniera tecnica :p

imho nessuna delle 2 strategie è veramente vincente, entrambe hanno avuto ed hanno tuttora evidenti pregi e difetti.

M@tteo79
19-01-2009, 17:08
Che GT300 abbia in se un grosso potenziale questo è indubbio in quanto il cambio di architettura per logica porta ad un aumento consistente delle prestazioni rispetto all'architettura precedente...

...tuttavia Nvidia ha deciso di fare una mossa inconsueta (rispetto a quanto abbiamo visto in questi anni) decidendo di presentare ad Aprile/Maggio il tanto chiacchierato GT212 il quale, leggendo le specifiche trapelate in rete, si preannuncia molto più potente di quanto la logica e il mercato (considerando quanto offre la concorrenza) necessiterebbe:

Detto questo ritengo che l'entrata in scena di questa GPU andrà ad ammorbidire l'eventuale salto prestazionale che si sarebbe ottenuto passando direttamente da GT200 a GT300 più di quanto non pensiate. Se, come è intuibile dalla grandezza del nuovo die (300mm2), GT212 si presenterà in 2 varianti (mono e dual chip) avremo grossomodo il seguente quadro prestazionale:

GT212 Mono --> Prestazioni allineate alla GTX295

GT212 Dual --> 1,7 volte la GTX295 (in quanto verranno presumibilmente usate frequenze più conservative rispetto alla soluzione a singolo chip)

GT300 Mono --> 2 volte la GTX295


... se così fosse tra GT300 e GT200 ci sarà un salto prestazionale notevole (100% - il doppio) ma tra GT212 e GT300 Dual la differenza sarà si e no del 20% ... il che non rappresenterebbe una "rivoluzione". Tutto il discorso cambia nel caso in cui venga intrapresa la strada della doppia GPU anche su GT300 ... nel qual caso avremo una GPU in grado di sviluppare un potenziale prestazionale decisamente più rilevante.

Tutto IMHO ovviamente.

appleroof
19-01-2009, 17:15
Che GT300 abbia in se un grosso potenziale questo è indubbio in quanto il cambio di architettura per logica porta ad un aumento consistente delle prestazioni rispetto all'architettura precedente...

...tuttavia Nvidia ha deciso di fare una mossa inconsueta (rispetto a quanto abbiamo visto in questi anni) decidendo di presentare ad Aprile/Maggio il tanto chiacchierato GT212 il quale, leggendo le specifiche trapelate in rete, si preannuncia molto più potente di quanto la logica e il mercato (considerando quanto offre la concorrenza) necessiterebbe:

Detto questo ritengo che l'entrata in scena di questa GPU andrà ad ammorbidire l'eventuale salto prestazionale che si sarebbe ottenuto passando direttamente da GT200 a GT300 più di quanto non pensiate. Se, come è intuibile dalla grandezza del nuovo die (300mm2), GT212 si presenterà in 2 varianti (mono e dual chip) avremo grossomodo il seguente quadro prestazionale:

GT212 Mono --> Prestazioni allineate alla GTX295

GT212 Dual --> 1,7 volte la GTX295 (in quanto verranno presumibilmente usate frequenze più conservative rispetto alla soluzione a singolo chip)

GT300 Mono --> 2 volte la GTX295


... se così fosse tra GT300 e GT200 ci sarà un salto prestazionale notevole (100% - il doppio) ma tra GT212 e GT300 Dual la differenza sarà si e no del 20% ... il che non rappresenterebbe una "rivoluzione". Tutto il discorso cambia nel caso in cui venga intrapresa la strada della doppia GPU anche su GT300 ... nel qual caso avremo una GPU in grado di sviluppare un potenziale prestazionale decisamente più rilevante.

Tutto IMHO ovviamente.

interessante e condivido l'analisi...però c'è una variante nel tuo discorso: poco tempo fà giravano rumors che vedevano gt212 cancellato e i 40nm sperimentati su un processore meno prestante...il che se da un lato imho avrebbe più senso dal punto di vista puramente prestazionale (e cmq i 40nm potrebbero essere sperimentati) in vista di gt300, come giustamente sottolineavi, dall'altro non permetterebbe ad Nvidia di "competere" in termini di immagine con una ipotetica 4970x2 (basata su 2xrv790), quindi appunto gt212 sarebbe una scheda solo d'immagine come le varie x2 che si sono succedute dalla 7950gx2 in poi (peraltro in sè schede potenti e prestanti, intendiamoci)

io cmq ovviamente punterei direttamente su gt300, per il supporto dx11 e il conseguente salto architetturale, imho questo anno è di passaggio, e come dico da almeno sei mesi, spendere più di 200-max 250euro per una qualsiasi vga non ne vale proprio la pena (fermo restando che uno per me può spendere 1000 euro ogni mese per una vga, se vuole)

Obi 2 Kenobi
19-01-2009, 17:17
effettivamente il termine "veramente contenuti" nn ha molto senso :p
intendevo dire che imho avranno un'ottimo rapporto prestazioni/watt, però nn saprei quantificarlo :fagiano:

per farti un esempio: la 8800gt ha un ottimo rapporto prestazioni/watt (specie quando usci, che era seconda solo alla gtx ;) )

io so che la 9600gt ha + o - le stesse prestazioni della 8800gt ma in compenso consuma meno.
Ecco io mi auguro che esca una cosa del genere.

Mister Tarpone
19-01-2009, 17:30
io so che la 9600gt ha + o - le stesse prestazioni della 8800gt ma in compenso consuma meno.
Ecco io mi auguro che esca una cosa del genere.

va un 15-20% meno.

wispo
19-01-2009, 17:51
Che GT300 abbia in se un grosso potenziale questo è indubbio in quanto il cambio di architettura per logica porta ad un aumento consistente delle prestazioni rispetto all'architettura precedente...

...tuttavia Nvidia ha deciso di fare una mossa inconsueta (rispetto a quanto abbiamo visto in questi anni) decidendo di presentare ad Aprile/Maggio il tanto chiacchierato GT212 il quale, leggendo le specifiche trapelate in rete, si preannuncia molto più potente di quanto la logica e il mercato (considerando quanto offre la concorrenza) necessiterebbe:

Detto questo ritengo che l'entrata in scena di questa GPU andrà ad ammorbidire l'eventuale salto prestazionale che si sarebbe ottenuto passando direttamente da GT200 a GT300 più di quanto non pensiate. Se, come è intuibile dalla grandezza del nuovo die (300mm2), GT212 si presenterà in 2 varianti (mono e dual chip) avremo grossomodo il seguente quadro prestazionale:

GT212 Mono --> Prestazioni allineate alla GTX295

GT212 Dual --> 1,7 volte la GTX295 (in quanto verranno presumibilmente usate frequenze più conservative rispetto alla soluzione a singolo chip)

GT300 Mono --> 2 volte la GTX295


... se così fosse tra GT300 e GT200 ci sarà un salto prestazionale notevole (100% - il doppio) ma tra GT212 e GT300 Dual la differenza sarà si e no del 20% ... il che non rappresenterebbe una "rivoluzione". Tutto il discorso cambia nel caso in cui venga intrapresa la strada della doppia GPU anche su GT300 ... nel qual caso avremo una GPU in grado di sviluppare un potenziale prestazionale decisamente più rilevante.

Tutto IMHO ovviamente.

:eek: :eek: :eek: Eh la Madonna....... :eek:
Dici? Pazzesco, a sto punto se devo farmi il pc nuovo ci metto dentro, invece che la GTX285, una vga "provvisoria" (9800GTX+)........

sniperspa
19-01-2009, 18:59
Che GT300 abbia in se un grosso potenziale questo è indubbio in quanto il cambio di architettura per logica porta ad un aumento consistente delle prestazioni rispetto all'architettura precedente...
-cut-


imho non penso che gt212 avrà un vantaggio così consistente su gt200 ma sarò lieto di essere smentito...

gabi.2437
19-01-2009, 19:04
Allegria per tutti i foldatori :D

A.L.M.
19-01-2009, 20:35
Che GT300 abbia in se un grosso potenziale questo è indubbio in quanto il cambio di architettura per logica porta ad un aumento consistente delle prestazioni rispetto all'architettura precedente...

...tuttavia Nvidia ha deciso di fare una mossa inconsueta (rispetto a quanto abbiamo visto in questi anni) decidendo di presentare ad Aprile/Maggio il tanto chiacchierato GT212 il quale, leggendo le specifiche trapelate in rete, si preannuncia molto più potente di quanto la logica e il mercato (considerando quanto offre la concorrenza) necessiterebbe:

Detto questo ritengo che l'entrata in scena di questa GPU andrà ad ammorbidire l'eventuale salto prestazionale che si sarebbe ottenuto passando direttamente da GT200 a GT300 più di quanto non pensiate. Se, come è intuibile dalla grandezza del nuovo die (300mm2), GT212 si presenterà in 2 varianti (mono e dual chip) avremo grossomodo il seguente quadro prestazionale:

GT212 Mono --> Prestazioni allineate alla GTX295

GT212 Dual --> 1,7 volte la GTX295 (in quanto verranno presumibilmente usate frequenze più conservative rispetto alla soluzione a singolo chip)

GT300 Mono --> 2 volte la GTX295


... se così fosse tra GT300 e GT200 ci sarà un salto prestazionale notevole (100% - il doppio) ma tra GT212 e GT300 Dual la differenza sarà si e no del 20% ... il che non rappresenterebbe una "rivoluzione". Tutto il discorso cambia nel caso in cui venga intrapresa la strada della doppia GPU anche su GT300 ... nel qual caso avremo una GPU in grado di sviluppare un potenziale prestazionale decisamente più rilevante.

Tutto IMHO ovviamente.

Vabbè direi di non esagerare con le percentuali scagliate nello spazio... :asd:
Già la GT212 non è così vicina nel tempo, ma riuscire a prevedere le prestazioni di una scheda senza manco sapere le specifiche mi pare troppo... :sofico:
Tra l'altro il passaggio ad un'architettura MIMD potrebbe portare cambiamenti importanti, tali da non rendere esattamente comparabili le specifiche... Aspettiamo e vedremo. ;)

Obi 2 Kenobi
19-01-2009, 20:44
va un 15-20% meno.

si lo so ma entrambe hanno comunque dei consumi che, e questo vale solo per il sottoscritto, sono accettabili.
Se la gt300 dovesse avere gli stessi consumi della 9600gt o della 8800gt, allora, e solo allora (e parlo sempre per me, eh? XD), sarebbe un ottima scheda video.
Poi però bisognerebbe constatare anche il prezzo.

Capozz
19-01-2009, 21:23
idem :asd: :cool:

Mah insomma, io non sono troppo convinto, non credo che amd starà li a guardare questa volta :asd:

ghiltanas
19-01-2009, 22:39
Mah insomma, io non sono troppo convinto, non credo che amd starà li a guardare questa volta :asd:

lo spero bene, vorrei ricordare quanto costassero la gtx e la gts al lancio...

Grey 7
19-01-2009, 22:43
penso che il prezzo di lancio sarà comunque alto. Il primo che arriva sul mercato "spara" la mazzata. Appena l'altro gli corre dietro per mettergli il bastone fra le ruote i prezzi si abbassano. Sempre che la soluzione della concorrenza sia degna. Non come r600, se vi ricordate.

ghiltanas
19-01-2009, 22:55
penso che il prezzo di lancio sarà comunque alto. Il primo che arriva sul mercato "spara" la mazzata. Appena l'altro gli corre dietro per mettergli il bastone fra le ruote i prezzi si abbassano. Sempre che la soluzione della concorrenza sia degna. Non come r600, se vi ricordate.

si però col g80 nn c'erano le fascie, si passava dalla gts da 640 a quel cesso di 8600gts che nn era possibile considerare di fascia media. Invece in seguito la fascia media è cresciuta tantissimo, basti pensare che adesso con quello che pagavi una 8600gts ci prendi una 4870 :eek: .
E cmq sono sicuro che ati stavolta nn si farà trovare impreparata ;) , almeno questa è una mia idea...

ps yossarian dov'è quando serve? :asd:

M@tteo79
20-01-2009, 09:27
Già la GT212 non è così vicina nel tempo, ma riuscire a prevedere le prestazioni di una scheda senza manco sapere le specifiche mi pare troppo

Sono solo ipotesi che partono dall'analisi delle specifiche di GT212... niente di più. :)


non credo che amd starà li a guardare questa volta :asd:

Mah... da quello che sappiamo fin'ora non sembra che in cantiere ci siano grosse novità. Per AMD sarà già un successo riuscire a competere con GT212 (mono e dual) con il suo RV790. Questa volta non basterà la tattica dei prezzi aggressivi... ci vuole sostanza.


si però col g80 nn c'erano le fascie, si passava dalla gts da 640 a quel cesso di 8600gts che nn era possibile considerare di fascia media.

Dimentichi la mia gloriosa scheda: 8800GTS 320Mb pagata 199€ un mese dopo la sua comparsa sul mercato. :p

ghiltanas
20-01-2009, 11:44
Dimentichi la mia gloriosa scheda: 8800GTS 320Mb pagata 199€ un mese dopo la sua comparsa sul mercato. :p

no nn la dimentico, ma c'è voluto un pò di tempo prima che uscisse, + hai atteso un ulteriore mese per comprarla, quindi ovviamente il prezzo si era abbassato ;)

RICKYL74
23-01-2009, 22:53
le Directx11 sono per windows 7 e windows vista quindi all'uscita il parco di utenza sarà molto ampio rispetto alla storia recente delle Directx10

le Directx11 sono un espansione modulare delle Directx10 e 10.1 quindi, si puo decidere di sviluppare utilizzando le vecchie librerie senza rischiare di avere problemi di compatibilità o altro, la situazione è diametralmente opposta rispetto il passato e il passaggio dalle Directx7-8-9.

Ummmh
E chi l'ha detto che le DX11 sono esclusiva di Windows 7? Vista le supporterà come dichiarato da Microsoft: le DirectX 11 offriranno dei vantaggi con hardware DirectX 10, le DX 11 consentiranno di utilizzare la GPU per operazioni che solitamente svolge il processore o i processori, quindi una migliore gestione del multi-threaded "Tessellation". Figure più realistiche anche se viste da vicino, quindi livelli di dettaglio superiore.

Fondamentalmente grosse novità non ne vedo, semplicemente stanno correggendo "e quindi migliorando" i problemi riscontrati con le DX 10.

Apotek
26-01-2009, 18:37
Io credo che se nvidia si muove per le directx11 allora il mondo dei videogame si muoverà verso directx11-Presi la 3870 abbagliato anche dalle direcxt 10.1 quando le 8800gt era ancora il best buy del momento ma non avevo fatto i conti che il 90% delle software house era in mano alla verdina-Considerando le prestazioni potenti delle attuali schede credo che la compatibilità dx11 sarà il motivo principale che farà cambiare scheda a molti gamers e consideranno che in pochi passeranno subito a Windows 7 la legge di mercato impone che le dx11 gireranno tranquillamente anche su Vista se Nvidia e software house vorranno vendere.Non sono uno statista ma da "ignorante" quale sono dovrebbe funzionare cosi' se non si vogliono fare gli errori del passato-Teniamo presente anche il fattore pirateria.....che di per se è una cosa dannosa per le vendite software ma non dimentichiamo che il download con il Mulo o chi per esso è una mana dal cielo per la vendita hardware.