View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Andrea deluxe
30-07-2009, 12:49
mettere in ginocchio la mia attuale config. :fagiano:!!
QUALE?
Mister Tarpone
30-07-2009, 12:51
QUALE?
Il PH II 720be con 4gigozzi di ram e GTX260 216sp 730/1520/2300 http://www.pctunerup.com/up//results/_200907/20090730130542_dentone.gif
ciao http://www.pctunerup.com/up//results/_200907/20090730130542_dentone.gif
Kharonte85
30-07-2009, 12:53
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/
Me lo sentivo che quest'anno non sarebbe arrivato...:fagiano: Pero' sembra davvero interessante :)
Andrea deluxe
30-07-2009, 13:01
Me lo sentivo che quest'anno non sarebbe arrivato...:fagiano: Pero' sembra davvero interessante :)
sarebbe stato perfetto per novembre.....
ma speriamo che vada tutto ok col silicio....
vorrei giocarmi tutti i titoloni in uscita al max del dettaglio possibile:p
michelgaetano
30-07-2009, 13:02
alla fine cmq è una buona notizia considerando che fino a poco tempo fa si dubitava di sto tape out del gt300... ed invece a sto punto almeno pare confermato giusto?
poi anche se la scheda esce a gennaio / febbraio a me andrebbe bene uguale... tanto da qui fino all'arrivo del monster non credo che uscirà niente capace di mettere in ginocchio la mia attuale config. :fagiano:!!
Se esce qualcosa che mette in ginocchio quella config siam tutti nella merda fino al collo :asd:
Il tape out sembra confermato, spero si sbaglino nella data però :|
Kharonte85
30-07-2009, 13:05
sarebbe stato perfetto per novembre.....
ma speriamo che vada tutto ok col silicio....
vorrei giocarmi tutti i titoloni in uscita al max del dettaglio possibile:p
Su un coso così grosso e nuovo la vedo dura...io lo considero per il 2010 poi se dovesse uscire prima meglio (ma al momento non ci spero)
Mister Tarpone
30-07-2009, 13:09
non vedo crysis 2 in uscita, ma solo conversioni da console. quindi vai tranquillo ,che la 295 dovrebbe andare benone :asd: (a meno che sti prossimi titoli in uscita non vengan ottimizzati tutti di merda :asd:)
kiriranshelo
30-07-2009, 14:30
Quindi Febbraio se va tutto liscio
non può farle uscire così tanto tempo dopo ATI. Sopratutto dopo l'uscita di 7 e le vacanze natalizie. Penso che questi rumors siano fatti apposta per destabilizzare ATI e usciranno tra novembre e dicembre perchè di tempo per lavorarci sopra ce lo hanno avuto direi...tra rebranding e altro...
Nuove notizie sulle non molto prossime GPU Nvidia: :D
http://www.tomshw.it/news.php?newsid=19015
http://www.tomshw.it/news.php?newsid=18548
Si puo' pero' estrapolare qualche informazione utile.
20 Teraflops con 5000 "core"/stream processor sono 4 gigaflops a core. Oggi un core di GT200 fa 3 flops per ciclo di clock, la frequenza dei core quindi dovrebbe rimanere costante (intorno ai 1300Mhz).
Si puo' fare una riflessione anche sui tempi. Nvidia lancia un nuovo chip high-end ogni 18 mesi.
Giugno 2008 -> 240 sp
Refresh 55nm
Novembre 2009 -> 512sp (?) (40nm)
Refresh 32nm
Giugno 2011 -> 1024sp (?) (28nm)
Novembre 2013 -> 2048 (?) (22nm)
Refresh 16nm
Giugno 2015 -> 4096 (?) (11nm)
Ergo, "GT300" (che sembra non si chiami affatto cosi'), dovrebbe avere intorno ai 500 core/sp, fare 3-4 flops per ciclo di clock, con una frequenza operativa di 1 - 1,3 Ghz e prestazioni di 2+ Teraflops.
I rumor finora circolati dovrebbero quindi essere corretti.
kiriranshelo
31-07-2009, 12:39
Sarà quasi sicuramente presentata entro la fine dell'anno, anche solo per creare qualche pensiero ad AMD, ma quanto all'essere effettivamente sul mercato credo che nel 2009 non se ne parli proprio.
sarebbero in pratica 6 mesi di ritardo rispetto ad ATI!!! (sembra che esca a metà agosto se non erro). Troppo, veramente troppo tempo dopo, perderebbe troppi soldi e troppo share, e se anche facesse una scheda il doppio più potente di ATI, sarebbero già pronti (ATI ndr) a portare sul mercato, di lì a poco, un'evoluzione del chip stesso
Athlon 64 3000+
31-07-2009, 12:43
sarebbero in pratica 6 mesi di ritardo rispetto ad ATI!!! (sembra che esca a metà agosto se non erro). Troppo, veramente troppo tempo dopo, perderebbe troppi soldi e troppo share, e se anche facesse una scheda il doppio più potente di ATI, sarebbero già pronti (ATI ndr) a portare sul mercato, di lì a poco, un'evoluzione del chip stesso
Se fosse vero ci si troverebbe con la situazione completamente ribaltata rispetto ai tempi di R600 vs G80 e state certi che non farà davvero piacere a nessuno.:mad:
michelgaetano
31-07-2009, 12:58
AMD dovrebbe uscire a fine settembre con i nuovi chip.
D'altra parte si era mossa per tempo su questa strada progettuale che parte da R600, e quindi è naturale che si trovi in vantaggio nei tempi oggi, mentre nVidia è al momento in un progetto completamente nuovo.
Comunque sì, il rischio attuale per nVidia è di trovarsi sul mercato con G300 quando AMD avrà già un refresh o sarà vicino ad averlo, della lineup DX11.
Più che altro se esce davvero attorno a febbraio sono:
Ottobre
Novembre
Dicembre
Gennaio
4 mesi non sono tanti per un refresh ma neanche pochissimi - almeno per come vanno oggi le cose; se alla AMD son furbi potrebbero "conservare" qualcosa in termini prestazionali.
Athlon 64 3000+
31-07-2009, 13:04
Il problema di Nvidia protrebbe essere magari con il fatto di aver voluto fare un altro mega chippone che gli potrebbe causare non pochi problemi.
Per me GT300 sarà comunque una ottima architettura e completamente diversa da GT200b e avrà delle prestazioni da urlo.
michelgaetano
31-07-2009, 13:11
Io un DX11-refresh da AMD lo vedo per Luglio 2010...
Edit: comunque tornerei a parlare di G300 :D
È vero, mi confondo tra i topic aspettando :asd:
kiriranshelo
31-07-2009, 13:42
...
4 mesi non sono tanti per un refresh ma neanche pochissimi - almeno per come vanno oggi le cose; se alla AMD son furbi potrebbero "conservare" qualcosa in termini prestazionali.
Io un DX11-refresh da AMD lo vedo per Luglio 2010...
Edit: comunque tornerei a parlare di G300 :D
È vero, mi confondo tra i topic aspettando :asd:
se non erro il chip nuovo di pacca, senza contare i refresh, esce circa un anno dopo al precedente. Il reflesh è avvenuto intorno a febbraio/marzo quindi direi che Nvidia e ATI (refresh) combacino se G300 è pronto per la distribuzione a febbraio
Il problema di Nvidia protrebbe essere magari con il fatto di aver voluto fare un altro mega chippone che gli potrebbe causare non pochi problemi.
Per me GT300 sarà comunque una ottima architettura e completamente diversa da GT200b e avrà delle prestazioni da urlo.
esatto. C'è da contare anche questo, ATI ha già fatto delle prove prima di terminare lo sviluppo del nuovo chip a differenza di Nvidia. Se Nvidia perde terreno e così tanto terreno prende una bruttissima piega...
Non è una conferma, ma una raccolta di rumors precedenti :D
Anche perché Tom's non conferma niente, mai, non è attendibile praticamente su nulla, visto che spesso e volentieri quelli di Tom's non sono nemmeno in grado di fare traduzioni decenti dall'inglese e addirittura invertono il significato degli articoli e delle interviste che citano :asd:
Lo so, ma infatti ho letto l'articolo che linkano come fonte. Non mi fido di Toms :D
http://www.eetimes.com/rss/showArticle.jhtml?articleID=218900011
"Now that we are no longer scaling single-thread processors, you have no alternative," Dally said.
Throughput processors have hundreds of cores today and will have thousands of cores by 2015, Dally said. By then, Nvidia will have GPUs implemented on 11 nm process technology that feature roughly 5,000 cores and 20 teraflops of performance, Dally predicted.
William Dally e' il Chief Scientist di Nvidia.
kiriranshelo
31-07-2009, 14:24
...esatto. C'è da contare anche questo, ATI ha già fatto delle prove prima di terminare lo sviluppo del nuovo chip a differenza di Nvidia. Se Nvidia perde terreno e così tanto terreno prende una bruttissima piega...
scusate se mi autoquoto ma mi è venuta una cosa in mente. i 32nm buick per le schede video non è pronto per febbraio/marzo? non è che Nvidia ritarda per questa uscita ma anticipa il downsizing del die del chip? in questo caso sarebbe un'ottima scelta in quanto bypasserebbe i 40nm che danno molti problemi...che dite?
Foglia Morta
31-07-2009, 14:26
scusate se mi autoquoto ma mi è venuta una cosa in mente. i 32nm buick per le schede video non è pronto per febbraio/marzo? non è che Nvidia ritarda per questa uscita ma anticipa il downsizing del die del chip? in questo caso sarebbe un'ottima scelta in quanto bypasserebbe i 40nm che danno molti problemi...che dite?
impossibile un passaggio da full-node a full-node... se è stato progettato a 40nm si farà a 40nm
Foglia Morta
31-07-2009, 14:43
:confused:
Il concetto di full-node è piuttosto discutibile, esistono i nodes, non i full e gli half.
In ogni caso, se vuoi metterla in quei termini 40nm è l'half node fra 45 e 32, quindi 45nm e 32nm sarebbero un passo intero, non da 40nm a 32nm.
Ad ogni modo non è pensabile che a febbraio esca a 32nm, magari a luglio c'è qualche possibilità, e proprio questo mi faceva pensare ad un refresh delle AMD in uscita a settembre sul nuovo nodo a luglio prossimo
40nm è lo shrink dei 45nm , i 45nm adatti alle gpu TSMC non li ha mai messi a disposizione , 40nm è l'half node derivato da 45nm. I 32nm utilizzano librerie differenti... non c'è nessun processo automatizzato che consenta il passaggio dai 40nm ai 32nm ( come invece c'è tra 65nm e 55nm o tra 90nm e 80nm ), devono per forza di cose ridisegnare il chip per quel processo produttivo
kiriranshelo
31-07-2009, 15:41
Certo, il problema è questo. Dovrebbero rifare tutto, per questo dico che se ci avessero ripensato non vedresti nulla almeno prima di luglio (ovviamente non se ci ripensassero oggi, si andrebbe al 2011)
in realtà non c'è nessuna notizia ufficiale sul processo utilizzato e sulla dimensione. Ma sono rumors, potrebbe trattarsi benissimo su un G200 refreshato discremente giusto per traghettare Nvidia verso il nuovo processo produttivo
Mister Tarpone
31-07-2009, 17:07
Non c'è molta scelta, o è a 55nm o a 40nm. Meno no a meno di non uscire almeno nel 3Q2010
quoto :sborone:
halduemilauno
01-08-2009, 09:28
http://www.hardware-infos.com/news.php?news=3117
;)
http://www.hardware-infos.com/news.php?news=3117
;)
ho provato a tradurre con google ma :mc: da quel che ho intuito "lancio di carta" entro fine anno e poi in volume nel 2010 ? o no ?
Kharonte85
01-08-2009, 09:47
ho provato a tradurre con google ma :mc: da quel che ho intuito "lancio di carta" entro fine anno e poi in volume nel 2010 ? o no ?
Nvidia G300 with final Tape Out
In the middle of May reported we exclusively on the fact that Nvidias NEXT generation chip, would have been taken G300, successfully in a1-Stepping in enterprise. At that time we could not say yet surely whether the chip changes in such a way into the mass production or is a renewed Redesign of emergencies.
In the meantime we that a renewed Redesign was accomplished, know within the last week. The chip is present now in (final) a2-Stepping.
The late Tape Out leaves a hard Launch for this year becomes improbable. One can speculate that Nvidia will not announce the chip still in this year (PAPER Launch), to master in order to shift potential wheel on buyers in wait position large numbers of items seems however.
In the optimal case Nvidia will be able to take up the mass production after tests lining up now in three months.
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D3117&lp=de_en&btnTrUrl=Traduci
Tedesco --> inglese e per magia tutto chiaro...:D
halduemilauno
01-08-2009, 10:28
ho provato a tradurre con google ma :mc: da quel che ho intuito "lancio di carta" entro fine anno e poi in volume nel 2010 ? o no ?
"Im Optimalfall wird Nvidia nach jetzt anstehenden Tests in drei Monaten die Massenproduktion aufnehmen können."
ma in caso ottimale fra tre mesi è pronta la produzione di massa.
cmq li vengono citate delle date "metà maggio" e "settimana scorsa" posso rettificarle/precisarle in rispettivamente 16 aprile e 9 luglio.
in merito ai tre mesi, e sempre per la precisione, io so di 10 novembre.
in attesa di conferme/smentite un saluto a tutti.
;)
Legolas84
01-08-2009, 11:04
"Im Optimalfall wird Nvidia nach jetzt anstehenden Tests in drei Monaten die Massenproduktion aufnehmen können."
ma in caso ottimale fra tre mesi è pronta la produzione di massa.
cmq li vengono citate delle date "metà maggio" e "settimana scorsa" posso rettificarle/precisarle in rispettivamente 16 aprile e 9 luglio.
in merito ai tre mesi, e sempre per la precisione, io so di 10 novembre.
in attesa di conferme/smentite un saluto a tutti.
;)
Ti leggo da tantissimo e mi sono sempre chiesto se lavori in nVIDIA per avere tutte queste info? :)
Mister Tarpone
01-08-2009, 15:15
è l'agente segreto Hal 007. per questo sa molte cose.
:sborone:
è l'agente segreto Hal 007. per questo sa molte cose.
:sborone:
Quoto :cool:
kinotto88
01-08-2009, 15:22
è l'agente segreto Hal 007. per questo sa molte cose.
:sborone:
http://images.coolchaser.com/themes/t/113657-www.avatars.cc-data-thumbnails-5-007-James-Bond.jpg____:read:
Mister Tarpone
01-08-2009, 15:32
Quoto :cool:
http://images.coolchaser.com/themes/t/113657-www.avatars.cc-data-thumbnails-5-007-James-Bond.jpg____:read:
:cool: :sborone: :cool: :sborone:
appleroof
02-08-2009, 11:01
"Im Optimalfall wird Nvidia nach jetzt anstehenden Tests in drei Monaten die Massenproduktion aufnehmen können."
ma in caso ottimale fra tre mesi è pronta la produzione di massa.
cmq li vengono citate delle date "metà maggio" e "settimana scorsa" posso rettificarle/precisarle in rispettivamente 16 aprile e 9 luglio.
in merito ai tre mesi, e sempre per la precisione, io so di 10 novembre.
in attesa di conferme/smentite un saluto a tutti.
;)
ottimo, non ricordo che hai cannato qualcosa riguardo news dal mondo Nvidia...spero tu mantenga la "tradizione" :D così entro fine anno avrò tutti gli elementi per decidere...;)
Horizont
02-08-2009, 17:06
http://images.coolchaser.com/themes/t/113657-www.avatars.cc-data-thumbnails-5-007-James-Bond.jpg____:read:
senza contare che il suo avatar + pierce brosnan sono una enorme citazione ai simpson...il computerino tutto fare di casa simpson che voleva affettare homer con il tritarifiuti del tavolo in uno degli speciali "la paura fa novanta" :D
per quanto riguarda la notizia, magari!!! speriamo sia così
kiriranshelo
06-08-2009, 08:21
Questo inoltre mi fa pensare...
Se fosse a 55nm forse avrebbero più senso le dimensioni del chip che si ventilano, d'altra parte vorrebbe dire che le difficoltà sono architetturali e non produttive, situazione inversa all'ipotesi, secondo me più comunque più credibile, di processo a 40nm
55nm penso sia impossibile. dovrebbe aumentare prestazioni, diminuire il calore e pure il consumo energetico... no?
kiriranshelo
06-08-2009, 12:56
http://www.semiaccurate.com/2009/08/05/four-more-gt300-variants-tip/
Impossibile no, molto improbabile senz'altro ;)
pensandoci bene e guardato l'articolo che hai postato potrebbe veramente uscire a 55nm e saltare i 40nm per puntare a rifarsi direttamente con i 32nm (o 30nm...?). Così gli permetterebbe di contrastare ATI questo fine anno e tenere duro fino a metà dell'anno prossimo per contrastare ATI ed eventualmente Intel. plausibile, perchè Nvidia non può lasciare spazio a nessuna delle concorrenti, sopratutto ora che Nvidia ha solo un bacino di riferimento rispetto a loro
Andrea deluxe
07-08-2009, 07:35
per soddisfare la domanda............http://www.techpowerup.com/101042/Elpida_Enters_Graphics_Memory_Business.html
halduemilauno
11-08-2009, 09:05
Nell'attesa di nuove GTX(previste per il 10 novembre P.V. ???)ecco alcune news...
http://www.brightsideofnews.com/news/2009/8/7/nvidias-q209-earnings-exceed-expectations.aspx
" After a certain stale period, nVidia is beginning to bring positive results, surprising analysts and typical doomsayers. The company reported revenue of 777 million greenbacks, 16.9% more than in a previous quarter and achieved a profit of 38 million USD. nVidia now has 1.45 billion dollars in the bank [138 million more than in Q1'09], and zero debt."
;)
Athlon 64 3000+
11-08-2009, 12:22
http://www.pcgameshardware.com/aid,692145/Nvidias-Chief-Scientist-Bill-Dally-about-GPU-technology-DirectX-11-and-Intels-Larrabee/News/
Andrea deluxe
12-08-2009, 09:19
e i motori si alleggeriscono....:sbonk:
http://www.pcgameshardware.com/aid,692165/Cryengine-3-New-technology-screens-emerge/News/
Mister Tarpone
13-08-2009, 01:23
e i motori si alleggeriscono....:sbonk:
http://www.pcgameshardware.com/aid,692165/Cryengine-3-New-technology-screens-emerge/News/
:asd:
120fps con la GTX280 lol!!
certo.. è anche vero che non è che stesse calcolando tantissima roba :D
kiriranshelo
13-08-2009, 12:36
è un pò vecchia però conferma che entro la fine dell'anno, entreranno nel grande mondo delle dx11 :asd:
http://www.pchs.it/News/Schede-Video/nvidia-conferma-dx11-entro-lanno.html
halduemilauno
13-08-2009, 13:52
è un pò vecchia però conferma che entro la fine dell'anno, entreranno nel grande mondo delle dx11 :asd:
http://www.pchs.it/News/Schede-Video/nvidia-conferma-dx11-entro-lanno.html
ok vecchia ma...
"Martedì 23 Giugno 2009 15:10"
Horizont
14-08-2009, 11:19
http://www.semiaccurate.com/2009/08/13/gt300-have-nvio-chip/
Pare che G300 avrà un chip NVIO esterno
certo che da un sito che si chiama semiaccurate :D :D :D :D
Mister Tarpone
14-08-2009, 11:50
considero charlie così: http://forum.beyond3d.com/showpost.php?p=1321105&postcount=1775
:asd:
Considero Charlie una delle fonti più affidabili...
premetto che non lo conosco, quindi non posso darne un giudizio, tuttavia il tono del suo articolo mi è parso contro nvidia più che un commento di un giornalista ad una notizia.
Andrea deluxe
14-08-2009, 15:41
La notizia è il chip NVIO, il resto è una analisi che si può condividere o meno, che io condivido nei termini e su cui non trovo niente che non torni. Ma è un'analisi, non la notizia, infatti ho riportato il link aggiungendo la sola notizia, che mi sembra abbia una sua importanza: confermerebbe il fatto che G300 è un chip grande, con tutte le conseguenze del caso se dall'altro lato della barricata si confermerà invece un chip piccolo.
si ma e' scontato che l' NVIO sia esterno.....
immaginate un wafer con un die gt300 perfetto ma con la parte dedicata alla visualizzazione danneggiata......
quanti bei 55$(costo per die gt300) andrebbero persi.....?
e' una scelta dovuta quella di mettere l'nvio esterno per le gpu con MOLTI transistor....
ricordate che ogni $ risparmiato, per loro e' vita...
Mister Tarpone
14-08-2009, 17:00
Non ho capito se ti sembra incredibile che abbia un NVIO esterno come tante GPU prima di questa o cosa...
no. trovo incredibile che sto charlie sia ancora in circolazione http://img15.imageshack.us/img15/2082/rotflf.gif (http://img15.imageshack.us/i/rotflf.gif/)
Mister Tarpone
14-08-2009, 17:07
certo che da un sito che si chiama semiaccurate :D :D :D :D
:D
premetto che non lo conosco, quindi non posso darne un giudizio, tuttavia il tono del suo articolo mi è parso contro nvidia più che un commento di un giornalista ad una notizia.
yes, esatto..quando si parla di NV, è sempre stato velenoso a quel modo (ma che gli hanno ammazzato il cane? rotfl)
ed a me in quei casi sembra tutto tranne che un giornalista serio http://img15.imageshack.us/img15/2082/rotflf.gif (http://img15.imageshack.us/i/rotflf.gif/)
michelgaetano
14-08-2009, 17:29
Anche a me il tizio pare piuttosto schierato, e non è certo una qualità in un giornalista.
A prescindere da questo, cosa ne pensate di quelle stime che faceva notare il tizio? Anche volendo credere che è rimato molto largo per andare contro Nvidia, non vi sembrano quei costi indicati?
leggevo di una convention in cui nvidia mostrava un test di directx11 con scheda gtx 285
michelgaetano
14-08-2009, 18:50
Se fare un'analisi è essere schierati... non ha scritto che nVidia è brutta e cattiva, ma ha fatto un'analisi piuttosto puntuale della situazione di mercato, e non ho visto nessun passaggio che non avesse una logica anche abbastanza evidente. Quindi qual è il punto? Se la situazione è evidentemente difficile per nVidia a causa delle scelte architetturali, allora non si deve dire per non essere schierati?
Suvvia...
Assolutamente, era solo l'impressione che ne ricavavo. Che sia schierato o meno me ne importa solo fin quando la cosa influisce sull'analisi.
Ad ogni modo è stato molto largo, ma a vantaggio di nVidia, visto che non ha messo in conto gli yelds, che evidentemente contando su un chip molto più grande, saranno proporzionalmente molto più bassi. Questo rende la situazione per nVidia ancora peggiore di quanto scritto li.
Se AMD, come spero, la tirerà sui prezzi per tutte le tasche come succede da un paio di anni, i vantaggi per gli utenti saranno certi, un po' meno quelli per nVidia...
Ne riparleremo quando G300 arriverà nei negozi...
La situazione sembra abbastanza grave se aggiungiamo anche il ritardo che ci sarà rispetto ad AMD che esce prima.
Rimane sempre il Q1 2010 come uscita di G300 in volumi? Per quei tempi AMD potrebbe anche pensare ad un lieve refresh (qualcosa alla gtx 260 216) e rompere le uova nel paniere a quelli di Santa Clara.
Mister Tarpone
14-08-2009, 18:52
c'è modo e modo per dire le cose.
lui molto spesso ha usato i modi sbagliati ( nVidia è brutta e cattiva)
suvvia è così, punto e basta.
chiuso il discorso charlie.
Mister Tarpone
14-08-2009, 19:06
cmq da non esperto mi domando una cosa.
ma se fare la scheda con il chip grande creasse tutta sta difficoltà ad nvidia, perchè con la nuova architettura @ 40nani, dopo tutto il tempo che ha avuto, vuole riproporre la stessa filosofia costruttiva delle G80 e le ultime GT200 :confused:
ma ma ma ma mah.
cmq si sa poco di sta scheda..
boh.. l'ultima volta avevo letto di 512bit, GDDR5, 512sp ..ma sarà proprio così??
chissà..ma penso che quando usciranno le ati 5000, nvidia inizierà (anche per mantenere l'interesse vivo per le loro schede) a bombardarci di news sul gt300..e quindi almeno sapremo qualche cosa di più dettagliato ;)
michelgaetano
14-08-2009, 19:08
cmq da non esperto mi domando una cosa.
ma se fare la scheda con il chip grande creasse tutta sta difficoltà ad nvidia, perchè con la nuova architettura @ 40nani, dopo tutto il tempo che ha avuto, vuole riproporre la stessa filosofia costruttiva delle G80 e le ultime GT200 :confused:
Voglio yossarian :D
Mister Tarpone
14-08-2009, 19:14
vorrei sentire il parere di più di una persona, per esempio mi piacerebbe sentire che ne pensa una persona neutrale come leoneazzurro..
michelgaetano
14-08-2009, 19:20
vorrei sentire il parere di più di una persona, per esempio mi piacerebbe sentire che ne pensa una persona neutrale come leoneazzurro..
Oddio parlare così per schieramenti non è granchè...
Nominavo comunque yossarian perchè la domanda che hai posto presuppone necessariamente certe conoscenze, e come lui ce ne son pochi da queste parti.
Mister Tarpone
14-08-2009, 19:22
beh io ho nominato leone perchè mi ricordo ci capiva parecchio pure lui di ste cose, poi è tanto che non posta + da queste parti :asd:
michelgaetano
14-08-2009, 19:25
beh io ho nominato leone perchè mi ricordo ci capiva parecchio pure lui di ste cose, poi è tanto che non posta + da queste parti :asd:
In effetti neanche io lo vedo da un pezzo... :(
Mister Tarpone
14-08-2009, 19:26
già..... :(
e tornaaaaa :bsod:
michelgaetano
14-08-2009, 19:27
già..... :(
e tornaaaaa :bsod:
Eh :|
Comunque lascia perplessa anche me la cosa del chippone, ma non sono certo i primi pirla in Nvidia per continuare su questa strada.
Ci saran delle motivazioni architetturali... a saperle però :stordita:
leggevo di una convention in cui nvidia mostrava un test di directx11 con scheda gtx 285
nvidia lanciava dei tech-demo per mostrare i computer shader delle librerie dx
Mister Tarpone
14-08-2009, 19:56
forse ho capito a quale ti riferisci. se non sbaglio mostrava un pezzo di mare con una resa grafica spettacolare
forse ho capito a quale ti riferisci. se non sbaglio mostrava un pezzo di mare con una resa grafica spettacolare
mah, non ricordo, ho una memoria che fa paura
Mister Tarpone
14-08-2009, 20:14
mah, non ricordo, ho una memoria che fa paura
vediamo se così ti ricordi http://www.pcgameshardware.de/aid,680467/DirectX-11-Compute-Shader-auf-der-GDC-2009-in-Aktion/Technologie/News/
vediamo se così ti ricordi http://www.pcgameshardware.de/aid,680467/DirectX-11-Compute-Shader-auf-der-GDC-2009-in-Aktion/Technologie/News/
:( non mi pare. è qualcosa di più recente
michelgaetano
14-08-2009, 21:45
Non credo che quando G300 sarà effettivamente sul mercato AMD possa aver già pronto un refresh. Non credo che ci sarà prima del Q3 del prossimo anno.
Certo è che si troverà ad uscire sull'hype di quanto potrebbe uscire poco dopo, ma siamo alle speculazioni sul futuro dopo i rumors, è un po' presto per immaginerselo :D
Quindi Rata credi sia troppo difficile ipotizzare qualche modello simile a gtx 260 216 (dalla 192sp) o alla 4890? Intendo qualcosa di "relativamente" semplice da realizzare e che non sconvolga un intero progetto, ma che al tempo stesso permetta un miglioramento prestazionale che possa avvicinare la concorrenza.
http://www.semiaccurate.com/2009/08/13/gt300-have-nvio-chip/
Pare che G300 avrà un chip NVIO esternoScusate l'ignoranza, ma che è un chip NVIO? :confused:
Andrea deluxe
14-08-2009, 22:08
Scusate l'ignoranza, ma che è un chip NVIO? :confused:
http://www.hardwarezone.com/img/data/articles/2008/2593/NVIO.jpg
e' un chip che si occupa della gestione delle uscite video della gpu ed e' comparso per la prima volta con la 8800 gtx.
sulla maggior parte delle gpu quel chip e' integrato nel die della gpu stessa.
http://www.hardwarezone.com/img/data/articles/2008/2593/NVIO.jpg
e' un chip che si occupa della gestione delle uscite video della gpu ed e' comparso per la prima volta con la 8800 gtx.
sulla maggior parte delle gpu quel chip e' integrato nel die della gpu stessa.Grazie. :)
Interessante l'analisi, anche se effettivamente mi è parsa un po' di parte. :asd: Cypress dovrebbe corrispondere alla 5870, giusto? Se così fosse questa costerebbe la metà rispetto a gt300. Sostanzialmente ATI può giocarsi i prezzi con più margine.
michelgaetano
14-08-2009, 22:33
Grazie. :)
Interessante l'analisi, anche se effettivamente mi è parsa un po' di parte. :asd: Cypress dovrebbe corrispondere alla 5870, giusto? Se cose fosse questa costerebbe la metà rispetto a gt300. Sostanzialmente ATI può giocarsi i prezzi con più margine.
Contro Nvidia la politica di Ati è questa :D
michelgaetano
14-08-2009, 23:31
Tutto è possibile, ma in casi come questo non è che si guadagni poi tantissimo, in termini prestazionali, e tanto presto non si può nemmeno passare ai 32nm, boh, vedremo...
Ah certamente. Infatti le schede che citavo prima non stravolgono nulla dal punto di vista prestazionale. Insomma, più una mossa di marketing che altro, ma che al contempo non costi molto.
michelgaetano
14-08-2009, 23:53
Un bumpettino alle frequenze e puoi fare una "+" una "xx90" o una "TOT SP" riattivando sezioni dormienti di un chip in virtù di yelds migliorati. La cosa è abbastanza semplice, e di solito lo fanno per riguadagnare un leadership di marketing, riattivare l'attenzione e cose del genere.
La cosa è possibile senz'altro, ritocchini alla prossima scheda per farne una leggermente più veloce.
Ma per capirne la fattibilità reale sarà necessario vedere il chip sul mercato.
Esatto, proprio quello.
Per esempio mi aspetto che se G300 farà il passaggio a 32nm o 28nm andrà ad integrare l'NVIO, perché se è vero che inserirlo all'interno della GPU ne aumenta le dimensioni e peggiora gli yelds, è anche vero che hai un package solo, con i relativi costi, e una semplificazione costruttiva del prodotto finito.
Quindi il fatto che NVIO non faccia più parte del package della cpu può essere indice di yelds davvero così schifosi, da ricorrere all'adozione esterna del chip?
Andrea deluxe
15-08-2009, 09:23
http://fr.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fbbs.pczilla.net%2Fthread-3687-1-1.html&lp=zh_en&btnTrUrl=Traduire
Andrea deluxe
15-08-2009, 09:31
E' sicuramente indice di un chip molto grande, con tutta probabilità progettato senza NVIO integrato per non aumentarne ulteriormente le dimensioni e come diceva non ricordo chi pochi post addietro, per non rischiare di buttare GPU enormi a causa di malfunzionamenti di quella parte. E' chiaro che si tratta di valutazioni sui costi: evidentemente si tratta di un chip così grosso che aumentarne ulteriormente le dimensioni e ridurne gli yelds costerebbe di più che non sobbarcarsi un packaging addizionale.
Certo che in queste condizioni una GX2 sarà ancora più complicato farla.
E' anche possibile che l'NVIO sia già integrato ma non utilizzato, e che si sia scelta la soluzione deintegrata per i problemi di cui sopra, per poi abbandonarla quando gli yelds saranno ottimali (o al die shrink). In questo modo progettare e produrre una scheda G300x2 sarebbe un po' più semplice.
:cincin:
Forse è una info vecchia....
Nuove indiscrezioni trapelano sulle misure del chip grafico GT300 di casa Nvidia.
Secondo quanto riportano le fonti:
http://www.nordichardware.com/news,9749.html
http://www.semiaccurate.com/2009/08/05/four-more-gt300-variants-tip/
Il chip risulta essere bello grande, le misure del nuovo DIE infatti sono 23 millimetri x 23 millimetri.
Con il passaggio dall'attuale tecnologia a 55nm alla futura 40mn il chip grafico nvidia GT300 invece che ridursi nelle dimensioni ha finito con l'ingrandirsi passando dagli attuali 470mm quadrati del GT200b dell'attuale famiglia GeForce GTX ai 529mm quadrati del nuovo GT300.
Per quanto riguarda il costo sempre secondo le indiscrezioni la potenza del nuovo chip grafico Nvidia sarà venduta a caro prezzo perchè il passaggio alla nuova tecnologia a 40nm renderebbe il nuovo GT300 circa 1,42 volte più costoso di GT200.
Mister Tarpone
15-08-2009, 10:14
bon, alla fine aspettiamo e vedremo un pò quello che viene fuori.
ma spero abbia prestazioni bestiali !
Mister Tarpone
15-08-2009, 10:30
Certo che in queste condizioni una GX2 sarà ancora più complicato farla.
alla fine nvidia nonostante l'uso di chip grandi è nvio esterno, è stata capace di tirare fuori una dual come la GTX295, prima in dual e dopo single pcb.
e c'era qualcuno che pensava fosse impossibile!
insomma, mi viene da pensare che dopo un pò ci sarà pure sta dual , come sempre.
magari la faranno con nvio esterno ma con il processo produttivo migliorato, per ridurre un pò le dimensioni del chip iniziale a 40nm.
Se l'nvio fosse integrato, si potrebbe comunque utilizzare gli yelds fallati con un chip esterno. Non credo che la logica di gestione per entrambi i casi sia tanto complicata.
In alternativa si potrebbero conservare i chip buoni ma con nvio non funzionante proprio per una eventuale gx2: in fondo, tra due chip, dovrebbe essere sufficiente l'utilizzo di un solo nvio.
Ma poi... è sicura la presenza di questo chip?
Magari a questa tornata hanno affinato tanto il risparmio energetico da renderlo inutile, utilizzando lo stesso approccio della serie 4xxx di ati, ma con migliori risultati.
Del resto, utilizzare la scheda stessa con potenza on demand rimane potenzialmente la soluzione migliore, soprattutto vista l'evoluzione delle interfacce 3D per desktop.
Mister Tarpone
15-08-2009, 11:11
In alternativa si potrebbero conservare i chip buoni ma con nvio non funzionante proprio per una eventuale gx2: in fondo, tra due chip, dovrebbe essere sufficiente l'utilizzo di un solo nvio.
beh se guardi la dual GTX295, ci dovrebbe avere un solo chip nvio
Foglia Morta
15-08-2009, 11:17
beh se guardi la dual GTX295, ci dovrebbe avere un solo chip nvio
ce ne sono due: http://www.guru3d.com/article/inno3d-geforce-gtx-295-platinum-review-test/5
Mister Tarpone
15-08-2009, 11:30
ah ok.. :asd:
mi domando se per una dual sarebbe meglio due chip GT300B ( nome per ipotesi) + i 2 nvio esterni? o interni?
con quelli interni le dimensioni del chip tornerebbero ad aumentare, ma con quelli esterni sarebbe il pcb a divenire più complesso
:confused:
alla fine nvidia nonostante l'uso di chip grandi è nvio esterno, è stata capace di tirare fuori una dual come la GTX295, prima in dual e dopo single pcb.
e c'era qualcuno che pensava fosse impossibile!
insomma, mi viene da pensare che dopo un pò ci sarà pure sta dual , come sempre.
magari la faranno con nvio esterno ma con il processo produttivo migliorato, per ridurre un pò le dimensioni del chip iniziale a 40nm.Per commercializzare la 295gtx, però, nvidia è stata costretta a passare ai 55 nanometri e non ha potuto integrare 2 280, ma 2 260 con 240 sp. :read: A quanto pare GT300 avrà dimensioni maggiori rispetto a GT200b quindi non la vedo molto fattibile la x2.
Mister Tarpone
15-08-2009, 11:42
Per commercializzare la 295gtx, però, nvidia è stata costretta a passare ai 55 nanometri e non ha potuto integrare 2 280, ma 2 260 con 240 sp. :read:
si, ha integrato 2 GTX275, che tanto a prestazioni sono li con la 280
e cmq tecnologicamente parlando, era fattibilissima pure una dual con chip completo, vedi la Mars uscita un pò di tampo fa :read:
A quanto pare GT300 avrà dimensioni maggiori rispetto a GT200b quindi non la vedo molto fattibile la x2.
beh, ma infatti non ho detto che la faranno subito e con il chip 40nm.
penso che la faranno uscire dopo (come per 9800GX2 e GTX295), con pp migliorato ;) !
ce ne sono due: http://www.guru3d.com/article/inno3d-geforce-gtx-295-platinum-review-test/5
Chissà come mai sono due. Magari per poter utilizzare indifferentemente i due chip come primario.
Però a rigor di logica credo che uno sia sufficiente. Senza contare la possibilità di integrarne uno esterno (col prezzo che avrà un'ipotetica gx2, ho idea che possano permetterselo di aggiungere un chippino :p)
si, ha integrato 2 GTX275, che tanto a prestazioni sono li con la 280
e cmq tecnologicamente parlando, era fattibilissima pure una dual con chip completo, vedi la Mars uscita un pò di tampo fa :read: Questo è vero. :p
beh, ma infatti non ho detto che la faranno subito e con il chip 40nm.
penso che la faranno uscire dopo (come per 9800GX2 e GTX295), con pp migliorato ;) !Il prossimo pp quale sarebbe? 32 nanometri? Dubito che lo vedremo in tempi utili per la x2. :read:
Mister Tarpone
15-08-2009, 12:25
certo, se per farla dovessero usare un altro pp, subito non potrebbero farla uscire di sicuro.
però oh, mai dire mai :asd:
e cmq.. qui stiamo parlando di grandezza di chip, nvio interni/esterni...
ma alla fine non si sa manco quanto andrà (e che tipo di architettura avrà) una singola GTX380.
e ---potrebbe-- anche essere un mostro di scheda come prestazioni.
insomma vedremo quando avremo notizie più approfondite :read:
Horizont
15-08-2009, 12:31
certo che con la 275 (che mi sa tanto della gloria delle glorie 8800GT a suo tempo come rapporto qualità/prezzo) non so se riesco ancora ad aspettare prima di cambiare vga :help: :help: :help:
la 275 costa 180€ ed ha un bel boost rispetto alla 8800GT...non so se fare il passo o aspettare...e aspettare significa inizio anno prossimo da quello che ho capito.
michelgaetano
15-08-2009, 12:56
certo che con la 275 (che mi sa tanto della gloria delle glorie 8800GT a suo tempo come rapporto qualità/prezzo) non so se riesco ancora ad aspettare prima di cambiare vga :help: :help: :help:
la 275 costa 180€ ed ha un bel boost rispetto alla 8800GT...non so se fare il passo o aspettare...e aspettare significa inizio anno prossimo da quello che ho capito.
Non c'è paragone con la 8800 GT di allora.
A quel tempo le gtx costavano un rene, la GT ti permetteva di giocare praticamente uguale ma con la metà quasi del prezzo.
Oggi, se guardiamo alle mere differenze prestazionali rapportate al prezzo, non ci sarebbe troppo motivo di prendere una 275 su una 260 216.
Life bringer
15-08-2009, 13:11
Io ho una 8800gt e complice le temperature inumane di quest'ultima sono molto tentato di cambiarla, però penso che sia un grosso errore cambiare ora, visto che stanno per uscire le nuove gpu sia della casa verde che della rossa, soprattutto per me che ho un occhio per i consumi, credo sia giusto aspettare...
michelgaetano
15-08-2009, 13:26
Io ho una 8800gt e complice le temperature inumane di quest'ultima sono molto tentato di cambiarla, però penso che sia un grosso errore cambiare ora, visto che stanno per uscire le nuove gpu sia della casa verde che della rossa, soprattutto per me che ho un occhio per i consumi, credo sia giusto aspettare...
Fai benissimo.
Horizont
15-08-2009, 13:27
Non c'è paragone con la 8800 GT di allora.
A quel tempo le gtx costavano un rene, la GT ti permetteva di giocare praticamente uguale ma con la metà quasi del prezzo.
Oggi, se guardiamo alle mere differenze prestazionali rapportate al prezzo, non ci sarebbe troppo motivo di prendere una 275 su una 260 216.
cioè praticamente se tu cambiassi vga ora ti prenderesti una 260 216 invece di una 275??
costano praticamente uguale O_o
su trovaprezzi le 260 che siano realmente 216 costano sempre 160 170 euro...la 275 ne costa 170... o_O
e poi onestamente in diversi bench ho visto la 275 cmq avere dei margini abb consistenti sulla 260...anche 5/7 fps in più spesso...
cmq si probabilmente è meglio aspettare ma ho un po di timore sui giochi che usciranno questo inverno, ce ne sono tantissimi e vorrei godermeli alla grande.
la 8800GT sicuramente me lo permetterà ma avendo un 24" la necessità di cambiare sta sempre piu prendendo piede.
michelgaetano
15-08-2009, 13:33
cioè praticamente se tu cambiassi vga ora ti prenderesti una 260 216 invece di una 275??
costano praticamente uguale O_o
su trovaprezzi le 260 che siano realmente 216 costano sempre 160 170 euro...la 275 ne costa 170... o_O
È vero, sono scomparse tutte le Gainward a poco prezzo. Non mi aggiornavo da un po'. C'è comunque la reference Sparkle a 138 € che è una 216.
Comunque io non prenderei certo 260 216 o 275, ma una 4870 1 gb a 129 euro, o una vapor a 142, sempre 1 gb, che va come la 260 ma costa meno e dissipa molto meglio, sentendosi meno.
In realtà non prenderei nulla oggi e aspetterei, ma ad essere costretto quelle sarebbero le mie scelte.
La 8800 gt sta stretta a quella risoluzione, ma a settembre ci sono le nuove Ati che fanno al caso tuo. O semplicemente, se sei di quelli che non comprerebbero Ati neanche sotto tortura, faranno calare i prezzi di tutte le altre gpu.
Mister Tarpone
15-08-2009, 13:59
la 260 216 costa minimo 137€, la 275 minimo 172€.
è da un bel po che le 260 216 stanno sotto i 140€, tipo le palit sonic e gainward gs che son pure oc di fabbrica e con dissipatori migliori.
questo periodo non ci sono ma penso poi ritorneranno in listino.
Mister Tarpone
15-08-2009, 14:01
ma ho un po di timore sui giochi che usciranno questo inverno, ce ne sono tantissimi e vorrei godermeli alla grande.
la 8800GT sicuramente me lo permetterà ma avendo un 24" la necessità di cambiare sta sempre piu prendendo piede.
eh no, mi dispiace ma la 8800GT ormai non penso gliela faccia + a quella ris.
ti servirebbe a partire da una 260 216 in su ;) !
Life bringer
15-08-2009, 14:12
Personalmente, l'unica cosa che mi fa rimanere a nvidia (oddio ho sempre saltato da una marca all'altra in base all'architettura migliore) è il supporto al physx, che ad esempio in mirror's edge fa vedere belle cose. Per il resto ati mi sembra meglio su tutto, partendo dal rapporto prezzo\prestazioni a quello consumi... vedremo con le architetture in uscita comunque...
Horizont
15-08-2009, 14:17
La 8800 gt sta stretta a quella risoluzione, ma a settembre ci sono le nuove Ati che fanno al caso tuo. O semplicemente, se sei di quelli che non comprerebbero Ati neanche sotto tortura, faranno calare i prezzi di tutte le altre gpu.
assolutamente non mi precludo nulla e non capisco chi lo invece lo fa.
se uscirà una buona ati come uscì una ottima 8800GT sarò il primo a comprarla :)
cmq la 8800GT non mi è stata stretta neanceh con Crysis a 1900...sono il tipo che sa scendere a compromessi...effetti down, niente fronzoli...
ci ho giocato tranquillamente full hd ad assassin's creed, bioshock, cod4, coj 2 di recente...nessun problema di sorta, regge ancora.
io avevo idea, se mi veniva la fissa di cambiare prima delle nuove vga, di prendere una 275 o una 4890 (in particolare la vaporx o la toxic, insomma quelle con dissy non reference).
Mister Tarpone
15-08-2009, 14:21
a quello consumi... vedremo con le architetture in uscita comunque...
non mi sembra, dalla rece di HWup
http://www.pctunerup.com/up/results/_200908/20090815152059_consumi.JPG
Horizont
15-08-2009, 14:22
non mi sembra, dalla rece di HWup
http://www.pctunerup.com/up/results/_200908/20090815152059_consumi.JPG
porca miseria però quanto cavolo consumano in idle le ati...non si smentiscono mai sotto questo aspetto :(
Mister Tarpone
15-08-2009, 14:29
porca miseria però quanto cavolo consumano in idle le ati...non si smentiscono mai sotto questo aspetto :(
una 260 216 ha consumi migliori di una 4870, nel complesso.
mentre la 4890 e peggiore in idle ma migliore in full rispetto alla sua antagonista GTX275
Life bringer
15-08-2009, 14:43
Come risultati mi giungono nuovi, io sapevo che le ati in idle consumassero pochissimo, vedi ad esempio la 4670 che in idle consuma davvero una manciata di watt (si lo so che è di un'altra fascia), la cosa mi sembrava logica visto che le nvidia a differenza delle ati non hanno clock per il 2d e 3d... bene ora non so proprio più che pesci prendere :D
michelgaetano
15-08-2009, 14:45
la 260 216 costa minimo 137€, la 275 minimo 172€.
è da un bel po che le 260 216 stanno sotto i 140€, tipo le palit sonic e gainward gs che son pure oc di fabbrica e con dissipatori migliori.
questo periodo non ci sono ma penso poi ritorneranno in listino.
Finchè c'erano era molto meglio, prima sono andato a guardare e per la 260 c'è il vuoto... Tranne la prima Sparkle, vedo tutte Sinergy Zotac (quindi da evitare) e versioni OC ma non 216.
Personalmente, per quella fascia di prezzo oggi andrei sulla 4870, per risparmiare (c'è la 1 gb a 129) o la Vapor a 142 se si ha disponibilità. Se ci fossero le 260 Gainward/Palit ci sarebbe l'imbarazzo della scelta :D Mi sa che le hanno esaurite tanto rullano :D
eh no, mi dispiace ma la 8800GT ormai non penso gliela faccia + a quella ris.
ti servirebbe a partire da una 260 216 in su ;) !
Quoto.
Personalmente, l'unica cosa che mi fa rimanere a nvidia (oddio ho sempre saltato da una marca all'altra in base all'architettura migliore) è il supporto al physx, che ad esempio in mirror's edge fa vedere belle cose. Per il resto ati mi sembra meglio su tutto, partendo dal rapporto prezzo\prestazioni a quello consumi... vedremo con le architetture in uscita comunque...
Rapporto prezzo prestazioni se la giocano, Ati se è avanti è di pochissimo, mentre nei consumi mi sembrano appaiate, o meglio Nvidia avanti se non fai downclock via sw. Physx per quanto mi riguarda deve ancora migliorare molto, ma è comunque una aggiunta gradita.
assolutamente non mi precludo nulla e non capisco chi lo invece lo fa.
se uscirà una buona ati come uscì una ottima 8800GT sarò il primo a comprarla :)
io avevo idea, se mi veniva la fissa di cambiare prima delle nuove vga, di prendere una 275 o una 4890 (in particolare la vaporx o la toxic, insomma quelle con dissy non reference).
E fai bene. Comunque non credo convenga prendere ora 275 e 4890. Hanno ancora un buon valore, e tanto più una scheda vale, tanto più si svaluta con le nuove uscite. Insomma, ci perderesti.
porca miseria però quanto cavolo consumano in idle le ati...non si smentiscono mai sotto questo aspetto :(
Nvidia ha rinunciato all'Hybrid SLI proprio perchè riesce ad avere frequenze molto basse in idle. Lo stesso si può fare con le Ati comunque, basta downclockare e salvare i profili con Ati Tray Tools, e i risultati diventano paragonabili.
Mister Tarpone
15-08-2009, 14:50
le nvidia a differenza delle ati non hanno clock per il 2d e 3d... bene ora non so proprio più che pesci prendere :D
anche le nvidia hanno clock differenziato per il 2D/3D
Horizont
15-08-2009, 15:01
certo che la 4890 vapor-x a 173 mi attizza :D
michelgaetano
15-08-2009, 15:04
certo che la 4890 vapor-x a 173 mi attizza :D
Trovo migliore la 4870 a 30 euro in meno :stordita: Cioè oddio, quei 30 li varrà anche, ma con quanto si svaluteranno...
Life bringer
15-08-2009, 15:06
anche le nvidia hanno clock differenziato per il 2D/3D
Uhm la mia 8800gt no, probabilmente è una feature inserita nelle serie successive...
michelgaetano
15-08-2009, 15:08
Uhm la mia 8800gt no, probabilmente è una feature inserita nelle serie successive...
Esatto, da GT200 in poi.
Ati lo fa in automatico, ma è poca cosa (ad esempio la mia scende da 700/1100 a 500/1100), e quelle Nvidia scendono a clock più bassi. Infatti chi ha Ati lo fa da sè tramite software.
Horizont
15-08-2009, 15:08
Trovo migliore la 4870 a 30 euro in meno :stordita: Cioè oddio, quei 30 li varrà anche, ma con quanto si svaluteranno...
però, francamente, quanto pensi che possa scendere una vga come la 4890, rimane sempre la vga mono più potente ati...per quanto sia possibile non credo che i prezzi facciano dei cali assurdi. Poi voglio dire...se una 4890 scende MOLTO di prezzo dovrà pur farlo contestualmente al resto delle soluzioni...e allora poi mi chiedo, le vga di fascia entry lvl che costeranno 10€? :D
e poi si sa che l'obsolescenza nel campo dell hardware pc è spietata. ricordo ancora quando comprai la 7900GT anni e anni fa a 349 euro...se ci penso ora mi taglio l'aorta!
michelgaetano
15-08-2009, 15:10
però, francamente, quanto pensi che possa scendere una vga come la 4890, rimane sempre la vga mono più potente ati...per quanto sia possibile non credo che i prezzi facciano dei cali assurdi.
e poi si sa che l'obsolescenza nel campo dell hardware pc è spietata. ricordo ancora quando comprai la 7900GT anni e anni fa a 349 euro...se ci penso ora mi taglio l'aorta!
La 3870X2 perse praticamente la metà del suo valore.
Se una ipotetica 5850 costerà sui 180 euro, andando più della 4890, consumando meno e avendo a disposizione le dirx 11, la 4890 piomberà facilmente sui 100 euro in poco tempo.
Horizont
15-08-2009, 15:12
La 3870X2 perse praticamente la metà del suo valore.
Se una ipotetica 5850 costerà sui 180 euro, andando più della 4890, consumando meno e avendo a disposizione le dirx 11, la 4890 piomberà facilmente sui 100 euro in poco tempo.
ahhhhh ok, beh se consideri come causa del calo di prezzo l'introduzione di UNA COMPLETAMENTE NUOVA ARCHITETTURA allora concordo completamente con te
(poi però io ci rimarrei cauto sulle dual...al dilà del fatto che secondo me sono la solita espressione di inutile eccesso...rimane il fatto che quelle PER NATURA si svalutano in maniera TOTALE o comunque hanno una propensione di molto maggiore alla svalutazione rispetto a quelle che già di per se hanno un rapporto qualità prezzo quasi immodificabile)
Mister Tarpone
15-08-2009, 15:15
Se una ipotetica 5850 costerà sui 180 euro, andando più della 4890, consumando meno e avendo a disposizione le dirx 11, la 4890 piomberà facilmente sui 100 euro in poco tempo.
probabile... anzi è sicuro :asd:
michelgaetano
15-08-2009, 15:23
ahhhhh ok, beh se consideri come causa del calo di prezzo l'introduzione di UNA COMPLETAMENTE NUOVA ARCHITETTURA allora concordo completamente con te
(poi però io ci rimarrei cauto sulle dual...al dilà del fatto che secondo me sono la solita espressione di inutile eccesso...rimane il fatto che quelle PER NATURA si svalutano in maniera TOTALE o comunque hanno una propensione di molto maggiore alla svalutazione rispetto a quelle che già di per se hanno un rapporto qualità prezzo quasi immodificabile)
Sì, con le dual è anche peggio, perchè con le nuove archittture non hai una sola scheda superata, ma due. Con tutti gli svantaggi (oggi si vanno riducendo, ma ci vuole ancora tanto, troppo) del multigpu, nonchè di calore e consumi.
probabile... anzi è sicuro :asd:
Per questo sconsiglierei a chiunque di prendere schede costose come 4890 e 275 ora. Non ci piove che vadano di brutto, ma aspettando un po' le si può prendere a molto meno, o si può avere di più (in termini di potenza e longevità).
Horizont
15-08-2009, 15:29
Per questo sconsiglierei a chiunque di prendere schede costose come 4890 e 275 ora. Non ci piove che vadano di brutto, ma aspettando un po' le si può prendere a molto meno, o si può avere di più (in termini di potenza e longevità).
questa è una cosa sacrosanta; io personalmente sono combattuto perchè so bene che questo genere di novità spesso vengono posticipate e poi si sa anche che le prime vga ad uscire sono sempre le top di gamma...e quindi c è da aspettare ancora...poi magari escono le mainstream, ovvero quelle che interessano a me...però all inizio hanno comunque prezzi un po' proibitivi....e quindi c è da aspettare...(io una vga al day 1 non me la comprerò mai più...ho fatto l'errore con la 8800GT gigabyte rev 1...che era una vga della chicco...poi fortuna che si è rimediato ma sono stato senza vga per più di 2 mesi).
Sta cosa mi snerva :(
per rendere il tutto "worth it" dovrei trovare un usato e pagarlo poco! altrimenti hai ragione te, non ne varrebbe la pena...è come nascere vecchi...
michelgaetano
15-08-2009, 15:35
questa è una cosa sacrosanta; io personalmente sono combattuto perchè so bene che questo genere di novità spesso vengono posticipate e poi si sa anche che le prime vga ad uscire sono sempre le top di gamma...e quindi c è da aspettare ancora...poi magari escono le mainstream, ovvero quelle che interessano a me...però all inizio hanno comunque prezzi un po' proibitivi....e quindi c è da aspettare...(io una vga al day 1 non me la comprerò mai più...ho fatto l'errore con la 8800GT gigabyte rev 1...che era una vga della chicco...poi fortuna che si è rimediato ma sono stato senza vga per più di 2 mesi).
Sta cosa mi snerva :(
No, un attimo.
Quella di fare uscire prima le top è stata generalmente la scelta Nvidia, e ad amplificare la cosa erano anche i prezzi che c'erano quando Ati stava venendo distrutta dallo strapotere verde (vedi le 8800 gtx a 650 euro, o GTX 280 a 650 dollari e 260 a 450, poi subito tagliate di prezzo con l'uscita di RV770). Nvidia disponeva del primato, e come giusto che fosse poteva prezzare come voleva senza concorrenza.
Se guardi invece alle ultime uscite Ati, e mi riferisco alla serie 3x00 e 4x00, le uscite sono sempre state di fascia medio-alta (3850, 4850) e alta (3870, 4870 - la 3870 in realtà non era propriamente alta, ma qui sto solo facendo una classificazione). Il tutto a prezzi più bassi, perchè era il modo migliore per concorrere
Insomma, non uscirà solo una top di gamma, su questo puoi stare tranquillo. Con quello che pagheresti oggi la 4890/275, a fine settembre molto facilmente prendi una ipotetica 5850.
Addirittura, se leggi nel thread analogo sulle Ati, c'è anche chi azzarda, anche giustamente, uno possibile uscita di non due, ma tre schede a settembre.
Horizont
15-08-2009, 17:28
No, un attimo.
Quella di fare uscire prima le top è stata generalmente la scelta Nvidia, e ad amplificare la cosa erano anche i prezzi che c'erano quando Ati stava venendo distrutta dallo strapotere verde (vedi le 8800 gtx a 650 euro, o GTX 280 a 650 dollari e 260 a 450, poi subito tagliate di prezzo con l'uscita di RV770). Nvidia disponeva del primato, e come giusto che fosse poteva prezzare come voleva senza concorrenza.
Se guardi invece alle ultime uscite Ati, e mi riferisco alla serie 3x00 e 4x00, le uscite sono sempre state di fascia medio-alta (3850, 4850) e alta (3870, 4870 - la 3870 in realtà non era propriamente alta, ma qui sto solo facendo una classificazione). Il tutto a prezzi più bassi, perchè era il modo migliore per concorrere
Insomma, non uscirà solo una top di gamma, su questo puoi stare tranquillo. Con quello che pagheresti oggi la 4890/275, a fine settembre molto facilmente prendi una ipotetica 5850.
Addirittura, se leggi nel thread analogo sulle Ati, c'è anche chi azzarda, anche giustamente, uno possibile uscita di non due, ma tre schede a settembre.
ah caspita, questo mi conforta, grazie della notizia :D :D :D
ma fine di QUESTO settembre? O_O
michelgaetano
15-08-2009, 18:02
ah caspita, questo mi conforta, grazie della notizia :D :D :D
ma fine di QUESTO settembre? O_O
AMD ha detto di lanciare prima di Seven, cioè il 22 ottobre, e dai vari rumors fine settembre-inizio ottobre è la data più accreditata :D
C'era anche questo
http://www.hwupgrade.it/forum/showpost.php?p=28534713&postcount=5777
Ma questo è il thread sulle nuove Nvidia, quindi basta qui :D
martinez1983
15-08-2009, 18:09
Contro Nvidia la politica di Ati è questa :D
Questa politica permette a noi consumatori di avere prezzi contenuti....dall' altra vorrei che la "guerra" fosse focalizzata sul realizzare Gpu dalle prestazioni e caratteristiche sempre più elevate!!!
Che bei tempi quando Ati e Nvidia se le davano di santa ragione!!!:(
Mister Tarpone
15-08-2009, 18:12
Se guardi invece alle ultime uscite Ati, e mi riferisco alla serie 3x00 e 4x00, le uscite sono sempre state di fascia medio-alta (3850, 4850) e alta (3870, 4870 - la 3870 in realtà non era propriamente alta, ma qui sto solo facendo una classificazione). Il tutto a prezzi più bassi, perchè era il modo migliore per concorrere
solo la serie 4000 ne è stata capace, la 3870 che era il top a singolo chip della serie 3000, alla fine era solo una mainstream/media, ai livelli di una 9600GT.
Mister Tarpone
15-08-2009, 18:25
Che bei tempi quando Ati e Nvidia se le davano di santa ragione!!!:(
quei tempi son tornati in quest'ultima generazione DX10/DX10.1, dopo la cagosa serie 2000 e la in parte deludente serie 3000, finalmente c'è stata una bella guerra tra ati vs nv.
e credo/spero si ripeterà anche con la generazione DX11, con un vantaggio iniziale di ATi perchè le farà uscire qualche mesetto prima rispetto ad NV
michelgaetano
15-08-2009, 18:27
solo la serie 4000 ne è stata capace, la 3870 che era il top a singolo chip di quella serie, alla fine era solo una mainstream/media, ai livelli di una 9600GT.
Eh lo so, infatti l'ho specificato. :D
Ho scritto alta perchè faceva da "alta" nella lineup Ati, con 3850 media, 3870 alta, e 3870X2 enthusiast.
Horizont
15-08-2009, 18:33
AMD ha detto di lanciare prima di Seven, cioè il 22 ottobre, e dai vari rumors fine settembre-inizio ottobre è la data più accreditata :D
C'era anche questo
http://www.hwupgrade.it/forum/showpost.php?p=28534713&postcount=5777
Ma questo è il thread sulle nuove Nvidia, quindi basta qui :D
caspita io non lo sapevo!! pensavo che si dovesse aspettare minimo a inizio anno prossimo per vedere qualcosa...mi sento stupido allora di aver messo in dubbio il fatto di aspettare.
ora si che ha effettivamente tutto più senso :)
Mister Tarpone
15-08-2009, 18:36
caspita io non lo sapevo!! pensavo che si dovesse aspettare minimo a inizio anno prossimo per vedere qualcosa...mi sento stupido allora di aver messo in dubbio il fatto di aspettare.
ora si che ha effettivamente tutto più senso :)
bene. quindi evita la 275 e 4890 ecc... che stanno per diventare cagatelle a confronto delle prossime vga DX11 :sbonk:
Horizont
15-08-2009, 18:40
bene. quindi evita la 275 e 4890 ecc... che stanno per diventare cagatelle a confronto delle prossime vga DX11 :sbonk:
senza dubbio :)
:sbonk: :sbonk: :sbonk:
michelgaetano
15-08-2009, 18:40
caspita io non lo sapevo!! pensavo che si dovesse aspettare minimo a inizio anno prossimo per vedere qualcosa...mi sento stupido allora di aver messo in dubbio il fatto di aspettare.
ora si che ha effettivamente tutto più senso :)
C'è da aspettare per le Nvidia purtroppo, arriveranno più tardi.
bene. quindi evita la 275 e 4890 ecc... che stanno per diventare cagatelle a confronto delle prossime vga DX11 :sbonk:
Oddio cagatelle fino ad un certo punto, son comunque quanto di meglio si possa trovare al momento :stordita:
Non so rispetto alle Ati per le quali comunque sapremo a breve, ma G300 dovrebbe essere brutale, e lì davvero rischiano di apparire ben poca cosa al confronto :D
Horizont
15-08-2009, 18:42
C'è da aspettare per le Nvidia purtroppo, arriveranno più tardi.
Oddio cagatelle fino ad un certo punto, son comunque quanto di meglio si possa trovare al momento :stordita:
Non so rispetto alle Ati per le quali comunque sapremo a breve, ma G300 dovrebbe essere brutale, e lì davvero rischiano di apparire ben poca cosa al confronto :D
mi piace brutale :oink: :asd:
cmq invece per nvidia cosa si prospetta, come sapevo io? inizio anno?
Mister Tarpone
15-08-2009, 18:44
mi piace brutale :oink: :asd:
cmq invece per nvidia cosa si prospetta, come sapevo io? inizio anno?
fine anno (e se fosse vero, sarebbe un miracolo)/inizio anno nuovo (mooolto più facile)
Mister Tarpone
15-08-2009, 18:49
Oddio cagatelle fino ad un certo punto, son comunque quanto di meglio si possa trovare al momento :stordita:
Non so rispetto alle Ati per le quali comunque sapremo a breve, ma G300 dovrebbe essere brutale, e lì davvero rischiano di apparire ben poca cosa al confronto :D
si è vero... come prestazioni, visti i giochi di adesso, che vengan da console (e sarà così pure in futuro), hanno molto da dire (come anche le un pochetto meno prestanti 70 e 260) pure queste.
però a confronto di come saranno le nuove vga, con DX11 e prestazioni decisamente migliori, le attuali è inevitabile che a confronto faranno cagare :asd:
michelgaetano
15-08-2009, 19:08
si è vero... come prestazioni, visti i giochi di adesso, che vengan da console (e sarà così pure in futuro), hanno molto da dire (come anche le un pochetto meno prestanti 70 e 260) pure queste.
però a confronto di come saranno le nuove vga, con DX11 e prestazioni decisamente migliori, le attuali è inevitabile che a confronto faranno cagare :asd:
Eh sì :asd:
E dire che qui son soddisfattissimo con una misera 4850 :asd: Rischiamo davvero di arrivare al punto che queste nuove vga avranno potenza inutile...
Mister Tarpone
15-08-2009, 19:14
Eh sì :asd:
E dire che qui son soddisfattissimo con una misera 4850 :asd:
pure quella (che tengo anche io) non è male per niente con i giochi che circolano adesso, in molti casi va bene anche in full hd
Rischiamo davvero di arrivare al punto che queste nuove vga avranno potenza inutile...
tranne crysis da far girare con tutto very high DX10 in full hd e filtri AA a manetta... ma poi per il resto dei giochi che devono uscire.... tutta quella potenza, penso sarà sprecata.... :asd:
Andrea deluxe
15-08-2009, 19:16
potenza inutile...
a me serve quella......:D
Mister Tarpone
15-08-2009, 19:19
a me serve quella......:D
te sei un caso a parte http://www.pctunerup.com/up//results/_200908/20090815193928_rotfl.gif
sei troppo enthusiast :sborone: !!
michelgaetano
15-08-2009, 19:22
pure quella (che tengo anche io) non è male per niente con i giochi che circolano adesso, in molti casi va bene anche in full hd
Non sapevo avessi ancora la 4850 Io ho una GS, l'ho messa sotto torchio ad un lan party con amici, ci ho finito anche Crysis :D
Se mi regge AC 2 :sperem: credo durerà fino a G300
tranne crysis da far girare con tutto very high DX10 in full hd e filtri AA a manetta... ma poi per il resto dei giochi che devono uscire.... tutta quella potenza, penso sarà sprecata.... :asd:
Già, davvero resta quasi solo lui... (di altri mattoni ne abbiamo, ma in quanto a grafica lasciano a desiderare... :fiufiu: GTA4 :fiufiu:)
Andrea deluxe
15-08-2009, 19:25
:fiufiu: GTA4 :fiufiu:)
:mad: :ncomment: :sob: :bsod:
Mister Tarpone
15-08-2009, 19:38
Già, davvero resta quasi solo lui... (di altri mattoni ne abbiamo, ma in quanto a grafica lasciano a desiderare... :fiufiu: GTA4 :fiufiu:)
eh.. infatti a me non è piaciuto come grafica... :asd:
Non sapevo avessi ancora la 4850 Io ho una GS, l'ho messa sotto torchio ad un lan party con amici, ci ho finito anche Crysis :D
Se mi regge AC 2 :sperem: credo durerà fino a G300
Già, davvero resta quasi solo lui... (di altri mattoni ne abbiamo, ma in quanto a grafica lasciano a desiderare... :fiufiu: GTA4 :fiufiu:)GTA4 mi gira molto peggio rispetto a crysis, sarà il dual core. :asd: Anche un po' di potenza in più per stalker clear sky non guasterebbe. :read:
davyjones
15-08-2009, 20:38
cosa si sa delle vga verdi? Si vocifera che saranno mattonelle da 600mm^2 mimd???
Horizont
15-08-2009, 20:46
però a confronto di come saranno le nuove vga, con DX11 e prestazioni decisamente migliori, le attuali è inevitabile che a confronto faranno cagare :asd:
mmmm ma siete sicuri che ci starà sto boost così enorme???
non si è un po' troppo ottimisti forse?
mmmm ma siete sicuri che ci starà sto boost così enorme???
non si è un po' troppo ottimisti forse?
Sarà come è sempre stato.. né più ne meno.
michelgaetano
15-08-2009, 21:09
mmmm ma siete sicuri che ci starà sto boost così enorme???
non si è un po' troppo ottimisti forse?
Generalmente con le nuove generazioni un minimo di boost c'è sempre.
Spesso però si spara troppo alto e si rimane delusi :stordita:
Generalmente con le nuove generazioni un minimo di boost c'è sempre.
Spesso però si spara troppo alto e si rimane delusi :stordita:
vedremo se sarà un nuovo G80.
mmmm ma siete sicuri che ci starà sto boost così enorme???
non si è un po' troppo ottimisti forse?Considerando che è un cambio generazionale direi che è logico aspettarsi un considerevole boost. :read:
guylmaster
15-08-2009, 23:36
Scusate, su un preassemblato dell'HP ho letto della GeForce GT120, ma fa parte sempre di questa gamma? Ma sono gia uscite in commercio acquistabili singolarmente? come sono?
Scusate, su un preassemblato dell'HP ho letto della GeForce GT120, ma fa parte sempre di questa gamma? Ma sono gia uscite in commercio acquistabili singolarmente? come sono?La GT120 è una scheda di fascia bassa. ;) Se non sbaglio una 9500 rimarchiata, niente a che vedere con GT300, per fortuna. :p
guylmaster
16-08-2009, 12:44
La GT120 è una scheda di fascia bassa. ;) Se non sbaglio una 9500 rimarchiata, niente a che vedere con GT300, per fortuna. :p
Ecco, dicevo io che non le avevo mai sentite nominare :fagiano:
Stavo quasi per pensare che se un pc preassemblato ci avevano finalmente messo una scheda video decente :D
davyjones
16-08-2009, 20:42
Dovrebbe essere circa 530mm^2
Altri dettagli/speculazioni/voci???
O siamo messi come sulla sponda rossa?:fagiano:
Crysis90
17-08-2009, 11:39
http://www.fudzilla.com/content/view/15068/1/
:D
michelgaetano
17-08-2009, 11:52
http://www.fudzilla.com/content/view/15068/1/
:D
Se serve una dual inizio a preoccuparmi delle prestazioni della single.
Ma tanto è fud :asd:
Crysis90
17-08-2009, 12:44
Se serve una dual inizio a preoccuparmi delle prestazioni della single.
Ma tanto è fud :asd:
No, secondo me NVidia vuole ammazzare subito il mercato...con prezzi stratosferici però...
michelgaetano
17-08-2009, 12:49
No, secondo me NVidia vuole ammazzare subito il mercato...con prezzi stratosferici però...
Con 9800gx2 e gtx 295 Nvidia ha scelto la strada del multigpu solo per avere la palma della scheda più veloce.
Crysis90
17-08-2009, 14:26
Con 9800gx2 e gtx 295 Nvidia ha scelto la strada del multigpu solo per avere la palma della scheda più veloce.
Si, ma solo dopo molto tempo rispetto al lancio delle nuove GPU...in questo caso secondo me vuole avere già pronto un modello Dual-Chip non solo per la semplice corona, ma per ammazzare la concorrenza...
Andrea deluxe
18-08-2009, 10:46
http://www.fudzilla.com/content/view/15089/1/
Andrea deluxe
19-08-2009, 07:20
http://www.xtremesystems.org/forums/showpost.php?p=3967352&postcount=1
Foglia Morta
19-08-2009, 07:30
http://www.semiaccurate.com/2009/08/18/nvidia-takes-huge-risk/
NVIDIA KEEPS HOWLING that it will have GT300 out this year, so we did a little digging on the topic. All you can say is that it seems willing to fritter away large swaths of its and TSMC's cash to meet a PR goal.
The short story is that GT300 taped out in week 3 or 4 of July 2009. It is a huge chip, about 23mm X 23mm, but we are now hearing it will be 23.something X 23.something millimeters, so 530mm^2 might be a slight underestimate. In any case, TSMC runs about 8 weeks for hot lots, 2 more weeks for bringup, debug, and new masks, and finally another 10-12 for production silicon.
GT300 wafers went in at TSMC on August 3, give or take a couple of days, so if you add 22 (8 + 2 + 12) weeks to that, you are basically into 2010 before TSMC gives you the wafers back with pretty pictures inscribed on them. Like babies, you just can't rush the process with more, um, hands.
While it is not rushable, you can do some of it in parallel, and that uses what are called risk wafers. Those wafers are put in at the same time the first silicon hot lots are, so they have been in the oven about 2 weeks now. Just before the final layers are put on, the risk wafers are parked, unfinished, off to the side of the TSMC line.
The idea is that with the hot lots, Nvidia gets cards back and debugs them. Any changes that are necessary can hopefully be retrofitted to the risk wafers, and then they are finalized. Basically, the risk wafers are a bet that there won't be anything major wrong with the GT300 design, in that any changes are minor enough to be literally patched over.
Risk wafers are called risk wafers for a reason. If you do need to make a change big enough, say a metal layer spin, the risk wafers are then what are called scrap wafers. You need to make damn sure your design is perfect, or nearly perfect, before you risk it. Given Nvidia's abysmal execution recently, that is one gutsy move.
Just looking at the cost, TSMC 40nm wafers are priced at about $5,000 each right now, and we hear Nvidia is paying a premium for each of the risk wafers. 9,000 X ($5,000 + premium) is about $50 million. If there is a hiccup, you have some very expensive coasters for the company non-denominational winter festivity party. Then again, putting them in the oven this early makes dear leader less angry, so in they go.
Costs for this are pretty high, but here again, Nvidia has an out. The rumor is that TSMC, as a way to slide Nvidia money through backchannels to prevent it hopping to GlobalFoundries, is charging Nvidia per good chip while yields are below 60%. Some knowledgeable folks who design semiconductors for a living estimate the initial yields at 20-25% after repair. For reference, early yields for GT200 on a known 65nm process were about 62% for the GT280 and yield salvaged GT260.
What does this mean? One of two things, Nvidia is either trying to make a seriously downscaled version just to get something out the door, or it is eating wafers in the hopes of getting enough parts to pretend it is not lost. Think absurdly expensive press parts.
The downscaled chip would be like a GT260-- instead of ++, possibly downclocked as well. If the GT260 had two clusters disabled, you could do the same with GT300 and disable more to get effective yields up. We doubt this is the way it will go though. Cypress will slaughter Nvidia if it takes this route.
The other option is to cherry pick the few good parts that come out and pretend that they are not eating a few hundred dollars per card sold while praying that yields come up fast. Then again, if the rumors of TSMC shouldering the cost of bad chips is true, it isn't Nvidia's problem now is it?
Which way will it go? We will know in Q1. There will either be an updated spec card with a higher stepping or there won't be. Nvidia will have cards out in real, not PR, quantities or it won't. Nvidia will either have a hidden charge on its balance sheet or TSMC will. When you are talking about this much money, though, amounts this large are hard to hide.
In any case, Nvidia made a huge bet for ego purposes. The real question is who pays for it in the end, Nvidia or TSMC? Betting people say that TSMC will eat the costs and Nvidia will be a GlobalFoundries customer at the earliest opportunity anyway.S|A
Foglia Morta
19-08-2009, 10:27
http://www.digitimes.com/news/a20090819PD216.html
Nvidia's new 40nm GeForce 210 (GT218) GPU-based graphics cards will be available in the retail channel in October, as yield of the 40nm process at foundry partner Taiwan Semiconductor Manufacturing Company (TSMC) has improved, according to industry sources.
The GeForce 210 graphics cards will feature either DDR2 or DDR3 memory, and support DirectX 10.1 and Shader Model 4.1.
In addition to GeForce 210, Nvidia is also expected to launch GPUs codenamed GT230 and GT300 in the fourth quarter of 2009, the sources said.
Nvidia has recently adjusted its GPU naming scheme and removed marks such as GTX, GT and G, and will instead just simply use GeForce plus the number.
michelgaetano
19-08-2009, 10:42
Nvidia has recently adjusted its GPU naming scheme and removed marks such as GTX, GT and G, and will instead just simply use GeForce plus the number.[/I]
???
Quando?
http://www.digitimes.com/news/a20090819PD216.html
Nvidia's new 40nm GeForce 210 (GT218) GPU-based graphics cards will be available in the retail channel in October, as yield of the 40nm process at foundry partner Taiwan Semiconductor Manufacturing Company (TSMC) has improved, according to industry sources.
The GeForce 210 graphics cards will feature either DDR2 or DDR3 memory, and support DirectX 10.1 and Shader Model 4.1.
In addition to GeForce 210, Nvidia is also expected to launch GPUs codenamed GT230 and GT300 in the fourth quarter of 2009, the sources said.
Nvidia has recently adjusted its GPU naming scheme and removed marks such as GTX, GT and G, and will instead just simply use GeForce plus the number.
Traduzione per un niubbo?:D
appleroof
19-08-2009, 11:28
Traduzione per un niubbo?:D
ad ottobre dovrebbe debuttare la versione di g80 a 40nm e supporto dx10.1, non è la nuova top dx11 ma è destinata alla fascia media
Traduzione per un niubbo?:D
le versioni a 40 nm (GT218) saranno disponibili da ottobre, avranno DDR2/3, supporto DX10.1 e SM 4.1.
GT300 per il quarto quarto del 2009 con una nomenclatura rivista, via i suffissi GTX/GT
ad ottobre dovrebbe debuttare la versione di g80 a 40nm e supporto dx10.1, non è la nuova top dx11 ma è destinata alla fascia media
le versioni a 40 nm (GT218) saranno disponibili da ottobre, avranno DDR2/3, supporto DX10.1 e SM 4.1.
GT300 per il quarto quarto del 2009 con una nomenclatura rivista, via i suffissi GTX/GT
Grazie...alla fine mi sono aggiunto su msn il tbot per le traduzioni (tutte le lingue) in inglese :sofico: e debbo dire che traduce bene, meglio di google sicuro...:asd:
Onestamente non capisco il senso di far uscire schede in dx10.1, quando ormai si parla di dx11 e che tra poco saranno immesse nel mercato da parte di ati, tanto valeva immetere anche per le fascie medie direttamente le dx 11 con retrocompatibilità.
Poi si sono decisi a togliere le varie sigle e mettere solo le numerazioni, vediamo stavolta che combina nvidia.
Qui tra intel e nvidia e ati non si capisce più niente, prima di acquistare bisogna studiarsi tutti i movimente precedenti che hanno effettuato...:rolleyes:
Andrea deluxe
19-08-2009, 18:27
NVIDIA Presents Support for Windows 7 DirectX Compute
In an internal presentation perhaps to its primary clients, NVIDIA presented support for Windows 7 DirectX Compute. For a welcome change, the slides show no signs of NVIDIA's own CUDA technology, and in turn promise huge performance gains when a Windows 7 machine is aided with an NVIDIA graphics processor. The gains NVIDIA predicts range anywhere between 2 times to 20 times over plain CPU-driven processing, focusing on media-related applications such as Cyberlink PowerDirector, MotionDSP vReveal, and of course Badaboom.
DirectX Compute API will be natively built into Windows 7. It supports both existing DirectX 10 compliant GPUs, and future DirectX 11 ones. Along with pledging full support for it, NVIDIA also explains how the GPU becomes an increasingly important component of the PC, being "central to the Windows 7 experience". As a bonus tidbit, it adds that on Windows 7 the SLI multi-GPU technology works 10% faster than on Windows XP.
http://www.techpowerup.com/img/09-08-19/111a.jpg
http://www.techpowerup.com/img/09-08-19/111b.jpg
http://www.techpowerup.com/img/09-08-19/111c.jpg
http://www.techpowerup.com/img/09-08-19/111d.jpg
http://www.techpowerup.com/img/09-08-19/111e.jpg
Foglia Morta
19-08-2009, 21:46
???
Quando?
Quando ormai si sentiva la mancanza di un rename... :D
http://brightsideofnews.com/news/2009/8/19/nvidia-does-another-renaming-meet-the-geforce-xxx.aspx
nVidia does another renaming: meet the GeForce XXX
Back in June 2008, nVidia launched GeForce GTX 200 series and claimed that the time of confusing naming conventions is up - future products will be much simpler and easy to understand. Well, somebody in nVidia didn't got that memo because the company continued with frankly, completely stupid naming and renaming policies.
GeForce 8800GT/GTS became 9800GTX/GTX+ and later became GeForce GTS 250, which was okay. But the problem was the rest of the line-up, so we had parts being named the old 9000 series AFTER GeForce GTX200 was launched. In any case, it was nothing short of a mess and marketing nightmare. AIBs [Add-in-Board manufacturers] had huge difficulties in advertising their products, and nVidia didn't exactly help them out.
In August 2009, I had an interview with Roy Taylor, then serving as nVidia's main TWIMTBP guy [The Way Its Meant To Be Played]. Most of the nVidia exec team wasn't happy with the way how the renaming went and it was decided to rename the complete new line-up into something much simpler.
When the company launched its OEM parts for desktops and notebooks with GT120, G210 and GT220, we thought that renaming won't be happening - but we were wrong. According to information at hand, all of the newly released parts will fit under one banner, with GeForce being the cornerstone brand, followed by a number in hundreds. All of the parts belonging to GT200 [NV60-NV65] series of chips will be renamed into GeForce 2xx. GeForce 9 series [NV55] becomes GeForce 1xx and the upcoming GT300 [NV70] series will simply be named GeForce 3xx [example: 360 and 380].
Of course, this will last until nVidia goes through another change of hearts. Let's hope it will last a little bit longer.
michelgaetano
19-08-2009, 21:48
Non ho parole...
Grazie...alla fine mi sono aggiunto su msn il tbot per le traduzioni (tutte le lingue) in inglese :sofico: e debbo dire che traduce bene, meglio di google sicuro...:asd:
Onestamente non capisco il senso di far uscire schede in dx10.1, quando ormai si parla di dx11 e che tra poco saranno immesse nel mercato da parte di ati, tanto valeva immetere anche per le fascie medie direttamente le dx 11 con retrocompatibilità.
Poi si sono decisi a togliere le varie sigle e mettere solo le numerazioni, vediamo stavolta che combina nvidia.
Qui tra intel e nvidia e ati non si capisce più niente, prima di acquistare bisogna studiarsi tutti i movimente precedenti che hanno effettuato...:rolleyes:
sperimentazione a basso costo di 40 nm e future tecnologie che verranno implementate in gt300:stordita:
appleroof
20-08-2009, 09:35
Evidentemente il passo DX10->DX10.1 era relativamente semplice, ed il motivo per cui è utile è che se hai una GPU DX10.1 compliant con Windows 7 hai un offload dell'interfaccia grafica dalla CPU alla GPU. Per il mercato entry level soprattutto non avere il supporto DX10.1 significa essere snobbati dagli OEM.
La cosa ridicola non è che lo abbiano implementato, ma che ciò avvenga dopo più di un anno che nVidia sostiene che le DX10.1 sono solo fuffa inutile e marketing di AMD :asd:
mi pare di avere già avuto occasione con te di dire che in effetti ora pare che finalmente verranno sfruttate, e in particolare qui parliamo tra l'altro non di giochi, per anni (quelli scorsi) in effetti sono state fuffa inutile e marketing di AMD :D: tanto più che "DirectX Compute API will be natively built into Windows 7. It supports both existing DirectX 10 (si legge chiaramente dx10, non dx10.1) compliant GPUs, and future DirectX 11 ones."
spero solo che la stessa sorte non tocchi alle dx11, per le quali a parte il nuovo colin mcrae non mi pare ci siano grandi annunci: sarebbe già un miracolo per me la piena diffusione di giochi full dx10.1 nel corso di un anno a partire da ora e poi quelli full dx11 dopo
cmq il fatto che ad Nvidia debbano ripiegare sull'ennesimo refresh, per quanto pesante, di g80 la dice lunga sull'errore di fondo ormai assodato delle scelte fatte in passato, dal punto di vista prettamente industriale e senza nulla togliere alla bontà del chip in sè, di cui i continui refresh sono la più evidente conseguenza: continuano ad avere problemi a dar vita ad una gamma coerente, a causa dei bassi (se non nulli o addirittura in perdita) margini che deriverebbero dal vendere una scheda mainstream con montato su il chippone
michelgaetano
20-08-2009, 09:59
cmq il fatto che ad Nvidia debbano ripiegare sull'ennesimo refresh, per quanto pesante, di g80 la dice lunga sull'errore di fondo ormai assodato delle scelte fatte in passato, dal punto di vista prettamente industriale e senza nulla togliere alla bontà del chip in sè, di cui i continui refresh sono la più evidente conseguenza: continuano ad avere problemi a dar vita ad una gamma coerente, a causa dei bassi (se non nulli o addirittura in perdita) margini che deriverebbero dal vendere una scheda mainstream con montato su il chippone
Il punto è: come cambiare rotta? Perchè G300 come grandezza del die (leggi: chippone) non mi pare discostarsi molto da GT200, il tutto col vantaggio dei 40nm.
Cioè qui davvero c'è il rischio che il g92 cambi ancora nome arrivando alla "quarta" generazione (serie 8, poi 9, quindi 200), nonchè al quinto rebranding (nuovo record?). Per ora che non serve potenza la cosa va ancora bene, ma quando risolveranno la cosa? Voglio dire, credo sia un problema che si pongono, perchè se davvero i margini son così bassi...
michelgaetano
20-08-2009, 10:14
AC ha fatto scuola su quanto fosse fuffa e quanto invece fossero soldi di nVidia investiti in contro-innovazione inviati direttamente nelle tasche degli sviluppatori...
Io devo ancora capirla ufficialmente quella cosa sai.
Ricordo si scoprì che AC andava meglio in dirx 10.1, risultando più leggero, Ubisoft patchò il gioco e la cosa fu rimossa.
Dal changelog, la cosa è giustificata così:
Risolto broken post-effects sulle schede abilitate al DirectX 10.1
Insomma, era davvero un difetto, o a Santa Clara hanno sborsato sul serio?
appleroof
20-08-2009, 10:22
Il punto è: come cambiare rotta? Perchè G300 come grandezza del die (leggi: chippone) non mi pare discostarsi molto da GT200, il tutto col vantaggio dei 40nm.
Cioè qui davvero c'è il rischio che il g92 cambi ancora nome arrivando alla "quarta" generazione (serie 8, poi 9, quindi 200), nonchè al quinto rebranding (nuovo record?). Per ora che non serve potenza la cosa va ancora bene, ma quando risolveranno la cosa? Voglio dire, credo sia un problema che si pongono, perchè se davvero i margini son così bassi...
credo la cosa si risolverà solo con pp ancora più piccoli, su questo stesso tread è stata postata la notizia che Nvidia punterebbe già ai 28nm entro il breve-medio termine e credo sia abbastanza significativa nel discorso che stiamo facendo...
AC ha fatto scuola su quanto fosse fuffa e quanto invece fossero soldi di nVidia investiti in contro-innovazione inviati direttamente nelle tasche degli sviluppatori...
un solo gioco non fà testo, credo tu lo riconosca, bisognerebbe dimostrare che tutti i giochi degli scorsi anni non sono stai sviluppati in dx10.1 per l'intervento diretto di Nvidia, che per quanto azienda importante, non credo possa arrivare a tanto, ti pare?
un solo gioco non fà testo, credo tu lo riconosca, bisognerebbe dimostrare che tutti i giochi degli scorsi anni non sono stai sviluppati in dx10.1 per l'intervento diretto di Nvidia, che per quanto azienda importante, non credo possa arrivare a tanto, ti pare?
Era sufficiente bloccare esclusivamente quelle sw house capaci di tale passo e con titoli abbastanza appetibili. Del resto il logo nvidia su gran parte dei giochi non era un caso.
Comunque, che nvidia abbia sborsato mazzetta o meno (questo non ci è dato sapere, al più possiamo fare qualche congettura), gli stessi principi applicati ad AC sono validi anche per gli altri titoli: le dx10.1 offrono sicuramente dei vantaggi prestazionali, ma figurati che interesse potrebbe avere a promuovere queste librerie una casa che mira a farti comprare schede video sempre più potenti e costose (un aumento di prestazioni avrebbe potuto rendere accessibili certi titoli di allora anche a schede meno potenti e costose), e soprattutto se questo richiedeva un ulteriore lavoro su un'architettura che le dx 10.1 non le supportava.
Ora che invece le dx 10.1 hanno mostrato un vantaggio concreto su un "titolo" (aero :p) su cui nvidia non ha avuto voce e di una certa rilevanza, nvidia ha dovuto implementarle.
michelgaetano
20-08-2009, 11:02
un solo gioco non fà testo, credo tu lo riconosca, bisognerebbe dimostrare che tutti i giochi degli scorsi anni non sono stai sviluppati in dx10.1 per l'intervento diretto di Nvidia, che per quanto azienda importante, non credo possa arrivare a tanto, ti pare?
Forse mi sbaglierò, ma sono abbastanza convinto che Nvidia, nel periodo tra RV600 e RV770, disponesse del "potere" necessario per far cambiare idea a molte software house. Credo poi molte di queste semplicemente non avrebbero abbracciato il directx 10.1 ugualmente (magari il motore del gioco rimaneva in directx 9, come fin troppi titoli). Inoltre i titoli degni di nota sono comunque pochi, è una cosa (il bloccare lo sviluppo dei titoli in 10.1) che credo si potesse fare.
Ovviamente non sto dicendo che l'ha fatto, ma solo, ripeto, che essendo l'azienda leader, ne potesse essere in grado per una serie di titoli.
appleroof
20-08-2009, 11:47
Era sufficiente bloccare esclusivamente quelle sw house capaci di tale passo e con titoli abbastanza appetibili. Del resto il logo nvidia su gran parte dei giochi non era un caso.
Comunque, che nvidia abbia sborsato mazzetta o meno (questo non ci è dato sapere, al più possiamo fare qualche congettura), gli stessi principi applicati ad AC sono validi anche per gli altri titoli: le dx10.1 offrono sicuramente dei vantaggi prestazionali, ma figurati che interesse potrebbe avere a promuovere queste librerie una casa che mira a farti comprare schede video sempre più potenti e costose (un aumento di prestazioni avrebbe potuto rendere accessibili certi titoli di allora anche a schede meno potenti e costose), e soprattutto se questo richiedeva un ulteriore lavoro su un'architettura che le dx 10.1 non le supportava.
Ora che invece le dx 10.1 hanno mostrato un vantaggio concreto su un "titolo" (aero :p) su cui nvidia non ha avuto voce e di una certa rilevanza, nvidia ha dovuto implementarle.
Non lo era. La qualità grafica non cambiava di una virgola nelle due modalità. La velocità di esecuzione invece si, e di parecchio...
Un solo gioco fa testo sul fatto che le DX10.1 non erano solo marketing, visto che in quella modalità il gioco andava meglio.
Sul fatto che nVidia paghi gli sviluppatori non c'è bisogno di alcuna prova, visto che è noto attraverso il logo TWIMTBP. Mi pare non ci voglia un'aquila per fare 2+2, ma il punto non era questo, contestavo la tua affermazione secondo cui le DX10.1 sono inutili. I pochi giochi DX10.1 sul mercato dimostrano chiaramente che in questa modalità il gioco ne guadagna in prestazioni con AA attivo (sarebbe stata utile a Crysis un abella modalità DX10.1 :asd: )
Forse mi sbaglierò, ma sono abbastanza convinto che Nvidia, nel periodo tra RV600 e RV770, disponesse del "potere" necessario per far cambiare idea a molte software house. Credo poi molte di queste semplicemente non avrebbero abbracciato il directx 10.1 ugualmente (magari il motore del gioco rimaneva in directx 9, come fin troppi titoli). Inoltre i titoli degni di nota sono comunque pochi, è una cosa (il bloccare lo sviluppo dei titoli in 10.1) che credo si potesse fare.
Ovviamente non sto dicendo che l'ha fatto, ma solo, ripeto, che essendo l'azienda leader, ne potesse essere in grado per una serie di titoli.
non ho affermato che le dx10.1 sono inutili, è evidente a chi si interessa un minimo di queste cose che non è così ed anzi è il contrario, ma che il supporto ad esse era un plus inesistente, per cui solo marketing, nel momento in cui non c'era un parco giochi minimo.
come giustamente detto, adesso è 7 ad averne dato un senso minimo (ma proprio minimo minimo :D), rendiamoci conto che ancora non parliamo di giochi ed in presenza significativa, questo non mi fà gridare che "Amd aveva ragione"
infine il fatto che il programma TWIMTBP sia un mero pagare gli sviluppatori è una congettura vera e propria, ufficialmente è una collaborazione per sfruttare al meglio le vga Nvidia da parte degli sviluppatori (adesso finalmente Amd ha riconosciuto cmq l'importanza di tale scelta, CMR2 lo dimostra, o dobbiamo parlare di mazzette per supportare le dx11? :asd: ) , tra l'altro quasi ininfluente dato che per molti giochi targati TWIMTBP, ora come in passato sopratutto lontano, abbiamo schede Ati che vanno meglio di quelle Nvidia.
Io credo che le dx10 (e di conseguenza le dx10.1) siano state "saltate" dagli sviluppatori per tutt'altri motivi quali lo strapotere consolle, la scarsa diffusione di Vista ecc ecc(per quanto riguarda strettamente Nvidia, potremmo parlare di fattore indiretto, ossia la quota di mercato rispetto al concorrente nel passato recente), ed il caso di AC sia un episodio isolato, di certo non un esempio emblematico di come siano andate le cose in generale.
michelgaetano
20-08-2009, 11:52
Io credo che le dx10 (e di conseguenza le dx10.1) siano state "saltate" dagli sviluppatori per tutt'altri motivi quali lo strapotere consolle, la scarsa diffusione di Vista ecc ecc(per quanto riguarda strettamente Nvidia, potremmo parlare di fattore indiretto, ossia la quota di mercato rispetto al concorrente nel passato recente), ed il caso di AC sia un episodio isolato, di certo non un esempio emblematico di come siano andate le cose in generale.
Verissimo anche questo.
Apple credo che ci sia una "piccola" differenza tra pagare per implementare le librerie piú nuove, e pagare per bloccarne l'utilizzo... :)
Nel primo caso promuovi il tuo hardware (piú avanzato), nel secondo stai bloccando l'evoluzione perché sei indietro (su quale dei 2 sia piú etico non mi pronuncio, anche se sapete come la penso).
Comunque torniamo a parlare di gt300 e seven:
Interessante il + 10% nelle soluzioni multi-gpu con il nuovo SO. Spero solo che sia dovuto davvero alla migliore gestione delle risorse.
appleroof
20-08-2009, 14:55
Apple credo che ci sia una "piccola" differenza tra pagare per implementare le librerie piú nuove, e pagare per bloccarne l'utilizzo... :)
Nel primo caso promuovi il tuo hardware (piú avanzato), nel secondo stai bloccando l'evoluzione perché sei indietro (su quale dei 2 sia piú etico non mi pronuncio, anche se sapete come la penso).
cut
a parte che invece in entrmabi i casi stai promuovendo il tuo hw, se ci pensi un secondo, rimane che ammesso e non concesso che abbiano pagato, sia Nvidia che Amd, mi devi spiegare perchè un comportamento cmq non etico, diciamo "giocare sporco", dovrebbe essere ammissibile o meno a seconda che ci faccia comodo...questo è, permettimi, meno che moralismo.
appleroof
20-08-2009, 15:12
Ci sono due differenze non formali.
La prima è che in un caso alteri il mercato bloccando l'avanzamento tecnologico, nell'altro promuovendolo. Non a caso non ho mai detto che sia scorretto che nVidia spinga su PhysX, anche se sono convinto che non avrà successo, così come non sono contrario al fatto che AMD spinga su DX11. Mentre ritengo scorretto e lesivo dei consumatori che nVidia abbia spinto fatto di tutto per frenare il passaggio a DX10.1, che ha dimostrato essere una tecnologia migliorativa rispetto a DX10.
La seconda differenza è che questo comportamento va anche a configurarsi come un vero e proprio abuso di posizione dominante, cosa che non può accadere per AMD, visto che in posizione dominante non è.
bè...http://www.hwupgrade.it/news/skvideo/gpu-discrete-per-notebook-oltre-la-meta-e-ati_29833.html :D
cmq stiamo pur sempre parlando di congetture, il discorso di the San era chiaro, e tu l'hai ribadito giustamente, visto che avete identità di vedute sulla cosa; che dire, io non sono d'accordo in questo caso, e credo di aver spiegato il perchè...;)
Che poi tanti discorsi sulle DX10.1 e 11 e le 10 manco sono state sfruttate. Fossero state anche per XP a quest'ora ci sarebbero un sacco di titoli full DX10.
appleroof
20-08-2009, 15:46
Dai su, quella non è posizione dominante di mercato, ma posizione dominante in una nicchia di mercato ;)
si ero ironico, per quello avevo messo la faccina :)
Che poi tanti discorsi sulle DX10.1 e 11 e le 10 manco sono state sfruttate. Fossero state anche per XP a quest'ora ci sarebbero un sacco di titoli full DX10.
quoto, anche secondo me questo è uno dei fattori principali di quanto è successo...;)
Kharonte85
20-08-2009, 15:58
Che poi tanti discorsi sulle DX10.1 e 11 e le 10 manco sono state sfruttate. Fossero state anche per XP a quest'ora ci sarebbero un sacco di titoli full DX10.
Per forza le software house devono pure sopravvivere e investire nelle dx10 (figuariamoci le dx10.1) sarebbe stato un suicidio economico perchè l'utenza che teoricamente le poteva sfruttare era troppo ristretta (Utenza pc [in calo e contemporaneamente aumenta la pirateria] ---> utenza con Vista [che ha venduto poco] ---> utenza con schede Dx10 ---> utenza con schede dx10.1 ---> schede che siano abbastanza potenti da sfruttare vantaggi dall'attivazione delle nuove features (non che poi vai a 20FPS) ---> possono organizzare la traversata in solitario a questo punto), a questo aggiungici che la maggior parte dei giochi è multipiattaforma (quindi al max dx9 con qualche effetto extra) ed è enormemente piu' economico progettarli/realizzarli contemporaneamente.
Accusare Nvidia di aver bloccato la diffusione su larga scala delle dx10.1 perchè probabilmente ha fermato 1 gioco che poteva attivare le dx10.1 e riportandolo su dx10 è quantomeno superfluo.
appleroof
20-08-2009, 16:18
cut
Accusare Nvidia di aver bloccato la diffusione su larga scala delle dx10.1 perchè probabilmente ha fermato 1 gioco che poteva attivare le dx10.1 e riportandolo su dx10 è quantomeno superfluo.
amen.
michelgaetano
20-08-2009, 16:20
amen.
Mi trovo anch'io d'accordo, perchè AC è l'unico titolo del quale siamo più o meno certi della cosa.
Ma a quel punto, perchè non lasciarlo così come è, visto che di un solo titolo si trattava? Tra l'altro se non ricordo male al tempo la top Ati fosse la 3870, neanche tutta questa gran potenza da impiensierire Nvidia...
Mentre ritengo scorretto e lesivo dei consumatori che nVidia abbia spinto fatto di tutto per frenare il passaggio a DX10.1, che ha dimostrato essere una tecnologia migliorativa rispetto a DX10.
Dipende dai punti di vista: lesivo nei confronti dell'utenza Amd, ma protettivo nei contronti dell'utenza nVidia.
michelgaetano
20-08-2009, 16:37
Dipende dai punti di vista: lesivo nei confronti dell'utenza Amd, ma protettivo nei contronti dell'utenza nVidia.
Dipende da cosa intendi proteggere l'utenza Nvidia.
Dipende da cosa intendi proteggere l'utenza Nvidia.
Se spendo 400 euro per una scheda video e dopo 3 mesi esce l'SP1 di vista che introduce le dx10.1, e a seguire giochi che ne beneficiano obsoletando il mio hardware, mi sentirei quantomeno un pochettino triste.
Bastoner
20-08-2009, 17:09
Bhé, Microsoft (con l'adozione delle dx10 solo su XP) e Nvidia (con le sue politiche monopolistiche scorrette - vedi Assassin's Crees), sono fra i principali responsabili della mancata evoluzione dei giochi per PC. Ci ritroviamo dopo anni a giocare alle stesse trite dx9c.
appleroof
20-08-2009, 17:18
Bhé, Microsoft (con l'adozione delle dx10 solo su XP) e Nvidia (con le sue politiche monopolistiche scorrette - vedi Assassin's Crees), sono fra i principali responsabili della mancata evoluzione dei giochi per PC. Ci ritroviamo dopo anni a giocare alle stesse trite dx9c.
la cosa buffa che forse rende l'idea di quanto le cose siano in realtà molto più complesse di quanto si creda è che anche Ati mangia in tutto ciò, fornendo il chip grafico della xbox 360
meditate gente, meditate :D
Certo la diffusione di Vista non ha aiutato ma più che altro credo che il problema sia da ricercarsi nelle console, che sono DX9 nella migliore delle ipotesi ;)
si anche questo fattore ha contribuito
la cosa buffa che forse rende l'idea di quanto le cose siano in realtà molto più complesse di quanto si creda è che anche Ati mangia in tutto ciò, fornendo il chip grafico della xbox 360
meditate gente, meditate :D
e a noi tocca solo pagare ??? vogliamo mangiare un pò :mad: :D
appleroof
20-08-2009, 17:25
cut
e a noi tocca solo pagare ??? vogliamo mangiare un pò :mad: :D
:bsod: :stordita: :D
Bhé, Microsoft (con l'adozione delle dx10 solo su XP) e Nvidia (con le sue politiche monopolistiche scorrette - vedi Assassin's Crees), sono fra i principali responsabili della mancata evoluzione dei giochi per PC. Ci ritroviamo dopo anni a giocare alle stesse trite dx9c.
Oggi il mercato gaming per pc è snobbato dai pubblisher e quindi software house, semplicemente perchè il ritorno economico non giustifica gli investimenti.
Se io devo investire vagonate di euro per produrre un gioco che, vuoi per la pirateria, vuoi per la varietà delle configurazione hardware/software che mi costringono a salti mortali per farlo girare, non si compra nessuno, me ne frego delle DX10 o DX11, sviluppo per console e con qualche euro in più mi faccio il porting su pc.
Oggi il mercato gaming per pc è snobbato dai pubblisher e quindi software house, semplicemente perchè il ritorno economico non giustifica gli investimenti.
Se io devo investire vagonate di euro per produrre un gioco che, vuoi per la pirateria, vuoi per la varietà delle configurazione hardware/software che mi costringono a salti mortali per farlo girare, non si compra nessuno, me ne frego delle DX10 o DX11, sviluppo per console e con qualche euro in più mi faccio il porting su pc.
esatto...
Bastoner
20-08-2009, 18:30
Infatti, il gaming su PC é danneggiato da una serie di fattori. Io ho detto che Nvidia e Microsoft sono fra i principali responsabili, insieme alle console, alla pirateria etc.
Apple credo che ci sia una "piccola" differenza tra pagare per implementare le librerie piú nuove, e pagare per bloccarne l'utilizzo... :)
Nel primo caso promuovi il tuo hardware (piú avanzato), nel secondo stai bloccando l'evoluzione perché sei indietro (su quale dei 2 sia piú etico non mi pronuncio, anche se sapete come la penso).
Comunque torniamo a parlare di gt300 e seven:
Interessante il + 10% nelle soluzioni multi-gpu con il nuovo SO. Spero solo che sia dovuto davvero alla migliore gestione delle risorse.
Rispetto a Vista la RTM di 7 nonchè versione finale, la differenza è praticamente impercettibile anche in multi-gpu
http://www.guru3d.com/article/windows-7-vs-vista-vga-game-performance/
Rispetto a Vista la RTM di 7 nonchè versione finale, la differenza è praticamente impercettibile anche in multi-gpu
http://www.guru3d.com/article/windows-7-vs-vista-vga-game-performance/
Articolo interessante. Allo stato attuale per il gaming i due OS si equivalgono.
la cosa buffa che forse rende l'idea di quanto le cose siano in realtà molto più complesse di quanto si creda è che anche Ati mangia in tutto ciò, fornendo il chip grafico della xbox 360
meditate gente, meditate :D
scusa ma che significa quello che hai scritto?
scusa ma che significa quello che hai scritto?Se ho capito giusto :D :
ATi innova nelle schede grafiche desktop, ma allo stesso tempo fornisce i chip grafici della xbox360 da cui vengono la maggior parte dei porting obsoleti che minano l'evoluzione dei games per pc.
Se ho capito giusto :D :
ATi innova nelle schede grafiche desktop, ma allo stesso tempo fornisce i chip grafici della xbox360 da cui vengono la maggior parte dei porting obsoleti che minano l'evoluzione dei games per pc.
In realtà non dovrebbe essere esattamente così.
MS quando scelse Ati per la gpu della 360 lo fece sia per il vantaggio tecnologico che Ati aveva allora nei confronti dell'altro grande produttore, ma soprattutto perchè fu disposta a vendere la proprietà intellettuale del chip a MS.
Dopo l'acquisizione del progetto i rapporti con Ati si dovrebbero essere limitati esclusivamente a consulenze per l'ottimizzazione del software che doveva girare con quella GPU, quindi Ati ha progettato la gpu, e MS la produce rivolgendosi alla fonderia con cui riesce a strappare i contratti migliori, mica fesso Bill Gates :D
Fonte: Fattore X di Dean Takahashi.
Bastoner
22-08-2009, 07:15
scusa ma che significa quello che hai scritto?
Infatti non ha molto senso, qualcuno doveva pur darglielo un chip a questa xbox360. Non per questo ATI é responsabile quanto Nvidia dello stallo nel mondo dei giochi per PC. :)
Infatti non ha molto senso, qualcuno doveva pur darglielo un chip a questa xbox360. Non per questo ATI é responsabile quanto Nvidia dello stallo nel mondo dei giochi per PC. :)
Oddio ancora con sta storia, ma vabbè, la tua firma è tutto un programma :cry:
Bastoner
22-08-2009, 08:15
Oddio ancora con sta storia, ma vabbè, la tua firma è tutto un programma :cry:
Bhé, appigliati pure alla mia firma, faccio solo informazione. Ho sempre comprato schede Nvidia, solo che non sono un fanboy come molti qui, che se hanno Intel difendono a spada tratta Intel, se hanno Nvidia guai a toccare la mamma verde.
Bhé, appigliati pure alla mia firma, faccio solo informazione.
La tua firma la trovo triste non perchè è la firma di un fanboy, ma perchè mette in evidenza un'aspetto assolutamente nuovo, ovvero, un'azienda che non fa beneficienza, e il cui obbiettivo primario è quello di massimizzare i profitti, cerca di trarne i maggiori vantaggi vendendo le proprie tecnologie, sai che novità.
Bastoner
22-08-2009, 08:55
La tua firma la trovo triste non perchè è la firma di un fanboy, ma perchè mette in evidenza un'aspetto assolutamente nuovo, ovvero, un'azienda che non fa beneficienza, e il cui obbiettivo primario è quello di massimizzare i profitti, cerca di trarne i maggiori vantaggi vendendo le proprie tecnologie, sai che novità.
Ognuno trae le sue conclusioni a seconda della propria esperienza. L'importante é essere consapevoli.
In particolare é importante che gli utenti sappiano che quando comprano una mobo SLI READY, stanno pagando il supporto alla tecnologia SLI anche se non avranno alcuna intenzione di utilizzarla.
Ognuno trae le sue conclusioni a seconda della propria esperienza. L'importante é essere consapevoli.
In particolare é importante che gli utenti sappiano che quando comprano una mobo SLI READY, stanno pagando il supporto alla tecnologia SLI anche se non avranno alcuna intenzione di utilizzarla.
e allora dubito che se la comprino.
Bastoner
22-08-2009, 08:58
e allora dubito che se la comprino.
No credo proprio, visto che tutte o quasi tutte le mobo x58 e P55 hanno il supporto SLI. :D
No credo proprio, visto che tutte le mobo x58 e P55 hanno il supporto SLI. :D
e allora se la pagano :D
Bastoner
22-08-2009, 09:04
e allora se la pagano :D
E' bello vedere che gli utenti abbiano un grande spirito critico e una capacità di discernimento notevole. :D
E' bello vedere che gli utenti abbiano un grande spirito critico e una capacità di discernimento notevole. :D
sinceramente compro in base a quello che credo soddisfi le mie esigenze, per il resto farmi del sangue marcio per eventuali complotti o mosse azzardate di marketing non ne ho testa. Se una cosa mi piace la compro, se non mi piace/convince la lascio dove sta e vivo sereno :D
appleroof
22-08-2009, 10:18
sinceramente compro in base a quello che credo soddisfi le mie esigenze, per il resto farmi del sangue marcio per eventuali complotti o mosse azzardate di marketing non ne ho testa. Se una cosa mi piace la compro, se non mi piace/convince la lascio dove sta e vivo sereno :D
bella ;)
Infatti non ha molto senso, qualcuno doveva pur darglielo un chip a questa xbox360. Non per questo ATI é responsabile quanto Nvidia dello stallo nel mondo dei giochi per PC. :)
lo stallo è dovuto da una serie di fattori, come ho avuto più volte modo di dire, mi sembra quantomeno riduttivo attribuire tutto ad Nvidia, quando non è così.
Bastoner
22-08-2009, 10:25
lo stallo è dovuto da una serie di fattori, come ho avuto più volte modo di dire, mi sembra quantomeno riduttivo attribuire tutto ad Nvidia, quando non è così.
Dove avrei attribuito tutto a Nvidia? Ma se ho detto esattamente l'oppposto. :rolleyes:
Bhé, Microsoft (con l'adozione delle dx10 solo su XP) e Nvidia (con le sue politiche monopolistiche scorrette - vedi Assassin's Crees), sono fra i principali responsabili della mancata evoluzione dei giochi per PC. Ci ritroviamo dopo anni a giocare alle stesse trite dx9c.
Infatti, il gaming su PC é danneggiato da una serie di fattori. Io ho detto che Nvidia e Microsoft sono fra i principali responsabili, insieme alle console, alla pirateria etc.
A mio avviso non riterrei le console le responsabili dello stallo tecnologico del videogaming PC tanto quanto le ristrutturazione che l'intero settore dell'intrattenimento digitale ha vissuto in questi anni...Parliamo di un mercato che allo stato attuale fattura più di quanto facciano il cinema e la stessa musica...non dimentichiamo che colossi come EA sono nati come software House per poi divenire esclusivamente produttori: acquisizioni, quotazioni in borsa, fusioni e quant'altro hanno decisamnete impoverito il panorama creativo e la sua offerta ..poche compagnie su scala globale in cerca di profitti stratosferici...
E' il segno dei tempi...nulla più!
Dopotutto le console ci sono da decenni ed hanno sempre convissuto con il mondo PC..... =)
Bastoner
22-08-2009, 10:45
A mio avviso non riterrei le console le responsabili dello stallo tecnologico del videogaming PC tanto quanto le ristrutturazione che l'intero settore dell'intrattenimento digitale ha vissuto in questi anni...Parliamo di un mercato che allo stato attuale fattura più di quanto facciano il cinema e la stessa musica...non dimentichiamo che colossi come EA sono nati come software House per poi divenire esclusivamente produttori: acquisizioni, quotazioni in borsa, fusioni e quant'altro hanno decisamnete impoverito il panorama creativo e la sua offerta ..poche compagnie su scala globale in cerca di profitti stratosferici...
E' il segno dei tempi...nulla più!
Si, il tuo punto di vista é molto interessante, anche se io vedo anche la responsabilità di potenti compagnie che mettono in atto pratiche monopolistiche scorrette e conservative.
Cmq qui siamo ormai abbondantemente OT.
appleroof
22-08-2009, 11:54
Dove avrei attribuito tutto a Nvidia? Ma se ho detto esattamente l'oppposto. :rolleyes:
ok non avevo tenuto conto degli altri post. Cmq puntualizzo solo che la "responsabilità" di Nvidia risiederebbe nel "bloccare" le dx10.1 (unico caso nemmeno acclarato al 100%, AC) non le dx10. Se in questi anni fossero usciti giochi dx9 perchè Nvidia aveva schede dx9, allora potrei capire il ruolo della stessa nello stallo attuale, diversamente non vedo come essa possa avere avuto una così pesante responsabilità
ok non avevo tenuto conto degli altri post. Cmq puntualizzo solo che la "responsabilità" di Nvidia risiederebbe nel "bloccare" le dx10.1 (unico caso nemmeno acclarato al 100%, AC) non le dx10. Se in questi anni fossero usciti giochi dx9 perchè Nvidia aveva schede dx9, allora potrei capire il ruolo della stessa nello stallo attuale, diversamente non vedo come essa possa avere avuto una così pesante responsabilità
Del resto con la serie G80 ha avuto l'architettura DX10 più performante....sarebbe stato utile spingere su game DX10 per mostrare i limiti di R600...
Del resto con la serie G80 ha avuto l'architettura DX10 più performante....sarebbe stato utile spingere su game DX10 per mostrare i limiti di R600...
in più molti di noi hanno ormai una vga dx10 nel case, mancano l'os sull'hd ed i software, vediamo ora se W7 riesce a catturare i Vista-scettici.
molochgrifone
24-08-2009, 17:11
sinceramente compro in base a quello che credo soddisfi le mie esigenze, per il resto farmi del sangue marcio per eventuali complotti o mosse azzardate di marketing non ne ho testa. Se una cosa mi piace la compro, se non mi piace/convince la lascio dove sta e vivo sereno :D
Che Genovese saggio che sei :asd:
PS: hai PM ;)
Che Genovese saggio che sei :asd:
PS: hai PM ;)
Tu puoi capirmi :D
Risposto ;)
Life bringer
24-08-2009, 17:45
Zeneise anche ti? :asd:
Concordo con lo zena pensiero...
Andrea deluxe
25-08-2009, 08:56
http://www.donanimhaber.com/DH_Ozel_DirectX_101_destekli_GeForce_GT220_detaylandi-15405.htm
http://www.donanimhaber.com/DH_Ozel_DirectX_101_destekli_GeForce_GT220_detaylandi-15405.htm
le mie due ultime vga sono state nvidia e mi sono trovato bene, tuttavia quelle che hai linkato le trovo "a rischio" arrivando a ridosso delle Ati
http://www.hwupgrade.it/news/skvideo/ati-radeon-hd-serie-5800-i-primi-dettagli_29876.html
halduemilauno
25-08-2009, 09:12
le mie due ultime vga sono state nvidia e mi sono trovato bene, tuttavia quelle che hai linkato le trovo "a rischio" arrivando a ridosso delle Ati
http://www.hwupgrade.it/news/skvideo/ati-radeon-hd-serie-5800-i-primi-dettagli_29876.html
ma quella linkata è una scheda di fascia bassa praticamente la sostituta della 9500gt quindi niente a che vedere con le 58xx.
;)
ma quella linkata è una scheda di fascia bassa praticamente la sostituta della 9500gt quindi niente a che vedere con le 58xx.
;)
ok, se è così ti quoto....
Da quanto ne sappiamo AMD dovrebbe uscire con tutta la lineup (a parte probabilmente la X2 che come al solito uscirà uno o due mesi dopo), quindi questa GF 220 da qualche parte si scontrerà con le HD5xxx (HD5400?)
....se invece è così, mi quoto :D
halduemilauno
25-08-2009, 09:23
ok, se è così ti quoto....
....se invece è così, mi quoto :D
ma dato che hai messo il link alle 58xx...alle 54xx le cose cambiano.
;)
ma dato che hai messo il link alle 58xx...alle 54xx le cose cambiano.
;)
si questo è vero ;)
Certo la diffusione di Vista non ha aiutato ma più che altro credo che il problema sia da ricercarsi nelle console, che sono DX9 nella migliore delle ipotesi ;)
Sono d'accordo sul concetto, ma sulle API delle console nella migliore delle ipotesi, devo correggerti: le API della Xbox 360 sono un superset delle DX9.0c, con sprazzi di DX11, addirittura (tessellation, seppure alla maniera di ATI attuale, cioè attraverso i vertex shader e non tramite hull/domain shader). ;)
Sono d'accordo sul concetto, ma sulle API delle console nella migliore delle ipotesi, devo correggerti: le API della Xbox 360 sono un superset delle DX9.0c, con sprazzi di DX11, addirittura (tessellation, seppure alla maniera di ATI attuale, cioè attraverso i vertex shader e non tramite hull/domain shader). ;)
Però avere una Geforce 7 nella PS3 frena, non è la 360 il vero problema. :cry:
Le console ci sono da sempre...!
L'Amiga 500 si è "confrontata" con il Megadrive ed il SuperNes eppure ogni sviluppatore si è prodigato di ottenere il meglio da ciascuna piattaforma: ogni titolo esaltava l'hardware su cui girava, non a caso esiste il termine "Killer Application".
Il problema odierno è la dimensione esclusivamente commeciale che il gaming ha assunto..troppe software house ostaggio di pochi e avidi produttori! Il settore dei videogame è soggetto alla medesima deriva qualitativa del cinema...
Però avere una Geforce 7 nella PS3 frena, non è la 360 il vero problema. :cry:
Già... :asd:
Appunto, nella migliore delle ipotesi abbiamo supportato lo standard DX9.
Sì, però ad esempio già con queste console alcune features DX10 (ecco il perchè del "superset") e DX11 potrebbero essere implementate, a cominciare proprio dalla tessellation.
Il vero problema è che la PS3 non ha nulla di tutto questo, come ha già detto Defragg. Quindi giochi che la supportino fino alle console di prossima generazione potrebbero essercene pochini, a meno che le software house non si rassegnino ad una versione significativamente più brutta dal punto di vista grafico per la console di Sony...
Già... :asd:
Sì, però ad esempio già con queste console alcune features DX10 (ecco il perchè del "superset") e DX11 potrebbero essere implementate, a cominciare proprio dalla tessellation.
Il vero problema è che la PS3 non ha nulla di tutto questo, come ha già detto Defragg. Quindi giochi che la supportino fino alle console di prossima generazione potrebbero essercene pochini, a meno che le software house non si rassegnino ad una versione significativamente più brutta dal punto di vista grafico per la console di Sony...
Stando a questo ragionamento dovrei supporre che tutto il parco titoli multipiattaforma non sfrutta le possibilità offerte dal X360...e perchè non pensare che sia il WII il vero motivo dei titolacci sulle console nextgen..?
L' hardware peggiore castra i migliori...!? Se così fosse non avrebbe senso spendere soldi in R&D e farsi concorrenza...basterebbe una piattaforma comune in stile vecchio 3DO...
Il problema non è tecnologico..è la direzione che ha preso questo mercato ad essere misera..continuo a guardare Valve come elemento di novità in assoluta controtendenza...: gli unici a sostenere che il gaming su Pc non sia in crisi e che la pirateria non sia lo strumentale pericolo mortale...
Stando a questo ragionamento dovrei supporre che tutto il parco titoli multipiattaforma non sfrutta le possibilità offerte dal X360...e perchè non pensare che sia il WII il vero motivo dei titolacci sulle console nextgen..?
L' hardware peggiore castra i migliori...!? Se così fosse non avrebbe senso spendere soldi in R&D e farsi concorrenza...basterebbe una piattaforma comune in stile vecchio 3DO...
Il problema non è tecnologico..è la direzione che ha preso questo mercato ad essere misera..continuo a guardare Valve come elemento di novità in assoluta controtendenza...: gli unici a sostenere che il gaming su Pc non sia in crisi e che la pirateria non sia lo strumentale pericolo mortale...
Perchè Wii ha creato una "sezione a parte" nella programmazione dei giochi, anzi, a dirla tutta ha solo continuato quella di PS2, GC e Xbox (in meglio ovviamente, ma su quei livelli, non dimentichiamoci che Wii è circa il doppio di GC, leggermente superiore a Xbox), ovviamente tralasciando il lato della giocabilità :)
appleroof
26-08-2009, 15:53
Sono d'accordo sul concetto, ma sulle API delle console nella migliore delle ipotesi, devo correggerti: le API della Xbox 360 sono un superset delle DX9.0c, con sprazzi di DX11, addirittura (tessellation, seppure alla maniera di ATI attuale, cioè attraverso i vertex shader e non tramite hull/domain shader). ;)
ma quindi? farebbe girare un gioco scritto nativamente in dx10 o dx11? Mi pare la risposta sia negativa, correggimi se sbaglio; forse girerebbero giochi scritti in dx9 con spruzzatine di effetti dx10 o dx11, ma con quali prestazioni?
mi pare siamo punto e a capo :boh:
Le console ci sono da sempre...!
L'Amiga 500 si è "confrontata" con il Megadrive ed il SuperNes eppure ogni sviluppatore si è prodigato di ottenere il meglio da ciascuna piattaforma: ogni titolo esaltava l'hardware su cui girava, non a caso esiste il termine "Killer Application".
cut
bè... l'amiga è "come una consolle", essendo un sistema chiuso...
ma quindi? farebbe girare un gioco scritto nativamente in dx10 o dx11? Mi pare la risposta sia negativa, correggimi se sbaglio; forse girerebbero giochi scritti in dx9 con spruzzatine di effetti dx10 o dx11, ma con quali prestazioni?
mi pare siamo punto e a capo :boh:
La mia era solo una precisazione, infatti: dopo ho anche scritto che non credo che il problema principale sia quello dell'hw delle console. ;)
Detto questo, se solo si implementasse più spesso la tessellation su XBox360, arriverebbe molto più in fretta ai PC.
Tra l'altro in realtà anche la storia dei giochi "davvero DX10" non ha più molto senso... Si pensava (io per primo) che le DX10 avrebbero portato un approccio più shader based, nella realtà dei fatti non è stato così, la migliore qualità grafica che si ottiene su PC è più spesso frutto di migliori textures che altro.
Le DX10 sono probabilmente tanto rivoluzionarie dal punto di vista della programmazione, quanto non lo sono dal punto di vista della grafica. Sinceramente fatico ancora a vedere vere grandi differenze tra le versioni DX9 e DX10 di uno stesso gioco. E sinceramente non mi aspetto che con il tempo le DX10 portino vere innovazioni nella grafica, proprio perchè a ben vedere non ci sono tante cose che portino vere innovazioni rispetto a quanto si può fare con le DX9. Forse qualcosina tipo un maggior uso di ombre stencil via geometry shaders. Il salto DX8.1 -> 9.0 fu ben altra cosa, da questo punto di vista.
Qualcosa le DX10 dovevano apportare in termini di migliore uso delle risorse, e spero che almeno in questo in futuro si facciano passi avanti...
Ecco perchè alla fine penso che invece le DX11 siano quello che sarebbero dovuto essere le DX10... La tessellation ha delle potenzialità notevoli: si potranno avere per la prima volta forme davvero simili a qualcosa di rotondo in un videogame, ad esempio, e non dei poligoni con innumerevoli lati. Quindi per la prima volta si potrebbe notare una vera differenza tra un gioco DX9 (senza tessellation) ed uno successivo.
appleroof
26-08-2009, 17:16
La mia era solo una precisazione, infatti: dopo ho anche scritto che non credo che il problema principale sia quello dell'hw delle console. ;)
Detto questo, se solo si implementasse più spesso la tessellation su XBox360, arriverebbe molto più in fretta ai PC.
Tra l'altro in realtà anche la storia dei giochi "davvero DX10" non ha più molto senso... Si pensava (io per primo) che le DX10 avrebbero portato un approccio più shader based, nella realtà dei fatti non è stato così, la migliore qualità grafica che si ottiene su PC è più spesso frutto di migliori textures che altro.
Le DX10 sono probabilmente tanto rivoluzionarie dal punto di vista della programmazione, quanto non lo sono dal punto di vista della grafica. Sinceramente fatico ancora a vedere vere grandi differenze tra le versioni DX9 e DX10 di uno stesso gioco. E sinceramente non mi aspetto che con il tempo le DX10 portino vere innovazioni nella grafica, proprio perchè a ben vedere non ci sono tante cose che portino vere innovazioni rispetto a quanto si può fare con le DX9. Forse qualcosina tipo un maggior uso di ombre stencil via geometry shaders. Il salto DX8.1 -> 9.0 fu ben altra cosa, da questo punto di vista.
Qualcosa le DX10 dovevano apportare in termini di migliore uso delle risorse, e spero che almeno in questo in futuro si facciano passi avanti...
Ecco perchè alla fine penso che invece le DX11 siano quello che sarebbero dovuto essere le DX10... La tessellation ha delle potenzialità notevoli: si potranno avere per la prima volta forme davvero simili a qualcosa di rotondo in un videogame, ad esempio, e non dei poligoni con innumerevoli lati. Quindi per la prima volta si potrebbe notare una vera differenza tra un gioco DX9 (senza tessellation) ed uno successivo.
perchè hai avuto l'onore di vedere un gioco scritto nativamente in dx10, "spremendole" a fondo? :stordita:
Le dx10 semplicemente sono state saltate, per una serie di motivi (i soliti che nel mio piccolo elenco, cioè oltre al naturale lasso di tempo che occorre agli sviluppatori per prendere confidenza con nuove librerie, l'aggravante della scarsa diffusione di Vista e il grosso successo dei giochi per consolle -a loro volta molto più remunerativi di quelli per pc, sarà per la pirateria o chissà, ma i dati sono quelli- che come abbiamo detto sono fondamentalmente dx9)
ora sono d'accordo su quanto dici sulle dx11, e spero davvero di vedere qualche novità in questo senso, ma se 7 -unito alle macchine con Vista- forse aiuterà ad allargare il potenziale mercato dei giochi per pc e quindi a renderlo più allettante, rimane la presenza delle consolle a rendermi scettico (la stessa crytech per tutti questi motivi alla fine si è piegata alle consolle, mi are il caso più emblematico); la mia "paura" è che assisteremo ancora a lungo (e cioè più o meno fino al debutto delle prox consolles) a giochi dx9 con una spruzzatina di effetti dx10 o dx11 per far piacere ai relativamente pochi possessori di hw adatto (crysis per Nvidia e le dx10, adesso Cmrae 2 per Ati e le dx11 mi sembrano gli esempi adatti a spiegare cosa intendo, al di là di quello che è stato o sarà -per cmr2- il risultato finale).
Da appassionato spero ovviamente di essere smentito al più presto...
....CUT
bè... l'amiga è "come una consolle", essendo un sistema chiuso...
Il senso della mia affermazione è che all'epoca vi erano cmq piattaforme basate su hardware diverso e ciò non impedì che per ciascuna di esse venissrro sfruttati i rispettivi punti di forza...ad esmpio l'Atari ST aveva un sottosistema grafico decisamente meno performante di quello Amiga eppure i giochi multipiattaforma (esistenti anche all'epoca) non erano appiattiti sul hardware meno performante..Ovviamente parliamo di altri tempi e la programmazione era decisamente più a basso livello e per questo più specifica e customizzata di quanto non lo sia adesso....
In un certo qual modo anche la standardizzazione, la nascita e lo sviluppo delle API grafiche ha finito per essere "un fattore limitante"...ricordo ancora Unreal con le GLIDE su VGA 3DFX...: un'altro pianeta!
Se aggiungi che i pionieri della creazione dei videogames erano anzitutto dei visionari ...e che oggi il settore è divenuto in mano alle multinazionali dell'intrattenimento..non c'è da esser fiduciosi....
L'unica possibilità concreta di vedere game più PC oriented è che ATI ed Nvidia caccino più denaro per gli sviluppatori...
perchè hai avuto l'onore di vedere un gioco scritto nativamente in dx10, "spremendole" a fondo? :stordita:
Questo è vero, come però è vero anche che le DX10, dal punto di vista strettamente grafico, non è che introducessero mirabilie. Le già citate ombre stencil, il displacement mapping, e l'AA migliore solo con le DX10.1.
C'è la possibilità di fare morphing delle forme più facilmente, se non ricordo male, ma mi sa che non si è mai vista. Dubito che un gioco "DX10 nativo" possa essere graficamente più bello di Crysis, in cui comunque il 99.9% degli effetti era puramente DX9 (l'hack per XP lo conferma).
Le DX10 erano nate per estendere le DX9, ma soprattutto per razionalizzarne l'uso delle risorse, grazie soprattutto alla limitazione degli overhead.
Nemmeno il passaggio agli unified shaders può essere considerata un'innovazione delle DX10, visto che MS aveva espressamente detto che si poteva optare per un'architettura non unificata ed avere hw DX10 compliant comunque.
Come ho già detto, si pensava che, per tutta una serie di motivi, le DX10 avrebbero portato a giochi molto più shader based, ma la cosa non è avvenuta, se non in minima parte. E questo non si può tributare esclusivamente alle console, imho. In effetti, come anche in passato mi venne fatto notare da yoss, non si può passare nel breve medio periodo ad un approccio tutto alu, perchè l'arte che è dietro la creazione dei videogames si basa molto sul texturing.
A mente fredda, grandi rivoluzioni non ce n'erano (parlo dal punto di vista della resa grafica finale), sono solamente stati bravi (fino ad un certo punto, perchè poi la cosa gli si è ritorta contro) quelli di MS a venderla come una cosa strabiliante.
L'unica cosa che ci si dovrebbe veramente aspettare dai giochi DX10 nativi è che siano più veloci a parità di effetti della versione DX9 (ma il rischio è che, a causa dell'OS, anche questa miglioria non si vedrà...)
Hai qualche altro esempio di effetto davvero groundbreaking che è stato portato dalle DX10?
Se guardiamo ai giochi nelle versioni per console (che sono DX9), in realtà presentano più o meno gli stessi effetti / possibilità di resa grafica di un PC, a parte il fatto che le gpu più potenti per PC possono mostrare più poligoni a schermo, texture a più alta risoluzione, attivare più effetti contemporaneamente, ecc...
Ma di effetti nuovi / rese davvero migliori io continuo a non vederne. Ed ecco perchè penso che la tessellation sia una delle poche vere innovazioni dai tempi del passaggio alle DX9. ;)
appleroof
26-08-2009, 18:12
Il senso della mia affermazione è che all'epoca vi erano cmq piattaforme basate su hardware diverso e ciò non impedì che per ciascuna di esse venissrro sfruttati i rispettivi punti di forza...ad esmpio l'Atari ST aveva un sottosistema grafico decisamente meno performante di quello Amiga eppure i giochi multipiattaforma (esistenti anche all'epoca) non erano appiattiti sul hardware meno performante..Ovviamente parliamo di altri tempi e la programmazione era decisamente più a basso livello e per questo più specifica e customizzata di quanto non lo sia adesso....
In un certo qual modo anche la standardizzazione, la nascita e lo sviluppo delle API grafiche ha finito per essere "un fattore limitante"...ricordo ancora Unreal con le GLIDE su VGA 3DFX...: un'altro pianeta!
Se aggiungi che i pionieri della creazione dei videogames erano anzitutto dei visionari ...e che oggi il settore è divenuto in mano alle multinazionali dell'intrattenimento..non c'è da esser fiduciosi....
L'unica possibilità concreta di vedere game più PC oriented è che ATI ed Nvidia caccino più denaro per gli sviluppatori...
ok, adesso ho capito quello che intendevi...
riguardo all'ultima frase, non so se cacciano denaro o altro, ma di fatto loro spingono perchè ne hanno interesse: ho già citato cmr2 e le dx11 (ho letto adesso che anche lost planet 2 le supporterà, bene) poi leggo anche con estremo piacere, visto che considero Mafia il Capolavoro di tutti itempi personale, che Mafia 2 avrà una gestione della fisica eccellente e supporterà Physx (sarà quasi determinante per me vedere come lo gestirà gt300 e se in mancanza di vga Nvidia il livello di fisica sarà cmq buono, per decidere il mio prox acquisto :D )
ok, adesso ho capito quello che intendevi...
riguardo all'ultima frase, non so se cacciano denaro o altro, ma di fatto loro spingono perchè ne hanno interesse: ho già citato cmr2 e le dx11 (ho letto adesso che anche lost planet 2 le supporterà, bene) poi leggo anche con estremo piacere, visto che considero Mafia il Capolavoro di tutti itempi personale, che Mafia 2 avrà una gestione della fisica eccellente e supporterà Physx (sarà quasi determinante per me vedere come lo gestirà gt300 e se in mancanza di vga Nvidia il livello di fisica sarà cmq buono, per decidere il mio prox acquisto :D )
LP2 e CMR2 dietro spinta ATI sponsorizzeranno le DX11 che rimarrrano prerogativa canadese per qualche mese...MAFIA2 mostrerà invece le meraviglie di Physx che è esclusiva di Nvidia..
Ciascuna azienda cerca di fare delle feature esclusive un punto di forza nei riguardi della concorrenza....
In assenza di incentivi perchè una qualsiasi software house dovrebbe prodigarsi per esaltare questa o quella caratteristica..?Non è forse più semplice affidarsi alla collaudate DX9 grazie alle quali si possono prendere più piccioni con una fava..?
Inoltre da un punto di vista strettamente tecnico non dimentichiamo che le DX9 sono state un vero è propio step epocale per il mondo del videogaming..l'introduzione di HLSL è esempio emblematico...non è tanto semplice e scontato, nonchè economico disporre di programmatori che dall'oggi al domani faccian propie le nuove API...
appleroof
26-08-2009, 20:52
Questo è vero, come però è vero anche che le DX10, dal punto di vista strettamente grafico, non è che introducessero mirabilie. Le già citate ombre stencil, il displacement mapping, e l'AA migliore solo con le DX10.1.
C'è la possibilità di fare morphing delle forme più facilmente, se non ricordo male, ma mi sa che non si è mai vista. Dubito che un gioco "DX10 nativo" possa essere graficamente più bello di Crysis, in cui comunque il 99.9% degli effetti era puramente DX9 (l'hack per XP lo conferma).
Le DX10 erano nate per estendere le DX9, ma soprattutto per razionalizzarne l'uso delle risorse, grazie soprattutto alla limitazione degli overhead.
Nemmeno il passaggio agli unified shaders può essere considerata un'innovazione delle DX10, visto che MS aveva espressamente detto che si poteva optare per un'architettura non unificata ed avere hw DX10 compliant comunque.
Come ho già detto, si pensava che, per tutta una serie di motivi, le DX10 avrebbero portato a giochi molto più shader based, ma la cosa non è avvenuta, se non in minima parte. E questo non si può tributare esclusivamente alle console, imho. In effetti, come anche in passato mi venne fatto notare da yoss, non si può passare nel breve medio periodo ad un approccio tutto alu, perchè l'arte che è dietro la creazione dei videogames si basa molto sul texturing.
A mente fredda, grandi rivoluzioni non ce n'erano (parlo dal punto di vista della resa grafica finale), sono solamente stati bravi (fino ad un certo punto, perchè poi la cosa gli si è ritorta contro) quelli di MS a venderla come una cosa strabiliante.
L'unica cosa che ci si dovrebbe veramente aspettare dai giochi DX10 nativi è che siano più veloci a parità di effetti della versione DX9 (ma il rischio è che, a causa dell'OS, anche questa miglioria non si vedrà...)
Hai qualche altro esempio di effetto davvero groundbreaking che è stato portato dalle DX10?
Se guardiamo ai giochi nelle versioni per console (che sono DX9), in realtà presentano più o meno gli stessi effetti / possibilità di resa grafica di un PC, a parte il fatto che le gpu più potenti per PC possono mostrare più poligoni a schermo, texture a più alta risoluzione, attivare più effetti contemporaneamente, ecc...
Ma di effetti nuovi / rese davvero migliori io continuo a non vederne. Ed ecco perchè penso che la tessellation sia una delle poche vere innovazioni dai tempi del passaggio alle DX9. ;)
è questo il punto su cui continuiamo a non capirci: io sostengo che i giochi per consolle presentano più o meno gli stessi effetti di resa grafica del pc perchè anche quelli per pc non sono veri giochi dx10; lo stesso esempio che mi fai di crysis è esattamente in questo senso: le differenze tra crysis dx10/dx9 sono quasi nulle perchè quel gioco (come tutti) di dx10 non ha praticamente nulla.
Cmq, da un punto di vista strettamente grafico, ad esempio nulla si è visto che sfruttasse a fondo lo SM 4.0, ed i particolare i geometry shaders, forse la più grossa novità "visibile" all'utente finale delle dx10 rispetto alle dx9.
ok, adesso ho capito quello che intendevi...
riguardo all'ultima frase, non so se cacciano denaro o altro, ma di fatto loro spingono perchè ne hanno interesse: ho già citato cmr2 e le dx11 (ho letto adesso che anche lost planet 2 le supporterà, bene) poi leggo anche con estremo piacere, visto che considero Mafia il Capolavoro di tutti itempi personale, che Mafia 2 avrà una gestione della fisica eccellente e supporterà Physx (sarà quasi determinante per me vedere come lo gestirà gt300 e se in mancanza di vga Nvidia il livello di fisica sarà cmq buono, per decidere il mio prox acquisto :D )
In realtà oltre ai giochi citati, ci sono già Battleforge, che avrà un upgrade DX11, GRID 2, Crysis 2, Battlefield: Bad Company 2, forse Alien vs Predator e forse il prossimo Elder Scrolls (il V), per via del fatto che Gamebryo, che ne produce una porzione dell'engine grafico, ha già detto che le supporterà fin da subito... :boh:
In realtà oltre ai giochi citati, ci sono già Battleforge, che avrà un upgrade DX11, GRID 2, Crysis 2, Battlefield: Bad Company 2, forse Alien vs Predator e forse il prossimo Elder Scrolls (il V), per via del fatto che Gamebryo, che ne produce una porzione dell'engine grafico, ha già detto che le supporterà fin da subito... :boh:
Si sa già qualcosa in merito??? :)
appleroof
26-08-2009, 21:04
In realtà oltre ai giochi citati, ci sono già Battleforge, che avrà un upgrade DX11, GRID 2, Crysis 2, Battlefield: Bad Company 2, forse Alien vs Predator e forse il prossimo Elder Scrolls (il V), per via del fatto che Gamebryo, che ne produce una porzione dell'engine grafico, ha già detto che le supporterà fin da subito... :boh:
si ok...come ho già detto spero vengano adottate in massa, ovviamente non pretendo che i primi giochi dx11 siano strabilianti rispetto ad ora (come non lo erano i primi dx9, e guardiamo oggi a distanza di 7 anni cosa producono n dx9..), ma nemmeno che siano dei semplici porting dx9, cosa che temo...staremo a vedere :boh:
No, solo che il middleware su cui si sono appoggiati per Oblivion sarà un'early adopter delle DX11. Ma un nuovo ES è ben lungi da arrivare. Purtroppo.
E' anche quello di Fallout 3 giusto?
Si sa già qualcosa in merito??? :)
No, solo che il middleware su cui si sono appoggiati per Oblivion sarà un'early adopter delle DX11. Ma un nuovo ES è ben lungi da arrivare. Purtroppo.
Veramente l'anno scorso Bethesda aveva detto ufficialmente che l'anno target per Elder Scrolls V era il 2010, di nuovo mi sa che non si sa nulla, a parte il fatto che Gamebryo è sempre stata abbastanza vicina a AMD/ATI, quindi penso che un minimo di pushing su di loro sia stato fatto... Basti pensare che a suo tempo Morrowind fu uno dei pochi giochi a supportare per bene Truform, quindi in teoria un minimo di esperienza con un surrogato di tessellation ce l'hanno già... :boh:
http://www.gamesindustry.biz/articles/bethesda-pencils-in-new-elder-scrolls-title-for-2010
Sapete la data di uscita di queste nuove schede video NVIDIA ?
St. Jimmy
27-08-2009, 10:45
Sul mercato da Gennaio a Marzo (Q1) se va bene e da Aprile a Giugno (Q2) se va male.
considerando che ATI ha intenzione di presentare le nuove schede a fine settembre per poi commercializzarle in ottobre (correggetemi se sbaglio) credo e spero che nVidia faccia il possibile per non essere da meno...quindi sono fiducioso nella prima possibilità, quindi da gennaio a marzo (Q1) :)
Ok grazie , speravo uscissero prima :D
Andrea deluxe
27-08-2009, 13:23
http://www.fudzilla.com/content/view/15242/1/
http://www.fudzilla.com/content/view/15242/1/
ste sparate nvidia non le capisco......:rolleyes:
Andrea deluxe
27-08-2009, 13:27
ste sparate nvidia non le capisco......:rolleyes:
te lo spiego io.....
siccome non hanno niente da dire su gt300 e siccome si parla troppo di ati, devo inventarsi qualcosa per farti ricordare che esistono....:D
te lo spiego io.....
siccome non hanno niente da dire su gt300 e siccome si parla troppo di ati, devo inventarsi qualcosa per farti ricordare che esistono....:D
a ecco....:asd:
quindi le nvidia nel 2040 avranno il 5000% di prestazioni in piu bene.....
St. Jimmy
27-08-2009, 14:34
te lo spiego io.....
siccome non hanno niente da dire su gt300 e siccome si parla troppo di ati, devo inventarsi qualcosa per farti ricordare che esistono....:D
sentono il fiato (di ATI) sul collo? :asd: ben venga, chissà che veramente per non essere da meno presentino in anticipo GT300
Crysis90
27-08-2009, 16:50
te lo spiego io.....
siccome non hanno niente da dire su gt300 e siccome si parla troppo di ati, devo inventarsi qualcosa per farti ricordare che esistono....:D
Giusto...LOL!!:D
halduemilauno
27-08-2009, 16:54
http://forums.laptopvideo2go.com/topic/24989-nvidia-forceware-186-82-released/
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "
Nel mobail...
;)
Foglia Morta
27-08-2009, 17:33
http://forums.laptopvideo2go.com/topic/24989-nvidia-forceware-186-82-released/
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "
Nel mobail...
;)
Pare che sia un altro rebrand:
NVIDIA_DEV.0A20.01 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0A28.01 = "NVIDIA GeForce GT 230M"
NVIDIA_DEV.0A29.01 = "NVIDIA N11P-GE1"
NVIDIA_DEV.0A2A.01 = "NVIDIA GeForce GT 230M "
NVIDIA_DEV.0A2B.01 = "NVIDIA N11P-LP1"
NVIDIA_DEV.0CAF.01 = "NVIDIA N11P-GS1"
NVIDIA_DEV.0CB1.01 = "NVIDIA N11E-GS1"
NVIDIA_DEV.0CBC.01 = "NVIDIA N10P-GLM4"
Foglia Morta
27-08-2009, 17:50
Potrà sembrare banale... da che si capisce?
Nei 186.42 quelle parti erano associate a qualcos'altro. Non so a cosa... o erano nomi "farlocchi" nei 186.42 o lo sono nei 186.82
Foglia Morta
27-08-2009, 17:59
11E e 11P non dovrebbero essere le classificazioni della nuova serie G3xx?
La GTX280 era qualcosa tipo D10E se non mi ricordo male, quindi potrebbero anche essere la stessa cosa, prima col nome interno e poi con quello commerciale.
Per carità poi non è che mi stupisco se è solo un rebrand...
C'hai ragione mi sa , ma non mi aspettavo di vedere nemmeno i vari GT e GTS . Si era detto che sarebbero state chiamate solamente Geforce e un numero fatto di tre cifre
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.