View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
halduemilauno
08-04-2009, 07:36
:eek: http://utenti.lycos.it/m4st3rf4k3/zanichelli.gif
sono sicuro voleva dire entusiasta.
;)
Mister Tarpone
08-04-2009, 07:38
sono sicuro voleva dire entusiasta.
;)
infatti ;)
ma oggi sono un pochino rinco ed ho sbagliato ;)
in questo 3D si attende il GT300 o c'è una discussione dedicata ?
Mister Tarpone
08-04-2009, 11:01
in questo 3D si attende il GT300 o c'è una discussione dedicata ?
per il GT300 va bene sto thread div ;)
molochgrifone
08-04-2009, 14:57
in questo 3D si attende il GT300 o c'è una discussione dedicata ?
Vuoi già cambiare? :eek:
noi possessori di quel gioiello chiamato 8800GT dobbiamo essere forti ed aspettare GT300 :D
comunque una domanda, quali usciranno prima? come al solito le enthusiast?
no stavolta si vociferà che faranno prima delle entry level da 50 € con il gt300.
:sofico:
per il GT300 va bene sto thread div ;)
Ok ;)
Vuoi già cambiare? :eek:
no no, volevo solo essere sicuro di non perdermi un 3D dedicato solo al GT300 :)
molochgrifone
08-04-2009, 17:54
Ok ;)
no no, volevo solo essere sicuro di non perdermi un 3D dedicato solo al GT300 :)
Ingordigia di rumors ftw :asd:
Io invece voglio la scheda :sbav: sarà la degna erede della 8800 GTX :cool:
Sto pure facendo la "bisciueta" :D
michelgaetano
08-04-2009, 17:56
Se GT 300 sarà solo per gli entusiasti di tirare alle ortic...err enthusiast :asd:, cosa comporrà le altre fasce?
Altri 400 rebranding delle attuali schede? :(
Ingordigia di rumors ftw :asd:
:asd:
Io invece voglio la scheda :sbav: sarà la degna erede della 8800 GTX :cool:
Sto pure facendo la "bisciueta" :D
:D
Athlon 64 3000+
10-04-2009, 07:40
http://www.theinquirer.net/inquirer/news/733/1051733/nvidia-gt300-tapeout-soon
Penso proprio che GT300 sarà il degno erede della 8800GTX e a differenza di 2 anni fa tra RV870 e GT300 ci sarà un bella battaglia all'ultimo fps.:cool:
Skullcrusher
10-04-2009, 09:13
http://www.theinquirer.net/inquirer/news/733/1051733/nvidia-gt300-tapeout-soon
Penso proprio che GT300 sarà il degno erede della 8800GTX e a differenza di 2 anni fà tra RV870 e GT300 ci sarà un bella battaglia all'ultimo fps.:cool:
Speriamo...:D
halduemilauno
20-04-2009, 08:17
http://www.hardware-infos.com/news.php?news=2892
;)
Kharonte85
20-04-2009, 08:36
Nvidia GT300, DirectX11 tra ottobre e novembre
"L'attesa per i primi chip di fascia alta DirectX11, realizzati a 40 nanometri, potrebbe coronarsi tra qualche mese."
Complice anche la crisi economica, molti appassionati del mondo delle schede grafiche guardano ai futuri prodotti a 40 nm di AMD e Nvidia come la scusa giusta per cambiare la propria scheda video.
Secondo le ultime notizie raccolte dalla rete, il chip GT300 di Nvidia, soluzione di fascia alta a 40 nanometri, con supporto DirectX11 e CUDA 3.0, dovrebbe raggiungere la fase di tape out in giugno. Con tape out si indica quella fase in cui il progetto è stato completato e tutto è pronto per la produzione.
In poche parole, dopo la produzione del primo chip si procederà nella verifica del funzionamento e della maturità del prodotto, salvo realizzare le necessarie - se richieste - revisioni.
La disponibilità del prodotto sarebbe attesa per la metà di ottobre o al più nel mese di novembre, ma solo se tutto andrà bene. Altrimenti, i tempi potrebbero farsi più lunghi e raggiungere anche il gennaio prossimo.
http://www.tomshw.it/news.php?newsid=17778
data perfetta per pensare ad un eventuale pensionamento della mia gtx. :D
si anche per mè .....
speriamo che per quella data realizzino giochi degni di nota in grado di sfruttarla..
infatti... altrimenti farò lo "sforzo" di tenermi la mia 280! :sbonk:
:asd:
halduemilauno
20-04-2009, 14:56
http://vr-zone.com/forums/421192/nvidia-40nm-gt214-gt215-gt216-gt218-start-production-in-late-q2.html
Nvidia recently set its outsourcing schedule with Taiwan Semiconductor Manufacturing Company (TSMC) and United Microelectronics Corporation (UMC) for the second quarter, according to a Chinese-language Commercial Times report.
In addition to expanding its 55nm GT200b GPU outsourcing, the company will also start mass production of the 40nm entry-level GT218, high-end mobile GT215 and mainstream GT214 and GT216 GPUs in mid to late second quarter, according to the paper.
con il GT212 annullato(come ebbi a dire tempo fa)largo agli altri GT...
...ovviamente in attesa del GT300.
;)
Mister Tarpone
20-04-2009, 15:07
tanto a sto punto era inutile fare un nuovo chip ultra pompato con 384sp.............................
beh mentre molti dicevano che la 295 sarebbe stata una scheda da pochi mesi di vita e che tutti se la sarebbero dimenticata presto, pare proprio che la mia 295 sia destinata ad essere la scheda video più longeva della storia dei miei PC :P
halduemilauno
20-04-2009, 15:20
tanto a sto punto era inutile fare un nuovo chip ultra pompato con 384sp.............................
esatto e, vista anche la concorrenza, meglio puntare direttamente ai 40nm e alle dx11.
;)
Lol questa è veramente comica :asd:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13267&Itemid=34
Quando si dice che qualunque beta test è inutile di fronte a quello che possono scovare i normali utenti commerciali :>
vabbè io avevo una serranda di un garage che si apriva con praticamente ogni telecomando per aprire la macchina :D
i vicini si erano stufati di chiamarmi per dire che il garage era aperto.
Andrea deluxe
21-04-2009, 13:25
vabbè io avevo una serranda di un garage che si apriva con praticamente ogni telecomando per aprire la macchina :D
i vicini si erano stufati di chiamarmi per dire che il garage era aperto.
:sbonk:
appleroof
21-04-2009, 17:38
tanto a sto punto era inutile fare un nuovo chip ultra pompato con 384sp.............................
esatto e, vista anche la concorrenza, meglio puntare direttamente ai 40nm e alle dx11.
;)
non voglio fare lo :cool: ma sono mesi che ipotizzo una cosa del genere (e se questa ipotesi si realizzasse avrebbe pure moltissimo senso secondo me, non ultimo anche da un punto di vista marketing-nomi commerciali) :D
ad ogni modo un chippino per sperimentare i 40nm "alla rv740" me lo aspetterei..
halduemilauno
21-04-2009, 17:47
non voglio fare lo :cool: ma sono mesi che ipotizzo una cosa del genere (e se questa ipotesi si realizzasse avrebbe pure moltissimo senso secondo me, non ultimo anche da un punto di vista marketing-nomi commerciali) :D
ad ogni modo un chippino per sperimentare i 40nm "alla rv740" me lo aspetterei..
post 3810.
;)
appleroof
21-04-2009, 19:08
post 3810.
;)
azz non avevo letto :p
Nvidia GT300, DirectX11 tra ottobre e novembre
"L'attesa per i primi chip di fascia alta DirectX11, realizzati a 40 nanometri, potrebbe coronarsi tra qualche mese."
Complice anche la crisi economica, molti appassionati del mondo delle schede grafiche guardano ai futuri prodotti a 40 nm di AMD e Nvidia come la scusa giusta per cambiare la propria scheda video.
Secondo le ultime notizie raccolte dalla rete, il chip GT300 di Nvidia, soluzione di fascia alta a 40 nanometri, con supporto DirectX11 e CUDA 3.0, dovrebbe raggiungere la fase di tape out in giugno. Con tape out si indica quella fase in cui il progetto è stato completato e tutto è pronto per la produzione.
In poche parole, dopo la produzione del primo chip si procederà nella verifica del funzionamento e della maturità del prodotto, salvo realizzare le necessarie - se richieste - revisioni.
La disponibilità del prodotto sarebbe attesa per la metà di ottobre o al più nel mese di novembre, ma solo se tutto andrà bene. Altrimenti, i tempi potrebbero farsi più lunghi e raggiungere anche il gennaio prossimo.
http://www.tomshw.it/news.php?newsid=17778
non ha nemmeno un anno la mia 280 che già mi sta salendo la scimmia per GT300 :D
http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx
nuove voci indiscrete su GT300
qui si parla di 512 SP MIMD non più SIMD.
3 teraflop in sigola precisone.. in doppia non si sa , pochè dipenderà dalla potenza dei cluster MIMD.
in generale menziona dalle 6 alle 12 volte più potente di GT200b , nel calcolo GPGPU , se ho capito bene.:confused: :eek:
Kharonte85
23-04-2009, 08:57
GT300, la rivoluzione dell'architettura grafica?
"Il chip Nvidia GT300 potrebbe rompere i ponti con il GT200, introducendo profonde novità nell'architettura."
Theo Valich di Brightsideofnews ha dichiarato di aver collezionato nel corso degli ultimi mesi abbastanza informazioni da avere un quadro più o meno completo di quella che sarà la nuova architettura grafica di Nvidia a 40nm, conosciuta con il nome GT300. Dietro a questa sigla si nasconde il prossimo chip di fascia alta Nvidia, con supporto DirectX11, atteso entro la fine dell'anno.
"GT300 è la vera nuova architettura dall'introduzione delle unità SIMD", ha affermato Valich. L'architettura di GT300 dovrebbe contare su 16 gruppi di unità composte da 32 core, per un totale di 512 core. Ciò che realmente differenzia il GT300 dal GT200 è l'uso di unità MIMD (multiple instructions multiple data) , rispetto alle SIMD ad oggi impiegate. Questa notizia non ci spiazza completamente, in quanto era già trapelata (e presa con le dovute cautele) nel mese di gennaio.
Questa "rivoluzione" dovrebbe permettere al GT300 di avere una potenza di calcolo di oltre 2 volte superiore a quella di GT200. Le frequenze non sono note, ma Valich fa un esempio:
"Se Nvidia imposterà i 512 core MIMD a una frequenza di 2 GHz, la potenza di calcolo sarà pari a circa 3 TeraFlops per calcoli a singola precisione. I calcoli a doppia precisione saranno fortemente dipendenti dall'efficienza delle unità MIMD, ma si potrà contare su un miglioramento da 6 a 15 volte rispetto a GT200".
Un altro cambiamento dovrebbe riguardare l'organizzazione dei cluster, non più statica. L'uso di una "Scratch Cache" dovrebbe permette maggiore interattività tra i core all'intero del cluster. A beneficiare di questa novità dovrebbero essere le applicazioni GPGPU, mentre per i giochi ancora non ci sono informazioni.
Valich, infine, ha confermato il supporto CUDA 3.0, DirectX 11, OpenGL 3.1 e OpenCL. Sarà tutto vero? Attendiamo conferme e già che stiamo parlando di voci di corridoio, per par condicio, parliamo anche di RV870, il chip AMD avversario del GT300. In arrivo probabilmente prima della soluzione di Nvidia, questo chip a 40 nm potrebbe avere una potenza di 1.9 TFlops. A riportarlo è il sito tedesco ATI Forum, che non esclude l'arrivo anche di una soluzione X2.
http://www.tomshw.it/news.php?newsid=17832
:sbavvv:
halduemilauno
23-04-2009, 09:02
http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx
nuove voci indiscrete su GT300
qui si parla di 512 SP MIMD non più SIMD.
3 teraflop in sigola precisone.. in doppia non si sa , pochè dipenderà dalla potenza dei cluster MIMD.
in generale menziona dalle 6 alle 12 volte più potente di GT200b , nel calcolo GPGPU , se ho capito bene.:confused: :eek:
sapevo che l'architettura sarebbe passata da 24 a 32, ma sapevo 32x12 ora invece Theo parla di 32x16(gt200è 24x10). Ma Theo è un grande mi cita pure...
:D
ps altra news collegata e citata...
http://www.hardware-infos.com/news.php?news=2904
GT300, la rivoluzione dell'architettura grafica?
"Il chip Nvidia GT300 potrebbe rompere i ponti con il GT200, introducendo profonde novità nell'architettura."
Cut.
http://www.tomshw.it/news.php?newsid=17832
:sbavvv:
potrebbe ripertersi il "botto generazionale" del G80 :eek:
paolox86
23-04-2009, 09:06
Speriamo nei consumi, solo perchè non ho voglia di cambiare ali... :D
Ma sono fiducioso, visto i 40 nm, che consumerà pochi w in più di una Gtx 260 :sofico:
Speriamo nei consumi, solo perchè non ho voglia di cambiare ali... :D
Ma sono fiducioso, visto i 40 nm, che consumerà pochi w in più di una Gtx 260 :sofico:
secondo me coi consumi siamo arrivati al capolinea e inizia ad esserci anche una certa sensibilizzazione sull'argomento, quindi secondo me oltre le soglie attuali non andranno.
cmq sembra una gran bella gpu, dobbiamo anche pensare che quando uscirà saranno circa due anni che non sfornano una nuova architettura quindi il salto generazionale forte ci starebbe tutto.
Mister Tarpone
23-04-2009, 12:41
potrebbe ripertersi il "botto generazionale" del G80 :eek:
vedremo :sbavvv:
eheheheheh....
Kharonte85
23-04-2009, 12:58
E con questo la mia scimmia è scesa si è nascosta nell'angolo e si sta autoflagellando...:asd:
Aspetto di vedere per credere pero' mi sa che non faro' nessun upgrade...
Mister Tarpone
23-04-2009, 13:18
a me invece con questa ultima news la scimmia è salita in maniera prepotente :sborone:
appleroof
23-04-2009, 13:36
potrebbe ripertersi il "botto generazionale" del G80 :eek:
:sperem:
Mister Tarpone
23-04-2009, 13:36
:sperem:
la gloriosa 2 la vendetta
;)
halduemilauno
23-04-2009, 13:38
la gloriosa 2 la vendetta
;)
;)
appleroof
23-04-2009, 13:38
la gloriosa 2 la vendetta
;)
esatto :asd: :asd:
cmq se fossero veri i rumors postati da Kharonte sarebbe davvero un salto notevole, d'altra parte al cambio di architettura non potremmo aspettarci altro ( :tie: )
mi viene in mente un'altra cosa: chissà se qualche supertecnico potrebbe azzardare se la nuova architettura si rifletterà positivamente sulle dimensioni complessive dei chip...
Mister Tarpone
23-04-2009, 13:43
;)
;)
esatto :asd: :asd:
cmq se fossero veri i rumors postati da Kharonte sarebbe davvero un salto notevole, d'altra parte al cambio di architettura non potremmo aspettarci altro ( :tie: )
infatti ;) a sto giro pretendo il super saltone di prestazioni :sborone:
halduemilauno
23-04-2009, 13:49
;)
infatti ;) a sto giro pretendo il super saltone di prestazioni :sborone:
son stati citati tre tera flops sotto quest'aspetto mi pare giusto far notare che l'attuale gtx285(miglior scheda a chip singolo)il valore è di 1.062. mentre lo stesso riferito alla gtx295(miglior scheda in assoluto) il valore è di 1.788.
tutto questo solo per dare dei punti di riferimento e ribadendo che sono rumors.
;)
mircocatta
23-04-2009, 14:10
son stati citati tre tera flops sotto quest'aspetto mi pare giusto far notare che l'attuale gtx285(miglior scheda a chip singolo)il valore è di 1.062. mentre lo stesso riferito alla gtx295(miglior scheda in assoluto) il valore è di 1.788.
tutto questo solo per dare dei punti di riferimento e ribadendo che sono rumors.
;)
1) la gtx 285 se la gioca con la 4890 http://www.xbitlabs.com/articles/video/display/gtx285sli-hd4890cf_2.html#sect0
2) si parla di 3 teraflop per calcoli a singola precisione. (sinceramente non so cosa vuol dire, ma sembra di capire che sono calcoli più semplici) quello della gtx285 invece? doppia precisione o singola?
Vogliono ripetere l'errore del superchip monolitico.
Da come viene descritto dai rumor sembra una bestia in termini di die size rispetto al RV870.
Capisco soddisfare la fascia entusiast, ma esitono anche i comuni mortali, non mi pare che un chip così grande possa proporsi bene nella fascia 200-300 euro.
Il MIMD sembra quasi una risposta anticipata al larrabee.
La grafica non ha un approccio SIMD style ?
Vedremo...
I calcoli in doppia precisione vengono usati negli ambiti scentifici e finanziari.
Attualmente la grafica utilizza il single precision a 32bit.
Dubito un aumento della precisione nel breve periodo.
Ad esser onesti non so nemmeno se l'aumento di precisione comporti benefici tangibili nei videogame...
Sarò ripetitivo, ma secondo me nvidia sta spostando bruscamente il timone nel general computing, scoprendo anche in maniera eccessiva i fianchi ad AMD.
appleroof
23-04-2009, 14:27
Vogliono ripetere l'errore del superchip monolitico.
Da come viene descritto dai rumor sembra una bestia in termini di die size
cut
pura curiosità: su che basi diresti questo?
cmq a parte verificare che la nuova architettura dia vita a chip di grosse dimensioni così come è stato per l'architettura G80, non è detto che chippone equivale a dire prezzone (anche se per motivi di mercato, gtx285 viene venduta a meno di 300 euro ad esempio e se questo vuol dire meno margini rispetto ad Ati, a me consumatore che voglio la gtx285 non me ne frega nulla :D ): bisogna vedere anche il prezzo/prestazioni del concorrente classico (e di larrabee, per giunta) come appunto insegna la storia recente, per avere il posizionamento di mercato...
pura curiosità: su che basi diresti questo?
cmq a parte verificare che la nuova architettura dia vita a chip di grosse dimensioni così come è stato per l'architettura G80, non è detto che chippone equivale a dire prezzone (anche se per motivi di mercato, gtx285 viene venduta a meno di 300 euro ad esempio e se questo vuol dire meno margini rispetto ad Ati, a me consumatore che voglio la gtx285 non me ne frega nulla ): bisogna vedere anche il prezzo/prestazioni del concorrente classico (e di larrabee, per giunta) come appunto insegna la storia recente, per avere il posizionamento di mercato...
Oggi 15:21
Le specifiche rumoreggiate sono mostruose, inoltre il mimd necessita di più cache e memoria, quindi ipotizzare un chip di grandi dimensioni mi sembra corretto. (le attuali unità simd di nvidia sono più grandi di quelle AMD)
Per noi consumatori ci saranno sicuramente le versioni mutilate, ma dal punto di vista della profittabilità già hanno sbagliato una volta.
Non vorrei che nvidia continui ad indebolire i suoi bilanci inutilmente, dato che prima o poi si paga il conto ed intel è dietro la porta.
Sicuramente questo approccio paga nei sistemi Tesla, che amd si sogna almeno per adesso...
appleroof
23-04-2009, 14:53
Le specifiche rumoreggiate sono mostruose, inoltre il mimd necessita di più cache e memoria, quindi ipotizzare un chip di grandi dimensioni mi sembra corretto. (le attuali unità simd di nvidia sono più grandi di quelle AMD)
ok grazie ;)
Per noi consumatori ci saranno sicuramente le versioni mutilate, ma dal punto di vista della profittabilità già hanno sbagliato una volta.
Non vorrei che nvidia continui ad indebolire i suoi bilanci inutilmente, dato che prima o poi si paga il conto ed intel è dietro la porta.
Sicuramente questo approccio paga nei sistemi Tesla, che amd si sogna almeno per adesso...
bè gtx285, per riprendere l'esempio, non è esattamente una versione mutilata; aggiungo il carico :D : la gtx275 che praticamente la eguaglia in prestazioni è offerta a partire da poco più di 200 euro
detto questo per la precisione, condivido le tue perplessità in generale ma confido nel fatto che Nvidia abbia preso atto dei punti deboli del progetto g80, in termini di costi industriali e conseguenze varie e quindi con la nuova architettura abbia se non risolto almeno messo una grossa pezza...boh, vedremo
http://www.tomshw.it/news.php?newsid=17832
:sbavvv:
diamine sembra veramente impressionate :eek:
con tale potenza di calcolo e visto l'attuale scarso sviluppo di nuovi motori grafici nel mondo dei pc,credo che una scheda del genere la si possa tenere benissimo per lunghissimo tempo......mi sembra veramente troppo esagerata boh..:stordita: :fagiano:
diamine sembra veramente impressionate :eek:
con tale potenza di calcolo e visto l'attuale scarso sviluppo di nuovi motori grafici nel mondo dei pc,credo che una scheda del genere la si possa tenere benissimo per lunghissimo tempo......mi sembra veramente troppo esagerata boh..:stordita: :fagiano:
Si sembra troppo esagerata anche a me, averebbe potenza in eccesso per i prossimi 5 anni, senza contare che il die avrebbe dimensioni impressionanti
Con il mimd penso si possa accelerare la fisica con la stessa scheda che si usa per la grafica.
Secondo me il carattere eccessivamente general purpose peggiorerà le performance grafiche rispetto al canonico approccio simd.
Già con l'avvento degli shader unificati abbiamo visto un abbassamento del efficienza delle unità rispetto agli shader separati, controbilanciato da una maggiore versatilità.
Ho il sentore che la proposta di AMD sarà molto competitiva rispetto al GT300, proprio per il suo carattere più graphic oriented.
Chissà se AMD verrà tagliata fuori dal settore GPGPU da intel ed nvidia...
Andrea deluxe
23-04-2009, 16:02
Con il mimd penso si possa accelerare la fisica con la stessa scheda che si usa per la grafica.
Si fa gia adesso!
Attualmente si utilizza una scheda aggiuntiva configurata in SLI/crossfire per calcolare la fisica.
Io intendo con una solo GPU, sempre che non mi sia perso qualche novità...
Andrea deluxe
23-04-2009, 16:08
Attualmente si utilizza una sheda aggiuntiva configurata in SLI/crossfire per calcolare la fisica.
Io intendo con una solo GPU, sempre che non mi sia perso qualche novità...
no , no
la fisica viene calcolata anche senza una vga aggiuntiva....
con i driver gia' da un pezzo i calcoli della fisica vengono fatti dalle shader unit....
su nvidia.
Andrea deluxe
23-04-2009, 18:38
Con un calo delle prestazioni. Su 8 giochi.
esatto
e ci mancherebbe.....
cosa vorresti, scopare con la tua ragazza e farla rimanere sempre vergine?
nico88desmo
23-04-2009, 18:43
I dati riportati sembrano esagerati! Magari sarà veramente così :D
C'è da dire che nVidia con i nuovi progetti è stata misteriosa fino alla data dell'uscita (G80 a shader separati per esempio è l'esempio più lampante) quindi prenderei questo informazioni un pò con le pinze. Ci vorrebbero dei commenti di qualche persona esperta in materia.
Comunque secondo me sarà una GPU maggiormente orientata verso il computing, già da G80->GT200 si è introdotta la DoublePrecision raddoppiando gli SP...sembra che grafica + fisica convergeranno ad una architettura sempre più parallela.
Certo è che sarà una nuova architettura; ipotizzo un bel salto in avanti con le prestazioni ;)
Già con l'avvento degli shader unificati abbiamo visto un abbassamento del efficienza delle unità rispetto agli shader separati, controbilanciato da una maggiore versatilità.
Scusa, ma questa minore efficienza come l'hai misurata ?
Con un calo delle prestazioni. Su 8 giochi.
Il calo di prestazioni è ovvio, quanto è ovvio che un pizzaiolo impieghi più tempo a preparare una pizza quattro stagioni, rispetto ad una pizza margherita :)
La fisica non è altro che un effetto aggiuntivo, esattamente come lo sono l'antialiasing, l'anisotropico, l'ambient occlusion ecc..., tutti effetti non strettamente necessari, come del resto non lo è la fisica in Mirror's Edge, e che hanno inevitabilmente un costo computazionale.
L'utente può scegliere se attivarla o meno, se il drop del framerate è eccessivo per il proprio hardware, la disattiverà, proprio come è abituato a disattivare gli effetti grafici di cui sopra, insomma, una scelta in più che oggi solo chi possiede hardware nVidia può fare :D
Andrea deluxe
23-04-2009, 22:00
Il calo di prestazioni è ovvio, quanto è ovvio che un pizzaiolo impieghi più tempo a preparare una pizza quattro stagioni, rispetto ad una pizza margherita :)
La fisica non è altro che un effetto aggiuntivo, esattamente come lo sono l'antialiasing, l'anisotropico, l'ambient occlusion ecc..., tutti effetti non strettamente necessari, come del resto non lo è la fisica in Mirror's Edge, e che hanno inevitabilmente un costo computazionale.
L'utente può scegliere se attivarla o meno, se il drop del framerate è eccessivo per il proprio hardware, la disattiverà, proprio come è abituato a disattivare gli effetti grafici di cui sopra, insomma, una scelta in più che oggi solo chi possiede hardware nVidia può fare :D
questo si che e' parlare....:)
Il calo di prestazioni è ovvio, quanto è ovvio che un pizzaiolo impieghi più tempo a preparare una pizza quattro stagioni, rispetto ad una pizza margherita :)
La fisica non è altro che un effetto aggiuntivo, esattamente come lo sono l'antialiasing, l'anisotropico, l'ambient occlusion ecc..., tutti effetti non strettamente necessari, come del resto non lo è la fisica in Mirror's Edge, e che hanno inevitabilmente un costo computazionale.
L'utente può scegliere se attivarla o meno, se il drop del framerate è eccessivo per il proprio hardware, la disattiverà, proprio come è abituato a disattivare gli effetti grafici di cui sopra, insomma, una scelta in più che oggi solo chi possiede hardware nVidia può fare :D
si è vero, anche se per una gtx 295 secondo me, per la maggior parte dei giochi di adesso, occuparsi anche della fisica è una passeggiata. ;)
Andrea deluxe
24-04-2009, 08:56
meglio di niente?
gianni1879
24-04-2009, 11:33
esatto
e ci mancherebbe.....
cosa vorresti,
evitiamo questi francesismi??? :rolleyes:
Andrea deluxe
24-04-2009, 11:37
evitiamo questi francesismi??? :rolleyes:
scusa
Mister Tarpone
24-04-2009, 12:44
te con una nvidia??
non ci credo manco se lo vedo... :D
tutto è possibile.... per es. vedi me che fino a poco tempo fa tenevo dentro il case una ati :asd:
Mister Tarpone
24-04-2009, 12:49
GT300 possibly a leap ahead
Nvidia GT300: Geforce GTX 380 with 512 Shader ALUs in the DirectX 11 GPU?
Speculations about Nvidia's next graphics card generation, based on the GT300 (Geforce GTX 380) with DirectX 11 support, have not been confirmed up to now. The latest rumors say that the GT300 will have 512 Shader ALUs.
Nvidia GT300: Geforce GTX 380 mit 512 Shader-ALUs in der DirectX-11-GPU? (Im Bild GTX-280-GPU GT200b) [Source: view picture gallery]The new high-end graphics cards, Geforce GTX 380 (GT300) or Radeon HD 5870 (RV870), are unlikely to be released before DirectX 11 has finally hit the markets. But they are nevertheless expected to deliver a noticeable performance benefit compared to the current models GTX 275 or HD 4890.
According to the latest rumors Nvidia's GT300, that will probably be a completely new developed chip, will have 512 Shader ALUs that are positioned in 16 packs with 32 units each. Furthermore the GT300 is said to support DirectX 11 and Shader Model 3.1 as well as OpenCL. The 512 Shader ALUs are supposed to be placed as a MIMD solution (Multiple Instructions, Multiple Data) and not as a SIMD solution (Single Instruction, Multiple Data).
http://www.pcgameshardware.com/aid,682436/Nvidia-GT300-Geforce-GTX-380-with-512-Shader-ALUs-in-the-DirectX-11-GPU/News/
appleroof
24-04-2009, 13:45
Fra le altre cose pensavo che su un chip completamente nuovo non c'è niente di speculabile con un minimo di certezza. La stessa speculazione che ho visto pochi post fa sui 2GHz per 512 shaders parte dal presupposto che le frequenze degli shaders siano ancora separate dal resto, cosa che ovviamente è non-scontata.
Anche ipotizzando vero l'unico rumor, i 512SP, non c'è modo di intuire nulla da questo numero...
bè una cosa sarebbe intuibile: sarebbe una bella bestia :D
Mister Tarpone
24-04-2009, 13:46
bè una cosa sarebbe intuibile: sarebbe una bella bestia :D
eh già
;)
appleroof
24-04-2009, 13:51
eh già
;)
...e lo sarebbe già con l'architettura attuale, anche perchè con l'aumento del numero di sp aumenterebbero rops ecc (e magari ddr5 e banda in abbondanza);
certo, nonostante i 40nm avremmo ancora un chippone ma ripeto, per me sarebbe un problema molto relativo :D
halduemilauno
24-04-2009, 13:59
...e lo sarebbe già con l'architettura attuale, anche perchè con l'aumento del numero di sp aumenterebbero rops ecc (e magari ddr5 e banda in abbondanza);
certo, nonostante i 40nm avremmo ancora un chippone ma ripeto, per me sarebbe un problema molto relativo :D
il termine chippone viene visto come un difetto ma se il chippone alla fine va come deve andare chissenefrega se ottengo quello che ottengo con il cosidetto chippone. quel che contano sono le prestazioni il mezzo con le quali si ottengono è relativo.
;)
Mister Tarpone
24-04-2009, 14:02
...e lo sarebbe già con l'architettura attuale, anche perchè con l'aumento del numero di sp aumenterebbero rops ecc (e magari ddr5 e banda in abbondanza);
certo, nonostante i 40nm avremmo ancora un chippone ma ripeto, per me sarebbe un problema molto relativo :D
concordo ;)
il termine chippone viene visto come un difetto ma se il chippone alla fine va come deve andare chissenefrega se ottengo quello che ottengo con il cosidetto chippone. quel che contano sono le prestazioni il mezzo con le quali si ottengono è relativo.
;)
e 2...
;)
appleroof
24-04-2009, 14:08
il termine chippone viene visto come un difetto ma se il chippone alla fine va come deve andare chissenefrega se ottengo quello che ottengo con il cosidetto chippone. quel che contano sono le prestazioni il mezzo con le quali si ottengono è relativo.
;)
esatterrimo, il punto è proprio questo, almeno lato utente :)
poi si potrebbe discutere lato azienda e blabla ma in realtà a noi consumatori (e non azionisti :D ) ce ne pò fregare relativamente
aggiungo che io parlavo un pò per assurdo visto che di sicuro la prox architettura non si limiterà ad un "ingrossamento" dell'attuale (sennò che nuova architettura è? :D ) e per forza dovrà se non rivoluzionare la precedente almeno modificarla in maniera abbastanza sostanziale
a questo proposito poi mi si dice che l'architettura MIMD (se fossero veri ri rumors) comporterebbe chippone, ma questo viene affermato senza avere la minima idea di come il concetto verrebbe in effetti realizzato...
halduemilauno
24-04-2009, 14:13
esatterrimo, il punto è proprio questo, almeno lato utente :)
poi si potrebbe discutere lato azienda e blabla ma in realtà a noi consumatori (e non azionisti :D ) ce ne pò fregare relativamente
aggiungo che io parlavo un pò per assurdo visto che di sicuro la prox architettura non si limiterà ad un "ingrossamento" dell'attuale (sennò che nuova architettura è? :D ) e per forza dovrà se non rivoluzionare la precedente almeno modificarla in maniera abbastanza sostanziale
a questo proposito poi mi si dice che l'architettura MIMD (se fossero veri ri rumors) comporterebbe chippone, ma questo viene affermato senza avere la minima idea di come il concetto verrebbe in effetti realizzato...
esatto.
poi approposito dell'architettura ma se dal G80(chip che definirlo storico è riduttivo)con l'asso degli shader separati finche il risultato è(ancor oggi)sotto i nostri occhi ma cambio de che? 16x8, 24x10, 32x16?...
ciao.
;)
Mister Tarpone
24-04-2009, 14:51
e anche una cpu amd... :sbonk:
:cool: (:help: )
Diciamo pure che è la solita disinformazione nVidia.
1. Abbiamo PhysX!
2. PhysX può girare su GPU tramite CUDA!
3. PhysX attualmente fa girare la fisica su 150 giochi!
L'utente che legge questi proclami capisce immediatamente che comprando una scheda nVidia potrà far girare la fisica sulla sua fiammante VGA su una ampia selezione di 150 giochi: evviva!
In realtà solo su 8, e nemmno fra i principali giochi, la fisica va su GPU, nei restanti casi PhysX gira su CPU.
PhysX come Havoc nascono per essere eseguiti su CPU, quindi, tutti gli algoritmi implementati nel corso degli anni sono stati concepiti per dare il meglio su architetture affini a quelle delle CPU.
Su GPU vanno e dovranno andare esclusivamente quelle routine che possono trarre beneficio dal forte parallelismo intrinseco alle GPU stesse, mentre quelle che girano meglio su CPU, che rimangano su CPU.
Se ci sono 142 giochi che non usano la GPU per la fisica è perchè:
- Per le ragioni di cui sopra non tutte le API andavano su hardware Ageia
- Quando quei 142 giochi sono stati sviluppati in virtù della scarsa diffusione di Ageia, i programmatori hanno deciso di non usare le API che richiedevano hardware specifico
HackaB321
24-04-2009, 19:08
Le specifiche rumoreggiate sono mostruose, inoltre il mimd necessita di più cache e memoria, quindi ipotizzare un chip di grandi dimensioni mi sembra corretto. (le attuali unità simd di nvidia sono più grandi di quelle AMD)
Per noi consumatori ci saranno sicuramente le versioni mutilate, ma dal punto di vista della profittabilità già hanno sbagliato una volta.
Non vorrei che nvidia continui ad indebolire i suoi bilanci inutilmente, dato che prima o poi si paga il conto ed intel è dietro la porta.
Soprattutto necessita di dispatch processor e logica di collegamento molto più complesse. Cresce il peso percentuale dei transistors non computazionali rispetto a quelli computazionali. In altre parole la strada opposta a quella seguita da ATi. Per questo mi aspetto chip dalle dimensioni record. Il tutto ammesso che GT300 sia full-MIMD ossia con logica di controllo interamente gestita via hardware e non un MIMD ibrido "via driver" come quello di ATi attuale.
bluefrog
24-04-2009, 20:06
Uno SLI di queste bestiole fa paura solo a pensarci... sicuramente ci vorranno i core i7 più spinti per sfruttarle al meglio. Sarà proprio divertente decidere quale prendere fra questi due mostri, GT300 o R800. :oink:
Uno SLI di queste bestiole fa paura solo a pensarci... sicuramente ci vorranno i core i7 più spinti per sfruttarle al meglio. Sarà proprio divertente decidere quale prendere fra questi due mostri, GT300 o R800. :oink:
spero davvero che ci sia battaglia, cmq si preannuncia finalmente un vero salto generazionale.
Soprattutto necessita di dispatch processor e logica di collegamento molto più complesse. Cresce il peso percentuale dei transistors non computazionali rispetto a quelli computazionali. In altre parole la strada opposta a quella seguita da ATi. Per questo mi aspetto chip dalle dimensioni record. Il tutto ammesso che GT300 sia full-MIMD ossia con logica di controllo interamente gestita via hardware e non un MIMD ibrido "via driver" come quello di ATi attuale.
Si, avevo letto delle discussioni sul forum dove anche tu dicevi la tua.
Se non ricordo male, l'architettura nvidia usa una logica simil out of order. Ati al contrario adotta la vliw, demandando tutto al compilatore(driver).
Come ogni approccio di questo tipo si hanno unità di riorganizzazione enormi in virtù di una ottimizzazione immediata anche con i giochi che non prevedevano un testing con le nuove architetture. Ovviamente il compilatore migliora col passare degli anni, infatti gli ultimi giochi non mostrano più i grandi distacchi che nvidia aveva accumulato agli inizi. Tirando le somme pare che sul lungo periodo l'approccio di Ati sia profittevole.
Sinceramente pensavo che ogni array potesse eseguire una singola istruzione su operandi diversi (SIMD).Forse mi confondo con le unità di rasterizer...
Quindi le attuali gpu utilizzano già il MIMD ?
HackaB321
25-04-2009, 09:12
Si, avevo letto delle discussioni sul forum dove anche tu dicevi la tua.
Se non ricordo male, l'architettura nvidia usa una logica simil out of order. Ati al contrario adotta la vliw, demandando tutto al compilatore(driver).
Come ogni approccio di questo tipo si hanno unità di riorganizzazione enormi in virtù di una ottimizzazione immediata anche con i giochi che non prevedevano un testing con le nuove architetture. Ovviamente il compilatore migliora col passare degli anni, infatti gli ultimi giochi non mostrano più i grandi distacchi che nvidia aveva accumulato agli inizi. Tirando le somme pare che sul lungo periodo l'approccio di Ati sia profittevole.
Un approccio come quello rumoreggiato su GT300 è per me molto interessante soprattutto sui giochi futuri.Il passaggio ad un'architettura full-MIMD è la logica conseguenza dell'evoluzione delle tecniche di programmazione sui giochi (oltre a incrementare considerevolmente le potenzialità gp delle gpu).
In origine le gpu erano dei muletti che dovevano eseguire pochissime istruzioni su enormi quantità di dati. La flessibilità della gpu non era necessaria perchè gli effetti grafici erano semplici e il rendering di una scena era un problema di "quantità". Oggi e in futuro ancora di più le gpu devono coniugare il thread level parallelism (che hanno sempre avuto) con l'instruction level parallelism: per questo sono state adottate tecniche che vanno dall'aumento del numero di cluster, alla riduzione della branching granularity (i più piccoli gruppi di thread su cui le gpu sono in grado di lavorare) all'approccio VLIW scelto da ATi o quello EPIC (rumor) di Intel. Una gpu full-MIMD via harware porterebbe alle estreme conseguenze questa tendenza: ogni sp diventerebbe "un cluster" indipendente e l'efficienza della gpu soprattutto in scene grafiche complesse e con molti effetti diversi sarebbe potenzialmente enorme, il tutto senza che il driver team debba impazzire in un'ottimizzazione gioco per gioco per sfruttare l'ILP.
Il rovescio della medaglia è rappresentatto dalla complessità del dispatch processor (quello che ripartisce in automatico il lavoro per ogni cluster). Per fare un esempio terra terra il dispatch processor di GT200 è come un capo ufficio che deve assegnare 30 lavori diversi a 240 lavoratori raggruppati in 30 gruppi di 8 lavoratori. Ogni gruppo non può fare più di un lavoro diverso alla volta. In GT300 invece il dispatch processor dovrebbe assegnare 512 lavori diversi a 512 lavoratori dove ognuno può fare una cosa diversa. L'efficienza ma anche la complessità per tenere tutti sempre impegnati aumenta in modo esponenziale.
Quindi le attuali gpu utilizzano già il MIMD ?
Tecnicamente parlando GT200 è un array MIMD di 30 cluster SIMD. RV770 è una array MIMD di 10 cluster SIMD che possono diventare fino a 5way MIMD se il codice lo permette.
EPIC è alla base del processore Itanium. Consiste nel dichiarare in modo esplicito il livello di parallelismo del codice che si esegue...
Larrabee usa il vecchio core in-order del pentium x86.
HackaB321
25-04-2009, 12:29
Larrabee usa il vecchio core in-order del pentium x86.
vero per quanto riguarda i singoli core, ma le 16 vector alu interne ad ogni core useranno (pare) una forma di ILP via compiler.
Puoi approfondire ?
Ho visto che circola una discussione dove si parla delle nuove unità 512bit ed il loro istruction set, ma se devo esser onesto ho poca voglia di leggere pagine tecniche in inglese...:fagiano:
halduemilauno
25-04-2009, 16:47
http://vr-zone.com/forums/423164/nvidia-preparing-40nm-geforce-gt-240m--g210m.html
;)
vero per quanto riguarda i singoli core, ma le 16 vector alu interne ad ogni core useranno (pare) una forma di ILP via compiler.
Hacka , non ti nascondo che ho creato un documento word, anzi sto scrivendo una sorta di manuale sulle GPU moderne a SP unificati e sto trascrivendo tutte le tue NOZIONI TECNICHE in fatto di GPGPU :D .
a parte gli scherzi , è vero, sono info utilissime le tue, più magari altre prese da altre parti, posso creare una enciclopedia sulle GPU.
P.S: secondo la tua intuizione , il dispatch processor sarà via hardware in GT300 o via driver???
Come tu stesso dicevi speriamo in uno via hardware e quindi che sia un reale Full-MIMD! :)
HackaB321
26-04-2009, 12:21
Puoi approfondire ?
Ho visto che circola una discussione dove si parla delle nuove unità 512bit ed il loro istruction set, ma se devo esser onesto ho poca voglia di leggere pagine tecniche in inglese...:fagiano:
Larrabee sarà un chip multicore dove ogni core sarà un'evoluzione dei vecchi Pentium con supporto al multithreading. E' importante notare come si parli di core e non di cluster a sottilineare come Larrabee resti almeno a livello macroarchitetturale una cpu multicore e non una gpu vera e propria. La cnseguenza è che ogni core sarà una unità indipendente con propria cache e propri registri interni capace di esguire 4 thread in simultanea ( di cui uno di "setup" e 3 di calcolo). Ciò che rende particolare ogni core è che sarà dotato di una unità di calcolo vettoriale capace di eseguire fino a 16 istruzioni in parallelo, in modo (pare) simile ai 5-way sp di R600 e figli (con tutto ciò che ne consegue a livello di dipendenza dal compilatore).
Semplificando al massimo, a livello macroarchitetturale sarà qualcosa di molto flessibile come dai rumor sarà GT300, dal punto di vista microarchitetturale sarà indirizzato al massimo parallelismo di istruzioni come e più delle gpu ATi attuali
Larrabee sarà un chip multicore dove ogni core sarà un'evoluzione dei vecchi Pentium con supporto al multithreading. E' importante notare come si parli di core e non di cluster a sottilineare come Larrabee resti almeno a livello macroarchitetturale una cpu multicore e non una gpu vera e propria. La cnseguenza è che ogni core sarà una unità indipendente con propria cache e propri registri interni capace di esguire 4 thread in simultanea ( di cui uno di "setup" e 3 di calcolo). Ciò che rende particolare ogni core è che sarà dotato di una unità di calcolo vettoriale capace di eseguire fino a 16 istruzioni in parallelo, in modo (pare) simile ai 5-way sp di R600 e figli (con tutto ciò che ne consegue a livello di dipendenza dal compilatore).
Semplificando al massimo, a livello macroarchitetturale sarà qualcosa di molto flessibile come dai rumor sarà GT300, dal punto di vista microarchitetturale sarà indirizzato al massimo parallelismo di istruzioni come e più delle gpu ATi attuali
Intendevo solo le unità 512bit e relativo iset, come da questo articolo.
http://www.ddj.com/hpc-high-performance-computing/216402188;jsessionid=2QRQKMAWOGCTCQSNDLOSKHSCJUNN2JVN?pgno=2
Molto di quello che hai già scritto lo ho letto da un articolo di tom's.
Scusa se rompo, se non ti va fa niente:).
ps. scusate OT, questo sarà l'ultimo.
Bye
Per fare un esempio terra terra il dispatch processor di GT200 è come un capo ufficio che deve assegnare 30 lavori diversi a 240 lavoratori raggruppati in 30 gruppi di 8 lavoratori. Ogni gruppo non può fare più di un lavoro diverso alla volta. In GT300 invece il dispatch processor dovrebbe assegnare 512 lavori diversi a 512 lavoratori dove ognuno può fare una cosa diversa. L'efficienza ma anche la complessità per tenere tutti sempre impegnati aumenta in modo esponenziale.
.
complimenti !
saper spiegare cose difficili in maniera facile non è cosa da poco !
c1a0
:)
Andrea deluxe
05-05-2009, 14:33
http://www.brightsideofnews.com/news/2009/5/5/gt300-to-feature-512-bit-interface---nvidia-set-to-continue-with-complicated-controllers.aspx
http://www.tomshw.it/news.php?newsid=17975
http://www.brightsideofnews.com/news/2009/5/5/gt300-to-feature-512-bit-interface---nvidia-set-to-continue-with-complicated-controllers.aspx
http://www.tomshw.it/news.php?newsid=17975
http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx
Aggiungo questa :)
http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx
Aggiungo questa :)
sembrerebbe che finalmente siamo vicini ad un nuovo salto generazionale, speriamo bene.
halduemilauno
05-05-2009, 17:28
http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010
http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010
che tristezza... e io che ci contavo per settembre... :(
http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010
brutta notizia...peccato per nvidia va sempre peggio
Athlon 64 3000+
05-05-2009, 17:50
Personalmente non ci credo che GT300 verrà rinviato al 2010 anche se non è impossibile che possa succedere.
Se dovesse esserci il rinvio potrebbre essere o per via dei problemi che la produzione a 40 nm ha in questo periodo oppure viene rinviato per la crisi economica che fa si che per ora non se ne senta la necessità.
Se dovesse succedere veramente e ATI riesce a presentare questa estate RV870 si rischia di avere la situazione G80 vs R600 a ranghi invertiti e penso che dovesse succedere non sarebbe per niente bello.
michelgaetano
05-05-2009, 17:56
Personalmente non ci credo che GT300 verrà rinviato al 2010 anche se non è impossibile che possa succedere.
Se dovesse esserci il rinvio potrebbre essere o per via dei problemi che la produzione a 40 nm ha in questo periodo oppure viene rinviato per la crisi economica che fa si che per ora non se ne senta la necessità.
Se dovesse succedere veramente e ATI riesce a presentare questa estate RV870 si rischia di avere la situazione G80 vs R600 a ranghi invertiti e penso che dovesse succedere non sarebbe per niente bello.
Proprio a ranghi invertiti non so, nel senso che Nvidia non presenterà certo una scheda che va meno 6 mesi dopo :stordita:
Mister Tarpone
05-05-2009, 17:58
Proprio a ranghi invertiti non so, nel senso che Nvidia non presenterà certo una scheda che va meno 6 mesi dopo :stordita:
quotissimo.
Proprio a ranghi invertiti non so, nel senso che Nvidia non presenterà certo una scheda che va meno 6 mesi dopo :stordita:
6 mesi son assai inoltre adesso si sta adeguando allo standard open cl e dunque è la concorrente a guadagnarci assai.....io spero che a breve ci sia una distribuzione piu equa nel mercato delle gpu 50% a nvidia e 50% ad ati e forse sto ritardo potrebbe aiutare.....vedremo comunque :)
Mister Tarpone
05-05-2009, 18:11
ma hal che ne pensa della notizia postata :confused:
michelgaetano
05-05-2009, 18:11
Beh ad Ati questo credo faccia solo piacere. Cioè è quasi metà anno senza una diretta concorrente - questo ovviamente dando per scontato che RV870 vada forte.
Personalmente, avrei preferito che Nvidia facesse uscire le schede 1-2 mesi dopo, almeno i prezzi sarebbero calati.
Vediamo se non ci sono cambiamenti.
Mister Tarpone
05-05-2009, 18:15
Personalmente non ci credo che GT300 verrà rinviato al 2010 anche se non è impossibile che possa succedere.
cmq prima si parlava di ottobre, invece imho usciranno a novembre dicembre. ma che escan nel 2010, ci credo poco pure io
Beh ad Ati questo credo faccia solo piacere. Cioè è quasi metà anno senza una diretta concorrente - questo ovviamente dando per scontato che RV870 vada forte.
Personalmente, avrei preferito che Nvidia facesse uscire le schede 1-2 mesi dopo, almeno i prezzi sarebbero calati.
Vediamo se non ci sono cambiamenti.
allora probabilmente nvidia non sa che fare di fronte alla problematica avuta da TSMC nella fabbricazione dei chip a 40nm dunque ha deciso di attendere e vedere che succede, va ricordato che gt300 è un megacippone con piu possibilità di avere falle di un chip piu piccolino, dunque probabilmente la stessa tsmc ha deciso di posticipare il tutto.....
nico88desmo
05-05-2009, 18:23
allora probabilmente nvidia non sa che fare di fronte alla problematica avuta da TSMC nella fabbricazione dei chip a 40nm dunque ha deciso di attendere e vedere che succede, va ricordato che gt300 è un megacippone con piu possibilità di avere falle di un chip piu piccolino, dunque probabilmente la stessa tsmc ha deciso di posticipare il tutto.....
Già penso anche io che i problemi di TSMC con i 40nm abbiano fatto posticipare l'uscita di GT300.
Mi auguro che non ci siano ulteriori ritardi.
Già penso anche io che i problemi di TSMC con i 40nm abbiano fatto posticipare l'uscita di GT300.
Mi auguro che non ci siano ulteriori ritardi.
Ati dunque ha fatto una buona mossa con rv740 nvidia purtroppo non si è portata avanti e adesso ci si ritrova in sta situazione....spero solo che le specifiche fino a ora confermate non siano da rivedere tutte per problemi tecnici dati da tsmc cosa da non escludere a priori
nico88desmo
05-05-2009, 18:28
Ati dunque ha fatto una buona mossa con rv740 nvidia purtroppo non si è portata avanti e adesso ci si ritrova in sta situazione....spero solo che le specifiche fino a ora confermate non siano da rivedere tutte per problemi tecnici dati da tsmc cosa da non escludere a priori
Io sulle specifiche attenderei ancora...potrebbero essere tutte campate...soprattutto quella di oggi con 512bit bus e GDDR5 imho
halduemilauno
05-05-2009, 18:30
ma hal che ne pensa della notizia postata :confused:
sembra fatta apposta per far parlare certe persone.
Mister Tarpone
05-05-2009, 18:31
sembra fatta apposta per far parlare certe persone.
beh che dire... concordo come sempre al 100% con te :asd:
beh che dire... concordo come sempre al 100% con te :asd:
ci fosse già adesso sul mercato sarei già in negozio a prenderla....purtroppo bisogna attendere per motivi a noi ignoti...vedremo :)
ma le gddr5 di che marca sono? qimonda?
sembra fatta apposta per far parlare certe persone.
O per far tacere quelli come te :asd:
Mister Tarpone
05-05-2009, 19:18
O per far tacere quelli come te :asd:
e poi critichi gli altri di fare post inutili :mc:
perchè questo che utilità ha? :asd:
a me sembra solo un attacco personale
e poi critichi gli altri di fare post inutili :mc:
perchè questo che utilità ha? :asd:
a me sembra solo un attacco personale
Per una volta che si scherza, guarda che non sei mica l'unico ad essere legittimato a spammare :ciapet: . Scherzo, era un touché :p
PS: post utile numero 2
Mister Tarpone
05-05-2009, 19:22
PS: post utile numero 2
o forse post inutile numero 2
Mercuri0
05-05-2009, 19:25
sembra fatta apposta per far parlare certe persone.
yep, il tipo di theinquirer ci fa un sacco di soldi usando un linguaggio colorito sul sito, a causa dei fanboy che attira come il miele le api.
Comunque la conferma dei problemi sui 40nm di TSMC + i rumor sul superchippone rendono un ritardo decisamente plausibile, sopratutto se il tapeout verrà fatto a giugno.
Anche se a pensarci temo che tutti i rumor sul GT300 per ora siano sparate di testa, visto appunto che non sarebbe stato fatto neanche il tapeout (= niente è uscito dai palazzi di nVidia).
Boh, verificheremo presto cosa succede coi GT21x. Fudzilla riportava che nVidia avesse ottenuto vari design win coi sui chippini a 40nm per notebook.
michelgaetano
05-05-2009, 19:28
Chiedo: avremo nulla di analogo alle 4770? O addrittura qualcosa di meglio della gts 250? Cioè okay GT 21x, ma c'è qualche data (periodo), grossomodo?
Parlo ovviamente a 40 nm, e prima di GT 300 :D
halduemilauno
05-05-2009, 19:58
http://videocardz.com/25086/geforce-380-gtx-specification/
gianni1879
05-05-2009, 20:01
O per far tacere quelli come te :asd:
evitiamo questo genere di uscite????
Mister Tarpone
05-05-2009, 20:03
http://videocardz.com/25086/geforce-380-gtx-specification/
qui parlano di Q2 (sieee....) Q3... chi ha ragione? :asd:
michelgaetano
05-05-2009, 20:05
qui parlano di Q2 (sieee....) Q3... chi ha ragione? :asd:
Io continuo a sperare nel settembre-ottobre :fagiano:
o forse post inutile numero 2
Forse non hai colto il sarcasmo di quella mia frase, evidente dato che mi avete persino segnalato :)
Parlo ovviamente a 40 nm, e prima di GT 300
Per forza, i prezzi rasentano già l'infimo e di certo non possono abbassarli ulteriormente per renderli maggiormente competitivi, a meno di non avere prodotti aventi un margine di guadagno irrisorio (G92). Senza considerare il gt200 con 192sp a 150 euro .
Il problema a quanto sembra è la resa in % dal wafer, troppo carente secondo "the inquirer" e quindi se gt300 dovesse uscire verso fine 2009-inizi 2010 sicuramente dovrebbero far uscire delle versioni a 40nm di fascia bassa, a partire dai die più bassi sino all'high end (non a caso partono dal mobile, anche perché ci sono già le rv770 in giro a contrastare le 9800M)
halduemilauno
05-05-2009, 20:19
qui parlano di Q2 (sieee....) Q3... chi ha ragione? :asd:
di solito dal tape-out alla disponibilità passano sui 100 giorni. quindi se charlie dice che esso è previsto a giugno. e quindi quantomeno...
Mister Tarpone
05-05-2009, 20:21
Io continuo a sperare nel settembre-ottobre :fagiano:
chissà...
certo che, per me, con la scheda che ho adesso, può uscire anche a novembre dicembre... :asd:
Mister Tarpone
05-05-2009, 20:24
di solito dal tape-out alla disponibilità passano sui 100 giorni. quindi se charlie dice che esso è previsto a giugno. e quindi quantomeno...
quindi sarebbe settembre / ottobre
michelgaetano
05-05-2009, 20:28
chissà...
certo che, per me, con la scheda che ho adesso, può uscire anche a novembre dicembre... :asd:
Ma anche dopo a dirla tutta :sofico:
quindi sarebbe settembre / ottobre
Che poi era quanto si vociferava prima. Vorrei solo capire se c'entra la storia delle difficoltà di TSMC o come si chiama coi 40nm.
Credo che un ritardo del genere per Nvidia faccia male a tutti, quindi speriamo bene.
Mister Tarpone
05-05-2009, 20:56
staremo a vedere dai... ma sono abbastanza ottimista :D
http://videocardz.com/25086/geforce-380-gtx-specification/
be il video è lolloso :asd: :sbonk:
michelgaetano
05-05-2009, 21:24
staremo a vedere dai... ma sono abbastanza ottimista :D
Anche io francamente.
Cioè mi sorprenderei molto se Nvidia aspettasse addirittura 5-6 mesi per le sue schede top. Equivarrebbe a perdere delle quote, e non sono certo così stupidi :D
Anche io francamente.
Cioè mi sorprenderei molto se Nvidia aspettasse addirittura 5-6 mesi per le sue schede top. Equivarrebbe a perdere delle quote, e non sono certo così stupidi :D
appunto per questo che vuol dire che il posticipo potrebbe essere stato dettato da problemi tecnici in tsmc presumendo la massima razionalità dei tecnici nvidia......;)
Anche io francamente.
Cioè mi sorprenderei molto se Nvidia aspettasse addirittura 5-6 mesi per le sue schede top. Equivarrebbe a perdere delle quote, e non sono certo così stupidi :D
Certo, ma si potrebbe ripetere quando accadde nel lontano 2002/2003 in occasione della presentazione delle prime schede DX9.
La 9700 era già disponibile in volumi nell'autunno del 2002, la 5800 fu presentata a novembre, ma la scheda iniziò ad essere disponibile nell'aprile del 2003, e uno dei grossi problemi fu proprio il nuovo processo produttivo :D
Un po di amarcord fa sempre bene http://www.hwupgrade.it/articoli/skvideo/829/nvidia-geforce-fx-5800-ultra_index.html ;)
michelgaetano
06-05-2009, 00:02
Certo, ma si potrebbe ripetere quando accadde nel lontano 2002/2003 in occasione della presentazione delle prime schede DX9.
La 9700 era già disponibile in volumi nell'autunno del 2002, la 5800 fu presentata a novembre, ma la scheda iniziò ad essere disponibile nell'aprile del 2003, e uno dei grossi problemi fu proprio il nuovo processo produttivo :D
Un po di amarcord fa sempre bene http://www.hwupgrade.it/articoli/skvideo/829/nvidia-geforce-fx-5800-ultra_index.html ;)
L'"aspirapolvere" :sofico:
Come flop siamo proprio ai livelli della serie 2x00 di Ati, se non peggio lì :stordita:
Ad ogni modo non credo che la Nvidia di allora sia la Nvidia attuale, non penso che con tutto il tempo a disposizione faranno uscire un flop :D
Mister Tarpone
06-05-2009, 00:06
Ad ogni modo non credo che la Nvidia di allora sia la Nvidia attuale, non penso che con tutto il tempo a disposizione faranno uscire un flop :D
concordo pienamente ;) ci può stare che escan + tardi, anche se non credo 6 mesi.
ma che esca pure un cesso di chip come quello della serie fx lo escludo al 100% :asd:
Gabriyzf
06-05-2009, 08:35
be il video è lolloso :asd: :sbonk:
:D
michelgaetano
06-05-2009, 10:31
Non è questione di stupidità, ma di problemi tecnici. Gli 80nm sono stati tragici in TMSC, questi 40 non sembrano da meno (e parlo in generale, non di nVidia).
Vediamo come va a finire, certo è che se nVidia e AMD non si svegliano e si creano un'alternativa come fonderia rischiano sempre questi intoppi.
Speriamo Globalfoundries possa andare a costituire una valida alternativa per entrambe, perché se loro si intoppano le conseguenze le paghiamo pure noi...
Indubbiamente è come dici Rata. Però mi riesce davvero difficile vedere Nvidia arrivare sei mesi dopo e con un rottame alla 5800 :stordita:
Ma ci sono altre news più precise su questi problemi di TMSC? Cioè tutto quello che ho letto sono "problemi sulla resa, ma abbiamo capito cosa è" in estrema sintesi.
ste attuali gpu non hanno problemi a far girare nessun gioco al giorno d'oggi (chi con + fps, chi con meno fps)
vedi.. io sta frase la sento spessissimo, però con l'hw che ho in questo momento, ho problemi ugualmente.
ho giocato ultimamente a Sacred2 e GTA4... entrambi ingiocabili a 1920X1200 (la ris del mio monitor) a dettagli al massimo.
a me i giochi piace tenerli al massimo delle loro potenzialità e non credo di essere l'unico..
insomma, anche con un signor sistema e una 280GTX non si riesce ad avere il "meglio" in termini di prestazioni.
....e no, non mi faccio un quadsli di 285 :)
michelgaetano
06-05-2009, 21:15
vedi.. io sta frase la sento spessissimo, però con l'hw che ho in questo momento, ho problemi ugualmente.
ho giocato ultimamente a Sacred2 e GTA4... entrambi ingiocabili a 1920X1200 (la ris del mio monitor) a dettagli al massimo.
a me i giochi piace tenerli al massimo delle loro potenzialità e non credo di essere l'unico..
insomma, anche con un signor sistema e una 280GTX non si riesce ad avere il "meglio" in termini di prestazioni.
....e no, non mi faccio un quadsli di 285 :)
Parliamo di un gioco convertito probabilmente da topi di laboratorio (GTA IV) e del diablo clone più inutile e orribile della storia (e l'ho anche comprato :doh:), che a fronte di una grafica solo mediocre (tra l'altro la paletta dei colori è un pugno in un occhio) risulta anche pesante.
Il tuo hardware spacca, ma se i giochi son programmati da schifo, può farci ben poco.
Mister Tarpone
06-05-2009, 21:18
Parliamo di un gioco convertito probabilmente da topi di laboratorio (GTA IV) e del diablo clone più inutile e orribile della storia (e l'ho anche comprato :doh:), che a fronte di una grafica solo mediocre (tra l'altro la paletta dei colori è un pugno in un occhio) risulta anche pesante.
Il tuo hardware spacca, ma se i giochi son programmati da schifo, può farci ben poco.
:)straquoto:)
Parliamo di un gioco convertito probabilmente da topi di laboratorio (GTA IV) e del diablo clone più inutile e orribile della storia (e l'ho anche comprato :doh:), che a fronte di una grafica solo mediocre (tra l'altro la paletta dei colori è un pugno in un occhio) risulta anche pesante.
Il tuo hardware spacca, ma se i giochi son programmati da schifo, può farci ben poco.
anche io l'ho comprato... l'ho mollato a metà.. tra crash e noia mi son caduti i maroni.. in più era pure una mazzata al pc (5 minuti e sentivi il pc come un turboreattore lol)
ho giocato fino a poco fa anche a warhammer online.. anche li in una situazione concitata con una 20ina di pg, fps sotto la ventina...
insomma.. 3 giochi su 3 di quelli giocati nell'ultimo mese e mezzo.. mi fa anche girare un po' le palle! :)
Parliamo di un gioco convertito probabilmente da topi di laboratorio (GTA IV) e del diablo clone più inutile e orribile della storia (e l'ho anche comprato :doh:), che a fronte di una grafica solo mediocre (tra l'altro la paletta dei colori è un pugno in un occhio) risulta anche pesante.
Il tuo hardware spacca, ma se i giochi son programmati da schifo, può farci ben poco.
Ti quoto in toto:D
Mister Tarpone
06-05-2009, 21:48
due giochi che ho entrambi...
sacred 2 per fortuna pagato solo 24€... non mi ha mai preso, ma almeno a livello tecnico... nulla da dire girava sempre sopra i 50fps in full hd + AA4x e dettagli al max... se non l'hai fatto patchalo assolutamente.
gta IV pur girano a framerate accettabile (tra i 35 e i 60+ fps), ha talmente tanti problemi di contorno che lo rendono ingiocabile... e fanno si che possa essere classificato come assoluta porcheria. E questo putroppo l'ho pagato a prezzo pieno. :mad:
:mad: quoto su GTA4:mad:
na porcheria:mad:
Gabriyzf
06-05-2009, 21:49
bisognerebbe boicottare i giochi programmati coi piedi :O
due giochi che ho entrambi...
sacred 2 per fortuna pagato solo 24€... non mi ha mai preso, ma almeno a livello tecnico... nulla da dire girava sempre sopra i 50fps in full hd + AA4x e dettagli al max... se non l'hai fatto patchalo assolutamente.
gta IV pur girano a framerate accettabile (tra i 35 e i 60+ fps), ha talmente tanti problemi di contorno che lo rendono ingiocabile... e fanno si che possa essere classificato come assoluta porcheria. E questo putroppo l'ho pagato a prezzo pieno. :mad:
Chissa magari con GT300 GTA4 girerà bene :sbonk: :sbonk:
bisognerebbe boicottare i giochi programmati coi piedi :O
Bisognerebbe picchiare chi ha fatto la conversione...
Comunque raga sono curioso di vedere se il nuovo GT300 avà le gddr5 a 4 giggi....
dubito... :D
Allora lo buttiamo e via :stordita: :bimbo:
michelgaetano
06-05-2009, 22:00
dubito... :D
E dubito anche io :D
Sacred 2 l'ho giocato con la 8800 gt. L'ho giocato solo 10 ore e quindi non avrò incontrato aree pesanti, però con AA 2x, dettagli maxati e 1680 andava ok (era patchato). Il problema era tutto il resto: i colori mi uccidevano la vista, la dinamica hacnk'n slash tremendamente monotona e poi...trama zero, davvero, il nulla più completo. Okay venivo da The Witcher che in quanto a trama è al polo opposto però mi ha davvero deluso tantissimo. Il primo Sacred pure non aveva chissà quale trama, ma almeno si andava avanti e mi è piaciuto nel complesso.
Mi avete ricordato che devo venderlo, a breve lo metto nel mercatino :asd:
GTA4 a me da problemi di stuttering (pur avendo 2 hd in striping) e il framerate era mediocre per essere un gioco proveniente da console. (concordo con la storia della conversione pietosa.. roba da class action)
sacred l'ho trovato pesantissimo quando ho provato a patchare e ad abilitare PhysX..per un paio di foglioline spostate dal vento l'ho disattivato subito.
ora mi sa comunque che è meglio se ritorniamo OT o volano cazziatoni :D
Questa volta non faccio più l'errore di prendere al DayOne la nuova scheda..prima ero costretto perchè non riuscivo più a fare un tubo in fullhd (venivo da una 7900GTX, ho saltato tutta la gen 8/9). anche se uscirà prima ATI con la serie 5000 e probabilmente i prezzi di lancio di GT300 saranno già meglio posizionati.. mha vedremo :)
Insomma come sempre non abbiamo uno straccio di info affidabile ancora.. speriamo almeno che al Tape-Out ci scappi qualche info più precisa :stordita:
è ancora previsto per Giugno o han rimandato anche quello? sempre che la notizia del rinvio sia poi vera..
michelgaetano
07-05-2009, 00:15
Insomma come sempre non abbiamo uno straccio di info affidabile ancora.. speriamo almeno che al Tape-Out ci scappi qualche info più precisa :stordita:
è ancora previsto per Giugno o han rimandato anche quello? sempre che la notizia del rinvio sia poi vera..
Non mi pare sia stato rimandato, o almeno non ho letto nulla a riguardo.
OT: a proposito di cazziatoni :asd: non è compito mio ma meglio che farti riprendere dai mod: hai la firma su 4 righe (a 1680 ^^") deve essere massimo 3 a 1024*768 :D
Non mi pare sia stato rimandato, o almeno non ho letto nulla a riguardo.
OT: a proposito di cazziatoni :asd: non è compito mio ma meglio che farti riprendere dai mod: hai la firma su 4 righe (a 1680 ^^") deve essere massimo 3 a 1024*768 :D
ah ehm, io tengo 1920 non ci ho mai fatto caso :stordita:
adesso vado a ninna, domani vedo di editare :p
halduemilauno
07-05-2009, 11:04
http://www.hwupgrade.it/news/skvideo/nvidia-gt300-controller-di-memoria-a-512-bit_28898.html
;)
http://www.hwupgrade.it/news/skvideo/nvidia-gt300-controller-di-memoria-a-512-bit_28898.html
;)
:old:
;)
Mercuri0
07-05-2009, 11:18
Come flop siamo proprio ai livelli della serie 2x00 di Ati, se non peggio lì :stordita:
Anche per la serie HD2x00 di ATi quello che andò male è che il processo produttivo non consentiva di portare le frequenze ai valori che avrebbero voluto.
Altrimenti il tutto fondeva. :D
Gabriyzf
07-05-2009, 13:49
speriamo che GT300 non sia troppo, in tutti i sensi:
troppo complesso, troppo potente, troppo grande, troppo caloroso, troppo avido d'energia e soprattutto troppo costoso :mc:
Gabriyzf
07-05-2009, 17:20
Diciamo che quando ne metti una settata a "troppo" anche le altre voci tendono a quel setting.
Di solito la difficoltà nel progettare sta proprio lì.
Speriamo sia competitivo e basta, quanto costa sono fatti loro.
beh, anche un pò nostri ;)
Mister Tarpone
07-05-2009, 17:54
Nostri solo quanto ce lo fanno pagare, per questo ho detto competitivo ;)
;)
al prossimo giro ti voglio con un GTX380 512bit-512sp-GDDR5 4000mhz :sborone: e dopo apriremo pure il thread ufficiale insieme (hal :tie: :ops:) :O
;)
al prossimo giro ti voglio con un GTX380 512bit-512sp-GDDR5 4000mhz :sborone: e dopo apriremo pure il thread ufficiale insieme (hal :tie: :ops:) :O
lo apriremo io e te Tarpoz non manchero' :sofico:
;)
Mister Tarpone
07-05-2009, 17:58
lo apriremo io e te Tarpoz non manchero' :sofico:
;)
lo apriremo io, te e ratatosk... facciamo i tre moschettieri :asd:
michelgaetano
07-05-2009, 18:01
lo apriremo io, te e ratatosk... facciamo i tre moschettieri :asd:
Vigliacchi, io non posso arrivare a quelle cifre :asd:
Se ci saran modelli sui 200 € e dissipatore con le sfere contatemi dentro :asd:
lo apriremo io, te e ratatosk... facciamo i tre moschettieri :asd:
no problem Tarpo :)
ma è uscita? adesso vado in negozio e batto tutti al foto finish :asd:
halduemilauno
09-05-2009, 07:28
http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx
With the news that ATI delayed the RV870 part to 4Q'09, there are reasons why Santa Clara camp will be happy. GT300 is coming before the RV870, if TSMC does not mess up completely.
After the conference call last night, nVidia was feeling very confident that the company is on the right track... and there is a pretty good reason why. We spoke with several sources and they're quite optimistic that they will be able to release their DirectX 11 GPU ahead of ATI's RV870 chip.
According to a rumored report on Fudzilla, ATI allegedly decided to postpone their DirectX 11 until after the release of Windows 7, while our sources cited that recent rumors about slipping into 2010 were "blatant lies" and "written by a person that has no sense of reality". We will refrain from comments and we usually dislike it if a fellow journalist is being dissed, unless it is a person who invents things up. Charlie is usually known to be on target, but this goes against the information we know. But what is important is that according to our sources, GeForce GTX 300 series will be shipped in late 3Q 2009, targeting the Back-to-School period. We're not talking about a October-November frame, but rather August or September. Our sources were not wrong in the past, and we have no reason to believe otherwise. BUT - this is a rumor story. Until the silicon comes out, we won't know who's who.
Just like RV870, the reason why both companies have issues is TSMC's issues with the 40nm process, and this is a trump card for GlobalFoundries. Like any rumors, take them with a grain of salt. It is a common thing that competing manufacturers spread bad rumors about the competing company's part, but that is just the way how this game is played.
;)
Mister Tarpone
09-05-2009, 07:32
http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx
With the news that ATI delayed the RV870 part to 4Q'09, there are reasons why Santa Clara camp will be happy. GT300 is coming before the RV870, if TSMC does not mess up completely.
After the conference call last night, nVidia was feeling very confident that the company is on the right track... and there is a pretty good reason why. We spoke with several sources and they're quite optimistic that they will be able to release their DirectX 11 GPU ahead of ATI's RV870 chip.
According to a rumored report on Fudzilla, ATI allegedly decided to postpone their DirectX 11 until after the release of Windows 7, while our sources cited that recent rumors about slipping into 2010 were "blatant lies" and "written by a person that has no sense of reality". We will refrain from comments and we usually dislike it if a fellow journalist is being dissed, unless it is a person who invents things up. Charlie is usually known to be on target, but this goes against the information we know. But what is important is that according to our sources, GeForce GTX 300 series will be shipped in late 3Q 2009, targeting the Back-to-School period. We're not talking about a October-November frame, but rather August or September. Our sources were not wrong in the past, and we have no reason to believe otherwise. BUT - this is a rumor story. Until the silicon comes out, we won't know who's who.
Just like RV870, the reason why both companies have issues is TSMC's issues with the 40nm process, and this is a trump card for GlobalFoundries. Like any rumors, take them with a grain of salt. It is a common thing that competing manufacturers spread bad rumors about the competing company's part, but that is just the way how this game is played.
;)
:sbonk: :rotfl: :sbonk:
kinotto88
09-05-2009, 09:31
http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx
With the news that ATI delayed the RV870 part to 4Q'09, there are reasons why Santa Clara camp will be happy. GT300 is coming before the RV870, if TSMC does not mess up completely.
After the conference call last night, nVidia was feeling very confident that the company is on the right track... and there is a pretty good reason why. We spoke with several sources and they're quite optimistic that they will be able to release their DirectX 11 GPU ahead of ATI's RV870 chip.
According to a rumored report on Fudzilla, ATI allegedly decided to postpone their DirectX 11 until after the release of Windows 7, while our sources cited that recent rumors about slipping into 2010 were "blatant lies" and "written by a person that has no sense of reality". We will refrain from comments and we usually dislike it if a fellow journalist is being dissed, unless it is a person who invents things up. Charlie is usually known to be on target, but this goes against the information we know. But what is important is that according to our sources, GeForce GTX 300 series will be shipped in late 3Q 2009, targeting the Back-to-School period. We're not talking about a October-November frame, but rather August or September. Our sources were not wrong in the past, and we have no reason to believe otherwise. BUT - this is a rumor story. Until the silicon comes out, we won't know who's who.
Just like RV870, the reason why both companies have issues is TSMC's issues with the 40nm process, and this is a trump card for GlobalFoundries. Like any rumors, take them with a grain of salt. It is a common thing that competing manufacturers spread bad rumors about the competing company's part, but that is just the way how this game is played.
;)
buono a sapersi..
quindi gt 300--> agosto/settembre
rv870 --> dopo l'uscita di 7
quali sarebbero i problemi che entrambe le società hanno avuto coi chip a 40nm?
quindi a sorpresa, nvidia esce prima?
be le schede video piu veloci escono sempre dopo :asd:
Gabriyzf
09-05-2009, 09:50
be le schede video piu veloci escono sempre dopo :asd:
sì, come G80 e RV670 :D
pardòn, era R600 :muro: :D
sì, come G80 e RV670 :D
:Prrr: vedremo
;)
Mister Tarpone
09-05-2009, 09:52
be le schede video piu veloci escono sempre dopo :asd:
chi te lo ha detto? Charlie?? :asd:
sì, come G80 e RV670 :D
:p
Gabriyzf
09-05-2009, 09:53
:Prrr: vedremo
;)
:ciapet:
kinotto88
09-05-2009, 09:54
sì, come G80 e RV670 :D
:Prrr: vedremo
;)
:sbonk:
chi te lo ha detto? Charlie?? :asd:
:p
no me l'ha detto tatanka....indubbiamente chi esce prima o chi dopo poco importa a me basta che rv770:gt200=rv870:gt300 poi per il resto chissene importa ;)
Gabriyzf
09-05-2009, 10:04
no me l'ha detto tatanka....indubbiamente chi esce prima o chi dopo poco importa a me basta che rv770:gt200=rv870:gt300 poi per il resto chissene importa ;)
:cincin:
Foglia Morta
09-05-2009, 10:06
buono a sapersi..
quindi gt 300--> agosto/settembre
rv870 --> dopo l'uscita di 7
quali sarebbero i problemi che entrambe le società hanno avuto coi chip a 40nm?
quindi a sorpresa, nvidia esce prima?
Ottimo, ora Theo Valich ne sa più di Dirk Meyer ( che , per chi non la sapesse , ha parlato di un ondata di gpu DX11 nel corso della seconda metà di quest'anno non dopo la release di Seven ) :sofico:
Mister Tarpone
09-05-2009, 10:09
no me l'ha detto tatanka....indubbiamente chi esce prima o chi dopo poco importa a me basta che rv770:gt200=rv870:gt300 poi per il resto chissene importa ;)
basta ci sia una bella competizione :mano: ;)
Mister Tarpone
09-05-2009, 10:15
cmq non so perchè, ma stavolta son + curioso di vedere all'opera le ati. :p
io son tremendamente curioso sia per rv870 che per gt300 :oink:
kinotto88
09-05-2009, 10:16
cmq non so perchè, ma stavolta son + curioso di vedere all'opera le ati. :p
anch'io..sarà perchè sono su X48 e il crossfire di due Rv870 mi stuzzica ..:D
Mister Tarpone
09-05-2009, 10:31
anch'io..sarà perchè sono su X48 e il crossfire di due Rv870 mi stuzzica ..:D
e due schede di quella potenza con cosa le vuoi tirare? con un Q6600? io dico che per un cross o sli delle prossime schede ci vorrà qualche cosa di + serio per tirarle al max :D
kinotto88
09-05-2009, 10:31
io volendo potrei fare sia SLI che CFX, :sbonk:
il punto è che già adesso sono in dubbio sull'effettiva necessità di passare a qualcosa che si prospetta mooolto potente (parlo sia per le nuove ati che per le nuove nvidia) per chi è già dotato di gpu a partire da 4870 (figuriamoci quelli che hanno 4870x2 o gtx295)... vista la penuria di titoli che sfrutterebbero tale potenza.
OK... l'idea di una nuova vga mi stuzzica sempre, ma se proprio dovrò\vorrò cambiare... e i titoli rimarranno quelli attuali... mi sa che andrò al risparmio scegliendo ATI, che si prospetta + econoimica di nVidia.
Ma ovviamente si parla sempre x assurdo... e a parecchi mesi dall'uscita di tali gpu. Son sempre discorsi da bar questi...
hai perfettamente ragione..
se non usciranno giochi kill gpu con le vga che hai citato si può godere appieno di qualsiasi gioco..
la prospettiva di cambiarla è più per passione che altro..:rolleyes:
Mister Tarpone
09-05-2009, 10:33
titoli kill gpu o no, tanto appena usciranno queste,la cambieremo quasi tutti le gpu attuali... non c'è niente da fare... la scimmia prenderà il sopravvento :asd: e saranno pochi a resistere :asd:
kinotto88
09-05-2009, 10:35
e due schede di quella potenza con cosa le vuoi tirare? con un Q6600? io dico che per un cross o sli delle prossime schede ci vorrà qualche cosa di + serio per tirarle al max :D
ho detto solo che mi stuzzica..:D...da qui a farlo ce ne passa ..:p
capisco che gt300/ rv870 si prospettano un salto notevole..ma pensi seriamente che sarei cpu-limited con un quad a 3.6ghz..? :confused:
Mister Tarpone
09-05-2009, 10:36
ho detto solo che mi stuzzica..:D...da qui a farlo ce ne passa ..:p
capisco che gt300/ rv870 si prospettano un salto notevole..ma pensi seriamente che sarei cpu-limited con un quad a 3.6ghz..? :confused:
se queste schede andranno come le dual di adesso... be te immaginatele x2.. :asd:
imho il Q6600 è spacciato per tirarle come si deve ;)
ci vorrà I7 punto e basta :p
kinotto88
09-05-2009, 10:37
se queste schede andranno come le dual di adesso... be te immaginatele x2.. :asd:
imho il Q6600 è spacciato per tirarle come si deve ;)
ci vorrà I7 punto e basta :p
:mc:
Andrea deluxe
09-05-2009, 10:37
beh, per un SLI-CFX di tali vga... sarebbe da avere a prescindere da tutto una piattaforma i7 visto lo scaling del multi-gpu su tali piattaforme... su X48+Q6600 sarebbe cpu limited con 2 vga, al 99%.
esatto... :fagiano:
con crysis
io col quad sli sono cpu limited a 1920*1200 con i7 a 3200....
l'ho dovuto mettere a 4000 pena 10 fotogrammi di media in meno....
incredibile.....
ps: gtx 295 @ 648 1476 2106
Mister Tarpone
09-05-2009, 10:38
mmmmh... probabilmente hai ragione... :asd:
ma fa bello fare discorsi tipo il mio di prima :sbonk:
:O cmq il tarps di una volta, sarebbe rimasto con la vecchia gpu :O
vero.. :fagiano:
kinotto88
09-05-2009, 10:41
su X48\790i + quad, si è cpu limited (basta vedere come cambino i bench... mettendo X58 + nehalem) con 2x GTX260\280... vuoi non esserlo con due GT300? :D
il cambio di piattaforma è ancora troppo oneroso.:muro:....
dite che con l'uscita di GT300/RV870 le mobo X58 e le cpu nehalem potranno subire un alleviamento dei prezzi?
Mister Tarpone
09-05-2009, 10:42
con crysis
io col quad sli sono cpu limited a 1920*1200 con i7 a 3200....
l'ho dovuto mettere a 4000 pena 10 fotogrammi di media in meno....
incredibile.....
portalo a 4gigi che 2X GTX295 (4gpu) non sono uno scherzo :asd:
kinotto88
09-05-2009, 10:44
con crysis
io col quad sli sono cpu limited a 1920*1200 con i7 a 3200....
l'ho dovuto mettere a 4000 pena 10 fotogrammi di media in meno....
incredibile.....
(:eekk:)
:uh:
Andrea deluxe
09-05-2009, 10:46
(:eekk:)
:uh:
a me invece son cadute le balle a terra nel constatare la cosa....
tu pensa che il mio procio tiene 3200mhz con 1v
e adesso cono costretto a tenerlo a 4000mhz con 1.312v (scalda e consuma da bestia)
:mad:
Mister Tarpone
09-05-2009, 10:47
a me invece son cadute le balle a terra nel constatare la cosa....
tu pensa che il mio procio tiene 3200mhz con 1v
e adesso cono costretto a tenerlo a 4000mhz con 1.312v (scalda e consuma da bestia)
:mad:
beh se non ti soddisfa passalo a me... guarda se vuoi ti do il phenom II 720Be a scambio... ci stai?? :asd:
kinotto88
09-05-2009, 10:49
a me invece son cadute le balle a terra nel constatare la cosa....
tu pensa che il mio procio tiene 3200mhz con 1v
e adesso cono costretto a tenerlo a 4000mhz con 1.312v (scalda e consuma da bestia)
:mad:
certo che anche te...un quad di gtx 295..:D
vado un pò ot..
hai qualche screen delle 2 bestie con crysis e compagnia bella..:fagiano:
kinotto88
09-05-2009, 10:57
a me invece son cadute le balle a terra nel constatare la cosa....
tu pensa che il mio procio tiene 3200mhz con 1v
e adesso cono costretto a tenerlo a 4000mhz con 1.312v (scalda e consuma da bestia)
:mad:
in teoria se con un quad sli odierno non si è limitati da un I7 a 4ghz.. non saremo limitati nemmeno con uno sli crx di gt300 / rv870..( sempre che le nuove vga di casa nvida e ati vadano come una gx2 x2)
Mister Tarpone
09-05-2009, 10:58
in teoria se con un quad sli odierno non si è limitati da un I7 a 4ghz.. non saremo limitati nemmeno con uno sli crx di gt300 / rv870..( sempre che le nuove vga di casa nvida e ati vadano come una gx2 x2)
ma ci puoi giurare ;) una GX2 a momenti la batto pure io con la mia 260 :asd: quindi 2X GX2 = 2X GTX260
lo apriremo io, te e ratatosk... facciamo i tre moschettieri :asd:
e Dartagnam ve lo siete scordato?
Mister Tarpone
09-05-2009, 11:05
e Dartagnam ve lo siete scordato?
:D sei te.
;)
:D sei te.
;)
gnam gnam :D
Mister Tarpone
09-05-2009, 11:20
Non è possibile. IO sono Darth Agnan (http://www.hwupgrade.it/forum/showthread.php?t=1970939) :asd:
ganzo :asd:
HaRdCoRe GaMeR
09-05-2009, 20:36
Intanto non potrebbero buttare fuori una gtx285 a 40nm? :fagiano:
michelgaetano
09-05-2009, 20:53
Intanto non potrebbero buttare fuori una gtx285 a 40nm? :fagiano:
Mica è così facile tirare fuori un chippone del genere a 40 nm :D
Altrimenti mica Ati lo testava con una "schedina" come la 4770 :D
Intanto non potrebbero buttare fuori una gtx285 a 40nm? :fagiano:
si, così corro subito a comprarla :sofico:
HaRdCoRe GaMeR
09-05-2009, 22:14
si, così corro subito a comprarla :sofico:
Idem:D
Se da 65nm con la gtx280 passando ai 55nm con la gtx285 c'è stato un bel guadagno....figurarsi dai 55nm ai 40nm:sofico:
Sarebbe performante quanto una gtx295:oink:
Quindi il gt300 protrebbe anche aspettare il 2010....non sarebbe una brutta idea...
Andrea deluxe
09-05-2009, 23:21
Idem:D
Se da 65nm con la gtx280 passando ai 55nm con la gtx285 c'è stato un bel guadagno....figurarsi dai 55nm ai 40nm:sofico:
Sarebbe performante quanto una gtx295:oink:
Quindi il gt300 protrebbe anche aspettare il 2010....non sarebbe una brutta idea...
per me e' proprio una brutta idea....
nel passaggio da 65 a 55 il guadagno non e' stato elevatissimo.... avevo una gtx 280 che si cloccava quasi quanto una gtx 285......
nei consumi si, ma come frequenze....
il progetto g80 e' arrivato alla frutta con gt200 ed e' ora di tirare fuori qualcosa di nuovo...
poi una eventuale gtx 285 a 40nm dove arriva secondo te... 800 1800?
ma tu la stai paragonando a 2gpu, quindi 480 sp vs 240sp....
:fagiano:
HaRdCoRe GaMeR
09-05-2009, 23:31
per me e' proprio una brutta idea....
nel passaggio da 65 a 55 il guadagno non e' stato elevatissimo.... avevo una gtx 280 che si cloccava quasi quanto una gtx 285......
nei consumi si, ma come frequenze....
il progetto g80 e' arrivato alla frutta con gt200 ed e' ora di tirare fuori qualcosa di nuovo...
poi una eventuale gtx 285 a 40nm dove arriva secondo te... 800 1800?
ma tu la stai paragonando a 2gpu, quindi 480 sp vs 240sp....
:fagiano:
In primis, si occa molto bene anche la gtx285...e quindi il distacco resta evidente tra una gtx280 e gtx285 parlando di pura performance....
In secundis, visto i problemi con il nuovo "chippone" gt300, nvidia potrebbe addolcire l'attesa del nuovo processore grafico con gtx285 a 40nm...:D
basterebbe fare un chip enorme grosso come metà del pcb di una scheda video, con un mega waterblock giusto per tenerlo a default. sono convinto che anche se andasse solo a 200 mhz quel core ospiterebbe una enorme quantità di transistors ai fini di una pura potenza :Prrr:
Mister Tarpone
09-05-2009, 23:55
In primis, si occa molto bene anche la gtx285...e quindi il distacco resta evidente tra una gtx280 e gtx285 parlando di pura performance....
In secundis, visto i problemi con il nuovo "chippone" gt300, nvidia potrebbe addolcire l'attesa del nuovo processore grafico con gtx285 a 40nm...:D
ma dove? :asd:
la 285 si occa un pochino meglio e stop. ma poi per il resto, il chip è identico = 512bit e 240sp
Mister Tarpone
10-05-2009, 00:18
quoto... tra le due c'è mediamente un 7% massimo massimo.
ma te occale entrambe (un es.) a 730mhz e la differenza diventa dello 0%
HaRdCoRe GaMeR
10-05-2009, 00:23
ma dove? :asd:
la 285 si occa un pochino meglio e stop. ma poi per il resto, il chip è identico = 512bit e 240sp
A hai ragione...le frequenze non contano un :banned: secondo te?
HaRdCoRe GaMeR
10-05-2009, 00:23
quoto... tra le due c'è mediamente un 7% massimo massimo.
Sembra poco?
Mister Tarpone
10-05-2009, 00:27
A hai ragione...le frequenze non contano un :banned: secondo te?
la 285 è una 280 overclockata punto e basta.
se uno che ha la 280 se la porta alle frequenze della 285 poi va uguale perchè il chip è identico come caratteristiche tecniche.
diciamo che la 285 magari si occa ancora di più ed allora ci puoi cavare un 1 o 2% + di prestazioni.. :asd: quindi non è corretto dire che c'è uno stacco "evidente"
Kharonte85
10-05-2009, 00:27
:sbonk: :rotfl: :sbonk:
In effetti i toni di the INQ sembrano piu' prese per il :ciapet: che notizie, in confronto Fudzilla è molto morigerato :asd:
HaRdCoRe GaMeR
10-05-2009, 00:27
ma te occale entrambe (un es.) a 730mhz e la differenza diventa dello 0%
Si, nei sogni...se spingi a 730 una gtx280 figurati dove spingi una gtx285...proprio il miglioramento della tecnologia produttiva da 65 a 55nm permette di mantenere temp più basse a freq più alte....che senso avrebbe quindi paragonarle alla stessa freq???????????????????
Se dalla gtx280 alla gtx285 c'è un 7%...se facessero una 285 a 40nm tra umna 285 a 55nm e una a 40nm ci sarebbe un distacco dell'11%
Mister Tarpone
10-05-2009, 00:30
ma che pensi che cambia da 730mhz di una 280 a , mettiamo 760 di una 285?? forse un 1fps + nel bench di Crysis..
ad un certo punto le frequenze + elevate non regalano tante prestazioni in +..
HaRdCoRe GaMeR
10-05-2009, 00:40
ma che pensi che cambia da 730mhz di una 280 a , mettiamo 760 di una 285?? forse un 1fps + nel bench di Crysis..
ad un certo punto le frequenze + elevate non regalano tante prestazioni in +..
Non ci avevo pensato...stavo andando di proporzioni:doh:
Mister Tarpone
10-05-2009, 01:06
se vuoi un consiglio per capire la vera differenza tra tutte ste schede.. assolutamente non limitarti a guardare solo le review... ma guarda anche i test degli utenti... così capirai veramente quali sono le differenze tra tutte ste schede --una volta spremute al max-- in overclock :asd: ;)
michelgaetano
10-05-2009, 03:06
ma che pensi che cambia da 730mhz di una 280 a , mettiamo 760 di una 285?? forse un 1fps + nel bench di Crysis..
ad un certo punto le frequenze + elevate non regalano tante prestazioni in +..
Quoto.
HaRdCoRe GaMeR
10-05-2009, 11:18
se vuoi un consiglio per capire la vera differenza tra tutte ste schede.. assolutamente non limitarti a guardare solo le review... ma guarda anche i test degli utenti... così capirai veramente quali sono le differenze tra tutte ste schede --una volta spremute al max-- in overclock :asd: ;)
Grazie;)
Gabriyzf
10-05-2009, 12:12
Quoto.
quoto anch'io :D
Gabriyzf
10-05-2009, 12:13
se vuoi un consiglio per capire la vera differenza tra tutte ste schede.. assolutamente non limitarti a guardare solo le review... ma guarda anche i test degli utenti... così capirai veramente quali sono le differenze tra tutte ste schede --una volta spremute al max-- in overclock :asd: ;)
fondamentale ;)
Athlon 64 3000+
10-05-2009, 12:26
Su GT300 ne ho sentite di tutte i colori.
Quello che abbiamo letto sono solo voci di corridoio e quindi sulla nuova architettura Nvidia tutto è possibile e quindi ogni volta che esce un rumor va sempre preso con le pinze.
Basta ricordarsi il precedente con G80 per rendersi conto che i rumor contano fino ad un certo punto.
In primis, si occa molto bene anche la gtx285...e quindi il distacco resta evidente tra una gtx280 e gtx285 parlando di pura performance....
In secundis, visto i problemi con il nuovo "chippone" gt300, nvidia potrebbe addolcire l'attesa del nuovo processore grafico con gtx285 a 40nm...:D
Con la ventola al 100% una gtx280 la overclocchi più o meno quanto una 285, non sono un centinaio di megahertz in più sul core a fare la differenza, ammesso che poi non sia qualche decina sul core ed una cinquantina sugli shaders (il BW influisce ad alte risoluzioni ma in maniera relativa, comunque è fondamentale ad elevate frequenze). A default è ovvio che distacco c'è, ma se dovessi spingere la 280 sui 750 di core e se portassi la 285 con gli shader a 1600-1650, quest'ultima sarebbe un pelo più performante della prima, pochi fps in più ma nulla di particolarmente evidente o sostanziale ;) (che poi dipende pure dal motore grafico in sé)
michelgaetano
10-05-2009, 17:48
Edit
Perchè editato? Magari fosse come diceva l'articolo, speriamo :D
HaRdCoRe GaMeR
10-05-2009, 18:56
Perchè editato? Magari fosse come diceva l'articolo, speriamo :D
Che articolo? Cosa ha editato?:eek:
Gabriyzf
10-05-2009, 19:03
cos'é l'edit?
HaRdCoRe GaMeR
10-05-2009, 19:45
cos'é l'edit?
è quando modifichi un post;)
Gabriyzf
10-05-2009, 20:01
è quando modifichi un post;)
no, quello lo so :D
volevo sapere che articolo era stato editato e "occultato"
HaRdCoRe GaMeR
10-05-2009, 21:14
no, quello lo so :D
volevo sapere che articolo era stato editato e "occultato"
lol...anch'io:mbe:
michelgaetano
10-05-2009, 22:09
Dava GT300 tra Agosto e Settembre :D
Gabriyzf
10-05-2009, 22:20
Dava GT300 tra Agosto e Settembre :D
ah ;)
kinotto88
10-05-2009, 22:23
Dava GT300 tra Agosto e Settembre :D
ma infatti è quella la data d'uscita..
qualche giorno fa hal aveva postato un'articolo che dava GT300 ad agosto/settembre e Rv870 dopo l'uscita di seven...:rolleyes:
kinotto88
10-05-2009, 22:34
ma no... sono solo speculazioni, non li hai letti i post precedenti??
nu..:oink:
HaRdCoRe GaMeR
10-05-2009, 23:00
Secondo me nvidia sta a vedere che fa ati...
michelgaetano
10-05-2009, 23:46
Non credo proprio. Se avrà una GPU pronta prima di AMD la venderà, così come è vero il viceversa.
Non sono stupidi, e aspettare perdendosi il vantaggio dell'essere primi sul mercato sarebbe molto oltre la stupidità. Il secondo dei due ad arrivare sul mercato sarà secondo solo perché non sarà riuscito ad arrivare prima per i più vari motivi, non certo per scelta ;)
Credo anch'io.
Perchè editato? Magari fosse come diceva l'articolo, speriamo :D
Perchè la notizia era già stata postata da hal
http://www.hwupgrade.it/forum/showpost.php?p=27396542&postcount=3963
halduemilauno
11-05-2009, 12:06
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13600&Itemid=1
;)
Dava GT300 tra Agosto e Settembre :D
se gt300 esce prima di rv870 , quindi x settembre + o-, io ho i miei seri dubbi che avrà una architettura FULL-MIMD.
già hanno problemi col processo a 40 nani, figurarsi in anticipo , se con i problemi tirano fuori un CHIPPONE FULL-MIMD , abbastanza rivoluzionario.
non credo , credo che gt300 sarà ancora un qualcosa di SIMD .
se gt300 esce prima di rv870 , quindi x settembre + o-, io ho i miei seri dubbi che avrà una architettura FULL-MIMD.
già hanno problemi col processo a 40 nani, figurarsi in anticipo , se con i problemi tirano fuori un CHIPPONE FULL-MIMD , abbastanza rivoluzionario.
non credo , credo che gt300 sarà ancora un qualcosa di SIMD .
Ricordo che tutti davano G80 come architettura con pipeline separate, lo stesso David Kirk a quei tempi lasciava intendere ciò, eppure nVIDIA stupì tutti con un architettura rivoluzionaria ad ALU generiche.
Senza contare il modo in cui, con NV40, si riprese dalla botta di NV30.
Questo per dire che nVIDIA, ove necessario, sà attuare passi da gigante in men che non si dica, rivoluzionando sé stessa ed il mercato.
Mister Tarpone
11-05-2009, 15:06
Ricordo che tutti davano G80 come architettura con pipeline separate, lo stesso David Kirk a quei tempi lasciava intendere ciò, eppure nVIDIA stupì tutti con un architettura rivoluzionaria ad ALU generiche.
Senza contare il modo in cui, con NV40, si riprese dalla botta di NV30.
Questo per dire che nVIDIA, ove necessario, sà attuare passi da gigante in men che non si dica, rivoluzionando sé stessa ed il mercato.
quotazzo
Andrea deluxe
11-05-2009, 15:09
Ricordo che tutti davano G80 come architettura con pipeline separate, lo stesso David Kirk a quei tempi lasciava intendere ciò, eppure nVIDIA stupì tutti con un architettura rivoluzionaria ad ALU generiche.
Senza contare il modo in cui, con NV40, si riprese dalla botta di NV30.
Questo per dire che nVIDIA, ove necessario, sà attuare passi da gigante in men che non si dica, rivoluzionando sé stessa ed il mercato.
qunado installai la 6800 ultra e poi la 8800gtx ebbi sensazioni incredibili di potenza.....
bei tempi
Mister Tarpone
11-05-2009, 15:10
qunado installai la 6800 ultra e poi la 8800gtx ebbi sensazioni incredibili di potenza.....
bei tempi
eh ci credo
Andrea deluxe
11-05-2009, 15:11
eh ci credo
tieni conto che passavo:
da 5900 ultra > 6800 ultra
da x1900 xtx > 8800gtx
Mister Tarpone
11-05-2009, 15:16
tieni conto che passavo:
da 5900 ultra > 6800 ultra
da x1900 xtx > 8800gtx
eh si.. son stati dei bei salti... le seconde son nettamente + potenti delle prime...
Ma i salti li fa pure ati, basta guardare R600 vs RV770, è normale che ci sia un bell'aumento di potenza tra una generazione e l'altra.
Stesso discorso nell'ambito dei processori :D
HaRdCoRe GaMeR
11-05-2009, 21:37
eh si.. son stati dei bei salti... le seconde son nettamente + potenti delle prime...
Spero in un bel salto anche con le GTX360 e GTX380:D
Inoltre spero che escano giochi a cui serve tale potenza...io credo in DIRT 2 e COD6 MW2:asd:
michelgaetano
11-05-2009, 21:39
Spero in un bel salto anche con le GTX360 e GTX380:D
Inoltre spero che escano giochi a cui serve tale potenza...io credo in DIRT 2 e COD6 MW2:asd:
Paradossalmente (perchè poi dovrei cambiare gpu io stesso quindi è masochismo :asd:) spero anche io escano titoli più pesanti, se si continua così le vga più potenti serviranno solo per 2-3 titoli :stordita:
HaRdCoRe GaMeR
11-05-2009, 21:45
Paradossalmente (perchè poi dovrei cambiare gpu io stesso quindi è masochismo :asd:) spero anche io escano titoli più pesanti, se si continua così le vga più potenti serviranno solo per 2-3 titoli :stordita:
Facciamo 1:D
Mister Tarpone
11-05-2009, 21:45
io credo che manco il prossimo Rage della Id riuscirà a piegare le schede di adesso...
cmq per spremere GT300 ed RV870 ci vorrà Crysis2 punto e basta :sborone:
io credo che manco il prossimo Rage della Id riuscirà a piegare le schede di adesso...
cmq per spremere GT300 ed RV870 ci vorrà Crysis2 punto e basta :sborone:
speriamo.....:)
speriamo.....:)
bhe, se sarà come crysis 1 con G80 c'è poco da stare allegri :p
bhe, se sarà come crysis 1 con G80 c'è poco da stare allergri :p
a me basta giocare fluido a crysis 1 con aa poi per il resto amen
Mister Tarpone
11-05-2009, 21:50
bhe, se sarà come crysis 1 con G80 c'è poco da stare allergri :p
infatti.. perchè praticamente metterebbe in ginocchio proprio le prossime schede :sbonk:
infatti.. perchè praticamente metterebbe in ginocchio proprio le prossime schede :sbonk:
appunto :asd:
infatti.. perchè praticamente metterebbe in ginocchio proprio le prossime schede :sbonk:
ho capito perchè uscirà l'anno prossimo :asd: che così gli sviluppatori lo adatteranno meglio a rv970 e gt400 :asd:
mizzica, ci toccherà bestemmiare anche con le nuove schede?
mizzica, ci toccherà bestemmiare anche con le nuove schede?
altrimenti che Crysis sarebbe ? :sofico:
Mister Tarpone
11-05-2009, 21:55
appunto :asd:
:D
che così gli sviluppatori lo adatteranno meglio a rv970 e gt400 :asd:
dico solo una cosa = labaree Black Editon...e via :Perfido:
;)
altrimenti che Crysis sarebbe ? :sofico:
ekkekkezzo :incazzed:
michelgaetano
11-05-2009, 22:12
dico solo una cosa = labaree Black Editon...e via :Perfido:
;)
non era larrabee :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.