View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
VIKKO VIKKO
03-06-2008, 20:27
Un Enermax Infiniti 720 W basterà considerando che levo l'Ageia? :confused:
Sennò mi prendo un bel 1000 W o magari 1200 W, anzi facciamo 10000 W. :asd:
:Prrr: :Prrr: :Prrr:
antipatici :D
mircocatta
03-06-2008, 20:33
Stai scherzando? :mbe:
http://www.tomshw.it/guides/hardware/howto/20051014/images/liberty-01.jpg
sono 384W reali sui +12v
stavo parlando del mio titan :D
-noxius-
03-06-2008, 20:50
infatti ho ragione a dire che è una cazzata, ti spiego perchè:
il primo video, il mass effect, se leggi la descrizione è scritto così:
"Q: Is this realtime?
A: No, it was rendered frame by frame slowly using this method:"
;)
il secondo video NON c'è affatto scritto che è stata modificata quella opzione che sposta il lavoro sulla gpu togliendolo dalla cpu ;)
il terzo video, se leggi la descrizione, c'è palesemente scritto: "Vehicles and Houses demolition ( not real frames )"
;)
Da quello che sapevo io avevo letto che bisognava solo aggiungere quel Cvar oppure quella riga di comando , per attivare quelle funzioni ; purtroppo non posso provarlo e farti sapere direttamente , qualcuno di voi potrebbe fare questo test ? Sarebbe interessante se fosse vero ;)
Futura12
03-06-2008, 21:12
Stai scherzando? :mbe:
http://www.tomshw.it/guides/hardware/howto/20051014/images/liberty-01.jpg
sono 384W reali sui +12v
236w è il TDP della gtx 280, il che significa che ci aspettiamo circa un 200-210w in full load, il resto lo lasciamo alla CPU (130w male che vada) e al resto...è chiaro che abbondare per rimanere piu' rilassati non faccia che bene ma cerchiamo di non farci prendere dal panico..
Sì, vedi sopra
:fagiano:
Scusate l'OT...
sisi diceva cosi pure il mio Enermax con 34A (408w) e poi è scoppiato con una G80 8800GTS:asd:
A parte che non erogherà mai tutti gli Ampere che ci sono scritti......poi solitamente non è bello prendere un alimentatore un sottodimensionato...+ calore,meno efficienza,rischio di rottura estremamente alto.
Questo era per dire....il 500w Liberty è ancora perfetto per tutto...ma a comprarlo ora...prenderei qualcosa di più cazzuto:cool:
Enochian
03-06-2008, 21:12
Sennò mi prendo un bel 1000 W o magari 1200 W, anzi facciamo 10000 W. :asd:
Dipende se vuoi il boost di prestazioni su Crysis serve almeno un 1500W a carbonella :asd:
Futura12
03-06-2008, 21:14
Dipende se vuoi il boost di prestazioni su Crysis serve almeno un 1500W a carbonella :asd:
scometto che esce dal radiatore:p
Enochian
03-06-2008, 21:15
Si, c'è anche il vestito da macchinista e la pala per spalare il carbone nella caldaia di alimentazione della scheda.
Del resto, se uno vuole 60 fps al max di crysis, this is the only way to get it...
sisi diceva cosi pure il mio Enermax con 34A (408w) e poi è scoppiato con una G80 8800GTS:asd:
A parte che non erogherà mai tutti gli Ampere che ci sono scritti......poi solitamente non è bello prendere un alimentatore un sottodimensionato...+ calore,meno efficienza,rischio di rottura estremamente alto.
Questo era per dire....il 500w Liberty è ancora perfetto per tutto...ma a comprarlo ora...prenderei qualcosa di più cazzuto:cool:
Era difettoso.
Mai avuto problemi col mio, overclocco tutto che è un piacere.
Se hai una vga singola, non vedo il motivo di comprare qualcosa di superiore ai 500w.
Parlo sempre di ali di qualità cmq :D
appleroof
03-06-2008, 22:29
sisi diceva cosi pure il mio Enermax con 34A (408w) e poi è scoppiato con una G80 8800GTS:asd:
A parte che non erogherà mai tutti gli Ampere che ci sono scritti......poi solitamente non è bello prendere un alimentatore un sottodimensionato...+ calore,meno efficienza,rischio di rottura estremamente alto.
Questo era per dire....il 500w Liberty è ancora perfetto per tutto...ma a comprarlo ora...prenderei qualcosa di più cazzuto:cool:
bè però mi sà che sei stato sfigatello tu con quell'ali :D
il mio eroga 33A in combinata sui +12v oppure 20 su 2 linee ed è una roccia :D
uscirà la serie GTX400 a 40nm con 500sp 50rops 170tmu e ddr6.
:sborone:
una grazie :D
Mister Tarpone
03-06-2008, 23:57
una grazie :D
:asd:
la prenderemo senza cambiare procio :O che tanto reggerà alla grande :asd:
:asd:
la prenderemo senza cambiare procio :O che tanto reggerà alla grande :asd:
:asd:
è così che mi piaci: fiero dei nostri mezzi :cool: :D
Mister Tarpone
04-06-2008, 00:04
:asd:
è così che mi piaci: fiero dei nostri mezzi :cool: :D
infatti :O il mitico 4400+ non lo cambio fino al 2012 :O idem la A8N -SLI .. l'ideale per sostenere 2 GTX 280 (:sbonk:) :Perfido: :sofico:
infatti :O il mitico 4400+ non lo cambio fino al 2012 :O idem la A8N -SLI .. l'ideale per sostenere 2 GTX 280 (:sbonk:) :Perfido: :sofico:
la A8N -SLI non l'ho cambiata appositamente :O
finiamola qui o ci spezzano le braccine :asd:
Mister Tarpone
04-06-2008, 00:10
finiamola qui o ci spezzano le braccine :asd:
vero. chiudiamola qui. :ops:
cristian-BG
04-06-2008, 00:24
ecco cosa ho trovato su questo sito!
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2536
ma errori nella produzione???????? quindi riskio di skede danneggiate?:|
ecco cosa ho trovato su questo sito!
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2536
ma errori nella produzione???????? quindi riskio di skede danneggiate?:|
il sito si riferisce a una notizia, un po' troppo pompata a mio avviso, in cui TheInq sostiene che in un wafer ci sarebbero solo il 40% di gpu buone, le altre sarebbero da scartare. questo non vuol dire che metteranno in commercio schede danneggiate, ma che dato l'elevato numero di chip difettosi, il guadagno di nvidia potrebbe essere minore del previsto e quindi le schede potrebbero costare di più..
è comunque a mio avviso da prendere un po' con le pinze.. dato che quell'articolo mi sembrava personalmente troppo catastrofista nei confronti di nvidia.. chi vivrà vedrà :D
cristian-BG
04-06-2008, 01:24
speriamo nn siano vere xè spendere 600€ x poi mandarla in rma............
cmq da quello che leggo scalderanno molto...io aspetterei il GT200b a settembre che dovrebbe essere a 55nm...
3 mesi è già vecchia non se po' cosi' pero'... almeno 1 anno cacchio o 6mesi che ne so... O_O
http://www.hardware-infos.com/img/startseite/gigabyte_gtx280.jpg
http://img.hexus.net/v2/internationalevents/computex2008/pm/gigabyte-leak/DSCF0055-big.jpg
Tuesday, 03 June 2008 21:32
Geforce GTX 280 is the official name of Nvidia's next generation product and the faster of two will have a whopping 240 Shaders. The chip is 65nm, very hot, and is the biggest graphic chip ever built, but at the same time it will end up being the fastest thing around
speriamo nn siano vere xè spendere 600€ x poi mandarla in rma............
Non ti preoccupare, le schede messe in commercio saranno funzionanti, come é sempre stato.
Yields piú bassi peró, vogliono dire schede piú care (ed é per questo che una gtx280 costerá $649)
Alberto186
04-06-2008, 02:31
io vi posto questo fonte expreview poi valutate
http://www.expreview.com/img/news/2008/06/02/gtx200-series-performance_1.jpg
http://www.expreview.com/img/news/2008/06/02/gtx200-series-price_1.jpg
io vi posto questo fonte expreview poi valutate
[IMG]http://www.expreview.com/img/news/2008/06/02/gtx200-series-performance_1.jpg[/IMG
[IMG]http://www.expreview.com/img/news/2008/06/02/gtx200-series-price_1.jpg[/IMG
Giá postate ;)
halduemilauno
04-06-2008, 06:45
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7681&Itemid=1
Computex 08: Cool games in late 2008
Geforce GTX 280 and 260 will run some great physics. Nvidia has already implemented this in some soon-to-come games and it showcases some cool demos.
The hot topic is the one about the cool physics in the game that involves American football that is supposed to ship later this year, where you can see thousands of fans with its individual physics and some realistic bone crushing in this American football match.
As Nvidia has The Way it’s meant to be p(l)ayed and as Nvidia’s VP of this knows how to “support” the publishers, Nvidia really has a strong chance to make a big deal out of it. We just hope that there isn’t any Physics-related instruction in Direct 10.1, since that would mean trouble.
;)
fr4nc3sco
04-06-2008, 07:15
sono cose gia sapute o almeno che gia sapevo la 280 saranno in commercio pochissimi esemplari circa 100-200 in tutta italia scalderanno un botto " col dissi stock garantiscono un 10/20mhz in piu dell originale!"
HackaB321
04-06-2008, 08:21
http://www.tomshw.it/news.php?newsid=14237
Enochian
04-06-2008, 08:27
Sembra davvero una bestia... comunque le hanno già e le stanno torchiando con vari test, perchè nel video dice maggiori informazioni quando potremo pubblicare i risultati dei nostri test...
halduemilauno
04-06-2008, 08:31
Sembra davvero una bestia... comunque le hanno già e le stanno torchiando con vari test, perchè nel video dice maggiori informazioni quando potremo pubblicare i risultati dei nostri test...
e quindi il 17 giugno alle 15.
;)
Enochian
04-06-2008, 08:33
Non penso :asd: prima o poi qualche tabella scapperà a gambe levatissime dai loro laboratori e finirà qui.
Speriamo solo che non costi troppo. :(
Spero anche di trovarla, appena posso la prenoto.
paolox86
04-06-2008, 08:40
Non funziona così :>
Un wafer, che è quel coso tondo tempestato di chips :asd: può ospitare un numero limitato di chip. Inoltre ogni wafer si porta dietro dei difetti che fanno si che il chip in cui cadono risulti inutilizzabile. Riassumendo:
- Più è grande il chip e inferiore è l'area utilizzabile ("ritagli" più grandi ai bordi).
- Più è grande il chip e più è alta la probabilità che uno di essi includa un difetto.
- Più è grande il chip e maggiore è la parte di wafer scartata quando il chip stesso risulti difettoso.
Ciò, insieme alle difficoltà che nVidia ha con il processo a 65nm ha portato ai ventilati yelds inferiori al 40% per il GT200.
A titolo di confronto per RV770 si parla di yelds superiori al 70% (considerati molto buoni).
Maggiori sono gli yelds e minore è il costo per millimetro quadrato del chip, e ciò permette di avere margini più alti e di poter quindi effettuare una leva su questi margini per offrire prezzi più concorrenziali.
Questa è la principale causa del prezzo molto alto delle GTX280.
E tutto questo ti spiega che i numerosi chip difettati verranno buttati via e non montati su schede.
Tieni anche conto che quando si parla di yelds non ci si riferisce al numero di chip che lavorano alle massime specifiche, ma ai chip funzionanti che possono essere utilizzati nelle varie proposte di mercato (G92 esiste in un tot di proposte commerciali, contribuiscono al totale del calcolo delle rese produttive sia quelli che non reggono le frequenze più alti e sono usati nelle 8800GS che quelli migliori usati nelle 9800GTX).
Quoto, in effetti possiamo dire che Nvidia rispetto ad Ati è solo in svantaggio sotto l'aspetto del processo produttivo (l'unico aspetto buono finora drivante dalla fusione con AMD, e che permette di vendere schede a prezzi più contenuti)
http://www.tomshw.it/news.php?newsid=14237
Bella demo, anche non ho capito dove sia la fisica di cui parla tom...
halduemilauno
04-06-2008, 08:51
Bella demo, anche non ho capito dove sia la fisica di cui parla tom...
il corpo della ragassa.
;)
il corpo della ragassa.
;)
A me sembra tutto scriptato... doveva inserirci un pò di Realtime Tits Physis, invece sembrano di marmo lol. :D
Ma la fisica sulle GTX200 sarà gestita dalla GPU e non da un chip integrato giusto?
Kharonte85
04-06-2008, 09:50
A me sembra tutto scriptato... doveva inserirci un pò di Realtime Tits Physis, invece sembrano di marmo lol. :D
Ma la fisica sulle GTX200 sarà gestita dalla GPU e non da un chip integrato giusto?
:sbonk:
Da quello che si è capito attraverso CUDA quindi niente robe integrate...
Aspettando i primi bench (http://www.tomshw.it/business.php?guide=20070622) :D
sommojames
04-06-2008, 11:15
Chissa' se sta volta servira' il PCI-X 2.0 per sfruttare appieno la scheda.
Mercuri0
04-06-2008, 13:12
Quoto, in effetti possiamo dire che Nvidia rispetto ad Ati è solo in svantaggio sotto l'aspetto del processo produttivo (l'unico aspetto buono finora drivante dalla fusione con AMD, e che permette di vendere schede a prezzi più contenuti)
Non c'è differenza di tecnologia produttiva: AMD non si fa le GPU in casa ma le fa fare alla stessa fabbrica a cui si rivolge nVidia.
La scelta del processo (a 55nm o a 65nm) l'hanno fatta nVidia ed AMD secondo i loro personali criteri.
nVidia ha costi molto più alti, semplicemente perché il GT200 è stato pensato per una fascia più alta di R770, è grosso il doppio, quindi costa di più (e la percentuale di quelli che escono buoni si riduce, anche se per le GPU non è proprio proporzionale all'area).
R770 è stato progettato per essere venduto a 200€, mentre il GT200 a 400. Con quel che ne consegue in termini di prestazioni.
Alla fine entrambe saranno schede ottime per le loro rispettive categorie, e il tempo ci dirà quale tra le due strategie (puntare al mainstream o all'ultra-high end) si rivelerà la più efficace.
cristian-BG
04-06-2008, 13:15
allora visto il video della scheda una cosa li xè non ha il connettore a 8 pin ma solo 2 da 6???? non è che si tratta della gtx 260?? ci avete fatto caso?
sembra davvero un mostro...
x il fatto del scaldare .. io ho una ultra e tutti mi dicevano no xè scalda no xè scalda troppo... in full raggiungo i 75°... ma ho il case in firma.. e basta studiare un pò la ventilazione e penso che i 100° che toccano certi utenti e con case adeguati non si abbiano problemi.. penso che sta gtx280 scalderà come una ultra... ma andrà 70 80% in più ... sono già daccordo con un negozio mi sono prenotato ancor prima che ci sia il prezzo e quante ne arrivano :P la voglio x il 20 max a casa mia :P che ho qua l'armor+ e q9450 dfi ut x48 ali tagan piperock 800w... il chipset 790i nessuno mi ha detto se è compatibile con il dissipatore zalman9700nt!:doh: :doh:
-noxius-
04-06-2008, 14:23
Aspettando i primi bench (http://www.tomshw.it/business.php?guide=20070622) :D
Mai viste dal vivo ? :mbe:
VIKKO VIKKO
04-06-2008, 14:37
Speriamo solo che non costi troppo. :(
Spero anche di trovarla, appena posso la prenoto.
già, speriamo che sia reperibile :)
OT: come mai all'X38 DQ6 hai il BIOS F7 e non F8? quando accendi il pc il giorno dopo ti mantiene l'OC?
Scusate ancora per l'OT
Crysis90
04-06-2008, 14:39
http://www.tomshw.it/news.php?newsid=14237
Veramente interessante...
appleroof
04-06-2008, 14:44
http://www.tomshw.it/news.php?newsid=14237
:sbav: :sbav:
Marko#88
04-06-2008, 14:47
http://www.tomshw.it/news.php?newsid=14237
Veramente interessante...
Interessante si...anche se non è un gioco in tempo reale ma una cosa precalcolata...però girava da paura in effetti...:eek:
Interessante si...anche se non è un gioco in tempo reale ma una cosa precalcolata...però girava da paura in effetti...:eek:
io dico che quei video demo non servono a una cippa perche ottimizzati al massimo per funzionare su una data scheda video come quello in questione, poi che sia bello è bello......
http://www.tomshw.it/news.php?newsid=14237
Veramente interessante...
Spaventoso:sofico:
già, speriamo che sia reperibile :)
OT: come mai all'X38 DQ6 hai il BIOS F7 e non F8? quando accendi il pc il giorno dopo ti mantiene l'OC?
Scusate ancora per l'OT
Perchè sta scheda madre mi ha fatto impazzire per farla stare stabile in OC, e a volte mi si resetta tutto se non sto attento, perciò finchè va così non la tocco, non voglio rischiare. ;)
Crysis90
04-06-2008, 14:56
io dico che quei video demo non servono a una cippa perche ottimizzati al massimo per funzionare su una data scheda video come quello in questione, poi che sia bello è bello......
Va bè hai ragione anke te...però è buffo che quel topo di Tom's Hardware non si sia accorto he la scheda che aveva tra le mani era il modello GTS 260 e non il GTX 280, come invece dice nel video e nell'articolo...
mircocatta
04-06-2008, 14:57
ragazzi ma qui bisogna sperare che la revision di gt200 sia a 45 nm altro che 55nm, altrimenti sarà ancora più grande d g80, almeno a 45 nm dovrebbe scendere sotto i 450 mm^2
appleroof
04-06-2008, 14:57
Interessante si...anche se non è un gioco in tempo reale ma una cosa precalcolata...però girava da paura in effetti...:eek:
è vero, però è bello vedere di cosa sarebbe capace la scheda, se sfruttata a fondo
in un mondo ideale vorrei una sola vga, della durata di almeno 4 anni: vedresti che giochi spettacolo :D
appleroof
04-06-2008, 14:58
ragazzi ma qui bisogna sperare che la revision di gt200 sia a 45 nm altro che 55nm, altrimenti sarà ancora più grande d g80, almeno a 45 nm dovrebbe scendere sotto i 450 mm^2
me la spieghi please? :D
halduemilauno
04-06-2008, 14:59
:sbav: :sbav:
per la precisione quella è la gtx 260.
;)
appleroof
04-06-2008, 14:59
per la precisione quella è la gtx.
;)
si ma gtx260 o gtx280? :sofico: :sofico:
mircocatta
04-06-2008, 15:00
me la spieghi please? :D
sarà ancora più grande di g80-> sarà comunque ancora più grande di g80
attorno ai 500mm^2
Nikolaj Wojdelko
04-06-2008, 15:01
si ma gtx260 o gtx280? :sofico: :sofico:
10800GTX , che è del 2% più veloce della vecchia 9800GTX ...
VIKKO VIKKO
04-06-2008, 15:04
Perchè sta scheda madre mi ha fatto impazzire per farla stare stabile in OC, e a volte mi si resetta tutto se non sto attento, perciò finchè va così non la tocco, non voglio rischiare. ;)
idem, è deprimente avere una CPU che regge tranquillamente i 3.81 a 1,424v e non poterlo sfruttare per colpa del BIOS della MB...
quasi quasi ora provo l'F7 :)
halduemilauno
04-06-2008, 15:04
si ma gtx260 o gtx280? :sofico: :sofico:
scusa mi è saltato il 260.
;)
ps blocco tastierino inserito.
10800GTX , che è del 2% più veloce della vecchia 9800GTX ...
ma hai sparato un numero a caso? 10800gtx :mbe:
appleroof
04-06-2008, 15:08
scusa mi è saltato il 260.
;)
ps blocco tastierino inserito.
cioè quella era la gtx260? :sbavvv:
idem, è deprimente avere una CPU che regge tranquillamente i 3.81 a 1,424v e non poterlo sfruttare per colpa del BIOS della MB...
quasi quasi ora provo l'F7 :)
Si infatti se provo a salire più di 3.20 Ghz mi impazzisce, peccato perchè come motherboard è favolosa.
Finiamo l'OT dai. ;)
halduemilauno
04-06-2008, 15:11
cioè quella era la gtx260? :sbavvv:
si GTX260.
;)
appleroof
04-06-2008, 15:15
sarà ancora più grande di g80-> sarà comunque ancora più grande di g80
attorno ai 500mm^2
ma quando mai?
si GTX260.
;)
ariecco la scimmia lo sapevo :mad:
mircocatta
04-06-2008, 15:27
ma quando mai?
non ho la certezza matematica ma facendo una proporzione se gt200 è 576mm^2 (o giù di lì) a 65nm , saranno sui 490mm^2 a 55nm, o no?!:stordita: :confused:
ariecco la scimmia lo sapevo :mad:
la tua mi sa che è diventata un gorilla :asd:
appleroof
04-06-2008, 15:55
non ho la certezza matematica ma facendo una proporzione se gt200 è 576mm^2 (o giù di lì) a 65nm , saranno sui 490mm^2 a 55nm, o no?!:stordita: :confused:
a 55nm dovrebbe essere sui 400mm^2
la tua mi sa che è diventata un gorilla :asd:
esatto :D :D
non ho la certezza matematica ma facendo una proporzione se gt200 è 576mm^2 (o giù di lì) a 65nm , saranno sui 490mm^2 a 55nm, o no?!:stordita: :confused:
Sono circa 410mm².
Si parla di area, quindi é direttamente proporzionale al quadrato di 55/65 ;)
Nikolaj Wojdelko
04-06-2008, 16:13
ma hai sparato un numero a caso? 10800gtx :mbe:
Non sai nemmeno cosa sia il sarcasmo, vero ? Se avessero continuato con quella nomenclatura sarebbe stata una degna sostituta della gloriosa 9800gtx , scheda che ci ricorderemo per decenni date le magnifiche features ; detto fra me e te , comunque sembra che la 4870x2 farà le scarpe a questa 280, e costerà sicuramente meno, ma non lo dire in giro sennò qui la gente si strapperà via i capelli :rolleyes:
Foglia Morta
04-06-2008, 16:15
non ho la certezza matematica ma facendo una proporzione se gt200 è 576mm^2 (o giù di lì) a 65nm , saranno sui 490mm^2 a 55nm, o no?!:stordita: :confused:
stando a quanto dice tsmc con il die shrink di un die di 576mm2 da 65nm a 55nm si otterrebbe un die di 466mm2 . Poi bisogna vedere se con il passaggio ai 55nm riescono a risparmiare transistors e così otterrebero un die ancora più piccolo
Non c'è differenza di tecnologia produttiva: AMD non si fa le GPU in casa ma le fa fare alla stessa fabbrica a cui si rivolge nVidia.
La scelta del processo (a 55nm o a 65nm) l'hanno fatta nVidia ed AMD secondo i loro personali criteri.
nVidia ha costi molto più alti, semplicemente perché il GT200 è stato pensato per una fascia più alta di R770, è grosso il doppio, quindi costa di più (e la percentuale di quelli che escono buoni si riduce, anche se per le GPU non è proprio proporzionale all'area).
R770 è stato progettato per essere venduto a 200€, mentre il GT200 a 400. Con quel che ne consegue in termini di prestazioni.
Alla fine entrambe saranno schede ottime per le loro rispettive categorie, e il tempo ci dirà quale tra le due strategie (puntare al mainstream o all'ultra-high end) si rivelerà la più efficace.
Per quello che c'è scritto sembra che Nvidia pur potendo scegliere nell'immediato i 55nm abbia preferito i 65nm...
A questo punto non mi è chiaro il motivo per cui ha scelto i 65nm..?
mircocatta
04-06-2008, 16:32
Sono circa 410mm².
Si parla di area, quindi é direttamente proporzionale al quadrato di 55/65 ;)
giusto :eek:
meno maaaalee!!!
allora c'è da ben sperare nelle frequenze che salirebbero e non poco!
Per quello che c'è scritto sembra che Nvidia pur potendo scegliere nell'immediato i 55nm abbia preferito i 65nm...
A questo punto non mi è chiaro il motivo per cui ha scelto i 65nm..?
Yields.
Semplicemente i 65nm erano giá ben conosciuti e rendono meglio (anche se a quanto pare non rendono benissimo neanche loro).
Per poter passare ai 55nm bisogna testarli per bene, magari con schede meno complesse.
giusto :eek:
meno maaaalee!!!
allora c'è da ben sperare nelle frequenze che salirebbero e non poco!
Attento, le frequenze non dipendono dai nanometri ;)
Ma dal tipo di scrittura che usi per fare i chip.
_morghan_1968
04-06-2008, 16:34
A questo punto non mi è chiaro il motivo per cui ha scelto i 65nm..?[/QUOTE]
... non è psicologicamente / tecnologicamente pronta...:D
appleroof
04-06-2008, 16:36
Per quello che c'è scritto sembra che Nvidia pur potendo scegliere nell'immediato i 55nm abbia preferito i 65nm...
A questo punto non mi è chiaro il motivo per cui ha scelto i 65nm..?
alcuni dicono che è perchè sia più conservativa di Ati
io dico che ci deve essere ben altro, ma posso solo azzardare ipotesi: i test li fanno entrambe e se ci sono problemi il chip non esce nei tempi dovuti, allora esce quello affidabile (così r600 uscì a 80nm invece che a 65 e gt200 a 65 piuttosto che 55), nelfrattempo si ricolvono le magagne di quello con pp più piccolo ed ecco pronto il refresh dopo qualche mese
di sicuro non credo alla storiella della filosofia aziendale, non in questo specifico aspetto almeno
mircocatta
04-06-2008, 16:37
Poi bisogna vedere se con il passaggio ai 55nm riescono a risparmiare transistors
vuol dire anche diminuire le potenzialità del chip? o sbaglio?
perchè altrimenti non mi va bene e mi cucco il 65nm.... ho già preso la revision del g80 (ho preso la 8800gt) e vado meno appunto perchè hanno ben visto di tagliare sp e altro sulle 8800gt
mircocatta
04-06-2008, 16:40
Attento, le frequenze non dipendono dai nanometri ;)
Ma dal tipo di scrittura che usi per fare i chip.
bè però mi sembra chiaro che attualmente gt200 è un forno per cui overcloccarlo sarà difficile, con minori dimensioni si avranno minori temperature e forse qualche mhz in più gli si riesce a dare no?
Foglia Morta
04-06-2008, 16:40
vuol dire anche diminuire le potenzialità del chip? o sbaglio?
perchè altrimenti non mi va bene e mi cucco il 65nm.... ho già preso la revision del g80 (ho preso la 8800gt) e vado meno appunto perchè hanno ben visto di tagliare sp e altro sulle 8800gt
sbagli. lo shrink ottico può portare il die da 576 a 466mm2 dopodichè forse al risparmio di transistors e quindi ulteriore riduzione della superficie del die. Ma la gpu resta la stessa , solo superficie del die e i consumi calano
io dico che ci deve essere ben altro, ma posso solo azzardare ipotesi: i test li fanno entrambe e se ci sono problemi il chip non esce nei tempi dovuti, allora esce quello affidabile (così r600 uscì a 80nm invece che a 65 e gt200 a 65 piuttosto che 55)
di sicuro non credo alla storiella della filosofia aziendale, non in questo specifico aspetto almeno
mi trovo d'accordo..
Enochian
04-06-2008, 16:41
Nla 4870x2 farà le scarpe a questa 280, e costerà sicuramente meno, ma non lo dire in giro sennò qui la gente si strapperà via i capelli :rolleyes:
Vabbè, poi uscirà la 280x2 e andrà il doppio della 4870x2...
mircocatta
04-06-2008, 16:43
sbagli. lo shrink ottico può portare il die da 576 a 466mm2 dopodichè forse al risparmio di transistors e quindi ulteriore riduzione della superficie del die. Ma la gpu resta la stessa , solo superficie del die e i consumi calano
è che non so cosa siano i transitor e la loro utilità ;) grazie
HackaB321
04-06-2008, 16:46
A questo punto non mi è chiaro il motivo per cui ha scelto i 65nm..?
Perchè aspettano le DDR5 non riuscendo ad adattare un bus a 512bit con chip a 55nm? :Perfido: :ops2:
halduemilauno
04-06-2008, 16:48
Perchè aspettano le DDR5 non riuscendo ad adattare un bus a 512bit con chip a 55nm? :Perfido: :ops2:
esatto. si comincerà dalle piccole con il bus a 256. lo avevo gia detto.
aggiungo e ripeto il passare al pp 55nm era previsto in quest'ottica ma anche adottando le gddr5 non avrebbero le attuali garantito la bp giudicata minima per le gtx in particolare per la 280. la gddr5 opportuna sarebbe stata dalla 4400/4500.
mircocatta
04-06-2008, 16:50
domanda: il controller della memoria non è integrato nella gpu giusto?
Mister Tarpone
04-06-2008, 17:09
novità??
halduemilauno
04-06-2008, 17:16
novità??
nessuna sempre 17 giugno ore 15.
;)
cmq il video "Computex - Video esclusivo - nVidia GeForce GTX 280" di Tom's Hardware Italiano si è sbagliato cioè non mostra la GTX 280 ma la GTX 260 basta notare i due connettori da 6pin...
halduemilauno
04-06-2008, 17:23
cmq il video "Computex - Video esclusivo - nVidia GeForce GTX 280" di Tom's Hardware Italiano si è sbagliato cioè non mostra la GTX 280 ma la GTX 260 basta notare i due connettori da 6pin...
:old:
-noxius-
04-06-2008, 17:26
Vabbè, poi uscirà la 280x2 e andrà il doppio della 4870x2...
Si, vabbè ... alla modica cifra di ..
1200 euro SLI 460W solo per il sottosistema video (non possono farla per via dei consumi e del processo produttivo, ma le hai lette le news ?)
600 euro 280GTX
450 euro X2
Se osi paragonare una scheda da 500 euro con una da 1000 e passa complimenti per la bella riflessione :rolleyes:
Mister Tarpone
04-06-2008, 17:32
magari la X2 salterà fuori con i refresh di queste schede...
-noxius-
04-06-2008, 17:36
Non saprei, sarebbe dovuta uscire già a luglio il che significa che il limite massimo sarà settembre
appleroof
04-06-2008, 17:39
Non saprei, sarebbe dovuta uscire già a luglio il che significa che il limite massimo sarà settembre
azz hai editato: nel precedente post parlavi di febbraio prox....:what:
-noxius-
04-06-2008, 17:42
azz hai editato: nel precedente post parlavi di febbraio prox....:what:
Si, stavo pensando ad un possibile refresh a 55 nm di una ipotetica 250 GX2(@55nm per contenere i consumi e superare di un 20% la 280GTX) ma dato che non si sa nemmeno se e quando usciranno fuori i G92b e le GT200b francamente non me la sento di parlare di cose tanto ipotetiche, meglio parlare di cose già confermate e poi si vedrà ;)
appleroof
04-06-2008, 17:44
Si, stavo pensando ad un possibile refresh a 55 nm di una ipotetica 250 GX2 ma dato che non si sa nemmeno se e quando usciranno fuori i G92b e le GT200b francamente non me la sento di parlare di cose tanto ipotetiche, meglio parlare di cose già confermate e poi si vedrà ;)
giusto sono d'accordo: adesso pare che avremo una (Ati) più forte nella fascia media e l'altra più forte nella fascia alta ed entusiasth
l'uscita di r700 e gt200 castrato, dovrebbe riequilibrare la situazione, nei prox mesi spero da tutti i punti di vista
Enochian
04-06-2008, 18:02
Assolutamente daccordo con la tua analisi, e il fatto che Ati sarà migliore nella fascia media per me potrebbe anche significare che abbassatosi il prezzo di 4870 si diffonderà meglio il crossfire, tenuto conto che NVIDIA non ha nessun interesse a ribassare la gtx280 visto che alla sua uscita avrà una gx2 molto competitiva a livello di prezzi.
Mercuri0
04-06-2008, 18:03
Per quello che c'è scritto sembra che Nvidia pur potendo scegliere nell'immediato i 55nm abbia preferito i 65nm...
A questo punto non mi è chiaro il motivo per cui ha scelto i 65nm..?
Il fatto è che ci vogliono mesi per fare un chip, e altrettanti per testarlo.
E che per fare un chip a 55nm piuttosto che a 65, devi rifare tutti il disegnino del tuo miliardo di transistor.
(ovviamente, si usano particolari CAD)
Poi non è che i 55nm sono miracolosi. E sopratutto con una tecnologia produttiva i progettisti devono anche avere "confidenza".
alcuni dicono che è perchè sia più conservativa di Ati
io dico che ci deve essere ben altro, ma posso solo azzardare ipotesi: i test li fanno entrambe e se ci sono problemi il chip non esce nei tempi dovuti, allora esce quello affidabile (così r600 uscì a 80nm invece che a 65 e gt200 a 65 piuttosto che 55), nelfrattempo si ricolvono le magagne di quello con pp più piccolo ed ecco pronto il refresh dopo qualche mese
di sicuro non credo alla storiella della filosofia aziendale, non in questo specifico aspetto almeno
E' troppo costoso fare un progetto per un chip da poter permettersi di farne due a due nodi tecnologici, poi sceglierne uno che funziona, e poi fare il die shrink.
Io sarei invece per l'approccio conservativo: il fatto è che bisognerebbe conoscere in che periodo è stato progettato il GT200.
Scegliere di usare 55nm piuttosto che GDDR5 etc etc, è proprio un terno a lotto perché quando progetti il chip, queste tecnologie rischiano di non esistere! Ma ci pensate che AMD ha mandato il progetto di R770 in fonderia a gennaio, e solo ora sa quando sono disponibili e le vere prestazioni delle GDDR5?
nVidia è in una posizione forte e può permettersi di fare il gioco al minimo rischio, ATI evidentemente no.
appleroof
04-06-2008, 18:07
cut
E' troppo costoso fare un progetto per un chip da poter permettersi di farne due a due nodi tecnologici, poi sceglierne uno che funziona, e poi fare il die shrink.
Io sarei invece per l'approccio conservativo: il fatto è che bisognerebbe conoscere in che periodo è stato progettato il GT200.
Scegliere di usare 55nm piuttosto che GDDR5 etc etc, è proprio un terno a lotto perché quando progetti il chip, queste tecnologie rischiano di non esistere! Ma ci pensate che AMD ha mandato il progetto di R770 in fonderia a gennaio, e solo ora sa quando sono disponibili e le vere prestazioni delle GDDR5?
nVidia è in una posizione forte e può permettersi di fare il gioco al minimo rischio, ATI evidentemente no.
eppure è esattamente quello che è successo con r600, per fare un esempio, almeno a sentire i siti più informati (è la causa del forte ritardo con cui è uscito)
con tutti i milioni che hanno a disposizione di R&D non credo proprio invece sia così improbabile (parliamo poi di pochi prototipi, non è che devono fare 10000 pezzi per ciascun chip)
inoltre parliamo di die-shrink, non contemporanea progettazione di chip completamente diversi l'uno dall'altro
eppure è esattamente quello che è successo con r600, per fare un esempio, almeno a sentire i siti più informati (è la causa del forte ritardo con cui è uscito)
con tutti i milioni che hanno a disposizione di R&D non credo proprio invece sia così improbabile (parliamo poi di pochi prototipi, non è che devono fare 10000 pezzi per ciascun chip)
inoltre parliamo di die-shrink, non contemporanea progettazione di chip completamente diversi l'uno dall'altro
Un die-shrink richiede comunque un lavoro difficile sulle circuiterie e sulla logica. Io vedo poco probabile un GT200b a 55nm, anche se si parla di optical die-shrink, quindi è più facile da fare. Secondo me sono già al lavoro sui 45nm, una tappa obbligatoria per un chip simile, per il 2Q 09.
Crysis90
04-06-2008, 18:17
Io spero solo che la concorrenza di R700 abbassi il prezzo delle GTX 280...però c'è una cosa che mi turba...come farà la 4870X2 a star dietro alla GTX280 a partire da 1900x1200 in su? Cioè, ogni core di R700 ha a disposizione "soli" 512 Mb, che per queste risoluzioni sono pochini, mentre la 280 ne avrà ben 1 Gb! Se non sbaglio il fatto di avere soli 512 Mb per core è anke uno dei punti deboli della 3870X2...o sbaglio???
appleroof
04-06-2008, 18:41
Io spero solo che la concorrenza di R700 abbassi il prezzo delle GTX 280...però c'è una cosa che mi turba...come farà la 4870X2 a star dietro alla GTX280 a partire da 1900x1200 in su? Cioè, ogni core di R700 ha a disposizione "soli" 512 Mb, che per queste risoluzioni sono pochini, mentre la 280 ne avrà ben 1 Gb! Se non sbaglio il fatto di avere soli 512 Mb per core è anke uno dei punti deboli della 3870X2...o sbaglio???
non sbagli (lo è pure per la gx2) infatti pare che 4870x2 avrà un sistema di accesso alla memoria tale da rimediare a questo, ma mancano conferme e ancor più particolari su questo...
Mister Tarpone
04-06-2008, 18:42
oh!! anche qui sono scettico... e penso che sarà uguale alla 3870x2..
poi vedremo... ;)
oh!! anche qui sono scettico... e penso che sarà uguale alla 3870x2..
poi vedremo... ;)
ovvero un aborto che al 3d merd fa molto ma nei giochi poco piu di una 4870?
appleroof
04-06-2008, 18:43
oh!! anche qui sono scettico... e penso che sarà uguale alla 3870x2..
poi vedremo... ;)
si in effetti è tutto da verificare....
Mercuri0
04-06-2008, 18:55
eppure è esattamente quello che è successo con r600, per fare un esempio, almeno a sentire i siti più informati (è la causa del forte ritardo con cui è uscito)
R600 deve essere stato un bel fiasco.
con tutti i milioni che hanno a disposizione di R&D non credo proprio invece sia così improbabile (parliamo poi di pochi prototipi, non è che devono fare 10000 pezzi per ciascun chip)
ti sfugge il fatto che produrre un solo chip è costoso come produrne qualche migliaio. ;)
Sono i costi fissi ad essere elevatissimi, tra cui fanno parte i costi delle "maschere", cioè il "vetro" dove il chip viene disegnato e che poi verrà "fotografato" sul silicio.
Le maschere si riutilizzano poi per fotografare tutti i wafer, ma costano un botto di soldi (megadollari). E il bello è che se c'è un errore... sono da buttare.
Per questo nVidia (e tutte le altre) prima di mandare il progetto delle maschere a TMSC lo simulano e lo strasimulano in tutte le salse. Immagino che i prototipi servano sopratutto per collaudare la produzione.
Poi anche la storia del die-shrink "solo ottico" penso che sia dai 230 nanometri che non funziona tanto semplicemente come dovrebbe.
Crysis90
04-06-2008, 18:56
non sbagli (lo è pure per la gx2) infatti pare che 4870x2 avrà un sistema di accesso alla memoria tale da rimediare a questo, ma mancano conferme e ancor più particolari su questo...
Quindi un altro punto in + a favore di NVidia...:D :D :D :D
Mercuri0
04-06-2008, 19:01
Io spero solo che la concorrenza di R700 abbassi il prezzo delle GTX 280...però c'è una cosa che mi turba...come farà la 4870X2 a star dietro alla GTX280 a partire da 1900x1200 in su? Cioè, ogni core di R700 ha a disposizione "soli" 512 Mb, che per queste risoluzioni sono pochini, mentre la 280 ne avrà ben 1 Gb! Se non sbaglio il fatto di avere soli 512 Mb per core è anke uno dei punti deboli della 3870X2...o sbaglio???
Buh, su tech report avevano fatto un test in cui si vedeva che la differenza tra 1GiB e 512 su una 8800GT era meno di niente
http://techreport.com/articles.x/14230
Imho gli sviluppatori di giochi hanno come target vari "scalini" di memoria e ottimizzano per quelli. Ancora per 1 GIB penso che giochi non ce ne siano. E' però possibilissimo che alte risoluzioni e con alto AA la dimensione del framebuffer cominci a dar noia.
Test seri io però non ne ho visti, chi ne ha linki :)
appleroof
04-06-2008, 19:04
R600 deve essere stato un bel fiasco.
ti sfugge il fatto che produrre un solo chip è costoso come produrne qualche migliaio. ;)
Sono i costi fissi ad essere elevatissimi, tra cui fanno parte i costi delle "maschere", cioè il "vetro" dove il chip viene disegnato e che poi verrà "fotografato" sul silicio.
Le maschere si riutilizzano poi per fotografare tutti i wafer, ma costano un botto di soldi (megadollari). E il bello è che se c'è un errore... sono da buttare.
Per questo nVidia (e tutte le altre) prima di mandare il progetto delle maschere a TMSC lo simulano e lo strasimulano in tutte le salse. Immagino che i prototipi servano sopratutto per collaudare la produzione.
Poi anche la storia del die-shrink "solo ottico" penso che sia dai 230 nanometri che non funziona tanto semplicemente come dovrebbe.
ma se è come dici, come spieghi che volevano fare r600 a 65nm ma non ce l'hanno fatta e allora hanno fatto debuttare quello a 80nm a distanza di pochissimi mesi da quando avrebbe dovuto debuttare quello a 65nm? Poi dopo altri pochi mesi ti esce lo shrink ulteriore a 55nm: come fanno in così poco tempo se non li testano contemporaneamente o quasi?
E perchè Nvidia dovrebbe (visto che i 55nm sono in giro da tempo) scegliere i 65nm quando, con le caratteristiche di gt200, dà vita ad un chippone difficile da produrre e commercializzare (stando all'opinione dei più)? [questa in realtà me la spiego con la necessità di avere il bus 512bit per ovviare alla temporanea mancanza di ddr5 e relativa banda]
come al solito, non lavoro nè presso l'una nè presso l'altra, ma parto da questi dati oggettivi per trarre conclusioni, tu invece mi dici che è impossibile sperimentare 2 pp (con semplice die-shrink ottico) contemporaneamente o quasi, cosa che non spiega quello che dicevo (sopratutto r600, per i motivi detti)
non lo so :boh:
Quindi un altro punto in + a favore di NVidia...:D :D :D :D
vediamo :)
halduemilauno
04-06-2008, 19:06
Buh, su tech report avevano fatto un test in cui si vedeva che la differenza tra 1GiB e 512 su una 8800GT era meno di niente
http://techreport.com/articles.x/14230
Imho gli sviluppatori di giochi hanno come target vari "scalini" di memoria e ottimizzano per quelli. Ancora per 1 GIB penso che giochi non ce ne siano. E' però possibilissimo che alte risoluzioni e con alto AA la dimensione del framebuffer cominci a dar noia.
Test seri io però non ne ho visti, chi ne ha linki :)
per via del bus castrante a 256 bit. con il bus a 512 è ben diverso. ovviamente devi anche avere la gpu adatta e la gt200 è + che adatta.
appleroof
04-06-2008, 19:07
Buh, su tech report avevano fatto un test in cui si vedeva che la differenza tra 1GiB e 512 su una 8800GT era meno di niente
http://techreport.com/articles.x/14230
Imho gli sviluppatori di giochi hanno come target vari "scalini" di memoria e ottimizzano per quelli. Ancora per 1 GIB penso che giochi non ce ne siano. E' però possibilissimo che alte risoluzioni e con alto AA la dimensione del framebuffer cominci a dar noia.
Test seri io però non ne ho visti, chi ne ha linki :)
poco tempo fà la questione era dibattuta da leoneazzurro, io di test non ne posso linkare, per quel che vale ti dico che crysis a 1920x1200 dopo 5 minuti mi occupa quasi 1 giga di memoria, e senza AA
inoltre, per la 8800gt probabilmente la mancanza di differenza era dovuta ad altri colli di bottiglia, prima che il quantitativo di v-ram
Mi sembra improbabile un GTX280 a 55nm prima di dicembre a tirare al massimo. Mi sembra assai più probabile per febbraio, con tutto il tempo di testare la produzione su G92, che ancora a 55nm non esiste...
ha fatto il tape-out qualche settimana fà
Mi sembra improbabile un GTX280 a 55nm prima di dicembre a tirare al massimo. Mi sembra assai più probabile per febbraio, con tutto il tempo di testare la produzione su G92, che ancora a 55nm non esiste...
Giá. Come ho detto nella pagina prima, rimpicciolire un chip complesso come gtx280 non é facile. Se no avrebbero fatto il tutto giá a 55nm.
Gli yield a 55nm probabilmente sarebbero stati ancora piú bassi di quello che sono adesso, quindi é molto meglio testare il processo con qualcosa di piú semplice e meno costoso (g92b appunto)
Mister Tarpone
04-06-2008, 19:12
ma infatti nvidia ha sempre fatto così... il processo produttivo migliorato lo ha sempre sperimentato prima con la fascia + bassa....
e dopoooooo..... :oink: ------------ :oink: :oink:---------------------------------:oink:
per via del bus castrante a 256 bit. con il bus a 512 è ben diverso. ovviamente devi anche avere la gpu adatta e la gt200 è + che adatta.
Su questo, hai perfettamente ragione ;)
appleroof
04-06-2008, 19:15
Quindi non esce prima di tre/quattro mesi sul mercato, mi sembra strettino per poterci ruotare anche la produzione di GT200.
cut
da quello che so (molto poco in realtà) il tape-out a 55nm lo ha fatto gt200
Mister Tarpone
04-06-2008, 19:17
Su questo, hai perfettamente ragione ;)
su questo, hai ragione pure te che dai ragione ad Hal ;)
... :asd:
Mammia che Mostro di LOCKNESS!!!!!:sbavvv:
Mi sà che la mia prossima VGA sarà VERDE, e mi tolgo la ROSSA che ho adesso :D
Comunque, io credo che ora lanciano GTX 280 e 260 , in volumi limitati.
Poi ne l frattempo, testano i 55nm sulla fascia medio -bassa, facendo uscire un GT 240 per luglio.....e x ottobre , novembre, 3 mesi dopo circa, lanciano GT200b, ovvero GTX 290.
MI chiedo però, co una GTX 290 a 55 nm, sicuramende introdurrano le gddr5 , che x ottobre costeranno meno o quanto le gddr 3, quindi la VGA , consumerà già meno.
Però supponiamo che GTX 290 (ipotizzo) aia a 55 nm , mantenendo però BUS a 512 bit+ GDDR5!!!!! Avremmo una bandwith spaventosa , astronomica, sarebbe un super mostro alieno!!!!!:D
Però supponiamo che GTX 290 (ipotizzo) aia a 55 nm , mantenendo però BUS a 512 bit+ GDDR5!!!!! Avremmo una bandwith spaventosa , astronomica, sarebbe un super mostro alieno!!!!!:D
e saresti di sicuro cpu limited:asd:
Mammia che Mostro di LOCKNESS!!!!!:sbavvv:
Mi sà che la mia prossima VGA sarà VERDE, e mi tolgo la ROSSA che ho adesso :D
Comunque, io credo che ora lanciano GTX 280 e 260 , in volumi limitati.
Poi ne l frattempo, testano i 55nm sulla fascia medio -bassa, facendo uscire un GT 240 per luglio.....e x ottobre , novembre, 3 mesi dopo circa, lanciano GT200b, ovvero GTX 290.
MI chiedo però, co una GTX 290 a 55 nm, sicuramende introdurrano le gddr5 , che x ottobre costeranno meno o quanto le gddr 3, quindi la VGA , consumerà già meno.
Però supponiamo che GTX 290 (ipotizzo) aia a 55 nm , mantenendo però BUS a 512 bit+ GDDR5!!!!! Avremmo una bandwith spaventosa , astronomica, sarebbe un super mostro alieno!!!!!:D
Secondo me é piú facile che riducano il bus a 256bit e mettano le gddr5. (che nel frattempo saliranno di frequenza)
Mantenere 512bit + gddr5 sarebbe uno spreco di calore, transistors e soldi per questa nuova generazione :)
e saresti di sicuro cpu limited:asd:
Bè ma giocherei a 1900x1200 con tutto sparato, mica ad 800x600
halduemilauno
04-06-2008, 19:31
Mammia che Mostro di LOCKNESS!!!!!:sbavvv:
Mi sà che la mia prossima VGA sarà VERDE, e mi tolgo la ROSSA che ho adesso :D
Comunque, io credo che ora lanciano GTX 280 e 260 , in volumi limitati.
Poi ne l frattempo, testano i 55nm sulla fascia medio -bassa, facendo uscire un GT 240 per luglio.....e x ottobre , novembre, 3 mesi dopo circa, lanciano GT200b, ovvero GTX 290.
MI chiedo però, co una GTX 290 a 55 nm, sicuramende introdurrano le gddr5 , che x ottobre costeranno meno o quanto le gddr 3, quindi la VGA , consumerà già meno.
Però supponiamo che GTX 290 (ipotizzo) aia a 55 nm , mantenendo però BUS a 512 bit+ GDDR5!!!!! Avremmo una bandwith spaventosa , astronomica, sarebbe un super mostro alieno!!!!!:D
no bus da 512 + gddr5 no. però si deve adottare una combinazione che offrà una bp superiore all'attuale. quindi o ram gddr3 a 2350 oppure la gddr5 da minimo 4700. ma sarebbe un boost minimo. un boost adeguato sarebbe la gddr5 da 5 giga. non esistendo ancora(e sarebbe costosissima)e non potendo/volendo castrare la bp ecco la gddr3 e il bus da 512 bit.
non si sfugge.
;)
Mister Tarpone
04-06-2008, 19:32
Secondo me é piú facile che riducano il bus a 256bit e mettano le gddr5. (che nel frattempo saliranno di frequenza)
Mantenere 512bit + gddr5 sarebbe uno spreco di calore, transistors e soldi per questa nuova generazione :)
e se ne facessero alcune con un 320-384bit + ddr5??? :confused: ;) :confused: ;)
appleroof
04-06-2008, 19:32
Mammia che Mostro di LOCKNESS!!!!!:sbavvv:
Mi sà che la mia prossima VGA sarà VERDE, e mi tolgo la ROSSA che ho adesso :D
Comunque, io credo che ora lanciano GTX 280 e 260 , in volumi limitati.
Poi ne l frattempo, testano i 55nm sulla fascia medio -bassa, facendo uscire un GT 240 per luglio.....e x ottobre , novembre, 3 mesi dopo circa, lanciano GT200b, ovvero GTX 290.
MI chiedo però, co una GTX 290 a 55 nm, sicuramende introdurrano le gddr5 , che x ottobre costeranno meno o quanto le gddr 3, quindi la VGA , consumerà già meno.
Però supponiamo che GTX 290 (ipotizzo) aia a 55 nm , mantenendo però BUS a 512 bit+ GDDR5!!!!! Avremmo una bandwith spaventosa , astronomica, sarebbe un super mostro alieno!!!!!:D
pare che il bus 512bit non possa farsi con gpu a 55nm
halduemilauno
04-06-2008, 19:33
e se ne facessero alcune con un 320-384bit + ddr5??? :confused: ;) :confused: ;)
e bravo tarpo. non il 320 ma il 384...
;)
appleroof
04-06-2008, 19:34
e bravo tarpo. non il 320 ma il 384...
;)
azz
e quindi 768mb?
Mister Tarpone
04-06-2008, 19:35
e bravo tarpo. non il 320 ma il 384...
;)
quando Hal mi dice bravo = :sborone:
halduemilauno
04-06-2008, 19:51
azz
e quindi 768mb?
e 1536.
;)
halduemilauno
04-06-2008, 19:51
quando Hal mi dice bravo = :sborone:
;)
Marko#88
04-06-2008, 19:53
è vero, però è bello vedere di cosa sarebbe capace la scheda, se sfruttata a fondo
in un mondo ideale vorrei una sola vga, della durata di almeno 4 anni: vedresti che giochi spettacolo :D
hai detto bene, in un mondo ideale...:asd:
ariecco la scimmia lo sapevo :mad:
:sofico:
o 448bit+gddr5???? come i 448 bit della 260 gtx:confused:
Mister Tarpone
04-06-2008, 20:01
o 448bit+gddr5???? come i 448 bit della 260 gtx:confused:
o 64bit + ddr8 ;)
o 64bit + ddr8 ;)
fai ddr 11 e siamo a posto per 20 anni :D
halduemilauno
04-06-2008, 20:02
o 448bit+gddr5???? come i 448 bit della 260 gtx:confused:
384 bit e gddr5 a 4 giga sono 192 giga di bp. ottimo boost rispetto ai 134 attuali. +1536 mega di ram...
;)
appleroof
04-06-2008, 20:14
384 bit e gddr5 a 4 giga sono 192 giga di bp. ottimo boost rispetto ai 134 attuali. +1536 mega di ram...
;)
azz questa era la ram :eek:
ma parliamo del refresh di gtx280 giusto?
però scusa hal, i conti con il crossbar non mi tornano...
halduemilauno
04-06-2008, 20:19
azz questa era la ram :eek:
ma parliamo del refresh di gtx280 giusto?
però scusa hal, i conti con il crossbar non mi tornano...
si sto parlando di una evoluzione dell'attuale.
;)
azz questa era la ram :eek:
ma parliamo del refresh di gtx280 giusto?
però scusa hal, i conti con il crossbar non mi tornano...
Comunque sto fantasticando, siamo nel campo delle ipotesi....
ma sarebbe possibile usare 1536 mb di ram in pratica???
Foglia Morta
04-06-2008, 20:27
Comunque sto fantasticando, siamo nel campo delle ipotesi....
ma sarebbe possibile usare 1536 mb di ram in pratica???
Si... 12 moduli da 1Gbit
appleroof
04-06-2008, 20:29
si sto parlando di una evoluzione dell'attuale.
;)
Si... 12 moduli da 1Gbit
oste! :eek:
mircocatta
04-06-2008, 20:31
ridomando: il controller della memoria è integrato nella gpu?
perchè se si sarebbe l'ideale ridurlo assieme anche al processo produttivo, così le dimensioni si riducono un bel pò.
accoppiare gddr5 (a 4,5ghz) con bus a 320bit e 1280 mb di ram sarebbe una figata assurda, consumo molto ridotto e molto meno costoso
il tutto significherebbe prestazioni migliori a parità di frequenze, la bp aumenterebbe, in più si avrebbero quasi certamente frequenze maggiori, cioè prestazioni dell'ordine di quasi due cifre percentuali in più rispetto alla versione 65 nm..
o sto fantasticando troppo? :stordita:
in effetti attualmente la soluzione scelta è la migliore attualmente per l'affidabilità, ma costa troppo e a breve ci saranno combinazioni migliori a minor costo.. (combinazioni come la mia o altre)
halduemilauno
04-06-2008, 20:33
oste! :eek:
ovviamente 12 chip da 128 mega.
;)
Primo mio messaggio in questo forum, dunque ciao a tutti e grazie di questa bellissima discussione
spero di non essere ot, e' piu' una domanda di sistema che relativa alla gpu, ma penso che sia il posto migliore per avere risposte esatte
Mi devo fare il pc nuovo e volevo prendermi una gtx280, all'inizio volevo un nehalem bloomfield, ma siccome non si capisce se esce a luglio come avevo sentito in giro... non posso aspettare.
La mia domanda e': cpu limited? come faccio a sapere quale cpu prendere con sta bestia di gtx280 e sfruttarla appieno?
volevo prendere assolutamente un quad core, optavo per un q9450, ora io non me ne intendo di overclock ma sentivo qua del q6600 oltre i 3,50ghz occato, quanto influisce la ram di sistema se scelgo scheda madre ddr2800 a bassi timing o dd3 1333, tutto questo sempre riferito a non limitare la gtx280. possibilmente preferirei non occare che ho paura dei rischi ma se proprio devo... :sofico: . Thanks
michelgaetano
04-06-2008, 21:07
Nehalem = 2009 inoltrato ^^"
Comunque posta nell'area processori, qui non va bene :)
-noxius-
04-06-2008, 21:14
Primo mio messaggio in questo forum, dunque ciao a tutti e grazie di questa bellissima discussione
spero di non essere ot, e' piu' una domanda di sistema che relativa alla gpu, ma penso che sia il posto migliore per avere risposte esatte
Mi devo fare il pc nuovo e volevo prendermi una gtx280, all'inizio volevo un nehalem bloomfield, ma siccome non si capisce se esce a luglio come avevo sentito in giro... non posso aspettare.
La mia domanda e': cpu limited? come faccio a sapere quale cpu prendere con sta bestia di gtx280 e sfruttarla appieno?
volevo prendere assolutamente un quad core, optavo per un q9450, ora io non me ne intendo di overclock ma sentivo qua del q6600 oltre i 3,50ghz occato, quanto influisce la ram di sistema se scelgo scheda madre ddr2800 a bassi timing o dd3 1333, tutto questo sempre riferito a non limitare la gtx280. possibilmente preferirei non occare che ho paura dei rischi ma se proprio devo... :sofico: . Thanks
Prenditi un :
-Q6600 con VID inferiore od uguale a 1.23 (maggiore OC ; il mio può lavorare , STABILE, a 3720 MHz con moltiplicatore ad 8 e 3800/3900MHz con molti a 9 ad aria e con Vcore pari ad 1.36V nel primo caso ''x8'')
-Ottimo dissipatore aftermarket per il quad core, tipo zerotherm nirvana od OROCHI
-ottima scheda madre tipo P5E3 deluxe oppure un'altra che supporti le ddr2 1200MHz (altrimenti prenditi un 2x1 gb ddr3 1600MHz cas7)
-la cosa importante è che tu prenda ottime ddr2 da almeno 1066mhz affinchè tu possa overcloccarle parecchio (le ddr3 servono anche a questo , le 1333 corsair xms3 che ho lavoravano a 1440MHz cas8/9)
-pasta termica performante tipo zalman ZMSTG1
-ventola da montare sul dissi tipo silverstone fm121
;)
384 bit e gddr5 a 4 giga sono 192 giga di bp. ottimo boost rispetto ai 134 attuali. +1536 mega di ram...
;)
magari x novembre escono Gddr5 a 5 ghz + bus 384 bit, aumenta ancora la banda.
Ma poi, non capisco, xchè a 55NM non si può fare un bus da 512 bit??:confused:
Mister Tarpone
05-06-2008, 04:53
http://img382.imageshack.us/img382/7738/gtx280az3.jpg (http://imageshack.us)
è old?? :confused:
Mister Tarpone
05-06-2008, 05:03
GT200 supports GDDR5
We've learned that GT200, the one we call Geforce GTX 200, does support GDDR5 memory, but you won't see a card based on it anytime soon.
It is quite reasonably because 1GB GDDR5 would cost a lot of money, and Nvidia simply doesn’t even have to try before ATI manages to get its R700 card out.
The second part of the story is that despite doubled bandwidth, that could jump to a whopping 300GB/s or even much more, and you wouldn't see much difference in performance. The question of whether it can be done is finally answered, but will it be done and if so, when, remain to be seen.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1
Foglia Morta
05-06-2008, 08:35
http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1
D12U will be first Nvidia GPU with GDDR5 support
Nvidia hasn’t even launched its D10U product yet and we’re already starting to hear whispers about the company’s next-next-next generation graphics products.
Several memory manufacturers have confirmed that the first Nvidia GPU to feature support for GDDR5 memory will be the D12U part, which is said to be currently scheduled for a late 2009 launch.
Obviously, D12U probably hasn’t even left the drawing board yet, but it’s clear that Nvidia is already in discussions with memory manufacturers about the supply of high-speed GDDR5 memory. We already know that ATI’s next-generation graphics cards support GDDR5, and we’re likely to see the new memory technology used on the RV770XT-based products.
GDDR5 is currently made on a 70nm node, but by the time Nvidia gets around to using it, it’ll be manufactured on a 55nm process – that’s expected to happen at some point during 2009. What’s more, by the end of Q1 2009, memory manufacturers expect to have doubled the density of the technology, meaning higher capacity memory kits will be available for newer graphics cards.
Finally, many memory manufacturers suggest that GDDR5 will be limited to high-end products for the next twelve to eighteen months, by which time the price should have dropped significantly enough for it to be cost-effective at more volume-orientated price points.
Athlon 64 3000+
05-06-2008, 08:35
GT200 supports GDDR5
We've learned that GT200, the one we call Geforce GTX 200, does support GDDR5 memory, but you won't see a card based on it anytime soon.
It is quite reasonably because 1GB GDDR5 would cost a lot of money, and Nvidia simply doesn’t even have to try before ATI manages to get its R700 card out.
The second part of the story is that despite doubled bandwidth, that could jump to a whopping 300GB/s or even much more, and you wouldn't see much difference in performance. The question of whether it can be done is finally answered, but will it be done and if so, when, remain to be seen.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1
Se è vero allara magari con il GT200b potranno magari fare una bus a 256 bit e usare delle gddr5 a frequenza abbastanza elevate per avere la stessa banda passande del chip di prossima presentazione GTX 280.
Foglia Morta
05-06-2008, 08:37
Quindi un eventuale GT200b a 55nm continuerà a usare le GDDR3 e bus 512bit se fosse tutto confermato. E le GDDR5 con la nuova architettura DX11 a fine 2009
GT200 supports GDDR5
We've learned that GT200, the one we call Geforce GTX 200, does support GDDR5 memory, but you won't see a card based on it anytime soon.
It is quite reasonably because 1GB GDDR5 would cost a lot of money, and Nvidia simply doesn’t even have to try before ATI manages to get its R700 card out.
The second part of the story is that despite doubled bandwidth, that could jump to a whopping 300GB/s or even much more, and you wouldn't see much difference in performance. The question of whether it can be done is finally answered, but will it be done and if so, when, remain to be seen.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1
A me pare la classica caxxata made in Fudzilla. Qualunque gpu potrà usare le GDDR5, è un problema di pcb: se supporta le GDDR3 non si possono usare le GDDR5...
Dunque, a meno che non progettino un pcb completamente diverso, GT200 non avrà le GDDR5. ;)
Piuttosto stando a quello che dice Fud chi vorrà farsi uno SLI di schede NVidia + Nehalem avrà qualche problemino.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7713&Itemid=69
A me pare la classica caxxata made in Fudzilla. Qualunque gpu potrà usare le GDDR5, è un problema di pcb: se supporta le GDDR3 non si possono usare le GDDR5...
Dunque, a meno che non progettino un pcb completamente diverso, GT200 non avrà le GDDR5. ;)
Piuttosto stando a quello che dice Fud chi vorrà farsi uno SLI di schede NVidia + Nehalem avrà qualche problemino.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7713&Itemid=69
credo dipenda anche dal memory controller, no?
bYeZ!
Non é una notizia riportata solo da Fudzilla...
http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1
Cmq la notizia é un po vaga e per certi punti scontata, é inevitabile che Nvidia tra un anno, un anno e mezzo, usi memoria GDDR5, é la normale evoluzione del mercato, a questo giro ha puntato tutto sulla potenza della gpu, in futuro per avere prestazioni facili in fascia media utilizzera GDDR5 e per avere super prestazioni in fascia alta abbinerà potenza della gpu a memoria GDDR5, se Nvidia avesse implementato GDDR5 sulla GT200 il mercato sarebbe stato fermo almeno 3 anni, relegando tutte le schede video anche le piu potenti attualmente sul mercato a fascia bassa, ma si sa il mercato ti regala innovazione e prestazioni a piccole gocce in modo che il prodotto ottenga il massimo prezzo e duri il giusto perché tutti i possibili aquirenti lo comprino... ;)
Foglia Morta
05-06-2008, 09:38
:old: e i 2 siti dicono cose del tutto diverse.
Foglia Morta
05-06-2008, 09:41
credo dipenda anche dal memory controller, no?
bYeZ!
si , il memory controller deve essere ottimizzato , quantomeno perchè hanno latenze diverse le gddr3 e le gddr5
http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1
D12U will be first Nvidia GPU with GDDR5 support
Nvidia hasn’t even launched its D10U product yet and we’re already starting to hear whispers about the company’s next-next-next generation graphics products.
Several memory manufacturers have confirmed that the first Nvidia GPU to feature support for GDDR5 memory will be the D12U part, which is said to be currently scheduled for a late 2009 launch.
Obviously, D12U probably hasn’t even left the drawing board yet, but it’s clear that Nvidia is already in discussions with memory manufacturers about the supply of high-speed GDDR5 memory. We already know that ATI’s next-generation graphics cards support GDDR5, and we’re likely to see the new memory technology used on the RV770XT-based products.
GDDR5 is currently made on a 70nm node, but by the time Nvidia gets around to using it, it’ll be manufactured on a 55nm process – that’s expected to happen at some point during 2009. What’s more, by the end of Q1 2009, memory manufacturers expect to have doubled the density of the technology, meaning higher capacity memory kits will be available for newer graphics cards.
Finally, many memory manufacturers suggest that GDDR5 will be limited to high-end products for the next twelve to eighteen months, by which time the price should have dropped significantly enough for it to be cost-effective at more volume-orientated price points.
Novembre 2009.. l'architettura sarà la medesima. Ad una conferenza hanno parlato di migliaia di stream processor sulle vga del futuro. Probabilmente questa sarà di 500sp (2,8 miliardi di transistor) , per quella da 1000sp (5,6 miliardi di transistor :eek: ) dobbiamo attende giugno 2011 (e il pp a 32nm)
curioso che abbiano lasciato D11 disponibile... hanno sicuramente in mente qualche altro impiego di GT200 (refresh 45/40nani e dual-gpu?)prima di lanciare il nuovo chip.
goldorak
05-06-2008, 09:53
A me pare la classica caxxata made in Fudzilla. Qualunque gpu potrà usare le GDDR5, è un problema di pcb: se supporta le GDDR3 non si possono usare le GDDR5...
Dunque, a meno che non progettino un pcb completamente diverso, GT200 non avrà le GDDR5. ;)
Piuttosto stando a quello che dice Fud chi vorrà farsi uno SLI di schede NVidia + Nehalem avrà qualche problemino.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7713&Itemid=69
Nvidia Nvidia, vedi quello che ti costa non aver voluto democratizzare lo sli ? :p
halduemilauno
05-06-2008, 10:16
Non é una notizia riportata solo da Fudzilla...
http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1
Cmq la notizia é un po vaga e per certi punti scontata, é inevitabile che Nvidia tra un anno, un anno e mezzo, usi memoria GDDR5, é la normale evoluzione del mercato, a questo giro ha puntato tutto sulla potenza della gpu, in futuro per avere prestazioni facili in fascia media utilizzera GDDR5 e per avere super prestazioni in fascia alta abbinerà potenza della gpu a memoria GDDR5, se Nvidia avesse implementato GDDR5 sulla GT200 il mercato sarebbe stato fermo almeno 3 anni, relegando tutte le schede video anche le piu potenti attualmente sul mercato a fascia bassa, ma si sa il mercato ti regala innovazione e prestazioni a piccole gocce in modo che il prodotto ottenga il massimo prezzo e duri il giusto perché tutti i possibili aquirenti lo comprino... ;)
non poteva usare sin d'ora le gddr5 avrebbero offerto una banda passante giudicata(giustamente)insufficiente. ora il ,il meglio è garantito dal bus a 512 bit associato a ram gddr3 da 2200/2300.
;)
non poteva usare sin d'ora le gddr5 avrebbero offerto una banda passante giudicata(giustamente)insufficiente. ora il ,il meglio è garantito dal bus a 512 bit associato a ram gddr3 da 2200/2300.
;)
No ma io intendevo sempre con il bus a 512bit, la banda passante sarebbe stata di 243 GB/s... :eek:
steverance1987
05-06-2008, 10:51
Ma non ho capito. Le nuove schede video escono a momenti o bisogna aspettare il 2009?
DriftKing
05-06-2008, 10:52
No ma io intendevo sempre con il bus a 512bit, la banda passante sarebbe stata di 243 GB/s... :eek:
e a che serve tutta quella BP? imho 130/150gb/s sono piu che sufficienti ... poi forse sbaglio ...
DriftKing
05-06-2008, 10:52
Ma non ho capito. Le nuove schede video escono a momenti o bisogna aspettare il 2009?
escono il 17 giugno ... forse anche un po prima ...
halduemilauno
05-06-2008, 10:53
No ma io intendevo sempre con il bus a 512bit, la banda passante sarebbe stata di 243 GB/s... :eek:
e ma cosi si passerebbe ad un evidente eccesso che poi paghi caro. bus a 512 bit che ha un costo superiore al 256 bit poi mettici la ram gddr5 lo capisci da solo che gia costa tanto la scheda sarebbe costata ben di + senza un'avvertibile vantaggio.
ciao.
;)
steverance1987
05-06-2008, 10:53
escono il 17 giugno ... forse anche un po prima ...
Grazie mille.
E che fascia copriranno? Solo schede da 500 euro o anche di fascia media?
halduemilauno
05-06-2008, 10:54
Ma non ho capito. Le nuove schede video escono a momenti o bisogna aspettare il 2009?
ce la fai ad aspettare giovedi/venerdi prossimi?
;)
Marko#88
05-06-2008, 10:56
Novembre 2009.. l'architettura sarà la medesima. Ad una conferenza hanno parlato di migliaia di stream processor sulle vga del futuro. Probabilmente questa sarà di 500sp (2,8 miliardi di transistor) , per quella da 1000sp (5,6 miliardi di transistor :eek: ) dobbiamo attende giugno 2011 (e il pp a 32nm)
devastanti..:eek:
curioso che abbiano lasciato D11 disponibile... hanno sicuramente in mente qualche altro impiego di GT200 (refresh 45/40nani e dual-gpu?)prima di lanciare il nuovo chip.
Curioso si...e molto interessante, vuol dire che qualcosa tireranno fuori...anche solo un die shrink unito ad un aumento delle frequenze non sarebbe malaccio..:)
DriftKing
05-06-2008, 10:56
e ma cosi si passerebbe ad un evidente eccesso che poi paghi caro. bus a 512 bit che ha un costo superiore al 256 bit poi mettici la ram gddr5 lo capisci da solo che gia costa tanto la scheda sarebbe costata ben di + senza un'avvertibile vantaggio.
ciao.
;)
ecco ... allora nn mi sbagliavo ...
Grazie mille.
E che fascia copriranno? Solo schede da 500 euro o anche di fascia media?
all'uscita la gtx280 dovrebbe stare sui 550/600e ... e la gtx260 sui 400/450 ... se nn sbaglio ... tutto cmq dipende da come faranno il cambio euro/dollaro ...
e a che serve tutta quella BP? imho 130/150gb/s sono piu che sufficienti ... poi forse sbaglio ...
Era riferito al mio post precedente, che se Nvidia avesse lanciato GT200 con le GDDR5 le schede sarebbero state fuori mercato attualmente e avrebbero relegato tutte le schede attuali a fascia bassa... immagino che Crysis avrebbe girato alla velocità di pacman! :D
steverance1987
05-06-2008, 10:59
ecco ... allora nn mi sbagliavo ...
all'uscita la gtx280 dovrebbe stare sui 550/600e ... e la gtx260 sui 400/450 ... se nn sbaglio ... tutto cmq dipende da come faranno il cambio euro/dollaro ...
;)
Nehalem = 2009 inoltrato ^^"
Comunque posta nell'area processori, qui non va bene :)
Ook, speravo solo in una configurazione classica minima x la gtx280 da evitare cpu limited, ma e' + complessa del previsto :stordita:
Comunque il bloomfield era stato anticipato a luglio, essendo per categoria enthusiast. Ora si parla di settembre e se ci sono altri ritardi q4 2008
Prenditi un :
-Q6600 con VID inferiore od uguale a 1.23 (maggiore OC ; il mio può lavorare , STABILE, a 3720 MHz con moltiplicatore ad 8 e 3800/3900MHz con molti a 9 ad aria e con Vcore pari ad 1.36V nel primo caso ''x8'')
-Ottimo dissipatore aftermarket per il quad core, tipo zerotherm nirvana od OROCHI
-ottima scheda madre tipo P5E3 deluxe oppure un'altra che supporti le ddr2 1200MHz (altrimenti prenditi un 2x1 gb ddr3 1600MHz cas7)
-la cosa importante è che tu prenda ottime ddr2 da almeno 1066mhz affinchè tu possa overcloccarle parecchio (le ddr3 servono anche a questo , le 1333 corsair xms3 che ho lavoravano a 1440MHz cas8/9)
-pasta termica performante tipo zalman ZMSTG1
-ventola da montare sul dissi tipo silverstone fm121
;)
:stordita: Grazie mille della tua risposta, ci ho messo un po a decifrarla, per fare un oc sarebbe la mia prima volta, ho tante domande in testa ma andro' a farle nella sezione piu' consona.
Grazie ancora
DriftKing
05-06-2008, 11:03
Era riferito al mio post precedente, che se Nvidia avesse lanciato GT200 con le GDDR5 le schede sarebbero state fuori mercato attualmente e avrebbero relegato tutte le schede attuali a fascia bassa... immagino che Crysis avrebbe girato alla velocità di pacman! :D
come ha detto hal ... un gt200 con le gddr5 e bus a 512 bit sarebbe costato una montagna di soldini ... imho e x questo che,anche se ne avevano la possibilita, nn l'hanno fatto uscire ...
;)
;)
AMD delays Radeon 4800 launch to June 23
AMD has decided not to launch its new graphics cards on June 18 as originally planned. Instead, ATI will be briefing members of the press around this date and launch the product in the following week. Since Nvidia is going to launch non-competing parts on June 17, it sounds like a reasonable decision not t o launch its new GPUs just one day later.
http://forums.vr-zone.com/showthread.php?t=284638
http://www.tgdaily.com/content/view/37795/135/
Quindi le HD4800 si vedranno una settimana dopo, in casa AMD hanno finalmente capito che le HD 4800 non sono paragonabili alle GTX?
non poteva usare sin d'ora le gddr5 avrebbero offerto una banda passante giudicata(giustamente)insufficiente. ora il ,il meglio è garantito dal bus a 512 bit associato a ram gddr3 da 2200/2300.
;)
l'alternativa era di investire in tecniche di risparmio banda (come ha fatto ATi) ;)
bYeZ!
ce la fai ad aspettare giovedi/venerdi prossimi?
;)
Io un ce la fo! :D
DriftKing
05-06-2008, 11:15
Quindi le HD4800 si vedranno una settimana dopo, in casa AMD hanno finalmente capito che le HD 4800 non sono paragonabili alle GTX?
io nn direi che nn sono paragonabili ... anche se nn si sanno ancora del tutto le loro prestazioni ... io credo che hanno deciso di spostare la data xche sanno che le gtx sono piu potenti delle hd ... e quindi se lanciati ad un giorno di distanza le vga nvidia si prenderanno la maggior parte dell'attenzione ... cmq ... e solo un ipotesi ...
AMD delays Radeon 4800 launch to June 23
AMD has decided not to launch its new graphics cards on June 18 as originally planned. Instead, ATI will be briefing members of the press around this date and launch the product in the following week. Since Nvidia is going to launch non-competing parts on June 17, it sounds like a reasonable decision not t o launch its new GPUs just one day later.
http://forums.vr-zone.com/showthread.php?t=284638
http://www.tgdaily.com/content/view/37795/135/
Quindi le HD4800 si vedranno una settimana dopo, in casa AMD hanno finalmente capito che le HD 4800 non sono paragonabili alle GTX?
Bo forse nn ne hanno disponibili come credevano, infatti dicevano che le 4850 sarebebro state disponibili in quantita' fin dal primo giorno quindi nn potendo tener fede a questa promessa ritardano l'uscita, oppure la fanno uscire + tardi insieme alla 4870 che era data a fine giugno.
Per il resto mi sembra ovvio che le nuove seire GT vadano d+ anche perche' costeranno molto d+, nn avrebbe senso fare un prodotto che costa molto +d e va uguale alla comtropartita che costa molto meno^^
michelgaetano
05-06-2008, 11:20
io nn direi che nn sono paragonabili ... anche se nn si sanno ancora del tutto le loro prestazioni ... io credo che hanno deciso di spostare la data xche sanno che le gtx sono piu potenti delle hd ... e quindi se lanciati ad un giorno di distanza le vga nvidia si prenderanno la maggior parte dell'attenzione ... cmq ... e solo un ipotesi ...
Non credo. ATi sa che gtx 2x0 è più veloce, ma bisogna vedere quanto.
In tal senso, posticipando un po', può meglip piazzare le sue schede sul mercato.
HackaB321
05-06-2008, 11:28
l'alternativa era di investire in tecniche di risparmio banda (come ha fatto ATi) ;)
bYeZ!
L'alternativa possibile era 384+GDDR5 ma l'hanno scartata per motivi di costo finale e sovradimensionamento. Avrebbe però consumato molto meno di 512+GDDR3, ma tanto per chi compra le GTX i consumi non sono un grosso problema.
I 512 bit poi servono per avere 32 Rops, 24 Rops sulle GTX avrebbero fatto probabilmente da collo di bottiglia
DriftKing
05-06-2008, 11:45
Non credo. ATi sa che gtx 2x0 è più veloce, ma bisogna vedere quanto.
In tal senso, posticipando un po', può meglip piazzare le sue schede sul mercato.
beh ... mi sembra che abbiamo detto +o- la stessa cosa ... no?
L'alternativa possibile era 384+GDDR5 ma l'hanno scartata per motivi di costo finale e sovradimensionamento. Avrebbe però consumato molto meno di 512+GDDR3, ma tanto per chi compra le GTX i consumi non sono un grosso problema.
I 512 bit poi servono per avere 32 Rops, 24 Rops sulle GTX avrebbero fatto probabilmente da collo di bottiglia
uhm, in che modo l'ampiezza del bus influenza il numero di rops?
bYeZ!
Mercuri0
05-06-2008, 11:57
uhm, in che modo l'ampiezza del bus influenza il numero di rops?
bYeZ!
Nell'architettura di G80 e derivati pare che le cose siano legate.
Forse lo sproposito di ROP del GT200 è dato anche da quello piuttosto che da una loro reale utilità nel chip.
HackaB321
05-06-2008, 11:57
uhm, in che modo l'ampiezza del bus influenza il numero di rops?
bYeZ!
Nel crossbar di G80-G92 ad ogni gruppo di 4 rops è abbinato un bus di 64bit. Quindi ad esempio la 8800 GTX ha bus a 384 bit e 24 Rops perchè (24/4)*64=384 oppure la 8800 GT ha bus a 256 bit e 16 Rops perchè (16/4)*64=256 e così via. Dai rumors sembra che questa parità sia stata mantenuta anche sulle nuove schede (32 e 28 rops con rispettivamente bus a 512 e 448)
Mercuri0
05-06-2008, 12:04
pare che il bus 512bit non possa farsi con gpu a 55nm
Dove l'hai letto questo??
Non c'è spazio per la piedinatura del bus nel die.
Si fa un die più grosso. :D
Cioè, il problema non è che "non si può fare" ma semmai che costerebbe troppo farlo :D
I bus, sopratutto verso l'esterno del chip, sono roba che scalano male con il processo produttivo, perché i transistor che li pilotano devono rimanere grossi a causa delle potenza necessaria da far passare "sul filo".
Inoltre le dimensioni dei PAD ("i piedini di contatto") non scalano nemmeno, quindi più si miniaturizza il processo, più occupano area relativa.
Nvidia Nvidia, vedi quello che ti costa non aver voluto democratizzare lo sli ? :p
A proposito del rifiuto di lntel di vietare a nVidia di fare chipset per Nehalem (cosa di cui avevo sentito rumor da gennaio)
Vi ho mai parlato della stima, ammirazione, e rispetto che nutro nei confronti di lntel :mad: ?
goldorak
05-06-2008, 12:16
A proposito del rifiuto di lntel di vietare a nVidia di fare chipset per Nehalem (cosa di cui avevo sentito rumor da gennaio)
Vi ho mai parlato della stima, ammirazione, e rispetto che nutro nei confronti di lntel :mad: ?
Certo che Nvidia puo' progettare un chipset suo per Nehalem, ma solo un pazzo userebbe un chipset non intel con un processore intel. :p
Tanto vale restare allora sulla piattaforma AMD/ATI.
Certo che Nvidia puo' progettare un chipset suo per Nehalem, ma solo un pazzo userebbe un chipset non intel con un processore intel. :p
Tanto vale restare allora sulla piattaforma AMD/ATI.
Da quante castronerie ci sono in 3 righe non ci capisco piu niente! :wtf:
Bo forse nn ne hanno disponibili come credevano, infatti dicevano che le 4850 sarebebro state disponibili in quantita' fin dal primo giorno quindi nn potendo tener fede a questa promessa ritardano l'uscita, oppure la fanno uscire + tardi insieme alla 4870 che era data a fine giugno.
Per il resto mi sembra ovvio che le nuove seire GT vadano d+ anche perche' costeranno molto d+, nn avrebbe senso fare un prodotto che costa molto +d e va uguale alla comtropartita che costa molto meno^^
Secondo me, visto che le nVidia non entreranno in competizione diretta con le ati (nvidia $649 e $449, amd $229 e $329/$299) alla amd hanno voluto presentare le 2 schede insieme.
E siccome per g92b si parla di metá/fine luglio...
Foglia Morta
05-06-2008, 12:33
Certo che Nvidia puo' progettare un chipset suo per Nehalem, ma solo un pazzo userebbe un chipset non intel con un processore intel. :p
Tanto vale restare allora sulla piattaforma AMD/ATI.
senza una licenza per il quickpath interconnect nVidia non potrà fare chipset per Nehalem
Nel crossbar di G80-G92 ad ogni gruppo di 4 rops è abbinato un bus di 64bit. Quindi ad esempio la 8800 GTX ha bus a 384 bit e 24 Rops perchè (24/4)*64=384 oppure la 8800 GT ha bus a 256 bit e 16 Rops perchè (16/4)*64=256 e così via. Dai rumors sembra che questa parità sia stata mantenuta anche sulle nuove schede (32 e 28 rops con rispettivamente bus a 512 e 448)
chiaro, quindi la fame di bandwidth verso la memoria video della serie G8x/G9x potrebbe anche dipendere da questo..
bYeZ!
goldorak
05-06-2008, 12:49
senza una licenza per il quickpath interconnect nVidia non potrà fare chipset per Nehalem
Ricorda la stessa situazione della licenza del quad-pumped fsb con Via questa storia e tutti sapiamo com'e' andata a finire.
Questa volta Nvidia rischia anche dippiu' perche' dall'altra parte AMD/ATI ha gia' una piattaforma completa.
Sara' interessante vedere gli sviluppi nei prossimi mesi hehe...
senza una licenza per il quickpath interconnect nVidia non potrà fare chipset per Nehalem
se non la otterra in futuro sara una bella batosta per nvidia che dovra chiudere i battenti nel settore chipset
ma solo un pazzo userebbe un chipset non intel con un processore intel. :p
Tanto vale restare allora sulla piattaforma AMD/ATI.
Io uso un chipset Nvidia con una cpu Intel e non mi sembra di essere un pazzo, anzi il 780i mi permette di sfruttare il fsb a 1333NHz e l'SLI su due slot a 16x reali con un costo ragionevole, che sono le caratteristiche che piu mi interessano, se la tua affermazione inficia sulle tue scelte hardware puoi pure restare sulla piattaforma AMD/ATI ma la tua affermazione mi sembra del tutto gratuita e fuori luogo! ;)
HackaB321
05-06-2008, 13:10
Ricorda la stessa situazione della licenza del quad-pumped fsb con Via questa storia e tutti sapiamo com'e' andata a finire.
Questa volta Nvidia rischia anche dippiu' perche' dall'altra parte AMD/ATI ha gia' una piattaforma completa.
Sara' interessante vedere gli sviluppi nei prossimi mesi hehe...
troveranno un accordo. Magari licenza Nehalem in cambio di supporto SLI
nico88desmo
05-06-2008, 13:12
Tornando nel discorso delle memorie, nel caso la prossima revisione del GTX280 avrà 256bit con GDDR5, significa molto probabilmente che le Rops torneranno a 16?
Oppure secondo voi cambieranno la struttura interna delle Rops?
troveranno un accordo. Magari licenza Nehalem in cambio di supporto SLI
io spero estesa anche ai chipset piu vecchi oltre al x58......
Tornando nel discorso delle memorie, nel caso la prossima revisione del GTX280 avrà 256bit con GDDR5, significa molto probabilmente che le Rops torneranno a 16?
Oppure secondo voi cambieranno la struttura interna delle Rops?
Non vedremo mai un chip GT200 a 256bit e GDDR5. Credo che sviluperanno un GT2x0 basato sulla medesima archiettura ma con solo 7 cluster sul chip anzichè 10 e 6 gruppi da 4 Rops. Cioè un chip nel quale il top (GTS?) sarà 168sp, 56TMU,24Rops,384bit@GDDR3 2 Ghz e a scalare tutte le versioni inferiori.
Sarebbe un chip da circa un miliardo di transistor che a 55nm dovrebbe occupare più o meno 300 mm^2. Dovrebbe competere con RV770 e sarebbe ottimo anche per un'ipotetica dual-card, se R700 e successivi saranno competivi come sembra.
Mercuri0
05-06-2008, 13:35
troveranno un accordo. Magari licenza Nehalem in cambio di supporto SLI
Naaah, a lntel del supporto SLI non gliene frega nulla, vuole solo far fuori nVidia dai chipset.
Da questo lato nVidia è in una posizione scomoda: in realtà potrebbe spingere sulle piattaforme AMD per i gamer enthusiast, con un pò di marketing. Già ha cominciato la solfa sul "GPU più importante della CPU" quindi non ci vorrebbe poi tanto.
Peccato che AMD ora ha anche ATI, e che le mob lntel supportino il crossfire. E anche AMD cercherà di estromettere nVidia dalle sue piattaforme, anche se credo non lo farà con la carta bollata, perché AMD nella sua posizione ci guadagna se nVidia supporta i suoi proci.
Marò, spero che un asteroide caschi su una fonderia lntel (di domenica) prima che esca larrabee. :( Contro lntel, pultroppo, non basta fare prodotti competitivi.
Ecco ragazzi come motivare l'acquisto di GTX 280.
:sbav: :sbav: :sbav:
http://next.videogame.it/magazine/61865/
:sbav: :sbav: :sbav:
HackaB321
05-06-2008, 13:43
Naaah, a lntel del supporto SLI non gliene frega nulla, vuole solo far fuori nVidia dai chipset.
Si tratta di schermaglie. Lo scambio non sarà alla pari certo perchè chi ha più da perdere è Nvidia, ma alla fine è solo una questione di "quanto" ma un accordo lo troveranno. Nvidia non può certo permettersi di uscire dal mercato dei chipset e Intel vuole solo tirare su il prezzo e "abbassare la cresta" ha chi si è vantato un pò troppo negli ultimi tempi.
michelgaetano
05-06-2008, 13:49
Ecco ragazzi come motivare l'acquisto di GTX 280.
:sbav: :sbav: :sbav:
http://next.videogame.it/magazine/61865/
:sbav: :sbav: :sbav:
fanculo a Psycho, volevo il continuo :(
Oddio finalmente vedremo Nomad in volto? :D
Marko#88
05-06-2008, 13:59
Ecco ragazzi come motivare l'acquisto di GTX 280.
:sbav: :sbav: :sbav:
http://next.videogame.it/magazine/61865/
:sbav: :sbav: :sbav:
ecco, avremo un nuovo motivo per bestemmiare allora...:asd:
fanculo a Psycho, volevo il continuo :(
Oddio finalmente vedremo Nomad in volto? :D
Beh ma vedremo quello che accade sull'isola con altri occhi, magari vedremo altre cose che non ci eravamo immaginati e chissà cosa?!?!
Il seguito ci sarà ma uscirà molto più avanti.
Per finire direi che mi basta "una versione evoluta del Cryengine 2, nuove armi, nuovi veicoli, ecc...".
Non vedo l'ora di giocarlo con la GTX 280. :sbav:
fanculo a Psycho, volevo il continuo :(
Oddio finalmente vedremo Nomad in volto? :D
non vedo l'ora che esca l'espansione di crysis :D
ma sara un gioco multipiattaforma oppure no?
paolox86
05-06-2008, 14:14
Per finire direi che mi basta "una versione evoluta del Cryengine 2, nuove armi, nuovi veicoli, ecc...".
Non vedo l'ora di giocarlo con la GTX 280. :sbav:
Ma per versione più evoluta cosa intendono?? :D Che andrà a 25 fps con le nuove arrivate??
Ma per versione più evoluta cosa intendono?? :D Che andrà a 25 fps con le nuove arrivate??
si a 25 fps su medio :asd:
a settembre ricominciamo ad incavolarci vedrai e faremo il traead aspettando gtx400:D
non vedo l'ora che esca l'espansione di crysis :D
ma sara un gioco multipiattaforma oppure no?
No dovrebbe essere un esclusiva PC anche questa.
Ma per versione più evoluta cosa intendono?? :D Che andrà a 25 fps con le nuove arrivate??
Beh se hanno abbandonato la patch 1.3 suppongo che intendano più ottimizzata e più fluida. :sperem:
DriftKing
05-06-2008, 14:23
si a 25 fps su medio :asd:
a settembre ricominciamo ad incavolarci vedrai e faremo il traead aspettando gtx400:D
:asd::asd::asd:
Foglia Morta
05-06-2008, 14:24
ma che liberalizzassero l'uso delle DX10.1 piuttosto!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7737&Itemid=1
Roy Tayler, a very efficient Vice president of Nvidia the chap who could assassin any creed has told Fudzilla that Physic is free and that every Geforce 8 series card or newer can support it.
If ATI wanted to embrace Physics they can do it, which we believe that can and is highly likely to happen. We’ve heard that Physics software is suppose to launch soon but we didn’t get the fixed date.
We believe that when Nvidia says free that this means that even Intel can do it but Intel got itself havoc and we are probably here for a big fight between Nvidia and Intel on who gets the physics piece of the market.
It is great to hear that these usually heavily competitive companies are sharing some technologies and whatever the reasons are, you my favour chaps who read these lines are going to benefit from it. This is even better than price wars that also helps all consumers out, expect the companies itself.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7736&Itemid=1
Nvidia's boss of The Way it’s meant to be played, VP Roy Tayler said Fudzilla that Nvidia works with its well established developers on 16 titles that will support Physics, that should hit the shelves by the end of the year.
Some of these sixteen includes Bionic commando from Capcon and Shadow harvest from Black Lion studios at just two that Nvidia could talk about.
Just remember that all Unreal Engine 3 games supports Physics and since Physics will run on Geforce 8 series cards on this CUDA thing, you should see some really nice physics at least on your PC.
Roy also said that we should expect 40 more titles by summer of 2009.
Nvidia is serious about Physics and with its The Way its meant to be player, we believe that it shouldn’t be brainer that they can do it. If anything Nvidia really knows how to reach developers and publishers and TWIMTBP is one of the most successful marketing stuff that they ever pulled off.
Ecco ragazzi come motivare l'acquisto di GTX 280.
:sbav: :sbav: :sbav:
http://next.videogame.it/magazine/61865/
:sbav: :sbav: :sbav:
sarà un benchmark o il gioco sta volta?! :asd:
Ecco ragazzi come motivare l'acquisto di GTX 280.
:sbav: :sbav: :sbav:
http://next.videogame.it/magazine/61865/
:sbav: :sbav: :sbav:
gia mi immagino i requisiti consigliati 3 gtx280 il sli, intel skulltrail con due qx9770, 8gb di ram ddr3....con questa configurazione dite che su hight si riuscira a giocare? :D
-noxius-
05-06-2008, 14:35
gia mi immagino i requisiti consigliati 3 gtx280 il sli, intel skulltrail con due qx9770, 8gb di ram ddr3....con questa configurazione dite che su hight si riuscira a giocare? :D
Ma anche no, sicuramente lo renderanno meno pesante sull'onda delle ottimizzazioni rilasciate AD HOC tipo il natural mod ; elimineranno qualche feature e lo snelliranno un pochetto, magari aggiungendo qualche ''very high'' e dx10 only sulle versioni dx9.0c .. Questa volta credo che abbiano imparato la lezione e d'altra parte se così non fosse non lo venderebbero di certo . Il fatto che abbiano tagliato il supporto a crysis implica che non è con una semplice patch che puoi snellire il tutto, devi ricominciare daccapo con un nuovo ed ottimizzato codice ;)
Potrebbero pure magari ottimizzare il supporto ai quad e snellire ulteriormente la fisica.. questo è il futuro e di certo chi ha progettato un engine del genere (cha ha i controcxzzi..) non è un idiota ;)
A chi diceva che fosse stato ottimizzato da un bambino di 2 anni , lo sfido io a fare altrettanto ...ah, il giovenil furore :rolleyes:
gia mi immagino i requisiti consigliati 3 gtx280 il sli, intel skulltrail con due qx9770, 8gb di ram ddr3....con questa configurazione dite che su hight si riuscira a giocare? :D
Il tutto pubblicizzando il multicore e il multivga, e alla fine se hai una piattaforma skulltrail o un p4 non cambia niente :asd:
Me li immagino giá :asd:
HackaB321
05-06-2008, 14:40
Roy Tayler, a very efficient Vice president of Nvidia the chap who could assassin any creed has told Fudzilla that Physic is free and that every Geforce 8 series card or newer can support it.
:asd:
:asd:
Azz mi era sfuggita :asd:
NeedForSpeed73
05-06-2008, 14:52
Ma piuttosto c'è qualche negozio (anche online) in Italia o al limite in Europa (area euro) dove è possibile preordinarla?
Cioè mi sembra strano, visto che Nvidia non fa le schede in proprio, che le varie Asus, XFX, eVGA e via dicendo ancora non abbiano neanche fatto un comunicato per annunciare dei nuovi prodotti che in teoria la settimana prossima dovrebbero già essere sugli scaffali dei negozi.:confused:
Mister Tarpone
05-06-2008, 15:22
Ma anche no, sicuramente lo renderanno meno pesante sull'onda delle ottimizzazioni rilasciate AD HOC tipo il natural mod ; elimineranno qualche feature e lo snelliranno un pochetto, magari aggiungendo qualche ''very high'' e dx10 only sulle versioni dx9.0c .. Questa volta credo che abbiano imparato la lezione e d'altra parte se così non fosse non lo venderebbero di certo . Il fatto che abbiano tagliato il supporto a crysis implica che non è con una semplice patch che puoi snellire il tutto, devi ricominciare daccapo con un nuovo ed ottimizzato codice ;)
Potrebbero pure magari ottimizzare il supporto ai quad e snellire ulteriormente la fisica.. questo è il futuro e di certo chi ha progettato un engine del genere (cha ha i controcxzzi..) non è un idiota ;)
A chi diceva che fosse stato ottimizzato da un bambino di 2 anni , lo sfido io a fare altrettanto ...ah, il giovenil furore :rolleyes:
quoto... questo nuovo Crysis sarà più leggero... al costo di farlo meno spettacolare... (che poi non è detto.. potrebbe essere anche + bello pur non avendo tutti gli effetti strapompati del primo Crysis..) ;)
fidatevi che c'ho sempre azzeccato.. ;)
quoto... questo nuovo Crysis sarà più leggero ;)
fidatevi che c'ho sempre azzeccato.. ;)
compriamo dunque le vga della next gen per giocare bene ai giochi vecchi dato che quelli nuovi sono tutti piu leggeri di crysis :asd:
halduemilauno
05-06-2008, 15:25
quoto... questo nuovo Crysis sarà più leggero... al costo di farlo meno spettacolare... (che poi non è detto.. potrebbe essere anche + bello pur non avendo tutti gli effetti strapompati del primo Crysis..) ;)
fidatevi che c'ho sempre azzeccato.. ;)
OK. mi fido di Te.
;)
Ma piuttosto c'è qualche negozio (anche online) in Italia o al limite in Europa (area euro) dove è possibile preordinarla?
Cioè mi sembra strano, visto che Nvidia non fa le schede in proprio, che le varie Asus, XFX, eVGA e via dicendo ancora non abbiano neanche fatto un comunicato per annunciare dei nuovi prodotti che in teoria la settimana prossima dovrebbero già essere sugli scaffali dei negozi.:confused:
Mi accodo alla richiesta, su trovaprezzi ancora non si vede nulla comunque. :)
Mercuri0
05-06-2008, 15:25
Si tratta di schermaglie. Lo scambio non sarà alla pari certo perchè chi ha più da perdere è Nvidia, ma alla fine è solo una questione di "quanto" ma un accordo lo troveranno. Nvidia non può certo permettersi di uscire dal mercato dei chipset e Intel vuole solo tirare su il prezzo e "abbassare la cresta" ha chi si è vantato un pò troppo negli ultimi tempi.
Non pensi che concedere lo SLI ad lntel per nVidia vorrebbe comunque dire uscire dal mercato dei chipset?
Altra notizia interessante:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7737&Itemid=65
nVidia renderebbe Physics libero anche per le Radeon. Ancora non ci credo del tutto (bisogna vedere che significa "libero") però per noi tutti sarebbe una gran cosa.
Sarebbe una gran cosa sopratutto perché se Physics girasse su tutte le schede grafiche, gli sviluppatori non avrebbero freni al suo uso (a parte le console - si vedrà) e sopratutto non avrebbe senso usare l'Havoc di lntel.
(L'Havoc girerà solo su CPU ora, e larrabee in futuro. brrrrr :( )
Non pensi che concedere lo SLI ad lntel per nVidia vorrebbe comunque dire uscire dal mercato dei chipset?
Altra notizia interessante:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7737&Itemid=65
nVidia renderebbe Physics libero anche per le Radeon. Ancora non ci credo del tutto (bisogna vedere che significa "libero") però per noi tutti sarebbe una gran cosa.
Sarebbe una gran cosa sopratutto perché se Physics girasse su tutte le schede grafiche, gli sviluppatori non avrebbero freni al suo uso (a parte le console - si vedrà) e sopratutto non avrebbe senso usare l'Havoc di lntel.
(L'Havoc girerà solo su CPU ora, e larrabee in futuro. brrrrr :( )
mossa dovuta al fatto che lo sli su nehalem è stato negato da parte di intel
beppe8682
05-06-2008, 15:30
;)
speriamo che ti sbagli sui prezzi...
Mister Tarpone
05-06-2008, 15:32
OK. mi fido di Te.
;)
lo hai scritto a presa di culo??? :sofico:
oH!!! oppure lo fanno uscire ancora + peso proprio per dimostrare la superiorità delle nuove 2 GTX280 e 260 rispetto le altre schede... :asd:
mahhhhhh....booohohhhhhhhhhhh
edit: Cmq i giochi su pc sono diventati straleggeri, ho appena provato la DEMO del nuovo Devil may cry 4. con una scheda da 100€ come la mia (96gt) fa un 60ina di fps a 1280x1024 antialiasing 8x e massima qualità....ma andrebbe bene pure a 1680x1050...
ennesima conferma... ormai questi titoli multipiattaforma non impensieriscono + nessuna scheda... cmq vedremo sto nuovo Crysis...
Narghile
05-06-2008, 15:50
ciao a tutti aspettiamo con pazienza l'uscita di questi mostri!!!!
ma voi che dite saranno a prova i crysis una volta per tutte o solo un'latra sckeda ke fare aumentare fps e basta??????
speriamo in bene!!!!! prima di aquistarla comunque dovrò essere ben convinto delle prove ke faranno gli smanettoni!!!!!!
p.s: visto ke nvidia sta facendo solo skerzi ultimamente!!!!!
appleroof
05-06-2008, 16:10
troveranno un accordo. Magari licenza Nehalem in cambio di supporto SLI
quoto: alla fine quello che conta sono i soldi, anche se ultimamente si sono beccate alla grande (sopratutto sulla fisica)
Si tratta di schermaglie. Lo scambio non sarà alla pari certo perchè chi ha più da perdere è Nvidia, ma alla fine è solo una questione di "quanto" ma un accordo lo troveranno. Nvidia non può certo permettersi di uscire dal mercato dei chipset e Intel vuole solo tirare su il prezzo e "abbassare la cresta" ha chi si è vantato un pò troppo negli ultimi tempi.
ariquoto, infatti
Naaah, a lntel del supporto SLI non gliene frega nulla, vuole solo far fuori nVidia dai chipset.
Da questo lato nVidia è in una posizione scomoda: in realtà potrebbe spingere sulle piattaforme AMD per i gamer enthusiast, con un pò di marketing. Già ha cominciato la solfa sul "GPU più importante della CPU" quindi non ci vorrebbe poi tanto.
Peccato che AMD ora ha anche ATI, e che le mob lntel supportino il crossfire. E anche AMD cercherà di estromettere nVidia dalle sue piattaforme, anche se credo non lo farà con la carta bollata, perché AMD nella sua posizione ci guadagna se nVidia supporta i suoi proci.
Marò, spero che un asteroide caschi su una fonderia lntel (di domenica) prima che esca larrabee. :( Contro lntel, pultroppo, non basta fare prodotti competitivi.
renditi conto della contraddizione all'interno del tuo stesso post, io sono invece della stessa identica idea di Hackab321: stanno solo trattando al rialzo (per Intel, che chiaramente ha il coltello dalla parte del manico)
appleroof
05-06-2008, 16:34
Mi accodo alla richiesta, su trovaprezzi ancora non si vede nulla comunque. :)
se non ricordo male, la 8800gtx non era ordinabile (nemmeno in preordine, appunto) fino al giorno del lancio
lo hai scritto a presa di culo??? :sofico:
oH!!! oppure lo fanno uscire ancora + peso proprio per dimostrare la superiorità delle nuove 2 GTX280 e 260 rispetto le altre schede... :asd:
mahhhhhh....booohohhhhhhhhhhh
edit: Cmq i giochi su pc sono diventati straleggeri, ho appena provato la DEMO del nuovo Devil may cry 4. con una scheda da 100€ come la mia (96gt) fa un 60ina di fps a 1280x1024 antialiasing 8x e massima qualità....ma andrebbe bene pure a 1680x1050...
ennesima conferma... ormai questi titoli multipiattaforma non impensieriscono + nessuna scheda... cmq vedremo sto nuovo Crysis...
oppure le vga troppo potenti (anche economiche) per la maggior parte dei motori?
Mister Tarpone
05-06-2008, 16:37
oppure le vga troppo potenti (anche economiche) per la maggior parte dei motori?
infatti pensare che una 3870 o 9600GT siano schede mainstream mi fa strano... :asd:
visto come vanno gli attuali giochi. e come ho predetto la banda sarà questa per tutto il 2008 ;) ...ci scommetterei ;)
insomma... non cambierò la video prima del 2009 :tie: che non c'è bisogno :asd:
infatti pensare che una 3870 o 9600GT siano schede mainstream mi fa strano... :asd:
visto come vanno gli attuali giochi. e come ho predetto la banda sarà questa per tutto il 2008 ;) ...ci scommetterei ;)
insomma... non cambierò la video prima del 2009 :tie: che non c'è bisogno :asd:
quoto in todos,anche io non cambierò vga prima di quella data,anche perchè l'ho presa 2 giorni fà:asd:
arrivederci ragà ho del gioco arretrato,ci sentiamo l'anno prossimo:sofico:
HackaB321
05-06-2008, 16:47
Non pensi che concedere lo SLI ad lntel per nVidia vorrebbe comunque dire uscire dal mercato dei chipset?
Tra rendere disponibile anche ad altri una elitaria tecnologia gaming e avere accesso al supporto dei processori Intel più attesi e innovativi degli ultimi anni tu cosa sceglieresti?
Mercuri0
05-06-2008, 16:52
renditi conto della contraddizione all'interno del tuo stesso post, io sono invece della stessa identica idea di Hackab321: stanno solo trattando al rialzo (per Intel, che chiaramente ha il coltello dalla parte del manico)
Quale contraddizione? Io ho scritto "potrebbe .... ma in realtà ..."
Comunque discordo con voi sullo SLI, secondo me ad lntel dello SLI non gliene frega nulla, e il prezzo che lntel vuole potrebbe essere la testa di nVidia. :)
(anche perché ultimamente lntel si stava "scordando" di comunicare a nVidia le novità sui suoi nuovi processori, e i problemi di incompatibilità di cui si rumoreggia potrebbero non essere solo colpa di nVidia)
halduemilauno
05-06-2008, 16:56
lo hai scritto a presa di culo??? :sofico:
oH!!! oppure lo fanno uscire ancora + peso proprio per dimostrare la superiorità delle nuove 2 GTX280 e 260 rispetto le altre schede... :asd:
mahhhhhh....booohohhhhhhhhhhh
edit: Cmq i giochi su pc sono diventati straleggeri, ho appena provato la DEMO del nuovo Devil may cry 4. con una scheda da 100€ come la mia (96gt) fa un 60ina di fps a 1280x1024 antialiasing 8x e massima qualità....ma andrebbe bene pure a 1680x1050...
ennesima conferma... ormai questi titoli multipiattaforma non impensieriscono + nessuna scheda... cmq vedremo sto nuovo Crysis...
certo che no.
;)
appleroof
05-06-2008, 16:59
Quale contraddizione? Io ho scritto "potrebbe .... ma in realtà ..."
Comunque discordo con voi sullo SLI, secondo me ad lntel dello SLI non gliene frega nulla, e il prezzo che lntel vuole potrebbe essere la testa di nVidia. :)
(anche perché ultimamente lntel si stava "scordando" di comunicare a nVidia le novità sui suoi nuovi processori, e i problemi di incompatibilità di cui si rumoreggia potrebbero non essere solo colpa di nVidia)
guarda può essere, non lo nego (infatti come sottolinei è da mesi che si "punzecchiano", per essere buoni)
però dico che quello che conta sono i soldi: tant'è che con il supporto CF Intel favorisce Amd (questa è la contraddizione) che è abbastanza paradossale
può essere però che oggi Nvidia sia agli occhi di Intel un concorrente più fastidioso (considerando i movimenti di mercato di entrambe) di Amd, ma se domani i rapporti di forza cambiassero, magicamente ecco lo sli tornare (ammesso che nvidia non esca dal mercato chipset per pc -e concentrarsi su mercati più remunerativi e promettenti- e/o ammesso che abbia bisogno dello sli, infatti ad esempio già la 9800gx2 [ma prima la 7950gx2] non ha bisogno di una mobo sli....)
guarda può essere, non lo nego (infatti come sottolinei è da mesi che si "punzecchiano", per essere buoni)
però dico che quello che conta sono i soldi: tant'è che con il supporto CF Intel favorisce Amd (questa è la contraddizione) che è abbastanza paradossale
può essere però che oggi Nvidia sia agli occhi di Intel un concorrente più fastidioso (considerando i movimenti di mercato di entrambe) di Amd, ma se domani i rapporti di forza cambiassero, magicamente ecco lo sli tornare (ammesso che nvidia non esca dal mercato chipset per pc -e concentrarsi su mercati più remunerativi e promettenti- e/o ammesso che abbia bisogno dello sli, infatti ad esempio già la 9800gx2 [ma prima la 7950gx2] non ha bisogno di una mobo sli....)
Guarda che Intel mica dà particolare supporto al CF, eh, semplicemente ha messo più slot PCI-E. Punto. Poi sta ai produttori terzi sfruttarli o meno.
AMD ha deciso di "liberalizzare" il CF, così che giri anche su chipset Intel e volendo altrove (forse pure VIA ma non saprei di preciso), nVIDIA invece ha negato la compatibilità e tiene lo SLi solo per i suoi chipset.
Poi non avrebbe senso per Intel negare il supporto, gratuito, al CF, dato che è un elemento in più che può convincere l'utenza ad acquistare propri prodotti. ;)
zerothehero
05-06-2008, 17:13
Piuttosto stando a quello che dice Fud chi vorrà farsi uno SLI di schede NVidia + Nehalem avrà qualche problemino.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7713&Itemid=69
Ottima notizia, se fosse vera.
In questo modo nvidia sarebbe costretta a permettero lo sli sui chipset intel, dando così la possibilità per il consumatore di avere crossfire e sli sullo stesso chipset.
Foglia Morta
05-06-2008, 17:14
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7743&Itemid=1
Computex 08: Tiny allocations to the channel
If the information we were told is correct, then Nvidia is having some problems ramping up the production of the GT200 series and this sounds all too familiar when it comes to new Nvidia products.
We’ve heard that even large distributors have a hard time getting more than a handful of cards and that is only if they place large orders of products that Nvidia’s partners have overstock of.
This isn’t the first time this has happened when it comes to Nvidia products and we’re not sure if it’s a deliberate scam to push up prices of these highly sought after cards. With the additional requirements of the distributors having to buy additional cards to get their hands on the new fast cards, we’re really starting to wonder what kind of games Nvidia is playing.
So in other words, if you want one of these new cards when they launch, if you see one for sale, get it, as you won’t get a second chance.
Enochian
05-06-2008, 17:23
Sta cosa delle scorte produttive molto scarse mi sa tanto di hype montato ad arte.
Non credo che proprio tutti si butteranno su una scheda al day one da 600 euro.
Skullcrusher
05-06-2008, 17:32
Ecco ragazzi come motivare l'acquisto di GTX 280.
:sbav: :sbav: :sbav:
http://next.videogame.it/magazine/61865/
:sbav: :sbav: :sbav:
Ottimo, lo stavo giusto aspettando :sbav: :sbav:
Sta cosa delle scorte produttive molto scarse mi sa tanto di hype montato ad arte.
Non credo che proprio tutti si butteranno su una scheda al day one da 600 euro.
Staremo a vedere :stordita:
Domanda: mi sono perso in mezzo a troppe risposte, si sa qualcosa in merito ai 30Watt in idle della GTX280? Vero o falso?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7743&Itemid=1
Computex 08: Tiny allocations to the channel
If the information we were told is correct, then Nvidia is having some problems ramping up the production of the GT200 series and this sounds all too familiar when it comes to new Nvidia products.
We’ve heard that even large distributors have a hard time getting more than a handful of cards and that is only if they place large orders of products that Nvidia’s partners have overstock of.
This isn’t the first time this has happened when it comes to Nvidia products and we’re not sure if it’s a deliberate scam to push up prices of these highly sought after cards. With the additional requirements of the distributors having to buy additional cards to get their hands on the new fast cards, we’re really starting to wonder what kind of games Nvidia is playing.
So in other words, if you want one of these new cards when they launch, if you see one for sale, get it, as you won’t get a second chance.
Sta a vedere che si arriva a 700 euro. :rolleyes:
michelgaetano
05-06-2008, 17:50
Sta a vedere che si arriva a 700 euro. :rolleyes:
sta bene dove è, mi prendo 2 9800gx2 per quel prezzo :asd: (inutili, ma fa figo :sofico:)
DriftKing
05-06-2008, 17:51
Sta a vedere che si arriva a 700 euro. :rolleyes:
:eek: ma fossero anche 600 ... chi se la prende?
a cosa serve? so che e un discorso che abbiamo gia fatto ... pero davvero nn capisco ... xche comprare una vga del genere ... adesso??? nn se ne ha nessunissima necessita ... boh ... spendere tutti quei soldi x un solo gioco ... mah ... :confused:
halduemilauno
05-06-2008, 17:53
:eek: ma fossero anche 600 ... chi se la prende?
a cosa serve? so che e un discorso che abbiamo gia fatto ... pero davvero nn capisco ... xche comprare una vga del genere ... adesso??? nn se ne ha nessunissima necessita ... boh ... spendere tutti quei soldi x un solo gioco ... mah ... :confused:
serve a fare meglio con un 24 pollici quello che si farebbe peggio con un 19 pollici.
;)
appleroof
05-06-2008, 17:55
serve a fare meglio con un 24 pollici quello che si farebbe peggio con un 19 pollici.
;)
:D
e poi ci stà che se la compra punto e basta, che gli serva o meno. E noi tutti (io sicuro) a sbavare :D :D
DriftKing
05-06-2008, 17:56
serve a fare meglio con un 24 pollici quello che si farebbe peggio con un 19 pollici.
;)
e cosa sarebbe?
DriftKing
05-06-2008, 17:58
:D
e poi ci stà che se la compra punto e basta, che gli serva o meno. E noi tutti (io sicuro) a sbavare :D :D
beh ... forse soolo un pochino :p :D
pero ... parlando seriamente ... secondo me nn ha senso prenderla adesso ... a quel prezzo ... quando scendera sotto i 450 ... si potra comprare ... :)
appleroof
05-06-2008, 18:03
beh ... forse soolo un pochino :p :D
pero ... parlando seriamente ... secondo me nn ha senso prenderla adesso ... a quel prezzo ... quando scendera sotto i 450 ... si potra comprare ... :)
guarda il senso quando si parla di vga come queste non c'è mai :D (anche 450 euro sono tante, in realtà anche 200 sono tante per un pezzo di pc, è chiaro che più alzi il prezzo più sembra follia e forse lo è)
schede come queste si comprano e si godono, inutile usare metri come prezzo/prestazioni, vale la pena o meno e simili :)
(se tu potessi comprare una Ferrari, staresti li a pensare al prezzo/prestazioni o ad aspettare che scenda di prezzo? :D )
Mister Tarpone
05-06-2008, 18:04
serve a fare meglio con un 24 pollici quello che si farebbe peggio con un 19 pollici.
;)
questa schedona serve per far girare TUTTO a 1920x1200 con aa16x af16x con fluidità eccezionali...
;)
appleroof
05-06-2008, 18:06
Guarda che Intel mica dà particolare supporto al CF, eh, semplicemente ha messo più slot PCI-E. Punto. Poi sta ai produttori terzi sfruttarli o meno.
AMD ha deciso di "liberalizzare" il CF, così che giri anche su chipset Intel e volendo altrove (forse pure VIA ma non saprei di preciso), nVIDIA invece ha negato la compatibilità e tiene lo SLi solo per i suoi chipset.
Poi non avrebbe senso per Intel negare il supporto, gratuito, al CF, dato che è un elemento in più che può convincere l'utenza ad acquistare propri prodotti. ;)
va bene, sta di fatto che Amd ci guadagna e Intel gli ha fatto un favore indirettamente? E fare un favore al principale competitor forse non ti suona paradossale, a me si (vabbè che ci guadaga anche lei come giustamente hai dett,o, ed è qui che trovo il senso)
avrebbe potuto negarlo volendo, non credi? ;)
Mercuri0
05-06-2008, 18:07
(se tu potessi comprare una Ferrari, staresti li a pensare al prezzo/prestazioni o ad aspettare che scenda di prezzo? :D )
Vero è che se io avessi i soldi per comprarmi una ferrari, mi comprerei una Maserati Granturismo e il resto lo spenderei in qualcosaltro :D
Alla fine è pure questione del valore che ciascuno da alle cose. :)
appleroof
05-06-2008, 18:09
Vero è che se io avessi i soldi per comprarmi una ferrari, mi comprerei una Maserati Granturismo e il resto lo spenderei in qualcosaltro :D
Alla fine è pure questione del valore che ciascuno da alle cose. :)
siccome costa poco :D
cmq la Ferrari rimane il top: se tu hai milioni e vuoi il top, prendi quella, non scappi (cioè usi di nuovo un parametro soggettivo, tipo prezzo/prestazioni ;) )
Mercuri0
05-06-2008, 18:16
siccome costa poco :D
cmq la Ferrari rimane il top: se tu hai milioni e vuoi il top, prendi quella, non scappi (cioè usi di nuovo un parametro soggettivo, tipo prezzo/prestazioni ;) )
Il senso era che io per comprare una ferrari dovrei avere molti più soldi di quelli che servirebbero, mentre altri magari la comprerebbero arrivandoci giusti giusti.
Inoltre c'è top e top. La Veyron è più sborona, ma la Ferrari è enormemente più elegante, come tecnologia e tutto. Per alcuni, la GTX280 potrebbe essere una Veyron più che una Ferrari. :D
Anche senza guardare il prezzo, nelle "prestazioni" che si cercano entrano tante cose (dimensioni, rumorosità, consumo). Vedi i mac, per esempio ;)
appleroof
05-06-2008, 18:22
Il senso era che io per comprare una ferrari dovrei avere molti più soldi di quelli che servirebbero, mentre altri magari la comprerebbero arrivandoci giusti giusti.
Inoltre c'è top e top. La Veyron è più sborona, ma la Ferrari è enormemente più elegante, come tecnologia e tutto. Per alcuni, la GTX280 potrebbe essere una Veyron più che una Ferrari. :D
Usciamo dal tunnel delle macchine: ti faccio un altro esempio
quando uscì la 8800gtx, una 7900gt faceva girare bene tutti i giochi in giro, potevo al limite prendere una 1950xt e stavo a posto per mesi e avrei speso molto meno, ma ho preso la 8800gtx perchè volevo il massimo fregandomene per una volta del prezzo/prestazioni (vabbè, in quel momento avevo un pò di moneta da parte, felice coincidenza)
è tutto qui, se vuoi il top prendi il top, a prescindere da quanto costa (addirittura a prescindere se ce la fai a comprarla, la morale la lasciamo ad altre sedi :D) e te lo godi (hanno comiato un'apposita categoria di clientela per questi: entusiasth :D :D)
sennò fai altre valutazioni (necessitate o meno) e ti compri altre schede, non sei certo il cliente al quale la gtx280 è rivolta tutto qui
Mercuri0
05-06-2008, 18:27
sennò fai altre valutazioni (necessitate o meno) e ti compri altre schede, non sei certo il cliente al quale la gtx280 è rivolta tutto qui
Ma certo che sono d'accordissimo, se le fanno vuol dire che qualcuno le compra. Ce chi spende migliaia di euro in francobolli del resto. O chi spende migliaia di euro in impianti hi-fi convinto che l'audio HD esista veramente.
La passione è passione, ed è cieca.
(hanno comiato un'apposita categoria di clientela per questi: entusiasth :D :D)
Ecco, però io non ho mai capito se "enthusiast" si riferisce a chi le compra o chi le vende :asd:
edit: io sono della categoria "quality performance": tendo a guardare tra gli oggetti con il migliore prestazioni/prezzo e poi spendo un pò di più sulla "qualità" che sulle specifiche.
questa schedona serve per far girare TUTTO a 1920x1200 con aa16x af16x con fluidità eccezionali...
;)
tarpo proviamo crysis a quella risoluzione e quei filtri :asd: e adesso pure crysis warhead, penso che i suicidi dei pcisti aumenteranno, mica più solo 1, ma due crysis ... :asd:
Mister Tarpone
05-06-2008, 18:29
tarpo proviamo crysis a quella risoluzione e quei filtri :asd: e adesso pure crysis warhead, penso che i suicidi dei pcisti aumenteranno, mica più solo 1, ma due crysis ... :asd:
Crysis è un caso disperato :asd:
warhead sarà molto più ottimizzato...credo... ;)
_morghan_1968
05-06-2008, 18:42
L' essere obbiettivi è una cosa che potrebbe capitare
anche in un forum che non parla di macchine fotografiche.....
- non capisco chi osanna nvidia che non intende rilasciare la licenza
x lo sli ad intel (e ne beneficieremmo tutti....)
e poi condanna intel che minaccia di non concedere la licenza x le nuove cpu
a nvidia (ne beneficieremmo tutti anche in questo caso e forse una o due persone coglieranno il doppiosenso...)
- il prezzo dei 24 '' è sceso moltissimo...
a 1920 x 1200 con tutte le impostazioni al max una ultra in oc và in crisi con moltissimi giochi : siano benvenute vga più potenti....
-noxius-
05-06-2008, 18:47
guarda può essere, non lo nego (infatti come sottolinei è da mesi che si "punzecchiano", per essere buoni)
però dico che quello che conta sono i soldi: tant'è che con il supporto CF Intel favorisce Amd (questa è la contraddizione) che è abbastanza paradossale
può essere però che oggi Nvidia sia agli occhi di Intel un concorrente più fastidioso (considerando i movimenti di mercato di entrambe) di Amd, ma se domani i rapporti di forza cambiassero, magicamente ecco lo sli tornare (ammesso che nvidia non esca dal mercato chipset per pc -e concentrarsi su mercati più remunerativi e promettenti- e/o ammesso che abbia bisogno dello sli, infatti ad esempio già la 9800gx2 [ma prima la 7950gx2] non ha bisogno di una mobo sli....)
Basta guardare le ''fette di mercato'' e la ''copertura di mercato'' delle singole aziende :
INTEL : CPU , mobo per server di fascia alta/XEON/doppio processore (..) e grandi fette di mercato
nVIDIA : GPU (che fanno concorrenza alle cpu più potenti sotto il punto di vista del calcolo parallelo a scopo scientifico) , mobo SLI , CPU di ridottissime dimensioni (che si oppongono alla tecnologia ATOM di intel) e grandi fette di mercato nel lato GPU (in diretta concorrenza con INTEL da qui a 2-3 anni anche per le CPU-GPU , anche contro larrabee )
AMD: CPU di fascia media-bassa , GPU di fascia media-bassa e mobo per supportare le cpu , fette di mercato limitate
Basta poco a capire che per ora INTEL vuole contenere nVIDIA al massimo, altrimenti si troverebbe stretta tra 2 aziende in diretta concorrenza tra di loro e , cosa interessante (per noi..) , sotto ogni versante .
Sarebbe interessante se INTEL scendesse in campo con GPU da associare a nuovi processori ... mah ... Di certo per i consumatori finali la buona notizioa è che si scannano fra di loro e magari qualcuno rinnoverà seriamente il mercato .. L'unico problema è che si dovrà fare ovviamente MOLTISSIMA attenzione alla compatibilità delle schede madri in relazione alle cpu ed ai sottosistemi video che saremo intenzionati a montare, ma d'altra parte mica compriamo alla cieca, no ?
OT : CRISTO !!!!!! http://www.youtube.com/watch?v=UQQyZ2hl03k
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.