View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
ricapitolando:
Nome Chip
9900 gtx G200
9900 gts G200
9800 gt g92b(55nm)
9800 gt g92
9600 gt g96
della gtx il dissipatore probabilmente sarà questo:
http://img3.pconline.com.cn/pconline/0805/13/1294786_12.jpg
era previsto un dissipatore coolermaster e pare che probabilmente sarà montato sulla 9900 gts
per i dettagli delle due 9800 gt:
http://www.hwupgrade.it/news/skvideo/due-versioni-di-gpu-per-le-schede-geforce-9800-gt_25302.html
continuate a postare tutto ciò che trovate:D :D :D
Nikolaj Wojdelko
14-05-2008, 18:43
ricapitolando:
Nome Chip
9900 gtx G200
9900 gts G200
9800 gt g92b(55nm)
9800 gt g92 ---> Questa è la 8800gt , tantè che la 9800 a 65 nm l'hanno cancellata dalla roadmap tempo fa .
9600 gt g96
della gtx il dissipatore probabilmente sarà questo:
http://img3.pconline.com.cn/pconline/0805/13/1294786_12.jpg
era previsto un dissipatore coolermaster e pare che probabilmente sarà montato sulla 9900 gts
per i dettagli delle due 9800 gt:
http://www.hwupgrade.it/news/skvideo/due-versioni-di-gpu-per-le-schede-geforce-9800-gt_25302.html
continuate a postare tutto ciò che trovate:D :D :D
red
Ho appena letto il tuo link , che dire, servono commenti ?
Mi auto quoto ..
Perchè non ci avrebbero guadagnato 2-3 volte :muro:
Che bello , a gennaio mi son rivenduto una 9800GT per 210 euro , a saperlo dopo me la sarei tenuta perchè il fattore 9 fa figo :doh: .
Hal , qui non c'è nessuno da difendere ; i veri fake sono queste 98xx , a parte la GX2 che è un semplice SLI a panino ..
Se la vendessero ALLO STESSO IDENTICO PREZZO DELLE 8800GT non avrei nulla da ridire, anzi .. ma se fosse il contrario e la sparassero a 180-190 euro con le GTX a 220-230 sarebbe davvero una grossa porcata , la peggiore che io abbia mai visto .
mircocatta
14-05-2008, 19:23
solo che a volte si trovano degli incompetenti estremi...quando ho preso il monitor una tipa mi ha detto che un 19" era meglio del 22" che ho preso...ma era palesemente inferiore..non mi ricordo bene perchè diceva che era meglio, credo per qualcosa che aveva a che fare con le casse integrate...:asd: però era carina, abbiam fatto un po' di conversazione e in sostanza io ci provavo spudoratamente...mettiamola così, il monitor che volevo l'ho trovato e ho chiaccherato per un po' con una...:asd:
ah, comunque la frase che più, mi ha colpito è stata detta da un tipo...la 8800GT esiste anche da 1GB, molto meglio della 8800Ultra che ha solo 768mb...
io non ci volevo credere...:eek:
dove visto che frequentiamo gli stessi negozi imolesi ? :D mediamondo o la cometa?
appleroof
14-05-2008, 19:26
In effetti la storia della 9800gt con 2 chip identici se non per il processo produttivo è unica nella storia, a mia memoria, e sicuramente non parlo in senso positivo, bisogna aspettare e vedere se davvero sarà così...
Foglia Morta
14-05-2008, 19:44
Storia già vista, non è una novità.
G73 è a 90nm , G73 B1 a 80nm . Ma sempre sulle 7600 stanno ( OEM o Retail )
appleroof
14-05-2008, 19:47
Se vogliamo R600 e RV670 hanno una storia simile, e viste le pessime rese che hanno avuto sul G92 probabilmente ne hanno da smaltire un bel po' di quelli prodotti a 65nm...
si ma insomma, davavo vita a 2900 e 3870 se capisci cosa intendo...
Storia già vista, non è una novità.
G73 è a 90nm , G73 B1 a 80nm . Ma sempre sulle 7600 stanno ( OEM o Retail )
bè questa è una differenza non da poco intanto, potrebbe essere lo stesso destino delle "9800gt".....
Foglia Morta
14-05-2008, 19:50
Da molto poco, Le specifiche sono identiche.
appleroof
14-05-2008, 20:30
Effettivamente sì, ma anche in quel caso c'era polemica perché era una nuova serie. Alla fine se brandizzano uguale due chip diversi che hanno le medesime prestazioni non mi sembra un problema, era peggio quando il chip l'hanno messo nella serie vecchia con la 8800GT :>
La verità è che non siamo mai contenti :asd:
Potrebbe anche essere scelta questa strada, in effetti, le 65nm agli OEM e le 55nm per il retail, come fa anche AMD con i Triple (B2 agli OEM e B3 per il retail)
bisogna innanzitutto appurare questo, infatti, poi cmq credo che a parità di prestazioni la 55nm consumi cmq meno della sorella 65nm, insomma non mi sembra una cosa tanto lineare, pensa che invece credo molto preferibile la "storia" della 88gt perchè lì non c'era possibilità di sbaglio, dal punto di vista dell'utente (parlo di quello che nemmeno guarda la scatola insomma)
cmq vediamo, sicuramente nei prox giorni/settimane ne sapremo di più anche su questa vicenda...
pierluigi86
14-05-2008, 20:33
ma le 9800gt avranno 112sp o 128sp?
Kharonte85
14-05-2008, 20:48
ma le 9800gt avranno 112sp o 128sp?
"Pare" 128sp ma con frequenze della 8800gt...
HackaB321
14-05-2008, 21:02
Da molto poco, Le specifiche sono identiche.
OT
E la scimmia-topa barbuta? Mi ci ero affezionato...:asd:
Foglia Morta
14-05-2008, 21:22
OT
E la scimmia-topa barbuta? Mi ci ero affezionato...:asd:
il potere coercitivo del forum mi ha tassativamente imposto di censurarla :muro:
E' stata interpretata come immagine porno :cry:
Non penso sarà facile trovare un avatar altrettanto figa :oink:
Marko#88
14-05-2008, 23:20
dove visto che frequentiamo gli stessi negozi imolesi ? :D mediamondo o la cometa?
mediamondo mediamondo...da quando ha aperto la cometa ha dimezzato le vendite...:asd:
La superficie di GT200 dovrebbe essere 575mm^2, secondo uno dei soliti forumisti stranieri beninformati...
http://www.xtremesystems.org/forums/showpost.php?p=2988082&postcount=262
Nvidia ed i 55nm.
Yesterday we reported that NVIDIA company is ready to transfer many graphic products on 55 nm technical process .Currently, the only 55 nm video chip NVIDIA (known) - is the so-called G92b, intended to solve the existing problems with the release level of suitable articles, and also to increase to profitability of those video cards.
Yesterday Associates reported that video card geForce 9500 GT and GeForce 9500 GS are also released on 55 nm g96 revision . Passage to the new technological standards will be gradual, and g96 revision A1 chips will be released on 65 nm technology, revisions B1 and C1 will be already released on 55 nm technical process.
The video cards geForce 9500 GT (D9M-30) will operate at frequencies 550/1600 MHz, and equipped with GDDR- 3 memory. The Video card geForce 9500 GS (D9M-25) will operate at frequencies 550/1000 MHz, and equipped with GDDR-2 memory . In both cases the memory system bus will be 128- bit.
Associate also confirmed recent data about the GT200 chip . The length of printed-circuit board will approach 270 mm - this is as long as in GeForce 8800 Ultra or GeForce 9800 GX2. GT200 can begin within the 65 nm technical process, then it will be updated with the 55 nm chip.
Fonte: Xtreview.com
P.S.:
Piccolissimo OT relativo ad una cosa che dicevo da mesi, e cioè che NVidia su G92 quasi ci perdeva, a differenza di ATI con RV670, e che il lancio di G92 in quel modo e a quel price point era tutt'altro che previsto, anzi, era un modo per evitare danni maggiori (non mi sembra che uno di proposito voglia perdere milioni di dollari di gross margin rispetto alle aspettative di proposito), ma per la quale avevo ricevuto non poche critiche.
Sembra proprio che invece qualcosina di economia ci capisca e che avessi ragione. ;)
Ecco cosa dice il CFO (=capo global della gestione finanziaria) di NVidia, Marv Burkett, in proposito.
The big issue in Nvidia’s (NVDA) results for the fiscal first quarter ended April 27 turned out to be gross margins. As CFO Marv Burkett noted in an interview with Tech Trader Daily this afternoon, gross margin in the quarter came in about 100 basis points below expectations.
Burkett notes that revenue and expenses were right in line with guidance. The margin issue, he says, related to a product transition, as the company ramped down an old graphics process, the G80, and replaced it with a new one, the G92. He noted that there were two issues in that transition. One, the company had built up some inventory of G80s and need to get rid of them, in some cases below cost. And two, the manufacturing yields on the G92 “were not what they wanted them to be.”
http://blogs.barrons.com/techtraderdaily/2008/05/08/nvda-cfo-burkett-sees-margin-rebound-on-mfg-yield/?mod=BOLBlog
(il sito non è affidabile, di più, è quello dell'editore di uno dei dizionari finanziari più famosi del mondo. ;) )
halduemilauno
15-05-2008, 08:06
http://www.tomshw.it/news.php?newsid=13994
nVidia Corporation ha annunciato oggi i risultati finanziari del primo trimestre fiscale 2009, terminato il 27 Aprile 2008. Per il primo trimestre del nuovo anno fiscali gli introiti sono stati 1.15 miliardi di dollari, che se paragonati agli 844,3 milioni del primo trimestre del 2008, portano una crescita del 37%. I proventi netti, calcolati secondo i principi accettati negli Stati Uniti (GAAP), sono invece cresciuti di un 34%.
Il netto non-GAAP proveniente dal primo trimestre, che esclude i compensi basati su stock e le tasse associate è stato invece di 211,8 milioni di dollari.
"La crescita delle GPU continua a superare il mercato PC. Abbiamo spedito un 42% in più di GPU in questo trimestre rispetto allo stesso periodo lo scorso anno, risultando così il nostro quarter fiscale migliore da sempre" ha affermato Jen-Hsun Huang, presidente e CEO di nVidia "Questa è l'era del visual computing. Con qualche centinaia di milioni di GPU GeForce sul mercato gli sviluppatori possono ora creare applicazioni con una grafica degna di nota. Incredibili applicazioni, basate su un forte impatto grafico, stanno nascendo sempre più numerose sul web, aiutando così la diffusione delle GPU. Ci aspettiamo che questo feedback positivo continui a guidare la nostra crescita".
;)
halduemilauno
15-05-2008, 08:13
http://forums.vr-zone.com/showthread.php?t=275861
Tgdaily 14May08
By: Theo Valich
"As it stands right now, NVIDIA has the pole position in a new round of graphics wars.
All eyes are now on NVIDIA: Will NVIDIA create a decent competition for the sub $300 range ?
(55nm G92 is being prepared)"
;)
halduemilauno
15-05-2008, 08:40
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
mircocatta
15-05-2008, 08:50
http://www.tomshw.it/news.php?newsid=13994
nVidia Corporation ha annunciato oggi i risultati finanziari del primo trimestre fiscale 2009, terminato il 27 Aprile 2008.
;)
:read: grande articolo!:ciapet:
mircocatta
15-05-2008, 08:51
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
mamma miaaaaaaaaa:eek:
finalmente crysis a manetta con almeno 50 fps costanti? :D
Skullcrusher
15-05-2008, 08:52
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
:eek:
Non sarebbe per niente male cavoli!!!
HackaB321
15-05-2008, 09:23
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
Due conti a spanne su questi numeri:
1)Abbiamo GT200 che va il 35% in più di una 9800Gx2
2)La 3870x2 va in media un 20% (fonte computerbase) meno della 9800Gx2
3)La 4870, dagli ultimi rumor, andrà come la 3870x2, forse qualcosa di più (quindi sarà sempre un 15-20% più lenta della 9800Gx2)
4)Il crossfire semplice (se cf sarà) apporta in media un vantaggio del 50-60% rispetto alla scheda singola, quindi la 4870x2 andrà un 25%-30% più della 9800Gx2 (precisamente 28% dato che 80*1,6=128)
Quindi preso come esempio la 9800Gx2, GT200 andrà un 35% in più, R700 un 25-30% in più.
Ovviamente sono conti fatti a capocchia e bisognerà vedere le due architetture quanto saranno bilanciate e come andranno gioco per gioco.
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
Si non male ma non mi sembra niente di che, non credo proprio che Crysis andrà poi così tanto meglio, secondo me è proprio il gioco che è troppo avanti o troppo fatto male.
Comunque vedremo come va con le nuove uscite, in primis Far Cry 2. :)
pierluigi86
15-05-2008, 09:58
dagli ultimi rumors anche voi pensate che una 4870x2 sarà superiore alla 9900gtx?
halduemilauno
15-05-2008, 10:32
dagli ultimi rumors anche voi pensate che una 4870x2 sarà superiore alla 9900gtx?
dove sono i rumors che la danno superiore?
HackaB321
15-05-2008, 11:08
dagli ultimi rumors anche voi pensate che una 4870x2 sarà superiore alla 9900gtx?
Dipende da come sarà la 4870x2. In base a quanto sappiamo finora potrebbero essere molto vicine come prestazioni.
pierluigi86
15-05-2008, 11:09
dove sono i rumors che la danno superiore?
Ho controllato i rumors di vrzone e tom's e credo di aver detto una grande boiata.
Come ha già scritto HackaB321 la 4870x2 potrà andare nel migliore dei casi come il gt200.
Si non male ma non mi sembra niente di che, non credo proprio che Crysis andrà poi così tanto meglio, secondo me è proprio il gioco che è troppo avanti o troppo fatto male.
Comunque vedremo come va con le nuove uscite, in primis Far Cry 2. :)
:eek: :eek:
ma se io con una 9800gtx tutto su High faccio la media dei 30fps minimo - rarissimo i 20 ... 28 sino a 40fps e piu'... sono a metà del gioco ( lo sto rigiocando..bello bello). Questo vale anche per il gioco completato l'altra volta.
Quindi... tira le somme
PS
Crysis Fatto male!!!!!????
ancora con sta affermazione... ma ci hai giocato? Hai visto che grafica..quanti poligoni..che effetti....sei in un mondo aperto, vai dove vuoi. In Call of Duty 4 giochi in un percorso... se dovessi sparare un ipotesi.... sei in un rapporto di 10 volte superiore in fatto di calcolo.
con la 7800gtx Call of duty girava quasi egregiamente a 1280x1024 full details
con Crysis ... lasciamo stare come una vecchia TNT.
halduemilauno
15-05-2008, 11:19
Ho controllato i rumors di vrzone e tom's e credo di aver detto una grande boiata.
Come ha già scritto HackaB321 la 4870x2 potrà andare nel migliore dei casi come il gt200.
d'accordo. cmq aspettiamo rece esaustive.
_morghan_1968
15-05-2008, 11:28
d'accordo. cmq aspettiamo rece esaustive.
ciao a tutti...
non basta: siamo realisti...
bisogna aspettare che esce sul mercato...
aspettare che tirino fuori i famosi "" driver maturi ""
aspettare le prove degli utenti finali...
eppoi verificare che dopo circa 2 mesi di uso intensivo... non si
presentino bugs o problemi vari...
- solo allora si potrà prendere seriamente in considerazione
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
Ma scusa, come si fa a capire quanto può andare più della GX2 da quel punteggio, visto che si parla di QX9650 OC? :asd:
Con una 9800GX2 a default ed un QX9650 occato a 3.8GHz (quindi nemmeno più di tanto) si fanno sugli 11200-11300 punti su high al 3DMark Vantage, il che vorrebbe dire un 15-20% in più, in questo caso. Percentuale che scenderebbe nel caso di OC della cpu maggiore. ;)
Senza contare che maggiori punteggi vogliono dire ben poco in termini di prestazioni reali.
Aspettiamo. :)
:read: grande articolo!:ciapet:
Peccato che mentre Tom's HW parla solo delle cose positive i siti finanziari citano la stessa notizia per parlare della perdita di margini dovuta a G92... :asd:
pierluigi86
15-05-2008, 12:05
http://www.hwupgrade.it/news/skvideo/gt200-nuova-gpu-top-di-gamma-per-nvidia_25315.html
Si avvicina il debutto della nuova generazione di schede video NVIDIA destinate al segmento top di gamma, e questo porta alla consueta ondata di informazioni non ufficiali che cercano di fornire quantomeno alcune indicazioni su quelle che saranno le caratteristiche tecniche di questi nuovi prodotti.
Parliamo delle schede video NVIDIA appartenenti alla serie GeForce 9900, nome che contraddistinguerà le soluzioni video basate su GPU indicata attualmente con il nome in codice di GT200. Tra le caratteristiche tecniche evidenziate, ma non ufficialmente confermate da NVIDIA, segnaliamo la presenza di 240 stream processors e 32 ROPs, mentre per il bus memoria la scelta è caduta su un'architettura a 512bit di ampiezza.
Questa informazione potrebbe trovare conferma in queste immagini del PCB di una scheda basata su GPU GT200: evidenziamo infatti come sul PCB siano previsti 8 chip memoria per ciascuno dei due lati, quantitativo che abbinato al bus da 32bit collegato a ciascun chip memoria porta proprio ad avere un'ampiezza di bus di 512bit.
A questo indirizzo sono state pubblicate alcune immagini di quella che dovrebbe essere una reference board NVIDIA basata su GPU GT200. Notiamo come il sistema di raffreddamento occupi due Slot sulla scheda madre e sia stato sviluppato in modo tale da coprire completamente il PCB della scheda madre, con un approccio che riprende quello già visto negli scorsi mesi con le schede video GeForce 9800 GTX.
Altre indiscrezioni indicano per questa nuova soluzione top di gamma di NVIDIA un prezzo indicativo di 499 dollari nel mercato retail nord americano, tasse escluse; si tratta di un livello equiparabile a quello delle precedenti proposte top di gamma di NVIDIA che questa scheda andrà a sostituire. AMD dovrebbe poter avere a disposizione le soluzioni Radeon HD 4870 X2 quale alternativa a questa nuova scheda NVIDIA, ma prima che tutto questo possa concretizzarsi sul mercato bisognerà attendere la fine del mese di Giugno come minimo.
halduemilauno
15-05-2008, 12:05
http://www.hwupgrade.it/news/skvideo/gt200-nuova-gpu-top-di-gamma-per-nvidia_25315.html
Si avvicina il debutto della nuova generazione di schede video NVIDIA destinate al segmento top di gamma, e questo porta alla consueta ondata di informazioni non ufficiali che cercano di fornire quantomeno alcune indicazioni su quelle che saranno le caratteristiche tecniche di questi nuovi prodotti.
Parliamo delle schede video NVIDIA appartenenti alla serie GeForce 9900, nome che contraddistinguerà le soluzioni video basate su GPU indicata attualmente con il nome in codice di GT200. Tra le caratteristiche tecniche evidenziate, ma non ufficialmente confermate da NVIDIA, segnaliamo la presenza di 240 stream processors e 32 ROPs, mentre per il bus memoria la scelta è caduta su un'architettura a 512bit di ampiezza.
Questa informazione potrebbe trovare conferma in queste immagini del PCB di una scheda basata su GPU GT200: evidenziamo infatti come sul PCB siano previsti 8 chip memoria per ciascuno dei due lati, quantitativo che abbinato al bus da 32bit collegato a ciascun chip memoria porta proprio ad avere un'ampiezza di bus di 512bit.
A questo indirizzo sono state pubblicate alcune immagini di quella che dovrebbe essere una reference board NVIDIA basata su GPU GT200. Notiamo come il sistema di raffreddamento occupi due Slot sulla scheda madre e sia stato sviluppato in modo tale da coprire completamente il PCB della scheda madre, con un approccio che riprende quello già visto negli scorsi mesi con le schede video GeForce 9800 GTX.
Altre indiscrezioni indicano per questa nuova soluzione top di gamma di NVIDIA un prezzo indicativo di 499 dollari nel mercato retail nord americano, tasse escluse; si tratta di un livello equiparabile a quello delle precedenti proposte top di gamma di NVIDIA che questa scheda andrà a sostituire. AMD dovrebbe poter avere a disposizione le soluzioni Radeon HD 4870 X2 quale alternativa a questa nuova scheda NVIDIA, ma prima che tutto questo possa concretizzarsi sul mercato bisognerà attendere la fine del mese di Giugno come minimo.
;)
Ovviamente 549€ qua da noi....se va bene....
Cmq non la prenderei mai a quel prezzo meglio aspettare le versioni "light".
halduemilauno
15-05-2008, 12:12
Ovviamente 549€ qua da noi....se va bene....
Cmq non la prenderei mai a quel prezzo meglio aspettare le versioni "light".
la 8800gtx costava una cifra simile e ben di + la 8800 ultra.
Eccomi! :D
Nvidia da come la vedo domina il mercato,Ati puntava molto sulle DX10.1 ma non mi pare abbia fatto niente per incentivare le software house ha buttar fuori dei giochi che le "sfruttino".
Spero per Ati che si dia una bella svegliata,la concorrenza deve esserci! :O
Si sà il giorno di debutto?
pierluigi86
15-05-2008, 13:02
Eccomi! :D
Nvidia da come la vedo domina il mercato,Ati puntava molto sulle DX10.1 ma non mi pare abbia fatto niente per incentivare le software house ha buttar fuori dei giochi che le "sfruttino".
Spero per Ati che si dia una bella svegliata,la concorrenza deve esserci! :O
Si sà il giorno di debutto?
ti riferisci alle schede nvidia o ati?
halduemilauno
15-05-2008, 13:08
Eccomi! :D
Nvidia da come la vedo domina il mercato,Ati puntava molto sulle DX10.1 ma non mi pare abbia fatto niente per incentivare le software house ha buttar fuori dei giochi che le "sfruttino".
Spero per Ati che si dia una bella svegliata,la concorrenza deve esserci! :O
Si sà il giorno di debutto?
la prima ati la 4850 il 18 giugno...
http://www.vr-zone.com/articles/AMD_To_Launch_RV770_On_June_18th/5777.html
:eek: :eek:
ma se io con una 9800gtx tutto su High faccio la media dei 30fps minimo - rarissimo i 20 ... 28 sino a 40fps e piu'... sono a metà del gioco ( lo sto rigiocando..bello bello). Questo vale anche per il gioco completato l'altra volta.
Quindi... tira le somme
PS
Crysis Fatto male!!!!!????
ancora con sta affermazione... ma ci hai giocato? Hai visto che grafica..quanti poligoni..che effetti....sei in un mondo aperto, vai dove vuoi. In Call of Duty 4 giochi in un percorso... se dovessi sparare un ipotesi.... sei in un rapporto di 10 volte superiore in fatto di calcolo.
con la 7800gtx Call of duty girava quasi egregiamente a 1280x1024 full details
con Crysis ... lasciamo stare come una vecchia TNT.
Se l'ho giocato?!?! :eek: L'ho giocato fino a strabuzzare, lo so a memoria! Infatti sono il primo a dire che il gioco è fenomenale sotto l'aspetto tecnico, vediamo le rece con sto GT200 per dare altri giudizi va!
Comunque il mio dubbio sulla nuova scheda è principalmente lo stesso che è ha citato ALM 2 o 3 post dopo il tuo, cioè che con una 9800 GX2 si fa poco meno con un processore con OC minore, bisogna vedere quanto è OC quella cpu ma parte del punteggio è dato proprio da quest'ultima e non mi sembra poi così superiore alla GX2.
Io gioco tutto in Very-High e in alcuni punti scatta comunque anche se ci metti una scheda video atomica, inspiegabilmente perchè non sono luoghi troppo aperti e magari non c'è nemmeno un nemico, però scatta lo stesso mentre magari quando c'è il macello non lo fa, secondo te cos'è questo? Non sono bug del gioco?
Complessivamente comunque lo gioco bene, su XP con i vari fix si gioca molto meglio ovviamente che sul "fantastico" SO Vista, su Vista perdo davvero un bel po' rispetto a XP, altro che SP1 o DX10 o chissà quali ca$$ate. :rolleyes:
Ripeto vediamo i test con GT200.
halduemilauno
15-05-2008, 13:25
http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html
si parla anche del gt200.
;)
halduemilauno
15-05-2008, 13:34
approposito dei 13000 e passa...
http://img.clubic.com/photo/01301666.jpg
E8500 a 3166.
;)
Kharonte85
15-05-2008, 13:36
http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html
Facing a new generation of AMD Radeon HD 4800s, NVIDIA dare not neglect, in the June 18, it will launch brand new GeForce GTX 200 series, high-end graphics card to secure hegemony. The code name once was G100, then was GT200, now officially known as D10U, meaning the 10th generation of the Ultra graphics chip, and the product name is also changed from GeForce 9900 family to GeForce GTX 200 family, which means the second generation of Unified Shader architecture, it will market a new market image.
It's said that, GeForce GTX 200 will be launched with two models, including the GeForce GTX 260 and GeForce GTX 280, but the price, specifications have not yet announced.
;)
:eek: :eek: :eek:
Sarebbe un cambiamento epocale, ma spiegherebbe il perche' del nome GT200 e sarebbe una cosa molto coerente con la volonta' di snellire il marketing e fare piu' chiarezza...anche perche' il nome 9900 sarebbe proprio brutto...:fagiano:
HackaB321
15-05-2008, 13:38
:eek: :eek: :eek:
Sarebbe un cambiamento epocale, ma spiegherebbe il perche' del nome GT200 e sarebbe una cosa molto coerente con la volonta' di snellire il marketing e fare piu' chiarezza...anche perche' il nome 9900 sarebbe proprio brutto...:fagiano:
Ma la sigla GTX a sto punto a che serve?
halduemilauno
15-05-2008, 13:39
:eek: :eek: :eek:
Sarebbe un cambiamento epocale, ma spiegherebbe il perche' del nome GT200 e sarebbe una cosa molto coerente con la volonta' di snellire il marketing e fare piu' chiarezza...anche perche' il nome 9900 sarebbe proprio brutto...:fagiano:
beh anche il nome 9900 non era accio. cmq GTX 260 & GTX 280. in attesa anche della GTX 240.
;)
Marko#88
15-05-2008, 13:57
sembra una bella bestiola, non vedo l'ora di vedere qualcosa di serio..:D
Kharonte85
15-05-2008, 14:02
Ma la sigla GTX a sto punto a che serve?
Boh, forse a sottolineare il fatto che sono schede eXtreme :sofico:
L'importante è che facciano in modo che a numero maggiore corrispondano prestazioni maggiori e viceversa...:)
halduemilauno
15-05-2008, 14:02
Boh, forse a sottolineare il fatto che sono schede eXtreme :sofico:
L'importante è che facciano in modo che a numero maggiore corrispondano prestazioni maggiori e viceversa...:)
esatto...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7306&Itemid=1
;)
ma fatemi capire una cosa dalle ultime indiscrezioni ho capito che g92b non uscira del tutto mentre gt200 uscira a giugno, è possibile ?
Se l'ho giocato?!?! :eek: L'ho giocato fino a strabuzzare, lo so a memoria! Infatti sono il primo a dire che il gioco è fenomenale sotto l'aspetto tecnico, vediamo le rece con sto GT200 per dare altri giudizi va!
Comunque il mio dubbio sulla nuova scheda è principalmente lo stesso che è ha citato ALM 2 o 3 post dopo il tuo, cioè che con una 9800 GX2 si fa poco meno con un processore con OC minore, bisogna vedere quanto è OC quella cpu ma parte del punteggio è dato proprio da quest'ultima e non mi sembra poi così superiore alla GX2.
Io gioco tutto in Very-High e in alcuni punti scatta comunque anche se ci metti una scheda video atomica, inspiegabilmente perchè non sono luoghi troppo aperti e magari non c'è nemmeno un nemico, però scatta lo stesso mentre magari quando c'è il macello non lo fa, secondo te cos'è questo? Non sono bug del gioco?
Complessivamente comunque lo gioco bene, su XP con i vari fix si gioca molto meglio ovviamente che sul "fantastico" SO Vista, su Vista perdo davvero un bel po' rispetto a XP, altro che SP1 o DX10 o chissà quali ca$$ate. :rolleyes:
Ripeto vediamo i test con GT200.
strano...
io ho giocato e sto giocando solo su High in dx9 (xp sp3) e non ho mai riscontrato questi problemi.
Le schede dual pcb non mi hanno mai convinto... per tipo hardware e sopratutto supporto driver = reale efficenza minore rispetto ad una single GPU.
Sono contento della mia Gigabyte 9800GTX e leggendo le specifiche di questa nuova...
ragazzi qui ormai siamo a potenza pura...ovviamente aspettiamo.
Io mi sono spaventato dal salto generazionale ( Crysis come test) tra la mia :cry: valida 7800gtx e questa nuova 9800gtx...
se andiamo avanti cosi'...... ne vedremo delle belle :eek:
Come ha detto qulcuno... speriamo che non si fermino a progetti consolle oriented.. Viva il PC anche se e' molto costoso.
:eek: :eek: :eek:
Sarebbe un cambiamento epocale, ma spiegherebbe il perche' del nome GT200 e sarebbe una cosa molto coerente con la volonta' di snellire il marketing e fare piu' chiarezza...anche perche' il nome 9900 sarebbe proprio brutto...:fagiano:
condivido
Sergio_Di_Rio
15-05-2008, 14:15
http://forums.vr-zone.com/showthread.php?t=275904
Under High preset with QX9650 OC : P13000+
tutto qui non aggiunge altro e non specifica quale gt200 se si riferisce alla gts o alla gtx. unica cosa è/sarebbe un 35% in + della 9800gx2.
;)
approposito dei 13000 e passa...
http://img.clubic.com/photo/01301666.jpg
E8500 a 3166.
;)
Personalmente (IHMO) non ritengo questi risultati commentabili e/o confrontabili data la totale assenza di fonti (su Vr-Zone) ed informazioni sulla configurazione. Ciò lo rende molto probabilmente un fake.
Inoltre, come giustamente viene fatto notare nello stesso thread, i punteggi con impostazioni high dovrebbero essere preceduti da una H e non da una P.
PS= ho visto in questo momento che il post di newzhunter è stato modificato (http://forums.vr-zone.com/showpost.php?p=5297501&postcount=1), ad "high" è stato sostituito "performance". Ciò lo rende ancora meno attendibile..
Ciao.
ma fatemi capire....
perchè continuano a fare bench con CPU in OC... non dovrebbero fare test paragone dove vengono sfruttate le GPU.
sempre con sti cavolo di punteggi e basta....
io me ne sbatto... e mi fido degli apripista qui sul forum... che testano le novità.
Kharonte85
15-05-2008, 14:24
esatto...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7306&Itemid=1
;)
Ottimo...allora è proprio questo l'intento...:D
Direi che è troppo presto per i benchmark credibili...di sicuro c'è pero' che se rispetta le caratteristiche vociferate in questi giorni sara' un mostro...
Kharonte85
15-05-2008, 14:29
ma fatemi capire....
perchè continuano a fare bench con CPU in OC... non dovrebbero fare test paragone dove vengono sfruttate le GPU.
sempre con sti cavolo di punteggi e basta....
io me ne sbatto... e mi fido degli apripista qui sul forum... che testano le novità.
Il 3d mark advantage, a differenza del precedente, rimane comunque abbastanza indipendente dalla CPU utilizzata (i punteggi aumentano poco con cpu piu' potenti, nell'ordine dei 100-200Pt al max 500 in modalità Performance) quindi da questo punto di vista facilita abbastanza i confronti...solo che al momento è troppo presto per sperare in un benchmarck serio e affidabile...
mircocatta
15-05-2008, 15:04
beh anche il nome 9900 non era accio. cmq GTX 260 & GTX 280. in attesa anche della GTX 240.
;)
ma più è basso il numero e meglio è come in ati oppure gtx280 andrà più della gtx260 e 240???
Foglia Morta
15-05-2008, 15:19
ma più è basso il numero e meglio è come in ati oppure gtx280 andrà più della gtx260 e 240???
:confused:
anche per ati il numero più alto sta per schede di livello superiore...
halduemilauno
15-05-2008, 15:21
ma più è basso il numero e meglio è come in ati oppure gtx280 andrà più della gtx260 e 240???
gtx280 è superiore a gtx 260. come ovvio che sia. come in ati.
appleroof
15-05-2008, 15:25
http://www.hwupgrade.it/news/skvideo/gt200-nuova-gpu-top-di-gamma-per-nvidia_25315.html
Si avvicina il debutto della nuova generazione di schede video NVIDIA destinate al segmento top di gamma, e questo porta alla consueta ondata di informazioni non ufficiali che cercano di fornire quantomeno alcune indicazioni su quelle che saranno le caratteristiche tecniche di questi nuovi prodotti.
Parliamo delle schede video NVIDIA appartenenti alla serie GeForce 9900, nome che contraddistinguerà le soluzioni video basate su GPU indicata attualmente con il nome in codice di GT200. Tra le caratteristiche tecniche evidenziate, ma non ufficialmente confermate da NVIDIA, segnaliamo la presenza di 240 stream processors e 32 ROPs, mentre per il bus memoria la scelta è caduta su un'architettura a 512bit di ampiezza.
Questa informazione potrebbe trovare conferma in queste immagini del PCB di una scheda basata su GPU GT200: evidenziamo infatti come sul PCB siano previsti 8 chip memoria per ciascuno dei due lati, quantitativo che abbinato al bus da 32bit collegato a ciascun chip memoria porta proprio ad avere un'ampiezza di bus di 512bit.
A questo indirizzo sono state pubblicate alcune immagini di quella che dovrebbe essere una reference board NVIDIA basata su GPU GT200. Notiamo come il sistema di raffreddamento occupi due Slot sulla scheda madre e sia stato sviluppato in modo tale da coprire completamente il PCB della scheda madre, con un approccio che riprende quello già visto negli scorsi mesi con le schede video GeForce 9800 GTX.
Altre indiscrezioni indicano per questa nuova soluzione top di gamma di NVIDIA un prezzo indicativo di 499 dollari nel mercato retail nord americano, tasse escluse; si tratta di un livello equiparabile a quello delle precedenti proposte top di gamma di NVIDIA che questa scheda andrà a sostituire. AMD dovrebbe poter avere a disposizione le soluzioni Radeon HD 4870 X2 quale alternativa a questa nuova scheda NVIDIA, ma prima che tutto questo possa concretizzarsi sul mercato bisognerà attendere la fine del mese di Giugno come minimo.
;)
:sbav: :sbav: :sbav:
halduemilauno
15-05-2008, 15:30
:sbav: :sbav: :sbav:
GTX280 & GTX260 il 18 giugno.
;)
appleroof
15-05-2008, 15:43
GTX280 & GTX260 il 18 giugno.
;)
:sbav: :sbav: :sbav: e :sbav:
cmq preferivo 9900GTX :D
Alexkidd85
15-05-2008, 15:45
E mi sa che finché non escono i gioconi,sti 500 euro o quelli che saranno,li "sprecherò" per l'iphone :O
Capriccio per capriccio alimento l'altra mia passione :asd:
Sto giro sarebbe da prendere al volo (gt200) però manca la carne al fuoco per sto gran focolaio :(
Avrò l'estate per vedere titoli all'orizzonte e come si comportano le nuove top di gamma delle due aziende ;)
GTX280 & GTX260 il 18 giugno.
;)
Sei sicuro di questa data? La top di gamma sarà GTX280 quindi? :confused:
mircocatta
15-05-2008, 15:52
:confused:
anche per ati il numero più alto sta per schede di livello superiore...
scusate mi riferivo al chip ati...rv700 superiore a rv770..
Sei sicuro di questa data? La top di gamma sarà GTX280 quindi? :confused:
gtx 280 sara single gpu o multi gpu? poi sara con g92b o gt200?
gtx 280 sara single gpu o multi gpu? poi sara con g92b o gt200?
Dovrebbe essere single gpu e GT200 come chip. ;)
halduemilauno
15-05-2008, 16:10
Sei sicuro di questa data? La top di gamma sarà GTX280 quindi? :confused:
quindi cosa? si la top di gamma sarà la GTX280 quella che prima si conosceva come 9900gtx. 18 giugno.
;)
quindi cosa? si la top di gamma sarà la GTX280 quella che prima si conosceva come 9900gtx. 18 giugno.
;)
No la domanda era come dire "Quindi sarà la GTX280 la top di gamma?". ;)
Non c'era un continuo. :D
Ma dal 18 giugno si troverà anche in vendita? :confused:
halduemilauno
15-05-2008, 16:30
No la domanda era come dire "Quindi sarà la GTX280 la top di gamma?". ;)
Non c'era un continuo. :D
Ma dal 18 giugno si troverà anche in vendita? :confused:
nvidia ci ha abituato da anni a presentare schede dalla disponibilità immediata.
;)
appleroof
15-05-2008, 16:31
E mi sa che finché non escono i gioconi,sti 500 euro o quelli che saranno,li "sprecherò" per l'iphone :O
Capriccio per capriccio alimento l'altra mia passione :asd:
Sto giro sarebbe da prendere al volo (gt200) però manca la carne al fuoco per sto gran focolaio :(
Avrò l'estate per vedere titoli all'orizzonte e come si comportano le nuove top di gamma delle due aziende ;)
molto probabilmente anche io a questo giro non comprerò al lancio (ma mai dire mai :D ): la scheda che ho và ancora benissimo (per dire due giochi recentissimi, R6V 2 vola e grid pure, addirittura quest'ultimo con aa8x, ed entrambi a 1920x1200 af16x);)
poi ripeto mai dire mai, c'è sempre la scimmia in agguato :asd: :asd:
DriftKing
15-05-2008, 16:32
nvidia ci ha abituato da anni a presentare schede dalla disponibilità immediata.
;)
nn vedo l'ora :eek: :D
halduemilauno
15-05-2008, 16:34
Il 3d mark advantage, a differenza del precedente, rimane comunque abbastanza indipendente dalla CPU utilizzata (i punteggi aumentano poco con cpu piu' potenti, nell'ordine dei 100-200Pt al max 500 in modalità Performance) quindi da questo punto di vista facilita abbastanza i confronti...solo che al momento è troppo presto per sperare in un benchmarck serio e affidabile...
in attesa di info e confronti alla luce di quanto tu stai dicendo si potrebbe dire ripeto potrebbe dire che in quel bench la GTX280(ammesso che ci si riferisse ad essa)va rispetto alla 9800gx2 ben + del 35% prima da me indicato facendo un pò di tara si starebbe nell'ordine del 50% in + 13000 e spicci vs 8172.
;)
Basandoci su tutte le news possibili ora possiamo fare alcune considerazioni interessanti!
AMD e Nvidia hanno preso due strade diverse per svillupare le sue nuove schede TOP di gamma! Partendo dal fatto che molto sarà dovuto alla capacità di calcolo delle gpu utilizzate da entrambi, 480 shaders per AMD e 240 stream processors per Nvidia, la HD 4870 sarà sviluppata ancora con bus a 256 bit ma con memoria GDDR5 che porterà le frequenze a 3400/3700 MHz, e la GTX 280 (o 9900 GTX) sarà prodotta per la prima volta nella storia di Nvidia con un bus a 512 bit sulla solita memoria GDDR3! Quale sarà la strada migliore?
AMD/ATI dal canto suo ha gia prodotto la X2900 XT con bus a 512 bit e utilizzato anche memorie GDDR4 ma con scarso successo, il tutto dovuto come tutti ormai sanno ai limiti della gpu R600 quindi scarsamente valutabile sul fronte bus memoria! ora punterà gran parte delle prestazioni sulla memoria GDDR5 a noi sconosciuta, avrà ragione o sarà un passo azzardato? Nvidia dal canto suo aveva prodotto le 8800 Ultra/GTX con bus a 384 bit e questa incremento di bus unito alla bontà dei core utilizzati aveva dato buoni risultati! ora con bus portato a 512 bit ci sarà il tanto agognato salto prestazionale dai cosi' tanto spremuti 256 bit?
Il tutto fa sperare che AMD finalmente tiri fuori il coniglio dal cilindro! sperando che la potenza della gpu abbinata alla memoria GDDR5 sprema piu (e qualcos'altro) delle esperienze Nvidia il bus a 256 bit!
Nvidia dal canto suo forte di aver dato tutto sul bus a 256 bit, aver adottato oltresi anche il bus a 384 bit si appresta a fare il salto ai 512 bit la dove AMD/ATI aveva in parte fallito con R600!
GDDR5 o bus a 512 bit! questo é il problema!
Secondo voi AMD con la HD 4870 riuscirà a fare il salto prestazionale rimanendo con il bus a 256 bit? e Nvidia con la GTX 280 (o 9900 GTX) riuscirà a superare prestazionalmente la 9800 GX2?
halduemilauno
15-05-2008, 16:40
Basandoci su tutte le news possibili ora possiamo fare alcune considerazioni interessanti!
AMD e Nvidia hanno preso due strade diverse per svillupare le sue nuove schede TOP di gamma! Partendo dal fatto che molto sarà dovuto alla capacità di calcolo delle gpu utilizzate da entrambi, 480 shaders per AMD e 240 stream processors per Nvidia, la HD 4870 sarà sviluppata ancora con bus a 256 bit ma con memoria GDDR5 che porterà le frequenze a 3400/3700 MHz, e la GTX 280 (o 9900 GTX) sarà prodotta per la prima volta nella storia di Nvidia con un bus a 512 bit sulla solita memoria GDDR3! Quale sarà la strada migliore?
AMD/ATI dal canto suo ha gia prodotto la X2900 XT con bus a 512 bit e utilizzato anche memorie GDDR4 ma con scarso successo, il tutto dovuto come tutti ormai sanno ai limiti della gpu R600 quindi scarsamente valutabile sul fronte bus memoria! ora punterà gran parte delle prestazioni sulla memoria GDDR5 a noi sconosciuta, avrà ragione o sarà un passo azzardato? Nvidia dal canto suo aveva prodotto le 8800 Ultra/GTX con bus a 384 bit e questa incremento di bus unito alla bontà dei core utilizzati aveva dato buoni risultati! ora con bus portato a 512 bit ci sarà il tanto agognato salto prestazionale dai cosi' tanto spremuti 256 bit?
Il tutto fa sperare che AMD finalmente tiri fuori il coniglio dal cilindro! sperando che la potenza della gpu abbinata alla memoria GDDR5 sprema piu (e qualcos'altro) delle esperienze Nvidia il bus a 256 bit!
Nvidia dal canto suo forte di aver dato tutto sul bus a 256 bit, aver adottato oltresi anche il bus a 384 bit si appresta a fare il salto ai 512 bit la dove AMD/ATI aveva in parte fallito con R600!
GDDR5 o bus a 512 bit! questo é il problema!
Secondo voi AMD con la HD 4870 riuscirà a fare il salto prestazionale rimanendo con il bus a 256 bit? e Nvidia con la GTX 280 (o 9900 GTX) riuscirà a superare prestazionalmente la 9800 GX2?
certo che si e ci mancherebbe altro. cmq 3700 con bus a 256 fanno una banda passante inferiore a 2300 con bus a 512.
appleroof
15-05-2008, 16:44
Basandoci su tutte le news possibili ora possiamo fare alcune considerazioni interessanti!
AMD e Nvidia hanno preso due strade diverse per svillupare le sue nuove schede TOP di gamma! Partendo dal fatto che molto sarà dovuto alla capacità di calcolo delle gpu utilizzate da entrambi, 480 shaders per AMD e 240 stream processors per Nvidia, la HD 4870 sarà sviluppata ancora con bus a 256 bit ma con memoria GDDR5 che porterà le frequenze a 3400/3700 MHz, e la GTX 280 (o 9900 GTX) sarà prodotta per la prima volta nella storia di Nvidia con un bus a 512 bit sulla solita memoria GDDR3! Quale sarà la strada migliore?
AMD/ATI dal canto suo ha gia prodotto la X2900 XT con bus a 512 bit e utilizzato anche memorie GDDR4 ma con scarso successo, il tutto dovuto come tutti ormai sanno ai limiti della gpu R600 quindi scarsamente valutabile sul fronte bus memoria! ora punterà gran parte delle prestazioni sulla memoria GDDR5 a noi sconosciuta, avrà ragione o sarà un passo azzardato? Nvidia dal canto suo aveva prodotto le 8800 Ultra/GTX con bus a 384 bit e questa incremento di bus unito alla bontà dei core utilizzati aveva dato buoni risultati! ora con bus portato a 512 bit ci sarà il tanto agognato salto prestazionale dai cosi' tanto spremuti 256 bit?
Il tutto fa sperare che AMD finalmente tiri fuori il coniglio dal cilindro! sperando che la potenza della gpu abbinata alla memoria GDDR5 sprema piu (e qualcos'altro) delle esperienze Nvidia il bus a 256 bit!
Nvidia dal canto suo forte di aver dato tutto sul bus a 256 bit, aver adottato oltresi anche il bus a 384 bit si appresta a fare il salto ai 512 bit la dove AMD/ATI aveva in parte fallito con R600!
GDDR5 o bus a 512 bit! questo é il problema!
Secondo voi AMD con la HD 4870 riuscirà a fare il salto prestazionale rimanendo con il bus a 256 bit? e Nvidia con la GTX 280 (o 9900 GTX) riuscirà a superare prestazionalmente la 9800 GX2?
mi aggiungo ad Hal: stando ai "si dice" (sempre più insistenti ormai) la GTx 280 dovrebbe avanzarla con notevole margine (:eek: )
halduemilauno
15-05-2008, 16:47
mi aggiungo ad Hal: stando ai "si dice" (sempre più insistenti ormai) la GTx 280 dovrebbe avanzarla con notevole margine (:eek: )
ma con le debite proporzioni anche la GTX260.
;)
Ma siamo proprio sicuri di vederla a giugno?
Cavolo potrebbero dare un comunicato ufficiale.
Pensate che potrei finalmente prendermi in tutta tranquillità un 22"? :confused:
Skullcrusher
15-05-2008, 16:53
Strano nome, GTX280/260....ma per quanto mi riguarda potevano anche chiamarla "pippo", se la sostanza è quella che è trapelata dai rumors, se ne vedranno delle belle :D
Mi sembra strano però che Nvidia faccia uscira la GTX280 già a metà giugno, mi pare un po' presto rispetto al luglio/agosto che avevo sempre sentito....comunque sia quel che sia, noi l'aspettiamo con ansia :sofico:
halduemilauno
15-05-2008, 16:54
Ma siamo proprio sicuri di vederla a giugno?
Cavolo potrebbero dare un comunicato ufficiale.
Pensate che potrei finalmente prendermi in tutta tranquillità un 22"? :confused:
si potrebbe dire che è pure ora che te lo fai visto la scheda che gia possiedi. cmq il 23 maggio c'è l'incontro con la stampa specializzata...
;)
appleroof
15-05-2008, 16:56
ma con le debite proporzioni anche la GTX260.
;)
non ho parole, se fosse così sarebbe strabiliante
Strano nome, GTX280/260....ma per quanto mi riguarda potevano anche chiamarla "pippo", se la sostanza è quella che è trapelata dai rumors, se ne vedranno delle belle :D
Mi sembra strano però che Nvidia faccia uscira la GTX280 già a metà giugno, mi pare un po' presto rispetto al luglio/agosto che avevo sempre sentito....comunque sia quel che sia, noi l'aspettiamo con ansia :sofico:
potrebbe darsi esca prima con la GTX260 e più in là (r700) con la 280....
sinceramente ragazzi non seguendo in modo serrato in questo periodo, nn ci capisco più un tubo con queste uscite, modelli e sigle.
Temo che a questo giro vedrò direttamente le rece, sia di GT200 che di R700.
In sostanza:
4870 vs GTX 260 ( chissà che spec avrà)
4870X2 vs GTX 280
Potete aggiornarmi sulla 9800GT?
gpu G92b, forse 55nm, frequenze della 8800GT o superiori, 256MB e 512MB, 128 stream processors, raffreddamento a 2 slot, pcb della 9800GTX (lungo) o della 8800 GTS 512MB? lancio previsto?
In sostanza:
4870 vs GTX 260 ( chissà che spec avrà)
4870X2 vs GTX 280
Si credo anch'io che il confronto giusto sia questo! aggiungendo la 9800GT vs HD4850 GDDR3!
Quel che so é che la GTX260 dovrebbe avere quasi sicuramente gpu a 55nm e 896MB con il bus a 448 bit, poi dovrebbe avere 192 Stream processors e frequenze inferiori ai 650/2360-1625 per core/memoria-stream p.!
correggetemi se sbaglio ;)
HackaB321
15-05-2008, 17:53
In sostanza:
4870 vs GTX 260 ( chissà che spec avrà)
4870X2 vs GTX 280
Se parli di prestazioni fosse vera la prima sarebbe un bel risultato per la 4870.
Però considera che il crossfire (specie se avrà memoria condivisa e/o altre ottimizzazioni) dovrebbe portare un boost di un 60% medio rispetto alla scheda singola. Dubito però che tra la 260 e la 280 ci sia così tanto. Quindi se è vera la prima avremo una 4870x2>280. A me sembra più probabile una cosa del genere:
4870<=9900Gx2<=260
280=4870x2
Si credo anch'io che il confronto giusto sia questo! aggiungendo la 9800GT vs HD4850 GDDR3!
Quel che so é che la GTX260 dovrebbe avere quasi sicuramente gpu a 55nm e 896MB con il bus a 448 bit, poi da news dovrebbe avere 192 Stream processors e frequenze inferiori ai 650/2360-1625 per core/memoria-stream p.!
correggetemi se sbaglio ;)
RICAPITOLANDO
NOME CHIP €
GTX280 G200 >500
GTX260 G200 350
9800GT G92B(55NM) =<200
9800GT G92(65NM) =<200
9600GT G96 110
RICAPITOLANDO
NOME CHIP €
GTX280 G200 >500
GTX260 G200 350
9800GT G92B(55NM) =<200
9800GT G92(65NM) =<200
9600GT G96 110
grazie per il riassunto :)
marco7773
15-05-2008, 18:06
Ma quindi Nvidia farà uscire ben 5 schedozzole? E Ati?
mircocatta
15-05-2008, 18:07
RICAPITOLANDO
NOME CHIP €
GTX280 G200 >500
GTX260 G200 350
9800gtx G92 210
9800GT G92B(55NM) =<200
9800GT G92(65NM) =<200
9600GT G96 110
corretto ;)
Se parli di prestazioni fosse vera la prima sarebbe un bel risultato per la 4870.
Però considera che il crossfire (specie se avrà memoria condivisa e/o altre ottimizzazioni) dovrebbe portare un boost di un 60% medio rispetto alla scheda singola. Dubito però che tra la 260 e la 280 ci sia così tanto. Quindi se è vera la prima avremo una 4870x2>280. A me sembra più probabile una cosa del genere:
4870<=9900Gx2<=260
280=4870x2
Dipende tutto dalle specifiche della GTX 260. Aspettiamo ulteriori informazioni. :)
marco7773
15-05-2008, 18:14
A questo punto noi possessori di pc da mille è una notte con l'uscita di ste schedone spero solo di non dover cambiare altri componenti per adattarle al meglio...(Ali,Ram.Dissi...)
Il prezzo della GTX 280 dovrebbe essere di 499 dollari quindo spero al massimo di 450 Euro!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7286&Itemid=1
A questo punto noi possessori di pc da mille è una notte con l'uscita di ste schedone spero solo di non dover cambiare altri componenti per adattarle al meglio...(Ali,Ram.Dissi...)
con un ali da 750 watt SPERO che non ci sia bisogno di cambiare cacchio :D
e spero anche che con due linee da 22A il mio regga.. altrimenti è follia :D
Kharonte85
15-05-2008, 18:29
in attesa di info e confronti alla luce di quanto tu stai dicendo si potrebbe dire ripeto potrebbe dire che in quel bench la GTX280(ammesso che ci si riferisse ad essa)va rispetto alla 9800gx2 ben + del 35% prima da me indicato facendo un pò di tara si starebbe nell'ordine del 50% in + 13000 e spicci vs 8172.
;)
Ammesso che siano affidabili perche' io ne dubito...
Basandoci su tutte le news possibili ora possiamo fare alcune considerazioni interessanti!
AMD e Nvidia hanno preso due strade diverse per svillupare le sue nuove schede TOP di gamma! Partendo dal fatto che molto sarà dovuto alla capacità di calcolo delle gpu utilizzate da entrambi, 480 shaders per AMD e 240 stream processors per Nvidia, la HD 4870 sarà sviluppata ancora con bus a 256 bit ma con memoria GDDR5 che porterà le frequenze a 3400/3700 MHz, e la GTX 280 (o 9900 GTX) sarà prodotta per la prima volta nella storia di Nvidia con un bus a 512 bit sulla solita memoria GDDR3! Quale sarà la strada migliore?
AMD/ATI dal canto suo ha gia prodotto la X2900 XT con bus a 512 bit e utilizzato anche memorie GDDR4 ma con scarso successo, il tutto dovuto come tutti ormai sanno ai limiti della gpu R600 quindi scarsamente valutabile sul fronte bus memoria! ora punterà gran parte delle prestazioni sulla memoria GDDR5 a noi sconosciuta, avrà ragione o sarà un passo azzardato? Nvidia dal canto suo aveva prodotto le 8800 Ultra/GTX con bus a 384 bit e questa incremento di bus unito alla bontà dei core utilizzati aveva dato buoni risultati! ora con bus portato a 512 bit ci sarà il tanto agognato salto prestazionale dai cosi' tanto spremuti 256 bit?
Il tutto fa sperare che AMD finalmente tiri fuori il coniglio dal cilindro! sperando che la potenza della gpu abbinata alla memoria GDDR5 sprema piu (e qualcos'altro) delle esperienze Nvidia il bus a 256 bit!
Nvidia dal canto suo forte di aver dato tutto sul bus a 256 bit, aver adottato oltresi anche il bus a 384 bit si appresta a fare il salto ai 512 bit la dove AMD/ATI aveva in parte fallito con R600!
GDDR5 o bus a 512 bit! questo é il problema!
Secondo voi AMD con la HD 4870 riuscirà a fare il salto prestazionale rimanendo con il bus a 256 bit? e Nvidia con la GTX 280 (o 9900 GTX) riuscirà a superare prestazionalmente la 9800 GX2?
Infatti, hanno preso strade diverse, vediamo chi avra' ragione alla lunga...
Sulle domande io penso che l'HD4870 sara' una buona scheda (ma onestamente non credo che sorpassera' la X2) e uguale penso di GTX 280 riferendosi alla gx2
mi aggiungo ad Hal: stando ai "si dice" (sempre più insistenti ormai) la GTx 280 dovrebbe avanzarla con notevole margine (:eek: )
Io non credo che ci siano i margini per vedere una cosa del genere (come invece avvenne per la 7950gx2 VS 8800GTX) del resto l'architettura è la solita, è solo "potenziata"...anche se ammetto la possibilita' che cio' possa accadere, rimango abbastanza scettico; credo di piu' nel "pareggio" :D
sinceramente ragazzi non seguendo in modo serrato in questo periodo, nn ci capisco più un tubo con queste uscite, modelli e sigle.
Temo che a questo giro vedrò direttamente le rece, sia di GT200 che di R700.
E' molto piu' facile di quello che sembra...
halduemilauno
15-05-2008, 18:34
http://www.tomshw.it/news.php?newsid=14049
Dalle voci precedenti sulle schede GeForce 9900 di nVidia, di acqua sotto i ponti n'è passata. Oggi non si parla più di 192 stream processors, bensì di non meno di 240 unità, 32 ROPs, 1 GB di memoria GDDR3 e un'interfaccia a 512 bit. Specifiche davvero promettenti, ma che al momento non possiamo confermare. In rete, tra le altre cose, circola anche un'immagine di quella che sarebbe una scheda 9900 GTX. Anche in questo caso, non abbiamo la sicurezza della sua autenticità.
A prima vista il sistema di raffreddamento dual-slot non differisce da quello già implementato nelle soluzioni standard 8800 GTS 512 MB o 9800 GTX.
;)
appleroof
15-05-2008, 18:35
cut
Io non credo che ci siano i margini per vedere una cosa del genere (come invece avvenne per la 7950gx2 VS 8800GTX) del resto l'architettura è la solita, è solo "potenziata"...anche se ammetto la possibilita' che cio' possa accadere, rimango abbastanza scettico; credo di piu' nel "pareggio" :D
cut
si certo anche io non mi aspetto una situazione tipo 7950gx2/8800gtx, ma se consideri la mancanza totale dei colli di bottiglia che affliggono le dual gpu, direi che un +30-40% della 280 rispetto alla GX2 ci può stare, e se così fosse lo considererei un eccellente risultato :)
cmq a differenza tua non credo proprio al pareggio, credo che gt200 per le ragioni dette andrà cmq meglio, di quanto staremo a vedere :D
è mia al lancio.
e anche mia :D
(vedere firma!)
halduemilauno
15-05-2008, 18:36
Ammesso che siano affidabili perche' io ne dubito...
Infatti, hanno preso strade diverse, vediamo chi avra' ragione alla lunga...
Sulle domande io penso che l'HD4870 sara' una buona scheda (ma onestamente non credo che sorpassera' la X2) e uguale penso di GTX 280 riferendosi alla gx2
Io non credo che ci siano i margini per vedere una cosa del genere (come invece avvenne per la 7950gx2 VS 8800GTX) del resto l'architettura è la solita, è solo "potenziata"...anche se ammetto la possibilita' che cio' possa accadere, rimango abbastanza scettico; credo di piu' nel "pareggio" :D
E' molto piu' facile di quello che sembra...
e ti pare che nvidia tira fuori una scheda da 100 e passa € più costosa che va al massimo pari????
non scherziamo.
;)
E' molto piu' facile di quello che sembra...
dipende da chi leggo :p
non ho seguito abbastanza per avere un mia idea...... :fagiano:
appleroof
15-05-2008, 18:43
dipende da chi leggo :p
non ho seguito abbastanza per avere un mia idea...... :fagiano:
vorresti cambiare la GTS? :D
Il prezzo della GTX 280 dovrebbe essere di 499 dollari quindo spero al massimo di 450 Euro!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7286&Itemid=1
Si certo, sei ancora convinto che il cambio Euro-Dollaro sia reale?
Tu pensi di pagare una scheda da $ 499 (credo proprio che saranno $ 599) € 450 in Italia. Come minimo se il prezzo è di 499 qui in italia la paghi 500 se non peggio. ;)
e ti pare che nvidia tira fuori una scheda da 100 e passa € più costosa che va al massimo pari????
non scherziamo.
;)
Beh a dire la verità anch'io ho un po' i timori di Kharonte. :(
vorresti cambiare la GTS? :D
se le nuove fossero davvero un salto in avanti magari si, il fatto è che non sapendo come vanno non ti so dire. Magari con G200/R700 anche Vista per giocare ce la fa :asd:
appleroof
15-05-2008, 18:50
se le nuove fossero davvero un salto in avanti magari si, il fatto è che non sapendo come vanno non ti so dire. Magari con G200/R700 anche Vista per giocare ce la fa :asd:
per avere le prestazioni vere occorre aspettare (ovviamente :asd: :asd: :asd: ) ma pare che la scheda rulli alla grande (parlo di g200), ci stà che vada quasi il doppio della mia :eek:
su r700 non c'è ancora nulla in giro (a parte che al 99% sarà di nuovo una dual gpu con 2 rv770 ma con alcune innovazioni interessanti rispetto a 3870x2), ma rv770 pare vada almeno il 50% in più di rv670 e sia + o - al livello della 9800gtx, ovviamente rumors
io come dicevo prima, scimmia permettendo, non ho una reale necessità di cambiare, magari se resisto aspetto l'autunno, questa sarebbe l'intenzione...
per avere le prestazioni vere occorre aspettare (ovviamente :asd: :asd: :asd: ) ma pare che la scheda rulli alla grande (parlo di g200)
su r700 non c'è ancora nulla in giro (a parte che al 99% sarà di nuovo una dual gpu con 2 rv770 ma con alcune innovazioni interessanti rispetto a 3870x2), ma rv770 pare vada almeno il 50% in più di rv670 e sia + o - al livello della 9800gtx, ovviamente rumors
io come dicevo prima, scimmia permettendo, non ho una reale necessità di cambiare, magari se resisto aspetto l'autunno, questa sarebbe l'intenzione...
idem, anche per questo seguo di rimbalzo :D
appleroof
15-05-2008, 18:54
idem, anche per questo seguo di rimbalzo :D
mi sà che è emglio che stacco la connessione per un tre/quattro mesi e accenda il pc solo per giocare e il resto.......:sofico: :D
nico88desmo
15-05-2008, 18:55
Ma questo chip sarà a 65nm o 55nm?
Ma questo chip sarà a 65nm o 55nm?
secondo i rumors, 65nm
per avere le prestazioni vere occorre aspettare (ovviamente :asd: :asd: :asd: ) ma pare che la scheda rulli alla grande (parlo di g200), ci stà che vada quasi il doppio della mia :eek:
su r700 non c'è ancora nulla in giro (a parte che al 99% sarà di nuovo una dual gpu con 2 rv770 ma con alcune innovazioni interessanti rispetto a 3870x2), ma rv770 pare vada almeno il 50% in più di rv670 e sia + o - al livello della 9800gtx, ovviamente rumors
io come dicevo prima, scimmia permettendo, non ho una reale necessità di cambiare, magari se resisto aspetto l'autunno, questa sarebbe l'intenzione...
r700 sarà probabilmente un dual gpu con memoria condivisa fra le due gpu, non "staccata", come nell' attuale 3870x2, e imho penso che vada realmente un 80-85 percento in piu di rv670 ... forse anche 90 ^^
comunque se si applicasse bene il cambio dollaro-euro quella scheda (gtx280) dovremo comprarla a 350 euro, ed allora si che sarebbe appetibile anche a me :Perfido:
tanto io vado a new york quest estate ... :Perfido: :asd:
halduemilauno
15-05-2008, 19:00
Beh a dire la verità anch'io ho un po' i timori di Kharonte. :(
cioè GTX280 aka 9900gtx uguale alla 9800gx2?????
scusate lo ripeto ma con quale logica nvidia va a rilasciare una scheda che si preannuncia + costosa di almeno 100€ che non si schioda dalla precedente. ditemi voi.
:boh:
tanto io vado a new york quest estate ... :Perfido: :asd:
....e fu così che pagò 200 euro sgamato dalla polizia doganale :asd:
appleroof
15-05-2008, 19:03
r700 sarà probabilmente un dual gpu con memoria condivisa fra le due gpu, non "staccata", come nell' attuale 3870x2, e imho penso che vada realmente un 80-85 percento in piu di rv670 ... forse anche 90 ^^
sono d'accordo, diciamo così (stando ai rumors): rv770 dovrebbe andare un 50% in più di rv670, quindi r700 dovrebbe quasi il doppio di rv670, ovviamente per farci un'idea
comunque se si applicasse bene il cambio dollaro-euro quella scheda (gtx280) dovremo comprarla a 350 euro, ed allora si che sarebbe appetibile anche a me :Perfido:
tanto io vado a new york quest estate ... :Perfido: :asd:
porta una valigia grande che entri pure il mio "regalino" :D :D :D
....e fu così che pagò 200 euro sgamato dalla polizia doganale :asd:
cacchio 200 euro nooo :asd: facciamo 100 :asd:
mi sà che è emglio che stacco la connessione per un tre/quattro mesi e accenda il pc solo per giocare e il resto.......:sofico: :D
:asd: :asd:
cioè GTX280 aka 9900gtx uguale alla 9800gx2?????
scusate lo ripeto ma con quale logica nvidia va a rilasciare una scheda che si preannuncia + costosa di almeno 100€ che non si schioda dalla precedente. ditemi voi.
:boh:
in effetti non avrebbe senso.
sono d'accordo, diciamo così (stando ai rumors): rv770 dovrebbe andare un 50% in più di rv670, quindi r700 dovrebbe quasi il doppio di rv670, ovviamente per farci un'idea
porta una valigia grande che entri pure il mio "regalino" :D :D :D
ti porterò una bella 2600xt ;)
cioè GTX280 aka 9900gtx uguale alla 9800gx2?????
scusate lo ripeto ma con quale logica nvidia va a rilasciare una scheda che si preannuncia + costosa di almeno 100€ che non si schioda dalla precedente. ditemi voi.
:boh:
Beh anch'io non penso che lo faccia ma ultimamente sta creando un casino assurdo oltre a decine di schede tra le quali non cambia praticamente nulla. :rolleyes:
appleroof
15-05-2008, 19:09
ti porterò una bella 2600xt ;)
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
ovviamente peak :asd:
sto gia tramando per svaligiare un negozio :asd:
appleroof
15-05-2008, 19:12
ovviamente peak :asd:
sto gia tramando per svaligiare un negozio :asd:
sei un amico :D :D
:asd: :asd:
halduemilauno
15-05-2008, 19:14
Beh anch'io non penso che lo faccia ma ultimamente sta creando un casino assurdo oltre a decine di schede tra le quali non cambia praticamente nulla. :rolleyes:
e io manco sto casino(addirittura assurdo)vedo. c'è una linearità nelle sue azioni di una semplicità evidente. basta semplicemente ragionare e riflettere. certo se si è prevenuti e in malafede...
ciao.
;)
-noxius-
15-05-2008, 19:16
ovviamente peak :asd:
sto gia tramando per svaligiare un negozio :asd:
Prendigli la versione OC di fabbrica con GDDR4 ed 1 gb di ram ! Del tipo che apre la scatola e prova crysis , mi immagino già come possa volare una scheda del genere , ma dalla finestra adiacente :ciapet: ..
Certo 450 euro per una vga :rolleyes: ... mi sa tanto che O 9900GTS Oppure mi tengo quella che ho adesso e tanti saluti ..
Kharonte85
15-05-2008, 19:22
e ti pare che nvidia tira fuori una scheda da 100 e passa € più costosa che va al massimo pari????
non scherziamo.
;)
In effetti non avevo notato il calo di prezzo della Gx2...:fagiano:
Comunque staremo a vedere...
sei un amico :D :D
:asd: :asd:
azzarderei fratello :asd:
p.s. fine ot :)
halduemilauno
15-05-2008, 19:28
In effetti non avevo notato il calo di prezzo della Gx2...:fagiano:
Comunque staremo a vedere...
il mio tono era scherzoso sia chiaro.
;)
appleroof
15-05-2008, 19:32
azzarderei fratello :asd:
p.s. fine ot :)
:D ;)
e ti pare che nvidia tira fuori una scheda da 100 e passa € più costosa che va al massimo pari????
non scherziamo.
;)
8800GTX vs 8800Ultra non ti ricorda nulla?
e anche se lo facesse, non sarebbe nulla di strano, bisognerebbe valutare su quale delle due schede ha margini di guadagno migliori.
bYeZ!
appleroof
15-05-2008, 19:41
8800GTX vs 8800Ultra non ti ricorda nulla?
e anche se lo facesse, non sarebbe nulla di strano, bisognerebbe valutare su quale delle due schede ha margini di guadagno migliori.
bYeZ!
ma può mai una scheda dual con 128sp x2, 256bit x2, 512mbvram, tmu x2 rop's x2 ecc andare meglio di una che racchiude in sè quelle cose (aspettando conferme def.) , quindi senza i colli di bottiglia della prima?
8800ultra inoltre andava meglio della 8800gtx, sia pur di poco, quindi onestamente il tuo paragone non regge...:boh:
ma può mai una scheda dual con 128sp x2, 256bit x2, 512mbvram, tmu x2 rop's x2 ecc andare meglio di una che racchiude in sè quelle cose (aspettando conferme def.) , quindi senza i colli di bottiglia della prima?
8800ultra inoltre andava meglio della 8800gtx, sia pur di poco, quindi onestamente il tuo paragone non regge...:boh:
il paragone regge eccome perchè la Ultra andava POCHISSIMO meglio della GTX per la bellezza di 100 euro in più come minimo. E l'efficienza del crossbar a 512bit è tutta da dimostrare. E dalle recensioni che ho visto finora, la 9800GX2 ha un efficienza spaventosa (direi superiore all'85%) rispetto ad un singolo G92..
bYeZ!
halduemilauno
15-05-2008, 19:49
8800GTX vs 8800Ultra non ti ricorda nulla?
e anche se lo facesse, non sarebbe nulla di strano, bisognerebbe valutare su quale delle due schede ha margini di guadagno migliori.
bYeZ!
ma li la situazione era ben diversa nvidia fu costretta a far uscire quella ultra in quella maniera per la totale inconsistenza delle proposte ati. o per carità mi vuoi dire che anche in questo caso ati...
appleroof
15-05-2008, 19:51
il paragone regge eccome perchè la Ultra andava POCHISSIMO meglio della GTX per la bellezza di 100 euro in più come minimo. E l'efficienza del crossbar a 512bit è tutta da dimostrare. E dalle recensioni che ho visto finora, la 9800GX2 ha un efficienza spaventosa (direi superiore all'85%) rispetto ad un singolo G92..
bYeZ!
va bene, ma Hal rispondeva al dubbio avanzato che la GTX280 andasse meno della GX2 pur costando di più, ecco che il paragone 88ultra/gtx non regge (ma leggerli tutti i post più recenti no, eh?)
quanto alle prestazioni della scheda io aspetto e parlo quando vedo, ovvio che tu puoi avanzare dubbi per carità, legittimissimi, ma io sono convinto che andrà meglio della GX2, di quanto ovviamente non posso saperlo
magari ci ritroviamo a scheda presentata per discuterne :D ;)
Kharonte85
15-05-2008, 19:54
ma può mai una scheda dual con 128sp x2, 256bit x2, 512mbvram, tmu x2 rop's x2 ecc andare meglio di una che racchiude in sè quelle cose (aspettando conferme def.) , quindi senza i colli di bottiglia della prima?
Se fosse davvero cosi' no, mantenendo pero' la stessa efficienza architetturale, infatti essendo un pessimista cronico pensavo al pareggio :asd:, ma visto il prezzo a cui è scesa la gx2 (e non lo sapevo davvero) sto cominciando a nutrire dei dubbi...in pratica mi dissocio da me stesso :sofico:
e io manco sto casino(addirittura assurdo)vedo. c'è una linearità nelle sue azioni di una semplicità evidente. basta semplicemente ragionare e riflettere. certo se si è prevenuti e in malafede...
ciao.
;)
Se fossi prevenuto non comprerei Nvidia, ora direi che la situazione è abbastanza chiara e semplice, ma c'è stato un periodo in cui si capiva poco o niente e non sono stato l'unico a pensarlo, tutto sommato sono sempre riuscito a districarmi, ma si fa anche per parlare no? :)
Comunque spero vivamente che esca così presto e ancor di più spero che sia molto più potente della GX2, infine non mi dispiacerebbe anche un bel cambio di sigla per i nomi, queste cominciavano un po' a stancare, almeno a me.
Personalmente non credo proprio che GTX280 vada come una 9800gx2...
se non altro xkè nVidia non può più rimandare il salto prestazionale con "refresh" vari,
e anche perchè altrimenti i modelli inferiori (240-260) che razza di collocazione potrebbero avere in considerazione del loro prezzo e in considerazione (quindi) della loro pura e semplice "velocità" rispetto @ 9800gtx\8800gts512.
Lo spero. :D
e anche perchè altrimenti i modelli inferiori (240-260) che razza di collocazione potrebbero avere in considerazione del loro prezzo e in considerazione (quindi) della loro pura e semplice "velocità" rispetto @ 9800gtx\8800gts512.
d'accordissimo sul secondo punto. se tutti gli ultimi rumors fossero veri, compresi i prezzi di lancio, la situazione penso proprio sarà questa:
GTX280
GX2
GTX260
GTX
appleroof
15-05-2008, 20:21
Se fosse davvero cosi' no, mantenendo pero' la stessa efficienza architetturale, infatti essendo un pessimista cronico pensavo al pareggio :asd:, ma visto il prezzo a cui è scesa la gx2 (e non lo sapevo davvero) sto cominciando a nutrire dei dubbi...in pratica mi dissocio da me stesso :sofico:
non c'è dubbio che non lo sapevi, almeno per me ;)
cmq un pareggio secondo me non spiegherebbe i prezzi prospettati (è vero che al cambio di 1.5 ad un prezzo di $499 dovrebbe costare 400€ iva inclusa la GTX280...)
scusate ma il nome sarà questo: GTX280? non si procede con le 9900 o le 10xxx?
appleroof
15-05-2008, 20:24
scusate ma il nome sarà questo: GTX280? non si procede con le 9900 o le 10xxx?
così pare...
in estate vorrei cambiare la 9200LE e rifarmi il pc... chissà se mi capiterà una di queste :rolleyes:
vedo che avete tutte schede economiche qua dentro :D
quasi mi vergogno :D
in estate vorrei cambiare la 9200LE e rifarmi il pc... chissà se mi capiterà una di queste :rolleyes:
vedo che avete tutte schede economiche qua dentro :D
quasi mi vergogno :D
Anch'io ho avuto una 9200. :D
io son 4 anni che ce l'ho, mai avuto una scheda decente in vita mia...
[/OT]
HackaB321
15-05-2008, 20:54
ma li la situazione era ben diversa nvidia fu costretta a far uscire quella ultra in quella maniera per la totale inconsistenza delle proposte ati. o per carità mi vuoi dire che anche in questo caso ati...
Ma scusa Hal è da un anno che ci stressi i maroni (lo dico in senso scherzoso non ti offendere:D ) dicendo che Nvidia rilascia schede fotocopia per assenza di concorrenza, e adesso si viene a scoprire che fu proprio l'assenza di concorrenza a spingere Nvidia a rilanciare su se stessa facendo uscire la Ultra....in pratica qualsiasi cosa fa Nvidia è sempre colpa di ATi..:asd:
halduemilauno
15-05-2008, 20:58
Se fossi prevenuto non comprerei Nvidia, ora direi che la situazione è abbastanza chiara e semplice, ma c'è stato un periodo in cui si capiva poco o niente e non sono stato l'unico a pensarlo, tutto sommato sono sempre riuscito a districarmi, ma si fa anche per parlare no? :)
Comunque spero vivamente che esca così presto e ancor di più spero che sia molto più potente della GX2, infine non mi dispiacerebbe anche un bel cambio di sigla per i nomi, queste cominciavano un po' a stancare, almeno a me.
quando parlavo di prevenuti e in malafede è ovvio che mi riferissi ai soliti noti. certo si ci sono molti in buonafede che magari hanno avuto difficoltà nel capire.
;)
halduemilauno
15-05-2008, 20:59
Ma scusa Hal è da un anno che ci stressi i maroni (lo dico in senso scherzoso non ti offendere:D ) dicendo che Nvidia rilascia schede fotocopia per assenza di concorrenza, e adesso si viene a scoprire che fu proprio l'assenza di concorrenza a spingere Nvidia a rilanciare su se stessa facendo uscire la Ultra....in pratica qualsiasi cosa fa Nvidia è sempre colpa di ATi..:asd:
aveva firmato i contratti con i suoi partner produttivi per una nuova scheda. fu per onorare qual contratto. altrimenti la 8800ultra non l'avremmo mai vista. detto un paio di 100 volte.
ps stresso di + le rosse.
ragazzi, posto qui al volo, ho due notizie sulla 9900 da tom's hardware:
240 stream processors
32 ROPs
1 GB di memoria GDDR3
interfaccia a 512 bit.
http://www.tomshw.it/articles/20080515/geforce-9900-gtx-gt200_c.jpg
pare che queste immagini non siano ufficiali, quindi potrebbero essere delle belle scatole di cartone colorate..
il link alla pagina è
http://www.tomshw.it/news.php?newsid=14049
[/CUT]
Grazie delle info, ma se ne parlava già giorni fa :D
-noxius-
15-05-2008, 21:33
http://hkepc.com/?id=1165&fs=c1h
HackaB321
15-05-2008, 21:36
aveva firmato i contratti con i suoi partner produttivi per una nuova scheda. fu per onorare qual contratto. altrimenti la 8800ultra non l'avremmo mai vista. detto un paio di 100 volte.
ps stresso di + le rosse.
Scusa ma ogni tanto li salto i tuoi commenti, questo mi deve essere sfuggito.
Riassumendo G92 c'è stato per colpa di ATi e prima la Ultra per colpa di ATi...GT200 lo avremo quindi così potente solo perchè la 4870x2 sarà molto competitiva o hanno già firmato contratti anche stavolta?
Non può essere invece che una top di gamma viene venduta agli enthusiast comunque e, dato che Nvidia non brilla per margini di guadagno, le convenga rilanciare quando possibile? Per me è stato più un affare la Ultra per Nvidia della 8800Gt....
http://hkepc.com/?id=1165&fs=c1h
uhm, tradotto con google mi sembra dica esattamente le stesse cose di toms..
appleroof
15-05-2008, 22:29
Scusa ma ogni tanto li salto i tuoi commenti, questo mi deve essere sfuggito.
Riassumendo G92 c'è stato per colpa di ATi e prima la Ultra per colpa di ATi...GT200 lo avremo quindi così potente solo perchè la 4870x2 sarà molto competitiva o hanno già firmato contratti anche stavolta?
Le prime GeForce 8800 sono state introdotte nel novembre 2006 con le 8800 GTS e GTX. Come abbiamo già detto, la 8800 Ultra non è che una versione overcloccata della GTX ed è apparsa nel maggio del 2007 in previsione di eventuali buone performance del Radeon HD 2900 XT
Non può essere invece che una top di gamma viene venduta agli enthusiast comunque e, dato che Nvidia non brilla per margini di guadagno, le convenga rilanciare quando possibile? Per me è stato più un affare la Ultra per Nvidia della 8800Gt....
Rare sono state le volte dove le schede di fascia alta non sono state rinnovate durante un così lungo periodo. È questo uno degli effetti perversi di quando non c'è concorrenza degna di questo nome: ATI, l'unica casa in grado di rivaleggiare con NVIDIA, propone schede comprese le ultime Radeon 3800, che non sono in grado di tenere testa alle 8800 Ultra e GTX di NVIDIA. Vi starete ora chiedendo: perchè non uscire subito con una scheda di fascia alta di nuova generazione al posto di continuare a rinforzare la fascia medio alta? Ci sono due risposte a questa domanda. La prima è di ordine strategico. L’uscita dei recenti giochi, graficamente molto pesanti, porterà i gamers desiderosi di poterli utilizzare a cambiare la loro configurazione per poter giocare decentemente. Il grosso del mercato è rappresentato da configurazioni di fascia media e NVIDIA non può rendere disponibili solo le costose 8800 GTX e GTS 640 MB come sole alternative rispetto ai prodotti ATI. Quest’ultima, offre schede grafiche dall’ottimo rapporto prestazioni/prezzo sulla fascia medio/alta. L'unico problema di NVIDIA è quello di fornire schede sufficienti a soddisfare la domanda, cosa che non è avvenuta con la 8800 GT. Alcune malelingue, dicono che la scarsa disponibilità di questa scheda potrebbe essere stata in qualche modo “orchestrata” per permettere alla 8800 GTS 512 di debuttare senza problemi, in quanto più performante e leggermente più costosa (50-70 euro in più) della 8800 GT. Non sorprendetevi quindi nel vedere sul mercato una maggiore disponibilità di 8800 GTS 512 rispetto alla 8800 GT
La seconda risposta all’interrogativo iniziale? Vista l’assenza di concorrenza, NVIDIA ne approfitta per guadagnare più che può. I prezzi delle 8800 GTS e GTX non hanno subito ribassi notevoli da quando sono uscite ed i margini su questi tipi di prodotto sono di solito piuttosto elevati. L’uscita delle 8800 GT e GTS possiamo vederle sotto quest’ottica: entrambe le schede utilizzano la GPU G92, una sorta di die-shrink del G80 utilizzato sulle 8800 GTX e GTS di prima generazione. Il G92 è prodotto con processo a 65 nm, contro i 90 nm del G80. Inoltre, si basa su di un chip grafico già esistente, quindi NVIDIA non prende troppi rischi nel preparare il terreno al G9F, il suo prossimo chip grafico di nuova generazione. È un pò la stessa strategia che Intel ha riservato ai processori Penryn, che sono dei die- shrink dei Conroe, in attesa dell’uscita del Nehalem. Inoltre, con l’affinamento del processo produttivo, è possibile produrre più chip sul wafer di silicio, ottimizzando i costi di produzione a tutto vantaggio dei margini di guadagno che aumentano. L’integrazione in seno al G92 del chip I/O che gestisce le uscite video sulle schede G80, va a ridurre ulteriormente i costi di produzione.
http://hardware.multiplayer.it/articoli.php3?id=12525
halduemilauno
16-05-2008, 08:08
Scusa ma ogni tanto li salto i tuoi commenti, questo mi deve essere sfuggito.
Riassumendo G92 c'è stato per colpa di ATi e prima la Ultra per colpa di ATi...GT200 lo avremo quindi così potente solo perchè la 4870x2 sarà molto competitiva o hanno già firmato contratti anche stavolta?
Non può essere invece che una top di gamma viene venduta agli enthusiast comunque e, dato che Nvidia non brilla per margini di guadagno, le convenga rilanciare quando possibile? Per me è stato più un affare la Ultra per Nvidia della 8800Gt....
e infatti l'ha venduta castrata nelle caratteristiche ma al prezzo pieno. veniva + di 600€.
+ affare della 8800gt? non brilla per margini di guadagno?
idee poche ma in compenso confuse e sbagliate. mi sa che le ultime news non le hai prese bene.
:D
HackaB321
16-05-2008, 08:38
http://hardware.multiplayer.it/articoli.php3?id=12525
Allora: siamo nell'autunno del 2007. ATi ha in programma di rilasciare RV670 ottima soluzione per la fascia media, ottimo rapporto prezzo/prestazioni ma non una scheda di fascia alta. Nvidia ha già pronto, testato e funzionante GT200 (perchè questo mi state dicendo): deve solo essere messo in produzione.
Lo scenario per il rilascio di una nuova architettura single-core è perfetto:
1)E' passato un anno dalla 8800GTX, quindi esiste una forte domanda anche tra gli utenti enthusiast (che pure hanno acquistato quest'ultima) per qualcosa di davvero nuovo, senza i problemi dello SLI
2)A novembre esce il giocone dell'anno, Crysis che si rivela un mattone ingestibile in vh+full hd per qualsiasi configurazione anche multi-gpu. A maggior ragione una GT200 capace di digerire questo mattone sarebbe vista come manna dal cielo per milioni di hardcore gamer nel mondo (basta usare come campione statistico di questa "voglia" questo forum dove per mesi moltissimi utenti hanno aspettato questa nuova scheda bomba restando delusi ad ogni rilascio di G92)
3)Visti i punti 1 e 2 e a maggior ragione data l'assenza di concorrenza in fascia high-end, Nvidia potrebbe mettere la GT200 anche ad un prezzo altissimo con margini di guadagno mai visti, sicura che comunque avrebbe domanda.
Invece cosa succede? Nonostante la GT200 pronta nel cassetto (come voi sostenete), Nvidia rilascia versioni di G92 con schede uguali a quelle sue precedenti da un lato, e dall'altro in guerra all'ultimo centesimo-fps con le soluzioni ATi pur avendo (nvidia) un pp peggiore e quindi peggiori margini quando la concorrenza impone abbassamenti vertiginosi di prezzo.
Aggiungo che un rilascio di GT200 + o - in contemporanea con G92 non sarebbe stato incompatibile dato che le schede si sarebbero indirizzate a fascie diverse: avremmo avuto un Gt200 a 600 e passa €, una GX2 a 400 e via discorrendo. In questo modo Nvidia avrebbe fatto grossi guadagni nella fascia alta e avrebbe contrastato ATi nella fascia medio-alta e media con guadagni molto più bassi (o addirittura nulli tanti lo scopo lì sarebbe stato solo quello di danneggiare la concorrenza non di fare soldi).
Con il rilascio del solo G92 e la conseguente guerra di prezzi Nvidia ha avuto profitti inferiori alle attese con tutto ciò di negativo che ne consegue (chi sa due o tre cose di economia sa anche che sui mercati finanziari le aspettative contano più della realtà).
Inoltre: vi rendete conto dei rischi di una politica del genere (ossia del rilascio ritardato di una nuova architettura già disponibile per mancanza di concorrenza)? Supponiamo per assurdo che R700 si riveli un mostro superiore a GT200 in tutto, cosa racconterebbe Huan agli azionisti? Quante mani si mangerebbero alla Nvidia per non aver sfrutatto il vantaggio che avevano questo autunno-inverno?
Tutto questo per me porta ad una sola soluzione evidente: GT200 non è stato rilasciato prima semplicemente perchè non era pronto e non per mancanza di concorrenza. Al limite se ATi fosse stata più competitiva in fascia alta avremmo avuto G92 più pompati ma sempre G92 sarebbe stato. Anche perchè è molto difficile che Nvidia avesse già pronto dopo un solo anno dal rilascio della architettura più complessa,costosa e lunga da sviluppare della sua storia una nuova architettura che sembra stabilirà nuovi record in tutti e tre questi aspetti.
HackaB321
16-05-2008, 08:43
e infatti l'ha venduta castrata nelle caratteristiche ma al prezzo pieno. veniva + di 600€.
+ affare della 8800gt? non brilla per margini di guadagno?
idee poche ma in compenso confuse e sbagliate. mi sa che le ultime news non le hai prese bene.
:D
Leggi qui sopra vai mi risparmi la fatica.
Numero schede vendute != margini di guadagno. Quando avrai imparato questa semplice regola di economia faremo tutti una bella festa qui nel forum
Le prime GeForce 8800 sono state introdotte nel novembre 2006 con le 8800 GTS e GTX. Come abbiamo già detto, la 8800 Ultra non è che una versione overcloccata della GTX ed è apparsa nel maggio del 2007 in previsione di eventuali buone performance del Radeon HD 2900 XT
Rare sono state le volte dove le schede di fascia alta non sono state rinnovate durante un così lungo periodo. È questo uno degli effetti perversi di quando non c'è concorrenza degna di questo nome: ATI, l'unica casa in grado di rivaleggiare con NVIDIA, propone schede comprese le ultime Radeon 3800, che non sono in grado di tenere testa alle 8800 Ultra e GTX di NVIDIA. Vi starete ora chiedendo: perchè non uscire subito con una scheda di fascia alta di nuova generazione al posto di continuare a rinforzare la fascia medio alta? Ci sono due risposte a questa domanda. La prima è di ordine strategico. L’uscita dei recenti giochi, graficamente molto pesanti, porterà i gamers desiderosi di poterli utilizzare a cambiare la loro configurazione per poter giocare decentemente. Il grosso del mercato è rappresentato da configurazioni di fascia media e NVIDIA non può rendere disponibili solo le costose 8800 GTX e GTS 640 MB come sole alternative rispetto ai prodotti ATI. Quest’ultima, offre schede grafiche dall’ottimo rapporto prestazioni/prezzo sulla fascia medio/alta. L'unico problema di NVIDIA è quello di fornire schede sufficienti a soddisfare la domanda, cosa che non è avvenuta con la 8800 GT. Alcune malelingue, dicono che la scarsa disponibilità di questa scheda potrebbe essere stata in qualche modo “orchestrata” per permettere alla 8800 GTS 512 di debuttare senza problemi, in quanto più performante e leggermente più costosa (50-70 euro in più) della 8800 GT. Non sorprendetevi quindi nel vedere sul mercato una maggiore disponibilità di 8800 GTS 512 rispetto alla 8800 GT
La seconda risposta all’interrogativo iniziale? Vista l’assenza di concorrenza, NVIDIA ne approfitta per guadagnare più che può. I prezzi delle 8800 GTS e GTX non hanno subito ribassi notevoli da quando sono uscite ed i margini su questi tipi di prodotto sono di solito piuttosto elevati. L’uscita delle 8800 GT e GTS possiamo vederle sotto quest’ottica: entrambe le schede utilizzano la GPU G92, una sorta di die-shrink del G80 utilizzato sulle 8800 GTX e GTS di prima generazione. Il G92 è prodotto con processo a 65 nm, contro i 90 nm del G80. Inoltre, si basa su di un chip grafico già esistente, quindi NVIDIA non prende troppi rischi nel preparare il terreno al G9F, il suo prossimo chip grafico di nuova generazione. È un pò la stessa strategia che Intel ha riservato ai processori Penryn, che sono dei die- shrink dei Conroe, in attesa dell’uscita del Nehalem. Inoltre, con l’affinamento del processo produttivo, è possibile produrre più chip sul wafer di silicio, ottimizzando i costi di produzione a tutto vantaggio dei margini di guadagno che aumentano. L’integrazione in seno al G92 del chip I/O che gestisce le uscite video sulle schede G80, va a ridurre ulteriormente i costi di produzione.
http://hardware.multiplayer.it/articoli.php3?id=12525
Quello che hai postato è una mera congettura di chi scrive quell'articolo, basandosi su chissà quale fonte, dato che il CFO di NVidia, ossia quello che ha l'ultima parola su profittabilità dei prodotti, controllo sui costi, prezzi, ecc... (non un bau_bau / micio_micio da forum qualunque) ha ufficialmente ammesso qualche giorno fa che con G92 ci guadagnano troppo poco.
Ti riposto un mio intervento precedente. ;)
http://www.hwupgrade.it/forum/showpost.php?p=22454586&postcount=1302
halduemilauno
16-05-2008, 09:09
Allora: siamo nell'autunno del 2007. ATi ha in programma di rilasciare RV670 ottima soluzione per la fascia media, ottimo rapporto prezzo/prestazioni ma non una scheda di fascia alta. Nvidia ha già pronto, testato e funzionante GT200 (perchè questo mi state dicendo): deve solo essere messo in produzione.
Lo scenario per il rilascio di una nuova architettura single-core è perfetto:
1)E' passato un anno dalla 8800GTX, quindi esiste una forte domanda anche tra gli utenti enthusiast (che hanno acquistato quest'ultima) per qualcosa di davvero nuovo, senza i problemi dello SLI
2)A novembre esce il giocone dell'anno, Crysis che si rivela un mattone ingestibile in vh+full hd per qualsiasi configurazione anche multi-gpu. A maggior ragione una GT200 capace di digerire questo mattone sarebbe vista come manna dal cielo per milioni di hardcore gamer nel mondo (basta usare come campione statistico di questa "voglia" questo forum dove per mesi moltissimi utenti hanno aspettato questa nuova scheda bomba restando delusi ad ogni rilascio di G92)
3)Visti i punti 1 e 2 e a maggior ragione data l'assenza di concorrenza in fascia high-end, Nvidia potrebbe mettere la GT200 anche ad un prezzo altissimo con margini di guadagno mai visti, sicura che comunque avrebbe domanda.
Invece cosa succede? Nonostante la GT200 pronta nel cassetto (come voi sostenete), Nvidia rilascia versioni di G92 con schede uguali a quelle sue precedenti da un lato, e dall'altro in guerra all'ultimo centesimo-fps con le soluzioni ATi pur avendo (nvidia) un pp peggiore e quindi peggiori margini quando la concorrenza impone abbassamenti vertiginosi di prezzo.
Aggiungo che un rilascio di GT200 + o - in contemporanea con G92 non sarebbe stato incompatibile dato che le schede si sarebbero indirizzate a fascie diverse: avremmo avuto un Gt200 a 600 e passa €, una GX2 a 400 e via discorrendo. In questo modo Nvidia avrebbe fatto grossi guadagni nella fascia alta e avrebbe contrastato ATi nella fascia medio-alta e media con guadagni molto più bassi (o addirittura nulli tanti lo scopo lì sarebbe stato solo quello di danneggiare la concorrenza non di fare soldi).
Con il rilascio del solo G92 e la conseguente guerra di prezzi Nvidia ha avuto profitti inferiori alle attese con tutto ciò di negativo che ne consegue (chi sa due o tre cose di economia sa anche che sui mercati finanziari le aspettative contano più della realtà).
Inoltre: vi rendete conto dei rischi di una politica del genere (ossia del rilascio ritardato di una nuova architettura già disponibile per mancanza di concorrenza)? Supponiamo per assurdo che R700 si riveli un mostro superiore a GT200 in tutto, cosa racconterebbe Huan agli azionisti? Quante mani si mangerebbero alla Nvidia per non aver sfrutatto il vantaggio che avevano questo autunno-inverno?
Tutto questo per me porta ad una sola soluzione evidente: GT200 non è stato rilasciato prima semplicemente perchè non era pronto e non per mancanza di concorrenza. Al limite se ATi fosse stata più competitiva in fascia alta avremmo avuto G92 più pompati ma sempre G92 sarebbe stato. Anche perchè è molto difficile che Nvidia avesse già pronto dopo un solo anno dal rilascio della architettura più complessa,costosa e lunga da sviluppare della sua storia una nuova architettura che sembra stabilirà nuovi record in tutti e tre questi aspetti.
GT200 pronto per un contemporaneo lancio con crysis a novembre? e chi lo ha mai detto? mai sentito. io ho sempre detto che g100(sostituito/diventato nel frattempo gt200)era pronto per marzo ma che poteva essere rilasciato a giugno. poi giugno è diventato 25 agosto perchè si pensava/sperava per esso l'adozione del pp a 55nm. tale intenzione è saltata ed eccolo a giugno.
visto che in quella fascia ati è stata presente con la sola 3870x2 minaccia subito parata con la 9800gx2 e visto che non si lavora a compartimenti stagni e ati in altre fasce poteva essere + competitiva ecco che nvidia nel frattempo aveva spinto l'acceleratore nella fascia media saturandola con tutta la serie 8800 basata su chip g92 ovvero 8800gs, 8800gt, 8800gts 512. poi come detto molte volte la 9800gx2 che si poteva benissimo chiamare 8800gx2 è stata proprio chiamata 9800gx2 con un'occhio alla serie 4800 della quale nvidia aveva gia le prime info. stessa cosa della 9800gtx avendo rilasciato poche settimane prima la 8800gts512 non ce n'erà necessità. poi la storia della 9600gt è abbastanza chiara inutile soffermarsi. poi proprio tu che mi citi economia ecco la dritta/furbata(chiamiamola cosi)di riciclare chip validi sottolineo validi in altre fasce vedi 8800gs che diventa 9600gso ed ecco che alla 9800gtx fa seguito la 9800gt di chiarissima derivazione 8800gt/gts tutte operazioni dal bassissimo costo ma che nvidia si può permettere intanto per l'ottimo chip che esso è(magari trasformato in g92b per adottare il pp a 55nm per ridurre costi di produzione)e perchè se tali chip erano perfetti per le 3870 lo possono essere benissimo per le 4850(con ram gddr3)le cui prestazioni non dovrebbero distaccarsi troppo.
aggiungo...
http://www.tomshw.it/news.php?newsid=13994
nVidia Corporation ha annunciato oggi i risultati finanziari del primo trimestre fiscale 2009, terminato il 27 Aprile 2008. Per il primo trimestre del nuovo anno fiscali gli introiti sono stati 1.15 miliardi di dollari, che se paragonati agli 844,3 milioni del primo trimestre del 2008, portano una crescita del 37%. I proventi netti, calcolati secondo i principi accettati negli Stati Uniti (GAAP), sono invece cresciuti di un 34%.
Il netto non-GAAP proveniente dal primo trimestre, che esclude i compensi basati su stock e le tasse associate è stato invece di 211,8 milioni di dollari.
"La crescita delle GPU continua a superare il mercato PC. Abbiamo spedito un 42% in più di GPU in questo trimestre rispetto allo stesso periodo lo scorso anno, risultando così il nostro quarter fiscale migliore da sempre" ha affermato Jen-Hsun Huang, presidente e CEO di nVidia "Questa è l'era del visual computing. Con qualche centinaia di milioni di GPU GeForce sul mercato gli sviluppatori possono ora creare applicazioni con una grafica degna di nota. Incredibili applicazioni, basate su un forte impatto grafico, stanno nascendo sempre più numerose sul web, aiutando così la diffusione delle GPU. Ci aspettiamo che questo feedback positivo continui a guidare la nostra crescita".
;)
poteva incassare di +? pazienza si rifarà nei prossimi trimestri.
Quello che hai postato è una mera congettura di chi scrive quell'articolo, basandosi su chissà quale fonte, dato che il CFO di NVidia, ossia quello che ha l'ultima parola su profittabilità dei prodotti, controllo sui costi, prezzi, ecc... (non un bau_bau / micio_micio da forum qualunque) ha ufficialmente ammesso qualche giorno fa che con G92 ci guadagnano troppo poco.
Ti riposto un mio intervento precedente. ;)
http://www.hwupgrade.it/forum/showpost.php?p=22454586&postcount=1302
io ti ho citato Mr Jen-Hsun Huang fondatore, presidente e CEO di Nvidia. che dici va bene?
HackaB321
16-05-2008, 09:22
GT200 pronto per un contemporaneo lancio con crysis a novembre? e chi lo ha mai detto? mai sentito. io ho sempre detto che g100(sostituito/diventato nel frattempo gt200)era pronto per marzo ma che poteva essere rilasciato a giugno. poi giugno è diventato 25 agosto perchè si pensava/sperava per esso l'adozione del pp a 55nm. tale intenzione è saltata ed eccolo a giugno.
visto che in quella fascia ati è stata presente con la sola 3870x2 minaccia subito parata con la 9800gx2 e visto che non si lavora a compartimenti stagni e ati in altre fasce poteva essere + competitiva ecco che nvidia nel frattempo aveva spinto l'acceleratore nella fascia media saturandola con tutta la serie 8800 basata su chip g92 ovvero 8800gs, 8800gt, 8800gts 512. poi come detto molte volte la 9800gx2 che si poteva benissimo chiamare 8800gx2 è stata proprio chiamata 9800gx2 con un'occhio alla serie 4800 della quale nvidia aveva gia le prime info. stessa cosa della 9800gtx avendo rilasciato poche settimane prima la 8800gts512 non ce n'erà necessità. poi la storia della 9600gt è abbastanza chiara inutile soffermarsi. poi proprio tu che mi citi economia ecco la dritta/furbata(chiamiamola cosi)di riciclare chip validi sottolineo validi in altre fasce vedi 8800gs che diventa 9600gso ed ecco che alla 9800gtx fa seguito la 9800gt di chiarissima derivazione 8800gt/gts tutte operazioni dal bassissimo costo ma che nvidia si può permettere intanto per l'ottimo chip che esso è(magari trasformato in g92b per adottare il pp a 55nm per ridurre costi di produzione)e perchè se tali chip erano perfetti per le 3870 lo possono essere benissimo per le 4850(con ram gddr3)le cui prestazioni non dovrebbero distaccarsi troppo.
All'uscita di ogni versione di G92 (da nov2007 ad oggi) c'era qualche utente che diceva (lamentandosi): "Ma come? va come la GTS 640", "Ma come? va meno della 8800GTX", "Ma quando esce la nuova archiettura", "Ancora un'altra minestra riscaldata"
La risposta (tua e di altri) era sempre la stessa: mancanza di concorrenza. Lasciando intendere con questa risposta che Nvidia avesse già disponibile chissà quale architettura rivoluzionaria ma si limitasse a usare G92 per mancanza di concorrenza.
Ecco questa teoria per me non è vera. GT200 verrà rilasciato a Giugno perchè a Giugno sarà pronto. E Nvidia l'avrebbe rilasciato prima (ben contenta di farlo) se l'avesse avuto disponibile prima, indipendentemente dalla concorrenza
si sa la data esatta o solo il mese del lancio della nuova serie?
halduemilauno
16-05-2008, 09:33
All'uscita di ogni versione di G92 (da nov2007 ad oggi) c'era qualche utente che diceva (lamentandosi): "Ma come? va come la GTS 640", "Ma come? va meno della 8800GTX", "Ma quando esce la nuova archiettura", "Ancora un'altra minestra riscaldata"
La risposta (tua e di altri) era sempre la stessa: mancanza di concorrenza. Lasciando intendere con questa risposta che Nvidia avesse già disponibile chissà quale architettura rivoluzionaria ma si limitasse a usare G92 per mancanza di concorrenza.
Ecco questa teoria per me non è vera. GT200 verrà rilasciato a Giugno perchè a Giugno sarà pronto. E Nvidia l'avrebbe rilasciato prima (ben contenta di farlo) se l'avesse avuto disponibile prima, indipendentemente dalla concorrenza
mancanza di concorrenza da parte di ati è un dato di fatto. ma io non ho mai detto che gt200 era gia pronto da tempo. mai detto e mai letto da altri. io ho sempre parlato di marzo/giugno con la parentesi ultima agostiana che ho specificato.
poi architettura rivoluzionaria se ho sempre detto che esso rappresenta(probabilmente)il capolinea di quel capolavoro che è stato G80. lo definivo(anche per giocare un pò)il nuovo mega chippone proprio per mettere in evidenza le sue ben superiori capacità.
halduemilauno
16-05-2008, 09:33
si sa la data esatta o solo il mese del lancio della nuova serie?
pare 18 giugno. pare.
;)
HackaB321
16-05-2008, 09:40
mancanza di concorrenza da parte di ati è un dato di fatto. ma io non ho mai detto che gt200 era gia pronto da tempo. mai detto e mai letto da altri. io ho sempre parlato di marzo/giugno con la parentesi ultima agostiana che ho specificato.
poi architettura rivoluzionaria se ho sempre detto che esso rappresenta(probabilmente)il capolinea di quel capolavoro che è stato G80. lo definivo(anche per giocare un pò)il nuovo mega chippone proprio per mettere in evidenza le sue ben superiori capacità.
Mi ricordo perfettamente una tua battuta riguardo a G92 dove domandavi ironicamente "perchè nvidia deve calare l'asso quando può vincere con il jack".
Mi spieghi allora il senso di questa battuta? Cos'era l'asso nella manica? Per me calava il jack perchè l'asso non era affatto disponibile e il jack era l'unica cosa che potesse lanciare
commento alla frase non c'è concorrenza, non esce gt200: un' impresa secondo me pur di distruggere la concorrenza farebbe ti tutto quindi se avesse il modo per farlo lo farebbe!!!!! A nvidia non gli interessa di ati-amd vuole fare utili e se ati non ci fosse proprio sarebbe la prima a beneficiarne; per cui gt200 non era pronto l'anno scorso e se fosse uscito veramente lo scorso anno ati-amd sarebbe gia fallita cosa che avrebbe portato benefici alla nvidia, certo non a noi consumatori ovviamente
pare 18 giugno. pare.
;)
Evvai... mi fanno il regalo di compleanno :D ...
halduemilauno
16-05-2008, 09:53
Mi ricordo perfettamente una tua battuta riguardo a G92 dove domandavi ironicamente "perchè nvidia deve calare l'asso quando può vincere con il jack".
Mi spieghi allora il senso di questa battuta? Per me calava il jack perchè l'asso non era affatto disponibile e il jack era l'unica cosa che potesse lanciare
bravo ricordi benissimo. era appunto una battuta che metteva in evidenza proprio la mancanza di concorrenza da parte di ati fotografando alla perfezione la situazione. e cmq tirai fuori quella battuta alla fine in prossimità dell'uscita delle 9800gtx e quindi in un'ottica vicina all'eventuale rilascio dell'allora g100. ripeto il periodo al quale io ho sempre fatto riferimento è marzo/giugno. quindi quella battuta nell'approsimarsi di quel periodo aveva certamente anche quella valenza. ma di certo mai e poi mai ho detto o fatto intendere altro, a novembre o nei mesi immediatamente successivi. mai.
halduemilauno
16-05-2008, 09:59
commento alla frase non c'è concorrenza, non esce gt200: un' impresa secondo me pur di distruggere la concorrenza farebbe ti tutto quindi se avesse il modo per farlo lo farebbe!!!!! A nvidia non gli interessa di ati-amd vuole fare utili e se ati non ci fosse proprio sarebbe la prima a beneficiarne; per cui gt200 non era pronto l'anno scorso e se fosse uscito veramente lo scorso anno ati-amd sarebbe gia fallita cosa che avrebbe portato benefici alla nvidia, certo non a noi consumatori ovviamente
ma per l'appunto non era pronto. quindi lo ripeto chi ha mai messo in giro questa cosa? io non l'ho mai sentita. mai letta. la concorrenza nvidia l'ha distrutta innondandola di 8800 su chip g92. ricordo un dato postato allora 2 milioni di 8800gt in meno di 4 mesi.
halduemilauno
16-05-2008, 10:05
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7364&Itemid=1
So will Geforce GTX 260
We've found out what looks to be the launch date for GT200 cards. We are happy to report that both GT200 cards are single chip cards, something that we've suggested back in January.
The launch should take place on the 18th of June, just in the middle of week 25, and at current schedule that is two days after ATI's RV770 launch.
The name Geforce GTX 280 looks a bit odd, but I am sure that we will get used to it. The only other alternative was to use Geforce 9900 cliché but we believe that GT200 deserves better name. As its been suggested at many occasions GT200 chip will have significantly more Shader units and the most frequent number that we heard was 240. We still work on getting the confirmation of this bold spec.
Nvidia just ran out of numbers and it’s starting all over again. It's like reseting the odometer, more or less.
18 giugno. 2 giorni dopo ati.
;)
-noxius-
16-05-2008, 10:07
[url]
18 giugno. 2 giorni dopo ati.
;)
Qui poco tempo fa stavate parlando di fine luglio o addirittura agosto , che dire ....evviva ! Anche se , a cosa servirà tutta questa potenza ? A parte crysis cosa c'è disponibile da qui a poco tempo ?
HackaB321
16-05-2008, 10:09
bravo ricordi benissimo. era appunto una battuta che metteva in evidenza proprio la mancanza di concorrenza da parte di ati fotografando alla perfezione la situazione. e cmq tirai fuori quella battuta alla fine in prossimità dell'uscita delle 9800gtx e quindi in un'ottica vicina all'eventuale rilascio dell'allora g100. ripeto il periodo al quale io ho sempre fatto riferimento è marzo/giugno. quindi quella battuta nell'approsimarsi di quel periodo aveva certamente anche quella valenza. ma di certo mai e poi mai ho detto o fatto intendere altro, a novembre o nei mesi immediatamente successivi. mai.
Quindi la situazione a cui abbiamo assistito questo autunno-inverno con la mancanza di concorrenza non c'entra niente, dato che comunque Nvidia non aveva disponibile niente più di G92. Le varie minestre riscaldate, i nostri amici, se le sarebbero dovute sorbire comunque, perchè quello passava il convento.
Bene sono contento che sei d'accordo con me. Mi resta da capire perchè Nvidia tra fare tanti soldi a Marzo senza risposta di ATi e fare meno soldi a Giugno con RV770 addosso, abbia scelto quest'ultima soluzione.
Qui poco tempo fa stavate parlando di fine luglio o addirittura agosto , che dire ....evviva ! Anche se , a cosa servirà tutta questa potenza ? A parte crysis cosa c'è disponibile da qui a poco tempo ?
la potenza bruta serve sempre anche per avere un pc longevo, se spendo 500 euro per una vga la volgio almeno tenere per un annetto almeno
io ti ho citato Mr Jen-Hsun Huang fondatore, presidente e CEO di Nvidia. che dici va bene?
E dov'è la fonte/citazione? E, comunque, ovvio che il presidente al momento del lancio dica quello: cosa deve dire, "la concorrenza ce l'ha messo in quel posto e perciò lanciamo delle schede che vanno praticamente come quelle che costano il doppio, con un processo produttivo che non conosciamo bene e che non garantisce buoni yields, che non ci garantirà margini adeguati e con un naming che non sta nè in cielo nè in terra?". Penso proprio di no. ;)
Ma meno di una settimana fa il CFO ha detto agli analisti delle banche d'affari (e non sul sito cippirimerlo.com) esattamente quello che ho riportato, e non penso che il CEO possa smentire il proprio CFO (a meno di non volerlo cacciare... :asd: ). ;)
-noxius-
16-05-2008, 10:13
la potenza bruta serve sempre anche per avere un pc longevo, se spendo 500 euro per una vga la volgio almeno tenere per un annetto almeno
Mah, speriamo che sia così ... Certo però se me la devo prendere e praticamente non poterla utilizzare degnamente mi viene qualche dubbio .. Pensi che ce la faccia a far girare DOOM IV ad esempio ?
ps: 500 euro per un annetto ? Ma scherziamo ? ;)
Mah, speriamo che sia così ... Certo però se me la devo prendere e praticamente non poterla utilizzare degnamente mi viene qualche dubbio .. Pensi che ce la faccia a far girare DOOM IV ad esempio ?
ps: 500 euro per un annetto ? Ma scherziamo ? ;)
1 annetto è poco o tanto per te fammi capire? poi doom IV quando uscira, non si sa.....comunque per 1 anno deve garantire che i giochi girino con tutto al massimo senza rallentamenti senno la spesa è inutile
halduemilauno
16-05-2008, 10:19
Quindi la situazione a cui abbiamo assistito questo autunno-inverno con la mancanza di concorrenza non c'entra niente, dato che comunque Nvidia non aveva disponibile niente più di G92. Le varie minestre riscaldate, i nostri amici, se le sarebbero dovute sorbire comunque, perchè quello passava il convento.
Bene sono contento che sei d'accordo con me. Mi resta da capire perchè Nvidia tra fare tanti soldi a Marzo senza risposta di ATi e fare meno soldi a Giugno con RV770 addosso, abbia scelto quest'ultima soluzione.
forse perchè a marzo nel frattempo aveva presentato la 9800gx2. e quella si a differenza delle varie altre g92 era costata + soldi che in qualche maniera si dovevano far rientrare. senza contare magari una grande fiducia nel proprio prodotto e quindi ritenere la risposta di ati non molto impegnativa. cmq la vera avversaria del gt200 non è la 4850 per la quale c'è la 9800gtx(presentata a suo tempo)ma la 4870x2 che verrà rilasciata a fine luglio/inizio agosto quindi margine temporale ce nè. quindi come la si vede si vede nvidia è sempre in vantaggio(almeno temporale)in moltissimi casi/scenari.
e cmq fammi aggiungere splendide minestre riscaldate. splendide.
halduemilauno
16-05-2008, 10:20
E dov'è la fonte/citazione? E, comunque, ovvio che il presidente al momento del lancio dica quello: cosa deve dire, "la concorrenza ce l'ha messo in quel posto e perciò lanciamo delle schede che vanno praticamente come quelle che costano il doppio, con un processo produttivo che non conosciamo bene e che non garantisce buoni yields, che non ci garantirà margini adeguati e con un naming che non sta nè in cielo nè in terra?". Penso proprio di no. ;)
Ma meno di una settimana fa il CFO ha detto agli analisti delle banche d'affari (e non sul sito cippirimerlo.com) esattamente quello che ho riportato, e non penso che il CEO possa smentire il proprio CFO (a meno di non volerlo cacciare... :asd: ). ;)
certo che deve dire? son 300 milioni di $ in +.
halduemilauno
16-05-2008, 10:24
Ti riferisci a qualcosa del genere?
http://www.hwupgrade.it/forum/showpost.php?p=21488753&postcount=1002
infatti come si vede lo dissi a marzo quando il chip era certamente pronto per l'immediato(come si pensava inizialmente) o per l'appunto subito dopo giugno(come dico in quell'occasione)(poi magari scelta del pp o altre eventuali problematiche dopo appunto a giugno). non di certo a novembre o addirittura prima o subito dopo.
-noxius-
16-05-2008, 10:26
1 annetto è poco o tanto per te fammi capire? poi doom IV quando uscira, non si sa.....comunque per 1 anno deve garantire che i giochi girino con tutto al massimo senza rallentamenti senno la spesa è inutile
Minimo 2 , 500 euro !!
Minimo 2 , 500 euro !!
io spero sempre in ati amd perche cosi prima mi prendo una 4870xt e poi un altra tra 6 mesi 1 anno il che mi darebbe una grande longevità al pc sempre se avra prestazioni degne di nota.....se cosi non fosse uno è costretto a prendere gt200 se vorra giocare degnamente a tutto spero anche a crysis
comunque dovrei andare negli U.S.A ste estate e quindi un 100 euro le risparmio:)
Mah, speriamo che sia così ... Certo però se me la devo prendere e praticamente non poterla utilizzare degnamente mi viene qualche dubbio .. Pensi che ce la faccia a far girare DOOM IV ad esempio ?
ps: 500 euro per un annetto ? Ma scherziamo ? ;)
d'accordissimo con te! :mano: ma imho la questione si risolve in modo facilissimo: quando ci sono i titoli (che mi piacciono e la 9800gtx non ce la fa)la compro e rivendo la mia! Così sfrutto anche il fatto che passando il tempo il prezzo scende! Certo, anche ora ci sarebbe un titolo che potrebbe girare meglio: crysis, però scusate ma per un titolo solo nn compro una vga nuova da 500euro (imho saranno 600 al lancio)! :)
1 annetto è poco o tanto per te fammi capire? poi doom IV quando uscira, non si sa.....comunque per 1 anno deve garantire che i giochi girino con tutto al massimo senza rallentamenti senno la spesa è inutile
Quoto, un annetto per una scheda così per me è poco! Pochissimo!
Buongiorno a tutti!
Voi credete che la banda passante sia un valido fattore per confrontare le prestazioni delle prossime schede video (GTX 280 e HD 4870) o conti relativamente poco? perché facendo due conti se Nvidia come scontato adotterà GDDR3 a 2300 MHz (si parla di 2360 MHz) e AMD adotterà GDDR5 a 3400-3850 MHz (3850 MHz nel caso piu ottimistico) i risultati stanno a 123,2 GB per AMD cntro i 147,2 GB di Nvidia! E questo la dice lunga :O
Spero che AMD non faccia la figura dell'ultima volta spacciando la HD 3870 per fascia alta ad un prezzo vantaggioso che poi le prendeva dalla 9600 GT!
Spero che questa volta la HD 4870 non le prenda dalla GTX 260 :D
HackaB321
16-05-2008, 10:39
Ti riferisci a qualcosa del genere?
http://www.hwupgrade.it/forum/showpost.php?p=21488753&postcount=1002
Per esempio.
E' evidente come la luce del sole che GT200 a Marzo non era pronto. Che Nvidia ha rilasciato G92 perchè non poteva fare altro. Che le varie 8800GTS, 9600GT, 9800GX2, 9800GTX non sono state la risposta di riserva ma l'unica risposta possibile. Che la mancanza di concorrenza è evidente ma non c'entra nulla.Che un GT200 prima avrebbe evitato profitti inferiori alle attese con tutto ciò che ne consegue.
forse perchè a marzo nel frattempo aveva presentato la 9800gx2. e quella si a differenza delle varie altre g92 era costata + soldi che in qualche maniera si dovevano far rientrare. senza contare magari una grande fiducia nel proprio prodotto e quindi ritenere la risposta di ati non molto impegnativa. cmq la vera avversaria del gt200 non è la 4850 per la quale c'è la 9800gtx(presentata a suo tempo)ma la 4870x2 che verrà rilasciata a fine luglio/inizio agosto quindi margine temporale ce nè. quindi come la si vede si vede nvidia è sempre in vantaggio(almeno temporale)in moltissimi casi/scenari.
e cmq fammi aggiungere splendide minestre riscaldate. splendide.
Una Gt200 a 600 e passa euro accanto a una GX2 a 400 non sarebbe stato possibile? Ma ti costa proprio tanto convincerti che GT200 a Marzo fosse solo un rumor sbagliato e non una mossa strategica (senza senso) di Nvidia?
certo che deve dire? son 300 milioni di $ in +.
margini != utile. Non mi resta che metterlo in firma:D
halduemilauno
16-05-2008, 10:46
Per esempio.
E' evidente come la luce del sole che GT200 a Marzo non era pronto. Che Nvidia ha rilasciato G92 perchè non poteva fare altro. Che le varie 8800GTS, 9600GT, 9800GX2, 9800GTX non sono state la risposta di riserva ma l'unica risposta possibile. Che la mancanza di concorrenza è evidente ma non c'entra nulla.Che un GT200 prima avrebbe evitato profitti inferiori alle attese con tutto ciò che ne consegue.
Una Gt200 a 600 e passa euro accanto a una GX2 a 400 non sarebbe stato possibile? Ma ti costa proprio tanto convincerti che GT200 a Marzo fosse solo un rumor sbagliato e non una mossa strategica (senza senso) di Nvidia?
margini != utile. Non mi resta che metterlo in firma:D
ma certo poteva anche essere un rumors rivelatosi sbagliato per sopraggiunte difficolta o per altre eventuali decisioni ma ho sempre parlato di marzo e mai di prima. sempre parlato di marzo/giugno e come si vede in quell'occasione una volta saltato marzo dico chiaramente giugno.
io più che in firma ci farei un quadretto da mettere nella tua cameretta. cosi la mattina quando arriva la mamma a svegliarti te lo rimiri in tutto il suo splendore.
;)
ma certo poteva anche essere un rumors rivelatosi sbagliato per sopraggiunte difficolta o per altre eventuali decisioni ma ho sempre parlato di marzo e mai di prima. sempre parlato di marzo/giugno e come si vede in quell'occasione una volta saltato marzo dico chiaramente giugno.
io più che in firma ci farei un quadretto da mettere nella tua cameretta. cosi la mattina quando arriva la mamma a svegliarti te lo rimiri in tutto il suo splendore.
ma non capisco una cosa, sei pagato da nvidia oppure no? perche stai difendendo allo stremo la casa di Santa Clara e non si capisce il motivo, vabbe:rolleyes:
Brightblade
16-05-2008, 10:54
Gia' postato? Non riesco a stare dietro al thread, corre parecchio :stordita:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7364&Itemid=1
Mi sono un po' perso nella battaglia ATI/NV in questo thread.. ma la GTX260 in che fascia di prezzo/prestazioni dovrebbe stare? Non postatemi la foto della sfera di cristallo :D
Gia' postato? Non riesco a stare dietro al thread, corre parecchio :stordita:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7364&Itemid=1
Mi sono un po' perso nella battaglia ATI/NV in questo thread.. ma la GTX260 in che fascia di prezzo/prestazioni dovrebbe stare? Non postatemi la foto della sfera di cristallo :D
tutto dipende dalle prestazioni di rv770 comunque sulle 300 euro
HackaB321
16-05-2008, 10:57
io più che in firma ci farei un quadretto da mettere nella tua cameretta. cosi la mattina quando arriva la mamma a svegliarti te lo rimiri in tutto il suo splendore.
Perchè nella mia di cameretta? Sei tu quello che fa ancora confusione. Facciamo così lo incornicio e te lo mando:ahahah:
halduemilauno
16-05-2008, 10:57
ma non capisco una cosa, sei pagato da nvidia oppure no? perche stai difendendo allo stremo la casa di Santa Clara e non si capisce il motivo, vabbe:rolleyes:
ecco bravo(per modo di dire)me lo stavo chiedendo pure io ma perchè vi ostinate a difendere l'indifendibile ati? perchè.
:boh:
halduemilauno
16-05-2008, 10:59
Gia' postato? Non riesco a stare dietro al thread, corre parecchio :stordita:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7364&Itemid=1
Mi sono un po' perso nella battaglia ATI/NV in questo thread.. ma la GTX260 in che fascia di prezzo/prestazioni dovrebbe stare? Non postatemi la foto della sfera di cristallo :D
ovviamente essendo fascia GTX è fascia alta. poi seguiranno gts e gt. e poi via con la serie 3.
;)
ecco bravo(per modo di dire)me lo stavo chiedendo pure io ma perchè vi ostinate a difendere l'indifendibile ati? perchè.
:boh:
ma io non difendo ati ne nvidia, ho preso ati perche quando cambio vga metto la mia in firma sul vecchio pc con chipset via piuttosto che buttarla via come ho fatto con 6-7 mie vecchie schede video......poi augurarsi che ati stia in vita fa bene a tutti e non solo a una nicchia di persone... se vorrai in un futuro senza concorrenza spendere 1000 euro per giocare decentemente su pc fai pure, io saro passato sicuramente ad una console a quel punto
Brightblade
16-05-2008, 11:07
tutto dipende dalle prestazioni di rv770 comunque sulle 300 euro
Ok grazie. Il mio dubbio amletico al momento e' farmi una 8800GT e poi cambiare tutto fra 1 annetto/annetto e mezzo, oppure puntare a qualcosa della nuova gamma ATI o NV, spendendo 1 po' di piu' (fino a 300 ci arrivo anche, e' quello che avevo speso per la 7900GT, 2 anni e qualche mese orsono..), ma facendola durare anche di piu', perche' la travaserei sul nuovo pc quando upgradero' il resto dei componenti..boh, a sto punto, dato che sembrerebbe non mancare poi tantissimo, attendo e poi decido.
ovviamente essendo fascia GTX è fascia alta. poi seguiranno gts e gt. e poi via con la serie 3.
;)
Gitusta osservazione.
halduemilauno
16-05-2008, 11:13
Perchè nella mia di cameretta? Sei tu quello che fa ancora confusione. Facciamo così lo incornicio e te lo mando:ahahah:
la mia era anche una battuta tanto per concludere la stucchevolezza di queste argomentazioni.
riassumo con la speranza di concludere:
sapevo da tempo(come gia dissi)dell'esistenza del chip allora conosciuto con il nome di G100 le sue caratteristiche e la sua probabile uscita appunto marzo. poi soggetto a modifiche minori(dissi allora che il bus in origine era il 384 bit)ha fatto slittare il tutto a giugno.
stop.
ora parliamo, se vuoi/volete delle GTX.
ora parliamo, se vuoi/volete delle GTX.
Io avevo posto delle domande sulla banda passante delle nuove schede qualche post fa, cosa ne pensate?
halduemilauno
16-05-2008, 11:31
Buongiorno a tutti!
Voi credete che la banda passante sia un valido fattore per confrontare le prestazioni delle prossime schede video (GTX 280 e HD 4870) o conti relativamente poco? perché facendo due conti se Nvidia come scontato adotterà GDDR3 a 2300 MHz (si parla di 2360 MHz) e AMD adotterà GDDR5 a 3400-3850 MHz (3850 MHz nel caso piu ottimistico) i risultati stanno a 123,2 GB per AMD cntro i 147,2 GB di Nvidia! E questo la dice lunga :O
Spero che AMD non faccia la figura dell'ultima volta spacciando la HD 3870 per fascia alta ad un prezzo vantaggioso che poi le prendeva dalla 9600 GT!
Spero che questa volta la HD 4870 non le prenda dalla GTX 260 :D
poco no. personalmente tengo da conto tutte le componenti della scheda. certo la parte + importante è il chip vero e proprio. cmq i dati da te postati peraltro gia noti e che ti ho gia risposto nell'altro thread sono interessanti.
Io avevo posto delle domande sulla banda passante delle nuove schede qualche post fa, cosa ne pensate?
risposto.
HackaB321
16-05-2008, 11:31
la mia era anche una battuta tanto per concludere la stucchevolezza di queste argomentazioni.
riassumo con la speranza di concludere:
sapevo da tempo(come gia dissi)dell'esistenza del chip allora conosciuto con il nome di G100 le sue caratteristiche e la sua probabile uscita appunto marzo. poi soggetto a modifiche minori(dissi allora che il bus in origine era il 384 bit)ha fatto slittare il tutto a giugno.
stop.
ora parliamo, se vuoi/volete delle GTX.
Il concetto base che a me premeva sostenere è che,come detto, G92 non è stato una risposta di riserva ma l'unica risposta possibile e che se ATi fosse stata competitiva nella fascia alta (come non è stata) Nvidia comunque non avrebbe potuto opporre altro che G92 (semmai più pompato). Punto. Lo scenario che abbiamo visto, con ATi competitiva a livello di una 9800GTX o oltre, sarebbe stato lo stesso solo con prezzi maggiori.
Se non sei d'accordo con questo amen, amici come prima :mano:.
Torniamo a parlare della GTX. :)
Brightblade
16-05-2008, 11:44
Aspetta.
Probabilmente e' quello che faro', senza contare che l'attesa prima di cambiare scheda video, ha sempre un sapore particolare per me che le cambio ogni 2 anni e mezzo/3 anni, intere giornate passate a leggere bench e recensioni :D Se non fosse che ho gia' ordinato Crysis e mi arrivera' a giorni.. devo resistere :sofico:
Nuovi dettagli sono emersi, nel corso delle ultime ore, su quelle che saranno alcune delle caratteristiche delle prossime generazioni di schede video top di gamma che AMD e NVIDIA presenteranno sul mercato. Nella giornata di ieri avevamo discusso di entrambi questi argomenti, rispettivamente con questa e quest'altra notizia.
NVIDIA ha comunicato ai propri partner asiatici un cambio di strategia per quanto riguarda i nomi della propria prossima generazione di GPU top di gamma, quella basata su architettura nota con il nome in codice di GT200. La scelta è caduta sul nome di GeForce GTX 280 e GeForce GTX 260, a identificare le due nuove schede top di gamma.
Se questa nuova tipologia di nomi venisse confrmata implicherebbe per NVIDIA un nuovo approccio per molti versi simile a quanto adottato da ATI con le proprie schede video da un anno a questa parte: progressiva scomparsa delle sigle identificative e ricorso a un unico indicatore numerico per posizionare i differenti prodotti della stessa famiglia uno a confronto con l'altro, facilitandone l'identificazione sul mercato anche per l'utente meno appassionato ed esperto.
Mancano al momento attuale conferme precise su quando NVIDIA presenterà ufficialmente queste schede video; è possibile che il debutto avvenga nel corso della seconda metà del mese di Giugno, così da coincidere con quello delle soluzioni concorrenti prodotte da ATI.
Passiamo ora alle nuove schede video della serie ATI Radeon HD 4800. I primi due modelli attesi al debutto sono soluzioni Radeon HD 4850 e Radeon HD 4870: per le prime soluzioni i documenti forniti dai produttori di schede video indicano una data di rilascio del 18 Giugno, con un debutto la settimana seguente il 25 Giugno per il modello Radeon HD 4870. Al lancio per le prime schede non sono previsti problemi di disponibilità in volumi, mentre per le soluzioni Radeon HD 4870 si vocifera di una disponibilità iniziale molto ridotta, che verrà risolta nelle settimane seguenti.
Francamente riteniamo poco probabile che AMD possa decidere di presentare due schede video della stessa famiglia ad una settimana di differenza l'una dall'altra: o questo periodo di tempo verrà allungato, oppure ci pare plausibile che il debutto avvenga in contemporanea fermi restando i possibili problemi di approvvigionamento delle soluzioni Radeon HD 4870 almeno per le prime settimane.
Alla base del possibile ritardo delle soluzioni Radeon HD 4870 troviamo la nuova tecnologia di memoria utilizzata, quella GDDR5: questa verrà per la prima volta utilizzata su una scheda video desktop, con tutti i tipici problemi di rese e disponibilità da parte dei produttori di memoria. Indiscrezioni non ufficiali indicano prezzi indicativi al debutto di 249 dollari per la scheda Radeon HD 4850 e di 349 dollari per la soluzione Radeon HD 4870, ma non abbiamo conferme ufficiali in questa direzione.
La soluzione dual GPU, modello Radeon HD 4870 X2, debutterà solo nel corso del teerzo trimestre 2008, ad un prezzo ufficiale che potrebbe essere attorno ai 550 dollari USA. Per questa scheda viene indicato un bus memoria da 256bit di ampiezza: dovrebbe trattarsi di un abbinamento tra i due bus memoria collegati a ciascuna GPU, entrambi da 256bit, con la possibilità per ogni GPU di accedere indipendentemente al quantitativo di memoria video gestito dall'altra GPU così da migliorare l'efficienza complessiva rispetto a quanto proposto con la precedente generazione di scheda dual GPU, modello Radeon HD 3870 X2.
http://www.hwupgrade.it/news/skvideo/radeon-hd4800-e-gt200-nuovi-dettagli_25327.html
halduemilauno
16-05-2008, 11:46
Il concetto base che a me premeva sostenere è che,come detto, G92 non è stato una risposta di riserva ma l'unica risposta possibile e che se ATi fosse stata competitiva nella fascia alta (come non è stata) Nvidia comunque non avrebbe potuto opporre altro che G92 (semmai più pompato). Punto. Lo scenario che abbiamo visto, con ATi competitiva a livello di una 9800GTX o oltre, sarebbe stato lo stesso solo con prezzi maggiori.
Se non sei d'accordo con questo amen, amici come prima :mano:.
Torniamo a parlare della GTX. :)
ma il problema lo hai sollevato tu. fraintendendo o chissa cosa. nel momento che(nel tempo) ho detto, ridetto e stradetto che il nuovo mega chippone(g100 prima e gt200 dopo) era pronto per marzo (poi giugno)è ovvio che prima c'era solo il g92. al quale io per ovvi motivi non ho mai storto il naso. se ati fosse stata competitiva c'era appunto il dual g92 ovvero la 9800gx2 che magari invece di accoppiare due g92 gts downcloccati a 600 avrebbe unito due g92 gts overcloccati a 700. o magari fatto un tentativo in tal senso.
lo ripeto è un problema/argomentazione che hai sollevato tu.
1. Non ne prende dalla 9600GT
2. E' uscità tre mesi prima.
3. Oggi costano la stessa cifra e la 3870 va cmq meglio nella maggioranza dei casi.
Mah, a quanto pare dalla recensione della redazione mi sembra di si
http://www.hwupgrade.it/articoli/skvideo/1906/nvidia-geforce-9600-gt-torna-la-fascia-media_index.html
1. Alla peggio la 9600GT in alcuni casi va come la HD3870!
2. Poi tre mesi ti sembrano tanti? una scheda di fascia alta che va uguale se non peggio di una di fascia media?
3. Ci credo che oggi costano uguale e nella maggioranza dei casi la HD 3870 va peggio della 9600GT!
Non é per puntualizzare ma le scose stanno cosi, però é anche vero che la 9600GT va in pratica quasi come la 8800GT! :O
HackaB321
16-05-2008, 11:57
ma il problema lo hai sollevato tu. fraintendendo o chissa cosa. nel momento che(nel tempo) ho detto, ridetto e stradetto che il nuovo mega chippone(g100 prima e gt200 dopo) era pronto per marzo (poi giugno)è ovvio che prima c'era solo il g92. al quale io per ovvi motivi non ho mai storto il naso. se ati fosse stata competitiva c'era appunto il dual g92 ovvero la 9800gx2 che magari invece di accoppiare due g92 gts downcloccati a 600 avrebbe unito due g92 gts overcloccati a 700. o magari fatto un tentativo in tal senso.
lo ripeto è un problema/argomentazione che hai sollevato tu.
Gt200 non era pronto prima di marzo come non era pronto dopo marzo tanto è vero che sarà pronto a giugno. Quello che scrivevi il 10/03 non si è rivelato vero. Fosse stato pronto avremmo avuto GT200 a Marzo in un'altra fascia e a ben altro prezzo rispetto a G92.
halduemilauno
16-05-2008, 12:02
Gt200 non era pronto prima di marzo come non era pronto dopo marzo tanto è vero che sarà pronto a giugno. Quello che scrivevi il 10/03 non si è rivelato vero. Fosse stato pronto avremmo avuto GT200 a Marzo in un'altra fascia e a ben altro prezzo rispetto a G92.
ma se il 10 marzo scrivo tre giugno.
:boh:
ma chi ti capisce. l'ho detto prima e lo ripeto adesso stucchevole.
aggiungo basta.
HackaB321
16-05-2008, 12:06
ma se il 10 marzo scrivo tre giugno.
:boh:
ma chi ti capisce. l'ho detto prima e lo ripeto adesso stucchevole.
"e aggiungo il chip è già pronto ora". Fosse stato vero avremmo avuto GT200 a Marzo. Perchè ritardare? Dimmi tutto ma non tirare fuori la storia della concorrenza ti prego.
halduemilauno
16-05-2008, 12:17
"e aggiungo il chip è già pronto ora". Fosse stato vero avremmo avuto GT200 a Marzo. Perchè ritardare? Dimmi tutto ma non tirare fuori la storia della concorrenza ti prego.
e lo ripeto è ovvio che il 10 marzo era gia pronto in tutti i casi lo deve cmq essere se lo si vuole presentare a giugno non è che il chip lo prepari a fine maggio e lo presenti a giugno. il chip era pronto se poi(e lo ripeto per l'ennesima volta)per x motivi legati alla modifica del bus(visto che necessità poi non ce n'erà vista la totale assenza di concorrenza e quindi tempo a disposizione appunto c'era unito al voler adottare o all'ipotesi di voler adottare un nuovo pp ecco che il tutto si trasferisce a giugno e io in quella specifica occasione questo ho appunto detto. giugno.
tu hai cominciato a parlare di novembre e mai stato prima di marzo.
HackaB321
16-05-2008, 12:23
e lo ripeto è ovvio che il 10 marzo era gia pronto in tutti i casi lo deve cmq essere se lo si vuole presentare a giugno non è che il chip lo prepari a fine maggio e lo presenti a giugno. il chip era pronto se poi(e lo ripeto per l'ennesima volta)per x motivi legati alla modifica del bus(visto che necessità poi non ce n'erà vista la totale assenza di concorrenza e quindi tempo a disposizione appunto c'era unito al voler adottare o all'ipotesi di voler adottare un nuovo pp ecco che il tutto si trasferisce a giugno e io in quella specifica occasione questo ho appunto detto. giugno.
tu hai cominciato a parlare di novembre e mai stato prima di marzo.
Appunto. GT200 era già all'inizio previsto in lancio a Giugno. La sua uscita a Giugno non è mai stata posticipata per mancanza di concorrenza nè la 9800GTX uscita uguale a quella prima solo perchè tanto ATi non aveva nient'altro da offrire come dicevi a chi si lamentava della minestra riscaldata. G92 era quello che Nvidia era in grado di offrire in quel momento.
Mister Tarpone
16-05-2008, 12:32
La parte in neretto è quella in topic.
:rolleyes:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/
:rolleyes:
Poi, convinto te, a me non cambia nulla...
con i filtri disattivati va un pò meno.. mentre con i filtri attivati va un pò di più di una 3870...
stesso sito e stessi test dopo un paio di mesi
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/20/#abschnitt_performancerating_qualitaet
:) ;)
-noxius-
16-05-2008, 12:44
Se ti guardi le recensioni, quella di computerbase propone un sacco di risoluzioni e modalità diverse e su una quantità veramente notevole di giochi, la HD3870 vince 46/80 contro 34/80 della 9600GT, quindi la tua percezione della situazione è decisamente sbagliata.
La cosa diventa più comica quando ho letto dappertutto che la 8800GT demolirebbe la 3870, poi te ne esci con la 9600GT va quasi uguale alla 8800GT e pure da questa la 3870 ne prenderebbe. Visto che i fatti dimostrano che è la 9600GT che semmai ne prende dalla 3870, se la 9600GT va quasi quanto la 8800GT allora visto che la 3870 va dimostratamente di più c'è da chiedersi quanto sia vero che la 8800GT demolisce la 3870 :asd:
Concordo in parte .. Ad ogni modo la 3870 è leggermente superiore alla 9600GT , purtroppo però non è altrettanto buona con filtri attivati (architettura,non ricordo bene a cosa sia dovuto ..) ; i prezzi ad ogni modo sono allineati e se dovessi scegliere mi prenderei una 3870 gddr4 con dissipazione aftermarket (> OC --> 8800GT @ default ) , magari usata sui 110 euro ;)
G92 ha un die-size di 328 mm^2 e 754 milioni di transistor... se GT200 ha un die-size di 575 mm^2 i transistor dovrebbero essere intorno ai 1,3-1,4 miliardi.
Le specifiche della GTX 260 potrebbero essere queste...
GTX260:
192sp (24x8 cluster)
64 TMU (8x 8)
28 rops
448bit
E' interessante notare come Ati si sia mossa per diminuire il rapporto shader : tmu e invece nvidia lo stia alzando.
Credo che nel migliore dei casi per Ati, una 4870 dovrebbe porsi leggermente (10-15%) sotto la GTX260 che dovrebbe inserirsi ,come prestazioni, tra una 9800gtx e una 9800gx2. Però credo che il divario di prezzi tra la GTX260 e la 4870 sarà ben maggiore di un 10-15%.
Mister Tarpone
16-05-2008, 12:53
Si sarà limitato a leggere fin dove gli conveniva... :D
:asd:
Cosa che si sapeva. Il fatto che vadano circa uguale è verificato dal prezzo identico, per l'appunto, di cui parlavo sopra. E converrai che "ne prende" è un'affermazione che non risponde a verità. O meglio lo fa negli scenari in cui dici, salvo che scegliendo gli altri scenari lo scenario si ribalta e potrei dire l'esatto contrario.
tra filtri e non diciamo che vanno uguali... e avendo un prezzo simile sono entrambe valide...
;)
Il se è un vero se o una tecnica narrativa? Nel senso, con tutti questi rumor non sono più sicuro se la notizia sul die size sia una speculazione o meno...
.
E' una speculazione, però arriva da un'utente di extremesystem abbastanza fidato.
Cosa che si sapeva. Il fatto che vadano circa uguale è verificato dal prezzo identico, per l'appunto, di cui parlavo sopra. E converrai che "ne prende" è un'affermazione che non risponde a verità. O meglio lo fa negli scenari in cui dici, salvo che scegliendo gli altri scenari lo scenario si ribalta e potrei dire l'esatto contrario.
Per l'appunto. Ho letto 80 test, quelli sui giochi. Ho escluso il 3DMark06. E ho riportato il totale degli 80 test, non di quelli in cui non c'erano filtri. La stessa cosa non si può dire di chi preferisce vivere nel suo mondo e dire che "ne prende".
Brutta cosa essere fanboy :asd:
Per me il termine "ne prende" significa che una scheda va meglio dell'altra e non che va il doppio dell'altra! detto questo, ora sei passato a dire che la 9600GT va come la HD 3870 mentre prima dicevi che la HD 3870 andava meglio della 8800 GT! ribadisco che dalla recensione fatta dalla redazione la HD 3870 ne prende dalla 9600 GT poi se ti basi su altre recensioni ne prende per la maggior parte delle volte anche li:
http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs_19.html#sect1
cmq parlando spicciamente la Hd 3870 risulta in media superiore alla 9600 GT del 5% soltanto con i filtri disattivati! altrimenti la situazione si ribalta completamente! ma chi é che usa una scheda video per giocare in questa fascia senza pensare di attivare mai i filtri? :muro:
Poi se per aver ragione bisogna scovare dei test in germania tralasciando tutti gli altri é un altra cosa! Si infatti essere fanboy come te é una brutta cosa, solo perché bisogna difendere a spada tratta la propria scheda video! se AMD alla HD 3870 ha dovuto abbassare il prezzo 30 volte anche quando é uscita la 9600GT un motivo ci sarà, non credi? :read:
Poi in definitiva non é questione di fanboy di quello o di quell'altro! io ad esempio non monterei una HD 3870 nemmeno se me la regalassero, perché seguo molto il susseguirsi di affermazioni, notizie, dichiarazioni sia di AMD che di Nvidia! tutte la volte (vedi X2900 XT poi HD 3870...) AMD lancia la nuova fascia alta in contemporanea ad Nvidia e fa credere di avere la meglio o di competere ad armi pari e poi risulta sempre incapace di competere, dopo poi si basa sul rapporto prestazioni prezzo e quasi per magia ci si accorge che AMD non ha piu la fascia alta! allora quello che mi chiedo io é, perché lanciare in contemporanea le schede video della APPARENTE stessa fascia oppure perché io devo comprare una presunta ferrari e pagarla come una Fiat, allora c'é qualcosa che non torna! in definitiva uno poi sa cosa compra e quanto + o - va, ma questo continuo voler apparire per poi non essere mi ha un po stancato! la HD 3850 al lancio sembrava chissa cosa, dai! ;)
Gabriyzf
16-05-2008, 14:06
scusate se è già stato detto: queste nuove schede saranno dx 10.1?
appleroof
16-05-2008, 14:47
ho notato un gran vespaio per quell'articolo che ho postato (che poi multiplayer.it non è proprio fanfulla.it, ma vabbè, siamo tutti un pò professori e CT in Italia)
io osservo semplicemente questo, basandomi su dati di fatto incontrovertibili: Nvidia ha fatturato da record nel 2007, macinando milioni di dollari, ed il primo trimestre 2008 è andato alla grande; Ati ha giocato in difesa regalando le sue vga nelle patatine, certo non ha perso, ma non è certo una strategia di lungo periodo, anzi, infatti i soldi veri li fai con i prodotti buoni, come appunto Nvidia, per ora.
Il resto mi sembrano discorsi da tifoseria e basta.
haIduemiIauno
16-05-2008, 14:52
Brutta cosa essere fanboy :asd:
...
:asd: :asd: :asd:
Mister Tarpone
16-05-2008, 14:54
azz... :eek:
appleroof
16-05-2008, 14:55
azz... :eek:
la guerra dei cloni
:asd: :asd: :asd: :asd: :asd: :asd:
Mister Tarpone
16-05-2008, 14:56
la guerra dei cloni
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
appleroof
16-05-2008, 14:57
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
:D :D :D
haIduemiIauno
16-05-2008, 14:58
io osservo semplicemente questo, basandomi su dati di fatto incontrovertibili: Nvidia ha fatturato da record nel 2007, macinando milioni di dollari, ed il primo trimestre 2008 è andato alla grande; Ati ha giocato in difesa regalando le sue vga nelle patatine, certo non ha perso, ma non è certo una strategia di lungo periodo, anzi, infatti i soldi veri li fai con i prodotti buoni, come appunto Nvidia, per ora.
Il resto mi sembrano discorsi da tifoseria e basta.
Se non è un discorso da tifoseria questo...
Nvidia ha fatto due anni da record con prodotti fenomenali e Ati ha mangiato polvere, non ci sono dubbi su questo. Ma non ci sono dubbi anche sul fatto che le proposte HD38XX hanno dato fastidio ad Nvidia ed hanno contribuito ad una lotta sui prezzi favorevole per noi clienti.
La speranza è che in futuro le cose si facciano più equilibrate.
haIduemiIauno
16-05-2008, 14:59
la guerra dei cloni
:asd: :asd: :asd: :asd: :asd: :asd:
!!!!
Non avete letto la firma!
!!!!
Sono un Fake... non un clone!
;)
appleroof
16-05-2008, 15:02
Se non è un discorso da tifoseria questo...
Nvidia ha fatto due anni da record con prodotti fenomenali e Ati ha mangiato polvere, non ci sono dubbi su questo. Ma non ci sono dubbi anche sul fatto che le proposte HD38XX hanno dato fastidio ad Nvidia ed hanno contribuito ad una lotta sui prezzi favorevole per noi clienti.
La speranza è che in futuro le cose si facciano più equilibrate.
e cosa ci vedi di tifoseria?
bastava che quotassi il mio intervento :boh:
haIduemiIauno
16-05-2008, 15:08
e cosa ci vedi di tifoseria?
bastava che quotassi il mio intervento :boh:
..emhh...
Intendevo il discorso sul fatturato di ATI e Nvidia...
Non vedo cosa c'entra il fatturato con la bontà delle singole GPU...
Se non è un discorso da tifoseria dire NVidia è meglio perchè fattura di più...
no halduemilauno si sta moltiplicando!!! come faremo, ecco qual'è la nuova tecnologia di nvidia immessa in gt200 far diventare tutti nvidiosi:D
appleroof
16-05-2008, 15:12
..emhh...
Intendevo il discorso sul fatturato di ATI e Nvidia...
Non vedo cosa c'entra il fatturato con la bontà delle singole GPU...
se non fai buoni prodotti (in sè e rispetto alla concorrenza se vogliamo) il fatturato da record non lo fai, non mi sembra la nuova teoria della relatività :mbe:
altrimenti vivacchi, tiri a campare, oppure chiudi e ti dai alla proverbiale ippica, oppure infine ti riprendi e torni come e meglio di prima (ricordi le fx?)
-noxius-
16-05-2008, 15:14
no halduemilauno si sta moltiplicando!!! come faremo, ecco qual'è la nuova tecnologia di nvidia immessa in gt200 far diventare tutti nvidiosi:D
Ora mi faccio il clone pure io ed inizio a spammare messaggi decisamente PRO-nVIDIA :ciapet: ...sul serio , si potrebbe tornare in tema perfavore ?
Non si sa. Però nVidia ha sempre buttato merda sulle DX10.1, mi sorprenderebbe vederle ora implementate, con buona pace dell'innovazione tecnologica di cui abbiamo visto gli effetti positivi, rimossi per motivi politici.
Anche ATi, ai tempi dell'X800, gettò fango sullo SM3.0 dicendo con il 2.0b si poteva già fare di tutto. Questo, però, non impedì alla ex società canadese di adottare le nuove librerie nell'X1900.
Anno nuovo dichiarazioni nuove, anche opposte, sarebbe il caso di dire. ;)
Comunque per quanto concerne la nuova denominazione di GT200 (GTX280/260), ritengo sia una scelta obbligata e più razionale per rendere meglio l'idea del profondo cambio dell'architettura. A livello di marketing sarebbe stato arduo spiegare che la serie 9900 è completamente diversa, ben superiore, alla 9800.
appleroof
16-05-2008, 15:18
Anche ATi, ai tempi dell'X800, gettò fango sullo SM3.0 dicendo con il 2.0b si poteva già fare di tutto. Questo, però, non impedì alla ex società canadese di adottare le nuove librerie nell'X1900.
Anno nuovo dichiarazioni nuove, anche opposte, sarebbe il caso di dire. ;)
Comunque per quanto concerne la nuova demoninazione di GT200 (GTX280/260), ritengo sia una scelta obbligata e più razionale per rendere meglio l'idea del profondo cambio dell'architettura. A livello di marketing sarebbe stato arduo spiegare che la serie 9900 è completamente diversa, ben superiore, alla 9800.
interessante spunto, non ci avevo proprio mai pensato....:)
haIduemiIauno
16-05-2008, 15:24
se non fai buoni prodotti (in sè e rispetto alla concorrenza se vogliamo) il fatturato da record non lo fai, non mi sembra la nuova teoria della relatività :mbe:
altrimenti vivacchi, tiri a campare, oppure chiudi e ti dai alla proverbiale ippica, oppure infine ti riprendi e torni come e meglio di prima (ricordi le fx?)
Evidentemente i tuoi studi non sono stati proprio nel campo dell'economia...
Forse di fisica? (non è che la teoria della relatività sia chiara a tutti)
;)
appleroof
16-05-2008, 15:26
Evidentemente i tuoi studi non sono stati proprio nel campo dell'economia...
Forse di fisica? (non è che la teoria della relatività sia chiara a tutti)
;)
insegnaci.
Comincia da qui: com'è che Nvidia ha fatturato (e fatto utile) da record? Magari cominciando dall'abc anche noi possiamo fare parte un giorno della cerchia dei Professori
;)
ecco, intanto dimmi se ho fatto bene i compiti:
I risultati finanziari per NVIDIA Corporation, leader mondiale nelle tecnologie relative al visual computing, sono veramente da record in quanto in base ai dati relativi all'anno fiscale 2008 quarto trimestre sono stati registrati profitti pari a 1,20 miliardi di dollari con un incremento del 37% rispetto allo stesso periodo dell'anno 2007 nel quale si erano registrati profitti pari a 878,9 milioni.
Anche l'utile netto è notevole con i suoi 257 milioni, con un guadagno di 0,42 dollari per azione, ed un incremento pari al 57% rispetto all'utile 2007 pari a 163,5 milioni, con un guadagno per azione pari a 0,27 dollari. Se ci basiamo inoltre su dati non-GAAP i risultati sono ancora più interessanti in quanto, escludendo per esempio le tasse applicate ed il costo di operazioni effettuate nel quarto trimestre, l'utile sale a 292,6 milioni, con un guadagno per azione pari a 0,49 dollari.
Complessivamente l'anno fiscale 2008, chiusosi il 27 gennaio scorso, registra per NVIDIA profitti record pari a ben 4,10 miliardi di dollari, rispetto ai 3,07 miliardi registrati nell'anno fiscale 2007, con un incremento del 34%. L'utile netto secondo gli standard GAAP è stato di 797 milioni con un guadagno per azione pari a 1,31 dollari, contro i 448,8 milioni, con un guadagno per azione pari a 0,76 dollari, dell'anno fiscale precedente chiusosi il 28 gennaio 2007.
Per ulteriori approfondimenti sui risultati finanziari di NVIDIA Corporation vi invitiamo alla lettura della relativa news pubblicata sul sito ufficiale della società americana.
ti rimando anche io al sito ufficiale, dovessi dire che me le invento le cose:
http://www.nvidia.com/object/io_1202940080671.html
HackaB321
16-05-2008, 15:42
Anche ATi, ai tempi dell'X800, gettò fango sullo SM3.0 dicendo con il 2.0b si poteva già fare di tutto. Questo, però, non impedì alla ex società canadese di adottare le nuove librerie nell'X1900.
Anno nuovo dichiarazioni nuove, anche opposte, sarebbe il caso di dire. ;)
Comunque per quanto concerne la nuova denominazione di GT200 (GTX280/260), ritengo sia una scelta obbligata e più razionale per rendere meglio l'idea del profondo cambio dell'architettura. A livello di marketing sarebbe stato arduo spiegare che la serie 9900 è completamente diversa, ben superiore, alla 9800.
Potrebbe essere certo. Il problema però, oltre che di strategie commerciali, è tecnico: le 10.1 danno la possibilità direttamente agli sviluppatori dei giochi di creare nell'applicazione filtri di aa customizzati . In sostanza l'aa, da funzione fissa gestita dall'hw delle gpu via driver, diventa una funzionalità programmabile e customizzabile dall'applicazione (cioè il motore del gioco).Già oggi G80-G92 supportano filtri customizzati ma solo via driver, senza che la funzione di resolve sia esposta negli shaders e gestibile quindi direttamente dall'applicazione.
A livello hw quindi il supporto delle 10.1 implica l'abbandono del resolve dell'aa nelle Rops o perlomeno la trasformazione delle Rops in unità programmabili in modo tale che l'hw sia in grado di gestire nuovi filtri creati dagli sviluppatori.
Mentre per ATi nel passaggio R600-RV670 si è trattato di un cambiamento indolore (perchè il resolve già in R600 era negli shaders e quindi programmabile), per Nvidia comporterebbe una notevole modifica all'architettura esistente che potrebbe avere, come per R600, un impatto negativo sulle performance. Quindi forse per Nvidia il gioco non vale la candela dato che comunque, come il caso AC dimostra, ha potere politico sufficiente a frenare l'evoluzione del mercato in questo senso
halduemilauno
16-05-2008, 15:43
insegnaci.
Comincia da qui: com'è che Nvidia ha fatturato (e fatto utile) da record? Magari cominciando dall'abc anche noi possiamo fare parte un giorno della cerchia dei Professori
;)
ecco, intanto dimmi se ho fatto bene i compiti:
I risultati finanziari per NVIDIA Corporation, leader mondiale nelle tecnologie relative al visual computing, sono veramente da record in quanto in base ai dati relativi all'anno fiscale 2008 quarto trimestre (quindi in piena era G92, il chip con un margine micragnoso n.d.r.) sono stati registrati profitti pari a 1,20 miliardi di dollari con un incremento del 37% rispetto allo stesso periodo dell'anno 2007 nel quale si erano registrati profitti pari a 878,9 milioni.
Anche l'utile netto è notevole con i suoi 257 milioni, con un guadagno di 0,42 dollari per azione, ed un incremento pari al 57% rispetto all'utile 2007 (quindi in piena era G92, il chip con un margine micragnoso n.d.r.) pari a 163,5 milioni, con un guadagno per azione pari a 0,27 dollari. Se ci basiamo inoltre su dati non-GAAP i risultati sono ancora più interessanti in quanto, escludendo per esempio le tasse applicate ed il costo di operazioni effettuate nel quarto trimestre, l'utile sale a 292,6 milioni, con un guadagno per azione pari a 0,49 dollari.
Complessivamente l'anno fiscale 2008, chiusosi il 27 gennaio scorso, registra per NVIDIA profitti record pari a ben 4,10 miliardi di dollari, rispetto ai 3,07 miliardi registrati nell'anno fiscale 2007, con un incremento del 34%. L'utile netto secondo gli standard GAAP è stato di 797 milioni con un guadagno per azione pari a 1,31 dollari, contro i 448,8 milioni, con un guadagno per azione pari a 0,76 dollari, dell'anno fiscale precedente chiusosi il 28 gennaio 2007.
Per ulteriori approfondimenti sui risultati finanziari di NVIDIA Corporation vi invitiamo alla lettura della relativa news pubblicata sul sito ufficiale della società americana.
ti rimando anche io al sito ufficiale, dovessi dire che me le invento le cose:
http://www.nvidia.com/object/io_1202940080671.html
tutto giusto. ma dalle mie parti(sulla Discovery. io sono quello vero)si dice che non c'è peggior sordo di chi non vuol sentire e peggior cieco di chi non vuol vedere. questi per star sicuri si bendano pure gli occhi e si mettono anche i tappi alle orecchie.
ciao apple.
;)
Intel è la numero 1 del mercato
:sbonk:
Comincia da qui: com'è che Nvidia ha fatturato (e fatto utile) da record?
NVidia non vende solo ed esclusivamente schede desktop di fascia alta, ma anche gpu per laptop e handheld, motherboards, ecc...
Inoltre anche utile != margine.
Ovvio che se vendo molto proporzionalmente incremento l'utile. Ma il numero in sè ha poco senso, se un business funziona e rende davvero lo si capisce dalla marginalità (alias gross margin o, meglio EBITDA margin).
Non solo, ma anche far vedere l'utile in sè ha poco senso, visto che l'utile è l'EBITDA (quanto guadagni con le operazioni "core") + tanta altra roba (proventi/oneri finanziari, proventi/oneri straordinari, ecc...) - le tasse. ;)
Foglia Morta
16-05-2008, 17:56
sempre CJ dice di aver ricevuto conferma riguardo i 240 SP , 512bit di bus e 1GB di memoria.
Stando a una slide di nVidia di qualche tempo fa si prospetta una gpu con supporto per la doppia precisione FP64 a 1/8 ( 12,5 % ) rispetto a FP32 , quindi non dovrebbe essere un semplice G9X maggiorato ma con qualche rivisitazione
halduemilauno
16-05-2008, 18:00
Stavo riflettendo sulla possibilità che un sampling possa in tempi successivi proporre un GT200 con bus a 384bit per smaltire anche pezzi di silicio parzialmente difettati...
la gtx240.
O qualcosa del genere, magari decidono di chiamarla GT280 :>
io spero che le 3 lettere prima non cambino.. per lo meno nella stessa gen.. altrimenti non ha senso tutto il discorso fatto sul cambio di nomenclatura e sul fare chiarezza :P
raga, alla luce di queste nuove schede video, secondo me chi ha comprato la 9800gx2 quando è uscita a 450 euro ha preso una bella :ciapet: ...con questo non voglio offendere o prendere in giro nessuno..ci mancherebbe! Oltretutto si possono benissimo rivendere..però resta il fatto che aveva un prezzo cmq alto e non ti permetteva cmq a giocare a palla all'unico gioco in cui magari tutta quella potenza poteva essere utile! se poi ci mettiamo che tra un po' escono queste bombe! ricordo di uno che ne aveva prese addirittura due!!:eek: Vabbè ognuno con i suoi soldi fa quel che vuole, però personalmente avrei spettato qualche mese ben volentieri..
halduemilauno
16-05-2008, 18:14
O qualcosa del genere, magari decidono di chiamarla GT280 :>
riferendosi allo stesso chip è + probabile gtx240 ma per carità va bene pure il gt280.
halduemilauno
16-05-2008, 18:15
io spero che le 3 lettere prima non cambino.. per lo meno nella stessa gen.. altrimenti non ha senso tutto il discorso fatto sul cambio di nomenclatura e sul fare chiarezza :P
non è questione di generazione ma di fascia. ci saranno gtx, gts, gt. ora 2 un domani 3.
non è questione di generazione ma di fascia. ci saranno gtx, gts, gt. ora 2 un domani 3.
quindi in sostanza hanno tolto una cifra e invertito lettere e numeri.. bello :D
appleroof
16-05-2008, 18:55
tutto giusto. ma dalle mie parti(sulla Discovery. io sono quello vero)si dice che non c'è peggior sordo di chi non vuol sentire e peggior cieco di chi non vuol vedere. questi per star sicuri si bendano pure gli occhi e si mettono anche i tappi alle orecchie.
ciao apple.
;)
esatto, oppure hanno il gusto della provocazione fine a se stessa (i soliti troll)
NVidia non vende solo ed esclusivamente schede desktop di fascia alta, ma anche gpu per laptop e handheld, motherboards, ecc...
Inoltre anche utile != margine.
Ovvio che se vendo molto proporzionalmente incremento l'utile. Ma il numero in sè ha poco senso, se un business funziona e rende davvero lo si capisce dalla marginalità (alias gross margin o, meglio EBITDA margin).
Non solo, ma anche far vedere l'utile in sè ha poco senso, visto che l'utile è l'EBITDA (quanto guadagni con le operazioni "core" + tanta altra roba (proventi/oneri finanziari, proventi/oneri straordinari, ecc...) - le tasse. ;)
A.l.m. rispondevo alla provocazione con un'altra provocazione (non colta evidentemente per incapacità a rispondere), non certo intendevo per forza una lezione di economia (ma il tuo nick corrisponde a quella società?)
capisco tutte le belle cose che dici, ma stà di fatto che i risultati 2007 di Nvidia sono straordinari e qui, come la vuoi girare, si deve al successo della serie 8, aiutato di certo dal mezzo flop della serie 2900 solo in minima parte recuperato grazie alla 38x0 ma anche e sopratutto dalla bontà delle schede in sè. E' quest'ultimo (sottolineato), il punto capisci?
appleroof
16-05-2008, 18:59
Questo è il motivo per cui normalmente si sconsigliano le dual, soprattutto a ridosso della generazione successiva :>
Vedremo se come si vocifera AMD con R700 cambierà di qualcosa l'approccio di brutale SLI/CF su una scheda che fin'ora abbiamo visto o meno...
e anche perchè finora sono solo un tentativo di recuperare immagine, prestazionalmente sono più magagne che altro, almeno ripeto finora
raga, alla luce di queste nuove schede video, secondo me chi ha comprato la 9800gx2 quando è uscita a 450 euro ha preso una bella :ciapet: ...con questo non voglio offendere o prendere in giro nessuno..ci mancherebbe! Oltretutto si possono benissimo rivendere..però resta il fatto che aveva un prezzo cmq alto e non ti permetteva cmq a giocare a palla all'unico gioco in cui magari tutta quella potenza poteva essere utile! se poi ci mettiamo che tra un po' escono queste bombe! ricordo di uno che ne aveva prese addirittura due!!:eek: Vabbè ognuno con i suoi soldi fa quel che vuole, però personalmente avrei spettato qualche mese ben volentieri..
:mad: :Prrr:
:asd:
A.l.m. rispondevo alla provocazione con un'altra provocazione (non colta evidentemente per incapacità a rispondere),
Mah se ti riferisci al finto Hal, mi sa che non l'ha colta perchè è :banned: :asd:
non certo intendevo per forza una lezione di economia (ma il tuo nick corrisponde a quella società?)
No, sono le mie iniziali (nome+2 di cognome).
Ecco perchè ho le cifre di una camicia come avatar.
Io sono l'originale: le società con la mia stessa sigla mi hanno copiato. :O :cool:
capisco tutte le belle cose che dici, ma stà di fatto che i risultati 2007 di Nvidia sono straordinari e qui, come la vuoi girare, si deve al successo della serie 8, aiutato di certo dal mezzo flop della serie 2900 solo in minima parte recuperato grazie alla 38x0 ma anche e sopratutto dalla bontà delle schede in sè. E' quest'ultimo (sottolineato), il punto capisci?
Ma questo è vero, e nessuno lo nega. ;)
Volevo solo sottolineare che discutere dei risultati economici di una società non è proprio come postare benchmark di giochi... :sofico:
Vorrei far notare che GT200, oltre alla potenza di calcolo in sé, potrà contare su un supporto alla fisica di maggior rilievo grazie all'acquisizione di AGEIA. Il che a livello marketing è decisamente utile. ;)
appleroof
16-05-2008, 22:19
cut
No, sono le mie iniziali (nome+2 di cognome).
Ecco perchè ho le cifre di una camicia come avatar.
Io sono l'originale: le società con la mia stessa sigla mi hanno copiato. :O :cool:
cut
ah pensavo, visto che sei ferrato, ti riferissi a questa
http://www.mediobanca.it/235_IT.htm
pensa la fantasia a volte :p :D
Vorrei far notare che GT200, oltre alla potenza di calcolo in sé, potrà contare su un supporto alla fisica di maggior rilievo grazie all'acquisizione di AGEIA. Il che a livello marketing è decisamente utile. ;)
e speriamo anche che non sia solo marketing ;)
ah pensavo, visto che sei ferrato, ti riferissi a questa
http://www.mediobanca.it/235_IT.htm
pensa la fantasia a volte :p :D
La società non è quella. Il mercato / lavoro però è molto simile. ;)
appleroof
16-05-2008, 22:30
La società non è quella. Il mercato / lavoro però è molto simile. ;)
allora vedi che ci avevo quasi beccato :D , si vede dai commenti economici che fai :read:
chiuso ot
_morghan_1968
17-05-2008, 10:38
Vorrei far notare che GT200, oltre alla potenza di calcolo in sé, potrà contare su un supporto alla fisica di maggior rilievo grazie all'acquisizione di AGEIA. Il che a livello marketing è decisamente utile. ;)
quoto: non bisogna dimenticare questo "valore aggiunto"
-noxius-
17-05-2008, 10:44
quoto: non bisogna dimenticare questo "valore aggiunto"
Concordo, peccato che l'avrebbero già dovuto implementare sulla ormai defunta serie 8000 ; che forse non sia ancora ottimizzato nè efficiente in merito al lato driver ?
nervoteso
17-05-2008, 12:45
ho appena ordinato un 24" per il gt200!
mi ricordate quando esce la g200, grazie.
mi ricordate quando esce la g200, grazie.
Beh a quanto sembra il 18 Giugno o forse metà luglio, comunque entro l'estate. ;)
Ageia è stata acquisita quanto, 3 mesi fa?
E' piuttosto chiaro che non hanno integrato niente di Ageia a livello hardware, a meno che non si pensi sia possibile sviluppare un chip in 3 mesi...
Non ricordo di preciso come stavano le cose ma non credo (a quanto ho capito) che si tratti almeno inizialmente di un chip quanto invece di integrare i driver di gestione della fisica di Ageia nei ForceWare per poter sfruttare parte della GPU per il calcolo della fisica, credo che in futuro forse riserveranno un chip apposta ma non so se gli converrà o meno e quale soluzione sarà la migliore per la gestione della fisica.
Certo se si trattasse di un chip la vedo difficile che sia posto su questa nuova Top di gamma, mi sembra presto come dici tu e poi avremmo sentito o letto qualcosa al riguardo.
Vedremo quando ci sarà l'incontro con la stampa comunque quali saranno le verità e quali le menzogne. :D
Beh a quanto sembra il 18 Giugno o forse metà luglio, comunque entro l'estate. ;)
ma stiamo parlando della fascia alta?di quella che farà girare crysis come si deve :D? se si, quanto costerà?(mi sembra di aver letto 400 euro)
Mister Tarpone
17-05-2008, 14:29
ma stiamo parlando della fascia alta?di quella che farà girare crysis come si deve :D? se si, quanto costerà?(mi sembra di aver letto 400 euro)
gtx 280 costerà anche 5-600€ :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.