View Full Version : [THREAD UFFICIALE] Geforce GTX280
overclock83
16-07-2008, 22:22
secondo voi con il mio ali coolermaster extreme power 650 watt riesco ad alimentare la gtx280??
27cm? quindi non ci sta in un soprano dx... che cavolo di case ci vuole?
è lunga come la 8800 gtx eh...
Osiride3
16-07-2008, 23:13
raga volete dire che pure qui noi che abbiamo acquistato evga avremo un rimborso? fatemi luce, o solo in USA?
ti voglio ricordare che sei in ITALIA, patria dove i farmaci vengono rimborsati dal fisco, vero, minima spesa annua 200 euro, poi parte il conteggio da o ed il rimborso è del 10 o 20% ovvero l'IVA, pensa questo è il rimborso per la gente veramente ammalata, secondo te a noi darebbero qualcosa :confused:
Mi sembra di risentir parlare di un certo tesoretto che di colpo nn si sa che fine ha fatto.
W ITALIA
NOOB4EVER
16-07-2008, 23:31
APPELLO A TUTTI COLORO CHE HANNO SERAIMENTE UNA GTX 280 :
come lo giocate crysis in DX10 in very high ?
non ci provo nemmeno pure con lo sli ;)
qualcuno di voi ha preso la GTX280 della XFX all'uscita? Avete saputo che la XFX ha deciso di rimborsare fino a 120$ a chi ha preso la vga all'uscita pagandola a prezzo pieno?? :D
Di sicuro è già stato scritto indietro, ma non ho letto le pagine indietro. Comunque è sicuramente un'ottima mossa che fa contenti gli utenti e nvidia e che di sicuro fa un'eccellente pubblicità a xfx!! :D
Tidus.hw
17-07-2008, 07:48
qualcuno di voi ha preso la GTX280 della XFX all'uscita? Avete saputo che la XFX ha deciso di rimborsare fino a 120$ a chi ha preso la vga all'uscita pagandola a prezzo pieno?? :D
Di sicuro è già stato scritto indietro, ma non ho letto le pagine indietro. Comunque è sicuramente un'ottima mossa che fa contenti gli utenti e nvidia e che di sicuro fa un'eccellente pubblicità a xfx!! :D
è già stato detto, lo farà anche eVga e solo in stati uniti e canada..
è già stato detto, lo farà anche eVga e solo in stati uniti e canada..
azz... quindi niente europa.... fanno sempre così però. :doh:
fdadakjli
17-07-2008, 09:42
azz... quindi niente europa.... fanno sempre così però. :doh:
XFX copre il mercato europeo... ;)
per ora cmq rimborsano solo in USA...vedremo in seguito...
APPELLO A TUTTI COLORO CHE HANNO SERAIMENTE UNA GTX 280 :
come lo giocate crysis in DX10 in very high ?
lol ancora? ti ho gia detto che 40 fps non li farai mai con nessuna scheda a crysis con quella impostazioni...il TUO AMICO TI HA DETTO UNA MINCHIATA
NOOB4EVER
17-07-2008, 11:12
lol ancora? ti ho gia detto che 40 fps non li farai mai con nessuna scheda a crysis con quella impostazioni...il TUO AMICO TI HA DETTO UNA MINCHIATA
LMAO , dagli retta , niente very high in vista !!! abilita le caratteristiche dx10 in xp tweakkando in cvargroup e otterrai le stesse impostazioni ottenibili su vista ma con il doppio dei frame ,;)
APPELLO A TUTTI COLORO CHE HANNO SERAIMENTE UNA GTX 280 :
come lo giocate crysis in DX10 in very high ?
Lascia stare Crysis, hanno ancora una possibilità con Warhead, se toppano anche quella dubito che venderanno molto.
Crysis non è completo, ma questa affermazione sarà confermabile solo se Warhead andasse veramente bene come annunciato, se così realmente fosse sarebbe palese la mal programmazione di Crysis.
Ne ho provate di schede con quel gioco e non cambia quasi mai nulla, cioè non ha nemmeno più senso usarlo come metro di paragone prestazionale per le schede.
Ne ho provate di schede con quel gioco e non cambia quasi mai nulla, cioè non ha nemmeno più senso usarlo come metro di paragone prestazionale per le schede.
* ;)
EVGA Geforce GTX 280 drops to $449.99
PNY sells for $419.99
Nvidia is getting more and more aggressive with its Geforce GTX 280 pricing. EVGA is now selling its retail version of EVGA 01G-P3-1280-AR GeForce GTX 280 1GB 512-bit GDDR3 PCI Express 2.0 x16 HDCP Ready SLI card for $449.99.
PNY has some special promotion and it sells its GTX 280 for $419.99 after mail in rebate.
There are a few other vendors who can match $450 price while some still hope to sell their cards for $499. You can get them here.
ATI is selling its Radeon HD 4870 for $299 or less and the way the market goes, it looks that Radeon HD 4870 X2 will drop from its original $549 before it even launches.
e c'e' ancora chi dice che non sono ladri...ahahahha ma finitela...
NOOB4EVER
17-07-2008, 11:51
Lascia stare Crysis, hanno ancora una possibilità con Warhead, se toppano anche quella dubito che venderanno molto.
Crysis non è completo, ma questa affermazione sarà confermabile solo se Warhead andasse veramente bene come annunciato, se così realmente fosse sarebbe palese la mal programmazione di Crysis.
Ne ho provate di schede con quel gioco e non cambia quasi mai nulla, cioè non ha nemmeno più senso usarlo come metro di paragone prestazionale per le schede.
* ;)
:read: ;) :)
EVGA Geforce GTX 280 drops to $449.99
PNY sells for $419.99
Nvidia is getting more and more aggressive with its Geforce GTX 280 pricing. EVGA is now selling its retail version of EVGA 01G-P3-1280-AR GeForce GTX 280 1GB 512-bit GDDR3 PCI Express 2.0 x16 HDCP Ready SLI card for $449.99.
PNY has some special promotion and it sells its GTX 280 for $419.99 after mail in rebate.
There are a few other vendors who can match $450 price while some still hope to sell their cards for $499. You can get them here.
ATI is selling its Radeon HD 4870 for $299 or less and the way the market goes, it looks that Radeon HD 4870 X2 will drop from its original $549 before it even launches.
e c'e' ancora chi dice che non sono ladri...ahahahha ma finitela...
è sempre piacevole leggere deliranti messaggi flammatori come questi.
Fire Hurricane
17-07-2008, 11:56
lol ancora? ti ho gia detto che 40 fps non li farai mai con nessuna scheda a crysis con quella impostazioni...il TUO AMICO TI HA DETTO UNA MINCHIATA
non è l'unico, sul thread della 4870 qualcuno gioca anche in DX9 Very high con MSAA 4x a 1605x1050. e va benissimo.
Con DX10 la media di 40 frames c'è anche per altre persone se giri i forum.
Mi dareste qualche informazione sulle temperature di questa vga? Sia in idle che in full.
Sto seriamente pensando di cambiare, non tanto per le prestazioni, che grossomodo si equivalgono (io ho la gx2 come da firma) per quanto questa sia un po' migliore...
Quanto eprche' io non posso avere un forno da 90 gradi nel pc!
Non esiste..
Nessuno puo cortesemente cominicarmi le temperature?
Mister Tarpone
17-07-2008, 11:58
* ;)
:read: ;) :)
;) *.* ;)
DavidM74
17-07-2008, 12:02
Nessuno puo cortesemente cominicarmi le temperature?
qualcosina in meno della GX2 da un'occhio QUI (http://www.hwupgrade.it/articoli/skvideo/1988/nvidia-geforce-gtx-280-oltre-g80-e-g92_6.html) ;)
è sempre piacevole leggere deliranti messaggi flammatori come questi.
si ok ma se parti da 650$ e in un mese abbassi a 450$...fai abbastanza skifo...calcolando che sono un estimatore di nvidia e posseggo un'8800ultra...
http://www.nordichardware.com/news,7955.html
si ok ma se parti da 650$ e in un mese abbassi a 450$...fai abbastanza skifo...calcolando che sono un estimatore di nvidia e posseggo un'8800ultra...
http://www.nordichardware.com/news,7955.html
Si può parlare della politica (allucinante) dei prezzi praticata da Nvidia per le gtx280 anche in altri termini. Non c'è bisogno di denigrare in quel modo, perchè, ed è bene sottolinearlo, tu non ti stavi scagliando contro il colosso di santa Clara e i brand che hanno praticato prezzi pazzeschi, ma implicitamente (e manco tanto) il tuo intervento era diretto a prendere in giro chi ha acquistato la scheda pagandola un prezzo altissimo. In questo senso sei comunque scorretto.
tuto qui. Per quanto riguarda il resto, invece, sono completamente d'accordo con te.
NeedForSpeed73
17-07-2008, 12:53
non ci provo nemmeno pure con lo sli ;)
Il "gpu_test" dell'utility "Crysis Benchamarking Tool" mi fa circa 30fps tutto VH + 4xAA e 16xAF con il sistema e i clock in firma.
Se non ci credete stasera lo rifaccio, faccio screen e lo posto! :D
NeedForSpeed73
17-07-2008, 12:59
EVGA Geforce GTX 280 drops to $449.99
PNY sells for $419.99
Nvidia is getting more and more aggressive with its Geforce GTX 280 pricing. EVGA is now selling its retail version of EVGA 01G-P3-1280-AR GeForce GTX 280 1GB 512-bit GDDR3 PCI Express 2.0 x16 HDCP Ready SLI card for $449.99.
PNY has some special promotion and it sells its GTX 280 for $419.99 after mail in rebate.
There are a few other vendors who can match $450 price while some still hope to sell their cards for $499. You can get them here.
ATI is selling its Radeon HD 4870 for $299 or less and the way the market goes, it looks that Radeon HD 4870 X2 will drop from its original $549 before it even launches.
e c'e' ancora chi dice che non sono ladri...ahahahha ma finitela...
Ormai la 280GTX è in "caduta libera". C'è un negozio qui a Roma (di cui non faccio il nome per ovvi motivi) che la mette a €397,50 ivata; pensate che lo stesso negozio la settimana scorso la vendeva a €419 (e io un mese fa le ho pagate più di €500:( )! :eek:
Se poi si applicassero i cambi €/$ reali anziché il solito 1:1... :rolleyes:
NOOB4EVER
17-07-2008, 13:14
Il "gpu_test" dell'utility "Crysis Benchamarking Tool" mi fa circa 30fps tutto VH + 4xAA e 16xAF con il sistema e i clock in firma.
Se non ci credete stasera lo rifaccio, faccio screen e lo posto! :D
sappimi dire come va il gioco e non il test,di solito e' tutta un'altra storia (PS a che risoluzione fai il test x curiosita?) :)
non è l'unico, sul thread della 4870 qualcuno gioca anche in DX9 Very high con MSAA 4x a 1605x1050. e va benissimo.
Con DX10 la media di 40 frames c'è anche per altre persone se giri i forum.
risposta:
Il "gpu_test" dell'utility "Crysis Benchamarking Tool" mi fa circa 30fps tutto VH + 4xAA e 16xAF con il sistema e i clock in firma.
Se non ci credete stasera lo rifaccio, faccio screen e lo posto! :D
(lui ha uno sli di gtx280...)
nessuna scheda SINGOLA potra mai farti 40 fps a crysis tutto very high, neanche a 1280x1024...
Si può parlare della politica (allucinante) dei prezzi praticata da Nvidia per le gtx280 anche in altri termini. Non c'è bisogno di denigrare in quel modo, perchè, ed è bene sottolinearlo, tu non ti stavi scagliando contro il colosso di santa Clara e i brand che hanno praticato prezzi pazzeschi, ma implicitamente (e manco tanto) il tuo intervento era diretto a prendere in giro chi ha acquistato la scheda pagandola un prezzo altissimo. In questo senso sei comunque scorretto.
tuto qui. Per quanto riguarda il resto, invece, sono completamente d'accordo con te.
si certo anche perchè non ha senso buttare dei soldi cosi' prima di acquistare bisognerebbe aspettare un po' invece c'e' gente che solo per dire io l'ho comprata io già c'e' l'ho "per fare i grandi" e demigrare chi non se la puo' permettere...adesso continutate a fare i "grandi" dopo averla pagata 550€ e ne vale 200€ di meno se non ancora di più... più che "grandi" io direi non molto intelligenti e gli sta bene, ma cosi si sentonto fichi... poi si certo l'80% del discorso è più riguardo nvidia che è ladra tutto qui...
si certo anche perchè non ha senso buttare dei soldi cosi' prima di acquistare bisognerebbe aspettare un po' invece c'e' gente che solo per dire io l'ho comprata io già c'e' l'ho "per fare i grandi" e demigrare chi non se la puo' permettere...adesso continutate a fare i "grandi" dopo averla pagata 550€ e ne vale 200€ di meno se non ancora di più... più che "grandi" io direi non molto intelligenti e gli sta bene, ma cosi si sentonto fichi... poi si certo l'80% del discorso è più riguardo nvidia che è ladra tutto qui...
Si ma ti rendi conto che hai fatto tutto da solo? Nessuno ti è venuto a sbattere in faccia nulla; ognuno con i propri soldi fa quello che vuole, io non mi permetterei mai di andare a dire come/quanti/quando spenderli ad altri.
XFX copre il mercato europeo... ;)
per ora cmq rimborsano solo in USA...vedremo in seguito...
eheh... te ne hai 3 in firma... :D
(riesci almeno a giocare a crysis in VH?)
si certo anche perchè non ha senso buttare dei soldi cosi' prima di acquistare bisognerebbe aspettare un po' invece c'e' gente che solo per dire io l'ho comprata io già c'e' l'ho "per fare i grandi" e demigrare chi non se la puo' permettere...adesso continutate a fare i "grandi" dopo averla pagata 550€ e ne vale 200€ di meno se non ancora di più... più che "grandi" io direi non molto intelligenti e gli sta bene, ma cosi si sentonto fichi... poi si certo l'80% del discorso è più riguardo nvidia che è ladra tutto qui...
Occhio ai flames;)
Cmq ormai io ho imparato.... aspettare un po ke si calmino le acque del prezzo lancio ;)
Va be ke aspettero i 55nm io eh... e spero Nvidia non faccia di nuovo sta ladrata... ma ormai non credo
magnusll
17-07-2008, 14:12
si certo anche perchè non ha senso buttare dei soldi cosi' prima di acquistare bisognerebbe aspettare un po' invece c'e' gente che solo per dire io l'ho comprata io già c'e' l'ho "per fare i grandi" e demigrare chi non se la puo' permettere...adesso continutate a fare i "grandi" dopo averla pagata 550€ e ne vale 200€ di meno se non ancora di più... più che "grandi" io direi non molto intelligenti e gli sta bene, ma cosi si sentonto fichi... poi si certo l'80% del discorso è più riguardo nvidia che è ladra tutto qui...
Mai pensato alla possibilita' che uno si compra una vga top di gamma perche' ha piacere ad usarla piuttosto che per prendere per il culo chi non se la puo' permettere?
Non so, te la butto li' come ipotesi remota...
è sempre piacevole leggere deliranti messaggi flammatori come questi.
quoto! ;)
NOOB4EVER
17-07-2008, 14:16
avrei una domanda per te e per tutti i possessori di SLI di GTX280 se anche voi avete temperature di 90 gradi sulla skeda superiore contro i 60 di quella inferiore , ovviamente sotto stress,possibile che il divario si attesti attorno ad una trentina di gradi?? :confused:
Occhio ai flames;)
Cmq ormai io ho imparato.... aspettare un po ke si calmino le acque del prezzo lancio ;)
Va be ke aspettero i 55nm io eh... e spero Nvidia non faccia di nuovo sta ladrata... ma ormai non credo
nvidia può permettersi di fare queste ladrate perchè è riuscita a crearsi una fama talmente forte che c'è sempre chi abbocca.
Poi ovvio che i soldi sono di chi li spende, quindi ognuno è libero di spenderli come vuole, però parlando seriamente, a meno che uno non abbia proprio soldi da buttare o voglia a tutti i costi la vga top appena uscita, chi ha preso la GTX280 all'uscita che non rientra in queste 2 categorie ha fatto uno dei più pessimi (evviva l'italiano :D ) affari che si siano potuti fare nel mercato delle VGA.
Anche io ad esempio ho preso la 4850 all'uscita, però prendendola all'uscita l'ho pagata 170€ contro i 130€ attuali, ho smenato 40€, ma è già da un mese che ce l'ho e 40€ non sono 200€ (o più)... :)
Mai pensato alla possibilita' che uno si compra una vga top di gamma perche' ha piacere ad usarla piuttosto che per prendere per il culo chi non se la puo' permettere?
Non so, te la butto li' come ipotesi remota...
si non mi pare che ho detto che lo fanno solo per fare i grandi pero' che c'e' qualcuno che lo fà...tutto da solo non prendiamoci in giro perchè già il fatto di scriverlo nel forum eh "bhe io l'ho presa" è per fare il figo tutto qui anche perchè a me che tu l'hai presa che **** me ne frega?...cmq non ho capito se per avere il top devo pagare un cosa il doppio di quello che vale, cosi posso dire che ho il top??? invece esempio mi prendo un ati 4870x2 che fà il doppio e costa uguale se non di meno a una gtx280 ma solo dopo che l'hanno abbassata di circa 200€!! e si ma costa di meno non ho il top...asd
e cmq ogniuno è libero di fare quello che vuole con i propri soldi era solo una mia opinione...poi se rosicate per qualcosa bhe problemi vostri...si vede che avete fatto qualche scelta sbagliata...asd
NOOB4EVER
17-07-2008, 14:29
si non mi pare che ho detto che lo fanno solo per fare i grandi solo che c'e' qualcuno che lo fà...tutto da solo non prendiamoci in giro...perchè già il fatto di scriverlo nel forum eh "bhe io l'ho presa" è per fare il figo tutto qui anche perchè a me che tu l'hai presa che **** me ne frega?...cmq non ho capito se per avere il top devo pagare un cosa il doppio di quello che vale, cosi posso dire che ho il top??? invece esempio mi prendo un ati 4870x2 che fà il doppio e costa uguale se non di meno a una gtx280 ma solo dopo che l'hanno abbassata di circa 200€!! e si ma costa di meno non ho il top...asd
e cmq ogniuno è libero di fare quello che vuole con i proprio soldi era solo una mia opinione...
sono daccordo con cio' che vuoi esprimere ma purtroppo,e ti assicuro che mi riferisco a me,quando la passione arriva a certi livelli c'e' poco da ponderare,te lo assicuro,cioe' e' difficile da capire per chi non la vive in questo modo,ma ti garantisco che se anche tu avessi perlomeno la meta' della 'malattia' che affligge molti di noi qui sul forum,ti assicuro che baderesti ad usare tanta foga nell'esprimerti,spero che tu mi abbia capito fino in fondo,per certe cose , non c'e' prezzo.....;) (PS con cio' non voglio assolutamente dire che ho fatto bene a spendere 1000 euro di vga,anche perche' ho rinunciato a tutto per prendermele,vacanze comprese ) ;) ;)
massimovasche
17-07-2008, 15:07
Ciao a tutti fra poco cambio lo SLI delle 8800 con le 280 e sarò tra breve dei vostri:sborone: Volevo sapere se ci sono dissipatori ad aria per questa scheda gia in commercio.
Ciao:)
appleroof
17-07-2008, 15:24
nvidia può permettersi di fare queste ladrate perchè è riuscita a crearsi una fama talmente forte che c'è sempre chi abbocca.
cut
occhio a fare queste semplificazioni: io credo piuttosto che, per quanto riguarda Nvidia, abbia sottovalutato le prestazioni di rv770 e abbia prezzato le sue vga di conseguenza (ed infatti i prezzi sono crollati all'uscita di rv770, per contro una scheda come la gtx8800 ha mantenuto un prezzo molto alto perchè 2900xt e successive erano scarse), inoltre aveva da coprire più costi di produzione ed infine, aveva sicuramente 2 anni di predominio prestazionale
Ati ha prezzato poco le sue vga perchè (secondo me molto intelligentemente) così può recuperare più in fretta possibile quote di mercato con un ottimo prodotto (a diffrenza della 38x0 che costavano poco perchè sennò non ne vendevano), facilitata dai costi bassi di produzione e quindi fatto salvo il guadagno: la cosa facilita sicuramente il consumatore, alla fine della fiera, ma questo non è assolutamente per spirito di beneficenza
non fatevi infinocchiare da Nvidia ladrona/Ati samaritana perchè non è assolutamente così ;)
michelgaetano
17-07-2008, 15:52
occhio a fare queste semplificazioni: io credo piuttosto che, per quanto riguarda Nvidia, abbia sottovalutato le prestazioni di rv770 e abbia prezzato le sue vga di conseguenza (ed infatti i prezzi sono crollati all'uscita di rv770, per contro una scheda come la gtx8800 ha mantenuto un prezzo molto alto perchè 2900xt e successive erano scarse), inoltre aveva da coprire più costi di produzione ed infine, aveva sicuramente 2 anni di predominio prestazionale
Ati ha prezzato poco le sue vga perchè (secondo me molto intelligentemente) così può recuperare più in fretta possibile quote di mercato con un ottimo prodotto (a diffrenza della 38x0 che costavano poco perchè sennò non ne vendevano), facilitata dai costi bassi di produzione e quindi fatto salvo il guadagno: la cosa facilita sicuramente il consumatore, alla fine della fiera, ma questo non è assolutamente per spirito di beneficenza
non fatevi infinocchiare da Nvidia ladrona/Ati samaritana perchè non è assolutamente così ;)
Esattamente, ATI avrebbe fatto lo stesso al posto di Nvidia.
Ciò che importa è avere prestazioni da paura già a 130 euro :D
Mister Tarpone
17-07-2008, 15:53
apple non mi resta che quotarti.. come al solito... :cincin:
magnusll
17-07-2008, 15:56
e cmq ogniuno è libero di fare quello che vuole con i propri soldi era solo una mia opinione...poi se rosicate per qualcosa bhe problemi vostri...si vede che avete fatto qualche scelta sbagliata...asd
Guarda, io nel mio case attualmente ho due 3870 in Crossfire e la seconda l'ho presa piu' che altro per lo sfizio di fare la prova, quindi... ;)
Ora me ne sto tranquillo alla finestra a rimirare le masse di cadaveri che sfilano nel fiume, e a Settembre si vedra' com'e' la situazione :D
appleroof
17-07-2008, 15:58
apple non mi resta che quotarti.. come al solito... :cincin:
:mano: ;)
occhio a fare queste semplificazioni: io credo piuttosto che, per quanto riguarda Nvidia, abbia sottovalutato le prestazioni di rv770 e abbia prezzato le sue vga di conseguenza (ed infatti i prezzi sono crollati all'uscita di rv770, per contro una scheda come la gtx8800 ha mantenuto un prezzo molto alto perchè 2900xt e successive erano scarse), inoltre aveva da coprire più costi di produzione ed infine, aveva sicuramente 2 anni di predominio prestazionale
Ati ha prezzato poco le sue vga perchè (secondo me molto intelligentemente) così può recuperare più in fretta possibile quote di mercato con un ottimo prodotto (a diffrenza della 38x0 che costavano poco perchè sennò non ne vendevano), facilitata dai costi bassi di produzione e quindi fatto salvo il guadagno: la cosa facilita sicuramente il consumatore, alla fine della fiera, ma questo non è assolutamente per spirito di beneficenza
non fatevi infinocchiare da Nvidia ladrona/Ati samaritana perchè non è assolutamente così ;)
1@io credo piuttosto che, per quanto riguarda Nvidia, abbia sottovalutato le prestazioni di rv770.
-non ho capito metti il prezzo dell'hardware a secondo delle prestazioni e non dell'hardware stesso mi sembra una vaccata...che fai "CREDI" che la scheda fà 10 volte di più di un altra e quindi la prezzi il triplo anche se hai speso la metà della metà per produrla... perchè non penso che anche adesso a quasi la metà del prezzo nvidia ci stia perdendo sarebbe stupido... O_O
2@aveva sicuramente 2 anni di predominio prestazionale.
-e con questo puoi permetterti di fare prezzi a cacchio? anche se l'hardware non li vale... O_O
bene praticamente nvidia pensa che siamo tutti deficienti ottimo...che poi cmq non è poi cosi falso perchè ci sono quelli che l'hanno comprata a prezzo pieno senza aspettare delle comparazioni con ati...
tutte cose non valide secondo me e solo perchè è avida di soldi...non gli sono bastati quelli fatti con le 8000...anche se li valeva tutti infatti guarda ancora adesso quanto costano... :mad:
appleroof
17-07-2008, 16:41
1@io credo piuttosto che, per quanto riguarda Nvidia, abbia sottovalutato le prestazioni di rv770.
-non ho capito metti il prezzo dell'hardware a secondo delle prestazioni e non dell'hardware stesso mi sembra una vaccata...che fai "CREDI" che la scheda fà 10 volte di più di un altra e quindi la prezzi il triplo anche se hai speso la metà della metà per produrla... perchè non penso che anche adesso a quasi la metà del prezzo nvidia ci stia perdendo sarebbe stupido... O_O
funziona proprio così, prove te ne ho date a bizzeffe e ce ne sono decine nel passato, sia Ati che Nvidia che si scambiano le parti a seconda dei periodi, infatti, come ho detto, ultima prova è che il prezzo delle gtx2x0 è crollato appena hanno visto il prezzo/prestazioni della concorrenza
2@aveva sicuramente 2 anni di predominio prestazionale.
-e con questo puoi permetterti di fare prezzi a cacchio? anche se l'hardware non li vale... O_O
bene praticamente nvidia pensa che siamo tutti deficienti ottimo...che poi cmq non è poi cosi falso perchè ci sono quelli che l'hanno comprata a prezzo pieno senza aspettare delle comparazioni con ati...
tutte cose non valide secondo me e solo perchè è avida di soldi...non gli sono bastati quelli fatti con le 8000...anche se li valeva tutti... :mad:
perchè non li vale? non li vale rispetto a cosa? In sè: in una scala da 1 a 10, prezzi la vga che và a 10 al massimo, le altre che vanno meno via via le prezzi di conseguenza; rispetto alla concorrenza: la tua scheda và 8, quella della concorrenza 5 (facciamo 88gtx/29xt), il prezzo è conseguenza e viceversa (poi se costruisci a 55nm puoi prezzarla molto in basso per sostenere le schede, visto che prestazionalmente non puoi -38x0- l'altro và di più e se ne frega - molto relativamente: sono uscite le ottime 88gt, 96gt ecc ecc)
ora la situazione è leggermente sbilanciata per i motivi che ti dicevo (prezzi di produzione chip/diverse quote di mercato)
infine, per l'ultimo periodo del tuo post, ogni top da 500€ (7800gtx, x1800xt, per fare esempi non lontanissimi) dopo qualche mese in situazione di mercato (e industriale) molto più bilanciata di oggi stavano a meno della metà (vogliamo parlare di x1800xt a 500€ e dopo sei settimane x1900xt allo stesso prezzo ma molto molto più performante?)
poi sei liberissimo di credere alle favole Nvidia ladrona, tutti gli altri buoni come francescani, contento tu...:boh:
magnusll
17-07-2008, 16:48
poi sei liberissimo di credere alle favole Nvidia ladrona, tutti gli altri buoni come francescani, contento tu...:boh:
Ma io direi che sono tutti fratelli di Ali' Baba'. Cioe', sono d' accordo con te che il prezzo finale e' slegato dall' effettivo costo di produzione, ma sono d' accordo con lui quando dice che e' un furto :)
appleroof
17-07-2008, 16:50
Ma io direi che sono tutti fratelli di Ali' Baba'. Cioe', sono d' accordo con te che il prezzo finale e' slegato dall' effettivo costo di produzione, ma sono d' accordo con lui quando dice che e' un furto :)
e vabbè, un'azienda non è mica una onlus, nessuna: la beneficenza non esiste, come voce di bilancio, ripeto in nessun bilancio (forse solo come costi deducibili :asd: )
per la cronaca, leggo in giro per la rete che un gt200 costa circa 100$, rv770 circa 25$, fatevi i conti sui guadagni in proporzione ;)
si ok ma con 100$ dovrebbe essere 4 volte più veloce a confronto dei 25$ allora si che il prezzo c'e' ma cosi è più veloce di quanto? di qualche fps... ma dai... a sto punto perchè spendere 100$ se con una tecnologia da 25$ si fà praticamente lo stesso risultato...
non si parla di beneficenza si parla di furto vero è proprio in un mese 200€ su una scheda che costava 550€ non sono pochi...chissa perchè invece le serie 8000 prima che sono calate c'e' voluto un bel po' e non parlo di mesi...calcolando che dopo un anno dall'uscita la xfx8800ultra extreme l'ho pagata 450 euro circa se non erro...e in giro se la trovavi minimo veniva ancora 650 700€
cmq il discorso delle prestazioni è una sola totale cioè che significa io PENSO che una scheda vada 10 volte più di un altra la tiro fuori 1 mese prima a un prezzo esorbitante poi pero' vedo che quando esce l'altra dopo 1 mese fà pocchissimo di meno e quindi "riduco" praticamente della metà per rimettermi in concorrenza e quelli che l'hanno presa a 5 volte il prezzo?? sono deficienti??robba che i partner si metto a fà i rimborsi ridicolo... cioè se tagli cosi' il prezzo è perchè quella scheda non valeva quello che chiedevi tutto qui se no il prezzo non l'ho abbassavi...
ps anche perchè come fai a valutare le prestazioni finche non c'e' anche l'altra scheda dei concorrenti mi sembra na cosa dell'altro mondo che fai tiri ad indovinare e la gente che fà tira ad indovinare se quello è il prezzo o se ti stanno solando????????? questo io lo chiamo rubbare i soldi almeno a quelle persone che non se intendono...o che magari faticano 6 mesi per comprarsi una scheda che dopo 1 mese vale la metà e che cmq costa sempre di più della concorrente per pochi fps in più...
poi ogniuno è libero di spendere e pensarla come vuole...
ps pensa io avevo la possibilità quando costava 500€~ di prenderla a 250€ e non l'ho presa...lol
NeedForSpeed73
17-07-2008, 17:53
sappimi dire come va il gioco e non il test,di solito e' tutta un'altra storia (PS a che risoluzione fai il test x curiosita?) :)
1920x1200. Crysis ormai lo tengo installato solo per fare i test; l'avevo iniziato a giocare quando uscì ma un po il doverlo giocare a dettagli bassi per l'hardware che avevo all'epoca e soprattutto la pochezza del gameplay me lo hanno fatto abbandonare presto.
NeedForSpeed73
17-07-2008, 18:00
avrei una domanda per te e per tutti i possessori di SLI di GTX280 se anche voi avete temperature di 90 gradi sulla skeda superiore contro i 60 di quella inferiore , ovviamente sotto stress,possibile che il divario si attesti attorno ad una trentina di gradi?? :confused:
La scheda superiore scalda di più perché "chiusa" da quella sotto (io in mezzo c'ho pure la scheda audio) però io ho differenze nell'ordine dei 5 gradi o poco più e sempre inferiori agli 80 (col condizionatore settato a 27:D ). 90 mi sembrano tanti anche in overclock.
Verifica il movimento d'aria del case, io da quando ho preso l'ottimo Lian-Li in firma (e c'ho anche aggiunto altre ventole che muovono maggiormente l'aria che aspira da davanti), non ho problemi di temperature. Prima con quel "ciofecone" dell'Enermax Chakra quella che scaldava di più era la scheda più in basso (con le 8800GTX che avevo prima), ma solo perché in quel case la mobo stava tutta in basso e quindi la scheda nell'ultimo slot quasi toccava il fondo del case; nel Lian-Li (che è molto più spazioso) la motherboard sta più in alto e c'è più aria per tutte le schede.
salucard
17-07-2008, 19:11
non so se questo link è stato già postato,ma vorrei dimostrarvi quanto sia inutile un tri-sli di 280gtx con gli attuali driver,per di più di quanta energia si sprechi per fare funzionare una tale bestia docile come un agnellino appena svezzato (hanno dovuto usare due alimetatori per farle funzionare zalman 100w+corsair 620w:doh: :doh: :doh: :doh:
http://www.tweaktown.com/articles/1466/nvidia_geforce_gtx_280_in_tri_sli_tested/index.html
salucard
17-07-2008, 19:11
non so se questo link è stato già postato,ma vorrei dimostrarvi quanto sia inutile un tri-sli di 280gtx con gli attuali driver,per di più di quanta energia si sprechi per fare funzionare una tale bestia docile come un agnellino appena svezzato (hanno dovuto usare due alimetatori per farle funzionare zalman 1000w+corsair 620w:doh: :doh: :doh: :doh:
http://www.tweaktown.com/articles/1466/nvidia_geforce_gtx_280_in_tri_sli_tested/index.html
salucard
17-07-2008, 19:12
scusate per il doppio post ma internet sta facendo capricci:doh:
appleroof
17-07-2008, 19:14
si ok ma con 100$ dovrebbe essere 4 volte più veloce a confronto dei 25$ allora si che il prezzo c'e' ma cosi è più veloce di quanto? di qualche fps... ma dai... a sto punto perchè spendere 100$ se con una tecnologia da 25$ si fà praticamente lo stesso risultato...
non si parla di beneficenza si parla di furto vero è proprio in un mese 200€ su una scheda che costava 550€ non sono pochi...chissa perchè invece le serie 8000 prima che sono calate c'e' voluto un bel po' e non parlo di mesi...calcolando che dopo un anno dall'uscita la xfx8800ultra extreme l'ho pagata 450 euro circa se non erro...e in giro se la trovavi minimo veniva ancora 650 700€
cmq il discorso delle prestazioni è una sola totale cioè che significa io PENSO che una scheda vada 10 volte più di un altra la tiro fuori 1 mese prima a un prezzo esorbitante poi pero' vedo che quando esce l'altra dopo 1 mese fà pocchissimo di meno e quindi "riduco" praticamente della metà per rimettermi in concorrenza e quelli che l'hanno presa a 5 volte il prezzo?? sono deficienti??robba che i partner si metto a fà i rimborsi ridicolo... cioè se tagli cosi' il prezzo è perchè quella scheda non valeva quello che chiedevi tutto qui se no il prezzo non l'ho abbassavi...
ps anche perchè come fai a valutare le prestazioni finche non c'e' anche l'altra scheda dei concorrenti mi sembra na cosa dell'altro mondo che fai tiri ad indovinare e la gente che fà tira ad indovinare se quello è il prezzo o se ti stanno solando????????? questo io lo chiamo rubbare i soldi almeno a quelle persone che non se intendono...o che magari faticano 6 mesi per comprarsi una scheda che dopo 1 mese vale la metà e che cmq costa sempre di più della concorrente per pochi fps in più...
poi ogniuno è libero di spendere e pensarla come vuole...
ps pensa io avevo la possibilità quando costava 500€~ di prenderla a 250€ e non l'ho presa...lol
ancora...
il discorso sui prezzi dei chip serve a farti capire come nessuno fà beneficenza (forse Ati ci guadagna addirittura di più da una 4870 a 200€ che Nvidia da una gtx280 a 350€, leverei pure il forse ;) )
per il resto, le persone che non se ne intendono non vengono minacciate da Nvidia o da Ati con il fucile a prendersi una scheda ad un determinato prezzo: cinicamente ma realisticamente se la cercano (poi ci sono quelli che se la intendono ma la comprano lo stesso per altri motivi che non attengono alla razionalità di questi discorsi, ma passione, affezione al marchio ecc ecc)
per la valutazione delle prestazioni si studia l'architettura e si "prevede" come andrà, non siamo mica noi che lavoriamo lì....
è il mercato, bellezza :D e funziona così per tutto, sopratutto in questo settore
si adesso ma prima quando stava a 550€? è il mercato cosa? un mese e cala la metà non è il mercato è una "sola" e se fosse mercato pensi che i partner si mettevano a fare rimborsi? LoL*...o cmq se fosse come dici tu vuol dire che quella scheda non vale una cicca...e i 550€ iniziali (1 mese lol) sicuramente non li valeva e stai sicuro guadagnava decisamente di più di ati poi se te la vuoi girare come meglio credi bhe come ho detto già più di una volta ogniuno è libero di dire quello che vuole...
*non penso lo facciano per beneficienza lol è perchè non vale quello che l'hai pagata quindi? "SOLA FURTO".
ps si ho capito ma come fai a vendere una cosa con un prezzo che si "prevede" che faccio allora ti do di meno perchè prevedo che calerà sta cosa non sta ne in piedi ne in terra... O_O
cioè penso più che la vendino ad hardware + nome e non tanto dalle prestazioni TEORICHE...che fanno non la testano? e che basano il confronto delle prestazioni con le vecchie generazioni di ati non ha senso...perchè si a confronto della vecchia generazione c'e' un abisso ma tu la gtx280 o 260 la dovevi confrontare con le 4850 e 4870 e fare un prezzo non con le serie 3xxx calcolando che poi per ati è la 4870x2 che andrà contro la gtx280...e da alcuni test che ho visto non la vedovo bene per nvidia sia per il prezzo ancora troppo alto sia per le prestazioni...asd a meno che si inventi qualcosa che vadi il doppio della 4870x2 ma sicuramente te la fà pagare il quadruplo e non il doppio lol
Tesoro :D
si adesso magari si ma prima quando stava a 550€ è il mercato cosa? un mese e cala la metà non è il mercato è una "sola" e se fosse mercato pensi che i partner si mettevano a fare rimborsi? LoL*...o cmq se fosse come dici tu vuol dire che quella scheda non vale una cicca...e i 550€ iniziali (1 mese lol) sicuramente non li valeva e stai sicuro guadagnava decisamente di più di ati poi se te la vuoi girare come meglio credi bhe come ho detto già più di una volta ogniuno è libero di dire quello che vuole...
*non penso lo facciano per beneficienza lol è perchè non vale quello che l'hai pagata quindi? "SOLA FURTO".
Non lo fanno per beneficienza, ma probabilmente proiettando i modesti dati di vendita delle prime settimane nel medio termine, e al fine di mantenere comunque una certa quota di mercato sulla fascia alta, hanno dedotto che è meglio guadagnare poco o nulla, piuttosto che mantenere i magazzini stoccati di schede che rischiano di rimanere invendute.
Perchè dico poco o nulla, perchè questa scheda costa una cifra, si parla di 150$ per la sola GPU, altrettanti se non di più per il GB di DDR3 a 1100MHz,
http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes.
Sommandoci le spese per l'assemblaggio, la logistica, marketing e quant'altro, non so quanto ci guadagnerà nVidia sulla vendita di queste schede visto che a breve potrebbe arrivare un ulteriore taglio a 449$ anticipato oggi da eVGA.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8493&Itemid=1.
appleroof
17-07-2008, 20:57
Non lo fanno per beneficienza, ma probabilmente proiettando i modesti dati di vendita delle prime settimane nel medio termine, e al fine di mantenere comunque una certa quota di mercato sulla fascia alta, hanno dedotto che è meglio guadagnare poco o nulla, piuttosto che mantenere i magazzini stoccati di schede che rischiano di rimanere invendute.
cut
eppure non mi sembra fisica quantistica :boh: (ho il sospetto molto forte che trattasi di troll ;) )
;)
magnusll
17-07-2008, 21:29
eppure non mi sembra fisica quantistica :boh: (ho il sospetto molto forte che trattasi di troll ;) )
;)
Ma anche no. Io la penso come lui sulla "pratica" di sovraprezzare le cose. Poi il fatto che "le aziende non fanno beneficenza" non e' che puo' essere una scusa gratuita per giustificare qualsiasi porcheria, eh... ragionando cosi', perche' scandalizzarsi se le aziende producono nelle fabbriche piene di bambini cinesi ridotti in semi-schiavitu', tanto "mica lo fanno per beneficenza"... non che voglia fare paragoni di questo tipo, pero' ognuno ha diritto di pensarla come vuole su quali sono i limiti da non oltrepassare.
appleroof
17-07-2008, 21:39
edit
appleroof
17-07-2008, 21:43
Ma anche no. Io la penso come lui sulla "pratica" di sovraprezzare le cose. Poi il fatto che "le aziende non fanno beneficenza" non e' che puo' essere una scusa gratuita per giustificare qualsiasi porcheria, eh... ragionando cosi', perche' scandalizzarsi se le aziende producono nelle fabbriche piene di bambini cinesi ridotti in semi-schiavitu', tanto "mica lo fanno per beneficenza"... non che voglia fare paragoni di questo tipo, pero' ognuno ha diritto di pensarla come vuole su quali sono i limiti da non oltrepassare.
chiariamoci, i limiti da oltrepassare nel nostro discorso credo siano partire da discutere su come prezzano le vga a parlare di porcherie come lo sfruttamento dei bambini ( :eek: )
mi sembra sinceramente esagerato e fuori luogo quello che dici e non intendevo assolutamente arrivare a quello, ma semplicemente scandalizzarsi su una cosa che in questo mondo avviene da anni vuol dire non seguire questo mercato da anni
poi alla fine come ho già detto lui e altri sono liberissimi di pensarla come credono, non lo ordina il medico di comprarsi questa o quella vga (ricordo che parliamo di quello, non trascendiamo) in questo momento oppure in altri.
Andrea deluxe
17-07-2008, 21:58
a me la cosa che fa piu' girare le palle e' che un pinco pallino qualsiasi si mette a fare la morale a chi deve comprarsi una scheda video, per lo piu' una scheda video top che di certo non viene acquistata da 15enni con le mani impastate di cioccolato e figurine.....
bastaaaaaaa
io qui voglio sentir parlare della GTX280 perche' e' di questo che tratta il th!
per i [THREAD UFFICIALE] I giustizzieri degli shader!!!
ci sono altri posti dove sfogare la loro repressione....
poi sta gente non ricorda quanto costavano le:
9800pro....
le x850 pe.....
le x1900xtx.....
ma va .........
a me la cosa che fa piu' girare le palle e' che un pinco pallino qualsiasi si mette a fare la morale a chi deve comprarsi una scheda video, per lo piu' una scheda video top che di certo non viene acquistata da 15enni con le mani impastate di cioccolato e figurine.....
bastaaaaaaa
io qui voglio sentir parlare della GTX280 perche' e' di questo che tratta il th!
per i [THREAD UFFICIALE] I giustizzieri degli shader!!!
ci sono altri posti dove sfogare la loro repressione....
poi sta gente non ricorda quanto costavano le:
9800pro....
le x850 pe.....
le x1900xtx.....
ma va .........
Oltre due anni fa 649$ la xtx 549$ la xt
http://www.hwupgrade.it/articoli/skvideo/1422/radeon-x1900-l-evoluzione-della-specie_20.html
100$ per avere un aumento di prestazioni che andava mediamente dal 2% al 4%
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/
fdadakjli
17-07-2008, 22:19
eheh... te ne hai 3 in firma... :D
(riesci almeno a giocare a crysis in VH?)
ancora con sto crysis... :p
non ce l'ho neanche installato e nemmeno mi interessa farlo... ;)
Andrea deluxe
17-07-2008, 22:25
Oltre due anni fa 649$ la xtx 549$ la xt
http://www.hwupgrade.it/articoli/skvideo/1422/radeon-x1900-l-evoluzione-della-specie_20.html
100$ per avere un aumento di prestazioni che andava mediamente dal 2% al 4%
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/
mettici pure l'euro inferiore in quel periodo....
halduemilauno
18-07-2008, 07:31
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
Mister Tarpone
18-07-2008, 07:36
;)
non sarebbe male :eek:
quasarcode
18-07-2008, 08:23
Oltre due anni fa 649$ la xtx 549$ la xt
http://www.hwupgrade.it/articoli/skvideo/1422/radeon-x1900-l-evoluzione-della-specie_20.html
100$ per avere un aumento di prestazioni che andava mediamente dal 2% al 4%
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/
Non capisco la polemica dei prezzi che alcuni fanno.
I prezzi sono sempre stati adattati a quello che ha la concorrenza!
se ati non avesse tirato fuori le 4870 ancora la 280 gtx costerebbe 500 euro e non 330 come ora .Punto
Comunque nell'informatica tutti i soldi spesi nel pc sono soldi OUT OF WINDOWS cioè BUTTATI FUORI DALLA FINESTRA,ciaccati sprecati ,bruciati ,buttati via ,dov'è la novità?
Non capisco la polemica dei prezzi che alcuni fanno.
I prezzi sono sempre stati adattati a quello che ha la concorrenza!
se ati non avesse tirato fuori le 4870 ancora la 280 gtx costerebbe 500 euro e non 330 come ora .Punto
Comunque nell'informatica tutti i soldi spesi nel pc sono soldi OUT OF WINDOWS cioè BUTTATI FUORI DALLA FINESTRA,ciaccati sprecati ,bruciati ,buttati via ,dov'è la novità?
quoto...anche se un repentino crollo del prezzo della gtx280 tra data di uscita e i successivi 20 giorni dopo, forse è stato eccessivo anche per il campo dell'informatica!
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
ancora non gli è bastata la lezione.... sbagliare è umano, perseverare diabolico.....
ancora non gli è bastata la lezione.... sbagliare è umano, perseverare diabolico.....
uh? a che ti riferisci?
Forse al "cippone" unico...
Ma più che altro io penso e dico: per quanto continuerà ancora questa corsa al "mero aumento di roba" :p ? Imho si inizia a perdere davvero la ragione, sk video che da sole consumano il doppio del resto dell'intero sistema...una nuova e più efficiente architettura no?
A fare un chip dalle dimensioni enormi con rese bassissime, a fare una cosa che ancora è derivata di G80 ma solo potenziata, un po' come un magrolino che si riempie di bombe per farsi i muscoli che non ha... inoltre bus 512bit e gddr5? oggi come oggi e per il prossimo anno non vedo la necessità di avere una banda così enorme... poi 3360mhz le memorie non ho capito se sarebbe la frequenza finale o quella da raddoppiare.... in teoria ora per le GDDR5 si scrive 1800/2000Mhz da raddoppiare in quanto viaggiano a 3,6/4Ghz effettivi...... forse loro presumono che sino alla data di uscita arrivino a 6ghz e anche + in là ma mi sembra veramente troppo..... e inoltre "Cannot support D10.1 .10.0/SM4.0"..... ma bastaaaaaaaa......... cioè vogliono influenzare le case di viedogame a non fare giochi dx10.1 perché nvidia sa che con le 10.1 le prenderebbe a iosa da Ati in quanto ha una potenza shaders di + del doppio..... spero che le software house le si rivoltino tutte contro..... questa è presunzione bella e buona.....
Senza contare che Ati "sembra" stia preparando un chip da 1000 e + shaders a 40/45nm con area sui 200mm^2
_morghan_1968
18-07-2008, 09:46
probabile che nvidia stia perdendo sopratutto in popolarità
e simpatia grazie alle sue "" mosse ""
martinez1983
18-07-2008, 09:54
Io ragazzi non capisco perchè non vedete favorevolmente la soluzione a chip monolito!!!!
Ma volete capire che realizzare soluzioni multi-Gpu e molto delicata e critica in termini di driver!!!!! E sapete bene quanto le aziende si dedichino al lavoro dei driver!!!
Io credo che nvidia non sbagli a seguire questa strada!!!
halduemilauno
18-07-2008, 10:01
Io ragazzi non capisco perchè non vedete favorevolmente la soluzione a chip monolito!!!!
Ma volete capire che realizzare soluzioni multi-Gpu e molto delicata e critica in termini di driver!!!!! E sapete bene quanto le aziende si dedichino al lavoro dei driver!!!
Io credo che nvidia non sbagli a seguire questa strada!!!
il Monolito è bellissimo.
:D
Mister Tarpone
18-07-2008, 10:05
GT200 55nm comes by September
We said a few months ago that Nvidia drives two projects in parallel. GT200 65nm that got launched and branded as GTX 280 / 260 is out and there is a GT200 55nm chip that should be launched shortly.
Our sources are telling us that 55nm version of the chip should be ready either in late August or in September which means that Radeon HD 4870 X2 will get some competition.
We believe that Shaders and clock of 55nm GT200 are definitely going to be higher than the 65nm and the chip itself should be a bit cooler.
This means R700 will get some better competition and the fact that this ATI’s dual card is going to end of faster than GTX 280, doesn’t mean ATI has already won the war.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8515&Itemid=1
michelgaetano
18-07-2008, 10:07
l'han fatta neanche 3 mesi...:muro:
Mister Tarpone
18-07-2008, 10:10
si sapeva da prima dell'uscita delle gtx 280-260 che nvidia 3 mesi dopo avrebbe lanciato i modelli a 55nm...
almeno.. io mi ricordo di + di una news,postata nel vecchio thread aspettando gt200, che dicevan sta cosa.....
michelgaetano
18-07-2008, 10:18
Non è comunque un gran bene...
magnusll
18-07-2008, 10:24
Non è comunque un gran bene...
Come no? Io speravo proprio in questo per tirare i prezzi ancora piu' giu' :D
Sgt.Pepper89
18-07-2008, 10:25
Io ragazzi non capisco perchè non vedete favorevolmente la soluzione a chip monolito!!!!
Ma volete capire che realizzare soluzioni multi-Gpu e molto delicata e critica in termini di driver!!!!! E sapete bene quanto le aziende si dedichino al lavoro dei driver!!!
Io credo che nvidia non sbagli a seguire questa strada!!!
Eh già, perchè è solo li la differenza con ATi, non che la GTX280 con un chippone con il doppio della superficie di rv770 e rese produttive inferiori (quindi con costi molto maggiori) e un bus a 512 bit che si traduce in un PCB più complesso (costoso) vada si e no il 10% di una scheda che costa 150 euro in meno.
Non si tratta solo di confrontare approccio singola GPU con approccio GPU multipla, Nvidia ha anche ritardi tecnologici evidenti :read: .
martinez1983
18-07-2008, 10:38
Eh già, perchè è solo li la differenza con ATi, non che la GTX280 con un chippone con il doppio della superficie di rv770 e rese produttive inferiori (quindi con costi molto maggiori) e un bus a 512 bit che si traduce in un PCB più complesso (costoso) vada si e no il 10% di una scheda che costa 150 euro in meno.
Non si tratta solo di confrontare approccio singola GPU con approccio GPU multipla, Nvidia ha anche ritardi tecnologici evidenti :read: .
Guarda l' unico ritardo tecnologico di nvidia è scendere con il processo produttivo!!!
Cercando di migliorare le rese e scendere con i costi.
Sotto questo punto di vista ATI beneficia del lavoro di AMD!!!
Mi sembra che ha livello di architettura non abbia niente da invidiare ad ATI!!
(anche se magari qualcosa di nuovo non farebbe male,visto che l' architettura è rimasta sostanzialmente quella del G80)
Guarda l' unico ritardo tecnologico di nvidia è scendere con il processo produttivo!!!
Cercando di migliorare le rese e scendere con i costi.
Sotto questo punto di vista ATI beneficia del lavoro di AMD!!!
Mi sembra che ha livello di architettura non abbia niente da invidiare ad ATI!!
(anche se magari qualcosa di nuovo non farebbe male,visto che l' architettura è rimasta sostanzialmente quella del G80)
ha un die che è più di 2 volte di quello di ATI e non mi sembra che ATI non abbia abbastanza transistor dentro i suoi 276mm^2..... nulla contro il monolitico infatti RV770 ha dimostrato che si avvicina spesso e volentieri alla GTX280 (10/15/20% non è molto come differenza, senza contare le sporadiche volte in cui ati è invece davanti), ma tra le due architetture c'è un mare di differenza anche come costo di produzione, senza contare che l'accanimento di nvidia contro le 10.1 potrebbe portare ad una stagnazione a livello di grafica nei giochi.... solo perché non han voglia di modificare la loro architettura.... evidentemente stanno avendo grossi problemi.......
e questa è una nuova news sul nuovo chip rv870..... http://en.hardspell.com/doc/showcont.asp?news_id=3768
cioè parlano di 140mm^2, 960SP, e un'acrchitettura dual core come i proci intel...... il che vorrebbe dire un chip 4 volte + piccolo di quello nvidia..... Ma porco mondo... ma in questi 2 anni che cavolo han fatto???
Guarda l' unico ritardo tecnologico di nvidia è scendere con il processo produttivo!!!
Cercando di migliorare le rese e scendere con i costi.
Sotto questo punto di vista ATI beneficia del lavoro di AMD!!!
Mi sembra che ha livello di architettura non abbia niente da invidiare ad ATI!!
(anche se magari qualcosa di nuovo non farebbe male,visto che l' architettura è rimasta sostanzialmente quella del G80)
ma se son rimasti e rimarranno mi sa a lungo con le dx10.0 :rolleyes:
Guarda l' unico ritardo tecnologico di nvidia è scendere con il processo produttivo!!!
Cercando di migliorare le rese e scendere con i costi.
Sotto questo punto di vista ATI beneficia del lavoro di AMD!!!
Mi sembra che ha livello di architettura non abbia niente da invidiare ad ATI!!
(anche se magari qualcosa di nuovo non farebbe male,visto che l' architettura è rimasta sostanzialmente quella del G80)
ma se son rimasti e rimarranno mi sa a lungo con le dx10.0 :rolleyes:
secondo me si son persi il libretto di istruzioni del programmare in dx10.1 che gli ha fornito la microsoft :)
fr4nc3sco
18-07-2008, 11:25
ha un die che è più di 2 volte di quello di ATI e non mi sembra che ATI non abbia abbastanza transistor dentro i suoi 276mm^2..... nulla contro il monolitico infatti RV770 ha dimostrato che si avvicina spesso e volentieri alla GTX280 (10/15/20% non è molto come differenza, senza contare le sporadiche volte in cui ati è invece davanti), ma tra le due architetture c'è un mare di differenza anche come costo di produzione, senza contare che l'accanimento di nvidia contro le 10.1 potrebbe portare ad una stagnazione a livello di grafica nei giochi.... solo perché non han voglia di modificare la loro architettura.... evidentemente stanno avendo grossi problemi.......
e questa è una nuova news sul nuovo chip rv870..... http://en.hardspell.com/doc/showcont.asp?news_id=3768
cioè parlano di 140mm^2, 960SP, e un'acrchitettura dual core come i proci intel...... il che vorrebbe dire un chip 4 volte + piccolo di quello nvidia..... Ma porco mondo... ma in questi 2 anni che cavolo han fatto???
stessa cosa si potrebbe dire per AMD! che cavolo fa fatto in quei 2 anni di dominio assoluto?
martinez1983
18-07-2008, 11:36
ma se son rimasti e rimarranno mi sa a lungo con le dx10.0 :rolleyes:
secondo me si son persi il libretto di istruzioni del programmare in dx10.1 che gli ha fornito la microsoft :)
Il fatto che nvidia non supporti ancora le 10.1 secondo sta nel problema di modificare l' architettura e poi avendo tante collaborazioni con le case di videogiochi aiuta parecchio a non utilizzare le nuove dx!!
Secondo me si passerà direttamente alle dx11!!!!
Ma adesso la finisco di parlare di queste cose perchè sono OT!!!!
ma se son rimasti e rimarranno mi sa a lungo con le dx10.0 :rolleyes:
secondo me si son persi il libretto di istruzioni del programmare in dx10.1 che gli ha fornito la microsoft :)
Ma se manco ci sono le dx 10!!!! Cioè voi a parte il 3dmark (la cui grafica è vergognosa) avete visto qualche gioco dx10?? no... figuratevi 10.1!! Tra un anno uscira windows 7 con le dx11. Le dx10.1 sono SOLO una mossa commerciale. E le dx 10 sono state la cosa piu inutile che si potesse vedere a parte uno o 2 effettini qua e la (e strapesanti aggiungo) ;)
Crysis lo dimostra ampiamente.
Ora non so se questo a causa di insufficienze in campo hardware o per via di compatibilita eccetera...
DarkVampire
18-07-2008, 11:53
assassins creed gira in 10.1
assassins creed gira in 10.1
Si ma.... anche Crysis gira in dx10 allora ;)
"Soon after Rage3D's initial Assassin's Creed DX10.1 investigation, Ubisoft announced the removal of DX10.1 support from the game via an upcoming patch. With little detail into the reasons of removal, the official statement on the cryptic side, questions regarding the differences in Image Quality (IQ) between the DX10 and DX10.1 pathways prompted us to investigate further.
Upon superficial examination, no IQ differences and apparent, and even we were tempted to place an equal sign between the two pathways. However, with further more detailed testing, some discrepancies were uncovered. Whether these discrepancies improve or diminish quality is subjective: it'll be up to you to judge. "
Prima è il caso di creare un gioco davvero dx10 non con effetti qua e la. Ormai le schede dx10 esistono a tutti i livelli di mercato.
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
che bestia :eek:
St. Jimmy
18-07-2008, 12:21
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
se ciò fosse vero converrebbe quasi aspettare questa GT300
fdadakjli
18-07-2008, 12:33
se ciò fosse vero converrebbe quasi aspettare questa GT300
poi quando uscirà aspetterai GT350 e poi GT400 e così via all'infinito... :sofico:
Marscorpion
18-07-2008, 12:35
se ciò fosse vero converrebbe quasi aspettare questa GT300
Be vero o no secondo me conviene aspettare, perchè sicuramente nVidia non se ne starà a guardare la 4870X2 surclassare la GTX280 ! Per Settembre qualcosa di interessante si vedrà ......
yossarian
18-07-2008, 12:58
Si ma.... anche Crysis gira in dx10 allora ;)
"Soon after Rage3D's initial Assassin's Creed DX10.1 investigation, Ubisoft announced the removal of DX10.1 support from the game via an upcoming patch. With little detail into the reasons of removal, the official statement on the cryptic side, questions regarding the differences in Image Quality (IQ) between the DX10 and DX10.1 pathways prompted us to investigate further.
Upon superficial examination, no IQ differences and apparent, and even we were tempted to place an equal sign between the two pathways. However, with further more detailed testing, some discrepancies were uncovered. Whether these discrepancies improve or diminish quality is subjective: it'll be up to you to judge. "
Prima è il caso di creare un gioco davvero dx10 non con effetti qua e la. Ormai le schede dx10 esistono a tutti i livelli di mercato.
né crysis né AC sono giochi dx10.
La patch 1.01 di AC (quella dx10.1, per intenderci) serviva solo ad utilizzare differenti render target per color e z-ops, il che garantiva un boost prestazionale di circa il 25% (oltre il 40% in configurazione dual gpu) ai chip dx10.1 mantenendo inalterata la qualità d'immagine (si fa un passaggio di rendering in meno e si utilizza in maniera più efficiente la banda passante). Il risultato pratico era che con MSAA 4x, a 1680, la hd4850 stava davanti alla 280GTX.
Alexandrus
18-07-2008, 12:58
poi quando uscirà aspetterai GT350 e poi GT400 e così via all'infinito... :sofico:
quoto in tutto e per tutto e aggiungo che in 3 mesi di attesa per usufruire del budget per il mio nuovo pc, ho dovuto rifare 5 volte la configurazione per il nuovo pc a causa delle intense uscite di schede video :p .. ovviamente si tratta di pc da videogiochi :doh:
Mister Tarpone
18-07-2008, 13:04
poi quando uscirà aspetterai GT350 e poi GT400 e così via all'infinito... :sofico:
:asd:
Fire Hurricane
18-07-2008, 13:07
assassins creed gira in 10.1
appunto, specchietto per le allodole
michelgaetano
18-07-2008, 13:08
appunto, specchietto per le allodole
Sbagliato, e basterebbe leggere il post 3 reply più in alto di yossarian.
Fire Hurricane
18-07-2008, 13:11
quelle prestazioni in più non servivano per ottimizzare ATI.
yossarian
18-07-2008, 13:14
quelle prestazioni in più non servivano per ottimizzare ATI.
poche idee ma ben confuse? :confused:
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
:eek: :sbav: :sbavvv: .............:sperem:
yossarian
18-07-2008, 13:26
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
giusto per curiosità: quanti transistor dovrebbe avere? ci saranno ancora le unità fp64? :D
halduemilauno
18-07-2008, 13:36
giusto per curiosità: quanti transistor dovrebbe avere? ci saranno ancora le unità fp64? :D
in un'altro rumors ho letto 1.7 miliardi
l'ho detto e lo ripeto è ovviamente tutto da verificare.
Mister Tarpone
18-07-2008, 13:37
giusto per curiosità: quanti transistor dovrebbe avere? ci saranno ancora le unità fp64? :D
no quelle le levano ;) altrimenti 480sp non c'entrano ;)
...ciao... :O
ho sparato a caso :asd:
_morghan_1968
18-07-2008, 13:41
... io avevo letto che nvidia giurava e spergiurava che il 200
sarebe stato l' ultimo chippone...
appleroof
18-07-2008, 13:45
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
azz allora avrebbero ridisegnato il bus...mmm se così fosse avrebbe un bp mostruosa, credo a tutto beneficio della scheda nel complesso...ottimo aspettiamo conferme
A fare un chip dalle dimensioni enormi con rese bassissime, a fare una cosa che ancora è derivata di G80 ma solo potenziata, un po' come un magrolino che si riempie di bombe per farsi i muscoli che non ha... cut
:mbe: perchè rv770 rispetto a r600 che è? Ma prima di sparare a "mucchio" vi informate o parlate solo per sentito dire? :what:
Fire Hurricane
18-07-2008, 13:48
GT300
quella mi sa che sarà una GX2 perchè dice sempre "double" :confused: :ciapet:
512bit di GDDR5 ? mi sa tanto di 2*256 ;)
halduemilauno
18-07-2008, 13:49
azz allora avrebbero ridisegnato il bus...mmm se così fosse avrebbe un bp mostruosa, credo a tutto beneficio della scheda nel complesso...ottimo aspettiamo conferme
:mbe: perchè rv770 rispetto a r600 che è? Ma prima di sparare a "mucchio" vi informate o parlate solo per sentito dire? :what:
216 giga di bp.
;)
yossarian
18-07-2008, 13:50
in un'altro rumors ho letto 1.7 miliardi
l'ho detto e lo ripeto è ovviamente tutto da verificare.
cifra plausibile ma che non si accorda con quelle specifiche
no quelle le levano ;) altrimenti 480sp non c'entrano ;)
...ciao... :O
ho sparato a caso :asd:
e potresti anche aver ragione :D
Diobrando_21
18-07-2008, 13:53
ragazzi scusate sapete se ci sono dei test sullo SLI di gtx280?
Perché Hardware Upgrade non l'ha ancora provato?
grazie
appleroof
18-07-2008, 13:55
216 giga di bp.
;)
letto, semplicemente mostruosa....ovviamente come dici bene meglio attenersi a quello che è, un rumor, ma quelli di g200 come sai bene alla fine si sono rivelati giusti, più o meno...:D
ma se son rimasti e rimarranno mi sa a lungo con le dx10.0 :rolleyes:
secondo me si son persi il libretto di istruzioni del programmare in dx10.1 che gli ha fornito la microsoft :)
Le dx10 o 10.1 sono solo una bella chimera....basta leggere le tante interviste di questi giorni delle piu grandi software house all'e3,a nessuna conviene ancora programmare un nuovo motore sfruttando a pieno le dx10,semplicemente xke il sistema operativo che lo supporta nn ha assolutamente preso piede....e' stato un gigante flop da parte di ms,con l'avvento di windows 7 vedremo se le cose cambieranno(come parrebbe dalle feature) ma a quel punto si parlera direttamente di dx 11 e gt 400 e di 6800...
halduemilauno
18-07-2008, 14:02
letto, semplicemente mostruosa....ovviamente come dici bene meglio attenersi a quello che è, un rumor, ma quelli di g200 come sai bene alla fine si sono rivelati giusti, più o meno...:D
si. il meno il dettaglio(:doh:) delle frequenze. hai letto la news di fudzilla postata un paio di pagine fa?
;)
appleroof
18-07-2008, 14:03
Le dx10 o 10.1 sono solo una bella chimera....basta leggere le tante interviste di questi giorni delle piu grandi software house all'e3,a nessuna conviene ancora programmare un nuovo motore sfruttando a pieno le dx10,semplicemente xke il sistema operativo che lo supporta nn ha assolutamente preso piede....e' stato un gigante flop da parte di ms,con l'avvento di windows 7 vedremo se le cose cambieranno(come parrebbe dalle feature) ma a quel punto si parlera direttamente di dx 11 e gt 400 e di 6800...
credo che oltre alla questione dell'Os abbiano avuto molto più peso le consolle (se avessero fatto giochi dx10 "veri" e graficamente all'avanguardia, i gamers si sarebbero convertiti a vista,imho) , sviluppare i giochi per le quali rende molto molto di più, e le consolle non supportano dx10
le dx10 a mia memoria sono state e sono tuttora la più grossa fregatura che ci abbiano mai propinato
per la cronaca, le dx11 pare siano del tutto retroattive, insomma girano anche su Vista (sono quindi non legate a windows 7, e forse usciranno prima dello stesso Os), a differenza delle dx10 rispetto ad xp, qui un commento di uno sviluppatore microsoft, da prendere "cum grano salis" ovviamente:
http://forum.beyond3d.com/showpost.php?p=1190336&postcount=259
stessa cosa si potrebbe dire per AMD! che cavolo fa fatto in quei 2 anni di dominio assoluto?
E infatti non sono contento del reparto AMD dal punto di vista processori... come vedi il mio procio attuale è un Intel......
azz allora avrebbero ridisegnato il bus...mmm se così fosse avrebbe un bp mostruosa, credo a tutto beneficio della scheda nel complesso...ottimo aspettiamo conferme
:mbe: perchè rv770 rispetto a r600 che è? Ma prima di sparare a "mucchio" vi informate o parlate solo per sentito dire? :what:
Mi spiace ma in Rv770 hanno oltre che triplicato (quasi) il numero di sp, li hanno inseriti nello stessa superficie, hanno mantenuto lo stesso dissipatore e cosa + importante hanno ottimizzato tutta l'architettura interna, redistribuendo cache e quant'altro e il salto si è visto notevolmente, cosa che invece non si è vista in queste schede nvidia, yossarian a riguardo potrebbe spiegartelo meglio di me ma è scritto anche nel thread relativo e bastava leggerlo..... Senza parlare delle innovazioni che sono sempre in primo piano sui chip ATI come le GDDR5... tutti voi dicevate a costeranno una cifra, 100€ per 512Mb ecc ecc e sparate varie..... bè 200€ per una scheda quasi top di gamma.... finita e completa
Qui come detto da fire hurricane mi sembra + di vedere una gx2 con le GDDR5 solo che però non sarebbe + un chippone ma due chipponi.....
HackaB321
18-07-2008, 14:04
e potresti anche aver ragione :D
:eek:
e il gpgpu? Forse fanno una versione per il gaming senza dp e una per il gpgpu con dp:stordita:
Mister Tarpone
18-07-2008, 14:08
e potresti anche aver ragione :D
:sborone:
:eek:
e il gpgpu? Forse fanno una versione per il gaming senza dp e una per il gpgpu con dp:stordita:
forse faranno così... ;)
appleroof
18-07-2008, 14:09
si. il meno il dettaglio(:doh:) delle frequenze. hai letto la news di fudzilla postata un paio di pagine fa?
;)
si, settembre. stiamo a vedere (:D )
cut
Mi spiace ma in Rv770 hanno oltre che triplicato (quasi) il numero di sp, li hanno inseriti nello stessa superficie, hanno mantenuto lo stesso dissipatore e cosa + importante hanno ottimizzato tutta l'architettura interna, redistribuendo cache e quant'altro e il salto si è visto notevolmente, cosa che invece non si è vista in queste schede nvidia, yossarian a riguardo potrebbe spiegartelo meglio di me ma è scritto anche nel thread relativo e bastava leggerlo..... Senza parlare delle innovazioni che sono sempre in primo piano sui chip ATI come le GDDR5... tutti voi dicevate a costeranno una cifra, 100€ per 512Mb ecc ecc e sparate varie..... bè 200€ per una scheda quasi top di gamma.... finita e completa
Qui come detto da fire hurricane mi sembra + di vedere una gx2 con le GDDR5 solo che però non sarebbe + un chippone ma due chipponi.....
quindi tu giudichi la bontà di un chip solo dalle sue dimensioni....ergo r600 ed rv670 erano meglio nei giochi di g80 e g92....capito (per la cronaca le migliorie e aggiunte a rv770 sono molte di più di quelle che citi)
per il prezzo delle ddr5, attualmente è alto (tra qualche mese ovviamente non sarà così, se poi anche Nvidia le adotta crescono i volumi ed il prezzo dovrebbe scendere ancora, dovrebbe), il prezzo finale della scheda è dovuto essenzialmente al chip che non costa molto da produrre e a politiche di mercato
:eek:
e il gpgpu? Forse fanno una versione per il gaming senza dp e una per il gpgpu con dp:stordita:
why not? potrebbe anche darsi, poi però dopo pochi mesi il chip dx11 (che se non sbaglio prevede unicamente fp64).....vediamo....
Diobrando_21
18-07-2008, 14:10
ragazzi scusate se insisto, ma vorrei sapere se ci sono dei test sullo SLI di gtx280?
Perché Hardware Upgrade non l'ha ancora provato?
grazie
appleroof
18-07-2008, 14:12
ragazzi scusate se insisto, ma vorrei sapere se ci sono dei test sullo SLI di gtx280?
Perché Hardware Upgrade non l'ha ancora provato?
grazie
non so perchè questo sito non lo ha ancora provato (forse aspettano l'uscita ufficiale di r770 o chissà)
intanto ti sugggerisco uno strumento utile e potente
http://www.google.it/search?q=gtx+280+in+sli&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:en-US:official&client=firefox-a
:D :D
Colasante 5
18-07-2008, 14:17
Salve gente...
domandina: pensate che con il taglio dei prezzi attuato ieri da nVidia, questa bella schedozza possa scendere ancora un po' nei prossimi giorni ed assestarsi intorno ai 350€?
Perché in questo caso abbandonerei l'idea della HD4870 e farei più di un pensierino alla GTX280... ;)
appleroof
18-07-2008, 14:18
Salve gente...
domandina: pensate che con il taglio dei prezzi attuato ieri da nVidia, questa bella schedozza possa scendere ancora un po' nei prossimi giorni ed assestarsi intorno ai 350€?
Perché in questo caso abbandonerei l'idea della HD4870 e farei più di un pensierino alla GTX280... ;)
credo proprio di si...sulla baia già si trovavano a 350 nuove qualche giorno fà...
halduemilauno
18-07-2008, 14:21
Salve gente...
domandina: pensate che con il taglio dei prezzi attuato ieri da nVidia, questa bella schedozza possa scendere ancora un po' nei prossimi giorni ed assestarsi intorno ai 350€?
Perché in questo caso abbandonerei l'idea della HD4870 e farei più di un pensierino alla GTX280... ;)
credo che con l'approssimarsi della 4870x2 è probabile che la gtx280 si assesti sui 350€. cmq ora gia la si trova a 380€.
Fire Hurricane
18-07-2008, 14:25
Nvidia a 55nm già a settembre se non fine agosto :
http://www.pctuner.net/news/9408/NVIDIA-G200-55nm-in-arrivo-entro-settembre/
_morghan_1968
18-07-2008, 14:28
non so perchè questo sito non lo ha ancora provato (forse aspettano l'uscita ufficiale di r770 o chissà)
intanto ti sugggerisco uno strumento utile e potente
http://www.google.it/search?q=gtx+280+in+sli&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:en-US:official&client=firefox-a
:D :D
... leggendo tutte quelle rece sullo sli,potrai capire xkè ci sono
molti estimatori della single gpu :sofico:
appleroof
18-07-2008, 14:29
... leggendo tutte quelle rece sullo sli,potrai capire xkè ci sono
molti estimatori della single gpu :sofico:
esatto :asd: :asd:
Diobrando_21
18-07-2008, 14:30
non so perchè questo sito non lo ha ancora provato (forse aspettano l'uscita ufficiale di r770 o chissà)
intanto ti sugggerisco uno strumento utile e potente
http://www.google.it/search?q=gtx+280+in+sli&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:en-US:official&client=firefox-a
:D :D
si vabbé ma qui si parla di triple SLI io intendevo solo 2 schede e cmq non c'è nessuna prova con dei giochi, quindi nulla di concreto...
a quando qualche prova con dei giochi? Soprattutto su questo sito?
Inoltre si sa nulla su un'ipotetica gtx280gx2?
appleroof
18-07-2008, 14:32
si vabbé ma qui si parla di triple SLI io intendevo solo 2 schede e cmq non c'è nessuna prova con dei giochi, quindi nulla di concreto...
a quando qualche prova con dei giochi? Soprattutto su questo sito?
Inoltre si sa nulla su un'ipotetica gtx280gx2?
era solo un suggerimento...:stordita:
guarda qua ad esempio http://www.tbreak.com/reviews/article.php?id=618
per la gtx280gx2 non si sà nulla, chissà che le specifiche postate prima da Hal si riferiscano a quella (faccio per dire eh?)
_morghan_1968
18-07-2008, 14:38
si vabbé ma qui si parla di triple SLI io intendevo solo 2 schede e cmq non c'è nessuna prova con dei giochi, quindi nulla di concreto...
a quando qualche prova con dei giochi? Soprattutto su questo sito?
Inoltre si sa nulla su un'ipotetica gtx280gx2?
se guardi bene... oltre al triple sli, c' è anche lo sli...
ti riassumo la situazione:
sli = doppio costo e doppio consumo sicuri...
devi (DEVI ) usare una main con il simpatico e stravagante chipset nvidia
avere rapporti sado/maso con impostazioni del pannello di controllo...
in cambio di una manciata di fxs quando ti và di lusso xkè il gioco
supporta lo sli
Andrea deluxe
18-07-2008, 14:41
se guardi bene... oltre al triple sli, c' è anche lo sli...
ti riassumo la situazione:
sli = doppio costo e doppio consumo sicuri...
devi (DEVI ) usare una main con il simpatico e stravagante chipset nvidia
avere rapporti sado/maso con impostazioni del pannello di controllo...
in cambio di una manciata di fxs quando ti và di lusso xkè il gioco
supporta lo sli
:sbonk:
Verisimo!
Diobrando_21
18-07-2008, 14:44
era solo un suggerimento...:stordita:
guarda qua ad esempio http://www.tbreak.com/reviews/article.php?id=618
per la gtx280gx2 non si sà nulla, chissà che le specifiche postate prima da Hal si riferiscano a quella (faccio per dire eh?)
quindi nVidia per il momento non ha nessun progetto in cantiere per schede dual gpu?
HackaB321
18-07-2008, 14:47
Nvidia a 55nm già a settembre se non fine agosto :
http://www.pctuner.net/news/9408/NVIDIA-G200-55nm-in-arrivo-entro-settembre/
Tra una 4870x2 e una GTX c'è, dalle preview, una differenza media del 30% sia a 1920 che a 2560 (tra l'altro escludendo Crysis, che in vh è comunque ingiocabile con entrambe, la differenza praticamente raddoppia).
Voi pensate (non è una domanda retorica anche se io ho la mia ipotesi) che una GTX a 55nm tale e quale solo occata riesca a colmare questa differenza? Oppure ritenete che per pareggiare la 4870x2 c'è comunque bisogno di una x2 anche per nvidia?
Mister Tarpone
18-07-2008, 14:53
Tra una 4870x2 e una GTX c'è, dalle preview, una differenza media del 30% sia a 1920 che a 2560 (tra l'altro escludendo Crysis, che in vh è comunque ingiocabile con entrambe, la differenza praticamente raddoppia).
Voi pensate (non è una domanda retorica anche se io ho la mia ipotesi) che una GTX a 55nm tale e quale solo occata riesca a colmare questa differenza? Oppure ritenete che per pareggiare la 4870x2 c'è comunque bisogno di una x2 anche per nvidia?
dimmi la tua ipotesi... ;)
dimmi la tua ipotesi... ;)
ciao Tarpoman , secondo te quanti fps minimi medi e massimi può fare sta scheda a 1440 x 900?
Mister Tarpone
18-07-2008, 15:05
ciao Tarpoman , secondo te quanti fps minimi medi e massimi può fare sta scheda a 1440 x 900?
e come fo a saperlo di preciso.. dipenderà dai giochi... :asd:
ma cmq ne farà tantissimi..... pure a 1920x1200... ;)
dimmi la tua ipotesi... ;)
HackaB321 mi dici qual'è la tua ipotesi?? :confused:
dimmi la tua ipotesi... ;)
penso si sarebbe risparmiato la domanda se non avesse le idee ben chiare XD senza contare quanto può spingersi + in là R700....
NOOB4EVER
18-07-2008, 15:12
se guardi bene... oltre al triple sli, c' è anche lo sli...
ti riassumo la situazione:
sli = doppio costo e doppio consumo sicuri...
devi (DEVI ) usare una main con il simpatico e stravagante chipset nvidia
avere rapporti sado/maso con impostazioni del pannello di controllo...
in cambio di una manciata di fxs quando ti và di lusso xkè il gioco
supporta lo sli
non e' cosi per quanto mi riguarda,chipset nvidia piu stabile e performante del chipset intel,gestione migliore della memoria,lo sli di gtx280 raddoppia piu o meno i frame di gioco(in tutti i giochi),esperienza personale,quindi tutto IMHO :)
cut
quindi tu giudichi la bontà di un chip solo dalle sue dimensioni....ergo r600 ed rv670 erano meglio nei giochi di g80 e g92....capito (per la cronaca le migliorie e aggiunte a rv770 sono molte di più di quelle che citi)
per il prezzo delle ddr5, attualmente è alto (tra qualche mese ovviamente non sarà così, se poi anche Nvidia le adotta crescono i volumi ed il prezzo dovrebbe scendere ancora, dovrebbe), il prezzo finale della scheda è dovuto essenzialmente al chip che non costa molto da produrre e a politiche di mercato
cut
non giudico solo dalla dimensione, ma lo sforzo tecnologico fatto per renderla tale e uguale a prima ma con circa il 100% in + di caratteristiche in media è notevole... rispetto a chi ci ha messo il 100% in + con il 100% in + di superficie......
Per la parte in grassetto..... scusa ma prima non hai detto che Rv770 è solo un pompaggio di Rv670...... con l'affermazione sopra ti contraddici non poco....
fr4nc3sco
18-07-2008, 15:19
non e' cosi per quanto mi riguarda,chipset nvidia piu stabile e performante del chipset intel,gestione migliore della memoria,lo sli di gtx280 raddoppia piu o meno i frame di gioco(in tutti i giochi),esperienza personale,quindi tutto IMHO :)
quoto lo sli di 280 a risoluzioni 1920x1200 aa16x af16x si fa sentire appena si scollega una vga il calo dei frame è visibile ovvio se si usa risoluzioni minori o nn si usano i filtri apparte crysis direi che è tutto superfluo
HackaB321
18-07-2008, 15:21
HackaB321 mi dici qual'è la tua ipotesi?? :confused:
Ma l'ho chiesto prima io:D
A parte gli scherzi penso che i 55nm facciano un gran bene ad Nvidia per portare GT200 a dimensioni umane (420-430mm2) riducendo di molto i costi e alzando di conseguenza i margini.
Ma per me, l'oc conseguente ad uno shrink di 10nani non è sufficiente in single a riprendere il divario con la 4870x2 (il 30% è tanto). Magari però i 55nm possono permettere di avere una dual di 260: anche qui non sarà semplice però, perchè un conto è mettere insieme due G92 (330mm2 l'uno, e anche lì è stato necessario "il panino") un conto è mettere insieme due chip di 100mm2 l'uno più grandi.
Colasante 5
18-07-2008, 15:22
credo proprio di si...sulla baia già si trovavano a 350 nuove qualche giorno fà...
credo che con l'approssimarsi della 4870x2 è probabile che la gtx280 si assesti sui 350€. cmq ora gia la si trova a 380€.
Grazie ad entrambi per la risposta ;)
Diobrando_21
18-07-2008, 15:27
non e' cosi per quanto mi riguarda,chipset nvidia piu stabile e performante del chipset intel,gestione migliore della memoria,lo sli di gtx280 raddoppia piu o meno i frame di gioco(in tutti i giochi),esperienza personale,quindi tutto IMHO :)
ciao scusa volevo chiederti una cortesia: visto che sei uno dei pochi ad aver provato lo SLI di gtx280, potresti fare un paragone con le prestazioni della 4870x2 basandoti sulla preview di questo sito?
Te ne sarei grato, grazie
NOOB4EVER
18-07-2008, 15:49
ciao scusa volevo chiederti una cortesia: visto che sei uno dei pochi ad aver provato lo SLI di gtx280, potresti fare un paragone con le prestazioni della 4870x2 basandoti sulla preview di questo sito?
Te ne sarei grato, grazie
senti , la verita' secondo me e' quella che e' cioe' che lo sli di gtx280 sotto xp frusta piu di ogni altra soluzione disponibile al momento,compreso 3 way di gtx stesse che e' tagliato fuori in termini di frame a causa del sistema operativo window vista,se vuoi sapere cio' che penso personalmente,beh e puoi chiederlo pure a Fr4nc3sco e Delly che hanno provato queste soluzioni,e' veramente un mostro di potenza e te lo consiglio vivamente se rientra nelle tue inenzioni e possibilita',poi le reviews le seguo poco perche' preferisco affidarm molto di piu' ad amici che possono darmi informazioni piu' dettagliate,il crossfireX di 4870 ancora fa fatica a starci dietro,tutto questo imho
bè la 4870X2 non può da sola battere uno sli di gtx280, anche se in alcuni giochi vedi grid, age of conan batte anche questo sli..... quello che è certo è che la gtx280 da sola non riesce a star davanti in media alla 4870X2..........
http://www.driverheaven.net/reviews.php?reviewid=588&pageid=3
http://www.ocforums.com/showthread.php?t=569985
halduemilauno
18-07-2008, 16:23
Tra una 4870x2 e una GTX c'è, dalle preview, una differenza media del 30% sia a 1920 che a 2560 (tra l'altro escludendo Crysis, che in vh è comunque ingiocabile con entrambe, la differenza praticamente raddoppia).
Voi pensate (non è una domanda retorica anche se io ho la mia ipotesi) che una GTX a 55nm tale e quale solo occata riesca a colmare questa differenza? Oppure ritenete che per pareggiare la 4870x2 c'è comunque bisogno di una x2 anche per nvidia?
Ma l'ho chiesto prima io:D
A parte gli scherzi penso che i 55nm facciano un gran bene ad Nvidia per portare GT200 a dimensioni umane (420-430mm2) riducendo di molto i costi e alzando di conseguenza i margini.
Ma per me, l'oc conseguente ad uno shrink di 10nani non è sufficiente in single a riprendere il divario con la 4870x2 (il 30% è tanto). Magari però i 55nm possono permettere di avere una dual di 260: anche qui non sarà semplice però, perchè un conto è mettere insieme due G92 (330mm2 l'uno, e anche lì è stato necessario "il panino") un conto è mettere insieme due chip di 100mm2 l'uno più grandi.
allora la gtx280 ha margini di oc notevoli del 20/25% sul core e del 15% sugli shader. quindi nvidia può fare tre mosse...
1) ufficializzare tutto quel ben di dio.
2) variare(se può ma credo di si)l'attuale rapporto core/shader che è di 2.15 magari non i 2.5 dei g92 ma un 2.3. praticamente uno sblocco.
3) specificatamente ai 55nm sfruttare ancora l'oc che i 55 gli possono dare in + in dote.
poi l'addozione di ram + veloce tipo la 2520 al posto dell'attuale 2200.
cmq non è da escludere che essa stia lavorando a + ipotesi. ma quella è secondo me la + probabile.
tocca aspettare.
DarkVampire
18-07-2008, 16:32
Tra una 4870x2 e una GTX c'è, dalle preview, una differenza media del 30% sia a 1920 che a 2560 (tra l'altro escludendo Crysis, che in vh è comunque ingiocabile con entrambe, la differenza praticamente raddoppia).
Voi pensate (non è una domanda retorica anche se io ho la mia ipotesi) che una GTX a 55nm tale e quale solo occata riesca a colmare questa differenza? Oppure ritenete che per pareggiare la 4870x2 c'è comunque bisogno di una x2 anche per nvidia?
uno sli di 280 o un 280 gx2...l'ati verrebbe triplata -.-" ..lo sli nvidia e' nettamente avanti rispetto al cross...e il cross stesso e' supportato da poki gioki...al contrario di nvidia ke fra driver e aiuto di enhancer li supporta quasi TUTTI
fdadakjli
18-07-2008, 16:36
senti , la verita' secondo me e' quella che e' cioe' che lo sli di gtx280 sotto xp frusta piu di ogni altra soluzione disponibile al momento,compreso 3 way di gtx stesse che e' tagliato fuori in termini di frame a causa del sistema operativo window vista,se vuoi sapere cio' che penso personalmente,beh e puoi chiederlo pure a Fr4nc3sco e Delly che hanno provato queste soluzioni,e' veramente un mostro di potenza e te lo consiglio vivamente se rientra nelle tue inenzioni e possibilita'
che dire...quoto... :p
sto provando proprio oggi lo SLi di GTX280 [2 schede] sotto XP SP3... :eek:
Scrambler77
18-07-2008, 16:42
bè la 4870X2 non può da sola battere uno sli di gtx280, anche se in alcuni giochi vedi grid, age of conan batte anche questo sli..... quello che è certo è che la gtx280 da sola non riesce a star davanti in media alla 4870X2..........
http://www.driverheaven.net/reviews.php?reviewid=588&pageid=3
http://www.ocforums.com/showthread.php?t=569985
Da sola?? :rotfl: Guarda che stiamo parlando di 2gpu vs 2gpu... ;)
Buonasera a tutti! :asd:
yossarian
18-07-2008, 16:46
:eek:
e il gpgpu? Forse fanno una versione per il gaming senza dp e una per il gpgpu con dp:stordita:
cioè producono 2 chip su due linee di produzione differenti? Uno shrink di GT200 per il gpgpu e un GT300 o HT350 (o come lo si vuole chiamare) senza alu fp64 per i giochi?
Da sola?? :rotfl: Guarda che stiamo parlando di 2gpu vs 2gpu... ;)
Buonasera a tutti! :asd:
Non c'entra molto, é una scheda sola, ed é il top ATi nella fascia di prezzo similare a gtx280 ;)
Scrambler77
18-07-2008, 16:54
Non c'entra molto, é una scheda sola, ed é il top ATi nella fascia di prezzo similare a gtx280 ;)
A me il discorso sembrava incentrato sulla tecnica, non sul marketing... ;)
Tecnicamente parlando, si tratta di 2 GPU "Top". Che poi siano vendute a prezzi "diversi", sappiamo tutti il perchè... ;)
yossarian
18-07-2008, 17:06
A me il discorso sembrava incentrato sulla tecnica, non sul marketing... ;)
Tecnicamente parlando, si tratta di 2 GPU "Top". Che poi siano vendute a prezzi "diversi", sappiamo tutti il perchè... ;)
perchè? :D
A me il discorso sembrava incentrato sulla tecnica, non sul marketing... ;)
Tecnicamente parlando, si tratta di 2 GPU "Top". Che poi siano vendute a prezzi "diversi", sappiamo tutti il perchè... ;)
Dipende da cosa vuoi dire con "Top".
Nella mia visione tecnica/di marketing sono 1 chip "top" contro 2 "mainstream" ...
Che poi personalmente a me non fa alcuna differenza, benché si abbiano vantaggi prestazionali, assenza di microstuttering e tutti gli annessi e connessi.
appleroof
18-07-2008, 18:21
Ma l'ho chiesto prima io:D
A parte gli scherzi penso che i 55nm facciano un gran bene ad Nvidia per portare GT200 a dimensioni umane (420-430mm2) riducendo di molto i costi e alzando di conseguenza i margini.
Ma per me, l'oc conseguente ad uno shrink di 10nani non è sufficiente in single a riprendere il divario con la 4870x2 (il 30% è tanto). Magari però i 55nm possono permettere di avere una dual di 260: anche qui non sarà semplice però, perchè un conto è mettere insieme due G92 (330mm2 l'uno, e anche lì è stato necessario "il panino") un conto è mettere insieme due chip di 100mm2 l'uno più grandi.
chissà, magari ci stupiscono :D (cmq sarebbe sicuramente il panino, ma tanto chissene, è sempre una "scheda sola" no?)
Grazie ad entrambi per la risposta ;)
;)
perchè? :D
costa molto meno il chip/devono recuperare in fretta quote di mercato? Non dirmi di no perchè non ci credo :p
fdadakjli
18-07-2008, 18:27
costa molto meno il chip/devono recuperare in fretta quote di mercato? Non dirmi di no perchè non ci credo :p
già...mi trovi daccordo... :asd:
yossarian
18-07-2008, 18:37
Ma l'ho chiesto prima io:D
A parte gli scherzi penso che i 55nm facciano un gran bene ad Nvidia per portare GT200 a dimensioni umane (420-430mm2) riducendo di molto i costi e alzando di conseguenza i margini.
Ma per me, l'oc conseguente ad uno shrink di 10nani non è sufficiente in single a riprendere il divario con la 4870x2 (il 30% è tanto). Magari però i 55nm possono permettere di avere una dual di 260: anche qui non sarà semplice però, perchè un conto è mettere insieme due G92 (330mm2 l'uno, e anche lì è stato necessario "il panino") un conto è mettere insieme due chip di 100mm2 l'uno più grandi.
quanti dual hanno fatto finora con chip di quelle dimensioni?
costa molto meno il chip/devono recuperare in fretta quote di mercato? Non dirmi di no perchè non ci credo :p
chi ha detto di no: costa molto meno e possono permettersi di vendere a prezzi molto più bassi senza perderci: devono recuperare quote di mercato e fa comodo poter vendere a prezzi più bassi. Hanno un prodotto competitivo e questo costringe nVidia ad abbassare i prezzi dei suoi chip (anche se questi costano sensibilmente di più). Tutto ciò non viene fatto a scopo umanitario. Che poi il vantaggio per l'azienda si traduca anche in un vantaggio per l'acquirente è un effetto collaterale utile, gradito e non trascurabile, ma sempre un effetto collaterale :D
fdadakjli
18-07-2008, 18:41
costa molto meno e possono permettersi di vendere a prezzi molto più bassi senza perderci: devono recuperare quote di mercato e fa comodo poter vendere a prezzi più bassi. Hanno un prodotto competitivo e questo costringe nVidia ad abbassare i prezzi dei suoi chip (anche se questi costano sensibilmente di più). Tutto ciò non viene fatto a scopo umanitario. Che poi il vantaggio per l'azienda si traduca anche in un vantaggio per l'acquirente è un effetto collaterale utile, gradito e non trascurabile, ma sempre un effetto collaterale :D
parole sante... :read:
cmq speriamo che ci siano sempre questi effetti collaterali... :asd:
appleroof
18-07-2008, 18:42
chi ha detto di no: costa molto meno e possono permettersi di vendere a prezzi molto più bassi senza perderci: devono recuperare quote di mercato e fa comodo poter vendere a prezzi più bassi. Hanno un prodotto competitivo e questo costringe nVidia ad abbassare i prezzi dei suoi chip (anche se questi costano sensibilmente di più). Tutto ciò non viene fatto a scopo umanitario. Che poi il vantaggio per l'azienda si traduca anche in un vantaggio per l'acquirente è un effetto collaterale utile, gradito e non trascurabile, ma sempre un effetto collaterale :D
:mano:
Fatto sta che una scheda sola da 400/450€ (al prezzo di lancio) a volte ne batte due da 550€ (al prezzo di lancio)..... se quelli di ATI sono stati + furbiebravi di quelli nvidia non c'è scusa che tenga... la scheda va e tanto e lì sono i risultati e volente o nolente mi aspetto la stessa cosa da nvidia, nel senso che io ho criticato il mega chippone GT300 o GT350 (di sigle nvidia non me ne intendo) perché nel caso tutto quell'ambaradand sia messo su singolo chip vuol dire avere ancora gli stessi problemi di oggi, scarse rese, prezzi troppo elevati e difficoltà a competere con un "ipotetico" dual core accoppiato, quindi 4 processori su uno stesso pcb (R800).... che dire... 3dfx ritorna, ma dal lato opposto :sofico:....
Ati sta sensibilizzando tutti i produttori al multi gpu, un po' come fu per intel ai tempi del processori, solo che la potenza nella grafica se ne sente sempre l'esigenza e tanta, in ambito CPU è + una questione marketing che di effettiva utilità (se non per nicchie e/o utenti da workstation), contando che per fare il lavoro di una HD4870 ci vogliono 4 Penryn a livello di gigaflops.... Inoltre come ho potuto felicemente vedere dalle preview... ogni gioco testato ha reagito al dual gpu in crossfire, quindi anche con i driver siamo a dei livelli accettabili......
Io + che altro tengo alla concorenza e mi sembra che nvidia stia andando verso crepacci senza avere le ali.....
NOOB4EVER
18-07-2008, 18:48
che dire...quoto... :p
sto provando proprio oggi lo SLi di GTX280 [2 schede] sotto XP SP3... :eek:
hehe bella li' Delly , fammi sapere che ne pensi !! ;)
Non capisco la polemica dei prezzi che alcuni fanno.
I prezzi sono sempre stati adattati a quello che ha la concorrenza!
se ati non avesse tirato fuori le 4870 ancora la 280 gtx costerebbe 500 euro e non 330 come ora .
Quoto
Comunque nell'informatica tutti i soldi spesi nel pc sono soldi OUT OF WINDOWS cioè BUTTATI FUORI DALLA FINESTRA,ciaccati sprecati ,bruciati ,buttati via ,dov'è la novità?
Quoto
HackaB321
18-07-2008, 19:00
cioè producono 2 chip su due linee di produzione differenti? Uno shrink di GT200 per il gpgpu e un GT300 o HT350 (o come lo si vuole chiamare) senza alu fp64 per i giochi?
e allora avrà fp64. Possibile che nvidia rinunci al gpgpu (perchè non avere le fp64 significa rinunciarvi vista l'importanza che hanno nel general purpose e visto cosa offre in questo ambito la concorrenza) dopo che cela mena da due anni con cuda e compagnia?
quanti dual hanno fatto finora con chip di quelle dimensioni?
0. Non è fattibile per te?
ragazzi scusate se insisto, ma vorrei sapere se ci sono dei test sullo SLI di gtx280?
Perché Hardware Upgrade non l'ha ancora provato?
grazie
Servito :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/
e allora avrà fp64. Possibile che nvidia rinunci al gpgpu (perchè non avere le fp64 significa rinunciarvi vista l'importanza che hanno nel general purpose e visto cosa offre in questo ambito la concorrenza) dopo che cela mena da due anni con cuda e compagnia?
Direi di no, è un mercato nuovo e importante. Ha di sicuro investito molto in questo campo e sarebbe decisamente stupido ritrattare così.
No direi che è improbabile.
appleroof
18-07-2008, 19:26
Direi di no, è un mercato nuovo e importante. Ha di sicuro investito molto in questo campo e sarebbe decisamente stupido ritrattare così.
No direi che è improbabile.
l'alternativa è che siano tutte fp64 :D
oppure che abbiano ridisegnato il bus (256bit grazie alle drr5?) così da risparmiare spazio...insomma c'è da vedere ancora tutto
p.s.: chi apre "aspettando g300"? :D
cuttone
DDR5 2GB memory, doubled GTX280
Non saprei, a parità di frequenza sulla GPU la DDR5@1800 rispetto alla DDR3@993, da vantaggi che vanno dal 4 all'11%
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/6/
Diobrando_21
18-07-2008, 19:42
che dire...quoto... :p
sto provando proprio oggi lo SLi di GTX280 [2 schede] sotto XP SP3... :eek:
ciao scusa, appena hai finito di provare mi fai sapere come è andata? grazie
fdadakjli
18-07-2008, 19:44
ciao scusa, appena hai finito di provare mi fai sapere come è andata? grazie
hai qualcosa che vuoi che provo??? :D
Diobrando_21
18-07-2008, 19:49
hai qualcosa che vuoi che provo??? :D
mah, vedi tu...tipo Crysis, UT3, World in Conflict...davvero prova ciò che ritieni più opportuno per avere un'idea delle prestazioni, grazie :D
yossarian
18-07-2008, 20:29
e allora avrà fp64. Possibile che nvidia rinunci al gpgpu (perchè non avere le fp64 significa rinunciarvi vista l'importanza che hanno nel general purpose e visto cosa offre in questo ambito la concorrenza) dopo che cela mena da due anni con cuda e compagnia?
dipende: se le specifiche sono quelle, di certo il doppio delle unità di calcolo di GT200 con in più le alu fp64 in un chip di 576 mm^2 a 55 nm non ce le mettono e, soprattutto, non le mettono nei circa 300 mln di transistor in più, rispetto a gt200, di cui parla hal
0. Non è fattibile per te?
dipende: fattibile tecnicamente (senza tener conto di altri fattori come grandezza, complessità o numero di layer del pcb)? Si. Fattibile economicamente? Molto^n (per n molto grande) meno (per i fattori che ho trascurato prima più altri).
Avrei potuto anche chiederti quante dual con bus a 512 bit hanno fatto finora (e avrei ottenuto la stessa risposta).
yossarian
18-07-2008, 20:30
l'alternativa è che siano tutte fp64 :D
oppure che abbiano ridisegnato il bus (256bit grazie alle drr5?) così da risparmiare spazio...insomma c'è da vedere ancora tutto
p.s.: chi apre "aspettando g300"? :D
480 unità fp64 con la stessa logica delle alu di GT200? Ci sarebbe veramente da ridere :D
NOOB4EVER
18-07-2008, 20:44
mah, vedi tu...tipo Crysis, UT3, World in Conflict...davvero prova ciò che ritieni più opportuno per avere un'idea delle prestazioni, grazie :D
crysis giocabilissimo ,ut3 neanche parlarne ,oltre i 150 fps,world in conflict minimo30 fps medio 55 - 60 max 140 fps ,tutto logicamente a palla tranne l'AA di crysis a 2x
Diobrando_21
18-07-2008, 21:10
crysis giocabilissimo ,ut3 neanche parlarne ,oltre i 150 fps,world in conflict minimo30 fps medio 55 - 60 max 140 fps ,tutto logicamente a palla tranne l'AA di crysis a 2x
guarda sei un grande, grazie ;)
una cosa, quindi in linea generale si può dire che mentre giochi non si hanno rallentamenti?
Le 2 gpu sono sfruttate a pieno in tutte le prove che hai fatto?
guarda sei un grande, grazie ;)
una cosa, quindi in linea generale si può dire che mentre giochi non si hanno rallentamenti?
Le 2 gpu sono sfruttate a pieno in tutte le prove che hai fatto?
Dalle mie parti si dice :
-"acquaiolo come é l'acqua...?"
--" E' fresca! E' come la neve..!!!"
Se propio non ti interessa leggere le review...che il tuo destino si compia....
@Yossarian...>decisamente mordace e condivisile: .......il vantaggio del consumatore è un effetto collaterale........
w la tecnocrazia liberista...:(
Diobrando_21
18-07-2008, 21:24
Dalle mie parti si dice :
-"acquaiolo come é l'acqua...?"
--" E' fresca! E' come la neve..!!!"
Se propio non ti interessa leggere le review...che il tuo destino si compia....
hai visto per caso una review dello SLI gtx280 su questo sito? a me nn sembra...
cmq preferisco sentire anche dei pareri personali, qual'è il problema?
^Memphis^
18-07-2008, 21:36
Ragazzi, ma questa scheda con Crysis in DX10 tutto very high@ 1680*1050 gira o scatta? A proposito, su che fascia di prezzo si trova?
fa 20 fps con quei settaggi e si trova a 380.
^Memphis^
18-07-2008, 21:44
Grazie per le info! Per quanto riguarda lalimentatore con un600W si hanno problemi o è sufficente?
A 380 dove la trovi? (risp anche in pvt se vuoi)
devi vedere gli ampere totali sui +12v (devi averne almeno 40)
la trovi a 380 euro su trovaprezzi
DarkVampire
18-07-2008, 22:35
350 su ebay...ma credo anke qualcosina in meno ^^
michelgaetano
18-07-2008, 23:10
350 su ebay...ma credo anke qualcosina in meno ^^
Ottimo, vai che i 300 son sempre più vicini :P
480 unità fp64 con la stessa logica delle alu di GT200? Ci sarebbe veramente da ridere :D
In che senso? Che non ho ben capito :stordita:
appleroof
19-07-2008, 09:40
480 unità fp64 con la stessa logica delle alu di GT200? Ci sarebbe veramente da ridere :D
già, l'ho proprio buttata lì, se non sbaglio dicevi che quella sarà una caratteristica dx11, quindi se ne parlerà alla prox architettura :D
per il bus invece...
Decisamente troppi; anche la prima gtx che mi sono preso andava continuamente in protezione; sostituita con una pov, non supera gli 80° in full a 720 mhz!
Dovresti fartela cambiare o smontarla per applicare meglio pasta e controllare che il dissipatore faccia contatto perfettamente.
La scheda mi è stata sostituita in garanzia!
Ora va una bomba e mai temperature superiori agli 85°!!
Finalmente me la posso godere!! :)
Mercuri0
19-07-2008, 10:59
A me il discorso sembrava incentrato sulla tecnica, non sul marketing... ;)
Tecnicamente parlando, si tratta di 2 GPU "Top". Che poi siano vendute a prezzi "diversi", sappiamo tutti il perchè... ;)
Scramblel77 leva il "tecnicamente" se vuoi fare questi discorsi. :muro: :muro:
Perché "tecnicamente" il chip sulla RV770 è stato progettato per schede da 200€
(ti torna che si progetta per un certo target di prezzo, si?) mentre il GT200€ per scheda da 500€
Sempre "tecnicamente" 2 RV770 sono grandi (in area) meno di un solo GT200!!
"Tecnicamente" abbiamo assistito ad un chip progettato per essere una "Punto" essere nella stessa classe di prestazioni di un chip progettato per essere una "Ferrari".
Il GT200, tecnicamente, è pochissimo elegante nei confronti del RV770. Non è stato "KO" totale solo perché il rapporto prestazioni/consumi è nella stessa classe.
Magari il GT200 rivelerà potenzialità inespresse nelle revisioni, che usciranno prestissimo, per la gioia lead user che hanno comprato la GTX280 a prezzo pieno.
yossarian
19-07-2008, 11:03
In che senso? Che non ho ben capito :stordita:
le alu a fp64 ed i relativi registri occupano il doppio dello spazio rispetto a quelle fp32. Ho già dei seri dubbi sul fatto che riescano a metterci dentro 480 alu fp32 (toglendo, rispetto a GT200, le 30 alu fp64) :D
già, l'ho proprio buttata lì, se non sbaglio dicevi che quella sarà una caratteristica dx11, quindi se ne parlerà alla prox architettura :D
per il bus invece...
non l'ho mai detto; forse sarà stato qualcun altro; comunque dalle caratteristiche postate da hal, il prossimo chip NV continuerebbe ad essere solo dx10.
Per il bus dipenderà dal tipo di MC. Con l'attuale architettura sono obbligati ad utilizzare 512 bit per 1024 MB di ram (ed eventualmente 1024 bit per 2 GB). In ogni caso, se l'architettura del chip resta quella di GT200 con la sola modifica del MC (ammesso che sarà modificato), mi sembra improbabile che si possa scendere al di sotto di un bus a 512 bit, considerando anche il fatto che i chip NV impiegano in maniera meno efficiente la banda passante.
In ogni caso, se quelle specifiche fossero vere, questo significherebbe 3 cose:
1) nVidia sembrerebbe molto lontana dall'utlizzo del pp a 40 o 45 nm (pare sia atteso un refresh di GT200 a 55 nm entro la fine dell'anno e poi una nuova architettura ancora a 55 nm)
2) sembrerebbe molto lontana dall'utilizzo delle dx11 (questo nuovo chip non vedrebbe la luce prima del Q2 o Q3 2009 e sarebbe ancora dx10)
3) sembrerebbe tornare sui suoi passi rispetto al gpgpu (in un'architettura con quelle specifiche non ci sarebbe posto per alu fp64).
Mercuri0
19-07-2008, 11:13
Per il bus dipenderà dal tipo di MC. Con l'attuale architettura sono obbligati ad utilizzare 512 bit per 1024 MB di ram (ed eventualmente 1024 bit per 2 GB). In ogni caso, se l'architettura del chip resta quella di GT200 con la sola modifica del MC (ammesso che sarà modificato), mi sembra improbabile che si possa scendere al di sotto di un bus a 512 bit, considerando anche il fatto che i chip NV impiegano in maniera meno efficiente la banda passante.
Dici che è impossibile che nVidia usi le GDDR5 per il GT200 a 55nm?
(in effetti fudzilla lo da prossimo all'uscita)
Probabilmente le GDDR5 sono il vantaggio più grande di RV770.
1) nVidia sembrerebbe molto lontana dall'utlizzo del pp a 40 o 45 nm (pare sia atteso un refresh di GT200 a 55 nm entro la fine dell'anno e poi una nuova architettura ancora a 55 nm)
Sempre uno tra fudzilla e the inquirer riportavano che nVidia fosse pronta a fare il tape-out a fine anno di una GPU a 40nm, e AMD qualche settimana dopo. TSMC però avrebbe rimandato nel Q1 2009, e come conseguenza le due GPU dovrebbero uscire abbastanza appaiate nel Q3 2009.
Mi aspetto che queste GPU usino l'architettura nuova (DX11?), anche se magari potrebbero fare la prima prova a 40nm con quella vecchia (più AMD che nVidia...)
halduemilauno
19-07-2008, 11:22
le alu a fp64 ed i relativi registri occupano il doppio dello spazio rispetto a quelle fp32. Ho già dei seri dubbi sul fatto che riescano a metterci dentro 480 alu fp32 (toglendo, rispetto a GT200, le 30 alu fp64) :D
non l'ho mai detto; forse sarà stato qualcun altro; comunque dalle caratteristiche postate da hal, il prossimo chip NV continuerebbe ad essere solo dx10.
Per il bus dipenderà dal tipo di MC. Con l'attuale architettura sono obbligati ad utilizzare 512 bit per 1024 MB di ram (ed eventualmente 1024 bit per 2 GB). In ogni caso, se l'architettura del chip resta quella di GT200 con la sola modifica del MC (ammesso che sarà modificato), mi sembra improbabile che si possa scendere al di sotto di un bus a 512 bit, considerando anche il fatto che i chip NV impiegano in maniera meno efficiente la banda passante.
In ogni caso, se quelle specifiche fossero vere, questo significherebbe 3 cose:
1) nVidia sembrerebbe molto lontana dall'utlizzo del pp a 40 o 45 nm (pare sia atteso un refresh di GT200 a 55 nm entro la fine dell'anno e poi una nuova architettura ancora a 55 nm)
2) sembrerebbe molto lontana dall'utilizzo delle dx11 (questo nuovo chip non vedrebbe la luce prima del Q2 o Q3 2009 e sarebbe ancora dx10)
3) sembrerebbe tornare sui suoi passi rispetto al gpgpu (in un'architettura con quelle specifiche non ci sarebbe posto per alu fp64).
credo che se fosse previsto per i Q2/Q3 del 2009 non sarà ne a 55nm e ne dx10. se fosse cosi sarebbe per Q1 2009 e per il Q3 2009 sarebbe a 40/45nm e dx11.
che fa nvidia gia dispone delle dx10 e del pp a 55nm e aspetta un altr'anno per tirar fuori un'altro chip con quelle stesse caratteristiche?
autunno 2009 si cambia tutto. dx11 e 40nm se non prima per quest'ultimo aspetto.
quel chip primaverile sarà eventualmente il banco prova delle gddr5.
Dici che è impossibile che nVidia usi le GDDR5 per il GT200 a 55nm?
(in effetti fudzilla lo da prossimo all'uscita)
Probabilmente le GDDR5 sono il vantaggio più grande di RV770.
La banda teorica quasi doppia delle DDR5 da incrementi rispetto alla DDR3 che vanno dal 4 all'11%, ovviamente a parità di frequenza GPU.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/6/
E non è la banda il problema di GT200, è che l'AA su R770 è semplicemente più efficiente.
yossarian
19-07-2008, 11:35
Dici che è impossibile che nVidia usi le GDDR5 per il GT200 a 55nm?
(in effetti fudzilla lo da prossimo all'uscita)
Probabilmente le GDDR5 sono il vantaggio più grande di RV770.
con quel MC assolutamente si
Sempre uno tra fudzilla e the inquirer riportavano che nVidia fosse pronta a fare il tape-out a fine anno di una GPU a 40nm, e AMD qualche settimana dopo. TSMC però avrebbe rimandato nel Q1 2009, e come conseguenza le due GPU dovrebbero uscire abbastanza appaiate nel Q3 2009.
Mi aspetto che queste GPU usino l'architettura nuova (DX11?), anche se magari potrebbero fare la prima prova a 40nm con quella vecchia (più AMD che nVidia...)
è appena uscita la prima gpu a 55 nm e questo porcesso produttivo è tutt'altro che affinato. Secondo te è possibile che sia già pronto il tape out di un chip a 40 nm? Inoltre con una nuova architettura?
yossarian
19-07-2008, 11:39
credo che se fosse previsto per i Q2/Q3 del 2009 non sarà ne a 55nm e ne dx10. se fosse cosi sarebbe per Q1 2009 e per il Q3 2009 sarebbe a 40/45nm e dx11.
che fa nvidia gia dispone delle dx10 e del pp a 55nm e aspetta un altr'anno per tirar fuori un'altro chip con quelle stesse caratteristiche?
autunno 2009 si cambia tutto. dx11 e 40nm se non prima per quest'ultimo aspetto.
quel chip primaverile sarà eventualmente il banco prova delle gddr5.
quindi, secondo questa presunta roadmap, sarebbe previsto lo shrink di GT200 per settembre 2008; il chip di cui hai postato le specifiche per il Q1 2009; un nuovo chip dx11 e a 40 nm (quindi con architettura completamente modificata) per il Q2 2009? Cioè un chip ogni 3 mesi con cambio di api e di pp?
Quanto giudichi realistica una prospettiva del genere, tenendo conto che 3 o 4 mesi sono solitamente i tempi tecnici per cui un chip andato in tape out entri in produzione (ammesso che non ci siano contrattempi)?
Da sola?? :rotfl: Guarda che stiamo parlando di 2gpu vs 2gpu... ;)
Buonasera a tutti! :asd:
ma anche no ;)
stiamo parlando una scheda vs 1 scheda..
vedi problemi negli ultimi giochi con il multigpu? no perche sai io a parte quake 2 che si in effetti invece di fare 1800 fps ne faccio solo 900 non li vedo....
si devono guardare i risultati finali non quello che cè dentro... se cè un criceto e la scheda ti fa una buona percentuale sopra l'altra top di gamma non la compreresti? io si ;)
ma forse amd per incrementare meglio le vendite avrebbe dovuto mettere una placca di copertura quadrata grande come quella nvidia sopra le due gpu e scriverci r700 :)
halduemilauno
19-07-2008, 12:02
quindi, secondo questa presunta roadmap, sarebbe previsto lo shrink di GT200 per settembre 2008; il chip di cui hai postato le specifiche per il Q1 2009; un nuovo chip dx11 e a 40 nm (quindi con architettura completamente modificata) per il Q2 2009? Cioè un chip ogni 3 mesi con cambio di api e di pp?
Quanto giudichi realistica una prospettiva del genere, tenendo conto che 3 o 4 mesi sono solitamente i tempi tecnici per cui un chip andato in tape out entri in produzione (ammesso che non ci siano contrattempi)?
no ho detto il chip dx11 e a 40nm in autunno 2009 quindi di certo non in Q2 ma Q3 se non Q4. praticamente come usci il g80 a novembre 2006 e vista il gennaio successivo.
quindi il prossimo un refresh dell'attuale sul fronte pp e quindi frequenze e un'altro successivo (chiamiamolo sempre refresh cosi per brevità)(primavera 2009 inizio/fine?)sul fronte più ampio come shader, unità, ram, bus. e poi come detto a fine 2009(novembre?)si cambia tutto.
questo è quello che ho detto.
yossarian
19-07-2008, 12:11
no ho detto il chip dx11 e a 40nm in autunno 2009 quindi di certo non in Q2 ma Q3 se non Q4. praticamente come usci il g80 a novembre 2006 e vista il gennaio successivo.
quindi il prossimo un refresh dell'attuale sul fronte pp e quindi frequenze e un'altro successivo (chiamiamolo sempre refresh cosi per brevità)(primavera 2009 inizio/fine?)sul fronte più ampio come shader, unità, ram, bus. e poi come detto a fine 2009(novembre?)si cambia tutto.
questo è quello che ho detto.
ricapitolando:
- GT200 a 55 nm a settembre
- GT300 a 55 nm con MC modificato per le gddr5 tra Q1 e Q2 2009
- nuovo chip dx11 a 40 nm tra Q3 e Q4 2009
Quanto tempo è passato tra NV35 ed NV40; e tra G70 e G80? E tra G80 e GT200? E quali erano i pp adottati per questi chip? Ripeto la domanda: secondo te è realistica?
michelgaetano
19-07-2008, 12:17
ricapitolando:
- GT200 a 55 nm a settembre
- GT300 a 55 nm con MC modificato per le gddr5 tra Q1 e Q2 2009
- nuovo chip dx11 a 40 nm tra Q3 e Q4 2009
ripeto la domanda: secondo te è realistica?
Sbaglio o con una roadmap simile si apsserebbe da 65 nm a 40 nm in un anno scarso?
Mi sembra un po' "affrettato"
yossarian
19-07-2008, 12:32
Sbaglio o con una roadmap simile si apsserebbe da 65 nm a 40 nm in un anno scarso?
Mi sembra un po' "affrettato"
ho il sospetto che più di qualcuno consideri che se tsmc ha sviluppato un pp a 55 nm o a 45 o 40 nm, automaticamente ne debbano beneficiare tutti quelli che si servono da tsmc. Nella realtà, tsmc mette a disposizione le fonderie e le sue librerie relative a quello specifico processo produttivo che, in ogni caso, si limitano a parti specifiche e non "critiche" del chip (solitamente le interfacce con le metallizzazioni e poco altro). Il resto viene "inciso" su progetto del committente e se quest'ultimo non ha esperienza di un particolare pp non sarà in grado di commissionare chip con quel pp. La dimostrazione è che tsmc è da un pezzo in grado di produrre chip a 55 nm, ma chip nVidia a 55 nm stanno uscendo solo ora.
Non a caso, oltretutto, il primo chip a 55 nm è uno shrink di un'architettura relativamente poco complessa e su cui si è potuto lavorare, a livello di affinamento, nel corso di quasi due anni (col cavolo che è uscito un GT200 a 55 nm :D ).
Il passo successivo è affinare i 55 nm per avere conoscenza dei limiti di questo pp, al punto da poter produrre un chip più complesso, come gt200, senza rischi e con rese accettabili. In seguito si può pensare ad una nuova architettura o ad una revisione (non uno shrink) di gt200 a 55 nm e si può iniziare a sperimentare un nuovo pp. Passare ad un nuovo pp con un'architettura nuova, complessa e che adotta una nuova versione delle api e semplicemente fuori da ogni logica e può far andare incontro a veri e propri disastri.
Persino con NV30, con cui si adottò un nuovo pp per nuove api di riferimento, il passaggio fu così drastico, tanto che NV30 conservava ancora buona parte dell'architettura di NV25 (3 vs invece di 2 ma con architettura identica, a pipeline con 2 tmu per ciascuna, prevalenza di unità di tipo INT, ottime per le dx8 ma poco funzionali per le dx9, registri a 8 bit esattamente come NV25, nonostante le nuove api prevedessero l'uso di fp24 e NV30 faceva uso di fp16 ed fp32, ecc)
per dovere di cronaca/curiosità...
We got to know the related news but we are not so sure about this:
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
http://en.hardspell.com/doc/showcont.asp?news_id=3764
quindi grande come l'attuale gtx280 ma grazie ai 55nm ha tutto un popò di roba in +. bp semplicemente mostruosa gddr5 ma appunto con bus a 512 bit(personalmente dubito che con tale ram sia a 512 bit, cmq superiore ai 256)e niente dx10.1. e cmq nella gtx280 le unità sono 80 sono 64 nella gtx260.
se fosse a 55nm probabilmente sarebbe + vicino di quanto se lo fosse a 40/45nm.
cosa bella è che è/sarebbe tornato il rapporto core/shader a 1/2.5.
ovviamente è tutto da verificare.
;)
Che ci provino pure a fare un chip simile, che è totalmente impossibile a quel pp. Secondo i rumors, R800 avrà 1920sp, 96TMU, 32ROPs, 512bit di MC in 280 mm^2 (sono 2 core ognuno con metò delle specifiche) a 45nm. Se sarà cloccato a 800Mhz R800 avrà le stesse prestazioni del chip qui sopra. Ma il costo per chip di ATi sarà infinitesimale, il costo per chip per Nvidia enorme, pari a quello attuale di GT200. :)
Iantikas
19-07-2008, 12:58
Ragazzi, ma questa scheda con Crysis in DX10 tutto very high@ 1680*1050 gira o scatta? A proposito, su che fascia di prezzo si trova?
http://img403.imageshack.us/img403/3204/crysis1yc8.th.jpg (http://img403.imageshack.us/my.php?image=crysis1yc8.jpg)
questo è come va (min/avg/max) a 1280x768 in VH...e, guardando i risultati, probabilmente son le max impo a cui si può puntare con queste gpu x avere un gameplay fluido in maniera ottimale (forse ci si può spingere fino a 1280x960 o x1024)...ciao
halduemilauno
19-07-2008, 13:04
Sbaglio o con una roadmap simile si apsserebbe da 65 nm a 40 nm in un anno scarso?
Mi sembra un po' "affrettato"
secondo quanto ho detto sarebbero 14 mesi. da settembre 2008 a novembre 2009.
Che ci provino pure a fare un chip simile, che è totalmente impossibile a quel pp. Secondo i rumors, R800 avrà 1920sp, 96TMU, 32ROPs, 512bit di MC in 280 mm^2 (sono 2 core ognuno con metò delle specifiche) a 45nm. Se sarà cloccato a 800Mhz R800 avrà le stesse prestazioni del chip qui sopra. Ma il costo per chip di ATi sarà infinitesimale, il costo per chip per Nvidia enorme, pari a quello attuale di GT200. :)
Ma credo che ne abbia anche di + quello AMD....... dipende anche cosa faranno le software house.....
Mister Tarpone
19-07-2008, 13:10
Ma il costo per chip di ATi sarà infinitesimale, il costo per chip per Nvidia enorme, pari a quello attuale di GT200. :)
maaahhh... alla fine basta costi poco a noi... :asd:
.... . . . vedi il chippone della gtx 260 che si trova a soli 10€ + della 4870 che ha il micro chip ultra economico :asd: :asd:
halduemilauno
19-07-2008, 13:13
ricapitolando:
- GT200 a 55 nm a settembre
- GT300 a 55 nm con MC modificato per le gddr5 tra Q1 e Q2 2009
- nuovo chip dx11 a 40 nm tra Q3 e Q4 2009
Quanto tempo è passato tra NV35 ed NV40; e tra G70 e G80? E tra G80 e GT200? E quali erano i pp adottati per questi chip? Ripeto la domanda: secondo te è realistica?
dall'nv35 all'nv40 sei mesi. dal g70 al g80 17 mesi. dal g80 al gt200 19 mesi.
130nm per nv35 e 40. 110 e poi 90 per i g70. e 90 per i g80 e 65nm per gli attuali g92.
ma realistica cosa che nvidia nei prossimi 18 mesi tiri fuori 3 chip cominciando dal g92b???
ma non è stato detto e appena ribadito che il pp a 40 nm sarà pronto ad inizio 2009 e vedi cosi difficile che nvidia lo possa adottare a fine 2009(ho detto novembre).
maaahhh... alla fine basta costi poco a noi... :asd:
.... . . . vedi il chippone della gtx 260 che si trova a soli 10€ + della 4870 che ha il micro chip ultra economico :asd: :asd:
si ma chi delle due aziende ci sta guadagnando di + secondo te?? una ha già scalato qualcosa come 180€... l'altra a malapena 50€......
appleroof
19-07-2008, 13:18
cut
non l'ho mai detto; forse sarà stato qualcun altro; comunque dalle caratteristiche postate da hal, il prossimo chip NV continuerebbe ad essere solo dx10.
si dovrebbe essere l'ultimo chip dx10 verosimilmente...per il resto è vero, non l'hai detto, ricordavo male
http://www.hwupgrade.it/forum/showpost.php?p=23189121&postcount=788
Per il bus dipenderà dal tipo di MC. Con l'attuale architettura sono obbligati ad utilizzare 512 bit per 1024 MB di ram (ed eventualmente 1024 bit per 2 GB). In ogni caso, se l'architettura del chip resta quella di GT200 con la sola modifica del MC (ammesso che sarà modificato), mi sembra improbabile che si possa scendere al di sotto di un bus a 512 bit, considerando anche il fatto che i chip NV impiegano in maniera meno efficiente la banda passante.
certo intendevo proprio un nuovo tipo di bus per supportare ddr5 (almeno dai rumors riportati da Halduemilauno), quindi (ipotesi di conseguenza) bus più piccolo e risparmio di spazio...o no?
In ogni caso, se quelle specifiche fossero vere, questo significherebbe 3 cose:
1) nVidia sembrerebbe molto lontana dall'utlizzo del pp a 40 o 45 nm (pare sia atteso un refresh di GT200 a 55 nm entro la fine dell'anno e poi una nuova architettura ancora a 55 nm)
2) sembrerebbe molto lontana dall'utilizzo delle dx11 (questo nuovo chip non vedrebbe la luce prima del Q2 o Q3 2009 e sarebbe ancora dx10)
3) sembrerebbe tornare sui suoi passi rispetto al gpgpu (in un'architettura con quelle specifiche non ci sarebbe posto per alu fp64).
quanto al primo punto posso essere d'accordo (ed in fonso il pp in sè per sè mi interessa molto poco), il secondo ed il terzo mi sembrano molto inverosimili (chip dx10 del tutto nuovo nel Q2 o addirittura Q3 2009? naaaaaaaa....) vedremo
Alexandrus
19-07-2008, 13:22
Ma per alimentare sto gioiello va bene anche un enermax 720watt? :confused:
appleroof
19-07-2008, 13:23
Ma per alimentare sto gioiello va bene anche un enermax 720watt? :confused:
credo proprio di si, per estremo scrupolo posta l'amperaggio sui+12v ma al 99,99% và bene
Ma per alimentare sto gioiello va bene anche un enermax 720watt? :confused:
se non bastasse ci sarebbe da preoccuparsi :D
michelgaetano
19-07-2008, 13:29
credo proprio di si, per estremo scrupolo posta l'amperaggio sui+12v ma al 99,99% và bene
se non bastasse ci sarebbe da preoccuparsi :D
quoto, sarebbe proccupante davvero ^^"
Alexandrus
19-07-2008, 13:31
quoto, sarebbe proccupante davvero ^^"
k asdasd ... non per altro perchè la vedo abbinata ad un galaxy 1000watt su youtube e compagnia bella... saranno da sboroni quei video, visto che qualche mese fa costava una barcata di soldi la scheda :doh:
Grazie :rolleyes:
credo proprio di si, per estremo scrupolo posta l'amperaggio sui+12v ma al 99,99% và bene
cmq sono 2 linee da 12v sui 28A e una da 30A...
yossarian
19-07-2008, 13:33
dall'nv35 all'nv40 sei mesi. dal g70 al g80 17 mesi. dal g80 al gt200 19 mesi.
nv35 è del maggio 2003 (nv38 non ha nulla di nuovo rispetto a nv35 che introduce, di per sè, poche novità rispetto a nv30 che è del gennaio del 2003), nv40 dell'aprile 2004. Di fatto, da un'architettura ad un'altra, sono passati, in media 17 mesi e in nessun caso si è passati ad una nuova architettura con un nuovo pp e, soprattutto, con nuove api (un mezzo salto del genere lo si è tentato solo con NV30; ho detto mezzo e non completo e i risultati sono sotto gli occhi di tutti).
130nm per nv35 e 40. 110 e poi 90 per i g70. e 90 per i g80 e 65nm per gli attuali g92.
appunto: 130 nm per NV30, NV35 (NV38, aggiungerei, ovvero una ulteriore revisione di NV35 con affinamento del pp a 130 nm) e anche per NV40. 90 nm per G70 (è necessario ricordare che, prima di g70, erano usciti tutta una serie di chip della serie 6 a 110 e 90 nm?) e per G80. 65 nm per GT200 (dopo 19 mesi e un bel po' di chip della serie 8 a 80 e 65 nm, usciti prima di GT200).
Quindi, ogni nuovo chip è uscito utilizzando un pp consolidato e sufficientemente affinato. Tu, invece, prospetti un salto di 2 pp e di 2 architettura (GT300 non è uno shrink e presenta molte delle difficoltà relative al progetto di una nuova architettura), con, in più, il salto di 2 versioni delle api di riferimento, il tutto in, massimo, 14 mesi.
ma realistica cosa che nvidia nei prossimi 18 mesi tiri fuori 3 chip cominciando dal g92b???
guarda i dati riportati sopra
ma non è stato detto e appena ribadito che il pp a 40 nm sarà pronto ad inizio 2009 e vedi cosi difficile che nvidia lo possa adottare a fine 2009(ho detto novembre).
per tsmc si, per nVidia è da vedere. I chip li progetta nVidia, non tsmc e devono essere i progettisti di nVidia a risolvere i problemi connessi ad uno shrink o ad un nuovo progetto che faccia uso di un pp differente e non tsmc.
E' da un po' che tsmc è arrivata ai 55 nm, eppure nVidia ci sta arrivando solo ora. Ti dice niente questa cosa?
yossarian
19-07-2008, 13:39
certo intendevo proprio un nuovo tipo di bus per supportare ddr5 (almeno dai rumors riportati da Halduemilauno), quindi (ipotesi di conseguenza) bus più piccolo e risparmio di spazio...o no?
risparmi spazio ma non al punto da permetterti di duplicare le unità di GT200.
Faccio il conto della serva: G80 ha circa 680 mln di transistor. Per triplicare G80 ne servirebbero oltre 2 mld (vero che 3 g80 avrebbero 3 bus a 256 bit, quindi ne togliamo uno, ma siamo a 384 sp, mentre dobbiamo arrivare a 480; inoltre g80 non ha alu fp64. Stiamo parlando di un chip da circa 2,5 mld di transistor da mettere su un die di 576 mmì2 a 55 nm (uno shrink di GT200 a 55 nm sarebbe di circa 420-430 mm^2)
quanto al primo punto posso essere d'accordo (ed in fonso il pp in sè per sè mi interessa molto poco), il secondo ed il terzo mi sembrano molto inverosimili (chip dx10 del tutto nuovo nel Q2 o addirittura Q3 2009? naaaaaaaa....) vedremo
se li reputi inverosimili, allora le specifiche di quel chip e la sua presunta data di uscita sono del tutto inventate
massimomarc
19-07-2008, 14:00
nvidia per il suo prossimo chip dx11, userà sicuramente un pp a 55nm, è sempre stato così nella sua storia ed è sempre andato tutto bene, non credo vogliano replicare nv30 .
il chip dx11 sarà a 55 nm perchè sarà l unico processo produttivo sufficientemente affinato da poter utilizzare in una nuova e complessa architettura. Ora nvidia esce a 55nm con un g92b, architettura uscita nel 2006 ( 2 anni fa). e se avesse avuto a disposizione una 55nm affinata, ci avrebbe fatto gt200, ma così non è stato.
deve affinare ancora 55nm, ci metterà 6\9 mesi imho. se vedremo gt200 a 55nm, sarà verso febbraio. e dubito che dopo altri sei mesi si butti su nuova architettura a 40\45 nm :asd:
cmq la storia insegna, più che previsioni.
halduemilauno
19-07-2008, 14:25
nv35 è del maggio 2003 (nv38 non ha nulla di nuovo rispetto a nv35 che introduce, di per sè, poche novità rispetto a nv30 che è del gennaio del 2003), nv40 dell'aprile 2004. Di fatto, da un'architettura ad un'altra, sono passati, in media 17 mesi e in nessun caso si è passati ad una nuova architettura con un nuovo pp e, soprattutto, con nuove api (un mezzo salto del genere lo si è tentato solo con NV30; ho detto mezzo e non completo e i risultati sono sotto gli occhi di tutti).
appunto: 130 nm per NV30, NV35 (NV38, aggiungerei, ovvero una ulteriore revisione di NV35 con affinamento del pp a 130 nm) e anche per NV40. 90 nm per G70 (è necessario ricordare che, prima di g70, erano usciti tutta una serie di chip della serie 6 a 110 e 90 nm?) e per G80. 65 nm per GT200 (dopo 19 mesi e un bel po' di chip della serie 8 a 80 e 65 nm, usciti prima di GT200).
Quindi, ogni nuovo chip è uscito utilizzando un pp consolidato e sufficientemente affinato. Tu, invece, prospetti un salto di 2 pp e di 2 architettura (GT300 non è uno shrink e presenta molte delle difficoltà relative al progetto di una nuova architettura), con, in più, il salto di 2 versioni delle api di riferimento, il tutto in, massimo, 14 mesi.
guarda i dati riportati sopra
per tsmc si, per nVidia è da vedere. I chip li progetta nVidia, non tsmc e devono essere i progettisti di nVidia a risolvere i problemi connessi ad uno shrink o ad un nuovo progetto che faccia uso di un pp differente e non tsmc.
E' da un po' che tsmc è arrivata ai 55 nm, eppure nVidia ci sta arrivando solo ora. Ti dice niente questa cosa?
tsmc arriva ai 40nm a inizio 2009 e nvidia ci arriva a fine 2009.
ma non riesco a capire i tuoi dubbi eppure sei un'addetto ai lavori queste cose dovresti gia saperle. il primo fra una mesata refreshino (pp) dell'attuale. il secondo un sette mesi dopo refreshone del primo, ultimo stadio/capolinea del g80. il terzo un'altri sette mesi dopo tutto nuovo, api nuove, pp nuovo e tutto il resto.
dopotutto in un regime di ritrovata concorrenza cosa ti aspetti? che l'attula gt200 a 65 nm duri fino alla prossima primavera o il successivo che duri fino al 2010 inoltrato?
ripeto e chiarisco non sto dicendo che quel chip è tutto vero sto dicendo che è assolutamente normale che in primavera prossima se ne possa presentare un'altro.
tsmc arriva ai 40nm a inizio 2009 e nvidia ci arriva a fine 2009.
ma non riesco a capire i tuoi dubbi eppure sei un'addetto ai lavori queste cose dovresti gia saperle. il primo fra una mesata refreshino (pp) dell'attuale. il secondo un sette mesi dopo refreshone del primo, ultimo stadio/capolinea del g80. il terzo un'altri sette mesi dopo tutto nuovo, api nuove, pp nuovo e tutto il resto.
dopotutto in un regime di ritrovata concorrenza cosa ti aspetti? che l'attula gt200 a 65 nm duri fino alla prossima primavera o il successivo che duri fino al 2010 inoltrato?
ripeto e chiarisco non sto dicendo che quel chip è tutto vero sto dicendo che è assolutamente normale che in primavera prossima se ne possa presentare un'altro.
Tutto questo ottimismo mi perplime.........:mbe:
:D
fdadakjli
19-07-2008, 14:43
scusate...ma non sarebbe possibile finire gli O.T. questo 3d ormai tratta di tutto e di più meno che della 280... :stordita:
per il successore di GT200 credo sarebbe meglio aprire un nuovo thread...magari un "aspettando GT300"... ;)
^Memphis^
19-07-2008, 14:52
http://img403.imageshack.us/img403/3204/crysis1yc8.th.jpg (http://img403.imageshack.us/my.php?image=crysis1yc8.jpg)
questo è come va (min/avg/max) a 1280x768 in VH...e, guardando i risultati, probabilmente son le max impo a cui si può puntare con queste gpu x avere un gameplay fluido in maniera ottimale (forse ci si può spingere fino a 1280x960 o x1024)...ciao
Grazie per il pensiero, ma non ci sono ne la scheda, ne tantomeno la risoluzione a cui ero interessato :stordita: , comunque grazie:) !
Beh in effetti un "aspettando GT300" non sarebbe male!
Attualmente (lasciando perdere il rapoorto prezzo/prestazioni) tra GTX280 ATI 4870 e ATI 4870x2, è possibile fare una classifica delle migliori per prestazioni?
halduemilauno
19-07-2008, 14:55
scusate...ma non sarebbe possibile finire gli O.T. questo 3d ormai tratta di tutto e di più meno che della 280... :stordita:
per il successore di GT200 credo sarebbe meglio aprire un nuovo thread...magari un "aspettando GT300"... ;)
hai ragione avendo postato io il rumors riguardante questo ipotetico chip chiedo scusa.
torniamo in topic.
;)
yossarian
19-07-2008, 15:00
tsmc arriva ai 40nm a inizio 2009 e nvidia ci arriva a fine 2009.
ma non riesco a capire i tuoi dubbi eppure sei un'addetto ai lavori queste cose dovresti gia saperle. il primo fra una mesata refreshino (pp) dell'attuale.
con un pp non ancora affinato? siamo ancora alla prima rev. di g92 che è molto meno complesso di gt200.
il secondo un sette mesi dopo refreshone del primo, ultimo stadio/capolinea del g80.
quello che tu chiami refreshone presenta molte delle problematiche comuni ad un nuovo chip (e per molti versi si può assimilare ad un nuovo chip). Ti ricordo che il refreshone di NV40 è arrivato circa 14 mesi dopo (G70). Questo dovrebbe arrivare solo 10 mesi dopo GT200 e quello che è ancora meno credibile, altri 7 mesi dopo dovrebbe arrivare un nuovo chip dx11 con pp a 40 nm
il terzo un'altri sette mesi dopo tutto nuovo, api nuove, pp nuovo e tutto il resto.
appunto
dopotutto in un regime di ritrovata concorrenza cosa ti aspetti? che l'attula gt200 a 65 nm duri fino alla prossima primavera o il successivo che duri fino al 2010 inoltrato?
mi aspetto che si rispettino i tempi necessari per l'adozione di nuove tecnologie e per la progettazione di un nuovo chip; mi aspetto che nel momento in cui si mette in piedi una linea di produzione la si mantenga almeno il tempo necessario per ammortizzarne i costi; (forse proprio perchè sono un addetto ai lavori tengo conto di questi trascurabili particolari :D ).
ripeto e chiarisco non sto dicendo che quel chip è tutto vero sto dicendo che è assolutamente normale che in primavera prossima se ne possa presentare un'altro.
e a distanza di 7 mesi un altro ancora completamente diverso, del tutto nuovo e con nuovo pp? E, magari, dopo altri 7 mesi un altro ancora, a 32 nm e dx12 che farà fallire amd; dopo qualche mese uscirà la prima cpu a 20 nm che nel giro di 6 mesi farà chiudere bottega ad intel. A quel punto nVidia, ormai monopolista assoluta, inizierà a dettare le specifiche delle dx e darà la scalata a MS, diventandone l'azionista di maggioranza in poco meno di un anno. E vissero tutti felici e contenti :sofico:
Per carità, tutto è possibile, però, tenendo conto di quanto avvenuto finora e delle difficoltà connesse all'adozione di un nuovo pp, all'adeguamento di un chip a nuove specifiche e delle difficoltà di progettazione di una nuova architettura, mi permetti di essere moderatamente scettico nei confronti della roadmap da te prospettata? :D
scusate...ma non sarebbe possibile finire gli O.T. questo 3d ormai tratta di tutto e di più meno che della 280... :stordita:
per il successore di GT200 credo sarebbe meglio aprire un nuovo thread...magari un "aspettando GT300"... ;)
hai ragione :)
fdadakjli
19-07-2008, 15:05
hai ragione avendo postato io il rumors riguardante questo ipotetico chip chiedo scusa.
torniamo in topic.
;)
:mano:
halduemilauno
19-07-2008, 15:16
con un pp non ancora affinato? siamo ancora alla prima rev. di g92 che è molto meno complesso di gt200.
quello che tu chiami refreshone presenta molte delle problematiche comuni ad un nuovo chip (e per molti versi si può assimilare ad un nuovo chip). Ti ricordo che il refreshone di NV40 è arrivato circa 14 mesi dopo (G70). Questo dovrebbe arrivare solo 10 mesi dopo GT200 e quello che è ancora meno credibile, altri 7 mesi dopo dovrebbe arrivare un nuovo chip dx11 con pp a 40 nm
appunto
mi aspetto che si rispettino i tempi necessari per l'adozione di nuove tecnologie e per la progettazione di un nuovo chip; mi aspetto che nel momento in cui si mette in piedi una linea di produzione la si mantenga almeno il tempo necessario per ammortizzarne i costi; (forse proprio perchè sono un addetto ai lavori tengo conto di questi trascurabili particolari :D ).
e a distanza di 7 mesi un altro ancora completamente diverso, del tutto nuovo e con nuovo pp? E, magari, dopo altri 7 mesi un altro ancora, a 32 nm e dx12 che farà fallire amd; dopo qualche mese uscirà la prima cpu a 20 nm che nel giro di 6 mesi farà chiudere bottega ad intel. A quel punto nVidia, ormai monopolista assoluta, inizierà a dettare le specifiche delle dx e darà la scalata a MS, diventandone l'azionista di maggioranza in poco meno di un anno. E vissero tutti felici e contenti :sofico:
Per carità, tutto è possibile, però, tenendo conto di quanto avvenuto finora e delle difficoltà connesse all'adozione di un nuovo pp, all'adeguamento di un chip a nuove specifiche e delle difficoltà di progettazione di una nuova architettura, mi permetti di essere moderatamente scettico nei confronti della roadmap da te prospettata? :D
hai ragione :)
tanto hai pure la claque giusta.
cmq io non ho prospettato nulla ho solo posto un rumors e detto sin dall'inizio per dovere di cronaca/curiosità. poi lo ripeto ora ne dovrebbe uscire uno che è solo il refresh di quello attuale. mi pare normale che in attesa del nuovo chip che supporti le nuove api passando oltre un'anno da questo che nvidia pensi a un chip intermedio non ci vedo nulla di strano ripeto in un clima di ritrovata competitività cosa deve fare rimanere con il gt200b fino alla fine del 2009 ma ati non sta pensando anch'essa a un nuovo chip per la prossima primavera e al chip di fine anno per le nuove api?
e ora basta dato che in ot ci siamo stati parecchio.
Grazie per il pensiero, ma non ci sono ne la scheda, ne tantomeno la risoluzione a cui ero interessato :stordita: , comunque grazie:) !
In VH a 1680x1050 in gioco fa mediamente quello che fa il gpu_bench, quindi circa 25-26fps, ovvero, per quanto riguarda i miei canoni di fluidità è ingiocabile.
Attualmente (lasciando perdere il rapoorto prezzo/prestazioni) tra GTX280 ATI 4870 e ATI 4870x2, è possibile fare una classifica delle migliori per prestazioni?
Lasciando perdere il p/p
-4870x2
-280
-4870
fr4nc3sco
19-07-2008, 15:36
Grazie per il pensiero, ma non ci sono ne la scheda, ne tantomeno la risoluzione a cui ero interessato :stordita: , comunque grazie:) !
Beh in effetti un "aspettando GT300" non sarebbe male!
Attualmente (lasciando perdere il rapoorto prezzo/prestazioni) tra GTX280 ATI 4870 e ATI 4870x2, è possibile fare una classifica delle migliori per prestazioni?
attualmente c'è:
sli di 280
4870x2 cf4870
sli di 260
4870
260 cf 4850
4850 9800gtx+
9800gtx
Diobrando_21
19-07-2008, 17:01
che dire...quoto... :p
sto provando proprio oggi lo SLi di GTX280 [2 schede] sotto XP SP3... :eek:
ciao scusa, hai provato lo SLI di 2 gtx280? Come è andata?
Puoi farmi un paragone con la 4870x2, grazie ciao
michelgaetano
19-07-2008, 17:05
attualmente c'è:
sli di 280
4870x2 cf4870
sli di 260
4870
260 cf 4850
4850 9800gtx+
9800gtx
Semplici prestazioni
1. SLI gtx 280
2. SLI gtx 260 / CF HD4870
3. CF HD4850 / gtx 280
4. HD4870
5. gtx 260
6. HD4850 / 9800gtx+ (quando esce)
7. 9800 gtx
Semplici prestazioni
1. SLI gtx 280
2. SLI gtx 260 / CF HD4870
3. CF HD4850 / gtx 280
4. HD4870
5. gtx 260
6. HD4850 / 9800gtx+ (quando esce)
7. 9800 gtx
mi sembra un confronto piu realistico questo :)
mi sembra un confronto piu realistico questo :)
e manca la HD4870X2 e anche il cross di HD4870X2
fdadakjli
19-07-2008, 19:24
e manca la HD4870X2 e anche il cross di HD4870X2
nonchè i 3-SLi delle GTX... :D
salucard
19-07-2008, 19:28
nonchè i 3-SLi delle GTX... :D
il tri-sli di 280gtx è deludente anzi deludentissimo è più veloce una singola 9800gx2
andatevi a vedere il link che ho postato sul test che hanno fatto:rolleyes: :rolleyes:
mircocatta
19-07-2008, 19:28
mamma mia che tentazione...avrei avuto i soldi tutt'oggi per prendere questa signor scheda...
strano che quella che costa meno, si trova su ebay, è di un'ottima marca, la evga, ed è la versione super overclocked..e viene 369 +9 di spedizione..
prima della 4870 avevo già 300€ da parte, e con i soldi arrivati dopo avrei potuto prendermi sta belva overcloccata ad un prezzo molto basso...accidenti :D
vabè mi tengo la mia che ha solo un 15% in meno di sta belvona ;)
fdadakjli
19-07-2008, 19:29
il tri-sli di 280gtx è deludente anzi deludentissimo è più veloce una singola 9800gx2:
mi sa che ti stai sbagliando giusto un pelino... :sofico:
salucard
19-07-2008, 19:37
mi sa che ti stai sbagliando giusto un pelino... :sofico:
ah si scusa uno sli di 9800gx2
ora posto il link del test che invito tutti a leggere
http://www.tweaktown.com/articles/1466/8/nvidia_geforce_gtx_280_in_tri_sli_tested/index.html
fdadakjli
19-07-2008, 19:47
ah si scusa uno sli di 9800gx2
ora posto il link del test che invito tutti a leggere
http://www.tweaktown.com/articles/1466/8/nvidia_geforce_gtx_280_in_tri_sli_tested/index.html
non sono daccordo...ti parlo per esperienza personale...non basandomi su recensioni online...venendo proprio da un Quad SLi di 9800GX2...ho avuto netti miglioramenti in tutto passando ad un Triple SLi di GTX280 ;)
ho maggiori fps...con le 9800gx2 vi erano tremendi picchi tra frame max e min...con queste schede invece si ha più linearità con picchi minimi di molto superiori... :)
mamma mia che tentazione...avrei avuto i soldi tutt'oggi per prendere questa signor scheda...
strano che quella che costa meno, si trova su ebay, è di un'ottima marca, la evga, ed è la versione super overclocked..e viene 369 +9 di spedizione..
prima della 4870 avevo già 300€ da parte, e con i soldi arrivati dopo avrei potuto prendermi sta belva overcloccata ad un prezzo molto basso...accidenti :D
vabè mi tengo la mia che ha solo un 15% in meno di sta belvona ;)
le disgrazie della vita.......;) :D :D
dai su che hai cmq una super scheda!!!!!!
ciao
fdadakjli
19-07-2008, 19:58
le disgrazie della vita.......;) :D :D
dai su che hai cmq una super scheda!!!!!!
indubbiamente... :)
michelgaetano
19-07-2008, 20:02
e manca la HD4870X2 e anche il cross di HD4870X2
nonchè i 3-SLi delle GTX... :D
Mi ero mantenuto a configurazioni più umane, ma soprattutto meglio supportate ^^" Quanto a prestazioni 4870X2 e CF di 4870 son lì, a quanto dicono le preview, poi boh :D
Skullcrusher
19-07-2008, 20:08
Quali sono i miglior drivers per la GTX 280? I 177.66? :stordita:
salucard
19-07-2008, 20:10
non sono daccordo...ti parlo per esperienza personale...non basandomi su recensioni online...venendo proprio da un Quad SLi di 9800GX2...ho avuto netti miglioramenti in tutto passando ad un Triple SLi di GTX280 ;)
ho maggiori fps...con le 9800gx2 vi erano tremendi picchi tra frame max e min...con queste schede invece si ha più linearità con picchi minimi di molto superiori... :)
beh ma tu se non sbaglio il tri sli ce l'hai clocckato(non so come fa l'ali a reggere) e invece le 9800gx2 le avevi clocckate?
comunque dai le 280gtx sono ancora premature,bisogna aspettare ancora dei driver competitivi;) ;) ;)
fdadakjli
19-07-2008, 20:13
beh ma tu se non sbaglio il tri sli ce l'hai clocckato(non so come fa l'ali a reggere) e invece le 9800gx2 le avevi clocckate?
comunque dai le 280gtx sono ancora premature,bisogna aspettare ancora dei driver competitivi;) ;) ;)
si...avevo delle XFX 9800GX2 BlackEdition overcloccate... :D
cmq anche a default lo puoi fare il confronto...vanno sempre meglio le GTX280...;)
quoto con te sulla questione driver...
martinez1983
19-07-2008, 20:23
(non so come fa l'ali a reggere)
Io invece mi chiedo se regge il contatore dell' Enel!!!!:asd: :asd: :asd:
salucard
19-07-2008, 20:34
Io invece mi chiedo se regge il contatore dell' Enel!!!!:asd: :asd: :asd:
eh si mi sa che a delly gli conviene tenere sotto controllo il contatore dovesse fondersi come il burro sulla fiamma viva:rolleyes: :rolleyes: :rolleyes: :sbonk: :asd:
@delly saresti capace di fare un test di confronto tra 280 e 9800?
naturalmente cercando di evitare gli eventuali "collo di bottiglia" o cpu limited:D :D :D
michelgaetano
19-07-2008, 20:35
@delly saresti capace di fare un test di confronto tra 280 e 9800?
naturalmente cercando di evitare gli eventuali "collo di bottiglia" o cpu limited:D :D :D
CPU limited @ 5,3 ghz? :asd:
fdadakjli
19-07-2008, 20:37
CPU limited @ 5,3 ghz? :asd:
quello è il max sotto vapo...;)
daily con la zotac 790i sto a 4.95GHz...450x11... :)
martinez1983
19-07-2008, 20:46
quello è il max sotto vapo...;)
daily con la zotac 790i sto a 4.95GHz...450x11... :)
Quei 5.3 gli hai presi con la Mars P35!!!!
DarkVampire
19-07-2008, 20:50
nonchè i 3-SLi delle GTX... :D
il trisli va piu' lento dello sli normale -.-"
fdadakjli
19-07-2008, 20:54
Quei 5.3 gli hai presi con la Mars P35!!!!
si...sia sulla Mars P35 che sulla DFI LP P35 T2R ;)
questa 790i al momento mi sembra meglio di entrambe cmq... :)
michelgaetano
19-07-2008, 21:00
quello è il max sotto vapo...;)
daily con la zotac 790i sto a 4.95GHz...450x11... :)
ah, così poco...:sofico: :D
martinez1983
19-07-2008, 21:03
si...sia sulla Mars P35 che sulla DFI LP P35 T2R ;)
questa 790i al momento mi sembra meglio di entrambe cmq... :)
Allora non voglio pensare quando metterai le mani sulla Foxconn 790i!!!
Mi piace un casino come mobo...e credo che vedremo overclock pazzeschi!!!
fdadakjli
19-07-2008, 21:08
Allora non voglio pensare quando metterai le mani sulla Foxconn 790i!!!
Mi piace un casino come mobo...e credo che vedremo overclock pazzeschi!!!
si...non vedo l'ora...me la sogno di notte la dreadnought...:D
ora meglio chiudere con tutti questi O.T. :)
GIAMPI87
20-07-2008, 00:02
Ragazzi possiedo un Alimentatore Tecnoware FALPRO4 da 600 Watt e con 2 linee da 12V un da 22A ed una da 20A riesco ad alimentare questa bestiolina insieme al resto del computer in firma ?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.