PDA

View Full Version : [THREAD UFFICIALE] Geforce GTX280


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30

Mister Tarpone
17-08-2008, 17:22
uno sli di gtx260 è sotto del 20% a R700,
assolutamente no. in media vanno uguale. solo in 8x a 1600x c'è una differenza del 20%. ma queste schede vanno usate a 1920x1200 aa4x o a 2560x aa4x.
uno sli di GTX280 (gpu top nvidia x2 vs gpu top ati x2) ovviamente va di + di una 4870X2.

come prezzi cmq è meglio ati.

massimomarc
17-08-2008, 17:32
assolutamente no. in media vanno uguale. solo in 8x a 1600x c'è una differenza del 20%. ma queste schede vanno usate a 1920x1200 aa4x o a 2560x aa4x.
uno sli di GTX280 (gpu top nvidia x2 vs gpu top ati x2) ovviamente va di + di una 4870X2.

come prezzi cmq è meglio ati.

si ma... i prezzi sono la fascia di paragone :) . se prendi uno sli di gtx 280, prendi un crossfire di 4870 x2, stesso prezzo di 750 euro circa :)

il confronto gpu-gpu perde totalmente significato quando parliamo di soluzioni dual, spero che fin li siamo daccordo.. ati ha la strategia di proporre 2 rv770 a 400 euro , nvidia nella stessa fascia ha gtx280... punto.

sulle prestazioni di uno SLI gtx260 hai ragione tu :) le considerazioni di tale configurazione che ho fatto rimangono inalterate invece.

Mister Tarpone
17-08-2008, 17:37
cut

sulle prestazioni di uno SLI gtx260 hai ragione tu :) le considerazioni di tale configurazione che ho fatto rimangono inalterate invece.

e io solo su questo ti ho voluto rispondere :) dato che ti eri sbagliato :)
poi come prezzi è ovviamente meglio ati per quello che offre.
resta il fatto che se si prende la gpu singola od un crossfire vs sli di 2 gpu top di ati nvidia le prestazioni più elevate le ha nvidia :)

NOOB4EVER
17-08-2008, 17:41
la 4870x2 andrebbe confrontata con lo sli di gtx280... ;)


qualcuno ha provato i nuovi 177.89???

provati,artefatti in crysis , flat out ultimate carnage,minore framerate massimo in grid passo dai 113 a 98 circa ingame,per quanto posso consigliarti,non vi e' nessun driver migliore dei 177.41 almeno attualmente e per quanto riguarda un mio modestissimo parere personale ;)

fdadakjli
17-08-2008, 17:44
provati,artefatti in crysis , flat out ultimate carnage,minore framerate massimo in grid passo dai 113 a 98 circa ingame,per quanto posso consigliarti,non vi e' nessun driver migliore dei 177.41 almeno attualmente e per quanto riguarda un mio modestissimo parere personale ;)

questi allora evito di scaricarli..

fdadakjli
17-08-2008, 17:46
A quanto pare da ciò che si legge in giro il 26 Agosto Nvidia dovrebbe rilasciare la
versione a 55nm della GTX280 !
Queste le sue caratteristiche:

Year: Aug 26, 08
Code Name: GT200B
Fab: 55nm
Transistors: 1400M+
Die Size: 470mm2
Memory: 1024mb
Core: 648mhz
Shader: 1620mhz
Memory: 2216mhz

Staremo a vedere...............:D

interessante...allora comincio a preparare "psicologicamente" le mie schede al cambio di padrone... :asd: :D

Mister Tarpone
17-08-2008, 17:50
interessante...allora comincio a preparare "psicologicamente" le mie schede al cambio di padrone... :asd: :D

ecco... lo sapevo.. :asd:

fdadakjli
17-08-2008, 17:53
ecco... lo sapevo.. :asd:

si...ormai sono troppo prevedibile... :stordita: :sofico:

sto già cominciando a mandare sms ad amici "potenzialmente" interessati alle mie piccine... :D :D

halduemilauno
17-08-2008, 18:01
A quanto pare da ciò che si legge in giro il 26 Agosto Nvidia dovrebbe rilasciare la
versione a 55nm della GTX280 !
Queste le sue caratteristiche:

Year: Aug 26, 08
Code Name: GT200B
Fab: 55nm
Transistors: 1400M+
Die Size: 470mm2
Memory: 1024mb
Core: 648mhz
Shader: 1620mhz
Memory: 2216mhz

Staremo a vedere...............:D


queste dovrebbero essere le caratteristiche(frequenze)della numero due. dovrebbero. e con la ram a 2214 quelle erano le frequenze originariamente previste per la gtx280(per la gtx260 erano/dovevano essere 596/1512 che forse potrebbero essere i valori della numero tre).
ripeto dovrebbero e concordo staremo a vedere.
;)

Mister Tarpone
17-08-2008, 18:02
quindi la numero uno secondo te sarà una GX2 ??

halduemilauno
17-08-2008, 18:11
quindi la numero uno secondo te sarà una GX2 ??

l'Nvision 2008 si svolgerà tra il 25 e il 27 agosto 2008. ma altra data, diciamo papabile, è/può essere il 16 settembre.
ripeto staremo a vedere ci resta solo che attendere.
;)

Suhadi_Sadono
17-08-2008, 18:15
provati,artefatti in crysis , flat out ultimate carnage,minore framerate massimo in grid passo dai 113 a 98 circa ingame,per quanto posso consigliarti,non vi e' nessun driver migliore dei 177.41 almeno attualmente e per quanto riguarda un mio modestissimo parere personale ;)
Io li ho scaricati da ieri e ho giocato parecchie ore a GRID e GRAW2 senza artefatti :rolleyes:

NOOB4EVER
17-08-2008, 18:21
si...ormai sono troppo prevedibile... :stordita: :sofico:

sto già cominciando a mandare sms ad amici "potenzialmente" interessati alle mie piccine... :D :D

non penso cambiera' molto in termini di prestazioni,ma spero di sbagliarmi

fdadakjli
17-08-2008, 18:39
non penso cambiera' molto in termini di prestazioni,ma spero di sbagliarmi

cambierà in oc, grazie ai 55nm... :asd: :ciapet:

Mister Tarpone
17-08-2008, 18:43
cambierà in oc, grazie ai 55nm... :asd: :ciapet:

a me quello che non mi preoccupa assolutamente sono le prestazioni. che già nelle gtx di adesso son buone/ottime.
quello che vorrei vedere è un rapporto -prezzo/prestazione- migliorato.

allora le cose sono 2... o le gtx prossime le fanno andare leggermente meglio ma a prezzi + vantaggiosi di adesso, o altrimenti voglio un miglioramento + alto di un 10% +... ;)

Andrea deluxe
17-08-2008, 18:45
:asd:
http://channel.hexus.net/content/item.php?item=14993&page=2

halduemilauno
17-08-2008, 18:47
a me quello che non mi preoccupa assolutamente sono le prestazioni. che già nelle gtx di adesso son buone/ottime.
quello che vorrei vedere è un rapporto -prezzo/prestazione- migliorato.

allora le cose sono 2... o le gtx prossime le fanno andare leggermente meglio ma a prezzi + vantaggiosi di adesso, o altrimenti voglio un miglioramento + alto di un 10% +... ;)

la presenza della 4870x2 sarà da sprono per ottenere l'uno e l'altro.
;)

Mister Tarpone
17-08-2008, 18:57
:asd:
http://channel.hexus.net/content/item.php?item=14993&page=2

se ho capito bene dicono che entro questo anno contano di tornare primi come prestazioni...

Giustaf
17-08-2008, 19:02
la presenza della 4870x2 sarà da sprono per ottenere l'uno e l'altro.
;)

quoto! :)

Andrea deluxe
17-08-2008, 19:02
se ho capito bene dicono che entro questo anno contano di tornare primi come prestazioni...

si, con una scheda montante 2 gpu @55nm ma con "forse" le caratteristiche della gtx260 e non gtx280!


pero' secondo me alla fine per una questione di immagine, non se ne possono uscire con una scheda da 1792mb di ram quando la concorrenza ne fa una da 2gb!

alla fine fa faranno con bus a 256bit e 2gb di gddr5....

dj883u2
17-08-2008, 19:04
se ho capito bene dicono che entro questo anno contano di tornare primi come prestazioni...
Dicono anche:
1) Solo con i 55 nm sarà possibile fare una scheda GTX260GX2;
2) Che sono state necessarie due GPU Hd4870 con 1gb di ram "HD4870X2" per battere in prestazioni la loro GTX280;
3) Che dalle prove che hanno condotto il CrossFire da molti + problemi dello SLI

Mister Tarpone
17-08-2008, 19:05
si, con una scheda montante 2 gpu @55nm ma con "forse" le caratteristiche della gtx260 e non gtx280!

allora mglioreranno qualche cosina... perchè le 2 260 in sli vanno + o - uguali alla 4870x2.. tranne in un caso (a 1600x + 8x)

dj883u2
17-08-2008, 19:06
allora mglioreranno qualche cosina... perchè le 2 260 in sli vanno + o - uguali alla 4870x2.. tranne in un caso (a 1600x + 8x)
Il supporto Driver, che è comunque in continua evoluzione.;)

Mister Tarpone
17-08-2008, 19:18
Il supporto Driver, che è comunque in continua evoluzione.;)

imho ci vuole qualche cosa di + dei driver migliorati.

halduemilauno
17-08-2008, 19:24
allora mglioreranno qualche cosina... perchè le 2 260 in sli vanno + o - uguali alla 4870x2.. tranne in un caso (a 1600x + 8x)

imho ci vuole qualche cosa di + dei driver migliorati.

magari le frequenze citate prima. magari.
;)

Mister Tarpone
17-08-2008, 19:27
magari le frequenze citate prima. magari.
;)

non sarebbe + di tanto superiore ad una x2 però.
quindi a quel punto dovrebbero metterla ad un buon prezzo. non che la fanno a 100/200€ più...altrimenti...


poi mi sbaglierò..

halduemilauno
17-08-2008, 19:30
non sarebbe + di tanto superiore ad una x2 però.quindi a quel punto dovrebbero metterla ad un buon prezzo. non che la fanno a 100/200€ più...altrimenti...


poi mi sbaglierò..

una gtx260x2 con quelle frequenze??????????????????????
:boh:
per carità si parla di semplici ipotesi.
;)

Mister Tarpone
17-08-2008, 19:55
una gtx260x2 con quelle frequenze??????????????????????
:boh:
per carità si parla di semplici ipotesi.
;)

l'ho detto perchè in qualche review ho visto dei modelli di gtx 260 OC.. e non mi sembra che vadano + di tanto rispetto ad una 260 con frequenze standard.
per questo c'ho un dubbio che non andrebbe così tanto di +... però forse mi sbaglio :asd: ;)


ciaoooo :ops:

massimomarc
18-08-2008, 01:57
visto che saranno due gtx260 a fare la nuova scheda nvidia :asd: ?


secondo me per un problema di rese in fonderia.

gtx260 saranno molto più economici da produrre rispetto ad un gtx280 , e riusciranno a creare il margine per creare una scheda competitiva nel prezzo e prestazioni a r700. la palma della velocità per nvidia è importante solo da raggiungere, fosse anche del 10% sarebbe grasso che cola , non mirano ( anche perchè non possono con i prezzi di AMD) a detronizzare di molto r700. devono creare una scheda che stia li con r700, cioè prestazioni simili e prezzo simile.

la butto li , gtx260x2 con 15\20% di performance in più e 500 euro di listino.



per gtx280 55nm a frequenze addirittura aumentate rispetto a quelle del 65nm , imho costerà uno sproposito da produrre e comprare per colpa delle pessime rese :) ma vedremo.

massimomarc
18-08-2008, 02:03
Dicono anche:
1) Solo con i 55 nm sarà possibile fare una scheda GTX260GX2;
2) Che sono state necessarie due GPU Hd4870 con 1gb di ram "HD4870X2" per battere in prestazioni la loro GTX280;
3) Che dalle prove che hanno condotto il CrossFire da molti + problemi dello SLI


1) vero. oddio, avrebbero pure potuto fare una gtx280x2 al lancio eh, ma sarebbe costata più di 1000 euro . ecco perchè dico che la fattibilità tecnica va di pari passo con quella economica, ed elogiare ati indipendentemente dal fatto che r700 sia un dualchip . costa 400 euro.

2)certo. e quindi :asd: ? si sapeva da tempo la nuova strategia di amd. ingegnerizzare solo 1 chip e poi spalmarlo su tutta l'offerta di prodotti. quello che non ci si aspettava, è che un rv770 alla fine fosse inferiore di un 15% a gtx280. nei piani di amd r700 esisteva da molto tempo , sarebbe stato due rv770 in crossfire e quindi.... ecco lo smacco . se r700 fosse costato 650 euro al lancio, nessuno avrebbe urlato al miracolo. il problema è che costa come una gtx280. ( ora... sarebbe stato interessante vedere cosa sarebbe successo se avessero tutti calato le carte lo stesso giorno, con r700 a 400 euro e gtx280 a 550euro, avrebbe reso meglio l'idea di come nvidia avesse sottostimato ati)

3) i test di chi :asd: ? da quello che si vede sulla rete, sli e crossfire sono tecnologie assolutamente comparabili ora come prestazioni e compatibilità. anche perchè usano la stessa tecnica di alternate frame rendering, quindi...

halduemilauno
18-08-2008, 07:16
l'ho detto perchè in qualche review ho visto dei modelli di gtx 260 OC.. e non mi sembra che vadano + di tanto rispetto ad una 260 con frequenze standard.
per questo c'ho un dubbio che non andrebbe così tanto di +... però forse mi sbaglio :asd: ;)


ciaoooo :ops:

le attuali gtx 280 e 260 default e oc in questo specifico non fanno molto testo in quanto esse sono frenate da un rapporto core/shader inferiore a quello delle attuali g92. ora pare che quel rapporto venga ripristinato. infatti noterai che sugli shader si parla di 1620(con core appunto a 648)ovvero ben 324 in + rispetto alla gtx280 e 378 in + rispetto alla gtx 260. valori decisamente ben superiori(e io so di anche + superiori)agli attuali e che certamente sono/saranno in grado di offrire un netto boost prestazionale rispetto alle attuali gtx.
certo si rimane in attesa di riscontri.
ciao.
;)



ps certo l'ipotesi di una gtx260x2 è appunto un'ipotesi alla pari della gtx290.
;)

mircocatta
18-08-2008, 07:43
per chi l'altro giorno mi ha deriso quando ne parlavo come punto a favore per amd..
parlano del rendering in tempo reale fotorealistico di amd
http://www.centerzone.it/focus/amd-cinema-2.0-il-futuro-del-rendering-in-tempo-reale.html

halduemilauno
18-08-2008, 07:57
visto che saranno due gtx260 a fare la nuova scheda nvidia :asd: ?


secondo me per un problema di rese in fonderia.

gtx260 saranno molto più economici da produrre rispetto ad un gtx280 , e riusciranno a creare il margine per creare una scheda competitiva nel prezzo e prestazioni a r700. la palma della velocità per nvidia è importante solo da raggiungere, fosse anche del 10% sarebbe grasso che cola , non mirano ( anche perchè non possono con i prezzi di AMD) a detronizzare di molto r700. devono creare una scheda che stia li con r700, cioè prestazioni simili e prezzo simile.

la butto li , gtx260x2 con 15\20% di performance in più e 500 euro di listino.



per gtx280 55nm a frequenze addirittura aumentate rispetto a quelle del 65nm , imho costerà uno sproposito da produrre e comprare per colpa delle pessime rese :) ma vedremo.

ricordo che si sta parlando di ipotesi. l'unica che si poteva(e forse)escludere riguardava la gtx280x2 per ovvi motivi. poi se si vuole parlare di primagenitura in tutto questo specifico te non arrivi nemmeno secondo.
poi se attualmente una gtx260 si trova sui 240€ con il pp ridotto a 55nm e quindi di conseguenza i suoi costi e prezzi una scheda che ne avrà due non si staccherà troppo dai 400€ e poi tutto dipenderà come al solito dalle prestazioni che essa potrà ottenere.


ma come uno sproposito? se si abbassa il pp proprio a 55nm per ridurre il tutto e aumentare di conseguenza proprio la resa.
:boh:

NOOB4EVER
18-08-2008, 08:45
questi allora evito di scaricarli..

certo perdi solo tempo...ma li testano o no sti beta prima di rilasciarli :muro:

safendi
18-08-2008, 09:31
per chi l'altro giorno mi ha deriso quando ne parlavo come punto a favore per amd..
parlano del rendering in tempo reale fotorealistico di amd
http://www.centerzone.it/focus/amd-cinema-2.0-il-futuro-del-rendering-in-tempo-reale.html

di la si continua a dire di nn venire a parlare di 280 e menate varie, ma vedo che i primi che nn demonrdono a venire qui siete ancora voi :D

michelgaetano
18-08-2008, 09:33
di la si continua a dire di nn venire a parlare di 280 e menate varie, ma vedo che i primi che nn demonrdono a venire qui siete ancora voi :D

Piuttosto, fa qualcosa di costruttivo e dai un opinione a quel link e a quella tecnologia, anzichè flammare da ogni parte.

safendi
18-08-2008, 09:35
Piuttosto, fa qualcosa di costruttivo e dai un opinione a quel link e a quella tecnologia, anzichè flammare da ogni parte.
ci mancavi anche te :D :D

michelgaetano
18-08-2008, 09:36
ci mancavi anche te :D :D

Come prevedibile, era chiederti troppo.

safendi
18-08-2008, 09:37
Come prevedibile, era chiederti troppo.

forse perchè nn mi faccio seghe mentali e la scheda la uso x giocare

michelgaetano
18-08-2008, 09:38
forse perchè nn mi faccio seghe mentali e la scheda la uso x giocare

Rispetto per il prossimo pari davvero a zero.

safendi
18-08-2008, 09:39
Rispetto per il prossimo pari davvero a zero.

azz fossi te il mio prossimo tenterei il suicidio

michelgaetano
18-08-2008, 09:41
azz fossi te il mio prossimo tenterei il suicidio

Con te tentare di discutere di una tecnologia e di raffrontare dei prodotti è davvero impossibile, me ne tiro fuori.

Suhadi_Sadono
18-08-2008, 10:12
azz fossi te il mio prossimo tenterei il suicidio
:asd: :asd:

okorop
18-08-2008, 10:29
ot
nvidia deve tirare fuori qualcosa di veramente competitivo.....adesso è in perdita di non so quanto.....il ceo reputa che la perdita sia stata data dallo sbagliato posizionamento di alcuni prodotti sul mercato vedi gtx280 e gtx260 che al lancio dovevano avere un prezzo ben diverso.....
La perdita netta registrata nei secondi tre mesi dell'anno fiscale 2009 è stata pari a 120.9 milioni di dollari, mentre l'utile netto si è attestato a 74.5 milioni di dollari.
http://www.tomshw.it/news.php?newsid=15043&comment_page=0
fine ot

safendi
18-08-2008, 10:30
ot
nvidia deve tirare fuori qualcosa di veramente competitivo.....adesso è in perdita di non so quanto.....il ceo reputa che la perdita sia stata data dallo sbagliato posizionamento di alcuni prodotti sul mercato vedi gtx280 e gtx260 che al lancio dovevano avere un prezzo ben diverso.....
La perdita netta registrata nei secondi tre mesi dell'anno fiscale 2009 è stata pari a 120.9 milioni di dollari, mentre l'utile netto si è attestato a 74.5 milioni di dollari.
http://www.tomshw.it/news.php?newsid=15043&comment_page=0
fine ot

è normale, un pò come amd-ati ha fatto per 2 anni

okorop
18-08-2008, 10:33
è normale, un pò come amd-ati ha fatto per 2 anni
vabbe dai ci ha preso per il :ciapet: per 1 anno e passa nvidia con i suoi prodotti riciclati e adesso che sfornano un prodotto nuovo lo mettono a 550 euro al lancio per poi sottrarre 200 euro dal prezzo iniziale grazie alle ati......la top di gamma non deve costare piu di 400 euro stop......sopra i 400 euro son delle ladrate le schede video.....spero che nvidia l'abbia capita

safendi
18-08-2008, 10:39
vabbe dai ci ha preso per il :ciapet: per 1 anno e passa nvidia con i suoi prodotti riciclati e adesso che sfornano un prodotto nuovo lo mettono a 550 euro al lancio per poi sottrarre 200 euro dal prezzo iniziale grazie alle ati......la top di gamma non deve costare piu di 400 euro stop......sopra i 400 euro son delle ladrate le schede video.....spero che nvidia l'abbia capita

con la serie 1800,1900 x800 ecc anche li i prezi erano sulle 500 e passa :D :D :D

okorop
18-08-2008, 10:42
con la serie 1800,1900 x800 ecc anche li i prezi erano sulle 500 e passa :D :D :D

si è vero ma come la metti con i costi di produzione inferiori visto il raffinamento del processo produttivo? la tecnologia deve essere per tutti non solo per alcuni quindi abbassassero sti cavolo di prezzi sia ati sia nvidia e si vede che con prezzi piu bassi si vende anche di piu....

Scrambler77
18-08-2008, 12:08
Il problema attuale è relativo ai consumi. Non a caso, se fate un rapporto tra i consumi di R700 e le sue prestazioni rispetto ai consumi delle GTX280, già a 65nm si riscontra un netto vantaggio di GT200 (sempre in rapporto ai consumi).

R700 già oggi è ENEL-friendly, pertanto temo che AMD abbia trovato il limite costruttivo in termini rapporto tra architettura/consumi/prestazioni.

Un die-shrink di GT200 a 55nm ridurrebbe parecchio i già limitati consumi attuali delle GTX260, permettendo frequenze più alte e la costruzione di schede dual-gpu.

Non è da escludere che 2 GTX260 a 55nm e ddr5 (con relativo overclock permesso dal miglior processo produttivo), permetta a nVidia di tornare leader in termini di performance.

OverClocK79®
18-08-2008, 12:14
xMichel e Sanfedi

occhio che non è na chat
cerchiamo di tenere il TH pulito ;)

BYEZZZZZZZZZZZ

halduemilauno
18-08-2008, 12:16
Il problema attuale è relativo ai consumi. Non a caso, se fate un rapporto tra i consumi di R700 e le sue prestazioni rispetto ai consumi delle GTX280, già a 65nm si riscontra un netto vantaggio di GT200 (sempre in rapporto ai consumi).

R700 già oggi è ENEL-friendly, pertanto temo che AMD abbia trovato il limite costruttivo in termini rapporto tra architettura/consumi/prestazioni.

Un die-shrink di GT200 a 55nm ridurrebbe parecchio i già limitati consumi attuali delle GTX260, permettendo frequenze più alte e la costruzione di schede dual-gpu.

Non è da escludere che 2 GTX260 a 55nm e ddr5 (con relativo overclock permesso dal miglior processo produttivo), permetta a nVidia di tornare leader in termini di performance.


gia adesso le attuali gtx260 in sli sono competitive con la 4870x2 figuriamoci con le frequenze superiori permesse dai 55nm e con il ripristino del 2.5 di core/shader. sulle gddr5 continuo a non dargli eccessiva importanza(attualmente)perchè con il bus superiore ai 256 bit possono ancora andar bene le gddr3 ovviamente dai 2400 in su.
aspettiamo tutti i riscontri del caso.
;)

Scrambler77
18-08-2008, 12:17
si è vero ma come la metti con i costi di produzione inferiori visto il raffinamento del processo produttivo? la tecnologia deve essere per tutti non solo per alcuni quindi abbassassero sti cavolo di prezzi sia ati sia nvidia e si vede che con prezzi piu bassi si vende anche di piu....

Cambiare un processo produttivo (cosa che ultimamente avviene più di frequente) non significa necessariamente risparmiare (almeno all'inizio). Al contrario per l'azienda costituisce una spesa ingente (il cambio dell'intera catena di costruzione delle fab interessate) che vanificano i costi di produzione inferiori.

AMD costruisce da sè gli integrati, cosa che nVidia non fa, pertanto solo quest'ultima beneficia della riduzione dei costi produttivi in modo più marcato.

Resta il fatto, però, che i prezzi non li fanno solo i costi di produzione (sai quanto costa produrre un iPhone?), ma il regime di concorrenza, la validità del prodotto, lo scenario di marketing del momento (e quindi l'hype e conseguente richiesta di mercato), lo stato di salute dell'azienda e l'eventuale esclusività ed il contenuto tecnologico del prodotto venduto.

massimomarc
18-08-2008, 12:28
ma come uno sproposito? se si abbassa il pp proprio a 55nm per ridurre il tutto e aumentare di conseguenza proprio la resa.
:boh:

non è cosi semplice come tu credi passare a un processo produttivo inferiore , per un megachip complesso come gt200 è un passo obbligato da fare il passaggio a 55nm, ma all'inizio potrebbe addirittura avere rese inferiori al processo a 65 nm, per questi motivi:

la complessità di gt200 . ( secondo te perchè nvidia esplora i processi produttivi con schede di fascia media da tipo 5\6 anni ;) ? )

le frequenze che vogliono raggiungere ( che limiteranno la scelta tra i die funzionanti di gtx290)


le rese aumenteranno col passare del tempo e con l'esperienza su questo processo produttivo, come è sempre stato . ma fino ad allora, gtx290 avrà un prezzo elevatissimo per essere prodotto.

Scrambler77
18-08-2008, 12:30
gia adesso le attuali gtx260 in sli sono competitive con la 4870x2 figuriamoci con le frequenze superiori permesse dai 55nm e con il ripristino del 2.5 di core/shader. sulle gddr5 continuo a non dargli eccessiva importanza(attualmente)perchè con il bus superiore ai 256 bit possono ancora andar bene le gddr3 ovviamente dai 2400 in su.
aspettiamo tutti i riscontri del caso.
;)

In tutta sincerità, sto trascorrendo al mare questi giorni di relax che mi sono concesso... Non ho seguito molto gli ultimi sviluppi. :D

In ogni caso, è giusto: aspettiamo i riscontri del caso (ma io sono fiducioso).

Già detto che non mi interessano soluzioni multi-gpu (le considero soluzioni tecnicamente poco eleganti, poco energy-efficient ed arabattate), pertanto una ipotetica gx2 dovrebbe spingere in basso i prezzi delle "singole" gtx280 (magari anche loro a 55nm)... ed allora manderò in pensione la mia (splendida) 8800gtx. ;)

Scrambler77
18-08-2008, 12:32
non è cosi semplice come tu credi passare a un processo produttivo inferiore , per un megachip complesso come gt200 è un passo obbligato da fare il passaggio a 55nm, ma all'inizio potrebbe addirittura avere rese inferiori al processo a 65 nm, per questi motivi:

la complessità di gt200 . ( secondo te perchè nvidia esplora i processi produttivi con schede di fascia media da tipo 5\6 anni ;) ? )

le frequenze che vogliono raggiungere ( che limiteranno la scelta tra i die funzionanti di gtx290)


le rese aumenteranno col passare del tempo e con l'esperienza su questo processo produttivo, come è sempre stato . ma fino ad allora, gtx290 avrà un prezzo elevatissimo per essere prodotto.

Non è nvidia che realizza i suoi chip. Non ha nulla da esplorare. nVidia paga solo i lotti funzionanti. ;)

Foglia Morta
18-08-2008, 12:48
Non è nvidia che realizza i suoi chip. Non ha nulla da esplorare. nVidia paga solo i lotti funzionanti. ;)

paga i wafer , meno chip funzionanti ci sono e più gli costano quelli funzionanti.

Scrambler77
18-08-2008, 13:05
paga i wafer , meno chip funzionanti ci sono e più gli costano quelli funzionanti.

Che io sappia non esattamente. nVidia ordina i wafers a TSMC e UMC. La resa produttiva è un problema di queste ultime (al contrario mi spieghi che interesse ha TSMC, ad esempio, a mantenere alta la resa produttiva) ed il pagamento avviene sulla consegna di lotti di prodotti finiti. Quelli non funzionanti tornano al mittente (e mi pare anche giusto).

halduemilauno
18-08-2008, 13:17
In tutta sincerità, sto trascorrendo al mare questi giorni di relax che mi sono concesso... Non ho seguito molto gli ultimi sviluppi. :D

In ogni caso, è giusto: aspettiamo i riscontri del caso (ma io sono fiducioso).

Già detto che non mi interessano soluzioni multi-gpu (le considero soluzioni tecnicamente poco eleganti, poco energy-efficient ed arabattate), pertanto una ipotetica gx2 dovrebbe spingere in basso i prezzi delle "singole" gtx280 (magari anche loro a 55nm)... ed allora manderò in pensione la mia (splendida) 8800gtx. ;)

per carità la mia voleva essere una precisazione. buon relax. si credo che nvidia presenterà cmq una scheda a singolo chip a 55nm.
;)

Foglia Morta
18-08-2008, 13:23
Che io sappia non esattamente. nVidia ordina i wafers a TSMC e UMC. La resa produttiva è un problema di queste ultime (al contrario mi spieghi che interesse ha TSMC, ad esempio, a mantenere alta la resa produttiva) ed il pagamento avviene sulla consegna di lotti di prodotti finiti. Quelli non funzionanti tornano al mittente (e mi pare anche giusto).

Il business non potrebbe neanche esistere se le aziende fab less pagassero solamente i chip funzionanti ,TSMC e tutte le altre sarebbero già fallite da una vita.

E' interesse di fonderie che lavorano per aziende fab less avere rese più alte possibili perchè in base alle statistiche che ci calcolano sopra nVidia , ATi e tutte le altre decidono con chi produrre il proprio progetto. TSMC è la migliore e quindi è naturale che abbia i migliori clienti , inoltre il poter garantire migliori rese produttive fa si che TSMC possa alzare il prezzo dei wafer prodotti da lei.
nVidia e ATi portano in laboratorio il loro progetto , producono dei campioni di prova e poi prendono la decisione se avviare la produzione di massa o fare un altra revisione migliore del proprio chip.
nVidia e ATi quelli non funzionanti se li pagano pari pari a quelli funzionanti e se li tengono stretti perchè lo sapevano fin da prima di avviare la produzione che ci sarebbero state certe percentuali di malfunzionamenti. Pagano il wafer , non il die.

Del resto le gpu castrate che vengono montate su moltissime schede servono proprio per raschiare il fondo del barile cercando di monetizzare tutto il monetizzabile. Non è che quelle gpu TSMC gliele regala o gliele fa pagare di meno , no si pagano il wafer con le rese produttive che sapevano di realizzare ben prima di avviare la produzione di massa, viste e piaciute.

Giustaf
18-08-2008, 13:33
azz..molto interessante..
si impara sempre di più da sti thread! :)

Sticoo
18-08-2008, 13:56
ciao a tutti, volevo flashare un nuovo bios alla mia evga gtx 280, pensavo di mettere quello della FTW, ma volevo chiedere se magari potevo flasharci quello della XXX.
raga voi quale mi consigliate di mettere???

thanks

Suhadi_Sadono
18-08-2008, 13:58
ciao a tutti, volevo flashare un nuovo bios alla mia evga gtx 280, pensavo di mettere quello della FTW, ma volevo chiedere se magari potevo flasharci quello della XXX.
raga voi quale mi consigliate di mettere???

thanks
Quello della XXX ;)

Sticoo
18-08-2008, 14:02
ma si potrebbero avere dei problemi se flasho quello della xfx su una scheda evga??:confused:

Suhadi_Sadono
18-08-2008, 14:05
ma si potrebbero avere dei problemi se flasho quello della xfx su una scheda evga??:confused:
Devi assicurarti che la tua scheda regga quelle frequenze... ma credo di si, visto che non sono frequenze proibitive. Prova prima con rivatuner... usi qualche gioco per un oretta con i dettagli al massimo e vedi se compaiono artefatti o cose simili. Se è tutto ok puoi flasharglielo tranquilllamente ;)

Sticoo
18-08-2008, 14:13
Devi assicurarti che la tua scheda regga quelle frequenze... ma credo di si, visto che non sono frequenze proibitive. Prova prima con rivatuner... usi qualche gioco per un oretta con i dettagli al massimo e vedi se compaiono artefatti o cose simili. Se è tutto ok puoi flasharglielo tranquilllamente ;)

adesso provo poi vi faccio sapere....speriamo bene:sperem:

FreeMan
18-08-2008, 14:20
azz fossi te il mio prossimo tenterei il suicidio

ok, non cambierai mai.. sospeso 10gg

>bYeZ<

Scrambler77
18-08-2008, 14:36
Il business non potrebbe neanche esistere se le aziende fab less pagassero solamente i chip funzionanti ,TSMC e tutte le altre sarebbero già fallite da una vita.

E' interesse di fonderie che lavorano per aziende fab less avere rese più alte possibili perchè in base alle statistiche che ci calcolano sopra nVidia , ATi e tutte le altre decidono con chi produrre il proprio progetto. TSMC è la migliore e quindi è naturale che abbia i migliori clienti , inoltre il poter garantire migliori rese produttive fa si che TSMC possa alzare il prezzo dei wafer prodotti da lei.
nVidia e ATi portano in laboratorio il loro progetto , producono dei campioni di prova e poi prendono la decisione se avviare la produzione di massa o fare un altra revisione migliore del proprio chip.
nVidia e ATi quelli non funzionanti se li pagano pari pari a quelli funzionanti e se li tengono stretti perchè lo sapevano fin da prima di avviare la produzione che ci sarebbero state certe percentuali di malfunzionamenti. Pagano il wafer , non il die.

Del resto le gpu castrate che vengono montate su moltissime schede servono proprio per raschiare il fondo del barile cercando di monetizzare tutto il monetizzabile. Non è che quelle gpu TSMC gliele regala o gliele fa pagare di meno , no si pagano il wafer con le rese produttive che sapevano di realizzare ben prima di avviare la produzione di massa, viste e piaciute.

TSMC come tutte le aziende certificate, devono sottostare a rigorosi parametri relativi ai controlli di qualità.

In sede contrattuale nVidia ordina a TSMC un certo numero di wafers dai quali devono essere estratti un minimo di die funzionanti, altrimenti il cliente recede il contratto. L'acquisto alla cieca è una stronzata galattica e non lo farebbe nessuno (con conseguente fallimento delle aziende produttrici di semiconduttori).

nVidia sa benissimo quanto gli costano 1000 GPU al momento dell'acquisto dei 20 wafers necessari a costruirne 1100 (con il 10% di die non funzionanti in preventivati).

Le GPU castrate appartengono ad una selezione qualitativa diversa. Tra l'altro, il giochetto delle CPU castrate fu massicciamente utilizzato da AMD per raschiare il fondo del barile, visto che il "barile" della fabbricazione dei die era suo e doveva massimizzare i profitti anche dai die risultati difettosi.

Per i clienti di TSMC (e non solo) c'è il cosiddetto "return rate" (la statistica di cui parli) che in italiano sarebbe il "reso":

"The company's return rate numbers are equally impressive. In 2003, TSMC reported a 0.9 percent return rate on total fab
output of nearly 3.2 million wafers. In 2005, that rate was cut almost in half to 0.48 percent on a total output of more
than 5.6 million wafers."

Fonte: http://www.tsmc.com/download/english/a05_literature/1_Corporate_Overview_Brochure_2007.pdf

Voglio vedere chi è l'imbecille che acquista qualcosa, senza avere alcuna garanzia che si raggiunga lo standard qualitativo acquistato ed il target produttivo preventivato... ;)

Foglia Morta
18-08-2008, 15:01
TSMC come tutte le aziende certificate, devono sottostare a rigorosi parametri relativi ai controlli di qualità.

In sede contrattuale nVidia ordina a TSMC un certo numero di wafers dai quali devono essere estratti un minimo di die funzionanti, altrimenti il cliente recede il contratto. L'acquisto alla cieca è una stronzata galattica e non lo farebbe nessuno (con conseguente fallimento delle aziende produttrici di semiconduttori).

nVidia sa benissimo quanto gli costano 1000 GPU al momento dell'acquisto dei 20 wafers necessari a costruirne 1100 (con il 10% di die non funzionanti in preventivati).

Le GPU castrate appartengono ad una selezione qualitativa diversa. Tra l'altro, il giochetto delle CPU castrate fu massicciamente utilizzato da AMD per raschiare il fondo del barile, visto che il "barile" della fabbricazione dei die era suo e doveva massimizzare i profitti anche dai die risultati difettosi.

Per i clienti di TSMC (e non solo) c'è il cosiddetto "return rate" (la statistica di cui parli) che in italiano sarebbe il "reso":

"The company's return rate numbers are equally impressive. In 2003, TSMC reported a 0.9 percent return rate on total fab
output of nearly 3.2 million wafers. In 2005, that rate was cut almost in half to 0.48 percent on a total output of more
than 5.6 million wafers."

Fonte: http://www.tsmc.com/download/english/a05_literature/1_Corporate_Overview_Brochure_2007.pdf


Voglio vedere chi è l'imbecille che acquista qualcosa, senza avere alcuna garanzia che si raggiunga lo standard qualitativo acquistato ed il target produttivo preventivato...

Infatti t'ho detto che prima di avviare la produzione di massa producono un tot di wafer sperimentali per vedere come sono le rese produttive , una volta che lo sanno nVidia e ATi sono libere di decidere se avviare la produzione di massa o meno, una volta che lo sanno TSMC gli vende i wafer con le rese produttive preventivate all'inizio. Nessuno produce nulla alla cieca , lo sanno prima i risultati che otterranno.

Infatti sia ATi che nVidia cercano di migliorare le rese produttive con nuove revisioni della stessa gpu , perchè va a loro vantaggio. Non è che ATi una mattina si alza e decide di inserire delle ridondanze nelle proprie gpu a caso , quelle ridondanze costa inserirle e sono ben calcolati pure i vantaggi che gli daranno con le rese.

Altrimenti per TSMC è uguale: pretendi di pagare le gpu funzionanti e basta ? Va bene , prima vediamo quante ce ne sono di funzionanti in ogni wafer che devo produrre e poi ti faccio il prezzo :D . Risultato: non cambia una virgola, se gli dici di produrre un progetto con rese molto basse ti spara un prezzo altissimo e lei è contenta uguale.

The_SaN
18-08-2008, 15:09
TSMC come tutte le aziende certificate, devono sottostare a rigorosi parametri relativi ai controlli di qualità.

In sede contrattuale nVidia ordina a TSMC un certo numero di wafers dai quali devono essere estratti un minimo di die funzionanti, altrimenti il cliente recede il contratto. L'acquisto alla cieca è una stronzata galattica e non lo farebbe nessuno (con conseguente fallimento delle aziende produttrici di semiconduttori).

nVidia sa benissimo quanto gli costano 1000 GPU al momento dell'acquisto dei 20 wafers necessari a costruirne 1100 (con il 10% di die non funzionanti in preventivati).

Le GPU castrate appartengono ad una selezione qualitativa diversa. Tra l'altro, il giochetto delle CPU castrate fu massicciamente utilizzato da AMD per raschiare il fondo del barile, visto che il "barile" della fabbricazione dei die era suo e doveva massimizzare i profitti anche dai die risultati difettosi.

Per i clienti di TSMC (e non solo) c'è il cosiddetto "return rate" (la statistica di cui parli) che in italiano sarebbe il "reso":

"The company's return rate numbers are equally impressive. In 2003, TSMC reported a 0.9 percent return rate on total fab
output of nearly 3.2 million wafers. In 2005, that rate was cut almost in half to 0.48 percent on a total output of more
than 5.6 million wafers."

Fonte: http://www.tsmc.com/download/english/a05_literature/1_Corporate_Overview_Brochure_2007.pdf

Voglio vedere chi è l'imbecille che acquista qualcosa, senza avere alcuna garanzia che si raggiunga lo standard qualitativo acquistato ed il target produttivo preventivato... ;)

Quando le aziende portano il progetto a TSMC, il numero minimo di chip funzionanti c'é (e in questo punto hai ragione, non si compra mai alla cieca), e viene preventivato in base al progetto.

Per questo molte volte i progetti vengono ritadati, proprio per avere il tempo di fare una nuova revision con rese migliori, che ripagano nel lungo periodo, visto che quello che si paga é il wafer.

Scrambler77
18-08-2008, 15:17
Infatti sia ATi che nVidia cercano di migliorare le rese produttive con nuove revisioni della stessa gpu , perchè va a loro vantaggio. Non è che ATi una mattina si alza e decide di inserire delle ridondanze nelle proprie gpu a caso , quelle ridondanze costa inserirle e sono ben calcolati pure i vantaggi che gli daranno con le rese.


No, le due aziende si comportano diversamente. Che io sappia Ati (AMD) produce da sola i suoi wafer. nVidia li compra belli e fatti. Le due strategie nelle revisioni sono regolate da priorità e problematiche diverse. Probabilmente ATi è avvantaggiata in questo, poichè ha un riscontro diretto delle problematiche di produzione sulle sue revisioni. nVidia deve rapportarsi a TSMC per risolvere eventuali problemi legati alla resa... La resa dei wafers è spesso determinata da impurità sul materiale semiconduttore, problema del tutto indipendente dalla natura dell'integrato da realizzare.

Tra l'altro, le modifiche apportate alle varie revisioni sono spesso più legate alla soluzione di bug di progettazione quanto a quelli di realizzazione.


Altrimenti per TSMC è uguale: pretendi di pagare le gpu funzionanti e basta ? Va bene , prima vediamo quante ce ne sono di funzionanti in ogni wafer che devo produrre e poi ti faccio il prezzo :D . Risultato: non cambia una virgola, se gli dici di produrre un progetto con rese molto basse ti spara un prezzo altissimo e lei è contenta uguale.

Appunto. L'interesse di TSMC è quello di avere rese sempre molto alte (prossime al 100% teorico) perchè il prezzo della produzione viene stipulato prima della produzione stessa sulla base della sperimentazione.
Se la sperimentazione denota rese molto basse, si passa ad una nuova revisione con relativa sperimentazione.
Una volta giunti alle rese volute si passa al preventivo e, se accettato, alla produzione in massa.

Resta il fatto che un wafer con resa al di sotto di quanto concordato, torna al mittente, fermo restando il prezzo preventivato.

Ecco perchè in pratica nVidia paga le gpu funzionanti preventivate, a prescindere dalla resa di TSMC.

Foglia Morta
18-08-2008, 15:24
Appunto. L'interesse di TSMC è quello di avere rese sempre molto alte (prossime al 100% teorico) perchè il prezzo della produzione viene stipulato prima della produzione stessa sulla base della sperimentazione.

Resta il fatto che un wafer con resa al di sotto di quanto concordato, torna al mittente, fermo restando il prezzo preventivato.

Ecco perchè in pratica nVidia paga le gpu funzionanti preventivate, a prescindere dalla resa di TSMC.

Era retorica... è interesse di TSMC avere alte rese perchè è un fattore determinante della concorrenza fra fonderie. Ma è ancora più importante per le aziende fab less perchè si pagano il wafer intero, visto e piaciuto con i campioni prodotti prima della produzione di massa che è appunto quello concordato nella fase pre-produttiva che ti dicevo prima.

In futuro vedrai GT200 ancora più castrati dei GT200 che sono sulle GTX260 , perchè quei die parzialmente non funzionanti nVidia li paga come e quanto tutti gli altri e devono monetizzare il monetizzabile

Edit: se poi quoti solo ciò che ti fa comodo si perde il senso del post. Le ridondanze che inserisce ATi nelle sue gpu sono un argomento più facile da capire che da spiegare

thecatman
18-08-2008, 15:28
scusatemi se intervengo qui ma ho dei dubbi prima di procedere a un acquisto!
beh vedo dei nik noti quindi sono a casa!
allora ho un Q6600 @3000 con 4gb ddr2, mobo 680i quindi pci-e 16x generazione 1 e ho una 8800gtx. os: vista64 sp1. dunque ho il sistema pulito dopo formattazione e ho installato i vari 3dmark. mi è stata proposta, e data in prova prima di pagarla, una seconda 8800gtx per fare lo sli. allora con 3dmvantage ho E23216 e H7884 mentre con 3dmark06 14499.
il dilemma è se comprare questa seconda 8800gtx oppure prendere la gtx280 magari sotto natale, è utile sta seconda scheda oppure no? insomma sti 150€ che spendo (si xchè è praticamente nuova e il nylon lo tirato via io x provarla) servono? oppure mi consigliate di prendere la prox generazione di gtx?
fate conto che i miei giochi preferiti sono gli strategici e colin. visto che voi avete la gtx280 saprete meglio di me come funzia!
grazie infinite

Suhadi_Sadono
18-08-2008, 15:32
scusatemi se intervengo qui ma ho dei dubbi prima di procedere a un acquisto!
beh vedo dei nik noti quindi sono a casa!
allora ho un Q6600 @3000 con 4gb ddr2, mobo 680i quindi pci-e 16x generazione 1 e ho una 8800gtx. os: vista64 sp1. dunque ho il sistema pulito dopo formattazione e ho installato i vari 3dmark. mi è stata proposta, e data in prova prima di pagarla, una seconda 8800gtx per fare lo sli. allora con 3dmvantage ho E23216 e H7884 mentre con 3dmark06 14499.
il dilemma è se comprare questa seconda 8800gtx oppure prendere la gtx280 magari sotto natale, è utile sta seconda scheda oppure no? insomma sti 150€ che spendo (si xchè è praticamente nuova e il nylon lo tirato via io x provarla) servono? oppure mi consigliate di prendere la prox generazione di gtx?
fate conto che i miei giochi preferiti sono gli strategici e colin. visto che voi avete la gtx280 saprete meglio di me come funzia!
grazie infinite
2 8800GTX se non sbaglio superano la sola 280GTX. Se non badi a consumi ti consiglio lo sli, altrimenti prendi la 280GTX che a dicembre uscirà a 55nm, quindi ancora più performante.

Scrambler77
18-08-2008, 15:40
Era retorica... è interesse di TSMC avere alte rese perchè è un fattore determinante della concorrenza fra fonderie. Ma è ancora più importante per le aziende fab less perchè si pagano il wafer intero, visto e piaciuto con i campioni prodotti prima della produzione di massa

1) Non è la sola concorrenza ad alzare la resa produttiva, ma quel "return rate" che stenti a comprendere e che per TSMC costituisce un costo non indifferente.

2) Il wafer che non corrisponde alla sperimentazione preliminare (su cui si è fatto il prezzo della fornitura) viene rispedito al mittente. Nessun "bello e piaciuto". Tra l'altro UMC spesso effettua anche il packaging del die, con la verifica funzionale del pezzo. In quel caso nVidia acquista direttamente la GPU, senza curarsi di quanti wafer sono necessari a costruirne un lotto da 1000 funzionanti.


Edit: se poi quoti solo ciò che ti fa comodo si perde il senso del post. Le ridondanze che inserisce ATi nelle sue gpu sono un argomento più facile da capire che da spiegare

Mi pare più semplice da capire che ciò che viene preventivato viene acquistato. nVidia sa quanto gli costa un lotto di n GPU funzionanti prima di acquistarlo, quindi le gpu difettose di cui parli non esistono, perchè sono già state prese in considerazione in sede contrattuale.

Delle ridondanze di ATi me ne frego, non c'entrano nulla con l'acquisto o la vendita di qualcosa, regolate da uno studio preliminare e ed un preventivo di spesa.

Ho anche allegato un pdf di TSMC stessa in cui parla di resa produttiva (con conseguente return rate), ma mi pare evidente che non c'è cognizione del discorso, quindi preferisco chiudere quì l'OT. ;)

Scrambler77
18-08-2008, 15:42
2 8800GTX se non sbaglio superano la sola 280GTX. Se non badi a consumi ti consiglio lo sli, altrimenti prendi la 280GTX che a dicembre uscirà a 55nm, quindi ancora più performante.

Come già detto in precedenza, le accozzaglie multi-gpu le considero poco economiche sotto tutti gli aspetti (consumi, calore, rumore ecc...). Io propenderei per la gtx280 sotto natale. ;)

massimomarc
18-08-2008, 15:49
scramber non funzionano le cose come dici tu, a meno che TSMC non sia un ente a scopo benefico pro nvidia:asd:


per il tuo ragionamento che si pagano solo i chip funzionanti da contratto, allora nvidia poteva pure uscire al lancio con i 55nm ( TSMC arriva pure più in la ora come tecnologia, fanno già qualcosa in 45 nm ),avrebbe avuto rese tipo 1 chip ok\50 chip ko , ma chi se ne importa se nvidia paga solo il chip funzionante giusto :asd: ? nvidia deve fare molta attenzione a creare chip che abbiano una resa fattibile , la più alta possibile, proprio perchè TMSC ti consegna un wafer pieno, a seconda del tuo lavoro , di gpu ok o gpu ko, ad un prezzo già pattuito prima pero :)


il problema delle rese è fondamentale , il fatto che nvidia non abbia fonderie sposta solo il problema ad un altro attore che ne terrà debitamente conto in sede di stipula di contratto fidati, ma è negli interessi di nvidia riuscire ad avere rese sempre più efficienti, a TSMC ovviamente interessa molto meno come è facile immaginare , vengono pagati a wafer . sarà poi nvidia che ti fa diventare un gtx280 zoppo un gtx260, esattamente come 8800gtx \ 8800gts , x1900xt\x1900pro , ecc. ecc.....


sennò non si spiegherebbe perchè g80 è uscito con ennemila revisioni del chip . proprio per aumentare le rese :) , e cioè ridurre i costi. come pure ati eh.

Scrambler77
18-08-2008, 16:00
scramber non funzionano le cose come dici tu, a meno che TSMC non sia un ente a scopo benefico pro nvidia:asd:

per il tuo ragionamento che si pagano solo i chip funzionanti da contratto, allora nvidia poteva pure uscire al lancio con i 55nm ( TSMC arriva pure più in la ora come tecnologia, fanno già qualcosa in 45 nm ),avrebbe avuto rese tipo 1 chip ok\50 chip ko , ma chi se ne importa se nvidia paga solo il chip funzionante giusto :asd: ? nvidia deve fare molta attenzione a creare chip che abbiano una resa fattibile , la più alta possibile, proprio perchè TMSC ti consegna un wafer pieno, a seconda del tuo lavoro , di gpu ok o gpu ko

il problema delle rese è fondamentale , il fatto che nvidia non abbia fonderie sposta solo il problema ad un altro attore che ne terrà debitamente conto in sede di stipula di contratto fidati, ma è negli interessi di nvidia riuscire ad avere rese sempre più efficienti, a TSMC ovviamente interessa molto meno come è facile immaginare , vengono pagati a wafer . sarà poi nvidia che ti fa diventare un gtx280 zoppo un gtx260, esattamente come 8800gtx \ 8800gts , x1900xt\x1900pro , ecc. ecc.....

sennò non si spiegherebbe perchè g80 è uscito con ennemila revisioni del chip . proprio per aumentare le rese :) , e cioè ridurre i costi. come pure ati eh.

Se è per questo TSMC è pronta con i 40nm. ;)

Cmq concordo quasi su tutta la linea, infatti non vedo dove la tua tesi sia in palese contrasto con la mia, apparte il punto in cui a TSMC non interessi la resa produttiva del prodotto finito:

Dinamica della stipula del contratto:

1) nVidia fa un progetto, lo porta a TSMC che lo realizza su n wafer e riscontra una resa del 70%, e sulla base di quella emette un preventivo per la produzione in massa di 10 wafer per 1000 gpu totali (700 funzionanti). nVidia rifiuta e torna a lavorare (con conseguenti costi e perdite derivanti dal ritardo nella presentazione del prodotto finito).

2) nVidia torna da TSMC con una revisione della stessa gpu e TSMC ripete l'operazione (che chiaramente ha un costo) e riscontra una resa del 95% su n wafer, sulla base di cui emette un nuovo preventivo per 10 wafer. nVidia stavolta lo accetta (perchè conviene o perchè non ha altro tempo da dedicare allo sviluppo di una nuova revisione, intanto commercializza questa) acquistando i 10 wafer da cui, stando alla stima di TSMC, è possibile avere almeno 950 gpu sicuramente funzionanti.

3) Da questo momento in poi, in fase di produzione, tutti i wafer forniti ad nvidia che hanno una resa inferiore al 95% (quella stimata) tornano a TSMC.

Posso capire che ci sia più difficoltà a stimare il numero di GPU castrate rispetto a quelle OK, ma tra quelle OK e KO esiste un rapporto ben preciso che TSMC deve rispettare. Ecco perchè nVidia sa bene quanto gli costano n GPU funzionanti prima ancora che vengano realizzate, perchè TSMC dovrà per contratto mantenere la resa produttiva mai al di sotto del 95% concordato.

P.S: quali sono le n-mila revisioni di G80??

Foglia Morta
18-08-2008, 16:14
1) Non è la sola concorrenza ad alzare la resa produttiva, ma quel "return rate" che stenti a comprendere e che per TSMC costituisce un costo non indifferente.

2) Il wafer che non corrisponde alla sperimentazione preliminare (su cui si è fatto il prezzo della fornitura) viene rispedito al mittente. Nessun "bello e piaciuto". Tra l'altro UMC spesso effettua anche il packaging del die, con la verifica funzionale del pezzo. In quel caso nVidia acquista direttamente la GPU, senza curarsi di quanti wafer sono necessari a costruirne un lotto da 1000 funzionanti.

Tutto considerato già nella fase di pre-produzione sulla base della quale si stimano le rese produttive della produzione di massa.

Mi pare più semplice da capire che ciò che viene preventivato viene acquistato. nVidia sa quanto gli costa un lotto di n GPU funzionanti prima di acquistarlo,

Certo, è fin dall'inizio che ti sto dicendo che nessuno produce alla cieca. Ciò che fatichi a comprendere è che più sono base le rese produttive più costano le gpu.


quindi le gpu difettose di cui parli non esistono, perchè sono già state prese in considerazione in sede contrattuale.
Dunque le varie X800 GT , X800 GTO , X800 SE , 6800 LE , X1900 GT , RV560 , 8800 GTS 320MB e 640MB , GTX 260 , 8800 GS etc etc non sono mai esistite :sofico:

Delle ridondanze di ATi me ne frego, non c'entrano nulla con l'acquisto o la vendita di qualcosa, regolate da uno studio preliminare e ed un preventivo di spesa.
Te ne freghi perchè sono l'esempio lampante che hai torto. Quelle ridondanze stanno a significare che le rese produttive sono di interesse primario per le aziende fab less che devono pagare i wafer prodotti.

Ho anche allegato un pdf di TSMC stessa in cui parla di resa produttiva (con conseguente return rate), ma mi pare evidente che non c'è cognizione del discorso, quindi preferisco chiudere quì l'OT. ;)
Hai capito tutto , non c'è cognizione nel tuo discorso.

Scrambler77
18-08-2008, 16:19
Hai capito tutto , non c'è cognizione nel tuo discorso.

:rotfl:

massimomarc
18-08-2008, 16:32
scrambler ha ragione foglia morta.. per i produttori di gpu progettare fin dallo sviluppo un chip con le più alte rese possibili in funzione delle prestazioni che si vogliono raggiungere è fondamentale, indipendentemente dal tipo di rapporto contrattuale che si ha con la fonderia


le varie revision ( g80 a memoria ha avuto revision A1,a2,a3 mi pare...poi si è passati a g92 che non è cosi diverso da g80 e si può benissimo considerare un altra revision per aumentare le rese a favore dei costi)



non ho capito cmq se mi dai ragione, cosa stai affermando tu :stordita:

Scrambler77
18-08-2008, 16:39
scrambler ha ragione foglia morta.. per i produttori di gpu progettare fin dallo sviluppo un chip con le più alte rese possibili in funzione delle prestazioni che si vogliono raggiungere è fondamentale, indipendentemente dal tipo di rapporto contrattuale che si ha con la fonderia


le varie revision ( g80 a memoria ha avuto revision A1,a2,a3 mi pare...poi si è passati a g92 che non è cosi diverso da g80 e si può benissimo considerare un altra revision per aumentare le rese a favore dei costi)



non ho capito cmq se mi dai ragione, cosa stai affermando tu :stordita:

Temo che si sia perso il fuoco... Il nocciolo della questione è che c'è chi afferma che "più sono le GPU non funzionanti e più costano quelle funzionanti".

Questo è giusto per le aziende dotate di fabs proprie, ma non è propriamente esatto per le aziende fabless, perchè in sede contrattuale si verifica la resa produttiva prima della produzione in massa, quindi anche il numero minimo di GPU funzionanti, quindi anche il costo per GPU, a prescindere dalla resa in fase di produzione di massa che, in questa fase, resta un problema esclusivo del produttore.

Il lavoro di TSMC è quello di stimare con massima precisione la resa dei wafer per produrre un preventivo di spesa il più concorrenziale possibile e in fase di produzione deve mantenere lo standard preventivato.

GT200 ha una resa intorno al 40%, che è pessima. nVidia lo sapeva prima ancora di accettare la produzione, ma non poteva aspettare oltre ed ha dovuto commissionare ugualmente a TSMC la realizzazione dei wafer. Domani, da un lato il suo die shrink alzerà parecchio la resa produttiva permettendo a TSMC di produrre un maggior numero di gpu funzionanti a parità di wafer (abbassandone il costo per gpu), e dall'altro l'ottimizzazione della circuiteria aiuterà i die meno fortunati a lavorare alle frequenze di progetto.

Che poi nVidia (nello specifico) debba cercare la massima resa possibile (ottimizzando i path e riducendo il leaking), tutto ciò è ovvio (per questo mi trovi d'accordo). La massimizzazione della resa è quindi voluta di comune accordo da entrambe le parti: da un lato nVidia affronta costi di produzione per GPU inferiori, e dall'altro TSMC ha return rates inferiori nel caso in cui un tot di wafer non corrispondano a quanto stipulato in sede contrattuale.

Per alcuni, il "reso" come merce non conforme all'ordine è fantascienza... :asd:

P.S: G92 è un die shrink di G80, ed è ovvio che abbia rese produttive superiori a parità di wafer.

^Memphis^
18-08-2008, 16:51
Scusate se interrompo i vari raffronti :D ...avrei bisogno di un mano riguardo i nuovi driver della nvidia...i nuovi 177.89.

I risultati sono in 3DMark06:
SM2.0 -> 6480
HDR/SM3.0 -> 7282
CPU -> 2816
3DMarks -> 14140

Sono in linea? A me non sembrano molto alti come risultati...sarà colpa del mio semplice dual core?

Foglia Morta
18-08-2008, 16:53
scrambler ha ragione foglia morta.. per i produttori di gpu progettare fin dallo sviluppo un chip con le più alte rese possibili in funzione delle prestazioni che si vogliono raggiungere è fondamentale, indipendentemente dal tipo di rapporto contrattuale che si ha con la fonderia


le varie revision ( g80 a memoria ha avuto revision A1,a2,a3 mi pare...poi si è passati a g92 che non è cosi diverso da g80 e si può benissimo considerare un altra revision per aumentare le rese a favore dei costi)



non ho capito cmq se mi dai ragione, cosa stai affermando tu :stordita:

Faceva solo finta di non capire, è solo che rosica a riconoscere quando gli altri hanno ragione... a giudicare dall'ultimo post qualcosa l'ha capito ma può fare ancora qualche progresso :D

Alla fine la discussione è servita.

Scrambler77
18-08-2008, 16:55
Scusate se interrompo i vari raffronti :D ...avrei bisogno di un mano riguardo i nuovi driver della nvidia...i nuovi 177.89.

I risultati sono in 3DMark06:
SM2.0 -> 6480
HDR/SM3.0 -> 7282
CPU -> 2816
3DMarks -> 14140

Sono in linea? A me non sembrano molto alti come risultati...sarà colpa del mio semplice dual core?

A me sembrano in linea... ;)

Scrambler77
18-08-2008, 16:59
Faceva solo finta di non capire, è solo che rosica a riconoscere quando gli altri hanno ragione... a giudicare dall'ultimo post qualcosa l'ha capito ma può fare ancora qualche progresso :D



Mancano gli argomenti eh? ;) Non mi stupisce... :D

Se volevi essere offensivo, so che da assiduo frequentatore dei thread ATi puoi fare di meglio... :asd:

massimomarc
18-08-2008, 17:05
ho capito dove sta l'inghippo.


quando io e foglia morta diciamo che "più sono le GPU non funzionanti e più costano quelle funzionanti" , intendiamo dire che Nvidia , anche se ha previsto di avere rese basse per un determinato chip ( ed come dici tu loro hanno sempre i dati sulla percentuale di chip funzionanti da tener sotto controllo per un eventuale rinvio a mittente di wafer andato male ), non la libera dall avere alti costi per questi chip . Sappiamo bene che nvidia sa a cosa va incontro quando arriva un wafer, ma questo significa per noi appunto basse rese e alti costi ( nel senso che se ho rese del 20% su un wafer, e devo confezionare mille chip, mi servono 5000 wafer . Me ne servirebbero solo 2500 se avessi delle rese al 40%) non ti faccio l'esempio per dummies eh so che sai di cosa stiamo parlando era per dirti che tu hai ragione quando affermi quello che dici.

se il punto è "più sono le GPU non funzionanti e più costano quelle funzionanti", la risposta è si in un ottica generale ( quella rilevante ,con tutto il rispetto eh :) ) , e no se guardi al metodo contrattuale .

ma il metodo contrattuale come ti dicevo prima, non elimina il problema, lo sposta ad un altro attore ( la fonderia) che ne tiene assolutamente in conto alla stipula del contratto. ma tu per l'appunto , parlavi dei contratti.


insomma stiamo dicendo tutti e tre la verità :asd:

^Memphis^
18-08-2008, 17:07
A me sembrano in linea... ;)

Grazie Scrambler sempre gentile...:)

Foglia Morta
18-08-2008, 17:09
Mancano gli argomenti eh? ;) Non mi stupisce... :D

Tutt'altro .

Con QUESTA (http://www.hwupgrade.it/forum/showpost.php?p=23721167&postcount=4085) tua replica a massimomarc volevi far credere che non c'era relazione fra costo della gpu e relativa resa produttiva . Nel tuo post precedente alla fine hai ammesso che la relazione c'è e GT200 costa moltissimo perchè le rese produttive sono molto basse. Quindi alla fine mi hai dato ragione , ovviamente non ammetterai che nVidia paga i wafer ( anche se è così ) , ma sostanzialmente non cambia nulla.

Scrambler77
18-08-2008, 17:16
paga i wafer , meno chip funzionanti ci sono e più gli costano quelli funzionanti.

ho capito dove sta l'inghippo.

[cut]

insomma stiamo dicendo tutti e tre la verità :asd:

Mi rallegra di aver avuto almeno 1 interlocutore intelligente in questa discussione. ;)

La discussione è nata dal post quotato in alto secondo cui nVidia pagherebbe i wafer, presupponendo che nVidia non conosca il numero di GPU funzionanti acquistato. Al contrario nVidia, essendo fabless, (per contratto) in pratica paga le gpu funzionanti, sulla base di una stima precisa preventiva.

Cmq è stato un piacere. :mano:

Grazie Scrambler sempre gentile...:)

Di nulla. ;)

Scrambler77
18-08-2008, 17:21
Tutt'altro .

Con QUESTA (http://www.hwupgrade.it/forum/showpost.php?p=23721167&postcount=4085) tua replica a massimomarc volevi far credere che non c'era relazione fra costo della gpu e relativa resa produttiva .

Questa te la sei proprio inventata... :rotfl:
Sicuro che sia solo la foglia ad essere morta?? :asd:

Provo a ripetertelo: nVidia compra x wafer per un minimo di y GPU funzionanti. STOP! Se su x wafer, z non sono conformi all'ordine, nVidia glieli spedisce indietro! Conclusione: nVidia paga y GPU funzionanti a prescindere dai wafer necessari per raggiungere quella soglia. nVidia non ha nulla da esplorare, perchè sa bene quanto gli costa realizzare le sue GPU prima di realizzarle.

P.S: ops scusa... hai ragione tu. :asd:

The_SaN
18-08-2008, 17:37
Provo a ripetertelo: nVidia compra x wafer per un minimo di y GPU funzionanti. STOP!
Giustissimo :)
Conclusione: nVidia paga y GPU funzionanti a prescindere dai wafer necessari per raggiungere quella soglia.Hai detto il contrario rispetto a prima. Nviadia lo compra o no il wafer? Oppure compra i chip?
Risposta: nVidia compra il wafer. Questo wafer DEVE produrre un numero minimo y di chip funzionanti. Se ne produce di meno, TSMC deve pagare (poi non so se in chip o soldi).
Se invece ne produce di piú, questi vanno a nVidia senza che quest'ultima debba pagare nulla (secondo il tuo ragionamento, li dovrebbe pagare).
É questa la differenza.

PUNTO 3 EDITATO PER PICCOLA CONFUSIONE ;)

Se c'é qualche punto da discutere, siamo qui per questo :)

Scrambler77
18-08-2008, 17:40
Hai detto il contrario rispetto a prima. Nviadia lo compra o no il wafer? Oppure compra i chip?


Credo di no, anzi... come stra-ripetuto, nVidia compra il wafer, ma lo rispedisce indietro se quel wafer non risponde ai requisiti contrattuali.
in effetti dovrei correggere la frase con "nVidia paga un minimo di y GPU funzionanti....." ;)


Risposta: nVidia compra il wafer. Questo wafer DEVE produrre un numero y di chip funzionanti. Sen ne produce di meno, TSMC deve pagare (poi non so se in chip o soldi).
Se invece ne produce di piú, questi vanno a nVidia senza che quest'ultima debba pagare nulla (secondo il tuo ragionamento, li dovrebbe pagare).
É questa la differenza.

Ho già risposto qualche post addietro. Il lavoro di TSMC è proprio quello di fare una valutazione il più precisa possibile, onde evitare di "regalare" le GPU ad nVidia, ma anche di non andare sotto i requisiti contrattuali.
Per il resto, le stesse cose le ripeto da 2 ore, ma senza esito... :asd:


Ancora sbagliato. Vanno a nVidia. E cosi nascono la fascia medio-alta e media.


Attenzione a non confondere i chip difettosi con quelli non funzionanti. Di quelli difettosi alcuni possono essere "convertiti" in versioni castrate, altri risultano inutilizzabili se non a frequenze troppo basse rispetto al progetto originale, e quindi cestinati.

Foglia Morta
18-08-2008, 18:51
Credo di no, anzi... come stra-ripetuto, nVidia compra il wafer, ma lo rispedisce indietro se quel wafer non risponde ai requisiti contrattuali.
in effetti dovrei correggere la frase con "nVidia paga un minimo di y GPU funzionanti....." ;)


Alla fine ci sei arrivato pure tu :asd:

è dal primo mio intervento che te lo sto dicendo :asd:

Foglia Morta
18-08-2008, 19:01
La discussione è nata dal post quotato in alto secondo cui nVidia pagherebbe i wafer, presupponendo che nVidia non conosca il numero di GPU funzionanti acquistato. Al contrario nVidia, essendo fabless, (per contratto) in pratica paga le gpu funzionanti, sulla base di una stima precisa preventiva.


Qui stai trollando.

Ti ho detto fin da subito

E' interesse di fonderie che lavorano per aziende fab less avere rese più alte possibili perchè in base alle statistiche che ci calcolano sopra nVidia , ATi e tutte le altre decidono con chi produrre il proprio progetto. TSMC è la migliore e quindi è naturale che abbia i migliori clienti , inoltre il poter garantire migliori rese produttive fa si che TSMC possa alzare il prezzo dei wafer prodotti da lei.
nVidia e ATi portano in laboratorio il loro progetto , producono dei campioni di prova e poi prendono la decisione se avviare la produzione di massa o fare un altra revisione migliore del proprio chip.
nVidia e ATi quelli non funzionanti se li pagano pari pari a quelli funzionanti e se li tengono stretti perchè lo sapevano fin da prima di avviare la produzione che ci sarebbero state certe percentuali di malfunzionamenti. Pagano il wafer , non il die.

Del resto le gpu castrate che vengono montate su moltissime schede servono proprio per raschiare il fondo del barile cercando di monetizzare tutto il monetizzabile. Non è che quelle gpu TSMC gliele regala o gliele fa pagare di meno , no si pagano il wafer con le rese produttive che sapevano di realizzare ben prima di avviare la produzione di massa, viste e piaciute.


E poi tu tiri fuori lo 0.5% di wafer anomali , dei quali non è certo la norma parlare. E dato che in questo business è naturale che si lavori su percentuali ci sta che una piccolissima parte possa differire dalle rese preventivate dai test pre-produzione.

Tu sostenevi che:

Che io sappia non esattamente. nVidia ordina i wafers a TSMC e UMC. La resa produttiva è un problema di queste ultime (al contrario mi spieghi che interesse ha TSMC, ad esempio, a mantenere alta la resa produttiva) ed il pagamento avviene sulla consegna di lotti di prodotti finiti. Quelli non funzionanti tornano al mittente (e mi pare anche giusto).

Alla fine sei arrivato a capire pure tu che le rese produttive sono un problema primariamente di nVidia . E tu hai tirato fuori lo 0.5% di wafer :asd: quando ti stavo parlando del restante 99,5% ( che poi è quello che conta veramente )

Scrambler77
19-08-2008, 00:18
Alla fine ci sei arrivato pure tu :asd:

è dal primo mio intervento che te lo sto dicendo :asd:

Si si, come no... e la marmotta confezionava la cioccolata... :asd:

Qui stai trollando.

Ti ho detto fin da subito
[cut]

Tu sostenevi che:

[cut]


Si si, hai ragione tu, bravo, si, si.... :asd:

(ragazzi vi prego non contradditelo e ditegli sempre sì, altrimenti rischia di arrivare a dare la colpa a Berlusconi per la scarsa resa produttiva di GT200... :D)

Fine OT.

Mercuri0
19-08-2008, 09:46
Nei contratti tra entità come TMSC e nVidia, il diavolo sta nei dettagli che non conosciamo. Tutta questa polemica è proprio fuori luogo.


La discussione è nata dal post quotato in alto secondo cui nVidia pagherebbe i wafer, presupponendo che nVidia non conosca il numero di GPU funzionanti acquistato. Al contrario nVidia, essendo fabless, (per contratto) in pratica paga le gpu funzionanti, sulla base di una stima precisa preventiva.

E' certissimo che nVidia conoscesse le scarse rese (e quindi l'alto costo) del GT200 prima della produzione. TSMC gli avrà detto: "Guarda, il GT200 a noi da queste rese, quindi il chip ti costa tot". E nvidia ha accettato.

Nvidia paga solo le GPU funzionananti: ma le GPU funzionanti TSMC gliele fa pagare di più, perché il GT200 ha scarse rese. Se ti piace vederla così.

Non capisco dove sta la polemica: è logico che se un wafer va male perché qualche ing di TSMC ci ha giocato a frisbee, questi costi non vanno su nVidia.

Mercuri0
19-08-2008, 09:55
Del resto le gpu castrate che vengono montate su moltissime schede servono proprio per raschiare il fondo del barile cercando di monetizzare tutto il monetizzabile. Non è che quelle gpu TSMC gliele regala o gliele fa pagare di meno , no si pagano il wafer con le rese produttive che sapevano di realizzare ben prima di avviare la produzione di massa, viste e piaciute.
Ma ragà, non imputatevi sul "pagano il wafer" o "pagano il die", il contratto di certo è molto più complesso. Sicuramente anche le versioni castrate sono previste prima che la produzione di massa inizi, e i loro costi e ricavi spalmati con le versioni non castrate.


Alla fine sei arrivato a capire pure tu che le rese produttive sono un problema primariamente di nVidia . E tu hai tirato fuori lo 0.5% di wafer :asd: quando ti stavo parlando del restante 99,5% ( che poi è quello che conta veramente )
Dipende molto dal tipo del contratto, ma di certo TSMC non ci va in perdita per le rese del GT200, sono costi che finiscono su nVidia.

Se nvidia progetta un chip costoso da produrre, questi costi finiscono su nVidia.

TSMC potrebbe accettare di accollarsi parte del costo se ci fosse un altra fonderia in grado di produrre gli GT200 con yeld migliori, e quindi a costi inferiori. So che è successo in un altro contesto, ma difficilmente nVidia ha questo potere contrattuale su TSMC.

sonnet
19-08-2008, 09:56
Si si, come no... e la marmotta confezionava la cioccolata... :asd:



Si si, hai ragione tu, bravo, si, si.... :asd:

(ragazzi vi prego non contradditelo e ditegli sempre sì, altrimenti rischia di arrivare a dare la colpa a Berlusconi per la scarsa resa produttiva di GT200... :D)

Fine OT.

ma perche' continui ad arrampicarti sugli specchi allungando il brodo?Basterebbe dire frasi tipo "mi sn spiegato male", "mi sono confuso".
Cosi rischi di sembrare piu' ridicolo e perdi credibilita'.

Foglia Morta
19-08-2008, 09:58
Nei contratti tra entità come TMSC e nVidia, il diavolo sta nei dettagli che non conosciamo. Tutta questa polemica è proprio fuori luogo.


E' certissimo che nVidia conoscesse le scarse rese (e quindi l'alto costo) del GT200 prima della produzione. TSMC gli avrà detto: "Guarda, il GT200 a noi da queste rese, quindi il chip ti costa tot". E nvidia ha accettato.

Nvidia paga solo le GPU funzionananti: ma le GPU funzionanti TSMC gliele fa pagare di più, perché il GT200 ha scarse rese. Se ti piace vederla così.

Non capisco dove sta la polemica: è logico che se un wafer va male perché qualche ing di TSMC ci ha giocato a frisbee, questi costi non vanno su nVidia.

Il punto della discussione è che secondo lui non esistono gpu malfunzionanti che nVidia deve pagare. Ho detto e ripetuto che nVidia ( e pure ATi ) si prende anche le gpu malfunzionanti e le castra perchè quelle gpu gli costano come tutte le altre in quanto paga il wafer prodotto con le rese produttive preventivate prima della produzione di massa. Detto e ripetuto più volte fin dall'inizio come puoi leggere.
Comunque polemica inutile, nei suoi ultimi post ha voluto girare la frittata ( qualcun'altro se ne è accorto ) e ora dice che stiamo sostenendo le stesse cose ( solo che lui ha bisogno di editare :asd: ).

Foglia Morta
19-08-2008, 10:03
Ma ragà, non imputatevi sul "pagano il wafer" o "pagano il die", il contratto di certo è molto più complesso. Sicuramente anche le versioni castrate sono previste prima che la produzione di massa inizi, e i loro costi e ricavi spalmati con le versioni non castrate.


Dipende molto dal tipo del contratto, ma di certo TSMC non ci va in perdita per le rese del GT200, sono costi che finiscono su nVidia.

Se nvidia progetta un chip costoso da produrre, questi costi finiscono su nVidia.

TSMC potrebbe accettare di accollarsi parte del costo se ci fosse un altra fonderia in grado di produrre gli GT200 con yeld migliori, e quindi a costi inferiori. So che è successo in un altro contesto, ma difficilmente nVidia ha questo potere contrattuale su TSMC.

Son d'accordo su tutto. La polemica è nata dal fatto che lui voleva far credere che non ci sono svantaggi per i clienti di TSMC ad avere basse rese produttive. Accortosi della boiata ha voluto arrivare alla stessa mia conclusione guardandola da un altro un punto di vista ma che sostanzialmente non cambia di una virgola il discorso nel suo complesso. Ora ho detto tutto e per me aggiungere altro non serve

Mercuri0
19-08-2008, 10:17
Il punto della discussione è che secondo lui non esistono gpu malfunzionanti che nVidia deve pagare. Ho detto e ripetuto che nVidia ( e pure ATi ) si prende anche le gpu malfunzionanti e le castra perchè quelle gpu gli costano come tutte le altre in quanto paga il wafer prodotto con le rese produttive preventivate prima della produzione di massa.

Molto probabilmente anche il test del die e la "castratura" sono fatte da TSMC, che può curare anche il packaging (spesso la fonderia lo fa, ma come sempre la cosa varia da caso a caso).

Quindi ci stà che nel "pacco" a nVidia arrivinino solo le GPU funzionanti, già belle impacchettate, e che rispecchiano le specifiche concordate per i vari modelli.

Anche la quantità - nel senso del rapporto tra GPU per la GTX260 e la GTX280 sarà esatta, perché la probabilità che è stata stimata, sui grandi numeri diventa certezza.

I die che non rispettano le specifiche concordate se li tiene TSMC e ne ricicla il silicio. Però questi die hanno comunque un costo, che TSMC avrà concordato di scaricare su nVidia (nei chip funzionanti), e nVidia ha previsto di scaricarlo sugli acquirenti.

Poi magari un concorrente tira fuori la 4870, e i conti cominciano a non tornare.

Foglia Morta
19-08-2008, 10:31
Molto probabilmente anche il test del die e la "castratura" sono fatte da TSMC, che può curare anche il packaging (spesso la fonderia lo fa, ma come sempre la cosa varia da caso a caso).

Quindi ci stà che nel "pacco" a nVidia arrivinino solo le GPU funzionanti, già belle impacchettate, e che rispecchiano le specifiche concordate per i vari modelli.

Anche la quantità - nel senso del rapporto tra GPU per la GTX260 e la GTX280 sarà esatta, perché la probabilità che è stata stimata, sui grandi numeri diventa certezza.

I die che non rispettano le specifiche concordate se li tiene TSMC e ne ricicla il silicio. Però questi die hanno comunque un costo, che TSMC avrà concordato di scaricare su nVidia (nei chip funzionanti), e nVidia ha previsto di scaricarlo sugli acquirenti.

Ma è il solito discorso già fatto , basta rileggere. Prima della produzione di massa hanno già le percentuali delle gpu sane , parzialmente sane e le altre... nVidia si paga il wafer e poi problemi suoi quello che viene dopo perchè li ha già visti prima di avviare la produzione di massa. Esempio lampante le ridondanze che ATi inserisce, il fatto che lui se ne freghi fa capire cosa voleva far credere ( cioè che i die castrati erano un problema di TSMC mentre in realtà sono di nVidia , che comunque già sapeva di ottenere prima di avviare la produzione di massa ).
Le cose si possono chiamare anche con parole diverse , non mi cambia nulla. Io ho cominciato la discussione perchè voleva credere che le rese produttive non sono un problema di nVidia ma di TSMC ( 99,5% a 0,5% :rolleyes: ) , contro ogni buon senso. Chiaro ? Se ne sono accorti in molti... Alla fine l'ha capito anche lui quindi per me si può chiudere qui

al135
19-08-2008, 10:38
ma perche' continui ad arrampicarti sugli specchi allungando il brodo?Basterebbe dire frasi tipo "mi sn spiegato male", "mi sono confuso".
Cosi rischi di sembrare piu' ridicolo e perdi credibilita'.

l'umiltà in questo forum (e non solo) è morta da tanto :(

Amph
19-08-2008, 10:54
ma quando esce la nuova gtx280 a 55?

Scrambler77
19-08-2008, 11:07
ma perche' continui ad arrampicarti sugli specchi allungando il brodo?Basterebbe dire frasi tipo "mi sn spiegato male", "mi sono confuso".
Cosi rischi di sembrare piu' ridicolo e perdi credibilita'.

Semplicemente perchè mi sono spiegato benissimo. La sola cosa ridicola è il tuo commento... ;) Almeno Foglia Morta sostiene una sua idea...

l'umiltà in questo forum (e non solo) è morta da tanto :(

Quoto. Probabilmente l'hanno permutata con l'idiozia...


Non capisco dove sta la polemica: è logico che se un wafer va male perché qualche ing di TSMC ci ha giocato a frisbee, questi costi non vanno su nVidia.

La polemica (che poi per me non è polemica ma semplice confronto) sta nel fatto che per quanto nvidia riesca a tenere alta la resa produttiva, essa dipende in ultima battuta dalla fonderia che realizza il pezzo, e quest'ultima deve cercare la più alta resa possibile a parità di progetto. In fase preliminare, quindi, nVidia sa che "1000 gpu gli costano un TOT", non "1000 wafer gli costano un TOT". ;)

Molto probabilmente anche il test del die e la "castratura" sono fatte da TSMC, che può curare anche il packaging (spesso la fonderia lo fa, ma come sempre la cosa varia da caso a caso).

Quindi ci stà che nel "pacco" a nVidia arrivinino solo le GPU funzionanti, già belle impacchettate, e che rispecchiano le specifiche concordate per i vari modelli.

Anche la quantità - nel senso del rapporto tra GPU per la GTX260 e la GTX280 sarà esatta, perché la probabilità che è stata stimata, sui grandi numeri diventa certezza.

I die che non rispettano le specifiche concordate se li tiene TSMC e ne ricicla il silicio. Però questi die hanno comunque un costo, che TSMC avrà concordato di scaricare su nVidia (nei chip funzionanti), e nVidia ha previsto di scaricarlo sugli acquirenti.

Poi magari un concorrente tira fuori la 4870, e i conti cominciano a non tornare.

Oooh... finalmente! :mano:

Foglia morta quì prima sostiene che nvidia paga i wafer (assolutamente errato), non le gpu (lasciando intendere palesemente che i wafer sono a scatola chiusa), poi cambia tesi e parla dei test preliminari, ma poi nvidia se li compra "belli e piaciuti" (ancora errato)...

Ma quando mai!? :doh: nVidia sa con certezza quante gpu escono da 1 wafer, ed in base a questo dato acquista un certo numero di wafer, ma non esiste proprio che se uno di questi si rivela un "guscio vuoto", nVidia lo paga ugualmente.

Tra l'altro, a quanto ho letto, UMC si occupa anche del packaging del die, pertanto consegna il prodotto finito e funzionante.

NOOB4EVER
19-08-2008, 11:13
ma quando esce la nuova gtx280 a 55?

aspeta aspetta,non manca poi molto ;)

Scrambler77
19-08-2008, 11:19
Ma è il solito discorso già fatto , basta rileggere. Prima della produzione di massa hanno già le percentuali delle gpu sane , parzialmente sane e le altre... nVidia si paga il wafer e poi problemi suoi quello che viene dopo perchè li ha già visti prima di avviare la produzione di massa. Esempio lampante le ridondanze che ATi inserisce, il fatto che lui se ne freghi fa capire cosa voleva far credere ( cioè che i die castrati erano un problema di TSMC mentre in realtà sono di nVidia , che comunque già sapeva di ottenere prima di avviare la produzione di massa ).
Le cose si possono chiamare anche con parole diverse , non mi cambia nulla. Io ho cominciato la discussione perchè voleva credere che le rese produttive non sono un problema di nVidia ma di TSMC ( 99,5% a 0,5% :rolleyes: ) , contro ogni buon senso. Chiaro ? Se ne sono accorti in molti... Alla fine l'ha capito anche lui quindi per me si può chiudere qui

1) "il fatto che lui se ne freghi fa capire cosa voleva far credere ( cioè che i die castrati erano un problema di TSMC mentre in realtà sono di nVidia , che comunque già sapeva di ottenere prima di avviare la produzione di massa ).": Io non volevo far credere nulla, la tua interpretazione di ciò che scrivo non è detto che sia necessariamente esatta. Io ho parlato di resa, non di die. Un wafer con rese inferiori a quanto preventivato TORNANO A TSMC, QUINDI SONO UN PROBLEMA DI TSMC! STOP!

2) "nVidia si paga il wafer e poi problemi suoi quello che viene dopo perchè li ha già visti prima di avviare la produzione di massa". SBAGLIATO! Se un wafer non rispetta la soglia minima di GPU funzionanti TORNA A TSMC! STOP!

3) "Se ne sono accorti in molti...": Adesso ti riferisci a te stesso col plurale, come Mago Othelma? :asd:

Ho anche postato un documento di TSMC in cui parla di qualità del prodotto finito... ma nn è servito a nulla.

Ora per favore sforzati di comprendere che un contratto in cui nVidia compra 100 wafer per un MINIMO di 1000 GPU, TSMC DEVE RISPETTARLO, pertanto la resa dei wafer è eccome un problema suo!

Se poi sto favore non ce lo vuoi fare, amen, ma finiscila di scrivere il falso sulle intenzioni altrui.

Foglia Morta
19-08-2008, 11:30
Oooh... finalmente! :mano:

Foglia morta quì prima sostiene che nvidia paga i wafer (assolutamente errato), non le gpu (lasciando intendere palesemente che i wafer sono a scatola chiusa), poi cambia tesi e parla dei test preliminari, ma poi nvidia se li compra "belli e piaciuti" (parzialmente esatto)...

Ma quando mai!? :doh: nVidia sa con certezza quante gpu escono da 1 wafer, ed in base a questo dato acquista un certo numero di wafer, ma non esiste proprio che se uno di questi si rivela un "guscio vuoto", nVidia lo paga ugualmente.

Tra l'altro, a quanto ho letto, UMC si occupa anche del packaging del die, pertanto consegna il prodotto finito e funzionante.

No , e qui Mercuri0 capirà meglio .

Evita di mettermi parole in bocca che non ho mai detto e di cui ti servi per girare la frittata.

Il mio secondo post di questa diatriba dice tutto ed ho continuato la discussione su questa stessa linea:
Che io sappia non esattamente. nVidia ordina i wafers a TSMC e UMC. La resa produttiva è un problema di queste ultime (al contrario mi spieghi che interesse ha TSMC, ad esempio, a mantenere alta la resa produttiva) ed il pagamento avviene sulla consegna di lotti di prodotti finiti. Quelli non funzionanti tornano al mittente (e mi pare anche giusto).
Il business non potrebbe neanche esistere se le aziende fab less pagassero solamente i chip funzionanti ,TSMC e tutte le altre sarebbero già fallite da una vita.

E' interesse di fonderie che lavorano per aziende fab less avere rese più alte possibili perchè in base alle statistiche che ci calcolano sopra nVidia , ATi e tutte le altre decidono con chi produrre il proprio progetto. TSMC è la migliore e quindi è naturale che abbia i migliori clienti , inoltre il poter garantire migliori rese produttive fa si che TSMC possa alzare il prezzo dei wafer prodotti da lei.
nVidia e ATi portano in laboratorio il loro progetto , producono dei campioni di prova e poi prendono la decisione se avviare la produzione di massa o fare un altra revisione migliore del proprio chip.
nVidia e ATi quelli non funzionanti se li pagano pari pari a quelli funzionanti e se li tengono stretti perchè lo sapevano fin da prima di avviare la produzione che ci sarebbero state certe percentuali di malfunzionamenti. Pagano il wafer , non il die.

Del resto le gpu castrate che vengono montate su moltissime schede servono proprio per raschiare il fondo del barile cercando di monetizzare tutto il monetizzabile. Non è che quelle gpu TSMC gliele regala o gliele fa pagare di meno , no si pagano il wafer con le rese produttive che sapevano di realizzare ben prima di avviare la produzione di massa, viste e piaciute.

http://www.hwupgrade.it/forum/showpost.php?p=23721784&postcount=4089

Poi da lì hai tirato fuori lo 0.5% di wafer mentre stavamo a discutere della casistica principale ( il restante 99,5% )

Se ne sono accorti tutti che ora vuoi girare la frittata e ti hanno anche indicato la via per evitare di cadere sempre più in basso. Micca mi aspetto di sentirmi dire "si hai ragione" , non mi interessa perchè alla fine l'hai capito il discorso di fondo. Però è tutto scritto , a sto punto la discussione può diventare solo una serie di battibecchi perchè è tutto molto chiaro.

Foglia Morta
19-08-2008, 11:32
1) "il fatto che lui se ne freghi fa capire cosa voleva far credere ( cioè che i die castrati erano un problema di TSMC mentre in realtà sono di nVidia , che comunque già sapeva di ottenere prima di avviare la produzione di massa ).": Io non volevo far credere nulla, la tua interpretazione di ciò che scrivo non è detto che sia necessariamente esatta. Io ho parlato di resa, non di die. Un wafer con rese inferiori a quanto preventivato TORNANO A TSMC, QUINDI SONO UN PROBLEMA DI TSMC! STOP!

2) "nVidia si paga il wafer e poi problemi suoi quello che viene dopo perchè li ha già visti prima di avviare la produzione di massa". SBAGLIATO! Se un wafer non rispetta la soglia minima di GPU funzionanti TORNA A TSMC! STOP!

3) "Se ne sono accorti in molti...": Adesso ti riferisci a te stesso col plurale, come Mago Othelma? :asd:

Ho anche postato un documento di TSMC in cui parla di qualità del prodotto finito... ma nn è servito a nulla.

Ora per favore sforzati di comprendere che un contratto in cui nVidia compra 100 wafer per un MINIMO di 1000 GPU, TSMC DEVE RISPETTARLO, pertanto la resa dei wafer è eccome un problema suo!

Se poi sto favore non ce lo vuoi fare, amen, ma finiscila di scrivere il falso sulle intenzioni altrui.

Ancora con sta storia dello 0.5% mentre stavamo parlando della casistica generale ( restante 99,5 % ) . Vabbe per chiudere : tu lo sai , e noi tutti lo sappiamo che alla fine alla tua maniera l'hai ammesso di aver sbagliato e ora a parlare è il tuo orgoglio quindi io la chiudo qui.

Scrambler77
19-08-2008, 11:40
Evita di mettermi parole in bocca che non ho mai detto e di cui ti servi per girare la frittata.


Mi spiace ma quella è un'abitudine che appartiene solo a te.

Ancora con sta storia dello 0.5% mentre stavamo parlando della casistica generale ( restante 99,5 % ) . Vabbe per chiudere : tu lo sai , e noi tutti lo sappiamo che alla fine alla tua maniera l'hai ammesso di aver sbagliato e ora a parlare è il tuo orgoglio quindi io la chiudo qui.

:rotfl:

Una curiosità: che fai nella vita?

michelgaetano
19-08-2008, 11:52
Una curiosità: che fai nella vita?

E basta con questi flame di basso livello -_-

Scrambler77
19-08-2008, 12:01
E basta con questi flame di basso livello -_-

Non è un flame, è una domanda sincera.

Addendum: a luglio nVidia è stata oggetto di numerose contestazioni riguardanti alcuni chip difettosi montati su notebook e schede video di fascia bassa. In questa circostanza è emerso che TSMC sarebbe co-responsabile di un difetto nel packaging del chip:

Nvidia blames TSMC for bad chip problem:
"Nvidia blamed the problem on its foundry partner—Taiwan Semiconductor Manufacturing Co. Ltd. The silicon foundry giant apparently does some level of IC packaging for Nvidia. The ''packaging [material] was supplied by TSMC,'' according to a spokesman for Nvidia."

Il problema era relativo ad un vizio combinato tra design e materiali utilizzati nel package.

A quanto pare, come sostiene anche Mercurio, ad nVidia arrivano i chip già impacchettati.

Altro che "visti e piaciuti"... :D

Suhadi_Sadono
19-08-2008, 12:05
Ma questo è un thread della 280GTX o dei wafer di silicio??? :wtf: :wtf:
adesso provo poi vi faccio sapere....speriamo bene:sperem:
Hai provato a giocare alle frequenze della XXX?

michelgaetano
19-08-2008, 12:14
Non è un flame, è una domanda sincera.


A che pro nel topic della gtx 280 scusa? .__.

Sticoo
19-08-2008, 12:50
Ma questo è un thread della 280GTX o dei wafer di silicio??? :wtf: :wtf:

Hai provato a giocare alle frequenze della XXX?


Allora ho provato le frequenze della FTW per circa un oretta e tutto va ke è una meraviglia, poi le ho impostate come quelle della XXX e ogni tanto mi compare qualche artefatto :cry:

Giustaf
19-08-2008, 12:59
Allora ho provato le frequenze della FTW per circa un oretta e tutto va ke è una meraviglia, poi le ho impostate come quelle della XXX e ogni tanto mi compare qualche artefatto :cry:

direi che sei al limite allora...io terrei il bios originale!

Mister Tarpone
19-08-2008, 13:06
Nvidia wants its crown back
Written by Fuad Abazovic
Tuesday, 19 August 2008 09:43



Beware ATI

We've learned that Nvidia is working hard to get its performance crown back. Nvidia is planning to introduce a few products that might change the game, but it doesn’t look that rosy for the green goblin.

The first projection are showing that if GT200 55nm as an optical shrink of GT200 65nm won’t have enough performance headroom to beat the Radeon HD 4870 X2 also well known as R700 card. No matter how high they clock, it might not be enough.

Nvidia might be adding some more horsepower to this chip and the thermals will be much better which might imply that there is a change. GT200 55nm with more Shaders and some additional architectural adjustments might have a chance.

Currently, RV710 and RV730 will hit Nvidia the most, in entry and mainstream level, and this is where the volume sales are. These chips are going the hit the cash cow called Geforce 9500GT and 9400.




qui dicono che al max il gt200 55nm potrebbe avere qualche shader in + (come ipotizzavo io) oltre le maggiori frequenze... ma di una GX2 non si parla proprio.

michelgaetano
19-08-2008, 13:08
Nvidia è il Green Goblin? Son brutti e cattivi? Come funziona :sofico:

Mister Tarpone
19-08-2008, 13:09
Nvidia è il Green Goblin? Son brutti e cattivi? Come funziona :sofico:

forse è un fanboy ati quello che ha scritto l'articolo :asd:

michelgaetano
19-08-2008, 13:09
forse è un fanboy ati quello che ha scritto l'articolo :asd:

Possibile :D

Certo l'uomo ragno è vestito di rosso...mah :sofico:

Mister Tarpone
19-08-2008, 13:10
Possibile :D

Certo l'uomo ragno è vestito di rosso...mah :sofico:

mi stava più simpatico goblin (nel primo film) :asd:

Andrea deluxe
19-08-2008, 13:12
Nvidia might be adding some more horsepower to this chip and the thermals will be much better which might imply that there is a change. GT200 55nm with more Shaders and some additional architectural adjustments might have a chance.

http://www.hokutonoken.it/scuole/ken1.jpg
...........interessante........

Mercuri0
19-08-2008, 13:13
...
A quanto pare, come sostiene anche Mercurio, ad nVidia arrivano i chip già impacchettati.
...
Ragazzuòli, die o wafer non ha molta importanza, l'importante è che sia chiaro che i costi dei chip difettosi ricadono, in un modo o nell'altro, su nVidia, e che nVidia ha interesse ad avere yeld alti, molto più di TSMC.

La situazione sarebbe differente se ci fosse un'altra fonderia in grado di garantire a nVidia costi inferiori (e quindi in sostanza yeld superiori... siamo sempre lì, comunque si rigiri la frittata). In quel caso sarebbe a TSMC a dover aumentare gli yeld (cioè ridurre i costi) per rimanere competitiva.

Mister Tarpone
19-08-2008, 13:13
Kenshiro rulez :sborone:

michelgaetano
19-08-2008, 13:14
mi stava più simpatico goblin (nel primo film) :asd:

A me piace di più il figlio :D :D :D

Certo che entrambi fanno una bella fine :asd:

Che ci fa kenshiro lì LOL (ganza la posa però XD)

Foglia Morta
19-08-2008, 13:17
Ragazzuòli, die o wafer non ha molta importanza, l'importante è che sia chiaro che i costi dei chip difettosi ricadono, in un modo o nell'altro, su nVidia, e che nVidia ha interesse ad avere yeld alti, molto più di TSMC.

La situazione sarebbe differente se ci fosse un'altra fonderia in grado di garantire a nVidia costi inferiori (e quindi in sostanza yeld superiori... siamo sempre lì, comunque si rigiri la frittata). In quel caso sarebbe a TSMC a dover aumentare gli yeld (cioè ridurre i costi) per rimanere competitiva.

è tutto scritto... http://www.hwupgrade.it/forum/showpost.php?p=23722967&postcount=4098

Quindi puoi benissimo usare il singolare ;)

Suhadi_Sadono
19-08-2008, 13:22
Allora ho provato le frequenze della FTW per circa un oretta e tutto va ke è una meraviglia, poi le ho impostate come quelle della XXX e ogni tanto mi compare qualche artefatto :cry:
Prova ad abbassare di 50/100Mhz le frequenze della memoria della XXX e vedi se ti compaiono ancora ;)

FreeMan
19-08-2008, 13:34
che ne dite di riportare la discussioni su livelli di decenza? basta finirla con la chat, l'OT e il flame.

Se poi "capitano" sospensioni anche pesanti non prendetevela con me :)

>bYeZ<

Sticoo
19-08-2008, 13:38
Prova ad abbassare di 50/100Mhz le frequenze della memoria della XXX e vedi se ti compaiono ancora ;)

avevo intenzione di lavorare appunto sulle memorie perchè mi sembrava abbastanza altina come frequenza, dopo provo ad abbassare un pochino

grazie comunque per l'aiuto ke mi avete dato finora :)

Andrea deluxe
19-08-2008, 13:40
avevo intenzione di lavorare appunto sulle memorie perchè mi sembrava abbastanza altina come frequenza, dopo provo ad abbassare un pochino

grazie comunque per l'aiuto ke mi avete dato finora :)

prova le mie frequenze!


le vedi in firma!

Sticoo
19-08-2008, 13:45
prova le mie frequenze!


le vedi in firma!

messe le frequenze di andrea deluxe adesso faccio partire crysis :D

Scrambler77
19-08-2008, 14:40
Nvidia wants its crown back
Written by Fuad Abazovic
Tuesday, 19 August 2008 09:43

[cut]

qui dicono che al max il gt200 55nm potrebbe avere qualche shader in + (come ipotizzavo io) oltre le maggiori frequenze... ma di una GX2 non si parla proprio.

Beh, a 55nm potrebbero dedicare più spazio sul die per integrare qualche altro SP. Se così fosse, a frequenze più elevate, nonostante il die-shrink di certo non avremo schede high-end più economiche sotto il profilo dei consumi... :(

Cmq non accennano a GX2, ma bisogna vedere quel "few products" che significa.

pierpox
19-08-2008, 15:43
Salve a tutti,dovrei assemblarmi un pc per fine settembre e stò valutando l'acquisto della scheda video e sarei orientato verso la gtx 280.In questo thread tutti parlano delle prestazioni delle vga con i giochi,poichè il pc lo userei per fare calcolo con software tipo matlab,oppure utilizzare programmi di ritocco fotografico come photoshop,mi chiedevo se qualche possessore delle gtx280 poteva darmi qualche consiglio in merito.Cioè l'utilizzo delle librerie cuda effettivamente sono un valore aggiunto?Danno un reale beneficio? O mi consigliate una 4870x2 da 1 gb?Ringrazio in anticipo chiunque voglia offrimi il suo punto di vista :)

Stormblast
19-08-2008, 16:14
Salve a tutti,dovrei assemblarmi un pc per fine settembre e stò valutando l'acquisto della scheda video e sarei orientato verso la gtx 280.In questo thread tutti parlano delle prestazioni delle vga con i giochi,poichè il pc lo userei per fare calcolo con software tipo matlab,oppure utilizzare programmi di ritocco fotografico come photoshop,mi chiedevo se qualche possessore delle gtx280 poteva darmi qualche consiglio in merito.Cioè l'utilizzo delle librerie cuda effettivamente sono un valore aggiunto?Danno un reale beneficio? O mi consigliate una 4870x2 da 1 gb?Ringrazio in anticipo chiunque voglia offrimi il suo punto di vista :)


onestamente non conosco gli applicativi matlab, ma non vorrei fosse sprecata una vga del genere. :)

pierpox
19-08-2008, 16:23
onestamente non conosco gli applicativi matlab, ma non vorrei fosse sprecata una vga del genere. :)

...Be se abbassasse effettivamente i tempi di calcolo su matrici e vettori,dato che matlab sfrutta le librerie cuda ne varrebbe la pena...il guaio è che non sò valutare il reale guadagno visto che non ne ho mai vista un all'opera ecco perchè mi appellavo a qualcuno di voi che avesse esperienza in merito :D.Cioè io valuto l'acquisto non dal punto di vista del gamer ma da utente che vuole trarre beneficio dalla scheda video per velocizzare calcoli che possono scaturire da un software di simulazione di sistemi fluidodinamici o da software di ritocco fotografico come photoshop,giusto per fare un paio di esempi...

Andrea deluxe
19-08-2008, 16:23
messe le frequenze di andrea deluxe adesso faccio partire crysis :D

http://www.roswell.it/wp-content/uploads/2007/08/esplosione.JPG
E' scoppiato tutto?

:D

Scrambler77
19-08-2008, 16:36
http://www.roswell.it/wp-content/uploads/2007/08/esplosione.JPG
E' scoppiato tutto?

:D

A quanto pare... :asd:

http://www.ladestra.info/public/wordpress/wp-content/uploads/2006/10/nucleare_2006.jpg

Scrambler77
19-08-2008, 16:39
Salve a tutti,dovrei assemblarmi un pc per fine settembre e stò valutando l'acquisto della scheda video e sarei orientato verso la gtx 280.In questo thread tutti parlano delle prestazioni delle vga con i giochi,poichè il pc lo userei per fare calcolo con software tipo matlab,oppure utilizzare programmi di ritocco fotografico come photoshop,mi chiedevo se qualche possessore delle gtx280 poteva darmi qualche consiglio in merito.Cioè l'utilizzo delle librerie cuda effettivamente sono un valore aggiunto?Danno un reale beneficio? O mi consigliate una 4870x2 da 1 gb?Ringrazio in anticipo chiunque voglia offrimi il suo punto di vista :)

Che io sappia, mathlab non ha supporto nativo gpgpu (cuda nello specifico), pertanto sarebbe sprecata... E' parecchio che non lo uso (dall'università), non so se nel frattempo hanno deciso di aprirlo nativamente alle gpu... ma non credo...

Cmq prova a dare una lettura quì: http://www.accelereyes.com/
Jacket, un engine cuda per mathlab, ma c'è da smanettare parecchio...

Riguardo le reali potenzialità dell'engine, temo che non ci siano proprio paragoni... ;)

pierpox
19-08-2008, 17:11
Che io sappia, mathlab non ha supporto nativo gpgpu (cuda nello specifico), pertanto sarebbe sprecata... E' parecchio che non lo uso (dall'università), non so se nel frattempo hanno deciso di aprirlo nativamente alle gpu... ma non credo...

Cmq prova a dare una lettura quì: http://www.accelereyes.com/
Jacket, un engine cuda per mathlab, ma c'è da smanettare parecchio...

Riguardo le reali potenzialità dell'engine, temo che non ci siano proprio paragoni... ;)

MATLAB è già in grado di sfruttare CUDA,c'è anche un Matlab plug-in per la 2D FFT che sfrutta cuda sul sito della nvidia...quindi mi posso aspettare concreti benefici acquistando una gtx 280 al posto di una 4870x2...:D

Scrambler77
19-08-2008, 17:14
...c'è anche un Matlab plug-in per la 2D FFT che sfrutta cuda sul sito della nvidia...quindi mi posso aspettare concreti benefici acquistando una gtx 280 al posto di una 4870x2...:D

In tal caso direi proprio di si. ;)

Fourier ringrazia. :asd:

pierpox
19-08-2008, 19:18
In tal caso direi proprio di si. ;)

Fourier ringrazia. :asd:

:cincin: ...chissà con i filtri di photoshop che guadagno si avrebbe...qualcuno del forum ha già provato?

eXeS
19-08-2008, 21:08
Delly :boxe: Crysis

http://www.driverheaven.net/reviews.php?reviewid=609&pageid=11

:winner: Delly :winner:

beppe8682
20-08-2008, 15:46
allora quand'è che abbassano i prezzi???:O
:D

Amon 83
20-08-2008, 15:52
Delly :boxe: Crysis

http://www.driverheaven.net/reviews.php?reviewid=609&pageid=11

:winner: Delly :winner:

chissà se mettendo i filtri sarebbe sempre pro nvidia il result.... cmq sistema improponibile alla massa dei videogiocatori dato il costo che avrebbe

NOOB4EVER
20-08-2008, 18:50
chissà se mettendo i filtri sarebbe sempre pro nvidia il result.... cmq sistema improponibile alla massa dei videogiocatori dato il costo che avrebbe

la passione va sopra ogni cosa,ti assicuro che non sono in pochi i possessori di sistemi simili ;) almeno per quanto riguarda il reparto grafico,dato che poi piu di tanto avere 8 core al giorno d'oggi non serve poi a molto per i giochi odierni ,o almeno credo

okorop
20-08-2008, 19:38
chissà se mettendo i filtri sarebbe sempre pro nvidia il result.... cmq sistema improponibile alla massa dei videogiocatori dato il costo che avrebbe

almeno è giocabile crysis :asd:

Mister Tarpone
20-08-2008, 19:42
.... cmq sistema improponibile alla massa dei videogiocatori dato il costo che avrebbe

possiamo dire la stessa cosa per 2 4870x2 in crossfire... quasi 800€ di schede video :asd:

okorop
20-08-2008, 19:50
possiamo dire la stessa cosa per 2 4870x2 in crossfire... quasi 800€ di schede video :asd:

ma non sarà mica quelòlo dell'ea games per giocare fluido a crysis? :asd:

Scrambler77
20-08-2008, 20:03
Delly :boxe: Crysis

http://www.driverheaven.net/reviews.php?reviewid=609&pageid=11

:winner: Delly :winner:

Ma leggo bene?? sono 4 GPU ATi contro 3 nVidia???? :asd:

Andrea deluxe
20-08-2008, 20:07
Ma leggo bene?? sono 4 GPU ATi contro 3 nVidia???? :asd:

attento a dirlo ad alta voce, qualcuno potrebbe offendersi!

Suhadi_Sadono
20-08-2008, 20:10
attento a dirlo ad alta voce, qualcuno potrebbe offendersi!
:asd:

Scrambler77
20-08-2008, 20:10
attento a dirlo ad alta voce, qualcuno potrebbe offendersi!

Hai ragione... ma non sarei io ad offenderli, ma quel test... ;) :asd:

eXeS
20-08-2008, 20:40
Ma leggo bene?? sono 4 GPU ATi contro 3 nVidia???? :asd:
Si, il top ATI, contro il top nVidia :cool:

thecatman
20-08-2008, 20:51
scusatemi, ripetetemi un po la media dei 3dmark della 280 e se uscirà una x2. mi so rotto dello sli 8800 che non mi funzia! faccio na strage!

eXeS
20-08-2008, 21:02
scusatemi, ripetetemi un po la media dei 3dmark della 280 e se uscirà una x2. mi so rotto dello sli 8800 che non mi funzia! faccio na strage!
Sono sufficienti lo 06 e Vantage ?

DarkVampire
20-08-2008, 21:13
scusatemi, ripetetemi un po la media dei 3dmark della 280 e se uscirà una x2. mi so rotto dello sli 8800 che non mi funzia! faccio na strage!

cat secondo me hai dei problemi o a una vga o agli slot pci....ma dal bios stanno impostati bene?

thecatman
21-08-2008, 08:10
Sono sufficienti lo 06 e Vantage ?

si si

cat secondo me hai dei problemi o a una vga o agli slot pci....ma dal bios stanno impostati bene?

io vedo solo la voce sli broadcast aperture su auto e non ce altro sul bios.
gpu-z mi dice sli abilitato

NOOB4EVER
21-08-2008, 10:25
si si



io vedo solo la voce sli broadcast aperture su auto e non ce altro sul bios.
gpu-z mi dice sli abilitato

che mobo hai??

Scrambler77
21-08-2008, 10:26
Si, il top ATI, contro il top nVidia :cool:

eXeS tu come ti trovi con la POV? Come va in OC?

al135
21-08-2008, 10:36
Hai ragione... ma non sarei io ad offenderli, ma quel test... ;) :asd:

l'unica offesa di quel test è il consumo di corrente ;)
ma quel test è un modo per far sembrare che vadano di piu?
imho è un esercizio di stile quella config per provare la skulltray nn centra niente meglio nvidia meglio ati anche perche son 2 schede contro 3 su piattaforma nvidia ;)

Jaguar64bit
21-08-2008, 10:49
scusatemi, ripetetemi un po la media dei 3dmark della 280 e se uscirà una x2. mi so rotto dello sli 8800 che non mi funzia! faccio na strage!


probabile che una GTX 280 GX2 esca quando sarà ridotto il processo produttivo , magari pure pompata negli stream ecc

al135
21-08-2008, 11:01
probabile che una GTX 280 GX2 esca quando sarà ridotto il processo produttivo , magari pure pompata negli stream ecc

date le dimensioni del chip credo sia improbabile...

illidan2000
21-08-2008, 11:09
Ma leggo bene?? sono 4 GPU ATi contro 3 nVidia???? :asd:

va beh dai... 2 schede ati contro 3 nVidia direbbero in ATI

al135
21-08-2008, 11:11
va beh dai... 2 schede ati contro 3 nVidia direbbero in ATI


infatti si... beh dai siamo obbiettivi il paragone da fare è questo :)
come dire 5045040 transistor , 15banchi di memoria 4 connettori etcetc contro 434349 transistor 12 banchi etcetcetc :D
contano le schede :D

michelgaetano
21-08-2008, 11:18
CI sarebbero anche i prezzi :D

380 €*2 vs 370 €*3

al135
21-08-2008, 11:21
CI sarebbero anche i prezzi :D

380 €*2 vs 370 €*3

si no ma appunto quel test è per la mobo skull tray fatta appositamente per 3 nvidia e anche solo la mobo costa un botto....
poi ci devi abbinare ovviamente almeno 2 quad extreme da mille euro l'uno tanto per non rimanere cpu limited :D

Scrambler77
21-08-2008, 11:21
CI sarebbero anche i prezzi :D

380 €*2 vs 370 €*3

:mc: :asd:

Sai che gliene frega dei prezzi ad uno che vuole il TOP in fatto di performance... ;)

Scrambler77
21-08-2008, 11:22
infatti si... beh dai siamo obbiettivi il paragone da fare è questo :)


Non direi proprio... Aggregare n GPU su una scheda video lo sanno fare tutti. ;)

michelgaetano
21-08-2008, 11:28
Non direi proprio... Aggregare n GPU su una scheda video lo sanno fare tutti. ;)

Cosa è, una nuova gpu war senza senso?

Chiunque potrà dirti che il chippone brutale che è GT200 è grande il doppio di RV770.

E fare chip grandi il doppio lo sanno fare tutti, no?

Con la stessa estensione (parlo sempre della superfice del core), R700 va meglio.

Tutto ciò non porta a niente salvo i soliti flames da board e Verde > Rosso e viceversa.

Riguardo ai prezzi, il tuo punto di vista è opinabile.

Sono pur sempre 760 euro contro 1100+.

C'è gente che vuole il top ma che deve comunque fare a botte con la busta paga.

al135
21-08-2008, 11:31
Non direi proprio... Aggregare n GPU su una scheda video lo sanno fare tutti. ;)

ma che stai dicendo?
dai non prendiamoci in giro :rolleyes:
ma l'hai vista la dimensione del chip 280 ? se saranno bravi a ridurre processi e a sistemare meglio il pcb forse ci riusciranno anche loro nn ti pare?
poi quel che conta sono i risultati finali non come ci si arriva per me possono starci anceh 40 criceti sopra la scheda... l'importante è che vada meglio in termini prestazionali. suvvia basta co sto fanboysmo , ho anceh io una scheda nvidia come puoi notare dalla firma (e che scheda) ma non prendo le parti di nessuno. mi piace solo l'idea che ci siano schede veramente performanti. ero rimasto deluso da qusta scheda al momento del rilascio, mi aspettavo di piu e infatti nn l'ho comprata. probabilmente non comprero' neanche la 4870x2 dato che ancora a parte crysis che ho gia finito non ci sono giochi che richiedono tali schede almeno fino all'autunno.
poi si vedra'.

Jaguar64bit
21-08-2008, 11:34
CI sarebbero anche i prezzi :D

380 €*2 vs 370 €*3


parli di prezzi quando si parla di configurazioni ultra top per gente che N-O-N ha problemi di budget ? discorso inutile.. chi ha il grano abbondante guarda le prestazioni TOP del TOP e poco gli importa di fare un 3 SLI molto costoso..per dare la biada a tutti.

al135
21-08-2008, 11:37
parli di prezzi quando si parla di configurazioni ultra top per gente che N-O-N ha problemi di budget ? discorso inutile.. chi ha il grano abbondante guarda le prestazioni TOP del TOP e poco gli importa di fare un 3 SLI molto costoso..per dare la biada a tutti.

ma si infatti il mio post seguente lo specificava, ma penso che il suo era solo un commento sul prezzo ;)
se avessi soldi... mi farei un bel maserati gt :D

illidan2000
21-08-2008, 11:39
ma che stai dicendo?
dai non prendiamoci in giro :rolleyes:
ma l'hai vista la dimensione del chip 280 ? se saranno bravi a ridurre processi e a sistemare meglio il pcb forse ci riusciranno anche loro nn ti pare?
poi quel che conta sono i risultati finali non come ci si arriva per me possono starci anceh 40 criceti sopra la scheda... l'importante è che vada meglio in termini prestazionali. suvvia basta co sto fanboysmo , ho anceh io una scheda nvidia come puoi notare dalla firma (e che scheda) ma non prendo le parti di nessuno. mi piace solo l'idea che ci siano schede veramente performanti. ero rimasto deluso da qusta scheda al momento del rilascio, mi aspettavo di piu e infatti nn l'ho comprata. probabilmente non comprero' neanche la 4870x2 dato che ancora a parte crysis che ho gia finito non ci sono giochi che richiedono tali schede almeno fino all'autunno.
poi si vedra'.
quoto, mi hai tolto le parole di bocca.
nVidia attualmente scalda e consuma un po' di meno delle 4870x2, ma va pure di meno...

Jaguar64bit
21-08-2008, 11:53
nVidia attualmente scalda e consuma un po' di meno delle 4870x2, ma va pure di meno...


noto però che 3 gpu nvidia hanno prestazioni superiori ( in alcuni casi non di poco ) a 4 gpu amd/ati , cosa non certo da trascurare.. a me ha colpito questo fatto , non pensavo che un 3 SLI fosse così prepotente.

DarkVampire
21-08-2008, 12:20
l'unica offesa di quel test è il consumo di corrente ;)
ma quel test è un modo per far sembrare che vadano di piu?
imho è un esercizio di stile quella config per provare la skulltray nn centra niente meglio nvidia meglio ati anche perche son 2 schede contro 3 su piattaforma nvidia ;)

veramente sono 4 gpu contro 3...quindi...

DarkVampire
21-08-2008, 12:35
quoto, mi hai tolto le parole di bocca.
nVidia attualmente scalda e consuma un po' di meno delle 4870x2, ma va pure di meno...

dipende dalle situazioni facendo una media sono alla pari...una va meglio con molti gioci ...l'altra va meglio con altri giochi...e sOPRATTUTTO..i driver ati per il crossfire nn supportano molti gioki e poco ottimizzati per la maggior parte...quindi..tra le due soluzioni...doppia o singola skeda preferisco la singola

al135
21-08-2008, 13:19
veramente sono 4 gpu contro 3...quindi...

come gia detto sopra , non centra nulla, anche nvidia ha presentato le soluzioni x2(anche a due pcb incollati) e venivano considerate schede top. bisogna confrontare la singola scheda ;) a te che importa cosa c'è sopra? l'importante è che funzioni bene e meglio no? ;)
inoltre il crossfire si è visto scala molto bene e la situzione non puo'ì che migliorare con l'ascesa di queste nuove schede.
come vedi, essere fanboy nn ha alcun senso (non riferito a te)

michelgaetano
21-08-2008, 13:39
noto però che 3 gpu nvidia hanno prestazioni superiori ( in alcuni casi non di poco ) a 4 gpu amd/ati , cosa non certo da trascurare.. a me ha colpito questo fatto , non pensavo che un 3 SLI fosse così prepotente.

prepotente col portafogli e con l'alimentatore :sofico:

come se non si riuscisse a giocare qualcosa con una singola gtx 280 o in SLI :muro:

Scrambler77
21-08-2008, 13:42
prepotente col portafogli e con l'alimentatore :sofico:


eddalle con sti prezzi... :asd:

Per quanto riguarda l'alimentatore... a memoria ricordo che i consumi di una X2 non sono poi così modesti.. anzi... ;)

Scrambler77
21-08-2008, 13:43
come gia detto sopra , non centra nulla, anche nvidia ha presentato le soluzioni x2(anche a due pcb incollati) e venivano considerate schede top. bisogna confrontare la singola scheda ;) a te che importa cosa c'è sopra? l'importante è che funzioni bene e meglio no? ;)
inoltre il crossfire si è visto scala molto bene e la situzione non puo'ì che migliorare con l'ascesa di queste nuove schede.
come vedi, essere fanboy nn ha alcun senso (non riferito a te)

Quando uscirolo le GX2 (9800) non ricordo gli stessi commenti da parte dei fanz ati... :asd:

Jaguar64bit
21-08-2008, 13:48
prepotente col portafogli e con l'alimentatore :sofico:

come se non si riuscisse a giocare qualcosa con una singola gtx 280 o in SLI :muro:



si vede proprio che non hai capito la "filosofia" di chi cerca certe soluzioni , perchè non chiedi ad uno che guida una porsche come mai non si prende una macchina che consuma meno e costa meno tanto va bene uguale.. troppo difficle da capire ? :asd:

al135
21-08-2008, 14:17
Quando uscirolo le GX2 (9800) non ricordo gli stessi commenti da parte dei fanz ati... :asd:

appunto lo vedi che hai centrato in pieno:
i fans ;)

Scrambler77
21-08-2008, 14:18
si vede proprio che non hai capito la "filosofia" di chi cerca certe soluzioni , perchè non chiedi ad uno che guida una porsche come mai non si prende una macchina che consuma meno e costa meno tanto va bene uguale.. troppo difficle da capire ? :asd:

Beh insomma... Magari potresti proporgli una Panda SuperCharged (con 2 motori FIRE) e vedere che ti risponde... :asd:

NOOB4EVER
21-08-2008, 15:49
prepotente col portafogli e con l'alimentatore :sofico:

come se non si riuscisse a giocare qualcosa con una singola gtx 280 o in SLI :muro:

michelgaetano , hai mai avuto due vga in sli?? no ,evidentemente a te non servono ,ma devi capire che c'e' chi pretende piu di quanto ne pretendi tu dalla propria macchina,i tuoi standard possono per esempio andare bene per te,io ad esempio con la tua 9600 a 1900x1200 con aliasing attivato mi troverei un po in difficolta dato che come framerate decente considero un 50Fps(c'e' chi30 fps se li fa bastare chi ne pretende 40 e via cosi'),chi ha 3 schede in sli vuole il maggior numero di framerate alla maggiore risoluzione,dipende tutto da cio che uno deve fare con il proprio pc.....quindi se esistono queste soluzioni significa che qualcuno con una sola gtx280 non riesce ad avere le prestazioni desiderate,ecco perche esistono sli e triple sli,che poi siano soluzioni costose dal punto di vista dei consumi e quant'altro non ci piove,pero' se esistono,ti assicuro che a qualcosa e qualcuno servono ;) :) poi tutto questo e' rigorosamente IMHO !!

ps: prova la tua vga su un 24" e dimmi quali filtri e a che livello riesci ad abilitarli e fammi sapere ;)

eXeS
21-08-2008, 18:41
Sono sufficienti lo 06 e Vantage ?

si si


Con Vista 64 e scheda a 660/1350/2400

http://img386.imageshack.us/img386/1954/nuovo1ve3.th.jpg (http://img386.imageshack.us/my.php?image=nuovo1ve3.jpg)

http://img386.imageshack.us/img386/6172/nuovo3ls2.th.jpg (http://img386.imageshack.us/my.php?image=nuovo3ls2.jpg)

eXeS
21-08-2008, 18:48
eXeS tu come ti trovi con la POV?

E' una reference come tutte le altre ;)

Come va in OC?

Abbastanza deluso sopratutto sugli shader che a 1400 mi davano qualche artefatto sia in Crysis che con GRID.
Comunque ora la tengo a 660/1350/2400 :)

Scrambler77
21-08-2008, 19:34
E' una reference come tutte le altre ;)

Abbastanza deluso sopratutto sugli shader che a 1400 mi davano qualche artefatto sia in Crysis che con GRID.
Comunque ora la tengo a 660/1350/2400 :)

Peccato... forse t'è capitata una scheda sfortunata...? :(

Diobrando_21
21-08-2008, 19:38
ragazzi scusate ho letto che la gtx280 supporta le directx 10 ma non le 10.1 (al contrario della ati 4870)...

ma in che senso?

nemmeno con i futuri driver?

ma che differenze ci sono tra le due versioni di directx?

grazie, ciao

Mister Tarpone
21-08-2008, 20:07
ragazzi scusate ho letto che la gtx280 supporta le directx 10 ma non le 10.1 (al contrario della ati 4870)...

ma in che senso?

come in che senso??? eppure mi sembra chiaro.. :confused:

nemmeno con i futuri driver?

si certo... con i futuri driver supporterà anche le dx12... ma daaaiii.. :asd:


ma che differenze ci sono tra le due versioni di directx?

grazie, ciao

le dx10.1 sarebbero un miglioramento delle dx10....ma in pratica non c'è nessuna differenza perchè i giochi usciti fino adesso non sfruttano manco le dx10. :) :D

eXeS
21-08-2008, 20:47
Peccato... forse t'è capitata una scheda sfortunata...? :(

E' la seconda POV dopo la 6800GT e il caso ha voluto che come la 6800 questa dovesse essere sfigatella :(

Tuttavia già così va più che bene, considera che alla mia risoluzione 1680x1050 con Crysis in DX9 in High faccio

55fps di media senza AA

http://img143.imageshack.us/img143/6020/nuovo3di1.th.jpg (http://img143.imageshack.us/my.php?image=nuovo3di1.jpg)

45 con AA4X

http://img505.imageshack.us/img505/5692/nuovo2mt4.th.jpg (http://img505.imageshack.us/my.php?image=nuovo2mt4.jpg)

e con il tweak VH per le DX9 37 fps

http://img95.imageshack.us/img95/2245/nuovo4pi6.th.jpg (http://img95.imageshack.us/my.php?image=nuovo4pi6.jpg)

valori che sono solo di poco inferiori rispetto a quelli che in DX9 riesce a produrre il nuovo mostro di casa ATI, almeno da quello che mi è sembrato di evincere curiosando sul thread della X2 :)

Giustaf
21-08-2008, 22:17
si certo... con i futuri driver supporterà anche le dx12... ma daaaiii.. :asd:



forse semplicemente non sapeva che un aggiornamento software non può apportare le dx10.1...bastava dirglielo cortesemente, nessuno nasce "imparato"! :)

Mister Tarpone
21-08-2008, 22:47
forse semplicemente non sapeva che un aggiornamento software non può apportare le dx10.1...bastava dirglielo cortesemente, nessuno nasce "imparato"! :)


che è?? cerchi di farmi sentire in colpa solo perchè ho usato un pò di sarcasmo?? :mbe:


beh ma allora se è così puoi andare cortesemente in :ciapet: ehh!!! :D


dai scherzo... ciao ;) :) !!!!!

robertoldo77
21-08-2008, 23:51
scusate tanto il disturbo, oggi ho preso sta benedetta gtx280 solo che c'è un problema. appena provo un applicazione video o gioco dopo 2 minuti mi si impalla il comp. e cmq ha prestazioni molto basse. infatti sono andato a vedere con riva tuner e mi da i valori tutti sballati.

lo shader a 100 Mhz
la memoria a 100 Mhz
il core a 300 Mhz

provo a mettere "PERFORMANCE 3d cioè i valori della fabbrica" sulle opzioni di riva e tutto va a posto solo che dura soltanto 10 secodni circa, poi ritornano i parametri sopraelencati.

che cosa può essere?
prima avevo una 8800 gtx e sti problemi mai avuti

ho provato sia i driver utlimi certificati che gli ultimi beta ed è sempre lo stesso problema. vi prego aiutatemi

grazie anticipatamente.

Mister Tarpone
22-08-2008, 01:30
leggetevi questi ultimi post di bejond3D... alcuni ipotizzano che -forse- GT200B potrebbe avere le GDDR5:

http://forum.beyond3d.com/showthread.php?t=48966&page=8

NOOB4EVER
22-08-2008, 02:15
scusate tanto il disturbo, oggi ho preso sta benedetta gtx280 solo che c'è un problema. appena provo un applicazione video o gioco dopo 2 minuti mi si impalla il comp. e cmq ha prestazioni molto basse. infatti sono andato a vedere con riva tuner e mi da i valori tutti sballati.

lo shader a 100 Mhz
la memoria a 100 Mhz
il core a 300 Mhz

provo a mettere "PERFORMANCE 3d cioè i valori della fabbrica" sulle opzioni di riva e tutto va a posto solo che dura soltanto 10 secodni circa, poi ritornano i parametri sopraelencati.

che cosa può essere?
prima avevo una 8800 gtx e sti problemi mai avuti

ho provato sia i driver utlimi certificati che gli ultimi beta ed è sempre lo stesso problema. vi prego aiutatemi

grazie anticipatamente.

verifica che il tuo ali ce la faccia,dalla config in firma sei un pelino tirato per questa skedozza ;)

DarkVampire
22-08-2008, 06:25
scusate tanto il disturbo, oggi ho preso sta benedetta gtx280 solo che c'è un problema. appena provo un applicazione video o gioco dopo 2 minuti mi si impalla il comp. e cmq ha prestazioni molto basse. infatti sono andato a vedere con riva tuner e mi da i valori tutti sballati.

lo shader a 100 Mhz
la memoria a 100 Mhz
il core a 300 Mhz

provo a mettere "PERFORMANCE 3d cioè i valori della fabbrica" sulle opzioni di riva e tutto va a posto solo che dura soltanto 10 secodni circa, poi ritornano i parametri sopraelencati.

che cosa può essere?
prima avevo una 8800 gtx e sti problemi mai avuti

ho provato sia i driver utlimi certificati che gli ultimi beta ed è sempre lo stesso problema. vi prego aiutatemi

grazie anticipatamente.


il problema e' una kiara ed evidente mancanza di alimentatore...e' assai ke nn ti abbia fatto riavvii o freeze durante le applicazioni...poteva anke farti skermata nera all'accensione...(carica tutto ma lo skermo nn si accende nemmeno se lo paghi)..
quanto amperaggio hai sui 12v?

pierpox
22-08-2008, 07:00
Salve ragazzi,volevo acquistare il modello gtx 280 della Point of view (quello liscio) qualcuno di voi si è trovato male?E' un acquisto "tranquillo"?Inoltre lo vorrei abbinare ad un modu 82+ da 625W della enermax,anche come alimentatore posso stare "tranquillo"?

PS:non sono un fanatico dell'overclocking:D

DarkVampire
22-08-2008, 07:04
se vuoi OC mi pare ke le pow nn siano tanto indicatissime...

pierpox
22-08-2008, 07:11
se vuoi OC mi pare ke le pow nn siano tanto indicatissime...

ciao DarkVampire,non farei mai dell'overclocking,utilizzerei la scheda per fare calcoli matematici con software che sfruttano CUDA.A me interessa solo l'affidabilità della scheda,anche se tutte dovrebbero essere delle reference board, quindi in teoria tutte uguali...

pierpox
22-08-2008, 07:15
Caspita su trovaprezzi nn si trova più il modello liscio della pov gtx 280!!!Non la fanno più???

PS:se qualcuno volesse consigliarmi un brand in particolare per la gtx 280...

halduemilauno
22-08-2008, 08:01
un ipotetico scenario...

GTX 290 X2: 216 SPs, 72 TMUs, 24 ROPs, 384-bit 2.0GHz GDDR5, 700MHz Core, 1750MHz Shader, $599 vs 4870x2.
GTX 290: 240 SPs, 80 TMUs, 24 ROPs, 384-bit 2.3GHz GDDR5, 700MHz Core, 1750MHz Shader, $399 vs 4850x2.
GTX 270: 216 SPs, 72 TMUs, 20 ROPs, 320-bit 2.0GHz GDDR5, 600MHz Core, 1500MHz Shader, $299 vs 4870.
GTX 250: 168 SPs, 56 TMUs, 16 ROPs, 256-bit 1.8GHz GDDR5, 560MHz Core, 1400MHz Shader, $199 vs 4850.
;)

DarkVampire
22-08-2008, 08:20
ci sara' anke la 4600...

robertoldo77
22-08-2008, 09:43
il problema e' una kiara ed evidente mancanza di alimentatore...e' assai ke nn ti abbia fatto riavvii o freeze durante le applicazioni...poteva anke farti skermata nera all'accensione...(carica tutto ma lo skermo nn si accende nemmeno se lo paghi)..
quanto amperaggio hai sui 12v?

no scusate non ho aggiornato la firma io ho un termaltake troughpower da 750w

con la 8800 gtx non mi ha mai dato problemi. mi sparo tra poco
vi prego datemi qualche dritta
forse ho sbagliato nel cablare l'alimentazione della scheda?

ho appena fatto un 3dmark vantage il ppunteggio gpu mi da 7900 di cpu mi da 22400 in totale ho 9800. ma è impossibile che io faccia 22000 di cpu. prima con la 8800 installata mi faceva 5200 il punteggio della cpu. ma qua ci sono i fantasmi maligni

tigershark
22-08-2008, 10:05
Salve ragazzi,volevo acquistare il modello gtx 280 della Point of view (quello liscio) qualcuno di voi si è trovato male?E' un acquisto "tranquillo"?Inoltre lo vorrei abbinare ad un modu 82+ da 625W della enermax,anche come alimentatore posso stare "tranquillo"?

PS:non sono un fanatico dell'overclocking:D

ho esattamente quella scheda e non ci sono problemi, mai sofferto nemmeno di overheating come tante altre schede di marche più blasonate.

Con l'alimentatore vai tranquillo.

pierpox
22-08-2008, 10:19
ho esattamente quella scheda e non ci sono problemi, mai sofferto nemmeno di overheating come tante altre schede di marche più blasonate.

Con l'alimentatore vai tranquillo.


Grazie per il tuo contributo tigershark...;)

DarkVampire
22-08-2008, 10:31
no scusate non ho aggiornato la firma io ho un termaltake troughpower da 750w

con la 8800 gtx non mi ha mai dato problemi. mi sparo tra poco
vi prego datemi qualche dritta
forse ho sbagliato nel cablare l'alimentazione della scheda?

quindi nessun problema di ali...i 2 cavi supplemetari li hai messi alla vga o messi bene?...la skeda e' fissata bene nello slot pci?i driver sono installati bene?

robertoldo77
22-08-2008, 10:44
quindi nessun problema di ali...i 2 cavi supplemetari li hai messi alla vga o messi bene?...la skeda e' fissata bene nello slot pci?i driver sono installati bene?
si su quello da 8 pin ho messo 2 da 6 pin, infatti ho provato a toglierne 1 e nemmeno parte il comp.

la scheda è fissata bene tolta e rimessa. i driver ne ho provati una cifra. ma cosa può essere?

ora sto installando crysis e vedo un attimo

i punteggi del 3dmark vantage sono molto strani vero?

la scheda l'ho presa usata su questo forum da un ragazzo.

Marscorpion
22-08-2008, 10:52
si su quello da 8 pin ho messo 2 da 6 pin, infatti ho provato a toglierne 1 e nemmeno parte il comp.

la scheda è fissata bene tolta e rimessa. i driver ne ho provati una cifra. ma cosa può essere?

ora sto installando crysis e vedo un attimo

i punteggi del 3dmark vantage sono molto strani vero?

la scheda l'ho presa usata su questo forum da un ragazzo.

edit

DarkVampire
22-08-2008, 10:54
roberto..ki era l'utente?..hai visot il suo storico di messaggi?...fatti rimborsare e rimandagliela dietro

robertoldo77
22-08-2008, 11:00
Ciao, mi sa che la tua scheda è da mandare in RMA! Il ragazzo che te l'ha venduta lamentava gli stessi problemi che hai tu ora.L'ha venduta propio per quel motivo.Immagino che non ti abbia detto del problema :muro: . Mai comprare qualcosa dal mercatino senza fare una ricerca con la funzione cerca.
Guarda qualche post + indietro e vedrai tu stesso! ;)

non ci credo no nè possibile ora faccio una ricerca.
l'utente è AXIA
grazie mille della info

Marscorpion
22-08-2008, 11:09
non ci credo no nè possibile ora faccio una ricerca.
l'utente è AXIA
grazie mille della info

Se l'utente è AXIA ritiro quello che ho detto e mi scuso con l'utente.
Pensavo l'avessi acquistata da un altro utente, perchè ho visto il tuo nick in coda nel suo thread di vendita.

robertoldo77
22-08-2008, 11:09
ragazzi ho fatto una ricerca ma non ho trovato nulla....

ora cmq lo dico subito ad AXIA se fosse cosi, sarebbe stato molto scorretto e mi imbufalirei da morire

sagge90
22-08-2008, 11:54
A quando il refresh a 55nm della gtx280? dite che ne vale la pena aspettare ad acquistarla?

al135
22-08-2008, 12:02
A quando il refresh a 55nm della gtx280? dite che ne vale la pena aspettare ad acquistarla?

ma hai un 19 pollici di monitor?
se si ti straavanza la tua che è di tutto rispetto ;)

sagge90
22-08-2008, 12:06
Sisi per ora ho un 19", ma con l'eventuale aggiornamento passo o a 22" o a 24" in base alle disponibilità economiche..:rolleyes: E sul refresh che mi dici?

eXeS
22-08-2008, 13:16
Sisi per ora ho un 19", ma con l'eventuale aggiornamento passo o a 22" o a 24" in base alle disponibilità economiche..:rolleyes: E sul refresh che mi dici?
Su fudzilla è uscita recentemente una news che parla di Q4 2008, ovvero 4.o trimestre quindi, non prima della fine di settembre :)

sagge90
22-08-2008, 13:19
Su fudzilla è uscita recentemente una news che parla di Q4 2008, ovvero 4.o trimestre quindi, non prima della fine di settembre :)

Ok grazie mille per l'informazione!:) Secondo voi che la possedete, cosa mi conviene fare?

robertoldo77
22-08-2008, 13:21
scusate ancora il disturbo.
ma io che ho la 680i sli come scheda madre. che driver nforceware devo metterci? ho provato a metterci quelli che avevo prima ( quando usavo la 8800gtx ) ma ora che ho installato sta maledetta gtx280, mi dice che non ho l'hardware che mi supporta i 15.08

uso il vista 64
ho appena formattato e quando vado a fare la ricerca dei driver forceware per la mia scheda madre. il sito mi dice che io ho già l'ultima versione aggiornata installata sul pc.
tutto questo casino dopo aver installato la gtx280 che non ne vuole sapere di andare come dovrebbe andare. si spegne il comp dopo 4 minuti che ci gioco. mi da le frequenze sfalzate 300 Mhz di core 100 Mhz di Shader 100 Mhz di memoria.
ho pensato che sia tutto dovuto dal fatto che non mi fa installare i driver nforce per la mia scheda madre

butto via tutto tra poco

robertoldo77
22-08-2008, 13:43
ragazzi ce l'ho fatta a rimettere i benedetti driver per la scheda madre nforce 15.17 per la mia 680i sli . forse era questo il motivo di tuti i problemi?
tra poco scoprirò l'arcano

al135
22-08-2008, 13:49
Ok grazie mille per l'informazione!:) Secondo voi che la possedete, cosa mi conviene fare?

intanto aspettare inizi ottobre. il tempo che esca il refresh e vedere come se la batte con le altre concorrenti (con conseguente calo dei prezzi).
caleranno forse un po anche i monitor , magari riesci a farti un buon 24.
in entrambi i casi (22 o 24) dovrai aspettare primi di ottobre se vuoi fare un acquisto piu mirato. ;)

al135
22-08-2008, 13:51
ragazzi ce l'ho fatta a rimettere i benedetti driver per la scheda madre nforce 15.17 per la mia 680i sli . forse era questo il motivo di tuti i problemi?
tra poco scoprirò l'arcano

facci sapere... potrebbe entrarci qualcosa anche se è molto strano

robertoldo77
22-08-2008, 14:26
facci sapere... potrebbe entrarci qualcosa anche se è molto strano

purtoppo nulla da fare. si blocca sempre dopo 4 minuti circa e i giochi scattano da morire.

da impostazione sul rivatuner mi mette le frequenze di fabbrica ma se vado a vedere sul monitor di riva tuner ecco qua cosa si ha:

Core Mhz 300
Shader Mhz 100
Memory Mhz 100

ho provato a rimettere la mia 8800 gtx e tutto scorre liscio, frequenze a posto, non si spegne e tutto regolare anche di frames

a stò punto mi conviene radare indietro la scheda.
ho tutte le ragioni per farlo voi che ne dite?

NOOB4EVER
22-08-2008, 14:32
purtoppo nulla da fare. si blocca sempre dopo 4 minuti circa e i giochi scattano da morire.

da impostazione sul rivatuner mi mette le frequenze di fabbrica ma se vado a vedere sul monitor di riva tuner ecco qua cosa si ha:

Core Mhz 300
Shader Mhz 100
Memory Mhz 100

ho provato a rimettere la mia 8800 gtx e tutto scorre liscio, frequenze a posto, non si spegne e tutto regolare anche di frames

a stò punto mi conviene radare indietro la scheda.
ho tutte le ragioni per farlo voi che ne dite?

prova ad effettuare un flash del bios con uno con frequenze simili magari di xfx o di evga ,potresti risolvere....fammi sapere :)

eXeS
22-08-2008, 14:33
scusate ancora il disturbo.
tutto questo casino dopo aver installato la gtx280 che non ne vuole sapere di andare come dovrebbe andare. si spegne il comp dopo 4 minuti che ci gioco.

Questo è sintomo di qualcosa che non va, e anche se il tuo alimentatore dovrebbe essere all'altezza sembra proprio un problema imputabile ad esso, che non riuscendo ad erogare quanto richiesto va in protezione
Quante linee ha 12V, e che amperaggi eroga su queste linee ? Ha sia il pci-e 8pin e 6pin oppure hai usato gli adattatori ?

mi da le frequenze sfalzate 300 Mhz di core 100 Mhz di Shader 100 Mhz di memoria.

Questo è normale, la 280 a differenza della 8800 ha un sistema di riduzione delle frequenze di clock in 2D per ridurre i consumi

Diobrando_21
22-08-2008, 14:41
come in che senso??? eppure mi sembra chiaro.. :confused:

no dicevo in che senso perché sembrava che non le supportava e non le avrebbe mai supportate...infatti mi sembrava strano perché con i driver aggiornati il problema non sussiste, grazie

robertoldo77
22-08-2008, 15:08
[QUOTE=eXeS;23772615]Questo è sintomo di qualcosa che non va, e anche se il tuo alimentatore dovrebbe essere all'altezza sembra proprio un problema imputabile ad esso, che non riuscendo ad erogare quanto richiesto va in protezione
Quante linee ha 12V, e che amperaggi eroga su queste linee ? Ha sia il pci-e 8pin e 6pin oppure hai usato gli adattatori ?


ecco il link del mio aliomentatore
http://www.thermaltake.com/product/Power/ToughPower/W0116/w0116.asp


io uso gli adattatori che da 2 (6 pin ) me ne fa 1 da 8 pin.

ma come può esserew che non sia ingrado di alimentare la gtx280
se la 8800gtx funziona alla perfezione?:muro:

poi il led della gtx280 è di colore verde quindi indica una buona alimentazione. ho provato a mettere solo un pin da 6 e infatti non mi partiva.con tanto di led rosso.
vi prego aiutatemi

eXeS
22-08-2008, 15:16
ecco il link del mio aliomentatore
http://www.thermaltake.com/product/Power/ToughPower/W0116/w0116.asp

Sei abbondatemente al di sopra dei requisiti minimi :)


io uso gli adattatori che da 2 (6 pin ) me ne fa 1 da 8 pin.

Ok, e per l'altro da 6 pin hai usato l'adattatore 2 molex -> 6pin, o proviene direttamente dall'ali ?

robertoldo77
22-08-2008, 15:20
Sei abbondatemente al di sopra dei requisiti minimi :)


Ok, e per l'altro da 6 pin hai usato l'adattatore 2 molex -> 6pin, o proviene direttamente dall'ali ?

uno proviene direttamente dall'ali e per l'altro da 8 pin ho usato i 2 pci-x da 6 pin

ho pensato anche al fatto di aggiornare il bios della mia asus p5n32-e sli
o anche come mi ha consigliato NOOB4EVER di flashare il bios della scheda video. ma non so la procedura

cmq vi ringrazio tanto per la cortesia

eXeS
22-08-2008, 15:40
uno proviene direttamente dall'ali e per l'altro da 8 pin ho usato i 2 pci-x da 6 pin

ho pensato anche al fatto di aggiornare il bios della mia asus p5n32-e sli
o anche come mi ha consigliato NOOB4EVER di flashare il bios della scheda video. ma non so la procedura

cmq vi ringrazio tanto per la cortesia
Ho guardato i tuoi punteggi del vantage e sono effettivamente bassini, prova a fare così

Scaricati questo
http://www.ozone3d.net/benchmarks/fur/

Eseguilo in modalità finestra per 2/3 minuti con RivaTuner avviato, e posta le frequenze GPU/SHADER/MEM che leggi nei grafici di rivatuner, e la temperatura massima raggiunta.

Marscorpion
22-08-2008, 15:44
uno proviene direttamente dall'ali e per l'altro da 8 pin ho usato i 2 pci-x da 6 pin

ho pensato anche al fatto di aggiornare il bios della mia asus p5n32-e sli
o anche come mi ha consigliato NOOB4EVER di flashare il bios della scheda video. ma non so la procedura

cmq vi ringrazio tanto per la cortesia

La prova del nove per vedere se è effettivamente la scheda, è provarla su un altro pc! Non hai un amico che possa provartela?
Le temperature come sono?
Se hai intenzione di mandarla in RMA ti consiglio di non flashare il bios!

sagge90
22-08-2008, 15:59
intanto aspettare inizi ottobre. il tempo che esca il refresh e vedere come se la batte con le altre concorrenti (con conseguente calo dei prezzi).
caleranno forse un po anche i monitor , magari riesci a farti un buon 24.
in entrambi i casi (22 o 24) dovrai aspettare primi di ottobre se vuoi fare un acquisto piu mirato. ;)

Ottimo, ok! Spero di riuscire ad aspettare :p senò mi faccio la versione che tutti voi avete e non se ne parla più!

robertoldo77
22-08-2008, 16:14
La prova del nove per vedere se è effettivamente la scheda, è provarla su un altro pc! Non hai un amico che possa provartela?
Le temperature come sono?
Se hai intenzione di mandarla in RMA ti consiglio di non flashare il bios!

hai ragione ora cercherò un altro comp. per provarla
le temperature sono basse in quanto tiene le frequenze di una ati rage:cry:

robertoldo77
22-08-2008, 16:49
ecco questo è quello che mi accade. ho riformattato.
http://img159.imageshack.us/img159/4769/immaginecz0.th.jpg (http://img159.imageshack.us/my.php?image=immaginecz0.jpg)

le frequenze di fabbrica rimangono solo per alcuni secondi poi vanno a calarsi come da foto
fatto tutto
messo gli ultimissimi driver.
cmq davvero sembra un problema di alimentazione :cry:
mi scuso se ho intasato il forum

Marscorpion
22-08-2008, 16:59
hai ragione ora cercherò un altro comp. per provarla
le temperature sono basse in quanto tiene le frequenze di una ati rage:cry:

Devi guardare le temperature che raggiunge prima di calare di frequenza. E' probabile che la scheda vada in protezione perchè raggiunge temperature troppo alte! E' un'ipotesi remota ma che è già capitata.
Si comunque a prima vista sembra o un difetto di fabbrica della scheda o un problema di alimentazione.Non sei il primo a cui capita una cosa del genere comunque. Prova a scrivere un'email all'assistenza della casa produttrice della vga e senti che ti rispondono.

robertoldo77
22-08-2008, 17:17
Devi guardare le temperature che raggiunge prima di calare di frequenza. E' probabile che la scheda vada in protezione perchè raggiunge temperature troppo alte! E' un'ipotesi remota ma che è già capitata.
Si comunque a prima vista sembra o un difetto di fabbrica della scheda o un problema di alimentazione.Non sei il primo a cui capita una cosa del genere comunque. Prova a scrivere un'email all'assistenza della casa produttrice della vga e senti che ti rispondono.

faccio prima a ridarla indietro al venditore di questo forum.
le temperature sono basse anche con le frequenze normali.

io vi ringrazio infinitamente per la pazienza.
ho pensato anche ad aggiornare il bios dela mia scheda ma forse non c'entra una bresaola

al135
22-08-2008, 17:23
faccio prima a ridarla indietro al venditore di questo forum.
le temperature sono basse anche con le frequenze normali.

io vi ringrazio infinitamente per la pazienza.
ho pensato anche ad aggiornare il bios dela mia scheda ma forse non c'entra una bresaola

forse non centra ma l'hai usato un adattatore 6>>8 pin per la seconda alimentazione?

Marscorpion
22-08-2008, 17:29
faccio prima a ridarla indietro al venditore di questo forum.
le temperature sono basse anche con le frequenze normali.

io vi ringrazio infinitamente per la pazienza.
ho pensato anche ad aggiornare il bios dela mia scheda ma forse non c'entra una bresaola

Se al venditore funzionava perfettamente non è tenuto a riprenderla indietro e ridarti i soldi.Provala su un altro pc se riesci.
Tra l'altro l'evga ha un'assistenza ottima te la cambiano al volo dovesse essere difettosa!

al135
22-08-2008, 17:30
Se al venditore funzionava perfettamente non è tenuto a riprenderla indietro e ridarti i soldi.Provala su un altro pc se riesci.
Tra l'altro l'evga ha un'assistenza ottima te la cambiano al volo dovesse essere difettosa!

quoto, provala su un altro pc e poi semmai fattela cambiare alla fine son veloci :D

eXeS
22-08-2008, 17:53
ecco questo è quello che mi accade. ho riformattato.
http://img159.imageshack.us/img159/4769/immaginecz0.th.jpg (http://img159.imageshack.us/my.php?image=immaginecz0.jpg)

le frequenze di fabbrica rimangono solo per alcuni secondi poi vanno a calarsi come da foto
fatto tutto
messo gli ultimissimi driver.
cmq davvero sembra un problema di alimentazione :cry:
mi scuso se ho intasato il forum

Cavolo ma è normalissimo che dopo qualche secondo si abbassino le frequenze te l'ho già detto qualche post sopra, le frequenze si alzano e abbassano quando lo decidono i driver indipendente da come le imposti in Performance 3d.

Mi provi a fare un print-screen della scheda Fan di RivaTuner senza toccare niente ?

Marscorpion
22-08-2008, 17:58
Cavolo ma è normalissimo che dopo qualche secondo si abbassino le frequenze te l'ho già detto qualche post sopra, le frequenze si alzano e abbassano quando lo decidono i driver indipendente da come le imposti in Performance 3d.

Mi provi a fare un print-screen della scheda Fan di RivaTuner senza toccare niente ?

Beh allora basterebbe fare un 3dMark e vedere se durante il test le frequenze si abbassano oppure no! Prova.

eXeS
22-08-2008, 18:10
Beh allora basterebbe fare un 3dMark e vedere se durante il test le frequenze si abbassano oppure no! Prova.
Infatti, anche se mi interessa il print-screen della sched Fan perchè a me è successo più di una volta usando rivatuner per occare questa scheda, di trovarmi la regolazione della vendola su Direct-Control al 40%.

Al 40% è quasi matematico che dopo 5 minuti di gioco la scheda vada in over-heating, il bios se ne accorge, ti abbassa il clock e il gioco inizia a stutterare :)

robertoldo77
22-08-2008, 18:17
forse non centra ma l'hai usato un adattatore 6>>8 pin per la seconda alimentazione?

per la seconda alimentazione mi ci vogliono 2 da 6 pin per farne uno da 8

http://img112.imageshack.us/img112/1678/220820081454li6.th.jpg (http://img112.imageshack.us/my.php?image=220820081454li6.jpg)

cmq eXeS scusami è vero ho provato a usare il mediaplayer per vedere se aumentavano le frequenze e infatti è stato cosi. solo che ecco il dramma

arriva subito a 85 gradi e ci si ferma ecco perchè quando uso il 3dmark vantage dopo nemmeno 1 minuto si blocca tutto

http://img145.imageshack.us/img145/9206/immagineyn5.th.jpg (http://img145.imageshack.us/my.php?image=immagineyn5.jpg)
quindi è un problema di surriscaldamento?

eXeS
22-08-2008, 18:33
per la seconda alimentazione mi ci vogliono 2 da 6 pin per farne uno da 8

http://img112.imageshack.us/img112/1678/220820081454li6.th.jpg (http://img112.imageshack.us/my.php?image=220820081454li6.jpg)

cmq eXeS scusami è vero ho provato a usare il mediaplayer per vedere se aumentavano le frequenze e infatti è stato cosi. solo che ecco il dramma

arriva subito a 85 gradi e ci si ferma ecco perchè quando uso il 3dmark vantage dopo nemmeno 1 minuto si blocca tutto
quindi è un problema di surriscaldamento?

Probabilmene si, e potrebbe derivare dal fatto che per qualche ragione:
1) la ventola non gira
2) la velocità di rotazione è costante
3) la scheda soffre di un problema di sovra-riscaldamento, quindi dev'essere sostituita.

A mio avviso l'ipotesi più probabile è la seconda, verifica con RivaTuner scheda Fan che non sia abilitata l'opzione Direct-Control, se è abilitato il problema è questo.

RivaTuner dovrebbe anche consentirti di visualizzare il grafico che mostra la velocità di rotazione della ventola in percentuale, mentre benchi com'è l'andamento, crescente o costante ? :)

robertoldo77
22-08-2008, 18:45
Probabilmene si, e potrebbe derivare dal fatto che per qualche ragione:
1) la ventola non gira
2) la velocità di rotazione è costante
3) la scheda soffre di un problema di sovra-riscaldamento, quindi dev'essere sostituita.

A mio avviso l'ipotesi più probabile è la seconda, verifica con RivaTuner scheda Fan che non sia abilitata l'opzione Direct-Control, se è abilitato il problema è questo.

RivaTuner dovrebbe anche consentirti di visualizzare il grafico che mostra la velocità di rotazione della ventola in percentuale, mentre benchi com'è l'andamento, crescente o costante ? :)

no l'ho posizionata su autocontrol e cmq sento che appena avvio il 3dmark vantage inizia subito ad aumentare la ventola, arriva al max 100% e poi dopo pochi secondi si blocca il comp.

cmq prima ti ho postato uno screen del fan di rivatuner

misa che mi conviene mandarla in garanzia solo che nel pacco non c'è nessuna garanzia sento subito il venditore.
non ho parole davvero

robertoldo77
22-08-2008, 18:48
http://img362.imageshack.us/img362/572/immaginekk7.th.jpg (http://img362.imageshack.us/my.php?image=immaginekk7.jpg)
ecco un'altro sceen per far vedere come lavora in automatico il livello di percentuale della fan mentre la temperatura del core è a 85 gradi:muro:

eXeS
22-08-2008, 18:55
no l'ho posizionata su autocontrol e cmq sento che appena avvio il 3dmark vantage inizia subito ad aumentare la ventola, arriva al max 100% e poi dopo pochi secondi si blocca il comp.

cmq prima ti ho postato uno screen del fan di rivatuner

misa che mi conviene mandarla in garanzia solo che nel pacco non c'è nessuna garanzia sento subito il venditore.
non ho parole davvero

Aspetta...
82 gradi sono assolutamente nella norma, prova a fare così:
1) Togli la spunta da Apply fan settings... quello ti blocca la ventola al 61%
2) Togli l'opzione Enable Hardware Overclocking e verifica che la ventola sia ancora in Auto-Control
3) Disinstalla RivaTuner
4) Riavvia e prova fare un 3dmark

eXeS
22-08-2008, 18:57
http://img362.imageshack.us/img362/572/immaginekk7.th.jpg (http://img362.imageshack.us/my.php?image=immaginekk7.jpg)
ecco un'altro sceen per far vedere come lavora in automatico il livello di percentuale della fan mentre la temperatura del core è a 85 gradi:muro:
85° non sono un'esagerazione, il bios riduce le frequenze quando la temperatura arriva a 105° :)

robertoldo77
22-08-2008, 19:07
Aspetta...
82 gradi sono assolutamente nella norma, prova a fare così:
1) Togli la spunta da Apply fan settings... quello ti blocca la ventola al 61%
2) Togli l'opzione Enable Hardware Overclocking e verifica che la ventola sia ancora in Auto-Control
3) Disinstalla RivaTuner
4) Riavvia e prova fare un 3dmark

tutto fatto ma con scarsi risultati purtroppo. :eek:
ma veramente può arrivare a 105° e solo in quel momento si abbassano le frequenze? allora non so proprio cosa succeda

eXeS
22-08-2008, 19:11
tutto fatto ma con scarsi risultati purtroppo. :eek:
Scarsi in che senso, ti si è impallato il PC, al Vantage fai meno di quello che ti aspetterestì ?

robertoldo77
22-08-2008, 19:19
Scarsi in che senso, ti si è impallato il PC, al Vantage fai meno di quello che ti aspetterestì ?

Allora mi parte il primo test mi scatta abbondantemente tipo 14 frames per poi arrivare a meno di 1 minuto di test che già tutto si è impallato