View Full Version : NVIDIA: ridimensionate le stime per il secondo trimestre
Redazione di Hardware Upg
04-07-2008, 13:00
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-ridimensionate-le-stime-per-il-secondo-trimestre_25869.html
Scarsa ricettività del mercato, ritardi sull'uscita di alcuni nuovi prodotti e chip difettosi fanno precipitare il titolo della società californiana in borsa
Click sul link per visualizzare la notizia.
Willy_Pinguino
04-07-2008, 13:07
che c'entri qualche cosa con i problemi degli HP Pavillion - COME IL MIO!!!! -
strano però che -almeno a me - i problemi siano spuntati con l'aggiornamento al sp1 di vista... boh...
magari lego fatti tra loro indipendenti, ma la 7600 go che c'è sul mio HP mi ha fatto penare parecchio e scalda più del processore...
boh... vedremo... tanto alla hp il pc lo mando la prossima settimana e tanti saluti... me lo restituiranno formattato e diranno che non aveva nulla di sbagliato...
prima negare, e poi ancora negare!
che c'entri qualche cosa con i problemi degli HP Pavillion - COME IL MIO!!!! -
strano però che -almeno a me - i problemi siano spuntati con l'aggiornamento al sp1 di vista... boh...
magari lego fatti tra loro indipendenti, ma la 7600 go che c'è sul mio HP mi ha fatto penare parecchio e scalda più del processore...
boh... vedremo... tanto alla hp il pc lo mando la prossima settimana e tanti saluti... me lo restituiranno formattato e diranno che non aveva nulla di sbagliato...
prima negare, e poi ancora negare!
Credo che i problemi si chiamino ATI 4850-4870 :D
marchigiano
04-07-2008, 13:19
ora ci tocca comprare nvidia sennò fallisce e ati vende le 4870 a 600 euro... be io una gtx280 55nm a 250 euro me la farei :D
Credo che i problemi si chiamino ATI 4850-4870 :D
non credo...mi sa che i problemi sono ben altri come dice la news...la concorrenza di 4850 e 4870 sul fatturato nvidia credo si farà vedere nel lungo periodo, non ora che sono uscite da 5 giorni...anche se sarà inevitabile! :p
BlueKnight
04-07-2008, 13:21
No no, a quanto pare il problema più serio sono le GPU Mobile difettose vendute e prodotte, quasi al limite della truffa, visto che i problemi erano ben noti.. e adesso faranno sicuramente la fine di Microsoft che ha dovuto stanziare una barca di soldi per la garanzia dei prodotti tornati guasti.. per non parlare della discesa a picco del titolo in borsa che ha generato questa "furbata".
Ovvio che poi una piccola parte è da imputare anche all'arrivo della serie HD 4xxx, che oltre ad abbassare le vendite di nVidia porterà a un calo dei profitti perchè come è noto dalle news di ieri, nVidia ha abbassato ulteriormente il costo dei chip verso i produttori di schede video.
http://www.techpowerup.com/64683/NVIDIA_Admits_to_Selling_Faulty_Mobile_GPUs_Could_Cost_it_up_to_$200_M.html
.:Moro21:.
04-07-2008, 13:23
che dire.. complimenti a chi credeva nella ripresa di amd/ati giocando in borsa su loro... e un "tranquilli che nvidia si riprende" a chi ha giocato su nvidia..
bLaCkMeTaL
04-07-2008, 13:26
Se nvidia ha stimato di fatturare 1,1 miliardi di dollari e poi un problema gli porta via una somma compresa tra i 150 e i 200 milioni di dollari, allora si che son cazzi..
Jammed_Death
04-07-2008, 13:36
sono contento, finalmente un po di sana concorrenza e prezzi che scendono...spero che ora riducano anche un po i modelli, ogni volta che devo ordinare una vga impazzisco :stordita:
gianni1879
04-07-2008, 13:49
sentire che un'azienda va male, qualunque sia, non è una bella notizia.
ninja750
04-07-2008, 13:49
oltre ad abbassare le vendite di nVidia porterà a un calo dei profitti perchè come è noto dalle news di ieri, nVidia ha abbassato ulteriormente il costo dei chip verso i produttori di schede video.
sempre peggio quindi
sentire che un'azienda va male, qualunque sia, non è una bella notizia.
quoto...
la difettosità di alcuni chip della precedente generazione per notebook
Oh si anche i chipset di schede madri per desktop, ma fino a che si usa una CPu Intel non c'è problemail chipset nVidia è sempre una seconda scelta.
In effetti il problema dei difetti sui chip per portatili è intervenuto in un momento che non è dei migliori, riporto qualcosa dal sito di Forbes che è un po' di più analitico:
Several analysts pointed to Nvidia's recent problems with inventory and execution as contributing most significantly to Nvidia's sluggish quarter.
"While macro demand-related softness is likely having some negative affect on overall desktop PC demand, the large magnitude of Nvidia's shortfall appears to be company-related. Specific to Nvidia, incremental competition from Advanced Micro Devices has triggered an aggressive pricing environment which will put downward pressure on overall average sales prices. Graphic processing unit inventories also appear bloated while multichip package launches have been delayed," analysts at Caris and Company said in a Thursday research note. The lowered its price target to $13 from $24 and warned that product issues and pricing pressure could linger.
Separately, the company also announced that second-quarter sales would be hurt by a charge of $150.0 million to $200.0 million to cover expected warranty, repair, return and replacement costs arising from defective chip products shipped into notebook computers.
President Jen-Hsun Huang said the failure appeared to be caused by overheating as a result of interactions between the chip material set and system design.
IMHO ci sarà un probabile rilivellamento del mercato, ma escludo a priori problemi di fallimento per NVIDIA (salvo immense castronerie gestionali)
killer978
04-07-2008, 14:05
Nvidia non può abbassare + di tanto i prezzi delle sue VGA Top, tipo 250€ come qualcuno auspica, vorrei ricordarvi che ogni Die di GT200 gli costa 120$ ed hanno una bassa resa x wafer, calcolate che a questa cifra gli vanno aggiunti 1Gb di GDDR3 il PCB e tutto il resto, alla fine non possono vendere sotto costo!!!
ATI con RV770 farà cassa pur vendendo a poco prezzo, si parla di 10/15$ a chip :asd: senza contare che hanno una resa superiore al 80/90% , questo gli analisti lo sanno e basta poco x far crollare il titolo
scarsa ricettività del mercato oppure utenti più attenti al portafoglio e un pò incazzati per essere stati presi per il culo e aver pagato tanti euro in più per le gpu in sovraprezzo?
mistero
sentire che un'azienda va male, qualunque sia, non è una bella notizia.
e non è neanche utile. chi prova gioia quando sente queste notizie ha la dimostrazione di essere un funboy perchè in un duopolio se viene a meno un competitor viene a meno la competizione e una 4850 a 135€ col cavolo che la trovi poi.
Dragon2002
04-07-2008, 14:23
Se non è fallita Amd-Ati fallira Nvidia perché avra un piccolo calo delle vendite del 10-15% perché a questo giro le Ati sono meglio.
Cioè sono 3 anni che non hanno speso un'euro in ricerca e sviluppo.
Ci propinano sempre la solita 8800gtx a volte potenziata a volte depotenziata.
Ma sempre quella è.
Un po come Ati quando indovino R300 ci tiro avanti 3 anni.
Invece Ati dal flop della Hd2900xt ha cambiato radicalmente l'architettura della sua scheda video,sia come processo produttivo che per il resto.
Abbasseranno un po i prezzi per limitare i danni e si rifaranno sotto con la prossima generazione.
Io non vedo tutto questo allarmismo per NVIDIA. ATI ora è concorrenziale e NVIDIA dovrà darsi da fare, sfornando prodotti migliori a prezzi migliori. Tutto questo io la chiamo sana concorrenza e di questi tempi un po' di respiro al nostro protafoglio ci vuole.
Putroppo come accade spesso si passa dall'analizzare delle pure statistiche di mercato, al rinfacciare alla controparte che sta per rischiare il crollo economico, e che quindi non siamo stati gli unici a temere il peggio (Ovviamente come se Ati o Nvidia fossimo noi o fosse di nostra proprietà) chissa magari un giorno se ci sara la squadra di calcio "Nvidia" o "Ati" magari questo genere di tifo lo accetterò!
Il punto nevralgico del discorso per chi non lo avesse notato è un altro o come qualcuno magari stava quasi per toccare è semplicemente uno: "noi paghiamo barche di soldi per Chipset all'ultimo grido con potenzialità che vengono rappresentate al limite dell'immaginazione, e poi sentiamo che per l'uso di materiali scadenti ci rifilano roba che non regge nemmeno un uso giornaliero in un notebook per via delle temp! Cioè ma qui stiamo davvero scherzando... Non s tratta di chi è piu forte ma di cosa ci stanno causando, propongo modelli su modelli, degradano e fanno crollare di valore i nostri prodotti da loro acquistati con tempistiche 10 volte superiori al passato, le tecnologie cambiano solo se decise da grandi compagnie, e dopo centinaia di euro ci danno un die che scalda troppo perché economico e magari danno al bimbo cinese che mette su l'adesivo con il marchio del produttore 5 dollari al mese! Ma che vadano a quel paese... fosse x me darei vita ad uno sciopero e poi vediamo se fanno tutte ste cazzate!
OVVIAMENTE Imho... Saluti
Invece Ati dal flop della Hd2900xt ha cambiato radicalmente l'architettura della sua scheda video,sia come processo produttivo che per il resto.
cambiato radicalmente architettura?
forse dovresti dare un'occhiata agli schemi di r600 e a quelli di rv770... l'architettura è identica...
yossarian
04-07-2008, 15:14
cambiato radicalmente architettura?
forse dovresti dare un'occhiata agli schemi di r600 e a quelli di rv770... l'architettura è identica...
proprio identica non direi
metallus84
04-07-2008, 15:16
Come per la Sony del discorso delle batterie che esplodevano.... sono sicuramente danni economici da non sottovalutare ma queste sono multinazionali che fatturano più di uno stato..più che altro va a favore psicologico dei concorrenti come amd/ati che possono pensare di rosicchiare terreno perduto in questi anni :)
proprio identica non direi
:eek:
:inchino:
be dai, concedimi il molto simile :D
JohnPetrucci
04-07-2008, 15:45
Davvero un brutto periodo per Nvidia, sembrano arrivarlgli addosso macigni da tutte le parti, sia dalla concorrenza che sul fronte dei problemi di alcuni suoi prodotti per notebook.....
Auguro buona fortuna a questa azienda......:mbe:
leoneazzurro
04-07-2008, 16:10
Nvidia non può abbassare + di tanto i prezzi delle sue VGA Top, tipo 250€ come qualcuno auspica, vorrei ricordarvi che ogni Die di GT200 gli costa 120$ ed hanno una bassa resa x wafer, calcolate che a questa cifra gli vanno aggiunti 1Gb di GDDR3 il PCB e tutto il resto, alla fine non possono vendere sotto costo!!!
ATI con RV770 farà cassa pur vendendo a poco prezzo, si parla di 10/15$ a chip :asd: senza contare che hanno una resa superiore al 80/90% , questo gli analisti lo sanno e basta poco x far crollare il titolo
Un die di RV770 non potrebbe costare meno di 23$ per il solo die, realisticamente sarà intorno ai 35-45$ compreso test e packaging. E' vero però che un die di GT200 (compresi quelli delle GTX260) costa oltre 100$, stando ai rumors in rete (e non credo siano lontani dalla realtà, con il 100% di resa un GT200 costerebbe 50$ solo di die, ma con un chip così grande e poco fornito di ridondanza fine rispetto alla concorrenza avere rese sopra il 50% sarebbe già ottimo, il che porterebbe però il costo del die a 110$ circa comrpeso di packaging e test).
:eek:
:inchino:
be dai, concedimi il molto simile :D
Beh, è cambiato in toto il memory controller e migliorata la ripartizione dei carichi, le texture unit sono state abbastanza stravolte ed adesso sono dedicate ad un SIMD anzichè ripartite tra gli stessi sublivelli di più SIMD, le ROPs riviste e migliorate. Non c'è male come cambiamenti, direi :D
blade9722
04-07-2008, 17:03
Un die di RV770 non potrebbe costare meno di 23$ per il solo die, realisticamente sarà intorno ai 35-45$ compreso test e packaging. E' vero però che un die di GT200 (compresi quelli delle GTX260) costa oltre 100$, stando ai rumors in rete (e non credo siano lontani dalla realtà, con il 100% di resa un GT200 costerebbe 50$ solo di die, ma con un chip così grande e poco fornito di ridondanza fine rispetto alla concorrenza avere rese sopra il 50% sarebbe già ottimo, il che porterebbe però il costo del die a 110$ circa comrpeso di packaging e test).
Beh, è cambiato in toto il memory controller e migliorata la ripartizione dei carichi, le texture unit sono state abbastanza stravolte ed adesso sono dedicate ad un SIMD anzichè ripartite tra gli stessi sublivelli di più SIMD, le ROPs riviste e migliorate. Non c'è male come cambiamenti, direi :D
Se ci limitiamo ai costi variabili (escluso quindi quelli fissi come i costi di sviluppo, maschere, atrezzatura), il costo dei wafer a 12" e' sensibilmente inferiore: considera, per volumi elevati, all'incirca 3500$ a fetta, per un costo equivalente di 5$ ogni 100mm^2. Queste sono informazioni facilmente reperibili in quanto dipendono dai fornitori.
Ad essi vanno aggiunti i costi di diffusione, e testing su fetta (EWS), compresi gli ammortamenti delle macchine. Queste sono informazioni coperte dal piu' assoluto riserbo perche' indice della competivita' di una azienda, e dubito che qualcuno sia disposto a rischiare il posto di lavoro per scrivere questi dati in un sito web o in un forum.
Il valore va diviso per la resa (cioe' il 50% di resa equivale ad un raddoppio del costo di produzione).
Infine vanno aggiunti i costi di assemblaggio nonche' il costo del package stesso, e quelli per i test finali "al chiuso" (cioe' sui dispositivi assemblati nel package). A meno di problemi nella procedura di assemblaggio, assai poco comuni, la resa in questo caso (calcolata sui pezzi che avevano passato i test su fetta) e' prossima al 100%.
Se il GT200 ha un die size di 400 mm^2 e per ora una resa intorno al 50% e' probabile che attualmente costi alla casa di Santa Clara intorno ai 50$ al pezzo. Tuttavia, se la resa e' cosi' bassa nei prossimi mesi saranno impegnati ad ottimizzare il processo per aumentarla, ed e' quindi assai probabile che il costo scenda sensibilmente.
forse, una delle ragioni principali è il calo degli utenti che ad ogni cambio di serie si svenavano pur di avere qualche piccolo incremento nei videogiochi... la crisi attuale prima o poi comincerà a colpire anche il mercato informatico, e mi sebra che ATI con le nuove 4.x lo abbia capito prima di Nvidia.
leoneazzurro
04-07-2008, 17:23
Se ci limitiamo ai costi variabili (escluso quindi quelli fissi come i costi di sviluppo, maschere, atrezzatura), il costo dei wafer a 12" e' sensibilmente inferiore: considera, per volumi elevati, all'incirca 3500$ a fetta, per un costo equivalente di 5$ ogni 100mm^2. Queste sono informazioni facilmente reperibili in quanto dipendono dai fornitori.
Ad essi vanno aggiunti i costi di diffusione, e testing su fetta (EWS), compresi gli ammortamenti delle macchine. Queste sono informazioni coperte dal piu' assoluto riserbo perche' indice della competivita' di una azienda, e dubito che qualcuno sia disposto a rischiare il posto di lavoro per scrivere questi dati in un sito web o in un forum.
Il valore va diviso per la resa (cioe' il 50% di resa equivale ad un raddoppio del costo di produzione).
Infine vanno aggiunti i costi di assemblaggio nonche' il costo del package stesso, e quelli per i test finali "al chiuso" (cioe' sui dispositivi assemblati nel package). A meno di problemi nella procedura di assemblaggio, assai poco comuni, la resa in questo caso (calcolata sui pezzi che avevano passato i test su fetta) e' prossima al 100%.
Se il GT200 ha un die size di 400 mm^2 e per ora una resa intorno al 50% e' probabile che attualmente costi alla casa di Santa Clara intorno ai 50$ al pezzo. Tuttavia, se la resa e' cosi' bassa nei prossimi mesi saranno impegnati ad ottimizzare il processo per aumentarla, ed e' quindi assai probabile che il costo scenda sensibilmente.
Alcune precisazioni:
Il prezzo di un wafer, stando alle ultime stime di cui sono a conoscenza, è sui 5000$, non 3500$. Se hai link che dimostrino il contrario, puoi per piacere (sono serio) portarcene a conoscenza? Il GT200 poi ha un die size di 576 mm^2, non 400 mm^2 e ce ne sono circa 100 su un wafer, basta contarli sulle numerose foto in rete Ciò porterebbe comunque, anche volendo considerare un costo del wafer di 3500$, ad un costo per die nudo e crudo di 70$, a cui vanno aggiunti packaging e testing (che non sono gratis), e la resa del 50% era abbastanza ottimistica, comunque. Il costo di oltre 100$ per chip è venuto fuori da più parti anche da siti ritenuti in genere piuttosto affidabili (es. Dailytech). (senza contare che costi per wafer inferiori non cambierebbero di molto il discorso, dato che dove Nvidia infila 100 chip Ati ne produce 220).
Difficile parlare di costi di produzione come hanno tentato di fare su certi siti, perchè:
1) le rese di produzione reali non le conosce nessuno se non i diretti interessati. Si possono stimare in tanti modi, ma dubito che qualcuno possa tirar fuori numeri davvero realistici, se non TSMC ed Nvidia.
2) non è noto se negli accordi commerciali tra le parti, il prezzo pattuito è per wafer o per gpu prodotti. Il contratto può essere fatto in entrambi i modi.
Questo genere di accordi, per ovvi motivi, sono segreti.
Altra nota: quanto credete che possa influire sui bilanci d'Nvidia del Q2 2007 il ribasso di 90 e 30$ sulle GTX 280 e 260?
Ho provato a fare 2 calcoli.
Nel periodo migliore in assoluto, tra novembre 2006 e febbraio 2007, Nvidia ha venduto 130.000 gpu G80 al mese, quando non c'era concorrenza.
Imho, tra il 25/6, inizio vendite ed il 27/7, fine del Q2 fiscale di Nvidia, non arriveranno a 70-80000 gpu GT200, ma anche meno, visto che ora la concorrenza c'è.
Ipotizzando che siano divise equamente tra GTX280 e GTX260, si potrebbe dire che quello sconto incide sul bilancio del Q2 per scarsi 5M di $, che sono una cifra ridicola se rapportata ai 150-200M di $ di cui si parla nella news, che derivano dalla sofferenza per le gpu/mcp mobile.
Anche lo sconto sulle 9800GTX, non solo è stato già coperto nei mesi da marzo a maggio, quando veniva venduta a 300$, ma ora passa ai 55nm, hanno cambiato le memorie da Samsung ad Hynix, ed anche qui, non si conosce l'accordo tra le parti sul prezzo dei 512Mb Gddr3.
La guerra dei prezzi è appena cominciata: non so' quale dei bilanci tra Nvidia ed Amd ne soffrirà di più alla fine dell'anno.
Onestamente me ne frega poco: con la crisi che c'è, meno spendo, meglio è :D
eh si tu si che ne sai...
r600 = rv770? ma quando mai!
rv700 tra l'altro esce dalla costola di xenon, ossia dal team di r300 che non corrisponde per niente al team che ha portato avanti r520 e r600....
cavolo brutti tempi per nvidia, come ha detto qualcuno sembra quasi che i problemi si stiano presentando tutti assieme, bho si vedrà cmq imho con tutti i soldi che ha fatto da quando g80 è in commercio sarà difficile che possa fallire.....
@ mar81: ma perfavore!!! almeno prima di sparare balle crosse come una cosa informati, almeno eviti figure......
blade9722
04-07-2008, 18:15
Alcune precisazioni:
Il prezzo di un wafer, stando alle ultime stime di cui sono a conoscenza, è sui 5000$, non 3500$. Se hai link che dimostrino il contrario, puoi per piacere (sono serio) portarcene a conoscenza? Il GT200 poi ha un die size di 576 mm^2, non 400 mm^2 e ce ne sono circa 100 su un wafer, basta contarli sulle numerose foto in rete Ciò porterebbe comunque, anche volendo considerare un costo del wafer di 3500$, ad un costo per die nudo e crudo di 70$, a cui vanno aggiunti packaging e testing (che non sono gratis), e la resa del 50% era abbastanza ottimistica, comunque. Il costo di oltre 100$ per chip è venuto fuori da più parti anche da siti ritenuti in genere piuttosto affidabili (es. Dailytech). (senza contare che costi per wafer inferiori non cambierebbero di molto il discorso, dato che dove Nvidia infila 100 chip Ati ne produce 220).
Allora, per quanto riguarda il costo dei wafer, non ho nessun link a disposizione. Lavoro come progettista di silicio in una nota azienda di semiconduttori, e quello all'incirca e' il prezzo che i fornitori ci fanno dei wafer per tecnologie digitali. I fornitori sono gli stessi di altre aziende come TI e Intel, e in tutta sincerita' dubito che a noi facciano un prezzo di favore. Come ti ho anticipato, sto comunque parlando di prezzi per alti volumi.
Per quanto riguarda il 400mm^2, era un dato che ricordavo da un vecchio articolo, essendo in pausa in ufficio non mi sono preso la briga di cercarne uno aggiornato. Apprendo ora che l'area in realta' e' significativamente superiore. Il valore di die per wafer di 100, tenendo conto dei dispositivi ai bordi inutilizzabili (ignorando invece, viste le enormi dimensioni del dispositivo, la sawing street, cioe' la distanza fra die e die sul wafer, necessaria per effettuare il taglio dei singoli pezzi), e' plausibile. In effetti il valore di 5$/100mm^2 sottostima leggermente il costo per pezzo in questa situazione di un dispositivo molto ampio, dove l'area persa ai bordi ha un grosso impatto. Dopo questa correzione, il costo per die nudo e crudo sale da 20$ a 35$, che diventano 70$ ipotizzando ( e credo in tutta franchezza che oltre l'ipotesi non si possa andare) una resa iniziale del 50%.
Se ritieni che io stia violando i canoni di oggettivita' tipici di un forum, secondo cui una affermazione, qualunque essa sia, e' vera solo se e' linkabile, fammelo sapere e io in futuro evitero' altri interventi.
nickfede
04-07-2008, 18:33
Putroppo come accade spesso si passa dall'analizzare delle pure statistiche di mercato, al rinfacciare alla controparte che sta per rischiare il crollo economico, e che quindi non siamo stati gli unici a temere il peggio (Ovviamente come se Ati o Nvidia fossimo noi o fosse di nostra proprietà) chissa magari un giorno se ci sara la squadra di calcio "Nvidia" o "Ati" magari questo genere di tifo lo accetterò!
Il punto nevralgico del discorso per chi non lo avesse notato è un altro o come qualcuno magari stava quasi per toccare è semplicemente uno: "noi paghiamo barche di soldi per Chipset all'ultimo grido con potenzialità che vengono rappresentate al limite dell'immaginazione, e poi sentiamo che per l'uso di materiali scadenti ci rifilano roba che non regge nemmeno un uso giornaliero in un notebook per via delle temp! Cioè ma qui stiamo davvero scherzando... Non s tratta di chi è piu forte ma di cosa ci stanno causando, propongo modelli su modelli, degradano e fanno crollare di valore i nostri prodotti da loro acquistati con tempistiche 10 volte superiori al passato, le tecnologie cambiano solo se decise da grandi compagnie, e dopo centinaia di euro ci danno un die che scalda troppo perché economico e magari danno al bimbo cinese che mette su l'adesivo con il marchio del produttore 5 dollari al mese! Ma che vadano a quel paese... fosse x me darei vita ad uno sciopero e poi vediamo se fanno tutte ste cazzate!
OVVIAMENTE Imho... Saluti
Quindi facendo il conto ad ATI quanto gli verrebbero questi chip.....una cifra ridicola....
Sammy Jankis
04-07-2008, 18:48
Da utente AMD/ATI mi auguro di non vedere mai una situazione di monopolio nel mercato CPU/GPU, la ripresa di ATI mi ha piacevolmente sorpreso e visto da che situazione sono usciti penso che nvidia non sia in pericolo di "vita", certo che il problema delle GPU difettose non poteva presentarsi in un momento peggiore......mi associo a chi prende seriamente la crisi di un'azienda, soprattutto in questo periodo.
leoneazzurro
04-07-2008, 19:27
Allora, per quanto riguarda il costo dei wafer, non ho nessun link a disposizione. Lavoro come progettista di silicio in una nota azienda di semiconduttori, e quello all'incirca e' il prezzo che i fornitori ci fanno dei wafer per tecnologie digitali. I fornitori sono gli stessi di altre aziende come TI e Intel, e in tutta sincerita' dubito che a noi facciano un prezzo di favore. Come ti ho anticipato, sto comunque parlando di prezzi per alti volumi.
Per quanto riguarda il 400mm^2, era un dato che ricordavo da un vecchio articolo, essendo in pausa in ufficio non mi sono preso la briga di cercarne uno aggiornato. Apprendo ora che l'area in realta' e' significativamente superiore. Il valore di die per wafer di 100, tenendo conto dei dispositivi ai bordi inutilizzabili (ignorando invece, viste le enormi dimensioni del dispositivo, la sawing street, cioe' la distanza fra die e die sul wafer, necessaria per effettuare il taglio dei singoli pezzi), e' plausibile. In effetti il valore di 5$/100mm^2 sottostima leggermente il costo per pezzo in questa situazione di un dispositivo molto ampio, dove l'area persa ai bordi ha un grosso impatto. Dopo questa correzione, il costo per die nudo e crudo sale da 20$ a 35$, che diventano 70$ ipotizzando ( e credo in tutta franchezza che oltre l'ipotesi non si possa andare) una resa iniziale del 50%.
Se ritieni che io stia violando i canoni di oggettivita' tipici di un forum, secondo cui una affermazione, qualunque essa sia, e' vera solo se e' linkabile, fammelo sapere e io in futuro evitero' altri interventi.
No, non preoccuparti, non era quello il senso del mio intervento: è una mia curiosità, in quanto tutte le fonti tecniche che conosco davano per certo un valore intorno ai 5000$ al wafer. Non so però se il costo di 3500$ che mi stai è corretto in quanto al variare della scala di integrazione e del processo produttivo per il wafer finito si possono avere costi parecchio differenti. In questo casi si sta parlando di circuiti integrati di grande ampiezza con processo a 65-55 nm e strati di interconnessione multipli, e non si capisce se si parla di wafer bulk o comprensivo di tutti i processi necessari per produrre una GPU. Oltretutto la resa produttiva in questi casi è normale che sia bassa, data l'area del chip GT200 e la mancanza di strutture di ridondanza fine presenti invece in RV770. Si parla del 40% nel caso di GT200, e realisticamente non credo sia molto più alta. Sicuramente migliorerà, ma difficilmente un GT200 può competere in prezzo con 1 o anche 2 RV770.
blade9722
04-07-2008, 20:58
No, non preoccuparti, non era quello il senso del mio intervento: è una mia curiosità, in quanto tutte le fonti tecniche che conosco davano per certo un valore intorno ai 5000$ al wafer. Non so però se il costo di 3500$ che mi stai è corretto in quanto al variare della scala di integrazione e del processo produttivo per il wafer finito si possono avere costi parecchio differenti. In questo casi si sta parlando di circuiti integrati di grande ampiezza con processo a 65-55 nm e strati di interconnessione multipli, e non si capisce se si parla di wafer bulk o comprensivo di tutti i processi necessari per produrre una GPU. Oltretutto la resa produttiva in questi casi è normale che sia bassa, data l'area del chip GT200 e la mancanza di strutture di ridondanza fine presenti invece in RV770. Si parla del 40% nel caso di GT200, e realisticamente non credo sia molto più alta. Sicuramente migliorerà, ma difficilmente un GT200 può competere in prezzo con 1 o anche 2 RV770.
Ciao,
premesso che tra il valore che ti ho indicato io e il tuo non c'è un ordine di grandezza di differenza, ma una differenza di circa il 30%.
Il valore che ti ho indicato l'ho recuperato al momento dai colleghi che utilizzano tecnologie digitali. E' comprensivo dei costi di diffusione, ma di null'altro. Diciamo che è una media di tecnologie con le seguenti caratteristiche:
- cmos puramente digitali a litografia spinta
- niente SOI e niente memorie non volatili
- 5 livelli di metallizzazioni
Si tratta quindi di tecnologie con un numero limitato di step di diffusioni (non stupirti, il numero di metallizzazioni è elevato, ma esistono tecnologie miste che aggiungono anche componenti analogici come i bipolari, di potenza e ad alta tensione, e quelle hanno un numero di step maggiore).
E, la cosa è alquanto importante, mi sono limitato alle tecnologie consolidate. Per le tecnologie in sviluppo, il costo è più elevato in quanto la resa di processo è più bassa. Con resa di processo indico un fattore diverso da quella determinata dalle difettosità nel dispositivo, e che tiene in considerazione il fatto che, a causa del minore controllo sui parametri, interi lotti di diffusione falliscano. Una condizione inaccettabile una volta che il processo è maturo.
5000$ è un prezzo che ho trovato solo per le tecnologie in sviluppo, difficile credere che Nvidia, Intel, AMD, che sviluppano solo tecnologie digitali, siano meno bravi della ditta in cui lavoro ad ottimizzare i costi oppure abbiano fornitori più cari.
BlueKnight
04-07-2008, 21:28
e non è neanche utile. chi prova gioia quando sente queste notizie ha la dimostrazione di essere un funboy perchè in un duopolio se viene a meno un competitor viene a meno la competizione e una 4850 a 135€ col cavolo che la trovi poi.
Apparte per il discorso FANboy, perchè funboy vuol dire "ragazzo divertente" :D , comunque io non vedo niente di male in questa situazione, anzi.. se diminuisce il potere di una società che detiene il 70% e più del mercato è solo un bene.. perchè un vero e sano duopolio c'è quando entrambi le società detengono più o meno la stessa quota di mercato, e non 2 valori tanto distanti..
.. e poi ricordo che la storia ha sempre da insegnare, se no non la si studierebbe ancora, e le società o qualsiasi gruppo di persone è spronata a creare qualcosa di nuovo e competitivo quando si trova in un periodo di difficoltà,.. vedi la stessa Intel di 4-5 anni fa restando nel campo della tecnologia, o alla FIAT se vogliamo fare un esempio all'Italiana (a me personalmente fanno ancora cacare, però un miglioramento e una standardizzazione con gli altri gruppi c'è stato).
leoneazzurro
04-07-2008, 21:51
Ciao,
premesso che tra il valore che ti ho indicato io e il tuo non c'è un ordine di grandezza di differenza, ma una differenza di circa il 30%.
Il valore che ti ho indicato l'ho recuperato al momento dai colleghi che utilizzano tecnologie digitali. E' comprensivo dei costi di diffusione, ma di null'altro. Diciamo che è una media di tecnologie con le seguenti caratteristiche:
- cmos puramente digitali a litografia spinta
- niente SOI e niente memorie non volatili
- 5 livelli di metallizzazioni
Si tratta quindi di tecnologie con un numero limitato di step di diffusioni (non stupirti, il numero di metallizzazioni è elevato, ma esistono tecnologie miste che aggiungono anche componenti analogici come i bipolari, di potenza e ad alta tensione, e quelle hanno un numero di step maggiore).
E, la cosa è alquanto importante, mi sono limitato alle tecnologie consolidate. Per le tecnologie in sviluppo, il costo è più elevato in quanto la resa di processo è più bassa. Con resa di processo indico un fattore diverso da quella determinata dalle difettosità nel dispositivo, e che tiene in considerazione il fatto che, a causa del minore controllo sui parametri, interi lotti di diffusione falliscano. Una condizione inaccettabile una volta che il processo è maturo.
5000$ è un prezzo che ho trovato solo per le tecnologie in sviluppo, difficile credere che Nvidia, Intel, AMD, che sviluppano solo tecnologie digitali, siano meno bravi della ditta in cui lavoro ad ottimizzare i costi oppure abbiano fornitori più cari.
Dipende anche dal grado di integrazione che si vuole raggiungere: chiaramente per processi a 55 e 65 nm si richiede che tutta la filiera del processo abbia una precisione maggiore che non, mettiamo esempio, a 250nm. E questo comporta costi per attrezzature superiori alla media (per l'apertura della FAB30 a Dresda a 65 nm AMD sembra aver speso almeno un paio di migliaia di milioni di Euro), oltre che l'utilizzo di materiali differenti dallo standard a seconda se il processo è quello "normale" o quello "high performance". E, ad ogni modo, io parlavo del wafer pronto per il taglio e packaging, ossia già processato.
Per le rese, chiaramente nessuno a parte Nvidia o ATI (e i loro fornitori) hanno i valori precisi, sta di fatto che più fonti danno per "scarse" le rese Nvidia e "molto buone" quelle ATI, arrivando anche a definire un costo abbastanza indicativo del GT200 superiore ai 100$.
yossarian
05-07-2008, 00:09
Allora, per quanto riguarda il costo dei wafer, non ho nessun link a disposizione. Lavoro come progettista di silicio in una nota azienda di semiconduttori, e quello all'incirca e' il prezzo che i fornitori ci fanno dei wafer per tecnologie digitali. I fornitori sono gli stessi di altre aziende come TI e Intel, e in tutta sincerita' dubito che a noi facciano un prezzo di favore. Come ti ho anticipato, sto comunque parlando di prezzi per alti volumi.
Per quanto riguarda il 400mm^2, era un dato che ricordavo da un vecchio articolo, essendo in pausa in ufficio non mi sono preso la briga di cercarne uno aggiornato. Apprendo ora che l'area in realta' e' significativamente superiore. Il valore di die per wafer di 100, tenendo conto dei dispositivi ai bordi inutilizzabili (ignorando invece, viste le enormi dimensioni del dispositivo, la sawing street, cioe' la distanza fra die e die sul wafer, necessaria per effettuare il taglio dei singoli pezzi), e' plausibile. In effetti il valore di 5$/100mm^2 sottostima leggermente il costo per pezzo in questa situazione di un dispositivo molto ampio, dove l'area persa ai bordi ha un grosso impatto. Dopo questa correzione, il costo per die nudo e crudo sale da 20$ a 35$, che diventano 70$ ipotizzando ( e credo in tutta franchezza che oltre l'ipotesi non si possa andare) una resa iniziale del 50%.
Se ritieni che io stia violando i canoni di oggettivita' tipici di un forum, secondo cui una affermazione, qualunque essa sia, e' vera solo se e' linkabile, fammelo sapere e io in futuro evitero' altri interventi.
tutto corretto; ci sono da precisare alcune cose, però: il passare da 400 a 576 mm^2 porta il costo stimato da 5$/100mm^2 a circa 7,2$/mm^2. Ipotizzando un rendimento del 40% (prendiamo per buono quello che circola online, anche perchè non è molto distante dalla verità) e considerando che su un wafer ci stanno circa 94 die (anzichè 100), il costo complessivo si aggirerebbe sui 108 $ per die, sempre tenendo per buone le caratteristiche da te elencate ovvero, niente soi o strained silicon on insulator, niente memorie non volatili, non più di 5 layer di metallizzazioni, ecc. Questo contro i circa 25$ scarsi di un RV770 (ipotizzando un rendimento del 60% complessivo per hd4850 e hd4870, e mi sto tenendo stretto, e 220 die per wafer). Aggiungi la maggior complessità di un pcb con controller a 512 bit (per la gtx280) ed ecco spiegati i costi elevati delle soluzioni con gt2x0.
yossarian
05-07-2008, 00:24
:eek:
:inchino:
be dai, concedimi il molto simile :D
te lo concederei volentieri, però alcune modifiche (anche importanti), ci sono state :D
Kharonte85
05-07-2008, 09:28
non ne sapevo nulla di questi problemi legati alle nvidia montate sui portatili...speriamo vengano risolti in fretta e che nvidia non si affossi troppo.
Secondo me Nvidia ha fatto solo un errore: dare per scontato che la gente sia disposta a cambiare scheda video ogni mese e magari comprare anche quelle che sono al top (ergo, sulle 600e)... Abbastanza irreale. Io con la mia 7800gtx ci gioco ancora senza problemi. Certo mi stò guardando intorno per qualcosa di nuovo, ma non volgio certo spendere tanto...:)
Sono dell'idea che sempre più persone non possano, e non vogliono
investire continuamente barcate di soldi in una, o l'altra marca....
Oggi come oggi sono finiti i tempi delle schede da 600 euro ogni anno....
E' subentrata la difficoltà economica in quasi tutte le nazioni del mondo, e molta gente appassionata di Hardware, a migrato, o a integrato le nuove console, rinunciando in qualcosa, ma risparmiando alla fine veramente tanto.
Dalla mia personale esperienza, ormai dopo la 8800GTX, acquistata al suo debutto, ne passeranno di anni prima di effettuare un nuovo investimento.....
I giochi, girano quasi tutti.....
...e quei pochi che non girano???... possono rimanere tranquillamente sugli scaffali.....
DX10....DX10.1......SLI.....CrossF..... penso che molti si siano anche rotti le scatole......
ditemi di queste configurazioni quante ne sono state realmente e totalmente sfruttate...... :(
Salut emboss...manuele
tutto corretto; ci sono da precisare alcune cose, però: il passare da 400 a 576 mm^2 porta il costo stimato da 5$/100mm^2 a circa 7,2$/mm^2. Ipotizzando un rendimento del 40% (prendiamo per buono quello che circola online, anche perchè non è molto distante dalla verità) e considerando che su un wafer ci stanno circa 94 die (anzichè 100), il costo complessivo si aggirerebbe sui 108 $ per die, sempre tenendo per buone le caratteristiche da te elencate ovvero, niente soi o strained silicon on insulator, niente memorie non volatili, non più di 5 layer di metallizzazioni, ecc. Questo contro i circa 25$ scarsi di un RV770 (ipotizzando un rendimento del 60% complessivo per hd4850 e hd4870, e mi sto tenendo stretto, e 220 die per wafer). Aggiungi la maggior complessità di un pcb con controller a 512 bit (per la gtx280) ed ecco spiegati i costi elevati delle soluzioni con gt2x0.
Secondo me l'analisi che avete fatto entrambi è perfetta, ma sottovalutate altri aspetti. Di per se a questo tipo di aziende, il costo della materia prima è forse quello più prevedibile e che da meno "sorprese" a fine progetto. Come avete voi stesso messo in evidenza è relativamente semplice calcolare il costo dell'hardware.
Dove veramente si distingue una buona ed efficiente azienda e nel prevedere e quantizzare il costo per la realizzazione la controparte software. Avere un team di x n. di persone (esterne o interne) che sono costrette continuamente a inseguire e correggere del software mal realizzato a parer mio ha costi nascosti ben più elevati e poco controllabili rispetto a quelli dell'hardware.
blade9722
06-07-2008, 12:58
tutto corretto; ci sono da precisare alcune cose, però: il passare da 400 a 576 mm^2 porta il costo stimato da 5$/100mm^2 a circa 7,2$/mm^2. Ipotizzando un rendimento del 40% (prendiamo per buono quello che circola online, anche perchè non è molto distante dalla verità) e considerando che su un wafer ci stanno circa 94 die (anzichè 100), il costo complessivo si aggirerebbe sui 108 $ per die, sempre tenendo per buone le caratteristiche da te elencate ovvero, niente soi o strained silicon on insulator, niente memorie non volatili, non più di 5 layer di metallizzazioni, ecc. Questo contro i circa 25$ scarsi di un RV770 (ipotizzando un rendimento del 60% complessivo per hd4850 e hd4870, e mi sto tenendo stretto, e 220 die per wafer). Aggiungi la maggior complessità di un pcb con controller a 512 bit (per la gtx280) ed ecco spiegati i costi elevati delle soluzioni con gt2x0.
Ciao,
c'è una imprecisione sul discorso 7.2 mm^2: fissato il costo della fetta, il costo per area rimane invariato. Se l'area del dispositivo aumenta, aumenta il costo per pezzo dello stesso fattore, ma il costo per area rimane invariato.
Per quanto riguarda il costo del PCB, che esula comunque dal discorso sin qui fatto in quanto si parlavo del costo della sola GPU, la maggiore complessità data dal controller a 512 bit determina un costo di sviluppo leggermente maggiore (il designer impiega più tempo a posizionare tutte le linee), ma non impatta, a meno che non sia richiesto un pitch più aggressivo, sul costo della PCB. Il maggior contributo totale al costo della applicazione è dato dai consumi del sistema: più il consumo è elevato, più componenti sono necessari per la sezione di potenza.
blade9722
06-07-2008, 13:17
Dipende anche dal grado di integrazione che si vuole raggiungere: chiaramente per processi a 55 e 65 nm si richiede che tutta la filiera del processo abbia una precisione maggiore che non, mettiamo esempio, a 250nm. E questo comporta costi per attrezzature superiori alla media (per l'apertura della FAB30 a Dresda a 65 nm AMD sembra aver speso almeno un paio di migliaia di milioni di Euro), oltre che l'utilizzo di materiali differenti dallo standard a seconda se il processo è quello "normale" o quello "high performance". E, ad ogni modo, io parlavo del wafer pronto per il taglio e packaging, ossia già processato.
Per le rese, chiaramente nessuno a parte Nvidia o ATI (e i loro fornitori) hanno i valori precisi, sta di fatto che più fonti danno per "scarse" le rese Nvidia e "molto buone" quelle ATI, arrivando anche a definire un costo abbastanza indicativo del GT200 superiore ai 100$.
La mià perplessità riguarda appunto sull'affidabilità della fonte. Come nel poker la regola base è saper nascondere le proprie carte, nelle attività industriali la regola base è nascondere il costo di produzione e sviluppo dei propri prodotti.
Per un semplice motivo: se io fossi un venditore Nvidia, e dovessi fissare le quotazioni per un cliente importante, a me farebbe assai comodo che questo cliente pensasse che ogni singolo pezzo mi costi 100$ quando in realtà mi costa 50. In questo modo, se gli proponessi un prezzo di vendita di 120$, sarebbe più propenso ad accettare, mentre se fosse al corrente del vero prezzo sarebbe portato a giocare al ribasso, confidando sul fatto che anche con 80$ avrei un buon margine.
Sul valore a cui si può quotare un prodotto senza vendere in perdita c'è talmente tanto riserbo che io non sono mai riuscito ad avere tale dettaglio (ma solo dettagli generici parziali, come il costo base della fetta a cui ho accennato) dal marketing engineer per i dispositivi che io ho sviluppato. Per questo, la mia personale opinione è che, a meno che Daily tech non abbia qualche ex spia del KGB infiltrato nelle file Nvidia, l'affidabilità di tale valore sia piuttosto approssimativa. E come conseguenza tutta la discussione sia basata non sul reale costo del GT200, ma sul costo della GPU riportato da Daily tech.
yossarian
06-07-2008, 13:29
Ciao,
c'è una imprecisione sul discorso 7.2 mm^2: fissato il costo della fetta, il costo per area rimane invariato. Se l'area del dispositivo aumenta, aumenta il costo per pezzo dello stesso fattore, ma il costo per area rimane invariato.
ciao :)
ok; resta, comunque invariata la sostanza, ovvero il costo finale (ho fatto il rapporto del costo mantenendo la misura di 400 mm^2, il che è equivalente a considerare un costo fisso con l'aumento delle dimensioni del chip)
Ciao,
Per quanto riguarda il costo del PCB, che esula comunque dal discorso sin qui fatto in quanto si parlavo del costo della sola GPU, la maggiore complessità data dal controller a 512 bit determina un costo di sviluppo leggermente maggiore (il designer impiega più tempo a posizionare tutte le linee), ma non impatta, a meno che non sia richiesto un pitch più aggressivo, sul costo della PCB. Il maggior contributo totale al costo della applicazione è dato dai consumi del sistema: più il consumo è elevato, più componenti sono necessari per la sezione di potenza.
nel costo complessivo vanno conteggiati anche i costi di ricerca e sviluppo, almeno fino a quando gli stessi non saranno ammortizzati (questo vale sia per il pcb che per la gpu). Il che significa che se un pcb complesso costa, a livello di progettazione, più di uno semplice, questo andrà ad incidere sul costo del prodotto finale. Nel momento in cui nVidia o ATi o chiunque altro, propongono un modello "reference", significa che si sono già sobbarcate i costi di sviluppo del pcb, sia per quanto riguarda le linee di trasmissione che i circuiti di alimentazione e, al momento in cui propongono un prodotto (ossia un a nuova gpu) devono rientrare anche di quei costi
yossarian
06-07-2008, 13:44
La mià perplessità riguarda appunto sull'affidabilità della fonte. Come nel poker la regola base è saper nascondere le proprie carte, nelle attività industriali la regola base è nascondere il costo di produzione e sviluppo dei propri prodotti.
Per un semplice motivo: se io fossi un venditore Nvidia, e dovessi fissare le quotazioni per un cliente importante, a me farebbe assai comodo che questo cliente pensasse che ogni singolo pezzo mi costi 100$ quando in realtà mi costa 50. In questo modo, se gli proponessi un prezzo di vendita di 120$, sarebbe più propenso ad accettare, mentre se fosse al corrente del vero prezzo sarebbe portato a giocare al ribasso, confidando sul fatto che anche con 80$ avrei un buon margine.
Sul valore a cui si può quotare un prodotto senza vendere in perdita c'è talmente tanto riserbo che io non sono mai riuscito ad avere tale dettaglio (ma solo dettagli generici parziali, come il costo base della fetta a cui ho accennato) dal marketing engineer per i dispositivi che io ho sviluppato. Per questo, la mia personale opinione è che, a meno che Daily tech non abbia qualche ex spia del KGB infiltrato nelle file Nvidia, l'affidabilità di tale valore sia piuttosto approssimativa. E come conseguenza tutta la discussione sia basata non sul reale costo del GT200, ma sul costo della GPU riportato da Daily tech.
vero, però le dimensioni dei chip e i costi dei materiali soo noti; i costi di sviluppo e le rese produttive resterebbero le uniche incognite. Per quanto riguarda le seconde ci si può fare un'idea, magari più qualitativa che quantitativa, guardando il numero di scarti delle produzioni delle gpu (più livelli di gpu "castrate" vengono proposti, più le rese sono basse); la vera incognita sarebbero, a questo punto, i costi di sviluppo. Ammettendo di non avere un'idea di questi ultimi, si può, però, fare una stima di massima fissando, grossolanamente, un range di costi che possa risultare accettabile. Inoltre, è alquanto improbabile che un eventuale partner non abbia la minima idea dei costi di sviluppo della soluzione che va ad acquistare.
Tenendo conto di tutto, una stima che pone i costi presunti di GT2x0 superiori di circa 4 volte rispetto a quelli di RV770, non solo è abbastanza verosimile, ma, IMHO, andrebbe vista al rialzo
yossarian
06-07-2008, 13:54
Secondo me l'analisi che avete fatto entrambi è perfetta, ma sottovalutate altri aspetti. Di per se a questo tipo di aziende, il costo della materia prima è forse quello più prevedibile e che da meno "sorprese" a fine progetto. Come avete voi stesso messo in evidenza è relativamente semplice calcolare il costo dell'hardware.
Dove veramente si distingue una buona ed efficiente azienda e nel prevedere e quantizzare il costo per la realizzazione la controparte software. Avere un team di x n. di persone (esterne o interne) che sono costrette continuamente a inseguire e correggere del software mal realizzato a parer mio ha costi nascosti ben più elevati e poco controllabili rispetto a quelli dell'hardware.
non so a cosa tu ti riferisca riguardo al SW mal realizzato. In realtà non esiste SW mal realizzato se parliamo di SW che esce dall'azienda che progetta anche l'HW (parlo di programmazione a basso livello dei chip o dei driver), poichè che si occupa di sviluppare quel tipo di SW conosce perfettamente l'HW su cui deve girare. Il problema può porsi con SW sviluppato da terze parti (giochi o altro) e i driver servono proprio da interfaccia tra questo e i chip che devono farlo girare. Se ci si avventura su quel terreno, però, ci sono da considerare svariati altri fattori che sfuggono a qualunque valutazione: in primo luogo gli accordi o la partnership tra produttori di HW e di SW che portano allo sviluppo di titoli basati sulle caratteristiche di un particolare tipo di HW a scapito degli altri. Poi ci sono SW male ottimizzati, qualunque sia l'architettura che si prende come riferimento. I motivi per cui i driver stanno crescendo a dismisura sono principalmente questi (nella stragrande maggiornaza dei casi si è costretti a riordinare o a riassemblare le istruzioni, in alcuni, addirittura a fare operazioni di shader replacement)
non so a cosa tu ti riferisca riguardo al SW mal realizzato. In realtà non esiste SW mal realizzato se parliamo di SW che esce dall'azienda che progetta anche l'HW (parlo di programmazione a basso livello dei chip o dei driver), poichè che si occupa di sviluppare quel tipo di SW conosce perfettamente l'HW su cui deve girare. Il problema può porsi con SW sviluppato da terze parti (giochi o altro) e i driver servono proprio da interfaccia tra questo e i chip che devono farlo girare. Se ci si avventura su quel terreno, però, ci sono da considerare svariati altri fattori che sfuggono a qualunque valutazione: in primo luogo gli accordi o la partnership tra produttori di HW e di SW che portano allo sviluppo di titoli basati sulle caratteristiche di un particolare tipo di HW a scapito degli altri. Poi ci sono SW male ottimizzati, qualunque sia l'architettura che si prende come riferimento. I motivi per cui i driver stanno crescendo a dismisura sono principalmente questi (nella stragrande maggiornaza dei casi si è costretti a riordinare o a riassemblare le istruzioni, in alcuni, addirittura a fare operazioni di shader replacement)
Lasciamo fuori accordi e partnership, quello a cui mi riferisco è solo la scrittura dei "driver". Magari fosse semplice e lineare come la metti tu. E credimi non è assolutamente scontato che dato che progettano l'hardware, allora la scrittura delle interfaccie software sia cosi semplice e lineare. Spesso sorgono problemi sia lato sistema operativo, sia dal lato hardware... e si perde taaaantooo tempo per rimettere a posto le cose. :rolleyes:
Spesso i progettisti hardware non semplificano la vita agli sviluppatori e nella maggior parte dei casi gli sviluppatori si prendono certe liberta che i progettisti nn avevano preso in considerazione.
Se a questo aggiungi che parte del lavoro viene affidato a consulenti esterni che devono interfacciarsi con il gruppo interno le cose si complicano ulteriormente.
Come giustamente dici tu è praticamente impossibile fare previsioni assolute da questo punto di vista. L'acquisto della materia prima alla fine forse è proprio uno dei fattori piu "stabili" e sicuri.
:)
blade9722
06-07-2008, 15:51
ciao :)
ok; resta, comunque invariata la sostanza, ovvero il costo finale (ho fatto il rapporto del costo mantenendo la misura di 400 mm^2, il che è equivalente a considerare un costo fisso con l'aumento delle dimensioni del chip)
nel costo complessivo vanno conteggiati anche i costi di ricerca e sviluppo, almeno fino a quando gli stessi non saranno ammortizzati (questo vale sia per il pcb che per la gpu). Il che significa che se un pcb complesso costa, a livello di progettazione, più di uno semplice, questo andrà ad incidere sul costo del prodotto finale. Nel momento in cui nVidia o ATi o chiunque altro, propongono un modello "reference", significa che si sono già sobbarcate i costi di sviluppo del pcb, sia per quanto riguarda le linee di trasmissione che i circuiti di alimentazione e, al momento in cui propongono un prodotto (ossia un a nuova gpu) devono rientrare anche di quei costi
No, direi di no, un buon professionista con i tool CAD deve, nell'ordine, effettuare le seguenti operazioni:
- Impostare le connessioni nello schematic entry (cioè nella vista che tiene conto delle connessioni fra i vari pin degli integrati, senza curarsi di come vengano effettuati).
- Ottimizzare il floorplan dei componenti, ciòè stabilire la posizione più adatta nel PCB dei componenti critici, nonchè delle net più sensibili.
- Avviare il tool di placement and routing, che si occupa del piazzamento della parte rimanente
- Estrarre, a layout finito, una netlist comprensiva degli accoppiamenti parassiti
- Verificare su tale netlist eventuali accoppiamenti indesiderati. Nell'eventualità correggere alcune net oppure affinare il floorplan e ripetere l'operazione.
In questo flusso di progetto, l'aumento di complessità dato da un bus a 512bit invece che da uno a 256bit è poco significativo, e tale di conseguenza il costo di sviluppo.
In generale, una ampiezza di bus maggiore ha come conseguenza un PCB più ampio o con più layer, e ciò può essere un problema quando, come ad esempio nei PC portatili, o nelle MB per Desktop molto accessoriate, lo spazio a disposizione costituisce un vincolo.
blade9722
06-07-2008, 16:01
vero, però le dimensioni dei chip e i costi dei materiali soo noti; i costi di sviluppo e le rese produttive resterebbero le uniche incognite. Per quanto riguarda le seconde ci si può fare un'idea, magari più qualitativa che quantitativa, guardando il numero di scarti delle produzioni delle gpu (più livelli di gpu "castrate" vengono proposti, più le rese sono basse); la vera incognita sarebbero, a questo punto, i costi di sviluppo. Ammettendo di non avere un'idea di questi ultimi, si può, però, fare una stima di massima fissando, grossolanamente, un range di costi che possa risultare accettabile. Inoltre, è alquanto improbabile che un eventuale partner non abbia la minima idea dei costi di sviluppo della soluzione che va ad acquistare.
Tenendo conto di tutto, una stima che pone i costi presunti di GT2x0 superiori di circa 4 volte rispetto a quelli di RV770, non solo è abbastanza verosimile, ma, IMHO, andrebbe vista al rialzo
Beh, se con 100$ si intende un range, a questo punto tutto si sposta su quanto accurato si pensa sia tale range.....
Per quanto riguardo il discorso secondo cui un eventuale partner dovrebbe essere a conoscenza dei costi di sviluppo, basta solo avere le idee chiare di cosa sia un rapporto di partnership. Se il cliente paga lo sviluppo del dispositivo, allora ovviamente è a conoscenza dei costi. Ma non mi sembra il caso di Nvidia, che sviluppa i propri prodotti in maniera autonoma per poi venderli agli OEM e ODM. Anche perchè se un partner copre i costi di sviluppo, è solito pretendere l'esclusiva, nessuno è disposto a finanziare prodotti che verranno venduti alla concorrenza. E non mi sembra che le schede Nvidia siano monomarca. Se invece un "cliente" ("partner" in questo caso non credo sia un termine corretto) non finanzia lo sviluppo, allora non è in nessun modo a conoscenza nè dei costi di svilupppo, nè tantomeno di quelli di produzione e distribuzione.
Ma Daily tech, a quanto pare, si......
leoneazzurro
06-07-2008, 16:21
Beh, dovremmo comunque d'accordo che un die di GT200 costi a Nvidia certo una cifra ben superiore ai 50$, per usare un eufemismo, e certo non inferiore ai 70$ esclusi i costi di packaging e testing, e che un die di RV770 costa meno di due volte quella cifra. E questo escludendo che il processo abbia più di 5 strati di metallizzazione, che non usi high-K o materiali particolari, ecc (il che invece non è detto a priori).
Poi c'è ancora un però: Nvidia paga a TSMC (per dirne uno tra i vari partner che costruiscono effettivamente la GPU) il costo di fabbricazione più un qualcosa che costituisce il margine di TSMC (che non è zero), quindi si può anche affermare con buona sicurezza che Nvidia non paga a TSMC i 3500$ al wafer, ma qualcosa di più. E se paga a TSMC solo le GPU buone, non credo che TSMC voglia rimetterci facendogli pagare meno di quanto ottenibile in realtà.
Ad ogni modo, la voce dei "più di 100$ a GPU" non è venuta solo da un sito, ma da parecchi, comrpesi quelli più accreditati. In questi casi, comunque, di solito ci sono dei contatti nelle aziende che forniscono i chip a Nvidia ed ATI, che conoscono i dati economici e che fanno spesso da "talpa" a dei giornalisti.
yossarian
06-07-2008, 19:03
No, direi di no, un buon professionista con i tool CAD deve, nell'ordine, effettuare le seguenti operazioni:
- Impostare le connessioni nello schematic entry (cioè nella vista che tiene conto delle connessioni fra i vari pin degli integrati, senza curarsi di come vengano effettuati).
- Ottimizzare il floorplan dei componenti, ciòè stabilire la posizione più adatta nel PCB dei componenti critici, nonchè delle net più sensibili.
- Avviare il tool di placement and routing, che si occupa del piazzamento della parte rimanente
- Estrarre, a layout finito, una netlist comprensiva degli accoppiamenti parassiti
- Verificare su tale netlist eventuali accoppiamenti indesiderati. Nell'eventualità correggere alcune net oppure affinare il floorplan e ripetere l'operazione.
In questo flusso di progetto, l'aumento di complessità dato da un bus a 512bit invece che da uno a 256bit è poco significativo, e tale di conseguenza il costo di sviluppo.
In generale, una ampiezza di bus maggiore ha come conseguenza un PCB più ampio o con più layer, e ciò può essere un problema quando, come ad esempio nei PC portatili, o nelle MB per Desktop molto accessoriate, lo spazio a disposizione costituisce un vincolo.
tutti passaggi che nella transizione da un'architettura con bus a 256 bit (ormai consolidata) ad una con bus a 512 bit vanno rivisitati. Questo senza tener conto dell'aumento di costi dovuto alla maggior complessità di un pcb con più layer:
- le connessioni nello schematic entry relative alla gpu sono il doppio
- le posizioni più adatte dei componenti, passando da 256 a 512 bit non è detto che possano rimanere invariate (è probabile il contrario)
- gli accoppiamenti parassiti possono costituire un elemento critico, a meno che non si scelga la strada di un pcb di dimensioni piuttosto generose (e non è il caso delle 280 e 260 gtx).
In conclusione, agli aumenti di costo dovuti alla maggior complessità del pcb si sommano quelli relativi alla necessità di doverlo riporgettare per buona parte. E stiamo parlando del solo pcb, mentre non abbiamo ancora considerato i costi di progettazione della gpu che è derivata da G80 ma non è identica (anzi presenta delle differenze significative)
yossarian
06-07-2008, 19:21
Beh, se con 100$ si intende un range, a questo punto tutto si sposta su quanto accurato si pensa sia tale range.....
il range può andare da 90 a 120 $ circa e 105-110 $ possono essere un costo ragionevolmente accurato (calcolando un rendimento pari al 40% e processo produttivo standard)
Di certo si può, con una certa accuratezza, stimare che il rapporto tra il costo di RV770 e quello di GT2x0 è, nella peggiore delle ipotesi (per AMD), di 1:3 (che il rendimento nella produzione di RV770 sia più elevato è evidente, non fosse altro per il fatto che i chip che equipaggiano le 4850 e le 4870 differiscono solo per le frequenze di funzionamento, cosa non vera per i chip delle 260 e delle 280). Se, quindi, tu stimi che GT200 costi a nVidia 50 $, allora è ragionevole ritenere che RV770 costi non più di 15 $. Sempre dando per buona l'ipotesi di un processo produttivo standard (niente soi, ecc.) e senza costi di progettazione del chip (nel computo fatto non si è tenuto conto del fatto che parliamo di un chip "nuovo" e non di uno shrink o una realizzazione di un progetto consolidato)
Per quanto riguardo il discorso secondo cui un eventuale partner dovrebbe essere a conoscenza dei costi di sviluppo, basta solo avere le idee chiare di cosa sia un rapporto di partnership. Se il cliente paga lo sviluppo del dispositivo, allora ovviamente è a conoscenza dei costi. Ma non mi sembra il caso di Nvidia, che sviluppa i propri prodotti in maniera autonoma per poi venderli agli OEM e ODM. Anche perchè se un partner copre i costi di sviluppo, è solito pretendere l'esclusiva, nessuno è disposto a finanziare prodotti che verranno venduti alla concorrenza. E non mi sembra che le schede Nvidia siano monomarca. Se invece un "cliente" ("partner" in questo caso non credo sia un termine corretto) non finanzia lo sviluppo, allora non è in nessun modo a conoscenza nè dei costi di svilupppo, nè tantomeno di quelli di produzione e distribuzione.
Ma Daily tech, a quanto pare, si......
sicuramente molti partner che propongono pcb non reference sono a conoscenza almeno dei costi di progettazione e sviluppo di quel componente. In quanto ai costi di produzione del chip, è molto probabile* che i partner di nVidia abbiano modo di conoscere i costi di un wafer e di rendersi conto del rendimento del processo produttivo, in base al numero e alla tipologia di chip fornitigli (una 260gtx è chiaramente uno scarto di produzione della 280gtx e a breve se ne vedranno altri, con un numero sempre minore di unità funzionanti, così come accaduto per G80/G9x o per RV6x0).
* è un eufemismo: i costi di un wafer, quanti chip può contenere e le rese produttive sono note, a grandi linee, anche ai partner (l'unica cosa che ignorano sono i costi di progettazione)
Infine, ti pongo un quesito: secondo te, per quale motivo ATi ha abbandonato la strada del chip monolitico di grandi dimensioni? Per incapacità a competere con nVidia sul singolo chip? Per incapacità a progettare un chip più grande o più complesso di RV770?
yossarian
06-07-2008, 20:03
Beh, dovremmo comunque d'accordo che un die di GT200 costi a Nvidia certo una cifra ben superiore ai 50$, per usare un eufemismo, e certo non inferiore ai 70$ esclusi i costi di packaging e testing, e che un die di RV770 costa meno di due volte quella cifra. E questo escludendo che il processo abbia più di 5 strati di metallizzazione, che non usi high-K o materiali particolari, ecc (il che invece non è detto a priori).
Ad ogni modo, la voce dei "più di 100$ a GPU" non è venuta solo da un sito, ma da parecchi, comrpesi quelli più accreditati. In questi casi, comunque, di solito ci sono dei contatti nelle aziende che forniscono i chip a Nvidia ed ATI, che conoscono i dati economici e che fanno spesso da "talpa" a dei giornalisti.
io non li escluderei affatto, considerando che, per dirne una, è già da un po' (ATi ha iniziato con la serie 17x0 per notebook ed è stata la prima nel campo delle gpu) che per cpu e gpu si fa uso di silicon strained on insulator che abbina al SOI una sorta di "stiramento" del retiìcolo cristallino nella direzione in cui si vuole favorire il movimento delle cariche. Inoltre, tieni conto che a oltre 100 $ ci siamo arrivati anche noi, facendo qualche calcolo che tiene conto solo delle dimensioni del chip, di quanti chip possono essere allocati su un wafer (informazioni non difficili da reperire e non coperte da alcun segreto), facendo una stima delle rese del processo produttivo e basandoci su un costo per wafer di un processo produttivo di tipo standard (ipotesi non molto verosimile)
blade9722
06-07-2008, 21:09
tutti passaggi che nella transizione da un'architettura con bus a 256 bit (ormai consolidata) ad una con bus a 512 bit vanno rivisitati. Questo senza tener conto dell'aumento di costi dovuto alla maggior complessità di un pcb con più layer:
- le connessioni nello schematic entry relative alla gpu sono il doppio
- le posizioni più adatte dei componenti, passando da 256 a 512 bit non è detto che possano rimanere invariate (è probabile il contrario)
- gli accoppiamenti parassiti possono costituire un elemento critico, a meno che non si scelga la strada di un pcb di dimensioni piuttosto generose (e non è il caso delle 280 e 260 gtx).
In conclusione, agli aumenti di costo dovuti alla maggior complessità del pcb si sommano quelli relativi alla necessità di doverlo riporgettare per buona parte. E stiamo parlando del solo pcb, mentre non abbiamo ancora considerato i costi di progettazione della gpu che è derivata da G80 ma non è identica (anzi presenta delle differenze significative)
Mah, non capisco su quale basi tu sia sicuro al 100% che il passaggio da un bus a 256bit ad uno a 512bit implichi necessariamente un maggior numero di layer.
Beh, io ti ho dato la mia opinione: il passaggio da 256bit a 512bit in un pcb di quel tipo non è così problematico. Se non ti convince pazienza.....
blade9722
06-07-2008, 21:12
il range può andare da 90 a 120 $ circa e 105-110 $ possono essere un costo ragionevolmente accurato (calcolando un rendimento pari al 40% e processo produttivo standard)
Di certo si può, con una certa accuratezza, stimare che il rapporto tra il costo di RV770 e quello di GT2x0 è, nella peggiore delle ipotesi (per AMD), di 1:3 (che il rendimento nella produzione di RV770 sia più elevato è evidente, non fosse altro per il fatto che i chip che equipaggiano le 4850 e le 4870 differiscono solo per le frequenze di funzionamento, cosa non vera per i chip delle 260 e delle 280). Se, quindi, tu stimi che GT200 costi a nVidia 50 $, allora è ragionevole ritenere che RV770 costi non più di 15 $. Sempre dando per buona l'ipotesi di un processo produttivo standard (niente soi, ecc.) e senza costi di progettazione del chip (nel computo fatto non si è tenuto conto del fatto che parliamo di un chip "nuovo" e non di uno shrink o una realizzazione di un progetto consolidato)
sicuramente molti partner che propongono pcb non reference sono a conoscenza almeno dei costi di progettazione e sviluppo di quel componente. In quanto ai costi di produzione del chip, è molto probabile* che i partner di nVidia abbiano modo di conoscere i costi di un wafer e di rendersi conto del rendimento del processo produttivo, in base al numero e alla tipologia di chip fornitigli (una 260gtx è chiaramente uno scarto di produzione della 280gtx e a breve se ne vedranno altri, con un numero sempre minore di unità funzionanti, così come accaduto per G80/G9x o per RV6x0).
* è un eufemismo: i costi di un wafer, quanti chip può contenere e le rese produttive sono note, a grandi linee, anche ai partner (l'unica cosa che ignorano sono i costi di progettazione)
Infine, ti pongo un quesito: secondo te, per quale motivo ATi ha abbandonato la strada del chip monolitico di grandi dimensioni? Per incapacità a competere con nVidia sul singolo chip? Per incapacità a progettare un chip più grande o più complesso di RV770?
Anche qui vedo molti "sicuramente" senza solidi basi.
Ragazzi, io le mie obiezioni le ho sollevate: che state speculando con eccessiva sicurezza di argomenti di cui difficilmente potreste avere informazioni dettagliate. Domani è lunedì, torno al mio lavoro....
yossarian
06-07-2008, 21:34
Mah, non capisco su quale basi tu sia sicuro al 100% che il passaggio da un bus a 256bit ad uno a 512bit implichi necessariamente un maggior numero di layer.
Beh, io ti ho dato la mia opinione: il passaggio da 256bit a 512bit in un pcb di quel tipo non è così problematico. Se non ti convince pazienza.....
o più layer o pcb più grandi; e non mi risulta che ci sia differenza tra il pcb di una gtx280 e quello di una 9800gtx.
Anche qui vedo molti "sicuramente" senza solidi basi.
Ragazzi, io le mie obiezioni le ho sollevate: che state speculando con eccessiva sicurezza di argomenti di cui difficilmente potreste avere informazioni dettagliate. Domani è lunedì, torno al mio lavoro....
non mi pare che tu abbia portato argomentazioni solide, a parte le tue consioerazioni personali sulle possibili rese, che valgono quanto quelle di chiunque altro.
In quanto a costi di un wafer, numero di chip per wafer e resa del processo produttivo, non sono di sicuro informazioni riservate o a cui nessuno tranne chi lavora per nVidia può avere accesso.
Nei tuoi conteggi, oltre a minimizzare (fino ad azzerarli) i costi per il passaggio da un pcb con bus a 256 bit ad uno con bus a 512 bit (allora ci sarebbe da chiedersi come mai ci si sia arrivati solo ora e per quale motivo ATi è tornata da un bus a 512 bit con R600 ad uno a 256 con RV770), hai del tutto tralasciato di conteggiare i costi di progettazione della gpu (ripeto, GT200 non è uguale a G80 e non solo per via del bus).
Se partiamo dai dati da te forniti (prendendo per buona l'ipotesi di un processo standard, cosa che non è), si arriva facilmente, facendo ipotesi su rese differenti da quelle da te ipotizzate, ad oltre 100 $ per chip (tralasciando i costi di progettazione); facendo conteggi analoghi, sempre partendo dagli stessi dati, per RV770 risulta, nella peggiore delle ipotesi un costo di circa 2,5/3 volte inferiore per la sola gpu (senza tener conto del fatto che il pcb è dello stesso tipo di quello usato per RV6x0 e, quindi, non comporta costi aggiuntivi).
Stabdo alle tue conclusioni, invece, sembra quasi che sia conveniente produrre chip con bus a 512 bit (stessa spesa per il pcb ma banda molto maggiore) e di dimensioni enormi. Da osservare, però, che ATi (o AMD) non la pensa allo stesso modo, poichè è tornata a produrre chip con bus a 256 bit (dopo averne prodotto uno a 512) e di dimensioni contenute (R580 ed R600 erano circa il 26%e il 68% più grandi di RV770). E né lei né tantomeno i suoi partner stanno certo vendendo in perdita :D
leoneazzurro
06-07-2008, 21:54
Anche qui vedo molti "sicuramente" senza solidi basi.
Ragazzi, io le mie obiezioni le ho sollevate: che state speculando con eccessiva sicurezza di argomenti di cui difficilmente potreste avere informazioni dettagliate. Domani è lunedì, torno al mio lavoro....
Occhio che "senza solide basi" non è del tutto esatto, soprattutto nel caso di Yossarian. ;) E certo non si è detto: il die costa 105$, punto. Si è detto: è ipotizzabile che il costo del chip finito sia superiore a 100$, per diversi motivi.
Poi: abbiamo il numero di die sul wafer (max 94), il costo di un wafer che è nel range dei 3500-5000$ (tu parli di max 5 strati di metallizzazione ma per esempio già una CPU con molti meno transistors di un GT200 come era l'Athlon XP "Thoroughbred" ne aveva sette, e stai escludendo materiali particolari quando già qualche anno fa ATI utilizzava nelle GPU dielettrici high-K).
Quindi, se la resa fosse il 100%, avremmo che il solo costo di fabbricazione del die nudo e crudo sarebbe tra 37$ e 53$. Poichè la resa è sicuramente molto più bassa, date le dimensioni del die, il numero di transistors e la mancanza di un sistema di ridondanza fine (il che significa che su GT200 se c'è un difetto in uno SP va a farsi benedire tutto il cluster ad esso associato, mentre in RV770 per ogni 16 SP pare esserci una diciassettesima unità usata come ricambio) il costo del die è sicuramente molto più alto. Certo, non ci sono i dati esatti di resa da parte Nvidia, ma chiunque lavori nell'ambiente dovrebbe rendersi conto che non possono essere elevati (e anche io ho la mia esperienza con i semiconduttori). Tu stesso stimi il 50%, il che porterebbe il costo del die tra i 74 e i 106$, e questo sempre escludendo packaging, testing e ricarico del produttore (essendo Nvidia fabless). E poi ci sono da ammortizzare per Nvidia i costi di sviluppo (parlando anche del solo die) e di tooling. Ora, dato tutto ciò, è così improbabile che il die di GT200 costi ad Nvidia più di 100$, come affermano tralaltro diverse fonti della stampa specializzata, di cui alcune notoriamente affidabili?
yossarian
06-07-2008, 23:12
Occhio che "senza solide basi" non è del tutto esatto, soprattutto nel caso di Yossarian. ;) E certo non si è detto: il die costa 105$, punto. Si è detto: è ipotizzabile che il costo del chip finito sia superiore a 100$, per diversi motivi.
Poi: abbiamo il numero di die sul wafer (max 94), il costo di un wafer che è nel range dei 3500-5000$ (tu parli di max 5 strati di metallizzazione ma per esempio già una CPU con molti meno transistors di un GT200 come era l'Athlon XP "Thoroughbred" ne aveva sette,
anche il PIV prescott
e stai escludendo materiali particolari quando già qualche anno fa ATI utilizzava nelle GPU dielettrici high-K).
esatto; e già da qualche anno, sia per le cpu (IBM, AMD e Intel) che per le gpu (ATi ha iniziato con la serie X17x0 per notebook) si fa uso di SSOI (strained silicon on insulator, una tecnologia sviluppata da IM^BM, AMD e Toshiba che aggiunge al SOI tradizionale, uno "stiramento" del reticolo cristallino nella direzione in cui si intende favorire il flusso delle cariche)
Quindi, se la resa fosse il 100%, avremmo che il solo costo di fabbricazione del die nudo e crudo sarebbe tra 37$ e 53$. Poichè la resa è sicuramente molto più bassa, date le dimensioni del die, il numero di transistors e la mancanza di un sistema di ridondanza fine (il che significa che su GT200 se c'è un difetto in uno SP va a farsi benedire tutto il cluster ad esso associato, mentre in RV770 per ogni 16 SP pare esserci una diciassettesima unità usata come ricambio) il costo del die è sicuramente molto più alto. Certo, non ci sono i dati esatti di resa da parte Nvidia, ma chiunque lavori nell'ambiente dovrebbe rendersi conto che non possono essere elevati (e anche io ho la mia esperienza con i semiconduttori). Tu stesso stimi il 50%, il che porterebbe il costo del die tra i 74 e i 106$, e questo sempre escludendo packaging, testing e ricarico del produttore (essendo Nvidia fabless). E poi ci sono da ammortizzare per Nvidia i costi di sviluppo (parlando anche del solo die) e di tooling. Ora, dato tutto ciò, è così improbabile che il die di GT200 costi ad Nvidia più di 100$, come affermano tralaltro diverse fonti della stampa specializzata, di cui alcune notoriamente affidabili?
e infatti, prendendo per buone le ipotesi fatte da blade, e limitandosi a "giocare" con le rese produttive (proponendo una stima meno ottimistica del suo 50%), si arriva ad un costo per die superiore ai 100$. Questo limitandosi ai soli costi di produzione ed escludendo tutto il resto.
Inoltre la conoscenza dell'architettura di un chip e del processo produttivo utilizzato (il reverse engineering serve anche a questo :D ), permette di stimare con buona approssimazione anche le rese produttive. L'unica cosa difficile da stimare e il costo di progettazione (ci sono troppe variabili di cui tener conto, compresi eventuali imprevisti che possono far allungare i tempi ed aumentare i costi).
ma quali sono i chipset mobile che sarebbero difettosi?
la serie 7 o la serie 8?
sono in procinto di comprare un portatile e non avorrei avere brutte soprese...
cmq non preoccupatevi nVidia ha accumulato molto in questo anno e mezzo ...
blade9722
07-07-2008, 08:41
Occhio che "senza solide basi" non è del tutto esatto, soprattutto nel caso di Yossarian. ;) E certo non si è detto: il die costa 105$, punto. Si è detto: è ipotizzabile che il costo del chip finito sia superiore a 100$, per diversi motivi.
Poi: abbiamo il numero di die sul wafer (max 94), il costo di un wafer che è nel range dei 3500-5000$ (tu parli di max 5 strati di metallizzazione ma per esempio già una CPU con molti meno transistors di un GT200 come era l'Athlon XP "Thoroughbred" ne aveva sette, e stai escludendo materiali particolari quando già qualche anno fa ATI utilizzava nelle GPU dielettrici high-K).
Quindi, se la resa fosse il 100%, avremmo che il solo costo di fabbricazione del die nudo e crudo sarebbe tra 37$ e 53$. Poichè la resa è sicuramente molto più bassa, date le dimensioni del die, il numero di transistors e la mancanza di un sistema di ridondanza fine (il che significa che su GT200 se c'è un difetto in uno SP va a farsi benedire tutto il cluster ad esso associato, mentre in RV770 per ogni 16 SP pare esserci una diciassettesima unità usata come ricambio) il costo del die è sicuramente molto più alto. Certo, non ci sono i dati esatti di resa da parte Nvidia, ma chiunque lavori nell'ambiente dovrebbe rendersi conto che non possono essere elevati (e anche io ho la mia esperienza con i semiconduttori). Tu stesso stimi il 50%, il che porterebbe il costo del die tra i 74 e i 106$, e questo sempre escludendo packaging, testing e ricarico del produttore (essendo Nvidia fabless). E poi ci sono da ammortizzare per Nvidia i costi di sviluppo (parlando anche del solo die) e di tooling. Ora, dato tutto ciò, è così improbabile che il die di GT200 costi ad Nvidia più di 100$, come affermano tralaltro diverse fonti della stampa specializzata, di cui alcune notoriamente affidabili?
Per quanto riguarda la resa, io non ho stimato il 50%, ho fatto solo una ipotesi. Non sono a conoscenza della attuale resa effettiva di tale chip, e non vendo nessun motivo, se non una vena masochistica, per cui una azienda come Nvidia debba mettere al corrente un sito web di una informazione così importante e delicata sulla propria competitività.
In compenso, vedo molti motivi per cui un redattore , dovendo riempire le pagine del proprio sito, si metta a fare speculazioni e a fornire numeri precisi sulla base di fondamenta di argilla. E, come esperienza personale, tempo fa c'è stato un episodio di cronaca, cioè un furto in casa mia, il cui riscontro sulla stampa locale mi ha fatto aprire gli occhi sul modo in cui vengono redatti gli articoli.
Non solo, esistono alcune ditte che offrono servizi di analisi competitiva e reverse engineering. Utilizzano strumenti sofisticati e costosi come SAM analyzer, che effettuano sezioni trasversali sui dispositivi al fine di ricavare informazioni come materiali utilizzati, numero e tipo di impianti e difffusioni, al fine di stimare il costo per fetta della tecnologia.
Non vedo come tali ditte possano sopravvivere se tutte queste informazioni sarebbero facilmente reperibili con una ricerca su google.
Dal mio punto di vista, l'unica osservazione che personalemte potrei sostenere con una certa sicurezza (dato che i die size si possono valutare con una foto) è, che essendo il die size della GPU ATI RV770 sensibilmente inferiore a quello della GT200, se le prestazioni sono così ravvicinate allora, sotto questo punto di vista, Ati attualmente appare più competitiva.
Oltre, sempre personalmente, non mi spingerei.
Come accaduto altre volte in passato, ho solo cercato di instillare un ragionevole dubbio in quei bastioni di "certezze" che si costruiscono in alcuni thread. E, ahimè, come al solito non sono nemmeno riuscito ad intaccare le mura esterne.
il problema è la stagnazione del mercato.
con una 8800gts fai 60 fps a quasi tutti i giochi in 1920x1080 effetti al massimo (per altro l'antialiasing a questa risoluzione non è proprio fondamentale averlo a 8x).
le nvidia 9800 sono una revisione della 8800, le nuove serie 2X0 danno certo qualcosa in più della 8800gts, ma costano anche 3 volte tanto !.
quindi se con una 8800 gts 512 ci giochi bene (60 fps) all 85-90% dei giochi, che me ne faccio delle nuove schede ? per altro una 8800 512 SLI in più o meno si equivale a una 9800 gx2, che costa però il doppio di due 8800. (chissà come mai, le 8800 gts infatti le hanno tolte dal mercato ;) )
la serie 8800 è la più longeva che si ricordi da tempo !!!
Inoltre, gran parte dei giocatori, usano lcd 19 quindi con risoluzione massima solitamente di 1280*1024, che garantisce un sacco di frame in più rispetto risoluzioni più alte.
Giochi che necessitano di schede super cazzute ce ne sono sicuramente meno di quelli che si accontentano di schede video 8800 per girare al massimo del dettaglio. Nei benchmark con i giochi, nella maggior parte dei casi leggiamo 150 fps con 8800gts oppure 50-60 fps. In quei casi dove si legge 30, basta togliere un po' di antialiasing, e tutto si risolve. E se non basta, si va di sli.
io infatti mi son appena preso un'altra 8800gts 512 per fare sli e così con veramente pochi soldi in più, tiro aventi sicuro un altro anno se non di più !
yossarian
07-07-2008, 11:17
edit
yossarian
07-07-2008, 11:21
Per quanto riguarda la resa, io non ho stimato il 50%, ho fatto solo una ipotesi. Non sono a conoscenza della attuale resa effettiva di tale chip, e non vendo nessun motivo, se non una vena masochistica, per cui una azienda come Nvidia debba mettere al corrente un sito web di una informazione così importante e delicata sulla propria competitività.
vero, hai ipotizzato una superficie di 400 mm^2 con un costo di 5$ per 100 mm^2, stimando tutti i costi residui (costi fissi, diffusione, testing, etc.) e tralasciando i costi di progettazione (ripeto per l'ennesima volta che GT200 è un chio differente da G80), in circa 5$: il totale stimato era di 25& a die che per una resa ipotetica del 50% (che hai giudicato bassa), sale a 50$ a die (con 100 die per wafer). Per comodità, ti riporto il quote del tuo intervento
Se ci limitiamo ai costi variabili (escluso quindi quelli fissi come i costi di sviluppo, maschere, atrezzatura), il costo dei wafer a 12" e' sensibilmente inferiore: considera, per volumi elevati, all'incirca 3500$ a fetta, per un costo equivalente di 5$ ogni 100mm^2. Queste sono informazioni facilmente reperibili in quanto dipendono dai fornitori.
Ad essi vanno aggiunti i costi di diffusione, e testing su fetta (EWS), compresi gli ammortamenti delle macchine. Queste sono informazioni coperte dal piu' assoluto riserbo perche' indice della competivita' di una azienda, e dubito che qualcuno sia disposto a rischiare il posto di lavoro per scrivere questi dati in un sito web o in un forum.
Il valore va diviso per la resa (cioe' il 50% di resa equivale ad un raddoppio del costo di produzione).
Infine vanno aggiunti i costi di assemblaggio nonche' il costo del package stesso, e quelli per i test finali "al chiuso" (cioe' sui dispositivi assemblati nel package). A meno di problemi nella procedura di assemblaggio, assai poco comuni, la resa in questo caso (calcolata sui pezzi che avevano passato i test su fetta) e' prossima al 100%.
Se il GT200 ha un die size di 400 mm^2 e per ora una resa intorno al 50% e' probabile che attualmente costi alla casa di Santa Clara intorno ai 50$ al pezzo. Tuttavia, se la resa e' cosi' bassa nei prossimi mesi saranno impegnati ad ottimizzare il processo per aumentarla, ed e' quindi assai probabile che il costo scenda sensibilmente.
costo che è poi salito a:
Per quanto riguarda il 400mm^2, era un dato che ricordavo da un vecchio articolo, essendo in pausa in ufficio non mi sono preso la briga di cercarne uno aggiornato. Apprendo ora che l'area in realta' e' significativamente superiore. Il valore di die per wafer di 100, tenendo conto dei dispositivi ai bordi inutilizzabili (ignorando invece, viste le enormi dimensioni del dispositivo, la sawing street, cioe' la distanza fra die e die sul wafer, necessaria per effettuare il taglio dei singoli pezzi), e' plausibile. In effetti il valore di 5$/100mm^2 sottostima leggermente il costo per pezzo in questa situazione di un dispositivo molto ampio, dove l'area persa ai bordi ha un grosso impatto. Dopo questa correzione, il costo per die nudo e crudo sale da 20$ a 35$, che diventano 70$ ipotizzando ( e credo in tutta franchezza che oltre l'ipotesi non si possa andare) una resa iniziale del 50%.
solo in virtù delle aumentate dimensioni del die (da 400 mm^2 a 576 mm^2); fermi restando i costi non variabili e ipotizzando 100 die per wafer e rese del 50%.
Questo a patto che:
Ciao,
premesso che tra il valore che ti ho indicato io e il tuo non c'è un ordine di grandezza di differenza, ma una differenza di circa il 30%.
Il valore che ti ho indicato l'ho recuperato al momento dai colleghi che utilizzano tecnologie digitali. E' comprensivo dei costi di diffusione, ma di null'altro. Diciamo che è una media di tecnologie con le seguenti caratteristiche:
- cmos puramente digitali a litografia spinta
- niente SOI e niente memorie non volatili
- 5 livelli di metallizzazioni
Si tratta quindi di tecnologie con un numero limitato di step di diffusioni (non stupirti, il numero di metallizzazioni è elevato, ma esistono tecnologie miste che aggiungono anche componenti analogici come i bipolari, di potenza e ad alta tensione, e quelle hanno un numero di step maggiore).
E, la cosa è alquanto importante, mi sono limitato alle tecnologie consolidate. Per le tecnologie in sviluppo, il costo è più elevato in quanto la resa di processo è più bassa. Con resa di processo indico un fattore diverso da quella determinata dalle difettosità nel dispositivo, e che tiene in considerazione il fatto che, a causa del minore controllo sui parametri, interi lotti di diffusione falliscano. Una condizione inaccettabile una volta che il processo è maturo.
5000$ è un prezzo che ho trovato solo per le tecnologie in sviluppo, difficile credere che Nvidia, Intel, AMD, che sviluppano solo tecnologie digitali, siano meno bravi della ditta in cui lavoro ad ottimizzare i costi oppure abbiano fornitori più cari.
qui sembrano inclusi i costi di diffusione che prima erano esclusi (sempre nei 3500$ per wafer?); il numero di layer (5) non è affatto elevato se si compara con quello di chip anche meno complessi di una gpu di ultima generazione (ad esempio il Prescott o il Thoroughbred) e la tecnologia soi non è affatto aliena a questi ambiti. Quindi, evidentemente, i costi salgono anche ipotizzando il 50% di resa (ma non più i 3500$ per wafer, a questo punto) e sempre tenendo per buona la stima di 100 die per wafer.
Nel costo della vga è compreso anche il pcb; tu affermi che non c'è differenza, a livello di difficoltà di realizzazione (e quindi di costo finale) tra un pcb a 256 bit ed uno a 512 (a questo punto si potrebbe dire che è lo stesso progettare un pcb a 128 o a 64 bit) e a supporto di questa tesi riporti l'elenco degli step necessari per progettare un pcb
No, direi di no, un buon professionista con i tool CAD deve, nell'ordine, effettuare le seguenti operazioni:
- Impostare le connessioni nello schematic entry (cioè nella vista che tiene conto delle connessioni fra i vari pin degli integrati, senza curarsi di come vengano effettuati).
- Ottimizzare il floorplan dei componenti, ciòè stabilire la posizione più adatta nel PCB dei componenti critici, nonchè delle net più sensibili.
- Avviare il tool di placement and routing, che si occupa del piazzamento della parte rimanente
- Estrarre, a layout finito, una netlist comprensiva degli accoppiamenti parassiti
- Verificare su tale netlist eventuali accoppiamenti indesiderati. Nell'eventualità correggere alcune net oppure affinare il floorplan e ripetere l'operazione.
In questo flusso di progetto, l'aumento di complessità dato da un bus a 512bit invece che da uno a 256bit è poco significativo, e tale di conseguenza il costo di sviluppo.
In generale, una ampiezza di bus maggiore ha come conseguenza un PCB più ampio o con più layer, e ciò può essere un problema quando, come ad esempio nei PC portatili, o nelle MB per Desktop molto accessoriate, lo spazio a disposizione costituisce un vincolo.
che sono gli stessi che si fanno per un pcb con controller di qualunque dimensione; a questo punto, pur non volendo quantificare la differenza ma facendo il classico "discorso della serva", ci sarebbe da chiedersi come mai si è arrivati solo ora a controller a 512 bit? Come mai ATi ne aveva realizzato uno con R600 ed è tornata indietro con RV670 e RV770 (arrivando a riprogettare il MC)? Come mai nelle gpu di fascia media o bassa si utilizzano controller con un minor numero di bit, arrivando a implementare controller a 64 o 128 bit con un bus di tipo crossbar con, magari, 512 MB di vram e latenze molto maggiori rispetto a quelle che si avrebbero con controller a 256 bit? Prevengo qualunque obiezione di natura tecnica, in quanto non c'è una ragione tecnica per preferire un crossbar con MC a 64 o 128 bit con 512 MB di vram, ma solo ragioni economiche.
La prima cosa obiezione che si potrebbe fare al tuo ragionamento è: anche disegnare e realizzare un dsp di un lettore multimediale necessita degli stessi step che servono per progettare GT200. Questo significa che i costi sono uguali? E' solo un problema di quanti die entrano in un wafer?
In compenso, vedo molti motivi per cui un redattore , dovendo riempire le pagine del proprio sito, si metta a fare speculazioni e a fornire numeri precisi sulla base di fondamenta di argilla. E, come esperienza personale, tempo fa c'è stato un episodio di cronaca, cioè un furto in casa mia, il cui riscontro sulla stampa locale mi ha fatto aprire gli occhi sul modo in cui vengono redatti gli articoli.
nessuno impedisce a nVidia di smentire quelle voci. Se, poi, come tu affermi, a nVidia farebbe comodo far circolare la voce di costi più elevati rispetto a quelli reali, per vendere i prodotti a prezzi più alti, allora dovresti anche sapere che i partner di nVidia (come quelli di AMD) sono degli addetti ai lavori che è sbagliato assimilare a chi va in un negozio di pc e chiede "voglio la geforce" senza sapere cosa sta acquistando e se il prezzo è congruo. Addetti ai lavori che hanno i loro canali per scoprire, con buona approssimazione, se li si sta tentando di fregare oppure no (tra questi canali c'è anche la possibilità di fare o far fare reverse engineering sui chip). Ripeto, l'unica "voce" che può sfuggire è quella relativa ai reali costi di progettazione.
Non solo, esistono alcune ditte che offrono servizi di analisi competitiva e reverse engineering. Utilizzano strumenti sofisticati e costosi come SAM analyzer, che effettuano sezioni trasversali sui dispositivi al fine di ricavare informazioni come materiali utilizzati, numero e tipo di impianti e difffusioni, al fine di stimare il costo per fetta della tecnologia.
Non vedo come tali ditte possano sopravvivere se tutte queste informazioni sarebbero facilmente reperibili con una ricerca su google.
anche un competitor è in grado di fare reverse engineering
Dal mio punto di vista, l'unica osservazione che personalemte potrei sostenere con una certa sicurezza (dato che i die size si possono valutare con una foto) è, che essendo il die size della GPU ATI RV770 sensibilmente inferiore a quello della GT200, se le prestazioni sono così ravvicinate allora, sotto questo punto di vista, Ati attualmente appare più competitiva.
anche con le misure: 576 mm^2 per GT200 e 250 mm^2 per RV770 (ovvero il 130,4% in meno). Il che significa che, a parità di rese, RV770 costa circa 2,5 volte in meno rispetto a GT200.
leoneazzurro
07-07-2008, 11:51
Per quanto riguarda la resa, io non ho stimato il 50%, ho fatto solo una ipotesi. Non sono a conoscenza della attuale resa effettiva di tale chip, e non vendo nessun motivo, se non una vena masochistica, per cui una azienda come Nvidia debba mettere al corrente un sito web di una informazione così importante e delicata sulla propria competitività.
In compenso, vedo molti motivi per cui un redattore , dovendo riempire le pagine del proprio sito, si metta a fare speculazioni e a fornire numeri precisi sulla base di fondamenta di argilla. E, come esperienza personale, tempo fa c'è stato un episodio di cronaca, cioè un furto in casa mia, il cui riscontro sulla stampa locale mi ha fatto aprire gli occhi sul modo in cui vengono redatti gli articoli.
Non solo, esistono alcune ditte che offrono servizi di analisi competitiva e reverse engineering. Utilizzano strumenti sofisticati e costosi come SAM analyzer, che effettuano sezioni trasversali sui dispositivi al fine di ricavare informazioni come materiali utilizzati, numero e tipo di impianti e difffusioni, al fine di stimare il costo per fetta della tecnologia.
Non vedo come tali ditte possano sopravvivere se tutte queste informazioni sarebbero facilmente reperibili con una ricerca su google.
Dal mio punto di vista, l'unica osservazione che personalemte potrei sostenere con una certa sicurezza (dato che i die size si possono valutare con una foto) è, che essendo il die size della GPU ATI RV770 sensibilmente inferiore a quello della GT200, se le prestazioni sono così ravvicinate allora, sotto questo punto di vista, Ati attualmente appare più competitiva.
Oltre, sempre personalmente, non mi spingerei.
Come accaduto altre volte in passato, ho solo cercato di instillare un ragionevole dubbio in quei bastioni di "certezze" che si costruiscono in alcuni thread. E, ahimè, come al solito non sono nemmeno riuscito ad intaccare le mura esterne.
Certezze non ce ne sono e lo abbiamo detto, abbiamo detto infatti che i dati di resa ufficiali non ci sono (nè ci saranno mai ufficialmente), ma stiamo ritenendo molto probabile (ma non certo al 100%), sulla base di tutta una serie di fatti che tu non vuoi neppure prendere in considerazione (come più di 5 strati di metallizzazione, i materiali particolari come SS, High-K ecc.) e su una conoscenza in merito alle rese dei semiconduttori con processo a 65 nm che forse io ho in maniera "indiretta" ma che Yossarian sicuramente ha in maniera molto diretta ed approfondita) che le GPU Nvidia costino alla casa madre una cifra che è nel range dei 100$ e più, cosa confermata da più di una fonte. Poi è chiaro che spesso ci sono giornalisti che montano un caso, ma questo avviene in genere su siti considerati "scandalistici" (es. Inquirer, Fudzilla) ma non certo su testate serie cone Dailytech, Anandtech, Beyond3D.
L'unica cosa certa è che il costo di un chip RV770 sarebbe meno della metà di un GT200 se avessero parità di resa.
blade9722
07-07-2008, 15:38
vero, hai ipotizzato una superficie di 400 mm^2 con un costo di 5$ per 100 mm^2, stimando tutti i costi residui (costi fissi, diffusione, testing, etc.) e tralasciando i costi di progettazione (ripeto per l'ennesima volta che GT200 è un chio differente da G80), in circa 5$: il totale stimato era di 25& a die che per una resa ipotetica del 50% (che hai giudicato bassa), sale a 50$ a die (con 100 die per wafer). Per comodità, ti riporto il quote del tuo intervento
costo che è poi salito a:
solo in virtù delle aumentate dimensioni del die (da 400 mm^2 a 576 mm^2); fermi restando i costi non variabili e ipotizzando 100 die per wafer e rese del 50%.
Questo a patto che:
qui sembrano inclusi i costi di diffusione che prima erano esclusi (sempre nei 3500$ per wafer?);
Errore mio, ho proprio scritto la frase in maniera errata (in effetti ho scritto "ad essi vanno aggiunti i costi di diffusione"). Il valore di 3500$ non si riferisce alla fetta pre-diffusione, quella costa, a seconda del tipo, qualche centinaio di $. Quello che intendevo dire e', che una volta che si ha la conoscenza di tutti gli step di diffusione (e questa e' l'informazione difficile da reperire, da cui il discorso sulla SAM analysis), il costo puo' essere facilmente estrapolato perche' dipende dai prezzi delle forniture e attrezzature (che impattano nei costi variabili tramite l'ammortamento). Ad ogni modo, ho scritto chiaramente nel primo post che mi riferivo ai soli costi variabili.
il numero di layer (5) non è affatto elevato se si compara con quello di chip anche meno complessi di una gpu di ultima generazione (ad esempio il Prescott o il Thoroughbred) e la tecnologia soi non è affatto aliena a questi ambiti. Quindi, evidentemente, i costi salgono anche ipotizzando il 50% di resa (ma non più i 3500$ per wafer, a questo punto) e sempre tenendo per buona la stima di 100 die per wafer.
Ok, puoi aggiungere un 20% al valore per tenere conto di 7 livelli di metal ( 4 maschere aggiuntive su una base di 20-25), magari se spulci di qua e di la' puoi aggiungere qualche altro contributo, ma il succo del mio discorso non era questo.
Nel costo della vga è compreso anche il pcb; tu affermi che non c'è differenza, a livello di difficoltà di realizzazione (e quindi di costo finale) tra un pcb a 256 bit ed uno a 512 (a questo punto si potrebbe dire che è lo stesso progettare un pcb a 128 o a 64 bit) e a supporto di questa tesi riporti l'elenco degli step necessari per progettare un pcb
Premesso che il discorso sul costo di sviluppo di un pcb con controller a 512bit e' in parte off-topic perche' non riguarda il costo della GPU, ma della VGA complessiva.
Io ti ho riportato una sintesi di cio' che deriva dalla mia esperienza professionale: non vedo tutta questa enfasi sull'incremento dei costi dato da questo aspetto Ho cercato di descrivere sommariamente quale sia il flusso di progetto, per trasmettere l'idea di quanto la complessita' non sia cosi' insormontabile. Piu' di questo in un post e' difficile fare, se hai esperienze personali che ti portano a sostenere il contrario puoi descriverle.
che sono gli stessi che si fanno per un pcb con controller di qualunque dimensione; a questo punto, pur non volendo quantificare la differenza ma facendo il classico "discorso della serva", ci sarebbe da chiedersi come mai si è arrivati solo ora a controller a 512 bit? Come mai ATi ne aveva realizzato uno con R600 ed è tornata indietro con RV670 e RV770 (arrivando a riprogettare il MC)? Come mai nelle gpu di fascia media o bassa si utilizzano controller con un minor numero di bit, arrivando a implementare controller a 64 o 128 bit con un bus di tipo crossbar con, magari, 512 MB di vram e latenze molto maggiori rispetto a quelle che si avrebbero con controller a 256 bit? Prevengo qualunque obiezione di natura tecnica, in quanto non c'è una ragione tecnica per preferire un crossbar con MC a 64 o 128 bit con 512 MB di vram, ma solo ragioni economiche.
Ci sono anche altre ipotesi vagliabili:
- un controller a 512bit costa come silicio (e non come trace di pcb...), il doppio di uno a 256bit
- mi sembra che il bus a 512 bit non abbia portato molto giovamento nell'architettura R600
magari (lo ripeto, e' un ipotesi) queste considerazioni hanno portato ATI ad ottimizzare l'efficienza ritornando ad una soluzione a 256 bit. Non condivido la sicurezza con cui sembri suggerire che Ati abbia rinunciato a tale soluzione sulla base solo del costo di sviluppo del pcb.
Per la cronaca, un aspetto su cui mi sembra ci sia poca chiarezza: sia ATI che Nvidia vendono solo gli integrati, e non vendono la VGA completa.
La prima cosa obiezione che si potrebbe fare al tuo ragionamento è: anche disegnare e realizzare un dsp di un lettore multimediale necessita degli stessi step che servono per progettare GT200. Questo significa che i costi sono uguali? E' solo un problema di quanti die entrano in un wafer?
Qui non riesco a seguire il filo del discorso, mi sembra che ci sia un tentativo di collegare la mia descrizione del flusso di processo per posizionare le trace su un pcb ad una affermazione piu' generale, ma sinceramente non riesco a comprendere il singnificato della sequenza di domande.
nessuno impedisce a nVidia di smentire quelle voci. Se, poi, come tu affermi, a nVidia farebbe comodo far circolare la voce di costi più elevati rispetto a quelli reali, per vendere i prodotti a prezzi più alti, allora dovresti anche sapere che i partner di nVidia (come quelli di AMD) sono degli addetti ai lavori che è sbagliato assimilare a chi va in un negozio di pc e chiede "voglio la geforce" senza sapere cosa sta acquistando e se il prezzo è congruo. Addetti ai lavori che hanno i loro canali per scoprire, con buona approssimazione, se li si sta tentando di fregare oppure no (tra questi canali c'è anche la possibilità di fare o far fare reverse engineering sui chip). Ripeto, l'unica "voce" che può sfuggire è quella relativa ai reali costi di progettazione.
Mi sembra che queste siano una serie di speculazioni volte a convergere su cio' che avevo denunciato all'inizio riguardo ai canoni di oggettivita' di un forum: tutto cio' che dice un certo sito e' vero perche' sicuramente chi scrive cio' ha i suoi canali affidabili per recuperare le informazioni, e guai a sollevare dubbi sull'argomento.
anche un competitor è in grado di fare reverse engineering
Vero, ed e' quello che si fa di solito, in proprio o affidandosi a terzi, per comprendere il posizionamento rispetto alla concorrenza, pero' non mi risulta che, risultati alla mano, si alzi la cornetta per avvertire quelli di Daily tech.
Magari i redattori di quel sito finanziano queste analisi competitive a quelle societa' di reverse engineering per ricavare i dati da pubblicare, ma a questo punto non vedo perche' non citarne la fonte.
anche con le misure: 576 mm^2 per GT200 e 250 mm^2 per RV770 (ovvero il 130,4% in meno). Il che significa che, a parità di rese, RV770 costa circa 2,5 volte in meno rispetto a GT200.
Si, certamente.
blade9722
07-07-2008, 15:42
Certezze non ce ne sono e lo abbiamo detto, abbiamo detto infatti che i dati di resa ufficiali non ci sono (nè ci saranno mai ufficialmente), ma stiamo ritenendo molto probabile (ma non certo al 100%), sulla base di tutta una serie di fatti che tu non vuoi neppure prendere in considerazione (come più di 5 strati di metallizzazione, i materiali particolari come SS, High-K ecc.) e su una conoscenza in merito alle rese dei semiconduttori con processo a 65 nm che forse io ho in maniera "indiretta" ma che Yossarian sicuramente ha in maniera molto diretta ed approfondita) che le GPU Nvidia costino alla casa madre una cifra che è nel range dei 100$ e più, cosa confermata da più di una fonte. Poi è chiaro che spesso ci sono giornalisti che montano un caso, ma questo avviene in genere su siti considerati "scandalistici" (es. Inquirer, Fudzilla) ma non certo su testate serie cone Dailytech, Anandtech, Beyond3D.
L'unica cosa certa è che il costo di un chip RV770 sarebbe meno della metà di un GT200 se avessero parità di resa.
Ciao,
c'e' un passaggio che mi sfugge: se Yossaran ha una esperienza diretta in materia, allora e' sicuramente un ingegnere di processo, e a questo punto perche' non lo dice?. Io considererei la sua opinione molto piu' affidabile che non quella derivante dal solito "lo scrive il sito xyz".
leoneazzurro
07-07-2008, 16:49
Ciao,
c'e' un passaggio che mi sfugge: se Yossaran ha una esperienza diretta in materia, allora e' sicuramente un ingegnere di processo, e a questo punto perche' non lo dice?. Io considererei la sua opinione molto piu' affidabile che non quella derivante dal solito "lo scrive il sito xyz".
Forse perchè non può/non vuole? ;)
Comunque io ingegnere di processo lo sono (tra le altre cose), anche se in un campo leggermente diverso :D
yossarian
07-07-2008, 17:01
Errore mio, ho proprio scritto la frase in maniera errata (in effetti ho scritto "ad essi vanno aggiunti i costi di diffusione"). Il valore di 3500$ non si riferisce alla fetta pre-diffusione, quella costa, a seconda del tipo, qualche centinaio di $. Quello che intendevo dire e', che una volta che si ha la conoscenza di tutti gli step di diffusione (e questa e' l'informazione difficile da reperire, da cui il discorso sulla SAM analysis), il costo puo' essere facilmente estrapolato perche' dipende dai prezzi delle forniture e attrezzature (che impattano nei costi variabili tramite l'ammortamento). Ad ogni modo, ho scritto chiaramente nel primo post che mi riferivo ai soli costi variabili.
Ok, puoi aggiungere un 20% al valore per tenere conto di 7 livelli di metal ( 4 maschere aggiuntive su una base di 20-25), magari se spulci di qua e di la' puoi aggiungere qualche altro contributo, ma il succo del mio discorso non era questo.
il succo del discorso era instillare dei dubbi e questo lo abbiamo capito. Però, in seguito alle obiezioni fatte da leoneazzurro e da me, siamo passati da un costo che potrebbe aggirarsi, a determinate condizioni, sui 50$ a die (anzichè i 100 e oltre dichiarati da dailytech) ad un costo stimato, alle stesse condizioni, che esclusi high-k o ss o altro, già di aggirerebbe intorno ai 90$ per die (con 7 strati di metallizzazioni invece di 5). E stiamo parlando di rese del 50% per un chip complesso e che non presenta cluster ridondanti. Questo sembrerebbe avvalorare le stime di dailytech invece di smentirle.
Premesso che il discorso sul costo di sviluppo di un pcb con controller a 512bit e' in parte off-topic perche' non riguarda il costo della GPU, ma della VGA complessiva.
Io ti ho riportato una sintesi di cio' che deriva dalla mia esperienza professionale: non vedo tutta questa enfasi sull'incremento dei costi dato da questo aspetto Ho cercato di descrivere sommariamente quale sia il flusso di progetto, per trasmettere l'idea di quanto la complessita' non sia cosi' insormontabile. Piu' di questo in un post e' difficile fare, se hai esperienze personali che ti portano a sostenere il contrario puoi descriverle.
il costo del pcb influisce sul costo della vga; il layout del pcb reference è nVidia a fornirlo ai partner a cui vende le gpu.
Nessuno ha parlato di complessità insormontabile, ma di costo maggiori e di maggior difficoltà di realizzazione (che non equivale a insormontabile).
Ci sono anche altre ipotesi vagliabili:
- un controller a 512bit costa come silicio (e non come trace di pcb...), il doppio di uno a 256bit
con un controller di un multicanale di tipo crossbar tradizionale (come quello che nVidia utilizza per le sue gpu a partire da NV20), ogni ramo (canale doppio per andata e ritorno, per un totale di 32+32 bit) può gestire un massimo di 2 chip di ram da 64 MB ciascuno (ognuno con canale a 32 bit) prima di diventare inefficiente a causa delle elevate latenze e non è idoneo a funzionare con ram più veloci delle gddr3. Per questo motivo, tecnicamente non hanno senso operazioni tipo: vga con controller a 128 bit e 512 MB di ram; per lo stesso motivo, avendo deciso di dotare la 280GTX di 1 GB di ram, era necessario un MC a 512 bit. Quindi, se il problema fosse il solo costo del silicio (che è veramente poca cosa), si sarebbe arrivati da prima a soluzioni con bus più ampi.
- mi sembra che il bus a 512 bit non abbia portato molto giovamento nell'architettura R600
a parte il fatto che il bus di R600 era di tipo ring per la distribuzione interna con interfaccia crossbar verso l'esterno, è sbagliato dire che i 512 bit non siano serviti. Il fatto stesso che, con RV770, si sia ridisegnato completamente il MC (che non è più un ring tipo quello di R600, ma neppure un crossbar) e si sia fatto ricorso ad un canale dedicato per la comunicazione delle due gpu e ad altri canali dedicati ad altre funzioni che non siano strettamente collegate con l'elaborazione 3D, fa capire che il problema di R600 non era l'ampiezza del bus (se fosse stato a 256 bit sarebbe stato anchge peggio) ma il suo sfruttamento
magari (lo ripeto, e' un ipotesi) queste considerazioni hanno portato ATI ad ottimizzare l'efficienza ritornando ad una soluzione a 256 bit. Non condivido la sicurezza con cui sembri suggerire che Ati abbia rinunciato a tale soluzione sulla base solo del costo di sviluppo del pcb.
mai detto che ATi abbia rinunciato ai 512 bit per i costi del pcb; certo costa meno progettare il layout di un pcb a 512 bit che ridisegnare il MC interno della gpu; però, se il costo di un pcb per MC a 512 bit è praticamente uguale (tranne il costo del silicio) rispetto a quello di uno per MC a 256 bit, per quale motivo non mantenere i 512 bit che avrebbero garantito una maggior bandwidth, utile soprattutto per le vga con gddr3?
Per la cronaca, un aspetto su cui mi sembra ci sia poca chiarezza: sia ATI che Nvidia vendono solo gli integrati, e non vendono la VGA completa.
grazie per il chiarimento
Mi sembra che queste siano una serie di speculazioni volte a convergere su cio' che avevo denunciato all'inizio riguardo ai canoni di oggettivita' di un forum: tutto cio' che dice un certo sito e' vero perche' sicuramente chi scrive cio' ha i suoi canali affidabili per recuperare le informazioni, e guai a sollevare dubbi sull'argomento.
a prescindere dal fatto che chi pretende di fare informazione si assume la piena responsabilità di ciò che scrive, non so a chi ti riferisca parlando di canoni di oggettività di un forum. Personalmente è la prima volta che sento parlare di dailytech in merito a questo presunte "speculazioni" e non so neppure se il tutto sia partito da loro. Le mie fonti al riguardo sono altre.
Vero, ed e' quello che si fa di solito, in proprio o affidandosi a terzi, per comprendere il posizionamento rispetto alla concorrenza, pero' non mi risulta che, risultati alla mano, si alzi la cornetta per avvertire quelli di Daily tech.
a volte, sui forum, può capitare di incontrare programmatori di SW famose, o ingegneri e tecnici di società che si occupano di informatica; succede che, in alcuni casi, queste persone siano in buoni rapporti con i redattori di questa o quella "testata" e possano passare qualche informazione. Altre volte le informazioni sono frutto di "spionaggio"; altre ancora sono solo speculazioni.
Magari i redattori di quel sito finanziano queste analisi competitive a quelle societa' di reverse engineering per ricavare i dati da pubblicare, ma a questo punto non vedo perche' non citarne la fonte.
dipende se la fonte è ufficiale o meno
yossarian
07-07-2008, 17:14
Ciao,
c'e' un passaggio che mi sfugge: se Yossaran ha una esperienza diretta in materia, allora e' sicuramente un ingegnere di processo, e a questo punto perche' non lo dice?. Io considererei la sua opinione molto piu' affidabile che non quella derivante dal solito "lo scrive il sito xyz".
non mi pare di aver mai affermato che qualcosa è vera perchè la scrive xyz. Qualora mi fosse sfuggito, ti prego di farmelo notare
blade9722
07-07-2008, 19:31
non mi pare di aver mai affermato che qualcosa è vera perchè la scrive xyz. Qualora mi fosse sfuggito, ti prego di farmelo notare
Il tutto era nato da una mia osservazione, a cui era seguita l'usuale richiesta di fornire un link.
Però adesso sono curioso: se non ti crea problemi rispondere, sei o non sei un ingegnere di processo?
yossarian
07-07-2008, 19:44
Il tutto era nato da una mia osservazione, a cui era seguita l'usuale richiesta di fornire un link.
Però adesso sono curioso: se non ti crea problemi rispondere, sei o non sei un ingegnere di processo?
ok. Hai pvt
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.