Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Realme 15 Pro Game Of Thrones: un vero cimelio tech per pochi eletti
Recensione Realme 15 Pro Game Of Thrones: un vero cimelio tech per pochi eletti
Siamo volati fino a Belfast, capitale dell'Irlanda Del Nord, per scoprire il nuovo Realme 15 Pro 5G Game Of Thrones Limited Edition. Una partnership coi fiocchi, quella tra Realme e HBO, un esercizio di stile davvero ben riuscito. Ma vi raccontiamo tutto nel nostro articolo
GIGABYTE GAMING A16, Raptor Lake e RTX 5060 Laptop insieme per giocare al giusto prezzo
GIGABYTE GAMING A16, Raptor Lake e RTX 5060 Laptop insieme per giocare al giusto prezzo
Il Gigabyte Gaming A16 offre un buon equilibrio tra prestazioni e prezzo: con Core i7-13620H e RTX 5060 Laptop garantisce gaming fluido in Full HD/1440p e supporto DLSS 4. Display 165 Hz reattivo, buona autonomia e raffreddamento efficace; peccano però le USB e la qualità cromatica del pannello. Prezzo: circa 1200€.
iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
C'è tanta sostanza nel nuovo smartphone della Mela dedicato ai creator digitali. Nuovo telaio in alluminio, sistema di raffreddamento vapor chamber e tre fotocamere da 48 megapixel: non è un semplice smartphone, ma uno studio di produzione digitale on-the-go
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 05-07-2008, 00:24   #41
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da mar81 Guarda i messaggi


:inchino:

be dai, concedimi il molto simile
te lo concederei volentieri, però alcune modifiche (anche importanti), ci sono state
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 05-07-2008, 09:28   #42
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
non ne sapevo nulla di questi problemi legati alle nvidia montate sui portatili...speriamo vengano risolti in fretta e che nvidia non si affossi troppo.
Kharonte85 è offline   Rispondi citando il messaggio o parte di esso
Old 05-07-2008, 19:22   #43
LordPBA
Senior Member
 
L'Avatar di LordPBA
 
Iscritto dal: Jan 2004
Messaggi: 2249
Secondo me Nvidia ha fatto solo un errore: dare per scontato che la gente sia disposta a cambiare scheda video ogni mese e magari comprare anche quelle che sono al top (ergo, sulle 600e)... Abbastanza irreale. Io con la mia 7800gtx ci gioco ancora senza problemi. Certo mi stò guardando intorno per qualcosa di nuovo, ma non volgio certo spendere tanto...
LordPBA è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 06:21   #44
emboss
Member
 
L'Avatar di emboss
 
Iscritto dal: Jun 2003
Messaggi: 264
Sono dell'idea che sempre più persone non possano, e non vogliono
investire continuamente barcate di soldi in una, o l'altra marca....
Oggi come oggi sono finiti i tempi delle schede da 600 euro ogni anno....
E' subentrata la difficoltà economica in quasi tutte le nazioni del mondo, e molta gente appassionata di Hardware, a migrato, o a integrato le nuove console, rinunciando in qualcosa, ma risparmiando alla fine veramente tanto.
Dalla mia personale esperienza, ormai dopo la 8800GTX, acquistata al suo debutto, ne passeranno di anni prima di effettuare un nuovo investimento.....
I giochi, girano quasi tutti.....
...e quei pochi che non girano???... possono rimanere tranquillamente sugli scaffali.....

DX10....DX10.1......SLI.....CrossF..... penso che molti si siano anche rotti le scatole......
ditemi di queste configurazioni quante ne sono state realmente e totalmente sfruttate......

Salut emboss...manuele

Ultima modifica di emboss : 06-07-2008 alle 06:26.
emboss è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 10:54   #45
goldfix
Senior Member
 
L'Avatar di goldfix
 
Iscritto dal: Jun 2002
Città: Milano
Messaggi: 458
Quote:
Originariamente inviato da yossarian Guarda i messaggi
tutto corretto; ci sono da precisare alcune cose, però: il passare da 400 a 576 mm^2 porta il costo stimato da 5$/100mm^2 a circa 7,2$/mm^2. Ipotizzando un rendimento del 40% (prendiamo per buono quello che circola online, anche perchè non è molto distante dalla verità) e considerando che su un wafer ci stanno circa 94 die (anzichè 100), il costo complessivo si aggirerebbe sui 108 $ per die, sempre tenendo per buone le caratteristiche da te elencate ovvero, niente soi o strained silicon on insulator, niente memorie non volatili, non più di 5 layer di metallizzazioni, ecc. Questo contro i circa 25$ scarsi di un RV770 (ipotizzando un rendimento del 60% complessivo per hd4850 e hd4870, e mi sto tenendo stretto, e 220 die per wafer). Aggiungi la maggior complessità di un pcb con controller a 512 bit (per la gtx280) ed ecco spiegati i costi elevati delle soluzioni con gt2x0.
Secondo me l'analisi che avete fatto entrambi è perfetta, ma sottovalutate altri aspetti. Di per se a questo tipo di aziende, il costo della materia prima è forse quello più prevedibile e che da meno "sorprese" a fine progetto. Come avete voi stesso messo in evidenza è relativamente semplice calcolare il costo dell'hardware.
Dove veramente si distingue una buona ed efficiente azienda e nel prevedere e quantizzare il costo per la realizzazione la controparte software. Avere un team di x n. di persone (esterne o interne) che sono costrette continuamente a inseguire e correggere del software mal realizzato a parer mio ha costi nascosti ben più elevati e poco controllabili rispetto a quelli dell'hardware.
__________________
Amstrad 386sx-8/16mhz, RAM: 2Mb, HD WD: 20Mb, CDRom: 2X, SkedaAudio: SB-PRO 12bit, SkedaVideo: SVGA-EISA-S3 1Mb, SO: DOS 6.22 - Win 3.11

transazione ok: matrix1975 - Bravonera2
goldfix è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 12:58   #46
blade9722
Senior Member
 
L'Avatar di blade9722
 
Iscritto dal: Jun 2007
Messaggi: 9933
Quote:
Originariamente inviato da yossarian Guarda i messaggi
tutto corretto; ci sono da precisare alcune cose, però: il passare da 400 a 576 mm^2 porta il costo stimato da 5$/100mm^2 a circa 7,2$/mm^2. Ipotizzando un rendimento del 40% (prendiamo per buono quello che circola online, anche perchè non è molto distante dalla verità) e considerando che su un wafer ci stanno circa 94 die (anzichè 100), il costo complessivo si aggirerebbe sui 108 $ per die, sempre tenendo per buone le caratteristiche da te elencate ovvero, niente soi o strained silicon on insulator, niente memorie non volatili, non più di 5 layer di metallizzazioni, ecc. Questo contro i circa 25$ scarsi di un RV770 (ipotizzando un rendimento del 60% complessivo per hd4850 e hd4870, e mi sto tenendo stretto, e 220 die per wafer). Aggiungi la maggior complessità di un pcb con controller a 512 bit (per la gtx280) ed ecco spiegati i costi elevati delle soluzioni con gt2x0.

Ciao,
c'è una imprecisione sul discorso 7.2 mm^2: fissato il costo della fetta, il costo per area rimane invariato. Se l'area del dispositivo aumenta, aumenta il costo per pezzo dello stesso fattore, ma il costo per area rimane invariato.

Per quanto riguarda il costo del PCB, che esula comunque dal discorso sin qui fatto in quanto si parlavo del costo della sola GPU, la maggiore complessità data dal controller a 512 bit determina un costo di sviluppo leggermente maggiore (il designer impiega più tempo a posizionare tutte le linee), ma non impatta, a meno che non sia richiesto un pitch più aggressivo, sul costo della PCB. Il maggior contributo totale al costo della applicazione è dato dai consumi del sistema: più il consumo è elevato, più componenti sono necessari per la sezione di potenza.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test
blade9722 è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 13:17   #47
blade9722
Senior Member
 
L'Avatar di blade9722
 
Iscritto dal: Jun 2007
Messaggi: 9933
Quote:
Originariamente inviato da leoneazzurro Guarda i messaggi
Dipende anche dal grado di integrazione che si vuole raggiungere: chiaramente per processi a 55 e 65 nm si richiede che tutta la filiera del processo abbia una precisione maggiore che non, mettiamo esempio, a 250nm. E questo comporta costi per attrezzature superiori alla media (per l'apertura della FAB30 a Dresda a 65 nm AMD sembra aver speso almeno un paio di migliaia di milioni di Euro), oltre che l'utilizzo di materiali differenti dallo standard a seconda se il processo è quello "normale" o quello "high performance". E, ad ogni modo, io parlavo del wafer pronto per il taglio e packaging, ossia già processato.
Per le rese, chiaramente nessuno a parte Nvidia o ATI (e i loro fornitori) hanno i valori precisi, sta di fatto che più fonti danno per "scarse" le rese Nvidia e "molto buone" quelle ATI, arrivando anche a definire un costo abbastanza indicativo del GT200 superiore ai 100$.
La mià perplessità riguarda appunto sull'affidabilità della fonte. Come nel poker la regola base è saper nascondere le proprie carte, nelle attività industriali la regola base è nascondere il costo di produzione e sviluppo dei propri prodotti.

Per un semplice motivo: se io fossi un venditore Nvidia, e dovessi fissare le quotazioni per un cliente importante, a me farebbe assai comodo che questo cliente pensasse che ogni singolo pezzo mi costi 100$ quando in realtà mi costa 50. In questo modo, se gli proponessi un prezzo di vendita di 120$, sarebbe più propenso ad accettare, mentre se fosse al corrente del vero prezzo sarebbe portato a giocare al ribasso, confidando sul fatto che anche con 80$ avrei un buon margine.

Sul valore a cui si può quotare un prodotto senza vendere in perdita c'è talmente tanto riserbo che io non sono mai riuscito ad avere tale dettaglio (ma solo dettagli generici parziali, come il costo base della fetta a cui ho accennato) dal marketing engineer per i dispositivi che io ho sviluppato. Per questo, la mia personale opinione è che, a meno che Daily tech non abbia qualche ex spia del KGB infiltrato nelle file Nvidia, l'affidabilità di tale valore sia piuttosto approssimativa. E come conseguenza tutta la discussione sia basata non sul reale costo del GT200, ma sul costo della GPU riportato da Daily tech.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test
blade9722 è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 13:29   #48
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da blade9722 Guarda i messaggi
Ciao,
c'è una imprecisione sul discorso 7.2 mm^2: fissato il costo della fetta, il costo per area rimane invariato. Se l'area del dispositivo aumenta, aumenta il costo per pezzo dello stesso fattore, ma il costo per area rimane invariato.
ciao
ok; resta, comunque invariata la sostanza, ovvero il costo finale (ho fatto il rapporto del costo mantenendo la misura di 400 mm^2, il che è equivalente a considerare un costo fisso con l'aumento delle dimensioni del chip)

Quote:
Originariamente inviato da blade9722 Guarda i messaggi
Ciao,

Per quanto riguarda il costo del PCB, che esula comunque dal discorso sin qui fatto in quanto si parlavo del costo della sola GPU, la maggiore complessità data dal controller a 512 bit determina un costo di sviluppo leggermente maggiore (il designer impiega più tempo a posizionare tutte le linee), ma non impatta, a meno che non sia richiesto un pitch più aggressivo, sul costo della PCB. Il maggior contributo totale al costo della applicazione è dato dai consumi del sistema: più il consumo è elevato, più componenti sono necessari per la sezione di potenza.
nel costo complessivo vanno conteggiati anche i costi di ricerca e sviluppo, almeno fino a quando gli stessi non saranno ammortizzati (questo vale sia per il pcb che per la gpu). Il che significa che se un pcb complesso costa, a livello di progettazione, più di uno semplice, questo andrà ad incidere sul costo del prodotto finale. Nel momento in cui nVidia o ATi o chiunque altro, propongono un modello "reference", significa che si sono già sobbarcate i costi di sviluppo del pcb, sia per quanto riguarda le linee di trasmissione che i circuiti di alimentazione e, al momento in cui propongono un prodotto (ossia un a nuova gpu) devono rientrare anche di quei costi

Ultima modifica di yossarian : 06-07-2008 alle 14:07.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 13:44   #49
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da blade9722 Guarda i messaggi
La mià perplessità riguarda appunto sull'affidabilità della fonte. Come nel poker la regola base è saper nascondere le proprie carte, nelle attività industriali la regola base è nascondere il costo di produzione e sviluppo dei propri prodotti.

Per un semplice motivo: se io fossi un venditore Nvidia, e dovessi fissare le quotazioni per un cliente importante, a me farebbe assai comodo che questo cliente pensasse che ogni singolo pezzo mi costi 100$ quando in realtà mi costa 50. In questo modo, se gli proponessi un prezzo di vendita di 120$, sarebbe più propenso ad accettare, mentre se fosse al corrente del vero prezzo sarebbe portato a giocare al ribasso, confidando sul fatto che anche con 80$ avrei un buon margine.

Sul valore a cui si può quotare un prodotto senza vendere in perdita c'è talmente tanto riserbo che io non sono mai riuscito ad avere tale dettaglio (ma solo dettagli generici parziali, come il costo base della fetta a cui ho accennato) dal marketing engineer per i dispositivi che io ho sviluppato. Per questo, la mia personale opinione è che, a meno che Daily tech non abbia qualche ex spia del KGB infiltrato nelle file Nvidia, l'affidabilità di tale valore sia piuttosto approssimativa. E come conseguenza tutta la discussione sia basata non sul reale costo del GT200, ma sul costo della GPU riportato da Daily tech.
vero, però le dimensioni dei chip e i costi dei materiali soo noti; i costi di sviluppo e le rese produttive resterebbero le uniche incognite. Per quanto riguarda le seconde ci si può fare un'idea, magari più qualitativa che quantitativa, guardando il numero di scarti delle produzioni delle gpu (più livelli di gpu "castrate" vengono proposti, più le rese sono basse); la vera incognita sarebbero, a questo punto, i costi di sviluppo. Ammettendo di non avere un'idea di questi ultimi, si può, però, fare una stima di massima fissando, grossolanamente, un range di costi che possa risultare accettabile. Inoltre, è alquanto improbabile che un eventuale partner non abbia la minima idea dei costi di sviluppo della soluzione che va ad acquistare.
Tenendo conto di tutto, una stima che pone i costi presunti di GT2x0 superiori di circa 4 volte rispetto a quelli di RV770, non solo è abbastanza verosimile, ma, IMHO, andrebbe vista al rialzo

Ultima modifica di yossarian : 06-07-2008 alle 14:09.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 13:54   #50
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da goldfix Guarda i messaggi
Secondo me l'analisi che avete fatto entrambi è perfetta, ma sottovalutate altri aspetti. Di per se a questo tipo di aziende, il costo della materia prima è forse quello più prevedibile e che da meno "sorprese" a fine progetto. Come avete voi stesso messo in evidenza è relativamente semplice calcolare il costo dell'hardware.
Dove veramente si distingue una buona ed efficiente azienda e nel prevedere e quantizzare il costo per la realizzazione la controparte software. Avere un team di x n. di persone (esterne o interne) che sono costrette continuamente a inseguire e correggere del software mal realizzato a parer mio ha costi nascosti ben più elevati e poco controllabili rispetto a quelli dell'hardware.
non so a cosa tu ti riferisca riguardo al SW mal realizzato. In realtà non esiste SW mal realizzato se parliamo di SW che esce dall'azienda che progetta anche l'HW (parlo di programmazione a basso livello dei chip o dei driver), poichè che si occupa di sviluppare quel tipo di SW conosce perfettamente l'HW su cui deve girare. Il problema può porsi con SW sviluppato da terze parti (giochi o altro) e i driver servono proprio da interfaccia tra questo e i chip che devono farlo girare. Se ci si avventura su quel terreno, però, ci sono da considerare svariati altri fattori che sfuggono a qualunque valutazione: in primo luogo gli accordi o la partnership tra produttori di HW e di SW che portano allo sviluppo di titoli basati sulle caratteristiche di un particolare tipo di HW a scapito degli altri. Poi ci sono SW male ottimizzati, qualunque sia l'architettura che si prende come riferimento. I motivi per cui i driver stanno crescendo a dismisura sono principalmente questi (nella stragrande maggiornaza dei casi si è costretti a riordinare o a riassemblare le istruzioni, in alcuni, addirittura a fare operazioni di shader replacement)
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 14:20   #51
goldfix
Senior Member
 
L'Avatar di goldfix
 
Iscritto dal: Jun 2002
Città: Milano
Messaggi: 458
Quote:
Originariamente inviato da yossarian Guarda i messaggi
non so a cosa tu ti riferisca riguardo al SW mal realizzato. In realtà non esiste SW mal realizzato se parliamo di SW che esce dall'azienda che progetta anche l'HW (parlo di programmazione a basso livello dei chip o dei driver), poichè che si occupa di sviluppare quel tipo di SW conosce perfettamente l'HW su cui deve girare. Il problema può porsi con SW sviluppato da terze parti (giochi o altro) e i driver servono proprio da interfaccia tra questo e i chip che devono farlo girare. Se ci si avventura su quel terreno, però, ci sono da considerare svariati altri fattori che sfuggono a qualunque valutazione: in primo luogo gli accordi o la partnership tra produttori di HW e di SW che portano allo sviluppo di titoli basati sulle caratteristiche di un particolare tipo di HW a scapito degli altri. Poi ci sono SW male ottimizzati, qualunque sia l'architettura che si prende come riferimento. I motivi per cui i driver stanno crescendo a dismisura sono principalmente questi (nella stragrande maggiornaza dei casi si è costretti a riordinare o a riassemblare le istruzioni, in alcuni, addirittura a fare operazioni di shader replacement)
Lasciamo fuori accordi e partnership, quello a cui mi riferisco è solo la scrittura dei "driver". Magari fosse semplice e lineare come la metti tu. E credimi non è assolutamente scontato che dato che progettano l'hardware, allora la scrittura delle interfaccie software sia cosi semplice e lineare. Spesso sorgono problemi sia lato sistema operativo, sia dal lato hardware... e si perde taaaantooo tempo per rimettere a posto le cose.

Spesso i progettisti hardware non semplificano la vita agli sviluppatori e nella maggior parte dei casi gli sviluppatori si prendono certe liberta che i progettisti nn avevano preso in considerazione.

Se a questo aggiungi che parte del lavoro viene affidato a consulenti esterni che devono interfacciarsi con il gruppo interno le cose si complicano ulteriormente.

Come giustamente dici tu è praticamente impossibile fare previsioni assolute da questo punto di vista. L'acquisto della materia prima alla fine forse è proprio uno dei fattori piu "stabili" e sicuri.

__________________
Amstrad 386sx-8/16mhz, RAM: 2Mb, HD WD: 20Mb, CDRom: 2X, SkedaAudio: SB-PRO 12bit, SkedaVideo: SVGA-EISA-S3 1Mb, SO: DOS 6.22 - Win 3.11

transazione ok: matrix1975 - Bravonera2
goldfix è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 15:51   #52
blade9722
Senior Member
 
L'Avatar di blade9722
 
Iscritto dal: Jun 2007
Messaggi: 9933
Quote:
Originariamente inviato da yossarian Guarda i messaggi
ciao
ok; resta, comunque invariata la sostanza, ovvero il costo finale (ho fatto il rapporto del costo mantenendo la misura di 400 mm^2, il che è equivalente a considerare un costo fisso con l'aumento delle dimensioni del chip)



nel costo complessivo vanno conteggiati anche i costi di ricerca e sviluppo, almeno fino a quando gli stessi non saranno ammortizzati (questo vale sia per il pcb che per la gpu). Il che significa che se un pcb complesso costa, a livello di progettazione, più di uno semplice, questo andrà ad incidere sul costo del prodotto finale. Nel momento in cui nVidia o ATi o chiunque altro, propongono un modello "reference", significa che si sono già sobbarcate i costi di sviluppo del pcb, sia per quanto riguarda le linee di trasmissione che i circuiti di alimentazione e, al momento in cui propongono un prodotto (ossia un a nuova gpu) devono rientrare anche di quei costi

No, direi di no, un buon professionista con i tool CAD deve, nell'ordine, effettuare le seguenti operazioni:

- Impostare le connessioni nello schematic entry (cioè nella vista che tiene conto delle connessioni fra i vari pin degli integrati, senza curarsi di come vengano effettuati).
- Ottimizzare il floorplan dei componenti, ciòè stabilire la posizione più adatta nel PCB dei componenti critici, nonchè delle net più sensibili.
- Avviare il tool di placement and routing, che si occupa del piazzamento della parte rimanente
- Estrarre, a layout finito, una netlist comprensiva degli accoppiamenti parassiti
- Verificare su tale netlist eventuali accoppiamenti indesiderati. Nell'eventualità correggere alcune net oppure affinare il floorplan e ripetere l'operazione.

In questo flusso di progetto, l'aumento di complessità dato da un bus a 512bit invece che da uno a 256bit è poco significativo, e tale di conseguenza il costo di sviluppo.

In generale, una ampiezza di bus maggiore ha come conseguenza un PCB più ampio o con più layer, e ciò può essere un problema quando, come ad esempio nei PC portatili, o nelle MB per Desktop molto accessoriate, lo spazio a disposizione costituisce un vincolo.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test
blade9722 è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 16:01   #53
blade9722
Senior Member
 
L'Avatar di blade9722
 
Iscritto dal: Jun 2007
Messaggi: 9933
Quote:
Originariamente inviato da yossarian Guarda i messaggi
vero, però le dimensioni dei chip e i costi dei materiali soo noti; i costi di sviluppo e le rese produttive resterebbero le uniche incognite. Per quanto riguarda le seconde ci si può fare un'idea, magari più qualitativa che quantitativa, guardando il numero di scarti delle produzioni delle gpu (più livelli di gpu "castrate" vengono proposti, più le rese sono basse); la vera incognita sarebbero, a questo punto, i costi di sviluppo. Ammettendo di non avere un'idea di questi ultimi, si può, però, fare una stima di massima fissando, grossolanamente, un range di costi che possa risultare accettabile. Inoltre, è alquanto improbabile che un eventuale partner non abbia la minima idea dei costi di sviluppo della soluzione che va ad acquistare.
Tenendo conto di tutto, una stima che pone i costi presunti di GT2x0 superiori di circa 4 volte rispetto a quelli di RV770, non solo è abbastanza verosimile, ma, IMHO, andrebbe vista al rialzo

Beh, se con 100$ si intende un range, a questo punto tutto si sposta su quanto accurato si pensa sia tale range.....

Per quanto riguardo il discorso secondo cui un eventuale partner dovrebbe essere a conoscenza dei costi di sviluppo, basta solo avere le idee chiare di cosa sia un rapporto di partnership. Se il cliente paga lo sviluppo del dispositivo, allora ovviamente è a conoscenza dei costi. Ma non mi sembra il caso di Nvidia, che sviluppa i propri prodotti in maniera autonoma per poi venderli agli OEM e ODM. Anche perchè se un partner copre i costi di sviluppo, è solito pretendere l'esclusiva, nessuno è disposto a finanziare prodotti che verranno venduti alla concorrenza. E non mi sembra che le schede Nvidia siano monomarca. Se invece un "cliente" ("partner" in questo caso non credo sia un termine corretto) non finanzia lo sviluppo, allora non è in nessun modo a conoscenza nè dei costi di svilupppo, nè tantomeno di quelli di produzione e distribuzione.

Ma Daily tech, a quanto pare, si......
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test
blade9722 è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 16:21   #54
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Beh, dovremmo comunque d'accordo che un die di GT200 costi a Nvidia certo una cifra ben superiore ai 50$, per usare un eufemismo, e certo non inferiore ai 70$ esclusi i costi di packaging e testing, e che un die di RV770 costa meno di due volte quella cifra. E questo escludendo che il processo abbia più di 5 strati di metallizzazione, che non usi high-K o materiali particolari, ecc (il che invece non è detto a priori).

Poi c'è ancora un però: Nvidia paga a TSMC (per dirne uno tra i vari partner che costruiscono effettivamente la GPU) il costo di fabbricazione più un qualcosa che costituisce il margine di TSMC (che non è zero), quindi si può anche affermare con buona sicurezza che Nvidia non paga a TSMC i 3500$ al wafer, ma qualcosa di più. E se paga a TSMC solo le GPU buone, non credo che TSMC voglia rimetterci facendogli pagare meno di quanto ottenibile in realtà.

Ad ogni modo, la voce dei "più di 100$ a GPU" non è venuta solo da un sito, ma da parecchi, comrpesi quelli più accreditati. In questi casi, comunque, di solito ci sono dei contatti nelle aziende che forniscono i chip a Nvidia ed ATI, che conoscono i dati economici e che fanno spesso da "talpa" a dei giornalisti.
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe

Ultima modifica di leoneazzurro : 06-07-2008 alle 16:38.
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 19:03   #55
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da blade9722 Guarda i messaggi
No, direi di no, un buon professionista con i tool CAD deve, nell'ordine, effettuare le seguenti operazioni:

- Impostare le connessioni nello schematic entry (cioè nella vista che tiene conto delle connessioni fra i vari pin degli integrati, senza curarsi di come vengano effettuati).
- Ottimizzare il floorplan dei componenti, ciòè stabilire la posizione più adatta nel PCB dei componenti critici, nonchè delle net più sensibili.
- Avviare il tool di placement and routing, che si occupa del piazzamento della parte rimanente
- Estrarre, a layout finito, una netlist comprensiva degli accoppiamenti parassiti
- Verificare su tale netlist eventuali accoppiamenti indesiderati. Nell'eventualità correggere alcune net oppure affinare il floorplan e ripetere l'operazione.

In questo flusso di progetto, l'aumento di complessità dato da un bus a 512bit invece che da uno a 256bit è poco significativo, e tale di conseguenza il costo di sviluppo.

In generale, una ampiezza di bus maggiore ha come conseguenza un PCB più ampio o con più layer, e ciò può essere un problema quando, come ad esempio nei PC portatili, o nelle MB per Desktop molto accessoriate, lo spazio a disposizione costituisce un vincolo.
tutti passaggi che nella transizione da un'architettura con bus a 256 bit (ormai consolidata) ad una con bus a 512 bit vanno rivisitati. Questo senza tener conto dell'aumento di costi dovuto alla maggior complessità di un pcb con più layer:
- le connessioni nello schematic entry relative alla gpu sono il doppio
- le posizioni più adatte dei componenti, passando da 256 a 512 bit non è detto che possano rimanere invariate (è probabile il contrario)
- gli accoppiamenti parassiti possono costituire un elemento critico, a meno che non si scelga la strada di un pcb di dimensioni piuttosto generose (e non è il caso delle 280 e 260 gtx).
In conclusione, agli aumenti di costo dovuti alla maggior complessità del pcb si sommano quelli relativi alla necessità di doverlo riporgettare per buona parte. E stiamo parlando del solo pcb, mentre non abbiamo ancora considerato i costi di progettazione della gpu che è derivata da G80 ma non è identica (anzi presenta delle differenze significative)

Ultima modifica di yossarian : 06-07-2008 alle 20:22.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 19:21   #56
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da blade9722 Guarda i messaggi
Beh, se con 100$ si intende un range, a questo punto tutto si sposta su quanto accurato si pensa sia tale range.....
il range può andare da 90 a 120 $ circa e 105-110 $ possono essere un costo ragionevolmente accurato (calcolando un rendimento pari al 40% e processo produttivo standard)
Di certo si può, con una certa accuratezza, stimare che il rapporto tra il costo di RV770 e quello di GT2x0 è, nella peggiore delle ipotesi (per AMD), di 1:3 (che il rendimento nella produzione di RV770 sia più elevato è evidente, non fosse altro per il fatto che i chip che equipaggiano le 4850 e le 4870 differiscono solo per le frequenze di funzionamento, cosa non vera per i chip delle 260 e delle 280). Se, quindi, tu stimi che GT200 costi a nVidia 50 $, allora è ragionevole ritenere che RV770 costi non più di 15 $. Sempre dando per buona l'ipotesi di un processo produttivo standard (niente soi, ecc.) e senza costi di progettazione del chip (nel computo fatto non si è tenuto conto del fatto che parliamo di un chip "nuovo" e non di uno shrink o una realizzazione di un progetto consolidato)

Quote:
Originariamente inviato da blade9722 Guarda i messaggi

Per quanto riguardo il discorso secondo cui un eventuale partner dovrebbe essere a conoscenza dei costi di sviluppo, basta solo avere le idee chiare di cosa sia un rapporto di partnership. Se il cliente paga lo sviluppo del dispositivo, allora ovviamente è a conoscenza dei costi. Ma non mi sembra il caso di Nvidia, che sviluppa i propri prodotti in maniera autonoma per poi venderli agli OEM e ODM. Anche perchè se un partner copre i costi di sviluppo, è solito pretendere l'esclusiva, nessuno è disposto a finanziare prodotti che verranno venduti alla concorrenza. E non mi sembra che le schede Nvidia siano monomarca. Se invece un "cliente" ("partner" in questo caso non credo sia un termine corretto) non finanzia lo sviluppo, allora non è in nessun modo a conoscenza nè dei costi di svilupppo, nè tantomeno di quelli di produzione e distribuzione.

Ma Daily tech, a quanto pare, si......
sicuramente molti partner che propongono pcb non reference sono a conoscenza almeno dei costi di progettazione e sviluppo di quel componente. In quanto ai costi di produzione del chip, è molto probabile* che i partner di nVidia abbiano modo di conoscere i costi di un wafer e di rendersi conto del rendimento del processo produttivo, in base al numero e alla tipologia di chip fornitigli (una 260gtx è chiaramente uno scarto di produzione della 280gtx e a breve se ne vedranno altri, con un numero sempre minore di unità funzionanti, così come accaduto per G80/G9x o per RV6x0).

* è un eufemismo: i costi di un wafer, quanti chip può contenere e le rese produttive sono note, a grandi linee, anche ai partner (l'unica cosa che ignorano sono i costi di progettazione)

Infine, ti pongo un quesito: secondo te, per quale motivo ATi ha abbandonato la strada del chip monolitico di grandi dimensioni? Per incapacità a competere con nVidia sul singolo chip? Per incapacità a progettare un chip più grande o più complesso di RV770?

Ultima modifica di yossarian : 06-07-2008 alle 20:48.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 20:03   #57
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da leoneazzurro Guarda i messaggi
Beh, dovremmo comunque d'accordo che un die di GT200 costi a Nvidia certo una cifra ben superiore ai 50$, per usare un eufemismo, e certo non inferiore ai 70$ esclusi i costi di packaging e testing, e che un die di RV770 costa meno di due volte quella cifra. E questo escludendo che il processo abbia più di 5 strati di metallizzazione, che non usi high-K o materiali particolari, ecc (il che invece non è detto a priori).


Ad ogni modo, la voce dei "più di 100$ a GPU" non è venuta solo da un sito, ma da parecchi, comrpesi quelli più accreditati. In questi casi, comunque, di solito ci sono dei contatti nelle aziende che forniscono i chip a Nvidia ed ATI, che conoscono i dati economici e che fanno spesso da "talpa" a dei giornalisti.
io non li escluderei affatto, considerando che, per dirne una, è già da un po' (ATi ha iniziato con la serie 17x0 per notebook ed è stata la prima nel campo delle gpu) che per cpu e gpu si fa uso di silicon strained on insulator che abbina al SOI una sorta di "stiramento" del retiìcolo cristallino nella direzione in cui si vuole favorire il movimento delle cariche. Inoltre, tieni conto che a oltre 100 $ ci siamo arrivati anche noi, facendo qualche calcolo che tiene conto solo delle dimensioni del chip, di quanti chip possono essere allocati su un wafer (informazioni non difficili da reperire e non coperte da alcun segreto), facendo una stima delle rese del processo produttivo e basandoci su un costo per wafer di un processo produttivo di tipo standard (ipotesi non molto verosimile)

Ultima modifica di yossarian : 06-07-2008 alle 20:18.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 21:09   #58
blade9722
Senior Member
 
L'Avatar di blade9722
 
Iscritto dal: Jun 2007
Messaggi: 9933
Quote:
Originariamente inviato da yossarian Guarda i messaggi
tutti passaggi che nella transizione da un'architettura con bus a 256 bit (ormai consolidata) ad una con bus a 512 bit vanno rivisitati. Questo senza tener conto dell'aumento di costi dovuto alla maggior complessità di un pcb con più layer:
- le connessioni nello schematic entry relative alla gpu sono il doppio
- le posizioni più adatte dei componenti, passando da 256 a 512 bit non è detto che possano rimanere invariate (è probabile il contrario)
- gli accoppiamenti parassiti possono costituire un elemento critico, a meno che non si scelga la strada di un pcb di dimensioni piuttosto generose (e non è il caso delle 280 e 260 gtx).
In conclusione, agli aumenti di costo dovuti alla maggior complessità del pcb si sommano quelli relativi alla necessità di doverlo riporgettare per buona parte. E stiamo parlando del solo pcb, mentre non abbiamo ancora considerato i costi di progettazione della gpu che è derivata da G80 ma non è identica (anzi presenta delle differenze significative)
Mah, non capisco su quale basi tu sia sicuro al 100% che il passaggio da un bus a 256bit ad uno a 512bit implichi necessariamente un maggior numero di layer.
Beh, io ti ho dato la mia opinione: il passaggio da 256bit a 512bit in un pcb di quel tipo non è così problematico. Se non ti convince pazienza.....
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test
blade9722 è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 21:12   #59
blade9722
Senior Member
 
L'Avatar di blade9722
 
Iscritto dal: Jun 2007
Messaggi: 9933
Quote:
Originariamente inviato da yossarian Guarda i messaggi
il range può andare da 90 a 120 $ circa e 105-110 $ possono essere un costo ragionevolmente accurato (calcolando un rendimento pari al 40% e processo produttivo standard)
Di certo si può, con una certa accuratezza, stimare che il rapporto tra il costo di RV770 e quello di GT2x0 è, nella peggiore delle ipotesi (per AMD), di 1:3 (che il rendimento nella produzione di RV770 sia più elevato è evidente, non fosse altro per il fatto che i chip che equipaggiano le 4850 e le 4870 differiscono solo per le frequenze di funzionamento, cosa non vera per i chip delle 260 e delle 280). Se, quindi, tu stimi che GT200 costi a nVidia 50 $, allora è ragionevole ritenere che RV770 costi non più di 15 $. Sempre dando per buona l'ipotesi di un processo produttivo standard (niente soi, ecc.) e senza costi di progettazione del chip (nel computo fatto non si è tenuto conto del fatto che parliamo di un chip "nuovo" e non di uno shrink o una realizzazione di un progetto consolidato)



sicuramente molti partner che propongono pcb non reference sono a conoscenza almeno dei costi di progettazione e sviluppo di quel componente. In quanto ai costi di produzione del chip, è molto probabile* che i partner di nVidia abbiano modo di conoscere i costi di un wafer e di rendersi conto del rendimento del processo produttivo, in base al numero e alla tipologia di chip fornitigli (una 260gtx è chiaramente uno scarto di produzione della 280gtx e a breve se ne vedranno altri, con un numero sempre minore di unità funzionanti, così come accaduto per G80/G9x o per RV6x0).

* è un eufemismo: i costi di un wafer, quanti chip può contenere e le rese produttive sono note, a grandi linee, anche ai partner (l'unica cosa che ignorano sono i costi di progettazione)

Infine, ti pongo un quesito: secondo te, per quale motivo ATi ha abbandonato la strada del chip monolitico di grandi dimensioni? Per incapacità a competere con nVidia sul singolo chip? Per incapacità a progettare un chip più grande o più complesso di RV770?
Anche qui vedo molti "sicuramente" senza solidi basi.

Ragazzi, io le mie obiezioni le ho sollevate: che state speculando con eccessiva sicurezza di argomenti di cui difficilmente potreste avere informazioni dettagliate. Domani è lunedì, torno al mio lavoro....
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test
blade9722 è offline   Rispondi citando il messaggio o parte di esso
Old 06-07-2008, 21:34   #60
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da blade9722 Guarda i messaggi
Mah, non capisco su quale basi tu sia sicuro al 100% che il passaggio da un bus a 256bit ad uno a 512bit implichi necessariamente un maggior numero di layer.
Beh, io ti ho dato la mia opinione: il passaggio da 256bit a 512bit in un pcb di quel tipo non è così problematico. Se non ti convince pazienza.....
o più layer o pcb più grandi; e non mi risulta che ci sia differenza tra il pcb di una gtx280 e quello di una 9800gtx.

Quote:
Originariamente inviato da blade9722 Guarda i messaggi
Anche qui vedo molti "sicuramente" senza solidi basi.

Ragazzi, io le mie obiezioni le ho sollevate: che state speculando con eccessiva sicurezza di argomenti di cui difficilmente potreste avere informazioni dettagliate. Domani è lunedì, torno al mio lavoro....
non mi pare che tu abbia portato argomentazioni solide, a parte le tue consioerazioni personali sulle possibili rese, che valgono quanto quelle di chiunque altro.
In quanto a costi di un wafer, numero di chip per wafer e resa del processo produttivo, non sono di sicuro informazioni riservate o a cui nessuno tranne chi lavora per nVidia può avere accesso.
Nei tuoi conteggi, oltre a minimizzare (fino ad azzerarli) i costi per il passaggio da un pcb con bus a 256 bit ad uno con bus a 512 bit (allora ci sarebbe da chiedersi come mai ci si sia arrivati solo ora e per quale motivo ATi è tornata da un bus a 512 bit con R600 ad uno a 256 con RV770), hai del tutto tralasciato di conteggiare i costi di progettazione della gpu (ripeto, GT200 non è uguale a G80 e non solo per via del bus).
Se partiamo dai dati da te forniti (prendendo per buona l'ipotesi di un processo standard, cosa che non è), si arriva facilmente, facendo ipotesi su rese differenti da quelle da te ipotizzate, ad oltre 100 $ per chip (tralasciando i costi di progettazione); facendo conteggi analoghi, sempre partendo dagli stessi dati, per RV770 risulta, nella peggiore delle ipotesi un costo di circa 2,5/3 volte inferiore per la sola gpu (senza tener conto del fatto che il pcb è dello stesso tipo di quello usato per RV6x0 e, quindi, non comporta costi aggiuntivi).

Stabdo alle tue conclusioni, invece, sembra quasi che sia conveniente produrre chip con bus a 512 bit (stessa spesa per il pcb ma banda molto maggiore) e di dimensioni enormi. Da osservare, però, che ATi (o AMD) non la pensa allo stesso modo, poichè è tornata a produrre chip con bus a 256 bit (dopo averne prodotto uno a 512) e di dimensioni contenute (R580 ed R600 erano circa il 26%e il 68% più grandi di RV770). E né lei né tantomeno i suoi partner stanno certo vendendo in perdita

Ultima modifica di yossarian : 06-07-2008 alle 22:38.
yossarian è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Realme 15 Pro Game Of Thrones: un vero cimelio tech per pochi eletti Recensione Realme 15 Pro Game Of Thrones: un ver...
GIGABYTE GAMING A16, Raptor Lake e RTX 5060 Laptop insieme per giocare al giusto prezzo GIGABYTE GAMING A16, Raptor Lake e RTX 5060 Lapt...
iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile iPhone 17 Pro: più di uno smartphone. &Eg...
Intel Panther Lake: i processori per i notebook del 2026 Intel Panther Lake: i processori per i notebook ...
Intel Xeon 6+: è tempo di Clearwater Forest Intel Xeon 6+: è tempo di Clearwater Fore...
Partnership EOLO-Qualcomm: connettivit&a...
Fanatec senza freni: ufficiali il nuovo ...
Instagram, arriva la classificazione PG-...
Microsoft rimuove il blocco all'aggiorna...
Annunciati i vincitori del Leica Oskar B...
Polemiche per il ritorno della Mad Max M...
Leapmotor non si ferma: nuova ammiraglia...
Impulse Space svilupperà un lande...
I 2 mini aspirapolvere più potent...
The Crew 2 diventa finalmente giocabile ...
Sta succedendo davvero: Assetto Corsa Ra...
I 5 smartphone più scontati su Amazon: m...
Disponibilità OxygenOS 16: ecco q...
OxygenOS 16 ufficiale: tutte le novit&ag...
Nio sotto pressione: azioni crollano dop...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 11:49.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1