Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

vivo X200 FE: il top di gamma si è fatto tascabile?
vivo X200 FE: il top di gamma si è fatto tascabile?
Molte persone vorrebbero prestazioni da top di gamma, ma in formato più tascabile. vivo X200 FE si indirizza proprio a questo tipo di persone e vuole rappresentare il giusto mix tra prestazioni e ingombri, con una batteria da ben 6.500 mAh in un corpo da 7,99 millimetri di spessore. La nostra prova completa
TCL 65C7K, televisore Mini-LED di qualità, versatile e dal prezzo competitivo
TCL 65C7K, televisore Mini-LED di qualità, versatile e dal prezzo competitivo
Tecnologia Mini LED, pannello 4K QLED HVA a 144Hz e audio Bang & Olufsen: il nuovo TCL 65C7K si candida come best buy per l’intrattenimento domestico a tutto tondo, con promozioni che ne esaltano il rapporto qualità/prezzo
Fujifilm X-E5: la Fuji X che tutti gli appassionati volevano
Fujifilm X-E5: la Fuji X che tutti gli appassionati volevano
Dopo il fascino un po’ elitario della GFX100RF e le polemiche intorno a x Half, la nuova Fujifilm X-E5 riporta tutti d’accordo: una mirrorless compatta, leggera, elegante, e finalmente con stabilizzazione IBIS a bordo anche sulla serie E. Con il sensore da 40 MP e il processore X-Processor 5, eredita prestazioni da sorelle più costose, ma con l'ergonomia del mirino laterale in stile telemetro e una nuova ghiera per le simulazioni pellicola. Il tutto a un prezzo che, seppur più alto della precedente X-E4, la pne in kit al parti di X100VI
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 14-09-2010, 14:55   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.hwfiles.it/news/nvidia-pa...-32_33733.html

NVIDIA presenta le versione aggiornate di Parallel Nsight e Cuda toolkit, la serie di applicazioni con cui intende spingere la diffusione di CUDA

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:04   #2
fdl88
Senior Member
 
L'Avatar di fdl88
 
Iscritto dal: Dec 2007
Città: Palermo
Messaggi: 4585
non riesco a capire perchè il gpgpu stia avendo questa difficoltà ad espandersi
fdl88 è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:10   #3
Predator_1982
Senior Member
 
L'Avatar di Predator_1982
 
Iscritto dal: Jul 2010
Messaggi: 6081
Perchè non è pensabile non avere uno standard che rendi la programmazione delle GPU identica a prescindere dalla marca. Le CPU x86 x64 le programmi indipendentemente dal fatto che siano intel o AMD. Finchè non si supererà tale ostacolo rimarrà un qualcosa di nicchia, scarsamente utilizzato ed implementato.
Predator_1982 è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:12   #4
Human_Sorrow
Senior Member
 
Iscritto dal: May 2007
Messaggi: 825
Perché i benefici son di nicchia e la difficoltà nello sviluppo è alta ...
Human_Sorrow è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:21   #5
demon77
Senior Member
 
L'Avatar di demon77
 
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21641
Quote:
Originariamente inviato da Predator_1982 Guarda i messaggi
Perchè non è pensabile non avere uno standard che rendi la programmazione delle GPU identica a prescindere dalla marca. Le CPU x86 x64 le programmi indipendentemente dal fatto che siano intel o AMD. Finchè non si supererà tale ostacolo rimarrà un qualcosa di nicchia, scarsamente utilizzato ed implementato.
Come non quotare..
__________________
DEMON77

La mia galleria su Deviant Art: http://aby77.deviantart.com/gallery/?catpath=/
demon77 è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:24   #6
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12083
Quote:
Originariamente inviato da Predator_1982 Guarda i messaggi
Perchè non è pensabile non avere uno standard che rendi la programmazione delle GPU identica a prescindere dalla marca. Le CPU x86 x64 le programmi indipendentemente dal fatto che siano intel o AMD. Finchè non si supererà tale ostacolo rimarrà un qualcosa di nicchia, scarsamente utilizzato ed implementato.
sono 2 i produttori di schede non 50.

professionalmente il GPGPU e CUDA sono molto piu diffusi, a differenza dell'ambito home dove nella maggiorparte dei casi lo sforzo di trasportare il codice su GPU non vale il risultato....

Professionalmente, non si pone nemmeno il problema, visto che l'80-90% del mercato è in mano a nVidia e difatti è praticamente quasi tutto CUDA.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:26   #7
ronzino
Senior Member
 
Iscritto dal: May 2002
Città: Roma
Messaggi: 688
Quote:
Originariamente inviato da fdl88 Guarda i messaggi
non riesco a capire perchè il gpgpu stia avendo questa difficoltà ad espandersi
dipende a quale settore ti riferisci.
se stai pensando al settore consumer PC, resta vero il fatto che non è cosa buona e giusta dover scrivere software per Nvidia e per Ati in linguaggi differenti. OpenCL da una mano, ma ancora non è maturo.

se parliamo del settore professionale e militare, non è assolutamente come dici. Sul mercato ci sono migliaia di CPU con set istruzioni non x86 e non frega niente a nessuno di questo. Un autoradio, non ha una CPU x86, cosi come non ce l'ha un iPod o un Tomtom e si può andare avanti all'infinito.

Nel settore professionali e militare, hai un problema e ti serve una soluzione e deve essere quella: quasi mai è richiesta la compatibilità x86.

CUDA nel mondo militare e scientifico è mooolto usato, se ne parla poco per ovvie ragioni, ma nvidia attualmente investe 4 volte tanto in termini di soldi e di risorse umane allocate su CUDA e i suoi driver, piuttosto che nello sviluppo di GPU.

Uso CUDA per lavoro (settore appunto militare) e quello che permette di fare ha dell'incredibile, i clienti restano a bocca aperta xkè gli viene data la possibilità di rimpizzare vecchi sistemi basati su FPGA e DSP dal costo di migliaia di euro per pezzo, con un sistema enormemente più performante e drasticamente più economico.
__________________
Sul mercatino ho concluso con: gup133, Dr.Xavier (3 volte), giovonni, Allure, Solojuve, gor, Corrente Elettrica, TH4N4TOS, Flying Tiger
ronzino è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 15:39   #8
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
Quote:
Originariamente inviato da ronzino Guarda i messaggi
dipende a quale settore ti riferisci.
se stai pensando al settore consumer PC, resta vero il fatto che non è cosa buona e giusta dover scrivere software per Nvidia e per Ati in linguaggi differenti. OpenCL da una mano, ma ancora non è maturo.

se parliamo del settore professionale e militare, non è assolutamente come dici. Sul mercato ci sono migliaia di CPU con set istruzioni non x86 e non frega niente a nessuno di questo. Un autoradio, non ha una CPU x86, cosi come non ce l'ha un iPod o un Tomtom e si può andare avanti all'infinito.

Nel settore professionali e militare, hai un problema e ti serve una soluzione e deve essere quella: quasi mai è richiesta la compatibilità x86.

CUDA nel mondo militare e scientifico è mooolto usato, se ne parla poco per ovvie ragioni, ma nvidia attualmente investe 4 volte tanto in termini di soldi e di risorse umane allocate su CUDA e i suoi driver, piuttosto che nello sviluppo di GPU.

Uso CUDA per lavoro (settore appunto militare) e quello che permette di fare ha dell'incredibile, i clienti restano a bocca aperta xkè gli viene data la possibilità di rimpizzare vecchi sistemi basati su FPGA e DSP dal costo di migliaia di euro per pezzo, con un sistema enormemente più performante e drasticamente più economico.

ho capito che il discorso si basa sul rapporto esigenza ---> soluzione passando per i benefici economici (=> miglior rapporto costo/risultato) e questo porta a sviluppare su CUDA. OK..

..però quello che io mi chiedo, nella mia niubbiaggine in merito è: una cosa come l'architettura X86 non ha praticamente possibilità di sparire nel breve-medio termine, quindi da quel punto di vista è sicura. Stesso discorso per altri standard/architetture radicate nel mercato e adottabili da più aziende (con volontà e risorse economiche adeguate) e quindi portate avanti.

Una cosa come CUDA invece è strettamente legata ad un'unica azienda che non è poi così solida o perlomeno nn lo è come un'architettura tipo x86.

nVidia potrebbe floppare l'architettura delle sue VGA ed accumulare ritardi indebolendosi notevolmente (è già capitato..) ed esponendosi ad eventuali acquisti da parte di terzi ecc.

Se domani nVidia fallisce o se la compra la Pinco Pallino Inc., le soluzioni CUDA (sw+hw) che fine fanno? La fatica dello sviluppo che fine fa?


Ripeto è solo una domanda da ignorante, se hai voglia illuminami


Ciao
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 16:16   #9
ronzino
Senior Member
 
Iscritto dal: May 2002
Città: Roma
Messaggi: 688
ma sostanzialmente il discorso che fai è sensato, e rientra in quelli che si chiamano rischi. anche intel ha fatto il suo flop con Itanium, cosi come microsoft l'ha fatto con Vista e Apple con iPhone 4g.
anche i grandi sbagliano.

Sul discorso longevità del prodotto, non è esattamente come dici e mi spiego. mentre sul mercato una GPU come la 8800gts non la trovi a comprare, se hai un prodotto business professionale, nvidia ti garantisce la reperibilità per 10 anni.

Un altro problema non di poco conto rientra in ciò che una GPU può fare: se con una CPU x86 che probabilmente ti da più sicurezza, te ne servono 20-30 per fare una certa operazione, quando invece di GPU ti basta una GTX 480, e il tuo sistema va montato su un aereo da guerra vero, capisci che non me ne frega nulla del discorso x86, sia perchè non posso montare 20-30 server in una aereo supersonico, sia perchè il sistema che ho realizzato è specifico e non general purpose per milioni di utenti. ne progetto 1 ne vendo 200, a milioni di dollari a singolo pezzo.

Quello che tu dici, è successo con CELL di Ibm.
Quando usi la PS3, se ti ricordi, ci fu molto interessa in NASA e nel settore militare per questa CPU multicore.
IBM però non si è mossa bene, ha fatto mille difficoltà, prima fra tutte quella che le CPU CELL le potevi trovare solo su server Blade con un kernel linux appositamente compilato. L'azienda Mercury era l'unica al mondo che stava cercando di sviluppare un mini-pc atto al volo supersonico con CPU-CELL, ma hanno incontrato talmente tante difficoltà (nonostante il giro di soldi immenso che avrebbero mosso) che hanno abbandonato il progetto.
Di architettura CELL ne è esistita solo una, IBM non ha fornito supporto necessario, ha avuto problemi societari e il progetto CELL è morto.
E' probabile che dietro la mossa di Sony di togliare il supporto ad altri OS sulla PS3 ci sia anche la morte di CELL e la fine degli accordi con IBM.

Chi aveva provato a fare sperimentazioni di software militari e professionali con la PS3 e i server Blade in attesa che le CPU CELL si trovassero in versioni custom integrabili su i propri sistemi, ha perso tempo e soldi e ha dovuto buttare tutto.

Con Nvidia e con CUDA lo scenario non è certo quello di IBM, è dalla serie 8000 (e non dalla gt200 come dice l'articolo ) che Nvidia investe su CUDA e le GPU sono acquistabili anche sfuse e ne esistono centinaia di modelli e migliaia di customizzazioni dei produttori OEM. Esistono già sistemi in vendita che integrano gpu nvidia usati in ambito militare per aerei da guerra

http://www.defensemarket.com/?p=193

così come GPU nvidia si trovano nelle macchine che guidiamo, come fiat lancia volvo ecc
http://www.nvidia.com/object/tegra_automotive.html

le GPU nvidia vengono anche usate e vendute in sistemi per l'acquisizione immagini. Ad una conferenza Nvidia ho visto questo spettacolare software di realtime image filtering usato in ambito militare prodotto da IKENA. Guardate cosa riesce a fare una GPU anche se montata su un elicottero :-)

http://www.motiondsp.com/products/isr/

Lungi da me l'affermare che una GPU soppiante le CPU, così come ne Nvidia ne Intel affermano questo.
__________________
Sul mercatino ho concluso con: gup133, Dr.Xavier (3 volte), giovonni, Allure, Solojuve, gor, Corrente Elettrica, TH4N4TOS, Flying Tiger
ronzino è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 17:12   #10
ndrmcchtt491
Senior Member
 
L'Avatar di ndrmcchtt491
 
Iscritto dal: Aug 2009
Città: Legnano
Messaggi: 6037
Quote:
Originariamente inviato da ronzino Guarda i messaggi
ma sostanzialmente il [CUT]
Commento molto professionale, io lavoro nel campo automobilistico come autoriparatore e quelle cose lì non le sapevo.
Ecco perchè Nvidia spinge tanto su CUDA e ha progettato Fermi per questo.
Il campo gamer-user passa in secondo piano rispetto a quegli usi da te elencati.
__________________
i7 4790k @4.7ghz, MSI z87G43Gaming, G.SKILL Sniper16gb DDR3@2.66ghz, Zotac GTX1070 mini @+165core/450mem mhz, Samsung EVO960 512gb + Samsung QVO970 1tb, Corsair TX650, Win10 pro
ndrmcchtt491 è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 19:33   #11
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12083
Quote:
Originariamente inviato da ndrmcchtt491 Guarda i messaggi
Commento molto professionale, io lavoro nel campo automobilistico come autoriparatore e quelle cose lì non le sapevo.
Ecco perchè Nvidia spinge tanto su CUDA e ha progettato Fermi per questo.
Il campo gamer-user passa in secondo piano rispetto a quegli usi da te elencati.
la maggiorparte delle persone conosce nVidia solo per le gaming e crede che sia quello il suo campo principale.... invece il campo user game è da un pezzo che per nVidia è in secondo piano

utili stimati 2010

180 milioni di dollari Professional

29 milioni discrete desktop
12 milioni discrete notebook
37 milioni integrated desktop
45 milioni integrated notebook

123 milioni tot dal comparto pc consumer

nVidia ha un utile di 180 milioni di dollari solo con il professionale, tutta la divisione ATI ha un utile stimato 2010 di 110 milioni di dollari...

nVidia è stata molto saggia a investire molto su CUDA visto che gia deteneva una quota altissima del mercato professionale PC ( senza contare il resto dei settori extra PC )

preferisco di gran lunga uno standard chiuso ma supportato come dio comanda come CUDA piuttosto che uno standard aperto lasciato solo.
Fino ad ora non se ne è sentito il bisogno di uno standard "aperto", visto che ATI nel professionale ha delle schede inferiori;
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 20:25   #12
homero
Senior Member
 
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
"Uso CUDA per lavoro (settore appunto militare)"
giusto perchè i militari hanno soldi da buttare e tempo da perdere...

l'ho già scritto su questo forum ma come si dice è meglio ripeterlo se qualcuno non ha capito...
CUDA E' un incubo da programmare...
in pratica è come scrivere codice in assembler caricarlo sulla scheda e sperare che funzioni.....
se qualcosa si blocca non esiste modo di avere un debug non funziona e basta...
la cosa sarebbe aggirabile semplicemente se NVIDIA proponesse un simulatore di CUDA che funziona ovviamente a velocità ridotta su CPU...ma questo non lo fa per tutelare il suo KNOW HOW....
allora i poveri programmatori continuano a sbattere il muso con questa tecnologia che di fatto è come programmare un computer senza monitor...
ti devi basare su beep del buzzer....
la cosa è analoga per ATI con l'aggravente che le librerie openCL hanno i loro bei bugs...quindi la situazione si complica ulteriormente....
oggi quelli che sviluppano applicazioni in cuda nelle università a progetti di calcolo hanno il supporto di nvidia che consiste essenzialmente in un simulatore debugger che permette di far girare l'applicazione cuda su CPU in fase di sviluppo e solo alla fine dello sviluppo caricarla sulla scheda tesla...
è inutile dire che non basta avere una scheda nvidia per usare cuda in piena sicurezza....
bisogna avere un intero sistema certificato nvidia generalmente 1 scheda video 1 scheda per i calcoli e OS linux oppurtanamente configurato....
il famoso plugin per visual studio ha potenzialità alquanto limitate....rispetto a quanto sbandierato da nvidia e quanto possibile dalla tecnologia CUDA...
forse le prossime generazione di gpu intergrate nella cpu permetteranno lo sviluppo di programmi a codice misto allora le potenzialità del gpgpu saranno sfruttabili....
in calce volevo dire che itanium non è un aborto....
homero è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 23:04   #13
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da ronzino Guarda i messaggi
così come GPU nvidia si trovano nelle macchine che guidiamo, come fiat lancia volvo ecc
http://www.nvidia.com/object/tegra_automotive.html.
Grazie della testimonianza, e' bello sapere che qualcuno usa CUDA con profitto

Solo un appunto: Tegra non e' una GPU, am al CPU basata ARM di nvidia.
Pleg è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 23:06   #14
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da homero Guarda i messaggi
In pratica è come scrivere codice in assembler caricarlo sulla scheda e sperare che funzioni.....
se qualcosa si blocca non esiste modo di avere un debug non funziona e basta...
la cosa sarebbe aggirabile semplicemente se NVIDIA proponesse un simulatore di CUDA che funziona ovviamente a velocità ridotta su CPU...ma questo non lo fa per tutelare il suo KNOW HOW....
allora i poveri programmatori continuano a sbattere il muso con questa tecnologia che di fatto è come programmare un computer senza monitor...
ti devi basare su beep del buzzer....
Di versione in versione il CUDA debugger sta migliorando, semplificando molto la programmazione.
Pleg è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2010, 23:14   #15
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
la maggiorparte delle persone conosce nVidia solo per le gaming e crede che sia quello il suo campo principale.... invece il campo user game è da un pezzo che per nVidia è in secondo piano
C'e' pero' una cosa da considerare: che il mercato consumer e' quello che fa i volumi, che servono a NVidia per "spalmare" i costi di progettazione.

Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai.

E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel.
Pleg è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2010, 07:59   #16
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
Quote:
Originariamente inviato da Pleg Guarda i messaggi
C'e' pero' una cosa da considerare: che il mercato consumer e' quello che fa i volumi, che servono a NVidia per "spalmare" i costi di progettazione.

Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai.

E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel.
intel ha abbandonato il progetto Larrabee

ora non ricordo con precisione se ha ri-allocato tutte le forze impiegate nel progetto o se era rimasta una piccola sezione che ne stia portando avanti la sperimentazione; ad ogni modo per come lo aveva presentato, Larrabee è morto.
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2010, 08:16   #17
Foglia Morta
Senior Member
 
L'Avatar di Foglia Morta
 
Iscritto dal: Jul 2005
Messaggi: 7819
Quote:
Originariamente inviato da Pleg Guarda i messaggi
C'e' pero' una cosa da considerare: che il mercato consumer e' quello che fa i volumi, che servono a NVidia per "spalmare" i costi di progettazione.

Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai.

E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel.
Ma centinaia ( plurale ) di milioni di pezzi secondo me non le venderà nemmeno l' intera serie HD5000 che è stata quella più di successo con la prima ondata di schede DX11 ( IMO entro la fine del 2010 resteranno al di sotto dei 50 milioni , e tra poco inizierà ad essere gradualmente sostituita dalla serie HD6000 ). Forse intendevi migliaia e centinaia di migliaia ? Intel ha pur sempre il vantaggio di prodursi il silicio in casa, mettiamo che una fonderia esterna rincari il 30% sul proprio costo di produzione , potenzialmente sarebbe un bel risparmio per Intel
__________________
Sample is selezionated !
Foglia Morta è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2010, 13:53   #18
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14734
Dubito che la fonderia interna porti a risparmio.
Altrimenti AMD non si sarebbe scissa dando vita a GlobalFoundries.

Evidentemente la possibilità di lavorare come fonderia per conto di terzi permette di mantenere una capacità produttiva più adeguata a coprire i costi di gestione.
Inoltre permette di riciclare con facilità i vecchi macchinari, dato che non tutti necessitano sempre dei processi produttivi più evoluti, a differenza di un'azienda con un business più circoscritto.

@AceGranger
Tornando a CUDA, il problema legato ad esso è che crea un "sottomercato" in cui nvidia può fare i prezzi che vuole.
É quindi suo interesse mantenere cuda ad un livello superiore agli standard aperti, ma non per questo è interesse dei suoi clienti, che si trovano ad acquistare in un mercato meno competitivo.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2010, 14:01   #19
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12083
Quote:
Originariamente inviato da calabar Guarda i messaggi
Tornando a CUDA, il problema legato ad esso è che crea un "sottomercato" in cui nvidia può fare i prezzi che vuole.
É quindi suo interesse mantenere cuda ad un livello superiore agli standard aperti, ma non per questo è interesse dei suoi clienti, che si trovano ad acquistare in un mercato meno competitivo.
bè, fino ad ora l'alternativa è stato il nulla cosmico... quindi io personalmente preferisco spendere qualcosa in piu del dovuto ma avere un prodotto supportato e funzionante.

In ambito PC non mi pare che le FirePro costino tanto di meno, ed il divario con i prodotti Quadro è abissale...
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2010, 15:21   #20
Foglia Morta
Senior Member
 
L'Avatar di Foglia Morta
 
Iscritto dal: Jul 2005
Messaggi: 7819
Quote:
Originariamente inviato da calabar Guarda i messaggi
Dubito che la fonderia interna porti a risparmio.
Altrimenti AMD non si sarebbe scissa dando vita a GlobalFoundries.

Evidentemente la possibilità di lavorare come fonderia per conto di terzi permette di mantenere una capacità produttiva più adeguata a coprire i costi di gestione.
Inoltre permette di riciclare con facilità i vecchi macchinari, dato che non tutti necessitano sempre dei processi produttivi più evoluti, a differenza di un'azienda con un business più circoscritto.
Dipende da quanto si produce e se si hanno prodotti da produrre con i processi produttivi "vecchi"... a Intel conviene fare come sta facendo mentre a AMD no. Basti pensare che in futuro le fonderie potranno costare anche 6 miliardi di dollari per farsi un un' idea. Nel Q2 2010 AMD ha occupato "solo" il 75% della capacità di Global Foundries ( ovviamente escludendo i processi produttivi che non le servono ) , quindi nel caso di AMD può essere più efficiente appoggiarsi a GloFo e pagare un gross margin fissato al 20% ( come effettivamente stanno facendo ) mentre a Intel conviene di più costruirsi le proprie fonderie dato che ha livelli produttivi nettamente più alti ( anche considerando il portafogli prodotti molto ampio ).
__________________
Sample is selezionated !
Foglia Morta è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
TCL 65C7K, televisore Mini-LED di qualità, versatile e dal prezzo competitivo TCL 65C7K, televisore Mini-LED di qualità...
Fujifilm X-E5: la Fuji X che tutti gli appassionati volevano Fujifilm X-E5: la Fuji X che tutti gli appassion...
Recensione REDMAGIC 10S Pro: il gaming phone definitivo? Recensione REDMAGIC 10S Pro: il gaming phone def...
HPE Discover 2025: tra agenti intelligenti, infrastruttura AI-native e un futuro ibrido HPE Discover 2025: tra agenti intelligenti, infr...
5G per tutti con Very Mobile, ma a due v...
130 milioni per SiPearl, i processori eu...
Pixel 6a: arriva l'aggiornamento che ''t...
Camper elettrico? Ci siamo quasi, con Gr...
Windows 11: in arrivo sfondi dinamici al...
Windows, aggiornamenti con meno riavvi: ...
Un sacco di RAM con timing decenti per o...
Video generativi sempre più reali...
The Last of Us Part II Remastered: ecco ...
Come difendersi dalle finte offerte Amaz...
Apple: svelati 7 nuovi chip segreti! Ecc...
Secondo giorno di Prime Day e scende anc...
Offerta shock Prime Day: Ring Intercom +...
Il primo sistema operativo alimentato da...
Top 5 bestseller Amazon Prime: gli itali...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 12:35.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1