Le GPU top di gamma di AMD e NVIDIA, tra 20 e 16 nanometri

Le GPU top di gamma di AMD e NVIDIA, tra 20 e 16 nanometri

In ritardo rispetto a quanto inizialmente preventivato il debutto delle GPU NVIDIA e AMD di prossima generazione; alla base le difficoltà nell'ottenere adeguati volumi produttivo con le tecnologie scelte per la loro costruzione

di pubblicata il , alle 09:31 nel canale Schede Video
NVIDIAAMD
 

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

52 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
cdimauro28 Dicembre 2014, 00:22 #11
Originariamente inviato da: pierpox
Da tutto ciò ci si può rendere conto del colosso che è Intel con le sue FAB e il suo PP.Il prossimo anno sarà in grado di dare del filo da torcere ad Nvidia anche in un settore che storicamente ha penetrato per prima cioè quello del GPGPU.Nel 2015 ci sarnno Xeon PHI a 14 nm e Tesla ancora a 28,praticamente il doppio,veramente notevole!

Non c'è un raddoppio, ma una quadruplicazione: il raddoppio è per ogni lato / dimensione, dunque orizzontalmente e verticalmente.
ionet28 Dicembre 2014, 01:15 #12
Originariamente inviato da: PaulGuru
E voglio vedere adesso come vi giustificherete quando il prossimo Atom sarà davanti agli Arm.


ma guarda che non c'e' alcun dubbio che intel e' davanti a tutti

sia come fatturato,produzione,ricerca,sviluppo e prestazioni...ma anche come prezzi

quello che voglio dire e',attualmente intel sta regalando i suo soc
ma fino a quando potra' continuare con questa strategia??

fortuna sua o sfortuna amd,che almeno puo' vendere sovra prezzati le varie cpu per pc,ws e server x86,ma gia per quest'ultimo mercato la situazione sta cominciando a vacillare,arm e' in scalata anche qui'

metti che amd riesce a presentare qualcosa di decente(quasi fantascienza:stordita e rischia pure di tagliare i lauti introiti da quest'ultima spiaggia

purtroppo intel e' diventata una struttura mastodontica
con un metabolismo tale che per essere sfamato ha bisogno di vendere tali prodotti a prezzi da tre a quattro cifre,assolutamente incompatibile con un mercato mobile attuale enorme ma ormai economizzato all'inverosimile

dai uno sguardo qui: http://spectrum.ieee.org/static/int...rtphone-recipes

il soc e' si un elemento importante ma non l'unico,il prezzo medio per produrre uno smartphone di fascia alta e' rimasto simile negli ultimi anni,200$ con uno scarto del 10%
a volte hanno puntato un po di piu' sul soc sfiorando solo una volta il 30%,ma display elettronica di contorno,meccanica non sono da meno,il sensore foto-camera assorbe 8-10%,il restante batteria ,memoria,altri sensori e assemblaggio 20-25%

tutto questo per capire che non si campa di solo soc,il margine per tutti e' risicato,poi tutto questo con i due maggiori produttori mondiali,figuriamoci tutti gli altri
intel con quei prezzi al massimo un volta ti poteva offrire uno scarto come il cesseron,adesso deve sfoderare la sua massima espressione tecnologica in campo mobile,prodotte con le sue ultime fonderie a 22nm(vantaggio pagato a caro prezzo)e regalare il tutto per contrastare arm

poi finche' dura fa verdura,ma basta anche un piccolo ritocco di listino che i produttori ti voltano subito le spalle,a breve la fine di nvidia

intel non e' proprio capace di produrre ottimi soc a 20-40$ e un chip da 100-200$ dentro un SP o un tablet non lo puoi mettere,non e' che tutti gli altri fornitori devono regalare i propri componenti per fare posto a intel pappa tutto

certo e' piu' facile vendere un i7 a 300€ ai patiti che vogliono fare gli sboroni su un forum
meglio,continuano a esserci le risorse per regalare anche il prossimo atom
PietroGiuliani28 Dicembre 2014, 08:55 #13
Originariamente inviato da: Micene.1
noto una certa mancanza di offerta nel settore delle fonderie di semiconduttori ...aprire una fonderia di integrati....potrebbe essere un bel business...dmn inizio a farla in stanza


Ottima idea... prima però chiama un imbianchino... mi dicono che certe cose debbano esser fatte in "camera bianca"...
hackaro7528 Dicembre 2014, 11:57 #14
Originariamente inviato da: PaulGuru
E voglio vedere adesso come vi giustificherete quando il prossimo Atom sarà davanti agli Arm.


Veramente Arm è già davanti ad Intel nel settore del low-end server. I processori Arm sono molto più efficienti della controparte Intel e cominciano ad esser adottati da molti. HP e DELL in testa.

La verità è che, almeno in prima battuta, nel segmento a basso TDP e ULV Intel ha perso la partita ed Arm l'ha vinta. E pure a mani basse.

Non solo nell'ambito server low-end, dove l'adozione di certe architetture è necessariamente legato al mondo software e non solo all'hardware, ma anche nel mondo mobile dove tablet e telefoni hanno visto la piena vittoria di Arm.

MS ne ha fatto le spese con i Surface, che sono spessi il doppio ed hanno la ventola. Tutto questo per colpa di Intel.

Ed il processo a 14nm non servirà ad Intel a vincere perché 14nm contro 16nm è una battaglia ad armi pari, peccato però che l'architettura X86 penalizzi Intel pesantemente. E' quella il vero collo di bottiglia delle sue CPU.

Intel nel settore mainstream e server hi-end vince, ma soprattutto grazie a MS e non tanto all'efficienza delle sue CPU.
cdimauro28 Dicembre 2014, 17:10 #15
La cosiddetta x86-tax ha un peso che è trascurabile rispetto ai miliardi di transistor di cui sono costituito. D'altra parte basti vedere quanto spazio occupa un core rispetto all'intero SoC per rendersene conto, a maggior ragione andando poi a guardare quanto spazio occupano l'unità di decodifica delle istruzioni e l'FPU rispetto al resto del core. Anche i consumi sono legati all'incirca allo spazio occupato.

Difatti sia prestazioni sia consumi delle soluzioni mobile (Atom-based) sono assolutamente concorrenziali rispetto alle controparti ARM (di prestazioni / segmento di mercato comparabili).

Quanto a Surface (Pro), non è chiaro con cosa sarebbe stato confrontato. Esistono soluzioni ARM-based che offrono prestazioni comparabili? Non mi pare proprio.

Infine, non vedo dati per quanto riguardano i server low-end che possano mostrare un dominio di ARM. A me sembra, al contrario, che Intel domini in qualunque segmento di questo mercato, offrendo prodotti che spaziano da soluzioni Atom (anche con molti core, come Avoton) passando a server tradizionali (Xeon in tutte le salse), e perfino HPC (Xeon Phi).

Non so, magari mi son perso qualcosa per strada...
Kharonte8528 Dicembre 2014, 23:22 #16
Sono almeno 5 anni che i processi produttivi faticano sempre di più ad ogni passo, siamo sempre più vicini alla saturazione di questa tecnologia e ai limiti fisici invalicabili della realtà. Uno dei tanti limiti allo sviluppo che prima o poi manderà in stasi l'evoluzione tecnologica, salvo un difficile cambio radicale del paradigma (computer ottico/quantico/altro).

Ormai la legge di Moore è un lontano ricordo nostalgico, ma forse neanche più di tanto visto che posso permettermi di cambiare il PC e relativa scheda grafica una volta ogni 4-5 anni. Ogni generazione di GPU/CPU è sempre più vicina prestazionalmente alla precedente e sempre più lontana nel tempo.
Dispiace un po' la conseguente disaffezione verso il settore GPU che tante emozioni ci ha regalato in passato, pero' a questi ritmi è inevitabile perdere interesse e non bastano le markettate (4D, DX20, 8K ecc...) a farlo risalire.

Chiaro che in un forum di positivisti e "malati" di tecnologia tutto ciò sia difficile da vedere ed accettare, minimizzare ed essere ottimisti sembra l'atteggiamento più sensato, ma non è quello che ci riserva il futuro: un appiattimento logaritmico fino a che le differenze non saranno più sensibili.
PaulGuru28 Dicembre 2014, 23:34 #17
Originariamente inviato da: hackaro75
Veramente Arm è già davanti ad Intel nel settore del low-end server. I processori Arm sono molto più efficienti della controparte Intel e cominciano ad esser adottati da molti.

Sicuro ? perchè a me a livello di IPC per core non credo proprio che gli ARM siano superiori.
Intel col prossimo Atom parla di un IPC simile ad un Phenom II, voglio vedere invece se gli Arm attuali riescono ad equiparare un vecchio Celeron.

Che gli x86 non possano scendere sotto un certo consumo poi è un altra cosa.
PaulGuru28 Dicembre 2014, 23:41 #18
Originariamente inviato da: Kharonte85
Sono almeno 5 anni che i processi produttivi faticano sempre di più ad ogni passo, siamo sempre più vicini alla saturazione di questa tecnologia e ai limiti fisici invalicabili della realtà. Uno dei tanti limiti allo sviluppo che prima o poi manderà in stasi l'evoluzione tecnologica, salvo un difficile cambio radicale del paradigma (computer ottico/quantico/altro).

Ormai la legge di Moore è un lontano ricordo nostalgico, ma forse neanche più di tanto visto che posso permettermi di cambiare il PC e relativa scheda grafica una volta ogni 4-5 anni. Ogni generazione di GPU/CPU è sempre più vicina prestazionalmente alla precedente e sempre più lontana nel tempo.
Dispiace un po' la conseguente disaffezione verso il settore GPU che tante emozioni ci ha regalato in passato, pero' a questi ritmi è inevitabile perdere interesse e non bastano le markettate (4D, DX20, 8K ecc...) a farlo risalire.

Chiaro che in un forum di positivisti e "malati" di tecnologia tutto ciò sia difficile da vedere ed accettare, minimizzare ed essere ottimisti sembra l'atteggiamento più sensato, ma non è quello che ci riserva il futuro: un appiattimento logaritmico fino a che le differenze non saranno più sensibili.


No è che ora il marketing e gli accordi commerciali son più affermati che mai e c'è poca concorrenza in ogni settore.

Tu pensi veramente che Intel non abbia nel taschino un architettura superiore all'attuale ?
Pensi veramente che con gli attuali 22nm i limiti siano questi ? ( guarda cosa fanno con gli Xeon .... )
Pensi veramente che i 14nm di Intel non siano ancora in grado di essere utilizzati per la produzione di massa ?
E pensi veramente che GF e TSMC siano fermi perchè incapaci di progredire ? ( oramai non si fan più nemmeno concorrenza )
Pensi che il grafene sia ancora fantascienza ? E' già pronto da un pezzo e non lo tirano fuori per sfruttare appieno il mercato.
Giachi6629 Dicembre 2014, 10:56 #19
Originariamente inviato da: PaulGuru
No è che ora il marketing e gli accordi commerciali son più affermati che mai e c'è poca concorrenza in ogni settore.

Tu pensi veramente che Intel non abbia nel taschino un architettura superiore all'attuale ?
Pensi veramente che con gli attuali 22nm i limiti siano questi ? ( guarda cosa fanno con gli Xeon .... )
Pensi veramente che i 14nm di Intel non siano ancora in grado di essere utilizzati per la produzione di massa ?
E pensi veramente che GF e TSMC siano fermi perchè incapaci di progredire ? ( oramai non si fan più nemmeno concorrenza )
Pensi che il grafene sia ancora fantascienza ? E' già pronto da un pezzo e non lo tirano fuori per sfruttare appieno il mercato.


è tutto un complotto dunque eh?
Giachi6629 Dicembre 2014, 11:02 #20
Originariamente inviato da: Kharonte85
Sono almeno 5 anni che i processi produttivi faticano sempre di più ad ogni passo, siamo sempre più vicini alla saturazione di questa tecnologia e ai limiti fisici invalicabili della realtà. Uno dei tanti limiti allo sviluppo che prima o poi manderà in stasi l'evoluzione tecnologica, salvo un difficile cambio radicale del paradigma (computer ottico/quantico/altro).

Ormai la legge di Moore è un lontano ricordo nostalgico, ma forse neanche più di tanto visto che posso permettermi di cambiare il PC e relativa scheda grafica una volta ogni 4-5 anni. Ogni generazione di GPU/CPU è sempre più vicina prestazionalmente alla precedente e sempre più lontana nel tempo.
Dispiace un po' la conseguente disaffezione verso il settore GPU che tante emozioni ci ha regalato in passato, pero' a questi ritmi è inevitabile perdere interesse e non bastano le markettate (4D, DX20, 8K ecc...) a farlo risalire.

Chiaro che in un forum di positivisti e "malati" di tecnologia tutto ciò sia difficile da vedere ed accettare, minimizzare ed essere ottimisti sembra l'atteggiamento più sensato, ma non è quello che ci riserva il futuro: un appiattimento logaritmico fino a che le differenze non saranno più sensibili.


Beh, se a darti malinconia è il fatto che ormai la tecnologia dei microprocessori è matura (un po' come avvenuto anni fa per i motori a scoppio o i turboventola degli aerei) è i cambiamenti sono meno evidenti del passato e quindi non è più necessario cambiare tutto il pc ogni anno beh, beato te.
Significa che hai ben pochi problemi se riesci a stare male per una cosa che alla fine non è certo negativa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^