View Full Version : Possibile ulteriore ritardo per le CPU Intel Broadwell
Redazione di Hardware Upg
15-02-2014, 10:31
Link alla notizia: http://www.hwupgrade.it/news/cpu/possibile-ulteriore-ritardo-per-le-cpu-intel-broadwell_51011.html
I primi processori Intel costruiti con tecnologia produttiva a 14 nanometri potrebbero ritardare nel debutto, spostandosi tra fine 2014 e inizio del nuovo anno. Alla base le difficoltà nella produzione con il nuovo processo
Click sul link per visualizzare la notizia.
lagoduria
15-02-2014, 10:54
Chi glielo fa fare a muoversi? Sono i soli sul mercato...
Gylgalad
15-02-2014, 10:55
socket 1150 giusto?
differenze dal 1155?
Littlesnitch
15-02-2014, 10:59
Beh, se devono apportare il solito 5% di prestazioni e 3W di consumi, possono anche non presentarli e saltarli direttamente proponendo nel 2015 qualcosa di più sostanzioso. Tanto nel mercato consumer le differenza non si notano nemmeno.
1) Sono (quasi) soli
2) La concorrenza forte è ora sul mobile (atom)
PaulGuru
15-02-2014, 11:29
Classico +3-5% di prestazioni la cui novità più grande sarà quella Iris Pro che verrà portata anche su desktop, ma di cui non frega nulla a nessuno. L'unica forse cosa che può valer la pena di prendere in considerazione è verificare se l'HIS sarà di nuovo saldato o ancora con la pasta del capitano.
tanto poi vai a vedere e sia nei centri commerciali, sia online, sia dai grossisti vengono venduti ancora tantissimi portatili con cpu serie 3 (saranno almeno il 60/70%), un po' ancora di serie 2 e pochissimi serie 4... se esce la serie 5 non se la caga nessuno!
tanto poi vai a vedere e sia nei centri commerciali, sia online, sia dai grossisti vengono venduti ancora tantissimi portatili con cpu serie 3 (saranno almeno il 60/70%), un po' ancora di serie 2 e pochissimi serie 4... se esce la serie 5 non se la caga nessuno!
Per forza... ormai nell'utilizzo "normale" di un PC (ufficio, internet, giochi "casual"...) che copre il 90% degli utenti o più, la cpu riveste sempre meno importanza (per andare su facebook non cambia nulla avere un esacore piuttosto che in i3...)
roccia1234
15-02-2014, 12:25
Per forza... ormai nell'utilizzo "normale" di un PC (ufficio, internet, giochi "casual"...) che copre il 90% degli utenti o più, la cpu riveste sempre meno importanza (per andare su facebook non cambia nulla avere un esacore piuttosto che in i3...)
Ma anche negli ultimissimi giochi usciti va benissimo un quad di 2-3 generazioni fa (tipo i7 920 o phenom II X4 3,4-3,6ghz), a meno di essere hardcore gamer con schede top di gamma in SLI/CF ed esigere i 120 fps fissi.
Se poi hai un i5 2500/2600 vai come un re...
Littlesnitch
15-02-2014, 12:30
Ma anche negli ultimissimi giochi usciti va benissimo un quad di 2-3 generazioni fa (tipo i7 920 o phenom II X4 3,4-3,6ghz), a meno di essere hardcore gamer con schede top di gamma in SLI/CF ed esigere i 120 fps fissi.
Se poi hai un i5 2500/2600 vai come un re...
Diciamo che un i5 760 o i7 920 se la cavano ancora benissimo, ma con scheda TOP delle ultime 2 gen è preferibile un SB che da prestazioni pari a Haswell e credo anche alle prossime 2 gen di CPU intel.
Comunque un best buy come il 2500K per le CPU lo attenderemo ancora a lungo.
Diciamo che un i5 760 o i7 920 se la cavano ancora benissimo, ma con scheda TOP delle ultime 2 gen è preferibile un SB che da prestazioni pari a Haswell e credo anche alle prossime 2 gen di CPU intel.
Comunque un best buy come il 2500K per le CPU lo attenderemo ancora a lungo.
ok... ma parlaimo sempre di esigenze particolarmente "specifiche" e mirate (schede video TOP, hardcore gaming,...) ;)... normalmente (per un utilizzo "comune"!) chi ha un i5/i7 prima generazione non sente per nulla il bisogno del cambio (io stesso quando sono passato da un q9650 a un i7-3770 ho notato la differenza solo in un paio di giochi...)
roccia1234
15-02-2014, 12:47
Diciamo che un i5 760 o i7 920 se la cavano ancora benissimo, ma con scheda TOP delle ultime 2 gen è preferibile un SB che da prestazioni pari a Haswell e credo anche alle prossime 2 gen di CPU intel.
Comunque un best buy come il 2500K per le CPU lo attenderemo ancora a lungo.
Ovviametne è preferibile una cpu superiore... ma ti assicuro che anche una delle due cpu da me elencate vanno benissimo anche con una r9 280x/7970.
Ma questa nuova generazione porterà la compatibilità alle ddr4?
Er Scode
15-02-2014, 12:49
ed è qui che AMD dovrebbe far partire un affondo in piena regola e fare uscire prima di Broadwell delle apu con prestazioni maggiori o uguali a queste, cioè osando nuova architettura e giocandosi il tutto e per tutto e presentando apu che integrano tutti i risultati finora usciti dalla propria ricerca.
E' un buon momento per prendere intel di contropiede e tornare alla concorrenza vera.
Il tutto spruzzato da buon marketing e prezzi in linea.
Tra l'altro stanno incassando bene con PS4 e XBOX 1, quindi rischi un pò ne possono prendere. Ho già lo slogan: "dalla ricerca in campo server e console, ecco a voi il prodotto finale di questo decennio!"
E parlo da felice possessore di un intel i3: però la concorrenza serve a noi consumatori: è troppi anni che non l'abbiamo più, e per chi lo usa per lavoro ha bisogno di innovazione (che poi porta al progresso).
PaulGuru
15-02-2014, 13:27
Ma questa nuova generazione porterà la compatibilità alle ddr4?
No, solo nel 2015 per i modelli mainstream.
ed è qui che AMD dovrebbe far partire un affondo in piena regola e fare uscire prima di Broadwell delle apu con prestazioni maggiori o uguali a queste, cioè osando nuova architettura e giocandosi il tutto e per tutto e presentando apu che integrano tutti i risultati finora usciti dalla propria ricerca.
E' un buon momento per prendere intel di contropiede e tornare alla concorrenza vera.
Il tutto spruzzato da buon marketing e prezzi in linea.
Tra l'altro stanno incassando bene con PS4 e XBOX 1, quindi rischi un pò ne possono prendere. Ho già lo slogan: "dalla ricerca in campo server e console, ecco a voi il prodotto finale di questo decennio!"
E parlo da felice possessore di un intel i3: però la concorrenza serve a noi consumatori: è troppi anni che non l'abbiamo più, e per chi lo usa per lavoro ha bisogno di innovazione (che poi porta al progresso).
Ma quale affondo vuoi che facciano ?
E' da un pezzo che Intel va avanti di +3% con tanto di HIS dissaldati tanto che la serie 2 è ancora più che competitiva con l'attuale e l'unica cosa che AMD ha saputo fare in 1 anno e mezzo dopo Piledriver è tirare fuori un tanto decantato Steamroller con +10% a pari frequenza ( che diventa 0 in quanto la frequenza è diminuita ), temp e consumi in full paragonabili nonostante una sostanziale modifica nell'architettura e i 28nm ?
Si vede che non ha proprio più i mezzi nè figure competenti, nè la voglia di lavorare.
Littlesnitch
15-02-2014, 13:27
ed è qui che AMD dovrebbe far partire un affondo in piena regola e fare uscire prima di Broadwell delle apu con prestazioni maggiori o uguali a queste, cioè osando nuova architettura e giocandosi il tutto e per tutto e presentando apu che integrano tutti i risultati finora usciti dalla propria ricerca.
E' un buon momento per prendere intel di contropiede e tornare alla concorrenza vera.
Il tutto spruzzato da buon marketing e prezzi in linea.
Tra l'altro stanno incassando bene con PS4 e XBOX 1, quindi rischi un pò ne possono prendere. Ho già lo slogan: "dalla ricerca in campo server e console, ecco a voi il prodotto finale di questo decennio!"
E parlo da felice possessore di un intel i3: però la concorrenza serve a noi consumatori: è troppi anni che non l'abbiamo più, e per chi lo usa per lavoro ha bisogno di innovazione (che poi porta al progresso).
Si ma se AMD investendo tutto quello che poteva in 5 anni ti tira fuori Buldozzer e le altre sue declinazioni ma pare difficile da realizzare quello che dici.
PaulGuru
15-02-2014, 13:42
Si ma se AMD investendo tutto quello che poteva in 5 anni ti tira fuori Buldozzer e le altre sue declinazioni ma pare difficile da realizzare quello che dici.Sarebbe bastato continuare a sviluppare il Phenom, ancora oggi a pari frequenza il vecchio Thuban va più di Piledriver e sicuramente più di Steamroller che è un quad.
Chi glielo fa fare a muoversi? Sono i soli sul mercato...
Semplice, produrre processori a 14nm inizialmente sarà un costo aggiuntivo, ma alla lunga guadagneranno sul fatto che sforneranno più processori a parità di die size e di wafer, rispetto a quanto ne facciano con i 22nm.
Quindi alla fine i loro costi di produzione si ridurranno e potranno avere margini superiori.
Comunque è un bene che la tecnologia non si fermi.
Il guadagno di prestazioni dipende anche dal software, se usa o meno le nuove funzionalità offerte dai processori moderni (AVX, AES-NI, Virtualizzazione, primitive di sincronizzazione sempre più efficienti e così via).
Anche perché un Pentium G3220 basato su architettura Haswell, dual core 3ghz e 3MB di cache viene sui 50€ ed è sufficiente alla maggioranza delle persone.
Il vero cambio di passo si ottiene rimuovendo i colli di bottiglia (ad esempio HD vs SSD).
Spero vivamente che AMD riesca a competere ad armi pari con Intel, ma è molto difficile perché i processori moderni sono quanto di più avanzato esista e se non si investe in ricerca è molto difficile ottenere qualcosa.
PaulGuru
15-02-2014, 15:11
Che cosa servono i 14nm se poi non incrementano il die della CPU ?
Risparmia Intel a produrli ma non si va avanti, tutto grazie ad AMD, siamo nel 2014 e ancora col quad core su desktop così su mobile, almeno gli Enthusiast hanno finalmente fatto il salto agli octo ed esa.
Che cosa servono i 14nm se poi non incrementano il die della CPU ?
Risparmia Intel a produrli ma non si va avanti
Personalmente, mi interessano le performance/watt, quindi mi va più che bene ogni die shrink. Il mio sistema con i3-2120 consuma mooolto meno dei precedenti e5200/x2 3800/a64 3200+/xp 2500+, le prestazioni sono di gran lunga sufficienti, le nuove istruzioni multimediali aumentano le performance nell'encoding audio/video, diminuiscono calore e consumi, con un SSD si sopperisce ai tanti "blocchi" che l'utente medio sperimenta di tanto in tanto. Non potrei chiedere di più (e, hardcore gamer a parte, come saprai, questo scenario si applica anche alla stragrande maggioranza del mercato consumer cui si rivolgono queste cpu).
Finchè AMD non tornerà a fare paura come ai tempi degli Athlon64, Intel non ha motivo di fare di più, specie in questi anni in cui si è diffusa l'equazione "computer"="perdere tempo sui siti di facebook e twitter".
SinapsiTXT
15-02-2014, 17:12
Da possessore di un i5 4670K posso dire che questo "ritardo" era più che prevedibile e sono contento di aver scelto la 4th generazione Intel, per i prossimi 2-3 anni a meno che non ci siano rivoluzioni di qualche tipo non ho nessuna intenzione di cambiare la santissima trinità. :sofico: :sofico:
Ok che risparmiano sulla produzione a scendere con il processo produttivo, ma sono effettivamente soli. Sul mobile Haswell ha fatto fare un balzo in avanti SPAVENTOSO all'autonomia ed e' un cambiamento probabilmente giustificato, su fisso a chi interessa davvero? Interessa a chi ha grossi problemi di consumi, ma di contro gli investimenti in questi scenari non hanno ancora avuto il loro ritorno se effettuati sulla generazione precedente (o su quella prima ancor addirittura, in alcuni casi) e quindi non vale la pena ancora effettuare una rotazione. E intel ha fatto bene i suoi conti prendendosela con calma.
Se poi parliamo di retail per quanto pro si possa essere troviamo tranquillamente gli i7 920 (i.e. il mio) che vanno ancora alla grande, restano giusto gli enthusiast a cui venderli, decisamente poco per avere fretta.
Aggiungiamo l'immobilismo di amd che ormai si accontenta delle briciole e lo scenario e' ben descritto secondo me.
PaulGuru
15-02-2014, 17:40
Personalmente, mi interessano le performance/watt, quindi mi va più che bene ogni die shrink. Il mio sistema con i3-2120 consuma mooolto meno dei precedenti e5200/x2 3800/a64 3200+/xp 2500+, le prestazioni sono di gran lunga sufficienti, le nuove istruzioni multimediali aumentano le performance nell'encoding audio/video, diminuiscono calore e consumi, con un SSD si sopperisce ai tanti "blocchi" che l'utente medio sperimenta di tanto in tanto. Non potrei chiedere di più (e, hardcore gamer a parte, come saprai, questo scenario si applica anche alla stragrande maggioranza del mercato consumer cui si rivolgono queste cpu).
Finchè AMD non tornerà a fare paura come ai tempi degli Athlon64, Intel non ha motivo di fare di più, specie in questi anni in cui si è diffusa l'equazione "computer"="perdere tempo sui siti di facebook e twitter".
veramente le prestazioni non bastano mai nell'informatica a meno che non usi il PC solo per caxxeggiare tipo facebook, skype, internet ecc, ma per il resto avere boost importanti è sempre meglio.
Inoltre nel Thread delle prossime Nvidia Maxwell high end potrebbe essere molto superiore alle attuali schede, quindi è meglio darci dentro per essere meno limited possibile.
Per le conversioni video fino a che non si parlerà di secondi per finire una conversione video non credo che i boost possano essere ignorati.
veramente le prestazioni non bastano mai nell'informatica a meno che non usi il PC solo per caxxeggiare tipo facebook, skype, internet ecc, ma per il resto avere boost importanti è sempre meglio.
Ma è esattamente quello che diceva: dato che la stragrande maggioranza dell'utenza fa esattamente quello che hai scritto li sopra, il bisogno di processori ultrapotenti è relegato ad una nicchia di mercato, nicchia che certo non sostiene la produzione di Intel.
Il punto però è un altro.
Questo articolo conferma ciò che ormai alcuni utenti (me compreso) ripetono da diverso tempo, ossia che nonostante Intel abbia sborsato ad ASML (che produce i macchinari per la litografia) il triplo di quanto hanno fatto altre fonderie come Samsung e TSMC, non è immune ai problemi che l'estrema miniaturizzazione sta portando.
Altre fonderie si stanno spostando su processi produttivi più adeguati alla miniaturizzazione (come FD-SOI), e presto Intel potrebbe vedere il proprio vantaggio sul processo produttivo molto ridotto se non annullato.
Certo, Intel è molto grande e può permettersi di spendere di più, ma qui si tratta di numeri molto grossi anche per Intel, che ha bisogno di mantenere le linee produttive al lavoro e vendere molto per ripagare queste spese.
Oggi però il grosso dei soldi si sta spostando verso il mercato Mobile, e questo potrebbe creare ad Intel dei bei problemi.
Io francamente mi auguro che Intel perda del tutto il vantaggio sul lato del processo produttivo, in maniera tale che possa esserci più concorrenza in campo PC.
Il problema di AMD non è solo l'architettura, ma anche il silicio su cui sono stampati i processori, ridurre questo gap sarebbe sicuramente positivo per il mercato.
PaulGuru
15-02-2014, 19:18
Fra 28nm e 22nm non c'è un abisso, e di certo non è il PP il problema principale dei proci AMD, visto che nemmeno con 220W riescono a fronteggiare un i5 nei giochi, e nel MT invece un i7 1150 è superiore a default con 1/3 del TDP e pensare che gli FX non hanno neppure la palla al piede della iGPU ad occupare spazio inutilmente.
Fra 28nm e 22nm non c'è un abisso [...]
Mi stupisco che confronti due processi produttivi solo dai numeretti dei nm (tendendo poi conto che anche in questo campo ognuno misura come preferisce).
Il processo produttivo usato con Kaveri non è di tipo HP (Hight Performance) ma se non sbaglio di tipo 28-nm LPH, motivo per cui le frequenze di Kaveri sono più basse di quelle di Righland. Inoltre il processo Intel è di tipo FinFet.
Oltretutto la differenza tra 28nm e 22nm è notevole anche escludendo gli altri fattori.
Insomma, al momento le differenze ci sono eccome.
Certo, al momento c'è anche un problema di efficienza dell'architettura, ma se già elimini il gap sul processo produttivo AMD si trova immediatamente più competitiva nei confronti di Intel.
PaulGuru
15-02-2014, 19:53
Mi stupisco che confronti due processi produttivi solo dai numeretti dei nm (tendendo poi conto che anche in questo campo ognuno misura come preferisce).
Il processo produttivo usato con Kaveri non è di tipo HP (Hight Performance), motivo per cui le frequenze di Kaveri sono più basse di quelle di Righland. Inoltre il processo Intel è di tipo FinFet.
Oltretutto la differenza tra 28nm e 22nm è notevole anche escludendo gli altri fattori.
Insomma, al momento le differenze ci sono eccome.
Certo, al momento c'è anche un problema di efficienza dell'architettura, ma se già elimini il gap sul processo produttivo AMD si trova immediatamente più competitiva nei confronti di Intel.Scusa eh ma io semmai ho letto il contrario, ovvero che il PP di intel a parità di miniaturizzazione fosse meno efficiente di quello offerto da TSMC e GF, sbaglio ? Il PP di AMD non dovrebbe essere lo stesso 28nm che utilizzano ora per produrre le GPU ?
Scusa eh ma io semmai ho letto il contrario, ovvero che il PP di intel a parità di miniaturizzazione fosse meno efficiente di quello offerto da TSMC e GF, sbaglio ? Il PP di AMD non dovrebbe essere lo stesso 28nm che utilizzano ora per produrre le GPU ?
No, al più potresti aver letto che il Intel misura il processo produttivo in modo un po' "largo", e che i 22nm Intel non corrispondono ai 22nm di TSMC, per esempio.
Ma rimane il discorso di fondo: non puoi valutare un processo produttivo solo dai nm, è come se valutassi un processore solo dalla frequenza.
Se il processo usato da AMD sia lo stesso usato per le GPU non saprei, ma direi che è possibile.
Ma come ben sai, la frequenza delle GPU è ben più bassa di quella dei processori, quindi se il processo è adatto alle GPU potrebbe non esserlo per le APU.
veramente le prestazioni non bastano mai nell'informatica a meno che non usi il PC solo per caxxeggiare tipo facebook, skype, internet ecc, ma per il resto avere boost importanti è sempre meglio.
PaulGuru, parliamoci chiaramente, l'utenza media (che è quella cui vendere il grosso di queste CPU) non è che stia lì a morire per i boost prestazionali, proprio per l'equazione cui ho accennato nel post precedente (e che hai ribadito nel tuo "a meno che"), basta darsi uno sguardo in giro e vedere gli scassoni che ci sono nelle case. Dagli un browser per i social network, un player per i filmati scaricati tramite p2p, Office, vendi il tutto nel centro commerciale, ed hai raggiunto l'obiettivo, coprendo le necessità della maggior parte dell'utenza media.
Chi ha particolari necessità, ha a disposizione il segmento high end del mercato consumer, o si orienta su una workstation, più adatta ai professionisti (per altro, bisognerebbe vedere quanti non pro ammortizzano certi investimenti con un aumento tangibile di produttività, e quanti non siano altro che utenti appassionati, come ce ne sono su HWUP e centinaia di altri forum, ma sono un numero limitato di persone).
Poichè "giù in ditta" non sono rimbambiti, sono sicuro che abbiano fatto bene i conti, e non abbiano ritenuto opportuno premere adesso il piede sull'acceleratore. Certe scelte possono risultare infelici per gli utenti (anche a me dispiace che non ci sia più AMD col fiato sul collo), ma sono ben ponderate.
Per altro, con la sempre maggior diffusione degli smartphone, siamo sicuri che non si stia raggiungendo la saturazione in ambito consumer, e non assisteremo ad un ulteriore rallentamento dei rilasci di nuovi modelli?
PaulGuru
15-02-2014, 21:17
Lo sò che l'utenza media è così, l'ho detto anche io prima.
Ma a me non frega nulla dell'utenza media, a me frega solo dell'utenza esigente e oramai il PC inteso come desktop fisso è diventato di nicchia perchè oramai col Tablet quelle altre cose le fai tutto con grande margine. Ed anche Intel dovrebbe ragionare così, oramai se si parla di prodotti desktop dovrebbe parlare automaticamente della nostra utenza.
Questa news Broadwell è chiaro che si riferisce ai modelli desktop i7 e i5 in primis, almeno io l'ho inteso così.
Ma a me non frega nulla dell'utenza media, a me frega solo dell'utenza esigente [...]
E figurati quanto ad Intel possa fregarne di una nicchia d'utenza, tenendo conto che comunque non rischia di perderla perchè in quella fascia non ha concorrenti.
Anzi, non una nicchia, ma una nicchia (gli appassionati) nella nicchia (l'utenza PC, che hai appunto definito una nicchia). Insomma, per quanto spopolino Tablet e Smartphone, l'utenza PC che vuole un i7 e una scheda video da 300 euro e oltre è comunque una netta minoranza del totale.
Il problema comunque qui non è cosa vuole Intel (che giustamente punta a lavorare in quei campi dove è indietro, ossia nella competizione con ARM per i bassi consumi, cosa che per fortuna si riflette anche sui processori da PC), ma il fatto che Intel, nonostante la sua posizione dominante, ha difficoltà con il suo processo produttivo.
PaulGuru
16-02-2014, 01:16
E figurati quanto ad Intel possa fregarne di una nicchia d'utenza, tenendo conto che comunque non rischia di perderla perchè in quella fascia non ha concorrenti.
Anzi, non una nicchia, ma una nicchia (gli appassionati) nella nicchia (l'utenza PC, che hai appunto definito una nicchia). Insomma, per quanto spopolino Tablet e Smartphone, l'utenza PC che vuole un i7 e una scheda video da 300 euro e oltre è comunque una netta minoranza del totale.
Scusa un attimo ma tutte le schede madri high end tipo Maximus, Sabertooth Sniper, Extreme, Mpower e quant'altro a partire anche sotto i 100€ fino ai 500€ e passa ( prodotti che comunque non vengono usati dagli OEM per i preassemblati ) cosa le fanno a fare se pensi che non vendano un num sufficiente da mettere sù un guadagno ?
Ce ne sono centinaia di modelli per giunta, e lo stesso per le RAM, tipo le Corsair, Gskill, Mushkin, Geil, Kingston, credi veramente che sia roba che spacciano solitamente agli OEM ? Le Vengeance ne producono in quantità enormi e con un casino di modelli ed è tutta roba di nicchia eppure se ne producono così tanti e in tante varianti vorrà dire qualcosa.
Ancora peggio, tutti i dissipatori after market, specie gli AIO a liquido a chi credi siano destinati ? Eppure guarda quanta varietà c'è in giro e guarda per ognuno di quei prodotti quanti risultati ti spara su "trovaprezzi".
Quindi sì il mercato di nicchia è il mercato che traina il marketing e lo sviluppo di tutti gli altri prodotti, e la sua utenza è sicura, quindi inutile parlarne come se fosse la fascia di mercato inutile che non contano nulla.
Forse come numero di vendite in proporzione no ma le ricerche di quel settore tirano avanti tutto lo sviluppo dei modelli minori, è un campo di ricerca e sperimentazione per tutti i prodotti. Come le competizioni di prototipi per le case automobilistiche.
Il problema comunque qui non è cosa vuole Intel (che giustamente punta a lavorare in quei campi dove è indietro, ossia nella competizione con ARM per i bassi consumi, cosa che per fortuna si riflette anche sui processori da PC), ma il fatto che Intel, nonostante la sua posizione dominante, ha difficoltà con il suo processo produttivo.E secondo te dove avviene questo sviluppo dei futuri Atom ?
Nella categoria desktop, architettura, PP e iGPU tutto derivante da lì, direttamente o meno.
Idem i prodotti destinati ai servers o i desktop enthusiast di derivazione server, non a caso escono dopo la fascia mainstream.
Stessa cosa le GPU, vedi Tegra ed i modelli notebook e la controparte AMD, da dove credi sia nata la gpu di Kadaveri e di tutte le APU ? Dalle fasce alte ovvero GK110 e Haiti.
carlottoIIx6
16-02-2014, 02:36
Chi glielo fa fare a muoversi? Sono i soli sul mercato...
quando ho letto la news ho pensato, chi sa quanti diranno che è colpa delle concorrenza :)
non ho dovuto aspettare molto :)
amd è più viva che mai, ma i fun intel se ne accorgeranno tardi :D
carlottoIIx6
16-02-2014, 02:39
No, solo nel 2015 per i modelli mainstream.
Ma quale affondo vuoi che facciano ?
E' da un pezzo che Intel va avanti di +3% con tanto di HIS dissaldati tanto che la serie 2 è ancora più che competitiva con l'attuale e l'unica cosa che AMD ha saputo fare in 1 anno e mezzo dopo Piledriver è tirare fuori un tanto decantato Steamroller con +10% a pari frequenza ( che diventa 0 in quanto la frequenza è diminuita ), temp e consumi in full paragonabili nonostante una sostanziale modifica nell'architettura e i 28nm ?
Si vede che non ha proprio più i mezzi nè figure competenti, nè la voglia di lavorare.
hihi e vai con la trollata su amd immancabile ad ogni tua apparizione :D
carlottoIIx6
16-02-2014, 02:47
Ma è esattamente quello che diceva: dato che la stragrande maggioranza dell'utenza fa esattamente quello che hai scritto li sopra, il bisogno di processori ultrapotenti è relegato ad una nicchia di mercato, nicchia che certo non sostiene la produzione di Intel.
Il punto però è un altro.
Questo articolo conferma ciò che ormai alcuni utenti (me compreso) ripetono da diverso tempo, ossia che nonostante Intel abbia sborsato ad ASML (che produce i macchinari per la litografia) il triplo di quanto hanno fatto altre fonderie come Samsung e TSMC, non è immune ai problemi che l'estrema miniaturizzazione sta portando.
Altre fonderie si stanno spostando su processi produttivi più adeguati alla miniaturizzazione (come FD-SOI), e presto Intel potrebbe vedere il proprio vantaggio sul processo produttivo molto ridotto se non annullato.
Certo, Intel è molto grande e può permettersi di spendere di più, ma qui si tratta di numeri molto grossi anche per Intel, che ha bisogno di mantenere le linee produttive al lavoro e vendere molto per ripagare queste spese.
Oggi però il grosso dei soldi si sta spostando verso il mercato Mobile, e questo potrebbe creare ad Intel dei bei problemi.
Io francamente mi auguro che Intel perda del tutto il vantaggio sul lato del processo produttivo, in maniera tale che possa esserci più concorrenza in campo PC.
Il problema di AMD non è solo l'architettura, ma anche il silicio su cui sono stampati i processori, ridurre questo gap sarebbe sicuramente positivo per il mercato.
certo che ragionate sempre allo stesso modo,
processo produttivo, incremento lato x86 ecc
è roba che sta arrigando a capolinea!! svegliatevi.
amd sta facendo la rivoluzione, che si chiama hsa.
vi faccio una previsione, il calcolo x86 puro fra un po non se lo caca nessuno, dal molbile alle workstation, passando per i pc e giochi.
:sofico:
infatti stanno per nascere le apu arm hsa e le cpu x86 arm miste sempre hsa :)
guardate un po' il futuro ogni tanto, e non guardate sempre il dito di chi ve lo indica.
un mini pc come quello http://www.tomshw.it/cont/news/amd-crea-uno-smartphone-anzi-no-e-un-piccolo-computer/52250/1.html con hsa potrebbe andare come un pc attuale.
PaulGuru
16-02-2014, 10:23
certo che ragionate sempre allo stesso modo,
processo produttivo, incremento lato x86 ecc
è roba che sta arrigando a capolinea!! svegliatevi.
amd sta facendo la rivoluzione, che si chiama hsa.
vi faccio una previsione, il calcolo x86 puro fra un po non se lo caca nessuno, dal molbile alle workstation, passando per i pc e giochi.
:sofico:
infatti stanno per nascere le apu arm hsa e le cpu x86 arm miste sempre hsa :)
guardate un po' il futuro ogni tanto, e non guardate sempre il dito di chi ve lo indica.
un mini pc come quello http://www.tomshw.it/cont/news/amd-crea-uno-smartphone-anzi-no-e-un-piccolo-computer/52250/1.html con hsa potrebbe andare come un pc attuale.
cresci e vedi di risparmiaci ste cavolate che spari ogni volta.
Non sei degno nemmeno di una risposta.
marchigiano
16-02-2014, 10:28
Il processo produttivo usato con Kaveri non è di tipo HP (Hight Performance) ma se non sbaglio di tipo 28-nm LPH, motivo per cui le frequenze di Kaveri sono più basse di quelle di Righland. Inoltre il processo Intel è di tipo FinFet.
http://www.anandtech.com/show/7677/amd-kaveri-review-a8-7600-a10-7850k
il silicio è Super High Performance, quindi meglio del HP con il quale otterrebbe frequenze più basse
marchigiano
16-02-2014, 10:30
un mini pc come quello http://www.tomshw.it/cont/news/amd-crea-uno-smartphone-anzi-no-e-un-piccolo-computer/52250/1.html con hsa potrebbe andare come un pc attuale.
va bene ma nel frattempo vorrei usare quello che va forte oggi... ;)
Scusa un attimo ma tutte le schede madri high end tipo Maximus, Sabertooth Sniper, Extreme, Mpower e quant'altro a partire anche sotto i 100€ fino ai 500€ e passa ( prodotti che comunque non vengono usati dagli OEM per i preassemblati ) cosa le fanno a fare se pensi che non vendano un num sufficiente da mettere sù un guadagno ?
Pensa che DFI (com'era bella la Nforce 2 che avevo tanti anni fa...) ed Abit sono fallite. OCZ so che è con l'acqua alla gola, e non metterei la mano sul fuoco che, fra pochi anni, Asus e soci continueranno a proporre tutti quei modelli di punta nel mercato consumer.
c'era da aspettarselo,intel rallenta e i fan se la prendono con amd che non riesce a fargli concorrenza:D
ma se amd per intel non esiste piu' dai tempi di conroe...
i 14nm gli servivano dannatamente per contrastare arm,vero spauracchio attuale e futuro per intel
e intanto fab 14nm chiusa,primi esuberi con il 5% dipendenti,tsmc che anticipa i 20nm e 16ff,amd ormai e' a solo mezzo pp da intel...
nemmeno intel crede piu' in se stessa,apre le proprie fonderie a terzi(altera) e probabilmente i prossimi soc atom,saranno prodotti da fonderie concorrenti:eek:
ibm dismette ogni cosa sia x86 e google che fa' prima a farsi produrre le cpu,arm ovviamente,direttamente da fonderie esterne per i propri server...
a intel cominciano a stargli alla larga,sentono puzza di cadavere??:asd:
E' anni che tutti decretano la morte di x86 ed e' ancora li'... ARM ha il suo scenario d'uso e si ritagliera' una buona fetta (anzi se la sta gia' ritagliando) ma da qui a dire che x86 e' morto ce ne passa parecchio.
Le sparate su AMD fanno ridere, ha fatto il solletico a Intel con gli athlon64 nel retail, tutto qua, perche' di piu' non puo' fare. Non perche' abbia sempre fatto cattivi prodotti, anzi, ma perche' si parla di ORDINI DI GRANDEZZA diversi tra le due aziende e potenze di fuoco incomparabili.
CrapaDiLegno
16-02-2014, 15:05
certo che ragionate sempre allo stesso modo,
processo produttivo, incremento lato x86 ecc
è roba che sta arrigando a capolinea!! svegliatevi.
amd sta facendo la rivoluzione, che si chiama hsa.
vi faccio una previsione, il calcolo x86 puro fra un po non se lo caca nessuno, dal molbile alle workstation, passando per i pc e giochi.
:sofico:
infatti stanno per nascere le apu arm hsa e le cpu x86 arm miste sempre hsa :)
guardate un po' il futuro ogni tanto, e non guardate sempre il dito di chi ve lo indica.
un mini pc come quello http://www.tomshw.it/cont/news/amd-crea-uno-smartphone-anzi-no-e-un-piccolo-computer/52250/1.html con hsa potrebbe andare come un pc attuale.
Ah, ecco, mi mancava la sparata su HSA e il magico mondo dei folletti.
Capiamoci prima di partire per la tangente, pure io sono dell'idea che i core General Purpose usati come per fare calcoli specialistici sono una boiata immensa, però capisco anche che creare migliaia di core General Purpose con le limitazioni della architettura di una GPU sia una boiata peggiore.
Non è quello il futuro del calcolo eterogeneo.
Il calcolo eterogeneo che (già) funziona è quello dei SoC ARM. Credi che tutto il lavoro sia svolto dai 2/4/8 core che normalmente ti pubblicizzano? Fossi in te darei un'occhiata a come è fatta l'architettura di un SoC ARM e poi guarderei a come è fatta l'architettura delle APU. Non c'entrano nulla una con l'altra, e difatti i SoC ARM sono venduti a miliardi e non richiedono alcuna propaganda (e promesse future) per essere accettati come qualcosa che davvero porta vantaggi rispetto a tutto quello che c'è attualmente sul mercato, HSA compresa (che è e rimane una gran presa per i fondelli, e no, non venirmi a dire che anche ARM fa parte del consorzio... per ARM l'uso di HSA come è inteso da AMD è solo una piccola parte di cioè che già oggi realizza) .
Tornando sui problemi di Intel, sono mesi che vado dicendo che il nuovo PP è un grandissimo problema per Intel. E i prossimi saranno ancoa peggio, sia per le difficoltà tecniche, ma sopratutto per quelle finanziarie.
I ciclo produco, vendo, faccio guadagno, pago nuovo PP, produco di più a stesso prezzo, vendo di più, guadagno di più e pago nuovo più cotoso PP etc... è spezzato.
Non solo ogni PP costa proporzionalmente molto di più del precedente, cosa che negli anni ha portato a creare un nuovo processo produttivo sempre più in ritardo rispetto ai 12 mesi iniziali profetizzati dalla legge di Moore (poi cambiati in 18 e ora a 24) per permettere di recuperare i soldi investiti per realizzarli, ma Intel oggi non vende di più rispetto a prima.
Anzi, nel mercato che è in pieno boom (e non lo sarà in eterno pure lui), Intel non c'è. Per anni si è concentrata a fare una architettura monolitica e elefantiaca per mettere in difficoltà la concorrenza, sbattendosene di efficienza, costi, spazi e complessità di quel che realizzava, tanto i prezzi compensavano alla grande le spese necessarie. E AMD non è stata di meno, anche se di meno è riuscita a ottenere dai sui mm^2 e watt ciucciati.
Figuriamoci che nel 2008 era l'Atom (quello originale) che era pensato per i PC a basso consumo... pensate cosa c'era in quel micro e a quale chipset era affiancato per darvi un'idea di quello che Intel pensava essere il mondo del basso consumo. Pur orribile che fosse quell'Atom, AMD ci ha messo 3 anni per uscirsene con qualcosa di analogo. Però ormai il mercato era già evoluto, con l'arrivo dei dispositivi ARM based.
Da quel momento la rivale di Intel non si è più chiamata AMD ma ARM. E' con ARM che Intel deve vedersela nei prossimi anni. E' ARM che le sta tagliando l'erba sotto i piedi, che le sta mangiando il mercato (quello x86, quello che prevede sempre e comunque la presenza di Windows per essere utilizzabile proficuamente, o viceversa, che ha giustificato l'esistenza di x86 fino ad oggi). E' ARM che prevede di sbarcare nei server a basso consumo (oggi) e ha tutte le potenzialità per entrare anche nei dispositivi mobile più evoluti domani con gradi di efficienza ben diversi da quelli proposti da AMD come concorrente.
Ecco allora che il processo produttivo che deve sopperire alla mostruosità dell'architettura x86 è fondamentale. Ecco perché anche se non serve a una cippa per combattere contro AMD che è anni luce indietro è fondamentale per cercare di arginare ARM. Sono 4 anni che Intel proclama che i suoi nuovi Atom sono sempre meglio e che sono alla pari con i Soc ARM. Sono però anni che Intel non vende un Atom nel mondo mobile. Anche i futuri a 14nm saranno (ovviamente) il meglio del meglio (e saranno forse ancora una volta comparati con un Cortex-A9 a 40nm del 2010 per mostrare la barretta più lunga?) ma ARM non sta certo a guardare anche se non ha un PP così avanzato.
E' lì il campo di battaglia, non certo sulle CPU desktop/server HPC o nicchie di mercato che stanno sempre più restringendosi o diventando ininfluenti rispetto alla quantità e fatturato che permette il mobile.
Ricordiamoci che il vantaggio di ARM non è solo l'efficienza energetica, cosa a cui Intel può aspirare di pareggiare con un paio di PP di vantaggio, ma anche i costi. Produrre 100mm^2 di silicio a 28nm costa un botto in meno degli stessi 100mm^2 a 14nm. E i chip di Intel sono molto più grandi in termini di complessità e die space dei SoC ARM (che contengono TUTTO! non solo la CPU come nei confronti in cui non si tiene presente che ad un Atom serve comunque un chipset esterno agggiunivo!).
Il risultato finale è che se anche Intel riesce a fare un chip con la stessa efficienza di uno ARM, o lo svende o non va da nessuna parte. Ma svendita = meno introiti per il futuro PP. E mentre Intel deve guadagnare sulla vendita di un centinaio di milioni di chip l'anno (se riesce a venderli), chi produce SoC ARM (parlo delle fonderie come TSMC) guadagna dalla vendita di un paio di miliardi di questi cosi.
Mi sembra una lotta impari. E' logico che prima o poi Intel smetterà di avere il vantaggio del PP migliore e a quel punto le cose sono 2: o abbandona il mercato mobile per concentrarsi a triturare ARM nei mercati dove potrebbe entrare (quelli di alta computazione) oppure cambia radicalmente architettura (perdendo la tanto amata retrocompatibilità e un po' anche la faccia).
Nel primo caso bisogna sempre fare i conti con il costo del silicio usato a pari PP. Nel secondo caso bisognerà capire quali vantaggi porta la nuova architettura dato che la perdita (o la non esistenza) di retocompatibilità è una linea di partenza che rende tutti uguali.
Nel frattempo accendo il mio 4+4 core Intel a 22nm e me lo godo, in attesa che ARM, AMD, HSA, GPGPU, PippoCaioSempronio facciano di meglio :)
MiKeLezZ
16-02-2014, 15:09
veramente le prestazioni non bastano mai nell'informatica a meno che non usi il PC solo per caxxeggiare tipo facebook, skype, internet ecc, ma per il resto avere boost importanti è sempre meglio.
Inoltre nel Thread delle prossime Nvidia Maxwell high end potrebbe essere molto superiore alle attuali schede, quindi è meglio darci dentro per essere meno limited possibile.
Per le conversioni video fino a che non si parlerà di secondi per finire una conversione video non credo che i boost possano essere ignorati.Sono fermo al Core 2 Duo senza alcuna necessità dell'upgrade, siamo arrivati a un punto prestazionale tale per cui non vi è bisogno di particolari miglioramenti (neppure nella quantità di core) e ben venga invece la corsa al IPC/WATT che sta anche modificando il reparto motherboard (da ridicole M/B a 12 fasi siamo tornati alle 3 fasi) e laptop (da 2 ore di autonomia a 10!) e che Intel sta peraltro palesemente vincendo da anni.
La gente normale non ha la primaria necessità di rippare i bluray entro le 6 ore del noleggio come vorresti fare credere te (e come forse fai!).
Quello di cui abbiamo invece probabilmente bisogno è:-
- Un coprocessore in virgola mobile facilmente sfruttabile (potrebbe essere la VGA integrata) e con sfruttabile intendo non che sia semplicemente presente (vedi ad es. le APU), ma che abbia alle spalle un marketing e una potenza commerciale da imporsi come stardard (al pari delle x64).
- Delle VGA discrete che anche loro perseguano questa corsa al IPC/WATT e non creino colli di bottiglia (in questo caso lato consumi e rumore) in un sistema altrimenti estremamente ben ottimizzato (gli unici crash di sistema in 2 anni sono stati proprio a causa dei driver VGA, peraltro di una VGA non connessa, e mi hanno fatto perdere 2 settimane di produttività perché cercavo il problema altrove).
- Una correzione errori nell'unico sistema in cui ad oggi manca: le RAM. Gradite quindi DDR4 che costringano a ECC Unbuffered di default e con esse il termine della ridicola suddivisione di mercato business/consumer in un mercato che di fatto sta calando.
- Costi e ingombri sempre inferiori. Già 4 anni fa scelsi il MicroATX come standard e tutt'ora non capisco perchè l'ATX sia ancora in circolo e perché non sviluppino adeguatamente il MicroATX. Siamo arrivati a livelli tali per cui un PC stacazzuto sta nella grandezza di un sintoamplificatore. Come non capisco l'attuale politica dei prezzi di Intel, 200 euro per una CPU che peraltro mi costringe a una piattaforma consumer con i suoi limiti artificiali è roba da anni 2004, non 2014.
PaulGuru
16-02-2014, 15:22
Sono fermo al Core 2 Duo senza alcuna necessità dell'upgrade, siamo arrivati a un punto prestazionale tale per cui non vi è bisogno di particolari miglioramenti (neppure nella quantità di core) e ben venga invece la corsa al IPC/WATT che sta anche modificando il reparto motherboard (da ridicole M/B a 12 fasi siamo tornati alle 3 fasi) e laptop (da 2 ore di autonomia a 10!) e che Intel sta peraltro palesemente vincendo da anni.
La gente normale non ha la primaria necessità di rippare i bluray entro le 6 ore del noleggio come vorresti fare credere te (e come forse fai!).
Quello di cui abbiamo invece probabilmente bisogno è:-
- Un coprocessore in virgola mobile facilmente sfruttabile (potrebbe essere la VGA integrata) e con sfruttabile intendo non che sia semplicemente presente (vedi ad es. le APU), ma che abbia alle spalle un marketing e una potenza commerciale da imporsi come stardard (al pari delle x64).
- Delle VGA discrete che anche loro perseguano questa corsa al IPC/WATT e non creino colli di bottiglia (in questo caso lato consumi e rumore) in un sistema altrimenti estremamente ben ottimizzato (gli unici crash di sistema in 2 anni sono stati proprio a causa dei driver VGA, peraltro di una VGA non connessa, e mi hanno fatto perdere 2 settimane di produttività perché cercavo il problema altrove).
- Una correzione errori nell'unico sistema in cui ad oggi manca: le RAM. Gradite quindi DDR4 che costringano a ECC Unbuffered di default e con esse il termine della ridicola suddivisione di mercato business/consumer in un mercato che di fatto sta calando.
- Costi e ingombri sempre inferiori. Già 4 anni fa scelsi il MicroATX come standard e tutt'ora non capisco perchè l'ATX sia ancora in circolo e perché non sviluppino adeguatamente il MicroATX. Siamo arrivati a livelli tali per cui un PC stacazzuto sta nella grandezza di un sintoamplificatore. Come non capisco l'attuale politica dei prezzi di Intel, 200 euro per una CPU che peraltro mi costringe a una piattaforma consumer con i suoi limiti artificiali è roba da anni 2004, non 2014.Se non ci fai nulla col PC non ti serve l'upgrade, è ovvio, anzi non credo manco ti serva il fisso.
A me non risulta che gli attuali proci siano capaci di convertire film di vari formati in 1 min o sbaglio ?
E alcuni sono anche già parzialmente limited con le attuali VGA già da ora, figurati in multigpu ( Mantle lo conferma anche con gli Intel 2011 ), e ancora peggio con le prossime generazioni.
L'IPC / Watt cosa serve sul fisso ? Non è mica alimentato a batteria, almeno lì non devo sottostare alla durata della batteria e risparmiare qualche decina d'euro l'anno con una configurazione esasperata non mi cambia la vita.
L'ATX è ancora in circolo nel caso tu voglia espandere il sistema con configurazioni multi-gpu o schede secondarie quali scheda audio in primis, SSD o schede wi-fi e inoltre rispetto al microATX permettono di distanziare la prima scheda dal socket e avere una sezione di alimentazione più grande e meglio dissipata, mentre il microITX ha solo uno slot, quindi 1 VGA e basta.
TigerTank
16-02-2014, 15:23
Secondo me non ce n'è manco bisogno prima di un altro anno-anno e mezzo...sono appena usciti gli haswell e non è che i processori siano così determinanti come ad esempio le vga(a meno di essere tanto vecchi o entry level da far da tappo a queste ultime).
Se poi dovessero uscire pure quelli con l'odiosa pasta termica che li trasforma in fornelletti...
Circa il discorso delle "prestazioni che non bastano mai"....dai ragazzi siamo realistici, il 95% degli ambiti lavorativi non ha la priorità di stare al passo ad ogni sfornata. Se proprio è più un discorso da bench...e quindi roba frivola a livello di produttività :)
io stesso quando sono passato da un q9650 a un i7-3770 ho notato la differenza solo in un paio di giochi...Io con il Q9650 vado ancora da dio e non sento la necessità di cambiarlo nonostante gli ormai SEI anni :D Un pc non mi durava tanto dal Pentium MMX con Voodoo, sostituito nel 2003.
MiKeLezZ
16-02-2014, 16:15
Se non ci fai nulla col PC non ti serve l'upgrade, è ovvio, anzi non credo manco ti serva il fisso.Ma che dici, con il PC ci faccio di tutto, dall'editing audio, al videogaming, alla gestione di server, alla modifica di immagini e file di publishing, al supporto nel testing di altri componenti, al calcolo tabellare e via dicendo... Ora che non sto facendo niente ho 12 tab aperte, 2 programmi in background e un uptime di 9 giorni...
A me non risulta che gli attuali proci siano capaci di convertire film di vari formati in 1 min o sbaglio ?In realtà tool professionali si appoggiano alla VGA e li convertono a prescindere dalla potenza della CPU (suo carico di lavoro del 10%) in effettivamente un rapporto di 1:3 per i 1080p (90 minuti film = 30 minuti in conversione).
Quindi, ammettendo anche la necessità di RIP (che io per esempio non ho mai avuto... ma vabbè) che le CPU crescano in potenza non mi sembra così utile...
E alcuni sono anche già parzialmente limited con le attuali VGA già da ora, figurati in multigpu ( Mantle lo conferma anche con gli Intel 2011 ), e ancora peggio con le prossime generazioni.Di limited qua vedo qualcun altro, non le CPU :sofico:
L'IPC / Watt cosa serve sul fisso ? Non è mica alimentato a batteria, almeno lì non devo sottostare alla durata della batteria e risparmiare qualche decina d'euro l'anno con una configurazione esasperata non mi cambia la vita.A me cambia la vita (in termini economici nonché di comfort e di riduzione di componentistica accessoria atta a smaltire il calore, sia relativa al case che alla stanza) e se tale sistema è adottato da tutti, cambia la vita pure al mondo intero risparmiando la costruzione di decine di centrali nucleari (1 miliardo per 10W = 10 miliardi W = 5 centrali nucleari)... pensa te...
L'ATX è ancora in circolo nel caso tu voglia espandere il sistema con configurazioni multi-gpu o schede secondarie quali scheda audio in primis, SSD o schede wi-fi e inoltre rispetto al microATX permettono di distanziare la prima scheda dal socket e avere una sezione di alimentazione più grande e meglio dissipata.IMHO ridicolaggini da nicchiare. Oggi giorno hai tutto integrato e al limite disponibile su USB, ti serve solo lo slot PCI-E 16X per la VGA e il PCI-E se lavori con l'audio (per giocare anche lì è inutile visto che l'integrata è perfettamente identica all'ultima XFI se la fai uscire in digitale).
cdimauro
16-02-2014, 16:46
Approfitto del tuo messaggio per rispondere ad alcuni punti che vengono spesso sollevati, e per esporre il mio personalissimo parere.
Ah, ecco, mi mancava la sparata su HSA e il magico mondo dei folletti.
Capiamoci prima di partire per la tangente, pure io sono dell'idea che i core General Purpose usati come per fare calcoli specialistici sono una boiata immensa, però capisco anche che creare migliaia di core General Purpose con le limitazioni della architettura di una GPU sia una boiata peggiore.
Non è quello il futuro del calcolo eterogeneo.
Il calcolo eterogeneo che (già) funziona è quello dei SoC ARM. Credi che tutto il lavoro sia svolto dai 2/4/8 core che normalmente ti pubblicizzano? Fossi in te darei un'occhiata a come è fatta l'architettura di un SoC ARM e poi guarderei a come è fatta l'architettura delle APU. Non c'entrano nulla una con l'altra, e difatti i SoC ARM sono venduti a miliardi e non richiedono alcuna propaganda (e promesse future) per essere accettati come qualcosa che davvero porta vantaggi rispetto a tutto quello che c'è attualmente sul mercato, HSA compresa (che è e rimane una gran presa per i fondelli, e no, non venirmi a dire che anche ARM fa parte del consorzio... per ARM l'uso di HSA come è inteso da AMD è solo una piccola parte di cioè che già oggi realizza) .
E' chiaro che un'unità specializzata faccia un lavoro migliore rispetto a un core general purpose. Le GPU, ad esempio, integrano da tempo un'unità di de/codifica del video che... fa solo quello, e lo fa bene. Idem molti SoC ARM, a cui il processore delega la decodifica dei video.
Concordo sull'utilità dell'HSA che viene tanto decantata: vorrei capire quale dovrebbe essere e quali vantaggi (concreti) dovrebbe portare.
Tornando sui problemi di Intel, sono mesi che vado dicendo che il nuovo PP è un grandissimo problema per Intel. E i prossimi saranno ancoa peggio, sia per le difficoltà tecniche, ma sopratutto per quelle finanziarie.
I ciclo produco, vendo, faccio guadagno, pago nuovo PP, produco di più a stesso prezzo, vendo di più, guadagno di più e pago nuovo più cotoso PP etc... è spezzato.
Non solo ogni PP costa proporzionalmente molto di più del precedente, cosa che negli anni ha portato a creare un nuovo processo produttivo sempre più in ritardo rispetto ai 12 mesi iniziali profetizzati dalla legge di Moore (poi cambiati in 18 e ora a 24) per permettere di recuperare i soldi investiti per realizzarli, ma Intel oggi non vende di più rispetto a prima.
E' un problema che riguarda tutte le fonderie, causa l'approssimarsi dei limiti del silicio.
Anzi, nel mercato che è in pieno boom (e non lo sarà in eterno pure lui), Intel non c'è. Per anni si è concentrata a fare una architettura monolitica e elefantiaca per mettere in difficoltà la concorrenza, sbattendosene di efficienza, costi, spazi e complessità di quel che realizzava, tanto i prezzi compensavano alla grande le spese necessarie. E AMD non è stata di meno, anche se di meno è riuscita a ottenere dai sui mm^2 e watt ciucciati.
Figuriamoci che nel 2008 era l'Atom (quello originale) che era pensato per i PC a basso consumo... pensate cosa c'era in quel micro e a quale chipset era affiancato per darvi un'idea di quello che Intel pensava essere il mondo del basso consumo. Pur orribile che fosse quell'Atom, AMD ci ha messo 3 anni per uscirsene con qualcosa di analogo. Però ormai il mercato era già evoluto, con l'arrivo dei dispositivi ARM based.
Intel possedeva già una divisione ARM, che sfornò ottimi prodotti; poi la cedette alla Marvell. Dopo qualche tempo presentò gli Atom. Per cui credo che il tutto facesse parte di una strategia a lungo termine.
Da quel momento la rivale di Intel non si è più chiamata AMD ma ARM. E' con ARM che Intel deve vedersela nei prossimi anni. E' ARM che le sta tagliando l'erba sotto i piedi, che le sta mangiando il mercato (quello x86, quello che prevede sempre e comunque la presenza di Windows per essere utilizzabile proficuamente, o viceversa, che ha giustificato l'esistenza di x86 fino ad oggi). E' ARM che prevede di sbarcare nei server a basso consumo (oggi) e ha tutte le potenzialità per entrare anche nei dispositivi mobile più evoluti domani con gradi di efficienza ben diversi da quelli proposti da AMD come concorrente.
Il quadro non è completo. Intel è entrata nel mondo del mobile (tablet principalmente, e phablet) con Atom, e di recente anche in quello embedded con Quark.
Quindi è vero anche il contrario: Intel sta pestando i piedi ad ARM entrando in quello che era il suo settore dominante.
Inoltre è entrata anche nel mercato HPC/GPGPU-computing con Xeon Phi (che è nato dalle ceneri di Larrabee).
Dunque non è che stia giocando esclusivamente in difesa; sta cercando, anzi, di espandere il suo business verso altri mercati.
Ecco allora che il processo produttivo che deve sopperire alla mostruosità dell'architettura x86 è fondamentale.
Non è proprio così, e l'ho scritto in un pezzo più di 4 anni e mezzo fa sulla questione: dipende tutto dai numeri in gioco.
Se hai un chip costituito da pochi transistor, la cosiddetta x86-tax ha il suo peso, senz'altro; non è una cosa che puoi eliminare. Ma quando hai un core costituito da centinaia di milioni di transistor, se non addirittura miliardi com'è ormai diventato usuale nell'ultimo periodo, il suo peso diventa trascurabile.
Nel mio pezzo affronto la questione riportando anche alcuni numeri sull'unità di decodifica di Pentium (da cui sono stati tratti gli Atom in-order) e PentiumPro (che era un ben più complesso processore out-of-order). Rapportati grezzamente alla situazione attuale danno un'idea del peso che può avere una sezione di decodifica complessa rispetto all'enorme quantità di transistor che sono a disposizione adesso.
In un'altra serie di articoli ho affrontato anche un'analisi di tutti gli altri aspetti "legacy" di x86 (e x64), che hanno un ruolo nettamente minore (IMO è il decoder l'elemento in assoluto di maggior peso).
Ecco perché anche se non serve a una cippa per combattere contro AMD che è anni luce indietro è fondamentale per cercare di arginare ARM. Sono 4 anni che Intel proclama che i suoi nuovi Atom sono sempre meglio e che sono alla pari con i Soc ARM. Sono però anni che Intel non vende un Atom nel mondo mobile.
Non mi pare che sia così. Non vende abbastanza, questo sì, ma vende e ci sono aziende come Samsung o Asus che si appoggiano a Intel per soluzioni mobile più "high-end". Ad esempio l'altro ieri hanno regalato a mio figlio un Fonepad 7, e mia figlia mi ha fatto notare il marchio "Intel inside". E' stata una piacevole sorpresa: qualcosa si muove...
Anche i futuri a 14nm saranno (ovviamente) il meglio del meglio (e saranno forse ancora una volta comparati con un Cortex-A9 a 40nm del 2010 per mostrare la barretta più lunga?) ma ARM non sta certo a guardare anche se non ha un PP così avanzato.
E' lì il campo di battaglia, non certo sulle CPU desktop/server HPC o nicchie di mercato che stanno sempre più restringendosi o diventando ininfluenti rispetto alla quantità e fatturato che permette il mobile.
Indubbiamente, ma sono mercati che non spariranno. Quello HPC, anzi, è in aumento. Idem per le soluzioni data center. Quello desktop ha un declino fisiologico, ma il peggio IMO è passato, perché il mercato dei tablet si sta saturando.
Inoltre credo che per il futuro l'elemento su cui si punterà maggiormente l'attenzione sarà rappresentato dalle cosiddette soluzioni 2-in-1: notebook/netbook che funge anche da tablet. Il tutto con Windows che gira, col quale ritrovi gli stessi programmi a cui sei abituato.
Il tablet è comodo, ma non puoi farci molto. Il notebook è potente e ci girano i programmi che usi normalmente, ma è scomodo. Una soluzione che permetta entrambe le cose, se venduta a prezzi abbordabili, è possibile che polarizzi l'attenzione degli utenti (che si possono pure scocciare di avere più prodotti per fare cose simili).
In tal caso gli equilibri potrebbero nuovamente cambiare, e riportare alla ribalta Intel, e pure Microsoft. E' uno scenario da non sottovalutare.
Ricordiamoci che il vantaggio di ARM non è solo l'efficienza energetica, cosa a cui Intel può aspirare di pareggiare con un paio di PP di vantaggio, ma anche i costi. Produrre 100mm^2 di silicio a 28nm costa un botto in meno degli stessi 100mm^2 a 14nm. E i chip di Intel sono molto più grandi in termini di complessità e die space dei SoC ARM
La mia opinione è che al momento Intel non includa componenti comparabili (per prestazioni in rapporto al silicio richiesto) a quelle che sono presenti nelle soluzioni ARM, che possono contare su GPU, video decoder e DSP audio più ottimizzati. Questo è anche uno dei motivi per cui ha adottato le GPU di PowerVR per alcune declinazioni di Atom.
Sarebbe interessante valutare l'impatto dei soli core avendo componenti comparabili per prestazioni/die, per capire quanto possa incidere la suddetta x86-tax, ma al momento non è possibile, e i SoC vanno valutati "as is".
(che contengono TUTTO! non solo la CPU come nei confronti in cui non si tiene presente che ad un Atom serve comunque un chipset esterno agggiunivo!).
Baytrail non mi sembra che abbia chip esterni, fatta eccezione per il modulo LTE. Come tanti produttori che montano ARM.
Mi sembra che attualmente Qualcomm sia l'unica realtà a proporre un SoC comprensivo del modulo LTE.
Il risultato finale è che se anche Intel riesce a fare un chip con la stessa efficienza di uno ARM, o lo svende o non va da nessuna parte. Ma svendita = meno introiti per il futuro PP. E mentre Intel deve guadagnare sulla vendita di un centinaio di milioni di chip l'anno (se riesce a venderli), chi produce SoC ARM (parlo delle fonderie come TSMC) guadagna dalla vendita di un paio di miliardi di questi cosi.
Mi sembra una lotta impari.
Non mi pare che sia così, perché TSMC quanto potrà guadagnare da SoC ARM che vengono venduti a poco prezzo? Sì rifarà sulla quantità e questo è sicuramente importante, ma Intel i suoi processori non li svende. D'altra parte non c'è soltanto il costo di acquisto da considerare, ma anche le prestazioni sono importanti e hanno sempre più peso; non a caso c'è la corsa ai core, coi produttori di SoC ARM che fanno a gara a chi ce l'ha più lungo, quando Intel offre ottime prestazioni pur con un numero di core nettamente inferiore...
Intel ha altre carte da potersi giocare senza svenarsi. Altre arriveranno in futuro, come suo solito.
Sono soluzioni diverse per risolvere sostanzialmente gli stessi problemi, con pregi e difetti di ognuna. Starà poi ai produttori di dispositivi valutare quale meglio si adatta per il propri obiettivi.
E' logico che prima o poi Intel smetterà di avere il vantaggio del PP migliore e a quel punto le cose sono 2: o abbandona il mercato mobile per concentrarsi a triturare ARM nei mercati dove potrebbe entrare (quelli di alta computazione) oppure cambia radicalmente architettura (perdendo la tanto amata retrocompatibilità e un po' anche la faccia).
Nel primo caso bisogna sempre fare i conti con il costo del silicio usato a pari PP.
Vedi sopra.
Nel secondo caso bisognerà capire quali vantaggi porta la nuova architettura dato che la perdita (o la non esistenza) di retocompatibilità è una linea di partenza che rende tutti uguali.
Non ho capito cosa intendi con la perdita della retrocompatibilità, della faccia, e della parte finale della tua ultima frase. Potresti essere un po' più chiaro, cortesemente? Grazie.
Nel frattempo accendo il mio 4+4 core Intel a 22nm e me lo godo, in attesa che ARM, AMD, HSA, GPGPU, PippoCaioSempronio facciano di meglio :)
;)
Scusa un attimo ma tutte le schede madri high end tipo Maximus [...] cosa le fanno a fare se pensi che non vendano un num sufficiente da mettere sù un guadagno ?
Non ho detto che non metti su guadagno, ma che sono una piccola parte delle vendite.
Si sostengono per i margini maggiori e per motivi di marketing.
Ma se dovessero scegliere tra la fascia mainstream e questa, stai tranquillo che non sceglierebbero questa.
Sul resto ti ha risposto abbastanza esaurientemente Bellaz89.
cresci e vedi di risparmiaci ste cavolate che spari ogni volta.
Non sei degno nemmeno di una risposta.
LOL, il bue che da del cornuto all'asino.
Rifletti sulle sparate senza senso che tiri fuori in almeno la metà delle discussioni a cui partecipi prima di metterti ad accusare gli altri (indipendentemente dal fatto che possano spararle grosse anche loro).
http://www.anandtech.com/show/7677/amd-kaveri-review-a8-7600-a10-7850k
il silicio è Super High Performance, quindi meglio del HP con il quale otterrebbe frequenze più basse
Ahah ho preso una cantonata così grossa? :p
Ero rimasto al fatto che doveva essere un processo LPH, evidentemente le cose stavano diversamente.
Non cambia comunque il nocciolo della questione, ed è l'articolo stesso che hai linkato a dirlo:
"While the 32nm SOI process was optimized for CPU designs at high frequency, GF's bulk 28nm SHP process is more optimized for density with a frequency tradeoff"
Il processo 28nm SHP è ottimizzato per essere compatto, ma paga in termini di frequenza. :)
E' anni che tutti decretano la morte di x86 ed e' ancora li'... ARM ha il suo scenario d'uso e si ritagliera' una buona fetta (anzi se la sta gia' ritagliando) ma da qui a dire che x86 e' morto ce ne passa parecchio.
x86 non muore perchè ha alle spalle un monopolista cannibale come Intel e tanto software ottimizzato su di esso.
Ma guarda la situazione odierna rispetto al passato, quando gli x86 dominavano il mondo consumer dell'IT, mentre ora sono i processori ARM a fare la parte del leone. Perché credi che Intel stia investendo tanto in quel settore?
Le sparate su AMD fanno ridere, ha fatto il solletico a Intel con gli athlon64 nel retail, tutto qua, perche' di piu' non puo' fare. Non perche' abbia sempre fatto cattivi prodotti, anzi, ma perche' si parla di ORDINI DI GRANDEZZA diversi tra le due aziende e potenze di fuoco incomparabili.
Non dimentichiamo le ormai comprovate politiche scorrette di Intel. Se fosse stato solo solletico, Intel si sarebbe sporcata così le mani?
Sul fatto che ci siano ordini di grandezza differenti poi c'è poco da dire, anche se AMD tirasse fuori domani il miglior processore desktop mai visto, non potrebbe comunque soddisfare da sola il fabbisogno di chip, per cui Intel venderebbe comunque.
Però non sottovalutare quello che AMD sta facendo, occorre tempo ma io non dubito che porterà a dei risultati. MiKeLezZ poco sopra descrive molto bene la situazione, a mio parere.
cdimauro
16-02-2014, 17:56
Intel non è un monopolista e sulle politiche scorrette abbiamo già ampiamente discusso. Anzi no, perché mancano i "fatti che conoscono già tutti" che avevi citato, ma di cui ti sei ben guardato di riportare alcunché.
C'è un thread in cui tutto ciò è stato sviscerato nei dettagli, con tonnellate di link a riguardo...
c'era da aspettarselo,intel rallenta e i fan se la prendono con amd che non riesce a fargli concorrenza:D
ma se amd per intel non esiste piu' dai tempi di conroe...
i 14nm gli servivano dannatamente per contrastare arm,vero spauracchio attuale e futuro per intel
e intanto fab 14nm chiusa,primi esuberi con il 5% dipendenti,tsmc che anticipa i 20nm e 16ff,amd ormai e' a solo mezzo pp da intel...
nemmeno intel crede piu' in se stessa,apre le proprie fonderie a terzi(altera) e probabilmente i prossimi soc atom,saranno prodotti da fonderie concorrenti:eek:
ibm dismette ogni cosa sia x86 e google che fa' prima a farsi produrre le cpu,arm ovviamente,direttamente da fonderie esterne per i propri server...
a intel cominciano a stargli alla larga,sentono puzza di cadavere??:asd:
Quoto in toto....
Intel non è un monopolista e sulle politiche scorrette abbiamo già ampiamente discusso. Anzi no, perché mancano i "fatti che conoscono già tutti" che avevi citato, ma di cui ti sei ben guardato di riportare alcunché.
C'è un thread in cui tutto ciò è stato sviscerato nei dettagli, con tonnellate di link a riguardo...
Aspetta... stai dicendo che Intel non ha applicato politiche scorrette sulla base della sua posizione dominante?
Cos'è, negazionismo applicato all'informatica?
Quindi l'accordo fatto con AMD da 1,25 miliardi di euro più le concessioni sulla licenza x86 sono pura generosità di Intel?
Quindi le multe che Intel ha preso dall'antitrust per abuso di posizione dominante e pratiche anticoncorrenziali illegali sono mmm... un complotto?
Hai ragione, non è questo il luogo per parlare di queste cose (il mio infatti era solo un accenno per sostenere una tesi, e non avevo intenzione di entrare nei dettagli), ma francamente spero di aver interpretato male io il tuo intervento e che intendessi dire tutt'altro.
PS: hai ragione sulla questione del monopolista, anche se Intel con oltre l'80% del mercato ci si avvicina.
É che nella frase un "posizionedominantista cannibale" suonava male! :p
PaulGuru
16-02-2014, 19:00
LOL, il bue che da del cornuto all'asino.
Rifletti sulle sparate senza senso che tiri fuori in almeno la metà delle discussioni a cui partecipi prima di metterti ad accusare gli altri (indipendentemente dal fatto che possano spararle grosse anche loro).
Non penso di aver sparato nulla di scandaloso, se te la sei presa perchè ho affermato che a me non frega nulla che AMD si è fatta fregare da Intel scorrettamente o che HSA è una stupidata per utenti di fascia bassa mi spiace ma è così, stessa cosa per il PP, Kaveri.
Te invece parli come se le fasce oltre una certa soglia siano inutili quando invece non è così, la nicchia c'è dappertutto e non mi pare fallisca e non vedo perchè debba avere meno considerazione.
Mi paragoni veramente a Carlotto ? Io sto sostenendo i numeri che abbiamo ora fra le mani e sostenendo Intel ho ragione a priori indipendentemente dal come vado ed esporre le cose. Non esistono le scuse, i "se" e i "ma" o le supposizioni sul futuro, fino a che i numeri non escono ogni cosa è un FLOP, sostenere il contrario si va automaticamente nel torto.
Non penso di aver sparato nulla di scandaloso, se te la sei presa perchè ho affermato che a me non frega nulla che AMD si è fatta fregare da Intel scorrettamente o che HSA è una stupidata per utenti di fascia bassa mi spiace ma è così, stessa cosa per il PP, Kaveri.
No, me la sono presa perchè te la sei presa con un altro utente quando prima di tutto dovresti prendertela per il tuo comportamento, che in più occasioni molti utenti ti hanno fatto notare essere... migliorabile.
Di certo non me la prendo se qualcuno ha preferenze per un'azienda o l'altra, non siamo certo allo stadio, io faccio il tifo solo per il mio portafogli.
Te invece parli come se le fasce oltre una certa soglia siano inutili quando invece non è così, la nicchia c'è dappertutto e non mi pare fallisca e non vedo perchè debba avere meno considerazione, anzi il contrario.
Mai detto che siano inutili, anzi, ti ho proprio ribadito che sono comunque fasce di mercato utili per immagine e guadagni. Ma non sono quelle che fanno la massa critica per le aziende.
Le tue esigenze sono quelle di una nicchia, come lo sono quelle di buona parte degli utenti di questo forum, e prima accetti questo, prima sarà possibile discutere civilmente con te di queste cose.
PaulGuru
16-02-2014, 19:48
No, me la sono presa perchè te la sei presa con un altro utente quando prima di tutto dovresti prendertela per il tuo comportamento, che in più occasioni molti utenti ti hanno fatto notare essere... migliorabile.
Di certo non me la prendo se qualcuno ha preferenze per un'azienda o l'altra, non siamo certo allo stadio, io faccio il tifo solo per il mio portafogli.Riguardo ciò ho aggiunto altra roba nel post precedente.
Mai detto che siano inutili, anzi, ti ho proprio ribadito che sono comunque fasce di mercato utili per immagine e guadagni. Ma non sono quelle che fanno la massa critica per le aziende.
Le tue esigenze sono quelle di una nicchia, come lo sono quelle di buona parte degli utenti di questo forum, e prima accetti questo, prima sarà possibile discutere civilmente con te di queste cose.Ok un conto è dirlo e un altro è ripeterlo in continuazione ogni volta che si parla di hardware di queste fasce.
Se non ci fossero gli hardware high end per Intel non ci sarebbe questo tipo di sviluppo nè questo livello marketing.
Per i discorsi a me sembrano già civili sinceramente.
cdimauro
16-02-2014, 20:10
Anche il mercato high-end ha il suo perché, e tra l'altro è un mercato ben più ampio di quello HPC/GPUGP-Computing.
Per quest'ultimo aziende come nVidia vi hanno puntato pesantemente, con soluzioni quali Tesla, perché si tratta di una fascia altamente remunerativa. Ci sono aziende come IBM che, fatte poche eccezioni, praticamente hanno vissuto e prosperato per decenni proprio in questo settore. Anche Intel vi si è buttata negli ultimi anni, e sta sviluppando alacremente altre soluzioni che sono state annunciate e arriveranno a breve.
Ovviamente l'high-end è meno remunerativo dell'HPC, ma ci sono vendite superiori. Idem per i settori middle e low-end, che presentano trend simili, e così via con mobile, ed embedded.
Per cui... tutto fa brodo. E poi differenziare il proprio business è positivo, perché consente di meglio bilanciare eventuali problemi in specifici settori. ;)
Aspetta... stai dicendo che Intel non ha applicato politiche scorrette sulla base della sua posizione dominante?
Cos'è, negazionismo applicato all'informatica?
Quindi l'accordo fatto con AMD da 1,25 miliardi di euro più le concessioni sulla licenza x86 sono pura generosità di Intel?
Quindi le multe che Intel ha preso dall'antitrust per abuso di posizione dominante e pratiche anticoncorrenziali illegali sono mmm... un complotto?
Hai ragione, non è questo il luogo per parlare di queste cose (il mio infatti era solo un accenno per sostenere una tesi, e non avevo intenzione di entrare nei dettagli), ma francamente spero di aver interpretato male io il tuo intervento e che intendessi dire tutt'altro.
Quest'ultima. Infatti non ho mai negato niente, tant'è che la frase non lasciava presagire nulla di ciò:
"sulle politiche scorrette abbiamo già ampiamente discusso"
Considerato che in quel thread non ho assolutamente negato l'uso di pratiche scorrette, che ho pure riconosciuto e con tanto di link in merito per ricostruire in maniera precisa il contesto e i fatti, non c'era proprio nulla che potesse lasciare adito a quello che hai scritto successivamente. Per lo meno, non vedo il nesso fra le due cose.
Comunque e per essere chiari, quella frase deriva dalla volontà di ben circostanziare l'accaduto, evitando facili semplificazioni e generalizzazioni che capitano sovente quando si parla di queste cose.
PS: hai ragione sulla questione del monopolista, anche se Intel con oltre l'80% del mercato ci si avvicina.
É che nella frase un "posizionedominantista cannibale" suonava male! :p
Senz'altro, ma è sempre meglio attenersi alle definizioni corrette, perché altrimenti si avalla e si favorisce l'uso di errori che vengono poi diffusi e che costituiscono e alimentano le classiche leggende metropolitane che, purtroppo, attanagliano il web. ;)
Ok un conto è dirlo e un altro è ripeterlo in continuazione ogni volta che si parla di hardware di queste fasce.
Ma non sono io a ripeterlo in continuazione, sei tu che in continuazione ne esci con discorsi che provocano queste reazioni.
Per quanto riguarda Carlotto non vi ho paragonati e non intendo farlo, ho solo detto che prima di attaccare gli altri dovresti cercare di evitare quei comportamenti che portano altri ad attaccare te. ;)
Quest'ultima. [...]
Ah, meno male. :)
Perchè se mi dici di portare link e prove, io penso che tu non sia d'accordo con quanto dico.
Comunque il nesso era semplice, ragionavo sul fatto che non si ha bisogno di applicare politiche scorrette (con tutto ciò che ne consegue) se il tuo concorrente non ti fa neppure il solletico. ;)
cdimauro
16-02-2014, 21:18
Ah, meno male. :)
Meglio così. :)
Perchè se mi dici di portare link e prove, io penso che tu non sia d'accordo con quanto dico.
Veramente è quello che faccio spesso quando il solo scambio di parole non porta a nulla di concreto alla discussione. Ecco perché ho riportato copiosamente link nell'altra discussione.
Per cui, se hai link e prove... ben vengano. ;)
Comunque il nesso era semplice, ragionavo sul fatto che non si ha bisogno di applicare politiche scorrette (con tutto ciò che ne consegue) se il tuo concorrente non ti fa neppure il solletico. ;)
Vero, ma a volte ci si scontra con l'ego smisurato di CEO o executive che vogliono avere tutto sotto controllo, e provano ad ammazzare ogni forma di concorrenza.
Business is war diceva il "buon" vecchio Jack Tramiel...
marchigiano
16-02-2014, 21:37
Non cambia comunque il nocciolo della questione, ed è l'articolo stesso che hai linkato a dirlo:
"While the 32nm SOI process was optimized for CPU designs at high frequency, GF's bulk 28nm SHP process is more optimized for density with a frequency tradeoff"
Il processo 28nm SHP è ottimizzato per essere compatto, ma paga in termini di frequenza. :)
credo intenda che il SHP è inferiore al SOI ma non al HP, poi magari mi sbaglio non so...
Quindi, ammettendo anche la necessità di RIP (che io per esempio non ho mai avuto... ma vabbè) che le CPU crescano in potenza non mi sembra così utile...
per le conversioni di alta qualità la cpu rimane la sola via purtroppo. e anche per parecchie ore, tipo 20 ore di una cpu di fascia medio-alta
PaulGuru
16-02-2014, 23:23
Ma non sono io a ripeterlo in continuazione, sei tu che in continuazione ne esci con discorsi che provocano queste reazioni.
Per quanto riguarda Carlotto non vi ho paragonati e non intendo farlo, ho solo detto che prima di attaccare gli altri dovresti cercare di evitare quei comportamenti che portano altri ad attaccare te. ;)
Ok posso anche farlo questo ma su ogni cosa c'è una gerarchia.
Chi si compra un bene di lusso per quanto limitato sia il mercato ha sempre maggiore considerazione e un assistenza molto superiore a quello che compra roba economica, come giusto che sia, almeno questo è ciò che penso.
Se mi compro una Ferrari o un Tag Hauer piuttosto che un completo Gucci di certo pretendo un trattamento sempre da prima donna rispetto a chi invece si è preso la Panda o un orologio cinese o veste capi da bancarella, cosa che avviene e penso anche sia giusto.
Io con la roba di nicchia dovrei avere molta più considerazione di tutti gli altri che si son presi i preassemblatozzi o robaccia da 4 spiccioli, così come il settore professionale ( Server, GPU Computing, Grafica professionale ) dovrebbe venire prima di tutti, visti anche i vari sovrapprezzi.
Per cui, se hai link e prove... ben vengano. ;)
Continuo a non capire questo passo... se siamo d'accordo, che bisogno hai di altri link?
credo intenda che il SHP è inferiore al SOI ma non al HP, poi magari mi sbaglio non so...
Immagino di si. Evidentemente anche il processo SHP non è ideale per le CPU, AMD si è accontentata per poter avere un processo abbastanza economico da rendere profittevoli le APU.
per le conversioni di alta qualità la cpu rimane la sola via purtroppo. e anche per parecchie ore, tipo 20 ore di una cpu di fascia medio-alta
É un problema di software, non di risorsa utilizzata.
Oggi semplicemente non ci sono software che permettono di fare conversioni di alta qualità, motivo per cui in quei casi sei costretto a ricorrere alle più lente CPU.
Questo in parte è dovuto al fatto che le versioni GPU sono più giovani, in parte alla difficoltà di programmare per GPU (per esempio era difficile il debug), in parte per i limiti di questo hardware (limiti che pian piano stanno eliminando, per esempio le APU ora consentono l'accesso diretto alla memoria principale).
Dai tempo al tempo, queste cose matureranno.
Ok posso anche farlo questo ma su ogni cosa c'è una gerarchia.
Chi si compra un bene di lusso per quanto limitato sia il mercato ha sempre maggiore considerazione e un assistenza molto superiore [...]
Semplicemente chi compra un bene di lusso lo paga talmente tanto che nel prezzo ti includono anche un'assistenza migliore che ti faccia percepire che la cifra che hai sborsato sia giustificata. In realtà non ti regalano nulla, hai pagato tutto.
Ma questo non significa affatto maggiore considerazione. Fai parte semplicemente di una fascia di mercato che spende di più, e a questa sono associati servizi "premium" che compri con il prodotto.
Ma per loro vale sicuramente di più la clientela mainstream di quella enthusiast (e se tu hai percepito il contrario, significa che hanno fatto un bel lavoro di marketing ;) ), perchè sono loro che tengono in piedi la baracca.
cdimauro
17-02-2014, 00:06
Continuo a non capire questo passo... se siamo d'accordo, che bisogno hai di altri link?
Oggi è la serata dei fraintendimenti. Scusami. Mi riferivo all'altro thread.
É un problema di software, non di risorsa utilizzata.
Oggi semplicemente non ci sono software che permettono di fare conversioni di alta qualità, motivo per cui in quei casi sei costretto a ricorrere alle più lente CPU.
Questo in parte è dovuto al fatto che le versioni GPU sono più giovani, in parte alla difficoltà di programmare per GPU (per esempio era difficile il debug), in parte per i limiti di questo hardware (limiti che pian piano stanno eliminando, per esempio le APU ora consentono l'accesso diretto alla memoria principale).
Dai tempo al tempo, queste cose matureranno.
Non è così semplice. Ci sono cose che le GPU non riescono ancora a fare bene come le CPU.
Ad esempio, quando ho realizzato un decoder JPEG 2000 per STMicroelectronics la fase di decodifica aritmetica era particolarmente onerosa e più pesante di quella della trasformata wavelet. La decodifica aritmetica è un algoritmo che si sposa bene con la natura general purpose di una CPU, che gestisce agevolmente test di bit, confronti interi, table look-up, e salti condizionati, mentre la GPU soffre per questo tipo di calcoli (ma, al contrario, è messa molto bene per la trasformata wavelet; idem per le unità SIMD, ovviamente).
Nello specifico non conosco il funzionamento degli algoritmi video di cui si parlava, ma a naso direi che dovrebbero esserci situazioni simili.
CrapaDiLegno
17-02-2014, 00:16
Premettendo che è un piacere il fatto che mi abbia risposto, trovo comunque parte dei tuoi commenti abbastanza lacunosi.
E' un problema che riguarda tutte le fonderie, causa l'approssimarsi dei limiti del silicio.
Sì, ma le altre fonderie non vivono esclusivamente per il vantaggio che hanno rispetto alla concorrenza. Intel sì, e mentre le altre possono permettersi di aggiornarsi con comodità (persino permettendosi qualche nodo solo per usi specifici), Intel non può.
Il fatto che TMSC si sia potuta permettere un 20nm solo per SoC da solo la dice lunga su quanto sia redditizio il mercato dei SoC. Il fatto che Intel cerchi clienti per riempire le su fonderie la dice lunga su quanto in realtà le stiano costando, o meglio, quanto i guadagni non siano quelli preventivati rispetto ai costi di ammortizzazione necessari.
Intel possedeva già una divisione ARM, che sfornò ottimi prodotti; poi la cedette alla Marvell. Dopo qualche tempo presentò gli Atom. Per cui credo che il tutto facesse parte di una strategia a lungo termine.
Scusami, ma poco conta quello che aveva Intel al tempo in cui ARM faceva processori per calcolatrici evolute.
Intel aveva in mano una tecnologia che sapeva benissimo essere migliore della propria, ma non essendo la propria ha semplicemente deciso di non cercare di darle vantaggio iniziando un processo di ottimizzazione e costruzioni con processi produttivi che nessun latro poteva (e può) permettersi.
Il risultato è solo stato un leggero ritardo sui tempi di maturazione dell'architettura ARM che ha preso il largo e oggi pure un colosso come Intel fa fatica ad arginare.
Il quadro non è completo. Intel è entrata nel mondo del mobile (tablet principalmente, e phablet) con Atom, e di recente anche in quello embedded con Quark.
Quindi è vero anche il contrario: Intel sta pestando i piedi ad ARM entrando in quello che era il suo settore dominante.
Inoltre è entrata anche nel mercato HPC/GPGPU-computing con Xeon Phi (che è nato dalle ceneri di Larrabee).
Dunque non è che stia giocando esclusivamente in difesa; sta cercando, anzi, di espandere il suo business verso altri mercati.
Dai, non scadiamo nell'evangelizzazione.
Intel è sempre stata nel mercato embedded. Con scarsi risultati. D'altronde, come con ARM, è difficile competere in un mercato dove conta molto l'efficienza e il basso consumo (il raffreddamento passivo è quasi d'obbligo).
PowerPC, NEC, Hitachi (ora entrambe Renesas), MIPS e ARM e FPGA sono le architetture che normalmente si usano in campo industriale. Quark non farà differenza. Intel non riuscirà mai a vendere un chip allo steso prezzo delle altre architetture. Andrà bene là dove è sempre andata, ovvero dove contano più le performance e ci si può permettere meno limitazioni. Una nicchia nella nicchia.
L'ingresso di Intel nel mondo mobile è frutto solo di sovvenzioni. Nessuno, a parte quelli che sono stati pagati, ha interesse ad usare l'HW di Intel. Mentre mi sembra che ci sia una fila tremenda per gli ultimi OC di Qualcomm (vedi il discorso di prima sul PP a 20nm solo per SoC). Chiediti il perché. Se Intel desse anche a me 500 milioni per fare un telefono con un Atom dentro correrei a cercare la scatola dove infilare tutto. Ma è ovvio che appena Intel molla la pressione sul tasto "sovvenzioni" il motore (cioè l'interesse) si spegnerà da solo. Intel = Windows. Se fai un tablet con Windows 8 allora ci sta un Intel dentro. Altrimenti un x86 con tutti i suoi problemi non serve a nessuno. Vedi iOS e Android che bene hanno dimostrato la cosa.
Nel mondo HPC, sì La Xeon Phi fa ottimi numeri, ma stiamo sempre parlando di qualcosa realizzato con un PP di vantaggio rispetto alla concorrenza, che nonostante quello detiene comunque la migliore efficienza di GFlops/W. E con Maxell la cosa dovrebbe essere peggio per Intel, anche se Maxwell è sempre fatto con lo stesso PP.
D'altronde fosse stata "avanti" in questo campo il mercato HPC l'avrebbe conquistato lei a mani basse. Invece si trova a infilarsi momentaneamente nei varchi quando la concorrenza ha problemi di processo produttivo. Ci fossero oggi 20nm per GPU vedremmo dove starebbe Intel con le sue Xeon Phi fatte da vetusti core x86. Poi un giorno mi spiegherai a che serve usare i core x86 in un sistema che serve da coprocessore e basta quando in verità ci si potrebbe infilare qualsiasi cosa (pure una serie di Cell di IBM).
Insomma, stiamo continuamente ribadendo che senza PP di vantaggio Intel sarebbe già scomparsa o ridimensionata da un bel pezzo.
Non è proprio così, e l'ho scritto in un pezzo più di 4 anni e mezzo fa sulla questione: dipende tutto dai numeri in gioco.
Se hai un chip costituito da pochi transistor, la cosiddetta x86-tax ha il suo peso, senz'altro; non è una cosa che puoi eliminare. Ma quando hai un core costituito da centinaia di milioni di transistor, se non addirittura miliardi com'è ormai diventato usuale nell'ultimo periodo, il suo peso diventa trascurabile.
[...]
In un'altra serie di articoli ho affrontato anche un'analisi di tutti gli altri aspetti "legacy" di x86 (e x64), che hanno un ruolo nettamente minore (IMO è il decoder l'elemento in assoluto di maggior peso).
Puoi studiare tutti i numeri e fare tutte le simulazioni che vuoi, ma i fatti sono diversi. L'architettura x86 non è solo mangiatrice di transistor (e watt), ma è anche una vergogna dal punto di vista dello sfruttamento della memoria. Con quei 4 registri in croce mai ampliati per davvero, perdendo pure la chance dei 64bit, l'accesso alle cache e alla RAM è continuo. E servono cache enormi per tenere le pipeline alimentate.
Il Motorola 68000 ai tempi già dava la paga agli x86 solo per l'efficienza che poteva godere con l'uso di 16 registri e una memoria flat, invece dell'accrocchio made in Intel. Non ci vuole molto a fare delle architetture migliori di quelle x86: basta pensarle bene fin a subito. L'x86 non lo è stata, e infatti è più un mostro Frankenstein completamente rifatto da plastiche su plastiche che una bella donna naturale.
Non mi pare che sia così. Non vende abbastanza, questo sì, ma vende e ci sono aziende come Samsung o Asus che si appoggiano a Intel per soluzioni mobile più "high-end". Ad esempio l'altro ieri hanno regalato a mio figlio un Fonepad 7, e mia figlia mi ha fatto notare il marchio "Intel inside". E' stata una piacevole sorpresa: qualcosa si muove...
Vedi sopra, si muovono le sovvenzioni di Intel per cercare di trovare spazio dopo 4 anni di continui flop uno dietro l'altro. Se non facesse così sarebbe un altro anno in cui nessuno si accorge che Intel esiste nel campo mobile. Sta tentando il tutto per tutto. Se non sfonda (come credo non farà), il business mobile è perso (gli anni futuri non crescerà più come quelli passati e ormai i giochi sono fatti con produttori che sfornano SoC ARM più che sufficienti per smarphone e tablet a prezzi irrisori che Intel non può raggiungere nemmeno se divide per dieci il suo SOC).
Indubbiamente, ma sono mercati che non spariranno. Quello HPC, anzi, è in aumento. Idem per le soluzioni data center. Quello desktop ha un declino fisiologico, ma il peggio IMO è passato, perché il mercato dei tablet si sta saturando.
Inoltre credo che per il futuro l'elemento su cui si punterà maggiormente l'attenzione sarà rappresentato dalle cosiddette soluzioni 2-in-1: notebook/netbook che funge anche da tablet. Il tutto con Windows che gira, col quale ritrovi gli stessi programmi a cui sei abituato.
Il tablet è comodo, ma non puoi farci molto. Il notebook è potente e ci girano i programmi che usi normalmente, ma è scomodo. Una soluzione che permetta entrambe le cose, se venduta a prezzi abbordabili, è possibile che polarizzi l'attenzione degli utenti (che si possono pure scocciare di avere più prodotti per fare cose simili).
In tal caso gli equilibri potrebbero nuovamente cambiare, e riportare alla ribalta Intel, e pure Microsoft. E' uno scenario da non sottovalutare.
E' uno scenario un po' nostalgico. La gente non vuole Windows ovunque. La gente vuole fare le cose nel modo più facile possibile. E questo non significa avere un tablet che pesa 1 kG perché la batteria deve essere grande per garantire una autonomia decente da portarsi sempre appresso e lo schermo è lo stesso che si usa in ufficio (che non può essere un 7" se si vuole davvero lavorare).
E abbiamo dimenticato l'evoluzione che sta avendo il cloud? Io oggi leggo la posta di Google sul mega PC con il mega monitor attualmente in uso, sul tablet e sullo smartphone. E accedo liberamente ai miei dati con Dropbox o Google Drive. Mi serve un processore Intel per farlo? No. Perché se esistono alternative che offrono strumenti migliori per un determinato uso, che me ne frega di avere x86 (= compatibilità con Windows)?
La mia opinione è che al momento Intel non includa componenti comparabili (per prestazioni in rapporto al silicio richiesto) a quelle che sono presenti nelle soluzioni ARM, che possono contare su GPU, video decoder e DSP audio più ottimizzati. Questo è anche uno dei motivi per cui ha adottato le GPU di PowerVR per alcune declinazioni di Atom.
Sarebbe interessante valutare l'impatto dei soli core avendo componenti comparabili per prestazioni/die, per capire quanto possa incidere la suddetta x86-tax, ma al momento non è possibile, e i SoC vanno valutati "as is".
Baytrail non mi sembra che abbia chip esterni, fatta eccezione per il modulo LTE. Come tanti produttori che montano ARM.
Forse no hai compreso che non serve a nulla un confronto transistor per transistor tra i core per vedere chi ce l'ha più lungo qui o lì. Quello che conta sono due fattori: la potenza di calcolo dei processori ARM oggi è sufficiente per soddisfare l'utenza con l'uso di dispositivi che io definisco "passivi". Cioè quelli che non sono usati per creare contenuti. Visto che la maggior parte dell'utenza consuma contenuti invece di crearli (a parte i post sui forum e su FaceBook, ma per quello ARM basta e avanza), direi che la strada di Intel per far pesare la sua maggiore potenza di calcolo è molto in salita. Sopratutto perché, se l'efficienza fosse la stessa questo aumento di potenza di calcolo equivale ad una diminuzione dell'autonomia del dispositivo. Ma già in efficienza siamo ben distanti a parità di processo produttivo.
Il secondo fattore sono i costi: i processi produttivi di vantaggio di Intel le permettono più o meno di pareggiare sul lato efficienza, ma non su quello costi. A parità di area Intel il SoC di Intel costa quasi il doppio. Va 2 volte di più. Boh, forse, ma non è quello che l'utenza chiede. In un mercato che vuole i prezzi in calo (proprio perché si sta saturando vince chi offre a meno, non chi offre di più) un euro in più o in meno sulla BOM fa la differenza.
Non mi pare che sia così, perché TSMC quanto potrà guadagnare da SoC ARM che vengono venduti a poco prezzo? Sì rifarà sulla quantità e questo è sicuramente importante, ma Intel i suoi processori non li svende. D'altra parte non c'è soltanto il costo di acquisto da considerare, ma anche le prestazioni sono importanti e hanno sempre più peso; non a caso c'è la corsa ai core, coi produttori di SoC ARM che fanno a gara a chi ce l'ha più lungo, quando Intel offre ottime prestazioni pur con un numero di core nettamente inferiore...
Intel ha altre carte da potersi giocare senza svenarsi. Altre arriveranno in futuro, come suo solito.
Sono soluzioni diverse per risolvere sostanzialmente gli stessi problemi, con pregi e difetti di ognuna. Starà poi ai produttori di dispositivi valutare quale meglio si adatta per il propri obiettivi.
Per i guadagni di TMSC vedi inizio post: ha creato un PP solo per SoC. Con la felicità estrema di nvidia e AMD. Ma questo semplicemente significa che quel mercato fa guadagnare parecchio (che sia per volumi o costi poco importa).
Intel non ha molte altre carte da giocarsi se non intervenendo sui prezzi per cercare di dare un lancio ai suoi prodotti che nessuno sa nemmeno esistere nel mercato mobile. Cosa altro può fare se non ridurre ulteriormente il transistor? Certo che però le costerò di più, e quindi le sovvenzioni dovranno essere pesanti.
Forse ti è sfuggito che il mercato è radicalmente cambiato: con la semplicità e il facile adattamento dell'architettura ARM progettarsi e realizzare un chip è alla portata di moltissimi. Moltissimi che possono permettersi di non dipendere da un produttore che fa chip monolitici da costi spropositati, possono farselo in casa come vogliono (bilanciando CPU o GPU cme megliono credono per il dispositivo che hanno in mente) e guadagnarci sopra molto di più che rivendendo un chip Intel. Oppure si possono rivolgere a un progettista cinese (come MediaTek per esempio) e arrivare sul mercato con un dispositivo che costa molto meno di quello già sovvenzionato da Intel.
Non c'è più la catena Windows che lega verso i micro Intel. Nel mobile non servono mille mila GFlop (e pure la questione degli octa core ARM sono una buffonata che presto spero evaporerà). Non si possono avere memorie da mille mila GHz per riuscire ad alimentare CPU che non sanno dove mettere i dati.
E inoltre non è più Intel contro uno o l'altro o l'altro, ovvero un elefante che abbatte come birilli gli scoiattoli che la affrontano da soli uno alla volta, o uno squalo che si mangia i tonni che osano sfiorarlo.
Intel è rimasta lo squalo di prima, ma ora intorno ci sono una miriade di piranha, ovvero tutti quelli che adottano in un modo o in un altro, persino sviluppandola in proprio, l'architettura ARM. Per quanti possa riuscire a mangiarsene, anche questi riusciranno a infliggere dei dolorosi morsi e con il tempo a contenerlo.
Questa volta le risorse degli altri non sono dispersi in mille rivoli, ma confluiscono tutti nella stessa pentola, quella delle fonderie terze che permette loro di aggiornarsi più velocemente (se aspettavano AMD per farlo avrebbero smesso da tempo di cercare di rincorrere Intel e sarebbero rimasti con processi produttivi economici utili per la maggior parte dell'elettronica non high speed...).
Non ho capito cosa intendi con la perdita della retrocompatibilità, della faccia, e della parte finale della tua ultima frase. Potresti essere un po' più chiaro, cortesemente? Grazie.
Intendo che se non sfonda con Atom che è x86 based, o rinuncia al mobile o deve cambiare architettura nettamente. Il che vuol dire che perde la retrocompatibilità con il mondo x86 (e Windows) e si mette sulla linea di partenza a livello zero come lo sono gli altri, da ARM a MIPS. E perderebbe la faccia visto che sono anni che cerca di convincere in tutti i modi gli investitori che la sua è l'architettura migliore per qualsiasi cosa, dopo aver venduto la divisione ARM, riciclato il fallimento di Larrabee in un progetto HPC (e ci si chiede cosa abbiano in comune le due cose per far in modo che Intel dichiarasse che Larrabee sarebbe stata la migliore GPU mai creata, giusto per evidenziare come spesso il marketing nasconda ben altre verità.) e aver creato un processore a basso consumo orribile come l'Atom e non essere stata capace in 6 anni a renderlo appetibile per nessuno.
Ora coccolo un po' questo i7 che altrimenti dopo tutta questa critica ad Intel finisce per rompersi solo per dispetto :D
carlottoIIx6
17-02-2014, 00:33
Oggi è la serata dei fraintendimenti. Scusami. Mi riferivo all'altro thread.
Non è così semplice. Ci sono cose che le GPU non riescono ancora a fare bene come le CPU.
Ad esempio, quando ho realizzato un decoder JPEG 2000 per STMicroelectronics la fase di decodifica aritmetica era particolarmente onerosa e più pesante di quella della trasformata wavelet. La decodifica aritmetica è un algoritmo che si sposa bene con la natura general purpose di una CPU, che gestisce agevolmente test di bit, confronti interi, table look-up, e salti condizionati, mentre la GPU soffre per questo tipo di calcoli (ma, al contrario, è messa molto bene per la trasformata wavelet; idem per le unità SIMD, ovviamente).
Nello specifico non conosco il funzionamento degli algoritmi video di cui si parlava, ma a naso direi che dovrebbero esserci situazioni simili.
è proprio qui il vantaggio di hsa, che non è solo gpu, ma cpu e gpu sullo stesso livello con huma e hQ, il sofware sceglie quale unità utilizzare che lo fa prima.
edit
una chicca
http://www.inpai.com.cn/doc/hard/197966.htm
programma video chat hsa con kaveri, fino a 70 video chat contemporanee
Classico +3-5% di prestazioni la cui novità più grande sarà quella Iris Pro che verrà portata anche su desktop, ma di cui non frega nulla a nessuno. L'unica forse cosa che può valer la pena di prendere in considerazione è verificare se l'HIS sarà di nuovo saldato o ancora con la pasta del capitano.
ciao
... sono rimasto un po' indietro con i PC... cosa significa esattamente quello che hai scritto?
Pura curiosità.
Grazie
Littlesnitch
17-02-2014, 08:49
ciao
... sono rimasto un po' indietro con i PC... cosa significa esattamente quello che hai scritto?
Pura curiosità.
Grazie
Che ci sarà il classico aumento di prestazioni del 3-5%, che ci sarà la Iris Pro e che si spera il coperchio della CPU venga saldato come in passato e non come con gli IB e Haswell dove viene messo con della pasta del :ciapet: e se vuoi avere un OC con temp normali devi fargli lo scalpo. Motivo per cui mi tengo il mio SB che a 4.8Ghz ad aria sta a 70 gradi.
Oggi è la serata dei fraintendimenti. Scusami. Mi riferivo all'altro thread.
Eheh hai ragione, non riusciamo a capirci.
Riguardo all'uso della GPU per la codifica/decodifica video, i vantaggi naturalmente stanno proprio nel portare su GPU ciò che su GPU viene calcolato con maggiore efficienza.
Le nuove tecnologie stanno puntando proprio a questo: non una GPU che esegue tutto, ma una GPU che è possibile richiamare come una qualsiasi altra risorsa interna di calcolo (un cluster int, una fpu...) per poter dare ad essa in pasto quello per cui è più efficiente.
Questo potrà permettere di spostare su GPU quelle applicazioni particolarmente gravose per la CPU che oggi ci fanno sentire la necessità di CPU più potenti. Il resto rimarrà su CPU, ma una CPU con un carico di lavoro alleggerito e che esegue calcoli a lei congegnali.
Si tratta naturalmente di teoria, fino a quando non viene concretamente applicata. Però la strada tracciata è quella.
PaulGuru
17-02-2014, 09:41
edit
una chicca
http://www.inpai.com.cn/doc/hard/197966.htm
programma video chat hsa con kaveri, fino a 70 video chat contemporanee
Roba utile vedo. :rolleyes:
CarmackDocet
17-02-2014, 10:30
...basta che le fanno fluxless
CrapaDiLegno
17-02-2014, 11:56
Eheh hai ragione, non riusciamo a capirci.
Riguardo all'uso della GPU per la codifica/decodifica video, i vantaggi naturalmente stanno proprio nel portare su GPU ciò che su GPU viene calcolato con maggiore efficienza.
Le nuove tecnologie stanno puntando proprio a questo: non una GPU che esegue tutto, ma una GPU che è possibile richiamare come una qualsiasi altra risorsa interna di calcolo (un cluster int, una fpu...) per poter dare ad essa in pasto quello per cui è più efficiente.
Questo potrà permettere di spostare su GPU quelle applicazioni particolarmente gravose per la CPU che oggi ci fanno sentire la necessità di CPU più potenti. Il resto rimarrà su CPU, ma una CPU con un carico di lavoro alleggerito e che esegue calcoli a lei congegnali.
Si tratta naturalmente di teoria, fino a quando non viene concretamente applicata. Però la strada tracciata è quella.
Il fatto è che usando la GPU per quel particolare algoritmo sei più efficiente della CPU ma molto meno di un HW fatto ad hoc. Pensa per esempio al QuickSync di Intel che riesce a battere qualsiasi GPU nella codifica.
l'HSA vero prevederebbe di avere a disposizione diversi componenti extra CPU da usare un maniera "intelligente" a seconda della maggiore efficienza per questo o per quel tipo di lavoro.
Come detto precedentemente, avere una sistema di ALU general purpose, ma altamente limitate come quelle delle GPU da usare come coprocessore per l'acclerazione di una serie di algoritmi generici secondo me non porta da nessuna parte. Tanto è che di algoritmi che si adattano alla super parallelizzazione richiesta dalle architetture GPU si contano sulle dita di una mano.
Il fatto è che usando la GPU per quel particolare algoritmo sei più efficiente della CPU ma molto meno di un HW fatto ad hoc. Pensa per esempio al QuickSync di Intel che riesce a battere qualsiasi GPU nella codifica.
Il problema dell'hardware ad hoc è che non è adattabile.
Quicksync va bene per per fare delle conversioni veloci senza stressarsi molto, ma è assolutamente inadeguato per fare conversioni di qualità. Se ne parlava prima.
In fin dei conti dipende dalle esigenze.
Quicksync non è più veloce di una GPU, è più efficiente. Questo perchè non ha senso dedicare un hardware paragonabile a quello di una GPU ad una singola funzione, se non in situazioni particolari.
Se devo quindi fare conversioni di qualità, quicksync non mi serve a nulla, posso farle con CPU+GPU in tempi anche minori e con risultati superiori. Certo, consumo molto di più, è il prezzo da pagare per l'uso di un hardware general purpose, ma non sempre questo fattore è importante.
La logica fissa non potrà mai evolversi con i nuovi algoritmi, non potrà mai uscire dalle funzionalità per cui è stata creata. Se domani tutti codificano con un nuovo algoritmo, il chip ah hoc lo puoi anche cestinare. Se qualcuno tira fuori una matrice custom particolarmente efficiente o adatta al tipo di source da codificare, con la logica fissa non puoi utilizzarla.
La GPU può essere insomma un'ottima risorsa hardware per una serie di compiti (che non sono così pochi) per i quali useresti altrimenti una CPU più lenta e meno efficiente.
Del resto, a differenza di un hardware dedicato, la GPU fa comunque parte del nostro computer, tanto vale utilizzarla a dovere.
MiKeLezZ
17-02-2014, 12:50
Quicksync va bene per per fare delle conversioni veloci senza stressarsi molto, ma è assolutamente inadeguato per fare conversioni di qualità. Se ne parlava prima.
Non se ne parlava, è stato affermato senza alcuna motivazione.
Ora, tolti i programmini gratuiti limitati per ovvi motivi (in HandBrake è stata Intel stessa che ha fornito la demo di come usare QS e gli sviluppatori non l'hanno integrata in funzionalità), spiegami perché se uso Mediaconcept Reference che ha il supporto QS dovrei fare delle cattive conversioni abilitando tale funzionalità:
Bit rate control (CBR, VBR, CQP).
Selectable profiles up to High Profile.
Selectable levels up to Level 5.1.
Bit rate support up to Level 5.1 restriction (288 Mbps).
Strict HRD restrictions compliance.
Configurable GOP structure (I, P and B frames in different combinations).
Configurable motion estimation (number of reference frames).
Adaptive GOP structure.
Configurable number of slices.
Fermo restando che la CPU è comunque disponibile per i sottoprocessi di compressione che beneficiano meno dell'uso della GPU. Spiegami, in linea ancora più generale, quale è il problema nell'avere un coprocessore in virgola mobile capace di sostituire la CPU nei compiti in cui tale architettura mostra le maggiori potenzialità (domanda retorica se sai in cosa consistono effettivamente le SSE e sei a conoscenza di quanto siano oramai fondamentali per la maggior parte dei programmi in uso).
Non se ne parlava, è stato affermato senza alcuna motivazione. [...]
Affermato si, ma non senza motivazione.
Le possibilità che ti offrono i parametri che hai elencato sono molto lontane da quelle che attualmente un prodotto serio di encoding su CPU può offrirti. Se hai frequentato qualche comunità in cui si discute di ripping, dovresti esserne ben conscio.
Fermo restando che la CPU è comunque disponibile per i sottoprocessi di compressione che beneficiano meno dell'uso della GPU. Spiegami, in linea ancora più generale, quale è il problema nell'avere un coprocessore in virgola mobile capace di sostituire la CPU nei compiti in cui tale architettura mostra le maggiori potenzialità (domanda retorica se sai in cosa consistono effettivamente le SSE e sei a conoscenza di quanto siano oramai fondamentali per la maggior parte dei programmi in uso).
Non mi pare di aver mai affermato il contrario.
Qui si parla di sfruttare le risorse hardware presenti nel computer, e la GPU è una di queste. Anche la fpu integrata in pressoché tutti i processori attuali è un coprocessore (e le SSE che citi girano appunto sulla fpu, come le 3Dnow prima di loro).
Ma sono comunque unità utilizzabili per il calcolo generico, a differenza di un hardware fisso, che ha senso solo per funzionalità stabili e di uso massivo (per esempio i decoder MPEG e H264 integrati, che vengono ampiamente sfruttati).
CrapaDiLegno
17-02-2014, 15:25
Il problema dell'hardware ad hoc è che non è adattabile.
Quicksync va bene per per fare delle conversioni veloci senza stressarsi molto, ma è assolutamente inadeguato per fare conversioni di qualità. Se ne parlava prima.
In fin dei conti dipende dalle esigenze.
Quicksync non è più veloce di una GPU, è più efficiente. Questo perchè non ha senso dedicare un hardware paragonabile a quello di una GPU ad una singola funzione, se non in situazioni particolari.
Se devo quindi fare conversioni di qualità, quicksync non mi serve a nulla, posso farle con CPU+GPU in tempi anche minori e con risultati superiori. Certo, consumo molto di più, è il prezzo da pagare per l'uso di un hardware general purpose, ma non sempre questo fattore è importante.
La logica fissa non potrà mai evolversi con i nuovi algoritmi, non potrà mai uscire dalle funzionalità per cui è stata creata. Se domani tutti codificano con un nuovo algoritmo, il chip ah hoc lo puoi anche cestinare. Se qualcuno tira fuori una matrice custom particolarmente efficiente o adatta al tipo di source da codificare, con la logica fissa non puoi utilizzarla.
La GPU può essere insomma un'ottima risorsa hardware per una serie di compiti (che non sono così pochi) per i quali useresti altrimenti una CPU più lenta e meno efficiente.
Del resto, a differenza di un hardware dedicato, la GPU fa comunque parte del nostro computer, tanto vale utilizzarla a dovere.
Quello che dici è vero, ma si parla di codifica di video, e non nasce un algoritmo di compressione alla settimana.
Infatti i decoder nelle VGA sono altrettanto a funzione fissa e permettono di decodificare i formati più comuni e più richiedenti potenza computazionale.
Una unità che permetter per esempio di calcolare la FFT in tempi rapidissimi con buona precisione sarebbe già un bel blocco base su cui realizzare quasi tutti i codec/decoder. In quel caso potresti farti il tuo algoritmo personalizzato con buona efficienza senza dover scomodare 1000 e rotti ALU general purpose.
Come altro esempio puoi prendere le unità ad-hoc ora inserirte in quasi tutte le CPU che fanno la de/crittazione. Non c'è GPU che possa fare lo stesso lavoro con la stessa efficienza (e latenza).
D'altronde, casi di calcolo scientifico a parte, gli algoritmi pesanti usati in campo consumer sono poi limitati a poche cose: video/audio/crittazione/compressione. L'audio sono decenni che ha il suo coprocessore esterno (dai tempi del Commodore 64). Per gli altri c'è una questione di opportunità. Anche il video sono anni che viene accelerato in decodifica. Per la codifica c'è da tenere in considerazione che chi ne ha veramente bisogno è una minima parte dell'utenza (quando ci si convincerà che gli utlizzatori di contenuti sono 1000 volte e più il numero dei produttori allora si capirà anche perché i tablet Android basati su "lenti" core ARM bastano e avanzano per la maggior parte della popolazione mondiale).
Il delegare ad HW fatto ad-hoc la manipolazione di dati computazionalmente impegnativi è la giusta via (che ARM usa da sempre). Ma HW ad-hoc non è la GPU che potrà anche essere maggiormente efficiente della CPU in qualche caso, ma rimane comunque estremamente inefficiente in quasi tutti gli altri.
Poi teniamo conto che stiamo parlando di Intel che ha tutti i suoi buoni motivi per avere unità di calcolo speciali che non siano legate alla GPU. E comunuqe ottiene ottimi risultati (come con QuickSync che se necessario ptrà anche essere evoluto a supportare qualità migliori o le unità di de/crittazione).
Nessuno sano di mente si metterebbe a fare la de/crittazione dei dati che invia all'HDD tramite GPU... potrà anche essere più veloce della CPU in quel modo, ma ben distante dalle capacità che le unità specializzate fanno in tempo reale.
Dimenticavo: su PC abbiamo il GPGPU per i 4 filtri supportati da Photoshop, su ARM c'è chi già elabora le immagini tramite HW specializzato. Prendiamo per esempio una macchina fotografica.. secondo voi l'elaborazione la fa meglio usando una serie di ALU pensate per la GPU o un blocco HW che applica gli effetti/filtri? Che poi l'HW ad hoc estremizato sia limitativo sotto ceti punti è vero, ma si possoo anche fare le vie di mezzo.
carlottoIIx6
17-02-2014, 18:14
per me hsa è un mix tra hardware dedicato e no.
ovvero, è vero che il dedicato va veloce, ma fa solo una cosa.
che succede se metto più cose non dedicate a fare una cosa sola?
che una parte di queste più cose si avvicina megli a quello che sarebbe l'hardware dedicato, pur rimandendo programmabile.
morale: hsa permette di mantenere la programmabilità e grazie all'adattabilità si avvicina al dedicato senza mai raggiungerlo (ovviamente).
carlottoIIx6
17-02-2014, 18:21
Roba utile vedo. :rolleyes:
sai la storia del dito e della luna?
ma forse tu guardi solo a quello che ti fa comodo vedere.
l'informzazione che ho voluto dare è che una cpu normale non ce la fa a farlo, come specificato nell'intervista publicata nel link.
CrapaDiLegno
17-02-2014, 21:29
per me hsa è un mix tra hardware dedicato e no.
ovvero, è vero che il dedicato va veloce, ma fa solo una cosa.
che succede se metto più cose non dedicate a fare una cosa sola?
che una parte di queste più cose si avvicina megli a quello che sarebbe l'hardware dedicato, pur rimandendo programmabile.
morale: hsa permette di mantenere la programmabilità e grazie all'adattabilità si avvicina al dedicato senza mai raggiungerlo (ovviamente).
Sì certo , ma tutto dipende da quello che è la tua prospettiva.
L'HW ad hoc fa una cosa sola ma è piccolo. Quindi in teoria puoi avere più unità per calcoli ad hoc che in totale rimangono sempre più piccoli di una GPU da mille e rotti ALU con tutto il nesso e connesso.
Poi l'HW ad hoc può essere anche 100 volte più efficiente del miglior algoritmo scritto per GPU.
Quindi se il tuo scopo è avere 4 algoritmi in croce accelerabili in maniera proficua con una architettura programmabile allora la GPU ha il suo perché. Se vuoi realizzare la vera efficienza, il GPGPU (o l'HSA che propone AMD che è la stessa cosa) non basta.
Chiediti perché sia AMD che nvidia mettono un decoder a funzione fissa nelle proprie GPU anche se queste in realtà potrebbero benissimo macinare così tanti calcoli a decomprimere al volo qualsiasi cosa senza l'ausilio di nessun HW ad hoc. Forse per riuscire a consumare 12W (ovvero 10 di idle + 2 del decoder a funzione fissa) invece dei 200W se faccero fare tutto alle ALU general purpose?
Quindi HSA significa dotare la macchina dei migliori strumenti HW per fare un determinato compito. Che comprende anche avere una CPU ridicola in termini di pura capacità di calcolo ma avere a disposizione coprocessori potentissimi in grado di sopperire là dove serve (sentito parlare del Cell? Quello è HSA vero, 8 anni prima che AMD inventasse la fuffaword HSA. E il Cell ha unità general purpose, non a funzione fissa).
Ritenere che le ALU della GPU, per quante siano siano e quanto potenti possano sembrare sia la panacea di tutti gli algoritmi è fare lo stesso identico errore che è stato fatto 30 anni fa quando Intel ha fatto credere che un core monolitico di dimensioni extra e velocità pazzesche sarebbe stato in grado di fare tutto al meglio. O quello che ancora viene marketizzato come il metodo di aumentare la potenza di calcolo a costo zero: i multicore.
In verità il modello assoluto di massima efficienza è quello che vuole unità di calcolo specifiche per specifici tipi di calcolo. Più complessi di una CPU che invia un flusso di istruzioni ad una o più ALU, ma al contempo più semplici perché non necessitano dell'overhead che le CPU normali si portano dietro (fetcher, decoder, esecuzioni tutto come in una catena di montaggio).
La massima summa è una CPU per il calcolo GP di tipo seriale affiancata ad una FPGA o similia per eseguire un algoritmo non maniera puramente sequenziale come lo svolgerebbe al CPU anche quando quello non è il metodo più efficiente. Il vantaggio dell'FPGA è che una volta che l'unità di calcolo non serve più la si cancella e se ne crea un'altra diversa più efficiente per il calcolo successivo.
Siccome è evidente che non è così facile la cosa né tecnicamente né economicamente, si scende di uno scalino di mettere quante più unità a funzione fissa per i più disparati calcoli si possa pensare. Siccome ancora non è possibile usare centinaia di mm^2 di silicio per unità che non servono quasi mai (se non davvero mai), si scende ancora un gradino e si mettono le unità di calcolo che sono in grado di accelerare gli algoritmi più comuni. Questo è l'HSA (o come si è sempre chiamato, architettura ibrida). Il livello di AMD è ancora un gradino (o anche due) più in basso perché dice che invece di usare unità ottimizzate per un determinato calcolo (che è lo scopo di avere unità di calcolo diverse da quelle general purpose della CPU) bisogna usare un nugolo di unità di calcolo diversamente ottimizzate ma sempre general purpose che talvolta superano in efficienza quelle della CPU ma per la maggior parte delle volte non lo sono.
Io, sinceramente non lo vedo un gran passo in avanti, almeno fino a che le unità di calcolo general purpose delle GPU non smetteranno di avere tutte le limitazioni che hanno oggi, tipo avere difficoltà con i salti condizionati o essere in grado di eseguire uno stream di istruzioni in maniera isolata invece di andare di brute force in esecuzione su centinaia o migliaia di unità che devono eseguire necessariamente lo stesso insieme di istruzioni.
Detto tra noi, le SPU del Cell che hanno 8 anni sono più avanti di quanto non lo siano le ALU delle GPU odierne. ALU che sono semplici e fantasticamente super ideali per il calcolo grafico, ma completamente inadatte per quello GP, in cui come detto compensa la questione brute force se ci sono abbastanza dati su cui operare in parallelo (che nasconde l'estrema inefficienza delle singole ALU).
Più si aumenta la capacità di fare GPGPU, minore è l'efficienza in campo prettamente grafico, come ha ben dimostrato nvidia dal G200 in poi e anche AMD con l'arrivo di GCN.
Forse, nella mia ignoranza, trovo l'approccio più corretto quello alla Cell, dove di fianco alle migliaia di semplici ALU che fanno grafica (e che lascerei semplicissime per occupare meno silicio possibile) si affiancano delle unità più general purpose (come gli SPU o meglio core ARM visto che oggi la loro dimensione non pone problemi con la nanometria a disposizione) per gestire i flussi di codice più complesso (nel flow chart) e meno parallelizzabile (che sono la stra grande maggioranza degli algoritmi pensabili dall'uomo). Certo, si usa più silicio in assoluto, ma si migliora notevolmente l'efficienza del codice eseguito (a discapito del rapporto superficie/calcoli grafici realizzati).
Ripeto, così come AMD propone il suo HSA non si va da nessuna parte nel mondo reale (ma solo in quello dei benchmark o nelle 2 o 3 applicazioni di nicchia che sole si adattano all'uso dei core grafici per come sono pensati oggi).
CrapaDiLegno
17-02-2014, 22:04
sai la storia del dito e della luna?
ma forse tu guardi solo a quello che ti fa comodo vedere.
l'informzazione che ho voluto dare è che una cpu normale non ce la fa a farlo, come specificato nell'intervista publicata nel link.
Anche tu guardi un po' le cose per come ti fa comodo però.. ad esempio, ti chiedo, e se usassi una VGA discreta sarebbe possibile la cosa? Magari una scheda nvidia, toh, giusto per vedere se questo fantomatico HSA ha veramente vantaggio sulla concorrenza.
Ci sono decine di esempi di compiti che la CPU non riesce ad eseguire mentre con l'aiuto di una GPU (o di altro HW ad-hoc anche molto semplice, non necessariamente super complesso) riesce a svolgere in maniera egregia.
Una delle cose che aiuta i DSP ad esempio sono le decine di canali DMA che permettono di scambiare dati da una parte all'altra dell'intera memoria a cui il DSP è collegato senza che la CPU sia minimamente coinvolta se non per inivare quei 4 byte di configurazione ogni migliaia e migliaia di byte trasmessi in modalità totalmente trasparente ad essa. Persino la più potente CPU Xeon montata su una worstation con la più veloce RAM farebbe fatica a eseguire alcuni di quei semplici compiti di copia e trasmissione di dati (che non necessitano forzatamente sempre elaborazione da parte di ALU, bada bene, dato che anche il semplice metodo di copia può già essere di per sé una elaborazione sufficiente). E nel caso lo farebbe in maniera completamente inefficiente. E questa cosa è così da decenni. Dunque? Questa cosa l'HSA di AMD sarebbe in grado di gestirla? Risposta no.
Il Cell è in grado di decodificare 2 stream video full HD (senza HW a funzione fissa. E per decodifica intendo la completa decodifica d tutti i dati, non della loro parziale decodifica ridotta su schermo, in quel caso ne fa anche 10 o 12). L'HSA di AMD senza il decoder della VGA sarebbe in grado di farlo? In maniera più efficiente?
Il micro dell'Amiga 1000 era un CPU a 7MHz, uno sputo in confronto all'HW che Intel da lì a poco riuscì a sfornare. Ebbene, prendi un PC del tempo e tenta di fare un programma come Scala (se non sai cosa è Google rimane tua amica). Non c'è Pentium a nessun Ghz che sia in grado di eguagliare le performace dello sputo a 7Mhz. Perché? Semplicemente perché c'erano 2 coprocessori che facevano il lavoro che nessuna delle migliaia di ALU presenti oggi nelle GPU è un grado di fare (e infatti le GPU ancora oggi usano unità simili a quelle per fare il 2D). I Pentium proprio non avevano speranza di fare un bel nulla, nemmeno con le VGA esterne, dato che mancava il segnale di sincronismo al pennello elettronico, ritenuto superfluo al tempo.
E posso continuare con altri esempi. Il tutto per farti notare che non è la prima volta nella storia che si dimostra che le CPU hanno i loro problemi ad eseguire anche compiti semplici, e non è la prima volta che si dimostra che semplici unità (ben più semplici di una sola ALU all'interno d una GPU CGN) permettono accelerazioni di diversi ordini di grandezza nella velocità di esecuzione degli algoritmi.
Nessuno mette in dubbio che l'uso della GPU per fare determinati compiti possa dare una forte accelerazione. Ma la domanda a cui tu non rispondi (e non lo fa nemmeno AMD dall'altro della sua enorme conoscenza) è: a quanti compiti di utilità reale l'accelerazione delle GPU (così come sono realizzate oggi) si adatta? Quanti altri (o magari gli stessi) compiti si possono accelerare con unità di calcolo ben più semplici ed efficienti?
Ovvero, dove è la dimostrazione che servono mille mila unità di calcolo e decine e decine di Watt di potenza per realizzare le cose che ci mostra?
Il Cell fa il post processing delle immagini provenienti dalla debole GPU della PS3 in tempo reale. Ma non ha mille mila ALU all'interno. E non usa codice super mega parallelizzato per ottenerlo. Aggiungo che il Cell di Sony, quello nella PS3 con ridotte capacità di calcolo DP, costa di circa 230 milioni di transistor. Canali I/O e memory controller inclusi. Vuol dire che in una GPU come l'ultima Hawaii ce ne starebbero qualcosa come 25, interi così come sono fabbricati da Sony (con 8 SPE ciascuno). Togli memory controller e uncore ridondante e cambia il rapporto PPE/SPE e probabilmente arrivi ad avere fino a 500 SPE sulla stessa superficie per un vero HSA che non richiede parallelismo alcuno (1 thread per ogni 1 SPE, senza grafica 3D ultra però). Secondo te con quell'HW quanti canali di videochat riesci a gestire? Hawaii o una GPU integrata quanto Hawaii, cioè con la stessa superficie di silicio occupato potrebbe fare lo stesso? E quanti altri algoritmi potrebbe accelerare una scheda del genere che nessuna GPU potrebbe fare?
Sicuro che il futuro sia nell'architettura limitata (di natura, non per incapacità di AMD, intendiamoci) delle GPU?
cdimauro
17-02-2014, 22:40
Premettendo che è un piacere il fatto che mi abbia risposto, trovo comunque parte dei tuoi commenti abbastanza lacunosi.
Beh, è un forum, e siamo qui per discutere. Vedremo se quelle sono effettivamente lacune o informazioni / punti di vista diversi. ;)
Sì, ma le altre fonderie non vivono esclusivamente per il vantaggio che hanno rispetto alla concorrenza.
Ma questo come fai a dirlo? In base a cosa puoi sostenere un'affermazione così assoluta oltre che lapidaria?
Intel sì, e mentre le altre possono permettersi di aggiornarsi con comodità (persino permettendosi qualche nodo solo per usi specifici), Intel non può.
Intel non aggiorna immediatamente tutte le sue fabbriche. Infatti i chip (da Quark a Itanium, inclusi i chipset) che produce non utilizzano tutti l'ultimo processo produttivo.
Il fatto che TMSC si sia potuta permettere un 20nm solo per SoC da solo la dice lunga su quanto sia redditizio il mercato dei SoC. Il fatto che Intel cerchi clienti per riempire le su fonderie la dice lunga su quanto in realtà le stiano costando, o meglio, quanto i guadagni non siano quelli preventivati rispetto ai costi di ammortizzazione necessari.
Il che è naturale, visto che un processo produttivo migliore le consente di sfornare molti più chip per wafer. Per cui o utilizza lei tutta quella capacità produttiva, oppure le servono altri clienti se vuole migliorare (massimizzare, idealmente) i profitti.
In passato non ha avuto bisogno di clienti perché riusciva a soddisfare da sola la sua capacità produttiva, ma adesso è diverso.
Scusami, ma poco conta quello che aveva Intel al tempo in cui ARM faceva processori per calcolatrici evolute.
Ti ricordo che tutta la linea PocketPC era basata su ARM, come pure altri palmari, e quest'architettura era impiegata anche in diversi altri dispositivi: Set-Top-Box, decoder, lettori CD, lettori DVD, player DivX, ecc. ecc. gli esempi si sprecano. Per ricordare i più famosi, l'Archimedes di Acorn che ha fatto debuttare quest'architettura, e poi il Newton di Apple.
Per cui forse ti confondi con Texas Instruments e le sue famose calcolatrici, che però erano basate per lo più su 68000.
ARM ha goduto di una diffusione notevole in ambito embedded, e certamente non esclusivamente per le calcolatrici. Infatti ha introdotto numerose estensioni e versioni dell'architettura che sono tutt'altro che orientate alle sole calcolatrici; basti vedere la storia di quest'architettura (di cui ho parlato in una serie di articoli su Appunti Digitali).
Intel aveva in mano una tecnologia che sapeva benissimo essere migliore della propria, ma non essendo la propria ha semplicemente deciso di non cercare di darle vantaggio iniziando un processo di ottimizzazione e costruzioni con processi produttivi che nessun latro poteva (e può) permettersi.
Il risultato è solo stato un leggero ritardo sui tempi di maturazione dell'architettura ARM che ha preso il largo e oggi pure un colosso come Intel fa fatica ad arginare.
Non mi pare che sia Intel ad avere in mano le redini dell'architettura ARM, e a decidere in che modo far maturare quest'architettura. E' ARM che produce le sue IP e fa evolvere le proprie micro/architetture.
Intel è stato un cliente come un altro, che ne ha acquisito le licenze, e prodotto le sue versioni personalizzate (a cui ha aggiunto estensioni simili alle MMX, ad esempio).
Non vedo, quindi, in che modo il lavoro di Intel avrebbe potuto avvantaggiare ARM, visto che non ne aveva il pieno (e assoluto, come da sua tradizione) controllo...
Dai, non scadiamo nell'evangelizzazione.
Permettimi: hai riportato soltanto una parte della torta, io ho semplicemente aggiunto quella mancante, e mi tacci di "evangelizzazione"?
Intel è sempre stata nel mercato embedded. Con scarsi risultati. D'altronde, come con ARM, è difficile competere in un mercato dove conta molto l'efficienza e il basso consumo (il raffreddamento passivo è quasi d'obbligo).
Infatti s'è ritagliata il suo segmento anche nel settore embedded, ma questo con la serie 8085 di microcontrollori a 8-bit, perché in questo campo per parecchio tempo non serviva altro. Tant'è che è stato un fiorire di architetture a 8-bit dedicate allo scopo, oppure sono stati impiegati vecchi processori (6502, Z80, 6800 sono gli esempi più noti) e riutilizzati allo scopo.
Questo non vuol dire che non ci fossero architetture a 16 o 32 bit utilizzate in ambito embedded, ma queste venivano impiegate in scenari più complessi. Qui Intel non è riuscita a diffondere la sua architettura IA32 (anche con apposite declinazioni), ma non era nemmeno interessata a spingersi così tanto, visto che poteva contare su un mercato molto più redditizio.
Negli ultimi anni, però, le cose sono cambiate, e anche nel settore embedded è cresciuta la richiesta di architetture in grado di macinare più numeri, e non a 8 bit. Ecco perché molte aziende hanno sfornato versioni a 16 o direttamente a 32 bit delle proprie architetture embedded (che in realtà spesso sono architetture completamente nuove). E questo è anche il motivo per cui Intel ha pensato bene di riutilizzare quello che già aveva per entrare con decisione anche in questo mercato, che è diventato molto più importante (Smart-TV e automobili sono esempi eloquenti).
PowerPC, NEC, Hitachi (ora entrambe Renesas), MIPS e ARM e FPGA sono le architetture che normalmente si usano in campo industriale. Quark non farà differenza. Intel non riuscirà mai a vendere un chip allo steso prezzo delle altre architetture. Andrà bene là dove è sempre andata, ovvero dove contano più le performance e ci si può permettere meno limitazioni. Una nicchia nella nicchia.
Non è che PowerPC e MIPS pecchino proprio nelle prestazioni. Tutt'altro.
Quanto ai prezzi, forse faresti bene a dare un'occhiata ai listini dei produttori di processori e SoC in ambito embedded (avanzato; come quello in cui operano le realtà che hai citato): la parola "economico" non è esattamente ciò che ispirano.
Infine, se vai a vedere l'ultima roadmap sfornata dal consorzio POWER, relativamente al POWER 8, vedrai che loro stessi segnalano un trend in discesa quanto a diffusione, e citano Intel come una delle cause in merito.
Per cui sarà pure una nicchia, o una nicchia nella nicchia, ma se Intel riesce a vendere lo stesso e gli altri produttori si preoccupano tanto da citarla come causa della contrazione del loro mercato, qualcosa vorrà pur dire...
L'ingresso di Intel nel mondo mobile è frutto solo di sovvenzioni. Nessuno, a parte quelli che sono stati pagati, ha interesse ad usare l'HW di Intel. Mentre mi sembra che ci sia una fila tremenda per gli ultimi OC di Qualcomm (vedi il discorso di prima sul PP a 20nm solo per SoC). Chiediti il perché. Se Intel desse anche a me 500 milioni per fare un telefono con un Atom dentro correrei a cercare la scatola dove infilare tutto.
Infatti mi chiedo com'è che siano stati realizzati dei prodotti basati su Atom quando:
- non c'erano sovvenzioni di Intel;
- il PP utilizzato era vecchio (rispetto a quello impiegato per altri processori).
Il primo esempio che mi viene in mente: il (primo) Samsung Galaxy Tab da 10", realizzato anni fa.
Ma è ovvio che appena Intel molla la pressione sul tasto "sovvenzioni" il motore (cioè l'interesse) si spegnerà da solo. Intel = Windows. Se fai un tablet con Windows 8 allora ci sta un Intel dentro. Altrimenti un x86 con tutti i suoi problemi non serve a nessuno. Vedi iOS e Android che bene hanno dimostrato la cosa.
iOS è un mondo e mercato blindato da Apple. Android è aperto, e proprio lì Intel si sta espandendo. Anzi, persino MIPS è entrato nel ramo ufficiale, e mi sembra che anche PowerPC ci giri, sebbene non sia ancora nel ramo ufficiale.
Quali sarebbero, poi, i problemi di x86?
Nel mondo HPC, sì La Xeon Phi fa ottimi numeri, ma stiamo sempre parlando di qualcosa realizzato con un PP di vantaggio rispetto alla concorrenza, che nonostante quello detiene comunque la migliore efficienza di GFlops/W. E con Maxell la cosa dovrebbe essere peggio per Intel, anche se Maxwell è sempre fatto con lo stesso PP.
Come per Atom, Intel non ha utilizzato da subito l'ultimo PP per queste soluzioni. Soltanto con l'ultima incarnazione, Knights Corner, ha utilizzato (finalmente) i 22nm.
Al resto rispondo sotto.
D'altronde fosse stata "avanti" in questo campo il mercato HPC l'avrebbe conquistato lei a mani basse.
Scusami, ma c'è entrata giusto da qualche anno. Per conquistare un mercato ci vuole un po' di tempo; vedi, ad esempio, la classifica TOP 500, dove prima era totalmente assente, mentre ormai ha percentuali bulgare quanto a quote di mercato.
Invece si trova a infilarsi momentaneamente nei varchi quando la concorrenza ha problemi di processo produttivo. Ci fossero oggi 20nm per GPU vedremmo dove starebbe Intel con le sue Xeon Phi fatte da vetusti core x86. Poi un giorno mi spiegherai a che serve usare i core x86 in un sistema che serve da coprocessore e basta quando in verità ci si potrebbe infilare qualsiasi cosa (pure una serie di Cell di IBM).
Te lo spiego oggi: serve a utilizzare facilmente un'architettura molto ben conosciuta, e per la quale esistono tool di sviluppo che consentono di ottenere velocemente risultati e sfruttare la potenza di calcolo a disposizione.
Il fatto che Maxwell offrirà una certa potenza di calcolo teorica superiore non significa che automaticamente e immediatamente la si potrà utilizzare.
La potenza di calcolo grezza è soltanto un parametro, certamente molto importante, ma non è il solo di cui tenere conto; anche perché praticamente è molto difficile che si arrivi a questi numeri su carta.
Prova a chiedere a uno sviluppatore se preferisce lavorare con CUDA e sputare sangue per riscrivere e ottimizzare al meglio il kernel dell'algoritmo che vuole implementare, oppure semplicemente includere la MKL di Intel che gli consente di sfruttare al meglio fin da subito il suo codice esistente scritto in C/C++ o Fortran che utilizza le funzioni già note e diffuse da decenni e usate da matematici, fisici, ecc. per i loro calcoli. Questo per fare un esempio, ma te ne potrei fare altri.
Insomma, stiamo continuamente ribadendo che senza PP di vantaggio Intel sarebbe già scomparsa o ridimensionata da un bel pezzo.
Con lo stesso metro di giudizio aziende come Tilera avrebbero dovuto eclissare nVidia, AMD, IBM, Fujitsu, ecc. nell'ambito della pura potenza di calcolo, visto quello che sulla carta offrono.
Evidentemente le valutazioni non possono tenere conto di un solo parametro, per quanto sia importante. Vale per il PP più aggiornato di Intel (ma sul quale spesso vengono sollevati dubbi che sia tanto buono, per cui potrebbe anche non essere un vero vantaggio per Intel) quanto per altre cose (tool di sviluppo, librerie, compilatori, e ovviamente anche la stessa architettura).
Puoi studiare tutti i numeri e fare tutte le simulazioni che vuoi, ma i fatti sono diversi. L'architettura x86 non è solo mangiatrice di transistor (e watt), ma è anche una vergogna dal punto di vista dello sfruttamento della memoria.
Scusami, ma questa è un'assurdità. I numeri e le simulazioni servono a capire l'impatto che ha proprio l'elemento più problematico di x86: la sua eredità legacy.
Se per te un decoder che si mangia circa un milione di transistor ha lo stesso peso su un core da 3 milioni di transistor e su un altro che ne ha 30, 300, o addirittura 3 miliardi (pur se diviso per il numero di core/thread hardware a disposizione), beh, allora non posso che alzare le mani e arrendermi, perché non posso controbattere con una presa di posizione del tutto priva di senso.
Con quei 4 registri in croce mai ampliati per davvero,
Veramente sono 8, ampliati a 16 da AMD con x64, per la "sola" unità SIMD sono diventati 32 per Larrabee/Xeon Phi, e saranno sempre 32 quando AVX-512 arriverà, a breve, anche su architetture più "consumer" Xeon Phi.
perdendo pure la chance dei 64bit,
Cioè? AMD ha fatto evolvere IA32 a 64 bit, che anche Intel ha abbracciato e propone da circa 10 anni. Questo rimanendo in ambito x86. In passato Intel ha già sfornato architetture a 64 bit completamente nuove, anche se non sono andate bene commercialmente.
l'accesso alle cache e alla RAM è continuo. E servono cache enormi per tenere le pipeline alimentate.
A parte che non è affatto così, visto che le cache non sono enormi (AMD ha proposto le soluzioni che ne avevano di più, ma è un caso unico nel panorama x86), proprio le cache servono a ridurre l'accesso alla RAM.
Poi ti faccio notare che anche i processori ARM fanno uso di ampie cache. Vedi l'ultima incarnazione di Apple, l'A7. Mi chiedo a cosa serviranno a questo punto, visto l'enorme vantaggio che (sulla carta) avrebbe la concorrenza, a tuo dire...
Inoltre x86 ha una densità di codice superiore ai RISC, ARM inclusi, che le consente di risparmiare sia spazio in memoria sia poi nelle cache, e dunque anche nella banda consumata.
Quando parliamo di cache e RAM c'è anche questo fattore di cui bisogna tenere conto, che è decisamente importante. Tanto che i RISC hanno dovuto tradire la loro natura e diventare dei CISC pur di competere in questo campo; Thumb di ARM è l'esempio più noto.
Il Motorola 68000 ai tempi già dava la paga agli x86 solo per l'efficienza che poteva godere con l'uso di 16 registri
Infatti ho un ottimo ricordo dei 68000. Ma sono morti, e non si sono evoluti, mentre IA32 sì. Infatti ha raggiunto i 16 registri, che però sono diventati totalmente general purpose (i 68000 avevano 8 registri dati e 8 registri indirizzi) con x64.
ARM ha 16 registri, anche se un paio sono riservati per il PC e per l'indirizzo di ritorno da una funzione. Per cui non mi sembra che x64 sia messa così male come ISA.
e una memoria flat, invece dell'accrocchio made in Intel.
Veramente è da una trentina d'anni che Intel ha messo a disposizione un modello flat per la memoria, che peraltro tutti i s.o. utilizzano ormai da almeno una ventina d'anni.
Con x64, poi, esiste esclusivamente il modello flat nella modalità a 64 bit...
Non ci vuole molto a fare delle architetture migliori di quelle x86: basta pensarle bene fin a subito.
Quindi Intel doveva "pensare bene" un'architettura quasi 40 anni fa, quando a stento circolavano processori a 8 bit? Interessante tesi...
Magari Motorola avrebbe dovuto evitare di inserire le mostruose (da implementare in una microarchitettura) modalità d'indirizzamento con doppia indirezione verso la memoria, che ha introdusse col 68020, e che l'hanno poi fatta piangere amaramente col 68040 e 68060.
Che dire, poi, di Acorn, che nella prima versione (v1) della sua nuova CPU ARM aveva "ben pensato" di utilizzare 6 bit del PC per infilarci i flag del registro di stato, castrandola così a un massimo di 64MB di memoria virtuale, e costringendola poi al radicale (nonché non retrocompatibile, ovviamente) cambiamento avvenuto con la v2 di appena qualche anno dopo, che li ha scorporati e spostati nei nuovi registri di stato. E non era il 1978, ma il 1985 quando è stata presentata questa ISA, per cui una scelta così insensata se la sarebbe potuta risparmiare, alla luce di quanto avevano già realizzato altri produttori di CPU.
Con ciò penso sia chiaro dove voglio arrivare: di errori madornali nell'ambito delle architetture ne sono stati commessi da tanti produttori di CPU, e inoltre nessuno nasce con la sfera di cristallo, per cui la portata di alcune scelte non era prevedibile a distanza di anni (no, la scelta di ARM non ci rientra: è stata una sciocchezza fin dall'inizio).
L'x86 non lo è stata, e infatti è più un mostro Frankenstein completamente rifatto da plastiche su plastiche che una bella donna naturale.
Ha saputo rifarsi bene il trucco, visto quello che è riuscita a fare. Sarà brutta quanto vuoi, ma è stata in grado di evolversi e limitare l'eredità che si porta dietro. Già da parecchi anni non si programma più come l'8086...
Ma anche altre architetture sono state costrette a ricorrere alla chirurgia plastica. Visto che parliamo spesso di ARM, vedi la sua v1 che è stata velocemente soppiantata dalla v2 che ha corretto quell'assurdità di cui sopra, costringendo a dare un taglio alla (retro) compatibilità. E la v8 (aka ARM64) è l'ultimo esempio.
Vedi sopra, si muovono le sovvenzioni di Intel per cercare di trovare spazio dopo 4 anni di continui flop uno dietro l'altro.
Le sovvenzioni sono roba di pochi mesi fa, come già detto.
Se non facesse così sarebbe un altro anno in cui nessuno si accorge che Intel esiste nel campo mobile. Sta tentando il tutto per tutto. Se non sfonda (come credo non farà), il business mobile è perso (gli anni futuri non crescerà più come quelli passati e ormai i giochi sono fatti con produttori che sfornano SoC ARM più che sufficienti per smarphone e tablet a prezzi irrisori che Intel non può raggiungere nemmeno se divide per dieci il suo SOC).
Vedremo. Intanto sono già diversi i prodotti mobile che integrano un chip Intel, anche senza far girare Windows.
E' uno scenario un po' nostalgico. La gente non vuole Windows ovunque. La gente vuole fare le cose nel modo più facile possibile. E questo non significa avere un tablet che pesa 1 kG perché la batteria deve essere grande per garantire una autonomia decente da portarsi sempre appresso e lo schermo è lo stesso che si usa in ufficio (che non può essere un 7" se si vuole davvero lavorare).
Mi sembra che prodotti come SurfacePro abbiamo dimostrato come la situazione di x86 non sia esattamente come la stai dipingendo.
E abbiamo dimenticato l'evoluzione che sta avendo il cloud? Io oggi leggo la posta di Google sul mega PC con il mega monitor attualmente in uso, sul tablet e sullo smartphone. E accedo liberamente ai miei dati con Dropbox o Google Drive. Mi serve un processore Intel per farlo? No. Perché se esistono alternative che offrono strumenti migliori per un determinato uso, che me ne frega di avere x86 (= compatibilità con Windows)?
Forse perché Dropbox e Google Drive utilizzano Python per i loro client, che richiede non poca potenza di calcolo per avere certi risultati, e predilige nettamente architetture che offrono elevate prestazioni su singolo core/thread?
Hai mai aperto il task manager per vedere quanti core vengono utilizzati, e con quale carico, durante l'operazione di indicizzazione effettuata da queste applicazioni? Hai mai visto la differenza che passa per effettuare la stessa operazione su un AMD C-50 e un Phenom II 4 a 3,2Ghz (rispettivamente il sub-notebook da cui ti sto scrivendo e il desktop che ho a casa)? E non è soltanto una questione di dischi più lenti per il primo sistema, visto che su desktop utilizzo hard disk a basso consumo da 5400rpm, per cui non c'è un grosso distacco con quello da 4200rpm (mi pare) del portatile.
Poi c'è da dire che, sempre rimanendo in ambito cloud, i client basati sulla triade HTML/CSS/Javascript sono affamati di potenza di calcolo, e Javascript è... intrinsecamente mono-thread (anche se in futuro saranno introdotti i worker nello standard, per alleviare un po' la situazione). Per cui, sì, l'accelerazione hardware sfruttando la GPU ha migliorato le prestazioni dei browser, ma Javascript richiede sempre una grossa potenza di calcolo su singolo core/thread.
Sì, puoi fare le stesse cose anche senza x86, ma ovviamente non hai gli stessi tempi di risposta, anche se hai 8 core a disposizione per macinare numeri...
Forse no hai compreso che non serve a nulla un confronto transistor per transistor tra i core per vedere chi ce l'ha più lungo qui o lì.
Serve a capire se un'architettura è intrinsecamente scarsa oppure no, visto che la discussione s'è focalizzata sull'architettura di per sé.
Quello che conta sono due fattori: la potenza di calcolo dei processori ARM oggi è sufficiente per soddisfare l'utenza con l'uso di dispositivi che io definisco "passivi". Cioè quelli che non sono usati per creare contenuti. Visto che la maggior parte dell'utenza consuma contenuti invece di crearli (a parte i post sui forum e su FaceBook, ma per quello ARM basta e avanza), direi che la strada di Intel per far pesare la sua maggiore potenza di calcolo è molto in salita. Sopratutto perché, se l'efficienza fosse la stessa questo aumento di potenza di calcolo equivale ad una diminuzione dell'autonomia del dispositivo. Ma già in efficienza siamo ben distanti a parità di processo produttivo.
Il secondo fattore sono i costi: i processi produttivi di vantaggio di Intel le permettono più o meno di pareggiare sul lato efficienza, ma non su quello costi. A parità di area Intel il SoC di Intel costa quasi il doppio. Va 2 volte di più. Boh, forse, ma non è quello che l'utenza chiede. In un mercato che vuole i prezzi in calo (proprio perché si sta saturando vince chi offre a meno, non chi offre di più) un euro in più o in meno sulla BOM fa la differenza.
Premesso che concordo sulla valutazione dell'intero ecosistema (perché è quello che, nella sua interezza, finisce in mano alla gente), la situazione non è esattamente quella che dipingi.
Se vuoi ottenere prestazioni mediamente migliori in tutti gli ambiti di utilizzo, Intel ha sicuramente le sue buone carte da giocare. ARM sta andando avanti a colpi di core, ma 9 donne non fanno un bambino in un mese. Ci sono ambiti in cui puoi sfruttare poco o per nulla i numerosi core a disposizione. Meglio un'architettura più bilanciata, che consente buone prestazioni anche quando viene usato un solo core da un particolare software.
Fermo restando che, anche guardando alle prestazioni complessive, Intel non ha proprio nulla da invidiare a nessuno; tutt'altro.
Per i guadagni di TMSC vedi inizio post: ha creato un PP solo per SoC. Con la felicità estrema di nvidia e AMD. Ma questo semplicemente significa che quel mercato fa guadagnare parecchio (che sia per volumi o costi poco importa).
nVidia e AMD sfornano GPU, per cui hanno bisogno di un PP adeguato alle loro particolari esigenze. E dunque mi pare normale che la fonderia da cui si servono gliene metta a disposizione uno apposito.
A Intel, invece, serve altro, per cui non ha avuto questa necessità.
Intel non ha molte altre carte da giocarsi se non intervenendo sui prezzi per cercare di dare un lancio ai suoi prodotti che nessuno sa nemmeno esistere nel mercato mobile. Cosa altro può fare se non ridurre ulteriormente il transistor? Certo che però le costerò di più, e quindi le sovvenzioni dovranno essere pesanti.
Come dicevo sopra, ha anche altre carte che si può giocare.
Le sovvenzioni sono arrivate adesso, e servono a darle un'accelerata per far diffondere le sue architetture, in modo da guadagnare quote da un mercato in cui ha pensato troppo tardi di entrare.
Ricordo, in merito, il recente mea culpa di Otellini, che chiuse le porte ad Apple e al suo iPhone...
Forse ti è sfuggito che il mercato è radicalmente cambiato: con la semplicità e il facile adattamento dell'architettura ARM progettarsi e realizzare un chip è alla portata di moltissimi. Moltissimi che possono permettersi di non dipendere da un produttore che fa chip monolitici da costi spropositati, possono farselo in casa come vogliono (bilanciando CPU o GPU cme megliono credono per il dispositivo che hanno in mente) e guadagnarci sopra molto di più che rivendendo un chip Intel. Oppure si possono rivolgere a un progettista cinese (come MediaTek per esempio) e arrivare sul mercato con un dispositivo che costa molto meno di quello già sovvenzionato da Intel.
Non mi sfugge affatto, come non mi sfugge che un chip ARM te lo puoi realizzare in casa anche e soprattutto grazie al fatto che acquisti la licenza e i progetti di ARM, quindi non parti assolutamente da zero.
Non c'è più la catena Windows che lega verso i micro Intel. Nel mobile non servono mille mila GFlop (e pure la questione degli octa core ARM sono una buffonata che presto spero evaporerà).
Non evaporerà e, anzi, arriveranno sempre più core.
Inoltre i GFLOPS servono perché la gente vuole sempre più, e non si limita a fare la telefonata o mandare l'SMS. Infatti i SoC mobili hanno superato la soglia del miliardo di transistor, mettendo a disposizione CPU con molti core e GPU con molti stream processor; se non ci fosse stata richiesta non si sarebbero viste queste soluzioni, e puoi metterci la mano sul fuoco che il trend è destinato a crescere e certamente non a diminuire. Anche qui, non è un caso che gli smartphone abbiano superano i feature-phone in termini di vendite.
Il futuro è ben delineato...
Non si possono avere memorie da mille mila GHz per riuscire ad alimentare CPU che non sanno dove mettere i dati.
Tipo? Questa non l'ho capita.
E inoltre non è più Intel contro uno o l'altro o l'altro, ovvero un elefante che abbatte come birilli gli scoiattoli che la affrontano da soli uno alla volta, o uno squalo che si mangia i tonni che osano sfiorarlo.
Intel è rimasta lo squalo di prima, ma ora intorno ci sono una miriade di piranha, ovvero tutti quelli che adottano in un modo o in un altro, persino sviluppandola in proprio, l'architettura ARM. Per quanti possa riuscire a mangiarsene, anche questi riusciranno a infliggere dei dolorosi morsi e con il tempo a contenerlo.
Questa volta le risorse degli altri non sono dispersi in mille rivoli, ma confluiscono tutti nella stessa pentola, quella delle fonderie terze che permette loro di aggiornarsi più velocemente (se aspettavano AMD per farlo avrebbero smesso da tempo di cercare di rincorrere Intel e sarebbero rimasti con processi produttivi economici utili per la maggior parte dell'elettronica non high speed...).
Non mi sembra che qualcuno neghi il successo dei processori ARM e le difficoltà di Intel, sia in questi nuovi mercati sia nel suo mercato di riferimento che è calato. Ma non vedo lapidi all'orizzonte...
Intendo che se non sfonda con Atom che è x86 based, o rinuncia al mobile o deve cambiare architettura nettamente.
E quale architettura dovrebbe adottare (o progettare)? ARM, che ha già abbandonato in favore della sua favorita?
Non vedo poi, perché dovrebbe abbandonare la battaglia proprio adesso che con gli ultimi modelli di Atom l'hanno resa competitiva con ARM anche in termini di consumo. Sarebbe, al contrario, un gesto folle.
Il che vuol dire che perde la retrocompatibilità con il mondo x86 (e Windows) e si mette sulla linea di partenza a livello zero come lo sono gli altri, da ARM a MIPS.
Beh, intanto non è detto che una nuova architettura debba necessariamente perdere la compatibilità con x86.
Poi anche gli altri che hai citato hanno dovuto effettuare cambiamenti radicali e non retrocompatibili; mi riferisco in particolare ad ARM, di cui ho parlato anche sopra.
E perderebbe la faccia visto che sono anni che cerca di convincere in tutti i modi gli investitori che la sua è l'architettura migliore per qualsiasi cosa, dopo aver venduto la divisione ARM, riciclato il fallimento di Larrabee in un progetto HPC (e ci si chiede cosa abbiano in comune le due cose per far in modo che Intel dichiarasse che Larrabee sarebbe stata la migliore GPU mai creata, giusto per evidenziare come spesso il marketing nasconda ben altre verità.)
Larrabee è stata progettata con la consulenza di mostri sacri nel campo della computer grafica. Gente del calibro di Abrash e Sweeney. L'obiettivo era quello di entrare nel mondo delle GPU, ma quella proposta era una soluzione troppo general purpose, pur con tutte le migliorie introdotte, incluse unità specializzate in alcuni ambiti. S'è andata a scontrare con Nvidia e AMD, che avevano soluzioni ad hoc, e dunque più efficienti (per il discorso che hai poi fatto negli altri commenti, che ben delinea pregi e difetti di soluzioni general purpose e specializzate). Per cui il progetto non è stato in grado di competere. Magari in futuro, con l'introduzione di ray tracing in tempo reale, quest'architettura potrebbe essere ripresa visto che è molto interessante per questo tipo di calcoli, ma al momento è morta.
Ciò precisato, tolte le vesti e le parti specificamente da GPU, il progetto Larrabee presentava comunque caratteristiche da renderlo particolarmente appetibile per il settore HPC, dove le sue nuove unità vettoriali potevano tranquillamente dire la loro rispetto alla concorrenza. Concorrenza che, viceversa, si trascina dietro l'essere progettata principalmente come GPU, e dunque con parti del tutto inutili in quest'ambito; potremmo chiamarla GPU-tax.
Per questo motivo Larrabee è stata riadattata e ottimizzata per competere nel settore HPC, e mi sembra che qualche risultato lo stia raggiungendo, pur essendo arrivata da poco. In futuro sono previste novità che renderanno Xeon Phi ancora più interessante e competitiva.
e aver creato un processore a basso consumo orribile come l'Atom e non essere stata capace in 6 anni a renderlo appetibile per nessuno.
Che abbia venduto poco IN AMBITO MOBILE ci può stare, ma... i netbook ti dicono niente? E poi cos'avrebbe di orribile?
Ora coccolo un po' questo i7 che altrimenti dopo tutta questa critica ad Intel finisce per rompersi solo per dispetto :D
Dovrei fare lo stesso col mio C-50, dopo quello che ho scritto sulla "mamma". :p
cdimauro
17-02-2014, 22:51
è proprio qui il vantaggio di hsa, che non è solo gpu, ma cpu e gpu sullo stesso livello con huma e hQ, il sofware sceglie quale unità utilizzare che lo fa prima.
edit
una chicca
http://www.inpai.com.cn/doc/hard/197966.htm
programma video chat hsa con kaveri, fino a 70 video chat contemporanee
Non mi dice nulla.
Comunque forse non hai chiaro come funzioni una pipeline grafica, come ad esempio quella di un decoder JPEG / JPEG 2000, o MPEG 1/2/4 - H264/265.
Non è uno scenario in cui continuamente cambi contesto e hai bisogno di eseguire calcoli per una FFT o trasformata wavelet, per il decoder aritmetico, la (de)quantizzazione, ecc., che si intrecciano in maniera caotica, e che richiedono l'utilizzo di unitò della CPU o della GPU (tramite HSA) magari nello stesso ciclo di clock. Si tratta di fasi che vengono eseguite "in blocco"; si finisce, ad esempio, la decodifica aritmetica di una porzione dell'immagine, e DOPO si passa alla quantizzazione della medesima area; e così via per le altre fasi.
Mi spieghi in che modo porterebbe vantaggi l'HSA? Sì, magari posso eseguire l'offloading di alcune parti più velocemente, ma non cambia la vita di una pipeline grafica come quella; il guadagno, SE C'E', è molto ridotto.
Per il resto sono sostanzialmente d'accordo con CrapaDiLegno, che ha ben analizzato ed esposto gli scenari.
cdimauro
17-02-2014, 23:22
Eheh hai ragione, non riusciamo a capirci.
Riguardo all'uso della GPU per la codifica/decodifica video, i vantaggi naturalmente stanno proprio nel portare su GPU ciò che su GPU viene calcolato con maggiore efficienza.
Le nuove tecnologie stanno puntando proprio a questo: non una GPU che esegue tutto, ma una GPU che è possibile richiamare come una qualsiasi altra risorsa interna di calcolo (un cluster int, una fpu...) per poter dare ad essa in pasto quello per cui è più efficiente.
Questo potrà permettere di spostare su GPU quelle applicazioni particolarmente gravose per la CPU che oggi ci fanno sentire la necessità di CPU più potenti. Il resto rimarrà su CPU, ma una CPU con un carico di lavoro alleggerito e che esegue calcoli a lei congegnali.
Si tratta naturalmente di teoria, fino a quando non viene concretamente applicata. Però la strada tracciata è quella.
A ciò che ha scritto CrapaDiLegno aggiungo che uno scenario come quello delineato è poco aderente alla realtà. Le unità disponibili con HSA non hanno lo stesso "costo" di accesso / utilizzo di una normale ALU, FPU, SIMD. Inoltre non è realistico uno scenario in cui continuamente richiedi i servigi di un'unità HSA, come già detto nel precedente commento.
Primo perché certe elaborazioni vengono suddivise in una pipeline di esecuzione che provvede a elaborare di blocchi di informazioni tutte di uno stesso tipo, e dunque senza una continua alternanza delle varie fasi e, dunque, di utilizzo promiscuo delle unità di calcolo, HSA e non HSA, a disposizione.
Secondo perché per sfruttare un'unità HSA servirà un protocollo di comunicazione, che la CPU utilizzerà per comunicare cosa vuole, i dati da passare eventualmente, e per ricevere poi il risultato. Cose non istantanee, insomma.
Il problema dell'hardware ad hoc è che non è adattabile.
Quicksync va bene per per fare delle conversioni veloci senza stressarsi molto, ma è assolutamente inadeguato per fare conversioni di qualità. Se ne parlava prima.
In fin dei conti dipende dalle esigenze.
Quicksync non è più veloce di una GPU, è più efficiente. Questo perchè non ha senso dedicare un hardware paragonabile a quello di una GPU ad una singola funzione, se non in situazioni particolari.
Se devo quindi fare conversioni di qualità, quicksync non mi serve a nulla, posso farle con CPU+GPU in tempi anche minori e con risultati superiori. Certo, consumo molto di più, è il prezzo da pagare per l'uso di un hardware general purpose, ma non sempre questo fattore è importante.
Ma Quicksync potrebbe anche evolversi in futuro, e consentire risultati qualitativamente migliori senza cambiare l'interfaccia per il software che utilizza questa tecnologia.
La logica fissa non potrà mai evolversi con i nuovi algoritmi, non potrà mai uscire dalle funzionalità per cui è stata creata. Se domani tutti codificano con un nuovo algoritmo, il chip ah hoc lo puoi anche cestinare. Se qualcuno tira fuori una matrice custom particolarmente efficiente o adatta al tipo di source da codificare, con la logica fissa non puoi utilizzarla.
Ti sembrerà strano, ma invece è proprio quello che si fa. Infatti i chip o le GPU più vecchie che contengono un'unità di accelerazione video rimangono limitati agli algoritmi di decodifica per i quali sono stati progettati. Quelli più nuovi implementano gli altri nuovi algoritmi. Facci caso.
E' uno svantaggio rispetto a un'unità più generica? Senz'altro. Ma ha anche il netto vantaggio di essere ben più efficiente, ed è il motivo per cui, nonostante i difetti, è la via che viene ancora battuta.
La GPU può essere insomma un'ottima risorsa hardware per una serie di compiti (che non sono così pochi) per i quali useresti altrimenti una CPU più lenta e meno efficiente.
Del resto, a differenza di un hardware dedicato, la GPU fa comunque parte del nostro computer, tanto vale utilizzarla a dovere.
Ma anche la CPU s'è evoluta col tempo, e riesce a macinare parecchi numeri adesso. C'è una sorta di convergenza dei due mondi.
Non mi pare di aver mai affermato il contrario.
Qui si parla di sfruttare le risorse hardware presenti nel computer, e la GPU è una di queste. Anche la fpu integrata in pressoché tutti i processori attuali è un coprocessore (e le SSE che citi girano appunto sulla fpu, come le 3Dnow prima di loro).
Diciamo che sfruttano le stesse risorse (moltiplicatori e sommatori delle FPU), ma è una questione puramente di convenienza, perché potrebbero benissimo essere del tutto indipendenti a livello implementativo, con risorse di calcolo appositamente ed esclusivamente dedicate.
Tra l'altro sono già indipendenti, a parte 3DNow! e MMX che sono mutuamente esclusive rispetto alla FPU. Provare per credere. :cool:
Quello che dici è vero, ma si parla di codifica di video, e non nasce un algoritmo di compressione alla settimana.
Infatti i decoder nelle VGA sono altrettanto a funzione fissa e permettono di decodificare i formati più comuni e più richiedenti potenza computazionale.
Una unità che permetter per esempio di calcolare la FFT in tempi rapidissimi con buona precisione sarebbe già un bel blocco base su cui realizzare quasi tutti i codec/decoder. In quel caso potresti farti il tuo algoritmo personalizzato con buona efficienza senza dover scomodare 1000 e rotti ALU general purpose.
E' vero che gli algoritmi di compressione nuovi non arrivano giornalmente, ma è anche vero che portano novità non di poco conto.
Ad esempio la DCT (la FFT non viene usata in quest'ambito) è alla base di JPEG ed MPEG 1 & 2, ma JPEG 2000 ed MPEG4 (e successori) sono basati sulle trasformate wavelet, e di queste ultime ce ne sono diverse.
Oppure potremmo parlare della codifica utilizzata, che può sfruttare Huffman o uno dei tanti algoritmi di codifica aritmetica.
E così via anche per gli altri aspetti (quantizzazione, spazi di colore, componenti cromatiche, raggruppamento delle informazioni, ROI, ottimizzatore, e probabilmente qualcos'altro che adesso non mi sovviene).
Nonostante ciò, si preferisce continuare a mettere a disposizione sezioni di de/codifica video dedicate perché sono di gran lunga più efficienti e prestanti di una circuiteria general purpose.
cdimauro
17-02-2014, 23:31
Il micro dell'Amiga 1000 era un CPU a 7MHz, uno sputo in confronto all'HW che Intel da lì a poco riuscì a sfornare. Ebbene, prendi un PC del tempo e tenta di fare un programma come Scala (se non sai cosa è Google rimane tua amica). Non c'è Pentium a nessun Ghz che sia in grado di eguagliare le performace dello sputo a 7Mhz. Perché? Semplicemente perché c'erano 2 coprocessori che facevano il lavoro che nessuna delle migliaia di ALU presenti oggi nelle GPU è un grado di fare (e infatti le GPU ancora oggi usano unità simili a quelle per fare il 2D). I Pentium proprio non avevano speranza di fare un bel nulla, nemmeno con le VGA esterne, dato che mancava il segnale di sincronismo al pennello elettronico, ritenuto superfluo al tempo.
Per amore della precisione va detto che un 386 con una VGA era in grado di eseguire senza problemi effetti di transizione che un software come Scala metteva a disposizione, e anche di più complessi.
Il problema della VGA non era tanto nella mancanza di sincronismo al pennello elettronico (era possibile riconoscere l'inizio sia delle fasi di horizontal e vertical blanking; inoltre nello standard VGA/MCGA di IBM era persino prevista le possibilità di generare un interrupt all'inizio del vertical blanking, anche se poi tanti produttori di cloni non hanno implementato quest'utilissima funzionalità nelle loro schede video), quanto della mancanza del supporto ai genlock, ossia la possibilità di "marcare" un particolare colore dell'immagine generata come "buco" da poter "forare" per mostrare la grafica di una sorgente esterna.
Non servivano i coprocessori dell'Amiga allo scopo, quanto la funzionalità di ZD (Zero Detect) del colore della palette, che il chip video (Denise) metteva a disposizione.
Per il resto sono abbastanza d'accordo, anche se non sono dello stesso avviso per quanto riguarda il Cell.
CrapaDiLegno
18-02-2014, 01:34
Mii. sta diventando un romanzo... scusa se non rispondo a tutto, ma è tardi e la mente un po' offuscata.
Ma questo come fai a dirlo? In base a cosa puoi sostenere un'affermazione così assoluta oltre che lapidaria?
Che affermazione lapidaria? Metti di non avere alcun progetto che possa realizzare vendite come quelle di ARM. Che le fai a fare le nuove fabbriche con nuovi processi produttivi se prima non hai ammortizzato quelle precedenti? Che al ritmo di vendita senza ARM vuol dire una ogni 5 o 6 anni.
D'altronde, a TSMC non gliene frega nulla che l'ultimo SoC che sforna sia meglio o peggio dell'ultima CPU di Intel. Lei vende comunqe un fracco. E' Intel che si preoccupa del fatt che l'ultimo SoC ARM da la paga al suo ultimo SoC Atom o che la sua Xeon Phi prima versione fa figura del menga contro un'architettura a pari PP (quella nvidia, e su questo punto approfondisco dopo).
Intel non aggiorna immediatamente tutte le sue fabbriche. Infatti i chip (da Quark a Itanium, inclusi i chipset) che produce non utilizzano tutti l'ultimo processo produttivo.
Questo non vuol dire che non produca con l'ultimo PP quello che ritiene avere dei problemi di competizione. Come detto Quark lo può fare a 1 nm e sempre vincolato nelle nicchie dell'embedded rimane. L'Itanium è morto già di per sé e lo potrebbe fare anche a 1um se non le servisse un metro quadro di silicio.
Non è infatti un caso che l'Atom è passato dall'essere realizzato con la penultima versione di PP alla prima.
Il che è naturale, visto che un processo produttivo migliore le consente di sfornare molti più chip per wafer. Per cui o utilizza lei tutta quella capacità produttiva, oppure le servono altri clienti se vuole migliorare (massimizzare, idealmente) i profitti.
Non no è normale, perché quando decidi quante fabbriche aggiornare (che costano miliardi, non noccioline) prevedi con accuratezza (per qunato puoio, non certo tirando i dadi) un certo numero di vendita. Inutile aggiornare 2 fabbriche se sai che una fabbrica aggiornata produce il doppio della precedente ma vai a vendere lo stesso numero di chip. Con i 22 nm Intel ha sforato il previsto, cercando partner terzi per riempire le fabbriche semi vuote, con i 14 ha sforato completamente riuscendo ad evitare di aprirne inutilmente una intera. No, non lo considero normale fare un progetto che prevede il doppio della produzione e poi arrivare alla metà. E no, non è nemmeno la crisi in generale. E' dato alla crisi del PC in particolare, causata da ARM che al contrario vende sempre di più e permette a TSMC di aprire fabbriche apposite snobbando altri mercati.
In passato non ha avuto bisogno di clienti perché riusciva a soddisfare da sola la sua capacità produttiva, ma adesso è diverso.
Anche con i 22nm non ha saturato la sua capacità produttiva. Il problema sinceramente non è che abbia sbagliato o ci abbia rimesso dei soldi per una fabbrica che non le serve, ma quanto le serve in termini di tempo per ammortizzare i nuovi processi produttivi se invece che vendere di più vende a ogni generazione la metà del previsto. Non bisogna stupirsi se i 14nm sono in ritardo di oltre 9 mesi (e i 22 lo furono di altrettanto se non ricordo male). Intel è un po' tra l'incudine e il martello. Mentre vorrebbe tirare avanti un po' l'arrivo del nuovo PP è però costretta a non fare troppo ritardo perché altrimenti perde in competitività.
Quello che intenevo con il fatto che le altre fonderie non sono costrette a rincorrere un PP a tutti i costi. Al massimo ad incazzarsi saranno i clienti, ma alla fine si devono accontentare di quel che la fabbrica propone loro non essendoci alternative.
[...]
Per cui forse ti confondi con Texas Instruments e le sue famose calcolatrici, che però erano basate per lo più su 68000.
[questione calcolatrici evolute...]
Mi sa che hai preso un p' troppo alla lettera la mia affermazione. Rimane comunque il fatto che rispetto a quello che offriva Intel al tempo, i processori ARM erano delle calcolatrici poco più che evolute. Diverso il discorso dopo l'arrivo di Apple e l'iPhone nel 2008. Da lì l'accelerazione è stata sorprendente anche per Intel (vedi discorso Atom del 2008 fatto con PP vetusto già al tempo e chipset ancora peggiore che non fa certo pensare che Intel credesse in un arrembaggio di ARM in così breve tempo).
Non mi pare che sia Intel ad avere in mano le redini dell'architettura ARM, e a decidere in che modo far maturare quest'architettura. E' ARM che produce le sue IP e fa evolvere le proprie micro/architetture.
Intel è stato un cliente come un altro, che ne ha acquisito le licenze, e prodotto le sue versioni personalizzate (a cui ha aggiunto estensioni simili alle MMX, ad esempio).
Non vedo, quindi, in che modo il lavoro di Intel avrebbe potuto avvantaggiare ARM, visto che non ne aveva il pieno (e assoluto, come da sua tradizione) controllo...
Mica ho detto che Intel aveva in mano le redini di ARM, ma come ben sai di ARM puoi comprare l'ISA e implementartela come meglio credi ala Qualcomm.
INtel sicuramente avrebbe potuto contribuire non poco a realizzare il meglio dell'architettura ARM se avesse voluto. Certo che i cervelli non gli mancano (con tutto il rispetto per Qualcomm, ma Intel è un'altra categoria).
Giustamente, dal punto di vista di promozione della propria IP, abbandonare ARM è stata la mossa più giusta. Peccato che poi la propria IP si sia dimostrata insufficiente a tenere testa all'evoluzione che ARM ha fatto anche senza l'aiuto implementativo di Intel (ora però c'è Apple che sforna implementazioni di nota).
Infatti s'è ritagliata il suo segmento anche nel settore embedded, ma questo con la serie 8085 di microcontrollori a 8-bit, perché in questo campo per parecchio tempo non serviva altro. Tant'è che è stato un fiorire di architetture a 8-bit dedicate allo scopo, oppure sono stati impiegati vecchi processori (6502, Z80, 6800 sono gli esempi più noti) e riutilizzati allo scopo.
[...]
No cioè, aspetta, stiamo parlando di embedded fatto con le CPU moderne o quelle dell'anteguerra? No perché non è certo con le licenze egli 8085 e simili che Intel tirerà avanti il carretto. Senza contare che nell'embedded semi evoluto (che non sono gli 8 bit ma nemmeno sistemi ad alto carico computazionale) è sempre ARM a farla da padrona, visto che è inserita in qualche miliardo di dispositivi ogni anno (se Intel prendesse posto con il suo QUark di un centesimo di quel mercato sarebbe un trionfo).
Quanto ai prezzi, forse faresti bene a dare un'occhiata ai listini dei produttori di processori e SoC in ambito embedded (avanzato; come quello in cui operano le realtà che hai citato): la parola "economico" non è esattamente ciò che ispirano.
Tutt'altro. A meno di non parlare di forniture militari, il costo dei componenti per l'embedded di consumo (compreso quello delle auto) è a prezzi stracciati. Ho esempi di fornitori che si offrono di forniture gratis pur di entrare in qualche modo nel mercato o nel settore e sperare di recuperare poi con pubblicità o con forniture future. In questo campo non puoi arrivare con micro che costa 1 euro in più della concorrenza e giustificarlo con "ma il mio va più veloce" se a me della velocità non me ne frega nulla (nell'embedded contano mille altre cose prima delle pure prestazioni).
Infine, se vai a vedere l'ultima roadmap sfornata dal consorzio POWER, relativamente al POWER 8, vedrai che loro stessi segnalano un trend in discesa quanto a diffusione, e citano Intel come una delle cause in merito.
Ermm..non mi pare che vi siano architetture Power8 nell'embedded. E come ho detto è sempre una questione di prezzi: se IBM ha il processore migliore ma lo vende a un prezzo superiore a quanto può Intel (per una semplice ragione di economia di scala) IBM non riuscirà mai a piazzare sul largo mercat l sue soluzioni: Intel sta a IBM esattamente come ARM sta a Intel. In mercati differenti, ma la sostanza è la stessa.
Infatti mi chiedo com'è che siano stati realizzati dei prodotti basati su Atom quando:
- non c'erano sovvenzioni di Intel;
- il PP utilizzato era vecchio (rispetto a quello impiegato per altri processori).
Il primo esempio che mi viene in mente: il (primo) Samsung Galaxy Tab da 10", realizzato anni fa.
E guarda caso mai più replicato....
iOS è un mondo e mercato blindato da Apple. Android è aperto, e proprio lì Intel si sta espandendo. Anzi, persino MIPS è entrato nel ramo ufficiale, e mi sembra che anche PowerPC ci giri, sebbene non sia ancora nel ramo ufficiale.
Intel non si espanderà mai nel mercato Android perché non ha la sufficiente dinamicità per adeguarsi alle moltitudini di necessità dei diversi costruttori e dispositivi. NOn offre nulla che ARM già non offra (anzi parlando di connessione, pure di meno). Ha speranza solo per quanto riguarda i dispositivi Widows based dove non c'è alternativa. Ma non mi sembrano stiano facendo questo sfacelo.
Come per Atom, Intel non ha utilizzato da subito l'ultimo PP per queste soluzioni. Soltanto con l'ultima incarnazione, Knights Corner, ha utilizzato (finalmente) i 22nm.
Ah, non ha importanza se non ha realizzato con l'ultimo PP, conta il fatto che con Knight Ferry a 45nm ha preso sonore bastonate da Fermi realizzato con un processo produttivo a 40nm (bulk e non come quello avanzato di Intel comunque).
A 22 nm è riuscito a pareggiare i conti, ma Kepler rimane più efficiente comunque. E si parla di numeri di computazione vera realizzati tramite i benchmark, non di numeri sulla carta.
Te lo spiego oggi: serve a utilizzare facilmente un'architettura molto ben conosciuta, e per la quale esistono tool di sviluppo che consentono di ottenere velocemente risultati e sfruttare la potenza di calcolo a disposizione.
Il fatto che Maxwell offrirà una certa potenza di calcolo teorica superiore non significa che automaticamente e immediatamente la si potrà utilizzare.
La potenza di calcolo grezza è soltanto un parametro, certamente molto importante, ma non è il solo di cui tenere conto; anche perché praticamente è molto difficile che si arrivi a questi numeri su carta.
Scusa ma non credo ci siamo intesi. I numeri sono quelli dei benchmark che si usano per decretare ufficialmente la potenza di calcolo reale di una architettura. Kepler bastona sonoramente la Xeon Phi di ultima generazione anche se è realizzato con un PP ben più scarso.
Maxell, che è realizzato sullo stesso PP di Kepler pota di suo già diverse ottimizzazioni all'architettura interna degli SMX. Spariscono le unità di calcolo DP separate, solo per dirne una, e lì di Watt se ne risparmiano non pochi, oltre che a permettere più unità di calcolo per superficie, cosa che Intel ha problemi realizzare viste le dimensioni non proprio contenute del suo chip per HPC. E non stiamo considerando le famose unità ARM aggiuntive che dovrebbero aumentare l'efficienza computazionale in generale, portando il valore reale dei GFlops più vicino a quello teorico (e quello teorico della GPU nvidia sta un bel pezzo sopra quello teorico Intel). Che vuol dire a parità di energia l'efficienza aumenta. Quindi forse con i 14nm Inte tornerà a pareggiare, giusto perché nvidia non ha a disposizione i 20nm questo giro. Il problema è che i 16nm sono previsti per l'ano prossimo per TMSC... quando è previsto il prossimo step per Intel? Nel 2018-19? A questi ritmi credo che sarà così.
Scusami, ma questa è un'assurdità. I numeri e le simulazioni servono a capire l'impatto che ha proprio l'elemento più problematico di x86: la sua eredità legacy.
Se per te un decoder che si mangia circa un milione di transistor ha lo stesso peso su un core da 3 milioni di transistor e su un altro che ne ha 30, 300, o addirittura 3 miliardi (pur se diviso per il numero di core/thread hardware a disposizione), beh, allora non posso che alzare le mani e arrendermi, perché non posso controbattere con una presa di posizione del tutto priva di senso.
[...]
La taglio breve così evitiamo di menare il can per l'aia... se Intel non ha problemi di
1.decoder che consuma poco in termini di spazio e energia
2.di registri che ne ha in abbondanza e usa con efficienza
3.di cache che ne ha in abbondanza e di velocità supersonica (che gli altri i sognano, persino AMD che non è l'ultima arrivata)
4.di banda verso la RAM dato che usa 2 canali (la maggiorn parte dei SoC ARM ne usano uno) e di densità di codice dato che CISC vs RISC
4. di unità di calcolo sia INT che FP
5.di branch prediction unit che sono decisamente più evolute di quelle ARM
cosa impedisce a Intel di fare un SoC x86 che sia quantomeno efficiente quanto un SoC ARM a pari PP?
Ora vorrei capire questa cosa. Forse ARM usa qualche pozione magica sui suoi die che li rende particolarmente migliori rispetto a quello che dovrebbero essere sulla carta? Non capisco: Intel è meglio di qui, no ha problemi di là, vince di qui, sborona di là, e poi immancabilmente presenta dei prodotti che non reggono il mercato. Cosa rende un SoC ARM migliore di una Intel dunque?
Le sovvenzioni sono roba di pochi mesi fa, come già detto.
Che evidenzia come per 4 anni Intel sia andata in buca cercando di presentare il prodotto migliore sotto il punto di vista tecnologico. Se lo fosse stato avrebbero fatto la corsa per prendere il SoC Intel, no?
Vedremo. Intanto sono già diversi i prodotti mobile che integrano un chip Intel, anche senza far girare Windows.
Ermm, a parte i telefoni sovvenzionati non mi viene nulla in mente... diversi quanti sono? Smartphone e tablet ARM hanno toccato quota un miliardo quest'anno.... giusto per avere un termine di paragone....
Mi sembra che prodotti come SurfacePro abbiamo dimostrato come la situazione di x86 non sia esattamente come la stai dipingendo.
:rotfl: :rotfl:
No, dai qui le faccine ci stanno tutte. Oltre 2 anni per vendere forse e dico forse 5 milioni di pezzi e tu dici che la situazione Surface non dimostra come sta la situazione? Spero per Intel che questo non fosse il suo target di quote di vendita, altrimenti altro che avere le fabbriche in idle... forse non hai ben compreso le dimensioni del mercato mobile... un miliardo diviso 5 milioni (e sono buono prendo anche i pezzi venduti l'anno scorso) = 2000 (ho dovuto prendere la calcolatrice per tanti sono gli zeri di differenza). Cioè Intel ha venduto 2000 mila volte in meno di ARM in un anno e questo sarebbe una situazione positiva? O non ho capito o qualcosa non va con la definizione di "situazione drammatica" per Intel.
No Windows no x86. In entrambi i sensi, cioè se non vendi Windows Intel non decolla ma se non hai bisogno di Windows Intel la puoi lasciare a terra senza rimpianti.
Forse perché Dropbox e Google Drive utilizzano Python per i loro client, che richiede non poca potenza di calcolo per avere certi risultati, e predilige nettamente architetture che offrono elevate prestazioni su singolo core/thread?
[... bla bla su numeri teorici]
Sì, puoi fare le stesse cose anche senza x86, ma ovviamente non hai gli stessi tempi di risposta, anche se hai 8 core a disposizione per macinare numeri...
Guarda non so cosa tu pretenda, o se anche a te piace guardare le barrette colorate senza dar loro un senso: io ho un tablet con un vetusto Tegra2. Dual core 1GHz, vecchia architettura Cortex-A9. E forse neanche quella meglio implementata. Quando uso il brower navigo senza problemi e quando mi collego a GoggleDrive riesco a usare il programma senza cader addormentato.
Con Intel risparmierei qualche millisecondo dei millisecondi in più che i core ARM impiegano per fare quei lavori? Ma sicuro. Mi cambia la vita? Nemmeno per sogno. Mi rende più produttivo. Nemmeno per idea, dato che il tablet non lo uso per essere produttivo. Riesco a leggere HWUpgrade? Certo. Per oltre 6 ore di filate con la batteria carica. E quindi tutto il discorso su cosa dovrebbe essere meglio e perché dove cade?
Come detto tante volte in nulla. Non conta presentarsi con una soluzione che costa di più anche se da di più. Ripeto, se Intel non avesse problemi con l'obesità dell'architettura x86 avrebbe già sfornato un SoC piccolo quanto quelli ARM. Invece si ritrova con SoC enormi che pareggiano l'efficienza (ma non i costi purtroppo per Intel) solo perché realizzati con n processo produttivo migliore.
Serve a capire se un'architettura è intrinsecamente scarsa oppure no, visto che la discussione s'è focalizzata sull'architettura di per sé.
Premesso che concordo sulla valutazione dell'intero ecosistema (perché è quello che, nella sua interezza, finisce in mano alla gente), la situazione non è esattamente quella che dipingi.
Se vuoi ottenere prestazioni mediamente migliori in tutti gli ambiti di utilizzo, Intel ha sicuramente le sue buone carte da giocare. ARM sta andando avanti a colpi di core, ma 9 donne non fanno un bambino in un mese. Ci sono ambiti in cui puoi sfruttare poco o per nulla i numerosi core a disposizione. Meglio un'architettura più bilanciata, che consente buone prestazioni anche quando viene usato un solo core da un particolare software.
Ma guarda, per quanto riguarda il multicore con me sfondi una porta aperta. Dopo 2 core, è difficile creare potenza di calcolo in maniera gratuita come vorrebbero far credere i benchmark a cui tutti i gonzi che credono di capire qualcosa di tecnologia abboccano come alborelle al grappolo di ami.
C'è gente che sceglia il proprio telefono guardando i bench, se la lineetta colorata è un millimetro dietro o avanti all'altro.
Fermo restando che, anche guardando alle prestazioni complessive, Intel non ha proprio nulla da invidiare a nessuno; tutt'altro.
Mai detto il contrario. Non è infatti sulle prestazioni che stiamo discutendo, né è sulle prestazioni che la gran parte del mercato guarda. Come per un qualsiasi elettrodomestico, alla gente normale basta che il dispositivo funziona per quello che è pensato per fare. Ho visto gente scegliere uno schermo LCD invece di un plasma Kuro lì affiancato perché sull'LCD i colori erano migliori (cioè più saturi da sbordare). Pensa te. Sarebbe utile andare là a spiegargli il perché e il percome il pannello al plasma (e il Kuro in particolare) fosse meglio del pannello LCD? E' la filosofia del basta giusto quel che serve. Infatti la Samsung vende pannelli LCD coma il pane. La Pioneer ha chiuso.
Ma non se ne può dare la colpa a Samsung. Se la gente si accontenta, e spesso è anche giusto farlo (in quel caso è stato stupido dato che i due televisori costavano quasi uguale, e in assoluto non poco) a che serve presentarsi con qualcosa che non è richiesto? E non si può dire che non sia così dopo 4 anni di inutili tentativi.
nVidia e AMD sfornano GPU, per cui hanno bisogno di un PP adeguato alle loro particolari esigenze. E dunque mi pare normale che la fonderia da cui si servono gliene metta a disposizione uno apposito.
A Intel, invece, serve altro, per cui non ha avuto questa necessità.
Come dicevo sopra, ha anche altre carte che si può giocare.
Ancora non ci siamo capiti. TMSC non ha messo a disposizione di nvidia e AMD un bel nulla di nuovo. Li lascerà ancora con i 28nm per almeno 6 mesi, il che farà 30 mesi con lo stesso processo produttivo. I nuovi 20nm, che suppongo non le siano costati poco, sono riservati esclusivamente per la produzione di SoC ARM. Stiamo dicendo che TMSC ha fatto un intero prcesso produttivo (con una sola variante) che a quanto pare sarà completamente ammortizzata dalla vendita dei SoC ARM che prourrà (forse compresi o solo quelli Apple?).
Come se Intel dicesse, ho realizzato i 14nm solo ed esclusivamente per gli Atom, il resto continuerò a produrlo a 22nm fino all'arrivo dei 10nm. Sarebbe un segnale di salute finanziaria e di mercato mostruosa. Invece fatto da TMSC è vista malamente perché lascia noi appassionati senza nuove GPU per altri 6 mesi come minimo.
Un giorno mi dirai quali sono le carte alternative a disposizione di Intel al di fuori delle sovvenzioni o della corruzione. Tecnicamente io non vedo alcuna possibilità di farcela contro l'armata ARM. Poi magari Intel l'anno prossimo ci stupisce tutti ed esce con qualcosa di veramente innovativo ed efficace (termine che contiene tutto quello che le serve per sfondare). Intanto devo aspettare ancora 12 mesi (o forse 18) prima di vedere qualcosa di nuovo da parte loro, mentre da questa parte c'è un fermento che metà basta (la curiosità per il K1 di nvidia e per i futuri SoC per server da parte un po' di tutti è enorme).
Le sovvenzioni sono arrivate adesso, e servono a darle un'accelerata per far diffondere le sue architetture, in modo da guadagnare quote da un mercato in cui ha pensato troppo tardi di entrare.
Ricordo, in merito, il recente mea culpa di Otellini, che chiuse le porte ad Apple e al suo iPhone...
Ma quale "averci pensato troppo". Sono stati presi con le braghe calate, come si dice. Non se lo aspettavano proprio. L'Atom originale, quello dei netbook, era il meglio che Inetl offriva per il basso consumo. Rendiamoci conto come questa compagnia ha ritardato l'evoluzione informatica per anni dopo che ha eliminato la concorrenza con metodi più o meno legali! Non possiamo che ringraziare ARM per non aver mollato (e sopravvissuto proprio nel mondo embedded che fortunatamente non necessita né di Intel né di Windows) e devo dirlo, di Apple che l'ha sdoganata per davvero. Se non fosse stato per questa combinazione avremmo ancora un Atom fatto leggermente meglio del l'originale giusto per contrastare l'altra schifezza prodotta da AMD e un embedded basato ancora su terminali lentissimi per evitare troppi consumi.
Non mi sfugge affatto, come non mi sfugge che un chip ARM te lo puoi realizzare in casa anche e soprattutto grazie al fatto che acquisti la licenza e i progetti di ARM, quindi non parti assolutamente da zero.
Non evaporerà e, anzi, arriveranno sempre più core.
Inoltre i GFLOPS servono perché la gente vuole sempre più, e non si limita a fare la telefonata o mandare l'SMS. Infatti i SoC mobili hanno superato la soglia del miliardo di transistor, mettendo a disposizione CPU con molti core e GPU con molti stream processor; se non ci fosse stata richiesta non si sarebbero viste queste soluzioni, e puoi metterci la mano sul fuoco che il trend è destinato a crescere e certamente non a diminuire. Anche qui, non è un caso che gli smartphone abbiano superano i feature-phone in termini di vendite.
Diciamo per prima cosa che gli smartphone hanno superato i feature phone perché il divario di prezzo è ormai zero e i feature phone come ecosistema sono morti da tempo. O fai solo telefonate e SMS e vai di cellulare classico (che ancora vende e resiste) o se vuoi qualcosa di più non puoi fare a meno di un sistema che usi Internet per tutto quello che può, dal browser passando per Whatsapp o simlia, per Skype, servizi Google, Dropbox senza tralasciare i giochini vari e i servizi dei vari store. I feature phone oggi sono come comprare una Panda con 3 ruote al prezzo di una Golf full accessoriata. E' logico che non hanno più alcun senso.
Non vedo poi, perché dovrebbe abbandonare la battaglia proprio adesso che con gli ultimi modelli di Atom l'hanno resa competitiva con ARM anche in termini di consumo. Sarebbe, al contrario, un gesto folle.
Eh, non è che questo inseguimento le costi zero, sopratuttuo per i costi di R&D che non vengono di certo coperti dal quantitativo esiguo di pezzi venduti. Per dirti come è cambiato lo scenario, prima del boom di ARM Intel stava pensando di farsi fare gli Atom da una fonderia terza. Ora è il contrario, sta cercando qualcuno che venga a occuparle i macchinari (ma che poi non le faccia concorrenza diretta con una architettura migliore realizzata sullo stesso processo produttivo, sarebbe un suicidio).
Beh, intanto non è detto che una nuova architettura debba necessariamente perdere la compatibilità con x86.
Eh, no, facciamola complessa e obesa anche questa per mantenere la retrocompatibilità in un mercato che non ne ha bisogno.
Poi anche gli altri che hai citato hanno dovuto effettuare cambiamenti radicali e non retrocompatibili; mi riferisco in particolare ad ARM, di cui ho parlato anche sopra.
Scusa, ma sembri non capire l'importanza della cosa: vuoi mettere ARM che perde la retrocompatibilità alla versione 2 della sua ISA nel lontano 1985 rispetto ad Intel che la perde nel 2014 quando tutto il mondo informatico si appoggia su un sistema operativo che gira esclusivamente su quella ISA?
Se lo farà è perché nel mondo mobile della retrocompatibilità con Windows classico non gliene può fregare nulla a nessuno. Tanto MS sui suoi Surface ci mette gli ULV.
Larrabee è stata progettata con la consulenza di mostri sacri nel campo della computer grafica. Gente del calibro di Abrash e Sweeney. L'obiettivo era quello di entrare nel mondo delle GPU, ma quella proposta era una soluzione troppo general purpose, pur con tutte le migliorie introdotte, incluse unità specializzate in alcuni ambiti.
[...]
Per questo motivo Larrabee è stata riadattata e ottimizzata per competere nel settore HPC, e mi sembra che qualche risultato lo stia raggiungendo, pur essendo arrivata da poco. In futuro sono previste novità che renderanno Xeon Phi ancora più interessante e competitiva.
Praticamente mi hai descritto la vita dello sviluppo di Larrabee, ma non come la intendevo io. A parte la pazzia di voler sostituire unità dedicate con unità general purpose (sempre per l'idea malsana che ha pervaso Intel sin dalla sua genesi, cioè che il general purpose fosse la panacea di tutti i mali), quello che è rimasto in mano a Intel è un cluster di unità x86 che hanno perso la loro natura di x86 per svolgere compiti prettamente da coprocessore come fossero delle FPU complesse rispetto alla CPU princiale a cui sono collegate.
Ora, 'sta storia della architettura stra conosciuta che permette migliore ottimizzazione e balle varie, per favore non svegliamola ogni volta che si parla di x86. Usati in quella maniera non sono né meglio né peggio di una schiera di unità di calcolo NEON, FPU generiche, unità vettoriali di una GPU, SPE cell o di core ARM. Infatti nessuno scrive per tale scheda in assembler per tutte e 50 le unità di calcolo separate, ma si usano librerie pre costituite o comunque API di comunicazione ià belle che pronte.
Chi si beve la storia che l'uso di vetusti core x86 con una mega unità Floating Point (che è quella che fa la differenza, non il restante 99% dell'ISA x86 che non serve a una pippa su questo marchingegno riciclato) siano la soluzione migliore possibile?
Negli anni abbiamo visto architetture comportarsi molto meglio degli x86 nel campo della computazione parallela e ora ci dobbiamo berci la fiaba che solo il fatto che i core x86 sono ben conosciuti (anche se stravolti in quella funzione di coprocessore) garantiscono una capacità di calcolo altrimenti impossibile? Dai su, i risultati parlano da soli, per fortuna. Sì certo, se scendiamo ancora di PP qualcosa miglioriamo, ma davvero, la speranza è che qualcuno crei una scheda acceleratrice general purpose che cancelli questa oscenità da 300W e mezzo km di mm^2 di silicio (se ci mettevano un Itanium magari ottenevano un risultato migliore peraltro riciclando ancora qualcosa che non ha funzionato come previsto).
Che abbia venduto poco IN AMBITO MOBILE ci può stare, ma... i netbook ti dicono niente? E poi cos'avrebbe di orribile?
I netbook sono stata la mossa commerciale più furba della storia che ha accalappiato un sacco di gonzi (come, erano così utili e fondamentali che oggi non esistono nemmeno più...). Fortuna che i tablet sono arrivati in tempo prima che trovassero anche quelle porte chiuse da abitudini e forma mentis completamente stravolte dal marketing Intel.
Cosa ha di orribile l'Atom? Dimmi una sola cosa che ha di positivo. E pensare che era il fiore all'occhiello di Intel per il basso consumo (con quel magnifico chipset che consumava quasi il doppio della CPU stessa). Per quanto mi stia sulle balle non smetterò mai di ringraziare Apple per aver dato più che una scossa al mercato e allo scempio portato dal monopolio Intel. Tu non vorresti che lo definissi tale, ma tale è a tutti gli effetti.
Miii s'è fatto tardissimo. :help:
Non ho tempo per rileggere tutto. Spero di non aver scritto troppe castronerie.
Buona notte
CrapaDiLegno
18-02-2014, 01:53
Per amore della precisione va detto che un 386 con una VGA era in grado di eseguire senza problemi effetti di transizione che un software come Scala metteva a disposizione, e anche di più complessi.
Il problema della VGA non era tanto nella mancanza di sincronismo al pennello elettronico (era possibile riconoscere l'inizio sia delle fasi di horizontal e vertical blanking; inoltre nello standard VGA/MCGA di IBM era persino prevista le possibilità di generare un interrupt all'inizio del vertical blanking, anche se poi tanti produttori di cloni non hanno implementato quest'utilissima funzionalità nelle loro schede video), quanto della mancanza del supporto ai genlock, ossia la possibilità di "marcare" un particolare colore dell'immagine generata come "buco" da poter "forare" per mostrare la grafica di una sorgente esterna.
Non servivano i coprocessori dell'Amiga allo scopo, quanto la funzionalità di ZD (Zero Detect) del colore della palette, che il chip video (Denise) metteva a disposizione.
Per il resto sono abbastanza d'accordo, anche se non sono dello stesso avviso per quanto riguarda il Cell.
Ma direi pure anche no alla questione 386 + VGA!
Allora come la mettiamo che non c'è stato gioco fino all'arrivo delle più potenti VGA anni e anni dopo che si poteva permettere la fluidità dello scrolling che Amiga possedeva? Forse tu Scala l'hai visto di sfuggita in qualche rivista. Facciamo che io estraggo il mio A1200 che ho ancora nell'armadio e a te permetto di estrarre anche un Pentium IV con una VGA dell'epoca e vediamo se scrolli a 50Hz fluidi senza perdere un colpo. A quell'epoca le VGA facevano fatica a spostare il cursore del mouse (che non era uno sprite HW), figuriamoci uno schermo intero... quando su Amiga era 1 solo, ma questa è un'altra storia.
Non facciamo revisionismo storico da questo punto di vista che divento una bestia. :oink:
Per il Genlock altra imprecisione: il genlock più famoso per Amiga è stato il VideoToaster e non usava certo i chip custom per fare il suo lavoro.
Per quanto riguarda il rilevamento del pennello... ehheheeh... guarda cosa può fare uno sputacchino di un chip con 3 istruzioni (tre, per davvero) che ha messo in crisi emulatori centinaia di volte più potenti della CPU da 7MHz dell'Amiga.
Sempre per ribadire che ad-hoc non è sempre equivalente a unità di calcolo complesso e poco flessibili, quindi mezze sprecate e avere potenza bruta in gran quantità non è sempre sufficiente per pareggiare anche il più piccolo HW custom pensato a dovere.
Sempre più tardi.. maledetto :D
Littlesnitch
18-02-2014, 07:16
@Crapa di Legno e cdimauro
Anche se crapa è un po di parte sono molto interessanti i vostri interventi, ma ve lo chiedo per favore un po di sintesi!!!:D :D :D
cdimauro
18-02-2014, 07:32
Ma direi pure anche no alla questione 386 + VGA!
Allora come la mettiamo che non c'è stato gioco fino all'arrivo delle più potenti VGA anni e anni dopo che si poteva permettere la fluidità dello scrolling che Amiga possedeva?
Perché cambi discorso? Anche nell'altro messaggio, quando si parlava dell'architettura x86 e il suo aspetto legacy, e hai tirato in ballo un intero SoC (quando, peraltro, avevo già discusso anche di questo nella parte che hai tagliato, e tu stesso hai disquisito in merito). Ma di questo ne parlerò quando avrò tempo per rispondere.
Atteniamoci, dunque, ai fatti (tecnici) di cui si è parlato.
Comunque non ho difficoltà a rispondere anche a questo. Riguardo alla fluidità dello scrolling che hai citato non serve né il 386 né una VGA, per giunta degli ultimi anni: sono sufficienti un 286 e una EGA. Presta bene attenzione a quello che è stato scritto: parliamo di "fluidità dello scrolling". Perché già con la EGA il chip video era in grado di scrollare (in hardware, ovviamente) lo schermo (visibile).
C'erano, infatti, registri dedicati che consentivano di impostare la posizione dello schermo (e del primo pixel visibile) all'interno della memoria video, che ovviamente era più grande dello schermo visibile. Infatti le schede EGA erano generalmente dotate di 256KB di memoria, anche se il classico schermo 640x350 a 16 colori visualizzato (ma questa era la risoluzione massima) ne richiedeva soltanto 110KB. Questo vuol dire che si poteva costruire uno schermo virtuale più grande, da fare poi scrollare comodamente (ribadisco: in hardware) "semplicemente" (non era semplice come su Amiga, eh! C'erano più registri da settare) impostando l'offset all'interno della memoria video e il pixel da cui partire (la quantità di scrolling iniziale). Ovviamente avendo l'accortezza di impostare la nuova posizione durante il vertical blanking, e dunque sfruttando l'interrupt apposito per le schede video che lo mettevano a disposizione, oppure in polling con la CPU.
Perché basterebbe un 286? Perché per realizzare quanto detto è sufficiente aggiornare soltanto le parti dello schermo che sono cambiate, e dunque non sei costretto a ridisegnare tutto. Cosa che, tra l'altro, facevi anche con l'Amiga, che non ha mai avuto abbastanza potenza di calcolo per ridisegnare tutta la grafica a ogni frame.
La VGA, essendo retrocompatibile con la EGA, funzionava allo stesso modo, anche se ovviamente metteva a disposizione un hardware migliore in termini di tavolozza dei colori (262144), numero di colori visualizzabili contemporaneamente (256), e risoluzione massima (640x480; ma a 16 colori).
Dunque TECNICAMENTE avere lo scrolling fluidissimo era perfettamente fattibile, anche su un hardware ben più scarso (a proposito: la EGA, e pure la VGA ovviamente, aveva i bitplane; come l'Amiga. La VGA ha poi aggiunto la modalità chunky / packed indexed a 8 bit).
Perché non è stato fatto nei giochi? Per una questione di opportunità e/o di scarsa conoscenza dell'hardware. Infatti il mercato dei giochi è stato appannaggio dell'Amiga fino ai primi anni '90, e per PC arrivavano per lo più conversioni raffazzonate. E c'era scarsa conoscenza dell'hardware, perché la documentazione tecnica su come funzionavano in dettaglio le schede video non era molto diffusa (leggi: paragonato ad Amiga, per la quale Commodore ha pubblicato il famoso Hardware Manual) ed era abbastanza complessa (niente a che vedere con la semplicità dell'Amiga). Non a caso è stato soltanto nei primi anni '90, dopo ANNi dalla commercializzazione della prima VGA, che Michael Abrash ha tirato fuori il famoso "ModeX", che ha consentito di sfruttare tutti i 256KB della memoria video con la modalità a 256 colori, oltre a permettere anche risoluzioni più elevate (fino a 360x480).
OK, mi sono dilungato anche troppo. Comunque se vuoi approfondire l'argomento grazie a internet trovi tonnellate di documentazione tecnica e anche esempi su come sfruttare per benino l'hardware del PC, già a partire con la EGA. ;)
Forse tu Scala l'hai visto di sfuggita in qualche rivista.
L'ho usato e conservo anche i floppy (copiati, come si usava all'epoca, purtroppo) in garage. Ma non è questo il punto: per ciò che stiamo discutendo si può anche fare a meno di provare personalmente Scala o qualunque altro software per Amiga.
Facciamo che io estraggo il mio A1200 che ho ancora nell'armadio e a te permetto di estrarre anche un Pentium IV con una VGA dell'epoca e vediamo se scrolli a 50Hz fluidi senza perdere un colpo. A quell'epoca le VGA facevano fatica a spostare il cursore del mouse (che non era uno sprite HW), figuriamoci uno schermo intero... quando su Amiga era 1 solo, ma questa è un'altra storia.
Non è così, e vedi sopra. Tra l'altro UAE girava, malamente nelle prive versioni ovviamente, già sui 486, ed emulava un intero Amiga, scrolling incluso.
Non facciamo revisionismo storico da questo punto di vista che divento una bestia. :oink:
Con me non corri questo pericolo. E poi puoi sempre verificare tutto quello che ho scritto. ;)
Per il Genlock altra imprecisione: il genlock più famoso per Amiga è stato il VideoToaster e non usava certo i chip custom per fare il suo lavoro.
Quale sarebbe l'imprecisione? Ti ho anche scritto come funzionava il genlock. Se prendi lo schema di un Amiga (quello del 2000 era incluso nel manuale, se non ricordo male, ma sono passati 25 anni ormai e potrei non ricordare bene) trovi perfino il pin ZD che esce da Denise e arriva alla porta RGB e nello slot video... Se non hai il manuale, puoi sfogliare "Amiga System Programmer's Guide", e troverai anche ampie spiegazioni su come funzionava la macchina.
Il VideoToaster senza il lavoro fatto da Denise poteva sognarsi di fare quel lavoro. Per lo meno a basso costo, visto che aveva già bello e pronto ciò che gli serviva (capire quando "bucare" lo schermo dell'Amiga, e sovrapporgli quello da lui generato).
Comunque sono curioso di capire cos'è che avrei detto di sbagliato.
Per quanto riguarda il rilevamento del pennello... ehheheeh... guarda cosa può fare uno sputacchino di un chip con 3 istruzioni (tre, per davvero) che ha messo in crisi emulatori centinaia di volte più potenti della CPU da 7MHz dell'Amiga.
Lo conosco molto bene. Col Copper ci suonavo pure la musica nei miei giochi. :cool:
Comunque non è il Copper che ha messo in crisi gli emulatori, ma l'emulazione cycle-exact. Il Copper viene emulato bene anche da un emulatore non molto accurato; è tutto il resto, se vuoi ottenere lo stesso risultato, che è pesante da emulare.
Sempre per ribadire che ad-hoc non è sempre equivalente a unità di calcolo complesso e poco flessibili, quindi mezze sprecate e avere potenza bruta in gran quantità non è sempre sufficiente per pareggiare anche il più piccolo HW custom pensato a dovere.
Sono d'accordo. E infatti è anche il motivo per cui i SoC ARM consumano poco. Ma di questo, come già detto, ne parlerò quando avrò tempo per rispondere all'altro messaggio. Oggi ho giornata pienissima; vedo se posso arrivarci domani.
Sempre più tardi.. maledetto :D
Beh, sempre meglio che leggere i commenti di gente qualunque che nei forum diventano premi Turing. :D In Italia ci sono 60 milioni di allenatori della nazionale; purtroppo. :stordita:
Almeno ravviviamo un po' il forum con qualcosa di più interessante. ;)
cdimauro
18-02-2014, 23:25
@Crapa di Legno e cdimauro
Anche se crapa è un po di parte sono molto interessanti i vostri interventi, ma ve lo chiedo per favore un po di sintesi!!!:D :D :D
Il problema principale è che la discussione ha innescato delle sotto-discussioni collegate che meritano il loro spazio. Comunque vedrò cosa potrò fare per non scrivere un altro papiro, quando avrò il tempo di rispondere.
Per il momento... buona notte.
P.S. E' difficile trovare una persona che non sia di parte, o comunque abbia delle simpatie. Con ciò non voglio dire che in questo modo non sia possibile discutere: l'importante è rimanere il più possibile all'interno dei fatti o di argomentazioni tecniche; poi gli altri utenti si faranno una propria idea, com'è giusto che sia. ;)
cdimauro
22-02-2014, 18:53
Rieccomi. Finalmente ho avuto anch'io un po' di tempo per rispondere.
Mii. sta diventando un romanzo... scusa se non rispondo a tutto, ma è tardi e la mente un po' offuscata.
Che affermazione lapidaria?
Questa: "Sì, ma le altre fonderie non vivono esclusivamente per il vantaggio che hanno rispetto alla concorrenza."
Come fai ad affermare che Intel vive esclusivamente col vantaggio delle sue fonderie?
Metti di non avere alcun progetto che possa realizzare vendite come quelle di ARM. Che le fai a fare le nuove fabbriche con nuovi processi produttivi se prima non hai ammortizzato quelle precedenti? Che al ritmo di vendita senza ARM vuol dire una ogni 5 o 6 anni.
Questo è un altro discorso rispetto alla frase che ti avevo quotato.
Comunque chi ti dice che non abbia già ammortizzato i costi degli aggiornamenti delle fabbriche e/o della costruzione delle ultime?
D'altronde, a TSMC non gliene frega nulla che l'ultimo SoC che sforna sia meglio o peggio dell'ultima CPU di Intel. Lei vende comunqe un fracco. E' Intel che si preoccupa del fatt che l'ultimo SoC ARM da la paga al suo ultimo SoC Atom o che la sua Xeon Phi prima versione fa figura del menga contro un'architettura a pari PP (quella nvidia, e su questo punto approfondisco dopo).
Scusami, dov'è che l'Atom le prenderebbe?
Riguardo a Xeon Phi, immagino ti riferisca a Knights Ferry, che è stato una sorta di prototipo, ed è finito soltanto in alcuni sistemi. Comunque dove starebbe la figuraccia?
Ecco qui http://archive.hpcwire.com/hpcwire/2010-08-05/compilers_and_more_knights_ferry_versus_fermi.html un bell'articolo (tecnico) che confronta Knights Ferry proprio con Fermi. A me pare che non esca così male; tutt'altro. Mi spieghi qual era il problema di questo prodotto?
Questo non vuol dire che non produca con l'ultimo PP quello che ritiene avere dei problemi di competizione.
Chi l'ha mai negato questo? Sei tu che hai affermato che Intel campa col solo vantaggio del più moderno processo produttivo.
Come detto Quark lo può fare a 1 nm e sempre vincolato nelle nicchie dell'embedded rimane. L'Itanium è morto già di per sé e lo potrebbe fare anche a 1um se non le servisse un metro quadro di silicio.
Non è infatti un caso che l'Atom è passato dall'essere realizzato con la penultima versione di PP alla prima.
Appunto, ma mica produce sempre con l'ultimo processo produttivo. Fino a poco tempo fa questo era esclusivo appannaggio dei suoi prodotti desktop; di recente lo sta usando anche per Atom e Xeon Phi, perché si sta espandendo in questo mercato e ritiene di averne bisogno.
Non no è normale, perché quando decidi quante fabbriche aggiornare (che costano miliardi, non noccioline) prevedi con accuratezza (per qunato puoio, non certo tirando i dadi) un certo numero di vendita. Inutile aggiornare 2 fabbriche se sai che una fabbrica aggiornata produce il doppio della precedente ma vai a vendere lo stesso numero di chip. Con i 22 nm Intel ha sforato il previsto, cercando partner terzi per riempire le fabbriche semi vuote, con i 14 ha sforato completamente riuscendo ad evitare di aprirne inutilmente una intera. No, non lo considero normale fare un progetto che prevede il doppio della produzione e poi arrivare alla metà. E no, non è nemmeno la crisi in generale. E' dato alla crisi del PC in particolare, causata da ARM che al contrario vende sempre di più e permette a TSMC di aprire fabbriche apposite snobbando altri mercati.
Permettimi: la realizzazione di una fabbrica viene pianificata qualcosa come 3 anni prima, se non di più. Se, arrivato al completamento, le condizioni sono cambiate, tu che fai? Continui ciecamente lo stesso a fare quello che avevi pensato molto tempo fa, oppure cambi strategia?
Quando le condizioni diventeranno favorevoli, vedrai la nuova fab verrà impiegata. Al momento non ha senso buttare soldi per mantenere qualcosa che non produce utili, ma che, al contrario, genererebbe perdite.
Anche con i 22nm non ha saturato la sua capacità produttiva. Il problema sinceramente non è che abbia sbagliato o ci abbia rimesso dei soldi per una fabbrica che non le serve, ma quanto le serve in termini di tempo per ammortizzare i nuovi processi produttivi se invece che vendere di più vende a ogni generazione la metà del previsto. Non bisogna stupirsi se i 14nm sono in ritardo di oltre 9 mesi (e i 22 lo furono di altrettanto se non ricordo male). Intel è un po' tra l'incudine e il martello. Mentre vorrebbe tirare avanti un po' l'arrivo del nuovo PP è però costretta a non fare troppo ritardo perché altrimenti perde in competitività.
Infatti il nocciolo della questione non è quello che si debba per forza di cose saturare la capacità produttive. Si può benissimo non raggiungere quest'obiettivo, ma ugualmente produrre utili e ammortizzare i costi di costruzione e/o aggiornamento delle fabbriche.
Coi 22nm Intel ha trovato il modo di renderlo proficuo, aprendo a produttori terzi (che non sono in competizione con lei). Coi 14nm la situazione è diversa, e i tempi non sono maturi per impiegare la nuova fabbrica. Sic. et simpliciter.
Quello che intenevo con il fatto che le altre fonderie non sono costrette a rincorrere un PP a tutti i costi. Al massimo ad incazzarsi saranno i clienti, ma alla fine si devono accontentare di quel che la fabbrica propone loro non essendoci alternative.
Mi pare ovvio. Non lo fa nemmeno Intel che, come già detto, non utilizza l'ultimo processo produttivo per tutti i prodotti che sforna...
Mi sa che hai preso un p' troppo alla lettera la mia affermazione. Rimane comunque il fatto che rispetto a quello che offriva Intel al tempo, i processori ARM erano delle calcolatrici poco più che evolute.
Se mi ripeti all'incirca la stessa cosa nella frase successiva, devo per forza prendere alla lettera quello che dici.
No, non è affatto così. La realtà è ben diversa.
Ti ho fatto già diversi esempi, alcuni pure ben noti. Vogliamo parlare dei prodotti Nintendo basati su ARM, tanto per farne qualcun altro? Il Game Boy Advance è del 2001, tanto per tirare in ballo un altro nome di spessore. Ma altri sull'utilizzo di ARM ne puoi trovare a iosa con una banale ricerca.
ARM ha una lunga tradizione di prodotti che impiegano i suoi processori, e per per dirla tutta quella delle calcolatrici mi mancava. Nel senso che è talmente poco nota che non ne ho mai sentito parlare; al contrario dei tanti altri impieghi.
Diverso il discorso dopo l'arrivo di Apple e l'iPhone nel 2008. Da lì l'accelerazione è stata sorprendente anche per Intel (vedi discorso Atom del 2008 fatto con PP vetusto già al tempo e chipset ancora peggiore che non fa certo pensare che Intel credesse in un arrembaggio di ARM in così breve tempo).
Mi spiace, ma ancora una volta non è così. ARM aveva già da tempo intrapreso quella che è una naturale evoluzione per i suoi prodotti, cioè offrire maggiori prestazioni, perché era quello che chiedeva il mercato e di conseguenza i suoi partner. Non ci voleva certo Apple per tutto questo.
Infatti il Cortex-A8 è stato presentato nel 2004, quando l'iPhone di Apple "non era nemmeno nella mente di dio", per citare un detto popolano delle mie parti.
L'A9, che è stato un enorme balzo avanti ed è la base delle successive micro-architetture votate alle prestazioni, è del 2009, e non arriva di certo a causa dell'iPhone, visto che era in programma già da tempo (progetti di questa complessità richiedono un bel po' di anni).
Per maggiori informazioni: http://www.arm.com/about/company-profile/milestones.php
Mica ho detto che Intel aveva in mano le redini di ARM, ma come ben sai di ARM puoi comprare l'ISA e implementartela come meglio credi ala Qualcomm.
INtel sicuramente avrebbe potuto contribuire non poco a realizzare il meglio dell'architettura ARM se avesse voluto. Certo che i cervelli non gli mancano (con tutto il rispetto per Qualcomm, ma Intel è un'altra categoria).
Giustamente, dal punto di vista di promozione della propria IP, abbandonare ARM è stata la mossa più giusta. Peccato che poi la propria IP si sia dimostrata insufficiente a tenere testa all'evoluzione che ARM ha fatto anche senza l'aiuto implementativo di Intel (ora però c'è Apple che sforna implementazioni di nota).
Non mi risulta che Qualcomm condivida la sua architettura e le IP sulle quale ha costruito la sua fortuna con le altre aziende che utilizzano ARM né tanto meno con ARM Inc.. Idem per Apple.
Continuo a non spiegarmi, quindi, quale apporto avrebbe potuto dare Intel ad ARM con le sue IP. Potresti farmi qualche esempio concreto?
Per il resto, e come già detto, negli ultimi tempi riesce a tenere testa ad ARM.
No cioè, aspetta, stiamo parlando di embedded fatto con le CPU moderne o quelle dell'anteguerra? No perché non è certo con le licenze egli 8085 e simili che Intel tirerà avanti il carretto.
Era un discorso generale, come generale era la tua frase da cui è scaturito il tutto: "Intel è sempre stata nel mercato embedded. Con scarsi risultati."
E' chiaro il core business di Intel è sempre stata la sua famiglia IA32, ma anche con 8085 s'è ritagliata il suo spazio nel mercato embedded. Un po' di anni fa, durante l'esplosione dei lettori DVD e in particolare di quelli che riproducevano DivX, potevi trovare l'8085 (in versione microcontroller ovviamente) impiegato allo scopo.
Senza contare che nell'embedded semi evoluto (che non sono gli 8 bit ma nemmeno sistemi ad alto carico computazionale) è sempre ARM a farla da padrona, visto che è inserita in qualche miliardo di dispositivi ogni anno (se Intel prendesse posto con il suo QUark di un centesimo di quel mercato sarebbe un trionfo).
Veramente il mercato è dominato da PowerPC, MIPS, e AVR. ARM ha la sua sostanziosa fetta di mercato, senz'altro, e continua a crescere (infatti PowerPC è in discesa e i produttori di processori embedded hanno già abbracciato ARM).
Tutt'altro. A meno di non parlare di forniture militari, il costo dei componenti per l'embedded di consumo (compreso quello delle auto) è a prezzi stracciati. Ho esempi di fornitori che si offrono di forniture gratis pur di entrare in qualche modo nel mercato o nel settore e sperare di recuperare poi con pubblicità o con forniture future. In questo campo non puoi arrivare con micro che costa 1 euro in più della concorrenza e giustificarlo con "ma il mio va più veloce" se a me della velocità non me ne frega nulla (nell'embedded contano mille altre cose prima delle pure prestazioni).
Il settore embedded è molto vasto, come sicuramente sai, ma quando hai bisogno anche di prestazioni i prodotti non li trovi più a prezzi stracciati. Dai un'occhiata a Freescale, che è leader mondiale in questo campo, e vedi un po' quanto si fa pagare i suoi SoC PowerPC "non banali".
Ermm..non mi pare che vi siano architetture Power8 nell'embedded. E come ho detto è sempre una questione di prezzi: se IBM ha il processore migliore ma lo vende a un prezzo superiore a quanto può Intel (per una semplice ragione di economia di scala) IBM non riuscirà mai a piazzare sul largo mercat l sue soluzioni: Intel sta a IBM esattamente come ARM sta a Intel. In mercati differenti, ma la sostanza è la stessa.
Scusami, la nuova roadmap del consorzio Power è stata presentata lo stesso giorno dell'annuncio del POWER 8, per cui m'è scappato quest'ultimo nel discorso che stavamo facendo. Trovi entrambe le notizie nei rispettivi link:
https://www.power.org/documentation/power-org-power-architecture-silicon-roadmap-update-2013/
https://www.power.org/documentation/power-roadmap-power8/
E' il primo che parla della perdita di quote di mercato dell'architettura PowerPC (POWER ormai da tempo ha un'ISA PowerPC-compliant, e i due termini sono divenuti intercambiabili) a favore di Intel e ARM.
Ovviamente nella barca dei PowerPC non c'è solo IBM, ma tanti altri produttori, che non vendono i loro chip a peso d'oro.
E guarda caso mai più replicato....
Da Samsung per quel prodotto sì, ma non è vero in generale. Ne parlo meglio dopo.
Intel non si espanderà mai nel mercato Android perché non ha la sufficiente dinamicità per adeguarsi alle moltitudini di necessità dei diversi costruttori e dispositivi. NOn offre nulla che ARM già non offra (anzi parlando di connessione, pure di meno). Ha speranza solo per quanto riguarda i dispositivi Widows based dove non c'è alternativa. Ma non mi sembrano stiano facendo questo sfacelo.
Invece è proprio quello sta facendo: si espandendo anche nel mercato Android, e punta molto proprio su questo campo, tant'è che a breve arriverà anche la versione a 64-bit di questa piattaforma mobile. Ma anche di questo ne parlo meglio dopo.
Ah, non ha importanza se non ha realizzato con l'ultimo PP, conta il fatto che con Knight Ferry a 45nm ha preso sonore bastonate da Fermi realizzato con un processo produttivo a 40nm (bulk e non come quello avanzato di Intel comunque).
Mi faresti vedere dov'è che avrebbe preso bastonate? Intanto guardati quel link che ho postato prima, che dipinge una realtà ben diversa da quella che hai presentato.
A 22 nm è riuscito a pareggiare i conti, ma Kepler rimane più efficiente comunque. E si parla di numeri di computazione vera realizzati tramite i benchmark, non di numeri sulla carta.
E vediamoli pure questi benchmark. Ne hai qualcuno sotto mano?
Nel frattempo qualcosa te la propongo io: http://www.xbitlabs.com/news/other/display/20120408115240_Intel_Knights_Corner_MIC_Supercomputer_Chip_In_Great_Shape.html
Mi permetto di riportare un pezzo della notizia:
"Intel's Knights Corner accelerator has over 50 cores and delivers 1TFLOPS of double precision floating point performance, as measured by the double-precision, general matrix-matrix multiplication benchmark (DGEMM). Currently the most powerful special purpose highly-parallel accelerator is Nvidia Tesla 2090, which boasts with 665GFLOPS (0.665TFLOPS) of peak performance, which is considerably below peak performance of Intel's KNC."
Sì, si vedono proprio le sonore bastonate che prende Xeon Phi...
Scusa ma non credo ci siamo intesi. I numeri sono quelli dei benchmark che si usano per decretare ufficialmente la potenza di calcolo reale di una architettura. Kepler bastona sonoramente la Xeon Phi di ultima generazione anche se è realizzato con un PP ben più scarso.
Premesso che aspetto di vedere questi benchmark, mi sfugge quale sarebbe questa metrica "ufficiale" per valutare la potenza di calcolo di un'architettura: puoi darmi qualche informazione più precisa? Esiste un comitato che ne ha definito le specifiche? Chi è? Quali sono i parametri? E, soprattutto, com'è che tutto ciò sarebbe divenuto "ufficiale"?
Maxell, che è realizzato sullo stesso PP di Kepler pota di suo già diverse ottimizzazioni all'architettura interna degli SMX. Spariscono le unità di calcolo DP separate, solo per dirne una, e lì di Watt se ne risparmiano non pochi, oltre che a permettere più unità di calcolo per superficie, cosa che Intel ha problemi realizzare viste le dimensioni non proprio contenute del suo chip per HPC. E non stiamo considerando le famose unità ARM aggiuntive che dovrebbero aumentare l'efficienza computazionale in generale, portando il valore reale dei GFlops più vicino a quello teorico (e quello teorico della GPU nvidia sta un bel pezzo sopra quello teorico Intel)
Proprio sugli ARM aggiuntivi dubito fortemente che Maxwell possa contare per aumentare i GFLOPs di Maxwell.
IMO gli ARM verranno utilizzati come piccoli processori di controllo, similmente a quanto fa Xeon Phi, che in genere riserva una core per la gestione del sistema & interfacciamento con l'host.
Che vuol dire a parità di energia l'efficienza aumenta. Quindi forse con i 14nm Inte tornerà a pareggiare, giusto perché nvidia non ha a disposizione i 20nm questo giro. Il problema è che i 16nm sono previsti per l'ano prossimo per TMSC... quando è previsto il prossimo step per Intel? Nel 2018-19? A questi ritmi credo che sarà così.
Maxwell dovrebbe raddoppiare all'incirca le prestazioni rispetto a Tesla, com'è sempre avvenuto in passato fra un prodotto e il suo predecessore.
Già adesso Knights Corner offre prestazioni quasi doppie rispetto al suo concorrente diretto, per cui avrà poco da temere. Aggiungiamo che quest'anno arriverà anche il suo successore presentando diversi miglioramenti, pur rimanendo sempre a 22nm, quindi è tutt'altro che scontato il fatto che nVidia possa riprendersi lo scettro di soluzione HPC più performante.
Riguardo al raggiungimento delle prestazioni teoriche non vedo come si potrebbe fare. Se hai idee in merito, esponile pure. Comunque ne parlo brevemente dopo, sull'argomento Larrabee.
La taglio breve così evitiamo di menare il can per l'aia... se Intel non ha problemi di
1.decoder che consuma poco in termini di spazio e energia
E' tutto rapportato al numero di transistor per core, come già detto.
2.di registri che ne ha in abbondanza e usa con efficienza
Registri ce ne sono diversi e di diverso tipo; come per le altre architetture. A cosa ti riferisci esattamente?
3.di cache che ne ha in abbondanza e di velocità supersonica (che gli altri i sognano, persino AMD che non è l'ultima arrivata)
Anche gli altri si difendono bene, ARM inclusa.
4.di banda verso la RAM dato che usa 2 canali (la maggiorn parte dei SoC ARM ne usano uno) e di densità di codice dato che CISC vs RISC
Anche qui dipende dalla particolare soluzione. Ci sono piattaforme da 1/2/3 canali.
4. di unità di calcolo sia INT che FP
Come gli altri.
5.di branch prediction unit che sono decisamente più evolute di quelle ARM
Non in tutti i prodotti. Queste unità sono particolarmente costose in termini di transistor e potenza consumata, per cui si scelgono in base al budget a disposizione e agli obiettivi.
cosa impedisce a Intel di fare un SoC x86 che sia quantomeno efficiente quanto un SoC ARM a pari PP?
Ora vorrei capire questa cosa. Forse ARM usa qualche pozione magica sui suoi die che li rende particolarmente migliori rispetto a quello che dovrebbero essere sulla carta? Non capisco: Intel è meglio di qui, no ha problemi di là, vince di qui, sborona di là, e poi immancabilmente presenta dei prodotti che non reggono il mercato. Cosa rende un SoC ARM migliore di una Intel dunque?
Qui, come dicevo nell'altro messaggio, hai cambiato completamente discorso tirando in ballo l'intero SoC, quando si parlava dell'architettura del processore.
Sul SoC, nella sua interezza, ne ho parlato esplicitamente io, e anche tu hai ne hai discusso pure con gli altri parlando delle unità specializzate.
Che evidenzia come per 4 anni Intel sia andata in buca cercando di presentare il prodotto migliore sotto il punto di vista tecnologico. Se lo fosse stato avrebbero fatto la corsa per prendere il SoC Intel, no?
No, è una questione di volumi: non sono sufficienti quelli raggiunti finora, per cui Intel ha deciso di spingere il piede sull'acceleratore.
Ermm, a parte i telefoni sovvenzionati non mi viene nulla in mente... diversi quanti sono? Smartphone e tablet ARM hanno toccato quota un miliardo quest'anno.... giusto per avere un termine di paragone....
Perché cambi discorso, tirando in ballo il numero di pezzi venduti, quando si stava parlando del numero di dispositivi che integrano processori Intel?
Riguardo a questo trovi qualcosa qui:
http://www.intel.com/content/www/us/en/smartphones/smartphones.html
http://www.intel.com/content/www/us/en/tablets/tablets-atom.html
E non teniamo conto delle soluzioni basate su core non-Atom, che pure sono presenti nei tablet.
Non è tutta roba recente, e dunque sovvenzionata.
:rotfl: :rotfl:
No, dai qui le faccine ci stanno tutte. Oltre 2 anni per vendere forse e dico forse 5 milioni di pezzi e tu dici che la situazione Surface non dimostra come sta la situazione? Spero per Intel che questo non fosse il suo target di quote di vendita, altrimenti altro che avere le fabbriche in idle... forse non hai ben compreso le dimensioni del mercato mobile... un miliardo diviso 5 milioni (e sono buono prendo anche i pezzi venduti l'anno scorso) = 2000 (ho dovuto prendere la calcolatrice per tanti sono gli zeri di differenza). Cioè Intel ha venduto 2000 mila volte in meno di ARM in un anno e questo sarebbe una situazione positiva? O non ho capito o qualcosa non va con la definizione di "situazione drammatica" per Intel.
No Windows no x86. In entrambi i sensi, cioè se non vendi Windows Intel non decolla ma se non hai bisogno di Windows Intel la puoi lasciare a terra senza rimpianti.
Non sono io che non capisco le definizioni: sei tu che, al solito, cambi discorso quando si parlava di tutt'altro. Nuovamente tiri in ballo il numero di pezzi venduti, quando la mia frase era riferita a questo:
"questo non significa avere un tablet che pesa 1 kG perché la batteria deve essere grande per garantire una autonomia decente da portarsi sempre appresso e lo schermo è lo stesso che si usa in ufficio"
SurfacePro rientra oppure no in questa tua definizione? Sii chiaro, cortesemente.
Guarda non so cosa tu pretenda, o se anche a te piace guardare le barrette colorate senza dar loro un senso: io ho un tablet con un vetusto Tegra2. Dual core 1GHz, vecchia architettura Cortex-A9. E forse neanche quella meglio implementata. Quando uso il brower navigo senza problemi e quando mi collego a GoggleDrive riesco a usare il programma senza cader addormentato.
Con Intel risparmierei qualche millisecondo dei millisecondi in più che i core ARM impiegano per fare quei lavori? Ma sicuro. Mi cambia la vita? Nemmeno per sogno. Mi rende più produttivo. Nemmeno per idea, dato che il tablet non lo uso per essere produttivo. Riesco a leggere HWUpgrade? Certo. Per oltre 6 ore di filate con la batteria carica. E quindi tutto il discorso su cosa dovrebbe essere meglio e perché dove cade?
Come detto tante volte in nulla. Non conta presentarsi con una soluzione che costa di più anche se da di più.
Cosa "pretendo" l'avevo già esposto nel precedente messaggio, in cui avevo presentato uno scenario reale (e non "numeri teorici", come avevi poi replicato).
E no, non si tratta di risparmiare millisecondi, proprio perché scenari come quelli dipendono molto dalle prestazioni su single core/thread.
Poi è ovvio che dipende tutto da quello che ciascuno, personalmente vuole fare, ma se mi dici a te un Tegra 2 basta, salvo poi osannare il Tegra 4 in un altro thread, beh, allora c'è qualcosa che non mi quadra. Infatti, da qui http://www.hwupgrade.it/news/tablet/tegranote-con-tegra-k1-appare-ancora-su-antutu-ottimi-risultati-ma-niente-record_51059.html :
"Un bel tabettone con quel coso potrebbe davvero essere il giusto copromesso tra portabilità e produttività."
Delle due l'una: o il tuo Tegra 2 va bene e dunque il 4 è inutile, oppure il 2 non basta e il 4 consentirà finalmente di essere più produttivi.
In ogni caso se fosse come dici tu non si capirebbe perché ci sarebbe tutta questa corsa alle prestazioni. Infatti non è così, e ti smentisci da solo con quello che hai detto sul Tegra 4. :read:
Ripeto, se Intel non avesse problemi con l'obesità dell'architettura x86 avrebbe già sfornato un SoC piccolo quanto quelli ARM. Invece si ritrova con SoC enormi che pareggiano l'efficienza (ma non i costi purtroppo per Intel) solo perché realizzati con n processo produttivo migliore.
Su questo ti ho già risposto: stai confrontando SoC che integrano componenti diverse, e tra l'altro individui nella dimensione dei core all'architettura x86 l'origine di tutti i mali, senza presentare alcun dato a riguardo. Hai qualche informazione sulla dimensione die occupata da una soluzione Intel e da una ARM comparabili (cioé che se la giocano all'incirca allo stesso modo)? Così potremmo finalmente fare un confronto con un dato concreto proprio su questo punto.
Ma guarda, per quanto riguarda il multicore con me sfondi una porta aperta. Dopo 2 core, è difficile creare potenza di calcolo in maniera gratuita come vorrebbero far credere i benchmark a cui tutti i gonzi che credono di capire qualcosa di tecnologia abboccano come alborelle al grappolo di ami.
C'è gente che sceglia il proprio telefono guardando i bench, se la lineetta colorata è un millimetro dietro o avanti all'altro.
La colpa non è tutta degli utenti: a volte sono anche i s.o. a non essere ben ottimizzati.
Comunque s'è anche alzata l'asticella: il software è sempre più complesso, e richiede quindi più risorse. Logica conseguenza di ciò è l'adeguamento dell'hardware. Vedi, ad esempio, una certa nVidia che, proprio per questo motivo, ha sdoganato su mobile quello che fino a qualche tempo era riservato al desktop. E non per capriccio, ma perché c'è richiesta (reale; non teorica) di maggiori prestazioni anche in ambito mobile. Questo, peraltro, non sono io a dirlo, ma l'ha fatto qualcun altro... ;)
Ancora non ci siamo capiti. TMSC non ha messo a disposizione di nvidia e AMD un bel nulla di nuovo. Li lascerà ancora con i 28nm per almeno 6 mesi, il che farà 30 mesi con lo stesso processo produttivo. I nuovi 20nm, che suppongo non le siano costati poco, sono riservati esclusivamente per la produzione di SoC ARM. Stiamo dicendo che TMSC ha fatto un intero prcesso produttivo (con una sola variante) che a quanto pare sarà completamente ammortizzata dalla vendita dei SoC ARM che prourrà (forse compresi o solo quelli Apple?).
Come se Intel dicesse, ho realizzato i 14nm solo ed esclusivamente per gli Atom, il resto continuerò a produrlo a 22nm fino all'arrivo dei 10nm. Sarebbe un segnale di salute finanziaria e di mercato mostruosa. Invece fatto da TMSC è vista malamente perché lascia noi appassionati senza nuove GPU per altri 6 mesi come minimo.
Infatti non era chiaro; mi mancavano le informazioni che hai riportato adesso.
A mio avviso TSMC si sta preparando per la nuova commessa di Apple. Infatti giusto questa settimana è arrivata una "bella" notizia in merito: http://www.hwupgrade.it/news/apple/rumor-samsung-tagliata-fuori-da-a8-niente-supporto-a-lte-integrato-nel-soc_51057.html
Da notare come Qualcomm continui a rimane l'unico produttore a integrare l'LTE nello stesso SoC.
Un giorno mi dirai quali sono le carte alternative a disposizione di Intel al di fuori delle sovvenzioni o della corruzione.
Corruzione? Hai delle prove in merito? Perché si tratta di accuse molto gravi, che vanno ben oltre il diritto di critica e di libero pensiero.
Riguardo alle sovvenzioni, come già detto è cosa recente, con l'obiettivo di accelerare la diffusione delle sue soluzioni.
Tecnicamente io non vedo alcuna possibilità di farcela contro l'armata ARM. Poi magari Intel l'anno prossimo ci stupisce tutti ed esce con qualcosa di veramente innovativo ed efficace (termine che contiene tutto quello che le serve per sfondare). Intanto devo aspettare ancora 12 mesi (o forse 18) prima di vedere qualcosa di nuovo da parte loro, mentre da questa parte c'è un fermento che metà basta (la curiosità per il K1 di nvidia e per i futuri SoC per server da parte un po' di tutti è enorme).
Ho già esposto le mie considerazioni in merito nei miei precedenti messaggi. Un giorno = già fatto.
Ma quale "averci pensato troppo". Sono stati presi con le braghe calate, come si dice. Non se lo aspettavano proprio.
Cosa non ti è chiaro del fatto che Apple abbia bussato alla porta di Intel per il suo iPhone, e che sia stata Intel a rifiutare di produrle un chip economico?
Di quali "braghe calate" stai parlando, visto che all'epoca di quella vicenda non esisteva né il concetto di smartphone come lo intendiamo oggi né tanto meno quello di tablet?
L'Atom originale, quello dei netbook, era il meglio che Inetl offriva per il basso consumo. Rendiamoci conto come questa compagnia ha ritardato l'evoluzione informatica per anni dopo che ha eliminato la concorrenza con metodi più o meno legali!
Evidentemente non era tutto questo disastro, se Apple è andata a bussare alla porta di Intel per infilarlo addirittura in uno smartphone...
Non possiamo che ringraziare ARM per non aver mollato (e sopravvissuto proprio nel mondo embedded che fortunatamente non necessita né di Intel né di Windows) e devo dirlo, di Apple che l'ha sdoganata per davvero. Se non fosse stato per questa combinazione avremmo ancora un Atom fatto leggermente meglio del l'originale giusto per contrastare l'altra schifezza prodotta da AMD e un embedded basato ancora su terminali lentissimi per evitare troppi consumi.
Veramente Atom è nato per il settore dell'extreme mobile, ma non degli smartphone: dei PC. Dunque roba come i netbook, per l'appunto. Ciò nonostante Apple pensava di impiegarlo per l'iPhone, e dunque poteva essere utilizzato anche in questo settore.
Poi non capisco ARM cos'avrebbe dovuto mollare, visto che DA ANNI prosperava già nei telefonini, nei PAD, ed era alla base dei Pocket PC. Questo giusto per rimanere nell'ambito del mobile smartphone / tablet.
Poi nulla da dire che la concorrenza abbia portato ad Atom migliori, ma mi sembra che il contesto storico fosse decisamente diverso da quello che vorresti dipingere.
Diciamo per prima cosa che gli smartphone hanno superato i feature phone perché il divario di prezzo è ormai zero e i feature phone come ecosistema sono morti da tempo. O fai solo telefonate e SMS e vai di cellulare classico (che ancora vende e resiste) o se vuoi qualcosa di più non puoi fare a meno di un sistema che usi Internet per tutto quello che può, dal browser passando per Whatsapp o simlia, per Skype, servizi Google, Dropbox senza tralasciare i giochini vari e i servizi dei vari store. I feature phone oggi sono come comprare una Panda con 3 ruote al prezzo di una Golf full accessoriata. E' logico che non hanno più alcun senso.
Hanno comunque una notevole quota di mercato, proprio perché il divario di prezzo non è zero e c'è tanta gente che continua a usare il telefonino per... telefonare; con l'SMS che rappresenta già qualcosa di più.
Poi, come dicevo anche prima, il punto è che l'utenza è ormai abituata ad avere di più. Ed è anche il motivo della corsa alle prestazioni...
Eh, non è che questo inseguimento le costi zero, sopratuttuo per i costi di R&D che non vengono di certo coperti dal quantitativo esiguo di pezzi venduti.
Atom non viene utilizzato esclusivamente in ambito mobile. Va molto bene anche nel mercato dei micro-server e dei data center, a motivo delle ottime prestazioni e dei consumi ridotti; settori che sono in costante crescita e in cui ARM ha giusto qualche briciola.
Per dirti come è cambiato lo scenario, prima del boom di ARM Intel stava pensando di farsi fare gli Atom da una fonderia terza.
Mi sembra che queste fossero soltanto voci.
Ora è il contrario, sta cercando qualcuno che venga a occuparle i macchinari (ma che poi non le faccia concorrenza diretta con una architettura migliore realizzata sullo stesso processo produttivo, sarebbe un suicidio).
Non credo ci sia pericolo per questo. Infatti Intel ha aperto agli FPGA, ma non alla concorrenza diretta.
Eh, no, facciamola complessa e obesa anche questa per mantenere la retrocompatibilità in un mercato che non ne ha bisogno.
Scusami, ma come fai a sostenere questa tesi? Potresti spiegarmi per quale motivo un'architettura in grado di garantire retrocompatibilità debba per forza essere complessa? Che poi passi il termine complesso, perché ci potrebbe stare, ma obeso dipende strettamente dalla dimensione del core, come già ripetuto diverse volte.
Comunque in base a quali motivazioni tecniche fai queste affermazioni?
Io te ne potrei fare un paio di esempi, uno pure piuttosto vecchio, che dimostrano l'esatto contrario. E un altro molto recente; nuovo di zecca. Ma al momento preferisco aspettare le tue argomentazioni in proposito. ;)
Scusa, ma sembri non capire l'importanza della cosa: vuoi mettere ARM che perde la retrocompatibilità alla versione 2 della sua ISA nel lontano 1985
Ricordavo male: è stata la v3 a introdurre la nuova ISA a 32-bit, nel 1992. Quindi ben SETTE anni dopo la prima versione, e dopo che Acorn aveva già realizzato parecchie macchine (Archimedes) e versioni del s.o. che ci girava sopra (RiscOS; prima ancora di questo vi fu Arthur).
Ne ha avuto di tempo per sistemare l'errore madornale che aveva commesso...
rispetto ad Intel che la perde nel 2014 quando tutto il mondo informatico si appoggia su un sistema operativo che gira esclusivamente su quella ISA?
Senz'altro il peso sarebbe diverso, ma bisognerebbe anche vedere in che modo potrebbe essere realizzata la nuova architettura.
In ogni caso rimane il fatto concreto: altre architetture hanno già presentato nuove ISA che hanno rotto la compatibilità col passato. Non si sono levate grida di scandalo all'epoca, ed è incomprensibile perché lo si dovrebbe fare adesso, e soltanto se fosse Intel a farlo: due pesi e due misure?
Se lo farà è perché nel mondo mobile della retrocompatibilità con Windows classico non gliene può fregare nulla a nessuno. Tanto MS sui suoi Surface ci mette gli ULV.
Non ci sarà questo pericolo, anche perché su mobile sono appetibili le soluzioni 2-in-1, come ho già detto prima.
Praticamente mi hai descritto la vita dello sviluppo di Larrabee, ma non come la intendevo io. A parte la pazzia di voler sostituire unità dedicate con unità general purpose (sempre per l'idea malsana che ha pervaso Intel sin dalla sua genesi, cioè che il general purpose fosse la panacea di tutti i mali),
Veramente Intel ha introdotto apposite unità dedicate / specializzate, per gestire in maniera migliore specifici ambiti delle GPU (texture et similia).
Inoltre ha introdotto un'unità vettoriale (SIMD) nuova di zecca proprio per gestire meglio la tipologia di codice generalmente eseguito dalle GPU.
In tutto ciò x86 (x64 in realtà) riveste il ruolo di componente scalare & di controllo, che nelle GPU è gestito da unità dedicate / specializzate.
Dove starebbe quindi lo scandalo? Che per realizzare quel tipo di lavoro (ribadisco: calcolo scalare & di controllo) abbia usato ciò che aveva già in casa? Perché non avrebbe dovuto farlo, visto che queste componenti nelle GPU più moderne stanno diventando sempre più simili a un normale processore? Tant'è che vedremo dei processori ARM in futuro integrati nelle GPU proprio per questi compiti...
Che poi la cosa fa un po' ridere, perché nVidia e AMD hanno fatto lo stesso (anzi) con le GPU, adattandole & riciclandole per il settore HPC. Ma immagino che in questo caso sia tutto lecito, vero? :O
quello che è rimasto in mano a Intel è un cluster di unità x86 che hanno perso la loro natura di x86 per svolgere compiti prettamente da coprocessore come fossero delle FPU complesse rispetto alla CPU princiale a cui sono collegate.
Bene: è proprio quello che serve in questi scenari. Infatti, come dicevo sopra, è una strada (non basata su x86) che seguiranno anche gli altri, nVidia inclusa.
Qual è il problema?
Ora, 'sta storia della architettura stra conosciuta che permette migliore ottimizzazione e balle varie, per favore non svegliamola ogni volta che si parla di x86. Usati in quella maniera non sono né meglio né peggio di una schiera di unità di calcolo NEON, FPU generiche, unità vettoriali di una GPU, SPE cell o di core ARM. Infatti nessuno scrive per tale scheda in assembler per tutte e 50 le unità di calcolo separate, ma si usano librerie pre costituite o comunque API di comunicazione ià belle che pronte.
Chi si beve la storia che l'uso di vetusti core x86 con una mega unità Floating Point (che è quella che fa la differenza, non il restante 99% dell'ISA x86 che non serve a una pippa su questo marchingegno riciclato) siano la soluzione migliore possibile?
Negli anni abbiamo visto architetture comportarsi molto meglio degli x86 nel campo della computazione parallela e ora ci dobbiamo berci la fiaba che solo il fatto che i core x86 sono ben conosciuti (anche se stravolti in quella funzione di coprocessore) garantiscono una capacità di calcolo altrimenti impossibile? Dai su, i risultati parlano da soli, per fortuna. Sì certo, se scendiamo ancora di PP qualcosa miglioriamo, ma davvero, la speranza è che qualcuno crei una scheda acceleratrice general purpose che cancelli questa oscenità da 300W e mezzo km di mm^2 di silicio (se ci mettevano un Itanium magari ottenevano un risultato migliore peraltro riciclando ancora qualcosa che non ha funzionato come previsto).
Quella che riporti è la stessa tesi che un ingegnere nVidia s'è sentito di dover riportare nel blog ufficiale dell'azienda: https://blogs.nvidia.com/blog/2012/04/03/no-free-lunch-for-intel-mic-or-gpus/
Si potrebbe pensare: allora è proprio vero che sia così! Poi basta leggere i commenti, per capire che l'attacco portato non è che fosse così solido; tutt'altro. E a mio avviso rappresenta, invece, uno sfogo, una sorta di mettere le mani avanti perché, al contrario di quello che dici, i risultati di Xeon Phi ci sono, eccome. E dunque nVidia teme il nuovo concorrente che è arrivato nel suo lucrativo mercato HPC, e cerca di minimizzarlo o screditarlo.
Sì, per spremere dei bestioni del genere si usano librerie e API già pronte, ma... non è così semplice. Questi sono dei mattoncini che sono nelle mani degli sviluppatori, che devono usarli per costruire i LORO, SPECIFICI, software. E questo lavoro non te lo fa né Intel né nVidia né AMD o altri: è tutto a carico degli sviluppatori.
Qui viene il bello: spesso chi deve scrivere codice NON è un programmatore professionista, ma è un fisico, ingegnere meccanico, chimico, ecc. che è COSTRETTO a farlo per ottenere degli strumenti o delle dimostrazioni per il proprio campo. Gente che magari ha ereditato o già scritto pezzi di codice in C, C++, o Fortran, e che non ha nessuna voglia di riscriverlo per farlo girare su una GPU, mentre è MOLTO interessato a una semplice ricompilazione o ad aggiungere qualche direttiva al compilatore per rendere il proprio codice immediatamente adattato per sfruttare la potenza di calcolo di queste massicce unità di calcolo.
Prova a chiedere a un astrofisico se gli piacerebbe di più riscrivere in CUDA il suo codice C++ o Fortran che calcola gli autovalori di matrici 10000x10000, oppure se preferisce include la MKL di Intel per avere automaticamente supportato Xeon Phi, o ancora aggiungere qualche direttiva (#pragma o !OMP, a seconda che sia C++ o Fortran) se non ha usato librerie standard ma ha scritto codice apposito, e vedi un po' cosa ti risponde. No, non è un esempio inventato: questi sono casi reali, e sono situazioni molto comuni per chi lavora in ambito HPC.
Peraltro nVidia non ha nemmeno un compilatore Fortran da mettere a disposizione, e ti assicuro che questo linguaggio è ancora usatissimo in quest'ambito. Mentre Intel offre uno dei migliori compilatori al mondo, che ovviamente supporta anche le estensioni parallele standard (e non) del linguaggio.
Questo rimanendo soltanto in ambito di librerie e linguaggi, ma poi ci sono anche tool di supporto per il profiling, l'ottimizzazione, e il debugging. Anche qui, Intel offre pacchetti software che coprono tutte le esigenze degli sviluppatori per rendere loro vita più semplice. Non basta, insomma, scrivere soltanto codice per realizzare un progetto; come non basta soltanto avere a disposizione una scheda che macina GFLOPS per ottenere dei risultati. La tua è una visione troppo semplicistica, e peraltro ben lontana dalla realtà.
Com'è pure ben lontano dalla realtà che sia semplice arrivare ad avvicinarsi a sfruttare la potenza teorica messa a disposizione da una GPU...
A questo punto vorrei capire una cosa, però: parli per sentito dire o ciò che hai riportato prima è frutto di qualche studio e/o esperienza in materia e/o lavoro in quest'ambito?
I netbook sono stata la mossa commerciale più furba della storia che ha accalappiato un sacco di gonzi (come, erano così utili e fondamentali che oggi non esistono nemmeno più...). Fortuna che i tablet sono arrivati in tempo prima che trovassero anche quelle porte chiuse da abitudini e forma mentis completamente stravolte dal marketing Intel.
Cosa ha di orribile l'Atom? Dimmi una sola cosa che ha di positivo. E pensare che era il fiore all'occhiello di Intel per il basso consumo (con quel magnifico chipset che consumava quasi il doppio della CPU stessa).
Ti rispondo per un articolo che scritto in merito, un po' di anni fa: http://www.appuntidigitali.it/10073/cosa-non-posso-fare-col-mio-netbook/
Per quanto mi stia sulle balle non smetterò mai di ringraziare Apple per aver dato più che una scossa al mercato e allo scempio portato dal monopolio Intel. Tu non vorresti che lo definissi tale, ma tale è a tutti gli effetti.
E' una posizione dominante, lo sai. Comunque proprio Apple è andata a bussare alla porta di Intel, che poteva offrirle proprio il tuo odiato Atom. Dovresti chiederti il perché, visto che faceva così schifo.
Miii s'è fatto tardissimo. :help:
Non ho tempo per rileggere tutto. Spero di non aver scritto troppe castronerie.
Buona notte
Mi spiace per aver tardato tanto per la risposta, ma non ho avuto proprio tempo, e peraltro questo messaggio mi ha richiesto parecchie ore.
Mi scuso anche con Littlesnitch, ma non sono riuscito a rimanere sintetico. Purtroppo si è parlato di tante cose, e non sono il tipo da affrontare grossolanamente certe problematiche; poi sono particolarmente pignolo, non mi piace lasciare nulla al caso, e preferisco la chiarezza al dubbio. Comunque siamo nel fine settimana, per cui c'è un po' di tempo libero a disposizione per leggere questo papiro. :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.