View Full Version : Cresce il fatturato ma ancora una lieve perdita per AMD nel Q2 2014
Redazione di Hardware Upg
18-07-2014, 07:37
Link alla notizia: http://www.businessmagazine.it/news/cresce-il-fatturato-ma-ancora-una-lieve-perdita-per-amd-nel-q2-2014_53277.html
Continua l'operazione di riorganizzazione di AMD che chiude il secondo trimestre 2014 con un fatturato in crescita ma un risultato netto negativo per 36 milioni di dollari. Buoni dati dalle vendite di SoC semi-custom ma non entusiasmanti i risultati provenienti da GPU e CPU
Click sul link per visualizzare la notizia.
CrapaDiLegno
18-07-2014, 08:12
Veramente triste la situazione in AMD.
Con il debito totale che è aumentato di altri 70 milioni di dollari e gli investimenti in R&D al minimo storico.
Ma i chip delle console non dovevano salvarla facendole guadagnare mille milioni di dollari a trimestre come qualcuno aveva sognato?
Mi piace poi quel 25x di efficienza come target per le proprie APU entro il 2020. Vendere sogni, più che prodotti relamente validi, sembra essere diventato il core business dell'azienda.
Tempo di risultati finanziari trimestrali anche per AMD, con l'azienda americana che ha registrato un fatturato di 1,44 milioni di dollari nel corso del secondo trimestre 2014. Il dato è in lieve incremento rispetto a quanto registrato nei primi 3 mesi del 2014 e in sensibile crescita prendendo quale riferimento lo stesso periodo dello scorso anno, nel quale l'azienda americana aveva registrato un fatturato di 1,16 miliardi di dollari.
Ma se è in leggero aumento non dovrebbe essere 1,44 miliardi di dollari? (al posto di milioni)
Pier2204
18-07-2014, 09:11
[QUOTE]Veramente triste la situazione in AMD.
Con il debito totale che è aumentato di altri 70 milioni di dollari e gli investimenti in R&D al minimo storico.
Quindi? cosa deve fare, suicidarsi?
Con un debito che aumenta i soldi per R&D li passa il convento, e come deve fare se in questo periodo le banche anche quelle Americane pensano prima a se stesse poi vedremo.
Ma i chip delle console non dovevano salvarla facendole guadagnare mille milioni di dollari a trimestre come qualcuno aveva sognato?
Mi piace poi quel 25x di efficienza come target per le proprie APU entro il 2020. Vendere sogni, più che prodotti relamente validi, sembra essere diventato il core business dell'azienda.
I chip delle console sono stati di grosso aiuto, l'aver lasciato la rincorsa ai Processori per entusiati che non servono a un tubo altro grosso aiuto, concentrarsi esclusivamente sul loro core businnes le APU credo sia la strada giusta.
Ma noto una certa felicità nel tuo discorso o sbaglio?
[...] e gli investimenti in R&D al minimo storico.
Questa è una tua supposizione o è un dato che hai preso da qualche parte?
Comunque la situazione non mi pare così triste. L'azienda si sta assestando e la profittabilità è a portata, la divisione grafica professionale va bene (non pensavo), la vendita dei chip consolle ugualmente è in positivo.
Al solito, va male nelle CPU, e li bisogna solo sperare che tirino fuori qualcosa di davvero nuovo nei prossimi anni se non vogliamo che perduri questa situazione di quasi-monopolio.
Del 25x sull'efficenza delle APU non leggo nulla nell'articolo. Ma posso ben immaginare che sia una previsione legata all'impennata prossima dei processi produttivi e magari all'arrivo, per il 2020, dei 10nm.
carlottoIIx6
18-07-2014, 10:27
amd sta lavorando molto bene:
1) excavator lato core aumenterà le prestazioni del 30% a 15W rispetto steamroller di kaveri.
2) si è mossa con le memorie on die.
3) mantle e hsa sono quello che si aspettava da tempo.
4) le console la mettono in una posizione di determinare il game da qui ad un paio di anni.
5) si è mossa con un soket sia x86 sia amr e sta l'avorando and un apu hsa con amr.
6) è a lavoro con un nuovo core x86 che promette potenza.
7) sta per uscire con le nuove cpu che cosumano poco.
8) beema e mullin sono il meglio nell'ambito mobile x86 e kaveri mobile è molto competitivo.
ad amd ora servirebbo aziende che investono su i suoi chip sopratutto in ambito mobile.
nuove schede video e cpu fx.
ma sopratutto un cacchio di silicio dove pizzare i suoi nuovi proggetti sia cpu che gpu!!!
CrapaDiLegno
18-07-2014, 10:59
Quindi? cosa deve fare, suicidarsi?
Con un debito che aumenta i soldi per R&D li passa il convento, e come deve fare se in questo periodo le banche anche quelle Americane pensano prima a se stesse poi vedremo.
Quindi significa che tutti gli investimenti fatti fino a Luglio 2014 non hanno portato alcun beneficio all'azienda e la diminuzione delle risorse in R&D non migliorerà certo la situazione.
Le banche hanno comunuqe dato una mano a AMD, visto che ha rinegoziato il vecchio debito da 500 milioni di dollari da un interesse dell'oltre 8% a uno del 7%.
I chip delle console sono stati di grosso aiuto, l'aver lasciato la rincorsa ai Processori per entusiati che non servono a un tubo altro grosso aiuto, concentrarsi esclusivamente sul loro core businnes le APU credo sia la strada giusta.
Ma noto una certa felicità nel tuo discorso o sbaglio?
Non ha lasciato la rincorsa ai processori enthusiast, ha proprio abbandonato la corsa al processore desktop. E conseguentemente a quello server.
Sono due mercati, che seppur in crisi in questi anni, permettono di fatturare dalle 3 alle 4 volte quello che si riesce a fare nel semplice mercato di fascia bassa dove AMD si è collocata ora.
L'unica felicità che vedi nel mio discorso è il fatto che quando si parlava dei proventi dei chip per console qui c'era gente che parlava di cifre assurde senza alcuna cognizione di causa (insultandomi pure). Oggi che la situazione è esattamente quella che ho dipinto io 9 mesi fa i presunti geni della finanza sognatrice non si fanno più vedere.
E' la differenza che c'è tra un realista e un fanboy. Il primo dice le cose che possono anche risultare scomode al secondo che si limita a dire quello che spera siano i propri desideri.
@calabar
Magari leggerlo il documento invece di affidarsi solo ai 4 commenti in croce dell'articolo potrebbe aiutarti a capire qualcosa di più.
Magari leggerlo il documento invece di affidarsi solo ai 4 commenti in croce dell'articolo potrebbe aiutarti a capire qualcosa di più
Io ho letto l'articolo, non i quattro commenti in croce. Non è l'articolo che si sta commentando, qui?
Non c'è neppure un link ad un documento esterno nell'articolo, quindi a quale documento ti riferisci, nello specifico? Parlano forse di "25x" nel resoconto finanziario?
Comunque non mi hai risposto sul calo degli investimenti in ricerca e sviluppo (ma hai ribadito il concetto). Dove hai preso l'informazione?
CrapaDiLegno
18-07-2014, 11:46
Io ho letto l'articolo, non i quattro commenti in croce. Non è l'articolo che si sta commentando, qui?
Non c'è neppure un link ad un documento esterno nell'articolo, quindi a quale documento ti riferisci, nello specifico? Parlano forse di "25x" nel resoconto finanziario?
Comunque non mi hai risposto sul calo degli investimenti in ricerca e sviluppo (ma hai ribadito il concetto). Dove hai preso l'informazione?
Non si commenta l'articolo, si commenta il contenuto dello stesso. Che è il bilancio consuntivo del secondo trimestre di AMD. I quattro commenti in croce a cui mi riferivo sono quelli dell'articolo stesso che descrive pochissimo di tutto il documento economico disponibile pubblicamente.
Il fatto che manchi il link è una questione che dura (e di cui mi lamento) da tempo. Mettere il link al sito ufficiale di AMD che riporta tutti i risultati dei trimestri non è difficile né scandaloso, credo. Sarebbe comunque giornalisticamente corretto:
http://quarterlyearnings.amd.com/phoenix.zhtml?c=74093&p=quarterlyearnings
D'altra parte non è cosa difficile usare Google con la frasetta "AMD quarter results"
Per gli investimenti, visto che ci sono tutti i trimestri, aprili uno per uno e vedi l'andamento della voce R&D.
Per la questione 25x di efficienza, sì, è scritto nel documento di presentazione del bilancio come una serie di altre note ridicole, ovviamente intese a far sembrare l'azienda quella che non è agli investitori che non capiscono un'acca di tecnologia e a distrarli dai numeri che potrebbero essere preoccupanti, dato che è quasi al massimo del fatturato degli ultimi tempi, ha questo famoso apporto "straordinario" dei chip per console consolidato, ma ancora di utili non se ne parla.
Ci si potrebbe chiedere (e probabilmente qualcuno lo ha fatto, visto il tonfo in borsa) quando mai arriveranno.
carlottoIIx6
18-07-2014, 12:15
amd ha un ventaglio di prodotti vincenti attualmente, tra cui beema e mullin in primis.
la difficoltà di amd è che questi prodotti vengano usati delle case produttrici!
infatti amd ha sofferto in passato della concorrenza sleale delle rivali che hanno imposto i loro prodotti.
questo è il punto nodale, non i prodotti che non mancano e che sono decisamente buoni.
inoltre amd sta investendo molto nei prodotti futuri.
qui il resoconto descritto in dettaglio
http://www.anandtech.com/show/8270/amd-q2-2014-quarterly-earnings-analysis
Non si commenta l'articolo, si commenta il contenuto dello stesso.
Certo che ne commento il contenuto, e lo faccio sulla base di quello che trovo scritto nell'articolo.
Se poi ci sono altre informazioni mi aspetto che qualche utente con un po' più di tempo di me possa riportarle nei commenti.
Per la voce R&D, puoi quantificare il calo? Proprio non ce la faccio a controllare i vari documenti.
Comunque un calo in R&D non significa un calo di qualità, per esempio se riduco il numero di progetti e mi focalizzo su poche attività posso avere per queste un investimento adeguato nonostante un calo generale degli investimenti.
Il 25x sull'efficienza è comunque una previsione e a lungo termine. Francamente non mi azzarderei ne a ritenerla probabile, ne a ritenerla ridicola. Vedremo, quando sarà il momento.
Concordo comunque sul problema delle fonti, andrebbero riportate (ma poi non è che saltano fuori troppo facilmente le magagne delle notizie farlocche? :p ).
tuttodigitale
18-07-2014, 14:49
per il +25% di efficienza, si parla di HSA come parte essenziale per raggiungere l'obiettivo, riferito tra le altre cose alla prima generazione di apu.
Già adesso se fai girare HSA, con Calc, rispetto ad opencl con numa, si ha un miglioramento di 7x su kaveri. Non vedo perchè non ci possano essere miglioramenti significativi nell'uso tipico, visto che cambieranno tante cose a livello di architettura e il silicio sarà cosa ben diversa dai 32/28nm attuali (10nm?).
Ma i chip delle console non dovevano salvarla facendole guadagnare mille milioni di dollari a trimestre come qualcuno aveva sognato?
è merito delle console targate AMD se oggi Mantle è realtà. Con la fine delle dx11 ci saranno limiti meno stringenti per le cpu che quindi potranno essere maggiormente orientate al mercato server e al gpgpu.
CrapaDiLegno
18-07-2014, 16:14
amd ha un ventaglio di prodotti vincenti attualmente, tra cui beema e mullin in primis.
la difficoltà di amd è che questi prodotti vengano usati delle case produttrici!
infatti amd ha sofferto in passato della concorrenza sleale delle rivali che hanno imposto i loro prodotti.
questo è il punto nodale, non i prodotti che non mancano e che sono decisamente buoni.
inoltre amd sta investendo molto nei prodotti futuri.
qui il resoconto descritto in dettaglio
http://www.anandtech.com/show/8270/amd-q2-2014-quarterly-earnings-analysis
Ma buoni e vincenti rispetto a cosa? Per quale target?
I chip di AMD saranno buoni prestazionalmente, ma poiché sono indirizzati al mercato notebook dove i consumi contano, non sono vincenti.
Anche Intel ha dei buoni prodotti per il mobile parlando di prestazioni, ma sono anni luce indietro agli ARM per i consumi.
Non dimenticare che "meglio" e "vincente" dipende tutto da quanto costa e a quanto lo vendi. I numeri di AMD dicono che non sono per niente vincenti da nessun punto di vista. Così come non lo sono gli Atom di Intel, che anche se consumano poco e vanno tanto costano molto di più di un SoC ARM. La strategia della vendita sottocosto non può essere duratura (vedesi i numeri di perdita di Intel in quel settore).
Senza il monopolio nel settore desktop che copre tutte le perdite, Intel non potrebbe permettersi un solo trimestre in quelle condizioni.
@calabar
Solo un numero di riferimento per i costi R&D: al Giugno del 2012 AMD aveva in consuntivo un costo di 345 milioni di dollari. Oggi sono 277. Pochi ma buoni? Forse, ma a dare evidenza a questo devono essere i risultati economici. Che non pare brilino. Mi sembra che molti qui sognavano tonnellate di soldi entranti dalla vendita dei chip per console da investire in R&D. La verità (che qualcuno aveva già predetto ma era stato bollato come il gufo che voleva male all'azienda) è che questi soldi per aumentare gli investimenti non ci sono e non ci saranno mai. Non con queste condizioni e prodotti.
@tuttodigitale
A meno di errori nel documento ufficiale, non si parla di 25% ma di 25x (25 volte tanto, non 1/4 in più):
AMD detailed its plans to accelerate the energy efficiency of its accelerated processing units (APUs) delivering 25x efficiency improvements by 2020 through design optimizations, intelligent power management and Heterogeneous System Architecture advances that are expected to enable AMD to outpace the industry's historical energy efficiency trend by at least 70 percent.
Inoltre evidenzia come questo li porterà ad essere 70% migliori del trend storico dell'industira di miglioramento dell'efficienza. Non so se si riferiscono alla storia della loro industria (che non briila certo per miglioramenti di efficienza) o hanno preso come riferimento quella dell'intera industria, al che la dichiarazione lascia il tempo che trova leggendola.
HSA non ha il futuro che tanto viene marketizzato, dato che non ci sono molti algoritmi che puoi parallelizzare nel settore consumer. Dove, oltretutto, la banda destinata all'acceleratore non è certamente quella disponibile sui sistemi dedicati al calcolo. In attesa della stacked RAM (che non risolve tutti i problemi dell'HSA).
Non ho capito la relazione tra Mantle e console, così come tra "la fine delle DX11" e il fatto che i processori scaricati dal lavoro possono essere orientati meglio al mercato del calcolo.
In primis Mantle sulle console non è usato: è una copia di quello che MS e Sony già usano con sistemi prorprietari per le console. Ed è un anticipo di quello che MS ha pensato per le DX12, sviluppo cominciato non ieri ma da quando hanno finito le DX11 coinvolgendo come sempre nvidia, AMD, e molto probabilmente tutti gli interessati nella cosa, come i produttori di GPU per SoC ARM.
In secundis dimentichi sempre che MS non è alla finestra a guardare ma l'anno prossimo rilascerà le DX12, standard chiuso se vuoi ma che sarà disponibile su qualsiasi altra architettura al di fuori di GCN. E si otterrà più o meno lo stesso risutlato di Mantle. E non richiederà di fare 2 rendering backend per i motori/giochi. Indovina chi vincerà la sfida?
E sui dispositivi poratili anche le OpenGL hanno preso la stessa strada, e le OpenGL sono compatibili con TUTTE le architetture, SoC ARM inclusi.
Mantle, come tutte le vecchie librerie custom, è destinata ad avere la vita corta. O sei leader del mercato e definisci tu gli standard e gli altri ti seguono perché impossibilitati a creare qualcosa di meglio da diffondere con la stessa efficacia o non hai possibilità che la tua soluzione abbia vita (a meno che non spendi un botto per sostenerla anche quando è antieconomica per chi deve andare ad usarla).
cdimauro
18-07-2014, 17:16
la vendita dei chip consolle ugualmente è in positivo.
Console. Con una l.
Non ha lasciato la rincorsa ai processori enthusiast, ha proprio abbandonato la corsa al processore desktop. E conseguentemente a quello server.
Al contrario, sta puntando molto proprio sui server. Ha comprato SuperMicro un po' di tempo fa, e ha acquisito una licenza ARM per produrre chip per server basati su quest'architettura (in versione a 64 bit).
Semplicemente passerà ancora un po' di tempo prima di vedere i risultati di questa strategia, un po' com'è avvenuto per le APU e la relativa acquisizione di Ati.
E' la differenza che c'è tra un realista e un fanboy. Il primo dice le cose che possono anche risultare scomode al secondo che si limita a dire quello che spera siano i propri desideri.
Come hai ampiamente dimostrato quando parli di Intel, insomma...
per il +25% di efficienza, si parla di HSA come parte essenziale per raggiungere l'obiettivo, riferito tra le altre cose alla prima generazione di apu.
Già adesso se fai girare HSA, con Calc, rispetto ad opencl con numa, si ha un miglioramento di 7x su kaveri. Non vedo perchè non ci possano essere miglioramenti significativi nell'uso tipico, visto che cambieranno tante cose a livello di architettura e il silicio sarà cosa ben diversa dai 32/28nm attuali (10nm?).
Il problema è che "l'uso tipico" non equivale alla possibilità di impiegare sempre HSA: bisogna vedere caso per caso, se il codice è adattabile allo scopo, e questo non è sempre vero.
Anche Intel ha dei buoni prodotti per il mobile parlando di prestazioni, ma sono anni luce indietro agli ARM per i consumi.
Non dimenticare che "meglio" e "vincente" dipende tutto da quanto costa e a quanto lo vendi. I numeri di AMD dicono che non sono per niente vincenti da nessun punto di vista. Così come non lo sono gli Atom di Intel, che anche se consumano poco e vanno tanto costano molto di più di un SoC ARM.
Mi sono permesso di evidenziare e sottolineare le parti in evidente contraddizione.
D'altra parte i numeri (vedi le recensioni di Anandtech, ad esempio, che citi soltanto quando ti fanno comodo) dimostrano la falsità della tua tesi.
E riguardo ai costi, i prodotti di Intel sono concorrenziali rispetto a SoC ARM di pari fascia.
Questo sempre per rimanere in tema di fanboy = "si limita a dire quello che spera siano i propri desideri"...
La strategia della vendita sottocosto non può essere duratura (vedesi i numeri di perdita di Intel in quel settore).
Ti ho già risposto in merito in un apposito thread, e... sei sparito. Ma adesso, nuovamente, riporti la stessa balla.
Questo sempre perché non sei un fanboy...
Senza il monopolio nel settore desktop
Definizione di monopolio alla mano, anche questa è un'altra falsità.
che copre tutte le perdite,
"Casualmente" c'è una notizia fresca fresca (http://www.businessmagazine.it/news/il-trimestre-positivo-di-intel-un-segnale-incoraggiante-per-il-settore-dei-pc_53244.html) in merito, che "probabilmente ti sarà sfuggita".
Dei 13,8 miliardi di fatturato la parte relativa ai PC è di 8,7 miliardi, mentre 3,5 è quella Data Center, e quello relativo al mobile è di soli 51 milioni (non miliardi). Anche tenendo conto del fatturato mobile per lo scorso anno, si tratta di briciole che Intel potrebbe coprire con qualunque altra divisione.
Intel non potrebbe permettersi un solo trimestre in quelle condizioni.
Vedi sopra. E c'è pure da considerare il settore più redditizio non è certo quello PC, ma quello Data Center.
Riguardo alle presunte perdite, non hai che da riportare le fonti. La notizia di cui ho riportato il link riporta, tra l'altro, la seguente frase in merito: "la strategia di espansione delle vendite nel settore mobile sia fortemente influenzata dalla fornitura di SoC mobile a prezzi estremamente concorrenziali" che mi pare piuttosto eloquente. Infatti non si parla né di perdite né di sottocosto.
Console. Con una l.
Preferisco usare il termine italianizzato. É una scelta. :)
Dei 13,8 miliardi di fatturato la parte relativa ai PC è di 8,7 miliardi, mentre 3,5 è quella Data Center, e quello relativo al mobile è di soli 51 milioni (non miliardi). Anche tenendo conto del fatturato mobile per lo scorso anno, si tratta di briciole che Intel potrebbe coprire con qualunque altra divisione.
Aspetta... questa puntualizzazione non l'ho capita.
Lui parla di perdite, tu di fatturato. Se la divisione mobile ha un fatturato di 51 milioni significa che ha venduto poco, non che le spese sono state di entità ridotta.
Per fare un esempio con numeri a caso, se avesse speso 5 miliardi e fatturato solo 51 milioni, la perdita operativa sarebbe ingente (praticamente... 5 miliardi) e non facile da coprire con nessuna delle divisioni.
Bisognerebbe insomma sapere quali sono i costi di investimenti e produzione per capire quali siano le perdite, sempre che ce ne siano.
cdimauro
18-07-2014, 19:37
In italiano il termine corretto rimane console:
http://www.treccani.it/vocabolario/consolle/
http://www.treccani.it/vocabolario/console_res-22b5e51e-0016-11de-9d89-0016357eee51/
Consolle è un termine scorretto, anche se purtroppo risulta diffuso.
In italiano il termine corretto rimane console:
Consolle è un termine scorretto, anche se purtroppo risulta diffuso.
Il termine consolle è sicuramente meno comune, ma non lo definirei scorretto. Anzi, a mio parere è più adeguato... altrimenti non lo userei! ;)
cdimauro
18-07-2014, 20:22
Qui (http://it.wikipedia.org/wiki/Discussione:Consolle) c'è una discussione sull'argomento, utile per le fonti che vengono citate.
Personalmente ti consiglierei di utilizzare il termine console, che peraltro è quello utilizzato quando questi dispositivi sono nati (e non sono nati qui). Ed è quello che adottano da tempo immemore anche le riviste (e poi siti) specializzate.
risucite a smettere di battibeccare su quisquiglie tipo il numero delle l da soli o ci devo pensare io?
cdimauro
18-07-2014, 20:49
Aspetta... questa puntualizzazione non l'ho capita.
Lui parla di perdite, tu di fatturato. Se la divisione mobile ha un fatturato di 51 milioni significa che ha venduto poco, non che le spese sono state di entità ridotta.
Per fare un esempio con numeri a caso, se avesse speso 5 miliardi e fatturato solo 51 milioni, la perdita operativa sarebbe ingente (praticamente... 5 miliardi) e non facile da coprire con nessuna delle divisioni.
Bisognerebbe insomma sapere quali sono i costi di investimenti e produzione per capire quali siano le perdite, sempre che ce ne siano.
Mi sono accorto soltanto adesso che avevi aggiunto questa parte al tuo precedente commento. La prossima volta è meglio che crei un nuovo commento, perché potrei non accorgermene e, quindi, mi spiacerebbe non fornirti una risposta.
Comunque in quella parte che hai quotato volevo mettere in evidenza che è falsa la tesi che Intel coprirebbe fantasiose perdite (perché sono tutte da dimostrare) coi proventi del comparto PC. Questo comparto, sebbene il più grosso in termini di fatturato, non è l'unico ad avere dimensioni tanto elevate da poter supportare il finanziamento di altri comparti minori, come quello mobile per l'appunto che è a dir poco microscopico.
Uscendo da quella parte, ho aggiunto poi che in termini di profitto la divisione Data Center è quella che generalmente margina di più, oltre a essere quella che cresce (da tempo) di più, per cui è da questa parte che avrebbe più senso prelevare soldi per finanziare una novella divisione.
Fermo restando il tuo discorso che è validissimo. Infatti si parla di fatturato, e non di perdite. E per i singoli comparti non c'è alcuna voce nemmeno riguardo ai profitti che generano.
Per cui parlare di perdite senza nemmeno avere uno straccio di dato in mano è fare il classico passo più lungo della gamba...
risucite a smettere di battibeccare su quisquiglie tipo il numero delle l da soli o ci devo pensare io?
Non c'era nessuna vena polemica. Semplice precisazione. Comunque è stato detto tutto, per cui non c'è motivo di continuare a discuterne.
Littlesnitch
19-07-2014, 07:54
Console. Con una l.
Al contrario, sta puntando molto proprio sui server. Ha comprato SuperMicro un po' di tempo fa, e ha acquisito una licenza ARM per produrre chip per server basati su quest'architettura (in versione a 64 bit).
Semplicemente passerà ancora un po' di tempo prima di vedere i risultati di questa strategia, un po' com'è avvenuto per le APU e la relativa acquisizione di Ati.
Come hai ampiamente dimostrato quando parli di Intel, insomma...
Il problema è che "l'uso tipico" non equivale alla possibilità di impiegare sempre HSA: bisogna vedere caso per caso, se il codice è adattabile allo scopo, e questo non è sempre vero.
Mi sono permesso di evidenziare e sottolineare le parti in evidente contraddizione.
D'altra parte i numeri (vedi le recensioni di Anandtech, ad esempio, che citi soltanto quando ti fanno comodo) dimostrano la falsità della tua tesi.
E riguardo ai costi, i prodotti di Intel sono concorrenziali rispetto a SoC ARM di pari fascia.
Questo sempre per rimanere in tema di fanboy = "si limita a dire quello che spera siano i propri desideri"...
Ti ho già risposto in merito in un apposito thread, e... sei sparito. Ma adesso, nuovamente, riporti la stessa balla.
Questo sempre perché non sei un fanboy...
Definizione di monopolio alla mano, anche questa è un'altra falsità.
"Casualmente" c'è una notizia fresca fresca (http://www.businessmagazine.it/news/il-trimestre-positivo-di-intel-un-segnale-incoraggiante-per-il-settore-dei-pc_53244.html) in merito, che "probabilmente ti sarà sfuggita".
Dei 13,8 miliardi di fatturato la parte relativa ai PC è di 8,7 miliardi, mentre 3,5 è quella Data Center, e quello relativo al mobile è di soli 51 milioni (non miliardi). Anche tenendo conto del fatturato mobile per lo scorso anno, si tratta di briciole che Intel potrebbe coprire con qualunque altra divisione.
Vedi sopra. E c'è pure da considerare il settore più redditizio non è certo quello PC, ma quello Data Center.
Riguardo alle presunte perdite, non hai che da riportare le fonti. La notizia di cui ho riportato il link riporta, tra l'altro, la seguente frase in merito: "la strategia di espansione delle vendite nel settore mobile sia fortemente influenzata dalla fornitura di SoC mobile a prezzi estremamente concorrenziali" che mi pare piuttosto eloquente. Infatti non si parla né di perdite né di sottocosto.
Va bene smentire chi scrive falsità, e se hai notato non parla mai di Tegra :asd: :asd: :asd: però non devi predicare bene e razzolare male.
Se intel fattura 51mln nel settore mobile guardala come vuoi ma è un fail e ci sono perdite. Certo coperte dalle altre divisioni che sono in utile e nel mobile invece stanno cercando di emergere. Ma non distorcere la realtà.
Come anche il fatto che intel abbia il monopolio nel mercato desktop, negarlo ti riduce al livello di fanboy, AMD ha la fetta di mercato che gli permette di avere intel per non avere problemi con antitrust e non essere smembrata.
Per ciò che riguarda AMD invece la situazione fora neon è così nera come alcuni qui sperano, ma non è nemmeno troppo rosea. Se nemmeno con il monopolio sulle console next gen riesce a passare in utile i problemi sono seri. Si ha in cantiere soluzioni interessanti, ma anche Buldozzer doveva essere il killer di intel... perciò credo che debbano focalizzarsi sui consumi ed efficienza per attaccare i mercati più redditizi come quello mobile e quello server, mentre per il desktop il ritardo è talmente grande che oramai recuperare sembra pura utopia.
cdimauro
19-07-2014, 21:05
Va bene smentire chi scrive falsità, e se hai notato non parla mai di Tegra :asd: :asd: :asd:
In realtà l'ha fatto tempo fa come esempio virtuoso, mentre in un altro contesto riportava un'opinione diametralmente opposta. E ovviamente l'ho fatto subito notare. :D
però non devi predicare bene e razzolare male.
In tutte le discussioni che riguardano precise questioni (in particolare quelle tecniche) cerco di rimanere sempre professionale. Se c'è qualcosa che non va, puoi benissimo farmelo notare, e nel caso non avrei difficoltà a rettificare. Sono pur sempre un essere umano che può commettere degli errori, ma non ho problemi ad accettarlo e, di conseguenza, accettare anche critiche costruttive.
Adesso andiamo nel merito.
Se intel fattura 51mln nel settore mobile guardala come vuoi ma è un fail e ci sono perdite. Certo coperte dalle altre divisioni che sono in utile e nel mobile invece stanno cercando di emergere. Ma non distorcere la realtà.
Che Intel abbia non poche difficoltà in ambito mobile, e che finora abbia fallito nel cercare di ritagliarsi una fetta consistente in quest'ambito, non ho problemi ad accettarlo e ad affermarlo.
Ma è ancora presto per parlare di perdite. Progetti di questo tipo richiedono notevoli investimenti già prima ancora che faccia capolino il primo prodotto, e in generale serve un certo tempo per arrivare al cosiddetto break-even point per poi passare agli utili, oppure alla tragica cancellazione del prodotto con annesse perdite.
Anche in ambito HPC si potrebbe fare lo stesso discorso, dopo gli ingenti investimenti di Intel e soltanto adesso la divisione Xeon Phi sta cominciando a diffondersi e a essere apprezzata.
Possiamo parlare sicuramente di fallimento col progetto Larrabbe, che era stato pensato appositamente per competere in ambito GPU, e sappiamo com'è poi finita. Qui è assodato che ci sono state delle perdite dovute a tutto il lavoro di ricerca & sviluppo (anche se buona parte è stato riutilizzato per Xeon Phi).
Spero che il concetto sia chiaro.
Come anche il fatto che intel abbia il monopolio nel mercato desktop, negarlo ti riduce al livello di fanboy,
Definizione alla mano, non è così. Intel occupa, invece, una posizione dominante. Esattamente come Microsoft nell'ambito dei s.o. desktop.
I termini hanno un preciso significato che non può essere cambiato a proprio piacimento.
AMD ha la fetta di mercato che gli permette di avere intel per non avere problemi con antitrust e non essere smembrata.
Non credo che possa succedere più una cosa del genere. E' stato proprio l'anti-trust a costringere Intel a cedere la licenza della sua architettura a 4 (o 5? Non ricordo adesso) aziende, fra cui ovviamente AMD. Se queste aziende non hanno saputo sfruttare quello che hanno avuto in mano, non è più un problema di Intel.
Per ciò che riguarda AMD invece la situazione fora neon è così nera come alcuni qui sperano, ma non è nemmeno troppo rosea. Se nemmeno con il monopolio sulle console next gen riesce a passare in utile i problemi sono seri.
Comunque coi chip per le console era noto che non avrebbe potuto marginare molto. Si tratta di prodotti in cui i guadagni si fanno sulle quantità, ma alla fine non rimane molto in mano.
Si ha in cantiere soluzioni interessanti, ma anche Buldozzer doveva essere il killer di intel... perciò credo che debbano focalizzarsi sui consumi ed efficienza per attaccare i mercati più redditizi come quello mobile e quello server, mentre per il desktop il ritardo è talmente grande che oramai recuperare sembra pura utopia.
Mai dire mai. E la concorrenza è sempre una buona cosa per tutti, sia per le aziende sia per gli utenti finali. E poi io amo le sfide. :)
Poi, in tutta onestà, ho amici che hanno lavorato per AMD (adesso sono consulenti esterni, se non erro), come pure per nVidia. Augurare a queste aziende di fallire significa fare un torto anche a loro, oltre che essere oggettivamente una stupidaggine colossale.
Littlesnitch
20-07-2014, 10:35
In realtà l'ha fatto tempo fa come esempio virtuoso, mentre in un altro contesto riportava un'opinione diametralmente opposta. E ovviamente l'ho fatto subito notare. :D
In tutte le discussioni che riguardano precise questioni (in particolare quelle tecniche) cerco di rimanere sempre professionale. Se c'è qualcosa che non va, puoi benissimo farmelo notare, e nel caso non avrei difficoltà a rettificare. Sono pur sempre un essere umano che può commettere degli errori, ma non ho problemi ad accettarlo e, di conseguenza, accettare anche critiche costruttive.
Adesso andiamo nel merito.
Che Intel abbia non poche difficoltà in ambito mobile, e che finora abbia fallito nel cercare di ritagliarsi una fetta consistente in quest'ambito, non ho problemi ad accettarlo e ad affermarlo.
Ma è ancora presto per parlare di perdite. Progetti di questo tipo richiedono notevoli investimenti già prima ancora che faccia capolino il primo prodotto, e in generale serve un certo tempo per arrivare al cosiddetto break-even point per poi passare agli utili, oppure alla tragica cancellazione del prodotto con annesse perdite.
Anche in ambito HPC si potrebbe fare lo stesso discorso, dopo gli ingenti investimenti di Intel e soltanto adesso la divisione Xeon Phi sta cominciando a diffondersi e a essere apprezzata.
Possiamo parlare sicuramente di fallimento col progetto Larrabbe, che era stato pensato appositamente per competere in ambito GPU, e sappiamo com'è poi finita. Qui è assodato che ci sono state delle perdite dovute a tutto il lavoro di ricerca & sviluppo (anche se buona parte è stato riutilizzato per Xeon Phi).
Spero che il concetto sia chiaro.
Definizione alla mano, non è così. Intel occupa, invece, una posizione dominante. Esattamente come Microsoft nell'ambito dei s.o. desktop.
I termini hanno un preciso significato che non può essere cambiato a proprio piacimento.
Non credo che possa succedere più una cosa del genere. E' stato proprio l'anti-trust a costringere Intel a cedere la licenza della sua architettura a 4 (o 5? Non ricordo adesso) aziende, fra cui ovviamente AMD. Se queste aziende non hanno saputo sfruttare quello che hanno avuto in mano, non è più un problema di Intel.
Comunque coi chip per le console era noto che non avrebbe potuto marginare molto. Si tratta di prodotti in cui i guadagni si fanno sulle quantità, ma alla fine non rimane molto in mano.
Mai dire mai. E la concorrenza è sempre una buona cosa per tutti, sia per le aziende sia per gli utenti finali. E poi io amo le sfide. :)
Poi, in tutta onestà, ho amici che hanno lavorato per AMD (adesso sono consulenti esterni, se non erro), come pure per nVidia. Augurare a queste aziende di fallire significa fare un torto anche a loro, oltre che essere oggettivamente una stupidaggine colossale.
Si nelle questioni tecniche sei sempre obiettivo, mentre nelle questioni politico finanziarie lo sei meno, anche forse perché magari non sei preparato.
Sul mobile intel già vende prodotti e li mette a bilancio, quindi le perdite ci sono. E questo è un dato oggettivo e inconfutabile.
Idem per gli Xenon PHI, che credo ancora non portino utili ma per come si stanno evolvendo ne porteranno molti a breve visto che questa soluzione mi pare nettamente superiore a quella proposta da nVidia e le soluzioni AMD stentano a prender piede anche perché AMD non ha certamente le disponibilità finanziarie per concorrere.
Sulla questione monopolio, capisco il tuo intento, ma quello che dici, anche se tecnicamente esatto, nella pratica è ben diverso. Non nascondiamoci, MS e intel sono di fatto monopolisti in ambito desktop.
Lascia stare i discorsi anti trust e altro, perché quello che conta sono i fatti. E i fatti dicono che sia MS che intel hanno il 90% del mercato, cosa vuoi di più per parlare di monopolio?
Per ciò che riguarda AMD credo tu abbia frainteso, io sicuramente non auguro ad AMD di scomparire, anzi spero si riprenda, ma bisogna anche guardare le cose in maniera obiettiva, e per ciò che riguarda il mercato desktop e PC mobile il distacco in termini di IPC, efficenza energetica e PP è talmente ampio che solo un miracolo potrebbe colmarlo, ma questo miracolo non accadrà.
Si con HSA e le nuove architetture AMD potrebbe ridurre il gap, e speriamo aumentare l'efficenza che è forse il più grosso problema, ma competere IPC-W con intel non se ne parla.
ad amd non serve un miracolo ma tirar fuori un architettura più competitiva dell'attuale e non credo servano santi particolari più che altro è importante che non commettano erroracci alla bd, ci sono riusciti con A64 e anche il buon phenom 2 era un ottimo procio, io ci credo ancora...
tuttodigitale
20-07-2014, 16:15
Il problema è che "l'uso tipico" non equivale alla possibilità di impiegare sempre HSA: bisogna vedere caso per caso, se il codice è adattabile allo scopo, e questo non è sempre vero.
Nel 2020 mi aspetto che HSA sia parte integrante di Windows.
Il mercato di riferimento è quello mobile.
l'uso tipico prevede sempre più l'utilizzo della gpu.
http://images.anandtech.com/doci/7933/22%20What%20Customers%20are%20Doing_575px.png
notare come per il social networking e email, in realtà con kabini viene in aiuto HW a funzione fissa per la decodifica delle foto jpeg...
Nel 2008 per vedere un filmato ad alta definizione, erano richiesti una trentina di watt, oggi 10 volte di meno.
e siamo passati da sistemi costruiti a 65+55nm a prodotti di 28nm. Nel 2020 i 10nm saranno, con ogni probabilità, una realtà ben consolidata, quindi praticamente ci sarebbe un salto di nodo in più.
Non ha lasciato la rincorsa ai processori enthusiast, ha proprio abbandonato la corsa al processore desktop. E conseguentemente a quello server.
Sono due mercati, che seppur in crisi in questi anni, permettono di fatturare dalle 3 alle 4 volte quello che si riesce a fare nel semplice mercato di fascia bassa dove AMD si è collocata ora.
ti faccio un esempio parallelo:
la logica vuole che colui che abbandona gli studi finisce anche di studiare.
AMD quindi non ha abbandonato un bel niente, perchè excavator è praticamente ultimato e k12 è a buon punto.
AMD si auspicava ben altri consumi (vedi deca-core, ) e altre frequenze di clock (4,5 GHz senza il resonant clock mesh), per prestazioni superiori sulla carta del 50% e in linea con quelli di un SB-E... o il silicio o il fatto che AMD abbia fatto i conti alla buona, la realtà è ben diversa di quella che traspariva dalle slide e annunci.
Il mercato server e quello desktop non sono necessariamente due facce della stessa medaglia.
AMD ha intenzione di fare una cpu ad alte prestazioni basate sull'isa ARM, e questo sarà il fiore all'occhiello essendo, a detta di AMD, più potente del "fratello gemello" x86.
@tuttodigitale
A meno di errori nel documento ufficiale, non si parla di 25% ma di 25x (25 volte tanto, non 1/4 in più):
errore di battitura intendevo 25x
HSA non ha il futuro che tanto viene marketizzato, dato che non ci sono molti algoritmi che puoi parallelizzare nel settore consumer. Dove, oltretutto, la banda destinata all'acceleratore non è certamente quella disponibile sui sistemi dedicati al calcolo. In attesa della stacked RAM (che non risolve tutti i problemi dell'HSA).
Aspetta che HSA non abbia futuro lo stai dicendo tu.
Che kaveri sia solo la prima cpu eterogenea di AMD con amplissimi margini di miglioramento anche lato HSA, questo è scontato.
Già con excavator, vedremo un ulteriore riduzione dell'overhead. Ti ricordo che hsa ha come scopo proprio quello di rendere più partecipe la gpu di quanto non è possibile farlo in forma discreta sul PCI express (già è diverso se parliamo di HyperTrasport o QPI).
Ma parliamo di un apu che uscirà tra un anno non nel 2020. In quel periodo k12 (post-Bulldozer) sarà un'architettura sul viale del tramonto e GCN verrà ribattezzata GCO , vecchia quasi quanto la geforce 6800 lo sia oggi.
cdimauro
21-07-2014, 07:16
Si nelle questioni tecniche sei sempre obiettivo, mentre nelle questioni politico finanziarie lo sei meno, anche forse perché magari non sei preparato.
Non è il mio campo, per cui è certamente così. Provo a instaurare un dialogo nei limiti delle mie conoscenze in materia.
Sul mobile intel già vende prodotti e li mette a bilancio, quindi le perdite ci sono. E questo è un dato oggettivo e inconfutabile.
Consentimi: questo succede per qualunque prodotto che venga lanciato. Ci sono sempre delle spese iniziali di ricerca & sviluppo & marketing, per cui è normale che nei primi tempi ci sia una perdita secca. Ma, come dicevo, è un problema generale di chiunque presenti un prodotto in commercio.
I conti si dovrebbero fare nel medio-lungo termine, a mio avviso.
Idem per gli Xenon PHI, che credo ancora non portino utili
Francamente non ne ho la minima idea.
ma per come si stanno evolvendo ne porteranno molti a breve visto che questa soluzione mi pare nettamente superiore a quella proposta da nVidia e le soluzioni AMD stentano a prender piede anche perché AMD non ha certamente le disponibilità finanziarie per concorrere.
AMD ha dei buoni prodotti; infatti sul GPGPU-computing è mediamente superiore anche a nVidia. Non so perché non riesca a sfondare in quest'ambito, anche perché non credo sia una questione di driver (come per il gaming e la grafica professionale, dove soffre).
Sulla questione monopolio, capisco il tuo intento, ma quello che dici, anche se tecnicamente esatto, nella pratica è ben diverso. Non nascondiamoci, MS e intel sono di fatto monopolisti in ambito desktop.
Lascia stare i discorsi anti trust e altro, perché quello che conta sono i fatti. E i fatti dicono che sia MS che intel hanno il 90% del mercato, cosa vuoi di più per parlare di monopolio?
Il 100%. :) Quando un mercato è interamente in mano a un produttore, che è l'unico a cui un consumatore possa affidarsi per ottenere un determinato prodotto. Un po' come lo stato col monopolio dei tabacchi, per intenderci: nessun altro può competere con lui, perché è l'unico che ha in mano questo prodotto.
Tra l'altro il mercato dei processori è un po' diverso rispetto a quello dei s.o.. Mentre in quest'ultimo è Microsoft che ha sostanzialmente imposto il suo prodotto, e non c'è nessun altro che possa offrirne uno "compatibile" con le applicazioni per esso sviluppato, per i processori è diverso, perché esistono diverse realtà che posseggono la licenza IA-32, e che dunque potrebbero competere in quest'ambito.
Per essere chiari, se nel mercato dei processori Intel domina, lo fa perché ormai da tempo AMD ha smesso d'esser competitiva. Mentre gli altri licenziatari nemmeno ci sono più sul mercato (Via ha una fetta microscopica; gli altri non hanno praticamente mai utilizzato quella licenza).
Poi posso comprendere che quote di mercato così elevate richiamino alla mente il termine monopolio (possiamo dire che ci si avvicini), ma rimane in ogni caso una posizione dominante. Questo letteratura alla mano.
Per ciò che riguarda AMD credo tu abbia frainteso, io sicuramente non auguro ad AMD di scomparire,
Non mi riferivo a te, ma ai fanboy avversi che aspettano come avvoltoi notizie nefaste nei suoi confronti per recitarne l'epitaffio.
anzi spero si riprenda, ma bisogna anche guardare le cose in maniera obiettiva, e per ciò che riguarda il mercato desktop e PC mobile il distacco in termini di IPC, efficenza energetica e PP è talmente ampio che solo un miracolo potrebbe colmarlo, ma questo miracolo non accadrà.
Si con HSA e le nuove architetture AMD potrebbe ridurre il gap, e speriamo aumentare l'efficenza che è forse il più grosso problema, ma competere IPC-W con intel non se ne parla.
La storia ha dimostrato che anche una piccola azienda può competere coi giganti, avendo a disposizione delle buone idee.
E' difficile, ma possibile. E AMD è proprio lì a dimostrarlo.
ad amd non serve un miracolo ma tirar fuori un architettura più competitiva dell'attuale e non credo servano santi particolari più che altro è importante che non commettano erroracci alla bd, ci sono riusciti con A64 e anche il buon phenom 2 era un ottimo procio, io ci credo ancora...
Al momenti s'è concentrata verso altri ambiti.
Nel 2020 mi aspetto che HSA sia parte integrante di Windows.
Il mercato di riferimento è quello mobile.
Perché solo quello mobile? Se un'idea come questa è buona, può andare bene ovunque.
l'uso tipico prevede sempre più l'utilizzo della gpu.
http://images.anandtech.com/doci/7933/22%20What%20Customers%20are%20Doing_575px.png
notare come per il social networking e email, in realtà con kabini viene in aiuto HW a funzione fissa per la decodifica delle foto jpeg...
Nel 2008 per vedere un filmato ad alta definizione, erano richiesti una trentina di watt, oggi 10 volte di meno.
e siamo passati da sistemi costruiti a 65+55nm a prodotti di 28nm. Nel 2020 i 10nm saranno, con ogni probabilità, una realtà ben consolidata, quindi praticamente ci sarebbe un salto di nodo in più.
Ma parliamo sempre di ambiti in cui è logico che si possa sfruttare la GPU, il che è normale.
Prova, però, a pensare di dare in pasto a una GPU il parsing di una pagina HTML, ad esempio, e vedrai che le cose cambieranno radicalmente. Idem per l'esecuzione di codice Javascript. E sto parlando di elementi che impattano fortemente l'esperienza utente in ambito web (che è quello più diffuso ormai).
Ciò senza nulla togliere agli elementi multimediali che vanno processati, e che trovano giustamente nella GPU il miglior candidato per la loro elaborazione.
Ma considera che anche la concorrenza ha a disposizione una GPU o coprocessori dedicati (QuickSync). Per cui non sarà soltanto AMD a trarne vantaggio. Considerato, inoltre, che ci vorrà non poco tempo per sfruttare l'offloading, non c'è di che preoccuparsi se AMD al momento si trova in vantaggio.
CrapaDiLegno
21-07-2014, 09:16
Rieccomi, per il vostro piacere :D
Al contrario, sta puntando molto proprio sui server. Ha comprato SuperMicro un po' di tempo fa, e ha acquisito una licenza ARM per produrre chip per server basati su quest'architettura (in versione a 64 bit).
Semplicemente passerà ancora un po' di tempo prima di vedere i risultati di questa strategia, un po' com'è avvenuto per le APU e la relativa acquisizione di Ati.
Non sarà un processore x86 e andrà a coprire fasce diverse. Vedremo con che risultati.
D'altra parte i numeri (vedi le recensioni di Anandtech, ad esempio, che citi soltanto quando ti fanno comodo) dimostrano la falsità della tua tesi.
I numeri di Anadtech dimostrano poco e nulla, dato che sono stati misurati su una demo board in modo "artgianale". Non c'è un dato esatto che possa essere confrontato con un SoC ARM. E infatti non c'è un prodotto Intel che sia adottato "liberamente" dai costruttori di dispositivi mobile. Se Intel non "aiuta" la scelta, semplicemente nessuno prende in considerazione i suoi prodotti. Un motivo ci sarà, no? Se il prezzo non è il problema...
E riguardo ai costi, i prodotti di Intel sono concorrenziali rispetto a SoC ARM di pari fascia.
Questo è il punto. La cosa rimarrà vera finché Intel può permettersi di venderli sotto costo.
Ti ho già risposto in merito in un apposito thread, e... sei sparito. Ma adesso, nuovamente, riporti la stessa balla.
Balla? Ahahah...
"Casualmente" c'è una notizia fresca fresca (http://www.businessmagazine.it/news/il-trimestre-positivo-di-intel-un-segnale-incoraggiante-per-il-settore-dei-pc_53244.html) in merito, che "probabilmente ti sarà sfuggita".
Dei 13,8 miliardi di fatturato la parte relativa ai PC è di 8,7 miliardi, mentre 3,5 è quella Data Center, e quello relativo al mobile è di soli 51 milioni (non miliardi). Anche tenendo conto del fatturato mobile per lo scorso anno, si tratta di briciole che Intel potrebbe coprire con qualunque altra divisione.
Riguardo alle presunte perdite, non hai che da riportare le fonti. La notizia di cui ho riportato il link riporta, tra l'altro, la seguente frase in merito: "la strategia di espansione delle vendite nel settore mobile sia fortemente influenzata dalla fornitura di SoC mobile a prezzi estremamente concorrenziali" che mi pare piuttosto eloquente. Infatti non si parla né di perdite né di sottocosto.
Va be', a questo punto sfoggiamo i numeri del bilancio Intel, visto sono un fanboy e racconto frottole e tu guardi le voci sbagliate del bilancio, ovvero quelle che ti fanno comodo e non raccontano nulla:
Mobile and Communications Group, operating income (non fatturato, ma è la misura di quanto è la resa reale del reparto considerando i costi e guadagni):
secondo trimestre 2014: perdida di 1,124 miliardi di dollari
secondo trimestre 2013: perdita di 761 milioni di dollari
da inizio anno 2014 (2 trimestri) perdita di 2,053 miliardi di dollari
da inizio anno 2013 (2 trimestri) pedita di 1,464 miliardi di dollari
Ora, senza i 7 e rotti milliardi di dollari che rendono le divisioni DataCenter e PC Client, mi dici quanti trimestri riuscirebbe Intel a mantenere i propri prezzi concorrenziali a quelli di ARM?
Sempre balle dico?
Presi direttamente da qui: http://www.intc.com/releasedetail.cfm?ReleaseID=859875, non da Novella 2000 o "il blog del fanboy anti Intel".
Per il resto hai ancora una volta dimostrato di voler essere un buon predicatore per la tua azienda, ma non ci sei riuscito.
L'aumento di stipendio per questo inutile sforzo solo quando la divisione Mobile di Intel farà UTILI. E sei fortunato che non ti paghino tutto lo stipendio solo quando li farà (magari anche dopo aver recuperato le perdite accumulate negli anni precendenti), altrimenti mi sa che faresti un po' (tanta) fame.
Per l'HSA, io davvero non capisco come si possa credere che possa funzionare: ripeto per l'ennesima volta, un conto è avere l'HSA realizzata con componenti efficienti che svolgono una funzione particolare in un determinato contesto (de/codifica video/immagini/audio) un conto è credere che la GPU possa essere usata per accelerare i normali algoritmi di tutti i giorni.
Proviamo a realizzare un compilatore su GPU? Non per il codice GPU, ma che compili codice x86/ARM/pincopalla?
Proviamo ad accelerare Word?
Proviamo ad accelerare PowerPoint?
Proviamo ad accelerare InDesign?
Proviamo ad accelerare IE/Chrome/FireFox?
Proviamo ad accelerare Visual Studio? Le macro in Visual Basic (che sono ancora diffusissime)?
Per quanto possa essere efficiente l'uso della GPU su APU il problema non è quello: è cosa la si riesce ad usare per fare. Poco o nulla. Potrai accelerare a manetta 4 algoritmi che sono usati dall'1% dell'utenza per l'1% del tempo.
Potrai fare dei bei grafici con le barrette colorate lunghissime, ma che dicono poco: ovvero, quanto effettivamente fanno risparmiare in termini di tempo a chi usa questa HSA basata su GPGPU. Quasi nulla.
cdimauro
21-07-2014, 14:39
Non sarà un processore x86 e andrà a coprire fasce diverse.
Inizieranno coi microserver, com'è ovvio che sia.
Vedremo con che risultati.
Dipende molto se useranno una loro re-implementazione (come Apple, ad esempio) o quella standard fornita da ARM.
I numeri di Anadtech dimostrano poco e nulla, dato che sono stati misurati su una demo board in modo "artgianale".
A parte il fatto che puoi sempre dimostrarmi dov'è che avrebbe sbagliato Anand, ecco qui (http://www.anandtech.com/show/7428/asus-transformer-book-t100-review/5).
Non c'è un dato esatto che possa essere confrontato con un SoC ARM.
Che dato vorresti? Sii chiaro.
E infatti non c'è un prodotto Intel che sia adottato "liberamente" dai costruttori di dispositivi mobile. Se Intel non "aiuta" la scelta, semplicemente nessuno prende in considerazione i suoi prodotti. Un motivo ci sarà, no? Se il prezzo non è il problema...
Ti ho fornito il link a un prodotto in ambito mobile, con ottimi consumi e altrettanto ottimo prezzo.
Questo è il punto. La cosa rimarrà vera finché Intel può permettersi di venderli sotto costo.
Per far concorrenza a Mediatek? Non è il suo mercato. Io parlavo dei prodotti high-end di Qualcomm, Samsung, e nVidia, che non costano certamente due soldi, e coi quali i prodotti di Intel erano e sono, per l'appunto, concorrenziali.
Inoltre continui con la storia del sottocosto, senza averne le prove.
Balla? Ahahah...
Va be', a questo punto sfoggiamo i numeri del bilancio Intel, visto sono un fanboy e racconto frottole e tu guardi le voci sbagliate del bilancio, ovvero quelle che ti fanno comodo e non raccontano nulla:
Mobile and Communications Group, operating income (non fatturato, ma è la misura di quanto è la resa reale del reparto considerando i costi e guadagni):
secondo trimestre 2014: perdida di 1,124 miliardi di dollari
secondo trimestre 2013: perdita di 761 milioni di dollari
da inizio anno 2014 (2 trimestri) perdita di 2,053 miliardi di dollari
da inizio anno 2013 (2 trimestri) pedita di 1,464 miliardi di dollari
Ora, senza i 7 e rotti milliardi di dollari che rendono le divisioni DataCenter e PC Client,
Toh, adesso hai aggiunto anche Data Center. Che strano...
mi dici quanti trimestri riuscirebbe Intel a mantenere i propri prezzi concorrenziali a quelli di ARM?
Perché non li leggi meglio quei dati? Già nel 2013 la divisione era in perdita, e non c'era alcuna voce riguardo all'abbassamento dei prezzi di Intel. Questo come lo spieghi?
Io l'ho già spiegato prima...
Sempre balle dico?
Direi proprio di sì. Non hai dimostrato ancora la tua tesi. Te la riporto:
"La strategia della vendita sottocosto non può essere duratura (vedesi i numeri di perdita di Intel in quel settore)"
Presi direttamente da qui: http://www.intc.com/releasedetail.cfm?ReleaseID=859875, non da Novella 2000 o "il blog del fanboy anti Intel".
Li puoi prendere da dove vuoi, ma bisogna leggerli correttamente.
Per il resto hai ancora una volta dimostrato di voler essere un buon predicatore per la tua azienda, ma non ci sei riuscito.
L'aumento di stipendio per questo inutile sforzo solo quando la divisione Mobile di Intel farà UTILI. E sei fortunato che non ti paghino tutto lo stipendio solo quando li farà (magari anche dopo aver recuperato le perdite accumulate negli anni precendenti), altrimenti mi sa che faresti un po' (tanta) fame.
Il solito attacco ad hominem, classica fallacia che utilizzi spesso per "argomentare".
Personalmente mi occupo di prodotti di un settore diametralmente opposto rispetto a quello di cui stiamo discutendo adesso, ma questo avresti dovuto capirlo già da un bel pezzo, come avresti dovuto capire pure che non lavoro in ambito marketing / vendite.
Ma è più forte di te: se non la fai fuori dal vaso non sei contento.
Per l'HSA, io davvero non capisco come si possa credere che possa funzionare: ripeto per l'ennesima volta, un conto è avere l'HSA realizzata con componenti efficienti che svolgono una funzione particolare in un determinato contesto (de/codifica video/immagini/audio) un conto è credere che la GPU possa essere usata per accelerare i normali algoritmi di tutti i giorni.
Proviamo a realizzare un compilatore su GPU? Non per il codice GPU, ma che compili codice x86/ARM/pincopalla?
Proviamo ad accelerare Word?
Il disegno della grafica si può scaricare sulla GPU.
Proviamo ad accelerare PowerPoint?
Idem come sopra, come pure i vari effetti di animazione / transizione.
Proviamo ad accelerare InDesign?
Il disegno della grafica vettoriale si può facilmente scaricare sulla GPU.
Proviamo ad accelerare IE/Chrome/FireFox?
Grafica e animazioni (CSS) si possono scaricare sulla GPU.
Proviamo ad accelerare Visual Studio? Le macro in Visual Basic (che sono ancora diffusissime)?
Per quanto possa essere efficiente l'uso della GPU su APU il problema non è quello: è cosa la si riesce ad usare per fare. Poco o nulla. Potrai accelerare a manetta 4 algoritmi che sono usati dall'1% dell'utenza per l'1% del tempo.
Potrai fare dei bei grafici con le barrette colorate lunghissime, ma che dicono poco: ovvero, quanto effettivamente fanno risparmiare in termini di tempo a chi usa questa HSA basata su GPGPU. Quasi nulla.
Ma infatti non si può scaricare tutto sulla GPU, che non rappresenta affatto il sacro Graal della computazione.
Ma è pur vero che ci sono diversi ambiti in cui è possibile farlo. Vedi sopra.
Per sfruttare per bene l'hardware servono sia una CPU sia una GPU adeguate, a cui affidare i compiti in cui eccellono. Almeno finché non ci sarà una convergenza fra i due, come sta avvenendo già da tempo, e il fatto che OpenCL possa funzionare anche soltanto sulla CPU non è per mero esercizio di stile, ma un chiaro segnale in tal senso...
CrapaDiLegno
21-07-2014, 17:36
Inizieranno coi microserver, com'è ovvio che sia.
Dipende molto se useranno una loro re-implementazione (come Apple, ad esempio) o quella standard fornita da ARM.
E vedremo come andrà. Sicuramente non si pone nello stesso mercato in cui si pone Intel con i suoi Xeon. O almeno, non arriva in tutti i mercati in cui arriva Intel o in cui arrivaa quando AMD aveva gli Opteron.
A parte il fatto che puoi sempre dimostrarmi dov'è che avrebbe sbagliato Anand, ecco qui (http://www.anandtech.com/show/7428/asus-transformer-book-t100-review/5).
Che dato vorresti? Sii chiaro.
Ti ho fornito il link a un prodotto in ambito mobile, con ottimi consumi e altrettanto ottimo prezzo.
In primis il cosumo è stato fatto calcolando le singole parti distinte del SoC, non tutte insieme. E presi singolarmente non dicono molto sul vero consumo del SoC quando opera. Consumo che non si è potuto misurare in maniera utile perché montato su una demo board che non aveva i componenti da "mobile".
Anche il link che hai postato ha poco significato, dato che è un netbook con una batteria enorme ma anche un display grande (seppur con risoluzione inferiore rispetto ai tablet con cui si confronta) e ha un reparto di storage diverso. Ma alla fine cosa vorresti dimostrare?
Per far concorrenza a Mediatek? Non è il suo mercato. Io parlavo dei prodotti high-end di Qualcomm, Samsung, e nVidia, che non costano certamente due soldi, e coi quali i prodotti di Intel erano e sono, per l'appunto, concorrenziali.
Inoltre continui con la storia del sottocosto, senza averne le prove.
Toh, adesso hai aggiunto anche Data Center. Che strano...
La parola Datacenter ti ha confuso. No perché mi sembrava molto ben definito l'ambito in cui era nominato. Poi non capisco, il fatto che "ora nomino i reparto Data Center". Ho mai detto qualcosa contro?
Perché non li leggi meglio quei dati? Già nel 2013 la divisione era in perdita, e non c'era alcuna voce riguardo all'abbassamento dei prezzi di Intel. Questo come lo spieghi?
Che nel 2013 vendeva 1/10 dei soc che vendeva adesso facendo meno sconto e perdendo di meno? Mentre quest'anno Intel si è posta l'obiettivo di 40 milioni di SoC a qualsiasi prezzo? E quindi la perdita è quasi raddoppiata?
Non è che se non fai lo sconto non vai in perdita. Lo scopo del gioco è avere un margine che anche copra le spese fisse che ci sono sempre. Oltre a quelle di produzione, ma quelle sono lineari con i pezzi prodotti. Ma se perdi 10 dollari per ogni SoC e ne vendi 40 milioni fai in fretta a calcolare quanto è la perdita, rispetto a perderne 2 e venderne 5 milioni.
Io l'ho già spiegato prima...
Direi proprio di sì. Non hai dimostrato ancora la tua tesi. Te la riporto:
"La strategia della vendita sottocosto non può essere duratura (vedesi i numeri di perdita di Intel in quel settore)"
Li puoi prendere da dove vuoi, ma bisogna leggerli correttamente.
Non c'è nula da leggere correttamente. Il settore mobile di Intel è in perdita nettissima da oltre un anno e non è concorrenziale con il resto del mercato. Le perdite di questa divisione è coperta con gli introiti delle altre (Data Center e PC Client).
Come fai a dire che Intel è concorrenziale con Qualcomm quando la prima fa 4 miliardi di debito l'anno e la seconda 4 di guadagno? E' concorrenziale in cosa? Nei prezzi forse finché può permetterselo. Altrimenti il risultato è scontato. Perdite per Intel pari a zero (o quasi) ma numero di SoC venduti altrettanto pari a zero.
Il solito attacco ad hominem, classica fallacia che utilizzi spesso per "argomentare".
Ma che attacco. Ti ho forse insultato? Ti volevo far vedere che le tue affermazioni sono completamente vuote perché i numeri dicono esattamente l'opposto di quel che vorresti affermare. E per rendere la cosa più chiara ho voluto legare il tuo stipendio all'andamento della divisione che tu dici essere concorrenziale con il resto del merato. Se l'hai trovato un attacco è solo per il fatto che sai che il risultato della gag sarebbe che moriresti di fame.
Personalmente mi occupo di prodotti di un settore diametralmente opposto rispetto a quello di cui stiamo discutendo adesso, ma questo avresti dovuto capirlo già da un bel pezzo, come avresti dovuto capire pure che non lavoro in ambito marketing / vendite.
Il chè è irrilevante rispetto a quello che volevo farti notare io. Ma sembra che ti sia sfuggita completamente la cosa.
Ma è più forte di te: se non la fai fuori dal vaso non sei contento.
E' più forte di te, il fatto che non sai distinguere un'assurdità detta per scherzo per un attacco personale. Sembri vittima di te stesso e del tuo modo di fare. Ripeto, io non ho voluto attaccarti in alcun modo. Non c'era insulto nella frase detta, solo la volontà di dimostrarti con i fatti che la divisione che dici essere concorrenziale e senza perdite sarebbe alquanto boccheggiante se non avesse dietro le bombole dovuto ad altro.
Il disegno della grafica si può scaricare sulla GPU.
Idem come sopra, come pure i vari effetti di animazione / transizione.
Il disegno della grafica vettoriale si può facilmente scaricare sulla GPU.
Grafica e animazioni (CSS) si possono scaricare sulla GPU.
Ma infatti non si può scaricare tutto sulla GPU, che non rappresenta affatto il sacro Graal della computazione.
Non confondiamo lo scaricare l'accelerazione grafica con iul GPGPU. Sono cose ben diverse e scaricare la grafica per me significa dare in pasto il motore di layout alla GPU, cosa che troverei interessante veder realizzato. Far disegnare gli elementi grafici sono cose che si possono fare da 20 anni sul PC. Scompattare un JPEG con la GPU costa in termini di energia molto d più di farlo fare ad un componente a funzione fissa.
Ma è pur vero che ci sono diversi ambiti in cui è possibile farlo. Vedi sopra.[/quote]
Dopo tutti questi anni in cui l'accelerazione GPGPU è disponibile nessuno dei suddetti programmi è scritto per sfruttarla come hai descritto.
Per sfruttare per bene l'hardware servono sia una CPU sia una GPU adeguate, a cui affidare i compiti in cui eccellono. Almeno finché non ci sarà una convergenza fra i due, come sta avvenendo già da tempo, e il fatto che OpenCL possa funzionare anche soltanto sulla CPU non è per mero esercizio di stile, ma un chiaro segnale in tal senso...
E' un tentativo di cercare una uscita alla mancanza di progresso dovuto fino a ieri all'uso massiccio di core monolitici che facevano tutto loro, anche quando non energeticamente efficienti.
E' come la moltiplicazione smisurata dei core delle CPU per tentare di risolvere il problema delle prestazioni che non aumentano più da anni come quando si poteva girare sulla manetta della frequenza ad ogni nuovo PP. Sono un metodo che argina il problema base solo in alcuni ambiti. Non risolvono di certo il fatto che la maggior parte degli algoritmi è seriale e non parallela e per risolverli più che milemila componenti paralleli che ne eseguono mille istanze per mascherare il throughput basso serve un componente (qualunque esso sia, un core, a funzione fissa o un componente specializzato) che lo esegua in maniera seriale.
Guarda caso negli ultimi anni, dopo la "sbronza" del GPGPU nel mercato consumer con la GPU usata anche per fare il caffè si sono aggiunti alle CPU (e alle GPU) componenti specifici a funzione fissa per de/codificare l'audio e il video e per la crittografia, gli ambiti in cui la mancanza di prestazioni (e l'aumento dei consumi) di un core monolitico si fanno più sentire.
Nei SoC ARM, molto più attenti alla questione efficienza, e molto meglio pensati nativamente per l'HSA (o il coprocessing come già si faceva anni fa) ci sono i componenti per gestire le fotocamere e le relative immagini JPEG. Non si usa la GPU (per quanto potente) per fare questi lavori.
L'accelerazione tramite GPU ha senso solo per un ristrettissimo numero di operazioni. Questo significa che l'HSA basato su di essa, come nelle APU AMD, non ha alcun senso nel mercato consumer. Se per assurdo (ma neanche tanto) AMD facesse una APU con una CPU scarsa e una immensa GPU per il mercato HPC allora magari sì, la questione avrebbe senso.
Ma per me e te che usiamo il PC a casa l'HSA non da alcun vantaggio. Meglio (almeno per me) 8 core che macinano a manetta un numero maggiore di algoritmi pseudo-seriale che i 4 altamente-parallelizzabili accelerabili da una eventuale GPU.
cdimauro
22-07-2014, 06:41
In primis il cosumo è stato fatto calcolando le singole parti distinte del SoC, non tutte insieme.
Questo dove l'avresti letto? La preview la trovi qui (http://www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested).
Ma, soprattutto, mi faresti vedere in che modo sarebbe possibile ottenere il consumo delle singole parti del SoC?
E presi singolarmente non dicono molto sul vero consumo del SoC quando opera.
Più che altro hai a disposizione soltanto il consumo del SoC per intero, e non delle singole parti, per cui è proprio quello che è stato misurato. Ecco qui (http://www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/2) dove ne parla specificamente.
Consumo che non si è potuto misurare in maniera utile perché montato su una demo board che non aveva i componenti da "mobile".
Come puoi vedere dal primo link, si tratta di un prodotto finito. Un tablet. Con tutto ciò che serviva.
A questo punto mi sorge il dubbio che tu abbia visto qualcosa di completamente diverso.
Anche il link che hai postato ha poco significato, dato che è un netbook con una batteria enorme ma anche un display grande (seppur con risoluzione inferiore rispetto ai tablet con cui si confronta)
Il display è l'elemento che consuma parecchio.
e ha un reparto di storage diverso. Ma alla fine cosa vorresti dimostrare?
Che si possono realizzare prodotti basati su BayTrail con ottime prestazioni e buoni consumi?
La parola Datacenter ti ha confuso.
Più che altro stupito, perché non l'avevi nemmeno citata.
No perché mi sembrava molto ben definito l'ambito in cui era nominato.
Avevi parlato soltanto di PC prima, che è un altro ambito.
Poi non capisco, il fatto che "ora nomino i reparto Data Center". Ho mai detto qualcosa contro?
No, hai soltanto citato il comparto PC, come già detto, ignorando quello Data Center.
Rileggi il tuo commento.
Che nel 2013 vendeva 1/10 dei soc che vendeva adesso facendo meno sconto e perdendo di meno? Mentre quest'anno Intel si è posta l'obiettivo di 40 milioni di SoC a qualsiasi prezzo? E quindi la perdita è quasi raddoppiata?
Non è che se non fai lo sconto non vai in perdita. Lo scopo del gioco è avere un margine che anche copra le spese fisse che ci sono sempre. Oltre a quelle di produzione, ma quelle sono lineari con i pezzi prodotti. Ma se perdi 10 dollari per ogni SoC e ne vendi 40 milioni fai in fretta a calcolare quanto è la perdita, rispetto a perderne 2 e venderne 5 milioni.
Ovvio, ma lo scopo è quello di coprire i costi di ricerca, sviluppo, e marketing come già detto prima. E quelli erano già notevoli lo scorso anno. Quest'anno si aggiungono anche quelli della nuova piattaforma, BayTrail, che ha richiesto uno sforzo non indifferente.
Come già detto prima, qualunque prodotto che arriva sul mercato ha già in partenza generato delle perdite dovute alle voci di cui sopra, che con le vendite devono essere poi ripianate. Il che vuol dire che servirà tempo per coprirle, e andare poi in positivo.
E tutto ciò NON significa che Intel stia vendendo in perdita, ma che... non vende abbastanza per coprire i costi di cui sopra. Tant'è che, e lo ripeto per l'n-esima volta, il comparto era già in perdita da ben prima che decidesse di abbassare i prezzi.
Non c'è nula da leggere correttamente. Il settore mobile di Intel è in perdita nettissima da oltre un anno e non è concorrenziale con il resto del mercato. Le perdite di questa divisione è coperta con gli introiti delle altre (Data Center e PC Client).
Fin qui ci siamo.
Come fai a dire che Intel è concorrenziale con Qualcomm quando la prima fa 4 miliardi di debito l'anno e la seconda 4 di guadagno? E' concorrenziale in cosa?
L'avevo già scritto. Te lo riporto:
"E riguardo ai costi, i prodotti di Intel sono concorrenziali rispetto a SoC ARM di pari fascia."
Perché riporti un paragone che non c'entra nulla?
Nei prezzi forse finché può permetterselo. Altrimenti il risultato è scontato. Perdite per Intel pari a zero (o quasi) ma numero di SoC venduti altrettanto pari a zero.
Intel era concorrenziale a livello di prezzi anche prima che abbassasse i prezzi; vediamo quante volte lo devo ripetere.
Il suo problema sono i volumi di vendita.
Ma che attacco. Ti ho forse insultato?
E da quando per attaccare qualcuno bisognerebbe per forza insultarlo? In base a quale "logica"?
Ti volevo far vedere che le tue affermazioni sono completamente vuote perché i numeri dicono esattamente l'opposto di quel che vorresti affermare.
Sui numeri e le affermazioni mi sono già espresso. Ma in tutto ciò non si sentiva il bisogno di tirare in ballo una cosa che non c'entra nulla, ossia il mio stipendio.
E per rendere la cosa più chiara ho voluto legare il tuo stipendio all'andamento della divisione che tu dici essere concorrenziale con il resto del merato.
Per rendere la cosa più chiara? E come? In base a quale altra logica riesci a legare cose che non c'entra nulla? Spiega pure...
Se l'hai trovato un attacco è solo per il fatto che sai che il risultato della gag sarebbe che moriresti di fame.
Ti sarà sfuggito che la situazione di Intel non è certamente disperata come fantastichi.
Comunque quella "battuta" infelice si aggiunge alle cose che non c'entrano nulla con l'argomento della discussione, e risulta più che altro un tuo sfogo.
Il chè è irrilevante rispetto a quello che volevo farti notare io. Ma sembra che ti sia sfuggita completamente la cosa.
Più che altro non ha proprio senso quello che hai tirato in ballo, visto che parli di cose che non c'entrano nulla rispetto a ciò di cui si stava parlando. Ma aspetto di vedere con quale volo pindarico riesci a parlare di una cosa totalmente diverse per farne "notare" un'altra...
E' più forte di te, il fatto che non sai distinguere un'assurdità detta per scherzo per un attacco personale.
Te lo riporto per intero:
"Per il resto hai ancora una volta dimostrato di voler essere un buon predicatore per la tua azienda, ma non ci sei riuscito.
L'aumento di stipendio per questo inutile sforzo solo quando la divisione Mobile di Intel farà UTILI. E sei fortunato che non ti paghino tutto lo stipendio solo quando li farà (magari anche dopo aver recuperato le perdite accumulate negli anni precendenti), altrimenti mi sa che faresti un po' (tanta) fame."
Così mi farai vedere in che modo si possa prendere tutto ciò come uno scherzo.
Sembri vittima di te stesso e del tuo modo di fare.
Rispondo in base a quello che leggo. E scusami se non riesco a interpretare quello che ti passa per la testa, visto che da ciò che scrivi è impossibile arrivarci.
Ripeto, io non ho voluto attaccarti in alcun modo.
T'ho riportato tutto lì sopra. Se non è un attacco quello, possiamo ridefinire il significato di questa parola nel vocabolario...
Non c'era insulto nella frase detta,
Non bisogna insultare qualcuno per attaccarlo. Logica alla mano...
solo la volontà di dimostrarti con i fatti che la divisione che dici essere concorrenziale e senza perdite sarebbe alquanto boccheggiante se non avesse dietro le bombole dovuto ad altro.
Altra battuta infelice, ma ormai è evidente che non sai fare altro.
Riparliamone quando mi DIMOSTRERAI cosa c'entra il mio stipendio con l'argomento della discussione.
Per il resto mi spieghi perché non ce la fai a sostenere una discussione senza scadere negli attacchi personali? Se rileggi la discussione, gli altri riescono a farlo tranquillamente. L'unico che deve uscire per forza dal seminato sei solo tu...
Non confondiamo lo scaricare l'accelerazione grafica con iul GPGPU. Sono cose ben diverse e scaricare la grafica per me significa dare in pasto il motore di layout alla GPU, cosa che troverei interessante veder realizzato. Far disegnare gli elementi grafici sono cose che si possono fare da 20 anni sul PC. Scompattare un JPEG con la GPU costa in termini di energia molto d più di farlo fare ad un componente a funzione fissa.
Indubbiamente, ma se devi applicare un effetto di rotazione a un disegno vettoriale, oltre che a disegnarlo sullo schermo puoi anche scaricare sulla GPU i calcoli della rotazione, per poi aggiornare le strutture dati utilizzate per rappresentare quegli oggetti. Tanto per fare un esempio.
Ma è pur vero che ci sono diversi ambiti in cui è possibile farlo. Vedi sopra.
Dopo tutti questi anni in cui l'accelerazione GPGPU è disponibile nessuno dei suddetti programmi è scritto per sfruttarla come hai descritto.
Non è detto che non verranno modificati. Il problema è che, come al solito, ci vuole tempo. Adobe ha impiegato una vita a permettere di usare la GPU per calcolare i kernel dei filtri grafici di Photoshop, quando è da tanti anni che le GPU sono abbastanza flessibili da essere utilizzate allo scopo.
E' un tentativo di cercare una uscita alla mancanza di progresso dovuto fino a ieri all'uso massiccio di core monolitici che facevano tutto loro, anche quando non energeticamente efficienti.
L'utilizzo di coprocessori / unità dedicati a particolare scopi risale alla notte dei tempi informatici. Non è una novità, insomma.
Persino l'FPU, che è l'unità computazionale più vecchia in tal senso, nasce per sopperire alle mancanze dell'unità centrale / general purpose / "intera".
E' come la moltiplicazione smisurata dei core delle CPU per tentare di risolvere il problema delle prestazioni che non aumentano più da anni come quando si poteva girare sulla manetta della frequenza ad ogni nuovo PP.
E' la fisica che pone dei paletti. Finché s'è potuto, si è saliti in frequenza. Adesso è molto difficile farlo, quanto meno col silicio, per cui è stato necessario trovare altre strade per migliorare le prestazioni.
Sono un metodo che argina il problema base solo in alcuni ambiti. Non risolvono di certo il fatto che la maggior parte degli algoritmi è seriale e non parallela e per risolverli più che milemila componenti paralleli che ne eseguono mille istanze per mascherare il throughput basso serve un componente (qualunque esso sia, un core, a funzione fissa o un componente specializzato) che lo esegua in maniera seriale.
Che è proprio l'ambito in cui peccano le GPU: componenti votate al parallelismo (distribuzione) più spinto, ma per questo motivo non in grado di affrontare allo stesso modo gli altri tipi di elaborazioni.
Guarda caso negli ultimi anni, dopo la "sbronza" del GPGPU nel mercato consumer con la GPU usata anche per fare il caffè si sono aggiunti alle CPU (e alle GPU) componenti specifici a funzione fissa per de/codificare l'audio e il video e per la crittografia, gli ambiti in cui la mancanza di prestazioni (e l'aumento dei consumi) di un core monolitico si fanno più sentire.
Come dicevo, la presenza di coprocessori / unità dedicati è roba vecchia; non è una novità.
Piuttosto le CPU hanno integrato nelle unità SIMD nuove funzionalità per risolvere problematiche specifiche (ma abbastanza comuni da giustificarne l'accelerazione).
Il paradigma SIMD consente di ottenere prestazioni elevate (potendo elaborare più dati allo stesso tempo) a costi contenuti (la decodifica di una sola istruzione), ma col tempo si sta specializzando sempre di più aggiungendo il supporto a nuovi ambiti.
Ovviamente non è in grado di coprire tutte le esigenze. Un'unità dedicata alla de/codifica di immagini JPEG, video, ecc., è sicuramente molto più efficiente a livello di transistor e consumi rispetto a un'unità SIMD (più il core general purpose) per fare la stessa cosa. Ma al contempo rimarrà inutilizzata se non c'è da eseguire spesso quest'operazione.
Entrambi le cose hanno pro e contro, e a volte conviene più l'una che l'altra. Come sempre.
C'è da rilevare, comunque, di come AMD abbia adottato il paradigma SIMD con la sua architettura GCN, che risulta ben messa in ambito GPGPU. E anche Maxwell di nVidia, con quei 4 core CUDA in file seguiti dal core scalare (e dall'unità load/store), lascia trasparire analogie col paradigma SIMD, anche se non ci siamo ancora (devono essere considerati e gestiti come un blocco unico).
Nei SoC ARM, molto più attenti alla questione efficienza, e molto meglio pensati nativamente per l'HSA (o il coprocessing come già si faceva anni fa) ci sono i componenti per gestire le fotocamere e le relative immagini JPEG.
Ma sono tutte cose che si facevano tempo fa anche con altre architetture, inclusa x86. Infatti è da tempo che le GPU per i PC mettono a disposizione unità dedicate allo scopo o per accelerarne alcune parti.
Non si usa la GPU (per quanto potente) per fare questi lavori.
L'accelerazione tramite GPU ha senso solo per un ristrettissimo numero di operazioni. Questo significa che l'HSA basato su di essa, come nelle APU AMD, non ha alcun senso nel mercato consumer.
Ha senso per gli ambiti in cui la si può sfruttare, e non sono così pochi. Il problema più grosso è spendere risorse (umane) per poterlo fare.
Se per assurdo (ma neanche tanto) AMD facesse una APU con una CPU scarsa e una immensa GPU per il mercato HPC allora magari sì, la questione avrebbe senso.
Potrebbe arrivare prima o poi. D'altra parte ha già GPU con parecchi core, oltre a SoC che integrano CPU e GPU. Ma servirebbe un design apposito, e non so se AMD abbia intenzione di realizzare un prodotto ad hoc esclusivamente per il mercato HPC.
Ma per me e te che usiamo il PC a casa l'HSA non da alcun vantaggio. Meglio (almeno per me) 8 core che macinano a manetta un numero maggiore di algoritmi pseudo-seriale che i 4 altamente-parallelizzabili accelerabili da una eventuale GPU.
In generale preferisco le CPU perché sono più generali e versatili, ma al momento non integrano tante unità di calcolo quanto una GPU, per cui utilizzare la GPU ove possibile ha senso.
Quando arriveranno CPU con unità SIMD più massicce e con prestazioni abbastanza buone da non far rimpiangere una GPU, ci sarà meno spazio per queste ultime (in ambito GPGPU, intendo).
Nel frattempo la penuria di software dedicato penalizza le GPU. E quando ci sarà software adeguato, probabilmente ci saranno CPU in grado i macinare parecchi numeri.
Per cui non so quanto abbia senso sprecare molto tempo nell'implementare offloading dei calcoli verso le GPU, a meno che non si tratti di semplici modifiche ovviamente. E' di gran lunga più facile adattare codice per sfruttare più core e/o unità SIMD di una CPU, anziché riscriverlo ad hoc per sfruttare CUDA/DirectCompute/OpenCL.
Alla fine non basta avere sulla carta la soluzione che possa fornire grezzamente più potenza di calcolo, se poi per sfruttarla ci sono problemi. Anche questa è una cosa di cui bisogna tenere conto nelle valutazioni che si fanno. Specialmente tenendo conto del fatto che il tempo di un essere umano è molto più limitato e prezioso, specialmente quando si tratta di gente altamente specializzata.
CrapaDiLegno
22-07-2014, 09:59
E va be', poi non ti lamentare che la gentre "abbandona" le discussioni.
Sta diventando inutile parlare con te riguardo alle questioni Intel.
Io ti ho dato dei numeri (che non mi sono inventato) che dimostrano chiaramente come la divisione mobile di Intel non sia concorrenziale con nulla.
Ma riesci a negare anche quelli. O a leggerli come vuoi, quando in verità sono dei numeri in bilancio che parlano da soli, sopratutto per la loro entità.
I costi fissi che Intel non copre non li ricoprirà mai, perché l'anno prossimo deve usire con i nuovi SoC a 14nm che costeranno di più (in R&D e produzione) di quelli precedenti.
Per recuperare i soldi deve avere un prodotto veramente concorrenziale che da solo si guadagna il mercato. Cosa che invece non sta riuscendole. E sono 3 anni che ci tenta.
La questione "sottocosto" è reale. Quando una cosa è sottocosto? Quando non dà i margini per coprire i suoi costi. Quali sono i suoi costi? Oltre a quelli di produzione (e ti ricordo che a parità di area un die a 22nm costa di più di uno a 28nm o 40nm) anche quelli fissi.
Come si calcola il costo di un prodotto? Costo produzione + Costi fissi/Numero di vendite previste.
Intel non è un garagista che "spera" di vendere i suoi prodotti al mercatino all'angolo e quindi tira a indovinare sul numero di pezzi che venderà. Ha una serie di partner con cui collabora e si interfaccia per sapere quante sono le quantità che può vendere molto in anticipo. Ma ovviamente deve trovare l'equilibrio tra numeri di vendita e costi.
Il problema quindi non è il numero di SoC venduti. Quello è un effetto. La causa principale è dovuto ai costi e la qualità. Alti costi, bassa domanda, basse prestazioni poca domanda. Prezzo basso maggiore domanda, ma non margine a sufficienza. E per prestazioni non intendo capacità di elaborare. I Mediatek sono scarsi ma sono molto richiesti. Chiediti perchè.
Ti lascio il compito a casa nel trovare la risposta. A me risulta chiara come il Sole. Forse perché non ho fette di salame sugli occhi che mi oscurano la vista.
Per l'HSA mi sembra convergiamo allo stesso pensiero, più o meno.
Anche se quello che vorresti mandare in elaborazione alla GPU nei tuoi esempi è il normale lavoro grafico che svolge una qualsiasi GPU che potrebbe pure non avere alcuna unità di calcolo avanzata.
E non sono anni che si ha nelle CPU unità di calcolo dedicate. L'ultima inserita è la FPU nelle sue più varie declinazioni (compresa la variante vettoriale) trenta ann fa. Le unità per le operazioni specifiche a funzione fissa sono solo degli ultimi tempi, quando è diventato chiaro che non è possibile continuare ad usare centinaia di W per fare un'operazione che una unità dedicata esegue con 1 solo. Gli engine di decodifica video ci sono da poco nelle GPU (per dire, i chipset dei primi Atom non li avevano ed erano una pena per la riproduzione video). Quelle di codifica ancora da meno tempo. Anche se prima si è tentato la via del brute force con le mille mila unità di calcolo delle GPU stesse con scarsi risultati (ovviamente inapplicabili sui sitemi mobile che sono quelli che alla fine hanno riaperto la strada chiusa da tempo sull'inserimento di queste unità funzionali dedicate).
L'unico modo che io vedo di rendere la computazione GPGPU estremamente pervasiva è quella di rendere le unità di calcolo della GPU indirizzabili direttamente dalla CPU tramite delle istruzioni apposite. Trasformandola in una immensa FPU complessa, per intenderci.
Il resto del discorso sull'"attacco personale", davvero, non lo capisco. Potrebbero però essere problemi miei. Me li tengo. Inutile continuare. Non ti preoccupare, il tuo stipendio non te lo tocca nessuno. Vivi sereno.
cdimauro
24-07-2014, 07:17
E va be', poi non ti lamentare che la gentre "abbandona" le discussioni.
Sta diventando inutile parlare con te riguardo alle questioni Intel.
C'è sempre una buona scusa per evitare di intervenire in discussioni ormai divenute spinose. Se su una cosa non vuoi continuare a discutere puoi sempre affermare che ci sono differenze di vedute inconciliabili, ma sulle altre cose puoi continuare. Tanto per essere chiari, se riporti delle cose completamente sbagliate su PC e Amiga, non è che te ne puoi uscire fuori con: "ah, ma con te non si può discutere perché sei filo-Intel".
Io ti ho dato dei numeri (che non mi sono inventato) che dimostrano chiaramente come la divisione mobile di Intel non sia concorrenziale con nulla.
Intanto diamo un significato preciso alle parole: Concorrenziale (http://www.treccani.it/vocabolario/concorrenziale/) e Concorrenza (http://www.treccani.it/vocabolario/concorrenza/).
Puoi realizzare un prodotto concorrenziale, quindi con caratteristiche equiparabili o perfino superiori a quelle degli altri produttori, ma che non riesce ugualmente ad attecchire nel mercato per ragioni che non dipendono dalle caratteristiche del prodotto di per sé (prezzo incluso), ma da altri fattori.
Un esempio è il mercato delle console. Playstation 2 ha stravenduto nonostante avesse caratteristiche inferiori a XBox e Gamecube, e persino al Dreamcast che era uscito un anno prima. Questo perché Sony ha avuto dalla sua il marchio Playstation, e ha saputo sfruttarlo per bene (anche se il giochetto non le è riuscito successivamente).
Per i prodotti mobile Intel è lo stesso: offrono ottime prestazioni, mediamente superiori alle concorrenza, con consumi comparabili, e buoni prezzi. Ma non riescono a vendere, perché Intel è arrivata troppo tardi in questo mercato, e adesso fa un'enorme fatica a inserirsi.
Ed è un problema che non riguarda soltanto Intel, visto che MIPS sta messa molto peggio (ed è finalmente supportata da Android: puoi compilare binari anche per MIPS da qualche tempo). E non parliamo di PowerPC, che è praticamente inesistente.
Ora non venirmi a dire che MIPS e PowerPC hanno chip con mostruosi core con tanta roba legacy che succhia energia (quell'energia di cui non hai fornito una definizione). Semplicemente si sono mossi troppo tardi su questo mercato, mentre ARM ha avuto un enorme vantaggio che ha saputo capitalizzare.
Ma riesci a negare anche quelli. O a leggerli come vuoi, quando in verità sono dei numeri in bilancio che parlano da soli, sopratutto per la loro entità.
I numeri del bilancio sono chiarissimi. E' l'interpretazione che gli vuoi dare che è ampiamente contestabile. Vedi i messaggi precedenti, e vedi sopra.
I costi fissi che Intel non copre non li ricoprirà mai, perché l'anno prossimo deve usire con i nuovi SoC a 14nm che costeranno di più (in R&D e produzione) di quelli precedenti.
Per recuperare i soldi deve avere un prodotto veramente concorrenziale che da solo si guadagna il mercato. Cosa che invece non sta riuscendole. E sono 3 anni che ci tenta.
Perché è arrivata troppo tardi. Vedi sopra.
La questione "sottocosto" è reale. Quando una cosa è sottocosto? Quando non dà i margini per coprire i suoi costi. Quali sono i suoi costi? Oltre a quelli di produzione (e ti ricordo che a parità di area un die a 22nm costa di più di uno a 28nm o 40nm) anche quelli fissi.
Da quando produrre coi 22nm costa di più dei 28 o addirittura 40nm? Riporta pure i numeri che ti piacciono tanto, perché questa è veramente grossa.
A questo punto dovresti chiedere ad Altera come mai sia andata a bussare alla porta di Intel per produrre i suoi FPGA con un processo produttivo più costoso di quello che già utilizzava. E chiedile come mai ha rinnovato per i 14nm. Idem per gli altri partner di Intel, non ultima Panasonic.
Saranno tutti ammattiti... Ma io aspetto le tue fonti e i tuoi numeri, così chiariamo anche questa cosa una volta per tutte.
Come si calcola il costo di un prodotto? Costo produzione + Costi fissi/Numero di vendite previste.
Intel non è un garagista che "spera" di vendere i suoi prodotti al mercatino all'angolo e quindi tira a indovinare sul numero di pezzi che venderà. Ha una serie di partner con cui collabora e si interfaccia per sapere quante sono le quantità che può vendere molto in anticipo. Ma ovviamente deve trovare l'equilibrio tra numeri di vendita e costi.
Le previsioni sono una cosa, e i risultati tutt'altro. L'abbiamo visto anche in politica di recente, coi risultati elettorali europei che nessuno aveva previsto. Perché, appunto, si parlava di previsioni: la realtà è un'altra cosa.
Anche Microsoft, e torniamo qui all'IT e proprio al mercato di cui stiamo parlando, prevedeva di vendere parecchie unità Surface quando l'ha introdotto, ma a poi dovuto scrivere a bilancio le perdite per tutti quelli che le sono rimasti sul groppone.
Ma si vede che le sfere di cristallo buone si trovano soltanto dalle tue parti. I colossi dell'IT dovrebbero comprarne un po' per riuscire ad azzeccare qualche previsione e non andare in malora...
Il problema quindi non è il numero di SoC venduti. Quello è un effetto. La causa principale è dovuto ai costi e la qualità. Alti costi, bassa domanda, basse prestazioni poca domanda.
Ma come fai a parlare di alti costi? Gli alti costi li hai nel settore desktop e server, dove c'è ben poca concorrenza. Ma i prodotti mobile hanno avuto da sempre dei prezzi concorrenziali.
Adesso lo sono molto di più, e vedremo come andrà l'annata.
Prezzo basso maggiore domanda, ma non margine a sufficienza. E per prestazioni non intendo capacità di elaborare. I Mediatek sono scarsi ma sono molto richiesti. Chiediti perchè.
Perché costano due soldi ovviamente, e infatti domina nella fascia basse. Chiediti anche tu perché nessuno degli altri colossi che producono SoC ARM si mettono a competere con Mediatek, ma preferiscono invece la fascia medio-alta.
Poi, però, la gente si lamenta perché il telefonino gli va a scatti. D'altra parte poco hanno speso e poco hanno avuto, per riportare un detto delle mie parti.
Ti lascio il compito a casa nel trovare la risposta. A me risulta chiara come il Sole. Forse perché non ho fette di salame sugli occhi che mi oscurano la vista.
L'unica cosa che riesci a vedere sono i numeri, e non tutte le variabili & motivazioni in gioco. Vedi sopra.
Per l'HSA mi sembra convergiamo allo stesso pensiero, più o meno.
Anche se quello che vorresti mandare in elaborazione alla GPU nei tuoi esempi è il normale lavoro grafico che svolge una qualsiasi GPU che potrebbe pure non avere alcuna unità di calcolo avanzata.
No, alle GPU manderei anche i dati che si trovano anche lato CPU, in modo che possano elaborare tutte le operazioni (che sono in grado di espletare) in maniera autonoma, previo avvio da parte della CPU ovviamente.
Per fare un esempio, le strutture dati utilizzate da InDesign per rappresentare i vari elementi li farei condividere fra CPU e GPU (ma non tutto ovviamente: solo ciò che è realmente utile alla GPU per il suo lavoro). Poi smisterei le operazioni possibili alla GPU. Questo non si limita, ad esempio, a cambiare il colore di un elemento, ma anche da applicare operazioni più complesse.
Prima avevo fatto un esempio della rotazione di un disegno: tutti questi calcoli possono essere gestiti dalla GPU in scioltezza, senza l'intervento della CPU. E' ovvio che dopo quest'operazione all'utente dovrà essere visualizzato il disegno aggiornato, e questo fa parte dell'attuale accelerazione grafica.
Il problema, però, è che bisogna sostanzialmente riscrivere un'applicazione per mettere in pratica tutto ciò, inclusa la necessaria sincronizzazione fra le due parti. Cosa non affatto semplice, e che può richiedere parecchie risorse umane.
E non sono anni che si ha nelle CPU unità di calcolo dedicate. L'ultima inserita è la FPU nelle sue più varie declinazioni (compresa la variante vettoriale) trenta ann fa.
Se parliamo solo di x86, l'8087 è stato presentato da Intel 34 anni fa. E Intel non è stata certamente la prima a mettere a disposizione una FPU...
Inoltre non esiste una "variante vettoriale". Questa viene chiamata SIMD. Poi a livello architetturale e/o micro-architetturale un'unità SIMD può condividere con l'FPU alcune cose, come ad esempio gli stessi registri (vedi MMX) o unità di calcolo.
Ma può condividerle anche... con l'unità general purpose / "intera". Ad esempio le prime estensioni SIMD di ARM... usavano gli stessi registri "interi"; dunque niente FPU, ma soltanto la normale CPU. E, infatti, erano molto limitate.
Le unità per le operazioni specifiche a funzione fissa sono solo degli ultimi tempi, quando è diventato chiaro che non è possibile continuare ad usare centinaia di W per fare un'operazione che una unità dedicata esegue con 1 solo. Gli engine di decodifica video ci sono da poco nelle GPU (per dire, i chipset dei primi Atom non li avevano ed erano una pena per la riproduzione video). Quelle di codifica ancora da meno tempo. Anche se prima si è tentato la via del brute force con le mille mila unità di calcolo delle GPU stesse con scarsi risultati (ovviamente inapplicabili sui sitemi mobile che sono quelli che alla fine hanno riaperto la strada chiusa da tempo sull'inserimento di queste unità funzionali dedicate).
Ecco qui (http://en.wikipedia.org/wiki/PlayStation_technical_specifications). Come puoi vedere, l'unità MDEC della Playstation era in grado di decomprimere immagini o video, in un formato simile a JPEG e MPEG. Stiamo parlando di hardware di 20 anni fa.
Per cui non è una novità la presenza di unità di calcolo a funzione fissa.
L'unico modo che io vedo di rendere la computazione GPGPU estremamente pervasiva è quella di rendere le unità di calcolo della GPU indirizzabili direttamente dalla CPU tramite delle istruzioni apposite. Trasformandola in una immensa FPU complessa, per intenderci.
In parte è quello che stanno cercando di fare i produttori di GPU, ma rimane il problema della sincronizzazione & gestione delle varie unità di calcolo.
Poi ci sono altri produttori che hanno preferito eliminare le GPU, integrando direttamente nella CPU l'unità di calcolo massicciamente vettoriale, risolvendo a monte il problema (nessuna sincronizzazione; tranne per i macro-core, ma qui è il software che, in ogni caso, deve provvedere a distribuire il carico di lavoro).
Il resto del discorso sull'"attacco personale", davvero, non lo capisco. Potrebbero però essere problemi miei. Me li tengo. Inutile continuare. Non ti preoccupare, il tuo stipendio non te lo tocca nessuno. Vivi sereno.
E continui ancora a polemizzare con le tue battutine... Per la serie: predicare bene e razzolare male.
Ho già sviscerato tutto nel precedente commento. Se non vuoi essere "male interpretato" evita direttamente di polemizzare e attieniti soltanto all'argomento della discussione, come fanno gli altri. Ti è così difficile?
PaulGuru
25-07-2014, 15:41
che sia ancora in perdita è come scoprire l'acqua calda, si sapeva già da tempo e l'avevo anche detto più volte io.
contrariamente a qualche sapientone verde
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.