View Single Post
Old 18-11-2014, 11:18   #12
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3574
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.

[quote=cdimauro;41795293]Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.[(/quote]
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.

[quote=cdimauro;41795293]D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...[/quoyte]
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste. D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Intel è talmente strozzata che...
Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista, mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Al momento i 14nm sono più che sufficienti, considerato che la concorrenza annaspa. Ma in ogni caso i 10nm rimangono in roadmap.
Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap? Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo. E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti. L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo. Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa. Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti l'ha capito così bene che... Cell è morto.
Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato.
Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura). L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.

Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile (se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).

(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni)
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
 
1