|
|
|
![]() |
|
Strumenti |
![]() |
#81 | ||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Primo perché certe elaborazioni vengono suddivise in una pipeline di esecuzione che provvede a elaborare di blocchi di informazioni tutte di uno stesso tipo, e dunque senza una continua alternanza delle varie fasi e, dunque, di utilizzo promiscuo delle unità di calcolo, HSA e non HSA, a disposizione. Secondo perché per sfruttare un'unità HSA servirà un protocollo di comunicazione, che la CPU utilizzerà per comunicare cosa vuole, i dati da passare eventualmente, e per ricevere poi il risultato. Cose non istantanee, insomma. Quote:
Quote:
E' uno svantaggio rispetto a un'unità più generica? Senz'altro. Ma ha anche il netto vantaggio di essere ben più efficiente, ed è il motivo per cui, nonostante i difetti, è la via che viene ancora battuta. Quote:
Quote:
Tra l'altro sono già indipendenti, a parte 3DNow! e MMX che sono mutuamente esclusive rispetto alla FPU. Provare per credere. ![]() Quote:
Ad esempio la DCT (la FFT non viene usata in quest'ambito) è alla base di JPEG ed MPEG 1 & 2, ma JPEG 2000 ed MPEG4 (e successori) sono basati sulle trasformate wavelet, e di queste ultime ce ne sono diverse. Oppure potremmo parlare della codifica utilizzata, che può sfruttare Huffman o uno dei tanti algoritmi di codifica aritmetica. E così via anche per gli altri aspetti (quantizzazione, spazi di colore, componenti cromatiche, raggruppamento delle informazioni, ROI, ottimizzatore, e probabilmente qualcos'altro che adesso non mi sovviene). Nonostante ciò, si preferisce continuare a mettere a disposizione sezioni di de/codifica video dedicate perché sono di gran lunga più efficienti e prestanti di una circuiteria general purpose.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||
![]() |
![]() |
![]() |
#82 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Il problema della VGA non era tanto nella mancanza di sincronismo al pennello elettronico (era possibile riconoscere l'inizio sia delle fasi di horizontal e vertical blanking; inoltre nello standard VGA/MCGA di IBM era persino prevista le possibilità di generare un interrupt all'inizio del vertical blanking, anche se poi tanti produttori di cloni non hanno implementato quest'utilissima funzionalità nelle loro schede video), quanto della mancanza del supporto ai genlock, ossia la possibilità di "marcare" un particolare colore dell'immagine generata come "buco" da poter "forare" per mostrare la grafica di una sorgente esterna. Non servivano i coprocessori dell'Amiga allo scopo, quanto la funzionalità di ZD (Zero Detect) del colore della palette, che il chip video (Denise) metteva a disposizione. Per il resto sono abbastanza d'accordo, anche se non sono dello stesso avviso per quanto riguarda il Cell.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
#83 | ||||||||||||||||||||||||||||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Mii. sta diventando un romanzo... scusa se non rispondo a tutto, ma è tardi e la mente un po' offuscata.
Quote:
D'altronde, a TSMC non gliene frega nulla che l'ultimo SoC che sforna sia meglio o peggio dell'ultima CPU di Intel. Lei vende comunqe un fracco. E' Intel che si preoccupa del fatt che l'ultimo SoC ARM da la paga al suo ultimo SoC Atom o che la sua Xeon Phi prima versione fa figura del menga contro un'architettura a pari PP (quella nvidia, e su questo punto approfondisco dopo). Quote:
Non è infatti un caso che l'Atom è passato dall'essere realizzato con la penultima versione di PP alla prima. Quote:
Quote:
Quello che intenevo con il fatto che le altre fonderie non sono costrette a rincorrere un PP a tutti i costi. Al massimo ad incazzarsi saranno i clienti, ma alla fine si devono accontentare di quel che la fabbrica propone loro non essendoci alternative. Quote:
Quote:
INtel sicuramente avrebbe potuto contribuire non poco a realizzare il meglio dell'architettura ARM se avesse voluto. Certo che i cervelli non gli mancano (con tutto il rispetto per Qualcomm, ma Intel è un'altra categoria). Giustamente, dal punto di vista di promozione della propria IP, abbandonare ARM è stata la mossa più giusta. Peccato che poi la propria IP si sia dimostrata insufficiente a tenere testa all'evoluzione che ARM ha fatto anche senza l'aiuto implementativo di Intel (ora però c'è Apple che sforna implementazioni di nota). Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
A 22 nm è riuscito a pareggiare i conti, ma Kepler rimane più efficiente comunque. E si parla di numeri di computazione vera realizzati tramite i benchmark, non di numeri sulla carta. Quote:
Maxell, che è realizzato sullo stesso PP di Kepler pota di suo già diverse ottimizzazioni all'architettura interna degli SMX. Spariscono le unità di calcolo DP separate, solo per dirne una, e lì di Watt se ne risparmiano non pochi, oltre che a permettere più unità di calcolo per superficie, cosa che Intel ha problemi realizzare viste le dimensioni non proprio contenute del suo chip per HPC. E non stiamo considerando le famose unità ARM aggiuntive che dovrebbero aumentare l'efficienza computazionale in generale, portando il valore reale dei GFlops più vicino a quello teorico (e quello teorico della GPU nvidia sta un bel pezzo sopra quello teorico Intel). Che vuol dire a parità di energia l'efficienza aumenta. Quindi forse con i 14nm Inte tornerà a pareggiare, giusto perché nvidia non ha a disposizione i 20nm questo giro. Il problema è che i 16nm sono previsti per l'ano prossimo per TMSC... quando è previsto il prossimo step per Intel? Nel 2018-19? A questi ritmi credo che sarà così. Quote:
1.decoder che consuma poco in termini di spazio e energia 2.di registri che ne ha in abbondanza e usa con efficienza 3.di cache che ne ha in abbondanza e di velocità supersonica (che gli altri i sognano, persino AMD che non è l'ultima arrivata) 4.di banda verso la RAM dato che usa 2 canali (la maggiorn parte dei SoC ARM ne usano uno) e di densità di codice dato che CISC vs RISC 4. di unità di calcolo sia INT che FP 5.di branch prediction unit che sono decisamente più evolute di quelle ARM cosa impedisce a Intel di fare un SoC x86 che sia quantomeno efficiente quanto un SoC ARM a pari PP? Ora vorrei capire questa cosa. Forse ARM usa qualche pozione magica sui suoi die che li rende particolarmente migliori rispetto a quello che dovrebbero essere sulla carta? Non capisco: Intel è meglio di qui, no ha problemi di là, vince di qui, sborona di là, e poi immancabilmente presenta dei prodotti che non reggono il mercato. Cosa rende un SoC ARM migliore di una Intel dunque? Quote:
Quote:
Quote:
![]() ![]() No, dai qui le faccine ci stanno tutte. Oltre 2 anni per vendere forse e dico forse 5 milioni di pezzi e tu dici che la situazione Surface non dimostra come sta la situazione? Spero per Intel che questo non fosse il suo target di quote di vendita, altrimenti altro che avere le fabbriche in idle... forse non hai ben compreso le dimensioni del mercato mobile... un miliardo diviso 5 milioni (e sono buono prendo anche i pezzi venduti l'anno scorso) = 2000 (ho dovuto prendere la calcolatrice per tanti sono gli zeri di differenza). Cioè Intel ha venduto 2000 mila volte in meno di ARM in un anno e questo sarebbe una situazione positiva? O non ho capito o qualcosa non va con la definizione di "situazione drammatica" per Intel. No Windows no x86. In entrambi i sensi, cioè se non vendi Windows Intel non decolla ma se non hai bisogno di Windows Intel la puoi lasciare a terra senza rimpianti. Quote:
Con Intel risparmierei qualche millisecondo dei millisecondi in più che i core ARM impiegano per fare quei lavori? Ma sicuro. Mi cambia la vita? Nemmeno per sogno. Mi rende più produttivo. Nemmeno per idea, dato che il tablet non lo uso per essere produttivo. Riesco a leggere HWUpgrade? Certo. Per oltre 6 ore di filate con la batteria carica. E quindi tutto il discorso su cosa dovrebbe essere meglio e perché dove cade? Come detto tante volte in nulla. Non conta presentarsi con una soluzione che costa di più anche se da di più. Ripeto, se Intel non avesse problemi con l'obesità dell'architettura x86 avrebbe già sfornato un SoC piccolo quanto quelli ARM. Invece si ritrova con SoC enormi che pareggiano l'efficienza (ma non i costi purtroppo per Intel) solo perché realizzati con n processo produttivo migliore. Quote:
C'è gente che sceglia il proprio telefono guardando i bench, se la lineetta colorata è un millimetro dietro o avanti all'altro. Quote:
Ma non se ne può dare la colpa a Samsung. Se la gente si accontenta, e spesso è anche giusto farlo (in quel caso è stato stupido dato che i due televisori costavano quasi uguale, e in assoluto non poco) a che serve presentarsi con qualcosa che non è richiesto? E non si può dire che non sia così dopo 4 anni di inutili tentativi. Quote:
Come se Intel dicesse, ho realizzato i 14nm solo ed esclusivamente per gli Atom, il resto continuerò a produrlo a 22nm fino all'arrivo dei 10nm. Sarebbe un segnale di salute finanziaria e di mercato mostruosa. Invece fatto da TMSC è vista malamente perché lascia noi appassionati senza nuove GPU per altri 6 mesi come minimo. Un giorno mi dirai quali sono le carte alternative a disposizione di Intel al di fuori delle sovvenzioni o della corruzione. Tecnicamente io non vedo alcuna possibilità di farcela contro l'armata ARM. Poi magari Intel l'anno prossimo ci stupisce tutti ed esce con qualcosa di veramente innovativo ed efficace (termine che contiene tutto quello che le serve per sfondare). Intanto devo aspettare ancora 12 mesi (o forse 18) prima di vedere qualcosa di nuovo da parte loro, mentre da questa parte c'è un fermento che metà basta (la curiosità per il K1 di nvidia e per i futuri SoC per server da parte un po' di tutti è enorme). Quote:
Quote:
Quote:
Quote:
Quote:
Se lo farà è perché nel mondo mobile della retrocompatibilità con Windows classico non gliene può fregare nulla a nessuno. Tanto MS sui suoi Surface ci mette gli ULV. Quote:
Ora, 'sta storia della architettura stra conosciuta che permette migliore ottimizzazione e balle varie, per favore non svegliamola ogni volta che si parla di x86. Usati in quella maniera non sono né meglio né peggio di una schiera di unità di calcolo NEON, FPU generiche, unità vettoriali di una GPU, SPE cell o di core ARM. Infatti nessuno scrive per tale scheda in assembler per tutte e 50 le unità di calcolo separate, ma si usano librerie pre costituite o comunque API di comunicazione ià belle che pronte. Chi si beve la storia che l'uso di vetusti core x86 con una mega unità Floating Point (che è quella che fa la differenza, non il restante 99% dell'ISA x86 che non serve a una pippa su questo marchingegno riciclato) siano la soluzione migliore possibile? Negli anni abbiamo visto architetture comportarsi molto meglio degli x86 nel campo della computazione parallela e ora ci dobbiamo berci la fiaba che solo il fatto che i core x86 sono ben conosciuti (anche se stravolti in quella funzione di coprocessore) garantiscono una capacità di calcolo altrimenti impossibile? Dai su, i risultati parlano da soli, per fortuna. Sì certo, se scendiamo ancora di PP qualcosa miglioriamo, ma davvero, la speranza è che qualcuno crei una scheda acceleratrice general purpose che cancelli questa oscenità da 300W e mezzo km di mm^2 di silicio (se ci mettevano un Itanium magari ottenevano un risultato migliore peraltro riciclando ancora qualcosa che non ha funzionato come previsto). Quote:
Cosa ha di orribile l'Atom? Dimmi una sola cosa che ha di positivo. E pensare che era il fiore all'occhiello di Intel per il basso consumo (con quel magnifico chipset che consumava quasi il doppio della CPU stessa). Per quanto mi stia sulle balle non smetterò mai di ringraziare Apple per aver dato più che una scossa al mercato e allo scempio portato dal monopolio Intel. Tu non vorresti che lo definissi tale, ma tale è a tutti gli effetti. Miii s'è fatto tardissimo. ![]() Non ho tempo per rileggere tutto. Spero di non aver scritto troppe castronerie. Buona notte |
||||||||||||||||||||||||||||
![]() |
![]() |
![]() |
#84 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
Allora come la mettiamo che non c'è stato gioco fino all'arrivo delle più potenti VGA anni e anni dopo che si poteva permettere la fluidità dello scrolling che Amiga possedeva? Forse tu Scala l'hai visto di sfuggita in qualche rivista. Facciamo che io estraggo il mio A1200 che ho ancora nell'armadio e a te permetto di estrarre anche un Pentium IV con una VGA dell'epoca e vediamo se scrolli a 50Hz fluidi senza perdere un colpo. A quell'epoca le VGA facevano fatica a spostare il cursore del mouse (che non era uno sprite HW), figuriamoci uno schermo intero... quando su Amiga era 1 solo, ma questa è un'altra storia. Non facciamo revisionismo storico da questo punto di vista che divento una bestia. ![]() Per il Genlock altra imprecisione: il genlock più famoso per Amiga è stato il VideoToaster e non usava certo i chip custom per fare il suo lavoro. Per quanto riguarda il rilevamento del pennello... ehheheeh... guarda cosa può fare uno sputacchino di un chip con 3 istruzioni (tre, per davvero) che ha messo in crisi emulatori centinaia di volte più potenti della CPU da 7MHz dell'Amiga. Sempre per ribadire che ad-hoc non è sempre equivalente a unità di calcolo complesso e poco flessibili, quindi mezze sprecate e avere potenza bruta in gran quantità non è sempre sufficiente per pareggiare anche il più piccolo HW custom pensato a dovere. Sempre più tardi.. maledetto ![]() |
|
![]() |
![]() |
![]() |
#85 |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
@Crapa di Legno e cdimauro
Anche se crapa è un po di parte sono molto interessanti i vostri interventi, ma ve lo chiedo per favore un po di sintesi!!! ![]() ![]() ![]() |
![]() |
![]() |
![]() |
#86 | ||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Atteniamoci, dunque, ai fatti (tecnici) di cui si è parlato. Comunque non ho difficoltà a rispondere anche a questo. Riguardo alla fluidità dello scrolling che hai citato non serve né il 386 né una VGA, per giunta degli ultimi anni: sono sufficienti un 286 e una EGA. Presta bene attenzione a quello che è stato scritto: parliamo di "fluidità dello scrolling". Perché già con la EGA il chip video era in grado di scrollare (in hardware, ovviamente) lo schermo (visibile). C'erano, infatti, registri dedicati che consentivano di impostare la posizione dello schermo (e del primo pixel visibile) all'interno della memoria video, che ovviamente era più grande dello schermo visibile. Infatti le schede EGA erano generalmente dotate di 256KB di memoria, anche se il classico schermo 640x350 a 16 colori visualizzato (ma questa era la risoluzione massima) ne richiedeva soltanto 110KB. Questo vuol dire che si poteva costruire uno schermo virtuale più grande, da fare poi scrollare comodamente (ribadisco: in hardware) "semplicemente" (non era semplice come su Amiga, eh! C'erano più registri da settare) impostando l'offset all'interno della memoria video e il pixel da cui partire (la quantità di scrolling iniziale). Ovviamente avendo l'accortezza di impostare la nuova posizione durante il vertical blanking, e dunque sfruttando l'interrupt apposito per le schede video che lo mettevano a disposizione, oppure in polling con la CPU. Perché basterebbe un 286? Perché per realizzare quanto detto è sufficiente aggiornare soltanto le parti dello schermo che sono cambiate, e dunque non sei costretto a ridisegnare tutto. Cosa che, tra l'altro, facevi anche con l'Amiga, che non ha mai avuto abbastanza potenza di calcolo per ridisegnare tutta la grafica a ogni frame. La VGA, essendo retrocompatibile con la EGA, funzionava allo stesso modo, anche se ovviamente metteva a disposizione un hardware migliore in termini di tavolozza dei colori (262144), numero di colori visualizzabili contemporaneamente (256), e risoluzione massima (640x480; ma a 16 colori). Dunque TECNICAMENTE avere lo scrolling fluidissimo era perfettamente fattibile, anche su un hardware ben più scarso (a proposito: la EGA, e pure la VGA ovviamente, aveva i bitplane; come l'Amiga. La VGA ha poi aggiunto la modalità chunky / packed indexed a 8 bit). Perché non è stato fatto nei giochi? Per una questione di opportunità e/o di scarsa conoscenza dell'hardware. Infatti il mercato dei giochi è stato appannaggio dell'Amiga fino ai primi anni '90, e per PC arrivavano per lo più conversioni raffazzonate. E c'era scarsa conoscenza dell'hardware, perché la documentazione tecnica su come funzionavano in dettaglio le schede video non era molto diffusa (leggi: paragonato ad Amiga, per la quale Commodore ha pubblicato il famoso Hardware Manual) ed era abbastanza complessa (niente a che vedere con la semplicità dell'Amiga). Non a caso è stato soltanto nei primi anni '90, dopo ANNi dalla commercializzazione della prima VGA, che Michael Abrash ha tirato fuori il famoso "ModeX", che ha consentito di sfruttare tutti i 256KB della memoria video con la modalità a 256 colori, oltre a permettere anche risoluzioni più elevate (fino a 360x480). OK, mi sono dilungato anche troppo. Comunque se vuoi approfondire l'argomento grazie a internet trovi tonnellate di documentazione tecnica e anche esempi su come sfruttare per benino l'hardware del PC, già a partire con la EGA. ![]() Quote:
Quote:
Quote:
![]() Quote:
Il VideoToaster senza il lavoro fatto da Denise poteva sognarsi di fare quel lavoro. Per lo meno a basso costo, visto che aveva già bello e pronto ciò che gli serviva (capire quando "bucare" lo schermo dell'Amiga, e sovrapporgli quello da lui generato). Comunque sono curioso di capire cos'è che avrei detto di sbagliato. Quote:
![]() Comunque non è il Copper che ha messo in crisi gli emulatori, ma l'emulazione cycle-exact. Il Copper viene emulato bene anche da un emulatore non molto accurato; è tutto il resto, se vuoi ottenere lo stesso risultato, che è pesante da emulare. Quote:
Quote:
![]() ![]() Almeno ravviviamo un po' il forum con qualcosa di più interessante. ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||
![]() |
![]() |
![]() |
#87 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Per il momento... buona notte. P.S. E' difficile trovare una persona che non sia di parte, o comunque abbia delle simpatie. Con ciò non voglio dire che in questo modo non sia possibile discutere: l'importante è rimanere il più possibile all'interno dei fatti o di argomentazioni tecniche; poi gli altri utenti si faranno una propria idea, com'è giusto che sia. ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
#88 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Rieccomi. Finalmente ho avuto anch'io un po' di tempo per rispondere.
Quote:
Come fai ad affermare che Intel vive esclusivamente col vantaggio delle sue fonderie? Quote:
Comunque chi ti dice che non abbia già ammortizzato i costi degli aggiornamenti delle fabbriche e/o della costruzione delle ultime? Quote:
Riguardo a Xeon Phi, immagino ti riferisca a Knights Ferry, che è stato una sorta di prototipo, ed è finito soltanto in alcuni sistemi. Comunque dove starebbe la figuraccia? Ecco qui http://archive.hpcwire.com/hpcwire/2...sus_fermi.html un bell'articolo (tecnico) che confronta Knights Ferry proprio con Fermi. A me pare che non esca così male; tutt'altro. Mi spieghi qual era il problema di questo prodotto? Quote:
Quote:
Quote:
Quando le condizioni diventeranno favorevoli, vedrai la nuova fab verrà impiegata. Al momento non ha senso buttare soldi per mantenere qualcosa che non produce utili, ma che, al contrario, genererebbe perdite. Quote:
Coi 22nm Intel ha trovato il modo di renderlo proficuo, aprendo a produttori terzi (che non sono in competizione con lei). Coi 14nm la situazione è diversa, e i tempi non sono maturi per impiegare la nuova fabbrica. Sic. et simpliciter. Quote:
Quote:
No, non è affatto così. La realtà è ben diversa. Ti ho fatto già diversi esempi, alcuni pure ben noti. Vogliamo parlare dei prodotti Nintendo basati su ARM, tanto per farne qualcun altro? Il Game Boy Advance è del 2001, tanto per tirare in ballo un altro nome di spessore. Ma altri sull'utilizzo di ARM ne puoi trovare a iosa con una banale ricerca. ARM ha una lunga tradizione di prodotti che impiegano i suoi processori, e per per dirla tutta quella delle calcolatrici mi mancava. Nel senso che è talmente poco nota che non ne ho mai sentito parlare; al contrario dei tanti altri impieghi. Quote:
Infatti il Cortex-A8 è stato presentato nel 2004, quando l'iPhone di Apple "non era nemmeno nella mente di dio", per citare un detto popolano delle mie parti. L'A9, che è stato un enorme balzo avanti ed è la base delle successive micro-architetture votate alle prestazioni, è del 2009, e non arriva di certo a causa dell'iPhone, visto che era in programma già da tempo (progetti di questa complessità richiedono un bel po' di anni). Per maggiori informazioni: http://www.arm.com/about/company-profile/milestones.php Quote:
Continuo a non spiegarmi, quindi, quale apporto avrebbe potuto dare Intel ad ARM con le sue IP. Potresti farmi qualche esempio concreto? Per il resto, e come già detto, negli ultimi tempi riesce a tenere testa ad ARM. Quote:
E' chiaro il core business di Intel è sempre stata la sua famiglia IA32, ma anche con 8085 s'è ritagliata il suo spazio nel mercato embedded. Un po' di anni fa, durante l'esplosione dei lettori DVD e in particolare di quelli che riproducevano DivX, potevi trovare l'8085 (in versione microcontroller ovviamente) impiegato allo scopo. Quote:
Quote:
Quote:
https://www.power.org/documentation/...p-update-2013/ https://www.power.org/documentation/...oadmap-power8/ E' il primo che parla della perdita di quote di mercato dell'architettura PowerPC (POWER ormai da tempo ha un'ISA PowerPC-compliant, e i due termini sono divenuti intercambiabili) a favore di Intel e ARM. Ovviamente nella barca dei PowerPC non c'è solo IBM, ma tanti altri produttori, che non vendono i loro chip a peso d'oro. Quote:
Quote:
Quote:
Quote:
Nel frattempo qualcosa te la propongo io: http://www.xbitlabs.com/news/other/d...eat_Shape.html Mi permetto di riportare un pezzo della notizia: "Intel's Knights Corner accelerator has over 50 cores and delivers 1TFLOPS of double precision floating point performance, as measured by the double-precision, general matrix-matrix multiplication benchmark (DGEMM). Currently the most powerful special purpose highly-parallel accelerator is Nvidia Tesla 2090, which boasts with 665GFLOPS (0.665TFLOPS) of peak performance, which is considerably below peak performance of Intel's KNC." Sì, si vedono proprio le sonore bastonate che prende Xeon Phi... Quote:
Quote:
IMO gli ARM verranno utilizzati come piccoli processori di controllo, similmente a quanto fa Xeon Phi, che in genere riserva una core per la gestione del sistema & interfacciamento con l'host. Quote:
Già adesso Knights Corner offre prestazioni quasi doppie rispetto al suo concorrente diretto, per cui avrà poco da temere. Aggiungiamo che quest'anno arriverà anche il suo successore presentando diversi miglioramenti, pur rimanendo sempre a 22nm, quindi è tutt'altro che scontato il fatto che nVidia possa riprendersi lo scettro di soluzione HPC più performante. Riguardo al raggiungimento delle prestazioni teoriche non vedo come si potrebbe fare. Se hai idee in merito, esponile pure. Comunque ne parlo brevemente dopo, sull'argomento Larrabee. Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Sul SoC, nella sua interezza, ne ho parlato esplicitamente io, e anche tu hai ne hai discusso pure con gli altri parlando delle unità specializzate. Quote:
Quote:
Riguardo a questo trovi qualcosa qui: http://www.intel.com/content/www/us/...artphones.html http://www.intel.com/content/www/us/...lets-atom.html E non teniamo conto delle soluzioni basate su core non-Atom, che pure sono presenti nei tablet. Non è tutta roba recente, e dunque sovvenzionata. Quote:
"questo non significa avere un tablet che pesa 1 kG perché la batteria deve essere grande per garantire una autonomia decente da portarsi sempre appresso e lo schermo è lo stesso che si usa in ufficio" SurfacePro rientra oppure no in questa tua definizione? Sii chiaro, cortesemente. Quote:
E no, non si tratta di risparmiare millisecondi, proprio perché scenari come quelli dipendono molto dalle prestazioni su single core/thread. Poi è ovvio che dipende tutto da quello che ciascuno, personalmente vuole fare, ma se mi dici a te un Tegra 2 basta, salvo poi osannare il Tegra 4 in un altro thread, beh, allora c'è qualcosa che non mi quadra. Infatti, da qui http://www.hwupgrade.it/news/tablet/...ord_51059.html : "Un bel tabettone con quel coso potrebbe davvero essere il giusto copromesso tra portabilità e produttività." Delle due l'una: o il tuo Tegra 2 va bene e dunque il 4 è inutile, oppure il 2 non basta e il 4 consentirà finalmente di essere più produttivi. In ogni caso se fosse come dici tu non si capirebbe perché ci sarebbe tutta questa corsa alle prestazioni. Infatti non è così, e ti smentisci da solo con quello che hai detto sul Tegra 4. ![]() Quote:
Quote:
Comunque s'è anche alzata l'asticella: il software è sempre più complesso, e richiede quindi più risorse. Logica conseguenza di ciò è l'adeguamento dell'hardware. Vedi, ad esempio, una certa nVidia che, proprio per questo motivo, ha sdoganato su mobile quello che fino a qualche tempo era riservato al desktop. E non per capriccio, ma perché c'è richiesta (reale; non teorica) di maggiori prestazioni anche in ambito mobile. Questo, peraltro, non sono io a dirlo, ma l'ha fatto qualcun altro... ![]() Quote:
A mio avviso TSMC si sta preparando per la nuova commessa di Apple. Infatti giusto questa settimana è arrivata una "bella" notizia in merito: http://www.hwupgrade.it/news/apple/r...soc_51057.html Da notare come Qualcomm continui a rimane l'unico produttore a integrare l'LTE nello stesso SoC. Quote:
Riguardo alle sovvenzioni, come già detto è cosa recente, con l'obiettivo di accelerare la diffusione delle sue soluzioni. Quote:
Quote:
Di quali "braghe calate" stai parlando, visto che all'epoca di quella vicenda non esisteva né il concetto di smartphone come lo intendiamo oggi né tanto meno quello di tablet? Quote:
Quote:
Poi non capisco ARM cos'avrebbe dovuto mollare, visto che DA ANNI prosperava già nei telefonini, nei PAD, ed era alla base dei Pocket PC. Questo giusto per rimanere nell'ambito del mobile smartphone / tablet. Poi nulla da dire che la concorrenza abbia portato ad Atom migliori, ma mi sembra che il contesto storico fosse decisamente diverso da quello che vorresti dipingere. Quote:
Poi, come dicevo anche prima, il punto è che l'utenza è ormai abituata ad avere di più. Ed è anche il motivo della corsa alle prestazioni... Quote:
Quote:
Quote:
Quote:
Comunque in base a quali motivazioni tecniche fai queste affermazioni? Io te ne potrei fare un paio di esempi, uno pure piuttosto vecchio, che dimostrano l'esatto contrario. E un altro molto recente; nuovo di zecca. Ma al momento preferisco aspettare le tue argomentazioni in proposito. ![]() Quote:
Ne ha avuto di tempo per sistemare l'errore madornale che aveva commesso... Quote:
In ogni caso rimane il fatto concreto: altre architetture hanno già presentato nuove ISA che hanno rotto la compatibilità col passato. Non si sono levate grida di scandalo all'epoca, ed è incomprensibile perché lo si dovrebbe fare adesso, e soltanto se fosse Intel a farlo: due pesi e due misure? Quote:
Quote:
Inoltre ha introdotto un'unità vettoriale (SIMD) nuova di zecca proprio per gestire meglio la tipologia di codice generalmente eseguito dalle GPU. In tutto ciò x86 (x64 in realtà) riveste il ruolo di componente scalare & di controllo, che nelle GPU è gestito da unità dedicate / specializzate. Dove starebbe quindi lo scandalo? Che per realizzare quel tipo di lavoro (ribadisco: calcolo scalare & di controllo) abbia usato ciò che aveva già in casa? Perché non avrebbe dovuto farlo, visto che queste componenti nelle GPU più moderne stanno diventando sempre più simili a un normale processore? Tant'è che vedremo dei processori ARM in futuro integrati nelle GPU proprio per questi compiti... Che poi la cosa fa un po' ridere, perché nVidia e AMD hanno fatto lo stesso (anzi) con le GPU, adattandole & riciclandole per il settore HPC. Ma immagino che in questo caso sia tutto lecito, vero? ![]() Quote:
Qual è il problema? Quote:
Si potrebbe pensare: allora è proprio vero che sia così! Poi basta leggere i commenti, per capire che l'attacco portato non è che fosse così solido; tutt'altro. E a mio avviso rappresenta, invece, uno sfogo, una sorta di mettere le mani avanti perché, al contrario di quello che dici, i risultati di Xeon Phi ci sono, eccome. E dunque nVidia teme il nuovo concorrente che è arrivato nel suo lucrativo mercato HPC, e cerca di minimizzarlo o screditarlo. Sì, per spremere dei bestioni del genere si usano librerie e API già pronte, ma... non è così semplice. Questi sono dei mattoncini che sono nelle mani degli sviluppatori, che devono usarli per costruire i LORO, SPECIFICI, software. E questo lavoro non te lo fa né Intel né nVidia né AMD o altri: è tutto a carico degli sviluppatori. Qui viene il bello: spesso chi deve scrivere codice NON è un programmatore professionista, ma è un fisico, ingegnere meccanico, chimico, ecc. che è COSTRETTO a farlo per ottenere degli strumenti o delle dimostrazioni per il proprio campo. Gente che magari ha ereditato o già scritto pezzi di codice in C, C++, o Fortran, e che non ha nessuna voglia di riscriverlo per farlo girare su una GPU, mentre è MOLTO interessato a una semplice ricompilazione o ad aggiungere qualche direttiva al compilatore per rendere il proprio codice immediatamente adattato per sfruttare la potenza di calcolo di queste massicce unità di calcolo. Prova a chiedere a un astrofisico se gli piacerebbe di più riscrivere in CUDA il suo codice C++ o Fortran che calcola gli autovalori di matrici 10000x10000, oppure se preferisce include la MKL di Intel per avere automaticamente supportato Xeon Phi, o ancora aggiungere qualche direttiva (#pragma o !OMP, a seconda che sia C++ o Fortran) se non ha usato librerie standard ma ha scritto codice apposito, e vedi un po' cosa ti risponde. No, non è un esempio inventato: questi sono casi reali, e sono situazioni molto comuni per chi lavora in ambito HPC. Peraltro nVidia non ha nemmeno un compilatore Fortran da mettere a disposizione, e ti assicuro che questo linguaggio è ancora usatissimo in quest'ambito. Mentre Intel offre uno dei migliori compilatori al mondo, che ovviamente supporta anche le estensioni parallele standard (e non) del linguaggio. Questo rimanendo soltanto in ambito di librerie e linguaggi, ma poi ci sono anche tool di supporto per il profiling, l'ottimizzazione, e il debugging. Anche qui, Intel offre pacchetti software che coprono tutte le esigenze degli sviluppatori per rendere loro vita più semplice. Non basta, insomma, scrivere soltanto codice per realizzare un progetto; come non basta soltanto avere a disposizione una scheda che macina GFLOPS per ottenere dei risultati. La tua è una visione troppo semplicistica, e peraltro ben lontana dalla realtà. Com'è pure ben lontano dalla realtà che sia semplice arrivare ad avvicinarsi a sfruttare la potenza teorica messa a disposizione da una GPU... A questo punto vorrei capire una cosa, però: parli per sentito dire o ciò che hai riportato prima è frutto di qualche studio e/o esperienza in materia e/o lavoro in quest'ambito? Quote:
Quote:
Quote:
Mi scuso anche con Littlesnitch, ma non sono riuscito a rimanere sintetico. Purtroppo si è parlato di tante cose, e non sono il tipo da affrontare grossolanamente certe problematiche; poi sono particolarmente pignolo, non mi piace lasciare nulla al caso, e preferisco la chiarezza al dubbio. Comunque siamo nel fine settimana, per cui c'è un po' di tempo libero a disposizione per leggere questo papiro. ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:35.