PDA

View Full Version : Pascal: nuova architettura con memoria 3D e NVLink


Redazione di Hardware Upg
17-03-2015, 18:10
Link alla notizia: http://www.hwupgrade.it/news/skvideo/pascal-nuova-architettura-con-memoria-3d-e-nvlink_56498.html

Jen-Hsun Huang ha rivelato al GTC le prossime due architetture NVIDIA per le future GPU: si tratta di Pascal e di Volta.

Click sul link per visualizzare la notizia.

gd350turbo
17-03-2015, 18:41
Tutto bello, tranne l'nvlink...

AleLinuxBSD
17-03-2015, 18:52
Trattandosi di un bus proprietario nVidia è improbabile che troverà spazio in soluzioni desktop o normali server.
Non resta che sperare in miglioramenti sostanziali dello standard Pci Express in grado di limitare il collo di bottiglia che produce inferiori prestazioni nel caso d'uso di sistemi a memoria unificata.
Problema non di poco conto, dato che non essere limitati alla memoria della scheda video, ma fortemente penalizzati al livello di prestazioni, non è in grado di soddisfare determinati requisiti in determinate applicazioni.
Mentre al livello di collegamenti tra sole schede video nVidia (GPU↔GPU connections) ritengo usciranno soluzioni, senza problemi, dato che non penso richiedano modifiche di nessun genere alla scheda madre.

Riferimenti:
NVLink, Pascal and Stacked Memory: Feeding the Appetite for Big Data (http://devblogs.nvidia.com/parallelforall/nvlink-pascal-stacked-memory-feeding-appetite-big-data/)
NVIDIA Updates GPU Roadmap; Unveils Pascal Architecture For 2016 (http://www.anandtech.com/show/7900/nvidia-updates-gpu-roadmap-unveils-pascal-architecture-for-2016)
What Is NVLink? And How Will It Make the World’s Fastest Computers Possible? (http://blogs.nvidia.com/blog/2014/11/14/what-is-nvlink/)

pabloski
17-03-2015, 21:18
Perchè non sono entrati nella fondazione HSA invece di reinventare la ruota? La loro soluzione è in pratica uguale a hUMA, con l'aggravante di aver aggiunto un bus proprietario.

Sul fronte HSA la situazione attuale è questa http://www.phoronix.com/scan.php?page=news_item&px=HSA-Foundation-1.0-Final-Spec

marchigiano
17-03-2015, 21:22
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima... ma non credo che questo nvlink funzioni così :stordita:

acerbo
17-03-2015, 23:16
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima... ma non credo che questo nvlink funzioni così :stordita:

cosi' buttiamo tutti i sistemi con gpu integrata nella cpu :muro:

cdimauro
18-03-2015, 05:26
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima...
Ma anche no, visto che la memoria video (GDDR) ha latenze molto più elevate rispetto alla memoria di sistema (DDR), che incidono negativamente sul codice più "general purpose" che è quello eseguito dalla CPU (anche quando esegue codice SIMD, che è più lineare e trae vantaggio dalla maggior banda, le istruzioni non posso rimanere appese per centinaia e centinaia di cicli di clock perché le prestazioni ne risentono tantissimo).

Banda != velocità. C'è anche la latenza come parametro prestazionale.

roccia1234
18-03-2015, 06:29
Niente da fare, nvidia è come sony, se non tira fuori qualcosa di proprietario non è contenta :doh: .

Spero che questo nvlink fallisca miseramente... che cavolo di bisogno c'è di fare una soluzione proprietaria quando pci-express 4 è alle porte e garantirà 32GB/s di banda per collegamenti 16x?

CrapaDiLegno
18-03-2015, 08:42
Perchè non sono entrati nella fondazione HSA invece di reinventare la ruota? La loro soluzione è in pratica uguale a hUMA, con l'aggravante di aver aggiunto un bus proprietario.

Sul fronte HSA la situazione attuale è questa http://www.phoronix.com/scan.php?page=news_item&px=HSA-Foundation-1.0-Final-Spec
Perché accedere alla memoria su scheda discreta non è uguale ad accedere alla memoria di sistema condivisa tra CPU e GPU integrata?
Non puoi accedere alla memoria della GPU discreta se il controller di memoria a bordo della CPU (che ora è di Intel/AMD, non più su chipset esterno come un tempo) non ha un bus fatto apposta per accedervi.

Niente da fare, nvidia è come sony, se non tira fuori qualcosa di proprietario non è contenta :doh: .

Spero che questo nvlink fallisca miseramente... che cavolo di bisogno c'è di fare una soluzione proprietaria quando pci-express 4 è alle porte e garantirà 32GB/s di banda per collegamenti 16x?
Si parla di 32GB contro 80. 2,5 volte. Forse per giocare a Battlefield non ha importanza, ma per le operazioni di calcolo ogni GB è importante.
Non è reinventare la ruota o creare una soluzoine proprietaria tanto per: è necessaria per nvidia per superare i limiti imposti da Intel/AMD con i loro memory controller e linee PCI risicate.

pabloski
18-03-2015, 08:59
Perché accedere alla memoria su scheda discreta non è uguale ad accedere alla memoria di sistema condivisa tra CPU e GPU integrata?

Dal punto di vista dei componenti coinvolti cambia l'implementazione fisica, ma il meccanismo è lo stesso. In pratica se non hai la memoria unificata non puoi nemmeno cominciare a fare questa cosa.

Non credo ci siano differenze insanabili tra le due implementazioni ( ma magari mi sbaglio ), per questo mi sono chiesto "perchè non si sono messi d'accordo con AMD piuttosto che introdurre l'ennesimo meccanismo proprietario?".

Poi ho letto "deep learning" e ho capito il perchè!

CrapaDiLegno
18-03-2015, 09:03
Dal punto di vista dei componenti coinvolti cambia l'implementazione fisica, ma il meccanismo è lo stesso. In pratica se non hai la memoria unificata non puoi nemmeno cominciare a fare questa cosa.

Non credo ci siano differenze insanabili tra le due implementazioni ( ma magari mi sbaglio ), per questo mi sono chiesto "perchè non si sono messi d'accordo con AMD piuttosto che introdurre l'ennesimo meccanismo proprietario?".

Poi ho letto "deep learning" e ho capito il perchè!

Perché quella AMD non è l'unica piattaforma su cui le schede nvidia devono funzionare. Anzi. Interesse su quelle pari a zero.
Le discrete di nvidia devono funzionare principalmente sui server (da qui l'accordo con IBM) e poi sulle worstation.
Se Intel non vuole (come ovvio che sia) che il suo memory controller possa accedere a pezzi di memoria esterni a velocità supersonica, per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.

pabloski
18-03-2015, 09:20
Perché quella AMD non è l'unica piattaforma su cui le schede nvidia devono funzionare. Anzi. Interesse su quelle pari a zero.
Le discrete di nvidia devono funzionare principalmente sui server (da qui l'accordo con IBM) e poi sulle worstation.
Se Intel non vuole (come ovvio che sia) che il suo memory controller possa accedere a pezzi di memoria esterni a velocità supersonica, per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.

Ecco, questa potrebbe essere una motivazione, ma non reggerebbe. In entrambi i casi Nvidia ha bisogno della collaborazione almeno dei produttori di schede madri. Quindi perchè non riutilizzare in parte HSA invece di reinventare la ruota?

E poi c'è ovviamente il discorso Tegra, ma quello è a parte. Lì potrebbe benissimo entrare nella fondazione HSA ed allinearsi a questa tecnologia.

roccia1234
18-03-2015, 09:57
Si parla di 32GB contro 80. 2,5 volte. Forse per giocare a Battlefield non ha importanza, ma per le operazioni di calcolo ogni GB è importante.
Non è reinventare la ruota o creare una soluzoine proprietaria tanto per: è necessaria per nvidia per superare i limiti imposti da Intel/AMD con i loro memory controller e linee PCI risicate.

Già, peccato che tutto l'I/O con le periferiche veloci sia oramai integrato nelle cpu. Il northbridge non esiste più da tempo, il southbridge è un controller usb/sata e poco altro.

Quindi, o intel/amd si mettono a fare cpu che supportano nvlink, oppure nvidia progetta chip che fanno da "ponte" pciexpress <-> nvlink con il benestare dei produttori di schede madri, oppure è una cosa che verrà usata solo su qualche supercomputer e/o soluzioni ad-hoc.

bobafetthotmail
18-03-2015, 10:02
per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.Ma scusa un attimo, HSA non è open e aperto a tutti? Dove lo vedi che Nvidia non ha fisicamente altro modo che crearsi la sua piccola cosina proprietaria del pazzo come ha sempre fatto dall'inizio dei tempi?

No per dire, il Gsynch? Cuda? Physx? Sono tutte tecnologie dove la decisione di reinventare la ruota o fare una cosa proprietaria scopiazzando progetti opensource (caso di Gsynch) è partita solo ed esclusivamente dalla mente di uno dei loro dirigenti.

pabloski
18-03-2015, 10:06
Quindi, o intel/amd si mettono a fare cpu che supportano nvlink, oppure nvidia progetta chip che fanno da "ponte" pciexpress <-> nvlink con il benestare dei produttori di schede madri, oppure è una cosa che verrà usata solo su qualche supercomputer e/o soluzioni ad-hoc.

Ma infatti non è chiaro come verrà implementato senza il contributo di Intel. E se riguarderà solo i supercomputer sarà x86? O sarà Tegra? E in quest'ultimo caso sarebbe valsa la pena di associarsi a HSA.

Però a me sembra la stessa strategia usata per CUDA ( ma allora c'era solo CUDA in verità ). Vogliono far leva su una specifica necessità ( il deep learning ) per entrare in un mercato sostanzialmente nuovo e mantenerne il controllo tramite lock-in.

E in effetti già oggi il mercato del deep learning fa prevalentemente uso di GPGPU tramite CUDA, quindi non devono nemmeno sforzarsi tanto per aumentare il loro share.

CrapaDiLegno
18-03-2015, 10:27
Ma infatti non è chiaro come verrà implementato senza il contributo di Intel. E se riguarderà solo i supercomputer sarà x86? O sarà Tegra? E in quest'ultimo caso sarebbe valsa la pena di associarsi a HSA.

Però a me sembra la stessa strategia usata per CUDA ( ma allora c'era solo CUDA in verità ). Vogliono far leva su una specifica necessità ( il deep learning ) per entrare in un mercato sostanzialmente nuovo e mantenerne il controllo tramite lock-in.

E in effetti già oggi il mercato del deep learning fa prevalentemente uso di GPGPU tramite CUDA, quindi non devono nemmeno sforzarsi tanto per aumentare il loro share.
Io non capisco questa cosa dell'HSA come soluzione.
Non è che far parte di un consorzio risolve automaticamente tutti i problemi.
nvidia con le sue GPU è in una posizione diversa da chi crea SoC perché non ha il controllo totale della architettura su cui deve far funzionare i suoi dispositivi. Mentre con Tegra può fare quel che vuole, con le schede destinate ai server HPC che macinano numeri a velocità non comuni, far parte o meno di un consorzio che detta regole astratte non ha alcun senso.
Serve una soluzione fisica che funzioni. E che funzioni per gli ordini di grandezza e scalabilità di un server HPC, non di un telefonino.
Se Intel non ha intenzione di usare nvlink nelle sue schede per server, significa che nvidia costrurà i super server di calcolo usando le schede di partner che lo supportano. Non so se questo è un bene o meno per Intel, perché ad nvidia basta un partner come IBM che le produca le schede e le fornisca CPU decenti (e i Power lo sono) e finché le sue GPU rimangono più efficienti delle soluzioni Intel quest'ultima potrebbe vedersi tagliata fuori da diversi progetti.
Sulle workstation è logico che serva la collaborazione dei produttori di CPU. Ma far parte del consorzio HSA cosa porta? Il PCI-Express è lento, troppo per quel che serve e quindi? Forse facendo parte di HSA magicamente abilita il controller di memoria di Intel/AMD ad accedere a maggior velocità alla memoria delle GPU?
Io non vi capisco. Quando si parla di standard et similia sembra che adottare qualcosa di solo annunciato e completamente astratto sia la soluzione finale definitiva.
Ad nvidia non interessa che siano gli altri un giorno a trovare bene o male una soluzione che funzionicchia, serve una soluzione che funzioni. Oggi. Anzi, meglio ieri. Anche Intel usa la stessa strategia. Le aziende che campano con le proprie forze e si costruiscono i propri punti di forza, lavorano così. Gli altri usano le soluzoni "open" per cose che non sono strategiche per il loro business.
Indipendentemente dal fatto che nvlink sia proprietario o meno, la questione è cosa può cambiare con la sua adozione. E' ovvio che nel mondo del calcolo eterogeneo cambia parecchio e favorisce tutte le soluzioni che permettono di bypassare la CPU. Cosa che ovviamente non fa piacere ad alcuni che se adottato produce l'apertura di una maggiore concorrenza.
Far parte di HSA o meno non cambia questa cosa.

pabloski
18-03-2015, 10:46
Non è che far parte di un consorzio risolve automaticamente tutti i problemi.


No ma mi pare non sia obbligatorio. La tecnologia dovrebbe essere open e accessibile a tutti.


nvidia con le sue GPU è in una posizione diversa da chi crea SoC perché non ha il controllo totale della architettura su cui deve far funzionare i suoi dispositivi.


Certamente, ma le idee alla base di nvlink sono molto simili a quelle alla base di hsa. Alla fine devi cominciare col rendere accessibile lo spazio d'indirizzamento della cpu alla gpu. L'unica cosa che manca è che nel caso hsa non si è presa in considerazione la possibilità di applicarlo alle gpu discrete e quindi non è presente un bus come nvlink.

Però questo ci riporta a quello che si chiedevano gli amici sopra. Cioè, visto che il northbridge è ormai integrato nella cpu, a cosa Nvidia attaccherà nvlink? Come fanno a sostituire pci-express con nvlink senza l'aiuto di Intel?


Mentre con Tegra può fare quel che vuole, con le schede destinate ai server HPC che macinano numeri a velocità non comuni, far parte o meno di un consorzio che detta regole astratte non ha alcun senso.


Non direi. Il fatto che CUDA fosse closed fece perdere a Nvidia un appalato da 2 miliardi di dollari con la Cina. Quindi il far parte di un qualcosa che produce standard paga.


Serve una soluzione fisica che funzioni. E che funzioni per gli ordini di grandezza e scalabilità di un server HPC, non di un telefonino.


E non è detto che nvlink possa scalare meglio di hsa.


Se Intel non ha intenzione di usare nvlink nelle sue schede per server, significa che nvidia costrurà i super server di calcolo usando le schede di partner che lo supportano.


Se Intel non è della partita non resta che ARM, la quale fa parte proprio della fondazione HSA.


Non so se questo è un bene o meno per Intel, perché ad nvidia basta un partner come IBM che le produca le schede e le fornisca CPU decenti


IBM ha praticamente venduto tutto quello riguarda computer e cpu negli ultimi anni. Non è un partner affidabilissimo quando si tratta di creare prodotti che poi bisognerà produrre in grandi quantità e mantenere per tot anni.


Ma far parte del consorzio HSA cosa porta? Il PCI-Express è lento, troppo per quel che serve e quindi? Forse facendo parte di HSA magicamente abilita il controller di memoria di Intel/AMD ad accedere a maggior velocità alla memoria delle GPU?

No, ma lavorare per creare uno standard condiviso aiuta loro e tutti gli altri.


Io non vi capisco. Quando si parla di standard et similia sembra che adottare qualcosa di solo annunciato e completamente astratto sia la soluzione finale definitiva.

Veramente HSA è implementato nei SoC Kaveri e pochi giorni fa è stata finalizzata la versione 1.0.


Ad nvidia non interessa che siano gli altri un giorno a trovare bene o male una soluzione che funzionicchia, serve una soluzione che funzioni.


Ma devono stare attenti, soprattutto se il loro scopo è il mercato del deep learning, visto che gpu AMD già oggi forniscono una potenza di calcolo molto maggiore in quel tipo di scenario.


Oggi. Anzi, meglio ieri. Anche Intel usa la stessa strategia. Le aziende che campano con le proprie forze e si costruiscono i propri punti di forza, lavorano così. Gli altri usano le soluzoni "open" per cose che non sono strategiche per il loro business.

Veramente Intel mi sembra stia andando nella direzione opposta, ovvero stringere accordi con altre società ( Rockchip ad esempio ) e forse forse in futuro vedremo Intel che licenzia i suoi core come fa oggi ARM.


Indipendentemente dal fatto che nvlink sia proprietario o meno, la questione è cosa può cambiare con la sua adozione. E' ovvio che nel mondo del calcolo eterogeneo cambia parecchio e favorisce tutte le soluzioni che permettono di bypassare la CPU. Cosa che ovviamente non fa piacere ad alcuni che se adottato produce l'apertura di una maggiore concorrenza.
Far parte di HSA o meno non cambia questa cosa.

Ma non è detto che i clienti saranno felici di adottare l'ennesima tecnologia che poi li legherà mani e piedi a Nvidia per gli anni a venire.

CrapaDiLegno
18-03-2015, 11:24
Capiamoci e non parliamo di cose astratte.

No ma mi pare non sia obbligatorio. La tecnologia dovrebbe essere open e accessibile a tutti.
In quale mondo? Dove le aziende sono create per fare soldi a me non sembra funzioni così.

Certamente, ma le idee alla base di nvlink sono molto simili a quelle alla base di hsa. Alla fine devi cominciare col rendere accessibile lo spazio d'indirizzamento della cpu alla gpu. L'unica cosa che manca è che nel caso hsa non si è presa in considerazione la possibilità di applicarlo alle gpu discrete e quindi non è presente un bus come nvlink.
Simile a HSA? Ma cosa è HSA?
Forse sei un po' cpnfuso tra quale sia il problema e la soluzione: il problema è condividere le risorse tra un entità interna alla CPU e una esterna. E' un problema che esiste da sempre, da quando ci sono i coprocessori.
La soluzione non è la parola "HSA". E' una soluzione fisica che sia studiata e create.

Però questo ci riporta a quello che si chiedevano gli amici sopra. Cioè, visto che il northbridge è ormai integrato nella cpu, a cosa Nvidia attaccherà nvlink? Come fanno a sostituire pci-express con nvlink senza l'aiuto di Intel?
Con o senza la magica parola HSA, il problema c'è e rimane. Senza la collaborazione con Intel nvlink non funzionerà.

Non direi. Il fatto che CUDA fosse closed fece perdere a Nvidia un appalato da 2 miliardi di dollari con la Cina. Quindi il far parte di un qualcosa che produce standard paga.
Visione veramente miope della questione: quanto avrebbe perso nvidia se avesse fatto in modo che la sua tecnologia fosse disponibile a tutti?


E non è detto che nvlink possa scalare meglio di hsa.
Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto.


Se Intel non è della partita non resta che ARM, la quale fa parte proprio della fondazione HSA.
ARM non c'entra per ora dato che i server HPC non sono costruiti con quella architettura, ma sono o Intel o Power.
IBM ha praticamente venduto tutto quello riguarda computer e cpu negli ultimi anni. Non è un partner affidabilissimo quando si tratta di creare prodotti che poi bisognerà produrre in grandi quantità e mantenere per tot anni.
Affidabilità? Che stai dicendo. Quello che conta è avere le soluzoni funzionanti. Infatti IBM e nvidia hanno vinto l'appalto fiunanziato dalla DARPA per la costruzione del prossimo server per la corsa verso l'exascale.

No, ma lavorare per creare uno standard condiviso aiuta loro e tutti gli altri.
Gli altri che importanza hanno per una azienda che deve fare soldi?

Veramente HSA è implementato nei SoC Kaveri e pochi giorni fa è stata finalizzata la versione 1.0.
Credo che tu non abbia capito cosa sia HSA.
E stai ancora una volta parlando di SoC.

Ma devono stare attenti, soprattutto se il loro scopo è il mercato del deep learning, visto che gpu AMD già oggi forniscono una potenza di calcolo molto maggiore in quel tipo di scenario.
Quindi ti contraddici. Se deve stare attenta alla concorrenza, fornirle un assist con una soluzione open non è il massimo della furbizia, no?

Veramente Intel mi sembra stia andando nella direzione opposta, ovvero stringere accordi con altre società ( Rockchip ad esempio ) e forse forse in futuro vedremo Intel che licenzia i suoi core come fa oggi ARM.
???
Intel in direzione opposta a cosa? A crearsi i propri standard e tecnologie da vendere? Solo perché non riesce a fare un SoC che costi come la concorrenza?


Ma non è detto che i clienti saranno felici di adottare l'ennesima tecnologia che poi li legherà mani e piedi a Nvidia per gli anni a venire.
Ai clienti interessa che la cosa funzioni. Sopratutto quando non c'è alternativa. Inutile campare soluzioni probabili, future, forse, magari quando ce n'è una che funziona ed ha il pieno supporto di chi l'ha prodotta.

pabloski
18-03-2015, 11:39
In quale mondo? Dove le aziende sono create per fare soldi a me non sembra funzioni così.

Quindi l'opensource non dovrebbe funzionare. Evidentemente quelle aziende hanno capito che è meglio collaborare, anche per far soldi.


Simile a HSA? Ma cosa è HSA?


parti da qui http://developer.amd.com/resources/heterogeneous-computing/what-is-heterogeneous-system-architecture-hsa/


Forse sei un po' cpnfuso tra quale sia il problema e la soluzione: il problema è condividere le risorse tra un entità interna alla CPU e una esterna.


veramente è così ovunque, a partire dal vecchio e caro i/o




La soluzione non è la parola "HSA". E' una soluzione fisica che sia studiata e create.

sbagli, dato che l'acronimo HSA dice proprio questo

HSA è un termine ombrello sotto il quale vengono prodotte varie tecnologie per rendere possibile il computing eterogeneo, il quale necessita gioco-forza di un metodo per condividere lo spazio indirizzamento ( senza diventa inutile parlare di computing eterogeneo )


Con o senza la magica parola HSA, il problema c'è e rimane. Senza la collaborazione con Intel nvlink non funzionerà.


onestamente non ti seguo

stai forse dicendo che HSA è solo una parola? dunque non hai letto nulla riguardo quello che AMD ha fatto relativamente al lato software e hardware

le apu kaveri sono HSA, quindi non stiamo parlando di chiacchiere ma di ferro

l'unica cosa su cui hai ragione è che AMD non ha ancora considerato il problema relativo alle gpu discrete, ed è qui che Nvidia poteva arrivare e dare il suo contributo, creando uno standard seguito da tutti invece di optare per l'ennesima soluzione proprietaria e chiusa


Visione veramente miope della questione: quanto avrebbe perso nvidia se avesse fatto in modo che la sua tecnologia fosse disponibile a tutti?


e chi può dirlo, magari c'avrebbe pure guadagnato di più

ripeto...l'opensource ci dice che collaborare si può e che la collaborazione può produrre anche guadagni, quindi perchè dai per scontato che collaborare = perdere soldi?


Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto.

ma come non esiste? e kaveri cos'è?


ARM non c'entra per ora dato che i server HPC non sono costruiti con quella architettura, ma sono o Intel o Power.

diciamo pure Intel, visto che i power si contano come le mosche bianche

e non dimentichiamoci di xeon phi, ragion per cui imho Nvidia farebbe meglio a collaborare piuttosto che rinchiudersi nella sua torre d'avorio


Affidabilità? Che stai dicendo. Quello che conta è avere le soluzoni funzionanti.


funzionanti, affidabili, supportate...hai dimenticato perchè Apple passò a x86?


Infatti IBM e nvidia hanno vinto l'appalto fiunanziato dalla DARPA per la costruzione del prossimo server per la corsa verso l'exascale.


ma IBM lavora sempre così, ovvero su un singolo pezzo, poi però non è mai in grado di metter su un business stabile e duraturo


Gli altri che importanza hanno per una azienda che deve fare soldi?


hanno importanza per i clienti i quali vogliono poter passare da un fornitore all'altro se e quando se ne presenterà la necessità

se io investo miliardi nel software hpc non voglio restare legato alle sorti di Nvidia fino alla fine dei tempi


Credo che tu non abbia capito cosa sia HSA.


detto da uno che ritiene HSA vaporware :D


Quindi ti contraddici. Se deve stare attenta alla concorrenza, fornirle un assist con una soluzione open non è il massimo della furbizia, no?


ancora sul mondo opensource, visto che è l'esempio lampante che si può fornire "l'assist" e trarne vantaggio



Intel in direzione opposta a cosa? A crearsi i propri standard e tecnologie da vendere? Solo perché non riesce a fare un SoC che costi come la concorrenza?

No, semplicemente Intel sta capendo che certi clienti vogliono poter costruire SoC su misura, prendendo singoli pezzi invece di comprare qualcosa di monolitico.


Ai clienti interessa che la cosa funzioni. Sopratutto quando non c'è alternativa.


Ah ecco...finchè non c'è alternativa. Ma contare sull'incapacità perenne dei concorrenti è stupido.


Inutile campare soluzioni probabili, future, forse, magari quando ce n'è una che funziona ed ha il pieno supporto di chi l'ha prodotta.

Ma guarda che HSA esiste ed è già qui. Piuttosto Nvlink è da venire, se e solo se Intel vorrà essere della partita. Come fai a dire che HSA è vaporware mentre la soluzione Nvidia è un dato di fatto? A me sembra esattamente il contrario.

bobafetthotmail
18-03-2015, 12:13
In quale mondo? Dove le aziende sono create per fare soldi a me non sembra funzioni così.Opensource non significa aggratis. Per esempio Red Hat è una grossa compagnia che si serve di e crea solo software opensource.
Per un produttore di hardware avere driver opensource permette di scaricare su terzi molte più cose. Ad esempio AMD ha cessato da un pezzo agni supporto ufficiale delle GPU relativamente vecchie su Linux, perchè il driver opensource sviluppato solo in parte da loro è uguale o migliore per quelle schede.
E' una soluzione fisica che sia studiata e create.HSA è reale eh? http://www.hsafoundation.com/standards/

Visione veramente miope della questione: quanto avrebbe perso nvidia se avesse fatto in modo che la sua tecnologia fosse disponibile a tutti?Loro vendono hardware no? Se fanno le schede più potenti non perdono niente. Se non fanno le schede più potenti forse qualcosa lo perdono.

Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto.Il punto è che non abbiamo alcun modo di sapere a che stato di vaporware sia nvlink, mentre per HSA abbiamo gli standard pronti all'implementazione appena qualcuno si degna di farlo.

Infatti IBM e nvidia hanno vinto l'appalto fiunanziato dalla DARPA per la costruzione del prossimo server per la corsa verso l'exascale.Sicuro della DARPA? L'unica cosa che sapevo era che stanno costruendo dei supercomputer per il DoE http://www.extremetech.com/computing/194283-ibm-and-nvidia-will-build-two-ultra-efficient-150-petaflop-supercomputers-for-the-doe
e che saranno pronti per una data di un futuro imprecisato.

CrapaDiLegno
18-03-2015, 12:56
Probabilmente non ci siamo capiti... e parliamo ancora di fuffa (o waporware che dir si voglia) invece che cercar di capire perché un'azienda ha investito milioni di dollari per creare una soluzione ad un problema che non è ancora stato risolto proprio per la poca collaborazione delle stesse aziende con cui tu dici dovrebbe collaborare.
Ma comunque...

Quindi l'opensource non dovrebbe funzionare. Evidentemente quelle aziende hanno capito che è meglio collaborare, anche per far soldi.
Si vede che non hai letto bene.. chi rende le tecnologie del proprio core business open source?
Io non vedo alcuna azienda fare ciò. Se qualcosa è reso disponibile agli altri (che sia open source o meno) è perché è un "accessorio" che può portare più ricevi in futuro nel core business.
Altrimenti se si fanno 2 conti e risulta meglio che la cosa non sia condivisa, la si tiene per sè. E' la politica delle aziende che vale da sempre.

veramente è così ovunque, a partire dal vecchio e caro i/o
No caro. Stai parlando con uno che gli I/O sa benissimo cosa sono. E non c'entrano una pippa con il discorso di condivisione delle risorse tra due sistemi distinti.


HSA è un termine ombrello sotto il quale vengono prodotte varie tecnologie per rendere possibile il computing eterogeneo, il quale necessita gioco-forza di un metodo per condividere lo spazio indirizzamento ( senza diventa inutile parlare di computing eterogeneo )

stai forse dicendo che HSA è solo una parola? dunque non hai letto nulla riguardo quello che AMD ha fatto relativamente al lato software e hardware

le apu kaveri sono HSA, quindi non stiamo parlando di chiacchiere ma di ferro

l'unica cosa su cui hai ragione è che AMD non ha ancora considerato il problema relativo alle gpu discrete, ed è qui che Nvidia poteva arrivare e dare il suo contributo, creando uno standard seguito da tutti invece di optare per l'ennesima soluzione proprietaria e chiusa
HSA è una parola astratta che non significa nulla. E ha valore solo per le architetture "monolitiche", dove tutto è interno e si può avere il controllo delle varie unità di calcolo. E tutto sto èarlare di HSA non ha finora portato a niente. Kaveri non è altro che un SoC dove 8 anni dopo l'acquisiszione di ATI, AMD è riuscita finalmente ad avere un memory controller condiviso tra CPU e GPU. Fine. Punto. Io non ho ancora visto una sola applicazione pratica della cosa.
Arriverà? Funzionerà? E' concorrente in costi/prestazioni/consumi con invece allocare spazio e risorse per unità vettoriali tipo quelle nei processori Intel? Boh, non si sa.
Sappiamo che esiste un SoC AMD in cui CPU e GPU condividono lo spazio di memoria. Bene. Ma anche fine.


e chi può dirlo, magari c'avrebbe pure guadagnato di più

ripeto...l'opensource ci dice che collaborare si può e che la collaborazione può produrre anche guadagni, quindi perchè dai per scontato che collaborare = perdere soldi?
Ma chi sei tu per fare i conti in tasca a nvidia? Non ho capito. Arrivi e dici che se tutto fosse stato Open source sicuramente sarebbe stato meglio.
Meglio per chi? Per chi ci investe miliardi di dollari in R&D pluriennali?
Ma cosa ti stai inventando? Sono discorsi dal bar. QUi si parla di milardi e futuro di aziende, non del rigore sbagliato da tizio, che se fossi stato io lo avrei tirato a destra invece che a sinistra.


ma come non esiste? e kaveri cos'è?
Una implementazione di una soluzione di un problema. Usando uno standard che è stato condiviso. Nulla più.


diciamo pure Intel, visto che i power si contano come le mosche bianche

e non dimentichiamoci di xeon phi, ragion per cui imho Nvidia farebbe meglio a collaborare piuttosto che rinchiudersi nella sua torre d'avorio
I Power saranno come mosche bianche ma sono montati proprio sui server più grandi.
La questione con Intel è delicata per entrambe le aziende. Da una parte nvidia vorrebbe avere accesso al memory controller (non dimentichiamoci quanto casino ha fatto quando Intel la privò della possibilità di fare chipset quando il memory controller fu integrato nel die della CPU, probabilmente svaporando diverse strategie che nvidia voleva perseguire), dall'altra ovviamente Intel ben se ne guarda.
Però Intel non può fare quella che non fa nulla sulla questione, perché con nvlink nvidia si appresta ad avere un notevole vantaggio proprio sulla tecnologia Phi che ancora usa il PCI-Express e memoria separata.
Se Intel non adotta una tecnologia analoga (ed essendo esterna alla CPU non può rendere esclusiva, anti trust in agguato) rimane indietro. E permette a chi usa nvlink di prendere il suo posto in molte situazioni. Se l'adotta apre una strada a terzi.. insomma, tra le due aziende è in corso una partita a scacchi. Vedremo chi avrà la strategia e la soluzione migliore (inutile avee nvlink se le GPU fanno schifo a fare calcoli, inutile avere un link esterno se Intel può permettersi di fare una mattonella da 1000mm^2 con a bordo 100 core x86 che lavorano all'unisono sulla stessa area di memoria).

funzionanti, affidabili, supportate...hai dimenticato perchè Apple passò a x86?
Perché Intel superò le prestazioni del PPC e rese evidente di avere un vantaggio in termini di PP rispetto a tutti gli altri.
IBM e Motorola non avevano la possibilità di miniaturizzare così velocemente le proprie soluzioni.

ma IBM lavora sempre così, ovvero su un singolo pezzo, poi però non è mai in grado di metter su un business stabile e duraturo
???
Non commento. Davvero. Il bar è dietro l'angolo. Meglio fare lì certi discorsi.

hanno importanza per i clienti i quali vogliono poter passare da un fornitore all'altro se e quando se ne presenterà la necessità

se io investo miliardi nel software hpc non voglio restare legato alle sorti di Nvidia fino alla fine dei tempi
Ma che stai dicendo?
Secondo te tutti quelli che oggi hanno investito nelle GPU nvidia hanno pregato il cielo che funzionasse tutto? O avessero il supporto?
I server HPC sono sistemi particolari. Hanno vita relativamente breve e SW ad hoc. Quello che conta è che funzionino.
Inoltre non è mai un aiuto all'azienda quella di permettere ad altri di potere entrare nel proprio business.
L'unica eccezione a questa cosa è solo quando il numero dei partecipanti fa una massa critica di utilizzatori, allora si cerca di aiutare la crescita con l'apertura minima delle proprie capacità. Si rendono disponibili gli standard o gli algoritmi sapendo di avere in mano l'implementazione migliore.
Altrimenti non c'è alcun vantaggio.

detto da uno che ritiene HSA vaporware :D
Che difatti lo è. Finora zero tituli, come disse qualcuno tempo fa.

ancora sul mondo opensource, visto che è l'esempio lampante che si può fornire "l'assist" e trarne vantaggio
Vedi prima. Solo se serve una massa critica di utilizzatori. Altrimenti non è economicamente vantaggioso.
Nessun progetto OpenSource fa soldi direttamente con la vendita della soluzione. Se lo fa è per l'assistenza. Il più delle volte è solo un investimetno in perdita condiviso per evitare di usare prodotti più costosi.
Le aziende che hanno forti capacità proprie create negli anni e dispongono di soluzioni che altre non possono avere non rendono queste open source.

No, semplicemente Intel sta capendo che certi clienti vogliono poter costruire SoC su misura, prendendo singoli pezzi invece di comprare qualcosa di monolitico.
Intel ha il solo problema che non riece a produrre a costi inferiori della concorrenza. I suoi chip vanno meglio e consumano uguale alla concorrenza solo se realizzati con processi produttivi molto più costosi. Se domani riuscisse a fare un SoC che va quanto un ARM, che consuma uguale e che costa la metà sicuro non gliene fregherebbe una mazza della "customizzazione" delle sue soluzioni. La sua politica è sempre stata di venderti un chip fatto e finito a tot. Se ti va bene ok, altrimenti ciccia. Solo che fino a ieri o lei o lei. Ora la situazione è diversa. Il tot che ti chiede è il triplo o più rispetto alla concorrenza che sì, andrà di meno, ma funziona bene comunque per il mercato a cui è destinato il prodotto.


Ah ecco...finchè non c'è alternativa. Ma contare sull'incapacità perenne dei concorrenti è stupido.
Hai una idea veramente distorta dell'economia e delle strategie aziendali.
Le aziende difendono i propri investimenti e conoscenze quando questi garantiscono loro un vantaggio sulla concorrenza. E quelle serie investono per mantenere questo vantaggio.
Le aziende che si aiutano e fanno "comunella" sono quelle che rincorrono e che non hanno speranza da sole di raggiungere la concorrenza. Perché per un motivo o l'altro, non hanno una soluzione altrettanto valida. Quindi meglio guadagnare poco, ma rimanere nel business.


Ma guarda che HSA esiste ed è già qui. Piuttosto Nvlink è da venire, se e solo se Intel vorrà essere della partita. Come fai a dire che HSA è vaporware mentre la soluzione Nvidia è un dato di fatto? A me sembra esattamente il contrario.
HSA è uno standard che finora non ha portato a nulla. E' un insieme di intenzioni per ruscre a fare qualcosa che richiami massa critica (vedi prima). Visto che AMD in tutti questi anni non è riuscita a produrre nulla che contrastasse nvidia nel campo del GPGPU, tenta di fare "comunella" e creare uno standard che richiami altri e che porti quindi interesse alla cosa.
nvidia non ha alcun interesse in ciò (non ancora, almeno) e quindi come fa da sempre, crea le proprie soluzioni per sè stessa.
nvlink esiste, dato che è alla base propro della collaborazione con IBM per la realizzazione del suddetto server. HSA invece è il nulla. Tante parole scritte ma nulla di concreto. Per il momento. Poi tra qualche anno forse se ne riparlerà. Ma OGGI, Marzo 2015, non porta alcun beneficio a nessuno. Nemmeno a AMD che ha il suo bel Kaveri che non ha un solo SW che lo sfrutti.
E siccome stavamo paralando di avere soluzioni efficienti che funzionano OGGI e non tra 10 anni con mille compromessi tra i vari attori che decidono, la scelta di nvidia (che finanziariamente se lo può permettere) secondo me non fa una piega.
E ripeto, con o senza il bollino HSA, il problema con Intel rimane.

CrapaDiLegno
18-03-2015, 13:35
Opensource non significa aggratis. Per esempio Red Hat è una grossa compagnia che si serve di e crea solo software opensource.
Per un produttore di hardware avere driver opensource permette di scaricare su terzi molte più cose. Ad esempio AMD ha cessato da un pezzo agni supporto ufficiale delle GPU relativamente vecchie su Linux, perchè il driver opensource sviluppato solo in parte da loro è uguale o migliore per quelle schede.
HSA è reale eh? http://www.hsafoundation.com/standards/

Loro vendono hardware no? Se fanno le schede più potenti non perdono niente. Se non fanno le schede più potenti forse qualcosa lo perdono.

Driver open source significa molte cose. In primis che devi dare parecchie informazioni sull'architettura interna. Se ritieni che sia informazione preziosa, allora non lo fai.
RedHat produce SW open source da cui non guadagna una lira e ti fa pagare il supporto. Che è modello di business diverso rispetto a chi può produrre HW (o altri dispositivi, anche SW) contenenti soluzioni che altri non possono realizzare.
Se io domani invento un algoritmo di compressioni super mega efficiente, mica lo rendo open source se so che posso ricavarci un sacco di soldi (chiedi ad nvidia o AMD i loro algoritmi per comprimere le texture o i dati per ridurre la banda, o quelli per l'AA... vedi quanto open source ottieni).
Se faccio interfacce web based per servizi creati da altri ancora, allora va bene che la mia soluzione sia open source, tanto mi farò pagare per l'inevitabile supporto.

Domandone: ma HSA finora cosa ha prodotto? Tralasciando Kaveri che è il prototipo su cui sono state costruite le specifiche, altro? Nemmeno un SW per Kaveri. Neanche un compilatore. Una serie di belle intenzioni che devono essere realizzate da qualcun altro (come detto prima, nella speranza che qualcuno prima o poi si prenda la briga di implementarle).

Il punto è che non abbiamo alcun modo di sapere a che stato di vaporware sia nvlink, mentre per HSA abbiamo gli standard pronti all'implementazione appena qualcuno si degna di farlo.

Ma che discorso è? Pure tu a sindacare sul punto di realizzazione di una cosa che fa e vuole nvidia? Ma saranno affari suoi cosa, come e quando farla, no? O perché pure tu hai deciso che siccome esistono tante parole in una specifica di uno standard fumoso, allora nvidia deve per forza collaborare con quello e presentare la sua soluzione al vaglio degli altri che non hanno alcun interesse nella soluzone di nvidia non producendo gli stessi dispositivi?
Tante parole un un PDF non sono una soluzione. Pascal il sviluppo da anni e la collaborazione con IBM per l'adozione dello standard nel prossimo futuro lo sono.

Sicuro della DARPA? L'unica cosa che sapevo era che stanno costruendo dei supercomputer per il DoE http://www.extremetech.com/computing/194283-ibm-and-nvidia-will-build-two-ultra-efficient-150-petaflop-supercomputers-for-the-doe
e che saranno pronti per una data di un futuro imprecisato.
Ricordavo DARPA. Forse era il DoE. Non cambia la cosa. Sempre di un super computer dalle capacità di caclolo immense si tratta. E sì, dovrebbe essere pronto per il 2020. Una data lontanta che rende sciocche le affermazioni sull'affidabilità di IBM come partner o sul fatto che i clienti di tali macchine abbiano come prima necessità la possibilità di "swappare" tra un fornitore e l'altro per non affidarsi alle sorti di uno solo di loro.

cdimauro
18-03-2015, 20:50
Si parla di 32GB contro 80. 2,5 volte. Forse per giocare a Battlefield non ha importanza, ma per le operazioni di calcolo ogni GB è importante.
La banda non è l'unico parametro per valutare la bontà di una connessione o bus: c'è anche la latenza, come avevo già scritto prima.
Non è reinventare la ruota o creare una soluzoine proprietaria tanto per: è necessaria per nvidia per superare i limiti imposti da Intel/AMD con i loro memory controller e linee PCI risicate.
Non si tratta di limiti imposti da Intel o AMD, ma da standard industriali come il PCI-Express, appunto, che non possono venire rimpiazzati da soluzioni che risolvono soltanto una specifica problematica, com'è NV-Link.

Per questo arriverà il PCI-Express 4.0 (e così via): per innovare senza buttare a mare la compatibilità con miliardi di schede esistenti.

Ed è per tale motivo che non ha alcun senso parlare di sostituire PCI-Express con NV-Link. D'altra parte non mi pare di aver letto dichiarazioni del genere da parte di nVidia, proprio perché sono loro stessi i primi a esserne consapevoli.
Se Intel non vuole (come ovvio che sia) che il suo memory controller possa accedere a pezzi di memoria esterni a velocità supersonica,
No, non è affatto ovvio che non lo voglia: perché non dovrebbe volerlo?
per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.
Ci sarebbe quella di rimanere con gli standard industriali che sono comuni a tutti. O le sue soluzioni non sarebbero capaci di garantire prestazioni comparabili lavorando nelle stesse condizioni / limiti?

Se, invece, ha bisogno di soluzioni particolari per determinati ambiti "privati" (come la costruzione di un supercomputer, per l'appunto, dove gli standard si possono ignorare/bypassare), allora NV-Link s'inquadra perfettamente.
Ecco, questa potrebbe essere una motivazione, ma non reggerebbe. In entrambi i casi Nvidia ha bisogno della collaborazione almeno dei produttori di schede madri. Quindi perchè non riutilizzare in parte HSA invece di reinventare la ruota?
Forse perché con le discrete HSA non ha molto senso, visto che il principale collo di bottiglia è rappresentato dal PCI-Express?

Già da diversi anni Intel offre una soluzione per condividere la memoria fra CPU e schede acceleratrici su PCI-Express: MYO (Mine, Yours, Ours) https://software.intel.com/en-us/articles/programming-for-multicore-and-many-core-products .

"An alternate approach is a run time user mode library called MYO. MYO allows synchronization of data between the multicore processors and an Intel Xeon Phi coprocessor, and with compiler support enabling allocation of data at the same virtual addresses. The implication is that data pointers can be shared between the multicore and many-core memory spaces. Copying of pointer based data structures such as trees, linked lists, etc. is supported fully without the need for data marshaling. To use the MYO capability, the programmer will mark data items that are meant to be visible from both sides with the _Cilk_shared keyword, and use offloading to invoke work on the Intel Xeon Phi coprocessor. The statement x = _Offload func(y); means that the function func() is executed on the Intel Xeon Phi coprocessor, and the return value is assigned to the variable x. The function may read and modify shared data as part of its execution, and the modified values will be visible for code executing on all processors.

The offload approach is very explicit and fits some programs quite well. The MYO approach is more implicit in nature and has several advantages. MYO allows copying of classes without marshaling and copying of C++ classes, which is not supported using offload pragmas. Importantly, MYO does not copy all shared variables upon synchronization. Instead, it only copies the values that have changed between two synchronization points."

Ma il collo di bottiglia rimane rappresentato dalla connessione tramite PCI-Express, per l'appunto.
E poi c'è ovviamente il discorso Tegra, ma quello è a parte. Lì potrebbe benissimo entrare nella fondazione HSA ed allinearsi a questa tecnologia.
Certamente, SE fosse conveniente, ma al momento non lo è, visto che il software che supporta HSA è molto raro. Inoltre OpenCL è uno standard molto più diffuso e supportato, per cui gli sviluppatori lo preferisco al posto di HSA, per ovvie ragioni.

Finché HSA non sarà abbastanza diffuso, non credo che abbia senso supportarlo.
Già, peccato che tutto l'I/O con le periferiche veloci sia oramai integrato nelle cpu. Il northbridge non esiste più da tempo, il southbridge è un controller usb/sata e poco altro.

Quindi, o intel/amd si mettono a fare cpu che supportano nvlink, oppure nvidia progetta chip che fanno da "ponte" pciexpress <-> nvlink con il benestare dei produttori di schede madri, oppure è una cosa che verrà usata solo su qualche supercomputer e/o soluzioni ad-hoc.
La seconda che hai detto. ;)
Ma infatti non è chiaro come verrà implementato senza il contributo di Intel. E se riguarderà solo i supercomputer sarà x86? O sarà Tegra? E in quest'ultimo caso sarebbe valsa la pena di associarsi a HSA.
No, per quanto detto sopra.
Se Intel non ha intenzione di usare nvlink nelle sue schede per server, significa che nvidia costrurà i super server di calcolo usando le schede di partner che lo supportano.
Server e supercomputer sono molto diversi. Nel secondo caso ha senso una soluzione come NV-Link, ma nel primo no.
Non so se questo è un bene o meno per Intel, perché ad nvidia basta un partner come IBM che le produca le schede e le fornisca CPU decenti (e i Power lo sono) e finché le sue GPU rimangono più efficienti delle soluzioni Intel quest'ultima potrebbe vedersi tagliata fuori da diversi progetti.
Mi pare che le soluzioni Intel non abbiano proprio nulla da invidiare a quelle nVidia in ambito di massiccio calcolo parallelo.
Ad nvidia non interessa che siano gli altri un giorno a trovare bene o male una soluzione che funzionicchia, serve una soluzione che funzioni. Oggi. Anzi, meglio ieri. Anche Intel usa la stessa strategia. Le aziende che campano con le proprie forze e si costruiscono i propri punti di forza, lavorano così. Gli altri usano le soluzoni "open" per cose che non sono strategiche per il loro business.
Ma anche no. A Intel sono molto cari gli standard, perché significano retrocompatibilità, dunque continuare a supportare miliardi di periferiche.

Per questo Intel le innovazioni le realizzare all'interno dei suoi chip, non all'esterno, dove utilizza gli standard.
No ma mi pare non sia obbligatorio. La tecnologia dovrebbe essere open e accessibile a tutti.
Dipende dagli ambiti.
???
Intel in direzione opposta a cosa? A crearsi i propri standard e tecnologie da vendere?
Vedi sopra: Intel gli standard li crea, li condivide con gli altri, e li rispetta.
Solo perché non riesce a fare un SoC che costi come la concorrenza?
Non riusciva. E non parlo soltanto dell'accordo con Rockchip, che è quello che spicca di più.
Ai clienti interessa che la cosa funzioni. Sopratutto quando non c'è alternativa. Inutile campare soluzioni probabili, future, forse, magari quando ce n'è una che funziona ed ha il pieno supporto di chi l'ha prodotta.
Soluzioni con HSA ci sono, e da un pezzo. Il problema di HSA è un altro, come ho già evidenziato.
No, semplicemente Intel sta capendo che certi clienti vogliono poter costruire SoC su misura, prendendo singoli pezzi invece di comprare qualcosa di monolitico.
Non è esatto. Ci sono clienti che vogliono il SoC su misura, e altri a cui vanno benissimo quelli già belli e pronti.
I Power saranno come mosche bianche ma sono montati proprio sui server più grandi.
Sempre meno: al pari di altri processori blasonati, il loro mercato è in declino, fagocitato principalmente da Intel al momento, e con ARM che ne prenderà anche una fetta in futuro. Com'è anche stato riportato qualche mese fa in un documento del consorzio OpenPOWER (e di cui ho riportato il link in qualche thread).
La questione con Intel è delicata per entrambe le aziende. Da una parte nvidia vorrebbe avere accesso al memory controller (non dimentichiamoci quanto casino ha fatto quando Intel la privò della possibilità di fare chipset quando il memory controller fu integrato nel die della CPU, probabilmente svaporando diverse strategie che nvidia voleva perseguire),
Intel semplicemente non rinnovò la licenza con nVidia, e pure con Via, ma per il suo nuovo bus (FSB). L'integrazione del memory controller nella CPU avvenne un po' di anni dopo.
dall'altra ovviamente Intel ben se ne guarda.
Vedi sopra, su questo.
Però Intel non può fare quella che non fa nulla sulla questione, perché con nvlink nvidia si appresta ad avere un notevole vantaggio proprio sulla tecnologia Phi che ancora usa il PCI-Express e memoria separata.
Se Intel non adotta una tecnologia analoga (ed essendo esterna alla CPU non può rendere esclusiva, anti trust in agguato) rimane indietro. E permette a chi usa nvlink di prendere il suo posto in molte situazioni. Se l'adotta apre una strada a terzi.. insomma, tra le due aziende è in corso una partita a scacchi. Vedremo chi avrà la strategia e la soluzione migliore (inutile avee nvlink se le GPU fanno schifo a fare calcoli, inutile avere un link esterno se Intel può permettersi di fare una mattonella da 1000mm^2 con a bordo 100 core x86 che lavorano all'unisono sulla stessa area di memoria).
Premesso che Xeon Phi ha già dimostrato di competere tranquillamente con le soluzioni nVidia, e con die di dimensioni inferiori, non è certo Intel che deve preoccuparsi di tirare fuori una soluzione migliore a quella già molto buona che ha a disposizione. Non ne ha bisogno perché ci sta già lavorando da un pezzo, e fra qualche mese la commercializzerà.

A parte questo, mi pare che recentemente c'è stato qualcuno in questo forum che ha scritto che non bisogna vedere com'è fatta qualcosa, ma cosa finisce in mano agli utenti e quanto costa...
Perché Intel superò le prestazioni del PPC e rese evidente di avere un vantaggio in termini di PP rispetto a tutti gli altri.
IBM e Motorola non avevano la possibilità di miniaturizzare così velocemente le proprie soluzioni.
Veramente IBM era pioniere quanto Intel nei processi produttivi, e i suoi prodotti ne hanno potuto beneficiare prima di altri produttori come Motorola, e al pari di Intel.

Il motivo del passaggio di Apple a Intel non fu determinato dal processo produttivo, ma dalle prestazioni e dai consumi nettamente migliori delle soluzioni Intel.
Intel ha il solo problema che non riece a produrre a costi inferiori della concorrenza.
Ma anche no, a parità di prestazioni.
I suoi chip vanno meglio e consumano uguale alla concorrenza solo se realizzati con processi produttivi molto più costosi.
I processi produttivi impiegati sono meno costosi dei precedenti. Altrimenti continuerebbe usare quelli vecchi.
Se domani riuscisse a fare un SoC che va quanto un ARM, che consuma uguale e che costa la metà sicuro non gliene fregherebbe una mazza della "customizzazione" delle sue soluzioni.
Costare la metà no, ma l'importante è che i costi siano concorrenziali.
La sua politica è sempre stata di venderti un chip fatto e finito a tot. Se ti va bene ok, altrimenti ciccia. Solo che fino a ieri o lei o lei. Ora la situazione è diversa. Il tot che ti chiede è il triplo o più rispetto alla concorrenza che sì, andrà di meno, ma funziona bene comunque per il mercato a cui è destinato il prodotto.
Come detto prima, ci sono esigenze diverse: chi vuole personalizzarsi il SoC, e a chi va bene uno già pronto. Intel s'è inserita di recente anche nel primo caso.

boboviz
19-03-2015, 08:07
Visto che AMD in tutti questi anni non è riuscita a produrre nulla che contrastasse nvidia nel campo del GPGPU

Ma anche no.