|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/skvideo...ink_56498.html
Jen-Hsun Huang ha rivelato al GTC le prossime due architetture NVIDIA per le future GPU: si tratta di Pascal e di Volta. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Feb 2003
Città: Mo<->Bo
Messaggi: 44156
|
Tutto bello, tranne l'nvlink...
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7038
|
Trattandosi di un bus proprietario nVidia è improbabile che troverà spazio in soluzioni desktop o normali server.
Non resta che sperare in miglioramenti sostanziali dello standard Pci Express in grado di limitare il collo di bottiglia che produce inferiori prestazioni nel caso d'uso di sistemi a memoria unificata. Problema non di poco conto, dato che non essere limitati alla memoria della scheda video, ma fortemente penalizzati al livello di prestazioni, non è in grado di soddisfare determinati requisiti in determinate applicazioni. Mentre al livello di collegamenti tra sole schede video nVidia (GPU↔GPU connections) ritengo usciranno soluzioni, senza problemi, dato che non penso richiedano modifiche di nessun genere alla scheda madre. Riferimenti: NVLink, Pascal and Stacked Memory: Feeding the Appetite for Big Data NVIDIA Updates GPU Roadmap; Unveils Pascal Architecture For 2016 What Is NVLink? And How Will It Make the World’s Fastest Computers Possible?
__________________
Distro:Ubuntu LTS, Debian,SL,OpenBSD I love Linux, Bsd and the free software! Fantasia: fotografica ![]() [Icewm]: Thread Ufficiale - light window manager ![]() ![]() Ultima modifica di AleLinuxBSD : 17-03-2015 alle 18:56. |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Perchè non sono entrati nella fondazione HSA invece di reinventare la ruota? La loro soluzione è in pratica uguale a hUMA, con l'aggravante di aver aggiunto un bus proprietario.
Sul fronte HSA la situazione attuale è questa http://www.phoronix.com/scan.php?pag...1.0-Final-Spec |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Dec 2004
Città: IV Reich
Messaggi: 18590
|
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima... ma non credo che questo nvlink funzioni così
![]()
__________________
Wind3 4G CA |
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Mar 2012
Messaggi: 8640
|
Quote:
![]()
__________________
Pixel 5 - Galaxy S21 - Galaxy Tab S7 - Yoga Slim 7 Ryzen 7 16gb RAM - NUC i5-1145G7 /32Gb RAM /NVME 1Tb + SSD SATA 1Tb - BenQ EX2780Q + BenQ PD2500Q - XBOX Series S |
|
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Banda != velocità. C'è anche la latenza come parametro prestazionale.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 15513
|
Niente da fare, nvidia è come sony, se non tira fuori qualcosa di proprietario non è contenta
![]() Spero che questo nvlink fallisca miseramente... che cavolo di bisogno c'è di fare una soluzione proprietaria quando pci-express 4 è alle porte e garantirà 32GB/s di banda per collegamenti 16x? |
![]() |
![]() |
![]() |
#9 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3476
|
Quote:
Non puoi accedere alla memoria della GPU discreta se il controller di memoria a bordo della CPU (che ora è di Intel/AMD, non più su chipset esterno come un tempo) non ha un bus fatto apposta per accedervi. Quote:
Non è reinventare la ruota o creare una soluzoine proprietaria tanto per: è necessaria per nvidia per superare i limiti imposti da Intel/AMD con i loro memory controller e linee PCI risicate. |
||
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Non credo ci siano differenze insanabili tra le due implementazioni ( ma magari mi sbaglio ), per questo mi sono chiesto "perchè non si sono messi d'accordo con AMD piuttosto che introdurre l'ennesimo meccanismo proprietario?". Poi ho letto "deep learning" e ho capito il perchè! |
|
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3476
|
Quote:
Le discrete di nvidia devono funzionare principalmente sui server (da qui l'accordo con IBM) e poi sulle worstation. Se Intel non vuole (come ovvio che sia) che il suo memory controller possa accedere a pezzi di memoria esterni a velocità supersonica, per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti. |
|
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
E poi c'è ovviamente il discorso Tegra, ma quello è a parte. Lì potrebbe benissimo entrare nella fondazione HSA ed allinearsi a questa tecnologia. |
|
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 15513
|
Quote:
Quindi, o intel/amd si mettono a fare cpu che supportano nvlink, oppure nvidia progetta chip che fanno da "ponte" pciexpress <-> nvlink con il benestare dei produttori di schede madri, oppure è una cosa che verrà usata solo su qualche supercomputer e/o soluzioni ad-hoc. |
|
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3948
|
Quote:
No per dire, il Gsynch? Cuda? Physx? Sono tutte tecnologie dove la decisione di reinventare la ruota o fare una cosa proprietaria scopiazzando progetti opensource (caso di Gsynch) è partita solo ed esclusivamente dalla mente di uno dei loro dirigenti. |
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Però a me sembra la stessa strategia usata per CUDA ( ma allora c'era solo CUDA in verità ). Vogliono far leva su una specifica necessità ( il deep learning ) per entrare in un mercato sostanzialmente nuovo e mantenerne il controllo tramite lock-in. E in effetti già oggi il mercato del deep learning fa prevalentemente uso di GPGPU tramite CUDA, quindi non devono nemmeno sforzarsi tanto per aumentare il loro share. |
|
![]() |
![]() |
![]() |
#16 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3476
|
Quote:
Non è che far parte di un consorzio risolve automaticamente tutti i problemi. nvidia con le sue GPU è in una posizione diversa da chi crea SoC perché non ha il controllo totale della architettura su cui deve far funzionare i suoi dispositivi. Mentre con Tegra può fare quel che vuole, con le schede destinate ai server HPC che macinano numeri a velocità non comuni, far parte o meno di un consorzio che detta regole astratte non ha alcun senso. Serve una soluzione fisica che funzioni. E che funzioni per gli ordini di grandezza e scalabilità di un server HPC, non di un telefonino. Se Intel non ha intenzione di usare nvlink nelle sue schede per server, significa che nvidia costrurà i super server di calcolo usando le schede di partner che lo supportano. Non so se questo è un bene o meno per Intel, perché ad nvidia basta un partner come IBM che le produca le schede e le fornisca CPU decenti (e i Power lo sono) e finché le sue GPU rimangono più efficienti delle soluzioni Intel quest'ultima potrebbe vedersi tagliata fuori da diversi progetti. Sulle workstation è logico che serva la collaborazione dei produttori di CPU. Ma far parte del consorzio HSA cosa porta? Il PCI-Express è lento, troppo per quel che serve e quindi? Forse facendo parte di HSA magicamente abilita il controller di memoria di Intel/AMD ad accedere a maggior velocità alla memoria delle GPU? Io non vi capisco. Quando si parla di standard et similia sembra che adottare qualcosa di solo annunciato e completamente astratto sia la soluzione finale definitiva. Ad nvidia non interessa che siano gli altri un giorno a trovare bene o male una soluzione che funzionicchia, serve una soluzione che funzioni. Oggi. Anzi, meglio ieri. Anche Intel usa la stessa strategia. Le aziende che campano con le proprie forze e si costruiscono i propri punti di forza, lavorano così. Gli altri usano le soluzoni "open" per cose che non sono strategiche per il loro business. Indipendentemente dal fatto che nvlink sia proprietario o meno, la questione è cosa può cambiare con la sua adozione. E' ovvio che nel mondo del calcolo eterogeneo cambia parecchio e favorisce tutte le soluzioni che permettono di bypassare la CPU. Cosa che ovviamente non fa piacere ad alcuni che se adottato produce l'apertura di una maggiore concorrenza. Far parte di HSA o meno non cambia questa cosa. |
|
![]() |
![]() |
![]() |
#17 | |||||||||||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Quote:
Però questo ci riporta a quello che si chiedevano gli amici sopra. Cioè, visto che il northbridge è ormai integrato nella cpu, a cosa Nvidia attaccherà nvlink? Come fanno a sostituire pci-express con nvlink senza l'aiuto di Intel? Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
|
|||||||||||
![]() |
![]() |
![]() |
#18 | ||||||||||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3476
|
Capiamoci e non parliamo di cose astratte.
Quote:
Quote:
Forse sei un po' cpnfuso tra quale sia il problema e la soluzione: il problema è condividere le risorse tra un entità interna alla CPU e una esterna. E' un problema che esiste da sempre, da quando ci sono i coprocessori. La soluzione non è la parola "HSA". E' una soluzione fisica che sia studiata e create. Quote:
Quote:
Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto. Quote:
Quote:
Quote:
Quote:
E stai ancora una volta parlando di SoC. Quote:
Quote:
Intel in direzione opposta a cosa? A crearsi i propri standard e tecnologie da vendere? Solo perché non riesce a fare un SoC che costi come la concorrenza? Ai clienti interessa che la cosa funzioni. Sopratutto quando non c'è alternativa. Inutile campare soluzioni probabili, future, forse, magari quando ce n'è una che funziona ed ha il pieno supporto di chi l'ha prodotta. Ultima modifica di CrapaDiLegno : 18-03-2015 alle 11:51. |
||||||||||
![]() |
![]() |
![]() |
#19 | |||||||||||||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
parti da qui http://developer.amd.com/resources/h...hitecture-hsa/ Quote:
Quote:
HSA è un termine ombrello sotto il quale vengono prodotte varie tecnologie per rendere possibile il computing eterogeneo, il quale necessita gioco-forza di un metodo per condividere lo spazio indirizzamento ( senza diventa inutile parlare di computing eterogeneo ) Quote:
stai forse dicendo che HSA è solo una parola? dunque non hai letto nulla riguardo quello che AMD ha fatto relativamente al lato software e hardware le apu kaveri sono HSA, quindi non stiamo parlando di chiacchiere ma di ferro l'unica cosa su cui hai ragione è che AMD non ha ancora considerato il problema relativo alle gpu discrete, ed è qui che Nvidia poteva arrivare e dare il suo contributo, creando uno standard seguito da tutti invece di optare per l'ennesima soluzione proprietaria e chiusa Quote:
ripeto...l'opensource ci dice che collaborare si può e che la collaborazione può produrre anche guadagni, quindi perchè dai per scontato che collaborare = perdere soldi? Quote:
Quote:
e non dimentichiamoci di xeon phi, ragion per cui imho Nvidia farebbe meglio a collaborare piuttosto che rinchiudersi nella sua torre d'avorio Quote:
Quote:
Quote:
se io investo miliardi nel software hpc non voglio restare legato alle sorti di Nvidia fino alla fine dei tempi detto da uno che ritiene HSA vaporware ![]() Quote:
Quote:
Quote:
Ma guarda che HSA esiste ed è già qui. Piuttosto Nvlink è da venire, se e solo se Intel vorrà essere della partita. Come fai a dire che HSA è vaporware mentre la soluzione Nvidia è un dato di fatto? A me sembra esattamente il contrario. |
|||||||||||||
![]() |
![]() |
![]() |
#20 | |||||
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3948
|
Quote:
Per un produttore di hardware avere driver opensource permette di scaricare su terzi molte più cose. Ad esempio AMD ha cessato da un pezzo agni supporto ufficiale delle GPU relativamente vecchie su Linux, perchè il driver opensource sviluppato solo in parte da loro è uguale o migliore per quelle schede. Quote:
Quote:
Quote:
Quote:
e che saranno pronti per una data di un futuro imprecisato. |
|||||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 01:47.