Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

AMD Ryzen Threadripper 9000 e Radeon AI Pro R9700, per le workstation AI
AMD Ryzen Threadripper 9000 e Radeon AI Pro R9700, per le workstation AI
La nuova generazione di processori AMD Ryzen Threadripper 9000 espande la presenza dell'azienda americana nel settore delle workstation, con un focus particolare agli ambiti compute e dell'intelligenza artificiale. A integrare le novità troviamo le schede Radeon AI PRO R9700, con le quali sviluppare sistemi per l'IA che non siano in cloud ma direttamente in azienda
Nuova Ford Capri elettrica, la super prova: in viaggio, in città e in autostrada
Nuova Ford Capri elettrica, la super prova: in viaggio, in città e in autostrada
Dopo diverse prove, da poche ore al volante, fino a un'intera settimana come prima auto, possiamo riportarvi tutti i dettagli e le impressioni sulla Ford Capri elettrica
HUAWEI MatePad Pro (2025): display anti-riflesso e Wi-Fi 7 per il tablet 'Pro' perfetto
HUAWEI MatePad Pro (2025): display anti-riflesso e Wi-Fi 7 per il tablet 'Pro' perfetto
HUAWEI MatePad Pro PaperMatte Edition (2025) adotta un particolare display Tandem OLED da 12,2" che elimina il 99% dei riflessi grazie alla superficie PaperMatte. Con soli 508 grammi di peso e 5,5 mm di spessore, integra il processore Kirin T92A, 12GB di RAM e connettività Wi-Fi 7, novità peculiare dell'edizione di quest'anno. La batteria da 10.100 mAh supporta ricarica SuperCharge Turbo da 100W per il pieno in 55 minuti, per un tablet estremamente fluido e affidabile nei contesti più disparati.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 17-03-2015, 18:10   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.hwupgrade.it/news/skvideo...ink_56498.html

Jen-Hsun Huang ha rivelato al GTC le prossime due architetture NVIDIA per le future GPU: si tratta di Pascal e di Volta.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 17-03-2015, 18:41   #2
gd350turbo
Senior Member
 
L'Avatar di gd350turbo
 
Iscritto dal: Feb 2003
Città: Mo<->Bo
Messaggi: 44156
Tutto bello, tranne l'nvlink...
gd350turbo è offline   Rispondi citando il messaggio o parte di esso
Old 17-03-2015, 18:52   #3
AleLinuxBSD
Senior Member
 
L'Avatar di AleLinuxBSD
 
Iscritto dal: Dec 2005
Messaggi: 7038
Trattandosi di un bus proprietario nVidia è improbabile che troverà spazio in soluzioni desktop o normali server.
Non resta che sperare in miglioramenti sostanziali dello standard Pci Express in grado di limitare il collo di bottiglia che produce inferiori prestazioni nel caso d'uso di sistemi a memoria unificata.
Problema non di poco conto, dato che non essere limitati alla memoria della scheda video, ma fortemente penalizzati al livello di prestazioni, non è in grado di soddisfare determinati requisiti in determinate applicazioni.
Mentre al livello di collegamenti tra sole schede video nVidia (GPU↔GPU connections) ritengo usciranno soluzioni, senza problemi, dato che non penso richiedano modifiche di nessun genere alla scheda madre.

Riferimenti:
NVLink, Pascal and Stacked Memory: Feeding the Appetite for Big Data
NVIDIA Updates GPU Roadmap; Unveils Pascal Architecture For 2016
What Is NVLink? And How Will It Make the World’s Fastest Computers Possible?
__________________
Distro:Ubuntu LTS, Debian,SL,OpenBSD
I love Linux, Bsd and the free software! Fantasia: fotografica
[Icewm]: Thread Ufficiale - light window manager Benchmark Cpu per sistemi Linux/BSD

Ultima modifica di AleLinuxBSD : 17-03-2015 alle 18:56.
AleLinuxBSD è offline   Rispondi citando il messaggio o parte di esso
Old 17-03-2015, 21:18   #4
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 8406
Perchè non sono entrati nella fondazione HSA invece di reinventare la ruota? La loro soluzione è in pratica uguale a hUMA, con l'aggravante di aver aggiunto un bus proprietario.

Sul fronte HSA la situazione attuale è questa http://www.phoronix.com/scan.php?pag...1.0-Final-Spec
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 17-03-2015, 21:22   #5
marchigiano
Senior Member
 
L'Avatar di marchigiano
 
Iscritto dal: Dec 2004
Città: IV Reich
Messaggi: 18590
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima... ma non credo che questo nvlink funzioni così
__________________
Wind3 4G CA
marchigiano è offline   Rispondi citando il messaggio o parte di esso
Old 17-03-2015, 23:16   #6
acerbo
Senior Member
 
L'Avatar di acerbo
 
Iscritto dal: Mar 2012
Messaggi: 8640
Quote:
Originariamente inviato da marchigiano Guarda i messaggi
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima... ma non credo che questo nvlink funzioni così
cosi' buttiamo tutti i sistemi con gpu integrata nella cpu
__________________
Pixel 5 - Galaxy S21 - Galaxy Tab S7 - Yoga Slim 7 Ryzen 7 16gb RAM - NUC i5-1145G7 /32Gb RAM /NVME 1Tb + SSD SATA 1Tb - BenQ EX2780Q + BenQ PD2500Q - XBOX Series S
acerbo è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 05:26   #7
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da marchigiano Guarda i messaggi
be a me piacerebbe che la mobo fosse senza slot ram e la cpu potesse accedere a quella video che è velocissima...
Ma anche no, visto che la memoria video (GDDR) ha latenze molto più elevate rispetto alla memoria di sistema (DDR), che incidono negativamente sul codice più "general purpose" che è quello eseguito dalla CPU (anche quando esegue codice SIMD, che è più lineare e trae vantaggio dalla maggior banda, le istruzioni non posso rimanere appese per centinaia e centinaia di cicli di clock perché le prestazioni ne risentono tantissimo).

Banda != velocità. C'è anche la latenza come parametro prestazionale.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 06:29   #8
roccia1234
Senior Member
 
Iscritto dal: Jun 2006
Messaggi: 15513
Niente da fare, nvidia è come sony, se non tira fuori qualcosa di proprietario non è contenta .

Spero che questo nvlink fallisca miseramente... che cavolo di bisogno c'è di fare una soluzione proprietaria quando pci-express 4 è alle porte e garantirà 32GB/s di banda per collegamenti 16x?
roccia1234 è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 08:42   #9
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3476
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Perchè non sono entrati nella fondazione HSA invece di reinventare la ruota? La loro soluzione è in pratica uguale a hUMA, con l'aggravante di aver aggiunto un bus proprietario.

Sul fronte HSA la situazione attuale è questa http://www.phoronix.com/scan.php?pag...1.0-Final-Spec
Perché accedere alla memoria su scheda discreta non è uguale ad accedere alla memoria di sistema condivisa tra CPU e GPU integrata?
Non puoi accedere alla memoria della GPU discreta se il controller di memoria a bordo della CPU (che ora è di Intel/AMD, non più su chipset esterno come un tempo) non ha un bus fatto apposta per accedervi.

Quote:
Originariamente inviato da roccia1234 Guarda i messaggi
Niente da fare, nvidia è come sony, se non tira fuori qualcosa di proprietario non è contenta .

Spero che questo nvlink fallisca miseramente... che cavolo di bisogno c'è di fare una soluzione proprietaria quando pci-express 4 è alle porte e garantirà 32GB/s di banda per collegamenti 16x?
Si parla di 32GB contro 80. 2,5 volte. Forse per giocare a Battlefield non ha importanza, ma per le operazioni di calcolo ogni GB è importante.
Non è reinventare la ruota o creare una soluzoine proprietaria tanto per: è necessaria per nvidia per superare i limiti imposti da Intel/AMD con i loro memory controller e linee PCI risicate.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 08:59   #10
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 8406
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Perché accedere alla memoria su scheda discreta non è uguale ad accedere alla memoria di sistema condivisa tra CPU e GPU integrata?
Dal punto di vista dei componenti coinvolti cambia l'implementazione fisica, ma il meccanismo è lo stesso. In pratica se non hai la memoria unificata non puoi nemmeno cominciare a fare questa cosa.

Non credo ci siano differenze insanabili tra le due implementazioni ( ma magari mi sbaglio ), per questo mi sono chiesto "perchè non si sono messi d'accordo con AMD piuttosto che introdurre l'ennesimo meccanismo proprietario?".

Poi ho letto "deep learning" e ho capito il perchè!
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 09:03   #11
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3476
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Dal punto di vista dei componenti coinvolti cambia l'implementazione fisica, ma il meccanismo è lo stesso. In pratica se non hai la memoria unificata non puoi nemmeno cominciare a fare questa cosa.

Non credo ci siano differenze insanabili tra le due implementazioni ( ma magari mi sbaglio ), per questo mi sono chiesto "perchè non si sono messi d'accordo con AMD piuttosto che introdurre l'ennesimo meccanismo proprietario?".

Poi ho letto "deep learning" e ho capito il perchè!
Perché quella AMD non è l'unica piattaforma su cui le schede nvidia devono funzionare. Anzi. Interesse su quelle pari a zero.
Le discrete di nvidia devono funzionare principalmente sui server (da qui l'accordo con IBM) e poi sulle worstation.
Se Intel non vuole (come ovvio che sia) che il suo memory controller possa accedere a pezzi di memoria esterni a velocità supersonica, per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 09:20   #12
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 8406
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Perché quella AMD non è l'unica piattaforma su cui le schede nvidia devono funzionare. Anzi. Interesse su quelle pari a zero.
Le discrete di nvidia devono funzionare principalmente sui server (da qui l'accordo con IBM) e poi sulle worstation.
Se Intel non vuole (come ovvio che sia) che il suo memory controller possa accedere a pezzi di memoria esterni a velocità supersonica, per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.
Ecco, questa potrebbe essere una motivazione, ma non reggerebbe. In entrambi i casi Nvidia ha bisogno della collaborazione almeno dei produttori di schede madri. Quindi perchè non riutilizzare in parte HSA invece di reinventare la ruota?

E poi c'è ovviamente il discorso Tegra, ma quello è a parte. Lì potrebbe benissimo entrare nella fondazione HSA ed allinearsi a questa tecnologia.
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 09:57   #13
roccia1234
Senior Member
 
Iscritto dal: Jun 2006
Messaggi: 15513
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Si parla di 32GB contro 80. 2,5 volte. Forse per giocare a Battlefield non ha importanza, ma per le operazioni di calcolo ogni GB è importante.
Non è reinventare la ruota o creare una soluzoine proprietaria tanto per: è necessaria per nvidia per superare i limiti imposti da Intel/AMD con i loro memory controller e linee PCI risicate.
Già, peccato che tutto l'I/O con le periferiche veloci sia oramai integrato nelle cpu. Il northbridge non esiste più da tempo, il southbridge è un controller usb/sata e poco altro.

Quindi, o intel/amd si mettono a fare cpu che supportano nvlink, oppure nvidia progetta chip che fanno da "ponte" pciexpress <-> nvlink con il benestare dei produttori di schede madri, oppure è una cosa che verrà usata solo su qualche supercomputer e/o soluzioni ad-hoc.
roccia1234 è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 10:02   #14
bobafetthotmail
Senior Member
 
L'Avatar di bobafetthotmail
 
Iscritto dal: Jun 2014
Messaggi: 3948
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
per nvidia non c'è altro modo che inventarsi una soluzione diversa che bypassi il problema alla radice. E che vale per tutti.
Ma scusa un attimo, HSA non è open e aperto a tutti? Dove lo vedi che Nvidia non ha fisicamente altro modo che crearsi la sua piccola cosina proprietaria del pazzo come ha sempre fatto dall'inizio dei tempi?

No per dire, il Gsynch? Cuda? Physx? Sono tutte tecnologie dove la decisione di reinventare la ruota o fare una cosa proprietaria scopiazzando progetti opensource (caso di Gsynch) è partita solo ed esclusivamente dalla mente di uno dei loro dirigenti.
bobafetthotmail è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 10:06   #15
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 8406
Quote:
Originariamente inviato da roccia1234 Guarda i messaggi
Quindi, o intel/amd si mettono a fare cpu che supportano nvlink, oppure nvidia progetta chip che fanno da "ponte" pciexpress <-> nvlink con il benestare dei produttori di schede madri, oppure è una cosa che verrà usata solo su qualche supercomputer e/o soluzioni ad-hoc.
Ma infatti non è chiaro come verrà implementato senza il contributo di Intel. E se riguarderà solo i supercomputer sarà x86? O sarà Tegra? E in quest'ultimo caso sarebbe valsa la pena di associarsi a HSA.

Però a me sembra la stessa strategia usata per CUDA ( ma allora c'era solo CUDA in verità ). Vogliono far leva su una specifica necessità ( il deep learning ) per entrare in un mercato sostanzialmente nuovo e mantenerne il controllo tramite lock-in.

E in effetti già oggi il mercato del deep learning fa prevalentemente uso di GPGPU tramite CUDA, quindi non devono nemmeno sforzarsi tanto per aumentare il loro share.
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 10:27   #16
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3476
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Ma infatti non è chiaro come verrà implementato senza il contributo di Intel. E se riguarderà solo i supercomputer sarà x86? O sarà Tegra? E in quest'ultimo caso sarebbe valsa la pena di associarsi a HSA.

Però a me sembra la stessa strategia usata per CUDA ( ma allora c'era solo CUDA in verità ). Vogliono far leva su una specifica necessità ( il deep learning ) per entrare in un mercato sostanzialmente nuovo e mantenerne il controllo tramite lock-in.

E in effetti già oggi il mercato del deep learning fa prevalentemente uso di GPGPU tramite CUDA, quindi non devono nemmeno sforzarsi tanto per aumentare il loro share.
Io non capisco questa cosa dell'HSA come soluzione.
Non è che far parte di un consorzio risolve automaticamente tutti i problemi.
nvidia con le sue GPU è in una posizione diversa da chi crea SoC perché non ha il controllo totale della architettura su cui deve far funzionare i suoi dispositivi. Mentre con Tegra può fare quel che vuole, con le schede destinate ai server HPC che macinano numeri a velocità non comuni, far parte o meno di un consorzio che detta regole astratte non ha alcun senso.
Serve una soluzione fisica che funzioni. E che funzioni per gli ordini di grandezza e scalabilità di un server HPC, non di un telefonino.
Se Intel non ha intenzione di usare nvlink nelle sue schede per server, significa che nvidia costrurà i super server di calcolo usando le schede di partner che lo supportano. Non so se questo è un bene o meno per Intel, perché ad nvidia basta un partner come IBM che le produca le schede e le fornisca CPU decenti (e i Power lo sono) e finché le sue GPU rimangono più efficienti delle soluzioni Intel quest'ultima potrebbe vedersi tagliata fuori da diversi progetti.
Sulle workstation è logico che serva la collaborazione dei produttori di CPU. Ma far parte del consorzio HSA cosa porta? Il PCI-Express è lento, troppo per quel che serve e quindi? Forse facendo parte di HSA magicamente abilita il controller di memoria di Intel/AMD ad accedere a maggior velocità alla memoria delle GPU?
Io non vi capisco. Quando si parla di standard et similia sembra che adottare qualcosa di solo annunciato e completamente astratto sia la soluzione finale definitiva.
Ad nvidia non interessa che siano gli altri un giorno a trovare bene o male una soluzione che funzionicchia, serve una soluzione che funzioni. Oggi. Anzi, meglio ieri. Anche Intel usa la stessa strategia. Le aziende che campano con le proprie forze e si costruiscono i propri punti di forza, lavorano così. Gli altri usano le soluzoni "open" per cose che non sono strategiche per il loro business.
Indipendentemente dal fatto che nvlink sia proprietario o meno, la questione è cosa può cambiare con la sua adozione. E' ovvio che nel mondo del calcolo eterogeneo cambia parecchio e favorisce tutte le soluzioni che permettono di bypassare la CPU. Cosa che ovviamente non fa piacere ad alcuni che se adottato produce l'apertura di una maggiore concorrenza.
Far parte di HSA o meno non cambia questa cosa.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 10:46   #17
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 8406
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Non è che far parte di un consorzio risolve automaticamente tutti i problemi.
No ma mi pare non sia obbligatorio. La tecnologia dovrebbe essere open e accessibile a tutti.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
nvidia con le sue GPU è in una posizione diversa da chi crea SoC perché non ha il controllo totale della architettura su cui deve far funzionare i suoi dispositivi.
Certamente, ma le idee alla base di nvlink sono molto simili a quelle alla base di hsa. Alla fine devi cominciare col rendere accessibile lo spazio d'indirizzamento della cpu alla gpu. L'unica cosa che manca è che nel caso hsa non si è presa in considerazione la possibilità di applicarlo alle gpu discrete e quindi non è presente un bus come nvlink.

Però questo ci riporta a quello che si chiedevano gli amici sopra. Cioè, visto che il northbridge è ormai integrato nella cpu, a cosa Nvidia attaccherà nvlink? Come fanno a sostituire pci-express con nvlink senza l'aiuto di Intel?

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Mentre con Tegra può fare quel che vuole, con le schede destinate ai server HPC che macinano numeri a velocità non comuni, far parte o meno di un consorzio che detta regole astratte non ha alcun senso.
Non direi. Il fatto che CUDA fosse closed fece perdere a Nvidia un appalato da 2 miliardi di dollari con la Cina. Quindi il far parte di un qualcosa che produce standard paga.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Serve una soluzione fisica che funzioni. E che funzioni per gli ordini di grandezza e scalabilità di un server HPC, non di un telefonino.
E non è detto che nvlink possa scalare meglio di hsa.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Se Intel non ha intenzione di usare nvlink nelle sue schede per server, significa che nvidia costrurà i super server di calcolo usando le schede di partner che lo supportano.
Se Intel non è della partita non resta che ARM, la quale fa parte proprio della fondazione HSA.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Non so se questo è un bene o meno per Intel, perché ad nvidia basta un partner come IBM che le produca le schede e le fornisca CPU decenti
IBM ha praticamente venduto tutto quello riguarda computer e cpu negli ultimi anni. Non è un partner affidabilissimo quando si tratta di creare prodotti che poi bisognerà produrre in grandi quantità e mantenere per tot anni.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma far parte del consorzio HSA cosa porta? Il PCI-Express è lento, troppo per quel che serve e quindi? Forse facendo parte di HSA magicamente abilita il controller di memoria di Intel/AMD ad accedere a maggior velocità alla memoria delle GPU?
No, ma lavorare per creare uno standard condiviso aiuta loro e tutti gli altri.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Io non vi capisco. Quando si parla di standard et similia sembra che adottare qualcosa di solo annunciato e completamente astratto sia la soluzione finale definitiva.
Veramente HSA è implementato nei SoC Kaveri e pochi giorni fa è stata finalizzata la versione 1.0.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ad nvidia non interessa che siano gli altri un giorno a trovare bene o male una soluzione che funzionicchia, serve una soluzione che funzioni.
Ma devono stare attenti, soprattutto se il loro scopo è il mercato del deep learning, visto che gpu AMD già oggi forniscono una potenza di calcolo molto maggiore in quel tipo di scenario.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Oggi. Anzi, meglio ieri. Anche Intel usa la stessa strategia. Le aziende che campano con le proprie forze e si costruiscono i propri punti di forza, lavorano così. Gli altri usano le soluzoni "open" per cose che non sono strategiche per il loro business.
Veramente Intel mi sembra stia andando nella direzione opposta, ovvero stringere accordi con altre società ( Rockchip ad esempio ) e forse forse in futuro vedremo Intel che licenzia i suoi core come fa oggi ARM.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Indipendentemente dal fatto che nvlink sia proprietario o meno, la questione è cosa può cambiare con la sua adozione. E' ovvio che nel mondo del calcolo eterogeneo cambia parecchio e favorisce tutte le soluzioni che permettono di bypassare la CPU. Cosa che ovviamente non fa piacere ad alcuni che se adottato produce l'apertura di una maggiore concorrenza.
Far parte di HSA o meno non cambia questa cosa.
Ma non è detto che i clienti saranno felici di adottare l'ennesima tecnologia che poi li legherà mani e piedi a Nvidia per gli anni a venire.
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 11:24   #18
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3476
Capiamoci e non parliamo di cose astratte.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
No ma mi pare non sia obbligatorio. La tecnologia dovrebbe essere open e accessibile a tutti.
In quale mondo? Dove le aziende sono create per fare soldi a me non sembra funzioni così.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Certamente, ma le idee alla base di nvlink sono molto simili a quelle alla base di hsa. Alla fine devi cominciare col rendere accessibile lo spazio d'indirizzamento della cpu alla gpu. L'unica cosa che manca è che nel caso hsa non si è presa in considerazione la possibilità di applicarlo alle gpu discrete e quindi non è presente un bus come nvlink.
Simile a HSA? Ma cosa è HSA?
Forse sei un po' cpnfuso tra quale sia il problema e la soluzione: il problema è condividere le risorse tra un entità interna alla CPU e una esterna. E' un problema che esiste da sempre, da quando ci sono i coprocessori.
La soluzione non è la parola "HSA". E' una soluzione fisica che sia studiata e create.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Però questo ci riporta a quello che si chiedevano gli amici sopra. Cioè, visto che il northbridge è ormai integrato nella cpu, a cosa Nvidia attaccherà nvlink? Come fanno a sostituire pci-express con nvlink senza l'aiuto di Intel?
Con o senza la magica parola HSA, il problema c'è e rimane. Senza la collaborazione con Intel nvlink non funzionerà.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Non direi. Il fatto che CUDA fosse closed fece perdere a Nvidia un appalato da 2 miliardi di dollari con la Cina. Quindi il far parte di un qualcosa che produce standard paga.
Visione veramente miope della questione: quanto avrebbe perso nvidia se avesse fatto in modo che la sua tecnologia fosse disponibile a tutti?


Quote:
Originariamente inviato da pabloski Guarda i messaggi
E non è detto che nvlink possa scalare meglio di hsa.
Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Se Intel non è della partita non resta che ARM, la quale fa parte proprio della fondazione HSA.
ARM non c'entra per ora dato che i server HPC non sono costruiti con quella architettura, ma sono o Intel o Power.
Quote:
Originariamente inviato da pabloski Guarda i messaggi
IBM ha praticamente venduto tutto quello riguarda computer e cpu negli ultimi anni. Non è un partner affidabilissimo quando si tratta di creare prodotti che poi bisognerà produrre in grandi quantità e mantenere per tot anni.
Affidabilità? Che stai dicendo. Quello che conta è avere le soluzoni funzionanti. Infatti IBM e nvidia hanno vinto l'appalto fiunanziato dalla DARPA per la costruzione del prossimo server per la corsa verso l'exascale.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
No, ma lavorare per creare uno standard condiviso aiuta loro e tutti gli altri.
Gli altri che importanza hanno per una azienda che deve fare soldi?

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Veramente HSA è implementato nei SoC Kaveri e pochi giorni fa è stata finalizzata la versione 1.0.
Credo che tu non abbia capito cosa sia HSA.
E stai ancora una volta parlando di SoC.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Ma devono stare attenti, soprattutto se il loro scopo è il mercato del deep learning, visto che gpu AMD già oggi forniscono una potenza di calcolo molto maggiore in quel tipo di scenario.
Quindi ti contraddici. Se deve stare attenta alla concorrenza, fornirle un assist con una soluzione open non è il massimo della furbizia, no?

Quote:
Originariamente inviato da pabloski Guarda i messaggi
Veramente Intel mi sembra stia andando nella direzione opposta, ovvero stringere accordi con altre società ( Rockchip ad esempio ) e forse forse in futuro vedremo Intel che licenzia i suoi core come fa oggi ARM.
???
Intel in direzione opposta a cosa? A crearsi i propri standard e tecnologie da vendere? Solo perché non riesce a fare un SoC che costi come la concorrenza?


Quote:
Originariamente inviato da pabloski Guarda i messaggi
Ma non è detto che i clienti saranno felici di adottare l'ennesima tecnologia che poi li legherà mani e piedi a Nvidia per gli anni a venire.
Ai clienti interessa che la cosa funzioni. Sopratutto quando non c'è alternativa. Inutile campare soluzioni probabili, future, forse, magari quando ce n'è una che funziona ed ha il pieno supporto di chi l'ha prodotta.

Ultima modifica di CrapaDiLegno : 18-03-2015 alle 11:51.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 11:39   #19
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 8406
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
In quale mondo? Dove le aziende sono create per fare soldi a me non sembra funzioni così.
Quindi l'opensource non dovrebbe funzionare. Evidentemente quelle aziende hanno capito che è meglio collaborare, anche per far soldi.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Simile a HSA? Ma cosa è HSA?
parti da qui http://developer.amd.com/resources/h...hitecture-hsa/

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Forse sei un po' cpnfuso tra quale sia il problema e la soluzione: il problema è condividere le risorse tra un entità interna alla CPU e una esterna.
veramente è così ovunque, a partire dal vecchio e caro i/o



Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
La soluzione non è la parola "HSA". E' una soluzione fisica che sia studiata e create.
sbagli, dato che l'acronimo HSA dice proprio questo

HSA è un termine ombrello sotto il quale vengono prodotte varie tecnologie per rendere possibile il computing eterogeneo, il quale necessita gioco-forza di un metodo per condividere lo spazio indirizzamento ( senza diventa inutile parlare di computing eterogeneo )

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Con o senza la magica parola HSA, il problema c'è e rimane. Senza la collaborazione con Intel nvlink non funzionerà.
onestamente non ti seguo

stai forse dicendo che HSA è solo una parola? dunque non hai letto nulla riguardo quello che AMD ha fatto relativamente al lato software e hardware

le apu kaveri sono HSA, quindi non stiamo parlando di chiacchiere ma di ferro

l'unica cosa su cui hai ragione è che AMD non ha ancora considerato il problema relativo alle gpu discrete, ed è qui che Nvidia poteva arrivare e dare il suo contributo, creando uno standard seguito da tutti invece di optare per l'ennesima soluzione proprietaria e chiusa

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Visione veramente miope della questione: quanto avrebbe perso nvidia se avesse fatto in modo che la sua tecnologia fosse disponibile a tutti?
e chi può dirlo, magari c'avrebbe pure guadagnato di più

ripeto...l'opensource ci dice che collaborare si può e che la collaborazione può produrre anche guadagni, quindi perchè dai per scontato che collaborare = perdere soldi?

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto.
ma come non esiste? e kaveri cos'è?

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
ARM non c'entra per ora dato che i server HPC non sono costruiti con quella architettura, ma sono o Intel o Power.
diciamo pure Intel, visto che i power si contano come le mosche bianche

e non dimentichiamoci di xeon phi, ragion per cui imho Nvidia farebbe meglio a collaborare piuttosto che rinchiudersi nella sua torre d'avorio

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Affidabilità? Che stai dicendo. Quello che conta è avere le soluzoni funzionanti.
funzionanti, affidabili, supportate...hai dimenticato perchè Apple passò a x86?

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Infatti IBM e nvidia hanno vinto l'appalto fiunanziato dalla DARPA per la costruzione del prossimo server per la corsa verso l'exascale.
ma IBM lavora sempre così, ovvero su un singolo pezzo, poi però non è mai in grado di metter su un business stabile e duraturo

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Gli altri che importanza hanno per una azienda che deve fare soldi?
hanno importanza per i clienti i quali vogliono poter passare da un fornitore all'altro se e quando se ne presenterà la necessità

se io investo miliardi nel software hpc non voglio restare legato alle sorti di Nvidia fino alla fine dei tempi

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Credo che tu non abbia capito cosa sia HSA.
detto da uno che ritiene HSA vaporware

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Quindi ti contraddici. Se deve stare attenta alla concorrenza, fornirle un assist con una soluzione open non è il massimo della furbizia, no?
ancora sul mondo opensource, visto che è l'esempio lampante che si può fornire "l'assist" e trarne vantaggio


Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Intel in direzione opposta a cosa? A crearsi i propri standard e tecnologie da vendere? Solo perché non riesce a fare un SoC che costi come la concorrenza?
No, semplicemente Intel sta capendo che certi clienti vogliono poter costruire SoC su misura, prendendo singoli pezzi invece di comprare qualcosa di monolitico.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ai clienti interessa che la cosa funzioni. Sopratutto quando non c'è alternativa.
Ah ecco...finchè non c'è alternativa. Ma contare sull'incapacità perenne dei concorrenti è stupido.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Inutile campare soluzioni probabili, future, forse, magari quando ce n'è una che funziona ed ha il pieno supporto di chi l'ha prodotta.
Ma guarda che HSA esiste ed è già qui. Piuttosto Nvlink è da venire, se e solo se Intel vorrà essere della partita. Come fai a dire che HSA è vaporware mentre la soluzione Nvidia è un dato di fatto? A me sembra esattamente il contrario.
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 18-03-2015, 12:13   #20
bobafetthotmail
Senior Member
 
L'Avatar di bobafetthotmail
 
Iscritto dal: Jun 2014
Messaggi: 3948
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
In quale mondo? Dove le aziende sono create per fare soldi a me non sembra funzioni così.
Opensource non significa aggratis. Per esempio Red Hat è una grossa compagnia che si serve di e crea solo software opensource.
Per un produttore di hardware avere driver opensource permette di scaricare su terzi molte più cose. Ad esempio AMD ha cessato da un pezzo agni supporto ufficiale delle GPU relativamente vecchie su Linux, perchè il driver opensource sviluppato solo in parte da loro è uguale o migliore per quelle schede.
Quote:
E' una soluzione fisica che sia studiata e create.
HSA è reale eh? http://www.hsafoundation.com/standards/

Quote:
Visione veramente miope della questione: quanto avrebbe perso nvidia se avesse fatto in modo che la sua tecnologia fosse disponibile a tutti?
Loro vendono hardware no? Se fanno le schede più potenti non perdono niente. Se non fanno le schede più potenti forse qualcosa lo perdono.

Quote:
Ancora: HSA non esiste! Non è una soluzoine. Non funziona. Non scala. E' solo un insieme di regole base ed astratte per rendere il SW compatibile con una architettura che non sia solo CPU centrica. Fine. Non ha alcun senso quello che hai detto.
Il punto è che non abbiamo alcun modo di sapere a che stato di vaporware sia nvlink, mentre per HSA abbiamo gli standard pronti all'implementazione appena qualcuno si degna di farlo.

Quote:
Infatti IBM e nvidia hanno vinto l'appalto fiunanziato dalla DARPA per la costruzione del prossimo server per la corsa verso l'exascale.
Sicuro della DARPA? L'unica cosa che sapevo era che stanno costruendo dei supercomputer per il DoE http://www.extremetech.com/computing...rs-for-the-doe
e che saranno pronti per una data di un futuro imprecisato.
bobafetthotmail è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


AMD Ryzen Threadripper 9000 e Radeon AI Pro R9700, per le workstation AI AMD Ryzen Threadripper 9000 e Radeon AI Pro R970...
Nuova Ford Capri elettrica, la super prova: in viaggio, in città e in autostrada Nuova Ford Capri elettrica, la super prova: in v...
HUAWEI MatePad Pro (2025): display anti-riflesso e Wi-Fi 7 per il tablet 'Pro' perfetto HUAWEI MatePad Pro (2025): display anti-riflesso...
Astro A50 Gen 5 dopo 6 mesi: sono davvero le migliori? Si poteva fare di più Astro A50 Gen 5 dopo 6 mesi: sono davvero le mig...
AMD Advancing AI 2025: le nuove GPU per l'intelligenza artificiale AMD Advancing AI 2025: le nuove GPU per l'intell...
Bungie blocca tutto: Marathon rimandato ...
AMD e Microsoft, squadra che vince non s...
Kaspersky lancia eSIM Store: 2000 pacche...
Questo nuovo monitor OLED può cam...
ESA: il prototipo del razzo spaziale riu...
Addio ai primi appuntamenti imbarazzanti...
Honda ha realizzato un test con un proto...
La Cina è un po' più vicin...
SpaceX si prepara per una nuova missione...
Polestar omaggia l'Italia alla nuova edi...
Svolta nelle ricerche su Firefox: potete...
OLED di nuova generazione: LG mette sul ...
Firefly diventa tascabile: l'AI generati...
Intel, tagli fino al 20% del personale n...
HP Workforce Experience Platform arriva ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 01:47.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www2v
1