Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

FUJIFILM X-T30 III, la nuova mirrorless compatta
FUJIFILM X-T30 III, la nuova mirrorless compatta
FUJIFILM X-T30 III è la nuvoa fotocamera mirrorless pensata per chi si avvicina alla fotografia e ricerca una soluzione leggera e compatta, da avere sempre a disposizione ma che non porti a rinunce quanto a controllo dell'immagine.
Oracle AI World 2025: l'IA cambia tutto, a partire dai dati
Oracle AI World 2025: l'IA cambia tutto, a partire dai dati
Da Las Vegas, la visione di Larry Ellison e la concretezza di Clay Magouyrk definiscono la nuova traiettoria di Oracle: portare l’intelligenza artificiale ai dati, non i dati all’intelligenza, costruendo un’infrastruttura cloud e applicativa in cui gli agenti IA diventano parte integrante dei processi aziendali, fino al cuore delle imprese europee
Micron e millisecondi: la piattaforma ServiceNow guida l'infrastruttura IT di Aston Martin F1
Micron e millisecondi: la piattaforma ServiceNow guida l'infrastruttura IT di Aston Martin F1
Dalla precisione estrema dei componenti alla gestione digitale dei processi: come la piattaforma ServiceNow consente ad Aston Martin Aramco Formula One Team di ottimizzare risorse IT e flussi operativi in un ambiente dove ogni millesimo di secondo conta
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 04-03-2017, 21:56   #441
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da sgrinfia Guarda i messaggi
Né mettesse in palio una di BMW, .........AMD
Le BMW montano chip Intel: bella pubblicità si farebbe.
Quote:
Originariamente inviato da rug22 Guarda i messaggi
Ma ti rendi conto che la base statistica su cui ti basi è ridicola?Cioè, ma voi avete mai overclockato un minimo?

Dire le performance in overclock con cpu appena uscite...boh, o sono tutti tecnologi avanzati o sono tutti troppo precipitosi.
Guarda che Piedone NON è assolutamente un fanboy Intel. Hai completamente sbagliato persona
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 21:59   #442
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Secondo me ha risposto a quello che B&C aveva scritto poco prima: "Is it better? "

Perché per il resto gli sfottò che s'è beccato B&C per questa sparata sono una valanga. Ne riporto alcuni, per le precisazioni / osservazioni, e alcuni giusto per farsi 4 risate:

"No. It's called 'margin of error'.

within the margin of error, means absolutely nothing. Not sure how you linked it to Neural Net.

I don't see any improvement on consecutive runs - the results are between 1630 and 1638. I did 10 iteratons

sure, but then you can't you use it to prove or disprove the effect of "AI" branch predictor

Nice way to skew a graph showing 0.2% increases as they were 20% ones

Is this an nvidia graph?

No no no, it increases infinitely. Given a few years, it will find the end of Pi.

speeds up the more it works ��

reviews are however all over the spectrum atm, seems Ryzen needs to mature with bios, drivers etc..

these aren't scaled properly, making the amd graph look like it jumps a lot. I mean, it's a small thing, but worth noting

graphworks tm"


Direi che sia abbastanza.

Come già riportato da altri (vedi sopra), siamo sullo 0,2% di scarto.

Sì, ma adesso calati anche nella realtà e rifletti su alcune cose. Quanto costa una rete neurale? Quanti input può "memorizzare"? Quanto silicio ha impiegato AMD per realizzare questa sua rete (che, slide alla mano, è presente in ogni core)?

Questa era soltanto la premessa, perché adesso passiamo alla parte più divertente.

Mettiamo che il processore sia sotto carico, che l'IPC sia 1 e che il clock del processore sia di 3,5Ghz: vuol dire che ogni core macina ben 3,5 miliardi di istruzioni al secondo. Mettiamo che lo fai girare per 2 minuti, e il gioco è fatto: 420 miliardi di istruzioni eseguite. Ovviamente non si tratta di istruzioni tutte diverse, ma comunque quelle eseguite sono in un quantitativo tale da non potere stare sicuramente nella cache L2 del core (per il momento e per semplicità mi sto limitando a considerare un solo core). Forse la L3 sarebbe in grado di contenere tutto il codice "hot" (quello eseguito a runtime), ma sfortunatamente deve anche pensare ai dati, e dunque farà trashing di istruzioni.

E veniamo alle conclusioni: pensi che una rete del genere sia in grado di farsi carico di "tenere a mente" i pattern d'uso delle istruzioni e le azioni eseguite, tanto da poter influenzare le esecuzioni successive? Dove la memorizza tutta questa montagna di informazioni? Le cache L2 e L3 sono fra gli elementi più grandi del core, e la parte più consistente riguarda le informazioni vere e proprie.

Se dovessimo dar retta alle sparate di B&C, Zen dovrebbe contenere un blocco di silicio gigantesco solo per questa rete. Una padellona, che farebbe impallidire, per dimensioni, anche il layer HBM2 che verrà integrato nelle future GPU.

Ma non mi pare di aver visto nulla del genere.

Dunque l'unica altra ipotesi, sicuramente più realistica, è che AMD sia riuscita a integrare dei qbit dove impacchettare questa montagna di informazioni, tralaltramente immediatamente consultabili alla bisogna (tanto sono qbit). E i qbit lavorano dentro un chip a temperate prossime ai 370°K, cosa questa, ancor più realistica.

O, più semplicemente, chi ha realizzato quel test non ha la minima cognizione di come funzioni un processore e le misure/numeri in gioco, non è nemmeno stato in grado di leggere e comprendere la slide di AMD sull'argomento, e sia partito per la tangente svolazzando alacremente sulle dolci ali delle reti neurali...
Da cui la valanga di meritatissimi sfottò.

P.S. Sia chiaro che NON ce l'ho con te.
La scala sulla CPU intel è anche più stretta eppure su INTEL non c'è variazione significativa. Su AMD la scala è più ampia e guarda caso è crescente con le iterazioni.
Forse non hai presente come funzionano le reti neurali, ma ogni neurone richiede un paio di parametri, quindi la quantità di dati non è stratosferica e una decina di neuroni e qualche layer è più che sufficiente per fare qualcosa di significativo... Non so quanti neuroni artificiali ci sono, ma probabilmente pochi, per fare meno calcoli possibili... Quindi non ci vuole poi tanto silicio... Se si usa poi i fixed point per l'aritmetica, ci vuole poco...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 22:01   #443
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Parliamo di numeri: quanto occupa l'area della rete neurale? Quanti transistor approssimativamente possono essere impiegati? Quanti pattern riesce a memorizzare? Qual è la latenza delle risposte?

I numeri di possibili scenari, come quelli testati, te li ho già forniti.

La teoria lascia il tempo che trova...

P.S. Ovviamente ho presente come funzionino le reti neurali, sebbene non ne abbia mai sviluppata una.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 22:27   #444
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Non sò quanta colpa, percentualmente parlando, possa esser attribuita alla scarsa ottimizzazione del sistema operativo nei confronti di Ryzen.
Credo ci possa esser qualcosa relegata alla non perfetta gestione dell'HyperThreading (o Multithreading) e più in generale del risparmio energetico di tutti i cores, e che ciò possa incidere al massimo tra il 10% ed il 15% non permettendo comunque a questa CPU di oltrepassare le prestazioni in games dei quad core Intel I7 7700 di settima generazione nel breve periodo (al massimo pareggiare i conti in qualche gioco nella migliore delle ipotesi).
Il motivo è sempre lo stesso ovvero la poca scalabilità degli attuali motori grafici utilizzati in campo videoludico con processori aventi più di 4 cores.
Se gli attuali motori grafici avessero già quest'oggi sfruttato meglio gli esacores e gli octacores, anche senza ottimizzazione del sistema operativo avremmo avuto nel corso di questa presentazione dei Ryzen prestazioni al top in ambito gaming per la nuovissima piattaforma AMD così come per gli octacores della controparte Intel.
La cosa positiva dell'introduzione dei Ryzen è che grazie ad AMD ed ai prezzi concorrenziali dei suoi nuovi processori inizieranno ad aumentare il numero delle piattaforme octacores nei sistemi di gioco e questo porterà prima del previsto i programmatori a rendere più scalabili le prestazioni in multicores dei loro motori grafici a vantaggio anche di coloro che usano piattaforme basate su CPU Intel I7 69x0 ed anche delle serie ancor più vecchie 59x0-49x0-39x0.


Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Concordo al 100%, anche se prima di affossare ryzen in game bisognerebbe capire la storia dei th salterini e delle ottimizzazione che ms rilascerà su win 10 (e tengo a rammentare che microsoft ha garantito il solo supporto per ryzen con l'ultimo os e non con i precedenti, incluso il diffusissimo seven).
Credo che tra massimo 2 settimane ci ritroveremo ryzen a livello quasi di 6900 in game ed in ottica futura anche prossima non rappresenterebbe una scelta sbagliata (sempre che con il pc si faccia anche altro).
In ogni caso solo per il gaming spinto credo convenga aspettare circa un mese se si volesse acquistare un i7 (gli i5 sono indietro alle proposte amd) sperando in un probabile ribasso del listino intel.
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 23:04   #445
maxsin72
Senior Member
 
Iscritto dal: Apr 2004
Messaggi: 2853
Ryzen è un'architettura completamente nuova che parte già fortissimo al debutto. Tra ottimizzazioni del software, dei bios e in generale della piattaforma, del processo produttivo e future revision che sicuramente ci saranno mi aspetto notevoli miglioramenti nei prossimi mesi
__________________
AMD 9800X3D -MSI B650 EDGE - MSI 4090 GAMING X - 2X16GB GSKILL 6000MHZ CAS 30- SAMSUNG 980 PRO 2TB
maxsin72 è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 23:06   #446
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6169
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Parliamo di numeri: quanto occupa l'area della rete neurale? Quanti transistor approssimativamente possono essere impiegati? Quanti pattern riesce a memorizzare? Qual è la latenza delle risposte?
Non danno molti dettagli a riguardo ma è evidente che sono per forza molto semplici, probabilmente hanno una componente hardwired ed una "memoria a breve termine" con un fading progressivo degli eventi passati.
In soldoni è probabile che siano più simili a dei branch/prefetch predictor con una componente di apprendimento automatico più sofisticata rispetto ad un "conteggio" degli esiti precedenti.
Non mi stupirei se parlassero di reti neurali anche per difendersi dai patent troll (difficile battere le reti neurali come prior art).
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 23:15   #447
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
La penso come te, infatti, a parte sul nome che penso sia una questione di marketing.

Ed è proprio il marketing di AMD che a mio avviso ha tratto in inganno il redattore di Bits and Chips, che ha preso per oro colato questo materiale puramente divulgativo:

"Neural Net Prediction – an artificial intelligence neural network that learns to predict what future pathway an application will take based on past runs;"


In realtà il modello è molto più semplice, e non ha nulla a che vedere con la memorizzazione di successive esecuzioni dell'applicazione, come si può facilmente intuire dalla slide tecnica di AMD:



Soltanto una persona che non ha cognizione di come funzioni un moderno microprocessore poteva abboccare a uno slogan pubblicitario, e pensare che fosse stata infilata una rete neurale, pur semplificata, nel core.

Tanto che ha voluto verificare al reset cosa succedesse.

A dimostrazione di come internet sia piena di gente che si spaccia come esperta in materia, ma che la "cultura", invece, se la sia fatta a colpi di ricerche, prendendo pezzi di qua e di là...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 23:22   #448
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Quote:
Originariamente inviato da Nurgiachi Guarda i messaggi
Ryzen in gioco? Visto che qui un R5 1400X 3.5Ghz turbo 3.9Ghz quad-core 8 thread non lo ha nessuno ragioniamo a spanne:

Cinebench R15 single threaded
r7 1800x 3,6Ghz XFR 4.1Ghz = 158 punti
i7 7700 3,6Ghz TB 4.2Ghz = 186 punti

Con numeri che possono essere approssimativi quanto vogliamo e le frequenze non identiche la differenza di prestazioni i singoli core di queste architetture potrebbe essere questa.

Da non fan di AMD voglio buttarla lì, in game anche se ci fosse una differenza (a parità di clock che non ho calcolato) tra il 10 ed il 15% tra un i7 7700 da 330€ ed un R5 1400X che dovrebbe costare intorno ad i 200$.. ma io troppi dubbi non me li farei a questo giro.
Stai confrontando la frequenza XFR di Ryzen con la frequenza base del 7700K, il 7700K in single thread va in turbo a 4,5 GHz.
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
Old 04-03-2017, 23:33   #449
rug22
Senior Member
 
L'Avatar di rug22
 
Iscritto dal: Jun 2004
Messaggi: 5621
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Guarda che Piedone NON è assolutamente un fanboy Intel. Hai completamente sbagliato persona
Mai detto,mai pensato.

Fare previsioni in overclock al momento è affrettato,sia nel bene che nel male...si possono pure fare,ma hanno poco fondamento.
__________________
I love old school pentium mmx 166@420 153% celeron 300@733 145% celeron 400@846 111%
celeron 1300@2471 mhz a-data 3200 bh-5@330 mhz cas 2 2 2 5 abit nf7-s fsb@274,1 mhz
I love homemade Tolotto per ram homemade Vaso dewar homemade Freezer cooling homemade -210,3° on LN2
rug22 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 00:05   #450
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Parliamo di numeri: quanto occupa l'area della rete neurale? Quanti transistor approssimativamente possono essere impiegati? Quanti pattern riesce a memorizzare? Qual è la latenza delle risposte?

I numeri di possibili scenari, come quelli testati, te li ho già forniti.

La teoria lascia il tempo che trova...

P.S. Ovviamente ho presente come funzionino le reti neurali, sebbene non ne abbia mai sviluppata una.
Ti ho detto che bastano pochi neuroni. Per l'esame che feci dovevo dimensionare una rete neurale per classificare cluster di calcificazioni. Se hai n parametri, non puoi mettere troppi neuroni, perchè non servono a nulla e ogni neurone si specializza per un caso e non va bene, perchè si deve generalizzare. Viceversa se ne metti troppo pochi non serve a nulla comunque. Non è questione di pattern da memorizzare... Non so quanto occupa ma ti ho detto che sono pochi parametri per ogni neurone...
Sempre che non usino la regressione logistica che è come fosse un solo neurone e per risposte binarie tipo salto/non salto, non devi neanche implementare la funzione logit, ma semplicemente mettere una soglia sulla combinazione lineare dei parametri...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 00:08   #451
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
La penso come te, infatti, a parte sul nome che penso sia una questione di marketing.

Ed è proprio il marketing di AMD che a mio avviso ha tratto in inganno il redattore di Bits and Chips, che ha preso per oro colato questo materiale puramente divulgativo:

"Neural Net Prediction – an artificial intelligence neural network that learns to predict what future pathway an application will take based on past runs;"


In realtà il modello è molto più semplice, e non ha nulla a che vedere con la memorizzazione di successive esecuzioni dell'applicazione, come si può facilmente intuire dalla slide tecnica di AMD:



Soltanto una persona che non ha cognizione di come funzioni un moderno microprocessore poteva abboccare a uno slogan pubblicitario, e pensare che fosse stata infilata una rete neurale, pur semplificata, nel core.

Tanto che ha voluto verificare al reset cosa succedesse.

A dimostrazione di come internet sia piena di gente che si spaccia come esperta in materia, ma che la "cultura", invece, se la sia fatta a colpi di ricerche, prendendo pezzi di qua e di là...
La verifica al reset l'ho suggerita io, semplicemente per verificare se i parametri fossero memorizzati da qualche parte o al reset venisse buttato nel gabinetto tutto il lavoro fatto... Era più una speranza, diciamo... Se la velocità di adattamento a un nuovo software è alta, memorizzare i valori serve a poco...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 00:18   #452
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
la "rete neurale" di cui si parla non c'entra con l'autoapprendimento reiterato.
è una delle parti del blocco decoder di Intel (un gran bel blocco).
questa componente cerca semplicemente di ricostruire macro-ops SMT su codice vario, su thread appartenenti a diversi programmi.
la predizione è nel metterli nella stessa risorsa, nello stesso core (perche' se mandi un thread a milano ed uno a napoli difficile poi che riesci a gestirli come unica entità ).

Intel ha creato le sue istruzioni HT, AMD le ha copiate, ma la vera "battaglia" stà nello sfruttarle non da codice precompilato, ma da codice vario.
Alpha insegna, ma erano anche monocore.

e per inciso è (anche) per questo che ha uno scaling threading molto piu' alto degli intel: riesce a ricomporre qualche Macro-op SMT in piu' rispetto ad Intel.

Ultima modifica di lucusta : 05-03-2017 alle 09:05.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 09:23   #453
casbal198165
Junior Member
 
Iscritto dal: Dec 2013
Messaggi: 16
la grafica?

per me che uso photoshop e dei giochi non m'interessa nulla si intuisce già se ryzen sia al livello di intel ?(io parlo del più caro)contro ovviamente il più caro di intel...
casbal198165 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 09:50   #454
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da lucusta Guarda i messaggi
la "rete neurale" di cui si parla non c'entra con l'autoapprendimento reiterato.
è una delle parti del blocco decoder di Intel (un gran bel blocco).
questa componente cerca semplicemente di ricostruire macro-ops SMT su codice vario, su thread appartenenti a diversi programmi.
la predizione è nel metterli nella stessa risorsa, nello stesso core (perche' se mandi un thread a milano ed uno a napoli difficile poi che riesci a gestirli come unica entità ).

Intel ha creato le sue istruzioni HT, AMD le ha copiate, ma la vera "battaglia" stà nello sfruttarle non da codice precompilato, ma da codice vario.
Alpha insegna, ma erano anche monocore.

e per inciso è (anche) per questo che ha uno scaling threading molto piu' alto degli intel: riesce a ricomporre qualche Macro-op SMT in piu' rispetto ad Intel.
Non credo che le cpu intel facciano questo a basso livello. Ogni cpu conosce solo i threads (1 o 2) che gli sono assegnati.
La chiamano rete neurale, ma non pensate che sia qualcosa di complicato. La cosa innovativa che fecero ai tempi è studiarne le proprietà e codificarne gli algoritmi di apprendimento, cercando quello ottimale. Non è niente di magico: una rete combinatoria con un po' di memoria... Quello che c'è dietro è lo studio delle proprietà e degli algoritmi di apprendimento...

E' come guardare quel sito che raccoglie javascript di massimo 140 caratteri che fanno delle cose grafiche di una bellezza assurda, ma in 140 caratteri, e meravigliarsi... Con poco si può fare molto... P.S.: https://www.dwitter.net/top
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 09:57   #455
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5556
@cdmauro
Sul 2600 ( Sandy bridge) con disse stock avevo notato che con cinebench multi:
1 run x
2 run x+ 7/8%
3 run ×+ 2
4 run x - 2%

Per poi ripartire dal run 2

Avevo concluso che:
Nel run 1 i dati non erano tutti disponibili in l3
Nel 2 i dati erano tutti in l3 e max turbo
Nel 3 il clock si abbassata al valore di targa senza turbo
Nel 4 addirittura la frequenza oscilla tra la nominale e - 100mhz

Su dual x5690 a liquido invece il primo run era basso mentre tutti gli altri in turbo max.
In ryzen invece vedo una progressione crescente che ancora non riesco a giustificare ( e per vedere se sia rete neurale bisognerebbe eseguire test che non siano influenzati dalla l3).
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 10:53   #456
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Infatti è plausibile che sia proprio ciò che è avvenuto con quei test.
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Ti ho detto che bastano pochi neuroni. Per l'esame che feci dovevo dimensionare una rete neurale per classificare cluster di calcificazioni. Se hai n parametri, non puoi mettere troppi neuroni, perchè non servono a nulla e ogni neurone si specializza per un caso e non va bene, perchè si deve generalizzare. Viceversa se ne metti troppo pochi non serve a nulla comunque. Non è questione di pattern da memorizzare... Non so quanto occupa ma ti ho detto che sono pochi parametri per ogni neurone...
Sempre che non usino la regressione logistica che è come fosse un solo neurone e per risposte binarie tipo salto/non salto, non devi neanche implementare la funzione logit, ma semplicemente mettere una soglia sulla combinazione lineare dei parametri...
Visto che coi numeri non ne usciamo, passiamo alla parte implementativa.

Hai esperienza con le reti neurali, e quindi sai già quanto sia complesso implementare anche un solo neurone con un certo numero di input, e che fornisca un risultato. Infatti prima, e non a caso, parlavi di utilizzare matematica a precisione fissa, per ridurre i costi, ma anche questo ha un costo non indifferente quando devi pensare di implementare tutto in hardware. Infatti ti servono dei moltiplicatori, e più precisamente te ne serve uno per pesare ogni input.

I moltiplicatori, come sai, sono abbastanza costosi in termini di transistor utilizzati, sono aree del chip molto attive e quindi consumano corrente e dissipano calore, e inoltre soffrono di una certa latenza. Ci sono diverse implementazioni in hardware, che sono dei compromessi a seconda di quello che ti serve: se vuoi velocità (bassissima latenza) devi mettere sul piatto un bel po' di energivori transistor; viceversa, se vuoi risparmiare transistor (e consumi) avrai latenze più elevate. Non si scappa.

Poi devi mettere assieme il tutto, e ti servono n-1 sommatori. Anche questi costano, anche se molto meno rispetto ai moltiplicatori, ma si portano dietro alcuni problemi (il riporto).

E fin qui siamo alla mera computazione dei calcoli per l'azione. Se vuoi dare la possibilità alla rete di correggersi nel tempo, in base agli input, devi necessariamente passare da una delle possibili funzioni d'attivazione, e qui le cose si fanno MOLTO, MOLTO DIFFICILI, visto che si utilizzano funzioni trascendentali condite da divisioni. Implementarle in hardware? Certo, tutto è possibile, ma a costi elevatissimi (se vogliamo ottenere i risultati senza addormentarci nell'attesa che vengano elaborati), e comunque anche nella migliore delle ipotesi la latenza sarebbe elevata.

Infine c'è da scegliere una funzione di threshold, da applicare al risultato precedente, per stabilire l'output del neurone. E' l'unica parte che sarebbe semplice da implementare, perché potrebbe anche bastare un comparatore.

Tutto questo, come già detto, per implementare UN solo neurone, e parliamo di vagonate di transistor da utilizzare allo scopo, che IMO competono tranquillamente con quelli impiegati in un'ALU di un'unità SIMD.

Fin qui mi sono limitato all'implementazione di un generico neurone. Adesso passiamo al nostro caso più concreto: un core che ha a che fare con delle istruzioni da eseguire, registri da usare, operazioni da/verso la memoria, risorse (porte) da utilizzare.

La slide di AMD lascia già intendere che questa rete agisca a livello di micro-op, e dunque avrà a che fare con questa tipologia di dato, ma in base alla descrizione dovrà tenere conto anche delle risorse che ho elencato prima. Dunque IMO almeno le micro-op e le porte utilizzate (perché servono per costruire la "storia" su cui dovrà lavorare) dovrebbero rappresentare gli input del neurone. Come output penso sia sufficiente, per semplicità, considerare a quale porta smistare la micro-op.

Le porte sono soltanto 10, e dunque parliamo di una piccola informazione. Ma le macro-op, come sai, occupano parecchio spazio perché sono dense, dovendo codificare al loro interno un bel po' di informazioni. Dunque dimensionare le risorse per manipolare questo tipo di input richiede un bel po' di spazio, che influisce su tutto il discorso di cui sopra.

Puoi semplificare il tutto se cataloghi le macro-op per "tipologia", magari aggiungendo un apposito campo al loro interno, ma non so quante tipologie di macro-op siano necessarie. Le istruzioni x86 sono centinaia e centinaia (parecchie migliaia se teniamo conto anche delle combinazioni dovute ad esempio all'uso di flag, delle diverse modalità d'indirizzamento verso la memoria, dell'uso o meno di costanti, di lock, prefissi che cambiano il segmento attualmente usato, ecc. ecc.. E queste sono tutte informazioni di cui si DEVE tenere conto in questo contesto, perché possono influenzare l'uso di alcune risorse all'interno del core), dunque servirebbero in ogni caso un po' di bit.

In realtà la questione è ancora più complicata se teniamo conto che le micro-op si possono successivamente dividere in uop, e che queste ultime possono poi provenire dalla uop-ROM.

Mi fermo qui, ma direi che ce n'è abbastanza per capire la portata dell'introduzione di una rete neurale all'interno del core di un processore.

Per cui sono più che convinto che la soluzione implementata sia quella che ha precedentemente descritto LMCH.
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
La verifica al reset l'ho suggerita io, semplicemente per verificare se i parametri fossero memorizzati da qualche parte o al reset venisse buttato nel gabinetto tutto il lavoro fatto... Era più una speranza, diciamo... Se la velocità di adattamento a un nuovo software è alta, memorizzare i valori serve a poco...
E la velocità è una cosa che non puoi avere con una rete neurale, che ha i suoi tempi non soltanto per l'apprendimento, ma anche a regime per fornire un risultato.

Ricorda che parliamo di un processore che opera intorno ai 3,5Ghz, che per ciclo di clock può eseguire il dispatch di fino a 6 micro-op e ritirare 8 uop.

Immagina una rete neurale che, per ogni ciclo di clock, debba gestire tutto ciò (perché è di questo che si parla, se rifletti attentamente sul diagramma presente nella slide, e sulla descrizione delle operazioni), e penso che le conclusioni le potrai trarre tu stesso.

Ciò che voglio dire, e che comunque anche in altre occasioni è capitato di discutere, è che non si può pensare a delle cose astrattamente solo perché "si può fare", ma è strettamente necessario calarle nelle preciso contesto di cui si parla. Capire, insomma, se un'idea possa o meno essere compatibile con la realtà delle cose.

Nello specifico, se conosci come funzionano le reti neurali, di come lavorano, di come si potrebbero implementare in hardware, e infine di come funziona a runtime il core di un processore, l'ultima cosa che uno potrebbe pensare è di vederne implementata una al suo interno.

Per realizzare certe operazioni, come quelle discusse nella slide, ci sono ben altre soluzioni, molto più economiche e veloci, ma che hanno ben poco a che spartire con le reti neurali. Soprattutto, sono soluzioni che funzionano nel contesto locale, cioè analizzando l'attuale contesto elaborativo, perché è impensabile che un core si possa trascinare dire una sorta di "memoria storica" delle centinaia di miliardi di istruzioni eseguite.

Spero di essere stato chiaro.

E son d'accordo con la risposta a lucusta: non penso che Intel implementi roba del genere. Poi queste son cose che ritengo rientrerebbero nei famigerati trade secret dell'azienda, visto che è preferibile siano implementati ben nascosti fra i transistor, essendo molto difficili da carpire a operazioni di reverse engineering. In soldoni: è roba che un'azienda non pubblicizzerebbe nemmeno di striscio.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 11:18   #457
Spoiker
Senior Member
 
Iscritto dal: Mar 2005
Città: Sconosciuta
Messaggi: 2562
Dato che qualcuno mi sta scrivendo per chiedermi il mio parere sulla nuova uscita di questi processori.. posto qui le mie considerazioni.
Sono contento per Amd di aver tirato fuori dei processori che possono competere con gli i7..
BRAVA AMD!
Cmq diciamoci la verità la stragrande maggioranza delle persone non compra i7 da diverse centinaia di euro e quindi neanche ryzen..
Ma è giusto che AMD possa controbattere anche in quella nicchia..
A mio avviso oggi in un pc contano molto gli ssd, m.2, usb 3..poi se uno ha un procio da 200 euro o 400..secondo me non sta tanto li la differenza.
Per quanto riguarda i prezzi..be' sono concorrenziali anche se personalmente non so se comprerei il modello x da 450 euro..preferirei spendere molto meno..e penso sia così anche per molti giocatori incalliti..

Byez
__________________
CM HAF 500~EVGA 750G5~DeepCool LS 720~Asus TUF gaming X670E~Ryzen 7700X~2x16Gb DDR5 6000~Asus Prime RX 9070 16gb+Samsung 980 pro+870 evo+WD Black 4Tb -- 2° PC: CM Silencio 452+Nepton 240m+CM650V2~Asus 970 pro~FX 8370-2X8Gb~6500XT~Samsung 950 pro+Crucial MX 300- 3° PC: Athlon II x4 645-2x4Gb-Crucial MX 300. Monitors: AOC 24G2U/BK & Samsung S24F350
Spoiker è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 11:31   #458
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti è plausibile che sia proprio ciò che è avvenuto con quei test.

Visto che coi numeri non ne usciamo, passiamo alla parte implementativa.

Hai esperienza con le reti neurali, e quindi sai già quanto sia complesso implementare anche un solo neurone con un certo numero di input, e che fornisca un risultato. Infatti prima, e non a caso, parlavi di utilizzare matematica a precisione fissa, per ridurre i costi, ma anche questo ha un costo non indifferente quando devi pensare di implementare tutto in hardware. Infatti ti servono dei moltiplicatori, e più precisamente te ne serve uno per pesare ogni input.

I moltiplicatori, come sai, sono abbastanza costosi in termini di transistor utilizzati, sono aree del chip molto attive e quindi consumano corrente e dissipano calore, e inoltre soffrono di una certa latenza. Ci sono diverse implementazioni in hardware, che sono dei compromessi a seconda di quello che ti serve: se vuoi velocità (bassissima latenza) devi mettere sul piatto un bel po' di energivori transistor; viceversa, se vuoi risparmiare transistor (e consumi) avrai latenze più elevate. Non si scappa.

Poi devi mettere assieme il tutto, e ti servono n-1 sommatori. Anche questi costano, anche se molto meno rispetto ai moltiplicatori, ma si portano dietro alcuni problemi (il riporto).

E fin qui siamo alla mera computazione dei calcoli per l'azione. Se vuoi dare la possibilità alla rete di correggersi nel tempo, in base agli input, devi necessariamente passare da una delle possibili funzioni d'attivazione, e qui le cose si fanno MOLTO, MOLTO DIFFICILI, visto che si utilizzano funzioni trascendentali condite da divisioni. Implementarle in hardware? Certo, tutto è possibile, ma a costi elevatissimi (se vogliamo ottenere i risultati senza addormentarci nell'attesa che vengano elaborati), e comunque anche nella migliore delle ipotesi la latenza sarebbe elevata.

Infine c'è da scegliere una funzione di threshold, da applicare al risultato precedente, per stabilire l'output del neurone. E' l'unica parte che sarebbe semplice da implementare, perché potrebbe anche bastare un comparatore.

Tutto questo, come già detto, per implementare UN solo neurone, e parliamo di vagonate di transistor da utilizzare allo scopo, che IMO competono tranquillamente con quelli impiegati in un'ALU di un'unità SIMD.

Fin qui mi sono limitato all'implementazione di un generico neurone. Adesso passiamo al nostro caso più concreto: un core che ha a che fare con delle istruzioni da eseguire, registri da usare, operazioni da/verso la memoria, risorse (porte) da utilizzare.

La slide di AMD lascia già intendere che questa rete agisca a livello di micro-op, e dunque avrà a che fare con questa tipologia di dato, ma in base alla descrizione dovrà tenere conto anche delle risorse che ho elencato prima. Dunque IMO almeno le micro-op e le porte utilizzate (perché servono per costruire la "storia" su cui dovrà lavorare) dovrebbero rappresentare gli input del neurone. Come output penso sia sufficiente, per semplicità, considerare a quale porta smistare la micro-op.

Le porte sono soltanto 10, e dunque parliamo di una piccola informazione. Ma le macro-op, come sai, occupano parecchio spazio perché sono dense, dovendo codificare al loro interno un bel po' di informazioni. Dunque dimensionare le risorse per manipolare questo tipo di input richiede un bel po' di spazio, che influisce su tutto il discorso di cui sopra.

Puoi semplificare il tutto se cataloghi le macro-op per "tipologia", magari aggiungendo un apposito campo al loro interno, ma non so quante tipologie di macro-op siano necessarie. Le istruzioni x86 sono centinaia e centinaia (parecchie migliaia se teniamo conto anche delle combinazioni dovute ad esempio all'uso di flag, delle diverse modalità d'indirizzamento verso la memoria, dell'uso o meno di costanti, di lock, prefissi che cambiano il segmento attualmente usato, ecc. ecc.. E queste sono tutte informazioni di cui si DEVE tenere conto in questo contesto, perché possono influenzare l'uso di alcune risorse all'interno del core), dunque servirebbero in ogni caso un po' di bit.

In realtà la questione è ancora più complicata se teniamo conto che le micro-op si possono successivamente dividere in uop, e che queste ultime possono poi provenire dalla uop-ROM.

Mi fermo qui, ma direi che ce n'è abbastanza per capire la portata dell'introduzione di una rete neurale all'interno del core di un processore.

Per cui sono più che convinto che la soluzione implementata sia quella che ha precedentemente descritto LMCH.

E la velocità è una cosa che non puoi avere con una rete neurale, che ha i suoi tempi non soltanto per l'apprendimento, ma anche a regime per fornire un risultato.

Ricorda che parliamo di un processore che opera intorno ai 3,5Ghz, che per ciclo di clock può eseguire il dispatch di fino a 6 micro-op e ritirare 8 uop.

Immagina una rete neurale che, per ogni ciclo di clock, debba gestire tutto ciò (perché è di questo che si parla, se rifletti attentamente sul diagramma presente nella slide, e sulla descrizione delle operazioni), e penso che le conclusioni le potrai trarre tu stesso.

Ciò che voglio dire, e che comunque anche in altre occasioni è capitato di discutere, è che non si può pensare a delle cose astrattamente solo perché "si può fare", ma è strettamente necessario calarle nelle preciso contesto di cui si parla. Capire, insomma, se un'idea possa o meno essere compatibile con la realtà delle cose.

Nello specifico, se conosci come funzionano le reti neurali, di come lavorano, di come si potrebbero implementare in hardware, e infine di come funziona a runtime il core di un processore, l'ultima cosa che uno potrebbe pensare è di vederne implementata una al suo interno.

Per realizzare certe operazioni, come quelle discusse nella slide, ci sono ben altre soluzioni, molto più economiche e veloci, ma che hanno ben poco a che spartire con le reti neurali. Soprattutto, sono soluzioni che funzionano nel contesto locale, cioè analizzando l'attuale contesto elaborativo, perché è impensabile che un core si possa trascinare dire una sorta di "memoria storica" delle centinaia di miliardi di istruzioni eseguite.

Spero di essere stato chiaro.

E son d'accordo con la risposta a lucusta: non penso che Intel implementi roba del genere. Poi queste son cose che ritengo rientrerebbero nei famigerati trade secret dell'azienda, visto che è preferibile siano implementati ben nascosti fra i transistor, essendo molto difficili da carpire a operazioni di reverse engineering. In soldoni: è roba che un'azienda non pubblicizzerebbe nemmeno di striscio.
Ma a quanto ho capito la "rete neurale" serve solo per fare la branch predicition e immagino che non sia l'unico metodo usato e si scelga anche dinamicamente; è una tecnica consolidata: noi qui abbiamo usato tre metodi di classificazione, con tanto di affidabilità, in parallelo per predire un evento cardiaco, infarto, a due anni sulla base di 5-6 parametri, con tanto di risposta binaria e affidabilità. Uno dei 3 metodi era una classica rete neurale, non so di preciso le specifiche perchè io ho implementato l'interfaccia grafica.

Siccome la predizione è del tipo si no, probabilmente sarà solo la sommatoria pesata di n parametri (probabilmente semplicemente global e local history e qualche altro parametro più qualche feedback) e poi un bias così da dover solo vedere il bit più significativo (il segno) per decidere se saltare o no. Nulla di trascendentale (pun intended)... Semplicemente i coefficienti non sono fissi, ma variati con qualche criterio, probabilmente derivato dalla branca dell'inteligenza artificiale... Il perceptron che io sappia, c'è già in Jaguar e non è così complesso da implementare... Al max lo usano anche per il prefetch in Zen, mi sembra di aver capito, ma non so in che modo...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!

Ultima modifica di bjt2 : 05-03-2017 alle 11:34.
bjt2 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 11:42   #459
Baboo85
Senior Member
 
L'Avatar di Baboo85
 
Iscritto dal: Aug 2007
Città: Milano
Messaggi: 11981
Quote:
Originariamente inviato da GabrySP Guarda i messaggi
tutto sto hype per nulla
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.

Comunque i test SENZA Turbo non si possono vedere. Sono inutili. La funzione Turbo e' integrata nei processori, non e' una funzionalita' della scheda madre o un overclock manuale. Toglierla significa invalidare i test che avete fatto, messi cosi' non significano nulla.

Perche' magari uno prende Ryzen convinto che sia allo stesso livello, poi scopre che col Turbo attivo il 7700K prende il volo e giustamente smadonna...
__________________
CLOUD STORAGE FREE | Asus G51JX (Thread Ufficiale) | Quale notebook per giocare? | PC (in corso): 2x Intel Xeon E5-2670 v1 2,6GHz - 96GB RAM - SAS 10-15k rpm - GPU TBD|
Baboo85 è offline   Rispondi citando il messaggio o parte di esso
Old 05-03-2017, 11:54   #460
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Baboo85 Guarda i messaggi
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.

Comunque i test SENZA Turbo non si possono vedere. Sono inutili. La funzione Turbo e' integrata nei processori, non e' una funzionalita' della scheda madre o un overclock manuale. Toglierla significa invalidare i test che avete fatto, messi cosi' non significano nulla.

Perche' magari uno prende Ryzen convinto che sia allo stesso livello, poi scopre che col Turbo attivo il 7700K prende il volo e giustamente smadonna...
Il turbo, nonché l'XFR, era attivo nei test.

Forse ti riferisci ai test effettuati per calcolare l'IPC, ma lì è una cosa completamente diversa, e roba come il Turbo/XFR DEVE essere disabilitata.

@bjt2: un percertrone è già più semplice, ma IMO sarà una logica predittiva molto simile (a livello implementativo) a un branch predictor, come affermava anche LMCH.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


FUJIFILM X-T30 III, la nuova mirrorless compatta FUJIFILM X-T30 III, la nuova mirrorless compatta
Oracle AI World 2025: l'IA cambia tutto, a partire dai dati Oracle AI World 2025: l'IA cambia tutto, a parti...
Micron e millisecondi: la piattaforma ServiceNow guida l'infrastruttura IT di Aston Martin F1 Micron e millisecondi: la piattaforma ServiceNow...
ASUS GeForce RTX 5080 Noctua OC Edition: una custom fenomenale, ma anche enorme ASUS GeForce RTX 5080 Noctua OC Edition: una cus...
Dreame Aqua10 Ultra Roller, la pulizia di casa con un rullo Dreame Aqua10 Ultra Roller, la pulizia di casa c...
AMD presenterà il Ryzen 5 7500X3D...
Un aspirapolvere intelligente diventa un...
Il nuovo M5 fa la differenza anche nel g...
Le AirPods ora sono in grado di rilevare...
Oggi su Amazon succede di tutto: sconti ...
'Copilot Gaming mi spiava!': le accuse d...
Mova P50 Pro Ultra, robot aspirapolvere ...
Speciale action cam: doppio sconto solo ...
Eureka J15 Ultra conquista Amazon: aspir...
Game Pass è sempre più ric...
20 milioni di utenti contro Apple: grand...
La sonda spaziale europea ESA JUICE &egr...
La capsula Orion Integrity è stat...
Intel Nova Lake: i driver Linux svelano ...
Nothing punta sulla fascia bassa: ecco c...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 06:18.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1