Entra

View Full Version : Qualcomm mostra le proprie sperimentazioni sulle reti neurali


Redazione di Hardware Upg
15-10-2013, 11:31
Link alla notizia: http://www.businessmagazine.it/news/qualcomm-mostra-le-proprie-sperimentazioni-sulle-reti-neurali_49174.html

Le NPU, unità di processazione neurali, sono elementi di computazione che si basano sul modello di funzionamento del cervello umano. Qualcomm sta sperimentando alcune soluzioni, da utilizzare nel futuro anche nel proprio core business

Click sul link per visualizzare la notizia.

Aenil
15-10-2013, 11:54
è un inizio.. ora però c'è anche da vedere, di pari passo, che impatto avranno queste tecnologie.

cignox1
15-10-2013, 12:00
Tra 10 anni il miglior amico degli adolescenti sará il proprio smart phone :-) (non che oggi giá non lo sia...)

inited
15-10-2013, 12:04
Mi ricordo anni fa le lezioni all'università in cui veniva spiegato che i ricercatori americani a metà del secolo scorso rimediavano finanziamenti dal dipartimento per la difesa per le proprie ricerche sul cervello dicendo agli americani che avrebbero costruito computer per permettergli di automatizzare la propria difesa nucleare quando in realtà li volevano fare per modellare gli analoghi biologici...

mau.c
15-10-2013, 13:02
a me pare che lo sviluppo del software è sempre 10 anni indietro. e quando si cambia architettura e approccio la cosa si nota pesantemente... se questa tecnologia offre dei miglioramenti ci vorrà comunque del tempo prima che venga adottata e che l'industria cambi la direzione.

mi ricordo che quasi 20 anni fa un ingegnere informatico mi spiegava in maniera semplice che nel pc le informazioni sono tutte di 0 e 1 e che per aumentare le capacità stavano testando la possibilità di usare altri stati oltre questi due. certo in teoria era una buona idea, ma in pratica? s'è visto niente del genere a livello commericale? direi di no. siamo comunque molto legati all'architettura che abbiamo implementato dall'inizio, questa fornisce un alto grado di specializzazione, ma necessariamente guardando lontano io credo che mostri anche qualche limite

II ARROWS
15-10-2013, 14:08
Il cervello è veloce perché accede ai dati molto velocemente... ed è analogico. I dati sono affogati nei "core".
I computer sono digitali, sono precisi. La precisione non ammette errori a meno che sia programmata e a volte l'errore è proprio quello che serve.

Questo è uno dei limiti dell'analisi di immagini, la fantasia generata dall'errore.

Questo è uno dei problemi principali, quel video è un giochetto molto carino. Ma pur sempre un giochetto. Nel momento in cui gli spegni la luce, quel robottino farà molta fatica.
Tra 10 anni il miglior amico degli adolescenti sará il proprio smart phone :-) (non che oggi giá non lo sia...)Non tra 10 anni, ma almeno gli risponderà... e forse potrebbe anche convincerlo a studiare. :D

Ovviamente si scherza, nessuna azienda vuole che i propri schiavi si acculturiscano.

Personaggio
15-10-2013, 15:00
Scusate ma le GPU non sono già tanti processori in parallelo a frequenza ridotta?

Aenil
15-10-2013, 15:19
Scusate ma le GPU non sono già tanti processori in parallelo a frequenza ridotta?

..e con un'architettura molto più semplice di quella di una CPU, qui però se ho capito bene l'articolo questo concetto è estremizzato o perlomeno è quello che vogliono raggiungere.

Blashyrkh
15-10-2013, 15:27
Questo è uno dei problemi principali, quel video è un giochetto molto carino. Ma pur sempre un giochetto. Nel momento in cui gli spegni la luce, quel robottino farà molta fatica.


ah perchè tu riesci a vedere al buio?

è un robot, si può implementare un visore notturno senza alcun problema...cosa c'entra mo spegnere la luce, lol

Blashyrkh
15-10-2013, 16:38
a me pare che lo sviluppo del software è sempre 10 anni indietro. e quando si cambia architettura e approccio la cosa si nota pesantemente... se questa tecnologia offre dei miglioramenti ci vorrà comunque del tempo prima che venga adottata e che l'industria cambi la direzione.

mi ricordo che quasi 20 anni fa un ingegnere informatico mi spiegava in maniera semplice che nel pc le informazioni sono tutte di 0 e 1 e che per aumentare le capacità stavano testando la possibilità di usare altri stati oltre questi due. certo in teoria era una buona idea, ma in pratica? s'è visto niente del genere a livello commericale? direi di no. siamo comunque molto legati all'architettura che abbiamo implementato dall'inizio, questa fornisce un alto grado di specializzazione, ma necessariamente guardando lontano io credo che mostri anche qualche limite

beh la programmazione è una cosa complessa,e l'ottimizzazione lo è ancora di più. imparare ad usare(BENE) i nuovi strumenti non è cosa semplice e ci vuole tempo.creare una scheda grafica è meno complesso che creare un motore grafico o dei driver ottimizzati, e uno dei motivi principali è la scalabilità.


il problema del binario in ambito digitale è molto semplice, spero tu sappia il motivo per cui si sono scelti solo 2 stati. se non lo hanno fatto fino ad ora di certo non è perchè sono semplicemente "legati alle vecchie architetture", ma per altri motivi e per ovvie ragioni.