Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Nioh 3: souls-like punitivo e Action RPG
Nioh 3: souls-like punitivo e Action RPG
Nioh 3 aggiorna la formula Team NINJA con aree esplorabili più grandi, due stili di combattimento intercambiabili al volo (Samurai e Ninja) e un sistema di progressione pieno di attività, basi nemiche e sfide legate al Crogiolo. La recensione entra nel dettaglio su combattimento, build, progressione e requisiti PC
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti
La facilità di installazione e la completa automazione di tutte le fasi di utilizzo, rendono questo prodotto l'ideale per molti clienti. Ecco com'è andata la nostra prova in anteprima
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto
be quiet! debutta nel settore mouse da gaming con Dark Perk Ergo e Dark Perk Sym: due modelli gemelli per specifiche, con polling rate di 8.000 Hz anche in wireless, sensore PixArt PAW3950 da 32.000 DPI e autonomia dichiarata fino a 110 ore. Nel test, a 8.000 Hz si arriva a circa 30 ore reali, con ricarica completa in un'ora e mezza
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 30-01-2025, 09:51   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: https://www.hwupgrade.it/news/sistem...t+_135108.html

Microsoft ha annunciato l'arrivo dei modelli DeepSeek R1 ottimizzati per NPU sui PC Windows 11 Copilot+. Gli sviluppatori potranno presto creare app efficienti sfruttando le unità di elaborazione neurale dei dispositivi compatibili, a partire da modelli con SoC Snapdragon X.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:17   #2
djfix13
Senior Member
 
L'Avatar di djfix13
 
Iscritto dal: Oct 2009
Messaggi: 3713
nessun bisogno

se devo essere sincero tutta questa fretta con AI e Copilot io non la vedo nelle persone; alla gente di comprare pc con NPU non frega nulla (e con prezzi fuori di testa).
l'AI copilot servisse poi a qualcosa: testata già quando era in beta, è utile meno della ricerca base di google.
forse sui server avrebbe un senso pensata ed ottimizzata per ricerca, ordinamento, servizi insomma e non su pc di privati con ARM
djfix13 è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:19   #3
TheDarkAngel
Senior Member
 
L'Avatar di TheDarkAngel
 
Iscritto dal: Jun 2001
Città: Pavia
Messaggi: 25022
Quote:
Originariamente inviato da djfix13 Guarda i messaggi
se devo essere sincero tutta questa fretta con AI e Copilot io non la vedo nelle persone; alla gente di comprare pc con NPU non frega nulla (e con prezzi fuori di testa).
l'AI copilot servisse poi a qualcosa: testata già quando era in beta, è utile meno della ricerca base di google.
forse sui server avrebbe un senso pensata ed ottimizzata per ricerca, ordinamento, servizi insomma e non su pc di privati con ARM
E' tutto basato su un assunto di praticamente ogni multinazionale usa, il primo che arriva si tiene la posizione dominante per tutta la vita di una tecnologia.
Se parti da questo assunto, capisci perchè è una corsa costante con tentativi anche raffazzonati a prescindere da quanto sia (ancora) apprezzato dal pubblico.
__________________
//\\ Vendo =>
TheDarkAngel è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:26   #4
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11192
Incredibile come DeepSeek R1 abbia acceso l'interesse da parte delle aziende. È stato possibile usare LLM localmente per almeno 2 anni e nell'ultimo fra quantizzazioni e modelli più piccoli sono pure usciti modelli adatti per essere usati localmente su smartphone (anche da Microsoft), ma R1 ha sconvolto tutto ed ora tutti ne parlano e vogliono usarlo in locale.

Pensino a darci memoria veloce ed in abbondanza invece che NPU che non servono praticamente a nulla, però.

Quote:
[...] tempo di risposta per il primo token di soli 130 millisecondi e una velocità di elaborazione di 16 token al secondo per prompt brevi.
Quando le risposte sono da 1000-1200 token od oltre perché DeepSeek R1 perde tempo a "pensare", 16 token/s non bastano. Più banda, cribbio.
__________________
~
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:20   #5
randorama
Senior Member
 
Iscritto dal: Sep 2013
Messaggi: 9766
Quote:
Originariamente inviato da s12a Guarda i messaggi
Incredibile come DeepSeek R1 abbia acceso l'interesse da parte delle aziende. È stato possibile usare LLM localmente per almeno 2 anni e nell'ultimo fra quantizzazioni e modelli più piccoli sono pure usciti modelli adatti per essere usati localmente su smartphone (anche da Microsoft), ma R1 ha sconvolto tutto ed ora tutti ne parlano e vogliono usarlo in locale.

Pensino a darci memoria veloce ed in abbondanza invece che NPU che non servono praticamente a nulla, però.



Quando le risposte sono da 1000-1200 token od oltre perché DeepSeek R1 perde tempo a "pensare", 16 token/s non bastano. Più banda, cribbio.
l'ho solo provata online: ma davvero "sto coso" funziona in modo accettabile anche offline ?
randorama è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:27   #6
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 351
Ricordo che su smartphone c'è l'app PocketPal che sul mio smartphone di 6 anni fa fa girare benissimo DeepSeek-R1-Distill-Qwen-1.5B, la versione quantizzata a 8 bit. La velocità è 6,58 token/sec. Le capacità di questo modello in particolare non sono esaltanti, ma è comunque interessante "giocarci"
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:41   #7
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11192
Quote:
Originariamente inviato da randorama Guarda i messaggi
l'ho solo provata online: ma davvero "sto coso" funziona in modo accettabile anche offline ?
Dipende da cosa intendi per accettabile. Probabilmente sarà in grado di dialogare ed effettuare ragionamenti semplici, ma non avrà molta conoscenza da cui attingere.

In generale, a patto di usarla a precisione sufficiente, forse la versione da 70 miliardi di parametri basata su Llama si avvicina un po' al modello online da 671B parametri; più si scende con la dimensione del modello e con la precisione, meno esso sarà intelligente, capace ed informato. Non cercherei di usare un modello da 1.5 miliardi di parametri per nulla di serio, né mi aspetterei prestazioni minimamente comparabili al modello online, personalmente.

Io spero solo che l'entusiasmo incentivi i produttori di hardware a fornire soluzioni accessibili per l'uso di modelli di dimensioni più grandi a velocità decenti. Per avere un riferimento, con la mia RTX3090 24GB posso usare la versione da 32 miliardi di parametri con precisione a 4 bit a circa 25 token/s, ma non posso salire più di tanto con la dimensione del "contesto" (semplificando, la memoria a breve termine che il modello ha a disposizione per il dialogo) perché non basta la VRAM, ed attingendo dalla RAM di sistema (dalla banda di circa 50 GB/s nel mio caso) la velocità crolla.
__________________
~

Ultima modifica di s12a : 30-01-2025 alle 11:52.
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 12:36   #8
randorama
Senior Member
 
Iscritto dal: Sep 2013
Messaggi: 9766
Quote:
Originariamente inviato da s12a Guarda i messaggi
Dipende da cosa intendi per accettabile. Probabilmente sarà in grado di dialogare ed effettuare ragionamenti semplici, ma non avrà molta conoscenza da cui attingere.

In generale, a patto di usarla a precisione sufficiente, forse la versione da 70 miliardi di parametri basata su Llama si avvicina un po' al modello online da 671B parametri; più si scende con la dimensione del modello e con la precisione, meno esso sarà intelligente, capace ed informato. Non cercherei di usare un modello da 1.5 miliardi di parametri per nulla di serio, né mi aspetterei prestazioni minimamente comparabili al modello online, personalmente.

Io spero solo che l'entusiasmo incentivi i produttori di hardware a fornire soluzioni accessibili per l'uso di modelli di dimensioni più grandi a velocità decenti. Per avere un riferimento, con la mia RTX3090 24GB posso usare la versione da 32 miliardi di parametri con precisione a 4 bit a circa 25 token/s, ma non posso salire più di tanto con la dimensione del "contesto" (semplificando, la memoria a breve termine che il modello ha a disposizione per il dialogo) perché non basta la VRAM, ed attingendo dalla RAM di sistema (dalla banda di circa 50 GB/s nel mio caso) la velocità crolla.
tutto quello che vuoi, ma l'idea di avere un sistema ragionevolmente "intelligente" e di, come dire?, cultura media offline è... intrigante.
randorama è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Nioh 3: souls-like punitivo e Action RPG Nioh 3: souls-like punitivo e Action RPG
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti Test in super anteprima di Navimow i220 LiDAR: i...
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto Dark Perk Ergo e Sym provati tra wireless, softw...
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker DJI RS 5: stabilizzazione e tracking intelligent...
AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequenze al top per il gaming AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequen...
Oggi gli iPhone 17 e 17 Pro da 256GB son...
Il telescopio XRISM ha osservato i raggi...
Il telescopio spaziale James Webb ha sco...
Logitech G325: audio di fascia alta, wir...
Nessuna pubblicità su Claude, per...
Gli stipendi nel settore tech? Sono anco...
Problemi con la stampa 3D? Un prompt per...
Amazon Leo amplia i contratti con SpaceX...
Basta Purefication, il Giurì bloc...
LibreOffice 26.2 migliora prestazioni e ...
La Cina si prepara a un test della capsu...
La NASA rende note alcune informazioni a...
ASUS ExpertCenter PN54: mini PC Copilot+...
Geely userà una fabbrica europea ...
Leica Camera tratta la cessione della ma...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 07:22.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1