Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti
La facilità di installazione e la completa automazione di tutte le fasi di utilizzo, rendono questo prodotto l'ideale per molti clienti. Ecco com'è andata la nostra prova in anteprima
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto
be quiet! debutta nel settore mouse da gaming con Dark Perk Ergo e Dark Perk Sym: due modelli gemelli per specifiche, con polling rate di 8.000 Hz anche in wireless, sensore PixArt PAW3950 da 32.000 DPI e autonomia dichiarata fino a 110 ore. Nel test, a 8.000 Hz si arriva a circa 30 ore reali, con ricarica completa in un'ora e mezza
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker
Analizziamo nel dettaglio DJI RS 5, l'ultimo arrivato della famiglia Ronin progettato per videomaker solisti e piccoli studi. Tra tracciamento intelligente migliorato e ricarica ultra rapida, scopriamo come questo gimbal eleva la qualità delle produzioni.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 30-01-2025, 09:51   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: https://www.hwupgrade.it/news/sistem...t+_135108.html

Microsoft ha annunciato l'arrivo dei modelli DeepSeek R1 ottimizzati per NPU sui PC Windows 11 Copilot+. Gli sviluppatori potranno presto creare app efficienti sfruttando le unità di elaborazione neurale dei dispositivi compatibili, a partire da modelli con SoC Snapdragon X.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:17   #2
djfix13
Senior Member
 
L'Avatar di djfix13
 
Iscritto dal: Oct 2009
Messaggi: 3713
nessun bisogno

se devo essere sincero tutta questa fretta con AI e Copilot io non la vedo nelle persone; alla gente di comprare pc con NPU non frega nulla (e con prezzi fuori di testa).
l'AI copilot servisse poi a qualcosa: testata già quando era in beta, è utile meno della ricerca base di google.
forse sui server avrebbe un senso pensata ed ottimizzata per ricerca, ordinamento, servizi insomma e non su pc di privati con ARM
djfix13 è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:19   #3
TheDarkAngel
Senior Member
 
L'Avatar di TheDarkAngel
 
Iscritto dal: Jun 2001
Città: Pavia
Messaggi: 25022
Quote:
Originariamente inviato da djfix13 Guarda i messaggi
se devo essere sincero tutta questa fretta con AI e Copilot io non la vedo nelle persone; alla gente di comprare pc con NPU non frega nulla (e con prezzi fuori di testa).
l'AI copilot servisse poi a qualcosa: testata già quando era in beta, è utile meno della ricerca base di google.
forse sui server avrebbe un senso pensata ed ottimizzata per ricerca, ordinamento, servizi insomma e non su pc di privati con ARM
E' tutto basato su un assunto di praticamente ogni multinazionale usa, il primo che arriva si tiene la posizione dominante per tutta la vita di una tecnologia.
Se parti da questo assunto, capisci perchè è una corsa costante con tentativi anche raffazzonati a prescindere da quanto sia (ancora) apprezzato dal pubblico.
__________________
//\\ Vendo =>
TheDarkAngel è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:26   #4
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11192
Incredibile come DeepSeek R1 abbia acceso l'interesse da parte delle aziende. È stato possibile usare LLM localmente per almeno 2 anni e nell'ultimo fra quantizzazioni e modelli più piccoli sono pure usciti modelli adatti per essere usati localmente su smartphone (anche da Microsoft), ma R1 ha sconvolto tutto ed ora tutti ne parlano e vogliono usarlo in locale.

Pensino a darci memoria veloce ed in abbondanza invece che NPU che non servono praticamente a nulla, però.

Quote:
[...] tempo di risposta per il primo token di soli 130 millisecondi e una velocità di elaborazione di 16 token al secondo per prompt brevi.
Quando le risposte sono da 1000-1200 token od oltre perché DeepSeek R1 perde tempo a "pensare", 16 token/s non bastano. Più banda, cribbio.
__________________
~
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:20   #5
randorama
Senior Member
 
Iscritto dal: Sep 2013
Messaggi: 9765
Quote:
Originariamente inviato da s12a Guarda i messaggi
Incredibile come DeepSeek R1 abbia acceso l'interesse da parte delle aziende. È stato possibile usare LLM localmente per almeno 2 anni e nell'ultimo fra quantizzazioni e modelli più piccoli sono pure usciti modelli adatti per essere usati localmente su smartphone (anche da Microsoft), ma R1 ha sconvolto tutto ed ora tutti ne parlano e vogliono usarlo in locale.

Pensino a darci memoria veloce ed in abbondanza invece che NPU che non servono praticamente a nulla, però.



Quando le risposte sono da 1000-1200 token od oltre perché DeepSeek R1 perde tempo a "pensare", 16 token/s non bastano. Più banda, cribbio.
l'ho solo provata online: ma davvero "sto coso" funziona in modo accettabile anche offline ?
randorama è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:27   #6
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 348
Ricordo che su smartphone c'è l'app PocketPal che sul mio smartphone di 6 anni fa fa girare benissimo DeepSeek-R1-Distill-Qwen-1.5B, la versione quantizzata a 8 bit. La velocità è 6,58 token/sec. Le capacità di questo modello in particolare non sono esaltanti, ma è comunque interessante "giocarci"
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:41   #7
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11192
Quote:
Originariamente inviato da randorama Guarda i messaggi
l'ho solo provata online: ma davvero "sto coso" funziona in modo accettabile anche offline ?
Dipende da cosa intendi per accettabile. Probabilmente sarà in grado di dialogare ed effettuare ragionamenti semplici, ma non avrà molta conoscenza da cui attingere.

In generale, a patto di usarla a precisione sufficiente, forse la versione da 70 miliardi di parametri basata su Llama si avvicina un po' al modello online da 671B parametri; più si scende con la dimensione del modello e con la precisione, meno esso sarà intelligente, capace ed informato. Non cercherei di usare un modello da 1.5 miliardi di parametri per nulla di serio, né mi aspetterei prestazioni minimamente comparabili al modello online, personalmente.

Io spero solo che l'entusiasmo incentivi i produttori di hardware a fornire soluzioni accessibili per l'uso di modelli di dimensioni più grandi a velocità decenti. Per avere un riferimento, con la mia RTX3090 24GB posso usare la versione da 32 miliardi di parametri con precisione a 4 bit a circa 25 token/s, ma non posso salire più di tanto con la dimensione del "contesto" (semplificando, la memoria a breve termine che il modello ha a disposizione per il dialogo) perché non basta la VRAM, ed attingendo dalla RAM di sistema (dalla banda di circa 50 GB/s nel mio caso) la velocità crolla.
__________________
~

Ultima modifica di s12a : 30-01-2025 alle 11:52.
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 12:36   #8
randorama
Senior Member
 
Iscritto dal: Sep 2013
Messaggi: 9765
Quote:
Originariamente inviato da s12a Guarda i messaggi
Dipende da cosa intendi per accettabile. Probabilmente sarà in grado di dialogare ed effettuare ragionamenti semplici, ma non avrà molta conoscenza da cui attingere.

In generale, a patto di usarla a precisione sufficiente, forse la versione da 70 miliardi di parametri basata su Llama si avvicina un po' al modello online da 671B parametri; più si scende con la dimensione del modello e con la precisione, meno esso sarà intelligente, capace ed informato. Non cercherei di usare un modello da 1.5 miliardi di parametri per nulla di serio, né mi aspetterei prestazioni minimamente comparabili al modello online, personalmente.

Io spero solo che l'entusiasmo incentivi i produttori di hardware a fornire soluzioni accessibili per l'uso di modelli di dimensioni più grandi a velocità decenti. Per avere un riferimento, con la mia RTX3090 24GB posso usare la versione da 32 miliardi di parametri con precisione a 4 bit a circa 25 token/s, ma non posso salire più di tanto con la dimensione del "contesto" (semplificando, la memoria a breve termine che il modello ha a disposizione per il dialogo) perché non basta la VRAM, ed attingendo dalla RAM di sistema (dalla banda di circa 50 GB/s nel mio caso) la velocità crolla.
tutto quello che vuoi, ma l'idea di avere un sistema ragionevolmente "intelligente" e di, come dire?, cultura media offline è... intrigante.
randorama è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti Test in super anteprima di Navimow i220 LiDAR: i...
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto Dark Perk Ergo e Sym provati tra wireless, softw...
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker DJI RS 5: stabilizzazione e tracking intelligent...
AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequenze al top per il gaming AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequen...
Le soluzioni FSP per il 2026: potenza e IA al centro Le soluzioni FSP per il 2026: potenza e IA al ce...
Texas Instruments acquisisce Silicon Lab...
NVIDIA chiede l'archiviazione della caus...
MOUSE: P.I. For Hire: sembra un cartone ...
Francia all'attacco: X sotto indagine, p...
Vodafone abilita il Wi-Fi Calling in Ita...
GTA VI: confermata l'uscita a novembre, ...
Il robot umanoide G1 di Unitree cammina ...
Gli americani comprano quasi solo iPhone...
Xcode 26.3 trasforma gli assistenti AI i...
Anche la Spagna è pronta a vietar...
Loongson 3B6000: la CPU cinese scalfisce...
Hard disk ancora protagonisti: Western D...
Robot grandi quanto un granello di sale:...
Top 10 bestseller Amazon: febbraio strav...
Scendono ancora i prezzi Amazfit su Amaz...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:57.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1