Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2 è la nuova handheld PC gaming con processore AMD Ryzen Z2 Extreme (8 core Zen 5/5c, GPU RDNA 3.5 16 CU) e schermo OLED 8,8" 1920x1200 144Hz. È dotata anche di controller rimovibili TrueStrike con joystick Hall effect e una batteria da 74Wh. Rispetto al dispositivo che l'ha preceduta, migliora ergonomia e prestazioni a basse risoluzioni, ma pesa 920g e costa 1.299€ nella configurazione con 32GB RAM/1TB SSD e Z2 Extreme
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
A re:Invent 2025, AWS mostra un’evoluzione profonda della propria strategia: l’IA diventa una piattaforma di servizi sempre più pronta all’uso, con agenti e modelli preconfigurati che accelerano lo sviluppo, mentre il cloud resta la base imprescindibile per governare dati, complessità e lock-in in uno scenario sempre più orientato all’hybrid cloud
Cos'è la bolla dell'IA e perché se ne parla
Cos'è la bolla dell'IA e perché se ne parla
Si parla molto ultimamente di "bolla dell'intelligenza artificiale", ma non è sempre chiaro perché: l'IA è una tecnologia molto promettente e che ha già cambiato molte cose dentro e fuori le aziende, ma ci sono enormi aspettative che stanno gonfiando a dismisura i valori delle azioni e distorcendo il mercato. Il che, com'è facile intuire, può portare a una ripetizione della "bolla dotcom", e forse anche di quella dei mutui subprime. Vediamo perché
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 30-01-2025, 09:51   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: https://www.hwupgrade.it/news/sistem...t+_135108.html

Microsoft ha annunciato l'arrivo dei modelli DeepSeek R1 ottimizzati per NPU sui PC Windows 11 Copilot+. Gli sviluppatori potranno presto creare app efficienti sfruttando le unità di elaborazione neurale dei dispositivi compatibili, a partire da modelli con SoC Snapdragon X.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:17   #2
djfix13
Senior Member
 
L'Avatar di djfix13
 
Iscritto dal: Oct 2009
Messaggi: 3693
nessun bisogno

se devo essere sincero tutta questa fretta con AI e Copilot io non la vedo nelle persone; alla gente di comprare pc con NPU non frega nulla (e con prezzi fuori di testa).
l'AI copilot servisse poi a qualcosa: testata già quando era in beta, è utile meno della ricerca base di google.
forse sui server avrebbe un senso pensata ed ottimizzata per ricerca, ordinamento, servizi insomma e non su pc di privati con ARM
djfix13 è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:19   #3
TheDarkAngel
Senior Member
 
L'Avatar di TheDarkAngel
 
Iscritto dal: Jun 2001
Città: Pavia
Messaggi: 24989
Quote:
Originariamente inviato da djfix13 Guarda i messaggi
se devo essere sincero tutta questa fretta con AI e Copilot io non la vedo nelle persone; alla gente di comprare pc con NPU non frega nulla (e con prezzi fuori di testa).
l'AI copilot servisse poi a qualcosa: testata già quando era in beta, è utile meno della ricerca base di google.
forse sui server avrebbe un senso pensata ed ottimizzata per ricerca, ordinamento, servizi insomma e non su pc di privati con ARM
E' tutto basato su un assunto di praticamente ogni multinazionale usa, il primo che arriva si tiene la posizione dominante per tutta la vita di una tecnologia.
Se parti da questo assunto, capisci perchè è una corsa costante con tentativi anche raffazzonati a prescindere da quanto sia (ancora) apprezzato dal pubblico.
__________________
//\\ Vendo => Synology DS920+
TheDarkAngel è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 10:26   #4
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11186
Incredibile come DeepSeek R1 abbia acceso l'interesse da parte delle aziende. È stato possibile usare LLM localmente per almeno 2 anni e nell'ultimo fra quantizzazioni e modelli più piccoli sono pure usciti modelli adatti per essere usati localmente su smartphone (anche da Microsoft), ma R1 ha sconvolto tutto ed ora tutti ne parlano e vogliono usarlo in locale.

Pensino a darci memoria veloce ed in abbondanza invece che NPU che non servono praticamente a nulla, però.

Quote:
[...] tempo di risposta per il primo token di soli 130 millisecondi e una velocità di elaborazione di 16 token al secondo per prompt brevi.
Quando le risposte sono da 1000-1200 token od oltre perché DeepSeek R1 perde tempo a "pensare", 16 token/s non bastano. Più banda, cribbio.
__________________
~
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:20   #5
randorama
Senior Member
 
Iscritto dal: Sep 2013
Messaggi: 9552
Quote:
Originariamente inviato da s12a Guarda i messaggi
Incredibile come DeepSeek R1 abbia acceso l'interesse da parte delle aziende. È stato possibile usare LLM localmente per almeno 2 anni e nell'ultimo fra quantizzazioni e modelli più piccoli sono pure usciti modelli adatti per essere usati localmente su smartphone (anche da Microsoft), ma R1 ha sconvolto tutto ed ora tutti ne parlano e vogliono usarlo in locale.

Pensino a darci memoria veloce ed in abbondanza invece che NPU che non servono praticamente a nulla, però.



Quando le risposte sono da 1000-1200 token od oltre perché DeepSeek R1 perde tempo a "pensare", 16 token/s non bastano. Più banda, cribbio.
l'ho solo provata online: ma davvero "sto coso" funziona in modo accettabile anche offline ?
randorama è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:27   #6
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 348
Ricordo che su smartphone c'è l'app PocketPal che sul mio smartphone di 6 anni fa fa girare benissimo DeepSeek-R1-Distill-Qwen-1.5B, la versione quantizzata a 8 bit. La velocità è 6,58 token/sec. Le capacità di questo modello in particolare non sono esaltanti, ma è comunque interessante "giocarci"
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 11:41   #7
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11186
Quote:
Originariamente inviato da randorama Guarda i messaggi
l'ho solo provata online: ma davvero "sto coso" funziona in modo accettabile anche offline ?
Dipende da cosa intendi per accettabile. Probabilmente sarà in grado di dialogare ed effettuare ragionamenti semplici, ma non avrà molta conoscenza da cui attingere.

In generale, a patto di usarla a precisione sufficiente, forse la versione da 70 miliardi di parametri basata su Llama si avvicina un po' al modello online da 671B parametri; più si scende con la dimensione del modello e con la precisione, meno esso sarà intelligente, capace ed informato. Non cercherei di usare un modello da 1.5 miliardi di parametri per nulla di serio, né mi aspetterei prestazioni minimamente comparabili al modello online, personalmente.

Io spero solo che l'entusiasmo incentivi i produttori di hardware a fornire soluzioni accessibili per l'uso di modelli di dimensioni più grandi a velocità decenti. Per avere un riferimento, con la mia RTX3090 24GB posso usare la versione da 32 miliardi di parametri con precisione a 4 bit a circa 25 token/s, ma non posso salire più di tanto con la dimensione del "contesto" (semplificando, la memoria a breve termine che il modello ha a disposizione per il dialogo) perché non basta la VRAM, ed attingendo dalla RAM di sistema (dalla banda di circa 50 GB/s nel mio caso) la velocità crolla.
__________________
~

Ultima modifica di s12a : 30-01-2025 alle 11:52.
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 30-01-2025, 12:36   #8
randorama
Senior Member
 
Iscritto dal: Sep 2013
Messaggi: 9552
Quote:
Originariamente inviato da s12a Guarda i messaggi
Dipende da cosa intendi per accettabile. Probabilmente sarà in grado di dialogare ed effettuare ragionamenti semplici, ma non avrà molta conoscenza da cui attingere.

In generale, a patto di usarla a precisione sufficiente, forse la versione da 70 miliardi di parametri basata su Llama si avvicina un po' al modello online da 671B parametri; più si scende con la dimensione del modello e con la precisione, meno esso sarà intelligente, capace ed informato. Non cercherei di usare un modello da 1.5 miliardi di parametri per nulla di serio, né mi aspetterei prestazioni minimamente comparabili al modello online, personalmente.

Io spero solo che l'entusiasmo incentivi i produttori di hardware a fornire soluzioni accessibili per l'uso di modelli di dimensioni più grandi a velocità decenti. Per avere un riferimento, con la mia RTX3090 24GB posso usare la versione da 32 miliardi di parametri con precisione a 4 bit a circa 25 token/s, ma non posso salire più di tanto con la dimensione del "contesto" (semplificando, la memoria a breve termine che il modello ha a disposizione per il dialogo) perché non basta la VRAM, ed attingendo dalla RAM di sistema (dalla banda di circa 50 GB/s nel mio caso) la velocità crolla.
tutto quello che vuoi, ma l'idea di avere un sistema ragionevolmente "intelligente" e di, come dire?, cultura media offline è... intrigante.
randorama è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'...
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti AWS re:Invent 2025: inizia l'era dell'AI-as-a-Se...
Cos'è la bolla dell'IA e perché se ne parla Cos'è la bolla dell'IA e perché se...
BOOX Palma 2 Pro in prova: l'e-reader diventa a colori, e davvero tascabile BOOX Palma 2 Pro in prova: l'e-reader diventa a ...
FRITZ!Repeater 1700 estende la rete super-veloce Wi-Fi 7 FRITZ!Repeater 1700 estende la rete super-veloce...
Apple 'apre' iOS alle terze parti anche ...
Cloud sovrano: l'approccio di Broadcom c...
HONOR conferma l'arrivo in Italia di Mag...
La Cina sotto pressione impone maniglie ...
OpenAI integra le app in ChatGPT per tra...
NVIDIA sarebbe pronta a tagliare la prod...
Prezzo minimo storico per iPhone 16 Pro:...
Riot Games scopre una falla nei BIOS che...
Beats in super offerta su Amazon: aurico...
Batterie elettriche, Samsung SDI e Stell...
Clivet presenta Fullness, la pompa di ca...
SpaceX lancerà 167 razzi spaziali...
Yakuza Kiwami 3 e Dark Ties protagonisti...
Privacy a rischio: ecco la VPN che regis...
SpaceX ha annunciato che un satellite St...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 09:03.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1