AMD pubblica una guida per eseguire OpenClaw in locale su Windows: ecco RyzenClaw e RadeonClaw

AMD pubblica una guida per eseguire OpenClaw in locale su Windows: ecco RyzenClaw e RadeonClaw

AMD ha pubblicato una guida per eseguire gli agenti AI di OpenClaw in locale su Windows usando due configurazioni hardware ribattezzate RyzenClaw e RadeonClaw. L'obiettivo è dimostrare la fattibilità di sistemi "Agent Computer" sempre attivi.

di pubblicata il , alle 16:01 nel canale Processori
RyzenRadeonAMD
 

AMD ha pubblicato una guida tecnica per eseguire OpenClaw, piattaforma open source per agenti AI autonomi, direttamente su sistemi locali basati su hardware Ryzen o Radeon. L'iniziativa si inserisce in quella che AMD definisce "Agent Computer", ovvero una nuova categoria di PC progettati per eseguire agenti AI in modo continuativo senza dipendere dal cloud. Qualcosa che richiama Perplexity Computer.

Nella visione di AMD e altre società, l'utente non interagisce direttamente con il sistema come con un normale PC, ma assegna compiti agli agenti, che possono poi eseguire applicazioni e servizi in autonomia. OpenClaw supporta infatti l'integrazione con diversi strumenti e servizi digitali e può operare sia con accesso completo al sistema sia in modalità sandbox, a seconda dei requisiti di sicurezza.

Clicca per ingrandire

Secondo l'azienda, molti utenti e organizzazioni potrebbero preferire soluzioni locali per motivi di controllo dei dati, costi operativi e assenza di limiti di utilizzo tipici dei servizi cloud. Un sistema dedicato potrebbe funzionare come una sorta di assistente permanente sempre attivo in casa o in ufficio, capace di gestire attività in autonomia tramite agenti software.

Clicca per ingrandire

La guida descrive due percorsi hardware distinti, denominati "RyzenClaw" e "RadeonClaw", entrambi progettati per eseguire OpenClaw su Windows utilizzando WSL2, LM Studio e l'inferenza locale dei modelli tramite llama.cpp.

RyzenClaw su sistemi con Ryzen AI Max+

Clicca per ingrandire

Il primo scenario prevede l'uso di una piattaforma basata su Ryzen AI Max+ con 128 GB di memoria unificata. AMD raccomanda di configurare 96 GB come memoria grafica variabile, così da offrire spazio sufficiente ai modelli linguistici. In questa configurazione OpenClaw può eseguire il modello Qwen 3.5 35B A3B, raggiungendo circa 45 token al secondo. AMD indica inoltre alcune capacità operative:

  • elaborazione di 10.000 token di input in circa 19,5 secondi
  • finestra di contesto fino a 260.000 token
  • supporto fino a sei agenti simultanei

La disponibilità di grandi quantità di memoria è il fattore che consente a questo sistema di sperimentare configurazioni di "agent swarm", ovvero più agenti che collaborano tra loro per portare a termine attività complesse.

RadeonClaw: prestazioni più elevate con GPU workstation

Il secondo approccio, chiamato RadeonClaw, utilizza invece una GPU Radeon AI PRO R9700 dotata di 32 GB di VRAM. In questo caso il sistema risulta sensibilmente più veloce con lo stesso modello AI:

  • circa 120 token al secondo
  • elaborazione di 10.000 token in circa 4,4 secondi

Il rovescio della medaglia è una minore capacità di parallelizzazione: la configurazione supporta solo due agenti contemporanei e offre una finestra di contesto di circa 190.000 token, inferiore rispetto alla piattaforma Ryzen AI Max+.

Clicca per ingrandire

Nonostante il potenziale tecnico, le configurazioni indicate da AMD restano per ora lontane dall'essere soluzioni mainstream. Un sistema basato su Ryzen AI Max+ con 128 GB di memoria, come ad esempio alcune configurazioni desktop dedicate, può superare i 2700 dollari senza includere lo storage. La GPU Radeon AI PRO R9700, invece, parte da circa 1300 dollari.

Di conseguenza, la proposta appare destinata soprattutto a sviluppatori ed early adopter interessati a sperimentare agenti AI locali piuttosto che al pubblico consumer. Ma, come si suol dire, tempo al tempo. Il concetto di AI agent sempre attivi in locale rappresenta una delle possibili e promettenti evoluzioni del mercato AI.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH14 Marzo 2026, 16:30 #1
Sarebe stato interessante quando i prezzi di ram ed ssd erano a livelli umani.
Rubberick14 Marzo 2026, 17:01 #2
si ma sta situazione non può continuare all'infinito prima o poi si fletterà
LMCH14 Marzo 2026, 19:32 #3
Originariamente inviato da: Rubberick
si ma sta situazione non può continuare all'infinito prima o poi si fletterà


Oppure potrebbe peggiorare se gli USA vogliono continuare l'attuale traiettoria autodistruttiva.
supertigrotto15 Marzo 2026, 11:01 #4
Un ragionamento sulle architetture.
Ci sono i tensor core/IA accelerator/xmx delle schede video che vengono usati per i "videogiochi" per creare immagini finte che alla fine,vengono anche usati per fare girare i modelli di IA ma non con poche difficoltà, difatti Windows fa girare solo la IA nelle CPU con le unità IA dedicate per non incappare nella frammentazione.
A questo punto conviene infarcire di più le CPU (cosa che a Nvidia potrebbe arrecare danno) di unità di elaborazione IA più che le GPU se vogliamo arrivare a computer con sistemi operativi agentici.
UtenteHD15 Marzo 2026, 20:37 #5
Originariamente inviato da: supertigrotto
Un ragionamento sulle architetture.
Ci sono i tensor core/IA accelerator/xmx delle schede video che vengono usati per i "videogiochi" per creare immagini finte che alla fine,vengono anche usati per fare girare i modelli di IA ma non con poche difficoltà, difatti Windows fa girare solo la IA nelle CPU con le unità IA dedicate per non incappare nella frammentazione.
A questo punto conviene infarcire di più le CPU (cosa che a Nvidia potrebbe arrecare danno) di unità di elaborazione IA più che le GPU se vogliamo arrivare a computer con sistemi operativi agentici.


Non vorrei sbagliarmi, ma su Github si trovano AI (ed altri siti di informatica si trovano info a riguardo) che ad esempio avviando .bat con Phyton con aggiunto i modelli necessari scaricandoli dai siti di storage ufficiali che una volta avviati funzionano anche solamente coi tensor cores con RTX media o bassa, ma per maggiori info devi vedere che non so bene.
Il DLSS delle RTX e l'FSR su Linux attivabile con stringa in Steam (e questo per ogni GPU e non solo RTX), per un giocatore entry level che punta a giocare intelligentemente ai triple A in risparmio energetico sono una giga manna dal Cielo.

Per articolo, ma questa AI non e' la stessa che è stato dimostrato che basta un comando nascosto nell'email o nella pagina web visitata per impartirle degli ordini ad insaputa per vero proprietario e le si fa fale quel che si vuole? Oppure che quando ha cambiato nome, hanno acquistato il precedente nome del sito web per sostituire i pacchetti con altri e via con eventuali problemi di sicurezza? Se è la stessa e non è un nome simile, anche avviarla in locale per poi darle comunque accesso ad internet, bah non la vedo bene.
Se invece e' un'altra, ok come non detto era un'altra.
s12a15 Marzo 2026, 22:34 #6
Originariamente inviato da: supertigrotto
Un ragionamento sulle architetture.
Ci sono i tensor core/IA accelerator/xmx delle schede video che vengono usati per i "videogiochi" per creare immagini finte che alla fine,vengono anche usati per fare girare i modelli di IA ma non con poche difficoltà, difatti Windows fa girare solo la IA nelle CPU con le unità IA dedicate per non incappare nella frammentazione.
A questo punto conviene infarcire di più le CPU (cosa che a Nvidia potrebbe arrecare danno) di unità di elaborazione IA più che le GPU se vogliamo arrivare a computer con sistemi operativi agentici.


Serve memoria a volontà e veloce principalmente, cosa che manca con le CPU a meno di configurazioni multichannel, mentre con le GPU consumer manca la quantità.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^