Anthropic lancia Dispatch: è l'inizio della fine per OpenClaw?
Anthropic lancia Dispatch per Claude Cowork: assegna task all'agente AI dallo smartphone e Claude li elabora sul desktop, in locale, dentro la sandbox. Research preview attiva ora per i piani Max e Pro
di Andrea Bai pubblicata il 19 Marzo 2026, alle 08:25 nel canale WebAnthropic
Anthropic ha presentato Dispatch, una nuova funzione di Claude Cowork disponibile come research preview: permette di assegnare task all'agente AI direttamente dallo smartphone, mentre Claude li esegue in autonomia sul computer fisso. La comunicazione è bidirezionale e persistente e ciò significa un unico thread continuo che non si azzera tra una sessione e l'altra, sincronizzato tra desktop e mobile in tempo reale.
Il rollout è partito il 17 marzo 2026 per gli abbonati Max, mentre gli utenti Pro hanno iniziato a ricevere l'accesso proprio nelle scorse ore. Per usare Dispatch servono l'ultima versione di Claude Desktop (macOS oppure Windows x64, ma a breve arriverà anche il supporto per Snapdragon) e l'ultima versione dell'app Claude per iOS o Android, entrambe attive e connesse a internet.
Come funziona nella pratica
Il setup è semplice: nella sezione Cowork del client desktop compare una nuova voce "Dispatch" nel pannello laterale sinistro. Avviandola, il sistema genera un codice QR da scansionare con lo smartphone per accoppiare i due dispositivi. Completato l'abbinamento, nell'app mobile compare il pannello Dispatch: da lì si possono inviare istruzioni testuali a Claude, che le elabora in locale sulla macchina desktop all'interno della sandbox di Cowork.
L'architettura è intenzionalmente analoga a quella di Remote Control, la funzione gemella già disponibile per Claude Code riservata agli sviluppatori da terminale. La logica è la stessa: il motore di esecuzione rimane sul desktop, il telefono è il pannello di controllo remoto. I file non escono mai dalla macchina dell'utente e non transitano per i server di Anthropic; prima di agire su documenti o cartelle, Claude mostra in anticipo le operazioni pianificate e chiede conferma esplicita.

Assegnato un task dallo smartphone, come ad esempio "compila il report dal foglio di calcolo in Documenti", "cerca nelle email di ieri e scrivi un briefing", "organizza i file in questa cartella", l'utente può chiudere l'app e tornare più tardi a recuperare il risultato. Al momento la versione research preview di Dispatch non notifica il completamento del lavoro, ma il file prodotto è accessibile sia da mobile sia direttamente sul desktop, alla posizione indicata dall'agente.
Dispatch segue una traiettoria coerente con la strategia di Anthropic per Cowork. Lanciato a gennaio 2026 come evoluzione di Claude Code rivolta ai non-sviluppatori, Cowork ha aggiunto plugin agentici a fine gennaio e task ricorrenti e schedulabili a fine febbraio: la gestione remota è la naturale prosecuzione di questo percorso. L'obiettivo dichiarato è passare da un assistente conversazionale a un agente operativo a cui si delegano task strutturati senza dover monitorare ogni passaggio del processo.
Connettori e plugin già disponibili, ma alcune limitazioni
Dispatch eredita automaticamente tutta la configurazione già presente in Cowork: connettori, plugin e permessi di accesso ai file non vanno reimpostati per l'utilizzo da mobile. Questo significa che dall'iPhone si può già accedere a Slack, email, Google Drive o qualsiasi altro servizio collegato, senza passaggi aggiuntivi.
We're shipping a new feature in Claude Cowork as a research preview that I'm excited about: Dispatch!
— Felix Rieseberg (@felixrieseberg) March 17, 2026
One persistent conversation with Claude that runs on your computer. Message it from your phone. Come back to finished work.
To try it out, download Claude Desktop, then pair… pic.twitter.com/r6OH46Ll89
Felix Rieseberg, Member of Technical Staff di Anthropic, ha presentato la funzione su X descrivendo l'esperienza come "magical" e citando come caso d'uso emblematico la possibilità di generare report da dashboard interne mentre si è fuori sede. "Tutto ciò che Claude può fare sul tuo computer - file, navigazione, strumenti - diventa raggiungibile ovunque tu sia".
Anthropic ha inoltre evidenziato alcune limitazioni attuali. Il computer deve essere acceso e l'app Claude Desktop aperta: se la macchina va in standby o il processo viene chiuso, l'agente non può completare i task in coda. Non sono disponibili, come già detto, notifiche push al termine di un'elaborazione, né è possibile gestire thread multipli d conversazione. Inoltre i task ricorrenti o programmati rimangono separati da Dispatch e si gestiscono tramite la sezione dedicata di Cowork.
Claude agisce esclusivamente sui task che riceve: non invia messaggi proattivi, non avvia operazioni autonome e non reagisce a eventi sul desktop senza istruzione esplicita. Il client web non è ancora supportato come punto di accesso per inviare task al desktop e al momento l'unico ingresso valido rimane l'app mobile accoppiata.
Sicurezza: una catena di agenti da gestire con attenzione
Anthropic dedica ampio spazio alle implicazioni di sicurezza nella documentazione ufficiale. Collegare un agente mobile a uno desktop crea una catena in cui un'istruzione inviata dallo smartphone può innescare azioni reali sul computer: lettura, spostamento o cancellazione di file locali, interazioni con servizi connessi, controllo del browser. Un'istruzione manipolata, un comando inatteso o un link di phishing aperto nel browser potrebbe propagarsi in operazioni difficili o impossibili da annullare.
Anthropic raccomanda di verificare la fiducia in ogni app e servizio nella catena, di sapere esattamente quali file e account sono accessibili tramite i connettori configurati, e di conoscere le procedure per disconnettere rapidamente l'accesso in caso di comportamenti anomali. Il principio guida è valutare non solo quello che si intende fare con Dispatch, ma quello che l'agente potrebbe fare se ricevesse istruzioni non previste, comprese quelle introdotte da contenuti malevoli che l'agente stesso potrebbe incontrare durante l'esecuzione dei task.
Dispatch vs OpenClaw: soluzioni a confronto
L'arrivo di Dispatch rende inevitabile il confronto con OpenClaw, il progetto open source self-hosted di Peter Steinberger ora disponibile anche su Amazon Lightsail in configurazione pre-built con Amazon Bedrock.
La prima differenza rilevante è il modello di distribuzione: Dispatch è un'estensione dell'ecosistema Claude e pertanto funziona solo con i modelli di Anthropic come motore, richiede un abbonamento Pro o Max (dai 20 ai 200 dollari al mese), e il computer deve restare acceso con l'app Desktop aperta. OpenClaw è gratuito, gira come daemon di sistema (e cioè sopravvive ai riavvii e lavora anche quando il computer è in standby) ed è model-agnostic: funziona con Claude, GPT, DeepSeek, Gemini, modelli gratuiti disponibili su OpenRouter e modelli locali via Ollama.
Sul fronte del controllo remoto, OpenClaw ha un vantaggio strutturale: non richiede un'app dedicata, ma si aggancia ai canali di messaggistica già in uso come WhatsApp, Telegram, Slack, Discord, Signal e iMessage. Dispatch invece funziona esclusivamente tramite l'app Claude su iOS o Android. OpenClaw include anche task schedulati via cron nativi, memoria persistente e oltre 700 skill estensibili mentre Dispatch delega i task ricorrenti a una sezione separata di Cowork e non ha ancora notifiche push al completamento.
Dispatch mette a disposizione un'esperienza più integrata e con guardrail di sicurezza più rigidi, pensata per chi già vive nell'ecosistema Claude e non ha intenzione di voler gestire un'infrastruttura o, semplicemente, non ha le competenze per farlo. OpenClaw offre, come sappiamo, libertà totale (scelta del modello, canale di comunicazione, configurazione avanzata) ma richiede che sia l'utente ad occuparsi di tutto: installazione, configurazione e soprattutto una soglia di attenzione alla sicurezza più alta. Abbiamo già visto in passato come configurazioni sommarie di OpenClaw consentano di ampliare in maniera considerevole le potenziali superfici di attacco.
La funzione, come dicevamo, è ancora in research preview e in questa fase sarà utilizzata principalmente, sia dagli utenti sia da Anthropic stessa, a valutare il tasso di successo su operazioni complesse.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi
Melania Trump scortata da un robot umanoide alla Casa Bianca. Il video è virale
HONOR 600: nuove conferme sulle specifiche del nuovo mid-range con batteria enorme
Blade 16: Razer sostituisce AMD con Intel, e i prezzi volano
Solo 649€ con coupon: questa e-bike da città HillMiles ha 100 km di autonomia, batteria rimovibile IP65 ed è in offerta in 3 colori
Arriva AI Dividend: 1.000 dollari al mese per chi ha perso il lavoro a causa dell'intelligenza artificiale
Forza Horizon 6 sorprende con requisiti PC accessibili e supporto al gaming handheld fin dal lancio









18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPerò pensandoci in effetti. Sono appassionato di gaming, sono a casa di un amico e voglio fargli vedere dove sono arrivato a un gioco o vogliamo giocare a casa sua partendo dal mio salvataggio, ma non lo abbiamo perché l'idea c'è venuta sul momento. Apro il telefono e dico a CoWork di prendere la folder dei salvataggi del gioco, zipparla e inviarla via email se piccola all'amico , altrimenti copiarla nella mia cartella cloud public.
È la prima cosa che mi è venuta in mente, ma come al solito quando si parla di IA, il limite è l'immaginazione
Però pensandoci in effetti. Sono appassionato di gaming, sono a casa di un amico e voglio fargli vedere dove sono arrivato a un gioco o vogliamo giocare a casa sua partendo dal mio salvataggio, ma non lo abbiamo perché l'idea c'è venuta sul momento. Apro il telefono e dico a CoWork di prendere la folder dei salvataggi del gioco, zipparla e inviarla via email se piccola all'amico , altrimenti copiarla nella mia cartella cloud public.
È la prima cosa che mi è venuta in mente, ma come al solito quando si parla di IA, il limite è l'immaginazione
Nulla che non si potrebbe fare con strumenti tipo Google remote desktop..o tailscale per i più avanzati
Certo dal telefono controllare il desktop di un computer è un bel casino... ma sinceramente non so se mi fiderò mai di un LLM che può agire autonomamente sul mio filesystem...magari in un ambiente super isolato si
Certo dal telefono controllare il desktop di un computer è un bel casino... ma sinceramente non so se mi fiderò mai di un LLM che può agire autonomamente sul mio filesystem...magari in un ambiente super isolato si
E' appunto quella la differenza, lo scrivere in linguaggio naturale (o parlare) a un dispositivo che capisce perfettamente quello che gli stai chiedendo, anche se lo dici a callo di cane, rispetto a dover manualmente fare la cosa tu, in remoto, dal telefono.
Davvero non vedete l'enorme e impressionante balzo in avanti a cui ci stanno portanto gli LLM proprio e soprattutto nella maniera con cui interagiamo con le macchine?
Davvero non vedete l'enorme e impressionante balzo in avanti a cui ci stanno portanto gli LLM proprio e soprattutto nella maniera con cui interagiamo con le macchine?
Lo vedo eccome ma per altre cose
Da qui a fidarmi a lasciare in mano il mio filesystem ad un LLM però....in una sandbox si...
Da qui a fidarmi a lasciare in mano il mio filesystem ad un LLM però....in una sandbox si...
CoWork mi pare lavori su cartelle a cui dai accesso.
Quello che ho scritto io è un esempio del futuro, perché il futuro sarò quello eh, non si useranno più mouse e tastiera, ma la voce, come Tony Stark fa con JARVIS.
Un esempio più attuale può essere se hai una folder in cui hai documenti per un progetto che l'agente sta analizzando per creare un report, ad esempio. Sei in treno e usi il telefono per vedere il report, cos' ti fai una idea, poi chiedi magari di prendere le parti più significative dei documenti che ritieni più importanti, metterle in un unico documento, schematizzandolo in linguaggio "aziendale, e quando fatto inviarlo via email a chi di dovere.
Ad esempio.
Quello che ho scritto io è un esempio del futuro, perché il futuro sarò quello eh, non si useranno più mouse e tastiera, ma la voce, come Tony Stark fa con JARVIS.
Un esempio più attuale può essere se hai una folder in cui hai documenti per un progetto che l'agente sta analizzando per creare un report, ad esempio. Sei in treno e usi il telefono per vedere il report, cos' ti fai una idea, poi chiedi magari di prendere le parti più significative dei documenti che ritieni più importanti, metterle in un unico documento, schematizzandolo in linguaggio "aziendale, e quando fatto inviarlo via email a chi di dovere.
Ad esempio.
Chiaro, ma sono tutte cose che faccio già con il semplice chatbot...
Ok mi costa qualche operazione in più manuale... innegabile
Cioè mi sembra che la vera rivoluzione sia già avvenuta e queste siano solo ciliegine e fiocchetti vari...con il costo nascosto di avere un entità che può fare anche dei danni....
Ok mi costa qualche operazione in più manuale... innegabile
Cioè mi sembra che la vera rivoluzione sia già avvenuta e queste siano solo ciliegine e fiocchetti vari...con il costo nascosto di avere un entità che può fare anche dei danni....
Che vuol dire che le fai col semplice chatbot? Che chatbot? Serve un agente per lavorare sulla macchina e con altri strumenti (app), il chatbot (Claude in questo caso) è una chat che nasce e muore su server Anthropic, mica altro.
I danni li può fare anche un umano, come un software qualsiasi, ti fidi che 7zip comprima una cartella correttamente? Ecco in futuro ti fiderai che l'agente IA farà il lavoro correttamente.
I danni li può fare anche un umano, come un software qualsiasi, ti fidi che 7zip comprima una cartella correttamente? Ecco in futuro ti fiderai che l'agente IA farà il lavoro correttamente.
Scarico il PDF sul cellulare, apro app di gemini, invio il PDF e faccio la domanda...
È quello che in teoria farebbe un agente in automatico..a me non pesa così tanto fare quel genere di lavoro manuale a tal punto da voler affidare il mio filesystem ad un agente pur di liberarmene..
Cioè secondo me la rivoluzione è nella risposta che ottieni non nel modo di arrivarci..
Davvero non vedete l'enorme e impressionante balzo in avanti a cui ci stanno portanto gli LLM proprio e soprattutto nella maniera con cui interagiamo con le macchine?
Ci siamo già passati da sta cosa, quando si diceva
"controlleremo l'aria condizionata con la voce, non vedete l'incredibile salto in avanti?"
Stiamo rimettendo i pulsanti in macchina...
C'è una differenza sostanziale che pochi apprezzano: la specificità dell'informazione.
Un CAD ha mille pulsanti per funzioni specifiche, se li conosco tutti, con mouse e tastiera sono un treno a fare tutto.
Se mi metti una finestra dove posso scrivere quello che voglio, sono veramente più efficace?
Se passo al linguaggio naturale (voce o testo) devo descrivere tutto, ma proprio tutto.
Non è necessariamente "meglio".
Tra "Win+L" e "scusa claude, mi locchi il computer?" quale vince?
Come sempre, dipende...
"controlleremo l'aria condizionata con la voce, non vedete l'incredibile salto in avanti?"
Stiamo rimettendo i pulsanti in macchina...
C'è una differenza sostanziale che pochi apprezzano: la specificità dell'informazione.
Un CAD ha mille pulsanti per funzioni specifiche, se li conosco tutti, con mouse e tastiera sono un treno a fare tutto.
Se mi metti una finestra dove posso scrivere quello che voglio, sono veramente più efficace?
Se passo al linguaggio naturale (voce o testo) devo descrivere tutto, ma proprio tutto.
Non è necessariamente "meglio".
Tra "Win+L" e "scusa claude, mi locchi il computer?" quale vince?
Come sempre, dipende...
None
La rivoluzione o il vantaggio non è poter parlare (scrivere) in linguaggio naturale con qualcosa, è che questo qualcosa capisce, indipendentemente da come glielo dici e da cosa gli chiedi.
Con l'introduzione dei Transformer (Attention Is All You Need, 2017, di 9 ricercatori Google), che sarebbe la T di GPT, la IA non riconosce più pattern rigidi (come prima per ad esempio i sw a controllo vocale, coem anche Siri), ma invece costruisce rappresentazioni del significato. La vera rivoluzione è questo, il self-attention che pesa l'importanza relativa delle parole e i contextual embeddings per cui la stessa parola cambia significato in base al contesto: Banca è un istituto in un contesto, una panchina in un altro. CHe tra l'altro erano stati sviluppati per la traduzione, gli LLM sono un effetto collaterale della tecnologia, che però per questi necessita di un ulteriore passaggio: il pre-training massivo che permette al modello di costruirsi una mappa probabilistica del linguaggio e la memoria, porcaccia, la memoria.
Questa è la differenza, questa è la rivoluzione rispetto a qualsiasi SW, vocale o meno, chattabile o meno, precedente.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".