Muse Spark è qui: Meta abbandona l'open-source per competere con i grandi dell'AI
Meta ha presentato Muse Spark, primo modello pubblico di Meta Superintelligence Labs guidata da Alexandr Wang. Multimodale nativo con reasoning e multi-agent, è closed source e punta a colmare il gap con OpenAI, Google e Anthropic
di Andrea Bai pubblicata il 09 Aprile 2026, alle 10:43 nel canale WebMeta
Meta ha presentato Muse Spark, il primo modello pubblico sviluppato da Meta Superintelligence Labs (MSL), la divisione AI fondata da Mark Zuckerberg nella seconda metà del 2025 con l'obiettivo dichiarato di raggiungere la "superintelligenza personale". Il lancio rappresenta il culmine di nove mesi di lavoro intenso durante i quali il team ha ricostruito da zero l'intero AI stack dell'azienda, con un ritmo che secondo Meta non ha precedenti nei suoi cicli di sviluppo.
Alexandr Wang, Scale AI e i $14 miliardi
Per capire cosa rappresenta Muse Spark, bisogna partire da giugno 2025, quando Zuckerberg ha ingaggiato Alexandr Wang, fondatore e CEO di Scale AI, come Chief AI Officer di Meta nell'ambito di un investimento da 14 miliardi di dollari nella stessa Scale AI. Wang, 29 anni, è noto come uno dei più convinti sostenitori dei modelli chiusi nell'industria, e non a caso Muse Spark rappresenta una rottura netta rispetto alla tradizionale strategia open-source di Meta, che aveva costruito la sua reputazione proprio sulla famiglia Llama. MSL è stata concepita come un'unità separata, con budget e politiche di assunzione autonomi, dove Wang ha riunito alcuni dei ricercatori più pagati del settore con il mandato esplicito di colmare il gap con OpenAI, Anthropic e Google.
Il risultato di questo ciclo è Muse Spark (internamente il progetto era noto con il nome in codice Avocado), prima uscita della famiglia Muse, un approccio deliberatamente incrementale allo scaling: ogni generazione valida le ipotesi prima di passare alla scala successiva. Il modello iniziale è volutamente compatto e veloce per design, non una scommessa massimalista, ma una prova di funzionamento del nuovo framework. Meta stessa ammette che la prossima generazione è già in sviluppo.
Architettura e capacità tecniche
Muse Spark è un modello nativamente multimodale, addestrato per ragionare su testo, immagini e dati visivi complessi senza affidarsi a pipeline separate. Supporta tool-use, visual chain of thought e multi-agent orchestration: quest'ultima permette di lanciare più subagenti in parallelo per affrontare problemi articolati. L'esempio fornito da Meta è emblematico: pianificando un viaggio in Florida, un agente redige l'itinerario, un secondo confronta Orlando e i Keys, un terzo identifica attività adatte ai bambini. Tutto contemporaneamente, non in sequenza.

Il modello è disponibile in due modalità operative: Instant per risposte rapide e Thinking per task che richiedono ragionamento più profondo. Sul piano tecnico, Meta ha dichiarato che le nuove metodologie di training e l'infrastruttura aggiornata, sviluppate interamente all'interno del nuovo AI stack di MSL, consentono di ottenere prestazioni paragonabili al precedente Llama 4 con un ordine di grandezza di compute in meno.
Percezione visiva e ambito sanitario
Una delle aree in cui Meta ha investito più esplicitamente è la percezione visiva applicata al mondo reale. Con Muse Spark, il Meta AI assistant è in grado di analizzare foto scattate in tempo reale: scansionare uno scaffale di snack e classificarli per contenuto proteico, leggere etichette, confrontare prodotti con alternative. La visione è trattata come un layer di input nativo, non un'estensione opzionale.

L'ambito sanitario riceve un'attenzione particolare: Meta ha lavorato con un team di medici per affinare la capacità del modello di rispondere a domande cliniche complesse, incluse quelle che coinvolgono immagini diagnostiche e grafici. La salute è indicata come uno dei principali use case per cui gli utenti si rivolgono all'AI, il che spiega l'investimento in questa direzione. Quando Muse Spark arriverà sugli occhiali AI di Meta, questa capacità percettiva avrà ancora più senso: l'assistente potrà vedere l'ambiente fisico dell'utente e contestualizzare le risposte in tempo reale.
Strategia closed e distribuzione
Muse Spark, come già abbiamo detto, è un modello chiuso: né i pesi né l'architettura sono pubblicamente accessibili, in netta discontinuità con la strategia Llama che aveva fatto di Meta un punto di riferimento per la community open-source. Questa scelta è in larga parte coerente con la filosofia di Wang, da sempre scettico sull'apertura totale dei modelli frontier. Meta tuttavia non chiude del tutto la porta: l'azienda ha dichiarato esplicitamente di voler rilasciare versioni future del modello in open-source, inquadrando la scelta attuale come una misura temporanea legata alla fase di sviluppo, non come un cambio di rotta permanente. La strategia attuale e quella storica di Meta coesistono quindi come due binari paralleli: closed per i modelli MSL frontier, open per le iterazioni successive una volta consolidata l'architettura.
Al lancio, Muse Spark è disponibile su meta.ai e nell'app Meta AI negli Stati Uniti, con una private preview API per partner selezionati. Il rollout verso WhatsApp, Instagram, Facebook, Messenger e gli occhiali AI è previsto nelle prossime settimane. La nuova interfaccia dell'app include anche uno Shopping mode che aggrega ispirazioni di stile e contenuti brandizzati già presenti nelle app Meta, e un layer contestuale che integra post pubblici e contenuti locali direttamente nelle risposte dell'assistente.
Benchmark e gap con i competitor
Sul fronte delle prestazioni, Meta non nasconde che esistono aree di miglioramento strutturale, in particolare nel coding e nelle task agentiche complesse, dove Anthropic ha costruito un vantaggio consistente. L'azienda inquadra queste lacune non come punti di debolezza permanenti ma come priorità esplicite del prossimo ciclo di sviluppo: il framework di scaling validato con Muse Spark è esattamente il meccanismo su cui iterare per recuperare terreno. Nei task di writing e reasoning, invece, il modello si avvicina sensibilmente ai modelli di punta di Google e OpenAI. Il segnale più rilevante del lancio non è tanto il modello in sé quanto la conferma che il nuovo AI stack funziona: la prossima generazione della famiglia Muse è già in lavorazione.










Ecovacs Deebot X12 OmniCyclone: lava grazie a FocusJet
Narwal Flow 2: la pulizia di casa con un mocio a nastro
Tastiera gaming MSI GK600 TKL: switch hot-swap, display LCD e tre modalità wireless
Huawei punta sul canale europeo: per il 2026 target a oltre un miliardo di dollari
Ubuntu 26.04: le GPU guadagnano il 17% in più, in media, di prestazioni con il nuovo update
La Commissione UE registra l'iniziativa per un social network finanziato dai cittadini
SSD troppo cari? La soluzione alla crisi arriva dagli accessori Xbox
Anteprima mondiale Hyundai IONIQ 3: segmento B con design e tecnologia
Fintool sbarca su Microsoft 365: arrivano gli agenti IA per l'analisi finanziaria
Hanno chiesto 1 dollaro per salvare un MMORPG del 2008 e i fan ne hanno dati 1,8 milioni: il caso AdventureQuest Worlds
Arriva AgentExchange, il marketplace di agenti e applicazioni di Salesforce
Blizzard fa chiudere Turtle WoW: perché il server pirata era un problema per World of Warcraft
Claude Desktop e la modifica silenziosa al sistema: cosa installa Anthropic senza dirtelo
Blue Origin ha mostrato gli interni del lander lunare Blue Moon MK2 per le missioni Artemis
Linux alla pari di Windows in gioco: con Proton 11, Valve ha quasi azzerato il gap con l'OS di Microsoft
Il rientro del secondo stadio del razzo spaziale Blue Origin New Glenn genererà detriti che potrebbero arrivare a terra
Il controller ufficiale Microsoft per Xbox Series X|S, PC, Android e iOS è ora in offerta su Amazon, a soli 47€









1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoall'inizio si cresce sfruttando i muli dell'opensource.
E poi si passa all'incasso.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".