Muse Spark è qui: Meta abbandona l'open-source per competere con i grandi dell'AI

Muse Spark è qui: Meta abbandona l'open-source per competere con i grandi dell'AI

Meta ha presentato Muse Spark, primo modello pubblico di Meta Superintelligence Labs guidata da Alexandr Wang. Multimodale nativo con reasoning e multi-agent, è closed source e punta a colmare il gap con OpenAI, Google e Anthropic

di pubblicata il , alle 10:43 nel canale Web
Meta
 

Meta ha presentato Muse Spark, il primo modello pubblico sviluppato da Meta Superintelligence Labs (MSL), la divisione AI fondata da Mark Zuckerberg nella seconda metà del 2025 con l'obiettivo dichiarato di raggiungere la "superintelligenza personale". Il lancio rappresenta il culmine di nove mesi di lavoro intenso durante i quali il team ha ricostruito da zero l'intero AI stack dell'azienda, con un ritmo che secondo Meta non ha precedenti nei suoi cicli di sviluppo.

Alexandr Wang, Scale AI e i $14 miliardi

Per capire cosa rappresenta Muse Spark, bisogna partire da giugno 2025, quando Zuckerberg ha ingaggiato Alexandr Wang, fondatore e CEO di Scale AI, come Chief AI Officer di Meta nell'ambito di un investimento da 14 miliardi di dollari nella stessa Scale AI. Wang, 29 anni, è noto come uno dei più convinti sostenitori dei modelli chiusi nell'industria, e non a caso Muse Spark rappresenta una rottura netta rispetto alla tradizionale strategia open-source di Meta, che aveva costruito la sua reputazione proprio sulla famiglia Llama. MSL è stata concepita come un'unità separata, con budget e politiche di assunzione autonomi, dove Wang ha riunito alcuni dei ricercatori più pagati del settore con il mandato esplicito di colmare il gap con OpenAI, Anthropic e Google.

Il risultato di questo ciclo è Muse Spark (internamente il progetto era noto con il nome in codice Avocado), prima uscita della famiglia Muse, un approccio deliberatamente incrementale allo scaling: ogni generazione valida le ipotesi prima di passare alla scala successiva. Il modello iniziale è volutamente compatto e veloce per design, non una scommessa massimalista, ma una prova di funzionamento del nuovo framework. Meta stessa ammette che la prossima generazione è già in sviluppo.

Architettura e capacità tecniche

Muse Spark è un modello nativamente multimodale, addestrato per ragionare su testo, immagini e dati visivi complessi senza affidarsi a pipeline separate. Supporta tool-use, visual chain of thought e multi-agent orchestration: quest'ultima permette di lanciare più subagenti in parallelo per affrontare problemi articolati. L'esempio fornito da Meta è emblematico: pianificando un viaggio in Florida, un agente redige l'itinerario, un secondo confronta Orlando e i Keys, un terzo identifica attività adatte ai bambini. Tutto contemporaneamente, non in sequenza.

Il modello è disponibile in due modalità operative: Instant per risposte rapide e Thinking per task che richiedono ragionamento più profondo. Sul piano tecnico, Meta ha dichiarato che le nuove metodologie di training e l'infrastruttura aggiornata, sviluppate interamente all'interno del nuovo AI stack di MSL, consentono di ottenere prestazioni paragonabili al precedente Llama 4 con un ordine di grandezza di compute in meno.

Percezione visiva e ambito sanitario

Una delle aree in cui Meta ha investito più esplicitamente è la percezione visiva applicata al mondo reale. Con Muse Spark, il Meta AI assistant è in grado di analizzare foto scattate in tempo reale: scansionare uno scaffale di snack e classificarli per contenuto proteico, leggere etichette, confrontare prodotti con alternative. La visione è trattata come un layer di input nativo, non un'estensione opzionale.

L'ambito sanitario riceve un'attenzione particolare: Meta ha lavorato con un team di medici per affinare la capacità del modello di rispondere a domande cliniche complesse, incluse quelle che coinvolgono immagini diagnostiche e grafici. La salute è indicata come uno dei principali use case per cui gli utenti si rivolgono all'AI, il che spiega l'investimento in questa direzione. Quando Muse Spark arriverà sugli occhiali AI di Meta, questa capacità percettiva avrà ancora più senso: l'assistente potrà vedere l'ambiente fisico dell'utente e contestualizzare le risposte in tempo reale.

Strategia closed e distribuzione

Muse Spark, come già abbiamo detto, è un modello chiuso: né i pesi né l'architettura sono pubblicamente accessibili, in netta discontinuità con la strategia Llama che aveva fatto di Meta un punto di riferimento per la community open-source. Questa scelta è in larga parte coerente con la filosofia di Wang, da sempre scettico sull'apertura totale dei modelli frontier. Meta tuttavia non chiude del tutto la porta: l'azienda ha dichiarato esplicitamente di voler rilasciare versioni future del modello in open-source, inquadrando la scelta attuale come una misura temporanea legata alla fase di sviluppo, non come un cambio di rotta permanente. La strategia attuale e quella storica di Meta coesistono quindi come due binari paralleli: closed per i modelli MSL frontier, open per le iterazioni successive una volta consolidata l'architettura.

Al lancio, Muse Spark è disponibile su meta.ai e nell'app Meta AI negli Stati Uniti, con una private preview API per partner selezionati. Il rollout verso WhatsApp, Instagram, Facebook, Messenger e gli occhiali AI è previsto nelle prossime settimane. La nuova interfaccia dell'app include anche uno Shopping mode che aggrega ispirazioni di stile e contenuti brandizzati già presenti nelle app Meta, e un layer contestuale che integra post pubblici e contenuti locali direttamente nelle risposte dell'assistente.

Benchmark e gap con i competitor

Sul fronte delle prestazioni, Meta non nasconde che esistono aree di miglioramento strutturale, in particolare nel coding e nelle task agentiche complesse, dove Anthropic ha costruito un vantaggio consistente. L'azienda inquadra queste lacune non come punti di debolezza permanenti ma come priorità esplicite del prossimo ciclo di sviluppo: il framework di scaling validato con Muse Spark è esattamente il meccanismo su cui iterare per recuperare terreno. Nei task di writing e reasoning, invece, il modello si avvicina sensibilmente ai modelli di punta di Google e OpenAI. Il segnale più rilevante del lancio non è tanto il modello in sé quanto la conferma che il nuovo AI stack funziona: la prossima generazione della famiglia Muse è già in lavorazione.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Fantapollo09 Aprile 2026, 10:55 #1
Come accaduto tante volte in passato,
all'inizio si cresce sfruttando i muli dell'opensource.

E poi si passa all'incasso.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^