Microsoft lancia un mini modello AI 10 volte più veloce: così cambia tutto per il mobile e l'edge

Microsoft lancia un mini modello AI 10 volte più veloce: così cambia tutto per il mobile e l'edge

Si chiama Phi-4-mini-flash-reasoning ed è il nuovo modello AI di Microsoft pensato per dispositivi compatti: più rapido, efficiente e preciso anche su hardware limitato. Tutto merito della nuova architettura SambaY

di pubblicata il , alle 10:46 nel canale Telefonia
Microsoft
 

Microsoft ha annunciato Phi-4-mini-flash-reasoning, un nuovo modello linguistico compatto che promette di rivoluzionare le applicazioni AI locali in esecuzione su smartphone, dispositivi edge e sistemi embedded. L'obiettivo è chiaro: offrire capacità di ragionamento avanzate senza dipendere dal cloud.

Il modello è basato su una nuova architettura denominata SambaY, che introduce un sistema di Gated Memory Unit (GMU) per lo scambio efficiente di informazioni tra le varie parti del modello. Questo consente una gestione ottimizzata del contesto anche in conversazioni lunghe o input complessi.

Phi-4-mini-flash-reasoning

Phi-4-mini-flash-reasoning si distingue per un throughput fino a 10 volte superiore rispetto agli altri modelli Phi, con una latenza ridotta da 2 a 3 volte. In pratica, è in grado di generare risposte o completare task con maggiore rapidità, pur funzionando su dispositivi meno potenti.

Le prestazioni lo rendono adatto a scenari in cui velocità e privacy sono essenziali. Può essere integrato in assistenti locali, strumenti di tutoraggio interattivo, app educative e sistemi di valutazione automatica con logiche adattive. Il supporto al ragionamento matematico e strutturato lo rende particolarmente indicato per ambienti scolastici e simulazioni leggere.

Phi-4-mini-flash-reasoning

L'esecuzione locale evita inoltre che i dati vengano inviati a server remoti con l'obiettivo di rafforzare la riservatezza delle informazioni trattate. Questa caratteristica diventa cruciale per applicazioni sensibili, come quelle in ambito medico o educativo, dove l'AI può operare senza condivisione esterna dei dati.

Phi-4-mini-flash-reasoning è già disponibile su Azure AI Foundry, NVIDIA API Catalog e Hugging Face. Apre così la porta a una nuova generazione di applicazioni AI ad alte prestazioni ma a basso impatto hardware.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^