Vitruvian-1-M, finalmente disponibile l'IA generativa nata in Italia: cos'è e come provarla

Vitruvian-1-M, finalmente disponibile l'IA generativa nata in Italia: cos'è e come provarla

La startup italiana ASC27 ha lanciato Vitruvian-1-M, un modello di IA generativa di dimensioni ridotte, ma capace di offrire prestazioni di livello ottimale. Con soli 14 miliardi di parametri, il sistema punta a sfidare i big del settore grazie a un approccio innovativo focalizzato sull'efficienza e sul ragionamento.

di pubblicata il , alle 12:31 nel canale Web
 

L'intelligenza artificiale made in Italy fa un passo avanti con il lancio di Vitruvian-1-M, il nuovo modello linguistico di grandi dimensioni sviluppato dalla startup romana ASC27. Annunciato dal CEO Nicola Grandis, Vitruvian-1-M si propone come alternativa efficiente e competitiva ai sistemi di IA generativa più noti, puntando su un approccio ottimizzato che privilegia la qualità dei dati e le capacità di ragionamento rispetto alla pura potenza computazionale.

Vitruvian-1-M

Nonostante conti "solo" 14 miliardi di parametri, una frazione rispetto ai modelli più grandi come GPT-4, Vitruvian-1-M ha già dimostrato prestazioni di rilievo in benchmark cruciali. Il sistema ha ottenuto un punteggio del 95,5% nel test MATH, che valuta le capacità di risoluzione matematica, e del 90,2% nel MMLU, che misura la comprensione linguistica e il ragionamento su diversi argomenti.

Un approccio data-centric ed efficiente per l'IA made in Italy

Il segreto dietro le prestazioni di Vitruvian-1-M risiede nel suo approccio data-centric e nell'architettura di addestramento avanzata. ASC27 ha costruito un dataset di 120 miliardi di token, selezionati attraverso un rigoroso processo di filtraggio basato su un classificatore derivato da Llama-3.2-1B. Sfruttando questa peculiare metodologia, la società ha permesso di eliminare contenuti di bassa qualità e garantire l'inclusione solo di fonti affidabili, creando una base di conoscenza solida e precisa.

Il modello gode inoltre dell'implementazione del chain-of-thought reasoning, che gli consente di avere capacità avanzate di ragionamento: la tecnica consente al modello di affrontare problemi complessi fornendo risposte articolate e coerenti, rendendolo particolarmente adatto per applicazioni che richiedono un'analisi approfondita e un ragionamento deduttivo. ASC27 ha implementato anche meccanismi di filtraggio automatico per ridurre rumore e ridondanze nei dati, migliorando la stabilità dell'addestramento e riducendo il rischio di output errati. Il sistema è stato progettato per consentire il tracciamento e la documentazione delle decisioni, riducendo il rischio di risposte opache o influenzate da bias non monitorati.

Per provare Vitruvian-1-M, gli interessati possono visitare il sito ufficiale del progetto in cui è disponibile il modello in versione beta pubblica. ASC27 ha inoltre annunciato che ogni utente riceverà 1 milione di token per effettuare test e sperimentazioni. Insomma, il lancio del nuovo modello di ASC27 è decisamente ambizioso, con Vitruvian-1-M che potrebbe diventare un punto di riferimento per l'IA in Italia, offrendo un'alternativa nazionale ai giganti tecnologici stranieri.

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
UtenteHD18 Febbraio 2025, 15:04 #1
Ottimi risultati, bravissimi, speriamo bene per l'Italia anche in questo settore.
Poi, discorso generale, ma ora tutti creano IA cosi', ma c'e' un base open di partenza, o che? Chiedo perche' in generale ora sono velocissimi a creare un prodotto dai buoni risultati come base.
Grazie.
s12a18 Febbraio 2025, 16:52 #2
Hanno preso Microsoft Phi-4 14B e continuato l'addestramento per 120 miliardi di token con i loro dati; non hanno sviluppato un nuovo modello da zero.

Dallo striminzito technical report:
https://storage.googleapis.com/vitr...vian-1-rev1.pdf

4 Continued Pretraining
We initialize our base models from the Phi-4 decoder-only transformer, chosen for its parameter efficiency and few-shot capabilities. We aim to improve its capabilities and performance on a subset of European languages.
DrEight19 Febbraio 2025, 09:13 #3
Originariamente inviato da: s12a
Hanno preso Microsoft Phi-4 14B e continuato l'addestramento per 120 miliardi di token con i loro dati; non hanno sviluppato un nuovo modello da zero.

Dallo striminzito technical report:
https://storage.googleapis.com/vitr...vian-1-rev1.pdf


Grazie stavo proprio cercando questa info, perché mi sembrava solo una operazione di marketing. Praticamente sono uno dei 1.4M di modelli fine tuned presenti su hugging face. Visto che sono romani, mi sembra appropriato il termine para*uli

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^