Hai almeno 16GB di RAM? Ecco il nuovo modello di OpenAI che puoi installare subito

Hai almeno 16GB di RAM? Ecco il nuovo modello di OpenAI che puoi installare subito

OpenAI lancia due modelli AI open-weight, gpt-oss-120b e gpt-oss-20b, scaricabili e gestibili in locale anche su piattaforme consumer. Sono testuali, facilmente personalizzabili, con prestazioni vicine ai modelli cloud proprietari e focus su privacy e sicurezza.

di pubblicata il , alle 12:01 nel canale Scienza e tecnologia
OpenAI
 

OpenAI ha rilasciato i nuovi modelli gpt-oss-120b e gpt-oss-20b, che segnano il ritorno ai modelli open-weight dopo GPT-2 del 2019. Questi modelli sono scaricabili, gestibili direttamente su hardware privato e completamente open sotto licenza Apache 2.0, permettendo così agli sviluppatori di personalizzarli e adattarli a casi d’uso specifici. I due modelli sono pensati per esigenze diverse: la versione gpt-oss-20b è indirizzata agli utenti consumer e può girare su una macchina con almeno 16GB di memoria, mentre la gpt-oss-120b è pensata per workstation o server dotati di GPU con almeno 80GB di memoria ed è in grado di funzionare su una singola Nvidia H100, garantendo così accessibilità anche per chi ha elevate esigenze computazionali.

Architettura Mixture-of-Experts e chain of thought personalizzabile

Entrambi i modelli sfruttano una architettura Mixture-of-Experts (MoE), che consente di ridurre i parametri realmente attivi a ogni token, ottimizzando l’efficienza senza sacrificare le prestazioni. In particolare, gpt-oss-20b dispone di 21 miliardi di parametri totali, ma solo 3,6 miliardi sono attivi per token grazie a MoE; gpt-oss-120b raggiunge 117 miliardi di parametri totali, con 5,1 miliardi attivi per token. Entrambi supportano una finestra di contesto di 128.000 token, ideale per processi complessi e input di grandi dimensioni.

Un'altra caratteristica distintiva è il chain of thought (CoT) configurabile, che permette di impostare la "profondità" del ragionamento del modello direttamente nel prompt: livelli bassi garantiscono velocità e basso consumo di risorse, quelli alti una qualità di output superiore, a fronte di una maggiore latenza e richiesta computazionale.

Prestazioni, benchmark e limitazioni rispetto ai modelli proprietari

OpenAI sottolinea come le prestazioni dei nuovi modelli siano prossime a quelle delle versioni cloud proprietarie: gpt-oss-120b si avvicina al livello di o4-mini, mentre la versione più piccola, gpt-oss-20b, è vicina a o3-mini. I benchmark rilasciati dalla compagnia evidenziano risultati solidi in compiti di ragionamento, coding e utilizzo di strumenti, con percentuali di accuratezza elevate su test come AIME 2024 e MMLU, e una performance vicina ai modelli più avanzati in matematica e programmazione. Nei test di conoscenza generale i modelli proprietari OpenAI e concorrenti come Gemini Deep Think di Google mantengono ancora un vantaggio considerevole.

Nonostante la mancanza della multimodalità (i modelli sono solo testuali) e alcune altre limitazioni tecniche, OpenAI specifica che l’intento non è sostituire le proprie soluzioni cloud, ma offrire nuovi strumenti per chi necessita di controllo locale, latenza ridotta e maggiore privacy.

Come dicevamo, i modelli sono rilasciati con licenza Apache 2.0, consentendo una messa a punto e un eventuale utilizzo commerciale senza restrizioni di brevetto. OpenAI ribadisce l’attenzione alla sicurezza e all'affidabilità, dichiarando che anche in scenari "worst case" di tuning malevolo i modelli non hanno superato soglie di pericolosità elevate, grazie a una gerarchia di istruzioni e sistemi di alignment deliberati.

I nuovi modelli sono disponibili su HuggingFace, mentre su GitHub è presente la documentazione e invece direttamente da OpenAI sarà possibile effettuare una prova grazie a versioni stock messe liberamente a disposizione. Ulteriori dettagli nella model card dedicata e nel post sul blog ufficiale della compagnia.

14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nevets8906 Agosto 2025, 12:33 #1
sbagliato.... 16GB di Vram, non memoria...
andbad06 Agosto 2025, 12:52 #2
Originariamente inviato da: nevets89
sbagliato.... 16GB di Vram, non memoria...


Beh, puoi sempre farle girare su CPU.

By(t)e
nevets8906 Agosto 2025, 12:59 #3
Originariamente inviato da: andbad
Beh, puoi sempre farle girare su CPU.

By(t)e


già, facendo un conto i core della cpu saranno al massimo 16, quelli della gpu 6000 o più... a sto punto carichiamolo direttamente su HDD meccanico, tanto il collo di bottiglia lo fa la cpu .
Saturn06 Agosto 2025, 13:04 #4
Ryzen 3950x, 128 GB RAM, ARC A770 16 GB.

Potrei tentare..
aqua8406 Agosto 2025, 13:09 #5
Originariamente inviato da: Saturn
Ryzen 3950x, 128 GB RAM, ARC A770 16 GB.

Potrei tentare..


Dai dai scaricala ti prego, poi facci qualche foto modificata e postala qui, tipo Jessica Alba NUDA, con la faccia di Rosy Bindi peró
Rubberick06 Agosto 2025, 13:39 #6
possono essere runnate cpu only anche se più lentamente con 16/32 gb di ram?
nevets8906 Agosto 2025, 13:41 #7
Originariamente inviato da: Rubberick
possono essere runnate cpu only anche se più lentamente con 16/32 gb di ram?


non penso, però ci sono modelli più leggeri che occupano meno di 4GB di vram
andbad06 Agosto 2025, 14:02 #8
Originariamente inviato da: nevets89
già, facendo un conto i core della cpu saranno al massimo 16, quelli della gpu 6000 o più... a sto punto carichiamolo direttamente su HDD meccanico, tanto il collo di bottiglia lo fa la cpu .


Funziona meglio di quanto uno possa immaginare.
Certo, ci vuole calma e sangue freddo ad aspettare, però si fa

By(t)e
UtenteHD06 Agosto 2025, 14:32 #9
Secondo me non e' errato in quanto richiedono mediamente sia 16GB di VRAM che di RAM, senza contare che alcune, anche quando non serve perche' ne hai tanta, richiedono attivo anche il file di swapping o ritornano errore.
Saturn06 Agosto 2025, 14:40 #10
@aqua84

[B][SIZE="3"]EH ?[/SIZE][/B]

...lo sai vero che da grandi poteri derivano grandi responsabilità ?

Mi dispiace ma è un secco no la mia risposta !

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^