Hai almeno 16GB di RAM? Ecco il nuovo modello di OpenAI che puoi installare subito
OpenAI lancia due modelli AI open-weight, gpt-oss-120b e gpt-oss-20b, scaricabili e gestibili in locale anche su piattaforme consumer. Sono testuali, facilmente personalizzabili, con prestazioni vicine ai modelli cloud proprietari e focus su privacy e sicurezza.
di Andrea Bai pubblicata il 06 Agosto 2025, alle 12:01 nel canale Scienza e tecnologiaOpenAI
OpenAI ha rilasciato i nuovi modelli gpt-oss-120b e gpt-oss-20b, che segnano il ritorno ai modelli open-weight dopo GPT-2 del 2019. Questi modelli sono scaricabili, gestibili direttamente su hardware privato e completamente open sotto licenza Apache 2.0, permettendo così agli sviluppatori di personalizzarli e adattarli a casi d’uso specifici. I due modelli sono pensati per esigenze diverse: la versione gpt-oss-20b è indirizzata agli utenti consumer e può girare su una macchina con almeno 16GB di memoria, mentre la gpt-oss-120b è pensata per workstation o server dotati di GPU con almeno 80GB di memoria ed è in grado di funzionare su una singola Nvidia H100, garantendo così accessibilità anche per chi ha elevate esigenze computazionali.
Architettura Mixture-of-Experts e chain of thought personalizzabile
Entrambi i modelli sfruttano una architettura Mixture-of-Experts (MoE), che consente di ridurre i parametri realmente attivi a ogni token, ottimizzando l’efficienza senza sacrificare le prestazioni. In particolare, gpt-oss-20b dispone di 21 miliardi di parametri totali, ma solo 3,6 miliardi sono attivi per token grazie a MoE; gpt-oss-120b raggiunge 117 miliardi di parametri totali, con 5,1 miliardi attivi per token. Entrambi supportano una finestra di contesto di 128.000 token, ideale per processi complessi e input di grandi dimensioni.
Un'altra caratteristica distintiva è il chain of thought (CoT) configurabile, che permette di impostare la "profondità" del ragionamento del modello direttamente nel prompt: livelli bassi garantiscono velocità e basso consumo di risorse, quelli alti una qualità di output superiore, a fronte di una maggiore latenza e richiesta computazionale.
Prestazioni, benchmark e limitazioni rispetto ai modelli proprietari
OpenAI sottolinea come le prestazioni dei nuovi modelli siano prossime a quelle delle versioni cloud proprietarie: gpt-oss-120b si avvicina al livello di o4-mini, mentre la versione più piccola, gpt-oss-20b, è vicina a o3-mini. I benchmark rilasciati dalla compagnia evidenziano risultati solidi in compiti di ragionamento, coding e utilizzo di strumenti, con percentuali di accuratezza elevate su test come AIME 2024 e MMLU, e una performance vicina ai modelli più avanzati in matematica e programmazione. Nei test di conoscenza generale i modelli proprietari OpenAI e concorrenti come Gemini Deep Think di Google mantengono ancora un vantaggio considerevole.

Nonostante la mancanza della multimodalità (i modelli sono solo testuali) e alcune altre limitazioni tecniche, OpenAI specifica che l’intento non è sostituire le proprie soluzioni cloud, ma offrire nuovi strumenti per chi necessita di controllo locale, latenza ridotta e maggiore privacy.
Come dicevamo, i modelli sono rilasciati con licenza Apache 2.0, consentendo una messa a punto e un eventuale utilizzo commerciale senza restrizioni di brevetto. OpenAI ribadisce l’attenzione alla sicurezza e all'affidabilità, dichiarando che anche in scenari "worst case" di tuning malevolo i modelli non hanno superato soglie di pericolosità elevate, grazie a una gerarchia di istruzioni e sistemi di alignment deliberati.
I nuovi modelli sono disponibili
su HuggingFace, mentre su GitHub
è presente la documentazione e invece direttamente da OpenAI sarà
possibile effettuare una prova grazie a versioni
stock messe liberamente a disposizione. Ulteriori dettagli nella model
card dedicata e nel post
sul blog ufficiale della compagnia.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
L'esperimento BASE del CERN è riuscito a trasportare dell'antimateria
Afeela è morta: chiusa definitivamente la collaborazione tra Sony e Honda per gli EV premium
Intel BOT altera i risultati, Geekbench invita a non fidarsi dei risultati delle CPU che lo supportano
Intel e AMD faticano a soddisfare la domanda consumer: CPU introvabili e attese fino a sei mesi
Microsoft e NVIDIA insieme per dare una scossa allo sviluppo del nucleare: l'IA per accelerare i tempi
Ring rinnova l'intera gamma video: 4K su batteria, PoE e nuovo caricatore solare tra le novità
Recensione Galaxy Buds4 Pro: le cuffie Samsung più belle e intelligenti
Spotify si arricchisce ancora: arriva SongDNA, tutto sulla tua musica preferita
I digital twin di AVEVA a supporto delle AI Factory di NVIDIA
Iliad non si ferma: clienti in crescita sia sul mobile sia per la fibra
XuanTie C950, il chip IA di Alibaba basato su RISC-V sarà prodotto a 5 nm
Volkswagen richiama 94.000 auto elettriche per rischio incendio nei moduli batteria
Le nuove LaserJet di HP portano la crittografia quantum-resistant su tutte le stampanti, dalle Pro alle Enterprise
FSR 4 gira sulla GPU di PS5 Pro, ma non sulle vecchie Radeon: AMD cosa aspetti?









14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoBeh, puoi sempre farle girare su CPU.
By(t)e
By(t)e
già, facendo un conto i core della cpu saranno al massimo 16, quelli della gpu 6000 o più... a sto punto carichiamolo direttamente su HDD meccanico, tanto il collo di bottiglia lo fa la cpu
Potrei tentare..
Potrei tentare..
Dai dai scaricala ti prego, poi facci qualche foto modificata e postala qui, tipo Jessica Alba NUDA, con la faccia di Rosy Bindi peró
non penso, però ci sono modelli più leggeri che occupano meno di 4GB di vram
Funziona meglio di quanto uno possa immaginare.
Certo, ci vuole calma e sangue freddo ad aspettare, però si fa
By(t)e
[B][SIZE="3"]EH ?[/SIZE][/B]
...lo sai vero che da grandi poteri derivano grandi responsabilità ?
Mi dispiace ma è un secco no la mia risposta !
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".