OpenAI lancia GPT-5.3-Codex-Spark: velocità estrema e latenza zero per i programmatori

OpenAI lancia GPT-5.3-Codex-Spark: velocità estrema e latenza zero per i programmatori

OpenAI ha reso disponibile GPT-5.3-Codex-Spark, una versione ottimizzata del modello di coding che sfrutta i chip Cerebras per garantire risposte quasi istantanee. L'obiettivo è facilitare le modifiche rapide e l'iterazione in tempo reale, sacrificando parte della complessità in favore di una fluidità operativa mai vista prima d'ora

di pubblicata il , alle 10:31 nel canale Web
OpenAI
 

OpenAI ha annunciato ufficialmente il rilascio in "research preview" di GPT-5.3-Codex-Spark, un modello linguistico espressamente progettato per ridurre al minimo i tempi di attesa durante la scrittura di codice.

Si tratta di una variante più snella rispetto al fratello maggiore GPT-5.3-Codex, costruita con un obiettivo preciso: eliminare la latenza che spesso interrompe il flusso di lavoro degli sviluppatori. La peculiarità tecnica principale risiede nell'infrastruttura hardware utilizzata; il modello gira infatti sui sistemi CS-3 di Cerebras, dotati del processore Wafer Scale Engine 3 (WSE-3).

La collaborazione con Cerebras ha permesso di raggiungere metriche di velocità notevoli, secondo OpenAI. In base ai dati diffusi, GPT-5.3-Codex-Spark è in grado di generare oltre 1000 token al secondo. L'ottimizzazione riguarda l'intera catena di trasmissione: il tempo necessario per visualizzare il primo token è stato dimezzato e l'overhead di elaborazione per singolo token è sceso del 30%. Queste prestazioni rendono l'interazione con l'IA percepibile come immediata, consentendo all'utente di interrompere, correggere o reindirizzare l'output in tempo reale, una dinamica molto diversa rispetto ai modelli tradizionali che richiedono lunghe attese per l'elaborazione di task complessi.

GPT-5.3-Codex-Spark: compromesso ideale tra velocità e ragionamento

Bisogna sottolineare che l'incremento di velocità comporta dei compromessi. I benchmark mostrano che, mentre la reattività è superiore, la capacità di risolvere problemi complessi in autonomia è inferiore rispetto alle versioni più pesanti. Nel test Terminal-Bench 2.0, il nuovo modello ha ottenuto un punteggio di accuratezza del 58,4%, posizionandosi sotto il 77,3% di GPT-5.3-Codex ma sopra il 46,1% della precedente versione mini. OpenAI posiziona dunque GPT-5.3-Codex-Spark come strumento ideale per il cosiddetto "rapid prototyping", il debugging veloce e le modifiche mirate, lasciando i compiti di architettura software o le operazioni a lungo termine ai modelli più capaci ma più lenti.

L'accesso è attualmente riservato agli utenti ChatGPT Pro attraverso l'applicazione Codex, la riga di comando (CLI) e l'estensione per VS Code. Il modello supporta una finestra di contesto di 128k ed è limitato, per ora, alla sola modalità testuale. OpenAI ha ribadito che continuerà a usare le GPU come alimentazione primaria per le sue tecnologie ad ampio consumo, ma diversificando l'offerta hardware può coprire al meglio casi d'uso specifici dove la latenza rappresenta un fattore critico. Qui potete trovare un esempio della velocità maggiore del nuovo modello, rispetto ai precedenti di dimensioni maggiori di OpenAI.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto13 Febbraio 2026, 12:09 #1
Ma come cerebras,non doveva essere tutta Nvidia la IA?
Non esiste sta cosa,Trump dovrebbe intervenire per fare sparire i lavoratori di cerebras e bombardare le fabbriche di cerebras per difendere il monopolio dell' amico Huang......
Ero sarcastico
Rubberick13 Febbraio 2026, 14:42 #2
non capisco perché vogliono togliere la 4.1 era velocissimo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^