GPT-5.2 è la risposta di OpenAI a Google: nuovo salto di qualità per produttività, coding e analisi avanzata
OpenAI ha presentato GPT-5.2, nuova generazione di modelli con miglioramenti nel ragionamento, nella programmazione e nell'analisi di documenti complessi. Prestazioni record nei benchmark, contesto esteso fino a 256.000 token, maggiore affidabilità degli agenti e riduzione delle allucinazioni del 38%.
di Manolo De Agostini pubblicata il 12 Dicembre 2025, alle 06:01 nel canale WebChatGPTOpenAI
OpenAI ha annunciato GPT-5.2, una nuova generazione di modelli che l'azienda descrive come il modello "migliore di sempre per l'uso professionale quotidiano", grazie a miglioramenti tangibili nella creazione di fogli di calcolo e presentazioni, nella percezione delle immagini, nella scrittura di codice e nella comprensione di contesti estesi. Il rollout parte da ChatGPT - inizialmente per gli abbonati - e si estende all'API, dove la serie sostituisce la precedente GPT-5.1 come soluzione di punta.
Il lancio arriva a poche settimane dal debutto di GPT-5.1 e si inserisce in una fase di grande competizione del settore: anche Anthropic e Google hanno introdotto nuovi modelli nel corso dell'ultimo mese, spingendo OpenAI a dichiarare un vero e proprio "codice rosso" interno, con l'obiettivo di concentrare risorse sull'evoluzione di ChatGPT e accelerare lo sviluppo.

Sam Altman, CEO di OpenAI
"Abbiamo annunciato questo codice rosso per segnalare all'azienda che volevamo convogliare risorse in un'area specifica, definendo priorità e individuando ciò che poteva essere messo in secondo piano", ha spiegato Fidji Simo, CEO of applications di OpenAI. "È vero che abbiamo aumentato le risorse dedicate a ChatGPT in generale – e questo sicuramente aiuta il rilascio di questo modello – ma non è il motivo per cui esce proprio questa settimana". Simo ha aggiunto che l'integrazione di GPT-5.2 "è in lavorazione da molti, molti mesi", nonostante la rapida cadenza di aggiornamenti pubblici.
Sam Altman, CEO di OpenAI, ha sottolineato come la pressione competitiva sia reale ma gestibile. In un'intervista a CNBC ha affermato che il lancio del modello Gemini 3 da parte di Google "ha avuto un impatto minore sulle nostre metriche rispetto a quanto temuto inizialmente", aggiungendo di aspettarsi che OpenAI esca dallo stato di codice rosso entro gennaio. "Credo che quando emerge una minaccia competitiva sia giusto concentrarsi, affrontarla rapidamente e andare avanti", ha dichiarato.
La serie GPT-5.2 è articolata in tre varianti: Instant, orientata alla rapidità nell'accesso alle informazioni, nella scrittura tecnica e nella traduzione; Thinking, progettata per flussi di lavoro complessi e professionali come coding, analisi documentale, matematica e ragionamento strutturato; e Pro, pensata per domande tecniche ad alta difficoltà dove serve la massima accuratezza. Secondo OpenAI, gli utenti Enterprise risparmiavano già 40–60 minuti al giorno con i modelli precedenti, e GPT-5.2 punta a incrementare ulteriormente il valore economico generato nelle attività operative.

Sul fronte delle prestazioni, GPT-5.2 Thinking supera o eguaglia esperti umani nel 70,9% dei casi nel benchmark GDPval, che misura la qualità del lavoro informativo su 44 professioni. OpenAI afferma inoltre che il modello completa attività oltre 11 volte più velocemente rispetto a professionisti umani, con costi inferiori all'1%. Anche i risultati nei benchmark specialistici sono di alto livello: nel ragionamento scientifico GPQA Diamond, GPT-5.2 raggiunge il 92,4% (Thinking) e il 93,2% (Pro), mentre nei test di matematica avanzata ottiene il 40,3% in FrontierMath e risultati record in ARC-AGI—oltre il 90% nella versione Verified del primo test e il 52,9% in ARC-AGI-2, un nuovo massimo per modelli con chain-of-thought.
L'azienda evidenzia inoltre miglioramenti concreti nella programmazione. GPT-5.2 Thinking stabilisce un nuovo riferimento su SWE-bench Pro, con un punteggio del 55,6%, e raggiunge l'80% nella variante Verified. I partner che hanno testato in anteprima i modelli – tra cui Cursor, Windsurf, JetBrains e Azad – segnalano progressi significativi nelle attività di coding agentico, debug, generazione di patch e sviluppo front-end. OpenAI riconosce che Anthropic Opus 4.5 supera GPT-5.2 su SWE-bench Verified, ma ritiene che Pro sia un test "più resistente alla contaminazione, più sfidante, diversificato e rilevante a livello industriale".
Uno dei miglioramenti più sostanziali riguarda la gestione del contesto. Su OpenAI MRCRv2, GPT-5.2 Thinking si avvicina al 100% nel test "4 needle" fino a 256.000 token, consentendo analisi più affidabili di documenti estesi, contratti, report tecnici e progetti software multi-file. Sul fronte visivo, gli errori nell'interpretazione di grafici, dashboard e interfacce software risultano dimezzati rispetto alla generazione precedente, con progressi confermati in benchmark come CharXiv Reasoning e ScreenSpot-Pro.

La nuova serie mostra anche miglioramenti nella capacità di coordinare strumenti in flussi agentici complessi. Nel benchmark Tau2-bench Telecom, GPT-5.2 raggiunge il 98,7%, un risultato che si traduce – secondo OpenAI – in agenti più affidabili nella gestione di task end-to-end, riducendo la necessità di interventi manuali. Aziende come Triple Whale, Notion, Box, Shopify e Zoom riportano benefici concreti nell'analisi documentale, nel data science agentico e nei flussi multi-strumento.
Importanti anche i progressi nella riduzione delle allucinazioni: rispetto a GPT-5.1 Thinking, la nuova versione riduce del 38% gli errori generati su query anonime di ChatGPT. OpenAI segnala una gestione più attenta delle conversazioni sensibili, in particolare quelle che indicano disagio psicologico o dipendenza emotiva dall'IA, e l'introduzione di un nuovo modello di previsione dell'età per applicare automaticamente filtri aggiuntivi agli utenti minorenni.
GPT-5.2 è già in fase di rollout su ChatGPT per gli abbonati e disponibile tramite API per sviluppatori. Ulteriori dettagli sulle caratteristiche e capacità di GPT-5.2 li trovate a questo indirizzo.










Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Amazon aggiorna le offerte anche a metà settimana: 41 sconti attivi, 8 sono nuovi (li vedete in 2 minuti)
Trump elogia Microsoft: accordi con le Big Tech per ridurre l'impatto dei data center sulle bollette
L'Unione Europea scommette sul software open source per diventare indipendente nel digitale
In Cina parte la prima linea per batterie allo stato liquido-solido, ma cosa sono?
Un benchmark che mette in difficoltà la RTX 5090: arriva Radiance basato su raymarching
OnePlus nella bufera a Taiwan: emesso mandato d'arresto per il CEO Pete Lau
Arriva Hyper Hosting, la nuova offerta di Aruba per carichi di lavoro mission critical
Steam non si ferma più: nuovo record di utenti attivi in contemporanea
Venezuela, altro che petrolio: il tesoro segreto potrebbe chiamarsi Bitcoin
SK hynix: un nuovo impianto per produrre le memorie, ma non basterà a frenare i rincari
Facebook, cresce il furto di password con la tecnica browser-in-the-browser: ecco cosa sapere
Tesla lancia la nuova Model Y con 7 posti, solo Premium e 2.500 dollari in più
NVIDIA smentisce: nessun pagamento anticipato obbligatorio per le H200 destinate alla Cina









7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoIn realtà OpenAI stà facendo veri passi da gigante, sulla speculazione acquistando RAM solo per far aumentare i Prezzi.
Per fortuna non è l'unica a dare modelli di AI, anche se fosse piu potente a questo punto preferisco usare "ALTRO" e boicottare questa Azienda.
Uno dei padrini dell'IA e premio Turing 2018, LeCun, ha capito che gli LLM sono una strada chiusa e infatti sta sviluppando nuovi modelli.
Ne fanno a bizzeffe di passi avanti, forse dovresti un attimino documentarti sulla cosa.
Nuovi farmaci biologici per combattere asma grave, per dirne una in cui sono personalmente coinvolto, ma basta fare una rapida ricerca per vedere che si, di passi avanti ce ne sono stati diversi, per non parlare delle nuove tecniche di screening che proprio tramite IA permettono di analizzare meglio i risultati delle analisi come Tac e risonanze per scoprire con piu' efficacia eventuali problemi.
Uno dei padrini dell'IA e premio Turing 2018, LeCun, ha capito che gli LLM sono una strada chiusa e infatti sta sviluppando nuovi modelli.
bell'articolo, mi ci ritrovo
poi finirò di leggerlo ma intanto posto questo, che lo dico da anni
[I]This ability to apply existing knowledge to novel situations represents a profound gap between today's AI systems and human cognition. "A 17-year-old can learn to drive a car in about 20 hours of practice, even less, largely without causing any accidents," LeCun muses. "And we have millions of hours of training data of people driving cars, but we still don't have self-driving cars. So that means we're missing something really, really big."[/I]
poi finirò di leggerlo ma intanto posto questo, che lo dico da anni
[I]This ability to apply existing knowledge to novel situations represents a profound gap between today's AI systems and human cognition. "A 17-year-old can learn to drive a car in about 20 hours of practice, even less, largely without causing any accidents," LeCun muses. "And we have millions of hours of training data of people driving cars, but we still don't have self-driving cars. So that means we're missing something really, really big."[/I]
https://youtu.be/2HNjl_VipsA?t=975
io questo big gap non lo vedo mica!
poi finirò di leggerlo ma intanto posto questo, che lo dico da anni
[I]This ability to apply existing knowledge to novel situations represents a profound gap between today's AI systems and human cognition. "A 17-year-old can learn to drive a car in about 20 hours of practice, even less, largely without causing any accidents," LeCun muses. "And we have millions of hours of training data of people driving cars, but we still don't have self-driving cars. So that means we're missing something really, really big."[/I]
Questo è il limite del machine learning da quanto è nato. Come dice Peter Norvig: "We don't have better algorithms, we just have more data. More data beats clever algorithm, but better data beats more data."
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".