OpenAI, l'IA conquista l'oro all'Olimpiade Internazionale della Matematica 2025
OpenAI ha annunciato che il suo più recente modello sperimentale di intelligenza artificiale ha vinto la medaglia d’oro all’International Math Olympiad 2025. È la prima volta che un’IA riesce ad avvicinarsi alle prestazioni dei migliori studenti internazionali
di Andrea Bai pubblicata il 21 Luglio 2025, alle 10:41 nel canale Scienza e tecnologiaOpenAI
Un risultato storico ha segnato l’edizione 2025 dell’International Math Olympiad (IMO): OpenAI ha annunciato che il proprio modello linguistico sperimentale ha ottenuto una prestazione da medaglia d’oro in quella che è considerata la più prestigiosa e difficile competizione matematica mondiale per studenti delle scuole superiori. Alexander Wei, ricercatore OpenAI specializzato in ragionamento e modelli di linguaggio, ha rivelato in un post su X che l’IA della società è riuscita nella cosiddetta "grand challenge" dell’intelligenza artificiale: competere e primeggiare nei problemi dell’IMO con abilità paragonabili a quelle dei migliori matematici umani.
Secondo Wei, il modello (che non è ancora disponibile al pubblico) è stato sottoposto alle stesse condizioni degli studenti: due sessioni di 4 ore e mezza senza strumenti esterni né accesso a Internet, lavorando esclusivamente sulle tracce ufficiali e scrivendo le proprie dimostrazioni in linguaggio naturale. Il risultato è stato strabiliante: cinque problemi risolti su sei, per un totale di 35 punti su 42, un punteggio che nella classifica reale garantiva la medaglia d’oro, assegnata quest’anno solo a 67 partecipanti sui 630 complessivi.
1/N I’m excited to share that our latest @OpenAI experimental reasoning LLM has achieved a longstanding grand challenge in AI: gold medal-level performance on the world’s most prestigious math competition—the International Math Olympiad (IMO). pic.twitter.com/SG3k6EknaC
— Alexander Wei (@alexwei_) July 19, 2025
I problemi dell’IMO sono noti per il loro livello di difficoltà e creatività richiesta: si tratta di esercizi apparentemente semplici, ma che esigono ragionamenti molto sofisticati, deduzioni originali e capacità di formalizzazione. L’IA di OpenAI non solo ha risolto la maggioranza delle prove, ma ha anche prodotto argomentazioni dettagliate e verificate da un collegio di tre ex-medagliati della gara. Solo su uno dei sei problemi, il più complesso del test (il cosiddetto “P6”), il modello non è riuscito a proporre una soluzione valida.
Wei ha sottolineato il valore del traguardo raggiunto: “Abbiamo ottenuto un modello in grado di produrre argomentazioni intricate e inoppugnabili, a livello dei matematici umani”. Sam Altman, CEO di OpenAI, ha rimarcato come questa dimostrazione apra nuovi orizzonti: l’IA ha ora la capacità di affrontare compiti creativi e complessi, superando la tradizionale specializzazione nei soli dati strutturati o le operazioni ripetitive. Tuttavia, sia Wei che Altman hanno chiarito che questa versione non verrà resa pubblica nel breve termine: la futura versione di GPT-5, in arrivo nei prossimi mesi, rappresenterà certamente un passo avanti rispetto ai modelli disponibili attualmente, ma non includerà ancora la capacità di competere a livello IMO, che resta appannaggio dell’attuale prototipo di ricerca.
L’evento segna un’evoluzione rapidissima nel campo dell’IA applicata al ragionamento matematico. Fino a pochi anni fa, secondo molti esperti, una simile performance era considerata fantascienza: la previsione di Wei stesso, fatta solo nel 2021, era che entro il 2025 un’IA avrebbe superato il 30% nel benchmark MATH, ben al di sotto del risultato realmente raggiunto. Questo successo, secondo OpenAI, è stato possibile non grazie a metodologie specializzate su singole tipologie di problemi, bensì tramite nuove tecniche di reinforcement learning generalizzato e l’impiego di maggiore potenza computazionale in fase di inferenza.
La notizia sottolinea il ritmo incessante dell’innovazione nell’IA e lascia intravedere scenari futuribili non più tanto lontani: dai progressi in matematica pura e crittografia fino all’applicazione nelle discipline scientifiche e ingegneristiche avanzate. GPT-5 sarà presto lanciato, ma le capacità dimostrate all’IMO 2025 saranno probabilmente ancora esclusiva del modello sperimentale.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
L'esperimento BASE del CERN è riuscito a trasportare dell'antimateria
Afeela è morta: chiusa definitivamente la collaborazione tra Sony e Honda per gli EV premium
Intel BOT altera i risultati, Geekbench invita a non fidarsi dei risultati delle CPU che lo supportano
Intel e AMD faticano a soddisfare la domanda consumer: CPU introvabili e attese fino a sei mesi
Microsoft e NVIDIA insieme per dare una scossa allo sviluppo del nucleare: l'IA per accelerare i tempi
Ring rinnova l'intera gamma video: 4K su batteria, PoE e nuovo caricatore solare tra le novità
Recensione Galaxy Buds4 Pro: le cuffie Samsung più belle e intelligenti
Spotify si arricchisce ancora: arriva SongDNA, tutto sulla tua musica preferita
I digital twin di AVEVA a supporto delle AI Factory di NVIDIA
Iliad non si ferma: clienti in crescita sia sul mobile sia per la fibra
XuanTie C950, il chip IA di Alibaba basato su RISC-V sarà prodotto a 5 nm
Volkswagen richiama 94.000 auto elettriche per rischio incendio nei moduli batteria
Le nuove LaserJet di HP portano la crittografia quantum-resistant su tutte le stampanti, dalle Pro alle Enterprise
FSR 4 gira sulla GPU di PS5 Pro, ma non sulle vecchie Radeon: AMD cosa aspetti?









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info"non sa disegnare un triangolo rettangolo"... uno dei tanti commenti dei giorni scorsi
Dimentichi che è partito con "e dire che qualche giorno fa c'ero riuscito a farglielo fare" e che ha documentato con screen shot ogni tentativo in cui poi si possono leggere anche le scuse di con chatGBT ha risposto:
"hai perfettamente ragione"
"hai ragione di nuovo e grazie per la pazienza"
E dal mio punto di vista tutto ciò ha ben più volere delle solite promesse dell'oste che ci fa sapere che il suo vino che sta ancora producendo è più migliore del grog di Muschio...
per chi si fosse perso la discussione lascio il link
https://www.hwupgrade.it/forum/showthread.php?t=3032556
Our results reveal that all tested models struggled significantly: only Gemini-2.5-Pro achieves a non-trivial score of 25%, while all other models achieve less than 5%. Through detailed analysis of reasoning traces, we identify the most common failure modes and find several unwanted artifacts arising from the optimization strategies employed during model training. Overall, our results suggest that current LLMs are inadequate for rigorous mathematical reasoning tasks, highlighting the need for substantial improvements in reasoning and proof generation capabilities.
L'articolo sopra di marzo 2025, sostiene un'altra tesi e l'evidenza parla da sola.
Confermato anche da questo di aprile 2025 Brains vs. Bytes: Evaluating LLM Proficiency in Olympiad Mathematics
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".