OpenAI, l'IA conquista l'oro all'Olimpiade Internazionale della Matematica 2025

OpenAI, l'IA conquista l'oro all'Olimpiade Internazionale della Matematica 2025

OpenAI ha annunciato che il suo più recente modello sperimentale di intelligenza artificiale ha vinto la medaglia d’oro all’International Math Olympiad 2025. È la prima volta che un’IA riesce ad avvicinarsi alle prestazioni dei migliori studenti internazionali

di pubblicata il , alle 10:41 nel canale Scienza e tecnologia
OpenAI
 

Un risultato storico ha segnato l’edizione 2025 dell’International Math Olympiad (IMO): OpenAI ha annunciato che il proprio modello linguistico sperimentale ha ottenuto una prestazione da medaglia d’oro in quella che è considerata la più prestigiosa e difficile competizione matematica mondiale per studenti delle scuole superiori. Alexander Wei, ricercatore OpenAI specializzato in ragionamento e modelli di linguaggio, ha rivelato in un post su X che l’IA della società è riuscita nella cosiddetta "grand challenge" dell’intelligenza artificiale: competere e primeggiare nei problemi dell’IMO con abilità paragonabili a quelle dei migliori matematici umani.

Secondo Wei, il modello (che non è ancora disponibile al pubblico) è stato sottoposto alle stesse condizioni degli studenti: due sessioni di 4 ore e mezza senza strumenti esterni né accesso a Internet, lavorando esclusivamente sulle tracce ufficiali e scrivendo le proprie dimostrazioni in linguaggio naturale. Il risultato è stato strabiliante: cinque problemi risolti su sei, per un totale di 35 punti su 42, un punteggio che nella classifica reale garantiva la medaglia d’oro, assegnata quest’anno solo a 67 partecipanti sui 630 complessivi.

I problemi dell’IMO sono noti per il loro livello di difficoltà e creatività richiesta: si tratta di esercizi apparentemente semplici, ma che esigono ragionamenti molto sofisticati, deduzioni originali e capacità di formalizzazione. L’IA di OpenAI non solo ha risolto la maggioranza delle prove, ma ha anche prodotto argomentazioni dettagliate e verificate da un collegio di tre ex-medagliati della gara. Solo su uno dei sei problemi, il più complesso del test (il cosiddetto “P6”), il modello non è riuscito a proporre una soluzione valida.

Wei ha sottolineato il valore del traguardo raggiunto: “Abbiamo ottenuto un modello in grado di produrre argomentazioni intricate e inoppugnabili, a livello dei matematici umani”. Sam Altman, CEO di OpenAI, ha rimarcato come questa dimostrazione apra nuovi orizzonti: l’IA ha ora la capacità di affrontare compiti creativi e complessi, superando la tradizionale specializzazione nei soli dati strutturati o le operazioni ripetitive. Tuttavia, sia Wei che Altman hanno chiarito che questa versione non verrà resa pubblica nel breve termine: la futura versione di GPT-5, in arrivo nei prossimi mesi, rappresenterà certamente un passo avanti rispetto ai modelli disponibili attualmente, ma non includerà ancora la capacità di competere a livello IMO, che resta appannaggio dell’attuale prototipo di ricerca.

L’evento segna un’evoluzione rapidissima nel campo dell’IA applicata al ragionamento matematico. Fino a pochi anni fa, secondo molti esperti, una simile performance era considerata fantascienza: la previsione di Wei stesso, fatta solo nel 2021, era che entro il 2025 un’IA avrebbe superato il 30% nel benchmark MATH, ben al di sotto del risultato realmente raggiunto. Questo successo, secondo OpenAI, è stato possibile non grazie a metodologie specializzate su singole tipologie di problemi, bensì tramite nuove tecniche di reinforcement learning generalizzato e l’impiego di maggiore potenza computazionale in fase di inferenza.

La notizia sottolinea il ritmo incessante dell’innovazione nell’IA e lascia intravedere scenari futuribili non più tanto lontani: dai progressi in matematica pura e crittografia fino all’applicazione nelle discipline scientifiche e ingegneristiche avanzate. GPT-5 sarà presto lanciato, ma le capacità dimostrate all’IMO 2025 saranno probabilmente ancora esclusiva del modello sperimentale. 

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TorettoMilano21 Luglio 2025, 10:43 #1
impressionante, nemmeno io (e di solito elogio le IA) ipotizzavo già oggi l'IA potesse raggiungere questi risultati
hackaro7521 Luglio 2025, 11:13 #2
la fine del genere umano si avvicina!
Unrue21 Luglio 2025, 11:23 #3
Alla faccia di chi dice che l'AI non sa fare matematica.
TorettoMilano21 Luglio 2025, 11:27 #4
Originariamente inviato da: Unrue
Alla faccia di chi dice che l'AI non sa fare matematica.


"non sa disegnare un triangolo rettangolo"... uno dei tanti commenti dei giorni scorsi
biometallo21 Luglio 2025, 11:59 #5
Originariamente inviato da: TorettoMilano
"non sa disegnare un triangolo rettangolo"... uno dei tanti commenti dei giorni scorsi


Dimentichi che è partito con "e dire che qualche giorno fa c'ero riuscito a farglielo fare" e che ha documentato con screen shot ogni tentativo in cui poi si possono leggere anche le scuse di con chatGBT ha risposto:

"hai perfettamente ragione"
"hai ragione di nuovo e grazie per la pazienza"

E dal mio punto di vista tutto ciò ha ben più volere delle solite promesse dell'oste che ci fa sapere che il suo vino che sta ancora producendo è più migliore del grog di Muschio...


per chi si fosse perso la discussione lascio il link

https://www.hwupgrade.it/forum/showthread.php?t=3032556
pachainti21 Luglio 2025, 12:33 #6
Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad
Our results reveal that all tested models struggled significantly: only Gemini-2.5-Pro achieves a non-trivial score of 25%, while all other models achieve less than 5%. Through detailed analysis of reasoning traces, we identify the most common failure modes and find several unwanted artifacts arising from the optimization strategies employed during model training. Overall, our results suggest that current LLMs are inadequate for rigorous mathematical reasoning tasks, highlighting the need for substantial improvements in reasoning and proof generation capabilities.

L'articolo sopra di marzo 2025, sostiene un'altra tesi e l'evidenza parla da sola.

Confermato anche da questo di aprile 2025 Brains vs. Bytes: Evaluating LLM Proficiency in Olympiad Mathematics

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^