Redazione di Hardware Upg
21-07-2025, 09:41
Link alla notizia: https://www.hwupgrade.it/news/scienza-tecnologia/openai-l-ia-conquista-l-oro-all-olimpiade-internazionale-della-matematica-2025_141347.html
OpenAI ha annunciato che il suo più recente modello sperimentale di intelligenza artificiale ha vinto la medaglia d’oro all’International Math Olympiad 2025. È la prima volta che un’IA riesce ad avvicinarsi alle prestazioni dei migliori studenti internazionali
Click sul link per visualizzare la notizia.
TorettoMilano
21-07-2025, 09:43
impressionante, nemmeno io (e di solito elogio le IA) ipotizzavo già oggi l'IA potesse raggiungere questi risultati
hackaro75
21-07-2025, 10:13
la fine del genere umano si avvicina!
Alla faccia di chi dice che l'AI non sa fare matematica. :D
TorettoMilano
21-07-2025, 10:27
Alla faccia di chi dice che l'AI non sa fare matematica. :D
"non sa disegnare un triangolo rettangolo"... uno dei tanti commenti dei giorni scorsi :D
biometallo
21-07-2025, 10:59
"non sa disegnare un triangolo rettangolo"... uno dei tanti commenti dei giorni scorsi :D
Dimentichi che è partito con "e dire che qualche giorno fa c'ero riuscito a farglielo fare" e che ha documentato con screen shot ogni tentativo in cui poi si possono leggere anche le scuse di con chatGBT ha risposto:
"hai perfettamente ragione"
"hai ragione di nuovo e grazie per la pazienza"
E dal mio punto di vista tutto ciò ha ben più volere delle solite promesse dell'oste che ci fa sapere che il suo vino che sta ancora producendo è più migliore del grog di Muschio...
per chi si fosse perso la discussione lascio il link
https://www.hwupgrade.it/forum/showthread.php?t=3032556
pachainti
21-07-2025, 11:33
Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad (https://arxiv.org/abs/2503.21934)
Our results reveal that all tested models struggled significantly: only Gemini-2.5-Pro achieves a non-trivial score of 25%, while all other models achieve less than 5%. Through detailed analysis of reasoning traces, we identify the most common failure modes and find several unwanted artifacts arising from the optimization strategies employed during model training. Overall, our results suggest that current LLMs are inadequate for rigorous mathematical reasoning tasks, highlighting the need for substantial improvements in reasoning and proof generation capabilities.
L'articolo sopra di marzo 2025, sostiene un'altra tesi e l'evidenza parla da sola.
Confermato anche da questo di aprile 2025 Brains vs. Bytes: Evaluating LLM Proficiency in Olympiad Mathematics (https://arxiv.org/abs/2504.01995)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.