Google Gemini 2.5 batte quasi tutti gli umani all'ICPC: risolve un problema impossibile per 139 squadre

Google Gemini 2.5 batte quasi tutti gli umani all'ICPC: risolve un problema impossibile per 139 squadre

Gemini 2.5 di Google ha risolto 10 dei 12 complessi problemi matematici e algoritmici, tra cui uno che ha messo in difficoltà quasi tutti i partecipanti. Un risultato che secondo l’azienda rappresenta un segnale concreto dello sviluppo dell'IA verso l'intelligenza generale

di pubblicata il , alle 16:01 nel canale Scienza e tecnologia
GoogleGemini
 

Nell'arena sempre più agguerrita in cui si trovano a confrontarsi le Big Tech con i loro modelli di intelligenza artificiale generativa, un'ultima interessante dimostrazione di forza arriva da Google e dal suo Gemini 2.5 che ha partecipato alle finali mondiali dell’International Collegiate Programming Contest (ICPC) 2025, con un'impresa che, secondo il colosso di Mountain View, rappresenta “un passo significativo nel percorso verso l’intelligenza artificiale generale”.

L'ICPC vede ogni anno migliaia di studenti universitari competere e affrontare, in cinque ore di gara, una dozzina di complessi problemi algoritmici e di programmazione. Si tratta del più grande e longevo evento competitivo di questo tipo a livello mondiale. Per l’edizione 2025, Google ha collegato Gemini 2.5 Deep Think a un ambiente remoto approvato dall’organizzazione, consentendo però agli sfidanti umani un vantaggio iniziale di dieci minuti prima dell’ingresso in scena dell’IA.

A differenza di quanto avvenuto con l’International Mathematical Olympiad, dove Google aveva addestrato un modello specifico, in questo caso è stato utilizzato lo stesso Gemini 2.5 impiegato nelle applicazioni disponibili al pubblico. L’unica modifica rilevante è stata l’abilitazione a gestire ininterrottamente un elevato numero di “thinking tokens” per le cinque ore di gara, così da mantenere una catena di ragionamento estesa.

Gemini è riuscito a risolvere correttamente 10 problemi su 12, un traguardo che gli è valso la medaglia d’oro. Solo quattro dei 139 team universitari presenti sono riusciti a fare altrettanto. Come ha dichiarato Bill Poucher, direttore dell’ICPC: “La competizione ha sempre fissato i più alti standard nella risoluzione dei problemi. Il successo di Gemini rappresenta un momento chiave per definire i futuri strumenti accademici e di ricerca”.

Il regolamento dell’ICPC assegna punti solo in caso di soluzioni totalmente corrette, valutando nel punteggio anche il tempo impiegato. Gemini ha saputo risolvere con successo 8 problemi in appena 45 minuti e entro tre ore ne aveva risolti altri due. La risoluzione di 10 problemi in un tempo cumulativo di 667 minuti ha permesso a Gemini di posizionarsi al secondo posto tra le squadre partecipanti e una prestazione che Google definisce "gold-medal level".

L'aspetto più rilevante della prestazione di Gemini riguarda però un esercizio in particolare della competizione, che nessuna delle 139 squadre di partecipanti umani è riuscito a risolvere. Si è trattato di un esercizio di ottimizzazione sulle capacità di immagazzinamento e drenaggio di serbatoi fittizi, per il quale Gemini è riuscito, in 30 minuti, a trovare la configurazione ottimale applicando un particolare metodo di calcolo che nessuno degli altri partecipanti ha saputo intuire.

I coordinatori della competizione hanno convalidato i risultati, ma Google ha sottoposto Gemini anche a test interni su set di problemi delle edizioni 2023 e 2024, dove l’IA ha raggiunto nuovamente una performance da medaglia d’oro. Secondo l’azienda, prestazioni in contesti così avanzati potrebbero aprire prospettive significative in settori altamente complessi come l’ingegneria dei semiconduttori o le biotecnologie, grazie alla capacità di gestire problemi articolati con logiche multi-step.

15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
AlPaBo19 Settembre 2025, 16:48 #1
L'interpretazione data da Google è (volutamente) ingannevole. L'intelligenza logico deduttiva è solo uno dei vari tipi di intelligenza (per esempio in I 12 tipi d’intelligenza, quale possiedi? se ne citano appunto dodici.

La sola intelligenza logico deduttiva (peraltro quella più facile da implementare in un sistema automatico) è solo una piccola parte dell'intelligenza generale, per cui l'affermazione di Google è tutto meno che corretta.

Come al solito si fa della propaganda per sembrare miglio di quello che si è.
Fantapollo19 Settembre 2025, 17:08 #2
Gemini è nettamente piu' avanti di Chatgpt e Grok,
è l'IA che spiega meglio.

Provare per credere...

Google è stata abilissima a recuperare lo svantaggio.
sbaffo19 Settembre 2025, 18:48 #3
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: https://www.hwupgrade.it/news/scien...dre_143712.html

L'aspetto più rilevante della prestazione di Gemini riguarda però [U]un esercizio in particolare[/U] della competizione, [U]che nessuna delle 139 squadre di partecipanti umani è riuscito a risolvere[/U]
in compenso Gemini non ne ha risolti 2, non mi pare un gran vanto...

sarebbe utile sapere quanto ha consumato durante la competizione, le avranno dato accesso alla piena potenza dei datacenter per "gestire ininterrottamente un elevato numero di “thinking tokens” per le cinque ore di gara, così da mantenere una catena di ragionamento estesa."
Se ha usato potenze ed energia fuori scala, probabilmente quanto una città , per (non) battere degli studenti...
vorrei vedere contro i professori come va...

mi sembra un po quegli esperimenti di laboratorio sugli animali, tipo prendi un polipo e gli metti daventi un barattolo chiuso con un' esca dentro, a forza di tentativi imparerà a svitare il tappo per mangiare la preda. Oppure prendi mille topi/una bacinella di formiche, li metti in un labirinto, uno ce la fa ad uscire... allora è un genio dell'escapologia come houdini?
Miccia19 Settembre 2025, 19:38 #4
Originariamente inviato da: AlPaBo
L'interpretazione data da Google è (volutamente) ingannevole.


Non capisco cosa ci sia di ingannevole nel dire "un segnale concreto dello sviluppo dell'IA verso l'intelligenza generale"
LMCH19 Settembre 2025, 20:42 #5
Originariamente inviato da: Miccia
Non capisco cosa ci sia di ingannevole nel dire "un segnale concreto dello sviluppo dell'IA verso l'intelligenza generale"


È ingannevole perchè crolla, si autoincendia ed esplode se si pone il problema in termini leggermente diversi da quelli con cui è stato addestrato.

Tipo se si decora il testo del problema con frasi tipo "44 gattini in fila per 6 con resto di 2 danzano vestiti con tutu multicolore di misura adeguata attorno ai serbatoi esercitando un attrazione gravitazionale non nulla".
Darkon20 Settembre 2025, 08:09 #6
Originariamente inviato da: Fantapollo
Gemini è nettamente piu' avanti di Chatgpt e Grok,
è l'IA che spiega meglio.

Provare per credere...

Google è stata abilissima a recuperare lo svantaggio.


Non è vero, dipende dall'ambito in cui la esamini.

Ad esempio per la revisione del codice è spesso migliore chatGPT mentre per la verosimiglianza di una conversazione "umana" Grok.

Gemini è la migliore per la precisione su domande generaliste molto probabilmente perché ha google alle spalle con una mole di dati enorme.
barzokk20 Settembre 2025, 08:41 #7
Originariamente inviato da: AlPaBo
L'interpretazione data da Google è (volutamente) ingannevole. L'intelligenza logico deduttiva è solo uno dei vari tipi di intelligenza (per esempio in I 12 tipi d’intelligenza, quale possiedi? se ne citano appunto dodici.

La sola intelligenza logico deduttiva (peraltro quella più facile da implementare in un sistema automatico) è solo una piccola parte dell'intelligenza generale, per cui l'affermazione di Google è tutto meno che corretta.

Come al solito si fa della propaganda per sembrare miglio di quello che si è.

"Intelligenza naturalistica"

L’intelligenza naturalistica è la capacità di percepire le relazioni tra le specie e le persone, riconoscendo possibili differenze o somiglianze tra loro. Queste persone sono in grado di identificare, discernere, osservare e classificare membri di gruppi o specie di flora e fauna con relativa facilità.

ma vai per funghi và
semmai è una capacità, abilità, tarattatà,
e non un tipo di intelligenza.

Credere a questa gente è sintomo di scarsa intelligenza
pachainti20 Settembre 2025, 10:53 #8
Gli LLM non sono in grado di capire quello che stanno facendo, sanno "risolvere" problemi solo se hanno già visto istanze simili durante la fase di addestramento. Possono ricombinare soluzioni già viste, ma non capiscono minimamente le richieste di un problema.

2025 Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad
[I]Our results reveal that all tested models struggled significantly: only Gemini-2.5-Pro achieves a non-trivial score of 25%, while all other models achieve less than 5%. Through detailed analysis of reasoning traces, we identify the most common failure modes and find several unwanted artifacts arising from the optimization strategies employed during model training. Overall, our results suggest that current LLMs are inadequate for rigorous mathematical reasoning tasks, highlighting the need for substantial improvements in reasoning and proof generation capabilities.
[/I]
2025 Brains vs. Bytes: Evaluating LLM Proficiency in Olympiad Mathematics
[I]Our study reveals that current LLMs fall significantly short of solving challenging Olympiad-level problems and frequently fail to distinguish correct mathematical reasoning from clearly flawed solutions. Our analyses demonstrate that the occasional correct final answers provided by LLMs often result from pattern recognition or heuristic shortcuts rather than genuine mathematical reasoning. These findings underscore the substantial gap between LLM performance and human expertise in advanced mathematical reasoning and highlight the importance of developing benchmarks that prioritize the soundness of the reasoning used to arrive at an answer rather than the mere correctness of the final answers.
[/I]
sbaffo21 Settembre 2025, 18:38 #9
l'Ia "matematica" è già stata sputtanata da tempo anche da Apple:
https://arstechnica.com/ai/2024/10/...rchers-suggest/
basta cambiare qualche parametro, metterne qualcuno "inatteso", e sbarella. In pratica riesce a risolvere solo problemi già noti o molto simili, replicando soluzioni già trovate.
AlPaBo21 Settembre 2025, 21:02 #10
Originariamente inviato da: barzokk
"Intelligenza naturalistica"


ma vai per funghi và
semmai è una capacità, abilità, tarattatà,
e non un tipo di intelligenza.

Credere a questa gente è sintomo di scarsa intelligenza


Vedo che quado non capisci una definizione sbarelli.

Inoltre, che l'intelligenza non sia solo di tipo logico matematico e che ci sono molti tipi di intelligenza è ormai cosa ben nota. Ma tu prendi una definizione su dodici e credi di poter criticare i principi di base, del tutto condivisi in ambito scientifico. Una eccezionale dimostrazione di presunzione. Studia il problema prima di ciarlare a caso. Magari un po' di filosofia e psicologia.

Ma d'altra parte ho notato che fai sempre così: nei campi in cui non hai adeguate conoscenze usi "la scuola della vita", ovvero ti riferisci ai tuoi pregiudizi basati su una piccola conoscenza del mondo che frequenti.

Mi sa che i funghi li conosci meglio di me.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^