View Full Version : Un programmatore polacco ha battuto l'IA di OpenAI in un prestigioso concorso di coding
Redazione di Hardware Upg
21-07-2025, 08:31
Link alla notizia: https://www.hwupgrade.it/news/web/un-programmatore-polacco-ha-battuto-l-ia-di-openai-in-un-prestigioso-concorso-di-coding_141330.html
Alle AtCoder World Tour Finals 2025 di Tokyo, il programmatore polacco Przemysław Dębiak ha superato l'IA di OpenAI in una sfida di programmazione durata 10 ore. Con creatività e determinazione, l'ex ingegnere di OpenAI ha prevalso, dimostrando che l'ingegno umano può ancora battere le macchine. Almeno per ora.
Click sul link per visualizzare la notizia.
TorettoMilano
21-07-2025, 08:35
in realtà è una vittoria dell'IA, del resto solo un umano ha battuto l'IA ed è arrivato al limite mentre l'IA rimane fresca e pronta a lavorare infinito.
comunque una IA ha vinto le internationa math olympiad
https://ihal.it/openai-oro-imo-2025/
Hiei3600
21-07-2025, 08:58
Sarà battuto il prossimo anno con la prossima major release dell AI in questione non raccontiamoci favole... Solo perché i migliori programmatori sono più capaci di un IA non significa granché, è un po' come dire che visto che l'1% degli umani può nuotare più velocemente di un merluzzo allora l'umanità può nuotare più veloce di un merluzzo (dico un pesce a caso non ho idea di quale pesce sarebbe adeguato per questo esempio)... No, non significa niente, significa solo che un élite di persone eccezionali è in grado di fare meglio di un pesce o un IA, tutto qui.
Io veramente detesto quando si usa un eccezione per fondare una regola generale...
TorettoMilano
21-07-2025, 09:08
Sarà battuto il prossimo anno con la prossima major release dell AI in questione non raccontiamoci favole... Solo perché i migliori programmatori sono più capaci di un IA non significa granché, è un po' come dire che visto che l'1% degli umani può nuotare più velocemente di un merluzzo allora l'umanità può nuotare più veloce di un merluzzo (dico un pesce a caso non ho idea di quale pesce sarebbe adeguato per questo esempio)... No, non significa niente, significa solo che un élite di persone eccezionali è in grado di fare meglio di un pesce o un IA, tutto qui.
Io veramente detesto quando si usa un eccezione per fondare una regola generale...
in realtà l'articolo, già dai sottotitoli, esprime quanto da te esposto. quel "almeno per ora" è abbastanza eloquente
Quindi ricapitolando.. una IA partecipa per la prima volta ad una sfida tra programmatori direi molto più che sgamati.. ed ARRIVA SECONDA asfaltando tutti tranne uno.
ok. :stordita:
Piedone1113
21-07-2025, 09:23
Quindi ricapitolando.. una IA partecipa per la prima volta ad una sfida tra programmatori direi molto più che sgamati.. ed ARRIVA SECONDA asfaltando tutti tranne uno.
ok. :stordita:
La parte più importante no eh?
La parte più importante no eh?
Dici questa?
Nonostante l'eccezionale performance della macchina, gli organizzatori hanno sottolineato come la vittoria umana sia dipesa da un approccio creativo e non convenzionale. "OpenAI ha mostrato un'enorme capacità di ottimizzazione, ma è mancata la componente creativa che solo un essere umano può offrire", ha dichiarato Yoichi Iwata, amministratore del torneo.
La etichetto come cazzata. ;)
pachainti
21-07-2025, 11:39
LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming? (https://arxiv.org/abs/2506.11928)
We introduce LiveCodeBench Pro, a benchmark composed of problems from Codeforces, ICPC, and IOI that are continuously updated to reduce the likelihood of data contamination. A team of Olympiad medalists annotates every problem for algorithmic categories and conducts a line-by-line analysis of failed model-generated submissions. Using this new data and benchmark, we find that frontier models still have significant limitations: without external tools, the best model achieves only 53% pass@1 on medium-difficulty problems and 0% on hard problems, domains where expert humans still excel. We also find that LLMs succeed at implementation-heavy problems but struggle with nuanced algorithmic reasoning and complex case analysis, often generating confidently incorrect justifications. High performance appears largely driven by implementation precision and tool augmentation, not superior reasoning.
Senza poter copiare da terze parti, le prestazioni sono a dir poco scadenti.
Piedone1113
21-07-2025, 12:02
LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming? (https://arxiv.org/abs/2506.11928)
We introduce LiveCodeBench Pro, a benchmark composed of problems from Codeforces, ICPC, and IOI that are continuously updated to reduce the likelihood of data contamination. A team of Olympiad medalists annotates every problem for algorithmic categories and conducts a line-by-line analysis of failed model-generated submissions. Using this new data and benchmark, we find that frontier models still have significant limitations: without external tools, the best model achieves only 53% pass@1 on medium-difficulty problems and 0% on hard problems, domains where expert humans still excel. We also find that LLMs succeed at implementation-heavy problems but struggle with nuanced algorithmic reasoning and complex case analysis, often generating confidently incorrect justifications. High performance appears largely driven by implementation precision and tool augmentation, not superior reasoning.
Senza poter copiare da terze parti, le prestazioni sono a dir poco scadenti.
Quello che ho scritto prima: se un problema è stato gia risolto l'IA ci becca, ma se è un nuovo probblema o un contesto completamente inesplorato l'IA non ha nessuna possibilità di capirlo, figuriamoci risolverlo.
Gnubbolo
21-07-2025, 12:24
perchè invece l'uomo avrebbe capacità di risolvere questi "problemi" inesplorati ? mai successo.
infatti usa la matematica che ha esplorato fin da quando è bambino, e poi usa questi mezzi ampiamente esplorati per trovare una soluzione al problema.
Piedone1113
21-07-2025, 13:47
perchè invece l'uomo avrebbe capacità di risolvere questi "problemi" inesplorati ? mai successo.
infatti usa la matematica che ha esplorato fin da quando è bambino, e poi usa questi mezzi ampiamente esplorati per trovare una soluzione al problema.
Perchè la matematica ti sembra finita?
Lo sai vero che la matematica è una convenzione creata dall'uomo e non un valore assoluto?
Ti sembra forse che l'IA abbia inventato la matematica o semplicemente inventato il modo di tenere traccia della quantità di merce contenuto in un deposito quando l'uomo non era ancora in grrado di formulare nemmeno il principio dell'addizione?
Chi ha inventato questa tipologia di IA la matematica?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.