Redazione di Hardware Upg
05-08-2025, 12:17
Link alla notizia: https://www.hwupgrade.it/news/web/l-intelligenza-artificiale-che-riflette-prima-di-dare-una-risposta-ecco-gemini-deep-think_141940.html
Google ha rilasciato Gemini 2.5 Deep Think, il suo modello AI più avanzato, ora disponibile per gli abbonati AI Ultra. Basato su un'architettura multi-agente, il modello ha già superato Grok 4 di xAI e o3 di OpenAI
Click sul link per visualizzare la notizia.
Non è una novità il reasoning negli LLM...
42
Infatti! Non c'era bisogno di "esplorare simultaneamente molteplici ipotesi prima di formulare una risposta definitiva" quando questa è già stata ottenuta.
randorama
05-08-2025, 16:39
Infatti! Non c'era bisogno di "esplorare simultaneamente molteplici ipotesi prima di formulare una risposta definitiva" quando questa è già stata ottenuta.
a quale domanda?
supertigrotto
05-08-2025, 18:34
Per ora sarà gratis la IA di base ma prepariamoci a un futuro di abbonamenti.
Almeno che non ci salverà la IA locale dei nostri PC
pachainti
08-08-2025, 10:10
Ancora con questa storia del ragionamento? Gli LLM sono generatori di stronzate: chatGPT is bullshit (https://link.springer.com/article/10.1007/s10676-024-09775-5)
Rodney Brooks’ Three Laws of Artificial Intelligence (https://rodneybrooks.com/rodney-brooks-three-laws-of-artificial-intelligence/)
Three laws of Artificial Intelligence, about how people perceive AI systems, about how they operate in the world and how difficult it is to make them general purpose in any sense.
1) When an AI system performs a task, human observers immediately estimate its general competence in areas that seem related. Usually that estimate is wildly overinflated.
2) Most successful AI deployments have a human somewhere in the loop (perhaps the person they are helping) and their intelligence smooths the edges.
3) Without carefully boxing in how an AI system is deployed there is always a long tail of special cases that take decades to discover and fix. Paradoxically all those fixes are AI-complete themselves.
Giugno 2025 LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming? (https://arxiv.org/abs/2506.11928) We introduce LiveCodeBench Pro, a benchmark composed of problems from Codeforces, ICPC, and IOI that are continuously updated to reduce the likelihood of data contamination. A team of Olympiad medalists annotates every problem for algorithmic categories and conducts a line-by-line analysis of failed model-generated submissions. Using this new data and benchmark, we find that frontier models still have significant limitations: without external tools, the best model achieves only 53% pass@1 on medium-difficulty problems and 0% on hard problems, domains where expert humans still excel. We also find that LLMs succeed at implementation-heavy problems but struggle with nuanced algorithmic reasoning and complex case analysis, often generating confidently incorrect justifications. High performance appears largely driven by implementation precision and tool augmentation, not superior reasoning.
Giugno 2025 The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity (https://machinelearning.apple.com/research/illusion-of-thinking)
Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities.
Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse.
Marzo 2025 Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad (https://arxiv.org/abs/2503.21934)
Our results reveal that all tested models struggled significantly: only Gemini-2.5-Pro achieves a non-trivial score of 25%, while all other models achieve less than 5%. Through detailed analysis of reasoning traces, we identify the most common failure modes and find several unwanted artifacts arising from the optimization strategies employed during model training. Overall, our results suggest that current LLMs are inadequate for rigorous mathematical reasoning tasks, highlighting the need for substantial improvements in reasoning and proof generation capabilities.
Aprile 2025 Brains vs. Bytes: Evaluating LLM Proficiency in Olympiad Mathematics (https://arxiv.org/pdf/2503.21934)
Our study reveals that current LLMs fall significantly short of solving challenging Olympiad-level problems and frequently fail to distinguish correct mathematical reasoning from clearly flawed solutions. Our analyses demonstrate that the occasional correct final answers provided by LLMs often result from pattern recognition or heuristic shortcuts rather than genuine mathematical reasoning. These findings underscore the substantial gap between LLM performance and human expertise in advanced mathematical reasoning and highlight the importance of developing benchmarks that prioritize the soundness of the reasoning used to arrive at an answer rather than the mere correctness of the final answers.
NON RAGIONANO, avranno semplicemente messo un timer di attesa prima di dare la risposta immediata, per simulare il ragionamento.
NON RAGIONANO, avranno semplicemente messo un timer di attesa prima di dare la risposta immediata, per simulare il ragionamento.
Magari non come noi, ma se vedi l'intera cosiddetta "chain of thoughts" direi che ci si avvicina parecchio.
TheDarkAngel
08-08-2025, 13:08
Magari non come noi, ma se vedi l'intera cosiddetta "chain of thoughts" direi che ci si avvicina parecchio.
che è la differenza tra ragionare e non ragionare :D un'imitazione formale del workflow non la rende capace anche solo di avvicinarsi al processo originario, non la rende pensante e non è una questione prettamente filosofica
che è la differenza tra ragionare e non ragionare :D un'imitazione formale del workflow non la rende capace anche solo di avvicinarsi al processo originario, non la rende pensante e non è una questione prettamente filosofica
Ma che importa? Ti dà o no quello che chiedi? Non c'è scritto da nessuna parte che debbano "ragionare" come noi, sono macchine. E ti mostra anche come fa.
TheDarkAngel
08-08-2025, 13:29
Ma che importa? Ti dà o no quello che chiedi? Non c'è scritto da nessuna parte che debbano lavorare come noi. E ti mostra anche come fa.
Il problema è proprio lì, non mi dà quello che cerco proprio perchè ogni output lo devo revisionare dato che le parole che associa in libertà non hanno alcun vaglio di logicità.
Questo lo vedo letteralmente tutti i giorni, mi spaccia le sintassi di un database per un altro, come se fossero intercambiabili quando anche il più scemo dei junior non farebbe questo errore, perchè è inesperto ma tendenzialmente è un umano dal QI che supera quello di una scimmia morta.
Il problema è proprio lì, non mi dà quello che cerco proprio perchè ogni output lo devo revisionare dato che le parole che associa in libertà non hanno alcun vaglio di logicità.
Questo lo vedo letteralmente tutti i giorni, mi spaccia le sintassi di un database per un altro, come se fossero intercambiabili quando anche il più scemo dei junior non farebbe questo errore, perchè è inesperto ma tendenzialmente è un umano dal QI che supera quello di una scimmia morta.
Dipende che modelli usi. Quelli gratis sono sempre meno performanti. Ma comunque non è questione di ragionare o meno, qualunque significato gli si voglia dare, è che sono in continua evoluzione e tutt'altro che perfetti. Anche un umano può fare un ragionamento ad cazzum, anzi... :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.