|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/l-...nk_141940.html
Google ha rilasciato Gemini 2.5 Deep Think, il suo modello AI più avanzato, ora disponibile per gli abbonati AI Ultra. Basato su un'architettura multi-agente, il modello ha già superato Grok 4 di xAI e o3 di OpenAI Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Aug 2006
Città: Noale
Messaggi: 3726
|
42
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 5986
|
Non è una novità il reasoning negli LLM...
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Oct 2004
Messaggi: 1431
|
Infatti! Non c'era bisogno di "esplorare simultaneamente molteplici ipotesi prima di formulare una risposta definitiva" quando questa è già stata ottenuta.
__________________
Notebook: Ryzen 5 3500U, 12GB DDR4, Radeon Vega 8, Windows 10 Home e Linux Mint Debian Edition (Lenovo IdeaPad 3 15ADA05) Console : Nintendo Wii & 2DS |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Sep 2013
Messaggi: 9107
|
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5222
|
Per ora sarà gratis la IA di base ma prepariamoci a un futuro di abbonamenti.
Almeno che non ci salverà la IA locale dei nostri PC |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: May 2020
Messaggi: 919
|
Ancora con questa storia del ragionamento? Gli LLM sono generatori di stronzate: chatGPT is bullshit
Rodney Brooks’ Three Laws of Artificial Intelligence Three laws of Artificial Intelligence, about how people perceive AI systems, about how they operate in the world and how difficult it is to make them general purpose in any sense. 1) When an AI system performs a task, human observers immediately estimate its general competence in areas that seem related. Usually that estimate is wildly overinflated. 2) Most successful AI deployments have a human somewhere in the loop (perhaps the person they are helping) and their intelligence smooths the edges. 3) Without carefully boxing in how an AI system is deployed there is always a long tail of special cases that take decades to discover and fix. Paradoxically all those fixes are AI-complete themselves. Giugno 2025 LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming? We introduce LiveCodeBench Pro, a benchmark composed of problems from Codeforces, ICPC, and IOI that are continuously updated to reduce the likelihood of data contamination. A team of Olympiad medalists annotates every problem for algorithmic categories and conducts a line-by-line analysis of failed model-generated submissions. Using this new data and benchmark, we find that frontier models still have significant limitations: without external tools, the best model achieves only 53% pass@1 on medium-difficulty problems and 0% on hard problems, domains where expert humans still excel. We also find that LLMs succeed at implementation-heavy problems but struggle with nuanced algorithmic reasoning and complex case analysis, often generating confidently incorrect justifications. High performance appears largely driven by implementation precision and tool augmentation, not superior reasoning. Giugno 2025 The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities. Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse. Marzo 2025 Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad Our results reveal that all tested models struggled significantly: only Gemini-2.5-Pro achieves a non-trivial score of 25%, while all other models achieve less than 5%. Through detailed analysis of reasoning traces, we identify the most common failure modes and find several unwanted artifacts arising from the optimization strategies employed during model training. Overall, our results suggest that current LLMs are inadequate for rigorous mathematical reasoning tasks, highlighting the need for substantial improvements in reasoning and proof generation capabilities. Aprile 2025 Brains vs. Bytes: Evaluating LLM Proficiency in Olympiad Mathematics Our study reveals that current LLMs fall significantly short of solving challenging Olympiad-level problems and frequently fail to distinguish correct mathematical reasoning from clearly flawed solutions. Our analyses demonstrate that the occasional correct final answers provided by LLMs often result from pattern recognition or heuristic shortcuts rather than genuine mathematical reasoning. These findings underscore the substantial gap between LLM performance and human expertise in advanced mathematical reasoning and highlight the importance of developing benchmarks that prioritize the soundness of the reasoning used to arrive at an answer rather than the mere correctness of the final answers.
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin Ultima modifica di pachainti : 08-08-2025 alle 10:13. |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Jan 2010
Messaggi: 7374
|
NON RAGIONANO, avranno semplicemente messo un timer di attesa prima di dare la risposta immediata, per simulare il ragionamento.
__________________
Telegram: @shutter1sland |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 5986
|
|
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Jun 2001
Città: Pavia
Messaggi: 24902
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 5986
|
Ma che importa? Ti dà o no quello che chiedi? Non c'è scritto da nessuna parte che debbano "ragionare" come noi, sono macchine. E ti mostra anche come fa.
Ultima modifica di Unrue : 08-08-2025 alle 13:24. |
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Jun 2001
Città: Pavia
Messaggi: 24902
|
Quote:
Questo lo vedo letteralmente tutti i giorni, mi spaccia le sintassi di un database per un altro, come se fossero intercambiabili quando anche il più scemo dei junior non farebbe questo errore, perchè è inesperto ma tendenzialmente è un umano dal QI che supera quello di una scimmia morta. |
|
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 5986
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 07:27.