View Single Post
Old 16-06-2025, 03:34   #41
Luke2011
Member
 
Iscritto dal: Jan 2011
Messaggi: 85
Quote:
Originariamente inviato da Ago72 Guarda i messaggi
Se non ha un poco studiato l'AI, l'impressione che ragioni te la da'.
Se poi la studi meglio e magari sottoscrivi anche un abbonamento scopri che è esattamente quello che fa: negli ultimi due anni i più recenti modelli di IA come OpenAI o3 hanno evidenziato capacità deduttive molto forti, specialmente nel campo della logica, della matematica e del codice, capacità induttive, che possono sovrageneralizzare, ma che riescono a identificare pattern occulti basandosi su pochi esempi, e abduttive, con la capacità di esplorare ipotesi alternative (skill che erano stati già notati, nel campo della criminologia, della medicina e della ricerca, dal nostro Remo Pareschi nel suo "Abductive Reasoning with the GPT-4 Language Model: Case studies from criminal investigation, medical practice, scientific research").

Sono inoltre emerse capacità di problem solving zero-shot ("Large Language Models are Zero-Shot Reasoners" di Kojima, Matsuo, Iwasawa et al), ovvero la capacità di risolvere un problema al primo tentativo senza averne mai vista la soluzione, un modello della realtà (che inferisce strutture spaziali e causali dal linguaggio e da input multimodali), una "teoria della mente" ("Evaluating Large Language Models in Theory of Mind Tasks" di Michal Kosinski), ovvero la capacità di attribuire stati mentali come intenzioni o desideri ad altri soggetti, e perfino una stratificazione psicologica ("A Three-Layer Model of LLM Psychology", Jan Kulveit, 2024).


Quote:
Originariamente inviato da Ago72 Guarda i messaggi
Apple ha fatto uno studio, e ha cercato di dimostrare le conclusioni a cui molti di noi erano arrivati empiricamente.
... ed empiricamente sbagliando, considerato che a distanza di pochi giorni è emerso che nello studio in oggetto 1) I limiti di token sono stati scambiati per fallimenti nel ragionamento (soprattutto nei puzzle della Torre di Hanoi) 2) Le valutazioni automatiche non riuscivano a distinguere tra vincoli pratici ed errori logici reali 3) I puzzle dell’attraversamento del fiume includevano istanze impossibili — e i modelli venivano penalizzati per non averle risolte.

Una volta corretti questi problemi, i modelli precedentemente etichettati come “fallimenti” hanno risolto i quesiti con successo ("Comment on The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" di C. Opus e A. Lawsen).
Luke2011 è offline   Rispondi citando il messaggio o parte di esso
 
1