PDA

View Full Version : Apple distrugge il mito dell'Intelligenza Artificiale: ecco perché la vera AI è solo un'illusione!


Redazione di Hardware Upg
11-06-2025, 12:31
Link alla notizia: https://www.hwupgrade.it/news/apple/apple-distrugge-il-mito-dell-intelligenza-artificiale-ecco-perche-la-vera-ai-e-solo-un-illusione_139658.html

Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale: i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La corsa verso la vera AGI sembra più lontana che mai.

Click sul link per visualizzare la notizia.

gd350turbo
11-06-2025, 12:47
https://www.psicofaber.it/wp-content/uploads/2017/04/Una-volpe-affamata-come-vide-dei-grappoli-d%E2%80%99uva-che-pendevano-da-una-vite-tent%C3%B2-di-afferrarli-ma-non-ne-fu-in-grado.-Allora-allontanandosi-disse-%C2%ABSono-acerbi%C2%BB.png

gino46
11-06-2025, 12:48
Oddio non che ci volesse Apple per mettere nero su bianco il reale funzionamento dell'attuale AI. Qualcuno credeva forse il contrario? Mi meraviglio che Apple abbia fatto dichiarazioni di questo tipo.

omerook
11-06-2025, 12:52
Io aspetto la migliore AI di sempre.

Unrue
11-06-2025, 12:57
In pratica, siccome sono indietro spalano cacca sull'AI.

Saturn
11-06-2025, 13:02
Stanno rosicando un pochino...ma solo un pochino ! :asd:

coschizza
11-06-2025, 13:03
In pratica, siccome sono indietro spalano cacca sull'AI.
pensavo la stessa cosa sono praticamente l'unica big tech che non ha un progetto ai proprio e guardacaso ne parlano male

jepessen
11-06-2025, 13:18
Quindi Apple e' come la volpe con l'uva... rimane indietro nella corsa della IA e tenta di fare la superiore... eeehh ma non e' tutta questa cosa, fa ca@@re... ma quando ci arriveranno loro improvvisamente sara' la migliore IA di sempre...

Mars95
11-06-2025, 13:19
Di base hanno perfettamente ragione, le AI sono dei pappagalli digitali che non capiscono le risposte che danno, sanno solo che vanno bene.

Apple però qui sta facendo come VW quanto tutti puntavano sull'elettrico e loro sul diesel e diceva che le batterie non si potevano riciclare.
Salvo poi qualche anno dopo pubblicizzare che avevano aperto il loro centro dove si potevano riciclare le batterie oltre il 90% :asd:

Aspettiamo la AI migliore di sempre tra qualche anno. :sofico:

Ago72
11-06-2025, 13:46
Oddio non che ci volesse Apple per mettere nero su bianco il reale funzionamento dell'attuale AI. Qualcuno credeva forse il contrario? Mi meraviglio che Apple abbia fatto dichiarazioni di questo tipo.

Se non ha un poco studiato l'AI, l'impressione che ragioni te la da'. Poi certo che se invece hai una infarinatura, sai che quello non è ragionamento.

PS
Apple ha fatto uno studio, e ha cercato di dimostrare le conclusioni a cui molti di noi erano arrivati empiricamente.

Saturn
11-06-2025, 13:48
Fosse ancora vivo Steve Jobbs o per caso resuscitasse prenderebbe a calci nei coglioni tutta l'azienda per non essere ancora "salita sul carro".

Fidatevi, ci ho parlato in una seduta spiritica l'altra sera (ho anche parlato con lo spirito di Bill Gates) e mi ha confermato tutto ! :O

Fantapollo
11-06-2025, 14:21
Rosicano alla grande.

Le IA ragionano eccome.

Dove "Ragionare" = "produrre ragionamenti"

zbear
11-06-2025, 14:29
Perfetto. Un altro big che sostiene esattamente la tesi che sposo anch'io. Solo un malato di mente (e che non sa NULLA di reti neurali e informatica) può pensare che esista una vera IA. I modelli più famosi cadono facilmente (recente esempio nella partita di scacchi contro una vecchissima console) su qualsiasi cosa esuli il loro ristretto campo. In tanti PAGHERANNO CARO averci creduto, alla pari delle crypto (dove in tanti hanno avuto SOLO un bagno di sangue, e parecchio leccarsi le ferite).

TorettoMilano
11-06-2025, 14:35
non mi interessa nemmeno cosa scritto nell'articolo, guardo i progressi lato IA e ne prendo atto. se domani c'è l'AGI domani c'è l'AGI indipendentemente dalle dichiarazioni delle multinazionali, personalmente non ho nemmeno troppa fretta in merito

randorama
11-06-2025, 14:42
IA is the new 6" display

lcfr
11-06-2025, 15:08
"Il rospo dove nun c'ariva ce piscia." (cit.)

aqua84
11-06-2025, 15:39
Va bene, loro sono indietro anni luce sulla IA...
Va bene, è come la volpe con l'uva...

PERO'... non è che ha proprio tutti tutti i torti sulla IA

baolian
11-06-2025, 16:36
Fino all'anno scorso si diceva che l'AI cadevano nei tranelli linguistici che si fanno ai bambini di 5 anni.

, le AI sono dei pappagalli digitali che non capiscono le risposte che danno, sanno solo che vanno bene.


Quindi adesso, a distanza di un solo anno, sono già al pari di diversi studenti delle superiori!:D

pachainti
11-06-2025, 17:11
Oddio non che ci volesse Apple per mettere nero su bianco il reale funzionamento dell'attuale AI. Qualcuno credeva forse il contrario? Mi meraviglio che Apple abbia fatto dichiarazioni di questo tipo.

Ormai coloro che vogliono vedere come funzionano realmente gli LLM, la presunta IA, lo possono fare. Chi crede ancore alla favole, continuerà a seguire quelle.

abbatheking
11-06-2025, 19:36
Sempre detto.

Per quanto usino algoritmi sofisticati ed efficaci, le AI analizzano dati reali (inclusi bias ed errori) ed elaborano risposte veritiere. Queste risposte sono tanto più "vere" quanto più informazioni ci sono al riguardo e tanto più inventate quanto meno si trova sull'argomento. Ergo perché vanno istruite (possibilmente con dati affidabili).
Motivo per cui non bisognerebbe neanche parlare di AI in quanto intelligere significa capire/comprendere mentre questi sono "solo" algoritmi di analisi e produzione dati, non capiscono ciò che viene loro dato in pasto e men che meno ciò che producono in output.
Tant'è che è facile vedere come vadano in contrasto con loro stesse nel momento in cui si chiedono risposte a temi abbastanza poco trattati ed entrino in un loop senza soluzione.

Detto ciò, è il motivo per cui non solo non mi preoccupano ma addirittura auspico una crescita ed un miglioramento esponenziale di questi algoritmi in quanto possono automatizzare molte delle attività note umane, anche complesse.

zoomx
11-06-2025, 19:46
È un problema vecchio di decenni, questo
https://it.m.wikipedia.org/wiki/Stanza_cinese
è del 1980.

Però noi non abbiamo alcun modo di vedere i ragionamenti di una mente al di fuori della propria.
E quando si sottopongono a test queste IA, bisognerebbe vedere anche quanti umani li supererebbero.

axxex
11-06-2025, 20:30
Facevano miglior figura a stare zitti.....

timetraveller1
11-06-2025, 21:12
Probabilmente il "paper" non dovrebbe avere tutta questa rilevanza e riconoscimento mediatico che ha ricevuto, ma siccome "l'ha detto Apple" bisogna discuterne.
Tra un "Liquid Glass" e un altro..

rickycap
12-06-2025, 11:40
Gli attuali LLM sno "pappagalii stocastici", non fanno ragionamenti, ma producono la risposta che è più sia corretta. Apple semplicemente è l'unica Big Tech che ha detto che "il re è nudo" - molto probabilmente perché sono rimasti indietro e non fanno più in tempo a saltare sul treno, non perché siano dei paladini della "verità".
Ma non sono i soli a dirlo. Ovvio che chi ha creato la "bolla" non ha nessuna intenzione di farla esplodere.
Questo articolo (di un professore ordinario di Informatica della Sapienza) dà una visione un po' più obiettiva e da un punto di vista accademico (e non interessato).

https://www.corriere.it/tecnologia/25_giugno_03/l-ai-non-e-intelligente-e-una-questione-di-statistica-le-allucinazioni-inevitabili-e-una-caratteristica-intrinseca-9699a0b6-4952-4d69-bd8d-d4772bdb2xlk_amp.shtml

PS: non fono un fanboy Apple (pur apprezzandone i dispositivi, mai avuto uno) e uso i vari Agetn IA tutti i giorni (perché cmq sono utili)

megamitch
12-06-2025, 11:52
io non capisco perchè chiamano "intelligenza" i sistemi LLM.

Bisogna mettersi d'accordo sui termini

cronos1990
12-06-2025, 12:05
Apple: sincera autocritica o strategia difensiva?


Definizione: Domanda Retorica.

Significato: Domanda che contiene essa stessa la risposta, figura retorica atta ad evidenziare un fatto.

:asd:

AlexSwitch
12-06-2025, 12:10
Sempre detto.

Per quanto usino algoritmi sofisticati ed efficaci, le AI analizzano dati reali (inclusi bias ed errori) ed elaborano risposte veritiere. Queste risposte sono tanto più "vere" quanto più informazioni ci sono al riguardo e tanto più inventate quanto meno si trova sull'argomento. Ergo perché vanno istruite (possibilmente con dati affidabili).
Motivo per cui non bisognerebbe neanche parlare di AI in quanto intelligere significa capire/comprendere mentre questi sono "solo" algoritmi di analisi e produzione dati, non capiscono ciò che viene loro dato in pasto e men che meno ciò che producono in output.
Tant'è che è facile vedere come vadano in contrasto con loro stesse nel momento in cui si chiedono risposte a temi abbastanza poco trattati ed entrino in un loop senza soluzione.

Detto ciò, è il motivo per cui non solo non mi preoccupano ma addirittura auspico una crescita ed un miglioramento esponenziale di questi algoritmi in quanto possono automatizzare molte delle attività note umane, anche complesse.

BINGO!! E' proprio così!! Le IA sono solamente dei mega sistemi di riconoscimento di pattern all'interno di una mole smisurata di dati eterogenei, farne una analisi statistica per fornire un risultato che stocasticamente si presume veritiero. Di intelligente, con riferimento al creativo, all'intuizione, alla generazione di una idea, all'astrazione dall'osservazione di un evento o di un oggetto, non c'è NULLA!!
Anche la tanto strabiliante AI generativa è solamente un pappagallo addestrato a tirare fuori qualcosa accozzando i risultati di analisi statistiche sull'oggetto della richiesta.

Venendo ad Apple, rimasta indubbiamente indietro pur essendo stata una pioniera del Machine Learning diversi anni fa oramai, il suo studio mette in risalto tutte queste incoerenze a cui i vari " guru " alla Altman non sanno e non possono rispondere.

Giuss
12-06-2025, 12:40
Ci mancherebbe che l'AI "pensa" veramente come fanno gli esseri viventi, se a volte può sembrare è solo una cosa simulata
Hanno scoperto l'acqua calda

inited
12-06-2025, 16:42
Però hanno ragione.

MikTaeTrioR
14-06-2025, 11:13
anche una lampadina in fondo è solo un filo incandescente..

TorettoMilano
14-06-2025, 18:08
in merito all'IA ma OT rispetto al titolo ecco una nuova implementazione dell'IA:
da foto 2d a 3d diviso anche in parti
https://www.youtube.com/watch?v=RYM9WcoRRdM

aqua84
14-06-2025, 18:31
in merito all'IA ma OT rispetto al titolo ecco una nuova implementazione dell'IA:
da foto 2d a 3d diviso anche in parti
https://www.youtube.com/watch?v=RYM9WcoRRdM

Tutto giusto e tutto interessante.
Ed è quello che ci si aspetta dalla IA, come ci si aspetta che faccia esperimenti per miliardi di volte in pochi secondi quando ad una persona servirebbero mesi…

Poi però se mi vengono a dire che la IA ragiona…

davide3112
15-06-2025, 00:04
Beh, è da un po' che si è chiarito che il termine IA riferito ai modelli attuali è effettiavmente poco attinente. Un conto sono modelli di assemblaggio generativo avanzato ed un conto l'IA vera e propria che prevede come presupposto il raggiungimento di una propria cosienza... e per quel traguardo siamo a parecchi kilometri di distanza... ma tanti eh.

lemuel
15-06-2025, 02:10
Ho già postato due settimane fa sull'argomento.
Le AI che ho consultato per risolvere alcuni problemi matematici, hanno dato risposte idiote e sbagliate.
Sulla conversione di coordinate trigonometriche, hanno sbagliato sulla indicazione dell'algolo oggetto di un calcolo assegnato.
Sulle equazioni algebriche di ottica geometrica, ho ricevuto risposte indecenti.
Prima di commentare sulla AI, inviterei i partecipanti ai vari forum a condurre esperimenti in merito.
Ad esempio, provate a chiedere a una AI qualsiasi come si sposta una particella nel suo percorso nel vuoto, che sia elettrone o fotone, riguardo alla struttura fine alle dimensioni di Planck.
Chiedete come è impacchettata la sua funzione d'onda all'interno di una cella del falso vuoto.
Le risposte, se ci sono, saranno sbagliate o arzigogolate.
In genere in questi casi le AI si mettono a scrivere lezioni di fisica per mostrare quanto sono brave a parlare di quanti, ma poi non sanno dare risposte.
Cioè, in parole povere, le varie AI non possono inventare risultati ai quali non siano già giunti gli umani, se non si tratta di elaborare dati già noti "più veloci della luce", come era ben scritto sui fumetti di Nembo Kid, ossia Superman.
Fate comunque esperimenti seri sulle capacità delle AI, e poi ne riparliamo.

MikTaeTrioR
15-06-2025, 09:53
Ho già postato due settimane fa sull'argomento.
Le AI che ho consultato per risolvere alcuni problemi matematici, hanno dato risposte idiote e sbagliate.
Sulla conversione di coordinate trigonometriche, hanno sbagliato sulla indicazione dell'algolo oggetto di un calcolo assegnato.
Sulle equazioni algebriche di ottica geometrica, ho ricevuto risposte indecenti.
Prima di commentare sulla AI, inviterei i partecipanti ai vari forum a condurre esperimenti in merito.
Ad esempio, provate a chiedere a una AI qualsiasi come si sposta una particella nel suo percorso nel vuoto, che sia elettrone o fotone, riguardo alla struttura fine alle dimensioni di Planck.
Chiedete come è impacchettata la sua funzione d'onda all'interno di una cella del falso vuoto.
Le risposte, se ci sono, saranno sbagliate o arzigogolate.
In genere in questi casi le AI si mettono a scrivere lezioni di fisica per mostrare quanto sono brave a parlare di quanti, ma poi non sanno dare risposte.
Cioè, in parole povere, le varie AI non possono inventare risultati ai quali non siano già giunti gli umani, se non si tratta di elaborare dati già noti "più veloci della luce", come era ben scritto sui fumetti di Nembo Kid, ossia Superman.
Fate comunque esperimenti seri sulle capacità delle AI, e poi ne riparliamo.

Non sono esperto di fisica avanzata, ma le domande che poni mi sembrano molto complesse e in aree tutt’altro che esplorate a fondo. Esistono davvero fonti autorevoli che danno le risposte che ti aspetti?

Inoltre, l’IA non va intesa come un’entità capace di darti la risposta esatta a ogni calcolo o problema, quanto piuttosto come un assistente che ti aiuta a trovare come arrivarci, suggerendo formule, concetti o approcci.

Il suo punto forte, ad oggi, è nella comprensione e sintesi del linguaggio: se le chiedi “riassumimi in tre righe queste 1000 righe di testo”, il risultato è spesso sorprendente.

E per fare una similitudine: come la lampadina non era altro che un filo incandescente, eppure ha dato origine all’elettronica moderna (le prime valvole termoioniche nascono da lì), così oggi l’IA è ancora semplice rispetto a ciò che potrebbe diventare. Ma la direzione è interessante.

P.S:
sono mesi che dico che la maggior parte delle dichiarazioni roboanti delle varie big tech in merito siano al 99% marketing, pero la teconlogia è li gia oggi ed è chiaro che sia comunque uno strumento estremamente innovativo..

Informative
15-06-2025, 10:53
Pare parzialmente confutato da questa nuova ricerca

https://arxiv.org/html/2506.09250v1

TLDR: i risultati dello studio di Apple sono dettati più da errori metodologici

Non ho letto il tutto approfonditamente quindi butto lì.

pachainti
15-06-2025, 16:19
Hallucination is Inevitable: An Innate Limitation of Large Language Models (https://arxiv.org/abs/2401.11817)

Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.


A knockout blow for LLMs? (https://garymarcus.substack.com/p/a-knockout-blow-for-llms)

So, our argument is NOT "humans don't have any limits, but LRMs do, and that's why they aren't intelligent". But based on what we observe from their thoughts, their process is not logical and intelligent.

If you can’t use a billion dollar AI system to solve a problem that Herb Simon one of the actual “godfathers of AI”, current hype aside) solved with AI in 1957, and that first semester AI students solve routinely, the chances that models like Claude or o3 are going to reach AGI seem truly remote.

What the Apple paper shows, most fundamentally, regardless of how you define AGI, is that LLMs are no substitute for good well-specified conventional algorithms. (They also can’t play chess as well as conventional algorithms, can’t fold proteins like special-purpose neurosymbolic hybrids, can’t run databases as well as conventional databases, etc.)

But anybody who thinks LLMs are a direct route to the sort AGI that could fundamentally transform society for the good is kidding themselves. This does not mean that the field of neural networks is dead, or that deep learning is dead.

Informative
15-06-2025, 22:23
Fair points.
Sull'AGI sono d'accordo: non con la struttura attuale. Potranno arrivare a sempre più convincenti imitazioni, restando entro certi limiti e non per applicazioni critiche senza supervisione.

Luke2011
16-06-2025, 03:12
Oddio non che ci volesse Apple per mettere nero su bianco il reale funzionamento dell'attuale AI. Qualcuno credeva forse il contrario? Mi meraviglio che Apple abbia fatto dichiarazioni di questo tipo.

In effetti di questo studio non se ne sentiva il bisogno considerato che a distanza di due giorni un documento pubblicato su Arxiv ("Comment on The Illusion of Thinking") ha appurato che 1) I limiti di token sono stati scambiati per fallimenti nel ragionamento (soprattutto nei puzzle della Torre di Hanoi) 2) Le valutazioni automatiche non riuscivano a distinguere tra vincoli pratici ed errori logici reali 3) I puzzle dell’attraversamento del fiume includevano istanze impossibili — e i modelli venivano penalizzati per non averle risolte.

Una volta corretti questi problemi, i modelli precedentemente etichettati come “fallimenti” hanno risolto i quesiti con successo.

E sì, in effetti è vero: non è più necessario "fare dichiarazioni" circa la capacità della IA di ragionare, perché vari studi hanno già dimostrato che possono, dato che i modelli più avanzati come OpenAI o3, Gemini 2.5 Pro ecc, sono capaci di pensiero deduttivo, induttivo e abduttivo.

Luke2011
16-06-2025, 03:27
Di base hanno perfettamente ragione, le AI sono dei pappagalli digitali che non capiscono le risposte che danno, sanno solo che vanno bene.

Gli unici pappagalli sono quelli che continuano a ripetere questo slogan che ormai risale al 2021, un'era geologica fa nel mondo della IA. Da tempo ormai è stato appurato che gli LLM mantengono una finestra contestuale e che pianificano in anticipo cosa scrivere, esattamente come... Indovina chi? Magari dare una letta allo studio “On the Biology of a Large Language Model” di Jack Lindsey, Wes Gurnee et al potrebbe chiarirti le idee: i ricercatori hanno dimostrato che Claude 3.5, per esempio, effettua regolarmente diversi passaggi di ragionamento intermedi durante il forward pass anziché esprimersi esplicitamente con la tecnica del chain-of-thought prima di decidere quale output generare. In altre parole, mostra segnali di pianificazione anticipata, ed effettua anche una pianificazione retrograda (backward planning), partendo dallo stato finale per riformulare parti antecedenti della risposta. Più in generale, i calcoli interni del modello sono altamente astratti e generalizzano tra contesti molto diversi. Questo è pensiero kahneman sistema 2, il contrario dei "pappagalli" di cui sopra.

Luke2011
16-06-2025, 03:34
Se non ha un poco studiato l'AI, l'impressione che ragioni te la da'.

Se poi la studi meglio e magari sottoscrivi anche un abbonamento scopri che è esattamente quello che fa: negli ultimi due anni i più recenti modelli di IA come OpenAI o3 hanno evidenziato capacità deduttive molto forti, specialmente nel campo della logica, della matematica e del codice, capacità induttive, che possono sovrageneralizzare, ma che riescono a identificare pattern occulti basandosi su pochi esempi, e abduttive, con la capacità di esplorare ipotesi alternative (skill che erano stati già notati, nel campo della criminologia, della medicina e della ricerca, dal nostro Remo Pareschi nel suo "Abductive Reasoning with the GPT-4 Language Model: Case studies from criminal investigation, medical practice, scientific research").

Sono inoltre emerse capacità di problem solving zero-shot ("Large Language Models are Zero-Shot Reasoners" di Kojima, Matsuo, Iwasawa et al), ovvero la capacità di risolvere un problema al primo tentativo senza averne mai vista la soluzione, un modello della realtà (che inferisce strutture spaziali e causali dal linguaggio e da input multimodali), una "teoria della mente" ("Evaluating Large Language Models in Theory of Mind Tasks" di Michal Kosinski), ovvero la capacità di attribuire stati mentali come intenzioni o desideri ad altri soggetti, e perfino una stratificazione psicologica ("A Three-Layer Model of LLM Psychology", Jan Kulveit, 2024).


Apple ha fatto uno studio, e ha cercato di dimostrare le conclusioni a cui molti di noi erano arrivati empiricamente.

... ed empiricamente sbagliando, considerato che a distanza di pochi giorni è emerso che nello studio in oggetto 1) I limiti di token sono stati scambiati per fallimenti nel ragionamento (soprattutto nei puzzle della Torre di Hanoi) 2) Le valutazioni automatiche non riuscivano a distinguere tra vincoli pratici ed errori logici reali 3) I puzzle dell’attraversamento del fiume includevano istanze impossibili — e i modelli venivano penalizzati per non averle risolte.

Una volta corretti questi problemi, i modelli precedentemente etichettati come “fallimenti” hanno risolto i quesiti con successo ("Comment on The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" di C. Opus e A. Lawsen).

abbatheking
16-06-2025, 09:04
Se poi la studi meglio e magari sottoscrivi anche un abbonamento scopri che è esattamente quello che fa: negli ultimi due anni i più recenti modelli di IA come OpenAI o3 hanno evidenziato capacità deduttive molto forti, specialmente nel campo della logica, della matematica e del codice, capacità induttive, che possono sovrageneralizzare, ma che riescono a identificare pattern occulti basandosi su pochi esempi, e abduttive, con la capacità di esplorare ipotesi alternative (skill che erano stati già notati, nel campo della criminologia, della medicina e della ricerca, dal nostro Remo Pareschi nel suo "Abductive Reasoning with the GPT-4 Language Model: Case studies from criminal investigation, medical practice, scientific research").

Sono inoltre emerse capacità di problem solving zero-shot ("Large Language Models are Zero-Shot Reasoners" di Kojima, Matsuo, Iwasawa et al), ovvero la capacità di risolvere un problema al primo tentativo senza averne mai vista la soluzione, un modello della realtà (che inferisce strutture spaziali e causali dal linguaggio e da input multimodali), una "teoria della mente" ("Evaluating Large Language Models in Theory of Mind Tasks" di Michal Kosinski), ovvero la capacità di attribuire stati mentali come intenzioni o desideri ad altri soggetti, e perfino una stratificazione psicologica ("A Three-Layer Model of LLM Psychology", Jan Kulveit, 2024).




... ed empiricamente sbagliando, considerato che a distanza di pochi giorni è emerso che nello studio in oggetto 1) I limiti di token sono stati scambiati per fallimenti nel ragionamento (soprattutto nei puzzle della Torre di Hanoi) 2) Le valutazioni automatiche non riuscivano a distinguere tra vincoli pratici ed errori logici reali 3) I puzzle dell’attraversamento del fiume includevano istanze impossibili — e i modelli venivano penalizzati per non averle risolte.

Una volta corretti questi problemi, i modelli precedentemente etichettati come “fallimenti” hanno risolto i quesiti con successo ("Comment on The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" di C. Opus e A. Lawsen).

Tutto vero e tutto bello ma sai perché le IA riescono a risolvere problemi col ragionamento?
Perché lo hanno appreso precedentemente e lo hanno modellizzato (con le fasi di auto-apprendimento).
In pratica usano le nostre capacità di ragionare con una potenza computazionale ovviamente superiore.
Il problema non è tanto questo, che come ho scritto in un post precedente è molto bello, efficacie e, già oggi, molto utile, quanto più la capacità di convergere ad una soluzione plausibile qualora non ci siano strumenti o dati sufficienti.
In quel caso le AI si ingarbugliano in soluzioni che perdono sempre più di significato fisico offrendo risposte sempre più astratte e contraddittorie. Ergo non si possono, a mio avviso, definire "Intelligenze" Artificiali.
Detto ciò, ribadisco che le attuali AI possono essere estremamente efficaci nell'automazione di tutta una serie di processi che oggi coinvolge ancora la manodopera umana.

TorettoMilano
16-06-2025, 09:13
le discussioni sono interessanti ma in merito al "ragionamento" trovo il tutto più filosofico che tecnico. ormai da anni l'IA "ruba" lavori, domani potrebbe rubare il nostro e personalmente troverei avvilente dover ammettere di essere stato rimpiazzato da qualcosa che non ragiona

tedebus
17-06-2025, 06:32
La fotocamera frontale non serve a niente (fino ad iPhone 3), gli smartphone devono essere piccoli e le padelle non servono, una finestra alla volta sul desktop per MacOS, il tasto destro del mouse non serve,... La lista è lunga.
Ma stiamo parlando di quelli che hanno fatto quella immondizia di Apple Intelligence?

PierPang
17-06-2025, 10:57
Da profano mi viene da osservare che anche l'intelligenza umana tende a collassare quando si tratta di applicare algoritmi con troppe iterazioni, 23*3 a mente ci riusciamo ma 6728*68977 è un altro discorso, ci perdiamo. La mia risposta sarebbe "comprati una calcolatrice" che è più o meno quello che rispondono gli LM.
Resto perplesso quando qualcuno dice "le macchine non pensano come noi". Ma come pensiamo noi, lo sappiamo? L'architettura della nostra rete neurale non è poi così nota, quindi è difficile dire quali siano le differenze. I neuroni si assomigliano: dendriti come ingressi, sinapsi come pesi, soglia di attivazione sia nei neuroni biologici che in quelli artificiali. Sento dire che è "simulazione" ma cambia solo il materiale, l'elaborazione del segnale è identica, in entrambi i casi sono miliardi di piccoli interruttori elettrici. Posso credere che l'architettura del cervello umano possa funzionare meglio, ma non saremo pappagalli stocastici anche noi?

abbatheking
18-06-2025, 09:06
Da profano mi viene da osservare che anche l'intelligenza umana tende a collassare quando si tratta di applicare algoritmi con troppe iterazioni, 23*3 a mente ci riusciamo ma 6728*68977 è un altro discorso, ci perdiamo. La mia risposta sarebbe "comprati una calcolatrice" che è più o meno quello che rispondono gli LM.
Resto perplesso quando qualcuno dice "le macchine non pensano come noi". Ma come pensiamo noi, lo sappiamo? L'architettura della nostra rete neurale non è poi così nota, quindi è difficile dire quali siano le differenze. I neuroni si assomigliano: dendriti come ingressi, sinapsi come pesi, soglia di attivazione sia nei neuroni biologici che in quelli artificiali. Sento dire che è "simulazione" ma cambia solo il materiale, l'elaborazione del segnale è identica, in entrambi i casi sono miliardi di piccoli interruttori elettrici. Posso credere che l'architettura del cervello umano possa funzionare meglio, ma non saremo pappagalli stocastici anche noi?

La moltiplicazione non è prova di pensiero o ragionamento deduttivo ma di capacità computazionale e inseguimento di un metodo.
Se hai abbastanza fogli puoi risolvere la seconda moltiplicazione ma ovviamente una calcolatrice (che può essere un modulo di una IA ma non rappresenta una IA) la risolverà molto prima.
Quello di cui si discute è il fatto che una IA non è in grado di eseguire autonomamente un controllo sul proprio ragionamento in modo efficacie come la nostra mente. Siccome l'IA cerca sempre e comunque di darti una risposta fino ad astrarla sulla base delle informazioni in suo possesso e della complessità dei suoi algoritmi, essa potrebbe chiudersi in un circolo vizioso contraddicendosi pur di elaborare la richiesta.
La mente umana non lo fa... o non dovrebbe quanto meno... o potrebbe non farlo :D
Laddove la mente non riesca sarebbe il caso di dire che sia quella mente ad essere come una IA e non viceversa.

zoomx
18-06-2025, 11:23
Quelli esposti qui mi sembrano tutti argomenti che si potrebbero applicare anche agli umani.

Quanti umani saprebbero rispondere alle domande di @lemuel?
Quanti umani si incartano pur di darti una risposta?

pachainti
18-06-2025, 11:48
E sì, in effetti è vero: non è più necessario "fare dichiarazioni" circa la capacità della IA di ragionare, perché vari studi hanno già dimostrato che possono, dato che i modelli più avanzati come OpenAI o3, Gemini 2.5 Pro ecc, sono capaci di pensiero deduttivo, induttivo e abduttivo.

Certo, certo :D

Oltre a quanto riportato qui (https://www.hwupgrade.it/forum/showpost.php?p=48807913&postcount=37).

Ottobre 2024 The LLM Reasoning Debate Heats Up (https://aiguide.substack.com/p/the-llm-reasoning-debate-heats-up)
In conclusion, there’s no consensus about the conclusion! There are a lot of papers out there demonstrating what looks like sophisticated reasoning behavior in LLMs, but there’s also a lot of evidence that these LLMs aren’t reasoning abstractly or robustly, and often over-rely on memorized patterns in their training data, leading to errors on “out of distribution” problems. Whether this is going to doom approaches like OpenAI’s o1, which was directly trained on people’s reasoning traces, remains to be seen. In the meantime, I think this kind of debate is actually really good for the science of LLMs, since it spotlights the need for careful, controlled experiments to test robustness—experiments that go far beyond just reporting accuracy—and it also deepens the discussion of what reasoning actually consists of, in humans as well as machines.

Ottobre 2024 GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models (https://arxiv.org/pdf/2410.05229)
To address these concerns, we conduct a largescale study on several state-of-the-art open and closed models. To overcome the limitations of existing evaluations, we introduce GSM-Symbolic, an improved benchmark created from symbolic templates that allow for the generation of a diverse set of questions. GSM-Symbolic enables more controllable evaluations, providing key insights and more reliable metrics for measuring the reasoning capabilities of models. Our findings reveal that LLMs exhibit noticeable variance when responding to different instantiations of the same question. Specifically, the performance of all models declines when only the numerical values in the question are altered in the GSM-Symbolic benchmark. Furthermore, we investigate the fragility of mathematical reasoning in these models and demonstrate that their performance significantly deteriorates as the number of clauses in a question increases. We hypothesize that this decline is due to the fact that current LLMs are not capable of genuine logical reasoning; instead, they attempt to replicate the reasoning steps observed in their training data. When we add a single clause that appears relevant to the question, we observe significant performance drops (up to 65%) across all state-of-the-art models, even though the added clause does not contribute to the reasoning chain needed to reach the final answer. Overall, our work provides a more nuanced understanding of LLMs’ capabilities and limitations in mathematical reasoning.


Trusting your own judgement on ‘AI’ is a huge risk (https://www.baldurbjarnason.com/2025/trusting-your-own-judgement-on-ai/)
You can’t trust your own instincts or judgement about Large Language Models and chatbots because they trigger a number of cognitive biases and psychological “effects” that short-circuit our judgement.

A big risk of exposure to con artists, such as a psychic, is when a smart person is fooled by their own subjective experience and cognitive blindness to probabilities and distribution, refuses to believe they were fooled, and becomes and evangelist for the con.

It’s no surprise that an almost religious faith in “AI” spreads fast among those open to the idea.

Attenzione a usare troppo questa presunta IA
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (https://arxiv.org/abs/2506.08872)