View Full Version : OpenAI, il suo modello di ragionamento sbaglia sempre meno: ecco o3-pro
Redazione di Hardware Upg
11-06-2025, 09:31
Link alla notizia: https://www.hwupgrade.it/news/web/openai-il-suo-modello-di-ragionamento-sbaglia-sempre-meno-ecco-o3-pro_139649.html
OpenAI ha annunciato il lancio di o3-pro, la versione più avanzata del modello di ragionamento progettata per offrire risposte più affidabili attraverso tempi di elaborazione estesi. Il nuovo modello sostituisce o1-pro per gli utenti Pro e Team.
Click sul link per visualizzare la notizia.
Fantapollo
11-06-2025, 10:23
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
TorettoMilano
11-06-2025, 10:31
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
sta "rubando" posti di lavoro oggi. in merito segnalo da ieri con la app bing si possano generare video di 5 secondi tramite testo anche senza registrarsi
pachainti
11-06-2025, 11:58
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
Eccola la realtà:
Ricerca Apple Giugno 2025: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity (https://machinelearning.apple.com/research/illusion-of-thinking)
Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities.
Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse.
Gennaio 2024: Hallucination is Inevitable: An Innate Limitation of Large Language Models (https://arxiv.org/abs/2401.11817)
Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.
DK 9x34 - Restiamo ai fatti (https://www.spreaker.com/episode/dk-9x34-restiamo-ai-fatti--66489058)
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
Fantapollo
11-06-2025, 14:16
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
E chissenefrega se l'IA non ha contezza di quello che fa.
Se il risultato dell'IA è un ragionamento,
rassegnati, significa che l'IA ragiona.
Ragionare = produrre ragionamenti, non "avere contezza di sè".
E chissenefrega se l'IA non ha contezza di quello che fa.
Se il risultato dell'IA è un ragionamento,
rassegnati, significa che l'IA ragiona.
Ragionare = produrre ragionamenti, non "avere contezza di sè".
Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza. L'IA non applica un approccio deduttivo, che è alla base del ragionamento, ma appplica un approccio solamente induttivo.
Fantapollo
11-06-2025, 14:53
Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza
E perché mai lo chiedi a me?
La tua è una questione filosofico/linguistica, e non mi interessa.
Ragionare significa input = domanda, output = ragionamento e risposta.
Ed è evidente che l'IA lo faccia, puoi provare tu stesso.
E perché mai lo chiedi a me?
La tua è una questione filosofico/linguistica, e non mi interessa.
Ragionare significa input = domanda, output = ragionamento e risposta.
Ed è evidente che l'IA lo faccia, puoi provare tu stesso.
Bellissima questo tuo approccio. Postuli quello che devi dimostrare.
Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento.
PS
uso l'IA quotidianamente in diversi campi.
Fantapollo
11-06-2025, 15:25
Bellissima questo tuo approccio. Postuli quello che devi dimostrare.
Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento.
PS
uso l'IA quotidianamente in diversi campi.
Invece mi hai dato ragione: è (per te) una questione linguistica.
La parola "ragionamento" per te DEVE implicare chissà quali processi umani...
Tu non guardi i risultati, io sì.
Tutto qui.
I risultati dicono che l'IA ragioni gia' ora meglio di buona parte degli umani.
Se la cosa ti crea problemi mentali, vuoi che sostituisca la parola "ragionare" con "rispondere correttamente a delle domande" ?
Per me è la stessa cosa, ma magari tu ti senti meglio
<cut>
Per me è la stessa cosa, ma magari tu ti senti meglio
mi arrendo...
Si fa fatica a mettersi d'accordo perchè abbiamo significati diversi di ragionamento. Inoltre siamo molto centrati nella nostra visione antropocentrica di ragionamento e magari non riusciamo a cogliere gli altri tipi di ragionamento. Chiedersi se l'IA ragiona è come chiedersi se un cane ragiona, se un albero ragiona. E' difficile dare una risposta, perchè quasi sicuramente non esiste un solo modo di "ragionare". Quindi dobbiamo anzitutto metterci d'accordo su cosa intendiamo con la parola ragionare.
Fantapollo
11-06-2025, 17:37
Si fa fatica a mettersi d'accordo perchè abbiamo significati diversi di ragionamento. Inoltre siamo molto centrati nella nostra visione antropocentrica di ragionamento e magari non riusciamo a cogliere gli altri tipi di ragionamento. Chiedersi se l'IA ragiona è come chiedersi se un cane ragiona, se un albero ragiona. E' difficile dare una risposta, perchè quasi sicuramente non esiste un solo modo di "ragionare". Quindi dobbiamo anzitutto metterci d'accordo su cosa intendiamo con la parola ragionare.
E' evidente che è quello che stia cercando di fare io, ma ago72 non capisce...
Semplicemente, schematizzerei il tutto in termini di input e output
domanda ---> ragionamento ---> risposta.
L'IA la parte in mezzo LA FA, senza ombra di dubbio.
Attendiamo la definizione concreta di ragionamento per ago72
Si fa fatica a mettersi d'accordo perchè abbiamo significati diversi di ragionamento. Inoltre siamo molto centrati nella nostra visione antropocentrica di ragionamento e magari non riusciamo a cogliere gli altri tipi di ragionamento. Chiedersi se l'IA ragiona è come chiedersi se un cane ragiona, se un albero ragiona. E' difficile dare una risposta, perchè quasi sicuramente non esiste un solo modo di "ragionare". Quindi dobbiamo anzitutto metterci d'accordo su cosa intendiamo con la parola ragionare.
Ma tu sei già un passo avanti:
prima di tutto dobbiamo dimostrare che l'essere umano abbia capacità di ragionare.
Non è infrequente assistere ad un ragionamento deduttivo di questo tipo:
tutti i cani hanno quattro zampe
questo animale ha quattro zampe
questo animale è un cane
Oppure analogamente per il ragionamento induttivo:
Sabato non sono riusciuto a prenotare il ristorante perchè pieno
L'economia Italiana va a gonfie vele.
:D :D :D
boh
state continuando a considerare "Ragionare" come se fosse qualcosa di filosofico, ma così non è.
la IA, al momento, è in grado di accedere a TUTTO IL SAPERE UMANO, cosa che ovviamente una persona non può fare, e in piu ha la velocità del calcolatore.
Quindi è abbastanza OVVIO che se gli fai una domanda, "rovistando" tra miliardi di informazioni, ti da la risposta corretta o comunque plausibile.
Se la IA fosse DAVVERO in grado di ragionare dovrebbe poterlo fare SENZA avere accesso ad alcun dato.
Fantapollo
11-06-2025, 18:20
boh
state continuando a considerare "Ragionare" come se fosse qualcosa di filosofico, ma così non è.
la IA, al momento, è in grado di accedere a TUTTO IL SAPERE UMANO, cosa che ovviamente una persona non può fare, e in piu ha la velocità del calcolatore.
Quindi è abbastanza OVVIO che se gli fai una domanda, "rovistando" tra miliardi di informazioni, ti da la risposta corretta o comunque plausibile.
Se la IA fosse DAVVERO in grado di ragionare dovrebbe poterlo fare SENZA avere accesso ad alcun dato.
Chi fa commenti come questo mi domando se abbia mai chiesto un problema di matematica o fisica all'IA...
No, l'IA non fa una semplice ricerca...
Chi fa commenti come questo mi domando se abbia mai chiesto un problema di matematica o fisica all'IA...
No, l'IA non fa una semplice ricerca...
se fosse come dici tu, avrebbero RISOLTO già tutti i problemi Matematici, e fatto nuove scoperte in Fisica/Chimica/Scienza
Fantapollo
11-06-2025, 19:22
se fosse come dici tu, avrebbero RISOLTO già tutti i problemi Matematici, e fatto nuove scoperte in Fisica/Chimica/Scienza
Ok, è confermato che non sai di cosa parli...
Ok, è confermato che non sai di cosa parli...
menomale che lo sai tu :muro:
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
Se è per questo conosco tanti laureati con buona memoria che, avendo letto molto, danno l'illusione di ragionare.
megamitch
11-06-2025, 22:11
Ok, è confermato che non sai di cosa parli...
Ti consiglio questo video molto interessante che spiega il funzionamento delle LLM.
https://youtu.be/_6R7Ym6Vy_I?si=AyGDPH2TOGiKFmDg
Puoi anche chiedere a chatgpt se un LLM ragiona e vedi che risposta ti dà.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.