OpenAI, il suo modello di ragionamento sbaglia sempre meno: ecco o3-pro

OpenAI, il suo modello di ragionamento sbaglia sempre meno: ecco o3-pro

OpenAI ha annunciato il lancio di o3-pro, la versione più avanzata del modello di ragionamento progettata per offrire risposte più affidabili attraverso tempi di elaborazione estesi. Il nuovo modello sostituisce o1-pro per gli utenti Pro e Team.

di pubblicata il , alle 10:31 nel canale Web
OpenAI
 

OpenAI ha ufficialmente lanciato o3-pro, la versione professionale del suo modello di reasoning più avanzato, disponibile da oggi per gli utenti Pro attraverso ChatGPT e via API. Il nuovo modello evolve l'approccio al reasoning computazionale, ed è progettato specificamente per dedicare più tempo all'elaborazione delle richieste complesse.

OpenAI o3-pro

Come il suo predecessore o1-pro, o3-pro utilizza una metodologia di pensiero esteso per fornire risposte più accurate e affidabili. La differenza principale risiede nell'accesso completo agli strumenti integrati di ChatGPT: il modello può effettuare ricerche web, analizzare file, processare input visivi, eseguire codice Python e personalizzare le risposte utilizzando la memoria conversazionale. Secondo quanto riportato nelle note di rilascio ufficiali, questa integrazione comporta tempi di risposta ancora più lunghi rispetto a o1-pro, configurandosi quindi per quesiti complessi dove l'affidabilità prevale sulla velocità.

o3-pro è il miglior modello di reasoning di OpenAI

Le valutazioni condotte dalla compagnia mostrano una preferenza costante per o3-pro rispetto al modello base o3 in tutte le categorie testate. I settori che registrano i miglioramenti più significativi includono scienza, educazione, programmazione, business e assistenza nella scrittura. I revisori hanno assegnato punteggi superiori al nuovo modello per chiarezza, completezza, capacità di seguire istruzioni e precisione generale.

Anche i benchmark accademici confermano la superiorità di o3-pro sia rispetto a o1-pro che al modello o3 standard, con la metodologia di valutazione utilizzata che è la tipica "4/4 reliability" di OpenAI. In breve, l'azienda considera un modello efficace solo quando fornisce risposte corrette in tutti e quattro i tentativi consecutivi, non limitandosi a una singola risposta corretta. Il modello, inoltre, condivide l'architettura di sicurezza con o3, con tutti i dettagli tecnici disponibili nella documentazione ufficiale del sistema.

Il rollout di o3-pro segue una strategia di distribuzione graduale: gli utenti Pro e Team hanno accesso immediato al modello attraverso il selettore di modelli, dove sostituisce completamente o1-pro. Gli utenti Enterprise ed Education riceveranno l'accesso nella settimana successiva al lancio. Attualmente, o3-pro presenta alcune limitazioni operative: le chat temporanee sono disabilitate per risolvere problematiche tecniche, la generazione di immagini non è supportata e richiede l'utilizzo di GPT-4o, o3 o o4-mini, mentre Canvas non è ancora integrato nel nuovo modello.

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Fantapollo11 Giugno 2025, 11:23 #1
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.

I detrattori pensano che facciano soltanto giochini statistici, ma non è così
TorettoMilano11 Giugno 2025, 11:31 #2
Originariamente inviato da: Fantapollo
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.

I detrattori pensano che facciano soltanto giochini statistici, ma non è così


sta "rubando" posti di lavoro oggi. in merito segnalo da ieri con la app bing si possano generare video di 5 secondi tramite testo anche senza registrarsi
pachainti11 Giugno 2025, 12:58 #3
Originariamente inviato da: Fantapollo
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.

I detrattori pensano che facciano soltanto giochini statistici, ma non è così


Eccola la realtà:

Ricerca Apple Giugno 2025: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity

[I]Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities.
Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse.[/I]

Gennaio 2024: Hallucination is Inevitable: An Innate Limitation of Large Language Models

[I]Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.[/I]

DK 9x34 - Restiamo ai fatti
Ago7211 Giugno 2025, 13:47 #4
Originariamente inviato da: Fantapollo
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.

I detrattori pensano che facciano soltanto giochini statistici, ma non è così


Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
Fantapollo11 Giugno 2025, 15:16 #5
Originariamente inviato da: Ago72
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.


E chissenefrega se l'IA non ha contezza di quello che fa.

Se il risultato dell'IA è un ragionamento,
rassegnati, significa che l'IA ragiona.

Ragionare = produrre ragionamenti, non "avere contezza di sè".
Ago7211 Giugno 2025, 15:38 #6
Originariamente inviato da: Fantapollo
E chissenefrega se l'IA non ha contezza di quello che fa.

Se il risultato dell'IA è un ragionamento,
rassegnati, significa che l'IA ragiona.

Ragionare = produrre ragionamenti, non "avere contezza di sè".


Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza. L'IA non applica un approccio deduttivo, che è alla base del ragionamento, ma appplica un approccio solamente induttivo.
Fantapollo11 Giugno 2025, 15:53 #7
Originariamente inviato da: Ago72
Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza


E perché mai lo chiedi a me?
La tua è una questione filosofico/linguistica, e non mi interessa.

Ragionare significa input = domanda, output = ragionamento e risposta.
Ed è evidente che l'IA lo faccia, puoi provare tu stesso.
Ago7211 Giugno 2025, 16:14 #8
Originariamente inviato da: Fantapollo
E perché mai lo chiedi a me?
La tua è una questione filosofico/linguistica, e non mi interessa.

Ragionare significa input = domanda, output = ragionamento e risposta.
Ed è evidente che l'IA lo faccia, puoi provare tu stesso.


Bellissima questo tuo approccio. Postuli quello che devi dimostrare.

Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento.

PS
uso l'IA quotidianamente in diversi campi.
Fantapollo11 Giugno 2025, 16:25 #9
Originariamente inviato da: Ago72
Bellissima questo tuo approccio. Postuli quello che devi dimostrare.

Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento.

PS
uso l'IA quotidianamente in diversi campi.


Invece mi hai dato ragione: è (per te) una questione linguistica.
La parola "ragionamento" per te DEVE implicare chissà quali processi umani...

Tu non guardi i risultati, io sì.
Tutto qui.

I risultati dicono che l'IA ragioni gia' ora meglio di buona parte degli umani.

Se la cosa ti crea problemi mentali, vuoi che sostituisca la parola "ragionare" con "rispondere correttamente a delle domande" ?

Per me è la stessa cosa, ma magari tu ti senti meglio
Ago7211 Giugno 2025, 17:28 #10
Originariamente inviato da: Fantapollo
<cut>
Per me è la stessa cosa, ma magari tu ti senti meglio


mi arrendo...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^