OpenAI, il suo modello di ragionamento sbaglia sempre meno: ecco o3-pro
OpenAI ha annunciato il lancio di o3-pro, la versione più avanzata del modello di ragionamento progettata per offrire risposte più affidabili attraverso tempi di elaborazione estesi. Il nuovo modello sostituisce o1-pro per gli utenti Pro e Team.
di Nino Grasso pubblicata il 11 Giugno 2025, alle 10:31 nel canale WebOpenAI
OpenAI ha ufficialmente lanciato o3-pro, la versione professionale del suo modello di reasoning più avanzato, disponibile da oggi per gli utenti Pro attraverso ChatGPT e via API. Il nuovo modello evolve l'approccio al reasoning computazionale, ed è progettato specificamente per dedicare più tempo all'elaborazione delle richieste complesse.

Come il suo predecessore o1-pro, o3-pro utilizza una metodologia di pensiero esteso per fornire risposte più accurate e affidabili. La differenza principale risiede nell'accesso completo agli strumenti integrati di ChatGPT: il modello può effettuare ricerche web, analizzare file, processare input visivi, eseguire codice Python e personalizzare le risposte utilizzando la memoria conversazionale. Secondo quanto riportato nelle note di rilascio ufficiali, questa integrazione comporta tempi di risposta ancora più lunghi rispetto a o1-pro, configurandosi quindi per quesiti complessi dove l'affidabilità prevale sulla velocità.
o3-pro è il miglior modello di reasoning di OpenAI
Le valutazioni condotte dalla compagnia mostrano una preferenza costante per o3-pro rispetto al modello base o3 in tutte le categorie testate. I settori che registrano i miglioramenti più significativi includono scienza, educazione, programmazione, business e assistenza nella scrittura. I revisori hanno assegnato punteggi superiori al nuovo modello per chiarezza, completezza, capacità di seguire istruzioni e precisione generale.
Anche i benchmark accademici confermano la superiorità di o3-pro sia rispetto a o1-pro che al modello o3 standard, con la metodologia di valutazione utilizzata che è la tipica "4/4 reliability" di OpenAI. In breve, l'azienda considera un modello efficace solo quando fornisce risposte corrette in tutti e quattro i tentativi consecutivi, non limitandosi a una singola risposta corretta. Il modello, inoltre, condivide l'architettura di sicurezza con o3, con tutti i dettagli tecnici disponibili nella documentazione ufficiale del sistema.
Il rollout di o3-pro segue una strategia di distribuzione graduale: gli utenti Pro e Team hanno accesso immediato al modello attraverso il selettore di modelli, dove sostituisce completamente o1-pro. Gli utenti Enterprise ed Education riceveranno l'accesso nella settimana successiva al lancio. Attualmente, o3-pro presenta alcune limitazioni operative: le chat temporanee sono disabilitate per risolvere problematiche tecniche, la generazione di immagini non è supportata e richiede l'utilizzo di GPT-4o, o3 o o4-mini, mentre Canvas non è ancora integrato nel nuovo modello.










HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Oral-B iO: sconti pazzeschi su spazzolini elettrici e testine originali su Amazon
Intel Core Ultra 200 Plus: l'azienda prova a dare una marcia in più ad Arrow Lake
Thinking Machines: la startup di Mira Murati perde due cofondatori che fanno ritorno ad OpenAI
Coalizione di gruppi di tutela chiede a Apple e Google di rimuovere X e Grok dagli store
Robot aspirapolvere ECOVACS DEEBOT N20 Plus a soli 199€ su Amazon: pulizia senza fatica per 45 giorni
Batteria a stato solido: tra tre mesi Donut Lab farà rivoluzione o figuraccia
iPhone 17 Pro in forte sconto su Amazon: 512 GB a 1.449€, ma anche il 256 GB ora è super interessante
Apple Studio Display finalmente in offerta su Amazon: il monitor 5K di Apple con sconti fino a 260€
OpenAI sfida Google e lancia ChatGPT Translate: è già disponibile per tutti gli utenti
Attenti ai commenti LinkedIn: come riconoscere la nuova truffa che ruba gli account
Xiaomi Redmi Note 15 al prezzo minimo garantito su Amazon: l'entry-level perfetto migliora in batteria e fotocamera, a partire da 179€
REDMI Buds 8 Lite in arrivo in Italia: ANC e ricarica rapida a un prezzo aggressivo
USA: i dettagli del via libera condizionato all'export in Cina di GPU AI NVIDIA H200 e AMD MI325X









20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoI detrattori pensano che facciano soltanto giochini statistici, ma non è così
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
sta "rubando" posti di lavoro oggi. in merito segnalo da ieri con la app bing si possano generare video di 5 secondi tramite testo anche senza registrarsi
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
Eccola la realtà:
Ricerca Apple Giugno 2025: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
[I]Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities.
Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse.[/I]
Gennaio 2024: Hallucination is Inevitable: An Innate Limitation of Large Language Models
[I]Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.[/I]
DK 9x34 - Restiamo ai fatti
I detrattori pensano che facciano soltanto giochini statistici, ma non è così
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
E chissenefrega se l'IA non ha contezza di quello che fa.
Se il risultato dell'IA è un ragionamento,
rassegnati, significa che l'IA ragiona.
Ragionare = produrre ragionamenti, non "avere contezza di sè".
Se il risultato dell'IA è un ragionamento,
rassegnati, significa che l'IA ragiona.
Ragionare = produrre ragionamenti, non "avere contezza di sè".
Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza. L'IA non applica un approccio deduttivo, che è alla base del ragionamento, ma appplica un approccio solamente induttivo.
E perché mai lo chiedi a me?
La tua è una questione filosofico/linguistica, e non mi interessa.
Ragionare significa input = domanda, output = ragionamento e risposta.
Ed è evidente che l'IA lo faccia, puoi provare tu stesso.
La tua è una questione filosofico/linguistica, e non mi interessa.
Ragionare significa input = domanda, output = ragionamento e risposta.
Ed è evidente che l'IA lo faccia, puoi provare tu stesso.
Bellissima questo tuo approccio. Postuli quello che devi dimostrare.
Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento.
PS
uso l'IA quotidianamente in diversi campi.
Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento.
PS
uso l'IA quotidianamente in diversi campi.
Invece mi hai dato ragione: è (per te) una questione linguistica.
La parola "ragionamento" per te DEVE implicare chissà quali processi umani...
Tu non guardi i risultati, io sì.
Tutto qui.
I risultati dicono che l'IA ragioni gia' ora meglio di buona parte degli umani.
Se la cosa ti crea problemi mentali, vuoi che sostituisca la parola "ragionare" con "rispondere correttamente a delle domande" ?
Per me è la stessa cosa, ma magari tu ti senti meglio
Per me è la stessa cosa, ma magari tu ti senti meglio
mi arrendo...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".