|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/op...ro_139649.html
OpenAI ha annunciato il lancio di o3-pro, la versione più avanzata del modello di ragionamento progettata per offrire risposte più affidabili attraverso tempi di elaborazione estesi. Il nuovo modello sostituisce o1-pro per gli utenti Pro e Team. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza.
I detrattori pensano che facciano soltanto giochini statistici, ma non è così |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Dec 2008
Messaggi: 16892
|
sta "rubando" posti di lavoro oggi. in merito segnalo da ieri con la app bing si possano generare video di 5 secondi tramite testo anche senza registrarsi
|
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: May 2020
Messaggi: 832
|
Quote:
Ricerca Apple Giugno 2025: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities. Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse. Gennaio 2024: Hallucination is Inevitable: An Innate Limitation of Large Language Models Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs. DK 9x34 - Restiamo ai fatti
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Feb 2009
Messaggi: 1483
|
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
|
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
Quote:
Se il risultato dell'IA è un ragionamento, rassegnati, significa che l'IA ragiona. Ragionare = produrre ragionamenti, non "avere contezza di sè". Ultima modifica di Fantapollo : 11-06-2025 alle 14:19. |
|
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Feb 2009
Messaggi: 1483
|
Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza. L'IA non applica un approccio deduttivo, che è alla base del ragionamento, ma appplica un approccio solamente induttivo.
|
![]() |
![]() |
![]() |
#8 | |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
Quote:
La tua è una questione filosofico/linguistica, e non mi interessa. Ragionare significa input = domanda, output = ragionamento e risposta. Ed è evidente che l'IA lo faccia, puoi provare tu stesso. |
|
![]() |
![]() |
![]() |
#9 | |
Senior Member
Iscritto dal: Feb 2009
Messaggi: 1483
|
Quote:
Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento. PS uso l'IA quotidianamente in diversi campi. |
|
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
Quote:
La parola "ragionamento" per te DEVE implicare chissà quali processi umani... Tu non guardi i risultati, io sì. Tutto qui. I risultati dicono che l'IA ragioni gia' ora meglio di buona parte degli umani. Se la cosa ti crea problemi mentali, vuoi che sostituisca la parola "ragionare" con "rispondere correttamente a delle domande" ? Per me è la stessa cosa, ma magari tu ti senti meglio Ultima modifica di Fantapollo : 11-06-2025 alle 15:28. |
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Feb 2009
Messaggi: 1483
|
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Feb 2003
Messaggi: 552
|
...
Si fa fatica a mettersi d'accordo perchè abbiamo significati diversi di ragionamento. Inoltre siamo molto centrati nella nostra visione antropocentrica di ragionamento e magari non riusciamo a cogliere gli altri tipi di ragionamento. Chiedersi se l'IA ragiona è come chiedersi se un cane ragiona, se un albero ragiona. E' difficile dare una risposta, perchè quasi sicuramente non esiste un solo modo di "ragionare". Quindi dobbiamo anzitutto metterci d'accordo su cosa intendiamo con la parola ragionare.
|
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
Quote:
Semplicemente, schematizzerei il tutto in termini di input e output domanda ---> ragionamento ---> risposta. L'IA la parte in mezzo LA FA, senza ombra di dubbio. Attendiamo la definizione concreta di ragionamento per ago72 |
|
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: Oct 2004
Messaggi: 1818
|
Quote:
prima di tutto dobbiamo dimostrare che l'essere umano abbia capacità di ragionare. Non è infrequente assistere ad un ragionamento deduttivo di questo tipo: tutti i cani hanno quattro zampe questo animale ha quattro zampe questo animale è un cane Oppure analogamente per il ragionamento induttivo: Sabato non sono riusciuto a prenotare il ristorante perchè pieno L'economia Italiana va a gonfie vele. ![]() ![]() ![]()
__________________
Un uomo intelligente risolve i problemi Un uomo molto intelligente li previene |
|
![]() |
![]() |
![]() |
#15 |
Senior Member
Iscritto dal: Jan 2010
Messaggi: 7206
|
boh
state continuando a considerare "Ragionare" come se fosse qualcosa di filosofico, ma così non è. la IA, al momento, è in grado di accedere a TUTTO IL SAPERE UMANO, cosa che ovviamente una persona non può fare, e in piu ha la velocità del calcolatore. Quindi è abbastanza OVVIO che se gli fai una domanda, "rovistando" tra miliardi di informazioni, ti da la risposta corretta o comunque plausibile. Se la IA fosse DAVVERO in grado di ragionare dovrebbe poterlo fare SENZA avere accesso ad alcun dato.
__________________
Telegram: @shutter1sland |
![]() |
![]() |
![]() |
#16 | |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
Quote:
No, l'IA non fa una semplice ricerca... |
|
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: Jan 2010
Messaggi: 7206
|
se fosse come dici tu, avrebbero RISOLTO già tutti i problemi Matematici, e fatto nuove scoperte in Fisica/Chimica/Scienza
__________________
Telegram: @shutter1sland |
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Jan 2020
Messaggi: 310
|
|
![]() |
![]() |
![]() |
#19 |
Senior Member
Iscritto dal: Jan 2010
Messaggi: 7206
|
menomale che lo sai tu
![]()
__________________
Telegram: @shutter1sland |
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Apr 2009
Messaggi: 302
|
Se è per questo conosco tanti laureati con buona memoria che, avendo letto molto, danno l'illusione di ragionare.
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 03:18.