| 
 | |||||||
| 
 | 
|  | 
|  | 
|  | Strumenti | 
|  11-06-2025, 10:31 | #1 | 
| www.hwupgrade.it Iscritto dal: Jul 2001 
					Messaggi: 75166
				 | 
		Link alla notizia: https://www.hwupgrade.it/news/web/op...ro_139649.html OpenAI ha annunciato il lancio di o3-pro, la versione più avanzata del modello di ragionamento progettata per offrire risposte più affidabili attraverso tempi di elaborazione estesi. Il nuovo modello sostituisce o1-pro per gli utenti Pro e Team. Click sul link per visualizzare la notizia. | 
|   |   | 
|  11-06-2025, 11:23 | #2 | 
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | 
		Bisogna accettare la realtà: le AI ragionano. E' vera intelligenza. I detrattori pensano che facciano soltanto giochini statistici, ma non è così | 
|   |   | 
|  11-06-2025, 11:31 | #3 | 
| Senior Member Iscritto dal: Dec 2008 
					Messaggi: 17596
				 | 
		
sta "rubando" posti di lavoro oggi. in merito segnalo da ieri con la app bing si possano generare video di 5 secondi tramite testo anche senza registrarsi
		 | 
|   |   | 
|  11-06-2025, 12:58 | #4 | |
| Senior Member Iscritto dal: May 2020 
					Messaggi: 1084
				 | Quote: 
 Ricerca Apple Giugno 2025: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities. Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse. Gennaio 2024: Hallucination is Inevitable: An Innate Limitation of Large Language Models Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs. DK 9x34 - Restiamo ai fatti 
				__________________ Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin | |
|   |   | 
|  11-06-2025, 13:47 | #5 | 
| Senior Member Iscritto dal: Feb 2009 
					Messaggi: 1554
				 | 
		
Non è vero. l'AI attuale non ragiona in quanto non ha contezza di quello che fa. Solo che essendo addestrata su molti miliardi di informazioni, da' l'illusione del ragionamento.
		 | 
|   |   | 
|  11-06-2025, 15:16 | #6 | |
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | Quote: 
 Se il risultato dell'IA è un ragionamento, rassegnati, significa che l'IA ragiona. Ragionare = produrre ragionamenti, non "avere contezza di sè". Ultima modifica di Fantapollo : 11-06-2025 alle 15:19. | |
|   |   | 
|  11-06-2025, 15:38 | #7 | 
| Senior Member Iscritto dal: Feb 2009 
					Messaggi: 1554
				 | 
		
Ora mi spieghi come puoi ragionare su qualcosa su cui non hai consapevolezza. L'IA non applica un approccio deduttivo, che è alla base del ragionamento, ma appplica un approccio solamente induttivo.
		 | 
|   |   | 
|  11-06-2025, 15:53 | #8 | |
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | Quote: 
 La tua è una questione filosofico/linguistica, e non mi interessa. Ragionare significa input = domanda, output = ragionamento e risposta. Ed è evidente che l'IA lo faccia, puoi provare tu stesso. | |
|   |   | 
|  11-06-2025, 16:14 | #9 | |
| Senior Member Iscritto dal: Feb 2009 
					Messaggi: 1554
				 | Quote: 
 Comunque no, l'IA non fa nessun ragionamento. Ed è importante saperlo, perchè così puoi usare l'IA per i compiti in cui eccelle ed evitarla per altre situazioni dove invece fallirà in quanto c'è bisogno di ragionamento. PS uso l'IA quotidianamente in diversi campi. | |
|   |   | 
|  11-06-2025, 16:25 | #10 | |
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | Quote: 
 La parola "ragionamento" per te DEVE implicare chissà quali processi umani... Tu non guardi i risultati, io sì. Tutto qui. I risultati dicono che l'IA ragioni gia' ora meglio di buona parte degli umani. Se la cosa ti crea problemi mentali, vuoi che sostituisca la parola "ragionare" con "rispondere correttamente a delle domande" ? Per me è la stessa cosa, ma magari tu ti senti meglio Ultima modifica di Fantapollo : 11-06-2025 alle 16:28. | |
|   |   | 
|  11-06-2025, 17:28 | #11 | 
| Senior Member Iscritto dal: Feb 2009 
					Messaggi: 1554
				 | |
|   |   | 
|  11-06-2025, 18:27 | #12 | 
| Senior Member Iscritto dal: Feb 2003 
					Messaggi: 554
				 | 
				
				...
			 
		Si fa fatica a mettersi d'accordo perchè abbiamo significati diversi di ragionamento. Inoltre siamo molto centrati nella nostra visione antropocentrica di ragionamento e magari non riusciamo a cogliere gli altri tipi di ragionamento. Chiedersi se l'IA ragiona è come chiedersi se un cane ragiona, se un albero ragiona. E' difficile dare una risposta, perchè quasi sicuramente non esiste un solo modo di "ragionare". Quindi dobbiamo anzitutto metterci d'accordo su cosa intendiamo con la parola ragionare.
		 | 
|   |   | 
|  11-06-2025, 18:37 | #13 | |
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | Quote: 
 Semplicemente, schematizzerei il tutto in termini di input e output domanda ---> ragionamento ---> risposta. L'IA la parte in mezzo LA FA, senza ombra di dubbio. Attendiamo la definizione concreta di ragionamento per ago72 | |
|   |   | 
|  11-06-2025, 18:56 | #14 | |
| Senior Member Iscritto dal: Oct 2004 
					Messaggi: 1837
				 | Quote: 
 prima di tutto dobbiamo dimostrare che l'essere umano abbia capacità di ragionare. Non è infrequente assistere ad un ragionamento deduttivo di questo tipo: tutti i cani hanno quattro zampe questo animale ha quattro zampe questo animale è un cane Oppure analogamente per il ragionamento induttivo: Sabato non sono riusciuto a prenotare il ristorante perchè pieno L'economia Italiana va a gonfie vele.       
				__________________ Un uomo intelligente risolve i problemi Un uomo molto intelligente li previene | |
|   |   | 
|  11-06-2025, 19:14 | #15 | 
| Senior Member Iscritto dal: Jan 2010 
					Messaggi: 7747
				 | 
		boh state continuando a considerare "Ragionare" come se fosse qualcosa di filosofico, ma così non è. la IA, al momento, è in grado di accedere a TUTTO IL SAPERE UMANO, cosa che ovviamente una persona non può fare, e in piu ha la velocità del calcolatore. Quindi è abbastanza OVVIO che se gli fai una domanda, "rovistando" tra miliardi di informazioni, ti da la risposta corretta o comunque plausibile. Se la IA fosse DAVVERO in grado di ragionare dovrebbe poterlo fare SENZA avere accesso ad alcun dato. 
				__________________ Telegram: @shutter1sland | 
|   |   | 
|  11-06-2025, 19:20 | #16 | |
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | Quote: 
 No, l'IA non fa una semplice ricerca... | |
|   |   | 
|  11-06-2025, 20:14 | #17 | 
| Senior Member Iscritto dal: Jan 2010 
					Messaggi: 7747
				 | 
		
se fosse come dici tu, avrebbero RISOLTO già tutti i problemi Matematici, e fatto nuove scoperte in Fisica/Chimica/Scienza
		 
				__________________ Telegram: @shutter1sland | 
|   |   | 
|  11-06-2025, 20:22 | #18 | 
| Senior Member Iscritto dal: Jan 2020 
					Messaggi: 340
				 | |
|   |   | 
|  11-06-2025, 20:38 | #19 | 
| Senior Member Iscritto dal: Jan 2010 
					Messaggi: 7747
				 | 
		
menomale che lo sai tu    
				__________________ Telegram: @shutter1sland | 
|   |   | 
|  11-06-2025, 22:59 | #20 | 
| Senior Member Iscritto dal: Apr 2009 
					Messaggi: 364
				 | 
		
Se è per questo conosco tanti laureati con buona memoria che, avendo letto molto, danno l'illusione di ragionare.
		 | 
|   |   | 
|   | 
| Strumenti | |
| 
 | 
 | 
Tutti gli orari sono GMT +1. Ora sono le: 08:14.









 
		 
		 
		 
		









 
  
 



 
                        
                        










