|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/apple/...do_140035.html
Apple sta esplorando l'uso dell'IA generativa per accelerare la progettazione dei propri chip Apple Silicon. Johny Srouji, responsabile hardware, ha sottolineato l'importanza di strumenti sempre più evoluti, ma anche l'importanza di prendere decisioni nette, come l'addio a Intel. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5104
|
Nvidia lo sta già facendo e forse hanno cominciato a farlo anche AMD e Intel,non vorrei che un Keller o un Gerard Williams diventino obsoleti....
|
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: May 2020
Messaggi: 833
|
Quote:
![]() Chissà quanti bug ci metteranno, visto come funzionano... Hallucination is Inevitable: An Innate Limitation of Large Language Models Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 14:15.