|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/cl...ic_138841.html
Anthropic ha riconosciuto che il proprio chatbot Claude AI ha inserito, all'interno di un documento difensivo di un procedimento contro l'uso utilizzo illecito di testi protetti da copyright, una citazione legale errata. La società ha riconosciuto lo scivolone e si è scusata. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2416
|
Io non capisco perché la notizia che un IA può fare degli errori sia...una notizia, boh? Lo sanno tutti che le IA non sono perfette, perché facciamo finta di stupirci quando accade?
__________________
![]() |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Sep 2002
Città: Milano
Messaggi: 2169
|
La notizia non è che una ai abbia fatto errori, la notizia è che uno studio legale si sia affidato all'ai senza verificare che il contenuto prodotto fosse corretto, ovvero che ci sia qualcuno, che pure ha studiato quindi è istruito ed è pure pagato un botto per andare in tribunale a parlare di leggi e condanne alla gente, che è così poco affidabile e intelligente. Tra l'altro in un processo che riguarda fatti di questo genere.
Probabilmente qualche tirocinante cambierà mestiere. |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: May 2020
Messaggi: 833
|
Niente di nuovo, i modelli probabilistici sono generatori di stronzate. ChatGPT is bullshit.
Inoltre, questo articolo scientifico chiude la possibilità di rimuovere le "allucinazioni" forse più correttamente confabulazioni. Hallucination is Inevitable: An Innate Limitation of Large Language Models Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs.
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin Ultima modifica di pachainti : 17-05-2025 alle 11:00. |
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: May 2020
Messaggi: 833
|
Quote:
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: May 2007
Messaggi: 794
|
Vanno in tribunale, senza nemmeno rileggere cio' che ha scritto la IA, e danno la colpa alla IA.
Suona un po' come "Il gatto mi ha mangiato il quaderno" |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 1841
|
una allucinazione può essere generata anche da un eccesso di regole date.
immagina una ricerca sui generali cinesi, ce ne è uno che si chiama Zhing Zhong ( Cin Ciong, quindi un nome vincolato esattamente come l'n-word o la r-word (retard) ), l'AI potrebbe escluderlo dagli eventi storici facendo un buco che poi richiude inventando qualcosa ( esattamente come quando l'AI generativa prende un parte di immagine e la ricostruisce ). |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 11:09.