|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/bi...na_113993.html
Le pratiche conosciute come chatbot jailbreaking stanno facendo luce sui meccanismi alla base del funzionamento dei sistemi di intelligenza artificiale oggi tanto in voga Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 | |
Senior Member
Iscritto dal: Feb 2010
Messaggi: 1149
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: May 2009
Messaggi: 903
|
Francamente mi sembrano cazzate. Questi chatbot non fanno altro che completare in modo plausibile e generalmente coerente il testo che gli viene presentato in imput, sulla base dei bilioni di testi con i quali sono stati addestrati. Il ragazzo con ogni probabilità non ha scoperto una fava, ha solo indotto il chatbot a raccontargli quello che lui voleva sentire, ovvero il chatbot ha completato le sue fantasie in un modo statisticamente plausibile.
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: May 2008
Messaggi: 2082
|
--Il ragazzo con ogni probabilità non ha scoperto una fava, ha solo indotto il chatbot a raccontargli quello che lui voleva sentire, ovvero il chatbot ha completato le sue fantasie in un modo statisticamente plausibile.
Non mi sembra affatto implausibile che queste AI abbiano modaljtá di accesso alternative per questioni di debugging o monitoring. Sembra strano che sia stato possibile accederci semplicemente "circuendo" il software, ma si sente di tutto in giro... |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Sep 1999
Città: Venezia
Messaggi: 340
|
Sará fixato con il prossimo patch thuesday
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 5979
|
Ma non ho capito, prima il chatbot gli dice che sono informazioni confidenziali e poi gli spiffera tutto?
![]() |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 19:13.