Redazione di Hardware Upg
09-02-2023, 14:34
Link alla notizia: https://www.hwupgrade.it/news/web/bing-chat-uno-studente-potrebbe-aver-scoperto-come-ragiona_113993.html
Le pratiche conosciute come chatbot jailbreaking stanno facendo luce sui meccanismi alla base del funzionamento dei sistemi di intelligenza artificiale oggi tanto in voga
Click sul link per visualizzare la notizia.
Peppe1970
09-02-2023, 14:49
Link alla notizia: https://www.hwupgrade.it/news/web/bing-chat-uno-studente-potrebbe-aver-scoperto-come-ragiona_113993.html
Le pratiche conosciute come chatbot jailbreaking stanno facendo luce sui meccanismi alla base del funzionamento dei sistemi di intelligenza artificiale oggi tanto in voga
Click sul link per visualizzare la notizia.
Io mi sono messo in lista di attesa... vorrei tanto verificare se Sydney č un BOOMER :asd:
Francamente mi sembrano cazzate. Questi chatbot non fanno altro che completare in modo plausibile e generalmente coerente il testo che gli viene presentato in imput, sulla base dei bilioni di testi con i quali sono stati addestrati. Il ragazzo con ogni probabilitą non ha scoperto una fava, ha solo indotto il chatbot a raccontargli quello che lui voleva sentire, ovvero il chatbot ha completato le sue fantasie in un modo statisticamente plausibile.
--Il ragazzo con ogni probabilitą non ha scoperto una fava, ha solo indotto il chatbot a raccontargli quello che lui voleva sentire, ovvero il chatbot ha completato le sue fantasie in un modo statisticamente plausibile.
Non mi sembra affatto implausibile che queste AI abbiano modaljtį di accesso alternative per questioni di debugging o monitoring.
Sembra strano che sia stato possibile accederci semplicemente "circuendo" il software, ma si sente di tutto in giro...
Sarį fixato con il prossimo patch thuesday
Ma non ho capito, prima il chatbot gli dice che sono informazioni confidenziali e poi gli spiffera tutto? :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.