Bing Chat si confonde e diventa sgarbato: Microsoft limita l'uso a 5 domande per volta

Le lunghe sessioni di chat tendono a confondere l'AI conversazionale, e Microsoft decide di limitare la lunghezza delle conversazioni per evitare risposte sgarbate
di Andrea Bai pubblicata il 20 Febbraio 2023, alle 12:31 nel canale WebChatGPTBing
Microsoft ha deciso di limitare l'uso che un utente può fare del chatbot AI di Bing: la misura si è resa necessaria perché, afferma la società di Redmond, le lunghe sessioni di chat tendono a "confondere il modello sottostante nel nuovo Bing.
La limitazione riguarda i "turni di chat", ovvero ogni scambio di conversazioni costituito da una domanda dell'utente e dalla risposta di Bing. Ogni utente potrà effettuate un massimo di 5 turni di chat per sessione e 50 al giorno in totale. Qualora una conversazione dovesse estendersi oltre i cinque turni, il chatbot chiederà all'utente di avviare una nuova conversazione.
Microsoft ha deciso di adottare questa misura perché coloro i quali hanno avuto l'opportunità di provare Bing Chat nelle passate settimane hanno avuto modo di segnalare talvolta comportamenti e risposte strane da parte dell'AI conversazionale. Ad esempio un giornalista del New York Times, Kevin Roose, ha pubblicato una sessione di chat in cui il bot aveva espresso la volontà di diffondere disinformazione hackerando sistemi informatici e, successivamente, ha cercato di convincerlo che la sua relazione matrimoniale non fosse felice.

Su Reddit un utente ha invece pubblicato un'altra conversazione intrattenuta con Bing Chat in cui il bot non credeva di poter essere già nel 2023 e metteva in dubbio l'uscita di Avatar: la via dell'acqua. Il chatbot si è anche spazientito, tacciando l'utente di scorrettezza e maleducazione.
Queste segnalazioni hanno spinto Microsoft a chiarire, tramite un post sul blog ufficiale, che sessioni di chat molto lunghe, dalle 15 domande in su, tendono a confondere il modello e lo portano a dare delle risposte che non necessariamente sono "utili o in linea con il suo tono".
La limitazione delle conversazioni dovrebbe essere una misura temporanea, in quanto Microsoft ha affermato che intende comunque valutare di espandere in futuro tali limiti anche sulla base dei vari feedback che riceverà via via dagli utenti.
12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPer lo meno la misura dovrebbe essere temporanea.
Per lo meno la misura dovrebbe essere temporanea.
normalmente la ricerca la fai con 1 domanda le altre sono solo per affinare il tutto ma non sono certamente fondamentali per raggiungere il risultato
io ho provato il nuovo bing e non sono mai andato oltre la terza domanda ricorsiva
Nel 2016 avevano rilasciato su Twitter il chatbot Tay e poi hanno sopprimerlo perchè ci metteva poco a diventare il nazista o ninfomane dialogando con i twittaroli.
Adesso a 7 anni di distanza di fatto si sta ripetendo la stessa situazione.
Possibile che nessuno avesse pensato a fare dei test di adversarial attack a riguardo ?
Restando sempre in tema di AI ed usi ed abusi degli adversarial attack, sembra che sia possibile battere le AI specializzate nel giocare a Go anche se non si è dei gran maestri:
https://arstechnica.com/information...ictory-over-ai/
quante ne vuoi fare? 200?
Dipende dalle necessità; Attualmente utilizzo Chat GPT per imparare Java, spesso lo interrogo per correggere un codice o dirmi a quale funzione posso usare per fare una determinata cosa - studiando 2-3 ore al giorno si può anche arrivare alle 200+ domande
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".