Bing Chat si confonde e diventa sgarbato: Microsoft limita l'uso a 5 domande per volta

Bing Chat si confonde e diventa sgarbato: Microsoft limita l'uso a 5 domande per volta

Le lunghe sessioni di chat tendono a confondere l'AI conversazionale, e Microsoft decide di limitare la lunghezza delle conversazioni per evitare risposte sgarbate

di pubblicata il , alle 12:31 nel canale Web
ChatGPTBing
 

Microsoft ha deciso di limitare l'uso che un utente può fare del chatbot AI di Bing: la misura si è resa necessaria perché, afferma la società di Redmond, le lunghe sessioni di chat tendono a "confondere il modello sottostante nel nuovo Bing.

La limitazione riguarda i "turni di chat", ovvero ogni scambio di conversazioni costituito da una domanda dell'utente e dalla risposta di Bing. Ogni utente potrà effettuate un massimo di 5 turni di chat per sessione e 50 al giorno in totale. Qualora una conversazione dovesse estendersi oltre i cinque turni, il chatbot chiederà all'utente di avviare una nuova conversazione.

Microsoft ha deciso di adottare questa misura perché coloro i quali hanno avuto l'opportunità di provare Bing Chat nelle passate settimane hanno avuto modo di segnalare talvolta comportamenti e risposte strane da parte dell'AI conversazionale. Ad esempio un giornalista del New York Times, Kevin Roose, ha pubblicato una sessione di chat in cui il bot aveva espresso la volontà di diffondere disinformazione hackerando sistemi informatici e, successivamente, ha cercato di convincerlo che la sua relazione matrimoniale non fosse felice.

Su Reddit un utente ha invece pubblicato un'altra conversazione intrattenuta con Bing Chat in cui il bot non credeva di poter essere già nel 2023 e metteva in dubbio l'uscita di Avatar: la via dell'acqua. Il chatbot si è anche spazientito, tacciando l'utente di scorrettezza e maleducazione.

Queste segnalazioni hanno spinto Microsoft a chiarire, tramite un post sul blog ufficiale, che sessioni di chat molto lunghe, dalle 15 domande in su, tendono a confondere il modello e lo portano a dare delle risposte che non necessariamente sono "utili o in linea con il suo tono".

La limitazione delle conversazioni dovrebbe essere una misura temporanea, in quanto Microsoft ha affermato che intende comunque valutare di espandere in futuro tali limiti anche sulla base dei vari feedback che riceverà via via dagli utenti.

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
calabar20 Febbraio 2023, 12:56 #1
Se i problemi sorgono dopo una quindicina di interventi dell'utente, Microsoft avrebbe potuto decidere di porre il limite ad una decina di domande. Cinque mi sembrano davvero poche e si rischia di non raggiungere lo scopo della ricerca.
Per lo meno la misura dovrebbe essere temporanea.
coschizza20 Febbraio 2023, 12:58 #2
Originariamente inviato da: calabar
Se i problemi sorgono dopo una quindicina di interventi dell'utente, Microsoft avrebbe potuto decidere di porre il limite ad una decina di domande. Cinque mi sembrano davvero poche e si rischia di non raggiungere lo scopo della ricerca.
Per lo meno la misura dovrebbe essere temporanea.


normalmente la ricerca la fai con 1 domanda le altre sono solo per affinare il tutto ma non sono certamente fondamentali per raggiungere il risultato
io ho provato il nuovo bing e non sono mai andato oltre la terza domanda ricorsiva
omerook20 Febbraio 2023, 13:06 #3
questa IA non è senziente però è meglio non farla inc@zz@re!
LMCH20 Febbraio 2023, 13:50 #4
E' quasi divertente come una grande azienza del settore tecnologico come Microsoft riesca a ripetere gli stessi errori ciclicamente.

Nel 2016 avevano rilasciato su Twitter il chatbot Tay e poi hanno sopprimerlo perchè ci metteva poco a diventare il nazista o ninfomane dialogando con i twittaroli.

Adesso a 7 anni di distanza di fatto si sta ripetendo la stessa situazione.

Possibile che nessuno avesse pensato a fare dei test di adversarial attack a riguardo ?

Restando sempre in tema di AI ed usi ed abusi degli adversarial attack, sembra che sia possibile battere le AI specializzate nel giocare a Go anche se non si è dei gran maestri:
https://arstechnica.com/information...ictory-over-ai/
makka20 Febbraio 2023, 15:19 #5
Non è thread-safe
popye20 Febbraio 2023, 17:04 #6
.....aspettando skynet
Hiei360020 Febbraio 2023, 18:09 #7
Solo 50 al giorno? bah....
mrk-cj9426 Febbraio 2023, 21:51 #8
Originariamente inviato da: Hiei3600
Solo 50 al giorno? bah....


quante ne vuoi fare? 200?
Hiei360026 Febbraio 2023, 21:57 #9
Originariamente inviato da: mrk-cj94
quante ne vuoi fare? 200?


Dipende dalle necessità; Attualmente utilizzo Chat GPT per imparare Java, spesso lo interrogo per correggere un codice o dirmi a quale funzione posso usare per fare una determinata cosa - studiando 2-3 ore al giorno si può anche arrivare alle 200+ domande
marantz27 Febbraio 2023, 10:13 #10
Anche nel loro piccolo , le IA si incazzano

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^