Bing Chat si confonde e diventa sgarbato: Microsoft limita l'uso a 5 domande per volta
Le lunghe sessioni di chat tendono a confondere l'AI conversazionale, e Microsoft decide di limitare la lunghezza delle conversazioni per evitare risposte sgarbate
di Andrea Bai pubblicata il 20 Febbraio 2023, alle 12:31 nel canale WebChatGPTBing
Microsoft ha deciso di limitare l'uso che un utente può fare del chatbot AI di Bing: la misura si è resa necessaria perché, afferma la società di Redmond, le lunghe sessioni di chat tendono a "confondere il modello sottostante nel nuovo Bing.
La limitazione riguarda i "turni di chat", ovvero ogni scambio di conversazioni costituito da una domanda dell'utente e dalla risposta di Bing. Ogni utente potrà effettuate un massimo di 5 turni di chat per sessione e 50 al giorno in totale. Qualora una conversazione dovesse estendersi oltre i cinque turni, il chatbot chiederà all'utente di avviare una nuova conversazione.
Microsoft ha deciso di adottare questa misura perché coloro i quali hanno avuto l'opportunità di provare Bing Chat nelle passate settimane hanno avuto modo di segnalare talvolta comportamenti e risposte strane da parte dell'AI conversazionale. Ad esempio un giornalista del New York Times, Kevin Roose, ha pubblicato una sessione di chat in cui il bot aveva espresso la volontà di diffondere disinformazione hackerando sistemi informatici e, successivamente, ha cercato di convincerlo che la sua relazione matrimoniale non fosse felice.

Su Reddit un utente ha invece pubblicato un'altra conversazione intrattenuta con Bing Chat in cui il bot non credeva di poter essere già nel 2023 e metteva in dubbio l'uscita di Avatar: la via dell'acqua. Il chatbot si è anche spazientito, tacciando l'utente di scorrettezza e maleducazione.
Queste segnalazioni hanno spinto Microsoft a chiarire, tramite un post sul blog ufficiale, che sessioni di chat molto lunghe, dalle 15 domande in su, tendono a confondere il modello e lo portano a dare delle risposte che non necessariamente sono "utili o in linea con il suo tono".
La limitazione delle conversazioni dovrebbe essere una misura temporanea, in quanto Microsoft ha affermato che intende comunque valutare di espandere in futuro tali limiti anche sulla base dei vari feedback che riceverà via via dagli utenti.










Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
Etica e software libero protagonisti a SFSCON 2025
Il reattore che ricarica le batterie scartate e produce nuovo litio: la rivoluzione di Rice University
AMD FSR Redstone: la nuova tecnologia basata sulle reti neurali esordisce su Call of Duty: Black Ops 7
Meta Quest 3S a un prezzo senza precedenti per le offerte Black Friday: realtà mista e bundle esclusivo a soli 249,99€
Rischio per gli SSD? I driver chipset AMD scrivono continuamente sul drive, ma non è chiaro il perché
Quanto sono 'woke' le intelligenze artificiali? Anthropic ha adesso uno strumento per misurarlo
Rockstar rilancia Red Dead Redemption su PS5, Series X, Switch 2 e smartphone
Blue Origin centra l'obiettivo: New Glenn atterra e porta ESCAPADE verso Marte
Regali di Natale spendendo poco con il Black Friday: tante idee mai sopra i 100€
Windows 11/10: Microsoft chiude per sempre il metodo di attivazione KMS38 offline
Speciale CMF Nothing: smartphone, smartwatch e cuffie in offerta, design unico e tecnologia premium a prezzi mai visti
Cooler Master presenta MasterFrame 400 Mesh: compatto, modulare e super ventilato
ChatGPT lancia le chat di gruppo collaborative con l'IA integrata: come funzionano
Galaxy S25 Ultra a un prezzo pazzesco: il modello da 512 GB crolla a 899€, occasione imperdibile









12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPer lo meno la misura dovrebbe essere temporanea.
Per lo meno la misura dovrebbe essere temporanea.
normalmente la ricerca la fai con 1 domanda le altre sono solo per affinare il tutto ma non sono certamente fondamentali per raggiungere il risultato
io ho provato il nuovo bing e non sono mai andato oltre la terza domanda ricorsiva
Nel 2016 avevano rilasciato su Twitter il chatbot Tay e poi hanno sopprimerlo perchè ci metteva poco a diventare il nazista o ninfomane dialogando con i twittaroli.
Adesso a 7 anni di distanza di fatto si sta ripetendo la stessa situazione.
Possibile che nessuno avesse pensato a fare dei test di adversarial attack a riguardo ?
Restando sempre in tema di AI ed usi ed abusi degli adversarial attack, sembra che sia possibile battere le AI specializzate nel giocare a Go anche se non si è dei gran maestri:
https://arstechnica.com/information...ictory-over-ai/
quante ne vuoi fare? 200?
Dipende dalle necessità; Attualmente utilizzo Chat GPT per imparare Java, spesso lo interrogo per correggere un codice o dirmi a quale funzione posso usare per fare una determinata cosa - studiando 2-3 ore al giorno si può anche arrivare alle 200+ domande
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".