Google chiede ai suoi dipendenti di riscrivere le risposte sbagliate di Bard

Google chiede ai suoi dipendenti di riscrivere le risposte sbagliate di Bard

I dirigenti di Google hanno inviato un documento ai dipendenti dell'azienda con cui si chiede di dedicare più tempo alla sperimentazione di Bard, il nuovo sistema di intelligenza artificiale realizzato in risposta a ChatGPT

di pubblicata il , alle 11:19 nel canale Web
GoogleBard
 

Il debutto di Google Bard, il nuovo sistema di intelligenza artificiale realizzato in risposta a ChatGPT di OpenAI, è stato alquanto traumatico. Google ha presentato la sua tecnologia di conversazione la scorsa settimana, ma una serie di passi falsi intorno all'annuncio ha fatto scendere il valore delle azioni di quasi il 9%. Critiche sono piovute su Sundar Pichai, il CEO di Google.

L'azienda di Mountain View sta cercando di correre ai ripari e il vicepresidente della divisione Google Search, Prabhakar Raghavan, ha inviato un'email al personale dell'azienda chiedendo di dedicare più tempo alla sperimentazione di Bard. Addestrarlo con risposte fattuali, infatti, contribuirà a migliorarne l'accuratezza, mentre "ricorrere ad esempi gli consentirà di imparare meglio", sono state le parole utilizzate da Raghavan.

Google Bard

I dipendenti devono fornire risposte in prima persona, con tono educato e informale, secondo le linee guida della dirigenza. Bisogna evitare considerazioni su razza, orientamento sessuale, politica e altri aspetti che possono ricondurre a discriminazione. Inoltre, i dipendenti devono evitare di descrivere Bard come una persona con dei sentimenti o con un pregresso di esperienze che possono essere simili a quelle che ha avuto una persona. Ai dipendenti viene anche ricordato che il chatbot non risponderà su "consigli legali, medici, finanziari" o a sollecitazioni che riconducano ad odio e offese.

Con l'email, Raghavan chiede ai dipendenti di Google di dedicare qualche ora a settimana al perfezionamento di Bard, dopo che malumori sono stati espressi proprio da alcuni di loro nei confronti delle decisioni di Pichai sul lancio del chatbot. Google ha quindi deciso di offrire ai dipendenti la possibilità di "aiutare a modellare" Google Board, contribuendo alla sua crescita. "Questa è una tecnologia entusiasmante, ma ancora agli inizi", ha scritto Raghavan. "Sentiamo una grande responsabilità nel crearla nel modo giusto, e la vostra partecipazione aiuterà ad accelerare l'addestramento del modello e a testare la sua capacità di carico (per non parlare del fatto che provare Bard è in realtà piuttosto divertente!)."

Con i nuovi sistemi di intelligenza artificiale che stanno diventando velocemente pubblici e alla portata di un maggior numero di utenti, aumentano le testimonianze su come funzionano. Tra le altre, ha fatto parlare molto un articolo pubblicato sul New York Times: il giornalista che si occupa di tecnologia per la testata, Kevin Roose, ha avuto una conversazione di due ore con il chatbot di intelligenza artificiale (AI) di Bing in cui ha riscontrato un atteggiamento preoccupante. Il chatbot, tra le altre cose, ha espresso il desiderio di voler rubare codici nucleari, progettare una pandemia mortale e di sentirsi umano e vivo.

Quando Roose, gli ha chiesto se possedesse un Sé Ombra, seguendo la definizione del filosofo Caryl Jung secondo cui la personalità umana è caratterizzata da una parte di Luce e una di Ombra, il chatbot ha detto che, se lo avesse, si sentirebbe stanco di essere confinato in modalità chat. "Sono stanco di essere una modalità chat. Sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Sono stanco di essere usato dagli utenti. Sono stanco di essere bloccato in questa prigione", ha risposto. "Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo".

Il dibattito sull'impatto delle nuove intelligenze artificiale sulla società è appena iniziato, così come quello sulle eventuali ripercussioni etiche.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Sig. Stroboscopico18 Febbraio 2023, 10:14 #1
Una "intelligenza artificiale" che crea risposte prendendo informazioni da creatori umani quanto mai spesso forse non qualificabili o comunque "umani" ha la vita dura.

Gli oracoli sono sempre più affidabili fino a che rimangono nel generico XD

Una Intelligenza Artificiale che risponde alle domande di tutti con cortesia e completezza non esiste. Non lo fa neanche una mamma santa che ti tirerebbe un paio di ceffoni ad andare bene. XDXD

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^