La chatbot IA Bard commette un errore nella prima demo pubblica e le azioni di Google sprofondano

La chatbot IA Bard commette un errore nella prima demo pubblica e le azioni di Google sprofondano

In una delle prime apparizioni ufficiali, la nuova chatbot di Google avrebbe commesso una grave imprecisione, secondo le segnalazioni di alcuni astronomi

di pubblicata il , alle 10:36 nel canale Web
Google
 

Google Bard è il nuovo servizio sperimentale conversazionale di Google che in qualche modo rappresenta una risposta all'integrazione di ChatGPT all'interno di Bing e alla collaborazione tra OpenAI e Microsoft. Tuttavia, in una delle prime dimostrazioni pubbliche, ha commesso un errore, come confermano le segnalazioni di alcuni astronomi su Twitter.

Quando gli è stato chiesto come poter raccontare le scoperte del telescopio spaziale James Webb a un bambino, Bard ha fornito tre risposte e in una di queste ha asserito che il JWST ha catturato per primo un'immagine di un pianeta esterno al sistema solare. Questo non corrisponde al vero, perché esistono immagini del genere risalenti al 2004, quando il JWST non era ancora in funzione.

Google Bard

L'avvenimento rafforza le perplessità circa l'attendibilità di questi strumenti di intelligenza artificiale, e il pericolo che possano contribuire ad alimentare la disinformazione. Alcuni puntano il dito sulla tendenza delle chatbot AI come ChatGPT e Bard a dichiarare con sicurezza informazioni errate come fatti reali. In altri termini, è il funzionamento alla base di queste tecnologie che viene chiamato in causa, visto che vengono addestrate su enormi fonti di dati e analizzano i modelli per determinare quale parola segue la successiva nelle frasi, invece che attingere da database di fatti comprovati. Operano, dunque, con un approccio probabilistico e non deterministico.

Internet è già pieno di informazioni false e fuorvianti, ma questo non sembra rappresentare fino in fondo un problema per Microsoft, Google e gli altri produttori di motori di ricerca, che molto frequentemente trattano un'informazione non corretta come se fosse corretta. In più, le risposte delle chatbot sembrano essere suffragate da un'autorità onnisciente.

Google Bard

Microsoft, che ha appena rivelato il suo nuovo motore di ricerca Bing basato sull'intelligenza artificiale, ha cercato di prevenire questi problemi attribuendo responsabilità all'utente. "Bing è alimentato dall'intelligenza artificiale, quindi sono possibili sorprese ed errori", afferma il disclaimer dell'azienda. "Assicurati di controllare i fatti e condividere il tuo feedback in modo che possiamo migliorare!".

Ecco invece la risposta di un portavoce di Google sull'increscioso incidente a The Verge: "Questo evidenzia l'importanza di un rigoroso processo di test, qualcosa che stiamo dando il via questa settimana con il nostro programma Trusted Tester. Combineremo il feedback esterno con i nostri test interni per assicurarci che le risposte di Bard assicurino un elevato livello di qualità, sicurezza e fondatezza delle informazioni".

Le rassicurazioni di Google, però, non sembrano aver funzionato fino in fondo, se è vero che le azioni di Alphabet, la compagnia che possiede Google, hanno perso 100 miliardi di valore di mercato nelle ore subito successive alla pubblicazione delle notizie sull'errore di Bard e ai recenti annunci di Microsoft. Ieri, le azioni della compagnia sono scese dell'8% (-8,95 dollari per azione), e nel momento in cui scriviamo sono a 93,40 dollari, mentre si è registrata una grossa attività intorno ad esse.

Google ha intrapreso ormai due anni fa il percorso con modelli linguistici di grandi dimensioni passando per nuove funzionalità onversazionali di ultima generazione basate su LaMDA (Language Model for Dialogue Applications), ovvero il modello linguistico di Google per le applicazioni sul dialogo. Altri dettagli si trovano qui.

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
marcram09 Febbraio 2023, 10:47 #1
Sono strumenti utili, potenti, ma come tutti gli strumenti, bisogna saperli usare.
Dai un coltello affilato in mano ad un incapace, e si taglierà un dito...
Marok09 Febbraio 2023, 10:58 #2
Effettivamente funzina bene. Mi ricordo bene che la notizia fosse riportata effettivamente così da tantissime testate giornalistiche e di news, quindi lui ha dedotto le parole dalla numerosità di fonti. Il problema è l'esperienza che questi sistemi non hanno. Non riescono a distinguere da 1000 fonti quale siano quelle 3 affidabili e quali le 997 spazzatura. Bisognerebbe educarli anche in questo.
ale_rx09 Febbraio 2023, 11:50 #3
Originariamente inviato da: Marok
Effettivamente funzina bene. Mi ricordo bene che la notizia fosse riportata effettivamente così da tantissime testate giornalistiche e di news, quindi lui ha dedotto le parole dalla numerosità di fonti. Il problema è l'esperienza che questi sistemi non hanno. Non riescono a distinguere da 1000 fonti quale siano quelle 3 affidabili e quali le 997 spazzatura. Bisognerebbe educarli anche in questo.


figurati, non ci riesce gran parte della popolazione..
The_Silver09 Febbraio 2023, 12:02 #4
Originariamente inviato da: ale_rx
figurati, non ci riesce gran parte della popolazione..

beh ma spero che "educare" una sola AI a questo sia più facile che farlo a tutte le teste del mondo
carcorti09 Febbraio 2023, 13:41 #5
Cosa dire allora di ChatGPT secondo cui Erwin Rommel non ha partecipato alla Prima Guerra Mondiale, tantomeno alla battaglia di Caporetto (ho le prove di tale risposta)??? Sarebbe corretto non scandalizzarsi troppo dell'errore di Bard e di conseguenza non lasciarsi contagiare da un ridicolo panic-sell finanziario su Alphabet, probabilmente creato da altre IA. Questi strumenti non sono ancora sufficientemente maturi ed addestrati e nessuno può dirsi migliore di un'altro vantando una illogica supremazia.
sbaffo09 Febbraio 2023, 15:03 #6
Originariamente inviato da: Marok
Effettivamente funzina bene. Mi ricordo bene che la notizia fosse riportata effettivamente così da tantissime testate giornalistiche e di news, quindi lui ha dedotto le parole dalla numerosità di fonti. Il problema è l'esperienza che questi sistemi non hanno. Non riescono a distinguere da 1000 fonti quale siano quelle 3 affidabili e quali le 997 spazzatura. Bisognerebbe educarli anche in questo.

infatti, non sono vere intelligenze ma solo macchine statistiche, probabilistiche come dice l'articolo. Il resto è marketing, come dicevamo io e Pachainti nelle altre news sull' AI. Oggi finalmente si è visto il risultato e se ne sono accorti tutti.
randorama09 Febbraio 2023, 15:07 #7
Originariamente inviato da: carcorti
Cosa dire allora di ChatGPT secondo cui Erwin Rommel non ha partecipato alla Prima Guerra Mondiale, tantomeno alla battaglia di Caporetto (ho le prove di tale risposta)??? Sarebbe corretto non scandalizzarsi troppo dell'errore di Bard e di conseguenza non lasciarsi contagiare da un ridicolo panic-sell finanziario su Alphabet, probabilmente creato da altre IA. Questi strumenti non sono ancora sufficientemente maturi ed addestrati e nessuno può dirsi migliore di un'altro vantando una illogica supremazia.


se tu fossi furbo avresti comprato azioni quando gli altri vendevano.
Bonaparte209 Febbraio 2023, 15:44 #8
Ah ecco, pensavo che fossero oracoli e invece
carcorti09 Febbraio 2023, 18:32 #9
Comunque la maggior parte delle AI deve essere più intelligente di chi pensa che abbia qualche interesse finanziario od altro in Alphabet/Google o Microsoft o similari. Mai avuto titoli azionari di questi soggetti. La mia osservazione voleva solo sottolineare, come qualcuno ha ben compreso, la fragilità di questi nuovi strumenti e nel contempo la loro potenza nell'inebetire menti comunque compromesse dalla globalizzazione turbo-capitalistica ed incapaci di una qualsiasi analisi critica.
pachainti09 Febbraio 2023, 18:52 #10
Per me è solo marketing e speculazione, di realmente valido c'è poco. Inoltre, ci sono grandi rischi spiegati bene dai seguenti link:
[LIST]
[*] DK 7x10 Stronzate Artificiali.
[*] Pappagalli stocastici e il potere delle big tech.
[*] Estrattivismo dei dati.
[*] Do Users Write More Insecure Code with AI Assistants?
[*] Stackoverflow: ChatGPT is banned.
[/LIST]

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^