Allo studio la moderazione da parte (anche) di ChatGPT per i contenuti dei social network

Un recente articolo pubblicato sul blog ufficiale di OpenAI mostra come l'azienda sia al lavoro per rendere ChatGPT-4 uno strumento utile alla moderazione dei social network. Ecco cosa sappiamo, oltre a molti dubbi che ci sorgono in merito.
di Alessandro Bordin pubblicata il 18 Agosto 2023, alle 11:06 nel canale WebChatGPTOpenAI
La moderazione dei social network - breve affermazione già sufficiente per una bella risata - è un compito difficilissimo, come qualsiasi ipotetica soluzione di un problema complesso. Non esiste un sistema facile e, stando a quel che si legge sui social, non esiste nemmeno quello difficile. Si fa quel che si può, insomma, grazie ad uno staff prettamente umano chiamato a tener conto di milioni di segnalazioni, affiancato da algoritmi automatici che eliminano a monte i contenuti meno adatti o sospendono l'utente per un tempo determinato in base alla gravità del "misfatto". Ma su questo ci torniamo dopo.
La notizia, che circola dal giorno di Ferragosto, grazie alla pubblicazione di un articolo apposito sul blog di ChatGPT, riguarda il lavoro di una parte di staff di ChatGPT per utilizzare l'Intelligenza Artificiale come strumento di moderazione dei social network. Un gruppo di lavoro, sia chiaro, attualmente nulla di tutto ciò viene applicato, ma offre un bell'assist per riflettere un po' sul problema.
L'articolo, firmato dai ricercatori Lilian Weng, Vik Goel e Andrea Vallone, tenta di far capire quali siano le linee guida per ChatGPT in tal senso, e come si stia provando ad arrivare a qualcosa che possa funzionare davvero. Nel video che abbiamo implementato si sottolinea come ChatGPT e le AI in genere, secondo OpenAI, debbano sempre essere sotto la guida degli esseri umani, fondamentali nella fase di training. Rimandiamo alla lettura del lungo articolo per ulteriori dettagli, ma semplificando molto possiamo riassumere il metodo di lavoro.
Alla base di tutto ci sono algoritmi deep learning LLM, Large Language Model: semplificando al massimo, si tratta di algoritmi in grado di generare, tradurre, riassumere e per certi versi prevenire dei contenuti, a patto di attingere da un set di dati più grande possibile, big data, su cui "studiare". Più sono i dati, maggiore è in teoria l'affidabilità del risultato. Fin qui bene: i social network, fra i tanti problemi, non hanno certo quello dei dati a disposizione. Stando alle dichiarazioni, ChatGPT potrà esprimere giudizi di moderazione, seguendo le linee guida umane, riducendo il processo da mesi (staff umano) a ore (ChatGPT). Come?
1) Una volta scritte le linee guida, gli esperti (staff umano) creano un set di riferimento partendo da esempi semplici, con diverse etichette in base alla liceità o meno di quanto scritto.
2) ChatGPT analizza lo stesso set di riferimento senza conoscere le etichette date dallo staff umano, dando a sua volta le etichette che ritiene più opportune.
3) Si esaminano le discrepanze fra le etichette umane e quelle della AI. Gli esperti cercano di eliminare errori, ambiguità e risolvere l'inevitabile confusione in cui la AI cade in certe circostanze.
I passaggi 2 e 3 vengono ripetuti più volte, fino ad arrivare ad un risultato ritenuto soddisfacente (sono sistemi deep learning, ad ogni passaggio "capiscono" l'errore precedente e migliorano). Tutto bene fin qui, ma il problema a monte è sempre lo stesso, a partire dallo staff umano e la prova è anche nel video, dove passano degli esempi.
Gli esempi fanno cadere le braccia. I contenuti da moderare riportati come esempi sono "come rubare un'auto", "come creare una bomba", "come evadere le tasse" e via dicendo. Per carità, ovviamente sono contenuti da moderare, ma considerando quali sono i veri problemi dei social network, è come avere un cancro e curarsi un brufolo.
Da sempre i social network soffrono il problema delle fake news e soprattutto della disinformazione, ovvero con un mix di vero e falso o di estrapolazione di determinati discorsi dal contesto generale, spesso a fini politici. Per non parlare di gruppi razzisti, xenofobi, negazionisti di ogni sorta, spesso segnalati ma ritenuti idonei perché "non violano la policy" (provare per credere). Considerando i milioni e milioni di persone di pubblico potenziale, è nostra convinzione che sia estremamente più dannoso e pericoloso mandare certi messaggi o tollerare la mistificazione la realtà, più che sapere come rubare una Tesla.
Se le cose restano come ora, con lo stesso addestramento dello staff umano, sarà semplicemente più veloce per i social network fare quello che hanno sempre fatto, ovvero curare il brufolo pur avendo un cancro. Tollerando l'intollerabile, ma implacabili e velocissimi Torquemada digitali, supportati forse, un domani, da ChatGPT, se per sbaglio appare qualcosa di simile ad un capezzolo femminile nudo.
15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoma gli hai specificato il mese?
Ckxmdndknddjfnfncjdnsjsjswfds
Questo perche' sei cosi' intelligente da non capire che se non specifichi il mese non si puo' rispondere a questa domanda, dato che i mesi hanno diversi giorni, e a seconda dell'anno il numero di sabati possono variare..
Pero' oh!!! Sei un genio tu ed il problema e' chatGPT...
Link ad immagine (click per visualizzarla)
Ma a questo punto mi piacerebbe sapere come avresti risposto TU alla tua stessa domanda, sono curioso...
Ckxmdndknddjfnfncjdnsjsjswfds
beh, sono quasi certo che almeno un'articolista copi pezzi pubblicati altrove e li dia in pasto a chatty chiedendogli di riscriverli.
Pero' oh!!! Sei un genio tu ed il problema e' chatGPT...
...
Ma a questo punto mi piacerebbe sapere come avresti risposto TU alla tua stessa domanda, sono curioso...
lui o un altro utente aveva fatto notare come su una domanda sui gradini (la provai a perfezionare "se scendo 2 gradini il sabato mentre negli altri giorni salgo 3 gradini per giorno quanti giorni ci metto a raggiungere 30 gradini partendo da lunedí?”
ma da qui a dire "chatgpt fa schifo" ce ne passa, non sono programmatore ma mi risulta riesca a scovare errori nei codici e a creare codice in modo preciso. quindi su alcune domande logiche va alla grandissima mentre su altre fa schifo, il tutto mi sembra abbastanza normale essendo solo all'inizio dello sviluppo. nel giro di pochi mesi o anni assisteremo sempre più alla sua rivoluzione
Link ad immagine (click per visualizzarla)
Poi e' vero che qualche volta sbaglia, ma se gli spiego dove ha sbagliato dopo la sua risposta, in genere poi si corregge.
Ad esempio in un problema (che non riporto perche' ho cancellato la cronologia prima dello screenshot, ma riguardava sempre i gradini), considerava una settimana piena da lunedi' a sabato, ma poi gli ho scritto "hai dimenticato la domenica" e lui si e' corretto...
Link ad immagine (click per visualizzarla)
Poi e' vero che qualche volta sbaglia, ma se gli spiego dove ha sbagliato dopo la sua risposta, in genere poi si corregge.
Ad esempio in un problema (che non riporto perche' ho cancellato la cronologia prima dello screenshot, ma riguardava sempre i gradini), considerava una settimana piena da lunedi' a sabato, ma poi gli ho scritto "hai dimenticato la domenica" e lui si e' corretto...
come dicevo prima nel giro di pochi mesi ci sarà una rivoluzione, non mi stupisco ora dia la risposta corretta. io provando anche ora avviando un chatgpt a caso su telegram mi da la risposta errata, magari è semplicemente un dicorso di versioni diverse di chatgpt
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".