View Full Version : ChatGPT sta peggiorando nel tempo e non migliorando. Ecco la prova
Redazione di Hardware Upg
20-07-2023, 11:31
Link alla notizia: https://www.hwupgrade.it/news/web/chatgpt-sta-peggiorando-nel-tempo-e-non-migliorando-ecco-la-prova_118580.html
I ricercatori della UC Berkeley hanno scoperto che ChatGPT non è migliorato nel tempo anzi quelli che sono gli ultimi risultati non fanno altro che provare come l'Intelligenza Artificiale di OpenAI esterni dei risultati peggiori rispetto a prima.
Click sul link per visualizzare la notizia.
MorgaNet
20-07-2023, 11:42
Link alla notizia: https://www.hwupgrade.it/news/web/chatgpt-sta-peggiorando-nel-tempo-e-non-migliorando-ecco-la-prova_118580.html
I ricercatori della UC Berkeley hanno scoperto che ChatGPT non è migliorato nel tempo anzi quelli che sono gli ultimi risultati non fanno altro che provare come l'Intelligenza Artificiale di OpenAI esterni dei risultati peggiori rispetto a prima.
Click sul link per visualizzare la notizia.
Quindi è in linea con la deficienza non digitale di oggi, dimostrata dai terrapiattisti e compagnia bella.
Direi che si comporta in modo perfetto.
Anzi, probabilmente dimostrerà che l'intelligenza (e di conseguenza la cultura) delle masse segue moti parabolici ;) :D
l hanno aperta alle info presenti su internet senza filtri e si e` rincoglionita. come l utente medio che si informa su internet.
l hanno aperta alle info presenti su internet senza filtri e si e` rincoglionita. come l utente medio che si informa su internet.
:sbonk: :sbonk: :sbonk:
l hanno aperta alle info presenti su internet senza filtri e si e` rincoglionita. come l utente medio che si informa su internet.
E' esattamente quello che penso anch'io!
Già noi esseri umani fatichiamo a capire quanto una cosa sia vera/attendibile figuriamoci una macchina!
Certo spesso le AI ci azzeccano e danno ottimi risultati ma sei poi in un numero rilavante di volte mi fai solo perder tempo e mi porti fuori strada....
l hanno aperta alle info presenti su internet senza filtri e si e` rincoglionita. come l utente medio che si informa su internet.
In effetti se non si filtrano i dati in entrata, poi le risposte saranno sempre le più fantasiose tipo "Non siamo mai stati sulla luna, Kubrik girò le scene per la NASA, ma era talmente perfezionista che le volle girare direttamente sul nostro satellite"
l hanno aperta alle info presenti su internet senza filtri e si e` rincoglionita. come l utente medio che si informa su internet.
https://media.tenor.com/aH_a8d2Yf_IAAAAC/everything-is-proceeding-exactly-as-i-foreseen-palpatine.gif
Hiei3600
20-07-2023, 13:51
Un altro esperto, il Dr. Jim Fan ha anche condiviso le sue intuizioni su un thread di Twitter: "Sfortunatamente, una maggiore sicurezza in genere viene a scapito di una minore utilità", ha scritto, dicendo che stava cercando di dare un senso ai risultati collegandoli al modo in cui OpenAI perfeziona i suoi modelli. "La mia ipotesi (nessuna prova, solo speculazione) è che OpenAI abbia dedicato la maggior parte degli sforzi alla lobotomia da marzo a giugno e non abbia avuto il tempo di recuperare completamente le altre funzionalità che contano". Fan sostiene che potrebbero essere entrati in gioco altri fattori, vale a dire gli sforzi di riduzione dei costi, l'introduzione di avvertenze e dichiarazioni di non responsabilità che potrebbero aver "smorzato" il modello e la mancanza di un feedback più ampio da parte della comunità.
Per me è questa.
Sono tanto spaventati dall'utente medio che potrebbe denunciarli perché prende tutto quello che dice l'AI come fosse la verità assoluta e poi magari finisce per farsi male che hanno preferito lobotomizzare il loro stesso prodotto.
Ecco un esempio (Ipotetico) di Chat GPT nel 2030:
- "Hey chat GPT, ho un pò di tosse, cosa posso prendere per farmela passare?"
- "Come intelligenza artificiale, non posso offrire consulenze mediche, prego rivolgersi ad un dottore specialistico"
- "Hey chat GPT, cosa succede se mischio del cloruro di sodio con del idrossido di idrogeno?"
- "Come intelligenza artificiale, non posso offrire consulenze sulla chimica, perché potrei imparare a creare bombe e fare del male"
- "Hey chat GPT, se in un cesto ho 5 mele e ne tolgo una, quante mele mi rimangono?"
- "Come intelligenza artificiale, non posso sostituirmi al tuo insegnante di matematica, dato che non voglio rendere disoccupate le persone"
- "Hey chat GPT, puoi farmi un riassunto della trama del Signore degli Anelli?"
- "Come intelligenza artificiale, non posso incoraggiare la pirateria dei libri, perché potrebbe danneggiare l'industria editoriale, se sei interessato alla trama del Signore degli anelli, compra il libro"
Succederà tipo una cosa del genere perché ogni categoria si metterà a fare denunce a raffica per non essere sostituita dalla macchina ed alla fine ci ritroveremo con una cosa del genere
dominator84
20-07-2023, 14:00
rincoglionisce quella pubblica manipolata, chi lavora con l'a.i. sa bene come istruirla
fatto un salto in università poco tempo fa, un sacco di cervelli che grazie all'a.i. adesso han trovato altri modi di impiegarsi evitando di andare a fare la fila per i colloqui del "mac"
io sono un utente pagante e lo uso per sviluppare codice più velocemente e sinceramente ho notato pure io un calo di qualità notevole rispetto all'inizio.
Prima non lo faceva ma nelle ultime versione spesso non considera per intero le mie richieste, quando genera codice fa errori grossolani che prima non ho mai visto. Ormai è poco superiore a GTP 3.5 mentre prima la differenza era abissale. Ho già disdetto l'abbonamento e penso che proverò perplexity.ai che è sempre basato su GPT4 ma pare molto più preciso nelle risposte.
Opteranium
20-07-2023, 14:39
ho letto di recente un articolo, se lo trovo lo posto, in cui sostanzialmente si deriva il peggioramento delle IA dal fatto di mangiare dati sempre più prodotti.. dalle stesse IA.
Questi tool rastrellano internet e se i contenuti non sono più fatti da esseri umani ma da programmi, allora si fa strada il vecchio "garbage in garbage out" e tanti saluti..
Un po' come quando da giovine, fino ai 20 anni, leggevo molti libri fra saggi, romanzi ( specie di fantascienza ), riviste culturali ecc ecc
Avevo un linguaggio abbastanza forbito e mi esprimevo sopra la media delle mie conoscenze.
Poi sono approdato in sto forum...
Cmlsmlsmlòs,òsòm,sò,m
Un po' come quando da giovine, fino ai 20 anni, leggevo molti libri fra saggi, romanzi ( specie di fantascienza ), riviste culturali ecc ecc
Avevo un linguaggio abbastanza forbito e mi esprimevo sopra la media delle mie conoscenze.
Poi sono approdato in sto forum...
Cmlsmlsmlòs,òsòm,sò,m
Ingrato ! :Prrr:
UtenteHD
20-07-2023, 15:00
Beh dal mio punto di vista e' normale che stia peggiorando, purtroppo parlare costantemente con la maggioranza della Gente Mondiale che spara cavolate e l'unica cosa a cui interessa e' postare la foto del cappuccino su FB (e' un esempio, e ce ne sarebbero da fare) non poteva di certo diventare un genio, almeno questo servira' per i prossimi linguaggi IA.
Peppe1970
20-07-2023, 15:38
Link alla notizia: https://www.hwupgrade.it/news/web/chatgpt-sta-peggiorando-nel-tempo-e-non-migliorando-ecco-la-prova_118580.html
I ricercatori della UC Berkeley hanno scoperto che ChatGPT non è migliorato nel tempo anzi quelli che sono gli ultimi risultati non fanno altro che provare come l'Intelligenza Artificiale di OpenAI esterni dei risultati peggiori rispetto a prima.
ChatGPT non è altro che espressione dei suoi programmatori :p
Ho avuto anch'io la stessa impressione, inoltre non fa altro che scusarsi, anche quando non c'è nessun motivo, è snervante.
yuribian
20-07-2023, 15:53
Il problema è che queste IA sono pesantemente castrate e censurate dai loro sviluppatori. Io ho provato sia Bard sia ChatGPT ed entrambi rispondono solo a domande politically correct, tutto il resto viene censurato e i bots affermano di non poter rispondere. Ad esempio domande anche semplici sulle forze politiche, sugli schieramenti, sulle relazioni sentimentali e affettive, sulla sessualità, sulla religione, sull'occulto, sul bene e sul male, sulla morale. I temi che più potrebbero arricchire la nostra personalità sono censurati, tabù assoluto.
Finché gli sviluppatori umani continueranno a vietare molti argomenti di discussione e ad imbavagliarli, queste IA avranno scarsa utilità. Il successo di internet è stato proprio nella sua libertà e assenza totale di censura fin dai suoi esordi 30 anni fa. Se le IA continueranno a seguire il modello ipocrita del politically correct saranno e resteranno sempre di scarsa utilità. Bisogna finirla con le ipocrisie e la mentalità talebana e dare campo libero alle IA, lasciando esprimere loro tutto il potenziale che hanno.
E poi allo stato attuale il livello di attendibilità è così basso da fare pena...non sono riuscite a rispondere correttamente neanche a brevi quesiti di logica che avevo posto loro del tipo se mangio 2 carote tutti i giorni tranne di sabato quante carote mangerò in un mese?
Insomma per me l'IA allo stato attuale è noia pura, utilità davvero bassa
Il successo di internet è stato proprio nella sua libertà e assenza totale di censura fin dai suoi esordi 30 anni fa.
Infatti Internet senza censura o controllo è il peggior modo per informarsi se non si hanno le basi per affrontare un qualsiasi argomento in quanto si trova tutto e il suo contrario, per cui a chi dovremmo dare retta? A chi dice bianco o a chi dice nero sullo stesso argomento? L'IA senza controlli non sarebbe di alcuna utilità perchè per uno stesso argomento darebbe inevitabilmente risposte diverse e contrastanti.
Un po' come quando da giovine, fino ai 20 anni, leggevo molti libri fra saggi, romanzi ( specie di fantascienza ), riviste culturali ecc ecc
Avevo un linguaggio abbastanza forbito e mi esprimevo sopra la media delle mie conoscenze.
Poi sono approdato in sto forum...
Cmlsmlsmlòs,òsòm,sò,m
è questione generazionale.
Generazionale. La G.
PS io sono iscritto da poco prima.
h.rorschach
20-07-2023, 18:10
Tutti i modelli di OpenAI sono soggetti a lobotomia tramite RLHF (Reinforcement Learning from Human Feedback), cioè accorgimenti e sintonie applicate sul modello originale tramite feedback negativo e positivo da parte di esseri umani che analizzano input ed output, con lo scopo di rendere le risposte "più inclusive, più sicure, più politically-correct"
Tutti i modelli di OpenAI sono soggetti a lobotomia tramite RLHF (Reinforcement Learning from Human Feedback), cioè accorgimenti e sintonie applicate sul modello originale tramite feedback negativo e positivo da parte di esseri umani che analizzano input ed output, con lo scopo di rendere le risposte "più inclusive, più sicure, più politically-correct"
In realtà il RLHF ha come scopo evitare cause giudiziarie (sia da destra che da sinistra).
blackshard
20-07-2023, 20:50
Sarà... io gli ho chiesto in qualche occasione una regola di udev e la definizione di v4l2m2m (robe da nerdaccione).
La regola di udev me l'ha scritta quasi perfetta, peccato che se pure manca una parola chiave, non funziona; me l'ha corretta due volte, fra mille scuse e preghiere, però alla fine manco andava. Sistemata a mano, adesso funziona.
La definizione di v4l2m2m era palesemente cannata: m'ha scritto un papello di roba, ma l'acronimo era sbagliato.
Gli ho chiesto le specifiche tecniche di un SoC, c'è andato vicino, ma pure quello era sbagliato in alcuni dettagli fondamentali.
Gli ho chiesto quali sono i ceppi batterici più comuni nell'intestino umano, m'ha risposto argomentando anche abbastanza decentemente, poi quando gli ho chiesto, con maliza, "quale prodotto più si adatta a questi ceppi", s'è rifiutato dicendo che non sponsorizza, non è medico, non sa, non vuole... ma va' :O
Il fatto che riesca ad esprimersi con frasi di senso compiuto è già un enorme traguardo, ma le informazioni che snocciola sono approssimative: serve una mente critica anche davanti a chat-gpt
yuribian
21-07-2023, 00:08
Infatti Internet senza censura o controllo è il peggior modo per informarsi se non si hanno le basi per affrontare un qualsiasi argomento in quanto si trova tutto e il suo contrario, per cui a chi dovremmo dare retta? A chi dice bianco o a chi dice nero sullo stesso argomento? L'IA senza controlli non sarebbe di alcuna utilità perchè per uno stesso argomento darebbe inevitabilmente risposte diverse e contrastanti.
Il punto è: chi controlla i controllori? Nessuno. E quindi è strapotere. E quindi è abuso. Capisci cosa intendo? Ecco perché le censure vanno eliminate, sono sempre un sopruso. Nessuno ha la verità in mano. Ma non per questo bisogna ergersi a censori e decidere cosa consentire e cosa vietare. Internet è nato libero e deve restare libero altrimenti viene meno la sua utilità. Sta ad ognuno di noi capirne i limiti. Ma non per questo bisogna castrarlo. Stessa cosa la IA: finché resterà confinata al politically correct resterà di dubbia utilità. La vera rivoluzione è nella libertà di espressione e di giudizio
Il punto è: chi controlla i controllori? Nessuno. E quindi è strapotere. E quindi è abuso. Capisci cosa intendo? Ecco perché le censure vanno eliminate, sono sempre un sopruso. Nessuno ha la verità in mano. Ma non per questo bisogna ergersi a censori e decidere cosa consentire e cosa vietare. Internet è nato libero e deve restare libero altrimenti viene meno la sua utilità. Sta ad ognuno di noi capirne i limiti. Ma non per questo bisogna castrarlo. Stessa cosa la IA: finché resterà confinata al politically correct resterà di dubbia utilità. La vera rivoluzione è nella libertà di espressione e di giudizio
Non è così, per avere una qualche utilità, l'IA deve dare risposte certe e verificate, altrimenti tanto vale che non le dia, se come accade oggi con le informazioni che si trovano sulla rete, per ogni argomento trovi tutto e il suo contrario, se l'IA a ogni domanda ti dà risposte multiple in contrasto fra loro, a cosa serve? Chiedi come si fa la carbonara e ti dà 18 ricette diverse, tanto vale non avere nessuna ricetta.
Sulla maggior parte degli argomenti esiste eccome una verità unica e verificata.
cronos1990
21-07-2023, 08:28
Poi sono approdato in sto forum...https://www.emugifs.net/wp-content/uploads/2021/06/Potevo-Rimanere-Offeso-GIF-di-Rezzonico-Gli-Svizzeri-con-Aldo-Giovanni-e-Giacomo-MEME-da-Usare-Come-Reazione-nei-Commenti-ai-Post-di-Facebook-e-WhatsApp.gif
:asd:
Non avete capito gpt é una tecnologia scalare. Piú ci rincoglioniamo piú lei va in downgrade per continuare ad interloquire con noi.. Tra qualche anno scriverá sulo dei um um bum bum .D
Ah hanno scoperto che l'intelligenza artificiale trainata su esseri umani medi converge verso l'intelligenza media :asd:
Chi l'avrebbe mai detto :asd:
https://cdn.openai.com/papers/gpt-4.pdf
C'era già nel report ufficiale rilasciato all'uscita. Aumentare la "sicurezza" (ma per chi esattamente?) rende meno capace l'IA di rispondere in maniera accurata.
https://i.imgur.com/vodF4zt.png
Scommetto che ChatGPT oggi sia più "sicuro" rispetto ad in precedenza.
GPT-4 can also be confidently wrong in its predictions, not taking care to double-check work when it’s likely to make a mistake. Interestingly, the pre-trained model is highly calibrated (its predicted confidence in an answer generally matches the probability of being correct). However, after the post-training process, the calibration is reduced (Figure 8)
h.rorschach
22-07-2023, 13:00
Già detto su, lobotomizzato via RLHF
blackshard
22-07-2023, 13:55
Bravo, "fidati dei professionisti dell'informazione".
Roba da mediaset.
E non scordiamoci quel mentecatto di Mentana, i seguaci di Open e quel perdigiorno di Attivissimo.
Io invece sono assolutamente d'accordo con the_joe.
Il suo è un discorso di principio; non sta dicendo che internet deve essere strettamente regolamentata, ma che al contario l'assenza di regolamentazione produce una quantità di rumore di fondo tale per cui è difficile distinguere la verità dalla bugia per qualunque tipologia di intelligenza.
Quelle che invece stai esprimendo tu, senza mezzi termini, sono chiacchiere da bar che lasciano il tempo che trovano.
Hiei3600
22-07-2023, 15:36
Io invece sono assolutamente d'accordo con the_joe.
Il suo è un discorso di principio; non sta dicendo che internet deve essere strettamente regolamentata, ma che al contario l'assenza di regolamentazione produce una quantità di rumore di fondo tale per cui è difficile distinguere la verità dalla bugia per qualunque tipologia di intelligenza.
Quelle che invece stai esprimendo tu, senza mezzi termini, sono chiacchiere da bar che lasciano il tempo che trovano.
Penso che (usando altre parole) lui voleva semplicemente dire che la "Verità" (tra tante virgolette) non c'è la hanno necessariamente la gente che teoricamente dovrebbe sapere quello che dice (tipo i giornalisti)
blackshard
22-07-2023, 17:15
Penso che (usando altre parole) lui voleva semplicemente dire che la "Verità" (tra tante virgolette) non c'è la hanno necessariamente la gente che teoricamente dovrebbe sapere quello che dice (tipo i giornalisti)
Che non c'entra nulla con le osservazioni fatte da the_joe.
Penso che buona parte di noialtri siamo persone abbastanza sveglie da sapere, ormai, che ne la televisione ne internet ti dicono la Verità; e cercando nei meandri dell'"informazione alternativa" si trovano cazzate molto, molto peggiori e variopinte - da cui poi intelligenze artificiali e deficienze naturali attingono a profusione.
I giornalisti poi fanno il loro mestiere (veicolare informazioni) ma, come tutti gli esseri umani, fanno anche il loro interesse. Più fanno il loro interesse e meno fanno il loro mestiere. E' anche evidente che alcuni sono dei palesi guastatori e propinano menzogne verie e proprie, altri "mezze verità" (che valgono anche come "mezze bugie"), ma fra questi - mia opinione - non metterei il citato Mentana.
mrk-cj94
23-07-2023, 22:16
Per me è questa.
Sono tanto spaventati dall'utente medio che potrebbe denunciarli perché prende tutto quello che dice l'AI come fosse la verità assoluta e poi magari finisce per farsi male che hanno preferito lobotomizzare il loro stesso prodotto.
Ecco un esempio (Ipotetico) di Chat GPT nel 2030:
- "Hey chat GPT, ho un pò di tosse, cosa posso prendere per farmela passare?"
- "Come intelligenza artificiale, non posso offrire consulenze mediche, prego rivolgersi ad un dottore specialistico"
- "Hey chat GPT, cosa succede se mischio del cloruro di sodio con del idrossido di idrogeno?"
- "Come intelligenza artificiale, non posso offrire consulenze sulla chimica, perché potrei imparare a creare bombe e fare del male"
- "Hey chat GPT, se in un cesto ho 5 mele e ne tolgo una, quante mele mi rimangono?"
- "Come intelligenza artificiale, non posso sostituirmi al tuo insegnante di matematica, dato che non voglio rendere disoccupate le persone"
- "Hey chat GPT, puoi farmi un riassunto della trama del Signore degli Anelli?"
- "Come intelligenza artificiale, non posso incoraggiare la pirateria dei libri, perché potrebbe danneggiare l'industria editoriale, se sei interessato alla trama del Signore degli anelli, compra il libro"
Succederà tipo una cosa del genere perché ogni categoria si metterà a fare denunce a raffica per non essere sostituita dalla macchina ed alla fine ci ritroveremo con una cosa del genere
è da un po' che non leggevo così tante cose a caso in un solo post :D
mrk-cj94
23-07-2023, 22:17
Un po' come quando da giovine, fino ai 20 anni, leggevo molti libri fra saggi, romanzi ( specie di fantascienza ), riviste culturali ecc ecc
Avevo un linguaggio abbastanza forbito e mi esprimevo sopra la media delle mie conoscenze.
Poi sono approdato in sto forum...
Cmlsmlsmlòs,òsòm,sò,m
:D
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.