View Full Version : Sam Altman sempre più convinto: la Teoria di Internet morto si sta avverando
Redazione di Hardware Upg
12-09-2025, 14:01
Link alla notizia: https://www.hwupgrade.it/news/web/sam-altman-sempre-piu-convinto-la-teoria-di-internet-morto-si-sta-avverando_143381.html
Il CEO di OpenAI riconosce il pericolo rappresentato dalla Dead Internet Theory, mentre i dati mostrano che quasi metà del traffico online è già gestito da bot e algoritmi. Ma di cosa si tratta questa teoria, e perché rappresenta un problema?
Click sul link per visualizzare la notizia.
Vaulenst
12-09-2025, 14:24
Ovviamente questo articolo e' generato dalla IA.
Come la mia risposta.
:-)
SpyroTSK
12-09-2025, 15:52
Saranno gli anni giusti per un web semantico e decentralizato (stile bbs) decente?
Benissimo.
Siamo tutti benvenuti nell'era della "stupidità artificiale" o, forse meglio, dell'ignoranza artificiale.
Detto questo, per puro sfizio – e ripeto, puro sfizio – ho provato a chiedere all'intelligenza artificiale come risolverebbe un problema di carattere giuridico, fornendomi un parere: non vi dico le bestialità dette; addirittura ha inventato leggi e pronunce di Cassazione inesistenti.
Preferisco di gran lunga l'intelligenza umana, pur con tutti i suoi limiti...
Ora vi faccio vedere come le intelligenze artificiali non è che siano molto affidabili, nonostante la bella voce calda e avvolgente che potrebbe piacere a molti...
https://www.instagram.com/gimmywyoming/reel/DOc-8b-DNn7/
(non è necessario accedere)
Gnubbolo
12-09-2025, 16:20
Non capisco il giochino di questo Altman, è come se l'inventore del frigo si lamentasse che la sua invenzione ucciderà il mercato legato alle ghiacciaie, cioè la fabbrica del ghiaccio e chi lo distribuisce col furgoncino.
Ha un secondo fine il suo modo di fare ?
Ora vi faccio vedere come le intelligenze artificiali non è che siano molto affidabili, nonostante la bella voce calda e avvolgente che potrebbe piacere a molti...
https://www.instagram.com/gimmywyoming/reel/DOc-8b-DNn7/
(non è necessario accedere)
Sto ridendo come un pazzo... grazie per avermi reso il pomeriggio più leggero... :)
Benissimo.
Siamo tutti benvenuti nell'era della "stupidità artificiale" o, forse meglio, dell'ignoranza artificiale.
Detto questo, per puro sfizio – e ripeto, puro sfizio – ho provato a chiedere all'intelligenza artificiale come risolverebbe un problema di carattere giuridico, fornendomi un parere: non vi dico le bestialità dette; addirittura ha inventato leggi e pronunce di Cassazione inesistenti.
Preferisco di gran lunga l'intelligenza umana, pur con tutti i suoi limiti...
Queste affermazioni se non scrivi la domanda, la risposta e l'intelligenza usata lasciano il tempo che trovano.
È come dire che sono andato in giro e ho chiesto a un essere umano di risolvere un'equazione di primo grado e invece di risolverla ha scritto delle corbellerie.
Di per se è un episodio verosimile ma che se non circostanziato non dimostra niente perché non hai identificato chi era, che preparazione aveva, come hai posto il quesito ecc... ecc...
L'IA non è che presa una va bene per qualsiasi cosa: ci sono IA che vanno bene per fare conversione e basta, IA specializzate nel coding, IA specializzate nella matematica e così via.
Ora vi faccio vedere come le intelligenze artificiali non è che siano molto affidabili, nonostante la bella voce calda e avvolgente che potrebbe piacere a molti...
https://www.instagram.com/gimmywyoming/reel/DOc-8b-DNn7/
(non è necessario accedere)
Ecco questo è un esempio di come NON vanno usate le intelligenze artificiali. chatGPT non è assolutamente in grado di valutare la pronuncia quindi è ovvio che nell'impossibilità di fare una valutazione è impostata per essere accondiscendente.
All'IA vanno chieste cose adeguate all'IA che si sta utilizzando. Sono LLM non "vere IA" e pretendere che siano competenti a 360° e soprattutto che possano interpretare un input anomalo e non predittibile è come lamentarsi dei coltelli perché posso uccidere. Oppure meglio ancora come esempio dire che le rape non servono a niente perché non ce ne puoi cavare il sangue.
Queste affermazioni se non scrivi la domanda, la risposta e l'intelligenza usata lasciano il tempo che trovano.
È come dire che sono andato in giro e ho chiesto a un essere umano di risolvere un'equazione di primo grado e invece di risolverla ha scritto delle corbellerie.
Di per se è un episodio verosimile ma che se non circostanziato non dimostra niente perché non hai identificato chi era, che preparazione aveva, come hai posto il quesito ecc... ecc...
L'IA non è che presa una va bene per qualsiasi cosa: ci sono IA che vanno bene per fare conversione e basta, IA specializzate nel coding, IA specializzate nella matematica e così via.
Comprendo pienamente il tuo appunto.
Il problema sta nel fatto di aver generato aberrazioni riportando leggi regionali inesistenti e pronunce di Cassazione altrettanto inesistenti. Va benissimo un parere strampalato, ma l'invenzione di fonti del diritto che non trovano riscontro nella realtà dimostra la assoluta fallacia del sistema.
Comprendo pienamente il tuo appunto.
Il problema sta nel fatto di aver generato aberrazioni riportando leggi regionali inesistenti e pronunce di Cassazione altrettanto inesistenti. Va benissimo un parere strampalato, ma l'invenzione di fonti del diritto che non trovano riscontro nella realtà dimostra la assoluta fallacia del sistema.
Ragazzi ripeto sono LLM. Se io scrivo boiate online prima o poi le boiate che scrivo finiranno dentro i dati di una IA.
L'IA, per come è oggi, fa semplicemente in maniera molto rapida quello che prima un tizio qualsiasi, non competente, faceva cercando a caso online e te lo rimette insieme meglio di quanto avrebbe fatto il tizio a caso.
Ribadisco che parliamo di LLM quindi non di vere intelligenze ma di sostanzialmente algoritmi di ricerca che non fanno ragionamenti profondi.
Molto probabilmente da qualche parte qualcuno ha scritto che quelle leggi esistono o un testo fraintendibile citando quei dati e il gioco è fatto.
Comprendo pienamente il tuo appunto.
Il problema sta nel fatto di aver generato aberrazioni riportando leggi regionali inesistenti e pronunce di Cassazione altrettanto inesistenti. Va benissimo un parere strampalato, ma l'invenzione di fonti del diritto che non trovano riscontro nella realtà dimostra la assoluta fallacia del sistema.
Però quando metteranno in azione una LLM specializzata in giurisprudenza e solo in quello, sarà n volte più affidabile e veloce di qualsiasi altro umano nel rispondere a domande precise.
Nelle analisi genetiche sono anni che vengono implementati e migliorati gli algoritmi, cosa che ha reso possibile indagare su un numero elevato di geni e di variazioni, cosa impensabile da far fare ad un essere umano.
Però se allo stesso algoritmo chiedi la ricetta della carbonara, probabilmente ti dirà che ci vuole la panna...
pachainti
12-09-2025, 17:03
Non capisco il giochino di questo Altman, è come se l'inventore del frigo si lamentasse che la sua invenzione ucciderà il mercato legato alle ghiacciaie, cioè la fabbrica del ghiaccio e chi lo distribuisce col furgoncino.
Ha un secondo fine il suo modo di fare ?
E' una tecnica di marketing, l'importante è parlarne per far rimanere alta l'attenzione sul settore e rimandare lo scoppio della bolla.
Comprendo pienamente il tuo appunto.
Il problema sta nel fatto di aver generato aberrazioni riportando leggi regionali inesistenti e pronunce di Cassazione altrettanto inesistenti. Va benissimo un parere strampalato, ma l'invenzione di fonti del diritto che non trovano riscontro nella realtà dimostra la assoluta fallacia del sistema.
Gli LLM vengono spacciati per IA, esso stesso un termine forviante (https://blog.quintarelli.it/2019/11/lets-forget-the-term-ai-lets-call-them-systematic-approaches-to-learning-algorithms-and-machine-inferences-salami/), ma sono solo generatori probabilistici di sequenze di parole, privi di consapevolezza e di senso di realtà. Per loro una cosa corretta o una stronzata hanno lo stesso valore, sono macchine. Il significato ce lo mettiamo noi umani. Purtroppo a causa della propaganda incessante, hanno fatto a credere alle masse quello che non sono.
Ora vi faccio vedere come le intelligenze artificiali non è che siano molto affidabili, nonostante la bella voce calda e avvolgente che potrebbe piacere a molti...
https://www.instagram.com/gimmywyoming/reel/DOc-8b-DNn7/
(non è necessario accedere)
Beh, non credo sia assurdo immaginare che presto diventino un po' tutte più affidabili potendo sfruttare e migliorare anche quello che già offrono da anni le varie app con la funzione per la pronuncia delle lingue straniere.
L'errore è considerare che questa tecnologia abbia già raggiunto il massimo del suo sviluppo. Come durante l'epoca delle prime automobili, ridicolizzate solo perché troppo inefficienti e inaffidabili rispetto ai cavalli, credendo che il loro futuro si sarebbe limitato ad essere poco più di una moda di breve durata.
Benissimo.
Siamo tutti benvenuti nell'era della "stupidità artificiale" o, forse meglio, dell'ignoranza artificiale.
Detto questo, per puro sfizio – e ripeto, puro sfizio – ho provato a chiedere all'intelligenza artificiale come risolverebbe un problema di carattere giuridico, fornendomi un parere: non vi dico le bestialità dette; addirittura ha inventato leggi e pronunce di Cassazione inesistenti.
Preferisco di gran lunga l'intelligenza umana, pur con tutti i suoi limiti...
idem ! :D per una semplicissima questione fiscale ha inventato tutto :asd:
lo avevo postato qui
https://www.hwupgrade.it/forum/showthread.php?p=48846591#post48846591
lo risposto per comodità
Risponde con parole alla cazzo, ma che stanno bene insieme :doh:
Proprio adesso ho chiesto a ChatMerdaGpt:
"le commissioni bancarie su bonifici per lavori di ristrutturazione si possono detrarre nel 730?"
non avete idea di quante stronzate mi ha risposto :doh:
prima mi ha detto "SI", e ha citato 3 fonti, tutto scritto bene.
https://i.postimg.cc/tRth26KP/Commissioni-bonifico-detraibili-730.png
allora ho cercato con google le fonti, e non ho trovato niente:
la fonte 1, quel passo virgolettato non esiste, è inventato :asd:
la fonte 2 "Circolare Agenzia delle Entrate n. 11/E del 21 maggio 2014, risposta 2.1" parla di tutt'altro ! :doh: :doh: :doh:
allora ho chiesto a ChatMerdaGpt il link alle fonti, e non me le ha date,
e alla fine ha risposto "NO", non sono detraibili..... :rolleyes:
Mavaccagare alla AI :asd:
Ora vi faccio vedere come le intelligenze artificiali non è che siano molto affidabili, nonostante la bella voce calda e avvolgente che potrebbe piacere a molti...
https://www.instagram.com/gimmywyoming/reel/DOc-8b-DNn7/
(non è necessario accedere)
boh io non ci vedo niente di strano :asd:
Ecco questo è un esempio di come NON vanno usate le intelligenze artificiali. chatGPT non è assolutamente in grado di valutare la pronuncia quindi è ovvio che nell'impossibilità di fare una valutazione è impostata per essere accondiscendente.
All'IA vanno chieste cose adeguate all'IA che si sta utilizzando. Sono LLM non "vere IA" e pretendere che siano competenti a 360° e soprattutto che possano interpretare un input anomalo e non predittibile è come lamentarsi dei coltelli perché posso uccidere. Oppure meglio ancora come esempio dire che le rape non servono a niente perché non ce ne puoi cavare il sangue.
Ma non diciamo belinate,
se non sa valutare la pronuncia deve risponderti "non so valutare la pronuncia"
Ma non possono programmarla così, sai perchè ?
altrimenti i miliardi per questo generatore di stronzate col caxxo che glieli danno.
Oltre che scrivere codice da scimmia ammaestrata, e generare stronzate da rispondere ai clienti al telefono finchè i clienti non chiedono un operatore umano, non si va.
pachainti
13-09-2025, 06:22
Una risposta tipica alle obiezioni attuali è che in futuro con più dati e con il raffinamento dei modelli, la situazione potrà solo migliorare. In realtà, ci sono ricerche che mostrano come le "allucinazioni" (gli errori) non siano rimovibili.
Hallucination is Inevitable: An Innate Limitation of Large Language Models (https://arxiv.org/abs/2401.11817)
Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.
Inoltre, LeCun, uno dei "padrini" dell'IA, già da tempo sta dicendo che gli LLM sono praticamente obsoleti.
Yann LeCun, Pioneer of AI, Thinks Today’s LLM’s Are Nearly Obsolete (https://www.newsweek.com/nw-ai/ai-impact-interview-yann-lecun-artificial-intelligence-2054237)
Però quando metteranno in azione una LLM specializzata in giurisprudenza e solo in quello, sarà n volte più affidabile e veloce di qualsiasi altro umano nel rispondere a domande precise.
Nelle analisi genetiche sono anni che vengono implementati e migliorati gli algoritmi, cosa che ha reso possibile indagare su un numero elevato di geni e di variazioni, cosa impensabile da far fare ad un essere umano.
Però se allo stesso algoritmo chiedi la ricetta della carbonara, probabilmente ti dirà che ci vuole la panna...
Tutto GIUSTO!
Ma infatti “le macchine” devono essere usate dove c è bisogno delle “macchine” e cioè a elaborare dati molto complessi che L Uomo riuscirebbe comunque a risolvere ma in tempi molto più lunghi per non dire infiniti.
Ma non arriverà mai a fare altre cose.
Il discorso degli LLM specializzati in Giurisprudenza, OK, ma sempre “dettata” dall Uomo.
Ma non diciamo belinate,
se non sa valutare la pronuncia deve risponderti "non so valutare la pronuncia"
Ma non possono programmarla così, sai perchè ?
altrimenti i miliardi per questo generatore di stronzate col caxxo che glieli danno.
Oltre che scrivere codice da scimmia ammaestrata, e generare stronzate da rispondere ai clienti al telefono finchè i clienti non chiedono un operatore umano, non si va.
Certo quindi secondo te si dovrebbe creare un algoritmo che prima di rispondere valuta, in maniera pre-programmata perché diversamente non puoi fare, tutte le possibili domande che rientrano in varianti per cui quell'LLM non è in grado di rispondere e valutare.
Sarebbe una roba praticamente infinita e che ammesso che uno ci provi e nessuno è così folle, non sarebbe mai realmente completa.
Sta all'essere umano distinguere cosa uno strumento può fare e cosa no altrimenti finiamo come in USA dove se compri un prodotto ci trovi scritto delle raccomandazioni assurde perché "eh ma se non è vietato esplicitamente allora si può fare" e la gente si beve il detersivo per la lavastoviglie.
Un LLM NON è una IA senziente, è solo uno strumento come un martello o un cacciavite. Se lo sai usare, bene. Se lo usi a cazzo al posto del commercialista o per chiedergli cose che non è in grado di valutare peggio per te. Praticamente è come prendersi a martellate un dito e dare la colpa al martello.
Una risposta tipica alle obiezioni attuali è che in futuro con più dati e con il raffinamento dei modelli, la situazione potrà solo migliorare. In realtà, ci sono ricerche che mostrano come le "allucinazioni" (gli errori) non siano rimovibili.
Gli LLM potranno migliorare ma OVVIAMENTE rimangono LLM quindi è PALESE che ci saranno allucinazioni ed errori. Credere che un LLM possa mai dare solo risposte corrette o che possa essere quasi onnipotente è semplicemente non rendersi conto di come funziona un LLM.
Nicodemo Timoteo Taddeo
13-09-2025, 07:42
Gli LLM potranno migliorare ma OVVIAMENTE rimangono LLM quindi è PALESE che ci saranno allucinazioni ed errori. Credere che un LLM possa mai dare solo risposte corrette o che possa essere quasi onnipotente è semplicemente non rendersi conto di come funziona un LLM.
Il punto che vi sfugge è che la massa, la gente "normale" non sa rendersi conto di cose più semplici, figurati di leggermente complesse come queste. Prende e prenderà per oro colato quello che la per loro è intelligenza e per te invece è LLM, come oro colato con le distorsioni del caso.
Quindi sarebbe opportuno che prima di ogni correlazione con gli LLM, all'inizio di ogni rapporto con loro, questi dovrebbero ben specificare i loro difetti e limiti, quindi da intendersi con un ampio possibile margine di errori. Specificare un "attenzione che posso dire grandi cazzate soprattutto se non è argomento che conosco".
Me se così facessero si darebbero una pesante mazzata sui piedi, l'hype scenderebbe parecchio ed i finanziamenti enormi e pazzeschi calerebbero di brutto e questo non va bene.
Ma perché non prorogare il grande inganno? È così fruttuoso...
Il punto che vi sfugge è che la massa, la gente "normale" non sa rendersi conto di cose più semplici, figurati di leggermente complesse come queste. Prende e prenderà per oro colato quello che la per loro è intelligenza e per te invece è LLM, come oro colato con le distorsioni del caso.
Non cambia niente... prima prendeva per oro colato quello che leggeva nei primi 3 risultati di google. Quindi non è che hai spostato niente di che. Chi prima si faceva abbindolare continuerà a farsi abbindolare e d'altra parte prima di internet si faceva abbindolare dalle chiacchiere da bar.
Quindi sarebbe opportuno che prima di ogni correlazione con gli LLM, all'inizio di ogni rapporto con loro, questi dovrebbero ben specificare i loro difetti e limiti, quindi da intendersi con un ampio possibile margine di errori. Specificare un "attenzione che posso dire grandi cazzate soprattutto se non è argomento che conosco".
Ripeto: non facciamo la fine degli USA in cui per ogni cosa c'è un disclaimer enorme che poi tanto nessuno legge. Già oggi tra cookie e menate varie abbiamo mille avvisi che NESSUNO legge. Aggiungerne altri a cosa dovrebbe servire se non a fare l'ennesimo skip? Veramente pensi che uno non in grado di capire come funzionano gli LLM si metterebbe a leggere un disclaimer e lo capirebbe?
Me se così facessero si darebbero una pesante mazzata sui piedi, l'hype scenderebbe parecchio ed i finanziamenti enormi e pazzeschi calerebbero di brutto e questo non va bene.
Non cambierebbe niente se non l'ennesima cosa da skippare. Tutti sanno che i social sono pieni della peggio merda, bufale, baggianate ecc... ecc... eppure sono comunque pieni di gente.
Nicodemo Timoteo Taddeo
13-09-2025, 09:21
Non cambia niente... prima prendeva per oro colato quello che leggeva nei primi 3 risultati di google. Quindi non è che hai spostato niente di che. Chi prima si faceva abbindolare continuerà a farsi abbindolare e d'altra parte prima di internet si faceva abbindolare dalle chiacchiere da bar.
Nella mia esperienza il vecchio motore di ricerca proponeva pagine web che sbagliavano meno, essendo predisposte da umani il più delle volte eri costretto a leggerle tutte prima di arrivare all'informazione che cercavi e leggendo leggendo era più facile intuire se c'erano cazzate in mezzo, inoltre il motore di ricerca tradizionale se non trovava correlazioni te lo diceva o faceva intuire (manca la parola xyz). Le LLM quando non hanno argomenti li inventano, questa è la sostanziale differenza ed è aberrante.
Poi oh, stai dicendo che al peggio non deve esserci limite? In nome di un presunto progresso ancora tutto da dimostrare?
Nella mia esperienza il vecchio motore di ricerca proponeva pagine web che sbagliavano meno, essendo predisposte da umani il più delle volte eri costretto a leggerle tutte prima di arrivare all'informazione che cercavi e leggendo leggendo era più facile intuire se c'erano cazzate in mezzo, inoltre il motore di ricerca tradizionale se non trovava correlazioni te lo diceva o faceva intuire (manca la parola xyz). Le LLM quando non hanno argomenti li inventano, questa è la sostanziale differenza ed è aberrante.
Poi oh, stai dicendo che al peggio non deve esserci limite? In nome di un presunto progresso ancora tutto da dimostrare?
No, credo che stia solo dicendo che non ci può essere difesa contro la stupidità/ignoranza se non nell'aumentare la cultura di base della popolazione, in una nazione con il 37% di analfabeti funzionali che non riesce a comprendere il senso logico di un breve testo di poche righe, è impensabile proteggere tutti dalle informazioni false/sbagliate, anzi tendenzialmente è molto più facile ingannarle.
Nicodemo Timoteo Taddeo
13-09-2025, 09:37
No, credo che stia solo dicendo che non ci può essere difesa contro la stupidità/ignoranza se non nell'aumentare la cultura di base della popolazione, in una nazione con il 37% di analfabeti funzionali che non riesce a comprendere il senso logico di un breve testo di poche righe, è impensabile proteggere tutti dalle informazioni false/sbagliate, anzi tendenzialmente è molto più facile ingannarle.
Io direi che sarebbe meglio non diffonderle le informazioni false, o fare il possibile perché non accade.
Le LLM attuali, pur avendo la possibilità di non divulgarne, hanno invece nel loro funzionamento la normalità di farlo senza avvertire è questo che è aberrante. Un passo avanti nell'evoluzione dell'umanità o un passo ulteriore verso il baratro?
Ora vi faccio vedere come le intelligenze artificiali non è che siano molto affidabili, nonostante la bella voce calda e avvolgente che potrebbe piacere a molti...
https://www.instagram.com/gimmywyoming/reel/DOc-8b-DNn7/
(non è necessario accedere)
:asd:
Inizio di giornata col sorriso :D
Nella mia esperienza il vecchio motore di ricerca proponeva pagine web che sbagliavano meno, essendo predisposte da umani il più delle volte eri costretto a leggerle tutte prima di arrivare all'informazione che cercavi e leggendo leggendo era più facile intuire se c'erano cazzate in mezzo, inoltre il motore di ricerca tradizionale se non trovava correlazioni te lo diceva o faceva intuire (manca la parola xyz). Le LLM quando non hanno argomenti li inventano, questa è la sostanziale differenza ed è aberrante.
Poi oh, stai dicendo che al peggio non deve esserci limite? In nome di un presunto progresso ancora tutto da dimostrare?
Non sto dicendo che al peggio non c'è fine ma che in questo caso non cambia niente. L'ipotesi che fai che la gente "leggesse" la trovo molto ottimista. Spesso la ricerca fatta era già influenzata dal risultato atteso e i siti che apparivano erano siti che già erano creati ad arte per confermarla.
Ad esempio la gente tende a cercare cose come "come dimostro che la terra è piatta" e non ricerche più generiche volte a cercare realmente e mettere in dubbio la propria convinzione che è già sostanzialmente stata decisa.
Tra l'altro dubito fortemente che leggessero l'articolo. Al massimo leggono il TITOLO. Non a caso, dopo provo a ricercarlo, un ricercatore pubblico un articolo con un titolo controverso e subito sotto nella prima riga scritto che era un esperimento sociale per vedere se le persone avrebbero letto e prima di commentare avrebbero capito il fine dell'esperimento. Devo dirti come è andata a finire?
Quindi non penso che al peggio non bisogna mettere fine ci mancherebbe ma che l'AI non sposta niente in tal senso tanto chi mette in atto certe dinamiche le metterà in atto a prescindere.
No, credo che stia solo dicendo che non ci può essere difesa contro la stupidità/ignoranza se non nell'aumentare la cultura di base della popolazione, in una nazione con il 37% di analfabeti funzionali che non riesce a comprendere il senso logico di un breve testo di poche righe, è impensabile proteggere tutti dalle informazioni false/sbagliate, anzi tendenzialmente è molto più facile ingannarle.
Ecco Joe è molto più bravo di me e ha sintetizzato la cosa.
Io direi che sarebbe meglio non diffonderle le informazioni false, o fare il possibile perché non accade.
È solo uno dei principali mercati online... non voglio che ci rimani male ma è uno scenario probabile come "vorrei che al mondo fossero tutte persone educate e rispettose". Condivisibile certo ma praticamente impossibile.
Le LLM attuali, pur avendo la possibilità di non divulgarne, hanno invece nel loro funzionamento la normalità di farlo senza avvertire è questo che è aberrante. Un passo avanti nell'evoluzione dell'umanità o un passo ulteriore verso il baratro?
Non capisco che soluzioni vorresti proporre.
Un disclaimer che dice che un LLM può dare info non corrette? Non lo leggerebbe nessuno e lascerebbe il tempo che trova. Quindi cosa proponi? Mi sfugge proprio dove vorrei arrivare e che idee vorresti proporre.
Io direi che sarebbe meglio non diffonderle le informazioni false, o fare il possibile perché non accade.
La cosa in teoria è più che condivisibile e auspicabile, nella realtà purtroppo è impossibile da realizzare se non a discapito della libertà di ognuno, chi dovrebbe stabilire se una notizia/informazione sia falsa o no?
A parte la fogna che è diventata oggi internet dove notizie/informazioni PALESEMENTE false circolano e proliferano, ci possono essere, anzi ci sono sicuramente, situazioni in cui discernere il vero dal falso o anche solo il probabile dall'improbabile diventa impossibile, o altri casi in cui alcuni poteri vogliono fare circolare la loro verità, naturalmente non stò parlando di casi clamorosi come la terra piatta & Co. ma di casi come avvenuto per depistaggi di stato ecc. o di notizie tranquillizanti messe in giro dalle varie industrie interessate.
..."dovuto alla scarsità di contenuti di alta qualità disponibili per l'addestramento."
Quelli dell"Era del covidiota, del chiudi-tutto e dell'andrà tutto bene" ?
Un disclaimer che dice che un LLM può dare info non corrette? Non lo leggerebbe nessuno e lascerebbe il tempo che trova.
La realtà è questa, esattamente come per la guida autonoma e tutto quanto si ricollega al nostro immaginario cresciuto in anni di racconti di fantascienza.
Poi, non lo leggerebbe nessuno, SI, abbastanza.
Lascierebbe il tempo che trova, NO, perchè se lo ammettono in partenza, poi nessuno tirerebbe fuori decine di miliardi per della mezza fuffa come un google potenziato o un generatore di codice software.
..."dovuto alla scarsità di contenuti di alta qualità disponibili per l'addestramento."
Quelli dell"Era del covidiota, del chiudi-tutto e dell'andrà tutto bene" ?
Io penso al lavoro inutile di TrollettoMilano che letteralmente da anni posta boiate sulle auto a pile, pensa se una AI deve addestrarsi sul quello che scrive lui :sofico:
Ma che dire dei cinesi "50 Cent Party" altrimenti detti "wumao" ?
https://it.wikipedia.org/wiki/Esercito_dei_50_centesimi
E dei bot russi di Putin che francamente hanno rotto il cazzo ? :mbe:
E comunque Internet è morto, l'ho visto io
La realtà è questa, esattamente come per la guida autonoma e tutto quanto si ricollega al nostro immaginario cresciuto in anni di racconti di fantascienza.
Poi, non lo leggerebbe nessuno, SI, abbastanza.
Lascierebbe il tempo che trova, NO, perchè se lo ammettono in partenza, poi nessuno tirerebbe fuori decine di miliardi per della mezza fuffa come un google potenziato o un generatore di codice software.
Non concordo per niente. Nell'affare IA l'esattezza delle risposte è totalmente in secondo piano. Ciò che rende l'IA appetibile è che si sta avvicinando a una verosimiglianza a un dialogo "umano". Non è un caso che i "companion" sono sempre più ricercati e a oggi non sono nemmeno lontanamente verosimili pensa quando l'esperienza sarà qualcosa di veramente indistinguibile.
Poi ci sono gli LLM quindi IA specifiche per campi specifici dove le risposte sono affinate e quasi sempre esatte ma sono prodotti specifici per specifici campi, non certo LLM dato in pasto alla massa.
Detto ciò ribadisco che potresti mettere un disclaimer gigantesco scrivendoci pure che cliccando ammetti di essere un buffone che non capisce nulla (su github l'hanno fatto realmente) e la gente clicca senza leggere. Non a caso come ti dicevo trovi con una banale ricerca quanta gente su github clicca ammettendo di essere dei clown quotidianamente.
Io penso al lavoro inutile di TrollettoMilano che letteralmente da anni posta boiate sulle auto a pile, pensa se una AI deve addestrarsi sul quello che scrive lui :sofico:
Si addestra ANCHE su quello che dice lui perché al di là del meme, Toretto rappresenta un certo tipo di pubblico. L'IA generalista ha lo scopo di accontentare tutti i tipi di pubblico quindi sì, anche passatemi il termine "i toretti".
Non concordo per niente. Nell'affare IA l'esattezza delle risposte è totalmente in secondo piano. Ciò che rende l'IA appetibile è che si sta avvicinando a una verosimiglianza a un dialogo "umano". Non è un caso che i "companion" sono sempre più ricercati e a oggi non sono nemmeno lontanamente verosimili pensa quando l'esperienza sarà qualcosa di veramente indistinguibile.
Poi ci sono gli LLM quindi IA specifiche per campi specifici dove le risposte sono affinate e quasi sempre esatte ma sono prodotti specifici per specifici campi, non certo LLM dato in pasto alla massa.
Quello che mi fa più impressione è che siamo, o dovremmo essere, in un forum dove si tratta di tecnologia e in particolare di informatica e nonostante questo, ci siano utenti che NON CREDONO NEL PROGRESSO, come se dal primo chip di Faggin o dal primo linguaggio di programmazione a schede perforate ad oggi non si fosse imparato niente in merito ai progressi che può fare la tecnologia.
Naturalmente prima che una IA o LLM possa essere realmente in grado di funzionare da essere onniscente in grado di contenere tutto lo scibile passeranno anni, ma già quello che possono fare oggi in campi ristretti è assolutamente grandioso anche se non ancora perfetto, ma cosa lo è? Alla fine basta che faccia quello che può fare un essere umano competente+n per essere migliore, poi può sbagliare? Certamente, ma quale essere umano non sbaglia? Dipende tutto dalla frequenza e dal rapporto giusto/sbagliato, altrimenti non crollerebbero i ponti o non si avrebbero governi incapaci.
Piedone1113
14-09-2025, 10:18
La cosa in teoria è più che condivisibile e auspicabile, nella realtà purtroppo è impossibile da realizzare se non a discapito della libertà di ognuno, chi dovrebbe stabilire se una notizia/informazione sia falsa o no?
Chi la ripropone come assolutamente vera.
Ieri ho letto di un ragazzino di 14 anni morto per un tumore osseo e curato dai genitori, con l'ausilio di un medico, con impacchi di fango secondo le credenze di non so quale metodo ( con molti contributori via web).
Se questa notizia fosse vera:
Carcere per i genitori, per il medico e radiazione dall'albo.
Ma nel caso fosse una bufola:
Radiazione per l'articolista della fonte di stampa, multa per il direttore e nel caso di articolo generato da IA chiusura per un mese della testata.
Iniziamo così ad innalzare il livello di affidabilità delle realtà di informazione che sarebbero costrette a verificare le fonti e non a riportare una bufala all'infinito riportata in qualche testata minore per avere visibilità.
Dopo di chè vedrai che avremmo 2 tendenze primarie:
Un peso al valore dell'informazione data dal rating di chi la riporta
Un IA che se opportunamente addestrata inizia ad inventare meno cose grazie all'omogenità del fatto pre filtrato da fonti "affidabili".
La liberta di stampa, espressione, parola non ha nulla a che vedere con diffusione di menzogne, altrimenti chi promette guadagni da 1000% con le cripto con l'unico guadagno derivante dalle commisssioni di operazioni non potrebbe essere incriminato di trufa, raggiro o quello che vi pare, dato che sarebbero solo libere opinioni con una controprova storica di quanto gia avvenuto.
Quello che mi fa più impressione è che siamo, o dovremmo essere, in un forum dove si tratta di tecnologia e in particolare di informatica e nonostante questo, ci siano utenti che NON CREDONO NEL PROGRESSO, come se dal primo chip di Faggin o dal primo linguaggio di programmazione a schede perforate ad oggi non si fosse imparato niente in merito ai progressi che può fare la tecnologia.
Naturalmente prima che una IA o LLM possa essere realmente in grado di funzionare da essere onniscente in grado di contenere tutto lo scibile passeranno anni, ma già quello che possono fare oggi in campi ristretti è assolutamente grandioso anche se non ancora perfetto, ma cosa lo è? Alla fine basta che faccia quello che può fare un essere umano competente+n per essere migliore, poi può sbagliare? Certamente, ma quale essere umano non sbaglia? Dipende tutto dalla frequenza e dal rapporto giusto/sbagliato, altrimenti non crollerebbero i ponti o non si avrebbero governi incapaci.
Sinceramente non è nemmeno necessario che una IA arrivi a tali livelli anche perché ci sarà sempre chi ha da ridire su cosa significa onnisciente e soprattutto su cosa sono fatti e cosa non lo sono. Basti vedere come anche cose conclamate e provate oggi siano messe in discussione da masse di gente che comunque non sono poca cosa anzi in certi casi hanno numeri rilevanti.
Tra l'altro non ci si rende conto di come a oggi quello che è il prodotto probabilmente più desiderato è l'IA che si comporti da "migliore amico" non una IA onnisciente che sappia rispondere a qualsiasi domanda. Non è mica un caso che anche su grok abbiano sviluppato e stiano spendendo miliardi per sviluppare Ani e Rudi. Guarda caso degli avatar che ricalcano un modello quanto più condivisibile in vista in futuro di modelli totalmente personalizzabili.
Per quanto riguarda il discorso competenze arriveranno anche IA veramente competenti che non saranno chatGPT o Gemini e così via ma che saranno IA specializzate, a pagamento, e che fanno specifici compiti. Così come oggi ci sono IA che si occupano di DNA per fare un esempio ma che sono specifiche per quel compito, non usano certo chatGPT.
Alla fine il mondo dell'IA è un mondo immenso. È un po' come facendo un esempio il mondo degli elettroutensili. Non è che se ne compri uno fa tutto. Ci sono quelli più generalisti, quelli specializzati, quelli per principianti e quelli per esperti e così via.
megamitch
14-09-2025, 10:46
Io trovo due rischi connessi all'uso della IA per informarsi.
Numero 1, una IA è un ulteriore filtro sulle informazioni. Già oggi "se non c'è su google non esiste", ed è un filtro estremamente pesante, adesso stiamo aggiungendo un nuovo strato, deciso anche questo da aziende private, che decide cosa riassumere di quello che legge da google
Numero 2, fino a che queste IA potranno inventare le risposte (perchè è una caratteristica intrinseca, non so se si possa tecnicamente impedirlo, ammesso che si voglia), non è così difficile rischiare di cadere in errore. Leggo in giro di esperimenti in cui le risposte sono così verosimili per cui se non sei un grande esperto del settore del quale hai chiesto informazioni potresti cadere in errore
Il fatto è che prima di questa bulimia di informazione, c'erano libri e articoli scritti e FIRMATI da persone, adesso ci sono social, profili falsi, "viralità" delle notizie (come se una notizia "virale" sia vera per definizione) etc. etc. e le macchine continueranno ad alimentarla, per motivi molto umani, ovvero qualcuno che ci guadagna sopra.
Chi la ripropone come assolutamente vera.
Ieri ho letto di un ragazzino di 14 anni morto per un tumore osseo e curato dai genitori, con l'ausilio di un medico, con impacchi di fango secondo le credenze di non so quale metodo ( con molti contributori via web).
Se questa notizia fosse vera:
Carcere per i genitori, per il medico e radiazione dall'albo.
Ma nel caso fosse una bufola:
Radiazione per l'articolista della fonte di stampa, multa per il direttore e nel caso di articolo generato da IA chiusura per un mese della testata.
Iniziamo così ad innalzare il livello di affidabilità delle realtà di informazione che sarebbero costrette a verificare le fonti e non a riportare una bufala all'infinito riportata in qualche testata minore per avere visibilità.
Dopo di chè vedrai che avremmo 2 tendenze primarie:
Un peso al valore dell'informazione data dal rating di chi la riporta
Un IA che se opportunamente addestrata inizia ad inventare meno cose grazie all'omogenità del fatto pre filtrato da fonti "affidabili".
La liberta di stampa, espressione, parola non ha nulla a che vedere con diffusione di menzogne, altrimenti chi promette guadagni da 1000% con le cripto con l'unico guadagno derivante dalle commisssioni di operazioni non potrebbe essere incriminato di trufa, raggiro o quello che vi pare, dato che sarebbero solo libere opinioni con una controprova storica di quanto gia avvenuto.
Vedi, nel caso della notizia che riporti, ho seguito un po' sulla fogna di facebook i commenti sotto la notizia e lo sconforto è scoprire che molti commenti sono, nonostante la tragedia, a favore del medico o delle cure alternative alla medicina tradizionale, molti sono convinti che la chemio uccida o che i medici siano pagati per sterminarci, se come dici tu, incarcereranno il medico in questione, questi fanatici non farebbero altro che convincersi che il sistema sia contro di loro e che voglia mettere a tacere le voci discordanti dalla "narrazione ufficiale".
Ma ritornando a notizie di grossa portata, guarda cosa stà accadendo con l'assassinio di Kirk, dove stanno dicendo di tutto e il contrario di tutto e soprattutto quelli che da decenni stanno predicando violenza contro tutto e contro tutti stiano cercando di passare come le verginelle del convento.
In questo scenario, chi dovrebbe controllare la veridicità delle notizie\informazioni?
Chi la ripropone come assolutamente vera.
Ieri ho letto di un ragazzino di 14 anni morto per un tumore osseo e curato dai genitori, con l'ausilio di un medico, con impacchi di fango secondo le credenze di non so quale metodo ( con molti contributori via web).
Se questa notizia fosse vera:
Carcere per i genitori, per il medico e radiazione dall'albo.
Ma nel caso fosse una bufola:
Radiazione per l'articolista della fonte di stampa, multa per il direttore e nel caso di articolo generato da IA chiusura per un mese della testata.
Iniziamo così ad innalzare il livello di affidabilità delle realtà di informazione che sarebbero costrette a verificare le fonti e non a riportare una bufala all'infinito riportata in qualche testata minore per avere visibilità.
Dopo di chè vedrai che avremmo 2 tendenze primarie:
Un peso al valore dell'informazione data dal rating di chi la riporta
Un IA che se opportunamente addestrata inizia ad inventare meno cose grazie all'omogenità del fatto pre filtrato da fonti "affidabili".
La liberta di stampa, espressione, parola non ha nulla a che vedere con diffusione di menzogne, altrimenti chi promette guadagni da 1000% con le cripto con l'unico guadagno derivante dalle commisssioni di operazioni non potrebbe essere incriminato di trufa, raggiro o quello che vi pare, dato che sarebbero solo libere opinioni con una controprova storica di quanto gia avvenuto.
Ci sono problemi enormi nell'attuare una tale politica:
1) Giurisdizione: dovresti avere tutto il mondo concorde altrimenti piazzo i server nel paese X e arrivederci e grazie.
2) Buona fede: a volte verificare una notizia è difficilissimo oppure si presuppone e ti parlo di atti ufficiali non del giornalista che sia andata in un modo e poi si scopre che non era così.
3) Riesame: perché qualcuno dovrà riesaminare le cose per decidere che non era andata a quel modo e chi lo fa ha un potere enorme che di fatto è una censura e a seconda come la vede specie su fatti politici potrebbe usarlo in maniera non dico sbagliata ma parzialmente di parte.
4) Non giornalisti: Per pubblicare online non serve essere giornalisti, di fatto se io o te domani decidiamo di scrivere e pubblicare qualcosa potremmo farlo quindi da cosa li radi? Fai sanzioni a livello personale controllando ogni singolo blog, sito ecc... ecc... sarebbe un lavoro immane e devastante senza contare social, streaming e così via.
Questi son solo i primi problemi che mi vengono in mente ma sicuramente ce ne sarebbero molti altri. Morale della favola salvo voler fare uno stato di polizia e probabilmente non basterebbe la tua idea è inapplicabile. Sia chiaro capisco l'intento e sarebbe anche condivisibile ma rimane sostanzialmente impossibile da realizzare.
Piedone1113
14-09-2025, 11:28
Ci sono problemi enormi nell'attuare una tale politica:
1) Giurisdizione: dovresti avere tutto il mondo concorde altrimenti piazzo i server nel paese X e arrivederci e grazie.
2) Buona fede: a volte verificare una notizia è difficilissimo oppure si presuppone e ti parlo di atti ufficiali non del giornalista che sia andata in un modo e poi si scopre che non era così.
3) Riesame: perché qualcuno dovrà riesaminare le cose per decidere che non era andata a quel modo e chi lo fa ha un potere enorme che di fatto è una censura e a seconda come la vede specie su fatti politici potrebbe usarlo in maniera non dico sbagliata ma parzialmente di parte.
4) Non giornalisti: Per pubblicare online non serve essere giornalisti, di fatto se io o te domani decidiamo di scrivere e pubblicare qualcosa potremmo farlo quindi da cosa li radi? Fai sanzioni a livello personale controllando ogni singolo blog, sito ecc... ecc... sarebbe un lavoro immane e devastante senza contare social, streaming e così via.
Questi son solo i primi problemi che mi vengono in mente ma sicuramente ce ne sarebbero molti altri. Morale della favola salvo voler fare uno stato di polizia e probabilmente non basterebbe la tua idea è inapplicabile. Sia chiaro capisco l'intento e sarebbe anche condivisibile ma rimane sostanzialmente impossibile da realizzare.
Parti dal presupposto sbagliato:
Credi che sia la stessa cosa riportare una bufala su Repubblica o Facebook.
Credi che l'adestramento llm debba dare lo stesso peso alla Treccani o al post del terrappiatissta su facebook?
Una volta il motto dell'Ansa era:
Se è su ansa è una notizia.
C'è stato un mezzo scandalo circa adnkronos dove venivano pubblicati sul sito articoli paganti esterni autoreferenziali che hanno portato a raggiri o vere e proprie truffe.
Credi che sia eticamente innocente la testata ( una delle maggiori agenzie di stampa d'Italia) solo perchè contenuto sponsorizzato ma reso autorevole dalla testata?
MI frega una cippa se il sito XXX sia fuori dall'EU e non è una testata giornalistica accreditata, ma se La Stampa mi riporta una Bufala dal sito XXX gli da una parvenza di autorevolezza e la Stampa andrebbe sanzionata.
Se il dott X mi fa curare un Otite con l'omeopatia e dopo un agonia di mesi il bambino muore ( quando lo si avrebbe potuto salvare con una semplice cura antibiotica, successo a Pesaro quando vi lavoravo) IL dott X andrebbe radiato dall'albo ed arrestato per omicidio volontario ( e non colposso) i genitori condannati per omicidio colposo e perdità di patria podesta sui figli rimanenti e futuri ( da poter essere sospesa dopo affidamento del caso ai servizi sociali).
Chi riporta che i bagni di fango, le misture di erbe, i cazzi ed i mazzi, sono sostituti ben più efficaci della cura farmacologica dovrebbe essere punito in misura della sua figura:
Un medico o operatore sanitario dovrebbe essere radiato, tutti gli altri gli dovrebbe essere impedito per legge di avere accesso a qualssiasi dispositivo elettronico in grado di interaggire in rete.
Le tue fantasie le tieni per te, non certo di metti a influenzare persone provate emotivamente e di conseguenza deboli, o creduloni ignoranti ( prive di conoscenze).
Diffondere notizie che il violentatore sia un nero, giallo, bianco, verde senza prove di fondo è un incitazione all'odio.
Avere proprie opinioni e esporle non è reato:
Auschwitz non era un campo di concentramento ( negazionismo storico da punire)
Auschwitz non è nato come campo di concentramento, ma come polo produttivo a basso costo sfuttando i deportati e successsivamente trasformatosi in campo di concentramento ( Anche questa una falsità, ma senza negazionismo e con la possibilità di controbbattere e scambiarsi opinioni senza negare la tragedia umana)
Per la politica invece nessuna censura:
La Dittatura nella Cina è la migliore forma politica possibile ( ! ma rispecchia una personale opinione)
Xi Jinping ha donato 10 milioni di dollari agli orfanotrofi
è il titolo di una notizia, ma se sono suoi denari ok, mentre se sono fonti statali il titolo dovrebbe essere:
Xi Jinping ha stanziato 10 milioni di dollari per gli orfanotrofi ( anche se inesatta potrebbe essere accettabile)
Se riportata da organi di stampa anche solo nel titolo e non nel corpo andrebbe sanzionata e il giornalista sanzionato.
Bisogna combattere le bufale a livello di organi di stampa ( una bufala riportata su La Repubblichina, giornale inventato come regolarmente iscritto) perchè se ti riportano la notizia x letta su facebook non ha lo stesso peso di letta sul Sole 24 Ore ( testata che reputo affidabile).
Piedone1113
14-09-2025, 11:37
Ma ritornando a notizie di grossa portata, guarda cosa stà accadendo con l'assassinio di Kirk, dove stanno dicendo di tutto e il contrario di tutto e soprattutto quelli che da decenni stanno predicando violenza contro tutto e contro tutti stiano cercando di passare come le verginelle del convento.
In questo scenario, chi dovrebbe controllare la veridicità delle notizie\informazioni?
Chi ha predicato violenza contro tutti e tutto?
E' una tua opinione o hai fatti da portare?
Perchè mi sembra che una piccola parte di chi continua ancora oggi a manifestare contro la violenza ( sulle donne, lgbt, immigrati, Gaza, ecc) non abbia esitato ad esultare dell'omicidio, mostrando coerenza estrema nelle proprie idee, mentre una parte influente degli stessi (Manifestanti) ha condannato l'assassinio, ma non i toni di alcune frange avvalorando implicitamente tali opinioni.
Chi ha predicato violenza contro tutti e tutto?
E' una tua opinione o hai fatti da portare?
Perchè mi sembra che una piccola parte di chi continua ancora oggi a manifestare contro la violenza ( sulle donne, lgbt, immigrati, Gaza, ecc) non abbia esitato ad esultare dell'omicidio, mostrando coerenza estrema nelle proprie idee, mentre una parte influente degli stessi (Manifestanti) ha condannato l'assassinio, ma non i toni di alcune frange avvalorando implicitamente tali opinioni.
"La bestia" non era forse opera della lega?
L'elenco sarebbe troppo lungo da proporre e per andare negli u.s.a. chi ha affermato di volere la Groenlandia anche procedendo con la forza?
Se non si vuole vedere è altra faccenda, ma che la parte politica più violenta, xenofoba, omofoba ecc. voglia passare per candida e pura, anche no, grazie.
Ps - gli assalitori di Capitol Hill da chi sono stati graziati e onorati?
Quello che mi fa più impressione è che siamo, o dovremmo essere, in un forum dove si tratta di tecnologia e in particolare di informatica e nonostante questo, ci siano utenti che NON CREDONO NEL PROGRESSO, come se dal primo chip di Faggin o dal primo linguaggio di programmazione a schede perforate ad oggi non si fosse imparato niente in merito ai progressi che può fare la tecnologia.
...
Tecnologia o fantascienza ?
Se è fantascienza e vi piace sognare, fate pure.
Ma non è progresso, almeno lo è solo fino ad un certo punto, poi sono solo promesse vendute da Wall Street per fare soldi.
Io trovo due rischi connessi all'uso della IA per informarsi.
Numero 1, una IA è un ulteriore filtro sulle informazioni. Già oggi "se non c'è su google non esiste", ed è un filtro estremamente pesante, adesso stiamo aggiungendo un nuovo strato, deciso anche questo da aziende private, che decide cosa riassumere di quello che legge da google
Numero 2, fino a che queste IA potranno inventare le risposte (perchè è una caratteristica intrinseca, non so se si possa tecnicamente impedirlo, ammesso che si voglia), non è così difficile rischiare di cadere in errore. Leggo in giro di esperimenti in cui le risposte sono così verosimili per cui se non sei un grande esperto del settore del quale hai chiesto informazioni potresti cadere in errore
Il fatto è che prima di questa bulimia di informazione, c'erano libri e articoli scritti e FIRMATI da persone, adesso ci sono social, profili falsi, "viralità" delle notizie (come se una notizia "virale" sia vera per definizione) etc. etc. e le macchine continueranno ad alimentarla, per motivi molto umani, ovvero qualcuno che ci guadagna sopra.
l'ho chieso a Chatgpt, notare le allucinazioni al punto 1 :asd:
quali sono i rischi connessi all'uso della IA per informarsi ?
Ottima domanda. L’uso dell’intelligenza artificiale per informarsi offre grandi vantaggi in termini di velocità e accessibilità, ma comporta anche diversi **rischi** che è utile conoscere:
**1. Accuratezza e veridicità delle informazioni**
* I modelli di IA possono generare risposte **inesatte, incomplete o fuorvianti**.
* Possono “allucinare” dati, cioè inventare informazioni plausibili ma false.
**2. Mancanza di fonti verificabili**
* Spesso i sistemi di IA non indicano sempre le **fonti** o le mescolano senza contesto.
* Questo rende più difficile distinguere un’informazione attendibile da una opinione generata.
**3. Bias e distorsioni**
* L’IA riflette i **pregiudizi** e gli squilibri presenti nei dati di addestramento.
* Questo può portare a visioni parziali, stereotipate o non neutrali.
**4. Aggiornamento non garantito**
* Non tutti i modelli sono aggiornati in tempo reale: si rischia di ricevere **dati obsoleti** o non pertinenti al contesto attuale.
**5. Superficialità nella comprensione**
* Le risposte sono spesso **semplificate** e possono trasmettere l’illusione di completezza, ma senza la profondità che si ottiene con la ricerca diretta su fonti primarie.
**6. Dipendenza cognitiva**
* Affidarsi troppo a un assistente IA può ridurre lo **spirito critico** e la capacità di valutare autonomamente le informazioni.
**7. Privacy e sicurezza**
* Le interazioni con l’IA possono implicare la **condivisione di dati personali** che, se non gestiti correttamente, rischiano di essere usati impropriamente.
👉 Per ridurre questi rischi, è utile:
* Usare l’IA come **punto di partenza**, non come fonte unica.
* Verificare sempre le informazioni su **fonti indipendenti e affidabili**.
* Mantenere un atteggiamento **critico e consapevole**.
Parti dal presupposto sbagliato:
Credi che sia la stessa cosa riportare una bufala su Repubblica o Facebook.
No, ma non è nemmeno così semplice dato che quando addestri un LLM se ti basi solo su fonti ufficiali avresti dei vuoti enormi. Per farti un esempio banale ma per rendere l'idea se chiedi all'IA come impostare qualcosa su jellyfin (è un programma a caso eh) 9 su 10 trova la risposta cercando per forum e community varie anche perché difficilmente chi produce software può produrti una fonte ufficiale per ogni singola cosa.
Moltiplicalo per tutte le casistiche in cui avere una fonte ufficiale sarebbe difficile se non impossibile ed ecco che tutti gli LLM sono addestrati anche su fonti che non sono verificabili.
Credi che l'adestramento llm debba dare lo stesso peso alla Treccani o al post del terrappiatissta su facebook?
Credo che per quanti parametri manuali tu possa mettere di sovrappesare le fonti ufficiali e sottopesare il resto comunque non arrivi nemmeno lontanamente vicino a una qualche forma di autorevolezza. Un LLM non ha una capacità di ragionamento di questo tipo.
Una volta il motto dell'Ansa era:
Se è su ansa è una notizia.
C'è stato un mezzo scandalo circa adnkronos dove venivano pubblicati sul sito articoli paganti esterni autoreferenziali che hanno portato a raggiri o vere e proprie truffe.
Credi che sia eticamente innocente la testata ( una delle maggiori agenzie di stampa d'Italia) solo perchè contenuto sponsorizzato ma reso autorevole dalla testata?
Si e no. Non è moralmente giusto è chiaro ma in un mondo in cui se non vengono chiudono ti ritroveresti alla svelta senza siti di informazione se fossero puristi. Poi ripeto concordo che la giustizia è altro ma se poi non sopravvivi mi sa che la giustizia è servita a poco. Per questo dico che oggi fonti ufficiali, salvo essere esperto in prima persona, non esistono. Perché che sia repubblica, ansa o qualsiasi altro hanno bisogno di mangiare e per farlo si devono piegare a pubblicare quello che paga.
MI frega una cippa se il sito XXX sia fuori dall'EU e non è una testata giornalistica accreditata, ma se La Stampa mi riporta una Bufala dal sito XXX gli da una parvenza di autorevolezza e la Stampa andrebbe sanzionata.
Ripeto, moralmente concordo con te ma renderlo un meccanismo reale? Dovresti fare decine anzi probabilmente centinaia o migliaia di processi a giornalisti. Cosa che storicamente non porta proprio a risultati eccellenti specie in un paese come il nostro che è parecchio basso nella classifica per la libertà di stampa.
Se il dott X mi fa curare un Otite con l'omeopatia e dopo un agonia di mesi il bambino muore ( quando lo si avrebbe potuto salvare con una semplice cura antibiotica, successo a Pesaro quando vi lavoravo) IL dott X andrebbe radiato dall'albo ed arrestato per omicidio volontario ( e non colposso) i genitori condannati per omicidio colposo e perdità di patria podesta sui figli rimanenti e futuri ( da poter essere sospesa dopo affidamento del caso ai servizi sociali).
Anche qua è una materia spinosa perché vedi io sono vaccinato, non credo nell'omeopatia ecc... ecc... ma al tempo stesso mi chiedo fino a che punto sia corretto che la collettività possa scegliere come una terza persona debba curarsi. Sono consapevole che chi crede in maghi e scemenze del genere probabilmente finirà per morire ma al tempo stesso è la sua vita e, salvo esserci un esplicito pericolo per la collettività (vedi vacchini ad esempio) non sono così netto nel dire che si debba per forza obbligarlo a curarsi come pare a noi. È un argomento spinoso mi rendo conto ma non sono del tutto concorde con la linea assoluta di decidere come curarsi in maniera collettiva.
Chi riporta che i bagni di fango, le misture di erbe, i cazzi ed i mazzi, sono sostituti ben più efficaci della cura farmacologica dovrebbe essere punito in misura della sua figura:
Un medico o operatore sanitario dovrebbe essere radiato, tutti gli altri gli dovrebbe essere impedito per legge di avere accesso a qualssiasi dispositivo elettronico in grado di interaggire in rete.
Qua esageri. Che un medico se professa cose non scientifiche debba essere radiato ok. Ma gli altri non gli puoi privare di alcune delle libertà fondamentali e costituzionali solo perché credono in determinate cose. Altrimenti a sto punto perché non escludere i religiosi dato che la religione non è certo scentifica, escludiamo poi terrapiattisti, complottisti e così via e va a finire che hai fatto una nazione di polizia in stile Corea del Nord dove solo gli amici del potere sono online.
Le tue fantasie le tieni per te, non certo di metti a influenzare persone provate emotivamente e di conseguenza deboli, o creduloni ignoranti ( prive di conoscenze).
Chi si fa influenzare trova il modo di farsi influenzare anche al bar del paese. Ha già scelto di voler cercare altro prima ancora di incontrare online o al bar chi gli racconta le novelle. Esistono da secoli gli imbonitori e quelli che promettono cure miracolose, non è certo la rete ad aver creato il fenomeno.
Diffondere notizie che il violentatore sia un nero, giallo, bianco, verde senza prove di fondo è un incitazione all'odio.
Avere proprie opinioni e esporle non è reato:
Auschwitz non era un campo di concentramento ( negazionismo storico da punire)
Auschwitz non è nato come campo di concentramento, ma come polo produttivo a basso costo sfuttando i deportati e successsivamente trasformatosi in campo di concentramento ( Anche questa una falsità, ma senza negazionismo e con la possibilità di controbbattere e scambiarsi opinioni senza negare la tragedia umana)
Ripeto... rimarrebbero 10 persone online, non è una cosa fattibile. Tutti abbiamo un argomento su cui in un modo o nell'altro abbiamo sparato uno sfondone. Ma poi ripeto la gente sarà libera di credere in quello che gli pare, questo controllo assoluto per me è terrificante. Queste cose vengono fatte nelle dittature.
Per la politica invece nessuna censura:
La Dittatura nella Cina è la migliore forma politica possibile ( ! ma rispecchia una personale opinione)
Xi Jinping ha donato 10 milioni di dollari agli orfanotrofi
è il titolo di una notizia, ma se sono suoi denari ok, mentre se sono fonti statali il titolo dovrebbe essere:
Xi Jinping ha stanziato 10 milioni di dollari per gli orfanotrofi ( anche se inesatta potrebbe essere accettabile)
Se riportata da organi di stampa anche solo nel titolo e non nel corpo andrebbe sanzionata e il giornalista sanzionato.
E come diamine dovresti fare ad appurare una cosa del genere? Mettiamo che per assurdo l'ambasciata cinese dichiara che ha usato soldi propri. Pubblichi la notizia e mesi dopo invece si scopre che era una cosa mediatica. Arresti l'ambasciata? Scateni una guerra?
Ma ti rendi conto che con quello che proponi nessuno farebbe più il giornalista ufficiale. Ti troveresti una marea di testate clandestine e un giornale di stato con gente che, terrorizzata, pubblica solo dopo che qualche organo di stato ha verificato la notizia.
Non so se ti rendi conto ma nemmeno nella Germania nazista c'era una repressione del giornalismo anche solo lontanamente paragonabile a quello che proponi.
Bisogna combattere le bufale a livello di organi di stampa ( una bufala riportata su La Repubblichina, giornale inventato come regolarmente iscritto) perchè se ti riportano la notizia x letta su facebook non ha lo stesso peso di letta sul Sole 24 Ore ( testata che reputo affidabile).
Il sole 24 ore che si fece comprare dai venditori di diamanti pubblicando a tutta pagina bufale se fosse per te sarebbe già chiuso.
l'ho chieso a Chatgpt, notare le allucinazioni al punto 1 :asd:
quali sono i rischi connessi all'uso della IA per informarsi ?
Ottima domanda. L’uso dell’intelligenza artificiale per informarsi offre grandi vantaggi in termini di velocità e accessibilità, ma comporta anche diversi **rischi** che è utile conoscere:
**1. Accuratezza e veridicità delle informazioni**
* I modelli di IA possono generare risposte **inesatte, incomplete o fuorvianti**.
* Possono “allucinare” dati, cioè inventare informazioni plausibili ma false.
Devo dire che tutto sommato ti ha pure dato una risposta corretta.
Esprime esattamente quello che è un LLM: un sistema probabilistico che quasi sempre esprime il parere di una sorta di "maggioranza" in base a come sono stati pescati i dati di addestramento.
Credere che un LLM possa fornire solo risposte esatte è semplicemente un segnale che mancano le basi e che una persona che pensa a quel modo probabilmente si sarebbe fatta influenzare da chiunque: al bar, sul posto di lavoro, leggendo un forum ecc... ecc...
Devo dire che tutto sommato ti ha pure dato una risposta corretta.
Esprime esattamente quello che è un LLM: un sistema probabilistico che quasi sempre esprime il parere di una sorta di "maggioranza" in base a come sono stati pescati i dati di addestramento.
Credere che un LLM possa fornire solo risposte esatte è semplicemente un segnale che mancano le basi e che una persona che pensa a quel modo probabilmente si sarebbe fatta influenzare da chiunque: al bar, sul posto di lavoro, leggendo un forum ecc... ecc...
Il che se è un limite, è uguale a quello degli esseri umani che ti daranno una risposta in merito a quanto appreso con gli studi che hanno effettuato e le esperienze che hanno maturato.
Il che se è un limite, è uguale a quello degli esseri umani che ti daranno una risposta in merito a quanto appreso con gli studi che hanno effettuato e le esperienze che hanno maturato.
Assolutamente. È un limite a tutti gli effetti e ti dirò di più... un limite intrinsecamente invalicabile perché se anche invece di un LLM avessimo una vera IA pari a un essere umano o perfino superiore comunque sia giudicherebbe i dati sulla base delle proprie esperienze e conoscenze quindi sarà comunque possibile che avvengano errori.
Gli esseri umani stessi sono i primi, nonostante tutto, a commettere tali errori.
Qua il punto secondo me non è tanto stabilire che si può sbagliare ma pretendere da una macchina la perfezione quando nemmeno un uomo e non parlo di una persona media ma di una colta e preparata è scevro da errori e aberrazioni.
Assolutamente. È un limite a tutti gli effetti e ti dirò di più... un limite intrinsecamente invalicabile perché se anche invece di un LLM avessimo una vera IA pari a un essere umano o perfino superiore comunque sia giudicherebbe i dati sulla base delle proprie esperienze e conoscenze quindi sarà comunque possibile che avvengano errori.
Gli esseri umani stessi sono i primi, nonostante tutto, a commettere tali errori.
Qua il punto secondo me non è tanto stabilire che si può sbagliare ma pretendere da una macchina la perfezione quando nemmeno un uomo e non parlo di una persona media ma di una colta e preparata è scevro da errori e aberrazioni.
Appunto. A favore della LLM però c'è il fatto che può essere addestrata con le esperienze di n esseri umani e il suo sapere non si esaurisce con la morte, di fatto ogni essere umano è resettato alla nascita e deve apprendere daccapo tutto, cosa che una IA non deve fare, anzi la sua esperienza non può che aumentare con il tempo e l'acquisizione di nuove informazioni.
Tecnologia o fantascienza ?
Se è fantascienza e vi piace sognare, fate pure.
Ma non è progresso, almeno lo è solo fino ad un certo punto, poi sono solo promesse vendute da Wall Street per fare soldi.
Di fatto la fantascienza non è altro che la scienza fra qualche o anche molti anni, quando Jules Verne scrisse del viaggio sulla luna, nessuno avrebbe creduto possibile arrivarci...
Alcune cose probabilmente non saranno mai possibili, ma di certo la IA non è una di queste.
Appunto. A favore della LLM però c'è il fatto che può essere addestrata con le esperienze di n esseri umani e il suo sapere non si esaurisce con la morte, di fatto ogni essere umano è resettato alla nascita e deve apprendere daccapo tutto, cosa che una IA non deve fare, anzi la sua esperienza non può che aumentare con il tempo e l'acquisizione di nuove informazioni.
Praticamente Skynet è dietro l'angolo.
Praticamente Skynet è dietro l'angolo.
Non so cosa sia dietro l'angolo, ho solo descritto la differenza tra IA ed essere umano.
Appunto. A favore della LLM però c'è il fatto che può essere addestrata con le esperienze di n esseri umani e il suo sapere non si esaurisce con la morte, di fatto ogni essere umano è resettato alla nascita e deve apprendere daccapo tutto, cosa che una IA non deve fare, anzi la sua esperienza non può che aumentare con il tempo e l'acquisizione di nuove informazioni.
e dove non arriva con l'esperienza, si inventa le cose
in pratica è un commerciale perfetto ! :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.