View Full Version : ChatGPT, il prezzo per gli utenti potrebbe più che raddoppiare nei prossimi 5 anni
Redazione di Hardware Upg
30-09-2024, 10:41
Link alla notizia: https://www.hwupgrade.it/news/web/chatgpt-il-prezzo-per-gli-utenti-potrebbe-piu-che-raddoppiare-nei-prossimi-5-anni_131274.html
OpenAI sta pianificando un sostanziale incremento dei costi di abbonamento per il suo ChatGPT nei prossimi anni. Parallelamente, l'azienda cerca nuovi investitori per colmare il deficit finanziario attuale e finanziare la sua ambiziosa crescita.
Click sul link per visualizzare la notizia.
Bah... ad oggi è una politica fallimentare anche perché tra il piano a pagamento e quello gratis non vedo differenze così epocali da giustificare il pagamento.
Nel 90% (forse più) degli utilizzi le IA gratis sono più che sufficienti e il mercato si sta facendo concorrenza rincorrendo sempre più funzioni free (come tra l'altro è giusto che sia) piuttosto che pacchetti a pagamento.
Ha senso qualora ci siano attività commerciali che vogliono una IA addestrata con risposte specifiche e che ha uno scopo personalizzato per quella singola attività ma l'IA per gli utenti a pagamento non ha futuro secondo me... e sia chiaro non perché l'utente non la userà ma perché troverà una versione gratis anche leggermente meno performante ma che basta e avanza.
Da parte mia non riceveranno nemmeno un centesimo di euro
Noi esseri umani siamo più intelligenti di una logica binaria cablata fatta passare per AI; un Manager, come per esempio un amministratore delegato di una società, non ha bisogno di intelligenza artificiale, se ne ha bisogno bisogna bisogna cacciarlo dall'azienda con calci nel di suo dietro perché evidentemente è un ciuccio e ignorante
Già con Wikipedia e i Social Network sono state gettate le basi per una società mondiale in rotta di collisione verso gli abissi dell'ignoranza ora ci mancava l'AI per accelerare e completare l'opera "ignorantificazione" della popolazione mondiale"; gli unici intelligenti che rimarranno alla fine di questo processo in atto sono proprio quelli che ci stanno propinando l'AI e che si arricchiranno alle spalle di quei cretini che spendono soldi a queste baggianate
Nel 90% (forse più) degli utilizzi le IA gratis sono più che sufficienti e il mercato si sta facendo concorrenza rincorrendo sempre più funzioni free
dipende dall utilizzo ...
nel microbusinesse italiano, anche un prezzo di 50€/mese potrebbe essere più che giustificato
pagare IT per automatizzare alcune funzioni, un programmatore junior per scriviere alcuni piccoli applicativi ha ben altri costi ... giusto per fare qualche esempio
Personalmente con la sottoscrizione "Plus" a costi ridicoli ho raggiunto livelli e soddisfazione che svariati "umani" non mi hanno dato con costi di ben altri ordini di grandezza
Da parte mia non riceveranno nemmeno un centesimo di euro
Noi esseri umani siamo più intelligenti di una logica binaria cablata fatta passare per AI; un Manager, come per esempio un amministratore delegato di una società, non ha bisogno di intelligenza artificiale, se ne ha bisogno bisogna bisogna cacciarlo dall'azienda con calci nel di suo dietro perché evidentemente è un ciuccio e ignorante
Già con Wikipedia e i Social Network sono state gettate le basi per una società mondiale in rotta di collisione verso gli abissi dell'ignoranza ora ci mancava l'AI per accelerare e completare l'opera "ignorantificazione" della popolazione mondiale"; gli unici intelligenti che rimarranno alla fine di questo processo in atto sono proprio quelli che ci stanno propinando l'AI e che si arricchiranno alle spalle di quei cretini che spendono soldi a queste baggianate
Questa è veramente una grossa cazzata. Nessuno manager, nemmeno il più di successo ha una conoscenza così vasta da non aver bisogno di cercare informazioni e spesso l'AI ti permette di accedere a concetti in maniera molto più rapida e precisa che doverli cercare manualmente o leggerti pagine intere di wiki per un concetto che poteva sintetizzarsi in 2 righe.
Ad esempio a volte faccio dei progetti in C++ e ti posso assicurare che quando hai decine di sub routine, variabili e quant'altro fare debug non è proprio semplice. Farlo a mano mi richiederebbe ore. Sparo il codice all'IA che mi evidenzia in pochi secondi l'errore che magari è semplicemente un carattere mancante o uno spazio di troppo che avrei comunque trovato ma che l'AI mi permette di trovare in secondi invece di ore.
Tra l'altro dissento anche sul discorso dell'ignoranza in quanto ad esempio io ho imparato tantissimo nel tempo con wiki, ai e altri mezzi. Sono partito che non avevo idea di cosa fosse il C++ e adesso realizzo progetti miei che non porteranno l'umanità su Marte certo ma intanto ho imparato qualcosa che non fosse stato per wiki e ai non avrei mai potuto imparare.
dipende dall utilizzo ...
nel microbusinesse italiano, anche un prezzo di 50€/mese potrebbe essere più che giustificato
pagare IT per automatizzare alcune funzioni, un programmatore junior per scriviere alcuni piccoli applicativi ha ben altri costi ... giusto per fare qualche esempio
Personalmente con la sottoscrizione "Plus" a costi ridicoli ho raggiunto livelli e soddisfazione che svariati "umani" non mi hanno dato con costi di ben altri ordini di grandezza
Concordo ma parliamo di utenze business in quel caso sicuramente ha senso anche un pagamento. Trovo invece difficile sfondare col modello a pagamento sul singolo privato.
Proteo71
30-09-2024, 11:50
Da parte mia non riceveranno nemmeno un centesimo di euro
Noi esseri umani siamo più intelligenti di una logica binaria cablata fatta passare per AI; un Manager, come per esempio un amministratore delegato di una società, non ha bisogno di intelligenza artificiale, se ne ha bisogno bisogna bisogna cacciarlo dall'azienda con calci nel di suo dietro perché evidentemente è un ciuccio e ignorante
Già con Wikipedia e i Social Network sono state gettate le basi per una società mondiale in rotta di collisione verso gli abissi dell'ignoranza ora ci mancava l'AI per accelerare e completare l'opera "ignorantificazione" della popolazione mondiale"; gli unici intelligenti che rimarranno alla fine di questo processo in atto sono proprio quelli che ci stanno propinando l'AI e che si arricchiranno alle spalle di quei cretini che spendono soldi a queste baggianate
QUOTO TUTTO DALLA A ALLA Z !!!!
pachainti
30-09-2024, 14:09
Da parte mia non riceveranno nemmeno un centesimo di euro
Noi esseri umani siamo più intelligenti di una logica binaria cablata fatta passare per AI; un Manager, come per esempio un amministratore delegato di una società, non ha bisogno di intelligenza artificiale, se ne ha bisogno bisogna bisogna cacciarlo dall'azienda con calci nel di suo dietro perché evidentemente è un ciuccio e ignorante
Già con Wikipedia e i Social Network sono state gettate le basi per una società mondiale in rotta di collisione verso gli abissi dell'ignoranza ora ci mancava l'AI per accelerare e completare l'opera "ignorantificazione" della popolazione mondiale"; gli unici intelligenti che rimarranno alla fine di questo processo in atto sono proprio quelli che ci stanno propinando l'AI e che si arricchiranno alle spalle di quei cretini che spendono soldi a queste baggianate
Concordo pienamente.
Inoltre, basta informarsi un minimo per capire che non c'è niente di intelligente e poco anche di artificiale.
ChatGPT is bullshit (https://link.springer.com/article/10.1007/s10676-024-09775-5)
DK 7x10 Stronzate Artificiali (https://www.spreaker.com/episode/dk-7x10-stronzate-artificiali--52160617)
DK8x36 - Sbagliare i tempi (https://www.spreaker.com/episode/dk8x36-sbagliare-i-tempi-finale-stagione-8--60801077)
StephenFalken
30-09-2024, 15:39
Concordo pienamente.
Inoltre, basta informarsi un minimo per capire che non c'è niente di intelligente e poco anche di artificiale.
Rifiutarsi di usare l'AI e' come continuare a voler usare la macchina da scrivere. In futuro non ci saranno persone che perderanno il lavoro a causa dell'AI ma lo perderanno quelli che non la usano, fatevene una ragione.
Proteo71
30-09-2024, 15:46
Rifiutarsi di usare l'AI e' come continuare a voler usare la macchina da scrivere. In futuro non ci saranno persone che perderanno il lavoro a causa dell'AI ma lo perderanno quelli che non la usano, fatevene una ragione.
Infatti ci aspetta un futuro tristissimo :doh:
pachainti
30-09-2024, 15:48
Rifiutarsi di usare l'AI e' come continuare a voler usare la macchina da scrivere. In futuro non ci saranno persone che perderanno il lavoro a causa dell'AI ma lo perderanno quelli che non la usano, fatevene una ragione.
L'importante è continuare a credere alla propaganda incessante del marketing. La presunta IA, i modelli linguistici come chatGPT, una volta finito l'effetto wau iniziale sono sostanzialmente inutili.
Se leggi o ascolti i link che ho riportato sopra scopri due cose:
Non esiste alcuna intelligenza artificiale. I modelli linguistici non hanno alcuna consapevolezza di quello che fanno, sono dei modelli probabilistici che scelgono la parola più probabile in base al loro "addestramento".
Non esiste alcun concetto di realtà. I modelli linguistici non essendo consapevoli non hanno alcuna connessione con la realtà. Generalmente danno risposte verosimili per una persona che non conosce l'argomento, ma con un minimo di informazione tale persona trova subito i limiti "le presunte allucinazioni".
Turing l'inventore del test per IA che porta il suo nome e soprattutto padre dell'informatica.
"Se una macchina dev'essere infallibile, non potrà essere anche intelligente." A. Turing
StephenFalken
30-09-2024, 16:13
L'importante è continuare a credere alla propaganda incessante del marketing. La presunta IA, i modelli linguistici come chatGPT, una volta finito l'effetto wau iniziale sono sostanzialmente inutili
Quante stupidaggini, non c'e' bisogno che sia intelligente per essere utile, io ci lavoro con i modelli di machine learning esistono da 10 anni e hanno un impatto enorme sulla produttivita in moltissimi ambiti.
Quindi ripeto ammenoche uno non faccia lavori prettamente manuali la differenza tra una persona che usa l'IA e uno che non la usa è la stessa di uno che scrive con la macchina da scrivere e uno che scrive con il PC. Io usando copilot scrivo codice 5 volte piu veloce di prima. Non ho voglia di stare qui a convincerti e' pieno il mondo di studi a riguardo, se a te non piace libero di non usarla ma in questo caso spero tu faccia il fisioterapista.
P.S. Il test di touring i moderni LLM lo passano tranquillamente pur non essendo intelligenti
pachainti
30-09-2024, 16:28
Quante stupidaggini, non c'e' bisogno che sia intelligente per essere utile, io ci lavoro con i modelli di machine learning esistono da 10 anni e hanno un impatto enorme sulla produttivita in moltissimi ambiti.
Quali sarebbero le stupidaggini?
Conosco bene il machine learning, non esiste da 10 anni. Nel 2012 è nato il cosi detto deep learning, con la "famosa" CNN alexnet, ma è solo un evoluzione dei modelli degli anni 90 con l'aggiunta della potenza di calcolo e dei dati. Di innovativo non c'è praticamente nulla, sono le basi gettate da LeCun, Hinton e Bengio premi Turing 2018 (https://www.theverge.com/2019/3/27/18280665/ai-godfathers-turing-award-2018-yoshua-bengio-geoffrey-hinton-yann-lecun).
Anche uno dei luminari dell'IA, Norvig ha ammesso: "We don’t have better algorithms. We just have more data."
Quindi ripeto ammenoche uno non faccia lavori prettamente manuali la differenza tra una persona che usa l'IA e uno che non la usa è la stessa di uno che scrive con la macchina da scrivere e uno che scrive con il PC. Io usando copilot scrivo codice 5 volte piu veloce di prima. Non ho voglia di stare qui a convincerti e' pieno il mondo di studi a riguardo, se a te non piace libero di non usarla ma in questo caso spero tu faccia il fisioterapista.
Si, con qualità probabilmente inferiore.
Coding on Copilot: 2023 Data Suggests Downward Pressure on Code Quality (https://www.gitclear.com/coding_on_copilot_data_shows_ais_downward_pressure_on_code_quality)
Do Users Write More Insecure Code with AI Assistants (https://arxiv.org/abs/2211.03622)?
Tranquillo faccio il venditore di fumo, sono in ottima compagnia con chi propaganda gli LLM come intelligenza artificiale.
P.S. Il test di touring i moderni LLM lo passano tranquillamente pur non essendo intelligenti
Turing non touring. Quindi? Il problema è che sono inutili.
L'importante è continuare a credere alla propaganda incessante del marketing. La presunta IA, i modelli linguistici come chatGPT, una volta finito l'effetto wau iniziale sono sostanzialmente inutili.
Ma chi l'ha detto... sono inutili se ti aspetti miracoli o prestazioni che non hanno senso. Ma in certi ambiti sono utilissimi e hanno una rapidità pazzesca.
Se leggi o ascolti i link che ho riportato sopra scopri due cose:
Non esiste alcuna intelligenza artificiale. I modelli linguistici non hanno alcuna consapevolezza di quello che fanno, sono dei modelli probabilistici che scelgono la parola più probabile in base al loro "addestramento".
Ma dai... qua non si sta dicendo che chatGPT sia senziente eh. È una IA semplice che fa compiti semplici, nessuno sano di mente si aspetta che sia senziente.
Non esiste alcun concetto di realtà. I modelli linguistici non essendo consapevoli non hanno alcuna connessione con la realtà. Generalmente danno risposte verosimili per una persona che non conosce l'argomento, ma con un minimo di informazione tale persona trova subito i limiti "le presunte allucinazioni".
Assolutamente falso. Nel senso che dipende di cosa parliamo. Certo che se domando alla IA qualcosa sulla fusione nucleare non potrà che fare risposte generiche ma se gli fai una domanda su un teorema, di riassumere qualcosa, di aiutarti a trovare un bug in un codice o di aiutarti a riparare un circuito sarà molto precisa. Ripeto che il problema non è che l'IA è inutile è che c'è gente che pensa che una IA sia come parlare con Dio e avere le risposte sui segreti dell'universo.
Turing l'inventore del test per IA che porta il suo nome e soprattutto padre dell'informatica.
"Se una macchina dev'essere infallibile, non potrà essere anche intelligente." A. Turing
E infatti le attuali IA non hanno il compito né di essere infallibili né di avere l'intelligenza a cui faceva riferimento Turing. Sono dei tool di supporto che ti fanno fare lo stesso lavoro che facevi prima ma prendendosi loro le parti noiose e ripetitive automatizzandole.
Turing non touring. Quindi? Il problema è che sono inutili.
Mi piace perché siccome secondo te sono inutili allora tutti ci dobbiamo adeguare? Decidi te per tutti?
pachainti
30-09-2024, 18:39
Ma chi l'ha detto... sono inutili se ti aspetti miracoli o prestazioni che non hanno senso. Ma in certi ambiti sono utilissimi e hanno una rapidità pazzesca.
Si, vero in qualche ambito ristretto possono avere qualche utilità. Mi vengono in mente i traduttori automatici, la generazione di "opere d'arte" e poco più.
Ma dai... qua non si sta dicendo che chatGPT sia senziente eh. È una IA semplice che fa compiti semplici, nessuno sano di mente si aspetta che sia senziente.
Il problema è che non c'è alcuna IA. Il nome è esso stesso forviante.
SALAMI e copyright (https://blog.quintarelli.it/2019/11/lets-forget-the-term-ai-lets-call-them-systematic-approaches-to-learning-algorithms-and-machine-inferences-salami/)
The delusions of neural networks (https://encrypted.tesio.it/2018/01/19/the-delusions-of-neural-networks.html)
Is machine learning a pseudo science? (https://telegra.ph/Is-machine-learning-a-pseudo-science-12-13)
Assolutamente falso. Nel senso che dipende di cosa parliamo. Certo che se domando alla IA qualcosa sulla fusione nucleare non potrà che fare risposte generiche ma se gli fai una domanda su un teorema, di riassumere qualcosa, di aiutarti a trovare un bug in un codice o di aiutarti a riparare un circuito sarà molto precisa. Ripeto che il problema non è che l'IA è inutile è che c'è gente che pensa che una IA sia come parlare con Dio e avere le risposte sui segreti dell'universo.
Mi potresti spiegare in quale modo un modello probabilistico possa sviluppare un senso di realtà? Tutti gli articoli scientifici che ho letto affermano il contrario.
Per esempio leggi qui (https://link.springer.com/article/10.1007/s10676-024-09775-5) e questo è molto pericoloso.
Given this process, it’s not surprising that LLMs have a problem with the truth. Their goal is to provide a normal-seeming response to a prompt, not to convey information that is helpful to their interlocutor. Examples of this are already numerous, for instance, a lawyer recently prepared his brief using ChatGPT and discovered to his chagrin that most of the cited cases were not real (Weiser, 2023); as Judge P. Kevin Castel put it, ChatGPT produced a text filled with “bogus judicial decisions, with bogus quotes and bogus internal citations”. Similarly, when computer science researchers tested ChatGPT’s ability to assist in academic writing, they found that it was able to produce surprisingly comprehensive and sometimes even accurate text on biological subjects given the right prompts. But when asked to produce evidence for its claims, “it provided five references dating to the early 2000s. None of the provided paper titles existed, and all provided PubMed IDs (PMIDs) were of different unrelated papers” (Alkaissi and McFarland, 2023). These errors can “snowball”: when the language model is asked to provide evidence for or a deeper explanation of a false claim, it rarely checks itself; instead it confidently producesmore false but normal-sounding claims (Zhang et al. 2023). The accuracy problem for LLMs and other generative Ais is often referred to as the problem of “AI hallucination”: the chatbot seems to be hallucinating sources and facts that don’t exist. These inaccuracies are referred to as “hallucinations” in both technical (OpenAI, 2023) and popular contexts (Weise & Metz, 2023).
Altro pericolo. I ricercatori hanno già iniziato a utilizzare gli LLM (https://telegra.ph/Elsevier-science-or-rogue-scoundrels-03-15) per scrivere gli articoli. Il problema grave è che i revisori non si sono accorti dei refusi (o delle provocazioni) mostrando da una parte l'inaffidabilità della revisione e dall'altra l'enorme rumore di fondo generato. Continuando di questo passo non sapremo più quali articoli sono validi e quali palesemente falsi, tuttavia saranno tutti verosimili.
Per quale motivo gli LLM, la presunta IA, non servono a nulla? Poiché se già conosci l'argomento ti accorgi delle supercazzole che spara, viceversa se non lo conosci non puoi prendere per buono quello che ti dice e devi comunque verificare da altre fonti (perdendo lo stesso tempo). Quindi a cosa serve?
E infatti le attuali IA non hanno il compito né di essere infallibili né di avere l'intelligenza a cui faceva riferimento Turing. Sono dei tool di supporto che ti fanno fare lo stesso lavoro che facevi prima ma prendendosi loro le parti noiose e ripetitive automatizzandole.
Se anche fosse vero (vedi il punto sopra), non andrebbero chiamate IA poiché sono nomi forvianti per chi non conosce il loro funzionamento, vedi SALAMI. Se ti vendo/fornisco un succo di arancia, non può avere il sapore di fragole o essere fatta da esse.
Mi piace perché siccome secondo te sono inutili allora tutti ci dobbiamo adeguare? Decidi te per tutti?
No, mi baso sui fatti. Quando saranno diversi, cambierò idea.
Le presunte IA servono a due cose:
Risparmiare sui costi (o almeno illudono di farlo). In un mondo capitalista dove l'unico obiettivo è il profitto, questo è una manna per le aziende e gli azionisti (che tuttavia si stanno accorgendo del tanto fumo e poco arrosto).
Spostare la responsabilità delle decisioni dalle persone a un'entità considerata superiore e terza e quindi infallibile (dalle masse che non conoscono il funzionamento). Come mostrato sopra, IA è piena di pregiudizi e commette tantissimi errori. Inoltre, il machine learning non può migliorare con l'aumentare della quantità dei dati a disposizione a causa del limite del rumore e quindi della qualità degli stessi The Noise Bottleneck (https://telegra.ph/The-Noise-Bottleneck-or-How-Noise-Explodes-Faster-than-Data-09-03).
randorama
30-09-2024, 19:15
Rifiutarsi di usare l'AI e' come continuare a voler usare la macchina da scrivere. In futuro non ci saranno persone che perderanno il lavoro a causa dell'AI ma lo perderanno quelli che non la usano, fatevene una ragione.
lascialo parlare... ognuno si sfoga come può.
Si, vero in qualche ambito ristretto possono avere qualche utilità. Mi vengono in mente i traduttori automatici, la generazione di "opere d'arte" e poco più.
Continui a essere esagerato senza motivo. Gli ambiti di applicazione sono molti di più. Ad esempio dove lavoro il primo livello di assistenza tecnica è una IA e fa quello che deve fare. Se non ricordi come si fa una procedura capisce cosa ti serve e te la spiega passo passo.
Se gli poni un problema non risolvibile che necessita di un intervento fisico scala il ticket al secondo livello adetto e così via.
Ci sono decine di possibili applicazioni che vanno dalla gestione delle scorte con algoritmi predittivi all'organizzazione di dati, all'analisi dati per trovare correlazioni difficili da notare. Ripeto basta saperla usare e non aspettarsi roba da fantascienza.
Il problema è che non c'è alcuna IA. Il nome è esso stesso forviante.
E quindi? La stragrande maggioranza dei prodotti ha nomi commerciali che sono fuorvianti. Un nome è un nome non è che descrive per forza il prodotto. Questa critica è come se mi lamentassi che tutti quelli che si chiamano Ettore non sono in forma e non hanno il fisico del mitico Ettore di Troia.
Io ho più che altro l'impressione che odi l'IA o chiamala come vuoi per partito preso e cerchi a tutti i costi di trovare motivi per giustificare questa tua posizione anche per gli altri.
Mi potresti spiegare in quale modo un modello probabilistico possa sviluppare un senso di realtà? Tutti gli articoli scientifici che ho letto affermano il contrario.
Ma non è affatto necessario che lo sviluppi. L'IA deve rispondere a cose circostanziate. Il suo scopo non è sondare la realtà o chissà che altrimenti avremmo già la singolarità e creato una IA senziente.
Queste IA sono tool specializzati in compiti ben precisi che mettono a mia disposizione delle conoscenze che altrimenti mi richiederebbero tempo e analisi per averle. Sta a me poi valutare la risposta e anche saper fare la domanda per rendere lo strumento utile.
Per fare un paragone è come dire un coltello è utile o no? Se lo sai usare certo che è utile anche se il coltello non saprà mai distinguere da l'essere usato per uccidere o l'essere usato per fare cose utili.
L'IA è uguale... se la sai usare è uno strumento utile ma non è che l'IA stessa può prendere coscienza della realtà e fare la parte dell'umano o perlomeno sicuramente non le IA attuali.
Given this process, it’s not surprising that LLMs have a problem with the truth. Their goal is to provide a normal-seeming response to a prompt, not to convey information that is helpful to their interlocutor. Examples of this are already numerous, for instance, a lawyer recently prepared his brief using ChatGPT and discovered to his chagrin that most of the cited cases were not real (Weiser, 2023); as Judge P. Kevin Castel put it, ChatGPT produced a text filled with “bogus judicial decisions, with bogus quotes and bogus internal citations”. Similarly, when computer science researchers tested ChatGPT’s ability to assist in academic writing, they found that it was able to produce surprisingly comprehensive and sometimes even accurate text on biological subjects given the right prompts. But when asked to produce evidence for its claims, “it provided five references dating to the early 2000s. None of the provided paper titles existed, and all provided PubMed IDs (PMIDs) were of different unrelated papers” (Alkaissi and McFarland, 2023). These errors can “snowball”: when the language model is asked to provide evidence for or a deeper explanation of a false claim, it rarely checks itself; instead it confidently producesmore false but normal-sounding claims (Zhang et al. 2023). The accuracy problem for LLMs and other generative Ais is often referred to as the problem of “AI hallucination”: the chatbot seems to be hallucinating sources and facts that don’t exist. These inaccuracies are referred to as “hallucinations” in both technical (OpenAI, 2023) and popular contexts (Weise & Metz, 2023).
Questo che citi è un perfetto esempio di gente idiota che usa l'IA in modo folle. Non puoi pretendere che l'IA possa discernere tra casi giudiziari e giurisprudenza. È un compito spesso difficile anche per un umano e affidarsi all'IA significa che devi cambiare mestiere.
Allo stesso modo in cui l'IA non può scrivere un testo accademico di ricerca perché è ovvio che cercherà risposte per scrivere qualcosa di sensato su un tema che non ha una base dati solida e quindi non potrà distinguere tra teorie strampalate e dati reali.
Usare l'IA in questo modo è semplicemente non avere la più pallida idea di come funziona e cosa può o non può fare.
Altro pericolo. I ricercatori hanno già iniziato a utilizzare gli LLM (https://telegra.ph/Elsevier-science-or-rogue-scoundrels-03-15) per scrivere gli articoli. Il problema grave è che i revisori non si sono accorti dei refusi (o delle provocazioni) mostrando da una parte l'inaffidabilità della revisione e dall'altra l'enorme rumore di fondo generato. Continuando di questo passo non sapremo più quali articoli sono validi e quali palesemente falsi, tuttavia saranno tutti verosimili.
Pericolo infondato. Prima di tutto le revisioni serie sono tutte revisioni basate su ripetizioni scientifiche quindi non si tratta di una mera revisione dell'articolo ma veri e propri scienziati che riproducono quanto descritto. Inoltre chiunque pubblicasse un articolo scritto dall'IA senza nemmeno controllarlo avrebbe sostanzialmente posto fine alla propria carriera accademica e di ricerca quindi salvo articoli di infimo livello di gente che comunque non sarebbe stata ascoltata da nessuno non c'è alcun rischio.
Per quale motivo gli LLM, la presunta IA, non servono a nulla? Poiché se già conosci l'argomento ti accorgi delle supercazzole che spara, viceversa se non lo conosci non puoi prendere per buono quello che ti dice e devi comunque verificare da altre fonti (perdendo lo stesso tempo). Quindi a cosa serve?
Te l'ho scritto sopra. Perché te la vedi solo come uno strumento per scrivere cose ma quello è forse l'utilizzo meno interessante. La vera utilità di questi sistemi sta nel poter automatizzare processi ripetitivi come l'assistenza, il debug, scrittura di codice standard, gestione magazzini e così via.
Non scrivere teoremi o articoli scientifici.
Se anche fosse vero (vedi il punto sopra), non andrebbero chiamate IA poiché sono nomi forvianti per chi non conosce il loro funzionamento, vedi SALAMI. Se ti vendo/fornisco un succo di arancia, non può avere il sapore di fragole o essere fatta da esse.
Lo sai vero che in tutti i supermercati vendono "succo di frutta" che NON è succo di frutta? Se devi fare una guerra in tal senso buona fortuna perché il grosso dei prodotti, anche alimentari, sono venduti con nomi commerciali che spesso sono (quando va bene) parzialmente veri.
No, mi baso sui fatti. Quando saranno diversi, cambierò idea.
Le presunte IA servono a due cose:
Risparmiare sui costi (o almeno illudono di farlo). In un mondo capitalista dove l'unico obiettivo è il profitto, questo è una manna per le aziende e gli azionisti (che tuttavia si stanno accorgendo del tanto fumo e poco arrosto).
Questa dovrebbe essere una critica? Io se ho un tool che mi permette in azienda di risparmiare sono contento e francamente non ci vedo niente di male.
Spostare la responsabilità delle decisioni dalle persone a un'entità considerata superiore e terza e quindi infallibile (dalle masse che non conoscono il funzionamento). Come mostrato sopra, IA è piena di pregiudizi e commette tantissimi errori. Inoltre, il machine learning non può migliorare con l'aumentare della quantità dei dati a disposizione a causa del limite del rumore e quindi della qualità degli stessi The Noise Bottleneck (https://telegra.ph/The-Noise-Bottleneck-or-How-Noise-Explodes-Faster-than-Data-09-03).
Questo avviene già da decenni. Guarda che tutte le finanziarie/banche/istituti di credito ormai basano le delibere su sistemi del genere. Se dovesse ancora decidere il titolare di filiale oggi come oggi solo per visionare i dati di una singola pratica ci vorrebbe una settimana.
lascialo parlare... ognuno si sfoga come può.
Seriamente io non capisco come si possa arrivare a odiare uno strumento. Almeno un tempo la gente era fanboy per una marca piuttosto che un'altra ma odiare uno strumento che diamine di senso ha. Ma poi su un sito di tecnologia... certe volte ho difficoltà a capire.
sminatore
01-10-2024, 07:57
Azz, entrare in un sito di tecnologia e vedere così tanta gente chiusa mentalmente e leggere le loro difficoltà a comprendere le novità fa male al cuore
È proprio vero che la popolazione italiana sta invecchiando, e questo purtroppo si riflette anche sui giovani che incominciamo a pensare come i vecchi
pachainti
03-10-2024, 16:37
Continui a essere esagerato senza motivo. Gli ambiti di applicazione sono molti di più. Ad esempio dove lavoro il primo livello di assistenza tecnica è una IA e fa quello che deve fare. Se non ricordi come si fa una procedura capisce cosa ti serve e te la spiega passo passo.
Se gli poni un problema non risolvibile che necessita di un intervento fisico scala il ticket al secondo livello adetto e così via.
Io mi baso sui dati e i fatti. Ci vogliono vendere l'IA come capace di fare tutto, mentre in realtà non sa fare nulla o poco.
Ci sono decine di possibili applicazioni che vanno dalla gestione delle scorte con algoritmi predittivi all'organizzazione di dati, all'analisi dati per trovare correlazioni difficili da notare. Ripeto basta saperla usare e non aspettarsi roba da fantascienza.
Questa è statistica non IA. Non è l'abito che fa il monaco :D
E quindi? La stragrande maggioranza dei prodotti ha nomi commerciali che sono fuorvianti. Un nome è un nome non è che descrive per forza il prodotto. Questa critica è come se mi lamentassi che tutti quelli che si chiamano Ettore non sono in forma e non hanno il fisico del mitico Ettore di Troia.
Io ho più che altro l'impressione che odi l'IA o chiamala come vuoi per partito preso e cerchi a tutti i costi di trovare motivi per giustificare questa tua posizione anche per gli altri.
No, chiamare qualcosa con un nome improprio è non solo forviante, ma anche una truffa. Vedi il Full Self Driving della Telsa che non ha niente di guida autonoma e infatti ci sono cause in corso.
Io ho più che altro l'impressione che odi l'IA o chiamala come vuoi per partito preso e cerchi a tutti i costi di trovare motivi per giustificare questa tua posizione anche per gli altri.
Si può odiare qualcosa che non esiste? Io odio i venditori di fumo e chi gli va dietro senza ragionare minimamente.
Ma non è affatto necessario che lo sviluppi. L'IA deve rispondere a cose circostanziate. Il suo scopo non è sondare la realtà o chissà che altrimenti avremmo già la singolarità e creato una IA senziente.
Queste IA sono tool specializzati in compiti ben precisi che mettono a mia disposizione delle conoscenze che altrimenti mi richiederebbero tempo e analisi per averle. Sta a me poi valutare la risposta e anche saper fare la domanda per rendere lo strumento utile.
Per fare un paragone è come dire un coltello è utile o no? Se lo sai usare certo che è utile anche se il coltello non saprà mai distinguere da l'essere usato per uccidere o l'essere usato per fare cose utili.
L'IA è uguale... se la sai usare è uno strumento utile ma non è che l'IA stessa può prendere coscienza della realtà e fare la parte dell'umano o perlomeno sicuramente non le IA attuali.
No, come spiegato bene nell'articolo (https://link.springer.com/article/10.1007/s10676-024-09775-5) che ti ho riportato varie volte, un LLM privo di senso di realtà è un generatore di stronzate. Non dipende dall'utilizzo che ne fa. Il problema è che te ne accorgi solo se conosci l'argomento o se comincia a "svalvolare".
Questo che citi è un perfetto esempio di gente idiota che usa l'IA in modo folle. Non puoi pretendere che l'IA possa discernere tra casi giudiziari e giurisprudenza. È un compito spesso difficile anche per un umano e affidarsi all'IA significa che devi cambiare mestiere.
Allo stesso modo in cui l'IA non può scrivere un testo accademico di ricerca perché è ovvio che cercherà risposte per scrivere qualcosa di sensato su un tema che non ha una base dati solida e quindi non potrà distinguere tra teorie strampalate e dati reali.
Usare l'IA in questo modo è semplicemente non avere la più pallida idea di come funziona e cosa può o non può fare.
No, è un esempio reale. Sono tutti ricercatori e penso abbiano un minimo di cognizione di causa. Pensa una persona comune che non ha studiato come loro.
Il grosso problema è che in assenza di connessione con la realtà, quando non sa cosa rispondere, si inventa le cose e diventa un generatore di stronzate.
Pericolo infondato. Prima di tutto le revisioni serie sono tutte revisioni basate su ripetizioni scientifiche quindi non si tratta di una mera revisione dell'articolo ma veri e propri scienziati che riproducono quanto descritto. Inoltre chiunque pubblicasse un articolo scritto dall'IA senza nemmeno controllarlo avrebbe sostanzialmente posto fine alla propria carriera accademica e di ricerca quindi salvo articoli di infimo livello di gente che comunque non sarebbe stata ascoltata da nessuno non c'è alcun rischio.
Hai almeno letto il link (https://telegra.ph/Elsevier-science-or-rogue-scoundrels-03-15)? Due articoli pubblicati su Elsevier, uno degli editori più famosi a livello mondale (The Lancet, Cell, ScienceDirect).
Gli autori avevano lasciato la firma dell'utilizzo degli LLM, forse in modo provocatorio, ma i revisori li hanno pubblicati. In seguito gli articoli sono stati ritrattati (https://www.sciencedirect.com/science/article/pii/S2468023024002402) e rimossi (https://www.sciencedirect.com/science/article/pii/S1930043324001298) anche se non primariamente per aver utilizzato la presunta IA. Pensa quanti articoli hanno parti inventate che non vengono rivelate durante la revisione per mancanza di tempo, strumenti, denaro, etc.
Te l'ho scritto sopra. Perché te la vedi solo come uno strumento per scrivere cose ma quello è forse l'utilizzo meno interessante. La vera utilità di questi sistemi sta nel poter automatizzare processi ripetitivi come l'assistenza, il debug, scrittura di codice standard, gestione magazzini e così via.
Non scrivere teoremi o articoli scientifici.
Ti ho mostrato sopra che peggiorano la qualità del codice scritto oltre a introdurre problemi di sicurezza. Veramente utili.
Lo sai vero che in tutti i supermercati vendono "succo di frutta" che NON è succo di frutta? Se devi fare una guerra in tal senso buona fortuna perché il grosso dei prodotti, anche alimentari, sono venduti con nomi commerciali che spesso sono (quando va bene) parzialmente veri.
Quindi? Continuiamo cosi?
Questa dovrebbe essere una critica? Io se ho un tool che mi permette in azienda di risparmiare sono contento e francamente non ci vedo niente di male.
Se risparmi e il lavoro è ben fatto no. Tuttavia, qui si tratta di sostituire errori umani con generatori artificiali di stronzate.
Questo avviene già da decenni. Guarda che tutte le finanziarie/banche/istituti di credito ormai basano le delibere su sistemi del genere. Se dovesse ancora decidere il titolare di filiale oggi come oggi solo per visionare i dati di una singola pratica ci vorrebbe una settimana.
Infatti si vede la qualità dei prodotti, servizi che è in picchiata.
Seriamente io non capisco come si possa arrivare a odiare uno strumento. Almeno un tempo la gente era fanboy per una marca piuttosto che un'altra ma odiare uno strumento che diamine di senso ha. Ma poi su un sito di tecnologia... certe volte ho difficoltà a capire.
Ripeto nessuno odia niente, non io almeno. Si tratta di analizzare con razionalità e non credere a tutte le cavolate che ci vengono raccontate.
Come dico spesso, la tecnologia dovrebbe essere l'applicazione della scienza e non una nuova religione.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.