|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/op...re_133531.html
OpenAI ha lanciato ChatGPT Pro, un abbonamento mensile da 229 euro che offre accesso illimitato ai modelli IA più potenti dell'azienda. L'azienda decide così di espandere molto la sua offerta, promettendo prestazioni superiori in matematica, scienze e programmazione. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2418
|
Che truffa!
Il problema non è (solo) la potenza di calcolo, il problema è la memoria MOLTO LIMITATA del maledetto affare. Per ragioni personali ho acquistato un mese di Chat GPT plus ed approfittando dell'occasione gli ho dato in pasto alcuni capitoli di un libro personale che ho scritto e... cosa scopro? che non il coso non riesce nemmeno ad elaborare un singolo capitolo (87 mila caratteri) nella sua interezza, figuriamoci un intero volume o l'intero libro....ridicoli.
__________________
![]() |
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: Dec 2003
Città: Roma
Messaggi: 615
|
Quote:
|
|
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2418
|
Quote:
Dopo diversi capitoli mi sono accorto che l'analisi di ogni capitolo non includeva le parti finali; Ho chiesto allora al IA di fare dei riassunti invece che delle analisi ed il problema è risultato essere subito lampante: l'IA semplicemente smetteva di leggere dopo circa la metà dei capitoli (in media 10/12 mila parole l'uno), ed anche quando chi chiedevo esplicitamente di fare il riassunto della "Seconda parte" del capitolo l'IA si è dimostrato totalmente incapace di reperire l'altra metà del capitolo, limitandosi al ripetere fino alla nausea il riassunto della prima metà. Ho provato tanti modi per aggirare il problema (a parte quello di dividere i capitoli in parti più piccoli),compreso il chiedere al IA di NON ripetere le parti riassunte già citate ma .... totalmente inutile, l'IA continuava a ripetere ancora ed ancora le stesse parti nonostante i miei ripetuti espliciti comandi di non ripetere le parti già citate, era come parlare con un sordo. In seguito, ho anche provato con un modello GPT personalizzato, allegando questa volta l'intero primo volume (7 capitoli / 88 mila parole o 420 caratteri circa) e... il problema rimaneva invariato. Sebbene "Tecnicamente" l'IA aveva l'accesso completo a tutti e sette i capitoli, non era in grado di fare un analisi comprensiva perché andava ben oltre la sua molto limitata memoria. Potevo chiedergli di individuare una particolare scena e ci riusciva, ma se gli chiedevo di fare un elenco, a titolo di esempio, di tutte le scene nei sette capitoli dove personaggio X ha parlato con personaggio Y ne elencava solo alcune dichiarando con la sua solita insopportabile sicurezza e confidenza che quelle erano tutte le scene in questione. Ho letto da qualche parte che questa limitazione si chiama "Finestra di contesto" o qualcosa del genere, ovvero la quantità di informazioni che l'IA può elaborare contemporaneamente, che è diverso dal semplice avere a disposizione. Nel caso mio ad esempio pur avendo a disposizione documenti per 88 mila parole, di fatto un analisi che comprendesse il ricordare un numero di contenuti superiori a 10 mila parole era fuori questione. Quindi quando leggo la notizia che "Aumenta la potenza di calcolo" sinceramente me ne frego altamente, la limitazione maggiore che vedo al momento è la memoria, non la potenza di calcolo(Anche se le due cose sono tecnicamente legate in questo contesto indicano cose differenti).
__________________
![]() |
|
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Dec 2002
Città: Amsterdam
Messaggi: 2866
|
Quote:
Hai qualcosa che fino a 2 anni fa non esisteva, e che fino a 2 anni fa avresto dovuto farlo a mano (ammesso avere le capacitá di farle, sia chiaro, non sto dicendo che non sei capace, ma ci sono lavori e lavori. Chi scrive un libro NON é chi lo corregge, mai), oppure affidarti appunto ad un terzo. Dagli chunks piú piccoli. Il tuo approccio e' un caso limite. 87 mila caratteri sono circa 100 pagine di testo...
__________________
DevOps & Cloud Consultant 🇳🇱 |
|
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2418
|
Quote:
Inoltre dargli chunks più piccoli come dici tu non funziona se il genere di analisi richiede di prendere l'intero contesto in memoria. Faccio un esempio facile facile: Mettiamo che nel capitolo 3 un personaggio si rompe il braccio sinistro, poi nel capitolo 28 viene detto in un dialogo random tra due personaggi che il personaggio di prima si è rotto il braccio destro in quel evento. Questo è il genere di errore che puoi scoprire solo se ti ricordi quale braccio si è rotto il tizio 25 capitoli prima, o in alternativa devi controllare ogni volta l'intero libro per verificare che una affermazione sia congruente. Quindi no, non funziona dividerlo in chunks
__________________
![]() |
|
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jun 2005
Messaggi: 23143
|
Forse dandogli in pasto i riassunti come dati 'meta' (risultati dunque da precedente elaborazione) che appunto avranno nel loro dettaglio ad es. il braccio rotto nel capitolo specifico.
Certo, si tratta sempre di cercare incongruenze tra versioni già conndensate non complete dell'informazione.
__________________
Stampanti multifunzione [Thread ufficiale - consigli per gli acquisti] |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6005
|
Il prezzo dell'abbonamento "pro" permette di fare delle ipotesi di quanto stanno perdendo OpenAI, Microsoft ecc. nel fornire la versione "gratuita" (nel senso che i soldi a perdere ce li mettono loro) e sperando di trovare prima o poi un caso d'uso ragionevole "per uso generale" dei loto LLVM.
Stanno bruciando risorse in maniera assurda sperando che prima o poi spunti fuori qualcosa di irrinunciabile per l'utilizzatore generico, e più non hanno risultati tangibili e più devono investire risorse per tener su l'hype in proposito. |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Jul 2003
Città: Civis Romanus Sum
Messaggi: 7448
|
229 euro al mese mi fa pensare che c'è già chi sta fatturando bene con chat gpt ed è disposto a fare l'investimento come penso sia autodesk e adobe. Se i prezzi dovessero salire ancora sarebbe interessante vedere chi sa sta sottoscrivendo questi abbonamenti e cosa ne fa.
__________________
Asrock Q1900M , SSD 1TB, Pico Psu 90W, No Fans , No HD, zero meccanica, zero rumore! |
![]() |
![]() |
![]() |
#10 | |
Member
Iscritto dal: Jun 2008
Messaggi: 111
|
Quote:
|
|
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6005
|
Quote:
E non si tratta di un caso isolato. Qui il problema non è (solo) tecnologico, questo è un sintomo del problema di fondo che si nasconde dentro la bolla speculativa costruita attorno ad una tecnologia utile (i LLM) ma che viene commercializzata a colpi di hype e FUD ovvero a fasi alterne di "questo ci porterà alla nuova età dell'oro" alternate a "se resti indietro su questo, finirai disoccupato ed in miseria". La cosa più assurda è che visto che in questo momento a guadagnarci sono i produttori di hardware i fornitori di capacità di calcolo e storage sul cloud e le aziende che pompano le quotazioni delle loro azioni a colpi di hype sui LLM, non c'è manco un modello di business sostenibile a parte quello di Microsoft (slurpare ancora più dati dagli utenti dei loro servizi "AI" e rendere ancora più esteso il lock-in dei loro prodotti per le aziende), ma tale approccio si basa su una posizione già dominante. |
|
![]() |
![]() |
![]() |
#12 | |
Member
Iscritto dal: Jun 2008
Messaggi: 111
|
Quote:
Per altro non c'e' per nulla un lockin visto che la maggior parte dei tool che usano LLM hanno approcci piu o meno standardizzati e puoi passare da un LLM ad un altro facilmente. Il tuo ragionamento e' un po' come se ti avessero dato un computer con Word sopra e tu stessi tentando di fare un disegno usando Word e dicessi "i computer non servono a niente! sono solo hype!", chat GPT e' solo un SW costruito sopra ad un LLM e non è il software che serve per il tuo use case, fine. |
|
![]() |
![]() |
![]() |
#13 | |||
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6005
|
Quote:
Quote:
Quote:
Il mio punto NON è che i LLVM sono hype, ma che chi sta cercando di proporli al grande pubblico sembra più interessato a guadagnarci sopra con altri mezzi invece che a proporre prodotti effettivamente pensati "per uso generale" come vogliono far credere. |
|||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 15:07.