Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese di utilizzo intensivo e l'analisi di oltre 50 scatti, l'articolo offre una panoramica approfondita di Nintendo Switch 2. Vengono esaminate le caratteristiche che la definiscono, con un focus sulle nuove funzionalità e un riepilogo dettagliato delle specifiche tecniche che ne determinano le prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 06-12-2024, 09:21   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: https://www.hwupgrade.it/news/web/op...re_133531.html

OpenAI ha lanciato ChatGPT Pro, un abbonamento mensile da 229 euro che offre accesso illimitato ai modelli IA più potenti dell'azienda. L'azienda decide così di espandere molto la sua offerta, promettendo prestazioni superiori in matematica, scienze e programmazione.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 10:08   #2
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2417
Che truffa!

Il problema non è (solo) la potenza di calcolo, il problema è la memoria MOLTO LIMITATA del maledetto affare.

Per ragioni personali ho acquistato un mese di Chat GPT plus ed approfittando dell'occasione gli ho dato in pasto alcuni capitoli di un libro personale che ho scritto e... cosa scopro? che non il coso non riesce nemmeno ad elaborare un singolo capitolo (87 mila caratteri) nella sua interezza, figuriamoci un intero volume o l'intero libro....ridicoli.
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 11:49   #3
gerasimone
Senior Member
 
L'Avatar di gerasimone
 
Iscritto dal: Dec 2003
Città: Roma
Messaggi: 615
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Che truffa!

Il problema non è (solo) la potenza di calcolo, il problema è la memoria MOLTO LIMITATA del maledetto affare.

Per ragioni personali ho acquistato un mese di Chat GPT plus ed approfittando dell'occasione gli ho dato in pasto alcuni capitoli di un libro personale che ho scritto e... cosa scopro? che non il coso non riesce nemmeno ad elaborare un singolo capitolo (87 mila caratteri) nella sua interezza, figuriamoci un intero volume o l'intero libro....ridicoli.
vorrei capire cosa intendi con dare in pasto, cioè come hai chiesto di fare un training con il tuo libro? hai creato u nmodello gpt custom oppure gli hai allegato il pdf e detto leggilo?
gerasimone è offline   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 12:43   #4
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2417
Quote:
Originariamente inviato da gerasimone Guarda i messaggi
vorrei capire cosa intendi con dare in pasto, cioè come hai chiesto di fare un training con il tuo libro? hai creato u nmodello gpt custom oppure gli hai allegato il pdf e detto leggilo?
Il mio primo approccio è stato quello di fornire i capitoli uno ad uno, l'idea era quella di fare un analisi per individuare eventuali problemi di narrativa (buchi di trama / errori di continuità ed altre incongruenze esplicite) .
Dopo diversi capitoli mi sono accorto che l'analisi di ogni capitolo non includeva le parti finali; Ho chiesto allora al IA di fare dei riassunti invece che delle analisi ed il problema è risultato essere subito lampante: l'IA semplicemente smetteva di leggere dopo circa la metà dei capitoli (in media 10/12 mila parole l'uno), ed anche quando chi chiedevo esplicitamente di fare il riassunto della "Seconda parte" del capitolo l'IA si è dimostrato totalmente incapace di reperire l'altra metà del capitolo, limitandosi al ripetere fino alla nausea il riassunto della prima metà.
Ho provato tanti modi per aggirare il problema (a parte quello di dividere i capitoli in parti più piccoli),compreso il chiedere al IA di NON ripetere le parti riassunte già citate ma .... totalmente inutile, l'IA continuava a ripetere ancora ed ancora le stesse parti nonostante i miei ripetuti espliciti comandi di non ripetere le parti già citate, era come parlare con un sordo.

In seguito, ho anche provato con un modello GPT personalizzato, allegando questa volta l'intero primo volume (7 capitoli / 88 mila parole o 420 caratteri circa) e... il problema rimaneva invariato.
Sebbene "Tecnicamente" l'IA aveva l'accesso completo a tutti e sette i capitoli, non era in grado di fare un analisi comprensiva perché andava ben oltre la sua molto limitata memoria.
Potevo chiedergli di individuare una particolare scena e ci riusciva, ma se gli chiedevo di fare un elenco, a titolo di esempio, di tutte le scene nei sette capitoli dove personaggio X ha parlato con personaggio Y ne elencava solo alcune dichiarando con la sua solita insopportabile sicurezza e confidenza che quelle erano tutte le scene in questione.

Ho letto da qualche parte che questa limitazione si chiama "Finestra di contesto" o qualcosa del genere, ovvero la quantità di informazioni che l'IA può elaborare contemporaneamente, che è diverso dal semplice avere a disposizione. Nel caso mio ad esempio pur avendo a disposizione documenti per 88 mila parole, di fatto un analisi che comprendesse il ricordare un numero di contenuti superiori a 10 mila parole era fuori questione.

Quindi quando leggo la notizia che "Aumenta la potenza di calcolo" sinceramente me ne frego altamente, la limitazione maggiore che vedo al momento è la memoria, non la potenza di calcolo(Anche se le due cose sono tecnicamente legate in questo contesto indicano cose differenti).
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 13:46   #5
IlCarletto
Senior Member
 
L'Avatar di IlCarletto
 
Iscritto dal: Dec 2002
Città: Amsterdam
Messaggi: 2866
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Il mio primo approccio è stato quello di fornire i capitoli uno ad uno, l'idea era quella di fare un analisi per individuare eventuali problemi di narrativa (buchi di trama / errori di continuità ed altre incongruenze esplicite) .
Dopo diversi capitoli mi sono accorto che l'analisi di ogni capitolo non includeva le parti finali; Ho chiesto allora al IA di fare dei riassunti invece che delle analisi ed il problema è risultato essere subito lampante: l'IA semplicemente smetteva di leggere dopo circa la metà dei capitoli (in media 10/12 mila parole l'uno), ed anche quando chi chiedevo esplicitamente di fare il riassunto della "Seconda parte" del capitolo l'IA si è dimostrato totalmente incapace di reperire l'altra metà del capitolo, limitandosi al ripetere fino alla nausea il riassunto della prima metà.
Ho provato tanti modi per aggirare il problema (a parte quello di dividere i capitoli in parti più piccoli),compreso il chiedere al IA di NON ripetere le parti riassunte già citate ma .... totalmente inutile, l'IA continuava a ripetere ancora ed ancora le stesse parti nonostante i miei ripetuti espliciti comandi di non ripetere le parti già citate, era come parlare con un sordo.

In seguito, ho anche provato con un modello GPT personalizzato, allegando questa volta l'intero primo volume (7 capitoli / 88 mila parole o 420 caratteri circa) e... il problema rimaneva invariato.
Sebbene "Tecnicamente" l'IA aveva l'accesso completo a tutti e sette i capitoli, non era in grado di fare un analisi comprensiva perché andava ben oltre la sua molto limitata memoria.
Potevo chiedergli di individuare una particolare scena e ci riusciva, ma se gli chiedevo di fare un elenco, a titolo di esempio, di tutte le scene nei sette capitoli dove personaggio X ha parlato con personaggio Y ne elencava solo alcune dichiarando con la sua solita insopportabile sicurezza e confidenza che quelle erano tutte le scene in questione.

Ho letto da qualche parte che questa limitazione si chiama "Finestra di contesto" o qualcosa del genere, ovvero la quantità di informazioni che l'IA può elaborare contemporaneamente, che è diverso dal semplice avere a disposizione. Nel caso mio ad esempio pur avendo a disposizione documenti per 88 mila parole, di fatto un analisi che comprendesse il ricordare un numero di contenuti superiori a 10 mila parole era fuori questione.

Quindi quando leggo la notizia che "Aumenta la potenza di calcolo" sinceramente me ne frego altamente, la limitazione maggiore che vedo al momento è la memoria, non la potenza di calcolo(Anche se le due cose sono tecnicamente legate in questo contesto indicano cose differenti).
mi piacerebbe capire con che termini dici "" truffa "".
Hai qualcosa che fino a 2 anni fa non esisteva, e che fino a 2 anni fa avresto dovuto farlo a mano (ammesso avere le capacitá di farle, sia chiaro, non sto dicendo che non sei capace, ma ci sono lavori e lavori. Chi scrive un libro NON é chi lo corregge, mai), oppure affidarti appunto ad un terzo.
Dagli chunks piú piccoli. Il tuo approccio e' un caso limite. 87 mila caratteri sono circa 100 pagine di testo...
__________________
DevOps & Cloud Consultant 🇳🇱
IlCarletto è offline   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 16:12   #6
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2417
Quote:
Originariamente inviato da IlCarletto Guarda i messaggi
mi piacerebbe capire con che termini dici "" truffa "".
Hai qualcosa che fino a 2 anni fa non esisteva, e che fino a 2 anni fa avresto dovuto farlo a mano (ammesso avere le capacitá di farle, sia chiaro, non sto dicendo che non sei capace, ma ci sono lavori e lavori. Chi scrive un libro NON é chi lo corregge, mai), oppure affidarti appunto ad un terzo.
Dagli chunks piú piccoli. Il tuo approccio e' un caso limite. 87 mila caratteri sono circa 100 pagine di testo...
Truffa nel senso che la differenza di prezzo non credo che giustifichi la differenza di prestazioni.

Inoltre dargli chunks più piccoli come dici tu non funziona se il genere di analisi richiede di prendere l'intero contesto in memoria.

Faccio un esempio facile facile:
Mettiamo che nel capitolo 3 un personaggio si rompe il braccio sinistro, poi nel capitolo 28 viene detto in un dialogo random tra due personaggi che il personaggio di prima si è rotto il braccio destro in quel evento. Questo è il genere di errore che puoi scoprire solo se ti ricordi quale braccio si è rotto il tizio 25 capitoli prima, o in alternativa devi controllare ogni volta l'intero libro per verificare che una affermazione sia congruente.

Quindi no, non funziona dividerlo in chunks
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 17:37   #7
giovanni69
Senior Member
 
L'Avatar di giovanni69
 
Iscritto dal: Jun 2005
Messaggi: 23139
Forse dandogli in pasto i riassunti come dati 'meta' (risultati dunque da precedente elaborazione) che appunto avranno nel loro dettaglio ad es. il braccio rotto nel capitolo specifico.
Certo, si tratta sempre di cercare incongruenze tra versioni già conndensate non complete dell'informazione.
giovanni69 è online   Rispondi citando il messaggio o parte di esso
Old 06-12-2024, 23:45   #8
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 5998
Il prezzo dell'abbonamento "pro" permette di fare delle ipotesi di quanto stanno perdendo OpenAI, Microsoft ecc. nel fornire la versione "gratuita" (nel senso che i soldi a perdere ce li mettono loro) e sperando di trovare prima o poi un caso d'uso ragionevole "per uso generale" dei loto LLVM.

Stanno bruciando risorse in maniera assurda sperando che prima o poi spunti fuori qualcosa di irrinunciabile per l'utilizzatore generico, e più non hanno risultati tangibili e più devono investire risorse per tener su l'hype in proposito.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 07-12-2024, 09:29   #9
omerook
Senior Member
 
L'Avatar di omerook
 
Iscritto dal: Jul 2003
Città: Civis Romanus Sum
Messaggi: 7447
229 euro al mese mi fa pensare che c'è già chi sta fatturando bene con chat gpt ed è disposto a fare l'investimento come penso sia autodesk e adobe. Se i prezzi dovessero salire ancora sarebbe interessante vedere chi sa sta sottoscrivendo questi abbonamenti e cosa ne fa.
__________________
Asrock Q1900M , SSD 1TB, Pico Psu 90W, No Fans , No HD, zero meccanica, zero rumore!
omerook è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2024, 09:41   #10
StephenFalken
Member
 
Iscritto dal: Jun 2008
Messaggi: 111
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Che truffa!

Il problema non è (solo) la potenza di calcolo, il problema è la memoria MOLTO LIMITATA del maledetto affare.

Per ragioni personali ho acquistato un mese di Chat GPT plus ed approfittando dell'occasione gli ho dato in pasto alcuni capitoli di un libro personale che ho scritto e... cosa scopro? che non il coso non riesce nemmeno ad elaborare un singolo capitolo (87 mila caratteri) nella sua interezza, figuriamoci un intero volume o l'intero libro....ridicoli.
Capisco probabilmente non sia il tuo settore ma non stai usando lo strumento giusto. Innanzitutto se ti serve una context window enorme ti conviene usare Gemini di Google che ne ha una da 1B (circa 5 volte gpt), in secondo luogo quello che vuoi fare tu non ha senso in uno strumento generalista tipo chat gpt. Quello che vuoi fare tu è meglio farlo usando un sistema chiamato "embeddings", gpt pro da web ha un parziale supporto gli puoi dare in pasto degli attachment nella sezione per creare agenti personalizzati. Ma diciamo che in generale serve un approccio più complesso.
StephenFalken è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2024, 10:45   #11
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 5998
Quote:
Originariamente inviato da StephenFalken Guarda i messaggi
Capisco probabilmente non sia il tuo settore ma non stai usando lo strumento giusto. Innanzitutto se ti serve una context window enorme ti conviene usare Gemini di Google che ne ha una da 1B (circa 5 volte gpt), in secondo luogo quello che vuoi fare tu non ha senso in uno strumento generalista tipo chat gpt. Quello che vuoi fare tu è meglio farlo usando un sistema chiamato "embeddings", gpt pro da web ha un parziale supporto gli puoi dare in pasto degli attachment nella sezione per creare agenti personalizzati. Ma diciamo che in generale serve un approccio più complesso.
In altre parole uno strumento proposto come "generalista" non riesce a fare quello che un utilizzatore si aspetta sia "banale" per uno strumento di quel tipo e serve invece un setup che richiede maggiori competenze da parte dell'utilizzatore.

E non si tratta di un caso isolato.

Qui il problema non è (solo) tecnologico, questo è un sintomo del problema di fondo che si nasconde dentro la bolla speculativa costruita attorno ad una tecnologia utile (i LLM) ma che viene commercializzata a colpi di hype e FUD ovvero a fasi alterne di "questo ci porterà alla nuova età dell'oro" alternate a "se resti indietro su questo, finirai disoccupato ed in miseria".

La cosa più assurda è che visto che in questo momento a guadagnarci sono i produttori di hardware i fornitori di capacità di calcolo e storage sul cloud e le aziende che pompano le quotazioni delle loro azioni a colpi di hype sui LLM, non c'è manco un modello di business sostenibile a parte quello di Microsoft (slurpare ancora più dati dagli utenti dei loro servizi "AI" e rendere ancora più esteso il lock-in dei loro prodotti per le aziende), ma tale approccio si basa su una posizione già dominante.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2024, 11:00   #12
StephenFalken
Member
 
Iscritto dal: Jun 2008
Messaggi: 111
Quote:
Originariamente inviato da LMCH Guarda i messaggi
In altre parole uno strumento proposto come "generalista" non riesce a fare quello che un utilizzatore si aspetta sia "banale" per uno strumento di quel tipo e serve invece un setup che richiede maggiori competenze da parte dell'utilizzatore.

E non si tratta di un caso isolato.

Qui il problema non è (solo) tecnologico, questo è un sintomo del problema di fondo che si nasconde dentro la bolla speculativa costruita attorno ad una tecnologia utile (i LLM) ma che viene commercializzata a colpi di hype e FUD ovvero a fasi alterne di "questo ci porterà alla nuova età dell'oro" alternate a "se resti indietro su questo, finirai disoccupato ed in miseria".

La cosa più assurda è che visto che in questo momento a guadagnarci sono i produttori di hardware i fornitori di capacità di calcolo e storage sul cloud e le aziende che pompano le quotazioni delle loro azioni a colpi di hype sui LLM, non c'è manco un modello di business sostenibile a parte quello di Microsoft (slurpare ancora più dati dagli utenti dei loro servizi "AI" e rendere ancora più esteso il lock-in dei loro prodotti per le aziende), ma tale approccio si basa su una posizione già dominante.
Non credo tu stia capendo, tu puoi usare tranquillamente un LLM per fare quello che vuoi, vuoi dare in pasto la bibbia e fare domande alla bibbia con un LLM? Puoi farlo, semplicemente non puoi farlo con chat GPT che è soltanto uno strumento per usare velocemente un LLM con una determinata context window. Nessuno si aspetta come "banale" memorizzare un libro intero e farci domande a riguardo, solo tu.

Per altro non c'e' per nulla un lockin visto che la maggior parte dei tool che usano LLM hanno approcci piu o meno standardizzati e puoi passare da un LLM ad un altro facilmente.

Il tuo ragionamento e' un po' come se ti avessero dato un computer con Word sopra e tu stessi tentando di fare un disegno usando Word e dicessi "i computer non servono a niente! sono solo hype!", chat GPT e' solo un SW costruito sopra ad un LLM e non è il software che serve per il tuo use case, fine.
StephenFalken è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2024, 01:04   #13
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 5998
Quote:
Originariamente inviato da StephenFalken Guarda i messaggi
Non credo tu stia capendo, tu puoi usare tranquillamente un LLM per fare quello che vuoi, vuoi dare in pasto la bibbia e fare domande alla bibbia con un LLM? Puoi farlo, semplicemente non puoi farlo con chat GPT che è soltanto uno strumento per usare velocemente un LLM con una determinata context window. Nessuno si aspetta come "banale" memorizzare un libro intero e farci domande a riguardo, solo tu.
Qui sei tu che non hai capito, il mio punto è che chatGPT viene proposto come un AI "per tutti" ma poi in realtà bisogna avere competenze specifiche sufficienti per capire per cosa usarlo e quali altri strumenti usare al suo posto.


Quote:
Originariamente inviato da StephenFalken Guarda i messaggi
Per altro non c'e' per nulla un lockin visto che la maggior parte dei tool che usano LLM hanno approcci piu o meno standardizzati e puoi passare da un LLM ad un altro facilmente.
Quando Microsoft integra funzioni "AI" in Office e Teams è evidente che lo fa in modo tale che gli utenti utilizzino tali funzioni tramite Office e Teams, è li che si ottiene il lock-in ed è anche li che avviene lo slurpaggio di dati "interessanti".

Quote:
Originariamente inviato da StephenFalken Guarda i messaggi
Il tuo ragionamento e' un po' come se ti avessero dato un computer con Word sopra e tu stessi tentando di fare un disegno usando Word e dicessi "i computer non servono a niente! sono solo hype!", chat GPT e' solo un SW costruito sopra ad un LLM e non è il software che serve per il tuo use case, fine.
Come analogia fa acqua da tutte le parti.
Il mio punto NON è che i LLVM sono hype, ma che chi sta cercando di proporli al grande pubblico sembra più interessato a guadagnarci sopra con altri mezzi invece che a proporre prodotti effettivamente pensati "per uso generale" come vogliono far credere.
LMCH è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
Energica risorge: investitori di Singapo...
Galaxy Z Fold 8, ecco come Samsung risol...
Scendono i prezzi dei Vivobook (c'&egrav...
Cyberpunk 2077 su Mac Apple Silicon: un ...
Corning dice addio agli accordi esclusiv...
Pazzesco Asus TUF F16 a 720€: Core i7, R...
NVIDIA H20 torna in Cina: un errore stra...
CUDA e RISC-V fanno l'amore: NVIDIA abbr...
Delta Air Lines, fine delle tariffe fiss...
CPU Zen 6 e una super GPU: ecco il chip ...
Intel chiude Clear Linux: fine per la di...
2 minuti: il tempo per scorrere le 25 of...
Mini LED TCL: confronto tra le migliori ...
Robot aspirapolvere: questi sono i più a...
Portatile tuttofare Lenovo Core i5/16GB ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 08:38.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1