PDA

View Full Version : Mettereste una NPU dedicata all'intelligenza artificiale nel vostro PC? AMD sta valutando l'idea


Redazione di Hardware Upg
31-07-2025, 07:33
Link alla notizia: https://www.hwupgrade.it/news/skvideo/mettereste-una-npu-dedicata-all-intelligenza-artificiale-nel-vostro-pc-amd-sta-valutando-l-idea_141783.html

AMD sta valutando la possibilità di sviluppare una NPU dedicata per PC, destinata a occuparsi esclusivamente dei carichi AI al posto della GPU. Il progetto è ancora in fase di valutazione e oggetto di discussioni con i clienti.

Click sul link per visualizzare la notizia.

Paganetor
31-07-2025, 07:35
non è un ragionamento tanto diverso da quello che avviene già con le GPU (integrata per chi non ha particolari esigenze di prestazioni o discreta per chi vuole il massimo) o per le schede audio (idem come sopra).

Bisogna solo capire se la cosa porta effettivamente dei vantaggi pratici.

boboviz
31-07-2025, 07:40
Tutto bellissimo.
Ma poi mi chiedo: per farci cosa? Excel??

Mars95
31-07-2025, 07:54
Tutto bellissimo.
Ma poi mi chiedo: per farci cosa? Excel??

Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Ma chiunque abbia necessità di una AI propria che gira in locale troverebbe molto utile un hw del genere e una cosa del genere sarebbe utile in praticamente tutti gli ambiti lavorativi.
In realtà anche excel si ma per quella si possono usare servizi AI cloud, in locale credo sia più utili per AI addestrate per compiti specifici.

demon77
31-07-2025, 08:12
Anche io sono scettico.
Su un PC se mi serve potenza di calcolo per una IA di tanto in tanto va benissimo usare la GPU.. non vedo il senso di un chip dedicato.

Non capisco nemmeno il senso di una IA "locale".. che potenza ha? E che me ne faccio?
Mettendo tutto insieme non è di gran lunga meglio sia come qualità del risultato che come prestazioni in generale usare un servizio esterno on line che fa affidamento su modelli IA molto più complessi, avanzati ed ingombranti?

-name-
31-07-2025, 08:23
Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Ma chiunque abbia necessità di una AI propria che gira in locale troverebbe molto utile un hw del genere e una cosa del genere sarebbe utile in praticamente tutti gli ambiti lavorativi.
In realtà anche excel si ma per quella si possono usare servizi AI cloud, in locale credo sia più utili per AI addestrate per compiti specifici.


Per farci girare i modelli in locale es:

Draw Things per creare immagini con modelli specifici di ogni tipo di immagine/stile

Ollama per avere un ChatGPT in locale senza censure e costi mensili

In generale più sicurezza per l'utente/azienda e, in teoria, costi contenuti

marcram
31-07-2025, 08:34
Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Riconoscimento vocale e dettatura
Analisi foto, con etichettatura automatica, e gestione volti
Assistente personale locale

Le applicazioni poi nascono quando c'è la disponibilità della funzione...

Mettendo tutto insieme non è di gran lunga meglio sia come qualità del risultato che come prestazioni in generale usare un servizio esterno on line che fa affidamento su modelli IA molto più complessi, avanzati ed ingombranti?
Il che vuol dire consegnare i tuoi dati sensibili ad un'entità che, probabilmente, poi li vende?

gparlav
31-07-2025, 08:34
Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Ma chiunque abbia necessità di una AI propria che gira in locale troverebbe molto utile un hw del genere e una cosa del genere sarebbe utile in praticamente tutti gli ambiti lavorativi.
In realtà anche excel si ma per quella si possono usare servizi AI cloud, in locale credo sia più utili per AI addestrate per compiti specifici.

In ufficio stiamo provando a usare vari strumenti IA, con scarsi risultati. Il problema maggiore è che non riusciamo a gestire il divieto di inviare documenti interni, spesso riservati, verso l'esterno.

Avere un motore IA interno, sulle proprie macchine oppure su mini server dipartimentali disponibili per un ridotto numero di persone, potrebbe diventare la svolta. E se le cose funzionano, l'azienda è già pronta a investire pesantemente per sviluppare server interni per utilizzi interni.

Al momento, nelle mie prove fatte con servizi esterni (tutti i più famosi), i risultati sono stati scarsi. E non sono l'unico ad avere la medesima opinione in azienda.

Alodesign
31-07-2025, 08:42
Il che vuol dire consegnare i tuoi dati sensibili ad un'entità che, probabilmente, poi li vende?

Come già facciamo quotidianamente.

marcram
31-07-2025, 08:46
Come già facciamo quotidianamente.
Beh, se TU già lo fai, allora sì, a TE non cambia niente...:D

boboviz
31-07-2025, 09:06
Per farci girare i modelli in locale es:
Draw Things per creare immagini con modelli specifici di ogni tipo di immagine/stile
Ollama per avere un ChatGPT in locale senza censure e costi mensili
In generale più sicurezza per l'utente/azienda e, in teoria, costi contenuti

Riconoscimento vocale e dettatura
Analisi foto, con etichettatura automatica, e gestione volti
Assistente personale locale

Ripeto: tutto bellissimo, sul serio.
E tutto assolutamente di nicchia estrema (quali aziende fanno "gestione volti" in Italia, per dire?).

La cosa cambierebbe già se, per esempio, si parlasse di "database".
Ma quelli, di solito, stanno su server e non sui pc portatili di cui parla l'articolo.

Boh, aspettiamo e vediamo

boboviz
31-07-2025, 09:08
In ufficio stiamo provando a usare vari strumenti IA, con scarsi risultati. Il problema maggiore è che non riusciamo a gestire il divieto di inviare documenti interni, spesso riservati, verso l'esterno.

Exchange server on-premise lo permette da anni (e pure Exchange online)...
E l'IA non c'entra niente con questo.

marcram
31-07-2025, 09:19
Ripeto: tutto bellissimo, sul serio.
E tutto assolutamente di nicchia estrema (quali aziende fanno "gestione volti" in Italia, per dire?).

La cosa cambierebbe già se, per esempio, si parlasse di "database".
Ma quelli, di solito, stanno su server e non sui pc portatili di cui parla l'articolo.

Boh, aspettiamo e vediamo
Questi erano esempi di uso casalingo, ambiente per il quale, solitamente, è più difficile trovarne uno scopo...

In ambito aziendale, vuoi che non si trovi il modo di utilizzare questo tipo di software? Credo il limite sia solo la fantasia...

Jack.Mauro
31-07-2025, 09:32
Intel già lo fa, anche se non ho idea delle reali prestazioni.

La mia cpu (Intel Core Ultra 7 165H) ha già una NPU integrata chiamata "Intel AI Boost", anche se non ho ancora trovato alcun software in grado di usarla.

boboviz
31-07-2025, 10:22
Questi erano esempi di uso casalingo, ambiente per il quale, solitamente, è più difficile trovarne uno scopo...

Spero tu non faccia riconoscimento facciale a casa :D

Gringo [ITF]
31-07-2025, 10:38
..... A che serve mettere l'FPU nei processori.....
..... A che serve integrare la GPU.....
.... A che serve la NPU.....

.... 2029.... A che serve mettere unità QBIT.....

.......A che serve lanciare i missili nello spazio la mia grotta e più che sufficiente.

marcram
31-07-2025, 10:41
Spero tu non faccia riconoscimento facciale a casa :D
Certo che lo faccio...
E' una delle funzioni più utili del gestore fotografico...

boboviz
31-07-2025, 10:43
;48835874'].......A che serve lanciare i missili nello spazio la mia grotta e più che sufficiente.

Confondere l'utilità nell'immediato con l'utilità nel lungo periodo?
Fatto.

boboviz
31-07-2025, 10:44
Certo che lo faccio...
E' una delle funzioni più utili del gestore fotografico...

Good for you!!

Gringo [ITF]
31-07-2025, 11:02
Confondere l'utilità nell'immediato con l'utilità nel lungo periodo?
Fatto.

Introdurre tecnologie che nell'immediato possono sembrare inutili spesso è la mossa vincente, quando Atari ST e Amiga 500 sono uscite l'unica differenza erano dei Coprocessori difficili da usare e che ai programmatori di USGOLD/PROBE erano praticamente inutili, poi Psygnosis e Discovery software provarono ad usarli.

Idem QUI una NPU nell'immediato serve a poco, ma una volta che la hai disponibile c'è chi inizierà ad usarla, quindi si potranno avere NPC pensanti senza avere l'obbligo di connettersi online, stessa cosa i software, se Photoshop mette la sua AI solo online, più avanti un Clip Studio Paint potrebbe decidere di fargli concorrenza con modelli in locale ecc...

Personalmente essendo nato con Amiga preferisco avere qualcosa in più che si evolverà nel temo, piuttosto che non mettere nulla per non rischiare, si sà che 640K è un numero oltre l'inimmaginabile e che non sarà mai superato, lo disse uno dei più famosi imprenditori dell'informatica, ora perfino il CASIO da polso li supera.

lumeruz
31-07-2025, 11:14
Confondere l'utilità nell'immediato con l'utilità nel lungo periodo?
Fatto.

dimostrare di non averci capito nulla?
Fatto.

lumeruz
31-07-2025, 11:18
Ma che domande fate, certo che metterei una NPU nel mio PC, non vedo l'ora.
Alla gente che non capisce andate a zappare la terra, visto che d'informatica NON ci capite un ca**o!!!
Più potenza di calcolo ho in locale e meglio è!

Mars95
31-07-2025, 11:57
;48835904']Introdurre tecnologie che nell'immediato possono sembrare inutili spesso è la mossa vincente, quando Atari ST e Amiga 500 sono uscite l'unica differenza erano dei Coprocessori difficili da usare e che ai programmatori di USGOLD/PROBE erano praticamente inutili, poi Psygnosis e Discovery software provarono ad usarli.

Idem QUI una NPU nell'immediato serve a poco, ma una volta che la hai disponibile c'è chi inizierà ad usarla, quindi si potranno avere NPC pensanti senza avere l'obbligo di connettersi online, stessa cosa i software, se Photoshop mette la sua AI solo online, più avanti un Clip Studio Paint potrebbe decidere di fargli concorrenza con modelli in locale ecc...

Personalmente essendo nato con Amiga preferisco avere qualcosa in più che si evolverà nel temo, piuttosto che non mettere nulla per non rischiare, si sà che 640K è un numero oltre l'inimmaginabile e che non sarà mai superato, lo disse uno dei più famosi imprenditori dell'informatica, ora perfino il CASIO da polso li supera.


Tutte le tecnologie di questo tipo sono nell'immediato inutili, semplicemente quando lanci un hardware del genere non c'è nessun software lo sfrutta, ma ovviamente se non lo lanci non ci sarà mai nessun software in grado di sfruttarlo.

supertigrotto
31-07-2025, 12:05
Tipo:scaricami le foto da Google foto e mettimele su HD esterno facendo cartelle per anno e mese,poi quelle scaricate cancellale?
Ho dovuto fare questa operazione ed è stata noiosa e lunga.

Nui_Mg
31-07-2025, 12:45
Confondere l'utilità nell'immediato con l'utilità nel lungo periodo?
Fatto.
Certo, sarà pure di nicchia, ma non sono proprio pochissimi, incluso il sottoscritto, che oggigiorno utilizzano in locale uno o più LLM. Io tendo a mettere tutto il possibile self-hosted, quindi per il proprio hardware locale è tutto benvenuto in tal senso, ANCHE SE sarebbe MOLTO MEGLIO/UTILE puntare su Ram e sua larghezza di banda.

Lo si fa anche (con dovute restrizioni per velocità/precisione) con il raspberry 5, anche se l'os sottostante il raspi5 deve essere molto light e preferibilmente con un LLM "allenato"/ottimizzato per le proprie e specifiche esigenze.
Per lavoro e per passione tendo a mettere il naso in tanti settori, quindi una appropriata catalogazione della "conoscenza" è uno dei miei utilizzi primari self-hosted, sia con generatori di tag basati su un preciso riconoscimento del contesto, sia tramite database (ovviamente non i relazionali con i loro dati strutturati), ecc..

Ecco perché un utilizzo appropriato e conscio di una AI non è affatto una bolla, ma un aiuto sempre più sostanzioso.

demon77
31-07-2025, 15:40
Il che vuol dire consegnare i tuoi dati sensibili ad un'entità che, probabilmente, poi li vende?

Non so se li vende ma sicuramente vanno in mano a terzi per poter fornire il servizio quello si..
Il fatto è che però una IA locale non vale una cicca rispetto ad una IA esterna che conta centinaia di server dedicati..

gparlav
31-07-2025, 16:13
Exchange server on-premise lo permette da anni (e pure Exchange online)...
E l'IA non c'entra niente con questo.

Infatti se si potesse avere un modello come Exchange on-premise, così come già adesso usiamo insieme a Onedrive e Teams, anche per le applicazioni di IA, sarebbe perfetto.

Al momento non ci si riesce.

Abbiamo fatto qualche sperimentazione con Copilot on-premise, ma risultati deludenti.

marcram
31-07-2025, 16:17
Non so se li vende ma sicuramente vanno in mano a terzi per poter fornire il servizio quello si..
Il fatto è che però una IA locale non vale una cicca rispetto ad una IA esterna che conta centinaia di server dedicati..
Neanche una Panda vale una cicca rispetto una Lamborghini.
Eppure per molti basta e avanza. Anzi, usare una Lamborghini porterebbe tanti problemi... :D

demon77
01-08-2025, 08:24
Neanche una Panda vale una cicca rispetto una Lamborghini.
Eppure per molti basta e avanza. Anzi, usare una Lamborghini porterebbe tanti problemi... :D

E ok. :D
Il problema è che qui non è che siamo panda e lambo.. che comunque sia a destinazione ci arrivi.
Qui siamo più tronco di legno e panda..

Cioè.. una IA on line che conta su centinaia di server ti tira fuori un risultato a volte buono (anche molto buono) ed a volte accettabile..
una IA locale che conta solo sulle risorse del singolo pc che risultato deve tirare fuori?

Poi magari sto dicendo cazzate eh.. perchè non so moltissimo a livello di funzionamento tecnico delle IA

marcram
01-08-2025, 08:58
E ok. :D
Il problema è che qui non è che siamo panda e lambo.. che comunque sia a destinazione ci arrivi.
Qui siamo più tronco di legno e panda..

Cioè.. una IA on line che conta su centinaia di server ti tira fuori un risultato a volte buono (anche molto buono) ed a volte accettabile..
una IA locale che conta solo sulle risorse del singolo pc che risultato deve tirare fuori?

Poi magari sto dicendo cazzate eh.. perchè non so moltissimo a livello di funzionamento tecnico delle IA
Centinaia di server, sì, ma deve rispondere a milioni di richieste... Quella locale, risponde solo a te.

Il grosso della potenza di calcolo serve per l'addestramento, che comunque non fai tu sul tuo pc. L'elaborazione ha bisogno di risorse molto minori...
Vedi @Nui_Mg, qui sopra, che usa LLM in locale.
Poi, ovvio, bisogna vedere di cosa ognuno ha bisogno, ma non esistono solo LLM. Per esempio, un motore di riconoscimento vocale occupa qualche centinaio di mega, ed è utilizzabile anche solo con la CPU.
Non serve avere il top, ma qualcosa che funzioni...

demon77
01-08-2025, 09:54
Centinaia di server, sì, ma deve rispondere a milioni di richieste... Quella locale, risponde solo a te.

Il grosso della potenza di calcolo serve per l'addestramento, che comunque non fai tu sul tuo pc. L'elaborazione ha bisogno di risorse molto minori...
Vedi @Nui_Mg, qui sopra, che usa LLM in locale.
Poi, ovvio, bisogna vedere di cosa ognuno ha bisogno, ma non esistono solo LLM. Per esempio, un motore di riconoscimento vocale occupa qualche centinaio di mega, ed è utilizzabile anche solo con la CPU.
Non serve avere il top, ma qualcosa che funzioni...

Ah ok.
Quindi scarichi il modello LLM già pronto ed addestrato che occupa tot giga e lo usi in locale.. funziona così?

Comunque, tornando un po' più in topic, avere addirittura un chip dedicato al posto di usare la GPU e CPU già disponibili mi pare tanto marketing e poco vantaggio..
alla fine mentre usi la IA per fare questo e quello non è che la GPU o la CPU siano impegnate a fare chissà che.. di fatto mentre si usa il pc per lavoro, ad eccezione di pochi momenti topici il pc è in idle per il 99% del tempo.

marcram
01-08-2025, 14:08
Ah ok.
Quindi scarichi il modello LLM già pronto ed addestrato che occupa tot giga e lo usi in locale.. funziona così?
Esatto. Ha comunque bisogno di una certa potenza di calcolo per elaborare, ma non serve addestrarlo. Scarichi il motore e i dataset già pronti, che possono essere di dimensioni diverse a seconda di quanto lo vuoi pesante e preciso...
Comunque, tornando un po' più in topic, avere addirittura un chip dedicato al posto di usare la GPU e CPU già disponibili mi pare tanto marketing e poco vantaggio..
alla fine mentre usi la IA per fare questo e quello non è che la GPU o la CPU siano impegnate a fare chissà che.. di fatto mentre si usa il pc per lavoro, ad eccezione di pochi momenti topici il pc è in idle per il 99% del tempo.
Però, essendo specializzato per quel compito, riesce a farlo meglio e consumando molta meno energia.
Certo, per un uso saltuario magari è inutile, ma se l'andazzo è quello di integrare l'IA in sempre più ambiti diversi...

Darkon
01-08-2025, 14:16
Certo, sarà pure di nicchia, ma non sono proprio pochissimi, incluso il sottoscritto, che oggigiorno utilizzano in locale uno o più LLM. Io tendo a mettere tutto il possibile self-hosted, quindi per il proprio hardware locale è tutto benvenuto in tal senso, ANCHE SE sarebbe MOLTO MEGLIO/UTILE puntare su Ram e sua larghezza di banda.

Lo si fa anche (con dovute restrizioni per velocità/precisione) con il raspberry 5, anche se l'os sottostante il raspi5 deve essere molto light e preferibilmente con un LLM "allenato"/ottimizzato per le proprie e specifiche esigenze.
Per lavoro e per passione tendo a mettere il naso in tanti settori, quindi una appropriata catalogazione della "conoscenza" è uno dei miei utilizzi primari self-hosted, sia con generatori di tag basati su un preciso riconoscimento del contesto, sia tramite database (ovviamente non i relazionali con i loro dati strutturati), ecc..

Ecco perché un utilizzo appropriato e conscio di una AI non è affatto una bolla, ma un aiuto sempre più sostanzioso.

Oddio avere in locale un LLM non è proprio la cosa più semplice e immediata da fare eh... sia chiaro io sono a favore di avere anche a livello hardware sempre più cose specializzate ed efficienti ma ad oggi la vedo dura che l'utente medio riesca a installare un LLM in locale

marcram
01-08-2025, 14:49
Oddio avere in locale un LLM non è proprio la cosa più semplice e immediata da fare eh... sia chiaro io sono a favore di avere anche a livello hardware sempre più cose specializzate ed efficienti ma ad oggi la vedo dura che l'utente medio riesca a installare un LLM in locale
Capisco che scaricare un installer e farci doppio click sopra sia considerata operazione difficile al giorno d'oggi...:asd:

Darkon
01-08-2025, 16:50
Capisco che scaricare un installer e farci doppio click sopra sia considerata operazione difficile al giorno d'oggi...:asd:

Se lo installi così e via senza alcuna personalizzazione tanto valeva usare quello online e non consumare corrente in locale.

Ovviamente io parlavo di una installazione custom e fatta ad hoc per le esigenze del singolo anche perché ripeto a che ti serve se usi una installazione standard come usandolo da browser o cellulare?

Che ti funziona offline e stop? Non vale il consumo di risorse.

marcram
01-08-2025, 17:06
Se lo installi così e via senza alcuna personalizzazione tanto valeva usare quello online e non consumare corrente in locale.

Ovviamente io parlavo di una installazione custom e fatta ad hoc per le esigenze del singolo anche perché ripeto a che ti serve se usi una installazione standard come usandolo da browser o cellulare?

Che ti funziona offline e stop? Non vale il consumo di risorse.
Per te non vale. Per altri sì.

Il consumo di risorse ce l'hai ugualmente, solo che da una parte devi anche pagare i guadagni che l'azienda deve fare per offrire il servizio.

Darkon
01-08-2025, 17:12
Per te non vale. Per altri sì.

Il consumo di risorse ce l'hai ugualmente, solo che da una parte devi anche pagare i guadagni che l'azienda deve fare per offrire il servizio.

Scusa ma non l'ho capita.

Tra avere chatGPT nel browser (gratis) o averla in locale installata senza nessuna personalizzazione in locale che ti cambia?

Io posso capire una installazione in locale se la rendi personalizzata ma se non cambi niente da una parte ce l'hai gratis e senza consumare corrente, dall'altra ce l'hai gratis ma consumi corrente tua e risorse tue del pc... non capisco dove sia la convenienza.

ZeroSievert
01-08-2025, 18:10
Non sono al corrente dello stato dell'arte dei videogiochi ma, idea stupida, una NPU non potrebbe essere utile per generate, per esempio, dialoghi sul momento?

Una cosa che per me ha sempre rovinato l'immersività sono I dialoghi ripetitivi dei PNG.

E la cosa si fa ridicola nei GDR quando hai, ad esempio, decine di guardie che dicono tutte le stesse cose.

Darkon
01-08-2025, 18:13
Non sono al corrente dello stato dell'arte dei videogiochi ma, idea stupida, una NPU non potrebbe essere utile per generate, per esempio, dialoghi sul momento?

Una cosa che per me ha sempre rovinato l'immersività sono I dialoghi ripetitivi dei PNG.

Non credo che al momento siamo ancora a livelli del genere. Sicuramente una NPU diffusa potrebbe stimolare anche questa cosa ma prima di avere giochi con dialoghi coerenti generati al momento penso che ancora ci sia un po' da lavorare.

Però ti dirò sinceramente io spero di arrivare a giochi anche più interattivi di solo dialoghi generati dall'IA prima di tirare il calzino quindi ben vengano le NPU.

demon77
01-08-2025, 21:43
Non sono al corrente dello stato dell'arte dei videogiochi ma, idea stupida, una NPU non potrebbe essere utile per generate, per esempio, dialoghi sul momento?

Una cosa che per me ha sempre rovinato l'immersività sono I dialoghi ripetitivi dei PNG.

E la cosa si fa ridicola nei GDR quando hai, ad esempio, decine di guardie che dicono tutte le stesse cose.

In effetti un motore IA che gira in un gioco potrebbe aggiungere un buon tocco di realismo e varietà nelle interazioni ed i comportamenti dei PNG..

marcram
02-08-2025, 09:01
Scusa ma non l'ho capita.

Tra avere chatGPT nel browser (gratis) o averla in locale installata senza nessuna personalizzazione in locale che ti cambia?

Io posso capire una installazione in locale se la rendi personalizzata ma se non cambi niente da una parte ce l'hai gratis e senza consumare corrente, dall'altra ce l'hai gratis ma consumi corrente tua e risorse tue del pc... non capisco dove sia la convenienza.
Privacy.
Pensi che chi ti dà chatGPT "gratis" online consumi corrente e hardware per beneficenza?
Se ti chiedessero una mela per ogni richiesta su chatGPT, diresti ancora che è gratis?

Quello che in molti fanno ancora fatica a capire, è che i "dati personali" sono un valore, una moneta di scambio, tanto quanto i dollari e gli euro.
Perfino i burocrati italiani l'hanno capito...

Darkon
02-08-2025, 09:06
Privacy.
Pensi che chi ti dà chatGPT "gratis" online consumi corrente e hardware per beneficenza?
Se ti chiedessero una mela per ogni richiesta su chatGPT, diresti ancora che è gratis?

Quello che in molti fanno ancora fatica a capire, è che i "dati personali" sono un valore, una moneta di scambio, tanto quanto i dollari e gli euro.
Perfino i burocrati italiani l'hanno capito...

Capisco quello che vuoi dire ma la trovo una totale illusione. Metti un LLM in locale e poi comunque usi google? Oppure intendi dire che metti LLM in locale ma attui anche tutte le altre strategie per essere anonimo tipo brave ecc...?

Se parliamo del primo caso cioè LLM in locale ma poi usi google è francamente tempo perso. Nel secondo ha senso ma che fatica... e basta una volta un errore e ti sei comunque giocato l'anonimato.

Comunque adesso è molto più chiaro, grazie della delucidazione.

!fazz
02-08-2025, 09:17
Scusa ma non l'ho capita.

Tra avere chatGPT nel browser (gratis) o averla in locale installata senza nessuna personalizzazione in locale che ti cambia?

Io posso capire una installazione in locale se la rendi personalizzata ma se non cambi niente da una parte ce l'hai gratis e senza consumare corrente, dall'altra ce l'hai gratis ma consumi corrente tua e risorse tue del pc... non capisco dove sia la convenienza.

se parli di chatgpt magari non ha senso ma su altri modelli di senso ne ha eccome, noi abbiamo ad esempio in locale varie ai alcune nostre di sviluppo e addestrate (retraining) in locale altre invece per ragioni di costi, ad esempio usiamo tantissimo in locale whisper che ad usarla online ha un costo per ogni run, abbiamo una vm sul proxmox che usa la potenza di calcolo residua per fare in batch tutte le trascrizioni che ci servono senza far uscire gli audio che sono comunque confidenziali

marcram
02-08-2025, 10:02
Capisco quello che vuoi dire ma la trovo una totale illusione. Metti un LLM in locale e poi comunque usi google? Oppure intendi dire che metti LLM in locale ma attui anche tutte le altre strategie per essere anonimo tipo brave ecc...?

Se parliamo del primo caso cioè LLM in locale ma poi usi google è francamente tempo perso. Nel secondo ha senso ma che fatica... e basta una volta un errore e ti sei comunque giocato l'anonimato.

Comunque adesso è molto più chiaro, grazie della delucidazione.
Scusa, se su Google cerco "ristorante a Milano", "come scrostare la vernice dal pavimento", "come installare cuffie bluetooth su Windows", e poi ad una IA in locale faccio trascrivere una nota vocale in cui elenco gli indirizzi dei miei parenti, cosa vuol dire "giocarsi l'anonimato"?
Ho condiviso con Google alcune informazioni che sono disposto a condividere, ho tenuto riservate alcune informazioni (come gli indirizzi dei miei parenti) che non ho intenzione di condividere.
Capisci che la condivisione delle informazioni può essere soggetta a cernita?
Se dico ad un amico che possiedo un'idropulitrice, non vuol dire che deve automaticamente conoscere anche i dettagli del mio conto in banca...

Darkon
02-08-2025, 10:16
Scusa, se su Google cerco "ristorante a Milano", "come scrostare la vernice dal pavimento", "come installare cuffie bluetooth su Windows", e poi ad una IA in locale faccio trascrivere una nota vocale in cui elenco gli indirizzi dei miei parenti, cosa vuol dire "giocarsi l'anonimato"?
Ho condiviso con Google alcune informazioni che sono disposto a condividere, ho tenuto riservate alcune informazioni (come gli indirizzi dei miei parenti) che non ho intenzione di condividere.
Capisci che la condivisione delle informazioni può essere soggetta a cernita?
Se dico ad un amico che possiedo un'idropulitrice, non vuol dire che deve automaticamente conoscere anche i dettagli del mio conto in banca...

A parte che sì, salvo usare un browser specifico che ti anonimizza nel momento che fai una qualsiasi ricerca google sa il tuo IP e da quel momento ogni volta che entri in un sito in cui sono presenti google ADS, google saprà che hai navigato lì e quindi in una certa misura sarà cosa stai facendo.

C'è di peggio ovviamente ma il tracciamento è molto più complesso che non banalmente quello che fai direttamente sul sito di google o su app di google.

Poi sia chiaro condivido in parte il tuo ragionamento specie se dai in pasto alla AI sbobinamenti o comunque dai particolarmente sensibili seppur ti dico che tali dati vengano usati o diffusi in qualsiasi modo per come funziona un LLM è fortemente improbabile per non dire praticamente impossibile.

Per farti capire copilot (versione online) è stato dichiarato a norma per l'analisi di dati bancari di massa.

Darkon
02-08-2025, 10:19
se parli di chatgpt magari non ha senso ma su altri modelli di senso ne ha eccome, noi abbiamo ad esempio in locale varie ai alcune nostre di sviluppo e addestrate (retraining) in locale altre invece per ragioni di costi, ad esempio usiamo tantissimo in locale whisper che ad usarla online ha un costo per ogni run, abbiamo una vm sul proxmox che usa la potenza di calcolo residua per fare in batch tutte le trascrizioni che ci servono senza far uscire gli audio che sono comunque confidenziali

Appunto io dicevo proprio questo che in presenza di personalizzazioni, retraining ecc... ha senso averlo in locale perché di fatto ti fai un LLM personalizzato su esigenze tue. Un qualcosa di unico.

Quando rispondevo che non capivo bene il senso è quando parlavano di installare la versione base, pre-creata, liscia e senza personalizzazione alcuna. A quel punto gli rispondevo che tanto valeva usare la versione identica gratis online come appunto è chatGPT.

Poi ovvio che se parliamo di AI a pagamento il discorso cambia ancora ma non mi pareva questo il caso.

!fazz
02-08-2025, 10:24
Appunto io dicevo proprio questo che in presenza di personalizzazioni, retraining ecc... ha senso averlo in locale perché di fatto ti fai un LLM personalizzato su esigenze tue. Un qualcosa di unico.

Quando rispondevo che non capivo bene il senso è quando parlavano di installare la versione base, pre-creata, liscia e senza personalizzazione alcuna. A quel punto gli rispondevo che tanto valeva usare la versione identica gratis online come appunto è chatGPT.

Poi ovvio che se parliamo di AI a pagamento il discorso cambia ancora ma non mi pareva questo il caso.

beh c'è sempre la piccola questione della privacy dei dati soprattutto se usi versioni free

Darkon
02-08-2025, 16:55
Per pura curiosità ho provato a installare in locale vari LLM.

Sinceramente le versioni online le ho trovate superiori in maniera devastante:

Per quanto riguarda IA specializzate ad esempio coding o generazione di immagini eseguite in locale danno risultati totalmente inadeguati. Lo stesso prompt (identico) dato a copilot online gratis e a un LLM in locale con copilot ha prodotto un risultato non eccezionale ma corretto e che con pochi ritocchi a mano era presentabile, in locale invece son stati prodotti anche allocando tante risorse e tempo risultati indecenti e inutilizzabili.

Molto meglio sulle interazioni meramente testuali ad esempio facendo domande a carattere generico dove diversi degli LLM che ho provato tutto sommato hanno sempre dato risposte grossomodo corrette o perfettamente corrette.

Sia chiaro non ho la pretesa di aver fatto una recensione o di parlare a 360° ma secondo me ancora per essere eseguiti in locale la strada è lunga e soprattutto se uno si aspetta qualcosa di più di un chatbot la strada è lunghissima soprattutto nella generazione e modifica immagini in locale fa veramente schifo.

giacomo_uncino
02-08-2025, 21:31
;48835904']
Personalmente essendo nato con Amiga preferisco avere qualcosa in più che si evolverà nel temo, piuttosto che non mettere nulla per non rischiare, si sà che 640K è un numero oltre l'inimmaginabile e che non sarà mai superato, lo disse uno dei più famosi imprenditori dell'informatica, ora perfino il CASIO da polso li supera.

non lo ha mai detto, e una leggenda al pari di quanto disse Maria Antonietta «Se non hanno più pane, che mangino brioche»

marcram
04-08-2025, 09:07
Per pura curiosità ho provato a installare in locale vari LLM.

Sinceramente le versioni online le ho trovate superiori in maniera devastante:

Per quanto riguarda IA specializzate ad esempio coding o generazione di immagini eseguite in locale danno risultati totalmente inadeguati. Lo stesso prompt (identico) dato a copilot online gratis e a un LLM in locale con copilot ha prodotto un risultato non eccezionale ma corretto e che con pochi ritocchi a mano era presentabile, in locale invece son stati prodotti anche allocando tante risorse e tempo risultati indecenti e inutilizzabili.

Molto meglio sulle interazioni meramente testuali ad esempio facendo domande a carattere generico dove diversi degli LLM che ho provato tutto sommato hanno sempre dato risposte grossomodo corrette o perfettamente corrette.

Sia chiaro non ho la pretesa di aver fatto una recensione o di parlare a 360° ma secondo me ancora per essere eseguiti in locale la strada è lunga e soprattutto se uno si aspetta qualcosa di più di un chatbot la strada è lunghissima soprattutto nella generazione e modifica immagini in locale fa veramente schifo.
E' ovvio che come qualità delle risposte non sono sullo stesso livello. Ma nemmeno come privacy (nel senso opposto).
Per ogni uso devi valutare le tue necessità: ho bisogno di una risposta di qualità, e non mi interessa se i dati inseriti possono diventare di dominio pubblico? Oppure mi accontento di una risposta peggiore, l'importante è che le informazioni non lascino la mia macchina?
Giusto oggi l'articolo https://www.hwupgrade.it/news/web/caos-chatgpt-le-chat-private-degli-utenti-sono-finite-su-google_141875.html

!fazz
04-08-2025, 09:13
E' ovvio che come qualità delle risposte non sono sullo stesso livello. Ma nemmeno come privacy (nel senso opposto).
Per ogni uso devi valutare le tue necessità: ho bisogno di una risposta di qualità, e non mi interessa se i dati inseriti possono diventare di dominio pubblico? Oppure mi accontento di una risposta peggiore, l'importante è che le informazioni non lascino la mia macchina?
Giusto oggi l'articolo https://www.hwupgrade.it/news/web/caos-chatgpt-le-chat-private-degli-utenti-sono-finite-su-google_141875.html

c'è anche l'opzione di mezzo ovvero usi un IA online a pagamento che ti garantisce che i tuoi dati no vengano utilizzati per il retraining della rete generalista ma solo per la versione a te dedicata, classico esempio copilot 365 a 25€ al mese per utente

demon77
04-08-2025, 09:16
se parli di chatgpt magari non ha senso ma su altri modelli di senso ne ha eccome, noi abbiamo ad esempio in locale varie ai alcune nostre di sviluppo e addestrate (retraining) in locale altre invece per ragioni di costi, ad esempio usiamo tantissimo in locale whisper che ad usarla online ha un costo per ogni run, abbiamo una vm sul proxmox che usa la potenza di calcolo residua per fare in batch tutte le trascrizioni che ci servono senza far uscire gli audio che sono comunque confidenziali

Cioè.. ma te dove lavori?? Al centro di ricerca del Pentagono??? :mbe:

marcram
04-08-2025, 09:26
c'è anche l'opzione di mezzo ovvero usi un IA online a pagamento che ti garantisce che i tuoi dati no vengano utilizzati per il retraining della rete generalista ma solo per la versione a te dedicata, classico esempio copilot 365 a 25€ al mese per utente
Certo, c'è anche il grigio tra il bianco e il nero.
Sul fatto che la versione a pagamento ti "garantisca" la privacy... non saprei, quando si tratta di grosse aziende, soprattutto sul suolo statunitense, il profitto (e la "sicurezza nazionale") stanno al di sopra di tutto. Un dato rimane privato solo quando rimane nelle tue mani...
Poi, naturalmente, ci sono livelli diversi di "riservatezza" del dato, non tutti hanno bisogno dello stesso livello di sicurezza...

!fazz
04-08-2025, 09:46
Cioè.. ma te dove lavori?? Al centro di ricerca del Pentagono??? :mbe:

togli la forma geometrica a cinque punte, diciamo che lavoriamo su tecnologie che arriveranno in commercio nei prossimi 3-5 anni di media a volte 10-15 anni, calcola ad esempio i primi prototipi di sistemi di controllo wireless sfruttando il 5g urllc (chiudendo l'anello di controllo sul millisecondo) li ho fatti nel 2018-2019 a memoria roba che ancora non si è vista in commercio


riguardo la privacy lavorando con svariate aziende grosse abbiamo magari in mano i prototipi di servizi / mezzi / prodotti ancora in sviluppo dove lo spionaggio industriale è prassi comune, calcola che adesso la situazione si è un pò calmata ma ci sono stati degli anni dove lavoravamo in locali chiusi, senza finestre e con bonifiche settimanali una situazione a dir poco bucolica con centinaia di migliaia euro di penali personali in caso di fuga di informazioni


Certo, c'è anche il grigio tra il bianco e il nero.
Sul fatto che la versione a pagamento ti "garantisca" la privacy... non saprei, quando si tratta di grosse aziende, soprattutto sul suolo statunitense, il profitto (e la "sicurezza nazionale") stanno al di sopra di tutto. Un dato rimane privato solo quando rimane nelle tue mani...
Poi, naturalmente, ci sono livelli diversi di "riservatezza" del dato, non tutti hanno bisogno dello stesso livello di sicurezza...

sicurezza nazionale sni, profitto diciamo, gran parte dei guadagni dei vari cloud provider deriva dalla fiducia dei clienti che accettano di pagare per tenere dati e servizi sui loro server e se questa fiducia decade fa presto anche realtà come Amazon, Microsoft & CO a saltare per aria,i costi di infrastruttura sono enormi e se non c'è la fiducia i clienti migrano facilmente calcolando che sono tutte infrastrutture virtuali che ci vuole "relativamente poco" a migrare.

quindi se si leggono i contratti, o si parla con i vari commerciali di riferimento, la gestione della privacy e delle proprietà intelluali è bella chiara daldronde perchè rischiare il fallimento / danni di immagine colossali per monetizzare sui dei dati critici dove puoi avere monetizzazione diretta e quindi non avere problemi di copertura dei costi (calcola che ad esempio Microsoft vende il pacchetto saas di office a 11 euro al mese circa mentre l'opzione copilot costa 25 oltre il doppio del pacchetto base e fanno milioni di abbonamenti)? i dati per addestrare non gli mancano di certo visto tutto l'uso che se ne fa delle versioni free

Ripper89
04-08-2025, 10:00
Se hai una VGA discreta, magari di fascia alta, a che cosa serve ?
Basta con i cores eterogenei, che si facciano prodotti dedicati.