View Single Post
Old 24-03-2025, 20:39   #4
davide445
Member
 
Iscritto dal: Mar 2013
Messaggi: 227
Puoi fare girare in locale un modello LLM usando i vari framework come LM Studio anche con una scheda video 8GB come una 1070, a condizione o trovi modello che sta tutto nella VRAM (es modelli 3 Bilion parametri, oppure 8 Bilion quantizzati q4) oppure usi formati come GGUF che lo splittano tra VRAM e RAM, ma con tempi di risposta molto maggiori.
Non avendola provata da quello che capisco la piattaforma Ryzen AI offre alla GPU e forse NPU accesso condiviso alla RAM, con un miglioramento delle performance rispetto all'uso di memorie separate
davide445 è offline   Rispondi citando il messaggio o parte di esso
 
1