|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/ut...ti_141817.html
Anthropic ha implementato nuove restrizioni dopo che alcuni abbonati al piano Max hanno consumato decine di migliaia di dollari di risorse computazionali con un abbonamento da 200 dollari mensili. Gli utenti, però, non sono del tutto d'accordo con i cambiamenti. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5150
|
Ecco perché abbiamo bisogno di PC con la IA in locale.
La IA è costosa e se non rientreranno nei costi + i ricavi la bolla sarà in stile dotcom |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jun 2005
Messaggi: 23177
|
Ma quanto è fattibile una IA in locale da non addetti ai lavori? Non credo sia solo una questione di hardware e di scaricare un modello open source....
__________________
Stampanti multifunzione [Thread ufficiale - consigli per gli acquisti] |
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Jul 2015
Messaggi: 5368
|
Quote:
Servirebbe un ia distribuita tra tutti gli utenti che la usano ( con un protocollo stile torrent) ed ogni client in pool concentrarsi su voci specifiche e limitate. Ma chi controllerà la bontà dei dati usati per l'addestramento? Perché è impensabile scandagliare il web, ma lo è altrettanto lasciare una comunità di IA priva di filtri e censura |
|
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6017
|
Quote:
Adesso "accontentandosi" di usare le NPU integrate negli "AI PC" e montando parecchia RAM (64..128GB) si riesce a far girare anche roba più grossa, ma comunque non al livello delle AI offerte via Cloud. |
|
![]() |
![]() |
![]() |
#6 | |
Member
Iscritto dal: Mar 2018
Messaggi: 296
|
Quote:
La piattaforma che fa girare ChatGpt è composta da 30000 GPU A100 di NVidia e ognuna di esse costa indicativamente a OpenAI 10000$. Tanto per capirci, per far girare al meglio il modello opensource Llama3 (405 miliardi di parametri) servirebbe una configurazione da più di 300.000€ |
|
![]() |
![]() |
![]() |
#7 |
Member
Iscritto dal: Mar 2013
Messaggi: 227
|
Ho testato modelli open come Llama Maverick che con 128 esperti e 17bil parametri attivi devo dire funziona molto bene, ma richiede 300GB RAM per funzionare in int4 che sicuramente degrada le performance.
I modelli 70b per me non sono assolutamente paragonabili alle esperienze che si ha con un modello closed. Agli utenti di Anthropic io direi invece di fare l'abbonamento di acquistare l'accesso API, hai ora anche una UI con la possibilità di usare prompt come in una chat normale. Paghi solo quello che usi, se non usi non paghi nulla. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 21:58.