Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old Ieri, 15:01   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: https://www.hwupgrade.it/news/web/ut...ti_141817.html

Anthropic ha implementato nuove restrizioni dopo che alcuni abbonati al piano Max hanno consumato decine di migliaia di dollari di risorse computazionali con un abbonamento da 200 dollari mensili. Gli utenti, però, non sono del tutto d'accordo con i cambiamenti.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old Ieri, 17:28   #2
supertigrotto
Senior Member
 
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5150
Ecco perché abbiamo bisogno di PC con la IA in locale.
La IA è costosa e se non rientreranno nei costi + i ricavi la bolla sarà in stile dotcom
supertigrotto è offline   Rispondi citando il messaggio o parte di esso
Old Ieri, 22:48   #3
giovanni69
Senior Member
 
L'Avatar di giovanni69
 
Iscritto dal: Jun 2005
Messaggi: 23177
Ma quanto è fattibile una IA in locale da non addetti ai lavori? Non credo sia solo una questione di hardware e di scaricare un modello open source....
giovanni69 è offline   Rispondi citando il messaggio o parte di esso
Old Ieri, 23:03   #4
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5368
Quote:
Originariamente inviato da giovanni69 Guarda i messaggi
Ma quanto è fattibile una IA in locale da non addetti ai lavori? Non credo sia solo una questione di hardware e di scaricare un modello open source....
Oltre allo spazio di archiviazione necessario, chi dovrebbe poi addestrare l'ia?
Servirebbe un ia distribuita tra tutti gli utenti che la usano ( con un protocollo stile torrent) ed ogni client in pool concentrarsi su voci specifiche e limitate.
Ma chi controllerà la bontà dei dati usati per l'addestramento?
Perché è impensabile scandagliare il web, ma lo è altrettanto lasciare una comunità di IA priva di filtri e censura
Piedone1113 è online   Rispondi citando il messaggio o parte di esso
Old Ieri, 23:06   #5
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6017
Quote:
Originariamente inviato da giovanni69 Guarda i messaggi
Ma quanto è fattibile una IA in locale da non addetti ai lavori? Non credo sia solo una questione di hardware e di scaricare un modello open source....
Qualche anno fa i requisiti minimi erano GPU con 16GB di VRAM per far girare modelli LLM decisamente inferiori a quelli sul Cloud.

Adesso "accontentandosi" di usare le NPU integrate negli "AI PC" e montando parecchia RAM (64..128GB) si riesce a far girare anche roba più grossa, ma comunque non al livello delle AI offerte via Cloud.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old Oggi, 08:09   #6
Okkau
Member
 
Iscritto dal: Mar 2018
Messaggi: 296
Quote:
Originariamente inviato da supertigrotto Guarda i messaggi
Ecco perché abbiamo bisogno di PC con la IA in locale.
La IA è costosa e se non rientreranno nei costi + i ricavi la bolla sarà in stile dotcom
Una IA locale per funzionare bene, dovrebbe essere pesantemente distillata (=castrata) e non potrà mai raggiungere i livelli con elaborazione in cloud.
La piattaforma che fa girare ChatGpt è composta da 30000 GPU A100 di NVidia e ognuna di esse costa indicativamente a OpenAI 10000$.

Tanto per capirci, per far girare al meglio il modello opensource Llama3 (405 miliardi di parametri) servirebbe una configurazione da più di 300.000€
Okkau è offline   Rispondi citando il messaggio o parte di esso
Old Oggi, 10:44   #7
davide445
Member
 
Iscritto dal: Mar 2013
Messaggi: 227
Ho testato modelli open come Llama Maverick che con 128 esperti e 17bil parametri attivi devo dire funziona molto bene, ma richiede 300GB RAM per funzionare in int4 che sicuramente degrada le performance.
I modelli 70b per me non sono assolutamente paragonabili alle esperienze che si ha con un modello closed.
Agli utenti di Anthropic io direi invece di fare l'abbonamento di acquistare l'accesso API, hai ora anche una UI con la possibilità di usare prompt come in una chat normale. Paghi solo quello che usi, se non usi non paghi nulla.
davide445 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Il rover NASA Perseverance ha ''raccolto...
NASA e ISRO hanno lanciato il satellite ...
Switch 2 ha venduto 5,82 milioni di cons...
Assassin's Creed Black Flag Remake: le m...
Cosa ci fa una Xiaomi SU7 Ultra alle por...
Promo AliExpress Choice Day: prezzi stra...
Nostalgico, ma moderno: il nuovo THEC64 ...
AVM avvia la distribuzione di FRITZ! OS ...
Super offerte Bose: le QuietComfort a me...
Epic vince (ancora) contro Google: Andro...
Sconti nuovi di zecca su Amazon: 27 arti...
Un'esplorazione del 'lato oscuro' di Fac...
Apple ha venduto 3 miliardi di iPhone da...
Grandi sconti oggi sugli spazzolini elet...
Reddit sfida Google: vuole diventare il ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 21:58.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1