PDA

View Full Version : DeepSeek: limiti alle nuove iscrizioni per l'IA dirompente, ma adesso è (quasi) tutto risolto


Redazione di Hardware Upg
28-01-2025, 09:41
Link alla notizia: https://www.hwupgrade.it/news/web/deepseek-limiti-alle-nuove-iscrizioni-per-l-ia-dirompente-ma-adesso-e-quasi-tutto-risolto_135022.html

L'app di intelligenza artificiale DeepSeek, dopo aver raggiunto le prime posizioni degli app store negli USA, ha dovuto limitare temporaneamente le nuove registrazioni a causa di presunti attacchi su larga scala.

Click sul link per visualizzare la notizia.

dominator84
28-01-2025, 09:54
da mor iu bai

Saturn
28-01-2025, 10:09
Iscritto questa mattina senza problemi su suggerimento del collega...la sto testando...nessun problema a registrarmi, account "farlocco" di google, per il ca$$eggio però !

Gringo [ITF]
28-01-2025, 13:45
Come volevasi dimostrare..... POP!

Max Power
28-01-2025, 13:55
Sarebbe ora di finirla con sta speculazione sull'IA

WarSide
28-01-2025, 14:16
A chi serve un account quando puoi farla girare in locale :asd:

s12a
28-01-2025, 14:31
A chi serve un account quando puoi farla girare in locale :asd:

Hai almeno 200~700GB di VRAM o RAM multicanale (a seconda della qualità del modello scaricato)? Quelli utilizzabili localmente con una o due GPU non hanno lontanamente le stesse capacità del modello "full".

randorama
28-01-2025, 14:45
account "farlocco" di google, per il ca$$eggio però !

meglio che non dica il nome dell'account e le risposte relative al sesso...

Gringo [ITF]
28-01-2025, 14:46
Hai almeno 200~700GB di VRAM o RAM multicanale (a seconda della qualità del modello scaricato)? Quelli utilizzabili localmente con una o due GPU non hanno lontanamente le stesse capacità del modello "full".

Be sul mio Vecchio i7-3960X con RTX 3090 FE (24GB + 32GB Ram QuadChannel )
Stable Diffusion per esempio lavora, non come vorreio io ma le sue immagini le crea, tutto in locale. (si ogni tanto pecca di "OUT OF MEMORY").

WarSide
28-01-2025, 15:25
Hai almeno 200~700GB di VRAM o RAM multicanale (a seconda della qualità del modello scaricato)? Quelli utilizzabili localmente con una o due GPU non hanno lontanamente le stesse capacità del modello "full".

Sto usando il 70B con un mac studio.

Ho già fatto un ordine per 3 GB10 dal mio spacciatore di HW, vediamo se riesce almeno a reperirmene 2 (release date a maggio, è un preordine)

Saturn
28-01-2025, 15:31
meglio che non dica il nome dell'account e le risposte relative al sesso...

Beh passi il nome dell'account che ti terrai per privacy...ma per il resto non fare il prezioso...facci fare due risate, siamo sempre chiusi nei nostri gusci...caccia the monster's picture ! :asd:

UtenteHD
28-01-2025, 16:29
Hai almeno 200~700GB di VRAM o RAM multicanale (a seconda della qualità del modello scaricato)? Quelli utilizzabili localmente con una o due GPU non hanno lontanamente le stesse capacità del modello "full".

Esagerato, basta vedere le info di certe Opensource di Github che richiedono molto meno mediamente 32-64GB (anche 16 se usi il resto dei GB come swapping) e per GPU basta una con tensor cores (qualunque) e gira e da voci di popolo girano mooolto lente anche su una 1030 ma girano..
Per maggiori info sui requisiti ci sono anche siti in informatica che spiegano come implementarle in locale in un PC medio/potente.
Si ok quella di Nvidia e solo quella chiede uno sproposito, sara' per vendere GPU HAHA

s12a
28-01-2025, 16:54
DeepSeek R1 671B richiede centinaia di GB di memoria.

https://huggingface.co/bartowski/DeepSeek-R1-GGUF

https://i.imgur.com/pYaHQue.png


Si può scendere a 130GB ma è il minimo possibile senza degradare troppo la qualità (che comunque sarà compromessa).

https://unsloth.ai/blog/deepseekr1-dynamic

https://i.imgur.com/uzKbIfl.png

Modelli che entrano in 32-64GB non sono il DeepSeek R1 671B, o saranno in streaming da storage NVMe a velocità infime e non usabili in pratica.

WarSide
28-01-2025, 17:02
Modelli che entrano in 32-64GB non sono il DeepSeek R1 originale, o saranno in streaming da storage NVMe a velocità infime e non usabili in pratica.


Io sto usando uno dei distilled models: DeepSeek-R1-Distill-Llama-70B

Poi quando completo la farm di GB10 se ne riparla a provare il modello da 761B original :asd:

s12a
28-01-2025, 17:13
Io sto usando uno dei distilled models: DeepSeek-R1-Distill-Llama-70B

Poi quando completo la farm di GB10 se ne riparla a provare il modello da 761B original :asd:

Con solo una RTX3090 purtroppo devo accontentarmi di deepseek-r1-distill-qwen-32b al massimo, e personalmente non l'ho trovato granché in termini di qualità dello scritto.

Quello basato su Llama-3.3-70B non l'ho neanche provato perché in 24GB entrerebbe solo in 2 bit o giù di lì e la qualità sarebbe troppo compromessa, ed anche usando la RAM di sistema come supporto (DDR4-3600 nel mio caso) per versioni meno compresse, sarebbe comunque troppo lento considerando che con le chain-of-thought (catene di pensiero?) le risposte possono essere molto lunghe.

gabrieleromano
28-01-2025, 19:06
AI = 50% utility + 50% pop

con l'intelligenza artificiale sono nati influencer come funghi che ti spiegano come fare una cosa...

una cosa allucinante

randorama
28-01-2025, 20:01
Beh passi il nome dell'account che ti terrai per privacy...ma per il resto non fare il prezioso...facci fare due risate, siamo sempre chiusi nei nostri gusci...caccia the monster's picture ! :asd:

oddio, non me lo ricordo più... ne sparo tante, di cazzate :D

giovanni69
29-01-2025, 08:39
Intanto i legali di Open AI sono già scesi in campo affermando che Deep Seek ha usato i suoi modelli proprietari di addestramento.

“The issue is when you [take it out of the platform and] are doing it to create your own model for your own purposes” --sources OpenAI, FT.com.

Ed il Garante è già al... lavoro:
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10096856

randorama
29-01-2025, 09:25
deepseek?
bof... roba vecchia.

https://www.lastampa.it/economia/2025/01/29/news/intelligenza_artificiale_alibaba_deepseek-14969553/