La Radeon RX 7900 XTX batte la GeForce RTX 4090? Sì, nei test con l'IA DeepSeek (secondo AMD)

Le GPU NVIDIA, in genere, offrono prestazioni migliori nel campo dell'intelligenza artificiale rispetto alle controparti di AMD. Alcuni test con i distillati di DeepSeek-R1, realizzati da AMD, dipingono però una situazione diversa.
di Manolo De Agostini pubblicata il 30 Gennaio 2025, alle 07:26 nel canale Schede VideoIntelligenza ArtificialeRadeonAMDRyzenRDNADeepSeek
Il modello di ragionamento open source DeepSeek-R1 è al centro dell'attenzione negli ultimi giorni, avendo dimostrato di poter competere con i principali riferimenti del mercato IA. Al di là dei dubbi su come l'azienda cinese sia riuscita a svilupparlo investendo una frazione del capitale delle Big Tech statunitensi, l'interesse resta focalizzato sulla tecnologia.
DeepSeek-R1 è stato distillato in versioni più compatte e altamente performanti, in grado di funzionare su hardware locale. A questo proposito, AMD ha pubblicato una guida per l'esecuzione su schede grafiche Radeon RX e processori Ryzen AI, fornendo anche alcuni dati prestazionali che, in un certo senso, ribaltano le gerarchie consolidate.
Clicca per ingrandire
Nei test diffusi da AMD, la Radeon 7900 XTX è stata messa a confronto con le GeForce RTX 4080 SUPER e 4090 di NVIDIA. Secondo l'azienda, la RX 7900 XTX supera la GeForce RTX 4080 SUPER, offrendo prestazioni fino al 34% superiori con DeepSeek-R1-Distill-Qwen-7B, fino al 27% con DeepSeek-R1-Distill-Llama-8B e fino al 22% con DeepSeek-R1-Distill-Qwen-14B.
Ma non è tutto: la RX 7900 XTX prevale sulla RTX 4090 in tre test su quattro, registrando un vantaggio fino al 13% con DeepSeek-R1-Distill-Qwen-7B, fino all'11% con DeepSeek-R1-Distill-Llama-8B e fino al 2% con DeepSeek-R1-Distill-Qwen-14B. L'unico scenario in cui la scheda AMD si trova leggermente indietro è con il modello più grande, DeepSeek-R1-Distill-Qwen-32B, dove la RTX 4090 mantiene un margine del 4%.
Numeri che in casa NVIDIA non passeranno inosservati e che, con ogni probabilità, non saranno accolti con entusiasmo. Arriverà una risposta? Vedremo. Abbiamo più volte sottolineato quanto l'ottimizzazione sia cruciale nel settore IA per ottenere prestazioni migliori. Ne è una prova la suite di benchmark di settore MLCommons, dove NVIDIA ha dimostrato di essere riuscita a migliorare del 30% le prestazioni di addestramento per GPU su GPT-3 175B dall'introduzione del test.
4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoChissà se si potranno utilizzare a questo punto anche le schede AMD nei model learning di Stable Diffusion, che in questo momento =credo, non li ho mai usati= si possano fare solo con le schede RTX **90 della NVIDIA (servono 24GB per quanto ho letto).
Sarebbe molto più economico e ci farei a questo punto un pensierino
Scherzi a parte,le schede AMD erano indietro solo in RT e unità per usare elementi IA per generare frame finti, altrimenti le prestazioni in raster (che sono sempre calcoli) se la cavavano bene.
Dunque vediamo che DeepSeek R1 Distill Qwen 32B, che in 4-bit richiederà circa 16GB di memoria solo per il modello, le prestazioni in token/s sono congruenti con la differenza di banda. (960 GB/s della 7900 XTX contro 1006 GB/s della RTX4090 = quasi esattamente il 96% della banda).
La 4080 Super ha 736 GB/s di banda, e i 906 GB/s della 7900 XTX sono il 22% di velocità in più, guarda caso proprio la differenza riportata per DeepSeek R1 Distill Qwen 14B (circa 7GB di memoria in 4-bit).
I modelli più piccoli non sono da utilizzare in 4-bit se possibile.
Link ad immagine (click per visualizzarla)
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".