Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale
Forte di soluzioni tecniche specifiche, il notebook Acer TravelMate P4 14 abbina dimensioni compatte e buona robustezza per rispondere alle necessità specifiche degli utenti aziendali. La piattaforma AMD Ryzen 7 Pro assicura prestazioni elevate con i tipici ambiti di produttività personale e sul lavoro, mantenendo un'elevata autonomia.
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque
Dal salotto al giardino, il nuovo proiettore laser di Hisense promette esperienze cinematografiche in qualsiasi contesto: qualità d’immagine, semplicità d’uso, versatilità e prezzo competitivo il suo poker d'assi
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 27-11-2006, 11:04   #21
Dexther
Senior Member
 
L'Avatar di Dexther
 
Iscritto dal: Oct 2004
Città: Roma
Messaggi: 26290
Mi aspetto grandissime cose da questa GPU .
Dexther è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 11:11   #22
Cobra78
Senior Member
 
L'Avatar di Cobra78
 
Iscritto dal: Mar 2005
Città: Ravenna
Messaggi: 1937
Magari dico una cavolata, ma ho il sospetto che si ripeterà quanto già visto in precedenza: nVidia maggior potenza bruta, Ati avvantaggiata nell'uso dei filtri; certo dico questo partendo dal presupposto che il bus a 384 della nVidia non sia un 512 ridotto, se invece han già previsto l'abilitazione dei 512bit il mio discorso cade
Cobra78 è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 11:18   #23
VitOne
Senior Member
 
L'Avatar di VitOne
 
Iscritto dal: Oct 2003
Città: Roma
Messaggi: 5735
Quote:
Originariamente inviato da Cobra78
Magari dico una cavolata, ma ho il sospetto che si ripeterà quanto già visto in precedenza: nVidia maggior potenza bruta, Ati avvantaggiata nell'uso dei filtri; certo dico questo partendo dal presupposto che il bus a 384 della nVidia non sia un 512 ridotto, se invece han già previsto l'abilitazione dei 512bit il mio discorso cade
Non riesco francamente ad immaginare filtri di qualità maggiore rispetto a quelli che ha integrato invidia con G80, non so sei hai letto la prova comparativa tra i filtri presente nella rece delle 8800GTX, ma posso assicurarti da possessore di questa scheda che la qualità dei filtri è veramente molto migliore sia di quelli della 7950Gx2 che di quelli della 1900XTX (avute entrambe).

Cmq per adesso è prematuro fare commenti sulla potenza della scheda, da parte mia posso solo sperare che sia ben più potente di G80 in modo che la guerra continuni e che le case produttrici siano spronate a produrre sempre qualcosa di meglio e magari anche a prezzi più bassi. Per ora non mi resta che godermi la 8800GTX .
VitOne è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 11:42   #24
imayoda
Senior Member
 
L'Avatar di imayoda
 
Iscritto dal: Mar 2006
Città: Rimini
Messaggi: 3336
Quel coso sembra avere più transistors del mio Opty... :|
Cmq con queste schede vedremo il supporto finale driver delle varie case.. adesso vorrei la g80 ma non mi fido più e aspetto la R600 che almeno avrà per certo il supporto Amd ottimizzato..heheh
imayoda è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 11:53   #25
tony73
Senior Member
 
L'Avatar di tony73
 
Iscritto dal: Nov 2001
Città: Prato
Messaggi: 4009
Signori questa GPU sara' il nuovo "R300" poco ma sicuro.

Su un sito ho trovato questi dati,ovviamente non ufficiali:

65nm
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader
tony73 è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 11:53   #26
eta_beta
Senior Member
 
L'Avatar di eta_beta
 
Iscritto dal: Jul 1999
Città: Palermo
Messaggi: 1305
speriamo che AMD metta il bus a 512 sulla prossima generazione di CPU
eta_beta è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 11:57   #27
Narmo
Senior Member
 
Iscritto dal: Sep 2004
Messaggi: 394
Insomma della serie:

Ati Technologies (AMD) invites you to return and experience the adventure once again!

(Musichetta del trailer di WarCraft III di sottofondo)

Comunque sia... penso che R600 non deluderà, anche perchè ATi ha maggiore esperienza in campo shader unificati derivata dal chip di Xbox360.


Narmo è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 12:01   #28
nonikname
Senior Member
 
L'Avatar di nonikname
 
Iscritto dal: Jan 2003
Città: Atlantide (AT)
Messaggi: 2506
Probabilmente sia nVIDIA che Ati hanno già da tempo (X1800 e 7900) implementato la circuiteria necessaria a far funzionare il crossbar a 512bit .. il problema reale è che per usufruirne bisogna adottare dei PCB ipercomplessi & ipercostosi...(e relativeGDDR)
Dai rumor che si sentono in rete , l'R600 è ancora + affamato di energia del G80 e la lunghezza della scheda è esattamente identica all 8800GTX... Se poi si pensa che i prototipi di R600 distribuiti ai developer sono cloccati del 30-40% in meno della velocità finale , questo mi fa presupporre che probabilmente avrà effettivamente un bus a 512bit e un consumo leggermente più elevato della 8800gtx..
Solo che ormai nvidia ha imparato la poesia a memoria : subito dopo l'uscita della X2000XTX uscirà l'8900GTX a 80nm che avrà consumi inferiori e forse anche i tanto osannati 512bit ..Evviva la concorrenza

Solo che per decretare un vincitore assoluto bisognerà trovare dei monitor con risoluzioni superiori a 2560 e tutto ciò mi fa sorridere..

Per finire ho un pensiero che mi sta frullando nel cervello : ma ora che uscirà vista con il suo bel AERO che sfrutta le GPU anche in 2d (che poi le finestre sono texture , quindi 3d) la modalità idle della VGA sarà sufficiente ??

X Paolo Corsini : che ne dici di provare , nell'imminente articolo su Vista , l'assorbimento delle GPU con AERO attivato e non ???
nonikname è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 12:10   #29
cionci
Senior Member
 
L'Avatar di cionci
 
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
Quote:
Originariamente inviato da eta_beta
speriamo che AMD metta il bus a 512 sulla prossima generazione di CPU
Non puo', gia' con il dual channel siamo a 128 bit. A 512 bit dovresti montare 8 moduli di Ram per sfruttare il bus. Inoltre ci vorrebbe un istruction set adatto per supportare questi trasferimenti molto grandi.
cionci è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 12:27   #30
ivabo
Member
 
Iscritto dal: Jun 2004
Messaggi: 282
nonikname quello che hai detto del consumo delle schedozze con AERO è in parte vero e in parte falso

ora ti spiego xkè

Come hai giustamente detto la VGA dovrà calcolare tutto il desktop e quindi consumerà sempre un po + di corrente (ma pochissimo in + non deve calcolare HDR + AA + AF a risoluzioni pazzesche ma un'interfaccia)
Il vantaggio a questo è che la CPU sarà libera e quindi non calcolera l'interfaccia neanche minimamente (quindi il consumo scende).
A conti fatti il consumo totale sarà cmq diminuito (ma con maggiori performance) un po come anni fa nei giochi potevi scegliere SOFTWARE T&L o HARDWARE T&L (il primo era non solo + lento xkè calcolato dalla CPU ma anche + esoso in risorse xkè la CPU lavorava al 100% x + tempo; il secondo invece era + veloce e meno esoso di risorse xkè la GPU era ottimizzata in quei calcoli e quindi non solo li faceva + velocemente ma anche in meno tempo )
ivabo è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 12:52   #31
nonikname
Senior Member
 
L'Avatar di nonikname
 
Iscritto dal: Jan 2003
Città: Atlantide (AT)
Messaggi: 2506
Quote:
A conti fatti il consumo totale sarà cmq diminuito (ma con maggiori performance) un po come anni fa nei giochi potevi scegliere SOFTWARE T&L o HARDWARE T&L (il primo era non solo + lento xkè calcolato dalla CPU ma anche + esoso in risorse xkè la CPU lavorava al 100% x + tempo; il secondo invece era + veloce e meno esoso di risorse xkè la GPU era ottimizzata in quei calcoli e quindi non solo li faceva + velocemente ma anche in meno tempo )
Solo che una cpu odierna di fascia medio alta consuma un quarto di quanto consuma una gpu della stessa fascia...

Cmq il problema non saranno effettivamente le prestazioni , dato che una CPU attuale non dovrebbe essere in grado di gestire un interfaccia ( come aero ) in software mode , ma quanto il fatto che una GPU moderna ha 2 modalità di funzionamento : Idle con GPU e GDDR a velocità ridotte e full Load con il tutto a piena velocità... Ora mettiamo che appena parte l'interfaccia Aero , i driver di una (x es.) R600 , la farano lavorare in modalità 3d (quindi in full load) così mentre lavori sul desktop hai un assorbimento di 300W e 80/90C° solo per la vga , mentre stai solo scivendo su un forum!!!
Quello che mi chiedo è : una R600 potrebbe anche gestire Aero in modalità idle (ripeto, gpu e Vram a velocità ridotte) , ma una 6600GT (per esempio) a che modalità deve lavorare??...

E' questo che vorrei leggere sul prossimo articolo di Vista...

E qui chiudo l'OT..
nonikname è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 13:10   #32
ronthalas
Senior Member
 
L'Avatar di ronthalas
 
Iscritto dal: Nov 2001
Città: Pavia
Messaggi: 1209
aspetto di vedere tutte le versioni di livello più basso... 600 euro per un bestione del genere glieli posso dare solo in caso di vincita al Superenalotto (un 6 s'intende).
ronthalas è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 13:45   #33
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da MiKeLezZ
Sono 45°, altrimenti neppure si spiegherebbero i 4 tagli della cornice esattamente a metà.

Certo che potevano fare una cornice meno spessa... A meno che non abbiano già preventivato un die shrink nell'immediato futuro.
Riguardo i 512b, è impressionante!

Ma credo che nVidia possa raggiungerli, i suoi 384b sono infatti dovuti all'utilizzo di RAM (GDDR3) nel quantitativo di 768MB; se usasse 1GB di GDDR4 è chiaro che la sua naturale evoluzione sarebbero i 512b di bus.

Lcol, ma perchè 64 unità fanno il lavoro per 256? Che hanno implementato?
potrebbe riferirsi, ipotizzando suppongo, alla possibilità che ognuna delle 64 units di r600 abbia 4 alu scalari o una vettoriale da 4 ops (per es un'altro utente riporta tra le specifiche ufficiose addirittura 1 alu vett. da 4 + 1 alu scalare per ogni unit), contro per es i 128 "stream processors" con 1 alu scalare ognuno di g80. poi certo conta anche la freq a cui le unità di calcolo operano, inoltre con alu vettoriali può accadere che non sempre vengano usate tutte le "componenti" in ogni ciclo di clock e questo può portare ad una potenza di calcolo mediamente "espressa" inferiore a quella massima teorica possibile, con un gap forse maggiore tra i due livelli rispetto a soluzioni ancor + "granulari" (tipo le 128 alu scal. di g80 pr es)

o in altri termini se anche le specifiche effettive fossero quelle ufficiose messe in quel post e anche il clock delle unità di calcolo fosse sostanzialmente identico(per semplificare il paragone) tra g80 e r600 e insomma la situazuone fosse tale che si potesse brutalmente approx 1 unit di r600(alu vett. da 4 + 1 alu scal.) = 5 s.p.(1 alu scal.) di g80 non è detto che effettivamente r600 = 2,5*g80 come prestazioni. inoltre sempre stando a quelle specifiche ufficiose nv avrebbe dalla sua anche una maggiore freq. a tamponare lo svantaggio in termini di num. di op. contemporanee possibili.

imho c'è anche da dire però che se veramente il rapporto in termini di numero max di op. contemporanee su singolo dato fosse 2,5 a 1 a favore di r600, considerato che ati non è famosa per l'inefficenza delle sue architetture, la cosa potrebeb risultare significativa e ati "rischierebbe" di avere una"base" abbastanza solida per poter far spesso "sfigurare" g80 nei test.
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein

Ultima modifica di MenageZero : 27-11-2006 alle 13:54.
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 13:55   #34
Il Creativo
Senior Member
 
L'Avatar di Il Creativo
 
Iscritto dal: May 2005
Messaggi: 390
Quote:
Originariamente inviato da capitan_crasy
quanto scommetti che Nvidia all'uscita del R600, presenterà una scheda con G80 (magari a 80nm) e memorie GDDR4 a frequenze assurde?
Nvidia sta già lavorando ad una versione a 65nm di G80, sicuramente questa strategia è stata pensata apposta per questo motivo.
Il Creativo è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 13:55   #35
ulk
Senior Member
 
L'Avatar di ulk
 
Iscritto dal: Sep 2000
Città: WOLF 389 VULCANO ** Ho scelto di vivere per sempre............................ per ora ci sono riuscito.
Messaggi: 8429
Spero che poi non venga fuori un catafalco come le 8800 di nVidia.
ulk è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 13:56   #36
halduemilauno
Senior Member
 
L'Avatar di halduemilauno
 
Iscritto dal: Feb 2002
Città: Discovery
Messaggi: 34710
Quote:
Originariamente inviato da MiKeLezZ
|
V

Bhe, è quello che ho detto.
8800 GTS utilizza un bus anomalo di 320b, e la sorellona ne utilizza una versione leggermente migliore da 384b, sempre anomalo (ma perchè, questi mezzi numeri......).
Aggiungiamoci che l'ex top gamma, 7950, già usava 1GB di memoria......
Non mi sembra improbabile abbiano già preventivato l'uso di 1GB, il che significherebbe un bus "reale" di 512b (non poi molto distante da quei 384b).
Ciao.
la sorellona ha 12 moduli da 32 bit. quindi ecco il bus a 384 bit.
__________________
Good afternoon, gentlemen, I'm a H.A.L. computer.
halduemilauno è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 14:08   #37
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da cionci
512 bit di ampiezza del bus...
Non è che puoi modificare l'ampiezza del bus in base alla quantità di memoria. L'ampiezza del bus di memoria è un parametro di progetto...
Solitamente è la quantità di memoria e la configurazione di montaggio che dipendono dall'ampiezza del bus...non il contrario...
sì ma... proprio nella rece qui su hwupg si diceva che i 384bit di g80 son stati ottenuti "aggiungendo" altri 4 moduli con interfaccia dati da 32bit oltre ai soliti 8 delle gpu top precedenti e nello schema si vede che appunto il mc controller a crossbar è costituito da 6 blocchi da 64bit; mentre vediamo che per la vesione "segata" abbiamo 10(sempred a 32bit ovviamente) moduli ram e mc con 5 blocchi, sempre a 64 bit ciascuno...

... cioè... ad un occhio profano della tecnica a livelli seri delle gpu , la situazione sembra piuttosto modulare e dà l'idea che volendo potrebbero passare a 512bit di bus senza stravolgere il progetto aggiungendo altri 4 moduli di mem(o usando mopduli con interfaccia dati di ampiezza differente, non so se ad es mettendo gddr4 la cosa cambia) e altri due blocchi di mc...

certo questo impedirebbe un futuro refresh come solamente puro shrink o al max piccole ottimizzazioni "non strutturali" e se anche nei rumors (che non conosco) + "spinti" e/o in quelli più "attendibili" si parla del "refresh" di g80 come puro shrink e al max aumento delle frequenze, la cosa rimane molto improbabile

( o per caso la redazione sa già, sotto nda, come sarà "g81" o chi per lui - nonché il + vicino r600, ovviamente )
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 14:24   #38
Treguna
Member
 
Iscritto dal: May 2004
Messaggi: 74
Edit: errore scusate

Problemi di gradi
Treguna è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 14:33   #39
ulk
Senior Member
 
L'Avatar di ulk
 
Iscritto dal: Sep 2000
Città: WOLF 389 VULCANO ** Ho scelto di vivere per sempre............................ per ora ci sono riuscito.
Messaggi: 8429
Quote:
Originariamente inviato da MenageZero
sì ma... proprio nella rece qui su hwupg si diceva che i 384bit di g80 son stati ottenuti "aggiungendo" altri 4 moduli con interfaccia dati da 32bit oltre ai soliti 8 delle gpu top precedenti e nello schema si vede che appunto il mc controller a crossbar è costituito da 6 blocchi da 64bit; mentre vediamo che per la vesione "segata" abbiamo 10(sempred a 32bit ovviamente) moduli ram e mc con 5 blocchi, sempre a 64 bit ciascuno...
8800 è un ibrido, la versione seria si vedrà quando esce R600 poco dopo.....
ulk è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2006, 14:37   #40
Crysis90
Bannato
 
Iscritto dal: Sep 2006
Messaggi: 6414
Io non vedo l'ora di vedere il confronto tra G80 e R600, così posso scegliere la scheda più potente e potermi così godere Crysis su Windows Vista e quindi in DX 10 e SM 4.0 con risoluzione ed effetti al massimo!
Crysis90 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Lenovo ThinkPad X1 2-in-1 G10 Aura Edition: il convertibile di classe Lenovo ThinkPad X1 2-in-1 G10 Aura Edition: il c...
Intervista a Stop Killing Games: distruggere videogiochi è come bruciare la musica di Mozart Intervista a Stop Killing Games: distruggere vid...
Amazon, svendite pesanti di 11 TV OLED: ...
Xbox: dal prossimo mese verifica dell'id...
Corsair AI Workstation 300: poco pi&ugra...
Addio a Elio Marioli, un pioniere della ...
L'IA sta già diminuendo il potere...
Guida autonoma? Gli ADAS falliscono e in...
Skechers lancia le scarpe per bambini co...
Revolut e Audi F1: un’alleanza rivoluzio...
Gestione attività di Windows 11 d...
Amazon lancia il nuovo videocitofono Bli...
Robot aspirapolvere al top: i nuovi DEEB...
Opera vs Microsoft: la guerra dei browse...
Router e ripetitori FRITZ! in offerta su...
Spotify vola a quota 700 milioni di uten...
Microsoft pronta ad abbandonare il launc...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 07:13.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1