PDA

View Full Version : NVIDIA Blackwell: tutto quello che devi sapere sulle GeForce RTX 5000


Redazione di Hardware Upg
15-01-2025, 15:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6960/nvidia-blackwell-tutto-quello-che-devi-sapere-sulle-geforce-rtx-5000_index.html

DLSS4, Transformer, Neural Shader e molto altro. Sono queste le parole chiave per comprendere le novità delle nuove GeForce RTX 5000 di NVIDIA, basate su architettura Blackwell. Al CES 2025 si è tenuto un Editor's Day a cui abbiamo partecipato: ecco tutto quello che NVIDIA ha condiviso con noi e che dovete sapere per prepararvi al debutto delle nuove GPU.

Click sul link per visualizzare l'articolo.

ionet
15-01-2025, 15:54
praticamente tolto gli uplift dai vari fake-generetor, in nativa migliora tanto(poco) quanto aumenta il TDP, o poco piu' giusto per l'aumento della BW grazie alle GDDR7
che dire?:stordita:

ninja750
15-01-2025, 16:17
ho consumato la rotella del mouse per scrollare tutta sta papparda e poi al fondo leggo +15% :mbe: :eek: passando tra l'altro da 4N a 4NP

agonauta78
15-01-2025, 16:24
Aspetto i prezzi reali e poi mi faccio un'idea . Ho l'impressione che anche questa generazione compro la prossima

uazzamerican
15-01-2025, 17:23
Sono molte le novità della nuova gamma di GPU, capitanata dalla GeForce RTX 5090, che dimostrano come il futuro sia sempre più votato verso l'uso intensivo dell'IA, in una commistione tra hardware e software che rende la rasterizzazione sempre più marginale

Sono solo io a trovarla una baggianata e diversi livelli??

Manolo De Agostini
15-01-2025, 17:54
Sono solo io a trovarla una baggianata e diversi livelli??

Intendevo il calcolo a potenza bruta, senza tecnologie IA di supporto, ho sbagliato termine... articolo lungo, lapsus... :)

Therinai
15-01-2025, 19:04
Queste comparison mi ricordano tantissimo le mie visite oculistiche.
Oculista mi toglie gli occhiali e mi chiede:
O: "Quali di queste due scritte leggi meglio?"
Io: "non leggo nessuna scritta"
O: "Osservi qui, quanti riquadri rossi vede?"
Io: "Vedo un'unico quadrato marrone, o forse rosa, chi lo sà"
O: "E in questa immagine che numero vede?"
Io: "Non vedo nessun numero, per favore prenda i miei soldi e mi prescriva il solito binocolo"
:asd:

potpal
15-01-2025, 20:20
Letto tutto... Ma semplicemente sulle dita di due mani:

Nuovi tensor core, transformer, RTX neural rendering per 3 gestioni dedicate agli shader,.compressione texture, material etc, più qualità (???) ma meno VRAM, il doppio quasi dei CUDA corea rispetto alla 4090, gestione di 500M+ poligoni rispetto ai massimo 50M di CP2077 (10 volte?), IA ovunque per migliorare qualità (Blabla, la qualità degrada del tutto, sempre), e latenza inferiore (inferiore rispetto al doppio di latenza che le tech fanno, forse, non inferiore rispetto ad un rendering in real time... Come chi fa testing conferma)...

Ma alla fine? In game nativo 4K in Path tracing senza upscaling e assolutamente senza frame generator, che chi spende 2500 euro non deve assolutamente usare per un hardware next gen così markettizzata con le cose di cui sopra ,(tutto super pompato?) e la 4090 fa 21 FPS e la 5090 con tutto sto Wall of text alla fine fa 29 FPS....

Ci prendono per il culo o cosa? L'olderriko CP2077 di 4 anni fa devi usare DLSS4 performance (1080P to 2160P) e frame generation per stare sempre sopra o 60FPS anche con la 5090... Con qualità degradata e latenze estreme... E ora ci mettiamo pure l'ennesima cazzata che le ennesime tech aumentano la qualità quando abbiamo degradato fino allo schifo ogni gioco usando DLSS e frame generation ma con la narrativa che si aumentava la qualità visiva, e chi non ne capisce o non sa vedere la differenza ci crede pure .. come chi è convinto che con frame generation il gioco sia più reattivo ..

Fino a quando queste tech non saranno mature e non vedrò veramente next gen non comprerò più nulla

Vi ricordo che ora hanno presentato questa demo grafica e ad oggi in UE5 di 5 anni fa presentato non riusciamo neanche lontanamente ad avere in game la grafica di quella demo e tutti i giochi UE5 girano su 4090 in modo nativo con Path tracing sotto i 30 FPS con enormi stuttering

Ce li vedo già i fanatici a preordinare la 5090 per buttarla fra 2 anni

AceGranger
15-01-2025, 20:56
ho consumato la rotella del mouse per scrollare tutta sta papparda e poi al fondo leggo +15% :mbe: :eek: passando tra l'altro da 4N a 4NP

che è un salto ridicolo visto che ci passa solo un 6% perf @ iso-power

non so nemmeno se ci sia un guadagno dimensionale dei transistor e i chip sono gia grandi; fin quando TSMC non avrà i 3N disponibili per i chip delle GPU difficile fare un salto

AceGranger
15-01-2025, 21:23
Ci prendono per il culo o cosa?

nVidia ha presentato questo, AMD si fermerà alla fascia media e Intel alla fascia bassa...

si chiama realtà :p, nel mondo dei sogni fila sempre tutto liscio, poi nella realtà ti ritrovi con il raster che non riesce piu a scalare bene e purtroppo i giochi sono ancora basati su quello e poi non hanno nemmeno un nodo di silicio decente con il quale fare qualche salto in piu, l'attuale nodo è praticamente quello della scorsa generazione; il raytracing puro richiede troppa potenza non ancora disponibile e l'unica via percorribile è puntare su soluzioni che snelliscano le fasi di calcolo.

agonauta78
16-01-2025, 07:51
Nvidia domina fascia media e alta , Intel e AMD la bassa . Non credo ci sia altro da dire

coschizza
16-01-2025, 08:40
Nvidia domina fascia media e alta , Intel e AMD la bassa . Non credo ci sia altro da dire

Nvidia domina anche in quella bassa, intel in nessuna come pure amd

agonauta78
16-01-2025, 08:56
Le schede Intel sono sempre state le più vendute in assoluto considerando le integrate

UtenteHD
16-01-2025, 09:13
Ma ho letto che tra un anno nvidia fara' uscire le GPU con ARM, questo vuol dire che chi spende ora oltre 1k per ste schede poi son gia' superate? O e' altro segmento?
Per me, resto in attesa di 4050 a 70Watt, grazie.

Sono solo io a trovarla una baggianata e diversi livelli??

Guarda io e' dalla 3000 che dico che i conti prestazioni/prezzi/consumi (prezzi e calore alto) non sono proporzionati alla resa, ad ogni generazione questo rapporto mi sembra peggiori, ma non sono un Tech GPU ne' altro, quindi nulla.
Ritengo che il miglior rapporto qualita' prezzo si abbia con la 3050 70watt in attesa della 4050 70 watt (come gia' detto)(per giocare ai triple AAA accontentandosi ma nemmeno senza esagerare e solo per aluni)

Per le prestazioni dei tensor cores, non so', ma leggevo delle info, da cercare su Github in cui descrivevano un precedente drivers Nvidia in cui i tesor cores, senza cambiare nulla, solo quel drivers avevano una resa molto piu' alta, dicevano ~5x, poi dopo quelli sono scesi ai livelli attuali, che non sono bassi, ma diversi da quel driver. Riassumendo, a volte l'ottimizzazione rende bene senza cambiare GPU.

Giouncino
16-01-2025, 10:31
fortuna che non gioco più da tempo:
prezzi e consumi sono da fuori di testa!

agonauta78
16-01-2025, 12:04
Basta farsi bastare la GPU che si possiede senza cambiarla ogni anno o 2 . I consumi sono relativi se giochi poche ore . Io sinceramente ho poco tempo per cui anche consumassero 1000watt non mi interesserebbe . Il problema è il prezzo e la disponibilità

Max_it
16-01-2025, 12:05
Queste schede usano l'intelligenza artificiale per generare frames aggiuntivi.
Ma l'IA è disponibile anche per altre applicazioni?
Intendo dire, nel mio caso dispongo di Vegas Pro 22, che dispone di alcune funzioni che traggono vantaggio dall'intelligenza artificiale.
Riuscirebbe questo software a trarre vantaggio dalla presenza di una IA in una scheda serie 5000?
Grazie.

fenice19
16-01-2025, 12:20
io mi tengo la mia 4090

StylezZz`
16-01-2025, 15:30
fortuna che non gioco più da tempo:
prezzi e consumi sono da fuori di testa!

Come se per giocare servisse una 5090...

tony73
16-01-2025, 18:00
bla bla bla bla... io vedo solo una cosa realmente reale; una scheda video che nella versione di punta, qui nel bel paese, supererà allegramente i 2800€

Pre Covid era follia per chiunque 1200€ per una Top gamma, oggi tale follia cosa è diventata?

carlone88
16-01-2025, 18:26
anche se scritto molto bene, dell'articolo non ho capito un granchè a dirla tutta, ma una circostanza mi ha sicuramente lasciato con la faccia da ebete.

Al di là dell'IA e del frame generator, che mi sembrano un pochino una mezza bufala a fronte della potenza di calcolo aumentata di poco rispetto alla precedente gen, come altri utenti hanno già sottolineato, una cosa mi ha sorpreso in negativo:

i consumi sono fuori di testa!

Che senso ha in un mondo "green" dove sono obbligato ad acquistare lampadine a led al posto di quelle ad incandescenza per risparmiare qualche Watt al mese, a trovarmi gli adesivi con la classe energetica sugli elettrodomestici per far finta di partecipare alla gara "a chi consuma meno", ad ascoltare al tg le campagne di sensibilizzazione per spegnere le luci in casa al fine del risparmio energetico globale... che senso ha avere una scheda grafica nel pc che consuma come mezzo ferro da stiro?

Nonostante non abbia particolarmente a cuore l'ambiente (e non sono uno tra quelli che scende in strada a manifestate per il cambio climatico), mi sembra assurdo che nessuno gridi allo scandalo per un desktop in camera di mio figlio che supererà il KW/h di consumi se farà una partita online con gli amici... mah

Secondo me fra qualche generazione i produttori tech punteranno al "minor consumo possibile" per rivaleggiare con la concorrenza, anche solo per star dietro all'altra enorme bufala quotidiana del "salviamo il pianeta"...

Zappz
16-01-2025, 18:34
anche se scritto molto bene, dell'articolo non ho capito un granchè a dirla tutta, ma una circostanza mi ha sicuramente lasciato con la faccia da ebete.

Al di là dell'IA e del frame generator, che mi sembrano un pochino una mezza bufala a fronte della potenza di calcolo aumentata di poco rispetto alla precedente gen, come altri utenti hanno già sottolineato, una cosa mi ha sorpreso in negativo:

i consumi sono fuori di testa!

Che senso ha in un mondo "green" dove sono obbligato ad acquistare lampadine a led al posto di quelle ad incandescenza per risparmiare qualche Watt al mese, a trovarmi gli adesivi con la classe energetica sugli elettrodomestici per far finta di partecipare alla gara "a chi consuma meno", ad ascoltare al tg le campagne di sensibilizzazione per spegnere le luci in casa al fine del risparmio energetico globale... che senso ha avere una scheda grafica nel pc che consuma come mezzo ferro da stiro?

Nonostante non abbia particolarmente a cuore l'ambiente (e non sono uno tra quelli che scende in strada a manifestate per il cambio climatico), mi sembra assurdo che nessuno gridi allo scandalo per un desktop in camera di mio figlio che supererà il KW/h di consumi se farà una partita online con gli amici... mah

Secondo me fra qualche generazione i produttori tech punteranno al "minor consumo possibile" per rivaleggiare con la concorrenza, anche solo per star dietro all'altra enorme bufala quotidiana del "salviamo il pianeta"...

In realtà mi sembra che ci siano tutte le opzioni possibili, schede top con consumi alti e schede base a basso consumo. Volendo ci sono anche le soluzioni mobile con consumi ancora piu' bassi...

ThePunisher
16-01-2025, 20:05
Come dice qualcuno senza i fake frame generator è uguale alla serie di prima solo più grossa, con più shader\core e quindi per forza di cose più potente.

Mars95
17-01-2025, 08:35
Sono interesantissime le cose presentate da Nvidia e più che delle GPU parlo di RTX neural shader e di tutte le sue funzioni (faces, material, radiance, skin, ecc. ecc.) che sulla carta e nelle demo promettono grandi cose.
La preoccupazione è se mai li vedremo implementati nei giochi, sicuramente in qualche sponsorizzazione Nvidia ma fino a quando non saranno accessibili anche con GPU di altri produttori, console, ecc. non credo che avranno largo impiego.
Inoltre non mi è chiaro se queste tecnologie possono funzionare anche sulle serie precedenti di GPU.

Zappz
17-01-2025, 08:47
Ormai siamo arrivati al punto che l'ia partendo da una semplice immagine riesce a creare un filmato, probabilmente si arriverà che nei giochi, partendo da un modello 3D semplificato l'ia riuscirà a ricreare un modello foto realistico in tempo reale.

AceGranger
17-01-2025, 10:27
La preoccupazione è se mai li vedremo implementati nei giochi, sicuramente in qualche sponsorizzazione Nvidia ma fino a quando non saranno accessibili anche con GPU di altri produttori, console, ecc. non credo che avranno largo impiego.


io invece credo di si, il mondo PC, che sta andando molto meglio di quello console, è in mano ad nVidia, e comuqnue anche in campo console la Switch ha venduto nettamente di piu di Sony e Microsoft messe insieme e la Switch 2 ( appena annunciata ) imho, credo che seguirà le orme della prima versione riuscendo in questo caso a sfruttare anche le feature nVidia, almeno le principali.
Poi fanno parte di tutto il pacchetto RTX, e molte delle novità introdotte faranno comodo soprattutto agli sviluppatori perchè renderà molto piu lineare il processo dalla creazione alla renderizzazione in game;
poi la guerra delle software house passa anche dalla resa grafica, chi non le adotta rimarrà indietro rispetto alla concorrenza.

Mars95
17-01-2025, 11:06
io invece credo di si, il mondo PC, che sta andando molto meglio di quello console, è in mano ad nVidia, e comuqnue anche in campo console la Switch ha venduto nettamente di piu di Sony e Microsoft messe insieme e la Switch 2 ( appena annunciata ) imho, credo che seguirà le orme della prima versione riuscendo in questo caso a sfruttare anche le feature nVidia, almeno le principali.
Poi fanno parte di tutto il pacchetto RTX, e molte delle novità introdotte faranno comodo soprattutto agli sviluppatori perchè renderà molto piu lineare il processo dalla creazione alla renderizzazione in game;
poi la guerra delle software house passa anche dalla resa grafica, chi non le adotta rimarrà indietro rispetto alla concorrenza.

Ma starai scherzando?
Secondo te Switch 2 con una GPU Ampere con 2 RTX core userà i neural shader? :asd:

AceGranger
17-01-2025, 11:32
Ma starai scherzando?
Secondo te Switch 2 con una GPU Ampere con 2 RTX core userà i neural shader? :asd:

no, con "almeno le principali" intendevo il DLSS e forse frame generator, e quindi sara quasi automatico che praticamente ogni software house mettera di base quello e al contempo avra in mano il pacchetto completo di nVidia e su PC quelle feature ( quelle nuove ) conteranno.

comuqnue le cose che ha introdotto nVidia saranno strettamente collegate alle nuove Dx e, come per le altre cose, AMD e Micorosoft si faranno le loro versioni.

Mars95
17-01-2025, 12:25
no, con "almeno le principali" intendevo il DLSS e forse frame generator, e quindi sara quasi automatico che praticamente ogni software house mettera di base quello e al contempo avra in mano il pacchetto completo di nVidia e su PC quelle feature ( quelle nuove ) conteranno.

comuqnue le cose che ha introdotto nVidia saranno strettamente collegate alle nuove Dx e, come per le altre cose, AMD e Micorosoft si faranno le loro versioni.

Upscale e frame generator ci sono ovunque ormai, su ps e xbox è una derivazione di FSR, MS sta integrando tutto in DirectSR.
Quindi alla fine DLSS, FSR o XeSS poco importa, sarà tutto semplicissimo da inserire.

Comunque io parlavo di neural shader perchè è quella la novità che intoduce Nvidia, upscaler e frame generator sono roba vecchia che ormai hanno tutti, non sono più interessanti, sono scontati ormai.

SiMcarD
19-01-2025, 15:17
Scusate, forse non ho ben compreso io il funzionamento del sistema di raffreddamento double flow through.
Se prendo l'aria fresca dal case e la butto fuori calda ancora nel case non è controproducente?:confused: