View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
davide155
04-03-2024, 17:09
E alla fine signore e signori, siamo arrivati al kW di consumo :D :D :D
Blackwell B200 nel 2025 (https://www.guru3d.com/story/nvidia-b200-blackwell-accelerator-card-set-for-2025-release-could-see-1000w-power-consumption/)Sono chip per il B to B quelli.
H100 consuma 700w, mica poi tanto meno.
I leak per le soluzioni gaming ad ora non hanno nulla di certo, anzi più smentite che altro. Quindi aspettiamo a fasciarci la testa.
Pare che il 12vhpwr v2 rimarrà per le 5000, quindi più di 600w da specifica CEM non potranno andare.
marbasso
04-03-2024, 17:16
Sono chip per il B to B quelli.
H100 consuma 700w, mica poi tanto meno.
I leak per le soluzioni gaming ad ora non hanno nulla di certo, anzi più smentite che altro. Quindi aspettiamo a fasciarci la testa.
Pare che il 12vhpwr v2 rimarrà per le 5000, quindi più di 600w da specifica CEM non potranno andare.
Non vorrei dire inesattezze ma il connettore nuovo H++ dovrebb essere da 675w e più. Cmq più di 600.
Edit, confermato.
https://wccftech.com/12v-2x6-h-connector-offers-675w-gpu-power-delivery-versus-600w-12vhpwr-h-plug/
amon.akira
04-03-2024, 18:27
al massimo cambierà il tdp iniziale che ricordo è 450w per le 4090, quindi hanno margine, potrebbero portarlo a 500w poi versioni oc anche maxando il 16pin inzieranno a tagliare causa pl, cosa che ora non avviene mai con 600w e 1.05v
mikael84
04-03-2024, 21:23
E alla fine signore e signori, siamo arrivati al kW di consumo :D :D :D
Blackwell B200 nel 2025 (https://www.guru3d.com/story/nvidia-b200-blackwell-accelerator-card-set-for-2025-release-could-see-1000w-power-consumption/)
Sono chip per il B to B quelli.
H100 consuma 700w, mica poi tanto meno.
I leak per le soluzioni gaming ad ora non hanno nulla di certo, anzi più smentite che altro. Quindi aspettiamo a fasciarci la testa.
Pare che il 12vhpwr v2 rimarrà per le 5000, quindi più di 600w da specifica CEM non potranno andare.
Si, riguarda HPC datacenter. Da questo progetto dovrebbe partire anche una versione MCM da circa 40960cuda + int.
Non vorrei dire inesattezze ma il connettore nuovo H++ dovrebb essere da 675w e più. Cmq più di 600.
Edit, confermato.
https://wccftech.com/12v-2x6-h-connector-offers-675w-gpu-power-delivery-versus-600w-12vhpwr-h-plug/
Si, dipende dalla tare che gli danno. Sono cavi pensati per 9,5A, quindi 684A.
600W è la tara a 8 (8,3 circa), AWG18 è a 6A, 20 a 4.
Non è escluso trovarsi TDP molto alti con i 3nm.
davide155
05-03-2024, 09:53
Non vorrei dire inesattezze ma il connettore nuovo H++ dovrebb essere da 675w e più. Cmq più di 600.
Edit, confermato.
https://wccftech.com/12v-2x6-h-connector-offers-675w-gpu-power-delivery-versus-600w-12vhpwr-h-plug/
No, la specifica CEM 5.1 rimane a 600w sul 12vhpwr 2x6, hanno semplicemente aggiunto un range di 5-8% di escursione di assorbimento.
https://i.ibb.co/b2L09GQ/Screenshot-2024-03-05-104259.png (https://ibb.co/dL6TYHj)
I 675w dati da quell'articolo riguardano un test di laboratorio dove erano presenti quelli di HardwareBusters, dove fanno vedere sotto piena carica che anche piegandolo o lasciandolo leggermente fuori sede il connettore non si scioglie.
Sul nuovo 12vhpwr2x6 cambiano alcune curve limite di potenza, tempi di tenuta della tensione, aggiunto il setting dello zero watt quando i due pin sense sono aperti, cosa che prima era minimo 150w. Insomma hanno aggiunto varie specifiche che trovate a questo link dove lo spiegano molto bene:
https://hwbusters.com/psus/atx-v3-1-pcie-cem-5-1-are-official/
marbasso
05-03-2024, 19:44
Nuovi driver 551.76 WHQL
fraussantin
05-03-2024, 20:48
No, la specifica CEM 5.1 rimane a 600w sul 12vhpwr 2x6, hanno semplicemente aggiunto un range di 5-8% di escursione di assorbimento.
https://i.ibb.co/b2L09GQ/Screenshot-2024-03-05-104259.png (https://ibb.co/dL6TYHj)
I 675w dati da quell'articolo riguardano un test di laboratorio dove erano presenti quelli di HardwareBusters, dove fanno vedere sotto piena carica che anche piegandolo o lasciandolo leggermente fuori sede il connettore non si scioglie.
Sul nuovo 12vhpwr2x6 cambiano alcune curve limite di potenza, tempi di tenuta della tensione, aggiunto il setting dello zero watt quando i due pin sense sono aperti, cosa che prima era minimo 150w. Insomma hanno aggiunto varie specifiche che trovate a questo link dove lo spiegano molto bene:
https://hwbusters.com/psus/atx-v3-1-pcie-cem-5-1-are-official/Cmq in 600w c'è tutto lo spazio per un chip b202.
Ai quali poi si sommano i 67 si pcie
mikael84
05-03-2024, 21:02
No, la specifica CEM 5.1 rimane a 600w sul 12vhpwr 2x6, hanno semplicemente aggiunto un range di 5-8% di escursione di assorbimento.
I 675w dati da quell'articolo riguardano un test di laboratorio dove erano presenti quelli di HardwareBusters, dove fanno vedere sotto piena carica che anche piegandolo o lasciandolo leggermente fuori sede il connettore non si scioglie.
Sul nuovo 12vhpwr2x6 cambiano alcune curve limite di potenza, tempi di tenuta della tensione, aggiunto il setting dello zero watt quando i due pin sense sono aperti, cosa che prima era minimo 150w. Insomma hanno aggiunto varie specifiche che trovate a questo link dove lo spiegano molto bene:
Tiene perchè ancora nei valori di 684 a 9,5A, anche se Igor ne aveva sciolto uno dopo 10 minuti di test a 750watt, temperature impazzite.
Le tare saranno sempre 150 - 215 - 300 (x2 600/50A/8,3 a linea)
davide155
06-03-2024, 10:15
Cmq in 600w c'è tutto lo spazio per un chip b202.
Ai quali poi si sommano i 67 si pcieSi infatti. Come diceva amon, Teniamo di conto che la 4090 è data a 450w. Poi le super oc e le founders hanno il cap a 600w, che però ricordiamo non tocca praticamente mai a stock.
davide155
06-03-2024, 10:23
Tiene perchè ancora nei valori di 684 a 9,5A, anche se Igor ne aveva sciolto uno dopo 10 minuti di test a 750watt, temperature impazzite.
Le tare saranno sempre 150 - 215 - 300 (x2 600/50A/8,3 a linea)Conta che ora hanno aggiunto anche lo zero watt per il gnd-gnd dei pin sense.
CtrlAltSdeng!
06-03-2024, 11:40
Ah ma quindi ce lo teniamo davvero? :stordita: :muro: non ci speravo eh però ecco....vabbè si va di adattatore sleevato bene e amen :sofico: un bel ali platinum in sconto perchè "vecchi" con dei cavi sleeved a parte incluso l'adattatore a sta cacata di pvh12v+++++.... win-win
raga chiedo quì, ieri avevo problemi in game su league of legends sul muletto con la 3080ti tipo facevo 65 fps invece dei 165 usuali di sync del monitor :/ avevo aggiornato i driver poco tempo prima sapete di qualche bug ecc...? grazie per l'aiuto :)
marbasso
06-03-2024, 12:21
raga chiedo quì, ieri avevo problemi in game su league of legends sul muletto con la 3080ti tipo facevo 65 fps invece dei 165 usuali di sync del monitor :/ avevo aggiornato i driver poco tempo prima sapete di qualche bug ecc...? grazie per l'aiuto :)
Sono usciti i driver nuovi ieri, aggiorna e vedi.
Sono usciti i driver nuovi ieri, aggiorna e vedi.
eh proprio dopo l'aggiornamento ho avuto problemi che ho fatto ieri :// apposta chiedevo quì se anche voi avevate riscontrato problemi :(
marbasso
07-03-2024, 11:13
eh proprio dopo l'aggiornamento ho avuto problemi che ho fatto ieri :// apposta chiedevo quì se anche voi avevate riscontrato problemi :(
E torna ai driver precedenti e vedi un po'.
marbasso
08-03-2024, 20:14
....he dead.
OrazioOC
09-03-2024, 10:51
https://videocardz.com/newz/nvidia-geforce-rtx-50-gb20x-gpus-to-feature-similar-memory-interfaces-to-rtx-40-ad10x-series
SnobWatch
09-03-2024, 12:29
Raga sarà un argomento trito e ritrito ma sto seguendo poco per mancanza di tempo, scusatemi.
Analizzando la storia delle GPU Nvidia quando dovrebbe essere lanciata approssimativamente la prossima "5090"?
Si parla di dicembre 2024/Q1 2025?
Raga sarà un argomento trito e ritrito ma sto seguendo poco per mancanza di tempo, scusatemi.
Analizzando la storia delle GPU Nvidia quando dovrebbe essere lanciata approssimativamente la prossima "5090"?
Si parla di dicembre 2024/Q1 2025?
Q1 2025 :D
Quindi ancora 16gb con il binocolo...bene!
fraussantin
09-03-2024, 13:23
Quindi ancora 16gb con il binocolo...bene!Non è detto. Potrebbero benissimo averne tutte il doppio delle attuali.
Ma Nvidia punta parecchio anche sul dlss4 con la compressione della memoria intelligente.
Vedremo
Non è detto. Potrebbero benissimo averne tutte il doppio delle attuali.
Ma Nvidia punta parecchio anche sul dlss4 con la compressione della memoria intelligente.
Vedremo
Quindi dovrò scegliere se cambiare Gpu o macchina.
Un bel dilemma :sofico:
OrazioOC
09-03-2024, 13:39
Quindi ancora 16gb con il binocolo...bene!
Dipende se avranno la tripla densità o meno, per me la serie rtx 5000 avrà ancora memorie a doppia densità, con un eventuale refresh della gamma(super) dotate gdddr7 tripla densità.
Quindi potremmo vedere una 5070 con 12gb di vram nel 2025, e una 5070 super con 18gb di vram nel 2026. :asd:
Però una cosa è certa, non si avranno problemi di bandwith neanche al lancio, visto che le gddr7 più sfigate sono accreditate di 32gbps(contro 18/20 gbps delle gddr6 odierne). :asd:
https://www.hwupgrade.it/news/skvideo/gddr7-la-memoria-delle-schede-video-di-prossima-generazione-e-pronta_124994.html
fraussantin
09-03-2024, 13:41
Quindi dovrò scegliere se cambiare Gpu o macchina.
Un bel dilemma :sofico:
beh con i prezzi a cui stanno arrivando le auto , intanto cambiamo gpu che è piu facile
beh con i prezzi a cui stanno arrivando le auto , intanto cambiamo gpu che è piu facile
E pure questo è vero, vedremo e vedremo anche che fa Amd, così scalo via
la 3060 ti, mi tengo la 4070 insieme alla nuova che esce.
Almeno, vorrei fare così ma...
OrazioOC
11-03-2024, 09:46
https://videocardz.com/newz/nvidia-geforce-rtx-50-series-reportedly-features-28-gbps-gddr7-memory
mikael84
11-03-2024, 11:34
https://videocardz.com/newz/nvidia-geforce-rtx-50-series-reportedly-features-28-gbps-gddr7-memory
Come dicevo, i 32gb/s micron all'uscita difficilmente li avrebbe tirati fuori.
Prometteva 16gb/s con le g5x, ed ha debuttato con 10, con le g6x ancora ha la produzione a 21.
Purtroppo questo causa anche un problema al bus, tenendo conto della tripla densità iniziale, visto che con le g6x non la aveva all'inizio, e ci sono voluti quasi 2 anni (con la 3090ti) a lanciarla.
Se devono mettere 32gb o 36gb di g7, e fare un PCB esagerato per questioni di ram, tanto vale, mettere 2 stack HBM da 16gb, si abbattono i consumi, ed i die, visto che sarebbero equivalenti ad un 128bit. Come il chip HPC.
OrazioOC
12-03-2024, 13:21
Come dicevo, i 32gb/s micron all'uscita difficilmente li avrebbe tirati fuori.
Prometteva 16gb/s con le g5x, ed ha debuttato con 10, con le g6x ancora ha la produzione a 21.
Purtroppo questo causa anche un problema al bus, tenendo conto della tripla densità iniziale, visto che con le g6x non la aveva all'inizio, e ci sono voluti quasi 2 anni (con la 3090ti) a lanciarla.
Se devono mettere 32gb o 36gb di g7, e fare un PCB esagerato per questioni di ram, tanto vale, mettere 2 stack HBM da 16gb, si abbattono i consumi, ed i die, visto che sarebbero equivalenti ad un 128bit. Come il chip HPC.
Si ma, anche se fossero 28gbps e non 32, sarebbe comunque un salto decisamente importante dalle gddr6 attuali.
E' come se una 4060 ti con bus di 128 bit si ritrovasse una bandwith simile ad una scheda con 192 bit di bus e memorie gddr6. XD
Semmai il problema potrebbe essere la mancata tripla densità, che costringerebbe nuovamente a schede di fascia medio bassa con appunto 128 bit di bus ai soliti miseri 8gb di vram(o 16gb con un ipotetico clamshell). :rolleyes:
https://videocardz.com/newz/nvidia-blackwell-gb203-gpu-to-feature-256-bit-bus-gb205-with-192-bit-claims-leaker
mikael84
12-03-2024, 13:52
Si ma, anche se fossero 28gbps e non 32, sarebbe comunque un salto decisamente importante dalle gddr6 attuali.
E' come se una 4060 ti con bus di 128 bit si ritrovasse una bandwith simile ad una scheda con 192 bit di bus e memorie gddr6. XD
Semmai il problema potrebbe essere la mancata tripla densità, che costringerebbe nuovamente a schede di fascia medio bassa con appunto 128 bit di bus ai soliti miseri 8gb di vram(o 16gb con un ipotetico clamshell). :rolleyes:
https://videocardz.com/newz/nvidia-blackwell-gb203-gpu-to-feature-256-bit-bus-gb205-with-192-bit-claims-leaker
Rispetto alle g6 il salto è grande, ma non tanto rispetto le g6x soprattutto x80 (23 vs 28).
Da quei rumour, si nota sempre più un distacco tra fascia x90 e x80, che sembrano ormai quasi slegarsi, come fascia pro vs gaming.
BL103 (x80) con 96 SM ( la metà), avrebbe 12288 cc @3,1 circa, ed appena 64mb di cache con 896 gb/s vs 736 della x80 super.
Salvo modifiche microarchitetturali serie, sarà poca roba.
Non che con ADA ci fosse questa discrepanza, AD103 anche qua è quasi la metà di AD102.
in fascia bassa le g7 coprono meglio, ma un 128bit girerebbe a 448gb/s e 32mb di cache e 8gb (16 clamshell), meno di una 4070 liscia.
OrazioOC
12-03-2024, 14:00
Rispetto alle g6 il salto è grande, ma non tanto rispetto le g6x soprattutto x80 (23 vs 28).
Da quei rumour, si nota sempre più un distacco tra fascia x90 e x80, che sembrano ormai quasi slegarsi, come fascia pro vs gaming.
BL103 (x80) con 96 SM ( la metà), avrebbe 12288 cc @3,1 circa, ed appena 64mb di cache con 896 gb/s vs 736 della x80 super.
Salvo modifiche microarchitetturali serie, sarà poca roba.
Non che con ADA ci fosse questa discrepanza, AD103 anche qua è quasi la metà di AD102.
in fascia bassa le g7 coprono meglio, ma un 128bit girerebbe a 448gb/s e 32mb di cache e 8gb (16 clamshell), meno di una 4070 liscia.
Dì Mike, è da TU102 che considero il chippone nvidia una fascia a sè.
Se n'è andato il brand titan(per il momento), ma comunque l'enthusiast Nvidia ha prezzi di listino da supercar delle gpu. :p
La prossima 5090, temo che sarà una scheda per veramente pochi gamers fortunati ma molti prosumers che con la gpu ci lavorano per davvero. :)
Il punto interrogativo a questo punto è la fascia medio/bassa tra gddr7 doppia densità e relativi tagli di vram sfigatelli. :(
Si vedrà con i prossimi rumors, ma senza tripla densità escluderei che ti propongano un chip simil 4070/3080 con soli 8GB.
Nel peggiore dei casi ripropongono il modello visto con Ampere, con 3060 12GB e 3060ti/3070ti con 8GB, ma anche in quel caso non è che faccia impazzire una GPU simil 4070 con 16GB e una simil 4080 con 12GB...
mikael84
12-03-2024, 15:56
Senza modifiche profonde alla microarchitettura, sembrano dei refresh di ADA su un 3nm, ne più ne meno, con l'integrazione delle g7.
Come dissi, di sicuro vedremmo una Rubin 6070/TI con 18gb e 32gb/s, ma con blackwell è ancora tutto incasinato per via di micron, ormai partner da tempo.
Penso che il mercato boccerebbe sonoramente schede da 5-600 euro con 8/12gb di ram, e farebbe benissimo.
Come dovrebbe aumentare sulla 5090, dovrebbe aumentare in parallelo pure su quelle minori, altrimenti è un casino.
Anche il rapporto banda-bus-cache, nonostante i 28gb/s è deficitario. Un 192bit si ritroverebbe 48mb con 672gb/s, ed abbiamo visto che già sulla 4070ti super è un mezzo schifo.
Molto sarà legato anche a RDNA5, il vero chip a 3nm con il 3die che debutterà in futuro, quindi non è escluso che venga rilasciato blando inizialmente, per poi refreshare in base a RDNA5.
In ogni caso, i costi stanno salendo molto, e si sta andando verso una spaccatura sempre più marcata. Ad oggi dopo un refresh, siamo arrivati a raschiare le rese e distruggere i PCB, per poter dare un 370mm2 demolito a 799.
Già come dicemmo in passato in relazione alla disponibilità delle GDDR7, se si rimane sulle GDDR6X o si propende per le GDDR7 senza tripla densità per forza di cose bisogna allargare i bus.
Quindi la x60 ritornerebbe a 192bit, x70 a 256bit e la x80 su 320bit, al più se si prospetta una 5090 su un 512bit e ad alta densità, immagino che anche gli scarti siano belli che consistenti, quindi non sarebbe neanche strano vedere chip totalmente demoliti a 448bit dal quale ricamarci ad hoc la 5080ti.
mikael84
12-03-2024, 16:59
Sempre che visto il 512bit, ed i requisiti dopi, non tiri fuori un MCM dual die, magari un dual 300mm2 circa. Considerando che dovrebbe debuttare pure con il chip HPC.
Cmq, sembrano i tempi dei primi monoliti, come la 8800GTX, dove la 8600GT/S furonno 1/4 il chippone. Idem il rapporto di ADA (1/4 di 144=36 /4608 AD106).
Mi aspetto una situazione analoga anche con blackwell. Potremmo ritrovarci l'ennesimo 5888cc x clock, su una 5060ti.
Quindi ancora 16gb con il binocolo...bene!
scaffale.
OrazioOC
13-03-2024, 08:13
scaffale.
Si a sto giro si, un'eventuale 5060 ti con 8gb di vram e performance iso 4070 sarebbe da scaffale per davvero. :rolleyes:
Già l'attuale 4060 ti 8gb nei minimi/avg fps di certi titoli(mal ottimizzati sia chiaro, ma sempre titoli attuali) perde qualcosa rispetto alla versione 16gb(scheda inutile visto il pessimo rapporto prezzo/prestazioni rispetto alle 4070/super), non oso immaginare cosa ci dovremmo ritrovare in gpu da 4/500 euro del 2026. :rolleyes:
Si a sto giro si, un'eventuale 5060 ti con 8gb di vram e performance iso 4070 sarebbe da scaffale per davvero. :rolleyes:
Già l'attuale 4060 ti 8gb nei minimi/avg fps di certi titoli(mal ottimizzati sia chiaro, ma sempre titoli attuali) perde qualcosa rispetto alla versione 16gb(scheda inutile visto il pessimo rapporto prezzo/prestazioni rispetto alle 4070/super), non oso immaginare cosa ci dovremmo ritrovare in gpu da 4/500 euro del 2026. :rolleyes:A sto giro passa, perché comunque il quantitativo di vram segue più o meno quello di ampere, anche la 4070 guadagna 2gb in più di 3080.
In relazione alla potenza sono abbastanza bilanciate, considerando che vanno anche leggermente meno di 3060ti/3070, semmai i prezzi di 4060/4060ti hanno sempre fatto storcere il naso.
Ma al prossimo giro uscirsene con una simil 4070/3080 con 8gb sarebbe non osceno ma di più sia a livello marketing che prestazionale.
Quindi le cose sono due o allargano i bus oppure dato che i mid chip arriveranno molto dopo, 2025 inoltrato, saranno quelli a beneficiare della tripla densità.
Inviato dal mio M2012K11AG utilizzando Tapatalk
OrazioOC
13-03-2024, 08:36
A sto giro passa, perché comunque il quantitativo di vram segue più o meno quello di ampere, anche la 4070 guadagna 2gb in più di 3080.
In relazione alla potenza sono abbastanza bilanciate, considerando che vanno anche leggermente meno di 3060ti/3070, semmai i prezzi di 4060/4060ti hanno sempre fatto storcere il naso.
Ma al prossimo giro uscirsene con una simil 4070/3080 con 8gb sarebbe non osceno ma di più sia a livello marketing che prestazionale.
Quindi le cose sono due o allargano i bus oppure dato che i mid chip arriveranno molto dopo, 2025 inoltrato, saranno quelli a beneficiare della tripla densità.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Passa ma neanche troppo, visto che la 4060 ti 16gb è figlia di lamentele e preoccupazioni(in parte giustificate) dell'utenza media sulla tenuta delle performance di una scheda che a listino sta comunque a 450 euro(come una ps5 standalone in pratica :p ).
Con Blackwell non devono manco pensarci di presentarsi con una gpu da 400 dollari e 8gb di vram nel 2026, lo spero per loro. :rolleyes:
Magari per la fascia più bassa, in eventuale assenza di moduli tripla densità, si andrà di clamshell, o anche di gddr6 ma bus più cicciotti(fare una 5060/ti con 192 bit di bus e 12gb gddr6, in pratica una 4070 super odierna ma con uarch Blackwell e consumi inferiori). :p
https://videocardz.com/newz/geforce-rtx-40-super-gpus-fall-below-msrp-in-germany
Ah le preoccupazioni di gennaio sull'eventualità di scalpers per questa gen, LMAO :asd:
a me una 5070 interesserebbe solo dai 15 in su
mikael84
13-03-2024, 11:57
Passa ma neanche troppo, visto che la 4060 ti 16gb è figlia di lamentele e preoccupazioni(in parte giustificate) dell'utenza media sulla tenuta delle performance di una scheda che a listino sta comunque a 450 euro(come una ps5 standalone in pratica :p ).
Con Blackwell non devono manco pensarci di presentarsi con una gpu da 400 dollari e 8gb di vram nel 2026, lo spero per loro. :rolleyes:
Magari per la fascia più bassa, in eventuale assenza di moduli tripla densità, si andrà di clamshell, o anche di gddr6 ma bus più cicciotti(fare una 5060/ti con 192 bit di bus e 12gb gddr6, in pratica una 4070 super odierna ma con uarch Blackwell e consumi inferiori). :p
https://videocardz.com/newz/geforce-rtx-40-super-gpus-fall-below-msrp-in-germany
Ah le preoccupazioni di gennaio sull'eventualità di scalpers per questa gen, LMAO :asd:
Cmq l'andazzo pare quello, X05 con 192bit e x06 con 128.
3 sono le strade:
-x70 clamshell da 24gb (non credo proprio)
-x70 da 12gb (probabile)
-x70 da 18gb (dipende da micron e da jhh visto che uscirà almeno a metà anno)
-x60 clamshell diretto.
X70 cmq, con 48mb di cache e 672 gb/s di banda, come la 4070ti super, non benissimo.
https://i.postimg.cc/L8kJWcBj/kopoite.png
Cmq bisogna vedere eventuali migliorie interne anche di cache, non l2, ma l1/file reg.
Cmq l'andazzo pare quello, X05 con 192bit e x06 con 128.
3 sono le strade:
-x70 clamshell da 24gb (non credo proprio)
-x70 da 12gb (probabile)
-x70 da 18gb (dipende da micron e da jhh visto che uscirà almeno a metà anno)
-x60 clamshell diretto.
X70 cmq, con 48mb di cache e 672 gb/s di banda, come la 4070ti super, non benissimo.
https://i.postimg.cc/L8kJWcBj/kopoite.png
Cmq bisogna vedere eventuali migliorie interne anche di cache, non l2, ma l1/file reg.
In questo stesso post kimi conferma che la x90 sarà a 512bit, secondo te Mikael, sarà davvero così? Certo che tra 512bit e GDDR7 la x90 sarà una bestia...
mikael84
13-03-2024, 12:47
In questo stesso post kimi conferma che la x90 sarà a 512bit, secondo te Mikael, sarà davvero così? Certo che tra 512bit e GDDR7 la x90 sarà una bestia...
Si, è possibile, considerando anche il ratio basso iniziale delle g7 di micron.
Un 512bit si porterebbe dietro 128mb di cache e 1,79 tb/s di banda (ovviamente la 5090 sarà un tantino smontata).
Una soluzione così, è perfetta anche per ambiti pro, dove saliresti a 32 e 64gb in clamshell.
Al momento pare che GB102 sia praticamente doppio, rispetto a GB103, il che non fa neppure escludere un MCM con 2 die, come il HPC, oppure una significativa scollatura tra chip elite e chip mid, derivante anche dagli ormai alti costi di produzione.
Non è da escludere un divario cosi grosso tra 5090 e 5080, considerando che in gaming non è detto che scali cosi bene e linearmente...
La 4090 nonostante abbia il 70% di cuda in più di 4080, alla fine il divario è decisamente molto meno marcato in gaming.
Se la 5090 introdurrà anche una struttura MCM, potrebbe iniziare a fare da apripista per la gen successiva, e avere anche rese migliori rispetto un chippone monolitico da oltre 600mm2.
Si a sto giro si, un'eventuale 5060 ti con 8gb di vram e performance iso 4070 sarebbe da scaffale per davvero. :rolleyes:
Già l'attuale 4060 ti 8gb nei minimi/avg fps di certi titoli(mal ottimizzati sia chiaro, ma sempre titoli attuali) perde qualcosa rispetto alla versione 16gb(scheda inutile visto il pessimo rapporto prezzo/prestazioni rispetto alle 4070/super), non oso immaginare cosa ci dovremmo ritrovare in gpu da 4/500 euro del 2026. :rolleyes:
Non e' che perde qualcosa, va proprio a scatti e stuttera moltissimo (A Plague's Tale a 1440 e' un esempio).
Purtroppo moltissime recensioni mostrano solo le medie e non i percentili o variazione frametime.
mikael84
13-03-2024, 15:25
Non è da escludere un divario cosi grosso tra 5090 e 5080, considerando che in gaming non è detto che scali cosi bene e linearmente...
La 4090 nonostante abbia il 70% di cuda in più di 4080, alla fine il divario è decisamente molto meno marcato in gaming.
Se la 5090 introdurrà anche una struttura MCM, potrebbe iniziare a fare da apripista per la gen successiva, e avere anche rese migliori rispetto un chippone monolitico da oltre 600mm2.
Uno dei problemi della 4090, sta sia nel software che nel gigathread, che non riesce a gestire tutti i GPC e le ALU. Stargli dietro è molto complesso, salvo calcoli ridonanti, una situazione già vista con le GCN.
Se avessimo 2 ampi scheduler in 2 die, sarebbe come pilotare 2 GPU da 6GPC.
Esempio: 2x 4080 da 9216cc.
Rispetto ad ADA, anche in monolitico e con gli stessi problemi, siamo sempre al 2x completo, immagina una 4090ti con 128mb di l2 e 512bit...
Chiaro anche la 5090 sarà tagliata, magari mantiene il bus, ma con 96mb di cache.
Alla base però, si parla solo di numeri, e mi voglio augurare che ci siano modifiche interne, di una 5080 con + 20 in cuda (che poi sarà cuttata) e + 15% in clock circa, non ci fai molto, rischi di non prendere neppure la 4090.
@mikael ma per le poche info che abbiamo il salto gen su gen con quale gen su gen lo paragoneresti (almeno per i due chip di punta serie 80 e 90)?
Il salto da 2000 => 3000 (piuttosto sostanzioso) o il salto 3000 => 4000 (meno sostanzioso ma comunque piu importante di 1000 => 2000).
E' realistico sperare in prezzi piu bassi nel caso che i gains vengano principalmente dai benefici di un nodo migliore che portera' solo a piu cores e frequenze piu elevate? (mi viene da pensare no, anche perche' il mercato ha finora premiato i prezzi sempre piu' alti continuando a comprare e in piu' ormai il focus per Nvidia e' tutto per AI enterprise).
Per la parte ML invece? Li sembra che Nvidia ci investa di piu' e che ci piaccia o no, la direzione e' quella di giocare con soluzioni come DLSS.
mikael84
14-03-2024, 15:54
@mikael ma per le poche info che abbiamo il salto gen su gen con quale gen su gen lo paragoneresti (almeno per i due chip di punta serie 80 e 90)?
Il salto da 2000 => 3000 (piuttosto sostanzioso) o il salto 3000 => 4000 (meno sostanzioso ma comunque piu importante di 1000 => 2000).
E' realistico sperare in prezzi piu bassi nel caso che i gains vengano principalmente dai benefici di un nodo migliore che portera' solo a piu cores e frequenze piu elevate? (mi viene da pensare no, anche perche' il mercato ha finora premiato i prezzi sempre piu' alti continuando a comprare e in piu' ormai il focus per Nvidia e' tutto per AI enterprise).
Troppi pochi dati per darti info un pelo accurate, ciò che manca è la probabile revisione microarchitetturale, poi che riguardi il file di reg o la l1 poco cambia.
Non avremmo sicuramente un salto epocale tipo 3090-4090 (che è pure un cut corposo), ma è più auspicabile un salto tipo turing-ampere.
Da turing ad ampere ci fu un aumento del 50% dei transistor e del 45-50% circa per fasce elite, e se restiamo su un 600mm2 ed oltre, pure qua è possibile trovarci con un +50% di transistor per mm2, considerando soprattutto per logica.
Tra 2080ti e 3090, abbiamo avuto un aumento del 75-78% flops, tra 3090 e 4090 ben 2,3x.
Con Blackwell, torneremmo a circa il 72-75% di flops sul big chip (però dobbiamo anche considerare il cut), quindi una situazione vicina a quella vista con Ampere, ma parliamo di dati 1:1, che a sto giro qualcosa dovranno sistemare.
Sotto, al momento poca cosa, si parla di BL203 (5080) con appena 12288 cc e probabilmente un +12-15% di clock.
5060ti che potrebbe tornare ad avere un 5888cc ed inserirsi in fascia x70-70super, e x70 che dovrebero inserirsi in zona x80.
Sui costi, beh, passiamo a 20k$ per wafer, ed al momento siamo arrivati a raschiare le rese di AD103 a 799$, con un chip distrutto.
Non sono molto fiduccioso, ma la speranza di vedere una like x80, a prezzi da x70 è il minimo.
Per la parte ML invece? Li sembra che Nvidia ci investa di piu' e che ci piaccia o no, la direzione e' quella di giocare con soluzioni come DLSS.
Il 18 marzo probabilmente presentano, o lanciano qualcosa sul chip HPC, e da li, si cominciano a vedere le migliorie lato tensor, che saranno portati anche sulle gaming, anche se con ratei dimezzati.
Per il resto, come dici, mi aspetto oltre ai tensor, delle OFA maggiorate e quindi tanta roba AI, da un nuovo DLSS, a delle migliorie date dagli OFA, visto che la presentazione penso sia dedicata al path tracing.
-x70 da 12gb (probabile)
-x70 da 18gb (dipende da micron e da jhh visto che uscirà almeno a metà anno)
Probabilmente saranno la 5070 liscia e la 5070ti/s. La prima nel 2025 ribadisco, è da scaffale. 12GB non bastano neanche oggi.
nagashadow
15-03-2024, 05:50
Si ipotizzano già i prezzi per una 5080?
mikael84
15-03-2024, 12:31
Probabilmente saranno la 5070 liscia e la 5070ti/s. La prima nel 2025 ribadisco, è da scaffale. 12GB non bastano neanche oggi.
Certo, 12gb su schede che costeranno dalle 6 alle 800 euro, nel 2025 non è il massimo. L'unica speranza è l'uso della tripla densità, con 18gb, e nel caso fare un modello liscio da 15gb, anche se si porterebbe dietro un 160bit.
Si ipotizzano già i prezzi per una 5080?
No, quelli li comunicherà JHH alla presentazione.
fraussantin
15-03-2024, 13:08
Si ipotizzano già i prezzi per una 5080?Ovviamente nessuno sa niente , e dopo la virata in basso con le super , nvidia che è ormai concorrente di se stessa , potrebbe sorprendere almeno sui prodotti in fascia medio alta.
La 5090 , sempre supposizioni , costerà uno stonfo
mikael84
15-03-2024, 13:25
Ovviamente nessuno sa niente , e dopo la virata in basso con le super , nvidia che è ormai concorrente di se stessa , potrebbe sorprendere almeno sui prodotti in fascia medio alta.
La 5090 , sempre supposizioni , costerà uno stonfo
Sotto la 5090, sembrano aggiornamenti di lovelace a 3nm , salvo non tiri fuori un maxwell 2.0. Proprio da l'era maxwell potrebbero raddoppiare le rop's, quindi 5080= 192 rop's.
Dai soli numeri, sembra una 5080 like 4090, speriamo almeno a 999.
Probabilmente ha fatto questa scelta, sia per spingere lato pro, con i 32gb, sia per rientrare nel limite TPP imposto alla cina, altrimenti la 5080 non potrebbe vendere, e per rimanere in die abbordabili in rapporto costo/margine.
Con la 5090 invece può sbizzarrirsi.
fraussantin
15-03-2024, 14:21
Sotto la 5090, sembrano aggiornamenti di lovelace a 3nm , salvo non tiri fuori un maxwell 2.0. Proprio da l'era maxwell potrebbero raddoppiare le rop's, quindi 5080= 192 rop's.
Dai soli numeri, sembra una 5080 like 4090, speriamo almeno a 999.
Probabilmente ha fatto questa scelta, sia per spingere lato pro, con i 32gb, sia per rientrare nel limite TPP imposto alla cina, altrimenti la 5080 non potrebbe vendere, e per rimanere in die abbordabili in rapporto costo/margine.
Con la 5090 invece può sbizzarrirsi.Si tutto dipenderà da quante ada gli rimarrano da vendere al lancio .
albero77
15-03-2024, 14:27
Ovviamente nessuno sa niente , e dopo la virata in basso con le super , nvidia che è ormai concorrente di se stessa , potrebbe sorprendere almeno sui prodotti in fascia medio alta.
La 5090 , sempre supposizioni , costerà uno stonfo
Mi sa che si salta la prossima gen a piè pari, le follie in quanto tali si fanno una volta ogni tanto, direi che a follie stiamo bene per un pò. Poi trovo singolare come già da adesso si presume che ci saranno problemi di approvvigionamento
https://tech.everyeye.it/notizie/nvidia-rtx-50-poche-unita-lancio-azienda-prevede-shortage-701462.html
Mi sa che si salta la prossima gen a piè pari, le follie in quanto tali si fanno una volta ogni tanto, direi che a follie stiamo bene per un pò. Poi trovo singolare come già da adesso si presume che ci saranno problemi di approvvigionamento
https://tech.everyeye.it/notizie/nvidia-rtx-50-poche-unita-lancio-azienda-prevede-shortage-701462.html
Beh ora hanno ordini a non finire per data center, nell'ultimo bilancio il gaming era a malapena il 12/13% del fatturato (meno di 3 miliardi su 22 miliardi di fatturato). Nonostante il gaming fosse in crescita rispetto all'anno prima.
Data center e' schizzata a 18 miliardi e li hanno margini astronomici, non come nel gaming dove su ogni gpu guadagnano "solo" il 50/60%...
E' lecito aspettarsi che daranno priorita' ai chip per data center dove avranno margini di 2/3/4x.
albero77
15-03-2024, 14:53
Beh ora hanno ordini a non finire per data center, nell'ultimo bilancio il gaming era a malapena il 12/13% del fatturato (meno di 3 miliardi su 22 miliardi di fatturato). Nonostante il gaming fosse in crescita rispetto all'anno prima.
Data center e' schizzata a 18 miliardi e li hanno margini astronomici, non come nel gaming dove su ogni gpu guadagnano "solo" il 50/60%...
E' lecito aspettarsi che daranno priorita' ai chip per data center dove avranno margini di 2/3/4x.
Chiaro, ma stanno già iniziando a delineare un percorso piuttosto chiaro, la priorità non è il gaming. Sono molto curioso però di sapere cosa si inventeranno per vendere un altro mattone da 2k minimo, ormai non si torna più indietro da quelle cifre...
Mi sa che si salta la prossima gen a piè pari, le follie in quanto tali si fanno una volta ogni tanto, direi che a follie stiamo bene per un pò.
Dai che una follia ogni due anni e mezzo si può fare :D :D :D .
Io sicuramente il solito tentativo sullo shop Nvidia alle 15 di quel giovedì me lo farò.
Di solito la riesco sempre a prendere.
mikael84
15-03-2024, 15:44
Mi sa che si salta la prossima gen a piè pari, le follie in quanto tali si fanno una volta ogni tanto, direi che a follie stiamo bene per un pò. Poi trovo singolare come già da adesso si presume che ci saranno problemi di approvvigionamento
https://tech.everyeye.it/notizie/nvidia-rtx-50-poche-unita-lancio-azienda-prevede-shortage-701462.html
Beh, i 3nm nvidia li destinerà inizialmente tutti al datacenter, poi lancerà l'ammiraglia e qualche briciola man mano. AMD inizialmente userà i 4nmP per RDNA4 e non i 3, con zen, è molto probabile l'utilizzo dei 4nm, e 3nm solo per l'HEDT più avanti.
Intel invece, su battlemage, dovrebbe anch'essa utilizzare i 4nmP, ma utilizzerà anche i 3nm per completare arrow.
Nei chip per datacenter, i wafer li polverizzi, chip giganteschi vicini al reticolato, in più se si spingono al MCM a 2die, wafer noi ne vedremmo pochi.
Nel 2025 Apple si sposterà sui 2nm lisci, ed allora la situazione cambierà qualcosa, anche se nvidia, almeno inizialmente avrà troppa richiesta datacenter, e dovrà smaltire ADA.
Mi sa che si salta la prossima gen a piè pari, le follie in quanto tali si fanno una volta ogni tanto, direi che a follie stiamo bene per un pò. Poi trovo singolare come già da adesso si presume che ci saranno problemi di approvvigionamento
https://tech.everyeye.it/notizie/nvidia-rtx-50-poche-unita-lancio-azienda-prevede-shortage-701462.html
Personalmente mi tengo stretto la 4090 fino alle 6000.
Se ad oggi è difficile per le cpu sfruttare per bene una 4090 figuriamoci la 5090. :D
Tanto i videogiochi vengono progettati partendo dalle console :asd:
Io sto seriamente aspettando una 5070/5080 ma se l'andazzo è questo la 3080ti mi sa che dovrà ancora lavorare per molto.
Con il dlss in 2k va da Dio, mi piacerebbe però fare qualche altro bench, unico vero motivo per cui farei un upgrade
fraussantin
16-03-2024, 13:53
Io sto seriamente aspettando una 5070/5080 ma se l'andazzo è questo la 3080ti mi sa che dovrà ancora lavorare per molto.
Con il dlss in 2k va da Dio, mi piacerebbe però fare qualche altro bench, unico vero motivo per cui farei un upgradeVisto come ha risposto il mercato alle 4080 super non penso ci saranno prezzi migliori di questi.
Cmq una 5080 che raggiunge e supera una 4090 a.1000 dollari sarebbe una buona proposta.
Amd si sa giá cosa ha in cantiere?
A64FX+DFI nF4
16-03-2024, 14:15
Visto come ha risposto il mercato alle 4080 super non penso ci saranno prezzi migliori di questi.
Cmq una 5080 che raggiunge e supera una 4090 a.1000 dollari sarebbe una buona proposta.
Amd si sa giá cosa ha in cantiere?
rumor indicano niente fascia enthusiast, forse nemmeno fascia alta, quindi nvidia farà i prezzi che vuole come al solito
Cutter90
16-03-2024, 18:53
Amd sarà meglio che inizi a fare sul serio anche con sto FSR....
https://youtu.be/CbJYtixMUgI
Il lato più preoccupante è che da novembre 2022 zero update a FSR. La versione 3.0 è identica alla 2.2. Ha gli stessi visibili problemi.
fraussantin
16-03-2024, 18:55
Amd sarà meglio che inizi a fare sul serio anche con sto FSR....
https://youtu.be/CbJYtixMUgI
Il lato più preoccupante è che da novembre 2022 zero update a FSR. La versione 3.0 è identica alla 2.2. Ha gli stessi visibili problemi.Vedremo quello di microsoft come andrà .
Magari sarà universale
OrazioOC
16-03-2024, 19:01
Vedremo quello di microsoft come andrà .
Magari sarà universale
This, io spero che microsoft dopo essersela dormita della grossa per anni, arrivi con uno standard che possa riconciliare dlss+fsr+XeSS e uniformare un attimino queste 3 tecniche.
Anche perchè è vero che FSR non è sempre ottimo, ma gira un po' su tutte le gpu odierne, mentre il dlss è già un attimino più esclusivo(il 3 poi è rtx 4000 only :rolleyes: ).
L'intel XeSS l'ho visto solo su cod mw2022 e non mi è sembrato fare miracoli rispetto all'fsr. :p
amon.akira
16-03-2024, 20:04
This, io spero che microsoft dopo essersela dormita della grossa per anni, arrivi con uno standard che possa riconciliare dlss+fsr+XeSS e uniformare un attimino queste 3 tecniche.
Anche perchè è vero che FSR non è sempre ottimo, ma gira un po' su tutte le gpu odierne, mentre il dlss è già un attimino più esclusivo(il 3 poi è rtx 4000 only :rolleyes: ).
L'intel XeSS l'ho visto solo su cod mw2022 e non mi è sembrato fare miracoli rispetto all'fsr. :p
il dlss upscaler fino alla sua ultima versione 3.5.10 è supportato da tutte le rtx, nvidia ha fatto una gran confusione racchiudendo l intero pacchetto di features con lo stesso nome dell upscaler...dlss3 (con frame generation) e dlss3.5 (con ray reconstruction)
fraussantin
16-03-2024, 20:15
This, io spero che microsoft dopo essersela dormita della grossa per anni, arrivi con uno standard che possa riconciliare dlss+fsr+XeSS e uniformare un attimino queste 3 tecniche.
Anche perchè è vero che FSR non è sempre ottimo, ma gira un po' su tutte le gpu odierne, mentre il dlss è già un attimino più esclusivo(il 3 poi è rtx 4000 only :rolleyes: ).
L'intel XeSS l'ho visto solo su cod mw2022 e non mi è sembrato fare miracoli rispetto all'fsr. :pSarebbe anche sufficente che sostituisca fsr e xess rendendoli universali per tutte. ( Ma con i soldi e la tecnologia di microsoft in pochi anni potrebbe diventare notevole)
Poi il dlss\dlaa che funziona in modo "proprietario" difficilmente potrà essere rimpiazzato, ma rimarrebbe un alternativa plus er i giochi che l l'avranno.
il dlss upscaler fino alla sua ultima versione 3.5.10 è supportato da tutte le rtx, nvidia ha fatto una gran confusione racchiudendo l intero pacchetto di features con lo stesso nome dell upscaler...dlss3 (con frame generation) e dlss3.5 (con ray reconstruction)
Ormai la gente ha in testa la parola dlss e puntano su quello. È Certo che RR e FG con la siglia dlss non hanno niente a che fare
Ma è banalmente marketing
E il markwting è indirizzato sempre all'utenza che non è troppo informata su cosa sia una cosa l'altra.
amon.akira
16-03-2024, 20:22
Ormai la gente ha in testa la parola dlss e puntano su quello. È Certo che RR e FG con la siglia dlss non hanno niente a che fare
Ma è banalmente marketing
E il markwting è indirizzato sempre all'utenza che non è troppo informata su cosa sia una cosa l'altra.
poi ti ritrovi situazioni in cui dici il dlss3 (fg) non è supportato dalle vecchie ma il 3.5 (rr) si, e dici what?!.... :doh:
Cutter90
17-03-2024, 08:33
This, io spero che microsoft dopo essersela dormita della grossa per anni, arrivi con uno standard che possa riconciliare dlss+fsr+XeSS e uniformare un attimino queste 3 tecniche.
Anche perchè è vero che FSR non è sempre ottimo, ma gira un po' su tutte le gpu odierne, mentre il dlss è già un attimino più esclusivo(il 3 poi è rtx 4000 only :rolleyes: ).
L'intel XeSS l'ho visto solo su cod mw2022 e non mi è sembrato fare miracoli rispetto all'fsr. :p
Per me il problema principale non è se è supportato su tutte le gpu ma se "vale la pena usarlo".
Perché se alla fine la qualità grafica che restituisce è più o meno come un upscalere "normale" tipo un TAAU o un TSR (che mi piacerebbe vedere all opera anche se esclusiva UE5) cosa serve?
È come il FG amd: non é esclusiva hardware poi quando lo vai ad usare ha problemi anche grandi alle volte che lo rendono inutilizzabile.
fraussantin
17-03-2024, 08:46
Per me il problema principale non è se è supportato su tutte le gpu ma se "vale la pena usarlo".
Perché se alla fine la qualità grafica che restituisce è più o meno come un upscalere "normale" tipo un TAAU o un TSR (che mi piacerebbe vedere all opera anche se esclusiva UE5) cosa serve?
È come il FG amd: non é esclusiva hardware poi quando lo vai ad usare ha problemi anche grandi alle volte che lo rendono inutilizzabile.Allora la qualità del dlss è data da 2 cose , dai tensor core e dal lavoro lato IA che nvidia ha fatto con i suoi datacenter.
È naturale che nvidia avrà questi 2 vantaggi .
Ma microsoft ha soldi e non è detto che con il tempo riesca a raggiungere la qualità del dlss.
Magari non alla prossima gen , ma fra 2 averci un filtro ottimo per tutti i giochi.
Nel frattempo nvidia si sarà invetato altro. Del resto è da sempre che funziona cosí.
Però se un gioco non ha dlss , poer qualcos'altro non è cmq male.
OrazioOC
17-03-2024, 09:33
il dlss upscaler fino alla sua ultima versione 3.5.10 è supportato da tutte le rtx, nvidia ha fatto una gran confusione racchiudendo l intero pacchetto di features con lo stesso nome dell upscaler...dlss3 (con frame generation) e dlss3.5 (con ray reconstruction)
C'hai ragione infatti, anche se io intendevo il DLSS+FG by Jensen, visto che ha fatto un solco non solo tra le gtx e rtx per il supporto al super sampling, ma pure tra le gen rtx in fatto di adozione del FG+Super Sampling.:)
poi ti ritrovi situazioni in cui dici il dlss3 (fg) non è supportato dalle vecchie ma il 3.5 (rr) si, e dici what?!.... :doh:
Jensen being Jensen. :asd:
Sarebbe anche sufficente che sostituisca fsr e xess rendendoli universali per tutte. ( Ma con i soldi e la tecnologia di microsoft in pochi anni potrebbe diventare notevole)
Poi il dlss\dlaa che funziona in modo "proprietario" difficilmente potrà essere rimpiazzato, ma rimarrebbe un alternativa plus er i giochi che l l'avranno.
Sostituirli non sò, per me all'inizio si affiancherà alle attuali soluzioni, però se prenderà piede e sarà implementato a dovere, perchè no in futuro. :)
Per me il problema principale non è se è supportato su tutte le gpu ma se "vale la pena usarlo".
Perché se alla fine la qualità grafica che restituisce è più o meno come un upscalere "normale" tipo un TAAU o un TSR (che mi piacerebbe vedere all opera anche se esclusiva UE5) cosa serve?
È come il FG amd: non é esclusiva hardware poi quando lo vai ad usare ha problemi anche grandi alle volte che lo rendono inutilizzabile.
Dipende sempre da come lo hanno implementato, onestamente l'fsr su titoli come cod l'ho trovato ok.
Poi per carità, sono tutte tecniche di super sampling, l'obiettivo è sempre guadagnare qualche fps rinunciando il meno possibile alla qualità grafica. :)
OrazioOC
17-03-2024, 17:12
https://videocardz.com/newz/nvidia-blackwell-b100-to-feature-2-dies-and-192gb-of-hbm3e-memory-b200-with-288gb
A sto giro Jensen ci è andato giù pesantello. :asd:
mikael84
17-03-2024, 18:04
https://videocardz.com/newz/nvidia-blackwell-b100-to-feature-2-dies-and-192gb-of-hbm3e-memory-b200-with-288gb
A sto giro Jensen ci è andato giù pesantello. :asd:
Merito delle HBM, che sono abissalmente in vantaggio vs le DDR.
Oltre alla banda, gli stack, saranno inizialmente da 24, poi 36gb, su un 8196bit (in complessità è equivalente al 512bit DDR, ma con ben altri risultati).
Se prendessimo una 4060/ti con la stessa complessità in HBM3 (neppure la e), verrebbe fuori una GPU da 48gb con 1,433 TB/S, mediamente lo stesso die, prezzo un pò più elevato.:asd:
Mentre le DDR7 porteranno la tripla, le HBM3e passeranno a 36gb.:asd:
Visto come ha risposto il mercato alle 4080 super non penso ci saranno prezzi migliori di questi.
Cmq una 5080 che raggiunge e supera una 4090 a.1000 dollari sarebbe una buona proposta.
Amd si sa giá cosa ha in cantiere?
bello fantasticare, ma a quella cifra ci troverai con molta probabilità una 5070Ti, ormai la strada è spianata da tutti quelli che han preso le 4xxx
fraussantin
17-03-2024, 18:33
bello fantasticare, ma a quella cifra ci troverai con molta probabilità una 5070Ti, ormai la strada è spianata da tutti quelli che han preso le 4xxxLa strada l'hanno spianata quelli che compravano le 3080 a 1500 euro in pandemia.
Quello ha fatto capire che il mercato è disposto a pagare un oggetto che vuole.
mikael84
17-03-2024, 19:24
Con il refresh, la situazione è migliorata, se non ci fissiamo alle sole sigle. Sicuramente con Black si ripeterà quanto visto con ADA, considerando i chip per datacenter e le ADA da smaltire. Non solo, AMD al momento risponderà solo in mid con RDNA4 e con RDNA5 3nm, ancora da destinarsi.
fraussantin
17-03-2024, 19:26
Con il refresh, la situazione è migliorata, se non ci fissiamo alle sole sigle. Sicuramente con Black si ripeterà quanto visto con ADA, considerando i chip per datacenter e le ADA da smaltire. Non solo, AMD al momento risponderà solo in mid con RDNA4 e con RDNA5 3nm, ancora da destinarsi.Ma rtx IO è quella feature nuova che riguardava il dlss o è un altra cosa,
mikael84
17-03-2024, 19:30
Ma rtx IO è quella feature nuova che riguardava il dlss o è un altra cosa,
Directstorage
fraussantin
17-03-2024, 20:25
DirectstorageAhh , praticamente va a pescare direttamente sul disco la roba passando solo per I\O della cou .
Cmq sembra utile.
caccapupu91
17-03-2024, 22:11
oh, quindi c'è il lontano rischio di vedere una 5090 con hbm da 2500 euro? :asd:
oh, quindi c'è il lontano rischio di vedere una 5090 con hbm da 2500 euro? :asd:
A sto punto che facciano Nvidia Bank e che non se ne parli più, ci accrediti lo stipendio e ti mandano la Vga a casa prenotandola via home banking e si prendono le rate in automatico.
Se lo fanno ci sto, ma voglio gli estratti conto in PDF3d con path tracing :O
fraussantin
18-03-2024, 08:56
oh, quindi c'è il lontano rischio di vedere una 5090 con hbm da 2500 euro? :asd:Non penso proprio che metteranno le hbm sulle gaming.
Ci saranno le ddr7 quando ci saranno.
Specialmente se amd uscirà con una scheda alla pari della 4090 max .
Specialmente se amd uscirà con una scheda alla pari della 4090 max .
Tu ci credi? Io non credo proprio, se già adesso faticano ad andare in pari con la 4080 figurati se riescono a prendere la 4090 che è su un altro pianeta come prestazioni....
La top della prossima generazione AMD sarà ancora sotto alla 4090 attuale.
Predator_1982
18-03-2024, 09:49
La top della prossima generazione AMD sarà ancora sotto alla 4090 attuale.
In RT molto probabile, in raster forse no. Comunque per quanto in generale mi piacciano più le verdi, spero invece tirino fuori un prodotto iper competitivo che possa contribuire a tirar giù un attimo i prezzi…(anche se poi si sa fan pure cartello)
Dai monopoli prestazionali meglio star lontani
fraussantin
18-03-2024, 09:50
Tu ci credi? Io non credo proprio, se già adesso faticano ad andare in pari con la 4080 figurati se riescono a prendere la 4090 che è su un altro pianeta come prestazioni....
La top della prossima generazione AMD sarà ancora sotto alla 4090 attuale.
sarebbe un fiasco totale se non fanno almeno un chip leggermente migliore della xtx che senso hanno?
rt a parte era sottinteso
carloUba
18-03-2024, 10:03
sarebbe un fiasco totale se non fanno almeno un chip leggermente migliore della xtx che senso hanno?
rt a parte era sottinteso
Ma non era stata la stessa AMD a dire che non avrebbero puntato al top di gamma nella prossima generazione? O era questa?
sarebbe un fiasco totale se non fanno almeno un chip leggermente migliore della xtx che senso hanno?
rt a parte era sottinteso
Io sarei la persona più felice del mondo se AMD partecipasse alla competizione delle top di gamma ma purtroppo per farlo ci vogliono soldi, ricerca e investimenti che allo stato attuale solo Nvidia può permettersi. Per risponderti anche sulla questione salto generazionale si veda la differenza davvero minima tra serie 6000 e 7000 AMD, ciò porterà a mio parere ad avere una serie 8000 AMD vicina ma sempre inferiore alla 4090.
Per quanto riguarda me, io come ho già detto, prenderò o tenterò di prendere :D :D :D la 5090 all'uscita ma mai come questa volta sarà un acquisto di sfizio più che di necessità visto che la potenza della 4090 tiene ancora a bada tutto ciò che esce.
Sinceramente già se tira fuori qualcosa che compete sia in render che RT con x80, direi che siamo a cavallo...
Il target della x90 non é così essenziale considerati i costi in ballo, già la x80 a mio parere é arrivata a cifre assurde per una scheda da gaming...
Discorso simile anche per Intel, che per ora é ferma al range di prestazioni di una 3060ti, tra l'altro con diverse fluttuazioni, ed urge qualcosa di più performante.
Comunque sulla fascia media amd sta offrendo dei bei chip, la 7700xt al prezzo della 4060ti é decisamente più interessante e anche la 7800xt e 7900gre al prezzo della 4070 liscia pure non sono da meno.
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
18-03-2024, 10:29
Io sarei la persona più felice del mondo se AMD partecipasse alla competizione delle top di gamma ma purtroppo per farlo ci vogliono soldi, ricerca e investimenti che allo stato attuale solo Nvidia può permettersi. Per risponderti anche sulla questione salto generazionale si veda la differenza davvero minima tra serie 6000 e 7000 AMD, ciò porterà a mio parere ad avere una serie 8000 AMD vicina ma sempre inferiore alla 4090.
Per quanto riguarda me, io come ho già detto, prenderò o tenterò di prendere :D :D :D la 5090 all'uscita ma mai come questa volta sarà un acquisto di sfizio più che di necessità visto che la potenza della 4090 tiene ancora a bada tutto ciò che esce.
ma la 4090 non sarò piu la top di gamma diventerà fascia alta like 5080 almeno quella amd deve prenderla senno fa meglio a smettere
DarkNiko
18-03-2024, 10:44
Lasciando perdere la diatriba AMD vs NVidia, il problema non è tanto il mettere i soldi sul piatto per sfornare qualcosa di buono, quanto il fatto che tecnologicamente il divario non è facilmente colmabile a meno di giochi di prestigio dal cilindro.
Premesso ciò, secondo me si vuole distogliere l'attenzione da un problema serio e concreto e il problema è cosa si inventeranno dopo il ray tracing?
Focalizzerei qui l'attenzione perché in 4K la 4090 riesce a far girare tutto a 60 fps che rappresenta la soglia ideale di fluidità. Qualcuno potrebbe dirmi che col suo monitor a 120/144/165 Hz (e chi più ne ha più ne metta), in 4K la 4090 non garantisce sempre un framerate pari al proprio refresh e che servirà, inevitabilmente, più potenza, ma è l'unica giustificazione (fino a un certo punto) per preferire una nuova top di gamma.
Sul piano delle "trovate tecnologiche" non vedo nulla di così rivoluzionario che possa offrire Blackwell rispetto ad Ada Lovelace.
Sinceramente a questo giro credo che sarà senza dubbio esclusivamente uno sfizio o il classico esercizio di stile, ma naturalmente sarò ben contento di essere smentito. :)
fraussantin
18-03-2024, 10:53
Premesso ciò, secondo me si vuole distogliere l'attenzione da un problema serio e concreto e il problema è cosa si inventeranno dopo il ray tracing?
il ray tracing è solo agli inizi , se lo applichi a dovere con un numero alto di raggi e relativi riflessi ai voglia ad averci potenza.
Cutter90
18-03-2024, 11:03
Lasciando perdere la diatriba AMD vs NVidia, il problema non è tanto il mettere i soldi sul piatto per sfornare qualcosa di buono, quanto il fatto che tecnologicamente il divario non è facilmente colmabile a meno di giochi di prestigio dal cilindro.
Premesso ciò, secondo me si vuole distogliere l'attenzione da un problema serio e concreto e il problema è cosa si inventeranno dopo il ray tracing?
Focalizzerei qui l'attenzione perché in 4K la 4090 riesce a far girare tutto a 60 fps che rappresenta la soglia ideale di fluidità. Qualcuno potrebbe dirmi che col suo monitor a 120/144/165 Hz (e chi più ne ha più ne metta), in 4K la 4090 non garantisce sempre un framerate pari al proprio refresh e che servirà, inevitabilmente, più potenza, ma è l'unica giustificazione (fino a un certo punto) per preferire una nuova top di gamma.
Sul piano delle "trovate tecnologiche" non vedo nulla di così rivoluzionario che possa offrire Blackwell rispetto ad Ada Lovelace.
Sinceramente a questo giro credo che sarà senza dubbio esclusivamente uno sfizio o il classico esercizio di stile, ma naturalmente sarò ben contento di essere smentito. :)
Come detto il problema è che nvidia va al doppio delle possibilità del software. Le sh devono darsi una svegliata e iniziare a programmare giochi tecnicamente all'avanguardia. Ma i costi folli (incomprensibili) e la mancanza di tecniche sullo sviluppo migliore di un videogioco rallentano tantissimo il software.
Il RT è una tecnica che ancora le sh faticano ad un usare, nonostante sia fuori da anni.
Personalmente vorrei vedere un step sul versante fisico, troppo trascurato da anni. Ma la fisica non scala bene come il resto e soprattutto non vende come il resto.
Giorni fa feci una riflessione molto "pessimista". Siamo fermi lato tecnico da anni, per tanti motivi. E la situazione non è destinata a migliorare.
Come detto il problema è che nvidia va al doppio delle possibilità del software. Le sh devono darsi una svegliata e iniziare a programmare giochi tecnicamente all'avanguardia. Ma i costi folli (incomprensibili) e la mancanza di tecniche sullo sviluppo migliore di un videogioco rallentano tantissimo il software.
Il RT è una tecnica che ancora le sh faticano ad un usare, nonostante sia fuori da anni.
Personalmente vorrei vedere un step sul versante fisico, troppo trascurato da anni. Ma la fisica non scala bene come il resto e soprattutto non vende come il resto.
Giorni fa feci una riflessione molto "pessimista". Siamo fermi lato tecnico da anni, per tanti motivi. E la situazione non è destinata a migliorare.
Secondo me sei cieco se non vedi che balzo tecnologico in avanti e' il path tracing. Nonostante nessuno dei giochi fosse stato concepito direttamente per quell'utilizzo.
Non sono affatto d'accordo che il problema sia solo lato software, anzi, per quello che davvero serve per giochi graficamente piu' impressionanti e' la simulazione della luce, ergo path/ray tracing. E quelli implementati a modo piegano anche una 4090.
Quindi cosa dovrebbero fare le software house, se i guadagni veri richiedono una potenza non disponibile nemmeno per chi spende cifre insensate in GPU?
Memoria, texture, numero di poligoni, nulla di tutto cio' e' un problema grande da tante generazioni di GPU. La simulazione della luce e' un problema enorme.
Il mongo della grafica dei giochi si e' evoluto molto lentamente da Crysis al 2020, ci sono stati vari giochi che hanno alzato l'asticella, ma ben pochi che ti abbiano dato la sensazione di salti di generazioni.
Cutter90
18-03-2024, 11:18
Secondo me sei cieco se non vedi che balzo tecnologico in avanti e' il path tracing.
Non sono affatto d'accordo che il problema sia solo lato software, anzi, per quello che davvero serve per giochi graficamente piu' impressionanti e' la simulazione della luce, ergo path/ray tracing. E quelli implementati a modo piegano anche una 4090.
Quindi cosa dovrebbero fare le software house, se i guadagni veri richiedono una potenza non disponibile nemmeno per chi spende cifre insensate in GPU?
Memoria, texture, numero di poligoni, nulla di tutto cio' e' un problema grande da tante generazioni di GPU. La simulazione della luce e' un problema enorme.
Il mongo della grafica dei giochi si e' evoluto molto lentamente da Crysis al 2020, ci sono stati vari giochi che hanno alzato l'asticella, ma ben pochi che ti abbiano dato la sensazione di salti di generazioni.
Secondo me non hai capito. Lo so benissimo cos'è il path tracing (sono uno dei più grandi fautori, nonchè utilizzatori, visto il mio hardware) e quanto impatti graficamente. Il problema è che le SH non lo implementano. La potenza disponibile c'è già ora con il dlss e i giochi già ora possono tranquillamente implementarlo. Le dimostrazioni sono cp 2077 e aW2. Il path tracing c'è e gira benissimo nelle varie configurazioni di questa gen nvidia. Quindi non c'è nessun problema di potenza. C'è un problema che le SH vogliono guadagnare, hanno spese insensate e sono incapaci/pigre.
Poi nella seconda parte confermi quello che ho detto io: ossia che lato tecnico siamo fermi da anni. E negli utilimissimi anni poi si è rallentato ancora.
Secondo me non hai capito. Lo so benissimo cos'è il path tracing (sono uno dei più grandi fautori, nonchè utilizzatori, visto il mio hardware) e quanto impatti graficamente. Il problema è che le SH non lo implementano. La potenza disponibile c'è già ora con il dlss e i giochi già ora possono tranquillamente implementarlo. Le dimostrazioni sono cp 2077 e aW2. Il path tracing c'è e gira benissimo nelle varie configurazioni di questa gen nvidia. Quindi non c'è nessun problema di potenza. C'è un problema che le SH vogliono guadagnare, hanno spese insensate e sono incapaci/pigre.
Poi nella seconda parte confermi quello che ho detto io: ossia che lato tecnico siamo fermi da anni. E negli utilimissimi anni poi si è rallentato ancora.
Ma se ad una gpu da quasi 1000 euro come la 4070ti path tracing lo puoi usare solo a 1080p e necessiti di dlss e frame gen.
Gpu da 1000 euro!
Per chi dovrebbero implementare queste tecnologie? Il 0,5% dei gamer quando gia' le gpu top di gamma soffre a risoluzioni del 2008?
Non si tratta di pigrizia, si tratta di risorse. Non e' un caso che PT sia stato implementato a spese di Nvidia per motivi promozionali. Ma ce ne passera' di tempo prima che abbia senso per la gran parte degli sviluppatori.
Finche' prestazioni da 4090 non saranno disponibili in fascia media (non la prossima gen, ma quella dopo, cosi come la 3060ti e' piu veloce della 1080ti) non vedremo un ampia adozione di queste tecnologie.
Probabilmente allora parleremo anche di ps6 e prossima xbox (almeno 4 anni) e questo aiutera'. Perche' il salto da ps3 a ps5 e' stato principalmente di risoluzioni e framerate che non di qualita'.
mikael84
18-03-2024, 11:37
oh, quindi c'è il lontano rischio di vedere una 5090 con hbm da 2500 euro? :asd:
Le HBM le avrà il chip HPC, che presenteranno oggi, il post Hopper. Anche AMD ha CDNAMI300 con 128/192gb di ram HBM.
Non penso proprio che metteranno le hbm sulle gaming.
Ci saranno le ddr7 quando ci saranno.
Specialmente se amd uscirà con una scheda alla pari della 4090 max .
Tu ci credi? Io non credo proprio, se già adesso faticano ad andare in pari con la 4080 figurati se riescono a prendere la 4090 che è su un altro pianeta come prestazioni....
La top della prossima generazione AMD sarà ancora sotto alla 4090 attuale.
Allora, inizialmente AMD non userà i 3nm, ma i 4nmP, quindi dovrebbe produrre chip di fascia media monolitici, e di conseguenza non competterà con le top Blakcwell, ma con le mid.
Ha un progetto a 3 die, che probabilmente userà con i 3nm più avanti RDNA5.
Al momento si limita a fare l'intel, dove anch'essa utilizzerà i 4nm.
Con RDNA4, pare che AMD si allinei a Lovelace e Intel, utilizzando finalmente pipeline per il BVH e ser, quindi dovrebbe fare un balzo lato RT.
mikael84
18-03-2024, 11:51
In RT molto probabile, in raster forse no. Comunque per quanto in generale mi piacciano più le verdi, spero invece tirino fuori un prodotto iper competitivo che possa contribuire a tirar giù un attimo i prezzi…(anche se poi si sa fan pure cartello)
Dai monopoli prestazionali meglio star lontani
Mah, ormai AMD non riesce a stare al passo, e si accoda ad nvidia. Anzi, paradossalmente in fascia alta è il monopolista ad avere offerte migliori, vedi la 4080 super prezzata come la 7900xtx, o la 4070ti super come la 7900xt, schede a 360° nettamente migliori. AMD di queste offre solo il raster alla pari e te le fa pagare uguali.
L'unico modo per abbassare i costi, non è più basato sulla competizione, ma sulla speranza che non vendano, com'è successo per il refresh.
Ora cominciando a vedere che il mercato non è più quello del mining.
Cutter90
18-03-2024, 11:55
Ma se ad una gpu da quasi 1000 euro come la 4070ti path tracing lo puoi usare solo a 1080p e necessiti di dlss e frame gen.
Gpu da 1000 euro!
Per chi dovrebbero implementare queste tecnologie? Il 0,5% dei gamer quando gia' le gpu top di gamma soffre a risoluzioni del 2008?
Non si tratta di pigrizia, si tratta di risorse. Non e' un caso che PT sia stato implementato a spese di Nvidia per motivi promozionali. Ma ce ne passera' di tempo prima che abbia senso per la gran parte degli sviluppatori.
Si va beh ho capito.
Intanto il path tracing lo devi equiparare per le schede di riferimento. La 4070 ti fa più di 60 fps in PT, scheda ora da 700 euro, non certo 1000
Inoltre il discorso vale per le top.
E poi il discorso quello è. Ossia che siamo fermi lato PT.
Prima del pt c'è il RT digeribile da tutte le gpu dalle 3000 in poi. Come siamo messi? Male anche qui. La potenza c'è. Non viene sfruttata
mikael84
18-03-2024, 12:18
Si va beh ho capito.
Intanto il path tracing lo devi equiparare per le schede di riferimento. La 4070 ti fa più di 60 fps in PT, scheda ora da 700 euro, non certo 1000
Inoltre il discorso vale per le top.
E poi il discorso quello è. Ossia che siamo fermi lato PT.
Prima del pt c'è il RT digeribile da tutte le gpu dalle 3000 in poi. Come siamo messi? Male anche qui. La potenza c'è. Non viene sfruttata
Considera anche la questione supporto. Ad esempio, AMD non lo può gestire per una questione di registri, quindi abilitarlo fa andare le top come turing. Anche per Ampere è troppo pesante, malgrado lo gestisca meglio di AMD.
Dalle prossime gen, forse lo vedremmo più spesso, la stessa nvidia con blackwell punterà li.:)
Cutter90
18-03-2024, 12:34
Considera anche la questione supporto. Ad esempio, AMD non lo può gestire per una questione di registri, quindi abilitarlo fa andare le top come turing. Anche per Ampere è troppo pesante, malgrado lo gestisca meglio di AMD.
Dalle prossime gen, forse lo vedremmo più spesso, la stessa nvidia con blackwell punterà li.:)
Speriamo davvero. Il Rt c'è dalla serie 2000. Sono passati tanti anni ormai e l'implementazione è ancora scarsa.
C'è anche da dire che il discorso potrebbe essere il contrario: perchè io utente dovrei acquistare una gpu se il RT non viene sfruttato a dovere? Valà che se tutte le sh iniziassero ad implementarlo come si deve con un basa di Riflessi, GI e Ombre sempre presenti, le nuove schede le comprerebbero in molti di più. Ma il problema è che la gente le compra lo stesso....
fraussantin
18-03-2024, 13:10
Mah, ormai AMD non riesce a stare al passo, e si accoda ad nvidia. Anzi, paradossalmente in fascia alta è il monopolista ad avere offerte migliori, vedi la 4080 super prezzata come la 7900xtx, o la 4070ti super come la 7900xt, schede a 360° nettamente migliori. AMD di queste offre solo il raster alla pari e te le fa pagare uguali.
L'unico modo per abbassare i costi, non è più basato sulla competizione, ma sulla speranza che non vendano, com'è successo per il refresh.
Ora cominciando a vedere che il mercato non è più quello del mining.Io inizio a pensare che amd faccia solo il minimo indispensabile lato gpu , tanto per tenerla in vita per avere tecnologie per apu, per processori , per notebook e console in arrivo.
Mi chiedo se mai intel si accordasse con nvidia la parte grafica cosa potrebbe uscire.
mikael84
18-03-2024, 13:12
Speriamo davvero. Il Rt c'è dalla serie 2000. Sono passati tanti anni ormai e l'implementazione è ancora scarsa.
C'è anche da dire che il discorso potrebbe essere il contrario: perchè io utente dovrei acquistare una gpu se il RT non viene sfruttato a dovere? Valà che se tutte le sh iniziassero ad implementarlo come si deve con un basa di Riflessi, GI e Ombre sempre presenti, le nuove schede le comprerebbero in molti di più. Ma il problema è che la gente le compra lo stesso....
La GPU la compri principalmente per le prestazioni superiori, come ai vecchi tempi. La nuova serie lo gestirà sempre meglio, e non solo, lo estenderà meglio a tutte le fasce, quindi potrebbero implementarlo di più. Sarà pompata anche via tensor ed OFA.
Riguardo l'implementazione massiva, non è così semplice, pensiamo che buona parte dei titoli sono sponsorizzati AMD, e si limitano giusto a qualche riflesso, anzi neppure il DLSS ti fanno implementare.
Per un serio cambio di rotta, serve che le schede riescano pure a gestirlo meglio, a partire dalle console.
Cutter90
18-03-2024, 13:21
La GPU la compri principalmente per le prestazioni superiori, come ai vecchi tempi. La nuova serie lo gestirà sempre meglio, e non solo, lo estenderà meglio a tutte le fasce, quindi potrebbero implementarlo di più. Sarà pompata anche via tensor ed OFA.
Riguardo l'implementazione massiva, non è così semplice, pensiamo che buona parte dei titoli sono sponsorizzati AMD, e si limitano giusto a qualche riflesso, anzi neppure il DLSS ti fanno implementare.
Per un serio cambio di rotta, serve che le schede riescano pure a gestirlo meglio, a partire dalle console.
Eh purtroppo lo so. Però, per essere "politically correct" direi... che due palle :D
Una volta si correva molto più forte. Ora siamo al rallentatore, per svariati motivi.
https://www.hardwaretimes.com/nvidia-allegedly-reducing-rtx-40-series-gpu-supply-ahead-of-rtx-5090-launch/
È solo un rumor, perciò da prendere con le pinze.
Stando a quanto scritto, Nvidia starebbe avvertendo i partner che presto la produzione di chip 4000 verrà ridotta.
Visto che l'uscita della prossima gen non è propriamente dietro l'angolo, non si tratterebbe di una mossa fatta per smaltire inventario, bensì per creare un po' di scarsità (artificiale) del prodotto in modo da fermare il calo dei prezzi che si stava verificando nell'ultimo periodo (loro si che sanno come conquistare il cuore degli appassionati...).
Contemporaneamente gli slot produttivi rimasti liberi, verrebbero destinati a chip per l'AI che garantiscono margini e guadagni superiori.
Inviato dal mio moto g84 5G utilizzando Tapatalk
bagnino89
18-03-2024, 17:52
https://www.hardwaretimes.com/nvidia-allegedly-reducing-rtx-40-series-gpu-supply-ahead-of-rtx-5090-launch/
È solo un rumor, perciò da prendere con le pinze.
Stando a quanto scritto, Nvidia starebbe avvertendo i partner che presto la produzione di chip 4000 verrà ridotta.
Visto che l'uscita della prossima gen non è propriamente dietro l'angolo, non si tratterebbe di una mossa fatta per smaltire inventario, bensì per creare un po' di scarsità (artificiale) del prodotto in modo da fermare il calo dei prezzi che si stava verificando nell'ultimo periodo (loro si che sanno come conquistare il cuore degli appassionati...).
Contemporaneamente gli slot produttivi rimasti liberi, verrebbero destinati a chip per l'AI che garantiscono margini e guadagni superiori.
Inviato dal mio moto g84 5G utilizzando TapatalkPovero Giacchettino, effettivamente ci sta rimettendo con le 4000, finora le aveva regalate...
Sta roba, se vera, dovrebbe essere sottoposta all'Antitrust.
fraussantin
18-03-2024, 18:36
Sta roba, se vera, dovrebbe essere sottoposta all'Antitrust.
Starà già correndo a comprare azioni nvidia :asd:
Nvidia ha rivelato Blackwell al gtc, letto ora su market watch, quando si sapranno tutti i dettagli della nuova architettura?
mikael84
18-03-2024, 21:10
Com'era prevedibile, i nuovi tensor utilizzano le fp4 a doppio ratio, quindi i tensor saranno a 2x anche sulle gaming.
Primo MCM, e sorpresa, usa il 4nmP, non i 3.
Ha suddiviso in 2 chip e riesce a rientrare nella densità.
Questo però fa pensare, che anche sulle gaming si vada di 4nmP, magari in MCM, considerando che i leak parlano di BL202 doppio vs BL203 (5080).
https://i.postimg.cc/fW6r8Dww/115016312.jpg
OrazioOC
18-03-2024, 21:13
Com'era prevedibile, i nuovi tensor utilizzano le fp4 a doppio ratio, quindi i tensor saranno a 2x anche sulle gaming.
Primo MCM, e sorpresa, usa il 4nmP, non i 3.
Ha suddiviso in 2 chip e riesce a rientrare nella densità.
Questo però fa pensare, che anche sulle gaming si vada di 4nmP, magari in MCM, considerando che i leak parlano di BL202 doppio vs BL203 (5080).
Infatti la sorpresa di sta sera è l'uso dei 4nm invece dei 3.
E questo mi fa pensare, che è verosimile vedere la 5090 prima del ces di gennaio. :)
fraussantin
18-03-2024, 21:17
Infatti la sorpresa di sta sera è l'uso dei 4nm invece dei 3.
E questo mi fa pensare, che è verosimile vedere la 5090 prima del ces di gennaio. :)Arriva in autunno imho.
Mi chiedo però se ci saranno le memorie ddr7
mikael84
18-03-2024, 21:19
Infatti la sorpresa di sta sera è l'uso dei 4nm invece dei 3.
E questo mi fa pensare, che è verosimile vedere la 5090 prima del ces di gennaio. :)
Il problema è che il chip è stato spalmato su due die, è praticamente un dual hopper con tensor maggiorati, oltre che nvlink ed altro, e la densità era bassa.
Qua ipotizzando un 800mm2 a die, rientreresti appieno nella densità dei 4nm.
Con lovelace sei vicino al limite.
Magari ci sorprende e fa MCM 4nm anche li, con due die molto grossi, visto il doppio tra x02 e x03.
Monolitico, non ci rientri nei 4nm, salvo non andare di 800mm2, ma dopo ti chiede 4000 euro.:p
OrazioOC
18-03-2024, 21:31
Il problema è che il chip è stato spalmato su due die, è praticamente un dual hopper con tensor maggiorati, oltre che nvlink ed altro, e la densità era bassa.
Qua ipotizzando un 800mm2 a die, rientreresti appieno nella densità dei 4nm.
Con lovelace sei vicino al limite.
Magari ci sorprende e fa MCM 4nm anche li, con due die molto grossi, visto il doppio tra x02 e x03.
Monolitico, non ci rientri nei 4nm, salvo non andare di 800mm2, ma dopo ti chiede 4000 euro.:p
Dici che arriviamo ad una situazione simil volta->turing?:rolleyes:
mikael84
18-03-2024, 21:42
Dici che arriviamo ad una situazione simil volta->turing?:rolleyes:
Sul 600mm2 e 4nm, puoi avere sino al 20% di transistor in più, e non bastano, quindi devi andare di 800mm2 almeno.
Oppure, due die da 4-500mm2 per la 5090 e uno da 450 per la 5080.
In monolitico è obbligo il 3nm, salvo soluzioni dette su.:)
Due die da 500mm2, sono oltre 500$ di die.:p
Infatti la sorpresa di sta sera è l'uso dei 4nm invece dei 3.
Per me invece la sorpresa è che non è monolitico.
mikael84
18-03-2024, 22:13
Per me invece la sorpresa è che non è monolitico.
No, si sapeva già che era MCM. Sono praticamente due Hopper incollati, con qualche cuda in più per die.
208mtransistor non ci starebbero nel 2nm.
Ecco che, potrebbe fare lo stesso con il chip gaming. 2 die da 12288 = 24576cc.
Praticamente due 4080 con un GPC in più.
Dracula1975
19-03-2024, 06:40
Com'era prevedibile, i nuovi tensor utilizzano le fp4 a doppio ratio, quindi i tensor saranno a 2x anche sulle gaming.
Primo MCM, e sorpresa, usa il 4nmP, non i 3.
Ha suddiviso in 2 chip e riesce a rientrare nella densità.
Questo però fa pensare, che anche sulle gaming si vada di 4nmP, magari in MCM, considerando che i leak parlano di BL202 doppio vs BL203 (5080).
https://i.postimg.cc/fW6r8Dww/115016312.jpg
ma quindi i rumors sul +50% sulla 4090 della ipotetica 5090 potrebbe essere ancora valido alla luce dell'architettura usata= (e del 4nm?)
Rumpelstiltskin
19-03-2024, 06:41
Ma due die vuol dire anche doppio consumo?
fraussantin
19-03-2024, 07:01
Ma due die vuol dire anche doppio consumo?Questo arnese consumerà kw di corrente. . Ma è una macchina da lavoro che prob sostituirà macchine che consumano 10 volte tanto.
Questo arnese consumerà kw di corrente. . Ma è una macchina da lavoro che prob sostituirà macchine che consumano 10 volte tanto.
Si dicevano le stesse cose nel passaggio tra 3000 e 4000 poi alla fine Nvidia se n'è uscita con una 4090 che consuma la metà della 3090 quindi aspettiamo....
Rumpelstiltskin
19-03-2024, 08:09
Secondo me, chi come me ha una 4090 oggi, la prox gen la può proprio saltare; cosa ne pensate?
O la scimmia la vincerà? :)
(Adesso tutti a dire: no no non la compro, e poi...)
Dracula1975
19-03-2024, 08:11
Secondo me, chi come me ha una 4090 oggi, la prox gen la può proprio saltare; cosa ne pensate?
O la scimmia la vincerà? :)
(Adesso tutti a dire: no no non la compro, e poi...)
dipende dai futuri giochi e sopratutto dalle TECH esclusive che la serie 5000 avrà...
Secondo me, chi come me ha una 4090 oggi, la prox gen la può proprio saltare; cosa ne pensate?
O la scimmia la vincerà? :)
(Adesso tutti a dire: no no non la compro, e poi...)
Dipende da quanto Nvidia farà leva sull aspetto psicologico con qualche "futures" stupenderrima della serie 5000.
Poi una reale necessità di upgrade dalla 4090 dubito ci sia
Secondo me, chi come me ha una 4090 oggi, la prox gen la può proprio saltare; cosa ne pensate?
O la scimmia la vincerà? :)
(Adesso tutti a dire: no no non la compro, e poi...)
Io comprerò sicuramente la 5090 perchè saranno passati più di due anni dall'ultimo acquisto e poi perchè vendendo usata la 4090 non è che poi ci dovrei mettere questa gran cifra sopra.
Dracula1975
19-03-2024, 08:32
Io comprerò sicuramente la 5090 perchè saranno passati più di due anni dall'ultimo acquisto e poi perchè vendendo usata la 4090 non è che poi ci dovrei mettere questa gran cifra sopra.
se la vendi adesso si (come qualcuno ha fatto sostituendola con la 4080S) ma se sarà annunciata / uscita la 5090 la 4090 avrà perso un po di valore
Imho
se la vendi adesso si (come qualcuno ha fatto sostituendola con la 4080S) ma se sarà annunciata / uscita la 5090 la 4090 avrà perso un po di valore
Imho
Le VGA secondo me conservano tanto valore quando sono ancora in garanzia, proprio per questo ho preso una FE che ha tre anni di garanzia e mi permetterà di venderla ancora molto bene all'uscita della nuova. La 4090 varrà più o meno quanto costerà l'equivalente in prestazioni della serie 5000. Teniamo anche conto dell'abisso di prestazioni che c'è nella serie 4000 tra la top e tutte le altre. La serie 5000 (mid-high) dovrà essere comunque molto buona solo per raggiungere la 4090...
Kostanz77
19-03-2024, 08:59
Le VGA secondo me conservano tanto valore quando sono ancora in garanzia, proprio per questo ho preso una FE che ha tre anni di garanzia e mi permetterà di venderla ancora molto bene all'uscita della nuova.
Sogni ad occhi aperti, ad ogni gen le top di gamma di svalutano a bestia altroché
Inviato dal mio iPhone utilizzando Tapatalk Pro
Dracula1975
19-03-2024, 09:36
Sogni ad occhi aperti, ad ogni gen le top di gamma di svalutano a bestia altroché
Inviato dal mio iPhone utilizzando Tapatalk Pro
c0è da dire che se è una founders edition con 3 anni di garanzia rispetto alle custom MSI-Asus ecc valgono si un po di piu'.mna non cosi tanto come si crede...
Cutter90
19-03-2024, 09:42
Sogni ad occhi aperti, ad ogni gen le top di gamma di svalutano a bestia altroché
Inviato dal mio iPhone utilizzando Tapatalk Pro
Esatto. In base al salto perdono anche metà del loro valore
Ho sentito anche che la 4090 consuma la metà della 3090? Ma quando mai?
Forse è la 4070 ti che va come una 3090 e consuma quasi la metà.
Salfox regala sempre emozioni :D
Si dicevano le stesse cose nel passaggio tra 3000 e 4000 poi alla fine Nvidia se n'è uscita con una 4090 che consuma la metà della 3090 quindi aspettiamo....
Dove? Qui? Ah ok.
Dracula1975
19-03-2024, 10:02
Esatto. In base al salto perdono anche metà del loro valore
che cmq una custom da 2000-2200 rivenderla a 1100-1200 avendola usata due anni e passa..tanta roba cmq..
Magistercris
19-03-2024, 10:18
che cmq una custom da 2000-2200 rivenderla a 1100-1200 avendola usata due anni e passa..tanta roba cmq..
Il discorso è proprio questo.
Di certo non si vende a 1500, salvo rare eccezioni. Ma se appena esce la 5090, che costerà sicuramente non meno di 2200/2400 (spero), se rivendi la 4090 a 1200, considerando che la 5080 uscirà sempre dopo, almeno 1000/1200 euro ce li fai.
Metti 1000/1200 e vai di 5090:)
Dracula1975
19-03-2024, 10:24
Esatto. In base al salto perdono anche metà del loro valore
Ho sentito anche che la 4090 consuma la metà della 3090? Ma quando mai?
Forse è la 4070 ti che va come una 3090 e consuma quasi la metà.
Salfox regala sempre emozioni :D
credo che lui intenda nel suo caso specifico..
lui la usa a 60fps quindi ci credo che consumi metà di una 3090..spannometricamente ovviamente
credo che lui intenda nel suo caso specifico..
lui la usa a 60fps quindi ci credo che consumi metà di una 3090..spannometricamente ovviamente
Esattamente, a pari condizioni come fps e come sistema la 4090 consuma più o meno la metà della 3090, provato personalmente, e checchè ne dica il solito superesperto, i confronti sui consumi andrebbero fatti come ho detto io (stesso sistema, opzioni di gioco e fps) così si vedono esattamente le performance per watt di una vga.
OrazioOC
19-03-2024, 11:08
https://videocardz.com/newz/nvidia-rtx-50-gb202-gaming-gpu-reportedly-features-the-same-tsmc-4np-process-as-b100
Alè, alla fine penso che il gap prestazionale tra le rtx 4000 e le 5000 sarà ben più contenuto rispetto al salto dalle 3000 alle 4000. :)
Kostanz77
19-03-2024, 11:14
Salfox regala sempre emozioni :D
😂
Inviato dal mio iPhone utilizzando Tapatalk Pro
Dracula1975
19-03-2024, 11:15
https://videocardz.com/newz/nvidia-rtx-50-gb202-gaming-gpu-reportedly-features-the-same-tsmc-4np-process-as-b100
Alè, alla fine penso che il gap prestazionale tra le rtx 4000 e le 5000 sarà ben più contenuto rispetto al salto dalle 3000 alle 4000. :)
dici? anche con i 512bit ? il nodo è molto simile in effetti..
Cutter90
19-03-2024, 11:20
Esattamente, a pari condizioni come fps e come sistema la 4090 consuma più o meno la metà della 3090, provato personalmente, e checchè ne dica il solito superesperto, i confronti sui consumi andrebbero fatti come ho detto io (stesso sistema, opzioni di gioco e fps) così si vedono esattamente le performance per watt di una vga.
Eccolo che rincara le sue castronerie.
Le schede vanno testate al max dei loro watt e/o un undervolt per daily use e poi comparate. Os i comparano a pari prestazione, quindi come ho detto 3090 vs 4070 ti, oppure al max delle loro prestazioni.
Una 3090 da 450 500 watt va come una 4070 ti da 200/300 watt.
Una 4090 da 450/550 watt va un tot % in più di una 3090
Non di certo nel caso che vuoi tu più unico che raro con le tue esigenze di 60 fps.
Quello può servire a te, solo a te.
Ma il confronto va fatto in mnaiera più generica possibile altrimenti cosa serve? Che indicazioni da?
Aspetta che indovino. Se prendi una 5090 a 60 fps consumerà ancora meno watt delle 4090? Ma dai?
Salfox su. Siamo su un forum tecnico. Per favore.
Eccolo che rincara le sue castronerie.
Le schede vanno testate al max dei loro watt e/o un undervolt per daily use e poi comparate. Os i comparano a pari prestazione, quindi come ho detto 3090 vs 4070 ti, oppure al max delle loro prestazioni.
Non di certo nel caso che vuoi tu più unico che roro con le tue esigenze di 60 fps.
Quello può servire a te, solo a te.
Il confronto che proponi tu non ha nessun senso, è come paragonare una Ferrari a 300 km/h con una panda a 120 :D :D :D :D
mikael84
19-03-2024, 11:31
ma quindi i rumors sul +50% sulla 4090 della ipotetica 5090 potrebbe essere ancora valido alla luce dell'architettura usata= (e del 4nm?)
Le perf calcolate da loro sono teoriche, hanno fatto 128SM /192SM =50%.
Tuttavia potrebbe essere, una 5080 like 4090, ed un possibile MCM con +45-50%, in quanto lo stacco tra BL102/103 è un tantino più marcato rispetto a AD102/103
mikael84
19-03-2024, 11:36
Si dicevano le stesse cose nel passaggio tra 3000 e 4000 poi alla fine Nvidia se n'è uscita con una 4090 che consuma la metà della 3090 quindi aspettiamo....
Non mi risulta che la 4090 consumi 175watt.:p
https://videocardz.com/newz/nvidia-rtx-50-gb202-gaming-gpu-reportedly-features-the-same-tsmc-4np-process-as-b100
Alè, alla fine penso che il gap prestazionale tra le rtx 4000 e le 5000 sarà ben più contenuto rispetto al salto dalle 3000 alle 4000. :)
Si, alla fine missà che l'unica sostanziale novità sarà il MCM.
Non hanno apportato modifiche al file di reg, ma sicuramente alla l1, molto utile, vista la bassa parellizzazione. L1 tra l'altro già ampliata a partire da Ampere HPC.
Non mi risulta che la 4090 consumi 175watt.:p
Caro Mikael da te non me l'aspettavo :( :( :( .
Ma ci vuole tanto a capire che a parità di opzioni di gioco e sistema al contorno la 4090 consuma più o meno la metà della 3090?
Questo è dovuto proprio all'avanzamento tecnologico e al raffinamento del PP.
Provato sul mio sistema ho verificato che sullo stesso gioco e con gli stessi FPS richiesti (bloccati) la 4090 consuma circa 150w a confronto con gli oltre 300 della 3090. Secondo voi non è la metà? La matematica non è un'opinione :D :D :D
Kostanz77
19-03-2024, 11:47
Io sono sempre sui 430-450 W 😂
Inviato dal mio iPhone utilizzando Tapatalk Pro
Cutter90
19-03-2024, 11:48
Caro Mikael da te non me l'aspettavo :( :( :( .
Ma ci vuole tanto a capire che a parità di opzioni di gioco e sistema al contorno la 4090 consuma più o meno la metà della 3090?
Questo è dovuto proprio all'avanzamento tecnologico e al raffinamento del PP.
Provato sul mio sistema ho verificato che sullo stesso gioco e con gli stessi FPS richiesti (bloccati) la 4090 consuma circa 150w a confronto con gli oltre 300 della 3090. Secondo voi non è la metà? La matematica non è un'opinione :D :D :D
Ma la 3090 non consuma 300 watt! E la 4090 non consuma 150 watt!
Ma alle volte io penso che tu sia un troll, davvero.
La 3090 consumava dai 400 ai 500 watt, mentre la 4090 consuma dai 450 ai 600watt.
I consumi che ottieni tu bloccanodoli a quanto pare a te sono IRRILEVANTI ai fini di fare una comparazione. ma seriamente non arrivi a questo concetto?
Quini io se giocassi a 30 fps posso dire che la 4090 consuma 100 watt? E se giocassi a prato fiorito potrei asserire che la 4090 consuma 40 watt?
Dai su, diamoci un taglio. Stai facendo una brutta figura.
marbasso
19-03-2024, 11:49
Io sono sempre sui 430-450 W 😂
Inviato dal mio iPhone utilizzando Tapatalk Pro
Prova a capparti a 60fps e vedi quanto consumi.:)
Kostanz77
19-03-2024, 11:51
Prova a capparti a 60fps e vedi quanto consumi.:)
E per quale motivo dovrei cappare i frame??
Se dovevo stare a 60 frame non mi prendevo una 4090
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
19-03-2024, 11:52
Caro Mikael da te non me l'aspettavo :( :( :( .
Ma ci vuole tanto a capire che a parità di opzioni di gioco e sistema al contorno la 4090 consuma più o meno la metà della 3090?
Questo è dovuto proprio all'avanzamento tecnologico e al raffinamento del PP.
Provato sul mio sistema ho verificato che sullo stesso gioco e con gli stessi FPS richiesti (bloccati) la 4090 consuma circa 150w a confronto con gli oltre 300 della 3090. Secondo voi non è la metà? La matematica non è un'opinione :D :D :D
Raga, però senza offesa, non siamo su novella2000.:D :asd:
Certo che se imposti 60fps, una lavora e l'altra dorme.
La 4090 consuma 450 watt in ambienti reali di utilizzo mediamente, magari dove poco sfruttata anche meno (ac/fc), ma prova a lasciarla a briglia sciola su un requiem...
Cutter90
19-03-2024, 11:53
Prova a capparti a 60fps e vedi quanto consumi.:)
Raga, però senza offesa, non siamo su novella2000.:D :asd:
Certo che se imposti 60fps, una lavora e l'altra dorme.
La 4090 consuma 450 watt in ambienti reali di utilizzo mediamente, magari dove poco sfruttata anche meno (ac/fc), ma prova a lasciarla a briglia sciola su un requiem...
Ma che! Se la cappate a 30 fps la 4090 consuma ancora meno! E sempre meno della 3090!! Incredibile eh? :doh:
Certo che se imposti 60fps, una lavora e l'altra dorme.
La 4090 consuma 450 watt in ambienti reali di utilizzo mediamente, magari dove poco sfruttata anche meno (ac/fc), ma prova a lasciarla a briglia sciola su un requiem...
Ragazzi, con questo post chiudo l'argomento e mi riprometto di non rispondere più a nessuno.
Volevo solo ricordarvi che solo fino a pochissimi anni fa i monitor piatti andavano tutti al max a 60hz e quindi andare a più di 60fps era perfettamente inutile.
Con l'esplosione degli online shooter le case hanno iniziato a produrre monitor a 120, 160, 240 di cui fino ad allora nessuno sentiva la necessità.
Il mio monitor ad esempio che non è certo l'ultimo arrivato, è pensato per lavorare a 60hz e arriva a 100 solo in overclock.
Io mi sono abituato a giocare a 60fps e faccio i confronti sul mio sistema e nelle stesse condizioni e sono contento che rispetto a prima che avevo la 3090 consumo più o meno la metà di VGA.
Se poi voi volete fare confronti che secondo il mio modo di pensare non hanno nessun senso, siete liberissimi di farlo ma non sopporto che i soliti noti facciano della facile ironia su argomenti che a mio parere (evidentemente non a vostro) sono incontrovertibili.
Imparate a rispettare il prossimo come faccio io grazie :D :D :D :D :D
Mi sembra che state dicendo tutti cose esatte ma riferite ad ambiti di utilizzo diverso.
mikael84
19-03-2024, 12:39
Ragazzi, con questo post chiudo l'argomento e mi riprometto di non rispondere più a nessuno.
Volevo solo ricordarvi che solo fino a pochissimi anni fa i monitor piatti andavano tutti al max a 60hz e quindi andare a più di 60fps era perfettamente inutile.
Con l'esplosione degli online shooter le case hanno iniziato a produrre monitor a 120, 160, 240 di cui fino ad allora nessuno sentiva la necessità.
Il mio monitor ad esempio che non è certo l'ultimo arrivato, è pensato per lavorare a 60hz e arriva a 100 solo in overclock.
Io mi sono abituato a giocare a 60fps e faccio i confronti sul mio sistema e nelle stesse condizioni e sono contento che rispetto a prima che avevo la 3090 consumo più o meno la metà di VGA.
Se poi voi volete fare confronti che secondo il mio modo di pensare non hanno nessun senso, siete liberissimi di farlo ma non sopporto che i soliti noti facciano della facile ironia su argomenti che a mio parere (evidentemente non a vostro) sono incontrovertibili.
Imparate a rispettare il prossimo come faccio io grazie :D :D :D :D :D
Per carità, lungi da me mancare di rispetto, anzi...:)
Però bisogna mettere in chiaro le cose.
Tu giochi a 60fps, e prima ti ritrovavi una scheda in full o quasi, ora hai una scheda che fa 100fps e per fare 60fps, ti basta un PL a 40-50%, quindi non consuma ovviamente nulla.
Questo è diverso, è un tuo scenario, non lo scenario standard, dove una consuma 350, l'altra 450 mediamente.
Io leggendo il tuo post, avevo capito che la 4090 consumasse la metà della 3090, in full e mi è sembrato surreale quanto detto.:)
Cutter90
19-03-2024, 12:42
Ragazzi, con questo post chiudo l'argomento e mi riprometto di non rispondere più a nessuno.
Volevo solo ricordarvi che solo fino a pochissimi anni fa i monitor piatti andavano tutti al max a 60hz e quindi andare a più di 60fps era perfettamente inutile.
Con l'esplosione degli online shooter le case hanno iniziato a produrre monitor a 120, 160, 240 di cui fino ad allora nessuno sentiva la necessità.
Il mio monitor ad esempio che non è certo l'ultimo arrivato, è pensato per lavorare a 60hz e arriva a 100 solo in overclock.
Io mi sono abituato a giocare a 60fps e faccio i confronti sul mio sistema e nelle stesse condizioni e sono contento che rispetto a prima che avevo la 3090 consumo più o meno la metà di VGA.
Se poi voi volete fare confronti che secondo il mio modo di pensare non hanno nessun senso, siete liberissimi di farlo ma non sopporto che i soliti noti facciano della facile ironia su argomenti che a mio parere (evidentemente non a vostro) sono incontrovertibili.
Imparate a rispettare il prossimo come faccio io grazie :D :D :D :D :D
L'unica cosa incontrovertibile e che i confronti tecnici non si fanno sui parametri che piacciono a te, ma su quelli giusti su cui vanno fatti.
Se tu non la vedi così, sbagliando, va benissimo. Ma non pretendere di aver ragione arrampicandoti sugli specchi e parlare di rispetto quando poi tu sei il primo a non considerare minimamente che forse hai detto una cavolata. La 4090 non consuma la metà di una 3090, questo è un dato certo.
Poi tu, nella TUA particolare e forzata situazione la fai consumare la metà (che poi anche lì ci sono 13.000 variabili e generalizzare così non è ok). Infatti una frase di questo tipo:
"Io nelle mie condizioni di 60 fps, dove ovviamente so non essere il suo utilizzo ideale, ho visto una normale diminuzione di watt consumati, dovuti infatti al mio limite di frame. ovviamente con la 5090 consumerò ancora meno, ma per quanto riguarda i confronti tra wattaggi in condizioni normali non saprei perchè non è la mia condizione di utilizzo e/o che conosco".
Questa era una frase rispettosa e assolutamente condivisibile da parte tua. Invece hai voluto eleggere la tua situazione come l'unica possibile, ignorando i parametri che ti stiamo dicendo.
Quindi se non hai intenzione di allargare i tuoi orizzonti se non ne sai abbastanza è giusto che ti tiri indietro per non dire castronerie e fare disinformazione.
Kostanz77
19-03-2024, 12:53
L'unica cosa incontrovertibile e che i confronti tecnici non si fanno sui parametri che piacciono a te, ma su quelli giusti su cui vanno fatti.
Se tu non la vedi così, sbagliando, va benissimo. Ma non pretendere di aver ragione arrampicandoti sugli specchi e parlare di rispetto quando poi tu sei il primo a non considerare minimamente che forse hai detto una cavolata. La 4090 non consuma la metà di una 3090, questo è un dato certo.
Poi tu, nella TUA particolare e forzata situazione la fai consumare la metà (che poi anche lì ci sono 13.000 variabili e generalizzare così non è ok). Infatti una frase di questo tipo:
"Io nelle mie condizioni di 60 fps, dove ovviamente so non essere il suo utilizzo ideale, ho visto una normale diminuzione di watt consumati, dovuti infatti al mio limite di frame. ovviamente con la 5090 consumerò ancora meno, ma per quanto riguarda i confronti tra wattaggi in condizioni normali non saprei perchè non è la mia condizione di utilizzo e/o che conosco".
Questa era una frase rispettosa e assolutamente condivisibile da parte tua. Invece hai voluto eleggere la tua situazione come l'unica possibile, ignorando i parametri che ti stiamo dicendo.
Quindi se non hai intenzione di allargare i tuoi orizzonti se non ne sai abbastanza è giusto che ti tiri indietro per non dire castronerie e fare disinformazione.
Poi onestamente non capisco la storia della mancanza di rispetto, boh mi sfugge qualcosa.
A casa mia la mancanza di rispetto è altra cosa
Inviato dal mio iPhone utilizzando Tapatalk Pro
fraussantin
19-03-2024, 13:01
Ragazzi, con questo post chiudo l'argomento e mi riprometto di non rispondere più a nessuno.
Volevo solo ricordarvi che solo fino a pochissimi anni fa i monitor piatti andavano tutti al max a 60hz e quindi andare a più di 60fps era perfettamente inutile.
Con l'esplosione degli online shooter le case hanno iniziato a produrre monitor a 120, 160, 240 di cui fino ad allora nessuno sentiva la necessità.
Il mio monitor ad esempio che non è certo l'ultimo arrivato, è pensato per lavorare a 60hz e arriva a 100 solo in overclock.
Io mi sono abituato a giocare a 60fps e faccio i confronti sul mio sistema e nelle stesse condizioni e sono contento che rispetto a prima che avevo la 3090 consumo più o meno la metà di VGA.
Se poi voi volete fare confronti che secondo il mio modo di pensare non hanno nessun senso, siete liberissimi di farlo ma non sopporto che i soliti noti facciano della facile ironia su argomenti che a mio parere (evidentemente non a vostro) sono incontrovertibili.
Imparate a rispettare il prossimo come faccio io grazie :D :D :D :D :D
Tendenzialmente posso darti ragione , ognuno ha le sue abitudi , poi dipende anche dalla dimensione del display ma sono appunto abitudini , guarda le console che viaggiano su schermi da 50\70 pollici a 30 fps con vento a favore.
Nelle scene veloci non ci si capisce nulla ma sono tutti felici.
Però non puoi dire che era perfettamente inutile.
Era solo impossibile fare meglio.
Senno è come negli anni 80 quando si giocava a 8 bit sul c 64 ... Non è che era inutile averci la grafica migliore , è che quella era , e per carità aveva il suo fascino e i giochi avevano un gameplay cosa che oggi è raro trovare.
Ma il punto è quello.
Poi se tu mi dici che 60 ti bastano e vuoi la 5090 per sfizio ti dico fai bene .
C'è chi si compra borse da 1000 euro che hanno meno utilità di quella gpu .
Ps quello che posso dirti è che se provi un monitor ad alto refrash non torni più indietro.
Quindi forse è meglio non provarlo :asd:
amon.akira
19-03-2024, 13:19
Che poi è la stessa cosa dire consuma la metà a pari perf o fa il doppio a pari consumo, anche se le proporzioni nn sono esattamente quelle...però è giusto dire i consumi al 100% di utilizzo tdp, 3090 è 350w e 4090 è 450w quindi consuma di piu
Caro Mikael da te non me l'aspettavo :( :( :( .
Ma ci vuole tanto a capire che a parità di opzioni di gioco e sistema al contorno la 4090 consuma più o meno la metà della 3090?
Questo è dovuto proprio all'avanzamento tecnologico e al raffinamento del PP.
Provato sul mio sistema ho verificato che sullo stesso gioco e con gli stessi FPS richiesti (bloccati) la 4090 consuma circa 150w a confronto con gli oltre 300 della 3090. Secondo voi non è la metà? La matematica non è un'opinione :D :D :D
Confondi i consumi con il perf/watt. Necessiti di meno corrente per fare gli fps di prima, ma non siamo comunque alla metà.
Il punto, al massimo, è che di solito non si compra una ferrari per mandarla in terza, ma ovviamente de gustibus.
davide155
19-03-2024, 13:58
Volevo solo ricordarvi che solo fino a pochissimi anni fa i monitor piatti andavano tutti al max a 60hz e quindi andare a più di 60fps era perfettamente inutile.
Errato.
Ragazzi non creiamo disinformazione.
Se a te piace giocare a 60 o 30fps va benissimo. Fallo tranquillamente. Ma non dire che andare oltre i 60fps era (o è) totalmente inutile perché dici il falso.
Semplicemente prima non c'erano le tecnologie dei monitor che ci sono adesso per supportare una tale frequenza.
Prima potevi incappare in ghosting, o altri difetti che la frequenza di aggiornamento elevata poteva dare perché la retroilluminazione e la gestione dei pixel erano differenti da ora e non riuscivano a star dietro all'alta frequenza di aggiornamento. Anche le gpu, era grassa se toccavano i 30fps negli ultimi giochi usciti.
Con l'avvento dell'iA si è raggiunto una potenza tale da poter spingerci più in la e soprattutto grazie ai nuovi pannelli, ips oled e VA si raggiungono frequenze altissime senza perdita di qualità.
Se prendi due monitor uguali da 160hz uno di fianco all'altro ed uno lo cappi a 60fps noterai una differenza abissale.
Non capisco perché continuare a vivere di vecchi ricordi quando la tecnologia odierna ci da la possibilità di fare cose strabilianti. Perché giocare a 160fps è davvero strabiliante e cambia drasticamente l'esperienza visiva in positivo. E non lo dico io, ma il 99,9% delle persone che hanno accesso a tali frequenze.
Poi sulla storia dei consumi, siamo d'accordo che la 4090 ha un ottimo rapporto prestazioni/potenza, ma ciò non toglie che il suo tdp è di 450w, come lo è di 350w per la 3090.
marbasso
19-03-2024, 14:28
E per quale motivo dovrei cappare i frame??
Se dovevo stare a 60 frame non mi prendevo una 4090
Inviato dal mio iPhone utilizzando Tapatalk Pro
Perché il discorso di Salfox quello è.... 4090 cappata a 60 consuma 150w
Disponibile la 4090 sullo store Nvidia a 1.779€ :read:
oh, fino a 3 mesi fa c'erano dubbi, ma non ho seguito molto, anche perché dei chip per AI e della xx90 mi interessa poco.
mikael84
19-03-2024, 15:29
oh, fino a 3 mesi fa c'erano dubbi, ma non ho seguito molto, anche perché dei chip per AI e della xx90 mi interessa poco.
Per quanto visto ora, Blackwell sembra un aggiornamento di Lovelace con l1 maggiorata g7 e forse le rop's 2x.
La 5080 potrebbe passare da 10240 a 12288cc (magari 11776cc in cut), quindi sotto si procederà sulla stessa linea con qualche balzo percentuale.
amon.akira
19-03-2024, 15:47
Per quanto visto ora, Blackwell sembra un aggiornamento di Lovelace con l1 maggiorata g7 e forse le rop's 2x.
La 5080 potrebbe passare da 10240 a 12288cc (magari 11776cc in cut), quindi sotto si procederà sulla stessa linea con qualche balzo percentuale.
tolto questi "fix" ed eventuali nuove tech, come clock/consumi come siamo messi con questo 4nmP?
mikael84
19-03-2024, 17:09
tolto questi "fix" ed eventuali nuove tech, come clock/consumi come siamo messi con questo 4nmP?
Il 4nmP è dichiarato x 11% perf/watt @0,75v sul 5nm. Tuttavia il PP di lovelace è moddato, e non dichiarato. Esempio i 5nmp (quello ryzen) oscillano tra il 5/7% perf/watt il 5 basic).
Ovviamente nell'equazione bisogna calcolare le rese, sicuramente migliori, e la rivisitazione del circuito, ovvero il progettista analizza le parti critiche e ne corregge le dispersioni, facendo spesso meglio del PP utilizzato.
Il clock finale è soggetto a varie variabili. A livello di puro PP, poca roba.:)
micronauta1981
19-03-2024, 17:11
Quello che dice salfox non è così sbagliato..a parità di prestazioni,la 4090 consuma meno della 3090.. a briglia sciolta consuma di più perché fa più fps...vero che nessuno o quasi cappa i frame con una 4090, però quello che vuole dire è giusto,la 4090 ha un consumo watt/prestazioni inferiore alla 3090 è stato detto in tutte le Recensioni serie
OrazioOC
19-03-2024, 17:33
https://i.ibb.co/rQdx4pY/RTX4080-SUPER1.jpg
https://i.ibb.co/NS1Lx6f/RTX4080-SUPER2.jpg
https://i.ibb.co/wpckyzX/RTX4080-SUPER3.jpg
A fine 2023 avevo postato qualche piccolo bench di questa postazione, in precedenza con una asus rtx 4080.
Purtroppo quella scheda dopo qualche mese ha iniziato a soffrire di un coil whine abbastanza presente, e si è resa quindi necessaria la procedura di RMA.
Per fortuna però mi hanno offerto anche la possibilità di rimborso tramite amazon, ed eccoci qui con la 4080 strix bianca super. :)
davide155
19-03-2024, 18:11
Quello che dice salfox non è così sbagliato..a parità di prestazioni,la 4090 consuma meno della 3090.. a briglia sciolta consuma di più perché fa più fps...vero che nessuno o quasi cappa i frame con una 4090, però quello che vuole dire è giusto,la 4090 ha un consumo watt/prestazioni inferiore alla 3090 è stato detto in tutte le Recensioni serieDa come si era espresso all'inizio sembrava davvero stesse dicendo che la 4090 consumasse la metà della 3090. Cosa non vera.
Poi ovviamente cappate entrambi a 60fps è palese che la più avanzata tecnicamente riesca a fare uguale con meno corrente.
Ma è come dire che l'acqua è bagnata.
Poi che grazie a questa differenza lui si sia ripagato la 4090 in 10 mesi, beh su quello possiamo discuterci ampiamente.
Cutter90
19-03-2024, 18:14
Quello che dice salfox non è così sbagliato..a parità di prestazioni,la 4090 consuma meno della 3090.. a briglia sciolta consuma di più perché fa più fps...vero che nessuno o quasi cappa i frame con una 4090, però quello che vuole dire è giusto,la 4090 ha un consumo watt/prestazioni inferiore alla 3090 è stato detto in tutte le Recensioni serie
Eh ho capito ma che considerazione sarebbe? E' la cosa più ovvia e banale del mondo.
La 3090 a 60 fps magari era bella tirata. La 4090 in quello stesso gioco a 60 fps è molto meno tirata. C'è bisogno di dirlo che consuma meno?
La considerazione interessante di questa gen è che la 3090 consuma, lasciat andare, il doppio di una 4070 ti facendo le stesse performance. Questa è la considerazione "importante"
mikael84
19-03-2024, 18:19
Samsung non avrà la tripla densità sulle g7, rispetto a micron, ed entrambe saranno le ram delle blackwell.
https://wccftech.com/samsung-displays-gddr7-memory-modules-next-gen-gaming-gpus-32-28-gbps-16-gb-density/
BL105 e x70, a sto punto potrebbe debuttare con soli 12gb.:p
OrazioOC
19-03-2024, 18:20
Samsung non avrà la tripla densità sulle g7, rispetto a micron, ed entrambe saranno le ram delle blackwell.
https://wccftech.com/samsung-displays-gddr7-memory-modules-next-gen-gaming-gpus-32-28-gbps-16-gb-density/
BL105 e x70, a sto punto potrebbe debuttare con soli 12gb.:p
Tanto vale rivedere i bus e lasciarci le gddr6 santa pazienza. :D
mikael84
19-03-2024, 18:37
Tanto vale rivedere i bus e lasciarci le gddr6 santa pazienza. :D
Probabilmente risparmierebbe pure, considerando che per pochissimi mm2, monterebbe ram che sono al minimo storico, sicuramente molto più economiche delle g7 inizialmente.
2/3$ di die in più, 2 rese in meno, in rapporto al costo g6 e g7 è sicuramente più favorevole la prima, anche per l'immagine... ma temo che BL105 lo vedremmo a 192bit.
amon.akira
19-03-2024, 19:07
quindi 5080 16gb e sicuramente la spinge con il neural texture compression
Samsung non avrà la tripla densità sulle g7, rispetto a micron, ed entrambe saranno le ram delle blackwell.
https://wccftech.com/samsung-displays-gddr7-memory-modules-next-gen-gaming-gpus-32-28-gbps-16-gb-density/
BL105 e x70, a sto punto potrebbe debuttare con soli 12gb.:p
Dio ce ne scampi e totani!
Non ho capito se tutta la lineup 5XXX sarà MCM o solo 5090, grazie :)
https://wccftech.com/samsung-displays-gddr7-memory-modules-next-gen-gaming-gpus-32-28-gbps-16-gb-density/
BL105 e x70, a sto punto potrebbe debuttare con soli 12gb.:p
scaffale, si aspettano le super.
giacchetta si crede veramente di poter vendere schede di fascia media monche nel 2025?
shauni86
19-03-2024, 22:54
visto che si parla già di 5090...le 5080/5070 quando potrebbero uscire?
VanCleef
20-03-2024, 06:35
giacchetta si crede veramente di poter vendere schede di fascia media monche nel 2025?
evidentemente sì... :O
Cutter90
20-03-2024, 08:38
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?
FrancoBit
20-03-2024, 08:42
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?
Be in un ottica di acquisto future proof, per una scheda che uscirà tra 9-12 mesi, personalmente mi starebbero strettini. In più presumo avrà un ulteriore aumento di prezzo visto il trend degli ultimi anni. Si @zzo, son pochi :oink:
OrazioOC
20-03-2024, 08:43
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?
Dì, una iso 4080 con 12gb di vram come la vedresti?:)
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?
Se ha le prestazioni e magari pure il prezzo di una 4080 direi di sì.
visto che si parla già di 5090...le 5080/5070 quando potrebbero uscire?
Se teniamo conto dei precedenti tra 6 e 12 mesi da oggi per la lineup completa di fascia media ed alta.
3090: settembre 2020
3080: settembre 2020
3070: ottobre 2020
4090: ottobre 2022
4080: novembre 2022
4070: aprile 2023
bagnino89
20-03-2024, 08:56
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?
Direi proprio di sì, Giacchetto ha un po' rotto; è obsolescenza programmata bella e buona. Che poi manco costassero poco ste schede...
Sui 12 giga ero scettico anche io poi ho preso la 4070 Super e i 12 sono ben più che sufficienti per tutto, mod e RT inclusi.
Certo i 16 sono meglio ma i 12 non sono un freno.
bagnino89
20-03-2024, 09:26
Avere tanta VRAM non guasta mai.
Anche perché è una precisa scelta commerciale metterne poca (io dico di obsolescenza programmata), in quanto incide poco sul prezzo finale di tutta la scheda...
fraussantin
20-03-2024, 09:30
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?Se costasse 400 euro no.
A 700 si
fraussantin
20-03-2024, 09:31
Direi proprio di sì, Giacchetto ha un po' rotto; è obsolescenza programmata bella e buona. Che poi manco costassero poco ste schede...L'unica cosa positiva è che l'obsolescenza nelle vecchie si allunga . :asd:
Ma ci sarà il dlss 4 che strizza le texture.
Sui 12 giga ero scettico anche io poi ho preso la 4070 Super e i 12 sono ben più che sufficienti per tutto, mod e RT inclusi.
Certo i 16 sono meglio ma i 12 non sono un freno.
attualmente no (in 4k non ho idea), per una 5070 prob si dato che si potrebbe tranquillamente usare a 4k/60
a sto punto meglio una 80s usata
bagnino89
20-03-2024, 09:35
Se costasse 400 euro no.
A 700 si
Esatto, ma il punto è che non costerà 400 euro, ahi noi.
StylezZz`
20-03-2024, 09:36
Sui 12 giga ero scettico anche io poi ho preso la 4070 Super e i 12 sono ben più che sufficienti per tutto, mod e RT inclusi.
Certo i 16 sono meglio ma i 12 non sono un freno.
Sono sufficienti OGGI, ma se vuoi tenere la scheda per diversi anni non lo sono. Costassero 300-400€ allora potrei anche chiudere un occhio, ma non a 600-700€.
3070 docet (almeno costava 499).
Sui 12 giga ero scettico anche io poi ho preso la 4070 Super e i 12 sono ben più che sufficienti per tutto, mod e RT inclusi.
Certo i 16 sono meglio ma i 12 non sono un freno.
Sicuramente, ma salendo ancora di potenza è meglio avere anche più RAM..specie in 4k
Io per esempio ho una 1650super che è la vga da 4gb più potente e in alcuni giochi supera tranquillamente i 3,9gb vram. 6gb sarebbero stati più bilanciati..un po' come per la 3070 con gli 8gb
shauni86
20-03-2024, 10:19
Se teniamo conto dei precedenti tra 6 e 12 mesi da oggi per la lineup completa di fascia media ed alta.
3090: settembre 2020
3080: settembre 2020
3070: ottobre 2020
4090: ottobre 2022
4080: novembre 2022
4070: aprile 2023
quindi 5080 e 5070ti potrebbero uscire a novembre di quest'anno? avevo letto di ritardi e che avrebbero fatto uscire tutto nel 2025 inoltrato
Sono sufficienti OGGI, ma se vuoi tenere la scheda per diversi anni non lo sono. Costassero 300-400€ allora potrei anche chiudere un occhio, ma non a 600-700€.
3070 docet (almeno costava 499).
Che poi è il malessere di questa generazione Nvidia, il prezzo.
C'è da dire che se io sviluppatore voglio vendere il mio gioco AAAAAAA (:asd: )
e magari evitare di chiudere, visti i tempi.
Magari mi impongo di sviluppare i giochi sul parco macchine più esteso installato che va dai 6 ai 12 gb di vram (statistiche steam, giusto per avere un idea).
E noi dall'altra parte dovremmo imparare a settare i giochi in base all'hardware che possediamo, che sembra banale ma da quello che vedo
negli utlimi anni e nelle nuove generazioni non lo è, perchè devo maxare bro.
avevo letto di ritardi e che avrebbero fatto uscire tutto nel 2025 inoltrato
Nvidia oggi può fare quello che vuole tanto le controparti per ora dormono beate. L'unica cosa che posso dire è che alla fine dell'anno c'è il Natale e farsi trovare senza nulla da vendere in un periodo di grandi volumi di acquisti non è saggio. Posso ipotizzare quindi che magari la 5090 debutterà almeno entro dicembre e poi il resto a seguire...ma sono solo mie opinioni.
AceGranger
20-03-2024, 10:42
Che poi è il malessere di questa generazione Nvidia, il prezzo.
C'è da dire che se io sviluppatore voglio vendere il mio gioco AAAAAAA (:asd: )
e magari evitare di chiudere, visti i tempi.
Magari mi impongo di sviluppare i giochi sul parco macchine più esteso installato che va dai 6 ai 12 gb di vram (statistiche steam, giusto per avere un idea).
E noi dall'altra parte dovremmo imparare a settare i giochi in base all'hardware che possediamo, che sembra banale ma da quello che vedo
negli utlimi anni e nelle nuove generazioni non lo è, perchè devo maxare bro.
che è a conti fatti una rottura di maroni per gli sviluppatori e la causa di nmila bug.
che è a conti fatti una rottura di maroni per gli sviluppatori e la causa di nmila bug.
E ho capito ma allora che facciano un altro lavoro scusa...
Vai a controllare su steam la percentuale che va dai 6 ai 12 gb di vram è davvero troppo alta per essere ignorata.
Il gioco devi venderlo a chi può comprarlo e in maggior numero di copie possibili.
Detto questo, ai prezzi attuali e della generazione precedente, tutta la fascia media, di qualsiasi marca doveva e dovrebbe montare 16gb, fin qui tutti d'accordo.
mikael84
20-03-2024, 11:38
Non ho capito se tutta la lineup 5XXX sarà MCM o solo 5090, grazie :)
Il MCM è solo supposto, ancora nulla di ufficiale.
Più che altro è un'ipotesi mia, considerando che la 5090, sarà 2x esatto la 5080, almeno leggendo i rumor e guardando il chip per datacenter.
scaffale, si aspettano le super.
giacchetta si crede veramente di poter vendere schede di fascia media monche nel 2025?
Ancora non c'è nulla di ufficiale, solo che su un 192bit, se non hai la tripla densità, quello è.:p
Potrebbe fare anche una 5070ti cut AD103 con 16gb, e relegare i 12 alla sola x70 basic.
Bisogna vedere il taglio di BL205
marbasso
20-03-2024, 12:09
Nuovi driver Nvidia.
Cioè, fatemi capire. Una 5070 con 12 gb sarebbe un problema? Seri?
Direi proprio di si.
Ormai sono tagli di memoria insulsi che non dovrebbero esistere su gpu da oltre 300 euro.
L'unica cosa che posso dire è che alla fine dell'anno c'è il Natale e farsi trovare senza nulla da vendere in un periodo di grandi volumi di acquisti non è saggio.
Quando Nvidia faceva soldi rilevanti con il gaming questo era un fattore importante.
Ora che hanno file di anni per le gpu enterprise e datacenter le priorita' presso le fonderie sono ben altre che il gaming.
Be in un ottica di acquisto future proof, per una scheda che uscirà tra 9-12 mesi, personalmente mi starebbero strettini. In più presumo avrà un ulteriore aumento di prezzo visto il trend degli ultimi anni. Si @zzo, son pochi :oink:
se incomincia ad essere una scheda in grado di gestire abbastanza bene il 4k sì, sono strettini
Cutter90
20-03-2024, 12:48
Si ma al di la del "principio" che per "700 euro 12 gb sono pochi", io vedo che per il 1440p (target della 5070) 8 gb sono stretti, 10 gb giusti, 12 gb abbondanti.
Cosa mi sono perso? Io sarei molto più preoccupato delle prestazioni pure che dei gb. 12, per il 1440p saranno più che sufficiente per molto tempo.
Cio, ora in 4k 12 gb sono sufficienti per il 95% dei giochi eh
Più ce n'è meglio è, d'accordo. Ma se vi dicessero, invece che 700 costa 800 con 16 gb come la prendereste?
Poi ripeto, secondo me sono le performance che la fanno da padrone.
I giochi in UE5 usano pochissima vram, quindi la tendenza non è affatto detto si a a salire
fraussantin
20-03-2024, 12:49
Direi proprio di si.
Quando Nvidia faceva soldi rilevanti con il gaming questo era un fattore importante.
Ora che hanno file di anni per le gpu enterprise e datacenter le priorita' presso le fonderie sono ben altre che il gaming.
Ma il problema non è neanche wuello è che se a natale ti vuoi fare un pc e non sono uscite le 5000 ti prendi le 4000 e smaltisce roba vecchia. Prendere una amd ormai non è piu un alternativa a meno di offerte davvero stracciate.
Vedi infatti che le super sono uscite a gennaio.
Come ho detto ieri ormai è concorrente di se stessa .
Decide lei quando è il momento di vendere il vecchiume o vendere il nuovo.
Detto questo secondo me a ottembre avremo almeno 5090 e 5080.
fraussantin
20-03-2024, 12:51
Si ma al di la del "principio" che per "700 euro 12 gb sono pochi", io vedo che per il 1440p (target della 5070) 8 gb sono stretti, 10 gb giusti, 12 gb abbondanti.
Cosa mi sono perso? Io sarei molto più preoccupato delle prestazioni pure che dei gb. 12, per il 1440p saranno più che sufficiente per molto tempo.
Cio, ora in 4k 12 gb sono sufficienti per il 95% dei giochi eh
Più ce n'è meglio è, d'accordo. Ma se vi dicessero, invece che 700 costa 800 con 16 gb come la prendereste?
Poi ripeto, secondo me sono le performance che la fanno da padrone.
I giochi in UE5 usano pochissima vram, quindi la tendenza non è affatto detto si a a salireI giochi ue5 usciti fino ad oggi non sono oper world.
Quando uscirà gta 6, 16 giga saranno per il 1080p maxato
Poi ripeto , 12 giga non sarebbero un problema se non chiedessero 700 euro. Uno puo sempre scalare dettagli e rientrare .
Ma va anche detto che il dlss4 potrebbe alleggerire il carico.
Il MCM è solo supposto, ancora nulla di ufficiale.
Più che altro è un'ipotesi mia, considerando che la 5090, sarà 2x esatto la 5080, almeno leggendo i rumor e guardando il chip per datacenter.
Perfetto, grazie. Guarderò comunque bene i bench nel caso una o più fossero MCM. In passato ho avuto il quad-SLI di GTX590 e, a parte alcuni giochi e il 3D Vision, il gioco non valeva la candela.
mikael84
20-03-2024, 14:11
Dì, una iso 4080 con 12gb di vram come la vedresti?:)
Sempre se ci arriva.:D
Onestamente mi aspetto 4 GPC da 9216cc per full BL205 5070ti.
Perfetto, grazie. Guarderò comunque bene i bench nel caso una o più fossero MCM. In passato ho avuto il quad-SLI di GTX590 e, a parte alcuni giochi e il 3D Vision, il gioco non valeva la candela.
MCM non è uno SLI, sono più die, ma visti come fosse un monolitico.:)
MCM non è uno SLI, sono più die, ma visti come fosse un monolitico.:)
Sì sì, quello è chiaro grazie, è che essendo stato "scottato" in passato vorrei vedere come una soluzione simile potrebbe performare rispetto al singolo chippone :D
Si ma al di la del "principio" che per "700 euro 12 gb sono pochi", io vedo che per il 1440p (target della 5070) 8 gb sono stretti, 10 gb giusti, 12 gb abbondanti.
Cosa mi sono perso? Io sarei molto più preoccupato delle prestazioni pure che dei gb. 12, per il 1440p saranno più che sufficiente per molto tempo.
Cio, ora in 4k 12 gb sono sufficienti per il 95% dei giochi eh
Più ce n'è meglio è, d'accordo. Ma se vi dicessero, invece che 700 costa 800 con 16 gb come la prendereste?
Poi ripeto, secondo me sono le performance che la fanno da padrone.
I giochi in UE5 usano pochissima vram, quindi la tendenza non è affatto detto si a a salire
La penso come te, nella fascia x70 i 12 gb ci stanno bene, poi tenere una gpu n° anni, ok si può fare ma poi il limite diventa la gpu stessa non la memoria a bordo.
I 12 giga erano dati per pochi anche in questa gen invece vanno bene sia in 2K che in 4K, anzi, ne avanzano pure.
mikael84
20-03-2024, 15:35
La penso come te, nella fascia x70 i 12 gb ci stanno bene, poi tenere una gpu n° anni, ok si può fare ma poi il limite diventa la gpu stessa non la memoria a bordo.
I 12 giga erano dati per pochi anche in questa gen invece vanno bene sia in 2K che in 4K, anzi, ne avanzano pure.
Te lo dicevo che ti saresti trovato bene.:)
Te lo dicevo che ti saresti trovato bene.:)
Non solo bene ma benissimo, sia lato ram che gpu, tira tutto come un toro :)
Cutter90
20-03-2024, 16:07
I giochi ue5 usciti fino ad oggi non sono oper world.
Quando uscirà gta 6, 16 giga saranno per il 1080p maxato
Poi ripeto , 12 giga non sarebbero un problema se non chiedessero 700 euro. Uno puo sempre scalare dettagli e rientrare .
Ma va anche detto che il dlss4 potrebbe alleggerire il carico.
E questo chi lo dice?
In base a cosa? Ad ora i giochi più esosi e incredibili stannno dentro i 12 gb in 4k. Solo cp 2077 ho visto che soffre con pt e maxato in 4k con i 12 gb.
a sto punto meglio una 80s usata
esattamente.
Ad ora i giochi più esosi e incredibili stannno dentro i 12 gb in 4k.
falso.
falso.
Stra falso a dirla tutta e anche a risoluzioni inferiori.
Senza contare di quanto sia miope quando si parla di GPU che dovremo tenerci fino al 2027 (e la maggior parte delle persone che si fanno un paio di generazioni fino al 2029/2030) giudicare le performance su giochi degli anni scorsi.
E senza contare di come troppe persone si fissino con i medi, poi guardi i minimi e l'1% e le gpu con meno memoria vanno a scatti.
16GB dovrebbe essere il minimo sindacale sulle gpu da oltre 400 gb nella prossima generazione, come minimo.
Si ma al di la del "principio" che per "700 euro 12 gb sono pochi", io vedo che per il 1440p (target della 5070) 8 gb sono stretti, 10 gb giusti, 12 gb abbondanti.
Cosa mi sono perso? Io sarei molto più preoccupato delle prestazioni pure che dei gb. 12, per il 1440p saranno più che sufficiente per molto tempo.
No, certi giochi già usciti abbisognano di più di 12gb in 1440p per poter maxare texutre e RT (RDR, Hogwarts legacy). Tra un anno non saranno i soli.
OrazioOC
20-03-2024, 18:16
Sempre se ci arriva.:D
Onestamente mi aspetto 4 GPC da 9216cc per full BL205 5070ti.
Infatti anche io per la 5070 vanilla ho qualche remore sul fatto che riesca a starsene con AD103 quasi full della 4080.
Però la full BL205 ce la dovrebbe fare. :)
mikael84
20-03-2024, 21:30
GB200 die.
2 die da over 800mm2 + HBM 8196bit
https://i.postimg.cc/jSzqLQ3J/gb202.png
Cutter90
20-03-2024, 21:36
No, certi giochi già usciti abbisognano di più di 12gb in 1440p per poter maxare texutre e RT (RDR, Hogwarts legacy). Tra un anno non saranno i soli.
Hogwarts che ha il RT buggato che non conviene usare? Rdr2 non mi risulta soffra con 12 gb in 1440p.
Ma poi vedo che molti sono convinti che più andremo avanti e più i gb aumenteranno in maniera netta
Per la cronaca è appena uscita la preview di Horizon Forbidden west su pc in cui DF dice che una 3070 fa quasi 1800p prima che la vram si saturi.
A 1440p nessun problema. 8 gb eh, non 12.
La verità è che i giochi che girano male a causa della vram si contano su una mano. E spesso perché programmati da cani, non perché servano davvero quei gb.
E i giochi che stanno uscendo non hanno alcun incremento e/o esigenze di vram più alte.
Facciamo esempi se proprio dovete.
12 gb per il 1440p saranno più che sufficienti per parecchi anni
GB200 die.
2 die da over 800mm2 + HBM 8196bit
Vecchi ricordi...bellissime le hbm a fianco del chippone.
https://www.legitreviews.com/wp-content/uploads/2015/06/fiji-gpu.jpg
E questo chi lo dice?
In base a cosa? Ad ora i giochi più esosi e incredibili stannno dentro i 12 gb in 4k. Solo cp 2077 ho visto che soffre con pt e maxato in 4k con i 12 gb.
In 4K il titolo che inchioda tutte le gpu con meno di 16GB è Alan Wake 2:
https://tpucdn.com/review/asus-geforce-rtx-4070-ti-super-tuf/images/rt-alan-wake-2-3840-2160.png
12GB di vram sono ottimi in ottica 1440p, o se si scala con il DLSS, ma per un 4K nativo sarebbe meglio orientarsi su chip da 16GB, soprattutto se non si aggiorna spesso.
Nella prossima gen l'ideale è avere la tripla densità, una 5070ti otterrebbe 18GB di vram, e un eventuale cut di 5070 su 160bit scenderebbe a 15GB che rimarrebbero comunque bilanciati.
Cutter90
20-03-2024, 21:43
In 4K il titolo che inchioda tutte le gpu con meno di 16GB è Alan Wake 2:
https://tpucdn.com/review/asus-geforce-rtx-4070-ti-super-tuf/images/rt-alan-wake-2-3840-2160.png
12GB di vram sono ottimi in ottica 1440p, o se si scala con il DLSS, ma per un 4K nativo sarebbe meglio orientarsi su chip da 16GB, soprattutto se non si aggiorna spesso.
Nella prossima gen l'ideale è avere la tripla densità, una 5070ti otterrebbe 18GB di vram, e un eventuale cut di 5070 su 160bit scenderebbe a 15GB che rimarrebbero comunque bilanciati.
Infatti sono d'accordo
mikael84
20-03-2024, 21:52
Vecchi ricordi...bellissime le hbm a fianco del chippone.
https://www.legitreviews.com/wp-content/uploads/2015/06/fiji-gpu.jpg
Sulle memorie ci aveva preso, peccato che era la prima implementazione con i soli modulini da 1gb, applicati al suo colobrado per eccellenza.
Quei collegamenti, erano mediamente simili a 256bit gddr5, ma mettendo le ddr, doveva utilizzare la banda della 980 liscia e quindi virò sulle prime HBM.
Ora con le HBM3 basic, ci tiri fuori 96gb di ram e 4tb/s, con quei 4 modulini.
Nei chipponi si potrebbero pure adottare.
Una 5090 la potresti collegare con un simil 128bit, 2 stack HBM, 48gb e 2tb/s.
Risparmieresti un botto di die di collegamenti, meno cache, vista l'ampissima BW.
I costi di due modulini, sino a vega era di 175$ tra ram ed interposer.:)
comunque a parte questo caso di AW2 vedere quanta vram viene sfruttata in un gioco di solito non è indicativo di quanta ne serva realmente.
Esempio un semplice Mirrors edge Catalist del 2016 con tutte le impostazioni su Iper è arrivato ad occuparmi quasi 11gb di vram! ma la vga diciamo che si è un pò "sbragata" perchè quel gioco girava bene al massimo anche su vga dotate di meno vram
Predator_1982
21-03-2024, 09:29
Popolo di inscimmiati, state nascondendo nel cuscino almeno 2500 pappine per la 5090? :D :D
Dracula1975
21-03-2024, 09:34
Popolo di inscimmiati, state nascondendo nel cuscino almeno 2500 pappine per la 5090? :D :D
il premio produzione di luglio al lavoro è già prenotato :D :D
Predator_1982
21-03-2024, 09:35
il premio produzione di luglio al lavoro è già prenotato :D :D
ovvio, anzi c'è già aperto il RID dal conto di giacchetta
Cutter90
21-03-2024, 09:38
Popolo di inscimmiati, state nascondendo nel cuscino almeno 2500 pappine per la 5090? :D :D
Come per la 4090 passando dalla 3090, posso permettermi di aspettare il modello che più preferisco. Tanto la 4090 è assolutamente all'altezza di portarmi anche 1 anno dopo la 5090 giocando al top.
Predator_1982
21-03-2024, 09:38
Come per la 4090 passando dalla 3090, posso permettermi di aspettare il modello che più preferisco. Tanto la 4090 è assolutamente all'altezza di portarmi anche 1 anno dopo la 5090 giocando al top.
il tuo è un discorso razionale e saggio, la scimmia non fa discorsi razionali, la scimmia è avida e vuole solo il top. Ti invade il cervello come un virus alieno e comanda le tue mani sullo store nvidia al day one :D :D
Dracula1975
21-03-2024, 09:42
il tuo è un discorso razionale e saggio, la scimmia non fa discorsi razionali, la scimmia è avida e vuole solo il top. Ti invade il cervello come un virus alieno e comanda le tue mani sullo store nvidia al day one :D :D
a proposito di scimmia..OT : ho appena ordinato un apple studio display, ovviamente completamente a me inutile, per fare l'angolo apple tutto a tema (macmini, tastiera, mouse ed adesso monitor)
ahaha :D :D
GB200 die.
2 die da over 800mm2 + HBM 8196bit
https://i.postimg.cc/jSzqLQ3J/gb202.png
da 30 a 40k. :mc:
CtrlAltSdeng!
21-03-2024, 09:59
Vecchi ricordi...bellissime le hbm a fianco del chippone.
https://www.legitreviews.com/wp-content/uploads/2015/06/fiji-gpu.jpg
die spettacolare quello di fiji, peccato che prese solo pernacchie da tutti
erano gli anni bui di AMD dove avevano il budget in R&D che nvidia probabilmente aveva per la sola cartoleria aziendale :stordita: e per chi lavora in aziende di un certo livello vede benissimo che miracoli abbiano fatto in questi anni per non solo stare a galla ma proporre anche tecnologie da primato (MCM per esmepio) e riprendersi una certa scena nel mondo IT contro competitors giganti come nvidia e intel....respect!
Predator_1982
21-03-2024, 10:07
die spettacolare quello di fiji, peccato che prese solo pernacchie da tutti
erano gli anni bui di AMD dove avevano il budget in R&D che nvidia probabilmente aveva per la sola cartoleria aziendale :stordita: e per chi lavora in aziende di un certo livello vede benissimo che miracoli abbiano fatto in questi anni per non solo stare a galla ma proporre anche tecnologie da primato (MCM per esmepio) e riprendersi una certa scena nel mondo IT contro competitors giganti come nvidia e intel....respect!
quoto, per aggiunta dovendo dividere i fondi R&D anche con il versante CPU, dove anche li con il Ryzen hanno fatto un miracolo di ingegneria (non dimentichiamolo...)
Io mi auguro che possa prima o poi tirar fuori il gioiello anche in ambito GPU, non potremmo che guadagnarne tutti..
marbasso
21-03-2024, 11:17
Popolo di inscimmiati, state nascondendo nel cuscino almeno 2500 pappine per la 5090? :D :D
Anche 3k, però deve valerne
la pena mi ripropongo. Non accetto +40% da 4090.
RedPrimula
21-03-2024, 11:36
a proposito di scimmia..OT : ho appena ordinato un apple studio display, ovviamente completamente a me inutile, per fare l'angolo apple tutto a tema (macmini, tastiera, mouse ed adesso monitor)
ahaha :D :D
Ah interessante, poi cosa fai, ti fermi lì davanti e contempli? :D
mikael84
21-03-2024, 12:05
Nella prossima gen l'ideale è avere la tripla densità, una 5070ti otterrebbe 18GB di vram, e un eventuale cut di 5070 su 160bit scenderebbe a 15GB che rimarrebbero comunque bilanciati.
L'unica speranza è quella. Al momento samsung è fuori dai giochi sulla tripla, ma hynix ha confermato di averla, quindi la palla passa a JHH e micron principlae competitor.
Incredbile come samsung era su un piedistallo prima, ora è riuscita a rimanere indietro addirittura a micron.
Anni che doveva utilizzare le g6 lisce a 24gb/s, per poi costringere i competitor a virare su hynix anche a 18.
da 30 a 40k. :mc:
Si tanto, ma non è roba per comuni mortali. :p
Cmq è mediamente il prezzo di Hopper, il primo chip che ha fatto il serio balzo, prima con Ampere oltre i 10k non si andava.
Predator_1982
21-03-2024, 12:13
Anche 3k, però deve valerne
la pena mi ripropongo. Non accetto +40% da 4090.
io penso che in termini prestazioni brute senza l'uso di mirabolanti filtri e stratagemmi basati sui tensor, non avremo chissà quali differenze...
Ma magari con un DLSS più spinto e un possibile miglioramento del frame gen (che se questa è la tendenza saranno prerogative di blackwell), potremmo vedere anche qualcosa in più di quel 40%
Dracula1975
21-03-2024, 12:15
Ah interessante, poi cosa fai, ti fermi lì davanti e contempli? :D
NO LO USO Oovviamente
ho gaming pc per gioco
mac mini per tutto il resto :D
ray_hunter
21-03-2024, 12:29
ovvio, anzi c'è già aperto il RID dal conto di giacchetta
Come per la 4090 passando dalla 3090, posso permettermi di aspettare il modello che più preferisco. Tanto la 4090 è assolutamente all'altezza di portarmi anche 1 anno dopo la 5090 giocando al top.
Dentro di me penso che con la 4090 sto benissimo ma in realtà so già che appena vedrò i bench della 5090 sarò in totale stato di subbuglio ed eccitazione.
Cmq 2.5K€ non glielo do a giacchetta: non se ne parla:mc: max 2K
mikael84
21-03-2024, 12:45
io penso che in termini prestazioni brute senza l'uso di mirabolanti filtri e stratagemmi basati sui tensor, non avremo chissà quali differenze...
Ma magari con un DLSS più spinto e un possibile miglioramento del frame gen (che se questa è la tendenza saranno prerogative di blackwell), potremmo vedere anche qualcosa in più di quel 40%
Per questo bisogna vedere la microarchitettura interna se rimane uguale. Al momento si parla solo di l1 (giù aumentata da Ampere HPC), e la rasterizzazione a 32, potrebbe portare un raddoppio anche delle rop's.
Se avesse, come per il HPC gli interi scorporati, guadagnerebbe altri 20-30% a pari ALU.
Al momento è da valutare il MCM sulla 5090, e le specifiche troppo ridotte su BL203.
Al momento ci viene speculato un chip BL203, possibile 5080, con 12288cc, che in cut potrebbero diventare 11776cc, ovvero +15% teoriche dalla 4080s.
Clock, col 4np, non salirà tantissimo, 11% perf/watt su un 5 liscio (lovelace ha un 5mod).
In sintesi una 5080 che potrebbe non raggiungere neppure una 4090, che è già un buono scarto di AD102.
Questo fa pensare a qualche modifica microarchitetturale più marcata, le x90/x80ti un tempo erano roba da x70/x70ti successive.
Certo il vero fulcro saranno lgi aggiornamenti OFA e tensor , e giù questi saranno 2x.
FrancoBit
21-03-2024, 13:39
Dentro di me penso che con la 4090 sto benissimo ma in realtà so già che appena vedrò i bench della 5090 sarò in totale stato di subbuglio ed eccitazione.
Cmq 2.5K€ non glielo do a giacchetta: non se ne parla:mc: max 2K
mmmmmm... verrete tutti facilmente convinti dai grafici e da jaccketta, "The more you spend...." :ciapet:
Predator_1982
21-03-2024, 14:14
In sintesi una 5080 che potrebbe non raggiungere neppure una 4090, che è già un buono scarto di AD102.
da un punto di vista di immagine sarebbe molto molto brutto.. Però si in effetti è plausibile. A maggior ragione la discriminante potrebbe esser data da qualche tecnologia inchiodata a quella micro architettura (tipo DLSS 3 / 3.5)
Comunque che costeranno 2 reni è ormai secondo me è l'unica cosa scontata, qualcuno dovrà pur contribuire ad ammortizzare 10 miliardi di dollari di investimenti in R&D
La vera questione è la 5080 arriverà alla 4090, perché il salto è non da poco, e prevedo un futuro dove nel 2025 presenteranno una 5090 da urlo e poi la 5080 che andrà si e no come l'attuale 4090, prezzata a piacimento.
Senza contare la fascia PRO che se già ora per molti una 4090 è la scheda perfetta per lavorare con IA e Render, se fanno una 5090 che tira anche solo il 30% in più poi ti ritrovi a cannibalizzare la fascia PRO con una scheda RTX a prezzo più conveniente e tutti prenderebbero quella e non le A.
Sarà un interessante gioco di equilibri, soprattutto vedere quanto faranno pagare la 5080 se davvero dovesse superare in prestazioni la 4090 attuale nessuno gli vieterebbe di metterla a quel prezzo.
Mi auto quoto.
mikael84
21-03-2024, 15:16
da un punto di vista di immagine sarebbe molto molto brutto.. Però si in effetti è plausibile. A maggior ragione la discriminante potrebbe esser data da qualche tecnologia inchiodata a quella micro architettura (tipo DLSS 3 / 3.5)
Comunque che costeranno 2 reni è ormai secondo me è l'unica cosa scontata, qualcuno dovrà pur contribuire ad ammortizzare 10 miliardi di dollari di investimenti in R&D
Quasi tutto viene ammortizzato con i datacenter, però è bene sapere che al prodotto finale, applica una quota di R&D ai suoi chip, aumentandone di fatto di costi.
Purtroppo i costi di realizzo salgono inevitabilmente anche lato die.
Per fare un esempio, un monolitico BL202 con un +50% di transistor, dovrebbe avere un die da almeno 790mm2, roba folle solo a pensarlo.
Un dual die da 400mm2 circa, sarebbe già più abbordabile per le rese, ma sempre abbastanza costoso.
Ci sono ben 32gb di gddr7, che sicuramente almeno all'inizio, non costeranno pochissimo...
Al momento è auspicabile un MCM, altrimenti i costi saranno difficili da contenere per il big chip.
Su un nodo appena più affinato, devi farci girare 24500 cuda, 128mb di cache e 512bit.:)
Mi auto quoto.
Al momento pare proprio segmentarsi, x80 che diventa a tutti gli effetti una x70 fisica ed un big chip esagerato.
E' come se, la 1080 fosse la 1070, vs la 1080ti, o come se la 2080 fosse una 2070, con in alto solo la 2080ti.
GB203, al momento microarchitettura a parte, pare una 4080 super super. :D
Mi auto quoto.
Cioè quale prezzo? 2000 e passa euro?
AceGranger
21-03-2024, 17:53
Mi auto quoto.
"se fanno una 5090 che tira anche solo il 30% in più poi ti ritrovi a cannibalizzare la fascia PRO con una scheda RTX a prezzo più conveniente e tutti prenderebbero quella e non le A."
per nVidia, le Ex Titan e le "nuove Titan x090" sono tutte schede PRO, lo ha detto esplicitamente svariate volte durante la presentazione compresa quella della prima 3090.
erano anni che gia le x080 e x080Ti "cannibalizzavano" parzialmente le Pro; per non parlare delle camionate di portatili con GTX e non Quadro che finivano ( e continuano a finire con le RTX ) in mano a ingegneri, grafici, architetti, produzione video, etc. etc.
Con il rifacimento della nomenclatura ( eliminazione dei nomi Titan, Tesla e Quadro ) e la presentazione dei Driver Studio, nVidia ha semplicemente ufficializzato una cosa che gia sapeva da tempo, ovvero che una fetta enorme di mondo professionale prendeva le GTX e se ne batteva delle Quadro perchè all'atto pratico in moltissimi ambienti non c'era differenza; ora tutte le RTX hanno i driver Studio per i software PRO in campo DirectX e GPGPU CUDA.
La serie A rimane con i driver certificati per ambienti Mission Critical e OpenGL, ovvero ambienti che non sono mai stati cannibalizzati dalle GTX e dalle RTX per tangibili differenze.
la x090, come le Titan, costano molto di piu proprio per il fatto che nVidia le calcola come schede PRO di fascia alta a tutti gli effetti; quindi indipendentemente dalle prestazioni nVidia sa che questa fascia la puo prezzare alta perchè è la TOP GPU che un professionista che cerca potenza puo trovare.
le A comunque sono salite di prezzo in modo abominevole in modo anche peggiore delle gaming; la top Quadro una volta te la prendevi con 4K ora te ne servono 8K :muro: .
mmmmmm... verrete tutti facilmente convinti dai grafici e da jaccketta, "The more you spend...." :ciapet:
A sto giro li spenna forte
AceGranger
21-03-2024, 18:07
Cioè quale prezzo? 2000 e passa euro?
se arriva doppio die, con dati di targa +70-100% sulla 4090, possono anche metterla a 2500 euro come la vecchia Titan, perchè quel 70-100% in campo calcolo grafico GPGPU li prende tutti veramente; in gaming di meno, ma ricordate sempre che per nVidia la 5090 è anche una scheda Pro top gamma.
se arriva doppio die, con dati di targa +70-100% sulla 4090, possono anche metterla a 2500 euro come la vecchia Titan, perchè quel 70-100% in campo calcolo grafico GPGPU li prende tutti veramente; in gaming di meno, ma ricordate sempre che per nVidia la 5090 è anche una scheda Pro top gamma.
Si ma Nvidia non crea mai dei dislivelli così mostruosi. Se una ipotetica 5080 dovesse essere così, cosa sarà una 5070? Una scheda da 1500 euro con prestazioni da 4080 ti super?
Farà come sempre ha fatto secondo me. Ogni scheda andrà ad agganciare la sua fascia superiore precedente. Ma è impossibile che tutta quella serie da 70 in giù possa costare ad esempio come una 4080 al lancio. Non la comprerebbe nessuno. Come nessuno comprerebbe una 5080 a 2000 euro. Che te ne fai?
AceGranger
21-03-2024, 21:12
Si ma Nvidia non crea mai dei dislivelli così mostruosi. Se una ipotetica 5080 dovesse essere così, cosa sarà una 5070? Una scheda da 1500 euro con prestazioni da 4080 ti super?
Farà come sempre ha fatto secondo me. Ogni scheda andrà ad agganciare la sua fascia superiore precedente. Ma è impossibile che tutta quella serie da 70 in giù possa costare ad esempio come una 4080 al lancio. Non la comprerebbe nessuno. Come nessuno comprerebbe una 5080 a 2000 euro. Che te ne fai?
no io parlavo di 5090; quella possono metterla a prezzo molto piu elevato e prestazioni molto piu elevate e poi tagliare come gli pare dalla 5080 in giu.
anche perchè, a questo giro, nulla vieta di riproporre la 5080Ti doppio die molto cuttata.
ne hanno molte di opzioni.
Si ma Nvidia non crea mai dei dislivelli così mostruosi. Se una ipotetica 5080 dovesse essere così, cosa sarà una 5070? Una scheda da 1500 euro con prestazioni da 4080 ti super?
Farà come sempre ha fatto secondo me. Ogni scheda andrà ad agganciare la sua fascia superiore precedente. Ma è impossibile che tutta quella serie da 70 in giù possa costare ad esempio come una 4080 al lancio. Non la comprerebbe nessuno. Come nessuno comprerebbe una 5080 a 2000 euro. Che te ne fai?
Devi tener conto anche dello scaling, pure la 4090 è un 2x teorico dalla 3090, ma in game non scala sempre benissimo.
Sicuramente bilanceranno meglio, dato anche il bus più ampio e le memorie più veloci ma dubito fortemente che scali cosi linearmente.
Più che altro bisogna vedere i prezzi e come distribuiranno i vari chip nelle varie fasce.
mikael84
21-03-2024, 21:58
Lo scaling è da valutare su possibili 2 die, non una singola GPU tutta a carico del Gigathread, in caso di MCM.
Nvidia lo usa su 2 die per la prima volta su HPC, ma è già da Ampere HPC che usa un collegamento in stile MCM con GTMIG.
https://i.postimg.cc/630yHLw4/ampere-gpc.png
Per il resto, se fossero 2 die, nvidia potrebbe anche fare come ryzen, ovvero sfruttare i cut di due die, e disabilitare 1 o 2 GPC dei relativi die, creando ad esempio un chip da 16000 cuda e 384bit (basta tagliare 1 canale di ogni die).
Questo lo farà sicuramente in campo pro, mai si lascerà sfuggire una fascia da 48gb per le ex quadro, visto che anche li col clamshell, avrebbe 2 opzioni, ovvero 32 e 64.
AceGranger
21-03-2024, 22:18
Devi tener conto anche dello scaling, pure la 4090 è un 2x teorico dalla 3090, ma in game non scala sempre benissimo.
Sicuramente bilanceranno meglio, dato anche il bus più ampio e le memorie più veloci ma dubito fortemente che scali cosi linearmente.
Più che altro bisogna vedere i prezzi e come distribuiranno i vari chip nelle varie fasce.
nel gaming è impossibile scalare linearmente, sono proprio i game engine che non ce la fanno; forse nel caso di giochi RTX dove il gioco si comporta in parte come un rendering, li forse hai uno scaling migliore nella parte di calcolo puro.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.