View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
marbasso
24-09-2024, 15:33
2x8 pin AWG16 forniscono 600watt, lo stesso del cavetto.
AMD, ad esempio, nella GPU di belta, ha messo 2x8 AWG16, e lo faceva anche nelle dual gpu.
Onde evitare incomprensioni, non dico solo con te Mikael, voglio specificare che io utilizzo questo tipo di cavo, non un accrocchio 2*8pin dentro 2*8pin adattatore che finisce con 16pin a mo' di nvidia adapter 4 in 1.
https://i.postimg.cc/gjWwfskX/1688577822-12vhpwr-adapter-cable-hero.png
fraussantin
24-09-2024, 15:49
Onde evitare incomprensioni, non dico solo con te Mikael, voglio specificare che io utilizzo questo tipo di cavo, non un accrocchio 2*8pin dentro 2*8pin adattatore che finisce con 16pin a mo' di nvidia adapter 4 in 1.
https://i.postimg.cc/gjWwfskX/1688577822-12vhpwr-adapter-cable-hero.pngAnche io uso quello e secondo me è anche piu sicuro del cavo diretto almeno lato psu non si hanno problemi di piegature o usura a smontare e rimontare
L'unica non hai il controllo dei 4 pin diretto nella psu.
Ma con i nuovi bios il problema non si dovrebbe porre.
marbasso
24-09-2024, 16:25
Anche io uso quello e secondo me è anche piu sicuro del cavo diretto almeno lato psu non si hanno problemi di piegature o usira a smontare e rimontare
L'unica non hai il controllo dei 4 pin diretto nella psu.
Ma con i nuovi bios il problema non si dovrebbe ponere.
Certo che hai i due PIN sense a massa in maniera tale che la VGA veda che può Succhiare 600w. Gli altri 2 PIN sono inutili.
La VGA e la PSU comunicano così, la PSU dice alla VGA quanti watt gli può erogare.
https://i.postimg.cc/ZRqJHqkB/Sense-Pins2.jpg
Per il resto concordo appieno.
Volevo anche aggiungere che un connettore 8pin con 16awg e HCS può arrivare a erogare 342w.
Gli HCS sono un modello di spinottini metallici che sono dentro al connettore e che in tanti ormai utilizzano.
http://www.jongerow.com/PCIe/index.html
Dal vangelo secondo jonnyguru.
E sono tutti valori sulla carta in quanto io con un 2x8pin@12vhpwr ho portato la VGA a consumare 932w su occt e xoc galaxy BIOS. Ovvio per 20 secondi, non volevo squagliare nulla
.
mikael84
24-09-2024, 22:05
la gente pro non è la gente da gaming, settore nel quale i consumi dovrebbero avere ancora una enorme rilevanza
chiaro che se tarano tutto per quei 4 inscimmiati che vogliono le super prestazioni fosse anche con 10kw non si va da nessuna parte e ovviamente i cut a seguire saranno da 5kw a scendere
che voglio dire, tutto ok io prendo la 250w fintanto che poi gli sviluppatori non tarano i setup ultra setting su quei mostri
Cmq le 250/300 sono schede di tutto rispetto, partiamo dalla 4070ti/s alla 4080/s. Rispetto a prima cambia che hai fasce sopra, mentre prima si andava di SLI/cross o dual gpu native.
Nel campo pro (pensate per le ex quadro), sta tirando fuori fasce molto esose a doppio datapath per i pro, dove sfrutta effettivamente lo SMT64.
Prima, i 250watt, erano sempre 500/600watt in SLI sugli enthusiast (sino a kepler, anche tri e quad), ora visto l'accorpamento con il pro, non riuscendo ad andare avanti in perf/watt, cercano altre fasce.
in due gen. le ex tesla, sono passate da 400 a 1kw.
Sulla tara, dipende molto dalla res. di riferimento, non c'è una tara in se.
marbasso
26-09-2024, 08:12
Solo oggi, e ce ne vuole visto che li tengo sempre sotto agli occhi, ho notato che tra i sensori di gpuz c'è il crossbar clock di Nvidia. Sarebbe?????
Si diciamo che la fascia x70 è ancora decente come consumi e prestazioni. Però io prevedo che le cose peggioreranno ancora in futuro.
C'è da dire che anche le x80 se tenute a stock o magari undervoltate i consumi non sono eccessivi, soprattutto non in gaming.
Cutter90
26-09-2024, 09:45
Si diciamo che la fascia x70 è ancora decente come consumi e prestazioni. Però io prevedo che le cose peggioreranno ancora in futuro.
C'è da dire che anche le x80 se tenute a stock o magari undervoltate i consumi non sono eccessivi, soprattutto non in gaming.
Infatti io non mi preoccupo dei consumi. Tanto con l undervolt si buttano giù centinaia di watt nella fascia 80/90 guadagnando perf o pareggiando ingame.
La mia sarebbe una 520 watt di bios massimo. Ma io la uso a 380-400 watt (impiego 100 % ovviamente) e ho le stesse perf o perdo 2 fps.
albero77
26-09-2024, 09:47
https://www.techpowerup.com/326912/nvidia-rtx-5090-blackwell-could-feature-two-16-pin-power-connectors
Due x 16pin LOL
I am ready.
non ci credo nemmeno se la vedo
magic carpet
26-09-2024, 10:26
non ci credo nemmeno se la vedoDirei alquanto inverosimile.
Due connettori forse x le custom più tirate e quindi inutili.
marbasso
26-09-2024, 17:24
non ci credo nemmeno se la vedo
Be,già la galaxy 3090ti e la 4090 li hanno....quindi nulla di strano.
OrazioOC
26-09-2024, 18:08
https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
Boom. :O
albero77
26-09-2024, 18:15
https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
Boom. :O
la 5080 non può essere così dai
caccapupu91
26-09-2024, 18:18
costi consumi è una macchina :asd:
un mostro anyway, poco da aggiungere
5080 solo pochi cores in più della 4080, ma qui siamo su un altro nodo, quindi altre frequenze, secondo voi quale potrebbe essere più o meno il clock della 5080? Considerati anche i consumi qualcuno competente potrebbe fare una stima...
albero77
26-09-2024, 19:03
5080 solo pochi cores in più della 4080, ma qui siamo su un altro nodo, quindi altre frequenze, secondo voi quale potrebbe essere più o meno il clock della 5080? Considerati anche i consumi qualcuno competente potrebbe fare una stima...
Michael
OrazioOC
26-09-2024, 19:05
5080 solo pochi cores in più della 4080, ma qui siamo su un altro nodo, quindi altre frequenze, secondo voi quale potrebbe essere più o meno il clock della 5080? Considerati anche i consumi qualcuno competente potrebbe fare una stima...
Se debuttano con una 5080 inferiore alla 4090 è un fiasco su tutta la linea, sia lato marketing che nell'R&D di Blackwell. :asd:
Mi aspetto uno scenario simil 980 ti vs 1070, molto simili per quanto riguarda le performance pure, ma al variare della risoluzione una stava sopra l'altra. :)
albero77
26-09-2024, 19:07
Se debuttano con una 5080 inferiore alla 4090 è un fiasco su tutta la linea, sia lato marketing che nell'R&D di Blackwell. :asd:
Mi aspetto uno scenario simil 980 ti vs 1070, molto simili per quanto riguarda le performance pure, ma al variare della risoluzione una stava sopra l'altra. :)
la 5080 è pari pari la metà della 5090 secondo questo rumor. quindi anche la metà del prezzo? lasciano la spazio per la 5080 super nel 2026?
Prima di parlare di fallimento cmq ci saranno da vedere quanti transistor servono per i tensor, per l rt, e c e anche da vedere come saranno le texture ia...tuttavia anche io speravo in più cuda cores per la 5080, ne ha parecchi meno della 4090. Vedremo anche i prezzi, tuttavia in effetti in alcuni forum esteri dicono che così sembra una 5070 più che una 5080...
OrazioOC
26-09-2024, 19:13
la 5080 è pari pari la metà della 5090 secondo questo rumor. quindi anche la metà del prezzo? lasciano la spazio per la 5080 super nel 2026?
Non è detto che vada il doppio, lo scaling dei cuda rispetto alle performance reali non è quasi mai lineare. :)
fraussantin
26-09-2024, 19:25
la 5080 è pari pari la metà della 5090 secondo questo rumor. quindi anche la metà del prezzo? lasciano la spazio per la 5080 super nel 2026?Beh non è escluso che la 80 costi 1250 e la 90 il doppio :asd:
mikael84
26-09-2024, 19:36
5080 solo pochi cores in più della 4080, ma qui siamo su un altro nodo, quindi altre frequenze, secondo voi quale potrebbe essere più o meno il clock della 5080? Considerati anche i consumi qualcuno competente potrebbe fare una stima...
Questi chip dovrebbero usare il 4nm HP, ovvero circa l'11%/0,75v più prestante del nodo di lovelace, che è un 5nm mod per la dimensione sulla l2.
Di base il nodo non porta molte migliorie, bisogna vedere in primis la microarchitettura ed il lavoro del progettista sui transistor. I 4nm, hanno fasi di ulvt/elvt (raptor lake ad es.) per aggire sul clock, oppure l'hanno realmente stirata, ed i TDP parlano.
Si parlava di 2,9 base, ma non è del tutto chiaro se base clock o base boost. Se base clock potremmo toccare i 3,3-3,5.
la 5080 è pari pari la metà della 5090 secondo questo rumor. quindi anche la metà del prezzo? lasciano la spazio per la 5080 super nel 2026?
E' una situazione un pò strana, come dissi, è come se con lovelace la 4080 fosse la 12, alias 4070ti vs la 4090. Quindi a livello di performance ci sarà un abisso di quel genere tra le 2. Non so come la prenderanno le grosse testate a vedere una 5080 così "debole", rispetto la 5090.
Ormai il chip X02 sta facendo fascia completamente a se, tanto che andava chiamata con altro nome, volendo essere precisi.
Non è detto che vada il doppio, lo scaling dei cuda rispetto alle performance reali non è quasi mai lineare. :)
4070ti vs 4090 circa in ALU e banda dimezzata.
albero77
26-09-2024, 20:03
Beh non è escluso che la 80 costi 1250 e la 90 il doppio :asd:
boh se sono quelle le specifiche al netto delle modifiche di cui parlava michael più di 999 non possono mica venderla imho
scorpion73
26-09-2024, 20:18
A sto giro mi sa tanto l'idea che ci sarà spazio per la 5080ti.
Che poi lo spazio c'era anche sulle 4000 ma hanno preferito fare la super.
Qui però il chip della 5080 è full specs, quindi non c'è spazio per un refresh.
Il lancio al d1 del chip full sulla x80 comunque non mi lascia presagire benissimo: se arriverà alla 4090 ci arriverà tiratissima, un pò come la 3070 con la 2080ti..
Mah la 5080 rispetto alla 4080 Super non mi sembra sto grande upgrade.
Considerato poi che il consumo passerebbe da 320 a 400 W
Poi voi sicuramente ne sapete più di me
amon.akira
26-09-2024, 20:25
A sto giro mi sa tanto l'idea che ci sarà spazio per la 5080ti.
Che poi lo spazio c'era anche sulle 4000 ma hanno preferito fare la super.
Qui però il chip della 5080 è full specs, quindi non c'è spazio per un refresh.
Il lancio al d1 del chip full sulla x80 comunque non mi lascia presagire benissimo: se arriverà alla 4090 ci arriverà tiratissima, un pò come la 3070 con la 2080ti..
a sto giro penso proprio che ci sarà l 80ti dal chippone supercut e se non arriva tardissimo potrebbe essere un ottimo compromesso
fraussantin
26-09-2024, 20:27
Mah la 5080 rispetto alla 4080 Super non mi sembra sto grande upgrade.
Considerato poi che il consumo passerebbe da 320 a 400 W
Poi voi sicuramente ne sapete più di meTutto dipende da nvidia , se lancerà qualche nuova tecnologia legara l dlss in esclusiva.
mikael84
26-09-2024, 21:06
a sto giro penso proprio che ci sarà l 80ti dal chippone supercut e se non arriva tardissimo potrebbe essere un ottimo compromesso
Un chip per le pro ci sarà sicuramente, perchè nvidia non potrà mai lasciare un divario tra 32gb della fascia x03 e 64gb della x02. Quindi una versione a 384bit la tirerà fuori per forza. Bisognerà vedere sul gaming.
Cmq è impressionante lo stacco, tra il chip prosumer e gaming.
Con ADA, siamo vicini ai livelli di 4070ti vs 4090, con ampere peggio della 3060ti vs 3090. Sarebbe 3060ti a 192bit vs 384.
Ora bisognerà vedere i die, perchè non promettono nulla di buono.
mikael84
26-09-2024, 21:17
https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
Boom. :O
Cmq, io sono abbastanza pignolo su queste cose, ma la banda non è assolutamente questa.
RTX 5090: avrà una banda di 1,792TB/S con 96/128mb di cache (mostruosa e quasi 2x dalla 4090)
RTX 5080: avrà 896 gb/s di banda e 64mb l2.
https://i.postimg.cc/3wbvspHS/5090.png
Ora, se questo è corretto, la 5070 sarà GB205 (con 12gb), e la 5070ti (se non lasciano un altro solco), sarà un cut di GB203.
devil_mcry
26-09-2024, 21:29
400w per la 5080???
Cmq, io sono abbastanza pignolo su queste cose, ma la banda non è assolutamente questa.
RTX 5090: avrà una banda di 1,792TB/S con 96/128mb di cache (mostruosa e quasi 2x dalla 4090)
RTX 5080: avrà 896 gb/s di banda e 64mb l2.
https://i.postimg.cc/3wbvspHS/5090.png
Ora, se questo è corretto, la 5070 sarà GB205 (con 12gb), e la 5070ti (se non lasciano un altro solco), sarà un cut di GB203.
L'hanno corretta ora la tabella considerando 28gbps GDDR7
Psycho77
27-09-2024, 03:05
Se fosse veritiera questa tabella la serie 90 prende sempre più piede rispetto alla 80.
Nvidia è riuscita nell'intento di far diventare la rtx 5080 una gpu per straccioni.:sofico:
magic carpet
27-09-2024, 07:05
https://www.hwupgrade.it/news/skvideo/geforce-rtx-5090-non-e-una-gpu-ma-una-prova-di-forza-21760-cuda-core-32-gb-di-vram-600-watt_131195.html
600W e dissipatore dual-slot?? :stordita:
fraussantin
27-09-2024, 07:06
Nvidia è riuscita nell'intento di far diventare la rtx 5080 una gpu per straccioni.:sofico:
Aspetta di vedere i prezzi :asd:
OrazioOC
27-09-2024, 07:27
Cmq, io sono abbastanza pignolo su queste cose, ma la banda non è assolutamente questa.
RTX 5090: avrà una banda di 1,792TB/S con 96/128mb di cache (mostruosa e quasi 2x dalla 4090)
RTX 5080: avrà 896 gb/s di banda e 64mb l2.
Ora, se questo è corretto, la 5070 sarà GB205 (con 12gb), e la 5070ti (se non lasciano un altro solco), sarà un cut di GB203.
Infatti fai bene a farlo notare, non a caso poco dopo whycry ha dovuto ricorreggere la tabella. :asd:
Detto questo, è uno dei gap più importanti di sempre tra fascia 80 e 90, e mi aspetto pure uno dei gap più importanti anche a livello di listino.
5080 puzza di gpu da 999/1099 dollari di msrp, l'altra invece può allegramente avere un msrp oltre i 2000 dollari. :doh:
A naso, concorrenza permettendo, un'eventuale 5080ti/super si renderà necessaria dopo qualche mese. :p
Il gap è mostruoso tra 80 e 90, alla fine giacchetta ha voluto creare due fasce completamente distinte, GPU da game sino alla 80, altro con la 90.
Se queste sono davvero le spec della 80 quelle inferiori saranno praticamente copie, lato cuda, delle attuali Ada :rolleyes:
OrazioOC
27-09-2024, 09:04
https://videocardz.com/newz/nvidia-geforce-rtx-5090-to-pcie-5-0-interface-displayport-2-1a-uhbr20-and-a-single-12x-2x6-power-connector
che figata, non vedo l'ora che i polli con la scimmia di avere sempre l'ultima uscita per niente prendano la 5090 così si troveranno le 4090 usate ad un prezzo imbattibile :D
Cutter90
27-09-2024, 09:16
che figata, non vedo l'ora che i polli con la scimmia di avere sempre l'ultima uscita per niente prendano la 5090 così si troveranno le 4090 usate ad un prezzo imbattibile :D
Sogna. Se la 5080 va quasi come la 4090 con cavolo che la 4090 cala :D
ninja750
27-09-2024, 09:19
Il gap è mostruoso tra 80 e 90, alla fine giacchetta ha voluto creare due fasce completamente distinte, GPU da game sino alla 80, altro con la 90.
già adesso il distacco tra 4080 e 4090 è notevole (sia prezzo che cuda)
Se queste sono davvero le spec della 80 quelle inferiori saranno praticamente copie, lato cuda, delle attuali Ada :rolleyes:
ma a prezzi e wattaggi più alti :O
Dracula1975
27-09-2024, 09:28
Sogna. Se la 5080 va quasi come la 4090 con cavolo che la 4090 cala :D
esattamente :D ma anche andasse leggermente meglio...ha sempre 16gb vram :D
se vuoi la 4090 usata.-.paaagaaareeee
anche perche' è già in shortage..hanno quasi smesso di produrla :D
già adesso il distacco tra 4080 e 4090 è notevole (sia prezzo che cuda)
Si, ma ora il gap è quasi esagerato, non oso immaginare il prezzo, questa buca i 2500 euro
Dracula1975
27-09-2024, 09:51
Si, ma ora il gap è quasi esagerato, non oso immaginare il prezzo, questa buca i 2500 euro
spero di no perche' vuol dire custom a quasi 3000 euro circa :D
esattamente :D ma anche andasse leggermente meglio...ha sempre 16gb vram :D
se vuoi la 4090 usata.-.paaagaaareeee
anche perche' è già in shortage..hanno quasi smesso di produrla :D
ogni tanto la si trova sui 1300-1400, ma tanto so che non avrò mai coraggio di comprarla
ninja750
27-09-2024, 10:08
Si, ma ora il gap è quasi esagerato, non oso immaginare il prezzo, questa buca i 2500 euro
e magari nella classifica perf/prezzo non sfigurerà più di tanto
c'è da vedere come scaleranno i cuda
albero77
27-09-2024, 10:08
https://videocardz.com/newz/nvidia-geforce-rtx-5090-to-pcie-5-0-interface-displayport-2-1a-uhbr20-and-a-single-12x-2x6-power-connector
soprattutto sulla 5090 mi sembra d'obbligo dp 2.1, sarebbe stato utile anche su 4090 in realtà
Si, ma ora il gap è quasi esagerato, non oso immaginare il prezzo, questa buca i 2500 euro
Le x90 sarebbero le vecchie Titan però, bisogna tenerlo a mente e non farsi sempre abbindolare dal reparto marketing di nvidia. ;)
Le x90 sarebbero le vecchie Titan però, bisogna tenerlo a mente e non farsi sempre abbindolare dal reparto marketing di nvidia. ;)
Giacchetta lo sta rimarcando forte questo concetto, ci vuoi giocare ok, ma non è una gpu game nel senso stretto del termine.
Considerando poi che razza di HW ci vuole per affiancarla, partendo dalla PSU in poi...
albero77
27-09-2024, 10:24
Le x90 sarebbero le vecchie Titan però, bisogna tenerlo a mente e non farsi sempre abbindolare dal reparto marketing di nvidia. ;)
molte custom 4090 al lancio costavano 2,5k, non mi aspetto niente di meno, le 5090 fe penso e spero meno di 2,000 dollari che poi in italia inevitabilmente diventeranno 2,000 euro. certo è che fine/settembre inizi ottobre i rumor sono sempre meno rumor...per chi ha una 4090 non ha senso passare alla 5080, non vi ricorda nulla questa cosa?
Giacchetta lo sta rimarcando forte questo concetto, ci vuoi giocare ok, ma non è una gpu game nel senso stretto del termine.
Considerando poi che razza di HW ci vuole per affiancarla, partendo dalla PSU in poi...
Lasciando stare tutto ciò che serve di contorno per far funzionare a dovere una bestia simile, credo che JHH con questa mossa si rivolge oltre che ai professionisti, agli inscimmiati cronici che la prendono in considerazione solo per uso gaming, dove secondo me è sprecata.
molte custom 4090 al lancio costavano 2,5k, non mi aspetto niente di meno, le 5090 fe penso e spero meno di 2,000 dollari che poi in italia inevitabilmente diventeranno 2,000 euro. certo è che fine/settembre inizi ottobre i rumor sono sempre meno rumor...per chi ha una 4090 non ha senso passare alla 5080, non vi ricorda nulla questa cosa?
Penso che chi ha una 4090 faccia più che bene a tenersela stretta se la 5080 sarà veramente tagliata così al netto di DLSS+ e FG+.
Dracula1975
27-09-2024, 10:46
molte custom 4090 al lancio costavano 2,5k, non mi aspetto niente di meno, le 5090 fe penso e spero meno di 2,000 dollari che poi in italia inevitabilmente diventeranno 2,000 euro. certo è che fine/settembre inizi ottobre i rumor sono sempre meno rumor...per chi ha una 4090 non ha senso passare alla 5080, non vi ricorda nulla questa cosa?
pero' una ipotetica 5080super/Ti potrebbe convenire se uscisse successivamente (e uscira' troppo netto il salto fossero veri i rumors)
scorpion73
27-09-2024, 11:30
pero' una ipotetica 5080super/Ti potrebbe convenire se uscisse successivamente (e uscira' troppo netto il salto fossero veri i rumors)
Se la 5080 andrà vuoto per pieno come una 4090 (anche fosse un 10% in più) conviene imho attendere una 5080ti... e se non esce o costa una follia pure quella si aspettano dritte le 6000, che secondo me saranno il vero game change perché coincideranno pure con l'uscita delle nuove console.
Chi ha una 4080 potrebbe trovare un upgrade magari allettante sulla 5080, ma chi ha una 4090 direi anche no se fossero quelle le prestazioni.
Non credo che eventuali feature esclusive la faranno da padrone: alla fine se consideri alle fasce alte si gioca bene anche solo col DLSS senza FG e comunque perché siano adottate ci vorrà un pò di tempo.
Se levi le texture neurali, che potrebbero essere l'unico vero plus ma che non sappiamo se saranno anche abilitate alle Ada, ci sono già ora tutte le tecniche che servono per giocare bene per quello che è l'attuale parco titoli e non mi sembra che ci siano all'orizzonte tutti sti titoli ammazza-4090.
La 5090 non la considero proprio perché fra consumi e costo sarà a mio avviso fuori orbita lunare. Che poi l'ipotesi che arrivi con due connettori non è da escludere perché 600W è il limite del cavo attuale. Le custom ce l'avranno quasi sicuramente secondo me se il consumo della FE è di 600W a stock.
mikael84
27-09-2024, 11:43
Infatti fai bene a farlo notare, non a caso poco dopo whycry ha dovuto ricorreggere la tabella. :asd:
Detto questo, è uno dei gap più importanti di sempre tra fascia 80 e 90, e mi aspetto pure uno dei gap più importanti anche a livello di listino.
5080 puzza di gpu da 999/1099 dollari di msrp, l'altra invece può allegramente avere un msrp oltre i 2000 dollari. :doh:
A naso, concorrenza permettendo, un'eventuale 5080ti/super si renderà necessaria dopo qualche mese. :p
In linea di massima, è come se con ADA, nvidia avesse tirato fuori la 4080 12 vs la 4090. Mediamente stesso rapporto.
Ancora più da brivido il rapporto con Ampere, dove una 3080 sarebbe stata circa una 3060ti a 192bit (meno della metà) vs la 3090.
Temo che venga sonoramente bocciata dalle varie grosse testate.
Ora, manca ancora di conoscere la microarchitettura ed il clock, ma salvo OFA/IA, questo chip avrà difficoltà con la 4090.
Ci sta che per clock, su un normale scaling tipo tpu 1440p la superi pure, ma tale chip arriva mediamente anche al 30-40% in vari scenari.
Giacchetta lo sta rimarcando forte questo concetto, ci vuoi giocare ok, ma non è una gpu game nel senso stretto del termine.
Considerando poi che razza di HW ci vuole per affiancarla, partendo dalla PSU in poi...
Anche la 5080 se confermata, non sarà di semplice gestione. A conti fatti richiede quelli della 4090.
Anche la 5080 se confermata, non sarà di semplice gestione. A conti fatti richiede quelli della 4090.
Ma la 5070 ormai è sicuro che sarà con 12 GB di vram e bus a 192 bit per poi lasciare spazio ad una futura 5070Ti invece? O c’è ancora speranza che esca subito col 256 bit?
ninja750
27-09-2024, 12:00
Ma la 5070 ormai è sicuro che sarà con 12 GB di vram
che è una cosa patetica visto che oltre al prezzo anche le 6000 amd ne hanno 16
mikael84
27-09-2024, 12:07
Ma la 5070 ormai è sicuro che sarà con 12 GB di vram e bus a 192 bit per poi lasciare spazio ad una futura 5070Ti invece? O c’è ancora speranza che esca subito col 256 bit?
Al momento si stanno confermando i chip, quindi la 5070 dovrebbe utilizzare la sku di GB205 che è a 192bit. I chip stanno usando la doppia densità, non tripla.
Probabile che l'eventuale TI, utilizzi un cut di GB203.
Micron è sempre in ritardo, ricordo che ha debuttato con la singola su ampere, e la doppia con la 3090ti, quasi a fine gen.
L'unica sicura di avere 18gb sarà la 6070.
Al momento cmq, tra GB203 e GB205 c'è un altro importante solco, 6400cc vs 10752.
che è una cosa patetica visto che oltre al prezzo anche le 6000 amd ne hanno 16
Aggiungo, anche la prossima partirà da 16gb, per via del bus.
Psycho77
27-09-2024, 12:21
Non ho mai avuto problemi io con miseri 12 gb di vram, figuriamoci con 16 gb.
Maxo praticamente tutto, da gof ragnarok, horizon forbidden west (entrambi in 4k) fino a alan wake 2 con path tracing (1440p).
L'algoritmo di compressione ram nvidia è infinitamente superiore a quello di amd, ma ho notato una porcata passando dalla 3080 alla 4070 ti.
In far cry 6 stutteravo con il gioco al max a 1440p perchè i 10 gb di vram non bastavano, invece con la rtx 4070 ti bastano ed avanzano 9 gb di vram.
Questo perchè? Perchè nvidia ha aggiornato l'algoritmo sulla serie 4000, ma non sulla serie 3000.....:read:
Alla fine dei conti se la rtx 5080 non andrà almeno un 15% in più di una rtx 4090 sarà un flop pazzesco, voglio vedere quanto il dlss 4.0 ed altre nuove tecnologie saranno in grado di spostare l'asticella verso l'alto per renderla più appetibile rispetto alla gen precedente.
Cutter90
27-09-2024, 12:26
Non ho mai avuto problemi io con miseri 12 gb di vram, figuriamoci con 16 gb.
Maxo praticamente tutto, da gof ragnarok, horizon forbidden west (entrambi in 4k) fino a alan wake 2 con path tracing (1440p).
L'algoritmo di compressione ram nvidia è infinitamente superiore a quello di amd, ma ho notato una porcata passando dalla 3080 alla 4070 ti.
In far cry 6 stutteravo con il gioco al max a 1440p perchè i 10 gb di vram non bastavano, invece con la rtx 4070 ti bastano ed avanzano 9 gb di vram.
Questo perchè? Perchè nvidia ha aggiornato l'algoritmo sulla serie 4000, ma non sulla serie 3000.....:read:
Alla fine dei conti se la rtx 5080 non andrà almeno un 15% in più di una rtx 4090 sarà un flop pazzesco, voglio vedere quanto il dlss 4.0 ed altre nuove tecnologie saranno in grado di spostare l'asticella verso l'alto per renderla più appetibile rispetto alla gen precedente.
Alan wake 2 con PT in 1440p quando avevo la 4070 ti non super li saturava alla grande 12 gb. Tanti altri giochi in 4k superano i 12. Ma chjiramente tantissimi altri no. In linea generale per il 4k 16 gb dalla prossima gen saranno fondamentali.
Psycho77
27-09-2024, 12:37
Alan wake 2 con PT in 1440p quando avevo la 4070 ti non super li saturava alla grande 12 gb. Tanti altri giochi in 4k superano i 12. Ma chjiramente tantissimi altri no. In linea generale per il 4k 16 gb dalla prossima gen saranno fondamentali.
Mai avuto un problema di ram e mai stutter con alan wake 2 te lo posso assicurare.
Suvvia alcuni giochi sono taroccati, tipo resident evil 4 che richiede 3 gb di vram in più per le ombre ad ultra. Basta metterle ad alto per avere lo stesso identico risultato e non creare problemi di saturazione ram.
I top grafici (che a me fanno cagare) come hellblade 2 e wukong girano alla perfezione in 4k maxati con 12 gb di vram.
Lasciando perdere le porcate made in ubisoft credo che con 16 gb di vram ci si possa stare larghissimi anche per i prossimi due anni in 4k, anche perchè non vedo all'orizzonte giochi che promettono di ridefinire il quadro tecnico di un gioco.
Questa è una domanda che si fanno in troppo pochi. Ok compro la 5090 e mi dissanguo, ma per giocare a che?
amon.akira
27-09-2024, 12:40
ovviamente chi ha una 4090 deve guardare solo la 5090 con relativa escalation di prezzo, anche se la 5080 andasse +10% come da rumor, sarebbe un downgrade lato vram
mikael84
27-09-2024, 12:50
ovviamente chi ha una 4090 deve guardare solo la 5090 con relativa escalation di prezzo, anche se la 5080 andasse +10% come da rumor, sarebbe un downgrade lato vram
Al netto che potrebbero avere lavorato sulla microarchitettura e IPC, anche scorporando gli INT, guadagneresti +15% solo li.
Se devi andare di solo clock, come li tiri fuori 40-50% in base al gioco, per fare +10% sulla 4090?
Se poi sono i 1440p raster di TPU, li basterà un pò di clock per lo scaling più lineare.
Bisognerà vedere quanto guadagneranno sul perf/watt, ad oggi i consumi sono saliti di 1,25watt, quindi rispetto alla 4080 il salto c'è a pari cuda.
Cutter90
27-09-2024, 12:54
Mai avuto un problema di ram e mai stutter con alan wake 2 te lo posso assicurare.
Suvvia alcuni giochi sono taroccati, tipo resident evil 4 che richiede 3 gb di vram in più per le ombre ad ultra. Basta metterle ad alto per avere lo stesso identico risultato e non creare problemi di saturazione ram.
I top grafici (che a me fanno cagare) come hellblade 2 e wukong girano alla perfezione in 4k maxati con 12 gb di vram.
Lasciando perdere le porcate made in ubisoft credo che con 16 gb di vram ci si possa stare larghissimi anche per i prossimi due anni in 4k, anche perchè non vedo all'orizzonte giochi che promettono di ridefinire il quadro tecnico di un gioco.
Questa è una domanda che si fanno in troppo pochi. Ok compro la 5090 e mi dissanguo, ma per giocare a che?
Hellblade 2 e wukong maxati con la 4070 ti non li maxi nemmeno con il binocolo a meno di andare a 30 fps.
Ti dico che passare a 16 gb da 12 ho visto miglioramenti nei giochi in cui 12 erano al limite.
Non ho mai avuto problemi io con miseri 12 gb di vram, figuriamoci con 16 gb.
Maxo praticamente tutto, da gof ragnarok, horizon forbidden west (entrambi in 4k) fino a alan wake 2 con path tracing (1440p).
L'algoritmo di compressione ram nvidia è infinitamente superiore a quello di amd, ma ho notato una porcata passando dalla 3080 alla 4070 ti.
In far cry 6 stutteravo con il gioco al max a 1440p perchè i 10 gb di vram non bastavano, invece con la rtx 4070 ti bastano ed avanzano 9 gb di vram.
Questo perchè? Perchè nvidia ha aggiornato l'algoritmo sulla serie 4000, ma non sulla serie 3000.....:read:
Alla fine dei conti se la rtx 5080 non andrà almeno un 15% in più di una rtx 4090 sarà un flop pazzesco, voglio vedere quanto il dlss 4.0 ed altre nuove tecnologie saranno in grado di spostare l'asticella verso l'alto per renderla più appetibile rispetto alla gen precedente.
parere personale, così come il mio ovviamente, se il prezzo sarà decente ovvero sui 1000-1100€ al lancio e ricalcerà quindi quello della 4080 Super anche facesse un -5% dalla 4090 sarebbe un upgrade interessante, altro che flop pazzesco se non fa almeno un +15%
Tanto chi guarda alla 5080 non è l'utente che ha la 4090 nel case, ma quelli che hanno la 4070Ti/4070Ti S/4080/4080S, quindi vedranno ugualmente un boost dalla loro ad un prezzo sempre migliore di quanto non ci fosse sino ad ora come unica alternativa (ovvero la 4090 dai 1900€ a salire)
scorpion73
27-09-2024, 13:19
ovviamente chi ha una 4090 deve guardare solo la 5090 con relativa escalation di prezzo, anche se la 5080 andasse +10% come da rumor, sarebbe un downgrade lato vram
Si ho capito quel che dici, però è un nonsense guardare a una scheda che consuma 600W e costerà almeno 2500 di sola FE, per non parlare delle custom.
Con i giochi attuali ovviamente intendo (e quelli di prossima pubblicazione pure).
Psycho77
27-09-2024, 13:21
Hellblade 2 e wukong maxati con la 4070 ti non li maxi nemmeno con il binocolo a meno di andare a 30 fps.
Ti dico che passare a 16 gb da 12 ho visto miglioramenti nei giochi in cui 12 erano al limite.
Infatti io non ho mai parlato di performance ma di utilizzo di vram.
Hellblade 2 utilizza 9.8 gb di vram maxato in 4k con dlss su quality con 75 fps di media, altro che 30 fps.
https://youtu.be/EBqicAHyYJo?si=UKTzLnocYMVKqumj
Minuto 2:40
Wukong utilizza 8 gb di vram in 4k con dlss performance.
https://youtu.be/knzk5Fzt_zw?si=iAnrPqzNCpFq2WwW
Minuto 1:57
Alan wake 2 in 1440p utilizza circa 11 gb di vram.
https://youtu.be/4GrUpRLvkfc?si=NJDFBH4Jj8McKJN4
Minuto 6:01
La verità è che vi siete fatti intortare con la storia della quantità di vram, ma comunque aspetto la tua lista di giochi da 16 gb dai.
parere personale, così come il mio ovviamente, se il prezzo sarà decente ovvero sui 1000-1100€ al lancio e ricalcerà quindi quello della 4080 Super anche facesse un -5% dalla 4090 sarebbe un upgrade interessante, altro che flop pazzesco se non fa almeno un +15%
Tanto chi guarda alla 5080 non è l'utente che ha la 4090 nel case, ma quelli che hanno la 4070Ti/4070Ti S/4080/4080S, quindi vedranno ugualmente un boost dalla loro ad un prezzo sempre migliore di quanto non ci fosse sino ad ora come unica alternativa (ovvero la 4090 dai 1900€ a salire)
Il tuo ragionamento non fa una piega, ma secondo me sei troppo ottimista sul prezzo.
Cutter90
27-09-2024, 13:23
Si ho capito quel che dici, però è un nonsense guardare a una scheda che consuma 600W e costerà almeno 2500 di sola FE, per non parlare delle custom.
Con i giochi attuali ovviamente intendo (e quelli di prossima pubblicazione pure).
Ragazzi, perchè si da per assodata che il tdp sia 600 watt? Non c'è stata alcuna conferma al riguardo e si può tranquillamente parlare di consumo massimo. E se fosse così anche la 4090 consuma 600 watt.....
La fe 4090 da noi costava 1900 giusto? La 5090 non costerà assolutamente 2500. In base a cosa? Cioè, non vi sembra di navigare un po' tanto con la fantasia?
Cutter90
27-09-2024, 13:35
Infatti io non ho mai parlato di performance ma di utilizzo di vram.
Hellblade 2 utilizza 9.8 gb di vram maxato in 4k con dlss su quality con 75 fps di media, altro che 30 fps.
https://youtu.be/EBqicAHyYJo?si=UKTzLnocYMVKqumj
Non mi torna assolutamente e infatti.....
Minuto 2:40
Wukong utilizza 8 gb di vram in 4k con dlss performance.
https://youtu.be/knzk5Fzt_zw?si=iAnrPqzNCpFq2WwW
E' il bench che è più leggero del gioco e con dlss perf sei in 1080p. Inoltre con frame gen stare sotto i 60 e arrivare a picchi di 40 è quasi ingiocabile
Minuto 1:57
Alan wake 2 in 1440p utilizza circa 11 gb di vram.
https://youtu.be/4GrUpRLvkfc?si=NJDFBH4Jj8McKJN4
Minuto 6:01
Si parlava di 4k però, non di 1440p....... e si conferma, come ho detto che in 4k non ce la farebbe
La verità è che vi siete fatti intortare con la storia della quantità di vram, ma comunque aspetto la tua lista di giochi da 16 gb dai.
Guarda, forse mi conosci poco, ma tutti qua sanno quanto io sia un fautore dell vram è "sufficienti", soprattutto i seguaci amd. Quindi stai parlando di questo argomento con la persona sbagliata.
Già solo nei tuoi 3 giochi c'è aw2 che li supera in 4k, testato personalmente, ti ho detto.
Il punto è che tu non sai che i giochi UE5 usano poca vram di loro. E infatti molte texuture sono in bassa qualità anche maxando il valore.... sta cosa spero che cambi
Vuoi una lista? Ok
Avatar, Star wars Outlaws, Warzone, the last of us, ratchet end clanck, cp 2077, hogwarts legacy, hellblade 2...... qualche esempio eh
https://www.youtube.com/watch?v=dx4En-2PzOU
scorpion73
27-09-2024, 13:38
Ragazzi, perchè si da per assodata che il tdp sia 600 watt? Non c'è stata alcuna conferma al riguardo e si può tranquillamente parlare di consumo massimo. E se fosse così anche la 4090 consuma 600 watt.....
La fe 4090 da noi costava 1900 giusto? La 5090 non costerà assolutamente 2500. In base a cosa? Cioè, non vi sembra di navigare un po' tanto con la fantasia?
La 4090 consumava 600W se lasciata a briglia sciolta, io sto parlando di consumo dichiarato a stock, che per la 4090 era di 450W e non di 600W.
Significa che se a stock consumi 600W a briglia sciolta ne consumi molti di più, anche 700W.
Il fatto che la 5090 costerà almeno quella cifra, secondo me, dipende da tre cose:
1) Usa le GDDR7 che almeno all'inizio non penso siano economiche
2) Il jacket ha detto che secondo la sua legge le VGA costeranno sempre di più (e non di poco)
3) I costi sono aumentati e non di poco rispetto a qualche anno fa e ci metteranno lo shortage a far aumentare i prezzi
Con questo ovviamente spero di sbagliarmi ed essere allegramente smentito: in ogni caso io una VGA di 600W a stock nel mio case onestamente faccio fatica a vedercela.
Psycho77
27-09-2024, 13:44
Guarda, forse mi conosci poco, ma tutti qua sanno quanto io sia un fautore dell vram è "sufficienti", soprattutto i seguaci amd. Quindi stai parlando di questo argomento con la persona sbagliata.
Già solo nei tuoi 3 giochi c'è aw2 che li supera in 4k, testato personalmente, ti ho detto.
Il punto è che tu non sai che i giochi UE5 usano poca vram di loro. E infatti molte texuture sono in bassa qualità anche maxando il valore.... sta cosa spero che cambi
Vuoi una lista? Ok
Avatar, Star wars Outlaws, Warzone, the last of us, ratchet end clanck, cp 2077, hogwarts legacy, hellblade 2...... qualche esempio eh
https://www.youtube.com/watch?v=dx4En-2PzOU
Come prevedibile tutti titoli ubisoft hai nominato..... :asd:
Warzone, the last of us, cp 2077 girano tutti alla perfezione maxati con una rtx 3080 con 10 gb in 4k, provato io personalmente.
Hogwart legacy è un insulto al coding e non lo prendo manco in considerazione.
ninja750
27-09-2024, 13:54
Mai avuto un problema di ram e mai stutter con alan wake 2 te lo posso assicurare.
io ho avuto stutter anche con 16gb perchè ci sono alcuni (pochi) punti che sono evidentemente buggati, es la casa di riposo anziani, nel resto del gioco tutto liscio come l'olio. per me in quel caso sono piccoli bug
Cutter90
27-09-2024, 13:58
La 4090 consumava 600W se lasciata a briglia sciolta, io sto parlando di consumo dichiarato a stock, che per la 4090 era di 450W e non di 600W.
Significa che se a stock consumi 600W a briglia sciolta ne consumi molti di più, anche 700W.
Il fatto che la 5090 costerà almeno quella cifra, secondo me, dipende da tre cose:
1) Usa le GDDR7 che almeno all'inizio non penso siano economiche
2) Il jacket ha detto che secondo la sua legge le VGA costeranno sempre di più (e non di poco)
3) I costi sono aumentati e non di poco rispetto a qualche anno fa e ci metteranno lo shortage a far aumentare i prezzi
Con questo ovviamente spero di sbagliarmi ed essere allegramente smentito: in ogni caso io una VGA di 600W a stock nel mio case onestamente faccio fatica a vedercela.
Ma i 600 watt a stock non sono confermati. Sono un Rumors che io aggiungo molto poco probabile. E infatti molti parlano di 600 watt massimi.....
Anche perchè qual'è il senso di aumentare il tdp da 450 a 600 watt? Cioè, avevano bsiogno di 150 watt in più per fare la 5090? Mai visto un incremento di wattaggio del genere, quindi no, non credo proprio sia il tdp.
Come prevedibile tutti titoli ubisoft hai nominato..... :asd:
Warzone, the last of us, cp 2077 girano tutti alla perfezione maxati con una rtx 3080 con 10 gb in 4k, provato io personalmente.
Hogwart legacy è un insulto al coding e non lo prendo manco in considerazione.
Ma quando mai. cp 2077 in 4k maxato, quindi in pt li supera eccome i 12 gb, testato. Ma poi ti ho postato un video di HU in cui dimostra quello che dico..... va beh
Se sei convinto che 12 gb in 4k vanno benissimo ok. Ma il consiglio che do è che ne servano 16 per il 4k corazzato su schede dalla 4080 in su. Infatti cmq io la 4070 ti non al considero una scheda da 4k "completo".
Psycho77
27-09-2024, 14:05
Quello è un video di disinformazione totale, te lo linko anche io un video dimostrativo per corroborare la mia tesi, ma la chiudo qui per non alimentare possibili flame.
warzone 3 liscio come l'olio con miseri 12 gb di vram maxato in 4k, gli altri video che ti ho linkato hai fatto finta di non vederli.......
https://youtu.be/EmzES16n66w?si=VtCbAuwIodEbBNu1
mikael84
27-09-2024, 14:18
Anche perchè qual'è il senso di aumentare il tdp da 450 a 600 watt? Cioè, avevano bsiogno di 150 watt in più per fare la 5090? Mai visto un incremento di wattaggio del genere, quindi no, non credo proprio sia il tdp.
Il perf/watt. 50-60% a 450watt non è di certo semplice da tirare fuori. In ogni gen. hanno aumentato i consumi per questo, salvo salti nodo devastanti.
Esempio, la 3080, fa +55% la 2080 con il +55% di consumi, a 600watt siamo a circa il 30%.
Questo puoi calcolarlo per tutte le gen.;)
Quello è un video di disinformazione totale, te lo linko anche io un video dimostrativo per corroborare la mia tesi, ma la chiudo qui per non alimentare possibili flame.
warzone 3 liscio come l'olio con miseri 12 gb di vram maxato in 4k, gli altri video che ti ho linkato hai fatto finta di non vederli.......
https://youtu.be/EmzES16n66w?si=VtCbAuwIodEbBNu1
Meglio.;)
Cutter90
27-09-2024, 14:23
Quello è un video di disinformazione totale, te lo linko anche io un video dimostrativo per corroborare la mia tesi, ma la chiudo qui per non alimentare possibili flame.
warzone 3 liscio come l'olio con miseri 12 gb di vram maxato in 4k, gli altri video che ti ho linkato hai fatto finta di non vederli.......
https://youtu.be/EmzES16n66w?si=VtCbAuwIodEbBNu1
In 4k io (e tutti) consiglio i 16 gb minimo. Tu fai come vuoi: torniamo sui rumors
Cutter90
27-09-2024, 14:25
Il perf/watt. 50-60% a 450watt non è di certo semplice da tirare fuori. In ogni gen. hanno aumentato i consumi per questo, salvo salti nodo devastanti.
Esempio, la 3080, fa +55% la 2080 con il +55% di consumi, a 600watt siamo a circa il 30%.
Questo puoi calcolarlo per tutte le gen.;)
Meglio.;)
beh però il discorso teorico lo capisco. Ma alla fine la 4090 all'atto pratico ha un tdp di 450 andando a consumare come una 3090 ti... sbaglio? Anzi, mi pare che tutta la 4000 abbia aumentato le perf con gli stessi consumi, più o meno
FrancoBit
27-09-2024, 14:33
Bè se escludiamo le top di gamma, posso dire che essendo passato da 3080 a 4080 ho guadagnato parecchio (+30%/40% a spanne) consumando meno (320 vs 350). Credo che sulle **90 il discorso sia diverso però, sono proprio un'altra tier ormai
mikael84
27-09-2024, 15:19
beh però il discorso teorico lo capisco. Ma alla fine la 4090 all'atto pratico ha un tdp di 450 andando a consumare come una 3090 ti... sbaglio? Anzi, mi pare che tutta la 4000 abbia aumentato le perf con gli stessi consumi, più o meno
Si dici bene, però per l'appunto, tra la serie 3000 e 4000 c'è stato uno dei salti più grandi di sempre lato PP e transistor.
Siamo passati da una mod 10nm samsung (chiamata 8lpp per densità) contro un 5nm (4n mod x l2) di TSMC che è un nodo avanti a samsung, con il risultato che praticamente solo shrinkando, hai guadagnato circa il 50% di clock.
Ora passi da un 4n (5nm mod) ad un 4HP. Simil nodo.
Inoltre la 3090ti era una GPU full tirata per i cappelli, la normale 3090 sta a 350.
Probabilmente una 4090ti full tirata, avrebbe richiesto abbastanza di più dei 450.
La 4090 è praticamente la 3080 12 di lovelace.
Infatti la 4080/s è una sorta di 3080ti che boosta stock a 2720circa.
Se guardi le gen, Ampere o turing, i risultati sono ben diversi.;)
OrazioOC
27-09-2024, 15:26
https://videocardz.com/newz/nvidia-developing-two-more-geforce-rtx-50-cards-with-gb202-203-gpus
mikael84
27-09-2024, 16:27
Da prendere con le pinze, possibile anche una RTX5080 con la tripla densità e 24gb sempre su GB203
https://wccftech.com/nvidia-24-gb-geforce-rtx-5080-gpu-after-16-gb-first-gaming-blackwell-shipments-spotted/
Questo sarebbe ottimo per il GB205, con la speranza di vederlo a 18gb.
Da prendere con le pinze, possibile anche una RTX5080 con la tripla densità e 24gb sempre su GB203
https://wccftech.com/nvidia-24-gb-geforce-rtx-5080-gpu-after-16-gb-first-gaming-blackwell-shipments-spotted/
Questo sarebbe ottimo per il GB205, con la speranza di vederlo a 18gb.
È quello che ho pensato anche io, sembra ci sia speranza per la tripla densità, risolverebbe i vari ammanchi di vram sulle fasce x70 a parità di bus. :)
OrazioOC
27-09-2024, 16:32
Da prendere con le pinze, possibile anche una RTX5080 con la tripla densità e 24gb sempre su GB203
https://wccftech.com/nvidia-24-gb-geforce-rtx-5080-gpu-after-16-gb-first-gaming-blackwell-shipments-spotted/
Questo sarebbe ottimo per il GB205, con la speranza di vederlo a 18gb.
Non lo darei per certo l'uso della tripla densità sulle gpu gaming, però quelle pro ne dovrebbero usufruire. ;)
mikael84
27-09-2024, 16:41
È quello che ho pensato anche io, sembra ci sia speranza per la tripla densità, risolverebbe i vari ammanchi di vram sulle fasce x70 a parità di bus. :)
Si, perchè il vero salto delle g7, oltre alla banda è proprio la tripla densità.
Se i bus piccoli, li colmi a cache e banda, la ram purtroppo no.
Per pignoleria, anche la 5080 con 16gb, è valida, ma per un chip sopra il millino, non è proprio il massimo, per un chip che dovrà farsi altri 2-3 anni almeno, emulando possibilmente una 4090.
Non lo darei per certo l'uso della tripla densità sulle gpu gaming, però quelle pro ne dovrebbero usufruire. ;)
Le pro (ex quadro) usano il clamshell, dual bus 8bit fronte e retro. Quindi GB202 arriva a 64gb.
Ovviamente puoi utilizzarle anche li e portare 96gb sul top chip.
Ricordo che al debuto delle g6 e doppia densità, nvidia speculò sulla RTX8000 con 48gb, portandola a 10000$, mentre lo stesso chip a 24, 6000.
ma secondo me sei troppo ottimista sul prezzo.
è una speranza, sul fatto che abbiano imparato qualcosa con ilprezzo sbagliato della 4080 fino a che non è uscita la 4080S....ma non posso darti torto, probabilmente sono troppo ottimista (purtroppo :cry: )
è una speranza, sul fatto che abbiano imparato qualcosa con ilprezzo sbagliato della 4080 fino a che non è uscita la 4080S....ma non posso darti torto, probabilmente sono troppo ottimista (purtroppo :cry: )
Io ho paura sparino alto, anche perché nè Intel, nè AMD saranno competitivi sulla fascia alta, e quindi perché non alzare ancora di più i prezzi?
Psycho77
27-09-2024, 20:21
è una speranza, sul fatto che abbiano imparato qualcosa con ilprezzo sbagliato della 4080 fino a che non è uscita la 4080S....ma non posso darti torto, probabilmente sono troppo ottimista (purtroppo :cry: )
Nvidia non ha praticamente concorrenza, quindi può sparare alto quanto vuole.
Tanto ps5 pro e amd le può tenere a bada con la generazione precedente di gpu e con la nuova può fare come gli pare.
Sparando a 2500 euro la rtx 5090 ( le custom spinte dai 2500 ai 3000 euro)e a 1600 euro la rtx 5080 founder inoltre può spingere il loro intento di incanalare dove vuole lei l'utenza, ovvero sul cloud gaming.
Tanto ormai le loro entrate più grandi le fanno con l'IA, il mercato gpu fisico è ormai un mercato secondario dove può tenere a bada la concorrenza mentre dorme.
Poi spero di sbagliarmi ovviamente, ma non credo che sarà così.
The Void
27-09-2024, 20:41
Ciao a tutti, fatemi capire: dai leaks che potrebbero essere\non essere veritieri vediamo che:
1) rtx 5090 è un mostro totale
2) rtx 5080 andrà come una 4090(e forse un pelo di più) ma con 16gb di ram(contro i 24 della 4090) e costerà presumibilmente dai 1000 ai 1200€ invece che i 1900\2000€ della 4090
Corretto? :what:
Se così fosse, il mio ragionamento non sarà magari condiviso dai più immagino, però anche se la 5080 non sarà il mio target(come non lo è stata la 4080) avere le prestazioni di una 4090 e pagarla 800\900€ in meno dovrebbe dal punto di vista del portafogli convenire(ripeto, imho).
A questo punto quello che mi preoccupa un po' è che andando a scalare verso la serie 5070(il mio target) il rischio potrebbe essere quello di trovarsi con un modello ancorato ancora a 12gb di ram, non sapendo se passeranno anche loro alla gdrr7. Se fanno miracoli con il DLSS4 ok, ma li voglio vedere i miracoli.
fraussantin
27-09-2024, 21:23
Ciao a tutti, fatemi capire: dai leaks che potrebbero essere\non essere veritieri vediamo che:
1) rtx 5090 è un mostro totale
2) rtx 5080 andrà come una 4090(e forse un pelo di più) ma con 16gb di ram(contro i 24 della 4090) e costerà presumibilmente dai 1000 ai 1200 invece che i 1900\2000 della 4090
Corretto? :what:
Se così fosse, il mio ragionamento non sarà magari condiviso dai più immagino, però anche se la 5080 non sarà il mio target(come non lo è stata la 4080) avere le prestazioni di una 4090 e pagarla 800\900 in meno dovrebbe dal punto di vista del portafogli convenire(ripeto, imho).
A questo punto quello che mi preoccupa un po' è che andando a scalare verso la serie 5070(il mio target) il rischio potrebbe essere quello di trovarsi con un modello ancorato ancora a 12gb di ram, non sapendo se passeranno anche loro alla gdrr7. Se fanno miracoli con il DLSS4 ok, ma li voglio vedere i miracoli.Ma già immagino i titoli delle recensioni , la 5080 va meglio di una 4090 a 600 euro in meno . Boom affare del secolo :asd:
mikael84
27-09-2024, 21:37
Ma già immagino i titoli delle recensioni , la 5080 va meglio di una 4090 a 600 euro in meno . Boom affare del secolo :asd:
Quello è tutto da vedere. Con quei cuda, o hanno fatto un miracolo interno (con densità misera), o riescono a clockare veramente tanto. C'è un 30% circa da colmare, che alcune volte scende per scaling, altre sale pure.
Vedendo i watt, probabilmente saranno belle sparate. Alla fine se la raggiunge lo fa anche a watt.
Ma del dlss4 si sa niente ancora?
Legolas84
28-09-2024, 07:36
Che la 5080 vada uguale alla 4090 costando 1000 euro ci può anche stare. Il punto però è che tra questa e la 5090 ad eventualmente 2500 euro non può non esserci una scheda da 1800 che prende il posto della fascia della 4090.
Quindi o cè una terza scheda, o probabilmente la 5090 starà sui 2000.
Tutto imho perché per ora si ragiona sui leak..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma del dlss4 si sa niente ancora?
Non molto in verità, si parla di una compressione texture con rete neurale con rapporto 16x contro gli 8x attuali, sarebbe una grande cosa.
ultimate trip
28-09-2024, 08:49
mia previsione, in fascia 80 deve consolidare il prezzo (1.199$), in fascia 90 aumenta di 200$ (1.799$). Saranno belle schede cmq
Cutter90
28-09-2024, 09:02
Non molto in verità, si parla di una compressione texture con rete neurale con rapporto 16x contro gli 8x attuali, sarebbe una grande cosa.
Che in termini pratici significa?
albero77
28-09-2024, 09:10
mia previsione, in fascia 80 deve consolidare il prezzo (1.199$), in fascia 90 aumenta di 200$ (1.799$). Saranno belle schede cmq
a me appaiono piuttosto veritiere come spec. anche nell'attuale gen la serie x80 non è che abbia brillato. certo fare una 5080 che va quanto una 4090 alla metà del prezzo è comunque un affare. c'è solo un problema: basta farsi un giro nell'usato per trovare già oggi 4090 custom serie a 1300 o giù di li, figuriamoci tra qualche mese....se le spec sono quelle per chi ha 4090 non ha senso la 5080, ma a a sto giro 2k io non li tiro fuori per comprare una stufetta da 600w
Che in termini pratici significa?
Da quello che ho letto una compressione elevatissima delle texture, penso ad opera dei tensor core. Già ora gli algoritmi di nvidia lato compressione sono molto efficienti se migliorano ancora tanto meglio.
In linea di massima, è come se con ADA, nvidia avesse tirato fuori la 4080 12 vs la 4090. Mediamente stesso rapporto.
Ancora più da brivido il rapporto con Ampere, dove una 3080 sarebbe stata circa una 3060ti a 192bit (meno della metà) vs la 3090.
Temo che venga sonoramente bocciata dalle varie grosse testate.
Ora, manca ancora di conoscere la microarchitettura ed il clock, ma salvo OFA/IA, questo chip avrà difficoltà con la 4090.
Ci sta che per clock, su un normale scaling tipo tpu 1440p la superi pure, ma tale chip arriva mediamente anche al 30-40% in vari scenari.
Anche la 5080 se confermata, non sarà di semplice gestione. A conti fatti richiede quelli della 4090.
Nella mia ignoranza avevo pensato allo stesso rapporto, in virtù anche dei 16gb che su una scheda di questo tipo a me sembrano un po' troppo precisi.
Nell'ultima generazione abbiamo assistito alla 4070 che andava il 3% meno della 3080 (invece del canonico 20-30% delle gen precedenti) mentre la 4080 in media va il 20-30% in più della 3090. Per me a sto giro con una 5080 con queste spec potrebbe capitare lo stesso che è capitato alla 70 una generazione fa.
Cutter90
28-09-2024, 10:51
Da quello che ho letto una compressione elevatissima delle texture, penso ad opera dei tensor core. Già ora gli algoritmi di nvidia lato compressione sono molto efficienti se migliorano ancora tanto meglio.
Si ok, ma questo porta ad un uso minore della vram.... fine?:mbe:
mia previsione, in fascia 80 deve consolidare il prezzo (1.199$), in fascia 90 aumenta di 200$ (1.799$). Saranno belle schede cmq
La penso esattamente come te. Che significa però distruggere la fascia 80. Chi ha un'80 non è un enthusiast che spende qualsiasi cifra, è un appassionato che spende quel X in più dalla 70 che comunque sta attento al prezzo totale, ed un appassionato 1200e non li spende proprio bene.
Ovvio con la 5090 a sopra 1500 sembra un affare
Si ok, ma questo porta ad un uso minore della vram.... fine?:mbe:
Si esattamente, a parità di texture occupano meno mem. :)
C'é anche voce su un miglioramento delle texture in tempo reale grazie all'IA.
La penso esattamente come te. Che significa però distruggere la fascia 80. Chi ha un'80 non è un enthusiast che spende qualsiasi cifra, è un appassionato che spende quel X in più dalla 70 che comunque sta attento al prezzo totale, ed un appassionato 1200e non li spende proprio bene.
Ovvio con la 5090 a sopra 1500 sembra un affare
Il problema è che la 4080/4080s in questa gen ha fatto praticamente da x80ti per come è stata proposta e prezzata.
La 4090 che di suo ha un pesante cut, iniziando dalla cache che è stata tagliata da 98mb a soli 72mb, è un chip che poteva già definirsi come 4080ti.
E non ci dimentichiamo che la 4070ti volevano proporla come 4080 12GB...
Al prossimo giro, considerando il pesante divario che c'è tra GB203 e GB202, spero vogliano proporre almeno due SKU per GB202: 5080ti e 5090.
Cutter90
28-09-2024, 11:42
Si esattamente, a parità di texture occupano meno mem. :)
C'é anche voce su un miglioramento delle texture in tempo reale grazie all'IA.
Allora potrebbe essere la features più inutile della storia
Il problema è che la 4080/4080s in questa gen ha fatto praticamente da x80ti per come è stata proposta e prezzata.
La 4090 che di suo ha un pesante cut, iniziando dalla cache che è stata tagliata da 98mb a soli 72mb, è un chip che poteva già definirsi come 4080ti.
E non ci dimentichiamo che la 4070ti volevano proporla come 4080 12GB...
Al prossimo giro, considerando il pesante divario che c'è tra GB203 e GB202, spero vogliano proporre almeno due SKU per GB202: 5080ti e 5090.
Sulla 5080ti ci spero, ma non ci conto.
Anche questo giro avrebbero potuto farlo, salvo poi far uscire una 4080 super che aveva tipo 500 cuda in più o poco di più.
Poi dipende dalle esigenze, essendo in 2k grandi pretese e problemi non li ho è più uno sfizio. Vediamo, magari come dice Mikael fanno miracoli architetturali e allora saremo qui ad osannarla
mikael84
28-09-2024, 12:38
Ma del dlss4 si sa niente ancora?
Queste feature le presenta lui. Nessuno poteva aspettarsi il FG.
Farà qualche conferenza un mese prima del lancio.
Nella mia ignoranza avevo pensato allo stesso rapporto, in virtù anche dei 16gb che su una scheda di questo tipo a me sembrano un po' troppo precisi.
Nell'ultima generazione abbiamo assistito alla 4070 che andava il 3% meno della 3080 (invece del canonico 20-30% delle gen precedenti) mentre la 4080 in media va il 20-30% della 3090. Per me a sto giro con una 5080 con queste spec potrebbe capitare lo stesso che è capitato alla 70 una generazione fa.
Si, 16gb per quanto sufficienti, su un chip del genere non brillano. L'ultimo leaker che parlava dell'adozione di tripla densità potrebbe essere vera, in fondo è caratteristica base delle g7, ma ho come il presentimento che ci sguazzi (es 999 la 16, 1199 la 24, idem in fascia 70 con 12 e 18).
Riguardo le perf, non mi sbilancio molto non conoscendo le mod. microarchitetturali. Se è solo clock sparato, prendere un +30 o over, non è semplice.
La 4070 ha preso quasi il 30% dalla 3070 con il 45% di clock, cache e banda maggiore.
Il 45% di clock su 2725 circa, significa stazzare intorno a 4ghz.
Sulla 5080ti ci spero, ma non ci conto.
Anche questo giro avrebbero potuto farlo, salvo poi far uscire una 4080 super che aveva tipo 500 cuda in più o poco di più.
Poi dipende dalle esigenze, essendo in 2k grandi pretese e problemi non li ho è più uno sfizio. Vediamo, magari come dice Mikael fanno miracoli architetturali e allora saremo qui ad osannarla
Beh, se punti solo al clock, è abbastanza complicato, salvo quest'ultimo non sia veramente estremo, ma difficilmente andremmo over 3,3-3,5.
Pensiamo ad il rapporto di massimo scaling tra 4080s e 3080ti (stessi cuda), ma tra queste si arriva anche a picchi di clock over 50%, visto che la 3080ti stock downclocka parecchio.
Su TPU, abbiamo una differenza di circa il 53% di clock a stock. 2750 circa x 1,53, significa un boost di 4,2.
Si, ma questo Mikael ha funzionato in passato per il salto pazzesco di nodo. Qui è una carta che non va. In questo caso con i clock di ada dove (tirando la scheda) arrivi a 3ghz anche avere una scheda che arriva a 3.3 e anche supponendo che scali 1:1 vorrebbe dire avere si e no un 10% like4like a pari cuda. O aumentano i cuda sensibilmente (dubito ora, sono stati confermati troppe volte) o aumentano la cache o non so che stregonerie architetturali tirano fuori.
Mi sembra assurdo se davvero la 80 non prendesse la 90. Ok che la 90 è mostruosa e rappresenta un salto dalla 80 mai fatto, quindi di fatto non servirebbe superarla, ma almeno prenderla. A meno non ha proprio senso far uscire una 5080. Anche perché a quel punto, se con le perf non superi la 90 crei anche un problema di prezzo
nessuno29
28-09-2024, 15:20
Io più che altro vedo male male le 70/60, che la 70 possa raggiungere la 4080 è fuori discussione credo.
shauni86
28-09-2024, 15:35
che prezzo potrebbe avere la 5080?
nessuno29
28-09-2024, 15:41
che prezzo potrebbe avere la 5080?
imho
5080 stesso prezzo di 4080
5090 +200 euro su 4090
fraussantin
28-09-2024, 15:42
che prezzo potrebbe avere la 5080?
secondo me se è quella più o meno come la 4080 super o poco più .
ma ancora non si può sapere.
tanto la clientela con 4090 da cambiare non la considera , quindi la 5090 non è minata nelle vendite.
discorso diverso per un cut della 5090 che secondo me uscirà solo quando inizieranno a ristagnare le big e meno di parecchi scarti
mikael84
28-09-2024, 15:50
Si, ma questo Mikael ha funzionato in passato per il salto pazzesco di nodo. Qui è una carta che non va. In questo caso con i clock di ada dove (tirando la scheda) arrivi a 3ghz anche avere una scheda che arriva a 3.3 e anche supponendo che scali 1:1 vorrebbe dire avere si e no un 10% like4like a pari cuda. O aumentano i cuda sensibilmente (dubito ora, sono stati confermati troppe volte) o aumentano la cache o non so che stregonerie architetturali tirano fuori.
Mi sembra assurdo se davvero la 80 non prendesse la 90. Ok che la 90 è mostruosa e rappresenta un salto dalla 80 mai fatto, quindi di fatto non servirebbe superarla, ma almeno prenderla. A meno non ha proprio senso far uscire una 5080. Anche perché a quel punto, se con le perf non superi la 90 crei anche un problema di prezzo
Infatti, è proprio quello il punto. O hai lavorato internamente ( avessi almeno una bozza...) o è davvero tosto prendere un 30% a colpi di clock.
Torno a fare l'esempio di prima. RTX 4080 + 30-35% in max scaling 4k vs la 3080ti (la 4090 se la testi a 1080p, basta poco a prenderla, visto che a cuda non scali, ma a clock si).
Ecco, a cuda siamo li tra le 2. Differenza di clock + 53% per la 4080.
Boost stock 4080 = 2737 (rilevato da tpu) al 53% = 4187mhz.
Ecco con tale clock, una 5080, dovrebbe prendere in toto le prestazioni della 4090. Ovviamente è impensabile tale clock con un salto nodo quasi nullo.
Si parla di 2,9 base, il che potrebbe tradursi in 3,5, ed è già un miracolo.
La 4080 supera agevolmente la 3090 per via del salto nodo, ma anche a cuda erano li, qua una sta a 16384, che scalano male, altrimenti...
E sarà sempre peggio, come farà una 6080 a prendere una 5090 che è il doppio... e' inevitabile un declass.
Io più che altro vedo male male le 70/60, che la 70 possa raggiungere la 4080 è fuori discussione credo.
Per calcolare la 5070, dovremmo aspettare qualche test di calcolo o almeno il clock vero della 5080. Da li possiamo calcolare mediamente tutto.
Solo per clock, ipotizzando 3,5, avresti la stessa potenza, la stessa banda, la stessa cache della 4070 ti super. Questo è un obbiettivo fattibile. Se poi tirano fuori quel 10% in più almeno, avremmo la 4080 come 5070.
Io cmq volerei basso, sarà la scheda rivale di navi48, che riprende navi32 in shader, con i benefici del 4nm e del RT. Il chip ps, ma decisamente più clockato.
Quello PS, non arriva alla potenza in flops della 7700xt, quindi altra cosa.
shauni86
28-09-2024, 15:59
secondo me se è quella più o meno come la 4080 super o poco più .
ma ancora non si può sapere.
tanto la clientela con 4090 da cambiare non la considera , quindi la 5090 non è minata nelle vendite.
discorso diverso per un cut della 5090 che secondo me uscirà solo quando inizieranno a ristagnare le big e meno di parecchi scarti
quindi poco più di 1000? non sarebbe male come prezzo visto che l'anno scorso la 4080 costava 1400...
nessuno29
28-09-2024, 16:33
quindi poco più di 1000? non sarebbe male come prezzo visto che l'anno scorso la 4080 costava 1400...
Prezzo di listino ovviamente
Per come la vedo io la RTX 5090 verrà piazzata a un MSRP di circa €2000, quindi significa che realisticamente la vedremo negli shop online a non meno di €2500-2600, con le custom più spinte che toccheranno i €3000.
Che la 5080 vada uguale alla 4090 costando 1000 euro ci può anche stare. Il punto però è che tra questa e la 5090 ad eventualmente 2500 euro non può non esserci una scheda da 1800 che prende il posto della fascia della 4090.
Quindi o cè una terza scheda, o probabilmente la 5090 starà sui 2000.
Tutto imho perché per ora si ragiona sui leak..
Inviato dal mio iPhone utilizzando Tapatalk Pro
a me appaiono piuttosto veritiere come spec. anche nell'attuale gen la serie x80 non è che abbia brillato. certo fare una 5080 che va quanto una 4090 alla metà del prezzo è comunque un affare. c'è solo un problema: basta farsi un giro nell'usato per trovare già oggi 4090 custom serie a 1300 o giù di li, figuriamoci tra qualche mese....se le spec sono quelle per chi ha 4090 non ha senso la 5080, ma a a sto giro 2k io non li tiro fuori per comprare una stufetta da 600w
giusto per capire, indipendentemente dal nome della fascia della scheda (x60,x70,x80x90), se una scheda della nuova generazione è equiparabile ad una scheda della vecchia generazione alla metà del prezzo (e con consumi minori) è una cosa che ci può stare o no?
a memoria, la 4070ti che al lancio costava circa la metà della 3090ti al lancio, (con prestazioni simili, consumi ridotti e aggiunta del nuovo DLSS 3 (https://www.hwupgrade.it/articoli/skvideo/6448/nvidia-geforce-rtx-4070-ti-alla-prova-la-potenza-della-rtx-3090-ti-con-il-dlss-3-nel-taschino_index.html)) non aveva avuto proprio una bella accoglienza qui sul forum.
magic carpet
28-09-2024, 17:31
Ragazzi, mi sa che che stiamo dimenticando una cosa fondamentale: i giochi.
A mio avviso, se non presentano anche qualche gioco che supporti le nuove feature della serie 5x (un po' come facevano una volta per l'uscita delle nuove console), la vedo dura trovare un motivo per scegliere le 5080/5090.
In questa gen, almeno sapevamo di poterci sparare ad es. Alan Wake 2, Hell Blade II, Wukong ecc. al massimo del dettaglio in 4K 120 con DLSS e FG.
Ma ora?
GTA 6 forse nel 2026?
Ragazzi, mi sa che che stiamo dimenticando una cosa fondamentale: i giochi.
A mio avviso, se non presentano anche qualche gioco che supporti le nuove feature della serie 5x (un po' come facevano una volta per l'uscita delle nuove console), la vedo dura trovare un motivo per scegliere le 5080/5090.
In questa gen, almeno sapevamo di poterci sparare ad es. Alan Wake 2, Hell Blade II, Wukong ecc. al massimo del dettaglio in 4K 120 con DLSS e FG.
Ma ora?
GTA 6 forse nel 2026?
Il tuo discorso si applica bene al mondo console, molto meno a quello pc. Ci sarà sempre mercato per le flagship di nvidia, indipendentemente da tutto
Lo Straniero Misterioso
28-09-2024, 18:06
Idee malsane che però nvidia potrebbe anche realizzare...
La 5080 è la nuova top di gamma, arriva grossomodo dove oggi arriva la 4090 (grazie al dlss4 più che al chip) e ha esattamente la vRAM che serve per giocare in 4k e non di più. Costa 1100-1300 euro.
La 5090 non è una scheda gaming ma una scheda studio, il chip è una versione meno cuttata di quello della 80 ma con tanta vRAM per disegnare le donnine zozze con Stable Diffusion. 2000-2500 euro.
Con 700-900 euro abbiamo invece la 5070, che fa quello che prima facevamo con la 4080. Avrebbe poi anche il suo senso come scheda.
E via così.
Ragazzi, mi sa che che stiamo dimenticando una cosa fondamentale: i giochi.
A mio avviso, se non presentano anche qualche gioco che supporti le nuove feature della serie 5x (un po' come facevano una volta per l'uscita delle nuove console), la vedo dura trovare un motivo per scegliere le 5080/5090.
In questa gen, almeno sapevamo di poterci sparare ad es. Alan Wake 2, Hell Blade II, Wukong ecc. al massimo del dettaglio in 4K 120 con DLSS e FG.
Ma ora?
GTA 6 forse nel 2026?
Di solito ci sono 1-2 giochi all'anno che danno senso all'hardware nuovo.
I loro motori grafici poi vengono sfruttati negli anni successivi fino a diventare mainstream, ma in generale ci vuol del tempo.
E infatti chi ha una scheda di fascia alta volendo gioca bene per 4 anni (dovrà scendere a compromessi nei pochi giochi pensati per sfruttare l'hw nuovo, alla cyberpunk per intenderci, ma su tutti gli altri non ha problemi a maxare).
mikael84
28-09-2024, 19:15
Ragazzi, mi sa che che stiamo dimenticando una cosa fondamentale: i giochi.
A mio avviso, se non presentano anche qualche gioco che supporti le nuove feature della serie 5x (un po' come facevano una volta per l'uscita delle nuove console), la vedo dura trovare un motivo per scegliere le 5080/5090.
In questa gen, almeno sapevamo di poterci sparare ad es. Alan Wake 2, Hell Blade II, Wukong ecc. al massimo del dettaglio in 4K 120 con DLSS e FG.
Ma ora?
GTA 6 forse nel 2026?
Considera però che non tutti hanno le Lovelace di fascia alta o estrema. Ci sono tanti possessori di Ampere x70/80 e 90 (tra cui il sottoscritto) o gpu ancora più vecchie, che avrebbero più alternative.
Portare una simil ADA x90 a 1/1100 (esempio) o una simil x80 a 6/700 euro, sarebbe un discreto passo avanti di questi tempi.
Il PT con ampere e AMD ad esempio è inutilizzabile, non avendo neppure il FG, se non quello mod, per le 3000.;)
I requisiti si alzeranno anche per i possessori di 4090.
Infatti, è proprio quello il punto. O hai lavorato internamente ( avessi almeno una bozza...) o è davvero tosto prendere un 30% a colpi di clock.
Torno a fare l'esempio di prima. RTX 4080 + 30-35% in max scaling 4k vs la 3080ti (la 4090 se la testi a 1080p, basta poco a prenderla, visto che a cuda non scali, ma a clock si).
Ecco, a cuda siamo li tra le 2. Differenza di clock + 53% per la 4080.
Boost stock 4080 = 2737 (rilevato da tpu) al 53% = 4187mhz.
Ecco con tale clock, una 5080, dovrebbe prendere in toto le prestazioni della 4090. Ovviamente è impensabile tale clock con un salto nodo quasi nullo.
Si parla di 2,9 base, il che potrebbe tradursi in 3,5, ed è già un miracolo.
La 4080 supera agevolmente la 3090 per via del salto nodo, ma anche a cuda erano li, qua una sta a 16384, che scalano male, altrimenti...
E sarà sempre peggio, come farà una 6080 a prendere una 5090 che è il doppio... e' inevitabile un declass.
Per quelle frequenze mostruose dubito pure che bastino 2 gen con il salto di nodo attuale. In altre parole dubito che anche la 6080 arrivi a 4ghz a meno che non si tiri fuori un altro salto ampere-->ada. Poi magari mi smentisci, ma 4ghz li vedo difficili anche sulle 6000.
Il punto che secondo me molti non contano (e nemmeno io prima di questo post) è questo. La 4080 in effetti scontrandosi con la 3090 avevano praticamente stessi cuda e con un clock del 50% maggiore l'ha presa (e superata) facilmente. Dalla 5080 con 10K cuda alla 4090 passano in effetti +60% di cuda in più, che per quanto non scalino linearmente, anche un super boost al clock del 30% non la vede nemmeno con il binoclo (e sono comunque 3.6GHz di gpu core, follia) a meno che al tempo quando l'hanno disegnata, l'hanno poi appositamente limiata con cache e mem zoppe per questo motivo.
Magari la 5080 ha più cache della 90, monta memorie a 28gb e 3.4/5 Ghz di clock e magari la 4090 la prende pure. Mi chiedo però se costi di più avere cache maggiore e memorie a 28gb piuttosto che fare chip con 5K cuda in più e bona.
E probabilmente mi risponderai (come avvenne per il nodo TSMC di ada) che costa effettivamente un po' di più, ma ci marginano il triplo e quindi vincono 2 volte
fraussantin
28-09-2024, 20:16
quindi poco più di 1000? non sarebbe male come prezzo visto che l'anno scorso la 4080 costava 1400...Si considerando che ka 4080 a 1400 non vendeva , e la 4080 suoer a 1100 ha venduto nonostante fosse vecchia di un anno secondo me non si spostano da quella cifra .
Anche perche è un po meh .
Prezzo di listino ovviamenteOvvio la fe .
Ma qui siamo tutti abbastanza svegli per prendere una fe.
mikael84
28-09-2024, 22:03
Per quelle frequenze mostruose dubito pure che bastino 2 gen con il salto di nodo attuale. In altre parole dubito che anche la 6080 arrivi a 4ghz a meno che non si tiri fuori un altro salto ampere-->ada. Poi magari mi smentisci, ma 4ghz li vedo difficili anche sulle 6000.
Il punto che secondo me molti non contano (e nemmeno io prima di questo post) è questo. La 4080 in effetti scontrandosi con la 3090 avevano praticamente stessi cuda e con un clock del 50% maggiore l'ha presa (e superata) facilmente. Dalla 5080 con 10K cuda alla 4090 passano in effetti +60% di cuda in più, che per quanto non scalino linearmente, anche un super boost al clock del 30% non la vede nemmeno con il binoclo (e sono comunque 3.6GHz di gpu core, follia) a meno che al tempo quando l'hanno disegnata, l'hanno poi appositamente limiata con cache e mem zoppe per questo motivo.
Magari la 5080 ha più cache della 90, monta memorie a 28gb e 3.4/5 Ghz di clock e magari la 4090 la prende pure. Mi chiedo però se costi di più avere cache maggiore e memorie a 28gb piuttosto che fare chip con 5K cuda in più e bona.
E probabilmente mi risponderai (come avvenne per il nodo TSMC di ada) che costa effettivamente un po' di più, ma ci marginano il triplo e quindi vincono 2 volte
Se boosta a 3,5, non è solo per il PP, visto che questo è appena di 11% a 0,75v, quindi boost che avrai a 2,2 circa.
Il vero salto, oltre al PP, se tale sarà veritiero, sarà dovuto alla riprogettazione interna.
Abbiamo visto un +10 con fermi (480 vs 580), un +15 con maxwell (kepler vs max), a questo aggiungi il nodo, le rese, e puoi tranquillamente prendere un +25-26 base.
Si parla di 2,9 base, che partendo da 2290 (base 4080) x 1,25 fa 2,86, quindi ci potresti arrivare così.
Pensiamo anche ad RDNA2, che passando ai 7nm HP avanzati, rivisitazione interna, cache, è salita inizialmente da 1,8 5700xt a 2850 di una 6500xt. Quindi la riprogettazione è importante.
Sul design della 5080, scelte di progettazione loro. GB206 ha i GPC da 8 TPC, mentre la 5080 riprende soltanzialmente lo scheletro di AD103, quindi risparmio.
Se fatta come GB202 con la struttura ad 8, quindi 2048 cc x GPC, potevi mettere 14336 cc, in pochissimo spazio.
La cache non ha molto senso, occupa spazio e basto con questa nanometria.
Su 378mm2 di die, la 4080 ne ha circa 58 di l2. Per dire un 64bit aggiuntivo costerebbe in die 11,5mm2.
AD104 con 11,5mm2 lo potevi fare da 256bit, senza toccare la cache, facendo 12x4, anzichè 16x3. Quindi 48mb con 256bit, evitando la 4070tis, che ha proprio 12x4, rispetto ai 16x4 della 4080.
Si ripete la storia della serie 4000. Ma con le 5000 il divario tra le due è molto ampio.
Deciderà come al solito le vendite. Se venderanno molte 5090, la 5080Ti o S uscirà tra un anno. Altrimenti anticiperanno l'uscita della scheda.
I prezzi, basta che non succeda come la Ps5 pro.
nessuno29
29-09-2024, 08:36
I prezzi, basta che non succeda come la Ps5 pro.
vabbè nel mondo pc la situazione è peggiore già da qualche anno ahah
Cutter90
29-09-2024, 08:43
vabbè nel mondo pc la situazione è peggiore già da qualche anno ahah
Esatto, è ps5 pro ad essere in "ritardo" come prezzi ahahah
Prezzo di listino ovviamente
che a conti fatti si trasforma nuovamente in 1300 circa a salire :doh: , bho speriamo bene
vabbè nel mondo pc la situazione è peggiore già da qualche anno ahah
Esatto, è ps5 pro ad essere in "ritardo" come prezzi ahahah
Infatti hanno raddoppiato il prezzo e stanno vendendo alla grande.
Persa se Nvidia raddoppia o quasi il prezzo. Scaffale? Mah.
marbasso
29-09-2024, 10:49
Ragazzi, mi sa che che stiamo dimenticando una cosa fondamentale: i giochi.
A mio avviso, se non presentano anche qualche gioco che supporti le nuove feature della serie 5x (un po' come facevano una volta per l'uscita delle nuove console), la vedo dura trovare un motivo per scegliere le 5080/5090.
In questa gen, almeno sapevamo di poterci sparare ad es. Alan Wake 2, Hell Blade II, Wukong ecc. al massimo del dettaglio in 4K 120 con DLSS e FG.
Ma ora?
GTA 6 forse nel 2026?
Sarebbero le nuove feature della serie 5x?
Un bel dlss 4.0?
https://i.postimg.cc/v8CpQSt0/nvidia-jensen-huang-ezgif-com-video-to-gif-converter.gif
Gigibian
29-09-2024, 11:15
se sono vere le spec trapelate, la 5080 è identica alla 4080 super! così invece che spendere 1000 euro per una 4080 ne spende 1000 per una 5080, a cui cambia solo il nome.
la 5090 invece hanno aumentato +33% di shader rispetto la 4090 così potranno vendere a 2500 euro la 5090, 2000 euro la 4090, e per i comuni moortali dalla 408/5080 in giu.
assurdo, ogni anno non cè piu il rimpiazzo delle fasce di mercato! ma ne creano sempre di nuove aumentando i prezzi! Il rapporto euro/FPS non si riduce piu come è stato per 25 anni, ma sta rimanendo incredibilmente costante...
spero tanto che AMD tiri fuori una 7900XTX con stesse perf in raster e performance in RT tra 4080 e 4090!
L'unico modo per ribilanciare nvidia che è completamente impazzita!
Per calcolare la 5070, dovremmo aspettare qualche test di calcolo o almeno il clock vero della 5080. Da li possiamo calcolare mediamente tutto.
Solo per clock, ipotizzando 3,5, avresti la stessa potenza, la stessa banda, la stessa cache della 4070 ti super. Questo è un obbiettivo fattibile. Se poi tirano fuori quel 10% in più almeno, avremmo la 4080 come 5070.
Si ma con 12 giga sarà comunque un pessimo acquisto.
L'unico modo per ribilanciare nvidia che è completamente impazzita!
E' la mancanza di concorrenza sulla fascia medioalta. La 7900xtx ha consentito il pricecut e la 4080 super. Con le 5000 non succederà.
Attaccatevi al tram, che Gigetto deve ampliare la collezione di giacche in pelle umana.
Nvidia è tutto fuorché impazzita, fa semplicemente i suoi interessi... e fino a quando la gente compra e non c'è concorrenza continueranno a mettere i prezzi che vogliono
mikael84
29-09-2024, 11:47
Si ma con 12 giga sarà comunque un pessimo acquisto.
Qua dipende dall'utilizzo della tripla densità. Possono lanciarla anche a 18gb, magari insieme al lancio della 5080 da 24.
albero77
29-09-2024, 12:27
Sarebbero le nuove feature della serie 5x?
Un bel dlss 4.0?
https://i.postimg.cc/v8CpQSt0/nvidia-jensen-huang-ezgif-com-video-to-gif-converter.gif
beh ovviamente feature esclusiva su serie 50xx altrimenti chi le compra? a parte il dlss 4.0 ci saranno altre cazzatine per motivare l'espianto del rene, ma tanto almeno qui dentro lo zoccolo duro nvidia compra a fiducia. nel 2024 comunque con tutta la scelta che c'è è diventato veramente difficile motivare la spesa di 2k per la sola scheda video e per uso gaming only. i prezzi non saranno friendly comunque questa è l'unica cosa che prevedo e la 5090 probabilmente potrebbe non servire nemmeno a chi gioca "solo" in 4k
marbasso
29-09-2024, 12:33
beh ovviamente feature esclusiva su serie 50xx altrimenti chi le compra? a parte il dlss 4.0 ci saranno altre cazzatine per motivare l'espianto del rene, ma tanto almeno qui dentro lo zoccolo duro nvidia compra a fiducia. nel 2024 comunque con tutta la scelta che c'è è diventato veramente difficile motivare la spesa di 2k per la sola scheda video e per uso gaming only. i prezzi non saranno friendly comunque questa è l'unica cosa che prevedo e la 5090 probabilmente potrebbe non servire nemmeno a chi gioca "solo" in 4k
Io ammetto che l' uso che ne faccio è bench-test in primis e dopo gaming.
Troppo ottimismo IMHO
nVidia ormai i $$ li prende vendendo ai datacenter per l'AI, dei videogiocatori frega niente ( non valgono neanche l' 8% del fatturato )
E ai datacenter può fare il prezzo che vuole, quindi mi aspetto che i prezzi saranno aumentati, e non di poco, se poi i giocatori non le comprano a giacchetta frega niente, qualche società le comprerà lo stesso per il suo dipartimento IA e lui potrà comprarsi la sua giacca di pelle nuova.
Il settore delle schede video per giocatori da quando è finita la reclusione in casa per il covid è crollato, per contrastare il fenomeno nVidia aveva abbassato il prezzo delle 30x0 solo per vedere subito dopo un enorme incremento della domanda da parte dei datacenter, cosa che ha fatto volare i prezzi di nuovo, a differenza delle cryptovalute però stavolta non si tratta di una bolla destinata ad esplodere presto e nVidia ha tutta l'intenzione di monetizzare al massimo, chi le usa per giocare le pagherà care
Gigibian
29-09-2024, 14:26
Ma ci rendiamo conto che per 3.genarazioni, 3080 4080 e 5080 le schede hanno lo stesso numero di shader unit ?
5080 che va come 4080 super che va come 3080 ti...
Minime differenze in 6 anni! E prezzi che sono solo aumentati.
Cutter90
29-09-2024, 14:38
Ma ci rendiamo conto che per 3.genarazioni, 3080 4080 e 5080 le schede hanno lo stesso numero di shader unit ?
5080 che va come 4080 super che va come 3080 ti...
Minime differenze in 6 anni! E prezzi che sono solo aumentati.
Beh oddio. Il salto tra una gen e l altra c'è stato eccome. E il prezzo... in realtà la 3080 ti, la 5080 e la 4080 è lo stesso....
Beh oddio. Il salto tra una gen e l altra c'è stato eccome. E il prezzo... in realtà la 3080 ti, la 5080 e la 4080 è lo stesso....
3080 ti 1100 $
4080 1400 $
5080 ???? $
Cutter90
29-09-2024, 14:55
3080 ti 1100 $
4080 1400 $
5080 ???? $
La 4080 non è mai costata 1400.....
Alla fine street price di 1100- 1200 euro sia per la 3080 ti che 4080.
Se davvero le specifiche della 5090 saranno quelle che riporta Kimi allora credo proprio che quella scheda qui in Europa costerà come minimo 2200 Euro e almeno per me sarà un bel dilemma se prenderla o no, vedremo.
L' unica cosa positiva è che la 4090 si venderà a un buon prezzo usata.
mikael84
29-09-2024, 15:17
Ma ci rendiamo conto che per 3.genarazioni, 3080 4080 e 5080 le schede hanno lo stesso numero di shader unit ?
5080 che va come 4080 super che va come 3080 ti...
Minime differenze in 6 anni! E prezzi che sono solo aumentati.
La 4080 super ha gli stessi cuda della 3080ti, ma non capisco il termine "vanno uguali". Una boosta a 1800, 1900, l'altra tra i 2750 - 3ghz. In termini di CPU è come passare da 5ghz a 7,5ghz.
La 5080 stessa cosa, cuda miseri, ma non andrà come la 4080 super.
Riguardo la 5080, sono daccordo però che c'è un declass pauroso, per dividere completamente la x90 dalla x80. Oltre i 2x dei cuda è davvero troppo.
3080 ti 1100 $
4080 1400 $
5080 ???? $
Diciamo che MSRP è così:
3080ti: 1199$
4080: 1199$
4080 super: 999$
5080: ????
Da gennaio quindi la 4080 super è a 999$.
amon.akira
29-09-2024, 15:18
La 4080 non è mai costata 1400.....
Alla fine street price di 1100- 1200 euro sia per la 3080 ti che 4080.
aspe si mai costata 1400dollari ma euro si, ufficiale costava 1469euro al lancio sito nvidia
Cutter90
29-09-2024, 15:23
aspe si mai costata 1400dollari ma euro si, ufficiale costava 1469euro al lancio sito nvidia
Ma sei sicuro? E la 4090 1900?
Cmq alla fine la 3080 ti è la 4080 a 1200 si portavano a casa. Anzi, a dirla tutta anche la 2080 ti costava 1100.
Quindi in realtà la fascia 80 costa uguale da qualche gen. Il problema è che salvo cosa non calcolate la stanno "declassando" sempre di più
amon.akira
29-09-2024, 15:27
Ma sei sicuro? E la 4090 1900?
Cmq alla fine la 3080 ti è la 4080 a 1200 si portavano a casa. Anzi, a dirla tutta anche la 2080 ti costava 1100.
Quindi in realtà la fascia 80 costa uguale da qualche gen. Il problema è che salvo cosa non calcolate la stanno "declassando" sempre di più
4090 1949€ al lancio e 1599dollari
in dollari sono senza tasse, quindi già che fai 1199dollari+22% arrivi a 1460€
Arrow0309
29-09-2024, 17:19
La 4080 non è mai costata 1400.....
Alla fine street price di 1100- 1200 euro sia per la 3080 ti che 4080.
Sali, ma di tanto
mikael84
29-09-2024, 17:25
La 4080 non è mai costata 1400.....
Alla fine street price di 1100- 1200 euro sia per la 3080 ti che 4080.
aspe si mai costata 1400dollari ma euro si, ufficiale costava 1469euro al lancio sito nvidia
Sali, ma di tanto
1479 D1.
Cutter90
29-09-2024, 18:23
Sali, ma di tanto
1479 D1.
Già, ma dopo pochissimo le si trovava a 1200 le 4080 infatti le 4080 super sono poi state lanciate giù di lì, così come le 4090 che sono state a 1800 dopo qualche settimana dal d1. E poi hanno mantenuto quel prezzo. Quindi imho non ci discosteremeo molto da quesi prezzi.
amon.akira
29-09-2024, 19:34
no spe eri fortunato se beccavi un warehouse a 1250 sennò non si scappava...le super 14mesi dopo hanno fatto scendere finalmente le x80 a 1100
fu proprio questo il giochetto psicologico a spingere a prendere le 4090, la 4080 era totalmente sconveniente a quel prezzo.
Psycho77
29-09-2024, 20:33
Nvidia conta anche su questo, che gli utenti hanno la memoria corta.:sofico:
Ricordo come se fosse ieri i prezzi delle rtx 4080 al day one sui vari negozi che spaziavano dalle 1500 euro fino alle 2000 per le custom più spinte.
Ricordo le rtx 4080 strix vendute a 1800/1900 euro con assoluta nonchalance, qui sul forum infatti si consigliava di prendere le rtx 4090 manli a circa 2300 euro circa per evitare di prendere una gpu castrata come la rtx 4080 ad un prezzo quasi simile alla top di gamma.
OrazioOC
29-09-2024, 20:36
Nvidia conta anche su questo, che gli utenti hanno la memoria corta.:sofico:
Ricordo come se fosse ieri i prezzi delle rtx 4080 al day one sui vari negozi che spaziavano dalle 1500 euro fino alle 2000 per le custom più spinte.
Ricordo le rtx 4080 strix vendute a 1800/1900 euro con assoluta nonchalance, qui sul forum infatti si consigliava di prendere le rtx 4090 manli a circa 2400 euro per evitare di prendere una gpu castrata come la rtx 4080 ad un prezzo quasi simile alla top di gamma.
Però la 4080 prendeva a bastonate tutta la lineup GA102(dalla 3080 alla 3090 ti). La prossima 5080 se basata su quel chip GB203 dubito veramente possa bastonare allo stesso modo AD102. :rolleyes:
Ergo dovrebbe saltar fuori una gpu prezzata con una parvenza di senso logico(999/1099 dollari di msrp).:)
Psycho77
29-09-2024, 20:40
Però la 4080 prendeva a bastonate tutta la lineup GA102(dalla 3080 alla 3090 ti). La prossima 5080 se basata su quel chip GB203 dubito veramente possa bastonare allo stesso modo AD102. :rolleyes:
Ergo dovrebbe saltar fuori una gpu prezzata con una parvenza di senso logico(999/1099 dollari di msrp).:)
Mikael l'avrà scritto svariate volte che non bisogna soffermarsi solo sull'architettura, ma bisogna guardare le frequenze che ancora non sono note.
Io la butto li, ma sto tirando ad indovinare.
La rtx 5080 sarà circa il 15% più veloce della rtx 4090.
La rtx 5090 sarà circa il 70% più veloce della rtx 4090 e se ne prendi due te regalano un gruppo elettrogeno ed un jumbo a reazione.
15% in più della 4090 vuol dire fare circa un 50% gen a gen e questi risultati li ottieni solo con stravolgimenti di nodi e non è questo il caso. Se la 5080 raggiunge la 4090 è già un miracolo
mikael84
29-09-2024, 21:28
Mikael l'avrà scritto svariate volte che non bisogna soffermarsi solo sull'architettura, ma bisogna guardare le frequenze che ancora non sono note.
Io la butto li, ma sto tirando ad indovinare.
La rtx 5080 sarà circa il 15% più veloce della rtx 4090.
La rtx 5090 sarà circa il 70% più veloce della rtx 4090 e se ne prendi due te regalano un gruppo elettrogeno ed un jumbo a reazione.
Vero nel caso di 4080 vs 3080, ma il mio discorso tra queste due era l'opposto. E' proprio con i soli clock, che viene difficile prendere quel +30%.;)
Infatti, è proprio quello il punto. O hai lavorato internamente ( avessi almeno una bozza...) o è davvero tosto prendere un 30% a colpi di clock.
Torno a fare l'esempio di prima. RTX 4080 + 30-35% in max scaling 4k vs la 3080ti (la 4090 se la testi a 1080p, basta poco a prenderla, visto che a cuda non scali, ma a clock si).
Ecco, a cuda siamo li tra le 2. Differenza di clock + 53% per la 4080.
Boost stock 4080 = 2737 (rilevato da tpu) al 53% = 4187mhz.
Ecco con tale clock, una 5080, dovrebbe prendere in toto le prestazioni della 4090. Ovviamente è impensabile tale clock con un salto nodo quasi nullo.
Si parla di 2,9 base, il che potrebbe tradursi in 3,5, ed è già un miracolo.
La 4080 supera agevolmente la 3090 per via del salto nodo, ma anche a cuda erano li, qua una sta a 16384, che scalano male, altrimenti...
E sarà sempre peggio, come farà una 6080 a prendere una 5090 che è il doppio... e' inevitabile un declass.
fraussantin
30-09-2024, 06:45
15% in più della 4090 vuol dire fare circa un 50% gen a gen e questi risultati li ottieni solo con stravolgimenti di nodi e non è questo il caso. Se la 5080 raggiunge la 4090 è già un miracoloSecondo me la verità sta in mezzo anche perche la 5080 si avvicina ai comsumi della 4090 .
La possibilità del sorpasso c'è , poi sono leak , e teoricamente ancora qualche dettaglio possono cambiarlo nei settaggi del bios se vero sche mancano 3 mesi .
ninja750
30-09-2024, 08:37
Riguardo la 5080, sono daccordo però che c'è un declass pauroso, per dividere completamente la x90 dalla x80. Oltre i 2x dei cuda è davvero troppo.
la si può sempre vedere che la lineup finisce con la 5080
e la 5090 sì esiste ma come nonsense :stordita:
la 5090 sì esiste ma come nonsense :stordita:
Mica tanto, vedrai che per giocare finalmente in modo fluido con il PT al max (attualmente non si può) sarà la scheda che dovrai prendere.
Cutter90
30-09-2024, 08:56
Mica tanto, vedrai che per giocare finalmente in modo fluido con il PT al max (attualmente non si può) sarà la scheda che dovrai prendere.
Si può eccome sopra il 4k 60. Fg+dlss Q e tutti i giochi in pt li si fa, attualmente. Con Aw2 che sta ben sopra i 90
Mica tanto, vedrai che per giocare finalmente in modo fluido con il PT al max (attualmente non si può) sarà la scheda che dovrai prendere.
Con la 4090 fai TUTTO, basta evitare quel maledetto profilo ULTRA :asd:
Inoltre col PT il processore aumenta d'importanza e affiancando il prossimo 9800X3D magari aumentano ancora le prestazioni.
La 5090 è la vecchia Titan. Ci si può giocare, ma 32Gb di vram e tutto quel ben di dio sono no sense per il gaming.
Ma siamo sicuri di sfruttare una 5090 al 100% in gaming?
Io ho forti dubbi.
Il vero problema è la 5080 :muro:
Il divario tra 5080 e 5090 è TROPPO grande.
Al momento l'unica scheda da gaming vero è la 5080, ma purtroppo rimane poco appetibile per i possessori della 4090.
scorpion73
30-09-2024, 09:33
Secondo me il rumor sulla 5080 a 24GB non è stato interpretato bene (non da noi, ma dal leaker che lo ha tirato fuori).
Io ritengo che sarà la 5080ti, con bus a 384 bit.
Infatti non uscirà subito da quel che si legge, ma un pò dopo.
Secondo me partiranno come al solito con 5080 e 5090 ma dopo 6 mesi ci sarà anche la 5080ti a colmare il gap.
ninja750
30-09-2024, 09:47
Con la 4090 fai TUTTO, basta evitare quel maledetto profilo ULTRA :asd:
beh quello con tutte le vga
il gap visivo tra ultra e high è spesso non così percepibile
ray_hunter
30-09-2024, 10:27
Secondo me il rumor sulla 5080 a 24GB non è stato interpretato bene (non da noi, ma dal leaker che lo ha tirato fuori).
Io ritengo che sarà la 5080ti, con bus a 384 bit.
Infatti non uscirà subito da quel che si legge, ma un pò dopo.
Secondo me partiranno come al solito con 5080 e 5090 ma dopo 6 mesi ci sarà anche la 5080ti a colmare il gap.
C'è un buon gap anche tra 4080 e 4090 ma la 4080 TI non si è vista...
Cmq ritengo improbabile che la 5090 sia il 70% sopra la 4090, secondo me se va bene sarà al 50% ma non mi stupirei di un 35% in più che è più o meno il boost nei cuda e forsi un altro 5% in più per le frequenze. Poi va visto quanto margine di OC ci sarà perché la mia 4090 le frequenze stock non le ha mai viste e a 2950Mhz non ho mai e dico mai avuto un problema di stabilità, neanche in estate e nemmeno dopo ore di gioco!
ray_hunter
30-09-2024, 10:29
beh quello con tutte le vga
il gap visivo tra ultra e high è spesso non così percepibile
Il gap visivo spesso è impercettibile.
Per me però chi vuole il top del top ed è disponibile a spendere qualsiasi cifra per non scendere a compromessi, non vuole settare ad high a prescindere!
Il gap visivo spesso è impercettibile.
Per me però chi vuole il top del top ed è disponibile a spendere qualsiasi cifra per non scendere a compromessi, non vuole settare ad high a prescindere!
Però poi è contento di settare il dlss che renderizza ad una risoluzione più bassa :asd:
scorpion73
30-09-2024, 11:37
C'è un buon gap anche tra 4080 e 4090 ma la 4080 TI non si è vista...
Cmq ritengo improbabile che la 5090 sia il 70% sopra la 4090, secondo me se va bene sarà al 50% ma non mi stupirei di un 35% in più che è più o meno il boost nei cuda e forsi un altro 5% in più per le frequenze. Poi va visto quanto margine di OC ci sarà perché la mia 4090 le frequenze stock non le ha mai viste e a 2950Mhz non ho mai e dico mai avuto un problema di stabilità, neanche in estate e nemmeno dopo ore di gioco!
Hanno scelto la super sulla serie 4000 ma qui non possono farlo perchè il GB203 è già al max cuda sulla 5080.
mikael84
30-09-2024, 11:52
Con le gddr7 c'è la possibilità di utilizzare la tripla densità e 3gb per canale. Quindi portare la ram da 16 a 24gb su un 256bit. Questo non era possibile con le 4000 g6x. E' un fattore importante di queste ram, e come tale, è possibile creare un altro chip identico ma con più ram, anche per utilizzi pro.
Tra 5090 e 5080, in massimo scaling, mediamente la differenza sarà vicina a quella tra 4090 e 4070ti.
Il gap visivo spesso è impercettibile.
Per me però chi vuole il top del top ed è disponibile a spendere qualsiasi cifra per non scendere a compromessi, non vuole settare ad high a prescindere!
Questo pero' imho e' un approccio da benchmarker, non da videogamer.
Mi vengono in mente svariati giochi dove dettagli piu' elevati usavano soluzioni visivamente peggiori (tra metodi di aliasing e filtri molto piu' discutibili o metodologie di rendering di dettagli quali capelli o fogliame, particolarmente peggiori, come in AC:Valhalla o vari Dirt).
Senza considerare che spesso e volentieri si aggiungono opzioni che hanno il solo scopo di tarpare le gpu ed esaltare la feature di turno di AMD (o piu spesso Nvidia) che instaurano rapporti commerciali con la software house di turno, feature che richiedono l'ultima versione dell'hardware di turno e non vengono rese disponibili apposta a competitor o generazioni precedenti lato driver.
In ogni caso da un punto di vista grafico in ottica realismo, l'unica vera cosa che conta per il futuro sono le performance con le varie tecniche di tracing della luce, perche' il futuro e' esclusivamente li. Il foto realismo dipende unicamente dall'abilita' di riprodurre il comportamento fisico della luce che interagisce con materiali diversi.
A parte le tecniche di tracing, l'altra componente e' il lavoro degli artisti, ma quello sara' linearmente dipendente dal budget e dalle scelte fatte dagli sviluppatori e poco dalle tecnologie utilizzate.
amon.akira
30-09-2024, 12:14
outlaws (-outlaws) si è sui 55 con 4k quality+fg...nelle cutscene si va sui 35fps
una 5090 con +70% arriverebbe a 60nelle cut e 90ingame
scorpion73
30-09-2024, 12:50
Con le gddr7 c'è la possibilità di utilizzare la tripla densità e 3gb per canale. Quindi portare la ram da 16 a 24gb su un 256bit. Questo non era possibile con le 4000 g6x. E' un fattore importante di queste ram, e come tale, è possibile creare un altro chip identico ma con più ram, anche per utilizzi pro.
Tra 5090 e 5080, in massimo scaling, mediamente la differenza sarà vicina a quella tra 4090 e 4070ti.
Si questo lo avevo compreso dai tuoi precedenti post, ma io credo proprio che il rumor sia stato inteso erroneamente la 5080 non tanto per il discorso della banda sulla RAM, che come hai detto tu è tecnicamente fattibile con le GDDR7, quanto proprio per lo spazio che andrebbe ad occupare in termini di segmentazione.
Con la 4090 fai TUTTO, basta evitare quel maledetto profilo ULTRA
Che sarebbe l'unica ragione per spendere due sacchi.
mikael84
30-09-2024, 13:16
Si questo lo avevo compreso dai tuoi precedenti post, ma io credo proprio che il rumor sia stato inteso erroneamente la 5080 non tanto per il discorso della banda sulla RAM, che come hai detto tu è tecnicamente fattibile con le GDDR7, quanto proprio per lo spazio che andrebbe ad occupare in termini di segmentazione.
Diciamo che sino all'ultimo, resta ancora tutto aperto a livello di soluzioni.
Anche la 4070, era stata segmentata a ultimo come 4080 12, per poi ritornare per forza di cose nei propri passi.
Ricordo la 3080 pensata per GA103, e tagliata in seguito su GA102, per i problemi sui 7nm samsung.
Tra GB202 e GB203 c'è un solco troppo, troppo grande, e temo che una 5080 così verrà bocciata da tutte le grandi testate (ricordo che è quasi la differenza tra 4070ti e 4090), tanto che metterà nvidia in condizioni di preparare il piano B.
Una soluzione che permetta i 48gb in clamshell nel pro ci dev'essere per forza. Con un 384bit possono portare anche 72gb.
AD102, ha varie varianti, 1 come 4090, 1 come 4090D e ben 2 sulle work, di cui la 5880, che era il chip speculato per anni come possibile 4080ti.
Al momento staranno vagliando tante soluzioni, sia per le work, che per le gaming, mercato cinese etc, ma tutto può cambiare.
ninja750
30-09-2024, 13:25
una 5080 così verrà bocciata da tutte le grandi testate (ricordo che è quasi la differenza tra 4070ti e 4090)
secondo me no, se si guarderà lo stacco tra 4080 e 5080 non potranno essere negative
la 5090 è un di più
amon.akira
30-09-2024, 13:33
secondo me no, se si guarderà lo stacco tra 4080 e 5080 non potranno essere negative
la 5090 è un di più
Si esatto nelle slide ci andrà 5080 vs 4080s e 5090 vs 4090
albero77
30-09-2024, 17:02
outlaws (-outlaws) si è sui 55 con 4k quality+fg...nelle cutscene si va sui 35fps
una 5090 con +70% arriverebbe a 60nelle cut e 90ingame
15/20 fps se li ciuccia denuvo
Diciamo che sino all'ultimo, resta ancora tutto aperto a livello di soluzioni.
Anche la 4070, era stata segmentata a ultimo come 4080 12, per poi ritornare per forza di cose nei propri passi.
Ricordo la 3080 pensata per GA103, e tagliata in seguito su GA102, per i problemi sui 7nm samsung.
Tra GB202 e GB203 c'è un solco troppo, troppo grande, e temo che una 5080 così verrà bocciata da tutte le grandi testate (ricordo che è quasi la differenza tra 4070ti e 4090), tanto che metterà nvidia in condizioni di preparare il piano B.
Una soluzione che permetta i 48gb in clamshell nel pro ci dev'essere per forza. Con un 384bit possono portare anche 72gb.
AD102, ha varie varianti, 1 come 4090, 1 come 4090D e ben 2 sulle work, di cui la 5880, che era il chip speculato per anni come possibile 4080ti.
Al momento staranno vagliando tante soluzioni, sia per le work, che per le gaming, mercato cinese etc, ma tutto può cambiare.Io sono sempre più convinto che faranno un bel cut per la 5080ti, eventualmente con 384bit e 16~18k cc, perché c'è troppo stacco tra 5080 e 5090.
Inoltre per come é densa la 5090, non credo prenda chissà che clock, a meno di spingerla ben oltre il pl base.
Inizialmente con la prima sfornata delle 4000 hanno provato a lucrarci massivamente dopo i rincari post pandemia, infatti anche la 4070ti a 900-1000€ era decisamente oscena, ma oggettivamente prendeva le top ampere.
Ma anche la 4070 liscia, a 650-700e praticamente un centone meno delle precedenti 3080 non era sto granché.
A sto giro non penso ci sia tutto sto margine, sia considerando gli attuali prezzi delle super e sia per il salto di nodo che é decisamente contenuto.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Gigibian
30-09-2024, 21:18
secondo me no, se si guarderà lo stacco tra 4080 e 5080 non potranno essere negative
la 5090 è un di più
Si esatto nelle slide ci andrà 5080 vs 4080s e 5090 vs 4090
la 5080 ha stessi shader e stesso bus della 4080S.
Quanto potrà andare piu forte? 15%? Così come 4080 aumenti spesso trascurabili rispetto alla 3080ti.
mai successo nella storia una roba del genere.
Cutter90
30-09-2024, 22:43
la 5080 ha stessi shader e stesso bus della 4080S.
Quanto potrà andare piu forte? 15%? Così come 4080 aumenti spesso trascurabili rispetto alla 3080ti.
mai successo nella storia una roba del genere.
Ma basta con sta storia dai. La 3080 ti va come una 4070 ti alle volte anche meno
Una 4080 va abbastanza di più, di trascurabili c'è poco
Gigibian
30-09-2024, 23:01
Ma basta con sta storia dai. La 3080 ti va come una 4070 ti alle volte anche meno
Una 4080 va abbastanza di più, di trascurabili c'è poco
Nessuna storia, la 1080 faceva +90% sulla 980, e costava uguale, la 4080 fa circa +30% sulla 3080 e costa molto di piu.
la 5080 ha stessi shader e bus della 4080...capirai che scheda.
qui nvidia continua a giocare al ribasso alzando i prezzi in maniera assurda e sembra che sia tutto normale.
per 30 anni NON è mai successa una cosa del genere, adesso viene tutto normalizzato, boh.
Penso che i prox mesi siano il momento migliore per una 4090 usata intorno ai 1000 euro.
Nessuna storia, la 1080 faceva +90% sulla 980, e costava uguale, la 4080 fa circa +30% sulla 3080 e costa molto di piu.
la 5080 ha stessi shader e bus della 4080...capirai che scheda.
qui nvidia continua a giocare al ribasso alzando i prezzi in maniera assurda e sembra che sia tutto normale.
per 30 anni NON è mai successa una cosa del genere, adesso viene tutto normalizzato, boh.
Penso che i prox mesi siano il momento migliore per una 4090 usata intorno ai 1000 euro.
Ricordiamoci anche che il doppio di 5 è 10 e il doppio di 50 è 100. È normale che cresca meno e soprattutto è molto più difficile passare da 50 a 70 che da 10 a 30.
Numeri buttati a caso, ma il concetto credo sia abbastanza semplice da comprendere
amon.akira
01-10-2024, 00:06
la 5080 ha stessi shader e stesso bus della 4080S.
Quanto potrà andare piu forte? 15%? Così come 4080 aumenti spesso trascurabili rispetto alla 3080ti.
mai successo nella storia una roba del genere.
anche la 3080 ha il +50% di cuda (8704) e un tdp +60% (320w) vs la 4070liscia (5888) (200w) e va uguale
Psycho77
01-10-2024, 00:28
Ma basta con sta storia dai. La 3080 ti va come una 4070 ti alle volte anche meno
Una 4080 va abbastanza di più, di trascurabili c'è poco
Una rtx 4070 ti va come una rtx 3090 ti e con il frame generation la brutalizza, altrochè.
https://youtu.be/vhq707O2qIY?si=noR7FHC1ZkiFDWJ2
Senza contare poi che consuma quasi la metà.
Gigibian
01-10-2024, 07:59
Una rtx 4070 ti va come una rtx 3090 ti e con il frame generation la brutalizza, altrochè.
https://youtu.be/vhq707O2qIY?si=noR7FHC1ZkiFDWJ2
Senza contare poi che consuma quasi la metà.
Quindi avere una scheda che a livello hw é peggiore, e compensare con delle feature software artificialmente bloccate su serie precedenti, per voi é normale ? Boh per me no.
Ho Nvidia dalla prima TNT. Avute quasi tutte inframezzate da qualche ATI/AMD ogni tanto.
Ad ogni giro la top di gamma nvidia asfaltava quella della serie precedente e costava uguale (max 500/600 euro fino alla 2080). Dal 2020 in poi ci stanno rifilando schede che vanno in percentuale poco più, e ad ogni generazione aumentano i prezzi. Siamo arrivati ad Uber 1000 euro per una 4080 che é palesemente una x70 rimarchiata.
Assurdo.
Gigibian
01-10-2024, 08:01
anche la 3080 ha il +50% di cuda (8704) e un tdp +60% (320w) vs la 4070liscia (5888) (200w) e va uguale
Certo, perche li c'è stato il doppio salto di nodo. Cmq la x70 della serie nuova asfaltava la x80 della serie precedente tipicamente, anche qui il divario é molto basso.
scorpion73
01-10-2024, 08:02
Magari mi sbaglio ma sono abbastanza convinto che la 5080 prenderà la 4090 a fatica, e di certo non la supererà se non di poco.
Non si può fare il conto solo sui CUDA perché poi c'è l'architettura che cambia l'IPC anche senza il salto di nodo, e il clock, quindi un incremento rispetto alla 4080 è lecito. Ma superare una 4090 la vedo dura, proprio perché manca una componente base che è il salto di nodo.
Non costituirà in ogni caso un upgrade valido per chi ha la 4090 (anche andasse un 10% in più non è un divario che giustifichi un cambio di scheda secondo me) mentre lo potrebbe costituire per chi ha una 4080, che poi è il suo target di confronto.
Il problema nasce per chi ha una 4090 perché se non esce una 4080ti la 5090 la vedo fuori budget e fuori misura come consumi: magari mi sbaglio ma io ho sto sentore.
Lo spazio fra le due è enorme e a sto giro il salvagente della super non ce l'hanno, per cui è anche capace che dopo un paio di mesi tirino fuori la 5080ti, specie se la 5090 vendesse poco (lato gaming) per i costi esorbitanti e/o le richieste energetiche troppo elevate (non tutti vogliono cambiare PSU per una scheda video ogni due anni eh).
Io la 5090 la vedo più come una scheda da pro che da gaming sinceramente.
Certo, perche li c'è stato il doppio salto di nodo. Cmq la x70 della serie nuova asfaltava la x80 della serie precedente tipicamente, anche qui il divario é molto basso.
Questo immagino sia quello che intendi te:
https://i.postimg.cc/6qv0vfL1/gen-1.png
Gigibian
01-10-2024, 08:46
Questo immagino sia quello che intendi te:
https://i.postimg.cc/6qv0vfL1/gen-1.png
Esattamente.
Una scheda da 330 dollari era 21% più veloce di una da 700 della generazione passata.
Adesso una scheda da 600(!) dollari é il 3% più lenta di una da 700 della generazione passata!
Il prezzo della x700 é raddoppiato negli anni e le performance scese di netto.
Cutter90
01-10-2024, 08:51
Quindi avere una scheda che a livello hw é peggiore, e compensare con delle feature software artificialmente bloccate su serie precedenti, per voi é normale ? Boh per me no.
Ho Nvidia dalla prima TNT. Avute quasi tutte inframezzate da qualche ATI/AMD ogni tanto.
Ad ogni giro la top di gamma nvidia asfaltava quella della serie precedente e costava uguale (max 500/600 euro fino alla 2080). Dal 2020 in poi ci stanno rifilando schede che vanno in percentuale poco più, e ad ogni generazione aumentano i prezzi. Siamo arrivati ad Uber 1000 euro per una 4080 che é palesemente una x70 rimarchiata.
Assurdo.
Tutto quello che vuoi. ma la 4070 ti va come una 3090 senza nessun fram gen. Quindi non dire che la 4080 va come la 3080 ti perchè non è vero.
Che ci sia stagnazione a livello di perf in fascdia media sono d'accordo. Ma è anche vero che la 3080 costava 900 euro, la 4070 500
ninja750
01-10-2024, 08:59
Una rtx 4070 ti va come una rtx 3090 ti e con il frame generation la brutalizza, altrochè.
sulla 3090ti puoi attivare il framegen fsr3 che va benissimo e quindi non brutalizza un bel nulla, spiaze per giacco e i suoi piani marketing con le barrette verdi
Dracula1975
01-10-2024, 09:10
sulla 3090ti puoi attivare il framegen fsr3 che va benissimo e quindi non brutalizza un bel nulla, spiaze per giacco e i suoi piani marketing con le barrette verdi
la qualità pero' è giusto filo diversa eh...
Legolas84
01-10-2024, 09:12
la qualità pero' è giusto filo diversa eh...
E di questo fatto invece spiace per AMD..
Spiace un po per uno :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
Gigibian
01-10-2024, 09:27
Tutto quello che vuoi. ma la 4070 ti va come una 3090 senza nessun fram gen. Quindi non dire che la 4080 va come la 3080 ti perchè non è vero.
Che ci sia stagnazione a livello di perf in fascdia media sono d'accordo. Ma è anche vero che la 3080 costava 900 euro, la 4070 500
Questo immagino sia quello che intendi te:
https://i.postimg.cc/6qv0vfL1/gen-1.png
La 3080 prezzo listino 700 dollari, la 4070 600. Hai visto l'immagine sotto che ha postato l'altro utente ?
É evidente la strategia e la fregatura che stiamo affrontando. Non é possibile negarlo sono dati oggettivi.
Non esiste che una x70 abbia 600 dollari di prezzo di listino ed é la prima volta.nella storia che va meno della x80 dell'anno precedente !
E questo approccio si ripropone anche nelle fasce superiori, con una 5080 praticamente identica ad una 4080 super. La 5090 ha fatto +40% di shader rispetto alla 4090, mentre la 5080 li ha lasciati identici alla 4080 super. Bah.
ninja750
01-10-2024, 09:52
la qualità pero' è giusto filo diversa eh...
non parlo di qualità visiva fsr vs dlss dove nvidia è migliore
parlo del framegen amd che è eccellente tanto quanto quello nvidia, e uno con la 3090ti con dlss+framegenamd non ha nessuna feature in meno di uno con 4070 con dlss+framegennvidia
non parlo di qualità visiva fsr vs dlss dove nvidia è migliore
parlo del framegen amd che è eccellente tanto quanto quello nvidia, e uno con la 3090ti con dlss+framegenamd non ha nessuna feature in meno di uno con 4070 con dlss+framegennvidia
cosa implementata da mezzo gioco DLSS+frame gen AMD
Cutter90
01-10-2024, 09:57
non parlo di qualità visiva fsr vs dlss dove nvidia è migliore
parlo del framegen amd che è eccellente tanto quanto quello nvidia, e uno con la 3090ti con dlss+framegenamd non ha nessuna feature in meno di uno con 4070 con dlss+framegennvidia
Eh, però per usare fg amd devi usare spesso FSR anche come scaler. Quindi la qualità ne risente
Ad ogni giro la top di gamma nvidia asfaltava quella della serie precedente e costava uguale (max 500/600 euro fino alla 2080). Dal 2020 in poi ci stanno rifilando schede che vanno in percentuale poco più, e ad ogni generazione aumentano i prezzi. Siamo arrivati ad Uber 1000 euro per una 4080 che é palesemente una x70 rimarchiata.
Assurdo.
Ti posso dire che ad oggi una 4070 super, che trovi a 550 euro, sta tra 3090 e 3090 TI, ed ha FG e RT evoluto, quindi con poco pareggi/superi le top precedenti. :)
mikael84
01-10-2024, 11:27
Io sono sempre più convinto che faranno un bel cut per la 5080ti, eventualmente con 384bit e 16~18k cc, perché c'è troppo stacco tra 5080 e 5090.
Inoltre per come é densa la 5090, non credo prenda chissà che clock, a meno di spingerla ben oltre il pl base.
Inizialmente con la prima sfornata delle 4000 hanno provato a lucrarci massivamente dopo i rincari post pandemia, infatti anche la 4070ti a 900-1000€ era decisamente oscena, ma oggettivamente prendeva le top ampere.
Ma anche la 4070 liscia, a 650-700e praticamente un centone meno delle precedenti 3080 non era sto granché.
A sto giro non penso ci sia tutto sto margine, sia considerando gli attuali prezzi delle super e sia per il salto di nodo che é decisamente contenuto.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Per i clock, conta oltre al nodo la riprogettazione del chip, fermi gf110, maxwell con l'abbandono del SMX ed il passaggio al SMM ad es.
Basta essere molto bravi a livello di progettazione, implementando i vari transistori al meglio i transistor, tra cui quelli più lenti a meno dispersione in certe zone, o più elevata in altre.
Anche RDNA2 è stato riprogettato sotto questo punto e passando dai 7 ai 7hp, è riuscita a salire molto.
Nvidia ci ha tirato fuori quel 10% con fermi, 15-16 con maxwell, a questo aggiungi il nodo, ed è possibile tirare fuori un 25-30% volendo.
2,290 x 1,25 e ti ritrovi a 2,9 base, quanto dichiarato dai primi rumour.
Dopo bisognerà vedere se la microarchitettura sarà per la terza volta 1:1. Ci sono vari modi per prendere IPC, dallo scorporo int (+15 circa), dall'unificazione TPC e cache più grande ma unificata, all'aumento del reg.file, ancorato ancora simil GCN.
non parlo di qualità visiva fsr vs dlss dove nvidia è migliore
parlo del framegen amd che è eccellente tanto quanto quello nvidia, e uno con la 3090ti con dlss+framegenamd non ha nessuna feature in meno di uno con 4070 con dlss+framegennvidia
Sni, framegen AMD ha ancora tanto ghosting purtroppo
carloUba
01-10-2024, 12:40
non parlo di qualità visiva fsr vs dlss dove nvidia è migliore
parlo del framegen amd che è eccellente tanto quanto quello nvidia, e uno con la 3090ti con dlss+framegenamd non ha nessuna feature in meno di uno con 4070 con dlss+framegennvidia
Il fg di amd funziona benissimo in tutto tranne nel ghosting, almeno sulle 6900 che ho sui muletti. Ho dovuto disabilitarlo perché non è minimamente accettabile.
Gigibian
01-10-2024, 13:31
Ti posso dire che ad oggi una 4070 super, che trovi a 550 euro, sta tra 3090 e 3090 TI, ed ha FG e RT evoluto, quindi con poco pareggi/superi le top precedenti. :)
Non mi sembra proprio.
https://i.ibb.co/SfJtpqx/Screenshot-20241001-142439-Firefox.jpg (https://ibb.co/mNS97QB)
In ogni caso la 4070 nettamente sotto la 3080, prima volta nella storia.
petru916
01-10-2024, 13:39
Non mi sembra proprio.
https://i.ibb.co/SfJtpqx/Screenshot-20241001-142439-Firefox.jpg (https://ibb.co/mNS97QB)
In ogni caso la 4070 nettamente sotto la 3080, prima volta nella storia.
A 1440p (che è la risoluzione per cui è pensata) performa il 10% meglio della 3080 e praticamente uguale ad una 3090, senza considerare DLSS e FG di nuova generazione. Chiaramente il fattore memoria non permette di sfruttarla appieno in 4K, ma per quello ci sono altre fasce di prezzo.
Psycho77
01-10-2024, 13:45
Quindi avere una scheda che a livello hw é peggiore, e compensare con delle feature software artificialmente bloccate su serie precedenti, per voi é normale ? Boh per me no.
Ho Nvidia dalla prima TNT. Avute quasi tutte inframezzate da qualche ATI/AMD ogni tanto.
Ad ogni giro la top di gamma nvidia asfaltava quella della serie precedente e costava uguale (max 500/600 euro fino alla 2080). Dal 2020 in poi ci stanno rifilando schede che vanno in percentuale poco più, e ad ogni generazione aumentano i prezzi. Siamo arrivati ad Uber 1000 euro per una 4080 che é palesemente una x70 rimarchiata.
Assurdo.
Sono assolutamente d'accordo con te e lo avevo scritto in un post precedente, nvidia tratta i suoi clienti sempre peggio.
Il fatto che abbia castrato la serie 1000/2000/3000 con la frame generation volutamente per obsolescenza programmata è a dir poco scandaloso e sotto gli occhi di tutti.
Per non parlare poi dei prezzi folli...........
sulla 3090ti puoi attivare il framegen fsr3 che va benissimo e quindi non brutalizza un bel nulla, spiaze per giacco e i suoi piani marketing con le barrette verdi
Ti devi mettere a smanettare ad ogni gioco con le mod con fs3, poichè mica tutti i giochi hanno il frame gen amd.
Ti cali in un incubo senza uscita, oltretutto con una gpu che consuma più di una rtx 4090.
scorpion73
01-10-2024, 13:54
Non mi sembra proprio.
https://i.ibb.co/SfJtpqx/Screenshot-20241001-142439-Firefox.jpg (https://ibb.co/mNS97QB)
In ogni caso la 4070 nettamente sotto la 3080, prima volta nella storia.
Va be però non puoi fare un confronto a 4K, dove è strozzata dalla banda di 192bit rispetto ai 320bit della 3080. Non è quella la risoluzione per cui questa scheda è pensata, il confronto devi farlo a 1440p, dove la 4070 va meglio della 3080.
Il fatto che abbia castrato la serie 1000/2000/3000 con la frame generation volutamente per obsolescenza programmata è a dir poco scandaloso e sotto gli occhi di tutti.
Anche qui, il confronto con la serie 1000 non ha senso perché Pascal non ha i tensor core, quindi questa feature non potrebbe mai averla.
Sulle 2000 non ti so dire: secondo me queste schede non hanno gli OFA quindi se così fosse questa particolare tecnologia anche qui non potrebbe portare a nulla.
Sulle 3000 invece mi trovi 100% d'accordo: hanno gli OFA e quindi almeno potevano implementarla, sarà stata più scrausa? Sicuramente, ma hai messo un pezzo di hardware che non hai mai sfruttato e questo non va bene. Purtroppo l'obsolescenza programmata non è un problema solo di Nvidia ma di tante realtà anche fuori dal mondo PC (telefonia in primis), dove castrano volutamente dispositivi che potrebbero invece essere sfruttati e questo solo allo scopo di fartele cambiare. Io non la sopporto ma è una costante dell'attuale mercato, tocca conviverci purtroppo.
Ti devi mettere a smanettare ad ogni gioco con le mod con fs3, poichè mica tutti i giochi hanno il frame gen amd.
Ti cali in un incubo senza uscita, oltretutto con una gpu che consuma più di una rtx 4090.
Anche qui non posso onestamente darti torto
Ad ogni giro la top di gamma nvidia asfaltava quella della serie precedente e costava uguale (max 500/600 euro fino alla 2080). Dal 2020 in poi ci stanno rifilando schede che vanno in percentuale poco più, e ad ogni generazione aumentano i prezzi. Siamo arrivati ad Uber 1000 euro per una 4080 che é palesemente una x70 rimarchiata.
In realtà anche le 4080 asfaltano le 3090ti, e di parecchio pure (in media un 25% credo), non si può dire il contrario dai, non sarebbe giusto.
E' vero però che la 4080 è una x70 rimarchiata venduta a 1000 e rotti euro, e questo lo fanno perché lato Nvidia si basano sulle prestazioni e non sulle caratteristiche architetturali, e quindi fanno il loro business ridefinendo le fasce e castrandoti i reni coi prezzi. Politica che purtroppo non credo finirà fino a che venderanno, ma son d'accordo con te sul secondo punto di quello che dici.
Però va detto che anche AMD ha fatto lo stesso perché la XTX di ultima generazione era venduta a più di 1000 euro ed è una scheda della stessa fascia della 4080 come prestazioni.
Non mi sembra proprio.
https://i.ibb.co/SfJtpqx/Screenshot-20241001-142439-Firefox.jpg (https://ibb.co/mNS97QB)
In ogni caso la 4070 nettamente sotto la 3080, prima volta nella storia.
La 4070 super non ha i GByte di Vram della 3090, a 4K certo che può avere delle perdite di fps, se consideri i 2K la musica già cambia. E comunque in 4K sta attaccata alla 3090, e in molti ultimi titoli in RT le passa anche.
2K RT
https://i.postimg.cc/BPsgnzDc/Immagine-2024-10-01-145047.jpg (https://postimg.cc/BPsgnzDc)
2K Raster
https://i.postimg.cc/5Y8g1JH2/Immagine-2024-10-01-145201.jpg (https://postimg.cc/5Y8g1JH2)
550 euro di scheda, che si occa pure da pazzi (per dire, la mia sta a 3050 mhz)...
Psycho77
01-10-2024, 14:01
Va be però non puoi fare un confronto a 4K, dove è strozzata dalla banda di 192bit rispetto ai 320bit della 3080. Non è quella la risoluzione per cui questa scheda è pensata, il confronto devi farlo a 1440p, dove la 4070 va meglio della 3080.
Anche qui, il confronto con la serie 1000 non ha senso perché Pascal non ha i tensor core, quindi questa feature non potrebbe mai averla.
Sulle 2000 non ti so dire: secondo me queste schede non hanno gli OFA quindi se così fosse questa particolare tecnologia anche qui non potrebbe portare a nulla.
Sulle 3000 invece mi trovi 100% d'accordo: hanno gli OFA e quindi almeno potevano implementarla, sarà stata più scrausa? Sicuramente, ma hai messo un pezzo di hardware che non hai mai sfruttato e questo non va bene. Purtroppo l'obsolescenza programmata non è un problema solo di Nvidia ma di tante realtà anche fuori dal mondo PC (telefonia in primis), dove castrano volutamente dispositivi che potrebbero invece essere sfruttati e questo solo allo scopo di fartele cambiare. Io non la sopporto ma è una costante dell'attuale mercato, tocca conviverci purtroppo.
Anche qui non posso onestamente darti torto
In realtà anche le 4080 asfaltano le 3090ti, e di parecchio pure, non si può dire il contrario dai, non sarebbe giusto.
E' vero però che la 4080 è una x70 rimarchiata venduta a 1000 e rotti euro, e questo lo fanno perché lato Nvidia si basano sulle prestazioni e non sulle caratteristiche architetturali, e quindi fanno il loro business ridefinendo le fasce e castrandoti i reni coi prezzi. Politica che purtroppo non credo finirà fino a che venderanno, ma son d'accordo con te sul secondo punto di quello che dici.
Però va detto che anche AMD ha fatto lo stesso perché la XTX di ultima generazione era venduta a più di 1000 euro ed è una scheda della stessa fascia della 4080 come prestazioni.
Tensor core? Preferisco far parlare il video da 7:20.
Da notare che l'fs3 è NATIVE, cioè questo sta giocando a 1080p nativo senza downgrade alla res interna del gioco.
https://youtu.be/ZoFo9wA0Kwk?si=oY6R9zym64GlyIgi
Cutter90
01-10-2024, 14:03
Non mi sembra proprio.
https://i.ibb.co/SfJtpqx/Screenshot-20241001-142439-Firefox.jpg (https://ibb.co/mNS97QB)
In ogni caso la 4070 nettamente sotto la 3080, prima volta nella storia.
Ehmmm , la 4070 non è mica una scheda da 4k, come lo era ai tempi la 3080 alla sua uscita.
Ora sia la 3080 che la 4070' sono schede da 1440p. E i confronti si fanno su quella res
scorpion73
01-10-2024, 14:06
Tensor core? Preferisco far parlare il video da 7:20.
https://youtu.be/ZoFo9wA0Kwk?si=oY6R9zym64GlyIgi
Per fare il FG in Hardware la soluzione Nvidia sfrutta gli OFA che sono parte dei Tensor Core, quindi Pascal non la può implementare.
Può piacerti o no ma Nvidia ha fatto una implementazione hardware per cui su Pascal non ci funziona.
Il FG di AMD è fatto in maniera diversa, quindi ci può funzionare, ma bisogna vedere la latenza reale poi rispetto a quello Nvidia.
Sono quindi cose diverse, ognuno coi suoi pro e contro: la qualità del DLSS in HW su quella del FSR software parla da sola, MA io personalmente penso che AMD in software abbia comunque fatto un buon lavoro perché comunque permette alle schede più vecchie una nuova vita, cosa che nvidia non fa. Ma paghi sulla qualità del risultato.
Ti ricordo però che AMD ha detto che la prossima versione, su FSR 4, sarà basata sull'AI quindi probabilmente anche lato AMD si sfrutteranno gli equivalenti dei tensor core: ci sarà un motivo ...
Psycho77
01-10-2024, 14:10
Per fare il FG in Hardware la soluzione Nvidia sfrutta gli OFA che sono parte dei Tensor Core, quindi Pascal non la può implementare.
Può piacerti o no ma Nvidia ha fatto una implementazione hardware per cui su Pascal non ci funziona.
Il FG di AMD è fatto in maniera diversa, quindi ci può funzionare, ma bisogna vedere quanto lagga poi rispetto a quello Nvidia.
Ti ricordo che AMD ha detto che la prossima versione, su FSR 4, sarà basata sull'AI quindi probabilmente anche lato AMD si sfrutteranno gli equivalenti dei tensor core: ci sarà un motivo ...
Fatto sta che l'fsr3 frame gen funziona alla grande sulla serie 1000, quindi non esistono scuse tecniche.
Nvidia avrebbe potuto fare uno sforzo per non escludere la serie 1000 da questa tecnologia che quasi fa rinascere gpu ormai obsolete sulla carta, ma si è spinta oltre. Ha tagliato fuori addirittura la serie 3000 e tutti muti.
In un mondo normale i pc gamers avrebbero dovuto fare un macello, invece sappiamo benissimo che questo non è un mondo normale.:sofico:
Gigibian
01-10-2024, 14:13
A 1440p (che è la risoluzione per cui è pensata) performa il 10% meglio della 3080 e praticamente uguale ad una 3090, senza considerare DLSS e FG di nuova generazione. Chiaramente il fattore memoria non permette di sfruttarla appieno in 4K, ma per quello ci sono altre fasce di prezzo.
1440p pari alla 3080.
https://i.ibb.co/k1Pfv67/Screenshot-20241001-150948-Firefox.jpg (https://ibb.co/k1Pfv67)
Ripeto, prima volta nella storia e prima volta che Nvidia ha avuto un salto di 2 nodi praticamente! Quindi teoricamente avrebbe dovuto avere performance molto più elevate del 20-30% che storicamente c'è sempre stato!
Invece come x70 vendono un chippettino da x60 e boh sembra che a tutti vada bene così, questa cosa mi stupisce davvero.
scorpion73
01-10-2024, 14:14
Fatto sta che l'fsr3 frame gen funziona alla grande sulla serie 1000, quindi non esistono scuse tecniche.
Nvidia avrebbe potuto fare uno sforzo per non escludere la serie 1000 da questa tecnologia che quasi fa rinascere gpu ormai obsolete sulla carta, ma si è spinta oltre. Ha tagliato fuori addirittura la serie 3000 e tutti muti.
In un mondo normale i pc gamers avrebbero dovuto fare un macello, invece sappiamo benissimo che questo non è un mondo normale.:sofico:
Dico una cosa poi chiudo che siamo OT e mi scuso per questo: quello che dici è vero, ma sono soluzioni diverse: come ho detto sopra Nvidia ha scelto una soluzione hardware, che è qualitativamente migliore al patto di escludere schede che non hanno l'hardware necessario. E' una scelta: AMD non aveva quell'architettura e per competere ha fatto una soluzione software. Avesse avuto i tensor sono sicuro che anche AMD avrebbe fatto una soluzione hardware, come ha specificato d'altra parte che farà con FSR4 ora che l'hardware ce l'ha pure lei (anche se resta da vedere quanto macina...).
Sono d'accordo che i gamer avrebbero dovuto fare un macello, ma nella realtà non è che AMD volesse fare la samaritana: ha provveduto come meglio poteva ad una sua carenza lato hardware...
Chiudo OT e mi scuso.
Psycho77
01-10-2024, 14:20
Dico una cosa poi chiudo che siamo OT e mi scuso per questo: quello che dici è vero, ma sono soluzioni diverse: come ho detto sopra Nvidia ha scelto una soluzione hardware, che è qualitativamente migliore al patto di escludere schede che non hanno l'hardware necessario. E' una scelta: AMD non aveva quell'architettura e per competere ha fatto una soluzione software. Avesse avuto i tensor sono sicuro che anche AMD avrebbe fatto una soluzione hardware, come ha specificato d'altra parte che farà con FSR4 ora che l'hardware ce l'ha pure lei (anche se resta da vedere quanto macina...).
Sono d'accordo che i gamer avrebbero dovuto fare un macello, ma nella realtà non è che AMD volesse fare la samaritana: ha provveduto come meglio poteva ad una sua carenza lato hardware...
Chiudo OT e mi scuso.
Amd secondo me lo ha fatto apposta per mettere in evidenza la malafede di NVIDIA, che è appurato che si tratta di malafede.
Una volta l'obsolescenza programmata veniva punita dagli stati europei, invece adesso sono le multinazionali a comandare sugli stati quindi possono fare quello che gli pare.
In qualche modo credo che non siamo così tanto off topic, poichè NVIDIA farà lo stesso gioco con il DLSS 4.0, vogliamo scommettere?
Qualcuno scriveva: Chi non impara dagli errori del passato, è destinato a ripeterli.
O se preferisci.
La storia insegna ma non ha scolari.
Gigibian
01-10-2024, 14:21
Questo immagino sia quello che intendi te:
https://i.postimg.cc/6qv0vfL1/gen-1.png
Ragazzi, questa slide é chiara.
Nvidia ci sta dando sempre di meno (performance) a sempre di più (euro).
E con la 5080 il problema si conferma ed accentua.(Vedremo)
E questo é meramente un dato inconfutabile.
Che siate così d'accordo e sostenitori di questa politica Nvidia sinceramente mi sorprende tanto, tutto qua. In un forum così "anziano" e tecnico, pensavo di trovare qualcuno che come me si scandalizzasse a questa tendenza.
Ma evidentemente mi sbagliavo, tutto qua!
Scusate se sono andato OT, ma pensavo fosse un argomento IT.
FSR e FG di AMD non sono minimamente paragonabili alla resa che hanno le controparti nVidia, basta provarli, ed è possibile farlo se si ha nVidia.
La differenza è francamente abissale, si vede subito che quelle nVidia sono gestite da HW dedicato. AMD ha fatto quel che poteva, in futuro migliorerà come si dice.
Cutter90
01-10-2024, 14:45
Ragazzi, questa slide é chiara.
Nvidia ci sta dando sempre di meno (performance) a sempre di più (euro).
E questo é meramente un dato inconfutabile.
Che siate così d'accordo e sostenitori di questa politica Nvidia sinceramente mi sorprende tanto, tutto qua. In un forum così "anziano" e tecnico, pensavo di trovare qualcuno che come me si scandalizzasse a questa tendenza.
Ma evidentemente mi sbagliavo, tutto qua!
Si ma guarda che ci sono costi e anche limiti fisici eh. La tecnologia mano a mano che raggiunge l'apice rallenta come resa. E se non lo fa per motivi fisici lo fai per quelli di profitto. Nel senso, nessun azienda del mondo ti farà, con i pochi margini rimanenti, il salto incredibile allo stesso prezzo. E poi cosa fa 2 anni dopo che ha già raggiunto il massimo.
Pensate che sia semplice ogni volta aumentare a dismisura le perf? E soprattutto, pensate sia utile epr l'azienda farlo?
Anche io vorrei la prossima gen una 5060 che va come la 4090 a 400 euro. Ma non è proprio possibile farlo per tanti motivi.
Nvidia ci sta dando sempre di meno (performance) a sempre di più (euro).
E con la 5080 il problema si conferma ed accentua.(Vedremo)
E questo é meramente un dato inconfutabile.
esatto. QFT
scorpion73
01-10-2024, 15:08
Ragazzi, questa slide é chiara.
Nvidia ci sta dando sempre di meno (performance) a sempre di più (euro).
E con la 5080 il problema si conferma ed accentua.(Vedremo)
E questo é meramente un dato inconfutabile.
Che siate così d'accordo e sostenitori di questa politica Nvidia sinceramente mi sorprende tanto, tutto qua. In un forum così "anziano" e tecnico, pensavo di trovare qualcuno che come me si scandalizzasse a questa tendenza.
Ma evidentemente mi sbagliavo, tutto qua!
Scusate se sono andato OT, ma pensavo fosse un argomento IT.
Io non sostengo nulla, anzi, dico esplicitamente che con i prezzi la stanno abbondantemente facendo fuori dal vasetto.
E' vero che ci sono costi maggiori, ma ci sono anche dei limiti: 2500 euro per una scheda è una follia, a meno che non sia una scheda professionale, ma per il gaming è follia pura. E non ci sono giustificazioni.
Che l'aumento dei costi sia giustificato dal fatto che più vai avanti e più hai costi alti di materiali e costi di ricerca e sviluppo è vero, ma ci sono dei limiti e Nvidia ci sta lucrando molto su questa cosa. Dire che non può fare altrimenti a mio avviso non è vero, perché massimizza i profitti alla faccia degli utenti.
Ma attenzione, anche AMD lo fa perché il prezzo iniziale della XTX era troppo alto per le performance della scheda. Quindi Nvidia è comunque in buona compagnia.
Ma fino a che le vendite danno ragione, ahimé è normale che lo faccia....
Sul discorso stacco performance ho già detto come la penso: lo stacco 3080-4080 era netto così come 3090ti-4080.
Sulla 5080 anche io ho molti molti dubbi.
scorpion73
01-10-2024, 15:11
Amd secondo me lo ha fatto apposta per mettere in evidenza la malafede di NVIDIA
Credici... quella è la giustificazione che vuole dare per mascherare il suo ritardo sull'hardware, tanto è vero che, ripeto, su FSR 4 sarà AI, e guarda caso proprio adesso che c'è l'hardware anche sulle rosse, chissà come mai... Dai su.. AMD non è mica la Fondazione Raspberry...
Gigibian
01-10-2024, 15:12
Si ma guarda che ci sono costi e anche limiti fisici eh. La tecnologia mano a mano che raggiunge l'apice rallenta come resa. E se non lo fa per motivi fisici lo fai per quelli di profitto. Nel senso, nessun azienda del mondo ti farà, con i pochi margini rimanenti, il salto incredibile allo stesso prezzo. E poi cosa fa 2 anni dopo che ha già raggiunto il massimo.
Pensate che sia semplice ogni volta aumentare a dismisura le perf? E soprattutto, pensate sia utile epr l'azienda farlo?
Anche io vorrei la prossima gen una 5060 che va come la 4090 a 400 euro. Ma non è proprio possibile farlo per tanti motivi.
Si ma permettimi, é davvero difficile leggere un cliente pagante che giustifica una multinazionale che attua una strategia a SFAVORE del cliente stesso.
Come se chi acquistasse un nuovo iPhone ogni anno fosse contento di NON avere niente in più dello scorso anno ad un prezzo più alto.
La produzione delle 4000 é andata a gonfie vele, e Nvidia ha guadagnato MOLTO di più per ogni singolo chip rispetto agli anni passati.
I prezzi delle componenti passive e PCB sono anni che si sono assestati ormai. (Lavoro nel settore)
Non c'è nulla di TECNICO che giustifichi l'approccio di NVIDIA, se non ovviamente massimizzare i guadagni a discapito di utenti che , a quanto pare, 500 o 1000 euro tanto comprano lo stesso!
ninja750
01-10-2024, 15:17
Ragazzi, questa slide é chiara.
no le slide giusta sono queste
https://i.postimg.cc/RVpfR6HW/40701.jpg
https://i.postimg.cc/4xKcFf6B/40702.jpg
o ce le siamo già dimenticate? :fagiano:
Ragazzi, questa slide é chiara.
Nvidia ci sta dando sempre di meno (performance) a sempre di più (euro).
E con la 5080 il problema si conferma ed accentua.(Vedremo)
E questo é meramente un dato inconfutabile.
Che siate così d'accordo e sostenitori di questa politica Nvidia sinceramente mi sorprende tanto, tutto qua. In un forum così "anziano" e tecnico, pensavo di trovare qualcuno che come me si scandalizzasse a questa tendenza.
Ma evidentemente mi sbagliavo, tutto qua!
Scusate se sono andato OT, ma pensavo fosse un argomento IT.
Io sono scandalizzato già da quando presi la 3070Ti, figurati, dopo la pandemia avevo capito come sarebbe stato l’andazzo di nvidia purtroppo, la 5070 non mi stuzzica per nulla così come fu la 4070 liscia, e pure io parlo da possessore da più un decennio di schede verdi. Però bisogna rispettare le idee di chi è più giovane o appassionato che vuole spendere queste cifre. :)
Però bisogna rispettare le idee di chi è più giovane o appassionato che vuole spendere queste cifre. :)
Con questa frase lasciatelo dire :D hai preso proprio un gran cantonata. Secondo me è proprio il contrario, certe cifre le spendono proprio i vecchiacci ( come me :D :D ) e non certo i giovani.
A mio parere il 90% dei possessori della 4090 hanno dai 40 anni in su :D :D :D .
Gigibian
01-10-2024, 19:50
Io sono scandalizzato già da quando presi la 3070Ti, figurati, dopo la pandemia avevo capito come sarebbe stato l’andazzo di nvidia purtroppo, la 5070 non mi stuzzica per nulla così come fu la 4070 liscia, e pure io parlo da possessore da più un decennio di schede verdi. Però bisogna rispettare le idee di chi è più giovane o appassionato che vuole spendere queste cifre. :)
Assolutamente, rispetto le idee di tutti, senza necessariamente essere d'accordo :)
Con questa frase lasciatelo dire :D hai preso proprio un gran cantonata. Secondo me è proprio il contrario, certe cifre le spendono proprio i vecchiacci ( come me :D :D ) e non certo i giovani.
A mio parere il 90% dei possessori della 4090 hanno dai 40 anni in su :D :D :D .
Ma non necessariamente sai, ho colleghi più giovani che fanno rate e finanziamenti a destra e a manca pur di avere l’ultima vga disponibile con annessa TV 4K o monitor Oled, mentre personalmente, spendere 2000€ per un gpu solo per gaming mi sembra esagerato. Solitamente cerco il miglior compromesso tra prezzo prestazioni, infatti son sempre stato un user da fascia x70, solo quando ero più giovane e avevo meno soldi cercavo le top usate all’uscita della generazione successiva (ma parliamo di eoni fa, ai tempi della GeForce 2 ultra mi presi la 256 sdr per pochi €). Già con la 3070Ti feci lo sforzo di pagare 639€ per la FE, ed ora pare che i prezzi delle future vga salgano ancora, e personalmente, per come sembra tagliata la futura x70 non mi pare troppo giustificata la cosa, salvo poi venga smentito alla presentazione ufficiale. ;)
fraussantin
02-10-2024, 09:30
Con questa frase lasciatelo dire :D hai preso proprio un gran cantonata. Secondo me è proprio il contrario, certe cifre le spendono proprio i vecchiacci ( come me :D :D ) e non certo i giovani.
A mio parere il 90% dei possessori della 4090 hanno dai 40 anni in su :D :D :D .
Anche perche un giovane spende in altro.
Un fine settimana oggi ti costa un quarto ndi stipendio se non ci stai attento
bonzoxxx
02-10-2024, 11:06
Ragazzi, a nVidia azzo gliene se una GPU la vende a 1500, 2000 o 2500 tanto il grosso dei guadagni lo fa con la vendita delle GPU per l'AI e lascia noi 4 gatti a parlare del sesso degli angeli.
Nvidia ci margina alla grande, ma proprio tanto, e dato che il "gaming" non è la sua entrata principale e che la concorrenza un pochino langue, ecco che la frittata è fatta.
Per cui non dico che fa bene a prezzare le GPU a quel prezzo (anzi asserisco il contrario), spero solo che rimangano sullo scaffale o ne venda 4 in croce a qualche youtuber
Cutter90
02-10-2024, 11:17
Si ma permettimi, é davvero difficile leggere un cliente pagante che giustifica una multinazionale che attua una strategia a SFAVORE del cliente stesso.
Come se chi acquistasse un nuovo iPhone ogni anno fosse contento di NON avere niente in più dello scorso anno ad un prezzo più alto.
La produzione delle 4000 é andata a gonfie vele, e Nvidia ha guadagnato MOLTO di più per ogni singolo chip rispetto agli anni passati.
I prezzi delle componenti passive e PCB sono anni che si sono assestati ormai. (Lavoro nel settore)
Non c'è nulla di TECNICO che giustifichi l'approccio di NVIDIA, se non ovviamente massimizzare i guadagni a discapito di utenti che , a quanto pare, 500 o 1000 euro tanto comprano lo stesso!
Forse perchè io, avendo anche un azienda, non "scendo dalle nuvole" come vedo fare a qualcuno? Cioè io azienda Nvidia guadagno di più, ho poca concorrenza, sono il migliore e sempre all'avanguardia, lo sforza per migliorare è sempre più grande... pewrchè mai dovrei fare favori a "gigibian"? Approfitto della situazione finchè il mercato mi da ragione...... facciamo "gli adulti" su.
STOP!
mikael84
02-10-2024, 11:43
Torniamo a parlare delle blackwell!
I prezzi li conosciamo, ho calcolato pure i wafer, mostrato i margini AIB, discusso sui costi ram... però adesso pensiamo alle nuove.
RTX 5080... More Like RTX 5070? - Rumored Specs vs 10 Years of Nvidia GPUs:
https://www.youtube.com/watch?v=cvL-Mplhog8
caccapupu91
03-10-2024, 15:10
guardando il survey steam di settembre dove l'0.93% ha una 4090 dimostra che nvidia può chiedere il prezzo che le pare :angel:
anche se "piccolo" come dato può rispecchiare lo share medio di chi gioca, è una brutta notizia eh :asd:
guardando il survey steam di settembre dove l'0.93% ha una 4090 dimostra che nvidia può chiedere il prezzo che le pare :angel:
anche se "piccolo" come dato può rispecchiare lo share medio di chi gioca, è una brutta notizia eh :asd:
Secondo quei dati leggo un -0.05% per la 4090 a settembre, un +0.35% per 4070s e +1.17% per 4060...
nessuno29
03-10-2024, 15:23
guardando il survey steam di settembre dove l'0.93% ha una 4090 dimostra che nvidia può chiedere il prezzo che le pare :angel:
anche se "piccolo" come dato può rispecchiare lo share medio di chi gioca, è una brutta notizia eh :asd:
A me meraviglia molto di più il 3.6% di 4060ti, ma chi l'ha comprata non si vergogna?
magic carpet
03-10-2024, 15:50
A me meraviglia molto di più il 3.6% di 4060ti, ma chi l'ha comprata non si vergogna?
il suffisso Ti fa miracoli! :D
Sul totale utenti attivi steam le 3090 e le 4090 sono circa 3 mln. Numeri bassissimi e inutili per svilupparci giochi ad hoc, ma è irrilevante che siamo bassi per la politica commerciale nvidia: l aziende vende le x090 principalmente per usi pro, IA, etc. Solo pochissimi giocatori usano le x090 per giocare, quindi anche i paragoni con le x080 sono non del tutto corretti: si paragonano schede top per giocare, le x080, con schede pro, le x090, che ovviamente sono molto più potenti ed "esagerate", ad ex tutta quella vram della 5090 è inutile per il gaming
premessa: chi ha preso le 4060 (ti e non) andrebbe fucilato su pubblica piazza..
io mi meraviglio invece di chi ancora butt...ehm investe soldi sulla rx 6000 amd (sopratutto 6900/6950)...
:D :DDevi sempre considerare i prezzi, le 6000 nell'usato si trovano a prezzi decisamente interessanti, non é strano che qualcuno le stia valutando.
Sul nuovo, la 4060 é la Sku più economica, tende a costare anche meno delle 7600xt e ha comunque tutto l'ecosistema Nvidia e per un 1080p fa il suo, anche nel mobile sia 4050 che 4060 sono chip validi per consumo/prestazioni.
La 4060ti é la Sku effettivamente messa peggio, ora la trovi sui 350€, e per qualcosa di meglio devi andare verso i 400€ per la 7700xt o ripiegare sull'usato, pensa che AD106 é il chip utilizzato anche per le 4070 mobile...
É proprio la fascia mid messa male, 3 anni fa a quel prezzo ci trovavi le 3060ti e il divario con 4060ti é misero, si spera che con la prossima sfornata le 5060 siano bilanciate meglio e che lascino GB207 al mobile o per una 5050...
Inviato dal mio M2012K11AG utilizzando Tapatalk
OrazioOC
04-10-2024, 11:28
https://videocardz.com/newz/nvidia-geforce-rtx-4090-stock-dwindling-amid-high-end-rtx-40-gpu-discontinuation-rumors
amon.akira
04-10-2024, 11:31
e ancora...
nvidia-end-geforce-rtx-4080-super-gpu-supply-november-rtx-5090-5080-launch-simultaneously (https://wccftech.com/nvidia-end-geforce-rtx-4080-super-gpu-supply-november-rtx-5090-5080-launch-simultaneously/)
fraussantin
05-10-2024, 06:39
Direi normale visto che a gennaio massimo febbraio ci saranno entrambe.
Anche se penso che verranno lamciate in settimane diverse anche se vicine
Direi normale visto che a gennaio massimo febbraio ci saranno entrambe.
bene, avrò appena finito di pagare la mia 4080s :D
(e tanto la serie 5000 la skippo)
Direi normale visto che a gennaio massimo febbraio ci saranno entrambe.
Anche se penso che verranno lamciate in settimane diverse anche se vicine
A proposito di questo, oggi mi è capitato di vedere un video di prodigeek dove dicevano che siccome le RTX 5080/90 verranno presentate al CES di gennaio le vedremo negli scaffali verso maggio. Coooosaaaaaa? Non può essere vero spero?
OrazioOC
05-10-2024, 21:00
A proposito di questo, oggi mi è capitato di vedere un video di prodigeek dove dicevano che siccome le RTX 5080/90 verranno presentate al CES di gennaio le vedremo negli scaffali verso maggio. Coooosaaaaaa? Non può essere vero spero?
Spero per loro che sia un lapsus, già sarebbe tardi a marzo. :asd:
magic carpet
05-10-2024, 22:17
Il problema è che senza concorrenza possono fare quello che vogliono, tanto i soldi veri li fanno conl'AI.
ultimate trip
06-10-2024, 07:44
A proposito di questo, oggi mi è capitato di vedere un video di prodigeek dove dicevano che siccome le RTX 5080/90 verranno presentate al CES di gennaio le vedremo negli scaffali verso maggio. Coooosaaaaaa? Non può essere vero spero?
Spero per loro che sia un lapsus, già sarebbe tardi a marzo. :asd:
in realtà dicevano che se le 80/90 le presentano a gennaio allora le 60/70 si possono trovare verso maggio.
forse però con la 70 si riesce un po' prima
in realtà dicevano che se le 80/90 le presentano a gennaio allora le 60/70 si possono trovare verso maggio.
forse però con la 70 si riesce un po' prima
Ahhhhhh ok my bad allora, ho capito male io.
RazerXXX
06-10-2024, 23:16
Ciao ragazzi, sono leggermente OT, ma ho bisogno della vostra opinione
Adesso ho una 7900 XTX ma vorrei passare ad Nvidia (a malincuore), pensavo di venderla e vedere se riuscivo a prendere una 4080 in offerta al di sotto dei 1000 al prime day per poi rivenderla magari quando esce la serie 5000, sperando di non perderci troppo, ma ho visto che non mi basta per fare gli fps di cui ho bisogno (ultrawide)
Premesso che ovviamente per ora è tutta speculazione, per voi quale potrebbe essere la strategia giusta per perdere meno valore possibile dal cambio di scheda video?
Aggiungo che un mio amico mi ha proposto di prendere la sua 4090 per circa 1500, sicuramente allo stato attuale è un buon prezzo ma ha senso spenderli per una scheda che (forse) verrà surclassata dalla 4080 e magari potrei pagare la stessa cifra?
amon.akira
06-10-2024, 23:28
Ciao ragazzi, sono leggermente OT, ma ho bisogno della vostra opinione
Adesso ho una 7900 XTX ma vorrei passare ad Nvidia (a malincuore), pensavo di venderla e vedere se riuscivo a prendere una 4080 in offerta al di sotto dei 1000 al prime day per poi rivenderla magari quando esce la serie 5000, sperando di non perderci troppo, ma ho visto che non mi basta per fare gli fps di cui ho bisogno (ultrawide)
Premesso che ovviamente per ora è tutta speculazione, per voi quale potrebbe essere la strategia giusta per perdere meno valore possibile dal cambio di scheda video?
Aggiungo che un mio amico mi ha proposto di prendere la sua 4090 per circa 1500, sicuramente allo stato attuale è un buon prezzo ma ha senso spenderli per una scheda che (forse) verrà surclassata dalla 4080 e magari potrei pagare la stessa cifra?
al massimo verrà surclassata dalla 5090, la 5080 anche se nel migliore dei casi facesse +10% sulla 4090 rimarrebbe cmq una 16gb vs una 24gb
micronauta1981
07-10-2024, 05:50
Ciao ragazzi, sono leggermente OT, ma ho bisogno della vostra opinione
Adesso ho una 7900 XTX ma vorrei passare ad Nvidia (a malincuore), pensavo di venderla e vedere se riuscivo a prendere una 4080 in offerta al di sotto dei 1000 al prime day per poi rivenderla magari quando esce la serie 5000, sperando di non perderci troppo, ma ho visto che non mi basta per fare gli fps di cui ho bisogno (ultrawide)
Premesso che ovviamente per ora è tutta speculazione, per voi quale potrebbe essere la strategia giusta per perdere meno valore possibile dal cambio di scheda video?
Aggiungo che un mio amico mi ha proposto di prendere la sua 4090 per circa 1500, sicuramente allo stato attuale è un buon prezzo ma ha senso spenderli per una scheda che (forse) verrà surclassata dalla 4080 e magari potrei pagare la stessa cifra?
Menomale che è tuo amico..😅😅
Secondo me 1500€ non li vale, è pur sempre una scheda usata..1200/1300€ secondo me è il prezzo più giusto..
Dracula1975
07-10-2024, 06:44
Menomale che è tuo amico..
Secondo me 1500€ non li vale, è pur sempre una scheda usata..1200/1300€ secondo me è il prezzo più giusto..
contando lo shortage attuale, se ne trovano pochissime nuove e a 2000+ euri (escludendo brand cinesi improbabili), direi 1500 non è una "prezzo da amico" ma neanche da buttare..
ci penserei
bonzoxxx
07-10-2024, 06:50
C'è ancora shortage di GPU?!? :mbe:
fraussantin
07-10-2024, 07:07
Ciao ragazzi, sono leggermente OT, ma ho bisogno della vostra opinione
Adesso ho una 7900 XTX ma vorrei passare ad Nvidia (a malincuore), pensavo di venderla e vedere se riuscivo a prendere una 4080 in offerta al di sotto dei 1000 al prime day per poi rivenderla magari quando esce la serie 5000, sperando di non perderci troppo, ma ho visto che non mi basta per fare gli fps di cui ho bisogno (ultrawide)
Premesso che ovviamente per ora è tutta speculazione, per voi quale potrebbe essere la strategia giusta per perdere meno valore possibile dal cambio di scheda video?
Aggiungo che un mio amico mi ha proposto di prendere la sua 4090 per circa 1500, sicuramente allo stato attuale è un buon prezzo ma ha senso spenderli per una scheda che (forse) verrà surclassata dalla 4080 e magari potrei pagare la stessa cifra?Il valore di mercato è quello.
Poi se conviene o meno quello sta a te.
La 5080 sarà li piu o meno come prestazioni , avrà sicuramente meno memoria , forse qualche novità tecnica , ma non sappiamo niente ( il prezzo io pensavo ad un 1300 euro , ma ovunque stanno dicendo 1400 1500 euro a scaffale che finirá x crederci anche nvidia :asd:)
Di sicuro conviene il passaggio da amd a nvidia perché il dlss , il dlsr e il dlaa da soli valgono la candela.
Sto giocando il vecchio KcD .
Fra nativo e con la super risoluzione di nvidia c'è un abisso.
Una pulizia di immagina pazzesca.
Dracula1975
07-10-2024, 07:55
C'è ancora shortage di GPU?!? :mbe:
di 4090 sicuramente....le altre si trovano
micronauta1981
07-10-2024, 08:01
Posso capire vendendo su internet,ma appunto essendo un amico,il prezzo andrebbe tarato sul vero valore non sul valore del mercato dopato dallo shortage..la mia la venderò a 1200/1300€ a prescindere,se togliete il 30% da 1900€ viene circa 1300€
Dracula1975
07-10-2024, 08:06
Posso capire vendendo su internet,ma appunto essendo un amico,il prezzo andrebbe tarato sul vero valore non sul valore del mercato dopato dallo shortage..la mia la venderò a 1200/1300€ a prescindere,se togliete il 30% da 1900€ viene circa 1300€
.si diciamo se è un amico ti fa 1200-1300
RazerXXX
07-10-2024, 10:29
Grazie per i consigli, ma a parte la questione di prezzo, lato prestazioni cosa mi consigliate? 4090, 5080?
Mi conviene cambiare ora o aspettare sapendo che anche il valore della mia 7900 XTX scenderà molto?
ninja750
07-10-2024, 10:36
lato prestazioni cosa mi consigliate? 4090, 5080?
IA 5080 che supporterà IASS4.0 :O
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.