View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
ninja750
30-04-2025, 11:34
E invece ci mettono sopra due ventole dual slot
La seconda a cosa serve ? a spostare aria da sotto il case a sopra ?
teoricamente fai un radiatore più lungo e dissipi quello
a parte quello mi chiedo come anche a loro possa costare "cara" una vga simile
mikael84
30-04-2025, 12:54
ragazzi ma per giocare@1440p una 5070ti rispetto ad una 5080 è sufficiente o ci sarebbe molta differenza?
eventualmente quale modello di 5070ti mi consigliereste?
https://tpucdn.com/review/msi-geforce-rtx-5070-ti-gaming-trio-oc/images/relative-performance-2560-1440.png
Per il modello, usa questo thread:
https://www.hwupgrade.it/forum/showthread.php?t=3024694&page=219
Se torniamo al 3x8 però il bus rimane 256bit.
Non che limiti la 5080, con quelle memorie ha una banda pazzesca.
Ma anche mettere 2k cuda in più cambierebbe qualcosa? Detto che sono il +20% e poco non è
Si, la scheda è la stessa, ma aggiornata con i modulini da 3gb, quindi una 5080 24gb, o una 5070 18gb.
Questo sarà lo standard futuro.
Per le performance, servirebbe un CUT di GB202.
Con GB203, l'unico parametro è relativo alla densità e velocità, quindi potrebbero mettere 24gb a 32 gb/s ad esempio.
marbasso
30-04-2025, 17:06
Nuovi driver LOL
OrazioOC
04-05-2025, 15:54
https://videocardz.com/newz/pny-geforce-rtx-5060-becomes-first-blackwell-rtx-50-gpu-listed-below-300-by-a-retailer
OrazioOC
06-05-2025, 14:55
https://videocardz.com/newz/nvidia-geforce-rtx-5060-gpus-for-desktop-and-laptops-officially-launch-on-may-19
ninja750
06-05-2025, 15:12
https://videocardz.com/newz/nvidia-geforce-rtx-5060-gpus-for-desktop-and-laptops-officially-launch-on-may-19
gefore 5060 family game changer
l'hanno veramente scritto?
marbasso
06-05-2025, 20:19
gefore 5060 family game changer
l'hanno veramente scritto?
Numeri....!!
gefore 5060 family game changer
l'hanno veramente scritto?
"4090 performance for 600 $" :O
ninja750
16-05-2025, 11:43
https://www.pcguide.com/news/nvidia-gpu-prices-will-rise-across-the-board-as-company-hit-by-surge-in-us-costs/
rincari per tutta la lineup :stordita:
Evilquantico
16-05-2025, 12:23
https://www.pcguide.com/news/nvidia-gpu-prices-will-rise-across-the-board-as-company-hit-by-surge-in-us-costs/
rincari per tutta la lineup :stordita:
Ma io voglio spendere molto di piu' :cool: voglio una scheda da 6000 euro , chissà magari con la rtx 6090
marbasso
16-05-2025, 14:37
Ma io voglio spendere molto di piu' :cool: voglio una scheda da 6000 euro , chissà magari con la rtx 6090
Facciano facciano sereni.
Romain1985
16-05-2025, 17:49
Ma io voglio spendere molto di piu' :cool: voglio una scheda da 6000 euro , chissà magari con la rtx 6090
Eccoti servito non bisogna aspettare la 6090 :D
ASUS ROG Astral RTX 5090 “Dhahab Edition” now available: starts at $7000 but features $700 worth of real gold
http://videocardz.com/newz/asus-rog-astral-rtx-5090-dhahab-edition-now-available-starts-at-7000-but-features-700-worth-of-real-gold
Ma io voglio spendere molto di piu' :cool: voglio una scheda da 6000 euro , chissà magari con la rtx 6090
Non serve andare a cercare soluzioni "esoteriche".
La via più semplice: prendi una RTX 6000 Ada (equivalente a una GeForce classe '90) e la usi per giocare :p :Prrr: :ciapet:
Evilquantico
19-05-2025, 09:07
G O D O :rotfl: grazie a tutti per i consigli!
ninja750
19-05-2025, 09:13
non so se state seguendo le critiche (eufemismo) che stanno piovendo in queste ore su nvidia per quanto riguarda le recensioni 5060 in tantissimi canali youtube, praticamente tutti i principali
https://www.youtube.com/watch?v=AiekGcwaIho
https://www.youtube.com/watch?v=pHz8Z0rEIMA
https://www.youtube.com/watch?v=QtFDz-BQLew
https://www.youtube.com/watch?v=sog4i8Ax0KM
https://www.youtube.com/watch?v=ptpvph5EcRY
sostanzialmente nvidia obbliga chi vuole recensire la 5060 day1 a recensirla soltanto come vogliono loro, senza eccezioni o deroghe. più nello specifico i recensori sarebbero obbligati a:
1) non mostrare nessuna scheda amd in comparativa
2) uniche schede mostrabili come comparativa 2060s 3060 5060 (e assolutamente non 4060)
3) unica risoluzione ammessa 1080p
4) frame generator sempre attivo
5) impostazioni ray tracing sempre attive e impostate al massimo
6) solo testabile in questi 5 giochi: doom, avowed, marvel rivals, cyberpunk, hogwarts legacy
7) impostazioni grafiche ultra
8) dlss qualità attivo sempre
se non si segue questa "guida" oltre a non ricevere una scheda non ricevono nemmeno i driver necessari per farla funzionare, impedendo quindi un test con scheda comprata in proprio. l'alternativa è recensirla quando sarà in vendita libera. dunque tutti i canali youtube che vedremo pubblicare day1 saranno quelli che si sono """piegati""" a queste "indicazioni" nvidia
edit: stessa linea anche da parte di hardware upgrade: https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-5060-ufficiale-su-desktop-e-notebook-le-specifiche-tecniche_138850.html
Evilquantico
19-05-2025, 09:25
non so se state seguendo le critiche (eufemismo) che stanno piovendo in queste ore su nvidia per quanto riguarda le recensioni 5060 in tantissimi canali youtube, praticamente tutti i principali
https://www.youtube.com/watch?v=AiekGcwaIho
https://www.youtube.com/watch?v=pHz8Z0rEIMA
https://www.youtube.com/watch?v=QtFDz-BQLew
https://www.youtube.com/watch?v=sog4i8Ax0KM
https://www.youtube.com/watch?v=ptpvph5EcRY
sostanzialmente nvidia obbliga chi vuole recensire la 5060 day1 a recensirla soltanto come vogliono loro, senza eccezioni o deroghe. più nello specifico i recensori sarebbero obbligati a:
1) non mostrare nessuna scheda amd in comparativa
2) uniche schede mostrabili come comparativa 2060s 3060 5060 (e assolutamente non 4060)
3) unica risoluzione ammessa 1080p
4) frame generator sempre attivo
5) impostazioni ray tracing sempre attive e impostate al massimo
6) solo testabile in questi 5 giochi: doom, avowed, marvel rivals, cyberpunk, hogwarts legacy
7) impostazioni grafiche ultra
8) dlss qualità attivo sempre
se non si segue questa "guida" oltre a non ricevere una scheda non ricevono nemmeno i driver necessari per farla funzionare, impedendo quindi un test con scheda comprata in proprio. l'alternativa è recensirla quando sarà in vendita libera. dunque tutti i canali youtube che vedremo pubblicare day1 saranno quelli che si sono """piegati""" a queste "indicazioni" nvidia
edit: stessa linea anche da parte di hardware upgrade: https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-5060-ufficiale-su-desktop-e-notebook-le-specifiche-tecniche_138850.html
Posso dire che in 35 anni che seguo il mondo dell'informatica console e videogiochi in generale una presunzione di cosa fare e non fare o dire così ridicola da parte di un produttore di hardware non lo mai vista e sentita ? sono alla frutta .
aled1974
19-05-2025, 09:29
solo per gli youtuber o anche per i siti web di hardware? :stordita:
no perchè già ora mi sembrano abbastanza proni....
comunque mi ricorda la vicenda e le posizioni di amd/recensori di qualche anno fa.... cos'era ai tempi delle vega? polaris? li attorno? :muro: :doh: :banned:
ciao ciao
non so se state seguendo le critiche (eufemismo) che stanno piovendo in queste ore su nvidia per quanto riguarda le recensioni 5060 in tantissimi canali youtube, praticamente tutti i principali
https://www.youtube.com/watch?v=AiekGcwaIho
https://www.youtube.com/watch?v=pHz8Z0rEIMA
https://www.youtube.com/watch?v=QtFDz-BQLew
https://www.youtube.com/watch?v=sog4i8Ax0KM
https://www.youtube.com/watch?v=ptpvph5EcRY
sostanzialmente nvidia obbliga chi vuole recensire la 5060 day1 a recensirla soltanto come vogliono loro, senza eccezioni o deroghe. più nello specifico i recensori sarebbero obbligati a:
1) non mostrare nessuna scheda amd in comparativa
2) uniche schede mostrabili come comparativa 2060s 3060 5060 (e assolutamente non 4060)
3) unica risoluzione ammessa 1080p
4) frame generator sempre attivo
5) impostazioni ray tracing sempre attive e impostate al massimo
6) solo testabile in questi 5 giochi: doom, avowed, marvel rivals, cyberpunk, hogwarts legacy
7) impostazioni grafiche ultra
8) dlss qualità attivo sempre
se non si segue questa "guida" oltre a non ricevere una scheda non ricevono nemmeno i driver necessari per farla funzionare, impedendo quindi un test con scheda comprata in proprio. l'alternativa è recensirla quando sarà in vendita libera. dunque tutti i canali youtube che vedremo pubblicare day1 saranno quelli che si sono """piegati""" a queste "indicazioni" nvidia
edit: stessa linea anche da parte di hardware upgrade: https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-5060-ufficiale-su-desktop-e-notebook-le-specifiche-tecniche_138850.html
Tardi per svegliarsi, ormai la frittata è fatta.
Cutter90
19-05-2025, 11:10
non so se state seguendo le critiche (eufemismo) che stanno piovendo in queste ore su nvidia per quanto riguarda le recensioni 5060 in tantissimi canali youtube, praticamente tutti i principali
https://www.youtube.com/watch?v=AiekGcwaIho
https://www.youtube.com/watch?v=pHz8Z0rEIMA
https://www.youtube.com/watch?v=QtFDz-BQLew
https://www.youtube.com/watch?v=sog4i8Ax0KM
https://www.youtube.com/watch?v=ptpvph5EcRY
sostanzialmente nvidia obbliga chi vuole recensire la 5060 day1 a recensirla soltanto come vogliono loro, senza eccezioni o deroghe. più nello specifico i recensori sarebbero obbligati a:
1) non mostrare nessuna scheda amd in comparativa
2) uniche schede mostrabili come comparativa 2060s 3060 5060 (e assolutamente non 4060)
3) unica risoluzione ammessa 1080p
4) frame generator sempre attivo
5) impostazioni ray tracing sempre attive e impostate al massimo
6) solo testabile in questi 5 giochi: doom, avowed, marvel rivals, cyberpunk, hogwarts legacy
7) impostazioni grafiche ultra
8) dlss qualità attivo sempre
se non si segue questa "guida" oltre a non ricevere una scheda non ricevono nemmeno i driver necessari per farla funzionare, impedendo quindi un test con scheda comprata in proprio. l'alternativa è recensirla quando sarà in vendita libera. dunque tutti i canali youtube che vedremo pubblicare day1 saranno quelli che si sono """piegati""" a queste "indicazioni" nvidia
edit: stessa linea anche da parte di hardware upgrade: https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-5060-ufficiale-su-desktop-e-notebook-le-specifiche-tecniche_138850.html
Ormai solo le recensioni indipendenti sono quelle da seguire. E questo vale in ogni ambito in cui ci sia un prodotto. Io spero con tutto il cuore che tutti i recensori prima o poi diventino indipendenti.
aled1974
19-05-2025, 11:52
Ormai solo le recensioni indipendenti sono quelle da seguire. E questo vale in ogni ambito in cui ci sia un prodotto. Io spero con tutto il cuore che tutti i recensori prima o poi diventino indipendenti.
spero di sbagliarmi ma secondo me negli ultimi anni la direzione è quella opposta, dove la maggioranza sta virando verso endorsement, rilancio di comunicati stampa aziendali e tendenza a NON fare critiche sui prodotti inviati da "recensire"
a volte con una commistione di interessi terzi in gioco (non mi pronuncio oltre) e fare più visualizzazioni possibili cercando una posizione migliore "lisciando" le aziende meglio degli altri
:cry:
ma spero di sbagliarmi :sperem:
Fine O.T. da parte mia :mano:
ciao ciao
mikael84
19-05-2025, 16:16
Non serve andare a cercare soluzioni "esoteriche".
La via più semplice: prendi una RTX 6000 Ada (equivalente a una GeForce classe '90) e la usi per giocare :p :Prrr: :ciapet:
Paradossalmente una vera GPU over 5090 c'è, è per ambiti work, ovvero la pro 6000 ex quadro, che con il TDP da 600 watt, fa le veci di una 5090TI. GPU praticamente full, con 24000cc e 128mb di cache/96gb vram.
Le altre work, erano tarate a 300watt, quest'ultima funge pure da gaming, ed è acquistabile in alcuni shop italiani.
non so se state seguendo le critiche
Il succo alla fine è 5060ti 8gb -10%.
solo per gli youtuber o anche per i siti web di hardware? :stordita:
no perchè già ora mi sembrano abbastanza proni....
comunque mi ricorda la vicenda e le posizioni di amd/recensori di qualche anno fa.... cos'era ai tempi delle vega? polaris? li attorno? :muro: :doh: :banned:
ciao ciao
Kitguru con le fury.
Tutto questo problema è uscito fuori per non istradare un banalissimo 192bit da appena 10mm2, sia lato verde che lato rosso a breve.
A conti fatti, oltre alla magra figura, sono costretti ad instradare il clamshell, con il doppio della ram e calore aggiuntivo lato ram.
OrazioOC
19-05-2025, 17:18
Disponibili le prime rtx 5060 a partire da 320 euro da LDLC. :rolleyes:
zanflank
19-05-2025, 17:46
Disponibili le prime rtx 5060 a partire da 320 euro da LDLC. :rolleyes:
Corro!
Corro!
Dall'altra parte però :fagiano:
Dall'altra parte però :fagiano:
:sbonk:
Comunque a 1080p si possono difendere bene per un bel po'.
Motenai78
19-05-2025, 18:58
edit: letto male ^^''
ninja750
20-05-2025, 08:17
Disponibili le prime rtx 5060 a partire da 320 euro da LDLC. :rolleyes:
sono online i test "preview" delle testate che si sono inginocchiate, altri invece hanno scaricato i driver stanotte giusto per pubblicare benchmark sintetici dove seguiranno review complete tra un giorno o due
ninja750
20-05-2025, 08:24
Il succo alla fine è 5060ti 8gb -10%.
la 4060ti è più veloce :fagiano:
fa più impressione vedere che è più lenta del 65% rispetto alla bistrattata 5070
OrazioOC
20-05-2025, 09:21
la 4060ti è più veloce :fagiano:
fa più impressione vedere che è più lenta del 65% rispetto alla bistrattata 5070
https://www.guru3d.com/data/publish/225/63299fb44875ae6f1e144a236116190a141439/picture1.webp
https://www.guru3d.com/data/publish/225/63299fb44875ae6f1e144a236116190a141439/picture5.webp
Dai preliminari di GURU3D, 4060ti/3070 se le mette dietro, di poco ma stanno dietro. :)
Più che altro è tutto il contesto della scheda che puzza. :rolleyes:
bagnino89
20-05-2025, 09:25
https://www.guru3d.com/data/publish/225/63299fb44875ae6f1e144a236116190a141439/picture1.webp
https://www.guru3d.com/data/publish/225/63299fb44875ae6f1e144a236116190a141439/picture5.webp
Dai preliminari di GURU3D, 4060ti/3070 se le mette dietro, di poco ma stanno dietro. :)
Più che altro è tutto il contesto della scheda che puzza. :rolleyes:
A 300 euro non mi sembra così malvagia, vedendo cosa c'è in giro di questi tempi...
Alekos Panagulis
20-05-2025, 10:03
Vorrei solo ricordare che, all’epoca della controversia tra Nvidia e Hardware Unboxed (una situazione che presenta delle analogie con quanto accaduto poi con Gamers Nexus), in questo thread c’erano diversi utenti — anche molto competenti — che espressero posizioni a favore di Nvidia.
In alcuni casi, vennero sollevate critiche piuttosto dure nei confronti di HU, accusandoli di disinformazione o di aver reagito in modo esagerato.
Non voglio riaprire vecchie polemiche, ma credo che questi episodi mostrino quanto a volte il problema non sia solo nelle aziende o nei singoli casi, ma anche nelle reazioni della community stessa.
Bello quando a meno di 600euro ti portavi a casa la top di gamma della gen precedente
Non è un paragone ovviamente, ma fa sorridere
Cutter90
20-05-2025, 10:26
Vi ricordo che, all'epoca della storiaccia di Nvidia vs Hardware Unboxed (sostanzialmente gli stessi ricatti fatti nei confronti di GN), questo thread era pieno di gente, anche molto competente, che era dalla parte di Nvidia. E quel che è peggio, accusavano HU di "disinformazione" e piagnisteo isterico.
Il problema sono sempre gli utenti.
Situazioni moooolto diverse, sono anche passati svariati anni. Lì erano una voce fuori dal coro ed erano palesemente contro Nvidia per non si sa quali motivi. In quel caso Nvidia chiedeva di usare upscaler e RT OLTRE ai test normali, mnetre HU continuava a ignorarli, cosa effettivamente sbagliata.
Situazione molto diversa ora in cui sono TUTTI contro Nvidia, per validi motivi, dato che Nvidia vuole che si provi SOLO la scheda con il MFG e RT maxato con altre limitazioni palesemente atte a "truffare" l utenza. . Inoltre proprio dopo quell'episodio HU è diventato molto molto più bilanciato nei suoi giudizi. Infatti ora lo seguo con più interesse.
OrazioOC
20-05-2025, 10:31
A 300 euro non mi sembra così malvagia, vedendo cosa c'è in giro di questi tempi...
Non è malvagia, ma non è nulla di mai visto a questi prezzi.
Mi ricordo 2/3 annetti fa le 3060 ti gddr6x fine serie che venivano via a 320/330 euro nuove, e andavano solamente un 10-12% meno di questa. :rolleyes:
Idem le 6700/50 xt. :asd:
Per non parlare di cosa salta fuori nell'usato con 300/350 euro, 6800(xt), 7700 xt, rtx 3080 ecc... :rolleyes:
Più che altro, penso a chi nel case ha una 3060 12gb, che vede questa come sorta di upgrade, con però ben 4gb di vram in meno. :rolleyes:
zanflank
20-05-2025, 10:39
A 300 euro non mi sembra così malvagia, vedendo cosa c'è in giro di questi tempi...
Come sostituta di una 1030 low profile è perfetta, meno sul prezzo :rolleyes:
https://www.computerbase.de/news/grafikkarten/blackwell-low-profile-zotacs-winzige-geforce-rtx-5060-passt-fast-in-eine-hand.92749/
A 300 euro non mi sembra così malvagia, vedendo cosa c'è in giro di questi tempi...
A 300 euro ho comprato la 1070 :stordita:
A 300 euro ho comprato la 1070 :stordita:
Io a poco meno la vega 56,che bei tempi:muro: ..:(
Alekos Panagulis
20-05-2025, 11:27
Situazioni moooolto diverse, sono anche passati svariati anni. Lì erano una voce fuori dal coro ed erano palesemente contro Nvidia per non si sa quali motivi. In quel caso Nvidia chiedeva di usare upscaler e RT OLTRE ai test normali, mnetre HU continuava a ignorarli, cosa effettivamente sbagliata.
Situazione molto diversa ora in cui sono TUTTI contro Nvidia, per validi motivi, dato che Nvidia vuole che si provi SOLO la scheda con il MFG e RT maxato con altre limitazioni palesemente atte a "truffare" l utenza. . Inoltre proprio dopo quell'episodio HU è diventato molto molto più bilanciato nei suoi giudizi. Infatti ora lo seguo con più interesse.
Mi sembra un po' una arrampicata sugli specchi.
La situazione era la stessa. Nvidia pretendeva di imporre una linea editoriale ai recensori, ricattandoli con minacce di non fornire più sample.
HU non ha mai ignorato il DLSS e il ray tracing, ma in quella particolare occasione (la review della 3080 mi pare), avevano comunicato che avrebbero caricato un video a parte con l'analisi di quelle due tecnologie.
Cosa che Nvidia non aveva gradito, perché tutti i recensori DOVEVANO mettere in risalto DLSS e RT nelle review e basta.
Cutter90
20-05-2025, 12:26
]Mi sembra un po' una arrampicata sugli specchi. [/B]
La situazione era la stessa. Nvidia pretendeva di imporre una linea editoriale ai recensori, ricattandoli con minacce di non fornire più sample.
HU non ha mai ignorato il DLSS e il ray tracing, ma in quella particolare occasione (la review della 3080 mi pare), avevano comunicato che avrebbero caricato un video a parte con l'analisi di quelle due tecnologie.
Cosa che Nvidia non aveva gradito, perché tutti i recensori DOVEVANO mettere in risalto DLSS e RT nelle review e basta.
Ma assolutamente no. Infatti tutti i recensori dovevano mettere ANCHE il dlss e il RT, cosa sacrosanta con una serie 3000 e tecnologia ormai matura. HU invece si ostinava a non mettere dlss e RT. Unica testata a farlo. Infatti dopo quell'episodio HU mise sempre RT e dlss nei bench, idice che forse stavano sbagliando qualcosa.....
La situazione non è affatto la stessa. Ripeto siamo in due situazioni molto diverse
bagnino89
20-05-2025, 13:48
Non è malvagia, ma non è nulla di mai visto a questi prezzi.
Mi ricordo 2/3 annetti fa le 3060 ti gddr6x fine serie che venivano via a 320/330 euro nuove, e andavano solamente un 10-12% meno di questa. :rolleyes:
Idem le 6700/50 xt. :asd:
Per non parlare di cosa salta fuori nell'usato con 300/350 euro, 6800(xt), 7700 xt, rtx 3080 ecc... :rolleyes:
Più che altro, penso a chi nel case ha una 3060 12gb, che vede questa come sorta di upgrade, con però ben 4gb di vram in meno. :rolleyes:
Hai ragione, ma ormai non bisogna più guardare al semplice silicio, ma anche alle feature... Si pagano anche quelle, anzi, sono quelle che ormai fanno la differenza...
Come sostituta di una 1030 low profile è perfetta, meno sul prezzo :rolleyes:
https://www.computerbase.de/news/grafikkarten/blackwell-low-profile-zotacs-winzige-geforce-rtx-5060-passt-fast-in-eine-hand.92749/
Vabbè non esageriamo...
A 300 euro ho comprato la 1070 :stordita:
Altri tempi. Il silicio ora costa un botto, e se vuoi produrre negli USA non costa come produrre a Taiwan...
aled1974
20-05-2025, 14:09
Vi ricordo che, all'epoca della storiaccia di Nvidia vs Hardware Unboxed (sostanzialmente gli stessi ricatti fatti nei confronti di GN), questo thread era pieno di gente, anche molto competente, che era dalla parte di Nvidia. E quel che è peggio, accusavano HU di "disinformazione" e piagnisteo isterico.
Il problema sono sempre gli utenti.
non so gli altri ma ricordo perfettamente che allora tra amd fury/kitguru (grazie Michael :mano: ) criticai Amd senza tanto ne quanto
e pur essendo verde dai tempi delle 8800 ho criticato nvidia in svariate occasioni (driver che bloccavano le ventole e saltavano le gpu, cavi che si squagliano sia v1 che v2, space invaders, ecc ecc)
non sono tra quelli “competenti” dato che per motivi personali non riesco ad approfondire quasi nulla ormai nel settore tecnologico (giusto la fotografia e neanche al 100%) ma non mi schiero di qua o di la o altrove per “fede calcistica”. Cerco invece di essere ugualmente critico con chiunque ritengo faccia una qualche porcata
e pur essendo verde da mo’, (almeno) negli ultimi 4-5 anni IMHO sono più le :doh: lato verde che lato rosso, dove al massimo gli si può imputare la scarsa prestazione del prodotto
a me pare che più che gli utenti il problema siano i produttori con quel che combinano, poi ci sarà sempre chi negherà anche con le prove sotto agli occhi, quello sì :mano:
ciao ciao
AceGranger
20-05-2025, 14:49
ma anche nelle reazioni della community stessa.
Il problema sono proprio gli Utenti che si stanno bimbominkiando.
Oggi tutti voglio tutto subito e devono leggere la review minimo una settimana prima perchè ommmiodddiioooo devono tutti correre a comprare la GPU al dayone per fare gli sboroni con gli amichetti.
In un mondo normale, una testata indipendente le GPU se le prenderebbe per i fatti suoi, farebbe la sua review con i driver di tutti e stop, e non sarebbe un problema avere la review una settimana dopo la disponibilità delle schede in commercio, invece il problema è proprio il comportamento dell'utente medio che deve avere la novità subito e le testate che vogliono fare subito le review perchè seno non siamo i primi a farla...
la risposta corretta da dare a nVidia sarebbe, "non me la vuoi dare ? sticazzi la compro io che tanto tolta l'iva e ammortamento quella GPU la pago un cazzo e visto che farà cagare te la demolisco".
aled1974
20-05-2025, 15:48
la risposta corretta da dare a nVidia sarebbe, "non me la vuoi dare ? sticazzi la compro io che tanto tolta l'iva e ammortamento quella GPU la pago un cazzo e visto che farà cagare te la demolisco".
+1 e .... ma magariiii !!!!!
e invece.... :cry:
ciao ciao
Ma già solo il fatto che:
Ti do il vino, prodotto dal mio fido cane :gluglu: un bel giallo paglierino che è una goduria , ma devi parlarne come se fosse champagne è qualcosa di scandaloso.
ninja750
20-05-2025, 16:34
https://i.postimg.cc/L845TpGF/gn-launches-an-official-investigation-into-nvidias-v0-rah59obs4y1f1.webp
frafelix
20-05-2025, 16:44
Brutta storia la mancanza di concorrenza!
OrazioOC
20-05-2025, 18:43
https://videocardz.com/newz/nvidia-geforce-rtx-5080-super-spec-leak-24gb-32gbps-g7-memory-and-same-core-count-as-rtx-5080
Lo Straniero Misterioso
20-05-2025, 19:37
E' una scheda della serie 50 spacciata come se fosse una 60.
Ha tutte le limitazioni tipiche delle 50 (=va bene solo per i giochi vecchi o MOBA) ma costa come la 60. Ti ci voglio vedere a giocare GTA o The Witcher 4 là sopra...
E invecchierà pure male, dato che fra un po' le console next-gen alzeranno l'asticella del "minimo sindacale" lasciandola tragicamente sotto.
Spendi quei 350 euro nel mercato dell'usato piuttosto.
OrazioOC
20-05-2025, 20:06
Sentimenti contrastanti per sta gpu. :O
A prescindere dalla crociata che gli stanno facendo i reviewer per via dei driver messi a disposizione solamente al lancio della scheda(vedasi Gamer Nexus, Hw Unboxed, ma anche Prodigeek questo pomeriggio), la scheda la possiamo descrivere come "bene ma non benissimo". :rolleyes:
Non va' male, in fhd con le ultime uscite i 60 fps senza RT li tira fuori, però non è veramente quel tanto meglio che serve per far saltare sul carro gente che ha schede di fascia media vecchie di qualche anno.
Non è solo un problema di vram, ma è anche il poco gap generazionale post rtx Ampere in raster che non è più ignorabile.
Passare da una 3060 12gb, ad una 5060 8gb, significa fare +40% in quasi 5 anni, troppo poco. :stordita:
Gli 8gb poi mi ricordano i 2gb della vecchia GTX 960, sufficenti al lancio ma con poco respiro già dopo un paio di anni(infatti la 1060 era arrivata con 3/6gb di vram).
Sui tripla A questa è una scheda che non durerà. :help:
Nota di demerito per il frame gen, nel video di prodigeek si vede il test di Doom TDA con e senza FG, e ballavano circa 10 fps.
Non ne ha sta scheda per sfruttare quella featuers, proprio quando servirebbe di più. :rolleyes:
Aspettiamo la risposta di Amd domani, però non mi sembra che la scheda tecnica della 9060 XT reciti un copione diverso da GB206 di queste rtx 5060/TI...
Sicuramente però, meglio 8gb di vram su una scheda da 300 dollari(5060) che non da 380 dollari(5060 ti). :)
ninja750
21-05-2025, 08:44
https://videocardz.com/newz/nvidia-geforce-rtx-5080-super-spec-leak-24gb-32gbps-g7-memory-and-same-core-count-as-rtx-5080
40w in più è proprio quello che ci voleva :fagiano: per il resto il chip è già full quindi mi aspetto tipo 4/5% di differenza qui e lì solo in 4k
se proprio volevano fare un super refresh tanto valeva mettere 16gb dove servono di più cioè alla 5070 vanilla
nessuno29
21-05-2025, 08:47
A 300 euro non mi sembra così malvagia, vedendo cosa c'è in giro di questi tempi...
Io ho pagato 317 euro una 3060ti nuova, che va un 10-12% meno, nel 2021 mi pare.
ultimate trip
21-05-2025, 08:55
Brutta storia la mancanza di concorrenza!
è forse un periodo dove amd si è fatta più sotto, non sarei così drastico
bagnino89
21-05-2025, 11:25
Io ho pagato 317 euro una 3060ti nuova, che va un 10-12% meno, nel 2021 mi pare.Mi sembra un prezzo molto basso, all'epoca si trovavano sui 500 euro quelle schede...
AlexAlex
21-05-2025, 12:08
è forse un periodo dove amd si è fatta più sotto, non sarei così drasticoNon mi sembra, continua ad essere indietro su pari fascia di Nvidia nonostante questa stia vendendo ormai da anni più o meno le stesse schede. Si infila semplicemente negli spazi che Nvidia gli lascia tra una fascia e l'altra con una scheda che in parte compete ed in parte no, con un prezzo un pochino migliore e un po' di memoria in più per bilanciare le mancanze. Probabilmente anche a Nvidia conviene far vedere che ci sia un competitor.
Magari riuscisse a competere veramente o che crescesse Intel
DJurassic
21-05-2025, 12:32
è forse un periodo dove amd si è fatta più sotto, non sarei così drastico
Per quanto mi riguarda sotto un tir :asd:
Non basta l'assistenzialismo di 3/4 dei content creator tutti presi a sparare cazzate correndo dietro a GamerNexus per colmare un gap tecnologico che va avanti ormai da un decennio. E non bastano le videoconferenze con le scritte appiccicate sopra per dimostrare di essere nella giusta direzione quando ad oggi l'FSR 4 stenta ad essere inserito nei giochi al D1 ed è un pianto totale per quanto riguarda la retrocompatibilità.
Così come non basta lanciare una scheda decente ad un prezzo allettante se poi tolto il primo batch il prezzo aumenta di 100-150€ sui nuovi arrivi.
Però ehi, ha 16Gb e quindi è la scheda da prendere "future proof" :read:
Situazioni moooolto diverse, sono anche passati svariati anni. Lì erano una voce fuori dal coro ed erano palesemente contro Nvidia per non si sa quali motivi. In quel caso Nvidia chiedeva di usare upscaler e RT OLTRE ai test normali, mnetre HU continuava a ignorarli, cosa effettivamente sbagliata.
Situazione molto diversa ora in cui sono TUTTI contro Nvidia, per validi motivi, dato che Nvidia vuole che si provi SOLO la scheda con il MFG e RT maxato con altre limitazioni palesemente atte a "truffare" l utenza. . Inoltre proprio dopo quell'episodio HU è diventato molto molto più bilanciato nei suoi giudizi. Infatti ora lo seguo con più interesse.
No, fa solamente capire che il gregge di pecoroni in questi anni è aumentato.
Lo Straniero Misterioso
21-05-2025, 13:22
Per quanto mi riguarda sotto un tir :asd:
Non basta l'assistenzialismo di 3/4 dei content creator tutti presi a sparare cazzate correndo dietro a GamerNexus per colmare un gap tecnologico che va avanti ormai da un decennio. E non bastano le videoconferenze con le scritte appiccicate sopra per dimostrare di essere nella giusta direzione quando ad oggi l'FSR 4 stenta ad essere inserito nei giochi al D1 ed è un pianto totale per quanto riguarda la retrocompatibilità.
Così come non basta lanciare una scheda decente ad un prezzo allettante se poi tolto il primo batch il prezzo aumenta di 100-150€ sui nuovi arrivi.
Però ehi, ha 16Gb e quindi è la scheda da prendere "future proof" :read:
No, fa solamente capire che il gregge di pecoroni in questi anni è aumentato.
Gli uomini marketing verdi sanno bene che le XX60 sono le schede più vendute a prescindere: non vengono progettate con l'idea di essere competitive.
Vengono progettate con l'idea di marginarci il più possibile, tanto i pecoroni le comprano lo stesso.
E cmq se i prezzi schizzano è anche merito degli "innamorati del brand" che difendono sempre tutto a priori, manco avessero un guadagno personale nel farlo. Probabilmente ci sarà qualche meccanismo psicologico che scatta, io non lo so, sono un tecnico.
L'interesse personale sarebbe incentivare una sana concorrenza fra i brand: ben vengano quindi AMD ed Intel se riescono a tirar fuori prodotti validi.
E poi fiumi di parole su quanto sono costose le schede video... :)
Cutter90
21-05-2025, 13:25
Gli uomini marketing verdi sanno bene che le XX60 sono le schede più vendute a prescindere: non vengono progettate con l'idea di essere competitive.
Vengono progettate con l'idea di marginarci il più possibile, tanto i pecoroni le comprano lo stesso.
E cmq se i prezzi schizzano è anche merito degli "innamorati del brand" che difendono sempre tutto a priori, manco avessero un guadagno personale nel farlo. Probabilmente ci sarà qualche meccanismo psicologico che scatta, io non lo so, sono un tecnico.
L'interesse personale sarebbe incentivare una sana concorrenza fra i brand: ben vengano quindi AMD ed Intel se riescono a tirar fuori prodotti validi.
E poi fiumi di parole su quanto sono costose le schede video... :)
Il "meccanismo psicologico che scatta" è soltanto uno: nella fascia alta ed enthusiast le Nvidia sono le migliori. Nella fascia media e bassa se la giocano, ma al massimo sono pari. Quando amd o chiunque altro tirare fuori schede migliori a pari fascia vedrai che il successo arriverà indipendentemente dal brand, come ha fatto amd vs intel negli utilimi anni.
Lo Straniero Misterioso
21-05-2025, 13:33
Il "meccanismo psicologico che scatta" è soltanto uno: nella fascia alta ed enthusiast le Nvidia sono le migliori. Nella fascia media e bassa se la giocano, ma al massimo sono pari. Quando amd o chiunque altro tirare fuori schede migliori a pari fascia vedrai che il successo arriverà indipendentemente dal brand, come ha fatto amd vs intel negli utilimi anni.
C'è in tutti i campi (auto, abbigliamento, tecnologia, orologi) il fenomeno dell'innamoramento, non è una mia opinione. Ci sono sicuramente studi al riguardo... :)
Io sono passato a nvidia con la 2080Ti (della quale tutti dicevano peste e corna) perchè RTX e DLSS erano per me innovazione pura e quella era l'unica scheda con l'hw necessario per provarle veramente.
Hanno fatto delle ottime cose: si meritano il successo ottenuto, va risconosciuto.
Però il loro marketing è sempre stato veramente ai limiti della presa in giro, e anche questo va riconosciuto. Fanno bene gli influencer a sottolinarlo.
Cutter90
21-05-2025, 13:36
C'è in tutti i campi (auto, abbigliamento, tecnologia, orologi) il fenomeno dell'innamoramento, non è una mia opinione. Ci sono sicuramente studi al riguardo... :)
Io sono passato a nvidia con la 2080Ti (della quale tutti dicevano peste e corna) perchè RTX e DLSS erano per me innovazione pura e quella era l'unica scheda con l'hw necessario per provarle veramente.
Hanno fatto delle ottime cose: si meritano il successo ottenuto, va risconosciuto.
Però il loro marketing è sempre stato veramente ai limiti della presa in giro, e anche questo va riconosciuto. Fanno bene gli influencer a sottolinarlo.
Diciamo che ora che la "ciccia" è meno in passato e prezzi sono più alti Nvidia sta davvero esagerando. Ma è stato un peggiorando: ora è insostenibile
DJurassic
21-05-2025, 13:46
Gli uomini marketing verdi sanno bene che le XX60 sono le schede più vendute a prescindere: non vengono progettate con l'idea di essere competitive.
Vengono progettate con l'idea di marginarci il più possibile, tanto i pecoroni le comprano lo stesso.
E cmq se i prezzi schizzano è anche merito degli "innamorati del brand" che difendono sempre tutto a priori, manco avessero un guadagno personale nel farlo. Probabilmente ci sarà qualche meccanismo psicologico che scatta, io non lo so, sono un tecnico.
L'interesse personale sarebbe incentivare una sana concorrenza fra i brand: ben vengano quindi AMD ed Intel se riescono a tirar fuori prodotti validi.
E poi fiumi di parole su quanto sono costose le schede video... :)
A me frega relativamente di queste questioni. Ho 42 anni e ho sviluppato un certo fiuto per le fregature al punto che sono tantissimi anni in cui non mi capita di sbagliare acquisto o di ammettere di essere stato truffato da qualcosa o da qualcuno (a parte i corrieri :rolleyes:)
Quello che invece mi interessa è che la caccia alle streghe che vedo in questi giorni abbia realmente un fondamento concreto e delle prove schiaccianti a testimonianza di quello che si sta dicendo.
Dico questo perchè io il video di GN l'ho visto e a parte le 1000 parole al minuto che spara Steve e un paio di email tagliate alla buona non ho visto un cavolo di niente capace di scatenare questa shitstorm. Capisco che quando si hanno oltre 2 milioni di followers diventi così influente che basta una scoreggia per mettere in modo la "macchina del web" ma mi piacerebbe davvero che si parlasse con cognizione di causa e non solamente perchè tirare la merda al monopolista di turno è sempre una pratica che genera consensi e simpatie (che tradotto significa visualizzazioni e quindi soldi).
Il fatto che le corporazioni da sempre tentano di influenzare il giudizio sui loro prodotti credo sia un argomento vecchio come il mondo e non c'è brand di quell'entità che non lo abbia mai fatto almeno una volta. Fossi in Steve non mi scalderei troppo per i tentativi da parte di Nvidia nell'indurre la critica ad un certo tipo di analisi nei confronti del suo hardware, quanto di come la stessa critica (e quindi tanti dei suoi colleghi) ad oggi siano così facilmente permeabili a questo genere di ricatti o di pretese al punto da svendersi al miglior offerente ogni volta se ne palesa l'opportunità.
Diciamo che ora che la "ciccia" è meno in passato e prezzi sono più alti Nvidia sta davvero esagerando. Ma è stato un peggiorando: ora è insostenibile
Questa frase sta insieme con la colla e pur sforzandomi di trovarne un senso non ci sono riuscito.
Cutter90
21-05-2025, 14:02
A me frega relativamente di queste questioni. Ho 42 anni e ho sviluppato un certo fiuto per le fregature al punto che sono tantissimi anni in cui non mi capita di sbagliare acquisto o di ammettere di essere stato truffato da qualcosa o da qualcuno (a parte i corrieri :rolleyes:)
Quello che invece mi interessa è che la caccia alle streghe che vedo in questi giorni abbia realmente un fondamento concreto e delle prove schiaccianti a testimonianza di quello che si sta dicendo.
Dico questo perchè io il video di GN l'ho visto e a parte le 1000 parole al minuto che spara Steve e un paio di email tagliate alla buona non ho visto un cavolo di niente capace di scatenare questa shitstorm. Capisco che quando si hanno oltre 2 milioni di followers diventi così influente che basta una scoreggia per mettere in modo la "macchina del web" ma mi piacerebbe davvero che si parlasse con cognizione di causa e non solamente perchè tirare la merda al monopolista di turno è sempre una pratica che genera consensi e simpatie (che tradotto significa visualizzazioni e quindi soldi).
Il fatto che le corporazioni da sempre tentano di influenzare il giudizio sui loro prodotti credo sia un argomento vecchio come il mondo e non c'è brand di quell'entità che non lo abbia mai fatto almeno una volta. Fossi in Steve non mi scalderei troppo per i tentativi da parte di Nvidia nell'indurre la critica ad un certo tipo di analisi nei confronti del suo hardware, quanto di come la stessa critica (e quindi tanti dei suoi colleghi) ad oggi siano così facilmente permeabili a questo genere di ricatti o di pretese al punto da svendersi al miglior offerente ogni volta se ne palesa l'opportunità.
Questa frase sta insieme con la colla e pur sforzandomi di trovarne un senso non ci sono riuscito.
Ah, se vuoi la esplico meglio :D
Per tempo si è andati di pari passo con potenza bruta+nuove tecnologie. Ora che i salti di potenza bruta sono molto inferiori e le tecnologie sono già "viste" nelle gen passate Nvidia fatica a pompare il suo prodotto, dovendo poi giustificare prezzi sempre più alti. Quindi sta "forzando" la mano su quello che ha di nuovo, ossia poco e estremamente situazionale (come il MFG) sta cercando di "insabbiare" i mancati salti di nuove tecnologie e/o di potenza bruta. Cosa che in passato non faceva, dato che il RT, l'upscaler e la potenza bruta andavano di pari passo. :)
Riguardo al resto del discorso: anche per me la colpa è solo della critica e dei recensori. Se loro fossero indipendenti e i prodotti se li comprassero e dovessero uscire con le recensioni in tempi normali avremmo prodotti molto più a "fuoco". Le case non avrebbero possibilità di fare le furbe ecc ecc. Tra l'altro discorso che vale pari pari anche per i videogiochi.
Capisco anche però chi la colpa la da all'utenza: Se l'utenza smettesse di dare views a chi recensisce prodotti anzitempo e donati dalla casa, i recensori stessi smetterebbero in automatico di stare in un sistema vizioso e di parte come questo.
frafelix
21-05-2025, 14:31
DJurassic hai poi liquidato la tua founders?
DJurassic
21-05-2025, 14:32
Ah, se vuoi la esplico meglio :D
Per tempo si è andati di pari passo con potenza bruta+nuove tecnologie. Ora che i salti di potenza bruta sono molto inferiori e le tecnologie sono già "viste" nelle gen passate Nvidia fatica a pompare il suo prodotto, dovendo poi giustificare prezzi sempre più alti. Quindi sta "forzando" la mano su quello che ha di nuovo, ossia poco e estremamente situazionale (come il MFG) sta cercando di "insabbiare" i mancati salti di nuove tecnologie e/o di potenza bruta. Cosa che in passato non faceva, dato che il RT, l'upscaler e la potenza bruta andavano di pari passo. :)
Riguardo al resto del discorso: anche per me la colpa è solo della critica e dei recensori. Se loro fossero indipendenti e i prodotti se li comprassero e dovessero uscire con le recensioni in tempi normali avremmo prodotti molto più a "fuoco". Le case non avrebbero possibilità di fare le furbe ecc ecc. Tra l'altro discorso che vale pari pari anche per i videogiochi.
Capisco anche però chi la colpa la da all'utenza: Se l'utenza smettesse di dare views a chi recensisce prodotti anzitempo e donati dalla casa, i recensori stessi smetterebbero in automatico di stare in un sistema vizioso e di parte come questo.
I prezzi sono cresciuti in qualsiasi ambito e per motivazioni che includono la situazione contemporanea come l'inflazione, i dazi e chi più ne ha più ne metta. Non sò se l'hai notato ma in 5 anni è cambiato di fatto tutto e non esattamente in meglio. Fare raffronti di generazioni distinte di GPU uscite in epoche differenti indugiando sulla questione del prezzo è per me di base una roba da non fare. Quello che invece si può fare è quello di iniziare a ragionare su altri canoni che se in principio affiancavano quello che voi chiamate "forza bruta" ad oggi lo sta letteralmente soppiantando. Non dico che i numeri del raster non abbiano più significato perchè non sono idiota ma di certo analizzare oggi una GPU facendo finta che le tech più utilizzate dal consumatore come il DLSS non giochino un ruolo determinante per l'aumento di performance e la longevità di queste schede è un comportamento che oserei definire antisportivo. Riassumere il frame gen con "Fake Frame" è l'esatta sintesi di questo genere di ipocrisia che per quanto mi riguarda è da subito risultata intollerabile, specie se chi lancia certe mode è un addetto ai lavori che sà perfettamente quello che sta dicendo e ne ha le competenze.
Riassumendo i prezzi possono non piacere così come può non piacere l'idea di un totale monopolio del settore, ma considerare la nuova gen un totale fallimento come ho sentito dire da più fonti è una cazzata alla stregua del discorso fatto dei driver rotti, della vram che manda a fuoco le GPU, dei cavi che si sciolgono e di tutta quella serie di turbominchiate che accompagnano ogni lancio delle nuove Nvidia. Per la serie, "Jensen spara stronzate e noi non vogliamo essere da meno".
Piu' o meno è questo che è diventata l'informazione ai giorni nostri.
DJurassic hai poi liquidato la tua founders?
No, poichè le temp sono così buone che al momento la reale necessità non si è ancora imposta sullo sbattimento. :asd:
Cutter90
21-05-2025, 15:02
I prezzi sono cresciuti in qualsiasi ambito e per motivazioni che includono la situazione contemporanea come l'inflazione, i dazi e chi più ne ha più ne metta. Non sò se l'hai notato ma in 5 anni è cambiato di fatto tutto e non esattamente in meglio. Fare raffronti di generazioni distinte di GPU uscite in epoche differenti indugiando sulla questione del prezzo è per me di base una roba da non fare. Quello che invece si può fare è quello di iniziare a ragionare su altri canoni che se in principio affiancavano quello che voi chiamate "forza bruta" ad oggi lo sta letteralmente soppiantando. Non dico che i numeri del raster non abbiano più significato perchè non sono idiota ma di certo analizzare oggi una GPU facendo finta che le tech più utilizzate dal consumatore come il DLSS non giochino un ruolo determinante per l'aumento di performance e la longevità di queste schede è un comportamento che oserei definire antisportivo. Riassumere il frame gen con "Fake Frame" è l'esatta sintesi di questo genere di ipocrisia che per quanto mi riguarda è da subito risultata intollerabile, specie se chi lancia certe mode è un addetto ai lavori che sà perfettamente quello che sta dicendo e ne ha le competenze.
Riassumendo i prezzi possono non piacere così come può non piacere l'idea di un totale monopolio del settore, ma considerare la nuova gen un totale fallimento come ho sentito dire da più fonti è una cazzata alla stregua del discorso fatto dei driver rotti, della vram che manda a fuoco le GPU, dei cavi che si sciolgono e di tutta quella serie di turbominchiate che accompagnano ogni lancio delle nuove Nvidia. Per la serie, "Jensen spara stronzate e noi non vogliamo essere da meno".
Piu' o meno è questo che è diventata l'informazione ai giorni nostri.
No, poichè le temp sono così buone che al momento la reale necessità non si è ancora imposta sullo sbattimento. :asd:
Sono d'accordo Dj..... ma il punto è che tra "far pesare" le tech a "devi usare solo QUESTE tech" ce ne passa. Lasciamo correre il discorso prezzo. Il punto è che le tech sono determinanti, sono sempre stato il primo a dirlo.
Ma anche volendole usare sempre e cmq i giochi sono TUTTI in grado di supportarle alla perfezione? No. Quindi, sono si importanti ma cmq non si può giocare SOLO con quelle, come vorrebbe far credere nvidia in questo momento. Passi pure il dlss, ma il FG..... resta una features situazionale.
Così come il RT. Finchè ci saranno giochi senza RT oppure con RT ridicoli e mal fatti, allora non si potrà MAI considerare le tech come UNICO metro di giudizio (perchè questo vuol far passare nvidia eh).
Poi c'è il discorso prezzi. Perchè dove un olio di oliva è aumentato a dismisura, la pasta costa sempre uguale. dove una gpu è diventata estreamamente costosa, una cpu invece è aumentata di poco o nulla.
Cioè, non è che tutto è aumentato del 20% e quindi ci facciamo poco. Questo è il discorso.
La nuova gen "totale fallimento" non credo che nessuno l'abbia detto dai. Una delle gen peggiori come salto prestazionale e tech degli ultimi anni? Assolutamente si.
mikael84
21-05-2025, 16:09
Sono d'accordo Dj..... ma il punto è che tra "far pesare" le tech a "devi usare solo QUESTE tech" ce ne passa. Lasciamo correre il discorso prezzo. Il punto è che le tech sono determinanti, sono sempre stato il primo a dirlo.
Ma anche volendole usare sempre e cmq i giochi sono TUTTI in grado di supportarle alla perfezione? No. Quindi, sono si importanti ma cmq non si può giocare SOLO con quelle, come vorrebbe far credere nvidia in questo momento. Passi pure il dlss, ma il FG..... resta una features situazionale.
Così come il RT. Finchè ci saranno giochi senza RT oppure con RT ridicoli e mal fatti, allora non si potrà MAI considerare le tech come UNICO metro di giudizio (perchè questo vuol far passare nvidia eh).
Poi c'è il discorso prezzi. Perchè dove un olio di oliva è aumentato a dismisura, la pasta costa sempre uguale. dove una gpu è diventata estreamamente costosa, una cpu invece è aumentata di poco o nulla.
Cioè, non è che tutto è aumentato del 20% e quindi ci facciamo poco. Questo è il discorso.
La nuova gen "totale fallimento" non credo che nessuno l'abbia detto dai. Una delle gen peggiori come salto prestazionale e tech degli ultimi anni? Assolutamente si.
Nelle CPU paghi solo il die, che stamparlo costa meno di una 5060 completa di ram, pcb e dissipatore. Solo una mobo discreta costa quanto tale GPU.
I costi di produzione delle GPU stanno salendo a dismisura, per tanti è solo speculazione, però stranamente il margine degli AIB è in picchiata rispetto a 10-15 anni fa, quando le schede costavano meno.
Vi sparo un dato banale. Costo grezzo, senza lavorazioni del die della 5060 circa 77-80$, costo grezzo del die di una 1080, 31$, Titan pascal 54$ (ovviamente con meno rese).
Nvidia a sto giro non ha cambiato nodo, quindi no densità e no perf/watt, si è limitata ad un uberchip ed al MFG.
Lato raster grezzo è rimasta ancorata ancora ai dogmi di maxwell, ma la battaglia di nvidia, lo sarà e lo è già anche di AMD è sulle matrici.
A molti ha deluso in potenza bruta, si vero, ma l'unica opzione è aumentare il die, i costi ed i consumi, non c'è altra strada in quel senso.
Lo Straniero Misterioso
21-05-2025, 17:02
Ma costa così tanto la VRAM per giustificare tutta questa stitichezza?
Io non sono ingegnere, ma credo che se avessero fatto questo nessuno avrebbe avuto nulla da ridire:
Serie 50
bus 128 bit, 8GB di memoria
(volendo anche una da 16GB per i progetti IA a basso budget)
Serie 60 e 70
bus 192 bit, 12GB di memoria
Serie 80 (metto qui la la 5070Ti che fine è una 5080 light)
256 bit, 16 GB di memoria
Sarebbero cambiati i prezzi? Forse, ma di quanto? Tanto sono comunque alti, ma se il prodotto che ti danno in cambio è valido uno lo paga poi anche più volentieri... con 12GB tra l'altro sulla 60 il frame generator dovresti poterlo usare, e quindi diventa anche più realistico dire "ok in raster non è granché ma stai comprando le tech".
mikael84
21-05-2025, 17:58
Ma costa così tanto la VRAM per giustificare tutta questa stitichezza?
Io non sono ingegnere, ma credo che se avessero fatto questo nessuno avrebbe avuto nulla da ridire:
Serie 50
bus 128 bit, 8GB di memoria
(volendo anche una da 16GB per i progetti IA a basso budget)
Serie 60 e 70
bus 192 bit, 12GB di memoria
Serie 80 (metto qui la la 5070Ti che fine è una 5080 light)
256 bit, 16 GB di memoria
Sarebbero cambiati i prezzi? Forse, ma di quanto? Tanto sono comunque alti, ma se il prodotto che ti danno in cambio è valido uno lo paga poi anche più volentieri... con 12GB tra l'altro sulla 60 il frame generator dovresti poterlo usare, e quindi diventa anche più realistico dire "ok in raster non è granché ma stai comprando le tech".
Ad nvidia costa abbastanza spazio con le G7, ad AMD invece molto meno. Parliamo di 13mm2 x 32bit vs i 5,7mm2 di Navi G6. Lato nvidia G7 quindi è più complesso, dovremmo portare il die da 181 a 207, e decidere se lasciare inalterata la cache o ampliarla, perchè 64bit, si portano dietro anche 32mb di l2.
Questo è il layout di GB203. GB206 è appena la metà con soli 3 GPC. I 3GPC (contenenti i 4608cc) per rendere l'idea, finiscono nel secondo MC a sinistra sulla lettera R, quindi significava rivedere non poco il die, andando anche a giocare con aree grigie ampliandolo, aumentando costi e rese.
https://i.postimg.cc/y825wsS9/vram.png
Pro:
Parti da 12gb, non subisci linciaggio mediatico, ottieni una banda estrema per la taglia del chip, non serve fare il clamshell.
contro:
Sei costretto a fare il clamshell, devi mettere per forza 16 gb di G7 che al momento è più caro delle G6, più calore per certi dissipatori.
------------
C'èra una banale opzione, molto più semplice, ma veramente tanto semplice, come fatto per GB207, utilizzare anche qua le gddr6.
Meno area occupata dagli MC, più semplicità ad instradarle, ram a costo di pochi $, e banda totalmente recuperata usando il 192bit.;)
Tutto questo problema legato ai bus finirà quando utilizzeranno le G7 full, quelle con 3gb a modulino.
Per me resta imperdonabile non aver sfornato la 5080 con 24Gb [ci sarà un domani la Super, vabbé]. C'è un salto troppo grande rispetto alla sorella maggiore, e la medesima quantità di ram della sorella minore non me l'ha fatta preferire fra le due.
Lo Straniero Misterioso
21-05-2025, 18:32
Per me resta imperdonabile non aver sfornato la 5080 con 24Gb [ci sarà un domani la Super, vabbé]. C'è un salto troppo grande rispetto alla sorella maggiore, e la medesima quantità di ram della sorella minore non me l'ha fatta preferire fra le due.
Hanno il problema che le schede gaming cannibalizzerebbero quelle professionali se fossero dotate di quantitativi generosi di vRAM. E sarebbe un problema anche per noi gamer... perché avremmo di nuovo le schede introvabili.
E' per questo che tanta vRAM c'è solo sulle schede prosumer della serie 90.
Evilquantico
21-05-2025, 19:13
Io resto sempre dell'idea che la generazione attuale di gpu ( amd nvidia purtroppo intel sta troppo indietro ) sia solo transitoria e totalmente skippabile dalla massa mi aspetto un totale cambio di prestazioni e feature ( tech ) con UDNA di amd e Rubin di Nvidia un vero e tangibile salto prestazionale che spero contribuisca anche ad innovare il settore gaming ormai stagnante
DJurassic
21-05-2025, 19:55
Io resto sempre dell'idea che la generazione attuale di gpu ( amd nvidia purtroppo intel sta troppo indietro ) sia solo transitoria e totalmente skippabile dalla massa mi aspetto un totale cambio di prestazioni e feature ( tech ) con UDNA di amd e Rubin di Nvidia un vero e tangibile salto prestazionale che spero contribuisca anche ad innovare il settore gaming ormai stagnante
Quindi secondo te il settore del gaming sarebbe stagnante perchè le attuali GPU non sono abbastanza potenti e non perchè i giochi vengono sviluppati per poter girare anche su roba imbarazzante come Series S, PS5 e Series X?
:help:
Hanno il problema che le schede gaming cannibalizzerebbero quelle professionali se fossero dotate di quantitativi generosi di vRAM. E sarebbe un problema anche per noi gamer... perché avremmo di nuovo le schede introvabili.
E' per questo che tanta vRAM c'è solo sulle schede prosumer della serie 90.
Lo riconosco, ma avrei comunque ritenuto opportuno un taglio più consistente per la 5080 per rendere uniforme la distribuzione 8 / 16 / 24 / 32.
Evilquantico
22-05-2025, 08:06
Quindi secondo te il settore del gaming sarebbe stagnante perchè le attuali GPU non sono abbastanza potenti e non perchè i giochi vengono sviluppati per poter girare anche su roba imbarazzante come Series S, PS5 e Series X?
:help:
E' ovvio che tutto il settore sia frenato dalle scatolette ma anche da chi deve combattere e programmare con schedine con chip laserati e tagliuzzati con poca memoria ( ogni riferimento alla 5060 è puramente casuale ) , devono pensare anche a chi non può spendere 3500 euro di schede video visto che sono schede indirizzate a utenti ultra uber che fanno poco testo nel panorama videoludico una goccia nel mare ( guardati la classifica steam delle vga piu' utilizzate )
Prova ad abilitare RT e PT al massimo anche sulla tua rtx 5090 che è fascia ultra altissima e poi guarda bene cosa succede è ovvio che servono chip piu potenti e piu memoria anche nella fascia media/alta ( 5070ti/5080/9070xt ) per far si che ci sia un vero salto anche a livello di videogiochi e programmazione e solo UDNA e Rubin potranno dare un salto generazionale tangibile , perchè ripeto questa generazione di vga è giusto un refresh
DJurassic
22-05-2025, 11:40
Prova ad abilitare RT e PT al massimo anche sulla tua rtx 5090 che è fascia ultra altissima e poi guarda bene cosa succede
Succede che lo faccio continuamente e mi sto godendo ogni singolo titolo :asd:
mikael84
22-05-2025, 11:46
E' ovvio che tutto il settore sia frenato dalle scatolette ma anche da chi deve combattere e programmare con schedine con chip laserati e tagliuzzati con poca memoria ( ogni riferimento alla 5060 è puramente casuale ) , devono pensare anche a chi non può spendere 3500 euro di schede video visto che sono schede indirizzate a utenti ultra uber che fanno poco testo nel panorama videoludico una goccia nel mare ( guardati la classifica steam delle vga piu' utilizzate )
Prova ad abilitare RT e PT al massimo anche sulla tua rtx 5090 che è fascia ultra altissima e poi guarda bene cosa succede è ovvio che servono chip piu potenti e piu memoria anche nella fascia media/alta ( 5070ti/5080/9070xt ) per far si che ci sia un vero salto anche a livello di videogiochi e programmazione e solo UDNA e Rubin potranno dare un salto generazionale tangibile , perchè ripeto questa generazione di vga è giusto un refresh
E sarà legato all'IA non certo alla pura potenza bruta. Ormai i transistor non offrono più chissà che perf/watt.
La svolta ci sarà lato ram, dove tutti i competitor, dovrebbero usare finalmente le G7 da 3gb/32bit, quindi la serie x70 di nvidia avrà 18gb, la serie 60, 12gb e le serie di fascia medio-alta 24gb (6080 - 10000 AMD).
Se con il 3nE (14% perf/watt a isofrequenza), tra microarchitettura e clock, si arriverà ad un 20% perf/watt, non ci sarà di certo questo stravolgimento, salvo non pompare i consumi ancora di più.
Andando a ritroso, il passaggio dal 10nm 3° gen di samsung (8lpp) al 4n di TSMC, ha portato uno dei salti più importanti della storia, risultato 4060ti tagliata a circa il 10% in più dalla 3060ti, ma con FG.
Cutter90
22-05-2025, 12:42
Succede che lo faccio continuamente e mi sto godendo ogni singolo titolo :asd:
Infatti quella frase non l'ho proprio capita. con tutti gli esempi che poteva fare proprio quello più sbagliato ahahah
Evilquantico
22-05-2025, 14:40
Succede che lo faccio continuamente e mi sto godendo ogni singolo titolo :asd:
Eh bhè godendo propio in PT al max :asd:
https://www.youtube.com/watch?v=-PStrIiihTE
https://tpucdn.com/review/asus-geforce-rtx-5090-astral-liquid-oc/images/pt-black-myth-wukong-3840-2160.png
E sarà legato all'IA non certo alla pura potenza bruta. Ormai i transistor non offrono più chissà che perf/watt.
La svolta ci sarà lato ram, dove tutti i competitor, dovrebbero usare finalmente le G7 da 3gb/32bit, quindi la serie x70 di nvidia avrà 18gb, la serie 60, 12gb e le serie di fascia medio-alta 24gb (6080 - 10000 AMD).
Capito , bhè sarebbe già bello in qualche gioco poter fare domande a qualche npc tramite microfono e sentire cosa ha da dire , insomma servirebbe qualche novità nei videogiochi ormai settore stagnante da anni
Cutter90
22-05-2025, 14:55
Eh bhè godendo propio in PT al max :asd:
https://www.youtube.com/watch?v=-PStrIiihTE
https://tpucdn.com/review/asus-geforce-rtx-5090-astral-liquid-oc/images/pt-black-myth-wukong-3840-2160.png
Capito , bhè sarebbe già bello in qualche gioco poter fare domande a qualche npc tramite microfono e sentire cosa ha da dire , insomma servirebbe qualche novità nei videogiochi ormai settore stagnante da anni
Ma sei serio o cosa? Dlss q + fg ed hai sopra i 100 fps con una qualità superiore al taa del gioco.
Cioè, con la 4090 l ho giocato con dlss Balanced + FG perdendo quasi zero qualità dal nativo. Il tutto con il dlss 3.8. Ora con il 4 e la 5090 si gioca tranquillamente sopra i 100 con qualità e fg guadagnando sul nativo come qualità.
Possibile che nel 2025 ci sia qualcuno che ragiona come se fossimo nel 2005?
Se vuoi stasera ti faccio un test in 6k con dlaa in modo da avvalorare la tua tesi dell'ingiocabilità dei giochi in PT...... :doh:
Evilquantico
22-05-2025, 14:59
Aaahhh verooo! il famoso MFG x12 piu' scalare la risoluzione nativa a balanced ok :doh: va bene a questo punto ha ragione giacchetta che la 5070 ha le 4090 peffomance!
Cutter90
22-05-2025, 15:09
Aaahhh verooo! il famoso MFG x12 piu' scalare la risoluzione nativa a balanced ok :doh: va bene a questo punto ha ragione giacchetta che la 5070 ha le 4090 peffomance!
Se va beh, ciao. Ma che rispondo a fare :O :doh:
mikael84
22-05-2025, 16:07
Eh bhè godendo propio in PT al max :asd:
https://www.youtube.com/watch?v=-PStrIiihTE
Aaahhh verooo! il famoso MFG x12 piu' scalare la risoluzione nativa a balanced ok :doh: va bene a questo punto ha ragione giacchetta che la 5070 ha le 4090 peffomance!
Ti avevo già avvertito di evitare di trollare di continuo, vuoi proprio che usi i mezzi drastici?
Quindi basta!
Dico la mia, al netto del fanboysmo, sinceramente non mi importa il nome, Nvidia, Amd, Intel....per quel che mi riguarda potrebbe essere anche Matrox :sofico: , non è concepibile che per giocare in 4k nativo non sono sufficienti 600w di Gpu.
Ormai non so quanti anni sono passati da quando è stato introdotto il "4K" nel gaming ma ancora non si riesce ad andare in nativo se non con particolari accorgimenti o facendo solo facendo uso di scaler.
Il vero salto generazionale lo si farà quando con massimo massimo 300w si potranno giocare tranquillamente i 4k nativi @120fps.
Ricordo, anni fa, che uscivano nuove tecniche con cadenza anche abbastanza ravvicinnata ed erano a portata di tutti, oggi per usare il PT devi spendere 5k di PC e comunque devi in ogni caso scendere a compromessi. Per me il MFG è un compromesso enorme.
Quindi spero che nelle prossime 2 gen vengano sviluppate nuove tecnologie a livello di HW ma anche motori grafici in grado spremere al massimo la potenza a disposizione.
Ah e ripeto, con un massimo di 300W
LambertoKevlar
22-05-2025, 18:27
Dico la mia, al netto del fanboysmo, sinceramente non mi importa il nome, Nvidia, Amd, Intel....per quel che mi riguarda potrebbe essere anche Matrox :sofico: , non è concepibile che per giocare in 4k nativo non sono sufficienti 600w di Gpu.
Ormai non so quanti anni sono passati da quando è stato introdotto il "4K" nel gaming ma ancora non si riesce ad andare in nativo se non con particolari accorgimenti o facendo solo facendo uso di scaler.
Il vero salto generazionale lo si farà quando con massimo massimo 300w si potranno giocare tranquillamente i 4k nativi @120fps.
Ricordo, anni fa, che uscivano nuove tecniche con cadenza anche abbastanza ravvicinnata ed erano a portata di tutti, oggi per usare il PT devi spendere 5k di PC e comunque devi in ogni caso scendere a compromessi. Per me il MFG è un compromesso enorme.
Quindi spero che nelle prossime 2 gen vengano sviluppate nuove tecnologie a livello di HW ma anche motori grafici in grado spremere al massimo la potenza a disposizione.
Ah e ripeto, con un massimo di 300W
giocare nativo in un mondo in cui esiste il dlss4 è un tantinello insensato.Non esiste la minima differenza ormai
giocare nativo in un mondo in cui esiste il dlss4 è un tantinello insensato.Non esiste la minima differenza ormai
Io la differenza la vedo, e sono orbo, questo è quanto funziona bene il DLSS
https://i.postimg.cc/0rHyy9Ns/ocVMWEc.jpg (https://postimg.cc/0rHyy9Ns)
E ti posso assicurare che in alcuni frangenti è molto peggio di così
Ale55andr0
22-05-2025, 20:33
Io la differenza la vedo, e sono orbo, questo è quanto funziona bene il DLSS
/cut
E ti posso assicurare che in alcuni frangenti è molto peggio di così
perdi tempo, il mantra è dlss = nativa, anzi >nativa, e se non sei d'accordo sei un novax :O
Cutter90
22-05-2025, 20:36
Io la differenza la vedo, e sono orbo, questo è quanto funziona bene il DLSS
https://i.postimg.cc/0rHyy9Ns/ocVMWEc.jpg (https://postimg.cc/0rHyy9Ns)
E ti posso assicurare che in alcuni frangenti è molto peggio di così
A parte che non si vede nulla da un immagine così piccola, che gioco è?
mikael84
22-05-2025, 21:31
Raga, usate le miniature cliccabili, ma ancora peggio, non quotate, altrimenti diventa illeggibile. Le ho modificate io, cliccate 2 volte.
DJurassic
23-05-2025, 07:19
Non c’è niente da fare, per una volta che mi decido di tornare su questo thread per scrivere 2 righe finisce che ricordo immediatamente il motivo per cui me ne ero tenuto alla larga. Trovi più talebani qui dentro che a Kabul :asd:
ninja750
23-05-2025, 08:20
Il vero salto generazionale lo si farà quando con massimo massimo 300w si potranno giocare tranquillamente i 4k nativi @120fps.
in realtà si può già, ed è questo il motivo per il quale qualcuno ha deciso di portare il raytracing nel mondo del pc, altrimenti nessuno avrebbe più cambiato vga una volta raggiunti i 60 e poi 120 fps in 4K
frafelix
23-05-2025, 09:38
Dico la mia, al netto del fanboysmo, sinceramente non mi importa il nome, Nvidia, Amd, Intel....per quel che mi riguarda potrebbe essere anche Matrox :sofico: , non è concepibile che per giocare in 4k nativo non sono sufficienti 600w di Gpu.
Ormai non so quanti anni sono passati da quando è stato introdotto il "4K" nel gaming ma ancora non si riesce ad andare in nativo se non con particolari accorgimenti o facendo solo facendo uso di scaler.
Il vero salto generazionale lo si farà quando con massimo massimo 300w si potranno giocare tranquillamente i 4k nativi @120fps.
Ricordo, anni fa, che uscivano nuove tecniche con cadenza anche abbastanza ravvicinnata ed erano a portata di tutti, oggi per usare il PT devi spendere 5k di PC e comunque devi in ogni caso scendere a compromessi. Per me il MFG è un compromesso enorme.
Quindi spero che nelle prossime 2 gen vengano sviluppate nuove tecnologie a livello di HW ma anche motori grafici in grado spremere al massimo la potenza a disposizione.
Ah e ripeto, con un massimo di 300W
Che piaccia o no l'industria sta puntando da un'altra parte. Dove vuoi tu non ci arriveremo semplicemente perchè non c'è abbastanza potenza per farlo con il ray tracing attivo. Ricordati che, a parte le foto, i primi che hanno usato il ray tracing erano al cinema e ci mettevano giorni a processare un breve pezzo, adesso lo stiamo facendo in tempo reale, ma con dei compromessi; questo sia a livello di qualità che di metodo per calcolare la scena. Non credo nemmeno più che investano risorse nel cercare di processare l'immagine con i vecchi metodi
Dico la mia, al netto del fanboysmo, sinceramente non mi importa il nome, Nvidia, Amd, Intel....per quel che mi riguarda potrebbe essere anche Matrox :sofico: , non è concepibile che per giocare in 4k nativo non sono sufficienti 600w di Gpu.
Ormai non so quanti anni sono passati da quando è stato introdotto il "4K" nel gaming ma ancora non si riesce ad andare in nativo se non con particolari accorgimenti o facendo solo facendo uso di scaler.
Il vero salto generazionale lo si farà quando con massimo massimo 300w si potranno giocare tranquillamente i 4k nativi @120fps.
Ricordo, anni fa, che uscivano nuove tecniche con cadenza anche abbastanza ravvicinnata ed erano a portata di tutti, oggi per usare il PT devi spendere 5k di PC e comunque devi in ogni caso scendere a compromessi. Per me il MFG è un compromesso enorme.
Quindi spero che nelle prossime 2 gen vengano sviluppate nuove tecnologie a livello di HW ma anche motori grafici in grado spremere al massimo la potenza a disposizione.
Ah e ripeto, con un massimo di 300W
Le tecnologie in uso ormai sono quelle basate su AI e non avverrà mai più un'inversione di tendenza, può solo migliorare tutto il set di tech.
Poi in linea di principio devo ancora capire che male ci sia. Se e ribadisco SE la differenza è impercettibile [al momento ancora non lo è riguardo alla latenza] cosa mai ci può interessare di come viene ottenuto il risultato? Della compressione delle texture e di una valanga di altre tecniche di ottimizzazione che non sto ad elencare non si è mai lamentato nessuno, e le usiamo da quarant'anni.
Non si può più puntare sulla sola forza bruta dai, a meno di non volere gpu da 1600W di picco (anzi mi sa che ci arriveremo comunque).
ninja750
23-05-2025, 11:11
Non si può più puntare sulla sola forza bruta dai, a meno di non volere gpu da 1600W di picco (anzi mi sa che ci arriveremo comunque).
la forza bruta è la base di tutto, le pezze software che ci stanno propinando in questi anni sono figlie della mancanza di innovazione proprio sotto questo aspetto, dove l'unico modo trovato per incrementare (di poco) le performance arrivano con un wattaggio maggiore dato che i progressi legati al PP stanno rallentando notevolmente
e in tutto questo il marketing sta funzionando (per forza) benissimo: una volta cambiavi vga perchè quella nuova aveva più vram e andava il doppio, adesso la cambi pari vram, con +10% perf, ma con supporto a tutte le nuove pezze software
c'è davvero bisogno di una svolta lato ingegneristico, dove non si ragioni più solo a mettere nuove unità di calcolo o aumentare il wattaggio, ma proprio rivoluzionare il concetto di base perchè no grazie ai passi da gigante fatti lato IA. e poi riconsiderare quali tecnologie implementate nei giochi vale la pena mantenere e quali deprecare
la forza bruta è la base di tutto, le pezze software che ci stanno propinando in questi anni sono figlie della mancanza di innovazione proprio sotto questo aspetto, dove l'unico modo trovato per incrementare (di poco) le performance arrivano con un wattaggio maggiore dato che i progressi legati al PP stanno rallentando notevolmente
e in tutto questo il marketing sta funzionando (per forza) benissimo: una volta cambiavi vga perchè quella nuova aveva più vram e andava il doppio, adesso la cambi pari vram, con +10% perf, ma con supporto a tutte le nuove pezze software
c'è davvero bisogno di una svolta lato ingegneristico, dove non si ragioni più solo a mettere nuove unità di calcolo o aumentare il wattaggio, ma proprio rivoluzionare il concetto di base perchè no grazie ai passi da gigante fatti lato IA. e poi riconsiderare quali tecnologie implementate nei giochi vale la pena mantenere e quali deprecare
Ma se specializzi le unità e le rendi più efficienti risparmi unità/spazio/energia
Non facciamo mischioni dai, comunque vada crescerà anche la potenza raster e quindi il wattaggio, fino a quando non saprei proprio.
Però non mi sento proprio di dire si stava meglio con il bilinear filtering, le light map e 4 poligoni in croce.
Che immagine pulita però eh...
Iceman69
23-05-2025, 11:26
Ma se specializzi le unità e le rendi più efficienti risparmi unità/spazio/energia
Non facciamo mischioni dai, comunque vada crescerà anche la potenza raster e quindi il wattaggio, fino a quando non saprei proprio.
Però non mi sento proprio di dire si stava meglio con il bilinear filtering, le light map e 4 poligoni in croce.
Che immagine pulita però eh...
La sensazione però è che tutti questi "trucchetti" che si stanno inventando diano molta instabilità e performance altalenanti in generale, mai visti così tanti problemi con i drivers come negli ultimi mesi, in particolare da quando sono uscite le 5000.
Se questo è il futuro forese era meglio avere "quattro poligoni in croce" che funzionavano bene (e nitidissimi).
La sensazione però è che tutti questi "trucchetti" che si stanno inventando diano molta instabilità e performance altalenanti in generale, mai visti così tanti problemi con i drivers come negli ultimi mesi, in particolare da quando sono uscite le 5000.
Se questo è il futuro forese era meglio avere "quattro poligoni in croce" che funzionavano bene (e nitidissimi).
Si ma sto valutando i passi tecnologici fatti in avanti.
Guardo cosa giocavo 10 anni fa, come e cosa gioco oggi.
E?
Sono molto soddisfatto, questo è quanto.
Poi possiamo parlare di cosa fa Nvidia per promuovere il tutto, prezzi, passi falsi ecc...
Per me no, 4 poligoni in croce non mi bastano, preferisco 100 volte la complessità dei videogiochi di oggi e proseguire per la strada imboccata e no il raster non basta, non ce la fa.
Vedo solo vantaggi nell'utilizzare un Dlss o un Fsr di qualità insieme a tutti i trucchetti del caso (se usati correttamente)
ninja750
23-05-2025, 11:58
Vedo solo vantaggi nell'utilizzare un Dlss o un Fsr di qualità insieme a tutti i trucchetti del caso (se usati correttamente)
per la prossima gen preferiresti una 6080 da 100fps nativi 4k in path tracing
oppure una 6080 da 100fps 4k in path tracing ottenuti con DLSS4.0 + FG4x ?
e se non fosse ottenibile la prima soluzione, magari riconsiderare il raytracing per come è implementato oggi?
otterresti anche una 6070 da 150fps in 1440p, e 6060 da 100fps 1080p pensa
Cutter90
23-05-2025, 12:27
per la prossima gen preferiresti una 6080 da 100fps nativi 4k in path tracing
oppure una 6080 da 100fps 4k in path tracing ottenuti con DLSS4.0 + FG4x ?
e se non fosse ottenibile la prima soluzione, magari riconsiderare il raytracing per come è implementato oggi?
otterresti anche una 6070 da 150fps in 1440p, e 6060 da 100fps 1080p pensa
Intanto ricordiamo che il 4k nativo +taa è inferiore al dlss 4 in Q e balaced.
Detto questo se non hai potenza non c'è molto da fare. Se togli anche il RT dov'è l'avanzamento tecnologico?
Il RT è una granc osa applicato ai videogiochi e se fatto bene cambia radicalmente il videogioco, tecnicamente parlando.
Il punto è, fare 100 fps con la 6080 in 4k + dlss Q+6 FG in PT, oppure farne 30 in nativo.
Vuoi i 100 fps in nativo? Togli tutto il RT e torna alla grafica di 10 anni fa.
Se non si vuole usare il RT o il PT si può già ora. Tecnicamente è un passo indietro ( edove c'è il PT pure notevole), ma si hanno i famosi 100 fps di esempio.
Ma quando le tech permettono boost prestazionali incredibili con un miglioramento di qualità (dlss vs taa) o di un sacrificio impercettibile (Fg con base 50-60 fps) riufiutarsi di usarle è una scelta assolutamente discutibile, per quanto soggettiva.
Se ci si rifiuta si torna a 10 anni fa oppure si fanno fps irrisori.
La scelta c'è.
per la prossima gen preferiresti una 6080 da 100fps nativi 4k in path tracing
oppure una 6080 da 100fps 4k in path tracing ottenuti con DLSS4.0 + FG4x ?
e se non fosse ottenibile la prima soluzione, magari riconsiderare il raytracing per come è implementato oggi?
otterresti anche una 6070 da 150fps in 1440p, e 6060 da 100fps 1080p pensa
Che domande :D
Prova a farla una Gpu con la tecnologia disponibile oggi o a breve 100fps PT 4k senza dlss...viene fuori un camion da 1200W
Semplicemente non si può.
Oltre al fatto che torniamo sempre al discorso che una forma di AA la devi utilizzare, quindi utilizzando dlss o simili hai solo da guadagnarci.
Il ray tracing è qui per restare ed evolvere che piaccia o meno.
E anche qui non vedo altri metodi per unire sviluppo più semplice/qualità visiva (poi quando i giochi sono in ritardo e ci vogliono eoni di sviluppo ci lamentiamo no?).
Guarda il Lumen software che schifezze genera in alcune circostanze.
E pure in hardware essendo l'Ue5 basato pesantemente sul Tsr ha i suoi problemi...ma qui è Epic a doverci mettere la mani.
Aggiungo, volere centinaia di migliaia di oggetti piccoli vicini e distanti in 3d su piani diversi, con illuminazione, shader, texture e tutte cose (:D) e pretendere un'immagine perfettamente pulita e stabile, oggi è se non impossibile
alla portata di pochi (5090 8k per es...forse...)
mikael84
23-05-2025, 13:04
Che domande :D
Prova a farla una Gpu con la tecnologia disponibile oggi o a breve 100fps PT 4k senza dlss...viene fuori un camion da 1200W
Semplicemente non si può.
Se la base è di 30 fps, con 1200 watt, arriveresti a 48-52fps, ovvero un MCM di 2 5090. Te ne servirebbero 4 collegate assieme (2400watt). Tuttavia senza DLSS, un tempo si andava di DSR, risoluzione impostata manualmente (pre maxwell), o di MSAA (se non di subpixel SSAA), che da 30 fps ti portava a 10, altrimenti vedevi le scalette.
Ormai stiamo arrivando ai limiti fisici dei transistor, i salti sono miseri, l'unica soluzione è puntare tutto sull'IA.
Il 3nm (tale nome è marketing, si chiamano 5nm +) che per molti rivoluzionerà dalla prossima gen. si porta dietro più densità, ma appena il 16% perf.watt/iso/0,75v, quindi salvo modifiche microarchitetturali serie, quei 30fps, se ti diventano 40-45 è un dato pazzesco, e con che consumi poi.
bagnino89
23-05-2025, 13:13
Ormai stiamo arrivando ai limiti fisici dei transistor, i salti sono miseri, l'unica soluzione è puntare tutto sull'IA.
Sembra che pochi abbiano capito questa cosa fondamentale.
Se la base è di 30 fps, con 1200 watt, arriveresti a 48-52fps, ovvero un MCM di 2 5090. Te ne servirebbero 4 collegate assieme (2400watt). Tuttavia senza DLSS, un tempo si andava di DSR, risoluzione impostata manualmente (pre maxwell), o di MSAA (se non di subpixel SSAA), che da 30 fps ti portava a 10, altrimenti vedevi le scalette.
Ormai stiamo arrivando ai limiti fisici dei transistor, i salti sono miseri, l'unica soluzione è puntare tutto sull'IA.
Il 3nm (tale nome è marketing, si chiamano 5nm +) che per molti rivoluzionerà dalla prossima gen. si porta dietro più densità, ma appena il 16% perf.watt/iso/0,75v, quindi salvo modifiche microarchitetturali serie, quei 30fps, se ti diventano 40-45 è un dato pazzesco, e con che consumi poi.
E sti cavoli 2400W la uso come pompa di calore davvero.
Ci vorrebbe una svolta come si diceva...ma quale?
bagnino89
23-05-2025, 13:19
E sti cavoli 2400W la uso come pompa di calore davvero.
Ci vorrebbe una svolta come si diceva...ma quale?
Non usare più il silicio come semiconduttore.
Cutter90
23-05-2025, 13:23
Se la base è di 30 fps, con 1200 watt, arriveresti a 48-52fps, ovvero un MCM di 2 5090. Te ne servirebbero 4 collegate assieme (2400watt). Tuttavia senza DLSS, un tempo si andava di DSR, risoluzione impostata manualmente (pre maxwell), o di MSAA (se non di subpixel SSAA), che da 30 fps ti portava a 10, altrimenti vedevi le scalette.
Ormai stiamo arrivando ai limiti fisici dei transistor, i salti sono miseri, l'unica soluzione è puntare tutto sull'IA.
Il 3nm (tale nome è marketing, si chiamano 5nm +) che per molti rivoluzionerà dalla prossima gen. si porta dietro più densità, ma appena il 16% perf.watt/iso/0,75v, quindi salvo modifiche microarchitetturali serie, quei 30fps, se ti diventano 40-45 è un dato pazzesco, e con che consumi poi.
Hai tradotto il mio messaggio da "videogiocatore" in "tecnicese" :D
petru916
23-05-2025, 13:35
per la prossima gen preferiresti una 6080 da 100fps nativi 4k in path tracing
oppure una 6080 da 100fps 4k in path tracing ottenuti con DLSS4.0 + FG4x ?
e se non fosse ottenibile la prima soluzione, magari riconsiderare il raytracing per come è implementato oggi?
otterresti anche una 6070 da 150fps in 1440p, e 6060 da 100fps 1080p pensa
Prova a fare il calcolo di quante operazioni sono necessarie in 4K per applicare il path tracing col minimo dei sample per pixel e col minimo delle intersezioni...c'è un motivo perché si sta andando così pesantemente verso l'IA in tempo reale ed è spremere quanto più possibile dalle informazioni che ad oggi, con queste capacità, è possibile sostenere in tempo reale.
Se la base è di 30 fps, con 1200 watt, arriveresti a 48-52fps, ovvero un MCM di 2 5090. Te ne servirebbero 4 collegate assieme (2400watt). Tuttavia senza DLSS, un tempo si andava di DSR, risoluzione impostata manualmente (pre maxwell), o di MSAA (se non di subpixel SSAA), che da 30 fps ti portava a 10, altrimenti vedevi le scalette.
Ormai stiamo arrivando ai limiti fisici dei transistor, i salti sono miseri, l'unica soluzione è puntare tutto sull'IA.
Il 3nm (tale nome è marketing, si chiamano 5nm +) che per molti rivoluzionerà dalla prossima gen. si porta dietro più densità, ma appena il 16% perf.watt/iso/0,75v, quindi salvo modifiche microarchitetturali serie, quei 30fps, se ti diventano 40-45 è un dato pazzesco, e con che consumi poi.
Amen.
giocare nativo in un mondo in cui esiste il dlss4 è un tantinello insensato.Non esiste la minima differenza ormai
Non sono assolutamente d'accordo la differenza ce ed è visibile ad occhio nudo, non tutti hanno la stessa percezione, come è vero che ce chi non distingue la differenza tra 60fps e 120.
Non usare più il silicio come semiconduttore.
stanno gia seguendo altre strade..
in realtà si può già, ed è questo il motivo per il quale qualcuno ha deciso di portare il raytracing nel mondo del pc, altrimenti nessuno avrebbe più cambiato vga una volta raggiunti i 60 e poi 120 fps in 4K
https://tpucdn.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/images/black-myth-wukong-3840-2160.png
Non mi sembra proprio, per andare a 120fps devi scendere a 1080p..........con una scheda dal 2.5k € . FOLLIA. Aggiungiamoci tutto il resto e come dicevo, andiamo sui 5k di PC.
Cutter90
23-05-2025, 14:05
Non sono assolutamente d'accordo la differenza ce ed è visibile ad occhio nudo In favore del dlss, non tutti hanno la stessa percezione, come è vero che ce chi non distingue la differenza tra 60fps e 120.
Ecco, ora meglio. Sento ogni tanto qualche mosca bianca qui che continua a dire che la nativa è migliore del dlss4. Ma postiamo qualche foto/confronto? perchè onestamente ogni volta ci sono solo esempi a favore del dlss e mai contro.
Non è questione di percezione. E' questione che in tantissimi giochi il dlss 4, anche in balacend è migliore della nativa +taa. Ci sono trilioni di analisi, screen ecc ecc.
La differenza tra 60 e 120 è abissale in confronto.
Ormai stiamo arrivando ai limiti fisici dei transistor, i salti sono miseri, l'unica soluzione è puntare tutto sull'IA.
Probabilmente, magari maglio ma è un mio pensiero, sono il Raytracing e ancora di più il PT ad essere troppo esosi per le Gpu di oggi, considerando che bisogna appunto ricorrete all'IA per essere un minimo gestibili oppure.....a pensar male si fa peccato ma spesso si azzecca, sono stati messi li per giustificare gli abnormi consumi delle top di gamma e i prezzi fuori scala.
qualche possessore di 4000 gioca AC shadows con dlss? Perchè il 4 è "rotto" con questo gioco, in particolare genera ghosting molto marcato nelle scene con nebbia, l'avevo forzato via app perchè AC non lo supporta ufficialmente, il dlss3 invece tutto ok ma con qualità inferiore ovviamente, chiedevo se c'è qualche settaggio particolare
Stessa situazione, il dlss4 migliora il 3 nel 98% delle situazioni, purtroppo nel 2% di peggioramenti rientra il discorso foschia.
Non ho seguito la scena modding per vedere se ci sono soluzioni non ufficiali, in attesa di una eventuale patch Ubisoft (evidentemente c'è un motivo se son rimasti a DLSS3...)
Tra l'altro ecco un esempio lampante di quanto le TECH diano un immagine pulita e perfetta :rolleyes:
Cutter90
23-05-2025, 14:18
Probabilmente, magari maglio ma è un mio pensiero, sono il Raytracing e ancora di più il PT ad essere troppo esosi per le Gpu di oggi, considerando che bisogna appunto ricorrete all'IA per essere un minimo gestibili oppure.....a pensar male si fa peccato ma spesso si azzecca, sono stati messi li per giustificare gli abnormi consumi delle top di gamma e i prezzi fuori scala.
Ok, togli PT e il RT. Graficamente come siamo messi rispetto a 10 anni fa?
Tra l'altro ecco un esempio lampante di quanto le TECH diano un immagine pulita e perfetta :rolleyes:
Peccato che sia un problema del gioco e non della tech. Inoltre anche la nativa con il suo TAA ha problemi grafici, con pure un costo di fps maggiore.
Cioè, io vedo che spesso ci si dimentica che la nativa ha il TAA come AA. E il TAA crea problemi SUPERIORI al dlss con costo di fps maggiore.
Non capisco il perchè ci si ostini a non capirlo e far finta che nativa=perfezione. La perfezione è Nativa+ DLAA. Un gradino sotto Nativa+ dlss (e bost di fps notevole). Poi c'è nativa+ TAA (con fps minori e problemi di AA).
Non si scappa.
Ma poi siamo sempre lì. Volete giocare in nativa+taa senza RT/PT e IA? Giocate come 10 anni fama... fatelo! C'è la scelta (personalmente, purtroppo)
Ok, togli PT e il RT. Graficamente come siamo messi rispetto a 10 anni fa?
Peccato che sia un problema del gioco e non della tech. Inoltre anche la nativa con il suo TAA ha problemi grafici, con pure un costo di fps maggiore.
Cioè, io vedo che spesso ci si dimentica che la nativa ha il TAA come AA. E il TAA crea problemi SUPERIORI al dlss con costo di fps maggiore.
Non capisco il perchè ci si ostini a non capirlo e far finta che nativa=perfezione. La perfezione è Nativa+ DLAA. Un gradino sotto Nativa+ dlss (e bost di fps notevole). Poi c'è nativa+ TAA (con fps minori e problemi di AA).
Non si scappa.
Ma poi siamo sempre lì. Volete giocare in nativa+taa senza RT/PT e IA? Giocate come 10 anni fama... fatelo! C'è la scelta (personalmente, purtroppo)
Probabilmente non chiarito un punto, il DLAA è già molto meglio, anzi lo preferisco a tutte le impostazioni quando è disponibile, per dei motivi che sono comunque riconducibili al discorso consumi, quest'ultimo è sempre il mio obiettivo primario.
Il DLAA mi permette rispetto a nativa+taa di avere un impegno della GPU inferiore, in base al gioco metto il limite a 100 o 120fps e la gpu raramente va sopra il 70%, tranne in alcuni giochi l'ho vista andare oltre.
IO rispetto al nativo+taa non noto differenze e pertanto mi sta bene tenere il case più fresco e se volete, visto che cambio sistema ogni lustro o 2 (il mio vecchio sistema era un 4790k cambiato a gennaio con quello in firma), anche molto più duraturo visto lo stress contenuto.
Quello che non mi va a genio, è il DLSS che IO in scene dinamiche vedo più sfocato rispetto alle scene statiche e penso sia anche normale visto che l'IA deve praticamente fare meno calcoli rispetto ad una scena in movimento.
Un gioco dove noto molta differenza è F1 24 dove le auto che ti precedono, attivando il DLSS lasciano una scia nella parte degli pneumatici che si vedono distorti o allungati, mentre disattivandolo questo non accade.
E non mi va a genio nemmeno il FG figuriamoci il MFG.
So benissimo che la strada intrapresa è questa e non posso farci niente, ma è chiaro che da "amante" dei pezzi di silicio, fra consumi e costi non sono molto felice di come si stanno evolvendo le cose da anni a questa parte.
Per non parlare dei 120FPS fasulli di una 5060 con mfg attivo e dlss performace, a quel punto è meglio rimanere con un 1060 almeno quella era una scheda onesta.
mikael84
23-05-2025, 16:03
Sembra che pochi abbiano capito questa cosa fondamentale.
Purtroppo è così, e sarebbe più interessante su hwu discutere di questo piuttosto che degli 8gb delle 5060 e delle 9060.
Tra l'altro ho fatto un post proprio 2 pagine fa su questo aspetto.
E sti cavoli 2400W la uso come pompa di calore davvero.
Ci vorrebbe una svolta come si diceva...ma quale?
chip quantistici, chip neuromorfici etc... Siamo lontani ancora dai GAAFET (che avrà inizialmente solo intel con 1,8, pur essendo una sorta di 3nm tsmc per molti aspetti come le sram).
Il silicio non si abbandonerà così tanto in fretta, tra GAAFET, MCM, impillazione verticale...
Al momento, sarà l'IA la forza trainante a cui sia nvidia che AMD si appoggeranno, piacia o non piacia, ed ovviamente, vedremmo costanti miglioramento, basti vedere il DLSS1 vs il 4.;)
Non mi sembra proprio, per andare a 120fps devi scendere a 1080p..........con una scheda dal 2.5k € . FOLLIA. Aggiungiamoci tutto il resto e come dicevo, andiamo sui 5k di PC.
Questo è un discorso che abbiamo trattato spesso.
Nonostante il prezzo dei chip sia alle stelle, questi non devono per forza garantire la massima fluidità sempre, considerando il limite fisico dei transistor.
Prima avevamo la 1080ti, che registrava oltre il 70% di performance nei confronti della 980ti, consumando mediamente uguale e con un die rimpiocciolito, il tutto passando da 3k a 4k$ wafer.
Ora per darti un 30% circa, avendo lo stesso processo produttivo, hanno dovuto prendere il die della 4090 e passare da 608mm2 a 760mm2, quasi ai limiti del reticolato, e con i nuovi aumenti si passa a circa 20k$, rispetto ai 3-4k di prima.
Non solo, non aumentando il perf/watt, sono stati obbligati a salire anche di consumi. No perf/watt, +30% di consumi, ma se prima ci prendevi il 70% a pari watt, ora ne prendi il 30% a +30% di watt.
In sintesi, il fatto che costi 3000 euro non giustifica nulla, in quanto una banale 1080ti ti garantiva >70%.
La differenza però la fa tutta l'IA.
Probabilmente, magari maglio ma è un mio pensiero, sono il Raytracing e ancora di più il PT ad essere troppo esosi per le Gpu di oggi, considerando che bisogna appunto ricorrete all'IA per essere un minimo gestibili oppure.....a pensar male si fa peccato ma spesso si azzecca, sono stati messi li per giustificare gli abnormi consumi delle top di gamma e i prezzi fuori scala.
Assolutamente no, raster, rt, pt, cambia poco nell'equazione. I consumi spropositati sono dovuti alla microarchitettura ed al silicio utilizzato.
Se tu raddoppi una 9070xt, ottieni un da 700mm2, over 600watt, e per via dei registri non supporta bene neppure il PT, ed ha unità matriciali ben inferiori alle nvidia.
Se nvidia puntasse solo al raster, non sarebbe cambiato nulla, i veri punti dolenti sono le rop's e la geometria ancora relegati a maxwell, ma per puntare alle calde rop's, solo la 5090 avrebbe la disposizione giusta per farlo, al massimo parleremmo un tantino più piccoli per l'assenza di RT core, e tensor più grandi, ma anche quelli servono per operazioni di FP16.;)
ninja750
26-05-2025, 15:06
https://i.postimg.cc/25RQdNNP/m04gb6kb5x2f1.jpg
apprendiamo che la 3080ti va come una 5080 per realtà virtuale e che per performance/quality la intel B580 andrebbe come una 5070ti/5080/3080ti
e che chi ha speso 3000€ per una 5090 può godersi il path tracing in un ottimo 1080p :O
Cutter90
26-05-2025, 15:23
https://i.postimg.cc/25RQdNNP/m04gb6kb5x2f1.jpg
apprendiamo che la 3080ti va come una 5080 per realtà virtuale e che per performance/quality la intel B580 andrebbe come una 5070ti/5080/3080ti
e che chi ha speso 3000€ per una 5090 può godersi il path tracing in un ottimo 1080p :O
Se va beh, specifiche fatte a casissimo ahahaha
Lo Straniero Misterioso
26-05-2025, 17:27
e che chi ha speso 3000€ per una 5090 può godersi il path tracing in un ottimo 1080p :O
Che fondamentalmente vorrebbe dire DLSS performance... :)
...oppure DLSS balanced e framegen 3x?
Boh, quando arriva si vedrà. Però è bello avere tutte queste tecnologie per portare a casa il risultato, l'importante è che il gioco meriti.
Che fondamentalmente vorrebbe dire DLSS performance... :)
...oppure DLSS balanced e framegen 3x?
Boh, quando arriva si vedrà. Però è bello avere tutte queste tecnologie per portare a casa il risultato, l'importante è che il gioco meriti.
In competitivo il FG è il male assoluto, meglio dettagli più bassi e alti FPS REALI.
Lo Straniero Misterioso
26-05-2025, 18:12
Però nell'ambiente competitivo difficilmente si giocherà con l'RTX attivo, e men che meno in PathTracing.
Sono lì per giocare quelli, mica per divertirsi! :)
Scherzi a parte, maxare i giochi è più una cosa da single player o multiplayer senza eccessive pretese.
mikael84
26-05-2025, 18:36
Però nell'ambiente competitivo difficilmente si giocherà con l'RTX attivo, e men che meno in PathTracing.
Sono lì per giocare quelli, mica per divertirsi! :)
Scherzi a parte, maxare i giochi è più una cosa da single player o multiplayer senza eccessive pretese.
RT attivo. RTX è il nome commerciale delle GPU nvidia (Ray tracing extreme).
Quoto te, ma generalmente lo leggo in ogni dove.
Anto_Dur
26-05-2025, 20:00
Però nell'ambiente competitivo difficilmente si giocherà con l'RTX attivo, e men che meno in PathTracing.
Sono lì per giocare quelli, mica per divertirsi! :)
Scherzi a parte, maxare i giochi è più una cosa da single player o multiplayer senza eccessive pretese.
Piu o meno in competitivo è cosi ma giochi alla gta il ray tracing in online secondo me diventerà la norma in futuro :)
Lo Straniero Misterioso
26-05-2025, 20:28
RT attivo. RTX è il nome commerciale delle GPU nvidia (Ray tracing extreme).
Quoto te, ma generalmente lo leggo in ogni dove.
Giusto :)
ninja750
27-05-2025, 12:05
...oppure DLSS balanced e framegen 3x?
il FG in un gioco di corse, 3x pergiunta, penso sia pura marmellata :fagiano:
Cutter90
27-05-2025, 12:28
il FG in un gioco di corse, 3x pergiunta, penso sia pura marmellata :fagiano:
Se parti da almeno 90 fps è anche utilizzabile direi. Ma cmq non ha molto senso. C'è da dire che F1 è un gioco competitivo per "modo di dire"
ninja750
30-05-2025, 15:17
NVIDIA Rumored To Cut GeForce RTX 50 Series Production In Order To Increase Production Of AI GPUs Such As GB300
https://wccftech.com/nvidia-rumored-to-reduce-rtx-50-gpus-production-in-china-in-favor-of-ai-gpus/
OrazioOC
30-05-2025, 15:37
NVIDIA Rumored To Cut GeForce RTX 50 Series Production In Order To Increase Production Of AI GPUs Such As GB300
https://wccftech.com/nvidia-rumored-to-reduce-rtx-50-gpus-production-in-china-in-favor-of-ai-gpus/
Immagino lo stracciamento di vesta per chi puntava alle 5060 8gb. :asd:
Saved_ita
30-05-2025, 16:10
NVIDIA Rumored To Cut GeForce RTX 50 Series Production In Order To Increase Production Of AI GPUs Such As GB300
https://wccftech.com/nvidia-rumored-to-reduce-rtx-50-gpus-production-in-china-in-favor-of-ai-gpus/
Mercato cinese... probabilmente influenza qualche vat player che commercializza dalla Cina ma per ora in Europa godiamo di cambio favorevole, nessun dazio e forniture dirottate dall'America in Europa (perchè da loro le schede non si vendono dai i prezzi fotonici).
Nel lungo periodo da vedere se il calo di fornitura verso la Cina significa anche calo di produzione e fornitura per Europa e USA.
mikael84
01-06-2025, 12:24
Test di der8auer sulla PRO6000 Blackwell /alias 5090TI.
Chip work (ex quadro), praticamente full con 24064cc attivi (il full ha ben 24576, ma per rese questo è il massimo), 192 rop's, full cache, che potremmo definire la 5090TI.
https://www.youtube.com/watch?v=o21CDqlCSps
Evilquantico
01-06-2025, 19:00
Test di der8auer sulla PRO6000 Blackwell /alias 5090TI.
Chip work (ex quadro), praticamente full con 24064cc attivi (il full ha ben 24576, ma per rese questo è il massimo), 192 rop's, full cache, che potremmo definire la 5090TI.
https://www.youtube.com/watch?v=o21CDqlCSps
Non ho capito questo grafico ? come fa ad esserci questo divario con la 5090 ?
https://i.postimg.cc/3wf0P0w8/Immagine-2025-06-01-195916.jpg
amon.akira
01-06-2025, 19:13
Pke una è con mfg4x l altra no
Romain1985
02-06-2025, 17:33
Pke una è con mfg4x l altra no
Leggermente Ingannevole la Slide ^^
Mi ricordano gli effetti collaterali nelle pubblicità delle case farmaceutiche.
E' perché è tagliata.
https://i.ibb.co/v4Nj1zBr/der8bauer.png (https://i.ibb.co/b54K1d3y/der8bauer.png)
amon.akira
02-06-2025, 18:04
E' perché è tagliata.
Si ma è un test senza senso, ho chiuso li il video
Si ma è un test senza senso, ho chiuso li il video
Beh in realtà l'ha messo proprio per far vedere come vorrebbe confrontare nvidia le schede fra le generazioni, ovvero con features disabilitate da una parte.
Non dico contro AMD perché gli ultimi diktakt per le 5060 erano di confrontarle solo con le GeForce vecchie...
Il tutto infatti è provocatorio e lo dice lui stesso nel video. Dopo c'è la slide col confronto a pari settaggi.
Romain1985
02-06-2025, 18:48
Anche sull' RTX 5090 c'è il Multi Frame Gen , che senso ha il test ?
amon.akira
02-06-2025, 19:04
Anche sull' RTX 5090 c'è il Multi Frame Gen , che senso ha il test ?
esatto, nvidia fa vs le 4000 senza mfg
Si ma è un test senza senso, ho chiuso li il video
A me ha lasciato un po' perplesso il commento riguardo ai 64GB aggiuntivi rispetto alla 5090 che al produttore costerebbero solo 200$ in più e non giustificherebbero il divario nel prezzo della pro.. che di suo è altissimo, siam d'accordo, ma questo ha capito che aumentare la VRAM non è solo questione di schiaffarla sul PCB e tanti saluti? E il consumo? Il raffreddamento? Tutta la riprogettazione? Mah.
mircocatta
02-06-2025, 20:28
Test di der8auer sulla PRO6000 Blackwell /alias 5090TI.
Chip work (ex quadro), praticamente full con 24064cc attivi (il full ha ben 24576, ma per rese questo è il massimo), 192 rop's, full cache, che potremmo definire la 5090TI.
https://www.youtube.com/watch?v=o21CDqlCSps
ci hanno talmente drogati con i rialzi di prezzo, dalle 2000 in poi, che vedere la top di gamma arrivare sulla fascia delle pro a 10k non mi stupisce :asd: plot twist!
mikael84
02-06-2025, 21:33
A me ha lasciato un po' perplesso il commento riguardo ai 64GB aggiuntivi rispetto alla 5090 che al produttore costerebbero solo 200$ in più e non giustificherebbero il divario nel prezzo della pro.. che di suo è altissimo, siam d'accordo, ma questo ha capito che aumentare la VRAM non è solo questione di schiaffarla sul PCB e tanti saluti? E il consumo? Il raffreddamento? Tutta la riprogettazione? Mah.
Sono schede pro, una quadro praticamente, una parte del loro sovraprezzo è dovuto soprattutto anche alla vram, vedi la RTX6000 vs 8000, una da 24gb a 6000$, l'altra da 48gb a 10000$ (stesso chip).
Le quadro (ex), hanno sempre avuto un mercato ben differente, anche se la RTX6000, è creata anche come 5090ti se vogliamo. Le vecchie avevano un connettore EPS da 300watt, ed un blower, quindi non proprio adatte al gaming come lo è questa.
Discorso ram si, costano poco e nulla. Le Gddr7 costano circa il 20-30% in più delle Gddr6, che ora stanno a 2,3$ per GB, ovvero 148,8 per 64gb, di conseguenza arrivi a 170-190 (200 arrotondiamo).
https://i.postimg.cc/Kv08FSnB/G6.png
ci hanno talmente drogati con i rialzi di prezzo, dalle 2000 in poi, che vedere la top di gamma arrivare sulla fascia delle pro a 10k non mi stupisce :asd: plot twist!
Premesso che i chip costano molto più di prima, però ormai si sta sconfinando completamente in ciò che prima era il mercato work. In ogni gen. prova sempre ad alzare l'asticella. Ha cominciato dalla Titan kepler, proseguendo con la Titan V (ex tesla), sino alla Titan turing da 2500.
Questa RTX6000, per come è concepita, potremmo anche chiamarla 5090TI.
Sono schede pro, una quadro praticamente, una parte del loro sovraprezzo è dovuto soprattutto anche alla vram, vedi la RTX6000 vs 8000, una da 24gb a 6000$, l'altra da 48gb a 10000$ (stesso chip).
Le quadro (ex), hanno sempre avuto un mercato ben differente, anche se la RTX6000, è creata anche come 5090ti se vogliamo. Le vecchie avevano un connettore EPS da 300watt, ed un blower, quindi non proprio adatte al gaming come lo è questa.
Discorso ram si, costano poco e nulla. Le Gddr7 costano circa il 20-30% in più delle Gddr6, che ora stanno a 2,3$ per GB, ovvero 148,8 per 64gb, di conseguenza arrivi a 170-190 (200 arrotondiamo).
https://i.postimg.cc/Kv08FSnB/G6.png
Ma lui ha considerato il solo costo nudo dei chip ignorando tutto quel che comporta integrarli, progettazione, PCB più complesso, dissipazione, alimentazione, etc, è tutto diverso, tutto più costoso.. "the additional 64GB of memory come to about 200$ more cost in making the card" è una fesseria, una semplificazione che non tiene conto del quadro completo.
mikael84
03-06-2025, 00:19
Ma lui ha considerato il solo costo nudo dei chip ignorando tutto quel che comporta integrarli, progettazione, PCB più complesso, dissipazione, alimentazione, etc, è tutto diverso, tutto più costoso.. "the additional 64GB of memory come to about 200$ more cost in making the card" è una fesseria, una semplificazione che non tiene conto del quadro completo.
Certamente, io ho giusto accennato i costi ram, i costi totali sono ben più alti, e senza considerare che il die, stazza a 550-600$ (prendendo i puliti), più i costi di R&D (da 50-100$ in su, avendo poco più di 33 rese). Considera che i prezzi del die tengono solo conto del wafer, non di tutti i lavori richiesti, di logistica ecc.
Una 5090 realizzarla costa, ma non è certo la ram un problema. Quello ormai è l'ultimo dei problemi.;)
AceGranger
03-06-2025, 13:52
Ma lui ha considerato il solo costo nudo dei chip ignorando tutto quel che comporta integrarli, progettazione, PCB più complesso, dissipazione, alimentazione, etc, è tutto diverso, tutto più costoso.. "the additional 64GB of memory come to about 200$ more cost in making the card" è una fesseria, una semplificazione che non tiene conto del quadro completo.
si ma il suo discorso ( il tizio del video ) è inutile alla base.
dall'alba dei tempi il prezzo di un prodotto è dato dalla domanda e dall'offerta, il costo di produzione è solo una delle tante variabili, molte volte anche ininfluente.
Il costo delle GPU Pro è dato solo e soltanto dal fatto che quello che ci vai a fare fa fatturare tanto, nVidia lo sa bene e il prezzo è allineato a quello che poi fanno fatturare.
solo uno stupido venderebbe a 10 un prodotto che puo vendere a 40 perchè tanto il cliente che acquista con quelle GPU fattura 100 e quindi non si fa problemi a spendere 30 in piu.
è lo stesso motivo per il quale le Titan o x090 sono sempre costate di piu; il prezzo nVidia lo fa in base alla clientela a cui le vende e a quello che ci possono fare.
Iceman69
03-06-2025, 14:57
si ma il suo discorso ( il tizio del video ) è inutile alla base.
dall'alba dei tempi il prezzo di un prodotto è dato dalla domanda e dall'offerta, il costo di produzione è solo una delle tante variabili, molte volte anche ininfluente.
Il costo delle GPU Pro è dato solo e soltanto dal fatto che quello che ci vai a fare fa fatturare tanto, nVidia lo sa bene e il prezzo è allineato a quello che poi fanno fatturare.
solo uno stupido venderebbe a 10 un prodotto che puo vendere a 40 perchè tanto il cliente che acquista con quelle GPU fattura 100 e quindi non si fa problemi a spendere 30 in piu.
è lo stesso motivo per il quale le Titan o x090 sono sempre costate di piu; il prezzo nVidia lo fa in base alla clientela a cui le vende e a quello che ci possono fare.
Vero che spesso i costi di produzione sono solo una piccola parte del prezzo finale, ma lo influenzano eccome.
Anche vero che il prezzo è determinato dall'effetto dell'incontro tra domanda e offerta, gli scalpers guadagnano giocando su questo.
Non è vero che il prezzo di un prodotto dipende dall'uso che se ne fa, il ragionamento spendo 30 e ne guadagno 100 si mischia con tanti altri ragionamenti che determinano poi il prezzo finale dato dall'incontro tra domanda e offerta ed è per questo che Nvidia cerca di segmentare il mercato.
Comunque i prezzi sono impazziti a questo giro e io sono molto stupito che la gente abbia comunque comprato i prodotti nonostante tutto. Sono curioso di vedere se adesso che gli ansiosi hanno comprato ai prezzi folli del lancio i prezzi crolleranno e fino a che punto. Le prossime schede sono ancora lontane, se Nvidia vuole vendere ora un sensibile abbassamento dei prezzi è inevitabile.
AceGranger
03-06-2025, 23:02
Vero che spesso i costi di produzione sono solo una piccola parte del prezzo finale, ma lo influenzano eccome.
Anche vero che il prezzo è determinato dall'effetto dell'incontro tra domanda e offerta, gli scalpers guadagnano giocando su questo.
Non è vero che il prezzo di un prodotto dipende dall'uso che se ne fa, il ragionamento spendo 30 e ne guadagno 100 si mischia con tanti altri ragionamenti che determinano poi il prezzo finale dato dall'incontro tra domanda e offerta ed è per questo che Nvidia cerca di segmentare il mercato.
Comunque i prezzi sono impazziti a questo giro e io sono molto stupito che la gente abbia comunque comprato i prodotti nonostante tutto. Sono curioso di vedere se adesso che gli ansiosi hanno comprato ai prezzi folli del lancio i prezzi crolleranno e fino a che punto. Le prossime schede sono ancora lontane, se Nvidia vuole vendere ora un sensibile abbassamento dei prezzi è inevitabile.
Il prezzo di produzione influenza veramente solo le fasce medio basse, dove il target acquirente cambia, cambia la sua disponibilità econimica, e quindi si ha un occhio di riguardo in piu.
Invece su prodotti pro di alta gamma il cosa vai a fare invece influenza eccome il prezzo di vendita, perchè è proprio quello che crea comunque la domanda nonostante il prezzo...
nVidia sa benissimo cosa ci fanno le aziende con le sue GPU e sa benissimo cosa portano come fatturati, motivo per cui pur fissando quei prezzi astronomici da generazioni le vendono comunque.
Non esiste NESSUNA motivazione tecnica/produzione/R&D, o quello che vuoi, per la quale la TOP Gamma Pro possa costare 10K, se non che ora l'ecosistema CUDA permette di poter fare molte piu cose e molto piu remunerative e visto che per molte di queste la Vram ampia è una prerogativa, sparano in alto, e tanto vendono comuqnue.
giusto per capirci, una volta una QUADRO TOP gamma serviva al 90% solo per gestire i softwre di disegno, ovvero fps delle viewport e stop, e per un 10% per i primi accenni di GPGPU, come primi render su scheda video ancora acerbi e poco altro; oggi una QUADRO TOP gamma puo praticamente fare di tutto, con la piattaforma Omniverse di nVidia parti dal disegno 2D, passi per il 3D e arrivi al gemello digitale 1:1 di un qualsiasi processo produttivo...
o ancora, un'azienda grossa invece di acquistare n computer acquista dei server con le TOP gamma e ci virtualizza le singole postazioni dividendo le GPU in base al carico di lavoro etc. etc.
Iceman69
04-06-2025, 07:24
Sulle fasce più basse c'è più concorrenza, per questo il ricarico non può essere come quello delle fasce alte o PRO, non per la sensibilità di Nvidia nei confronti dei clienti poveri.
Ma siamo sempre lì, è un discorso di domanda e offerta.
Per i costi di produzione io non intendo solo quelli della pura materia prima, ci sono i costi di sviluppo e progettazione oltre a tutta la catena di distribuzione che deve guadagnarci, quindi influenzano anche le fasce alte, che poi più sali più ci sia un premio da pagare sproporzionato rispetto all'aumento di prestazioni/qualità vale per tutto, non solo per le schede video.
A questo giro secondo me siamo arrivati a un punto senza senso in cui utenti normali sono disposti a pagare prezzi da PRO per il gusto di avere l'ultima primizia (che per la serie 5000 è pure un po' una presa in giro), ma questo è un altro film.
OrazioOC
05-06-2025, 08:29
https://videocardz.com/newz/nvidia-reportedly-preparing-geforce-rtx-5050-desktop-gpu-for-july-release
FG X4 performance level rtx 4070, 229 dollari, pc gamers rejoice. :O
linux_goblin
05-06-2025, 08:59
non esistono utenti normali
:D
probabilmente per un utilizzo professionale sia LLM o disegno le 5090 sono buone schede, se non hai limiti di budget
ma credo che proprio in ambito pro ci sia un budget da rispettare e che quindi se non hai proprio necessità di 32Gb di memoria, le 3090 vanno benone e costano il giusto
per quanto riguarda gli enthusiast danarosi, la 5090 è come il cacio sui maccheroni (prestazioni ottime) e se rivendi una 3090 o 4090 a buon prezzo con relativamente poco ti fai una top di gamma
https://videocardz.com/newz/nvidia-reportedly-preparing-geforce-rtx-5050-desktop-gpu-for-july-release
FG X4 performance level rtx 4070, 229 dollari, pc gamers rejoice. :O
Qui a forza di gimmicks si ritornerà all'accelerazione software.
Evilquantico
05-06-2025, 11:20
Qui a forza di gimmicks si ritornerà all'accelerazione software.
Hahahahahahaha :asd:, propendo piu' per il cloud gaming se continuiamo così
ninja750
05-06-2025, 13:43
https://videocardz.com/newz/nvidia-reportedly-preparing-geforce-rtx-5050-desktop-gpu-for-july-release
FG X4 performance level rtx 4070, 229 dollari, pc gamers rejoice. :O
non vedo l'ora di osservare il pcb di questa meraviglia
Eccola, sempre al top :O :
https://i.ibb.co/VbThQRj/Capture.png
Eccola, sempre al top :O :
https://i.ibb.co/VbThQRj/Capture.png
Non ridere che qui qualcuno ce l'ha ancora... e di tanto in tanto la usa con buon gusto! :D
https://i.ibb.co/4GygJJz/20240401-110214.jpg (https://ibb.co/hj51CCb)
Comunque sono ormai abbastanza senza parole dalla piega che ha preso questo mercato, ogni generazioni abbiamo top sempre più care e le sorelle minori sempre più fiacche. :(
frafelix
06-06-2025, 08:04
In effetti fa un po' specie che una 5070 abbia più o meno le prestazioni di una 3080ti che avevo prima, quindi di 5 anni fa
ninja750
06-06-2025, 09:33
(steam survey, che lascia il tempo che trova ma..)
NVIDIA Dominates AIB GPU Market With 92% Share In Q1 2025, AMD Drops To 8% & Intel To 0%
https://wccftech.com/nvidia-dominates-aib-gpu-market-share-in-q1-2025-amd-intel-drop/
In effetti fa un po' specie che una 5070 abbia più o meno le prestazioni di una 3080ti che avevo prima, quindi di 5 anni fa
La 5070 ha le stesse prestazioni di una 3090, ma con anche la possibilità del frame generator che sposta parecchio la situazione, se non avesse il limite dei 12gb di ram sarebbe un ottima scheda.
frafelix
06-06-2025, 10:31
Sposta parecchio dipende dai giochi e dalla risoluzione!
Si certo, però alla fine la 5070 è forse la migliore come prestazioni/prezzo.
Ero tentato anch'io visto che la 5070ti non me la posso permettere.. quei dannati 12gb sono veramente limitanti all'atto pratico secondo voi?
Adesso e per un bel po' mi accontento del 2k ma se rinunciassi a qualche discutibile effetto grafico non potrebbe bastare per qualche anno anche in 4k?
Son sempre 300 euro in meno diosanto :(
OrazioOC
06-06-2025, 13:04
https://videocardz.com/newz/nvidia-gb207-gpu-for-geforce-rtx-5050-series-spotted-in-pci-id-library
frafelix
06-06-2025, 13:04
Dipende da come sei abituato a giocare... Se abbassi i dettagli grafici anche i 12gb bastano! Ma resterei sul 2k, perché se pensi di non cambiare scheda per 4 anni e andare sul 4k la vedo dura
appleroof
06-06-2025, 13:08
Ero tentato anch'io visto che la 5070ti non me la posso permettere.. quei dannati 12gb sono veramente limitanti all'atto pratico secondo voi?
Adesso e per un bel po' mi accontento del 2k ma se rinunciassi a qualche discutibile effetto grafico non potrebbe bastare per qualche anno anche in 4k?
Son sempre 300 euro in meno diosanto :(
al posto tuo viste le esigenze complessive valuterei una 9070 liscia
Ero tentato anch'io visto che la 5070ti non me la posso permettere.. quei dannati 12gb sono veramente limitanti all'atto pratico secondo voi?
Adesso e per un bel po' mi accontento del 2k ma se rinunciassi a qualche discutibile effetto grafico non potrebbe bastare per qualche anno anche in 4k?
Son sempre 300 euro in meno diosanto :(
Io la uso nel muletto e non ho ancora avuto limiti causati dalla ram, però immagino che prima o poi inizieranno ad arrivare...
Con il 2k tiene botta molto bene, ma con il 4k potrebbe faticare.
Ero tentato anch'io visto che la 5070ti non me la posso permettere.. quei dannati 12gb sono veramente limitanti all'atto pratico secondo voi?
Adesso e per un bel po' mi accontento del 2k ma se rinunciassi a qualche discutibile effetto grafico non potrebbe bastare per qualche anno anche in 4k?
Son sempre 300 euro in meno diosanto :(
Una 5070 in 4K significa a spanne giocare al massimo a livelli Medium, DLSS Performance e FG attiva per raggiungere un target di 60 fps con i più pesanti titoli attuali. Sulla lunga distanza può solo fare più fatica. A 2K sicuramente ti regge più a lungo.
Il tuo è fondamentalmente un target sbilanciato, la 5070 non è orientata al 4K. Che poi con diversi titoli lo regga lo stesso abbassando i dettagli è un altro paio di maniche. Ma 4K e dettagli ridotti è una contraddizione in termini.
Grazie :) pensavo di restare con Nvdia perché si dice sia più future proof soprattutto se non si punta solo al gaming...Poi già, l'avvento delle 9070 ha creato più dubbi ancora :rolleyes: Con i prossimi update potrebbe diventare una bella bestia anche AMD, si dice che come qualità FSR ora sia un pochino indietro a DSSL ...
Cutter90
06-06-2025, 14:12
Una 5070 in 4K significa a spanne giocare al massimo a livelli Medium, DLSS Performance e FG attiva per raggiungere un target di 60 fps con i più pesanti titoli attuali. Sulla lunga distanza può solo fare più fatica. A 2K sicuramente ti regge più a lungo.
Il tuo è fondamentalmente un target sbilanciato, la 5070 non è orientata al 4K. Che poi con diversi titoli lo regga lo stesso abbassando i dettagli è un altro paio di maniche. Ma 4K e dettagli ridotti è una contraddizione in termini.
Si ma dipende tanto anche da che titoli gioca. Tra l altro sono solo le texture da abbassare in 4k non tutto il gioco.
Concordo cmq che la 5070 per il 4k con RT intensivo è una scheda da 60 fps con qualche compromesso lato setting. Usabile, ma non ottimale
Che è il motivo per cui ho specificato i più pesanti.. comunque anche il RT impegna VRAM, e ne richiede la stessa FG.
DJurassic
06-06-2025, 15:09
Grazie :) pensavo di restare con Nvdia perché si dice sia più future proof soprattutto se non si punta solo al gaming...Poi già, l'avvento delle 9070 ha creato più dubbi ancora :rolleyes: Con i prossimi update potrebbe diventare una bella bestia anche AMD, si dice che come qualità FSR ora sia un pochino indietro a DSSL ...
Un pochino indietro? :asd:
Ad oggi l'FSR 4 ne ha di strada da fare, specie per quanto riguarda l'utilizzo che ne viene fatto dove grasso che cola se te lo ritrovi all'uscita in 1 gioco su 20. Questo senza menzionare il ray recostruction e il mfg che a quanto sembra verranno introdotti con l'arrivo dei nuovi Redstone di cui ancora non si hanno molte info a riguardo.
La 5070 comunque non è una GPU per il 4K se è a quello che stai puntando.
Ho ancora la gtx970 da 3.5 gb :fagiano: cercavo la best buy per i prossimi anni,
Se la 5070 fosse uscita coi 16 l'avrei già presa...
Ma a tal proposito ...ci sono rumors di nuovi restyling di questa serie( Super,tiSuper,Mega ,Plus...) oppure si andrà direttamente alle 6000?
Ho ancora la gtx970 da 3.5 gb :fagiano: cercavo la best buy per i prossimi anni,
Se la 5070 fosse uscita coi 16 l'avrei già presa...
Ma a tal proposito ...ci sono rumors di nuovi restyling di questa serie( Super,tiSuper,Mega ,Plus...) oppure si andrà direttamente alle 6000?
In attesa di eventuali Super, il miglior compromesso è la 5070 Ti.
Cmq se cerchi una best buy non la troverai nelle 5000. Questa generazione è uno scempio.
Ho ancora la gtx970 da 3.5 gb :fagiano: cercavo la best buy per i prossimi anni,
Se la 5070 fosse uscita coi 16 l'avrei già presa...
Ma a tal proposito ...ci sono rumors di nuovi restyling di questa serie( Super,tiSuper,Mega ,Plus...) oppure si andrà direttamente alle 6000?
La least worst buy è la 5070 Ti. I tagli di VRAM di questa gen son tutti scombinati..
I leak parlano di 5080 Super, 24GB [che avrebbero dovuto mettere fin da subito], 400W, a fine anno.
In attesa di eventuali Super
Come per le 4070, una 5070 Super 18Gb con i nuovi moduli da 3GB "andrebbe via come il pane" e sarebbe il vero best buy, con prestazioni solide e nessun (ragionevole) limite sulla VRAM
timetraveller1
07-06-2025, 16:34
Ormai questo mercato è veramente morto..
Non seguo assiduamente da un po' di anni, ma ogni tanto recupero le novità e vedo se c'è qualcosa di interessante da acquistare per migliorare il mio setup (homelab), inutile dire che non c'è praticamente nulla di migliorabile, considerando il budget speso per "inizializzare".
Mi sarebbe piaciuto cambiare la mia 3080 10GB con una scheda da 16GB per avere più spazio di manovra con l'inferenza e il finetuning locale, ma devo quasi spendere quello che ho speso anni fa per la mia scheda (usata) e avere prestazioni inferiori, solo per avere quei 6GB di VRAM in più..
Forse le Intel ARC sono le schede più interessanti per il mio caso d'uso, ma anche lì il rapporto prezzo/prestazioni non è che sia invitante..
OrazioOC
09-06-2025, 11:15
https://videocardz.com/newz/geforce-rtx-5050-to-feature-samsung-and-sk-hynix-gddr6-memory
Scheda video GOAT per sta generazione. :asd:
OrazioOC
09-06-2025, 14:16
https://videocardz.com/newz/samsung-gddr7-3gb-modules-now-available-for-diy-purchase-in-china-rtx-5090-48gb-mods-incoming
timetraveller1
10-06-2025, 05:17
https://videocardz.com/newz/geforce-rtx-5050-to-feature-samsung-and-sk-hynix-gddr6-memory
Scheda video GOAT per sta generazione. :asd:
8GB GDDR6 nel 2025, un die super tagliato, praticamente presi dal pavimento di TSMC, pronta alla vendita iper-sconto a centinaia di euro!
StylezZz`
10-06-2025, 06:58
8GB GDDR6 nel 2025, un die super tagliato, praticamente presi dal pavimento di TSMC, pronta alla vendita iper-sconto a centinaia di euro!
8GB possono andare bene per una gpu come questa...il problema sarà il prezzo.
OrazioOC
10-06-2025, 07:01
8GB possono andare bene per una gpu come questa...il problema sarà il prezzo.
Dubito che nvidia vada a chiedere più di 220 euro per questa. :)
Certo, se amd si degnasse di tirar fuori una 9060 8gb allo stesso prezzo, gli farebbe il pelo. :p
ninja750
10-06-2025, 09:43
Certo, se amd si degnasse di tirar fuori una 9060 8gb allo stesso prezzo, gli farebbe il pelo. :p
visto il "flop" delle 6500XT dubito scenderanno di nuovo in questa fascia, anche nvidia non fece una 4050
pensare che fecero invece anche RX6400 e RX6300
OrazioOC
10-06-2025, 10:04
visto il "flop" delle 6500XT dubito scenderanno di nuovo in questa fascia, anche nvidia non fece una 4050
pensare che fecero invece anche RX6400 e RX6300
6500 xt e 6400 erano figlie dei loro tempi, ovvero il mining sfrenato tra il 2020 e il 2022.
Qualsiasi cosa lavorava su PCIE, vendeva in automatico. :asd:
Però questa è un po' diversa, sarà una gpu con performance raster/rt a cavallo della 3060 e 4060, non un missile ma con il dlss e magari non maxando ogni filo derba, in full hd ne dovrebbe uscire decentemente. :)
Chiaro che una cosa del genere è da pagare non oltre i 200/220 nuova, oltre non ha senso. :p
timetraveller1
10-06-2025, 22:10
8GB possono andare bene per una gpu come questa...il problema sarà il prezzo.
Certo, 8GB possono bastare anche perchè come prestazioni sono ferme a 2 generazioni fa (vista la riduzione costante del die). Sembra quasi un buon affare considerando le sorelle maggiori..
OrazioOC
13-06-2025, 10:06
https://videocardz.com/newz/nvidia-geforce-rtx-5050-gets-20-gbps-gddr6-memory-matching-radeon-rx-9000-series
caccapupu91
13-06-2025, 10:10
per chi viene da una GT730 la 5050 è un ottimo upgrade :asd:
OrazioOC
13-06-2025, 10:25
per chi viene da una GT730 la 5050 è un ottimo upgrade :asd:
"it's safe to upgrade from kepler". cit Jensen. :)
ninja750
13-06-2025, 16:26
intanto in america..
https://i.postimg.cc/XJGV7sYZ/so-i-got-myself-an-rtx-5070-v0-t32c7uj1w76f1.webp
https://www.reddit.com/r/pcmasterrace/comments/1l8ijyf/so_i_got_myself_an_rtx_5070/
RTX5070 350$
Sono come i prodotti del warehouse di Amazon.
Sono come i prodotti del warehouse di Amazon.
un terno all'otto
Rieccomi per ringraziarvi dei consigli...
Alla fine ho chiuso gli occhi ed ho portato a casa una Zotac 5070ti Solid Sff OC ; già montata.
Spero mi basti qualche annetto adesso,inutile dirvi che è fantastica.
Sto cercando di ottimizzare consumi,temp e prestazioni con MSI A.B. e l'ho già trovato indispensabile!
Praticamente con 60/70 w in meno ho performance migliori che in stock ! Per non parlare delle temp!
ninja750
24-06-2025, 11:31
la 5050 dovrebbe essere lanciata il 1 luglio
https://www.techpowerup.com/img/66xNrm535673PL0Z.jpg
quel dissipatore mi ricorda lo zalman fatality che avevo sulla nvidia 6800 AGP :D
OrazioOC
24-06-2025, 15:11
https://videocardz.com/newz/nvidia-geforce-rtx-5050-announced-with-8gb-gddr6-249-price-launching-mid-to-late-july
Un po' tanti 249 dollari nel 2025 per quelle specifiche. :rolleyes:
Evilquantico
24-06-2025, 15:37
la 5050 dovrebbe essere lanciata il 1 luglio
https://www.techpowerup.com/img/66xNrm535673PL0Z.jpg
quel dissipatore mi ricorda lo zalman fatality che avevo sulla nvidia 6800 AGP :D
Hahaha :asd: vero è uguale
Anto_Dur
24-06-2025, 16:04
Che ricordi lo zalman :)
https://videocardz.com/newz/nvidia-geforce-rtx-5050-announced-with-8gb-gddr6-249-price-launching-mid-to-late-july
Un po' tanti 249 dollari nel 2025 per quelle specifiche. :rolleyes:
La memoria mi sembra davvero molto tirata per delle GDDR6 a 128 bits. Comunque a quel prezzo ha poco senso, è praticamente una 4060 con supporto a DLSS4.
Il modello per laptop sembra più interessante, anche se dubito che costi poco. Mi chiedo quanto sia paragonabile ad una 4060 a parità di TGP. E mi chiedo anche quali prestazioni possano raggiungere i modelli per ultra-thin da 45-60W.
OrazioOC
24-06-2025, 20:23
La memoria mi sembra davvero molto tirata per delle GDDR6 a 128 bits. Comunque a quel prezzo ha poco senso, è praticamente una 4060 con supporto a DLSS4.
Il modello per laptop sembra più interessante, anche se dubito che costi poco. Mi chiedo quanto sia paragonabile ad una 4060 a parità di TGP.
Ha 512 cc in meno, ma ha 50gbps di bandwith in più e un centinaio di mhz in più abbondanti di core boost.
Alla fine della fiera saremo li, alla peggio mi aspetto uno scenario simil 3050 vs 2060, dove quest'ultima anche se più veloce lo era di un 10% scarso. :)
StylezZz`
24-06-2025, 23:11
https://videocardz.com/newz/nvidia-geforce-rtx-5050-announced-with-8gb-gddr6-249-price-launching-mid-to-late-july
Un po' tanti 249 dollari nel 2025 per quelle specifiche. :rolleyes:
Meglio 300 con un bel dissipatore triventola.
Colorful Launches its GeForce RTX 5050 Graphics Cards (https://www.techpowerup.com/338301/colorful-launches-its-geforce-rtx-5050-graphics-cards)
EDIT: ovviamente non poteva mancare Asus, altra triventola inutile.
ASUS Announces its GeForce RTX 5050 Graphics Card Series (https://www.techpowerup.com/338323/asus-announces-its-geforce-rtx-5050-graphics-card-series)
marbasso
26-06-2025, 10:52
la 5050 dovrebbe essere lanciata il 1 luglio
https://www.techpowerup.com/img/66xNrm535673PL0Z.jpg
quel dissipatore mi ricorda lo zalman fatality che avevo sulla nvidia 6800 AGP :D
A me ricorda gli zalman che montavo sui duron, crackando core a tutto spiano. Ogni smontaggio e rimontaggio era un angolo del die a pezzi. Cambiavo un duron a settimana. Poi passai agli athlon. Stessa solfa.
A me ricorda gli zalman che montavo sui duron, crackando core a tutto spiano. Ogni smontaggio e rimontaggio era un angolo del die a pezzi. Cambiavo un duron a settimana. Poi passai agli athlon. Stessa solfa.
E infatti tutti a comprare lo spessorino di rame per evitare di sbreccare angoli, bei tempi quelli delle smatitate :D.
OrazioOC
28-06-2025, 14:30
https://videocardz.com/newz/nvidias-new-dlss-transformer-model-requires-20-lower-vram-usage
Da testare perchè se confermato è una svolta. :O
StylezZz`
28-06-2025, 15:41
https://videocardz.com/newz/nvidias-new-dlss-transformer-model-requires-20-lower-vram-usage
Da testare perchè se confermato è una svolta. :O
È arrivato il momento di riesumare la 3070 e testare in quelle situazioni dove cedeva, vi farò sapere.
Cutter90
28-06-2025, 16:01
https://videocardz.com/newz/nvidias-new-dlss-transformer-model-requires-20-lower-vram-usage
Da testare perchè se confermato è una svolta. :O
È confermato alla grande. L ultima dll fa proprio quello.
bagnino89
29-06-2025, 11:01
https://videocardz.com/newz/nvidias-new-dlss-transformer-model-requires-20-lower-vram-usage
Da testare perchè se confermato è una svolta. :OIl 20% di poco è molto poco.
Leggete bene... Parliamo di MB a risoluzioni normali, stiamo parlando del nulla.
OrazioOC
29-06-2025, 11:21
https://videocardz.com/newz/nvidia-geforce-rtx-5070-super-reportedly-features-6400-cuda-cores-and-18gb-memory
OrazioOC
29-06-2025, 11:22
https://videocardz.com/newz/nvidia-also-planning-geforce-rtx-5070-ti-super-with-24gb-gddr6-memory
mikael84
29-06-2025, 12:01
https://videocardz.com/newz/nvidia-geforce-rtx-5070-super-reportedly-features-6400-cuda-cores-and-18gb-memory
https://videocardz.com/newz/nvidia-also-planning-geforce-rtx-5070-ti-super-with-24gb-gddr6-memory
A sto giro c'era poco margine per i refresh, se non la tripla. La 5070S è interessante in fascia medio -bassa, se manterrà gli stessi prezzi.
Ci poteva stare anche una 5080TI a 384bit, ma temo che possa creare conflitti alla serie 6000.
OrazioOC
29-06-2025, 12:22
A sto giro c'era poco margine per i refresh, se non la tripla. La 5070S è interessante in fascia medio -bassa, se manterà gli stessi prezzi.
Ci poteva stare anche una 5080TI a 384bit, ma temo che possa creare conflitti alla serie 6000.
Quoto, più che lavorare sulla vram e sul tdp non si può fare, i chp Blackwell ad oggi presenti non hanno margini per incrementare i CC in maniera marcata. :rolleyes:
Mi aspetto pure una 5060 super, in modo da pensionare 5060 ti 8gb/16gb...
E comunque se questi refresh vedranno la luce entro gennaio '26, significa che le rtx 50 ce le portiamo avanti fino al 2027...
A sto giro c'era poco margine per i refresh, se non la tripla. La 5070S è interessante in fascia medio -bassa, se manterà gli stessi prezzi.
Ci poteva stare anche una 5080TI a 384bit, ma temo che possa creare conflitti alla serie 6000.
leggendo la notizia poco sopra, stavo pensando esattamente alla stessa cosa:
una 5080Ti a riempire quel buco enorme che c'è tra la 5080 e la 5090 sarebbe ottima, dato che solo i 24Gb la renderebbe un pò più longeva ma servirebbe anche un aumento significativo di cc per dargli quel boost in più...siamo onesti, chi voleva farsi una 5080 ormai l'ha già comprata e sarà una nicchia ristretta visti i prezzi, mettere solo i 6Gb di vram in più e basta chi dovrebbe convincere all'acquisto o al cambio?
Visto che te ne intendi, che tagli di cc potrebbero adottare per avere un senso anche lato performance tra i 10752 della 5080 e i 21760 della 5090? sui 13-14k?
Evilquantico
29-06-2025, 12:35
Ma non esce nessun chippone fallato della 5090 ? , così da tirare fuori una 5080ti che ne so con 16.000 cuda e 24gb di vram ? Illuminatemi
mikael84
29-06-2025, 12:47
Quoto, più che lavorare sulla vram e sul tdp non si può fare, i chp Blackwell ad oggi presenti non hanno margini per incrementare i CC in maniera marcata. :rolleyes:
Mi aspetto pure una 5060 super, in modo da pensionare 5060 ti 8gb/16gb...
E comunque se questi refresh vedranno la luce entro gennaio '26, significa che le rtx 50 ce le portiamo avanti fino al 2027...
La 5060 super, per avere un minimo di senso, andrebbe tagliata da GB205, come fatto per la 4070. Mettere solo 12gb non avrebbe tanto senso, considerando la variante da 16.
Si potrebbe levare un GPC, in modo da avere attivi 5120cc e 64 rop's, al msrp della 5060ti 16 (una 5070 light).
Riguardo i tempi, mediamente saremmo li. Nvidia è troppo impegnata con il progetto HPC Rubin, non solo, sta cominciando a lavorare anche su Feynman HPC, che darà vita alle 7000.
Al momento, non sappiamo neppure se vuole intraprendere la strada del MCM.
leggendo la notizia poco sopra, stavo pensando esattamente alla stessa cosa:
una 5080Ti a riempire quel buco enorme che c'è tra la 5080 e la 5090 sarebbe ottima, dato che solo i 24Gb la renderebbe un pò più longeva ma servirebbe anche un aumento significativo di cc per dargli quel boost in più...siamo onesti, chi voleva farsi una 5080 ormai l'ha già comprata e sarà una nicchia ristretta visti i prezzi, mettere solo i 6Gb di vram in più e basta chi dovrebbe convincere all'acquisto o al cambio?
Visto che te ne intendi, che tagli di cc potrebbero adottare per avere un senso anche lato performance tra i 10752 della 5080 e i 21760 della 5090? sui 13-14k?
Andrebbe benissimo il taglio della 4090, 16384cc e 384bit. In genere dipende dai fail che hanno a disposizione. Penso che, ora come ora, creare certi chip, possa andare ad interferire pure sui nuovi chip, dove onestamente non mi aspetto molto, senza considerare il vantaggioso rapporto costi di realizzo/margine che gli AIB mantengono con la 5090.
La 5090, volendo è già una 5080TI a sua volta, è distrutta.
https://i.postimg.cc/zfsNnvfh/5090.png
Cmq una 5080 da 24gb, allo stesso MSRP, non è poi tanto male, considerando che una eventuale 5080ti 24gb GB202, non te la darebbero mai a 999$
Evilquantico
29-06-2025, 13:15
La 5090, volendo è già una 5080TI a sua volta, e distrutta.
cut immagine
Potrebbe essere la 5090DD ? , stessi cuda della 5090 ma leggo 24 giga e 384 di bus , uscita agosto , potrebbe stare sui 1500 euro ?
mikael84
29-06-2025, 13:27
Potrebbe essere la 5090DD ? , stessi cuda della 5090 ma leggo 24 giga e 384 di bus , uscita agosto , potrebbe stare sui 1500 euro ?
Quella dovrebbe essere riservata al mercato cinese.
StylezZz`
29-06-2025, 14:35
Il 20% di poco è molto poco.
Leggete bene... Parliamo di MB a risoluzioni normali, stiamo parlando del nulla.
Eh infatti ho appena fatto una prova veloce con la 3070 su Horizon, CP77 ecc...nei punti dove saturava, e non è cambiato nulla :rolleyes:
Per carità le migliorie sono sempre ben accette, ma servirebbero Gigabyte di risparmio per risolvere il problema delle schede con 8GB, altro che MB!
Retro-PC-User-1
29-06-2025, 18:52
la vedete ancora lontana l'architettura con mem unificata su x86?
per quante gen avremo ancora gpu con vram separata dal resto del sistema?
Andrebbe benissimo il taglio della 4090, 16384cc e 384bit. In genere dipende dai fail che hanno a disposizione. Penso che, ora come ora, creare certi chip, possa andare ad interferire pure sui nuovi chip, dove onestamente non mi aspetto molto, senza considerare il vantaggioso rapporto costi di realizzo/margine che gli AIB mantengono con la 5090.
La 5090, volendo è già una 5080TI a sua volta, è distrutta.
https://i.postimg.cc/zfsNnvfh/5090.png
Cmq una 5080 da 24gb, allo stesso MSRP, non è poi tanto male, considerando che una eventuale 5080ti 24gb GB202, non te la darebbero mai a 999$
addirittura i cc di una 4090? Ipotizzavo un taglio sui 13-14k cc (vedi ad esempio i 14592 della 4090D nerfata) proprio per non dar troppo "fastidio" a alla prcedente top 4090 o avvicinarsi troppo alla 5090....mettendo già di principio in conto che anche se aumentano solo la vram non ci sarà mai lo steso MSRP a prescindere, figurati se lo fanno :sofico: ...preferirei avere 20Gb invece di 24Gb ma un pò di forza di calcolo in più per renderla davvero longeva.
Stesso discorso per la 5070Ti, non capisco che vantaggio ne trarrebbe da guadagnare un +50% di vram a parità di cc
AceGranger
30-06-2025, 08:26
addirittura i cc di una 4090? Ipotizzavo un taglio sui 13-14k cc (vedi ad esempio i 14592 della 4090D nerfata) proprio per non dar troppo "fastidio" a alla prcedente top 4090 o avvicinarsi troppo alla 5090....mettendo già di principio in conto che anche se aumentano solo la vram non ci sarà mai lo steso MSRP a prescindere, figurati se lo fanno :sofico: ...preferirei avere 20Gb invece di 24Gb ma un pò di forza di calcolo in più per renderla davvero longeva.
Stesso discorso per la 5070Ti, non capisco che vantaggio ne trarrebbe da guadagnare un +50% di vram a parità di cc
in gaming non saprei, ma diventerebbe un best buy per chi si occupa di GPGPU; 24 Gb di ram a un prezzo ottimo e con un buon numero di CC.
ninja750
30-06-2025, 08:45
https://videocardz.com/newz/nvidia-geforce-rtx-5070-super-reportedly-features-6400-cuda-cores-and-18gb-memory
https://videocardz.com/newz/nvidia-also-planning-geforce-rtx-5070-ti-super-with-24gb-gddr6-memory
A sto giro c'era poco margine per i refresh, se non la tripla. La 5070S è interessante in fascia medio -bassa, se manterrà gli stessi prezzi.
Ci poteva stare anche una 5080TI a 384bit, ma temo che possa creare conflitti alla serie 6000.
5070s con 18gb e 5070ti-s con 24gb sono una frustata alla schiena per chi le ha comprate con 12 e 16, invero più per i primi che per i secondi perchè la ti è già ottima così
sono curioso di vedere i primi rumour sulle 6000 se scaleranno di nuovo una fascia visto che cambieranno il PP per creare una 6070 con rapporto dal chip full da 6050, visto che con le 5000 si sono limitati a 70->60
e ovviamente il mostro 6090 che creerà un gap ancora più marcato con la 6080
OrazioOC
30-06-2025, 09:11
https://videocardz.com/newz/geforce-rtx-5050-to-launch-on-july-1st-according-to-amazon
@Mike direi di ampliare il thread delle 4060/5060 anche a lei. :)
Infatti mi sento un pò frustato avendo appena preso una 5070ti a 830€:cry:
Mi consola il fatto che non si sa quando usciranno ste super,quando si troveranno disponibili e a che prezzo...
La vedo dura però beccarle sotto i 1000...:rolleyes:
Queste sono le schede che dovevano uscire al D1... :rolleyes:
Comunque arriveranno a mio avviso ad inizio 2026, dati i cc praticamente uguali alle "vecchie" mi sa che le mandano in pensione.
18GB per la 5070S, e le altre Super??? 24 o 32GB ?
ahah altra scusa dopo il dlss per non ottimizzare giochi :read:
Predator_1982
30-06-2025, 10:47
e ovviamente il mostro 6090 che creerà un gap ancora più marcato con la 6080
del gap interessa il giusto, se creassero una 6080 capace di raggiungere (o tallonare) le prestazioni di una 5090, sarebbe già tantissima roba.
Si sa che le 90, oltre ad essere over priced sono anche over performed.
24 gb per la 5070 TI super è un pò lollica la cosa :asd:
Vanno bene per chi fa IA locale...
StylezZz`
30-06-2025, 10:52
24 gb per la 5070 TI super è un pò lollica la cosa :asd:
Vanno bene per chi fa IA locale...
Sicuramente oggi non servono a nulla per chi gioca, ma nel 2027 con le prossime console in uscita quei 18GB/24GB potrebbero rivelarsi utili.
mikael84
30-06-2025, 11:17
addirittura i cc di una 4090? Ipotizzavo un taglio sui 13-14k cc (vedi ad esempio i 14592 della 4090D nerfata) proprio per non dar troppo "fastidio" a alla prcedente top 4090 o avvicinarsi troppo alla 5090....mettendo già di principio in conto che anche se aumentano solo la vram non ci sarà mai lo steso MSRP a prescindere, figurati se lo fanno :sofico: ...preferirei avere 20Gb invece di 24Gb ma un pò di forza di calcolo in più per renderla davvero longeva.
13-14kcc significa letteralmente smontarlo, anche se alcuni scarti, sono stati tagliati proprio a 14k per la RTX5000, ma tarati a 300watt con l'EPS.
Con i GPC da 2k, l'ideale sarebbero appunto 16k cc, altrimenti, ti ritroveresti veramente il solo bus più ampio, in quanto quel chip è molto orientato al compute.
L'ideale sarebbe ricreare la 4090 con MFG e 28 gb/s di ram.
Stesso discorso per la 5070Ti, non capisco che vantaggio ne trarrebbe da guadagnare un +50% di vram a parità di cc
Considera che quel quantitativo ram è legato alle G7, e prima o poi, tutti i bus con ram G7 saranno da 3gb per modulo. Il famoso salto che tutti aspettavamo.
In ogni caso, non credere che siano totalmente inutili, soprattutto sulla 5080, anzi... tra res. mod. PT, alcuni giochi arrivano pure a sforarli tranquillamente.
5070s con 18gb e 5070ti-s con 24gb sono una frustata alla schiena per chi le ha comprate con 12 e 16, invero più per i primi che per i secondi perchè la ti è già ottima così
Vero, ma si sapeva già alla fine... le G7 prevedono i modulini da 3gb, ed era logico aspettarsi pure un refresh. Anche chi ha preso le 4070ti a 900-1000 inizialmente, si è trovato la 4070super a 600 euro.
Con questi tagli inoltre, non c'era molta manovra, se non utilizzare le full G7.
sono curioso di vedere i primi rumour sulle 6000 se scaleranno di nuovo una fascia visto che cambieranno il PP per creare una 6070 con rapporto dal chip full da 6050, visto che con le 5000 si sono limitati a 70->60
e ovviamente il mostro 6090 che creerà un gap ancora più marcato con la 6080
Con le 6000, bisognerà vedere il perf/watt. ma generalmente non mi aspetto chissà quale miracolo, soprattutto sulla fascia media- medio-bassa.
Il PP è un tantino migliore, ma lo è più che altro per ciò che riguarda la densità.
Dipenderà anche dal competitor, considerando che i chip, saranno tarati in modo simile, come sempre.
Sicuramente ci sarà una fascia monster a distinguersi.
https://videocardz.com/newz/geforce-rtx-5050-to-launch-on-july-1st-according-to-amazon
@Mike direi di ampliare il thread delle 4060/5060 anche a lei. :)
Fatto.
Evilquantico
30-06-2025, 11:17
Bah possono far uscire anche la 5070ti con 64 gb , ormai il donkey kong si è spostato su Rubin e le 60xx , e una scimmiettina su UDNA di amd stiamo a vedere
mikael84
30-06-2025, 11:36
del gap interessa il giusto, se creassero una 6080 capace di raggiungere (o tallonare) le prestazioni di una 5090, sarebbe già tantissima roba.
Si sa che le 90, oltre ad essere over priced sono anche over performed.
Questa 6080 per prendere la 5090, dovrebbe fare un 50% perf/watt. La vedo abbastanza difficile con quel nodo...
24 gb per la 5070 TI super è un pò lollica la cosa :asd:
Vanno bene per chi fa IA locale...
Mah insomma...
OrazioOC
30-06-2025, 11:37
https://videocardz.com/newz/msi-brings-back-gaming-series-for-geforce-xx50-class-gpu-rtx-5050-gaming-announced
ninja750
30-06-2025, 11:44
del gap interessa il giusto, se creassero una 6080 capace di raggiungere (o tallonare) le prestazioni di una 5090, sarebbe già tantissima roba.
con la 5080 che non arriva nemmeno (e di parecchio) alla 4090 hai voglia
se jensen userà nuovamente il contagocce una 6080 andrà +10% sulla 4090 che adesso si trova a -15%. l'unico incentivo che avrebbe per farla andare di più sarebbe avere il pepe della concorrenza che sicuramente non ci sarà visto che sarà la prima (beta?) iterazione di UDNA
Questa 6080 per prendere la 5090, dovrebbe fare un 50% perf/watt. La vedo abbastanza difficile con quel nodo...
Mah insomma...
infatti, ma poi appunto a che pro? abbiamo visto che nvidia sta progredendo il meno possibile perchè si sta arrivando all'osso dei PP e DEVONO per gli azionisti fare uscire schede nuove ogni 2 anni
mikael84
30-06-2025, 12:06
con la 5080 che non arriva nemmeno (e di parecchio) alla 4090 hai voglia
se jensen userà nuovamente il contagocce una 6080 andrà +10% sulla 4090 che adesso si trova a -15%. l'unico incentivo che avrebbe per farla andare di più sarebbe avere il pepe della concorrenza che sicuramente non ci sarà visto che sarà la prima (beta?) iterazione di UDNA
infatti, ma poi appunto a che pro? abbiamo visto che nvidia sta progredendo il meno possibile perchè si sta arrivando all'osso dei PP e DEVONO per gli azionisti fare uscire schede nuove ogni 2 anni
Diciamo che nvidia a sto giro, è rimasta completamente al palo a livello di PP. Ci saremmo aspettati l'uso delle celle HP (4np), e clock leggermente più alti, ma nulla di più.
Con le 6000 Rubin, si passerà ai 3nm (probabilmente enhanced non performance), quindi aumenterà la densità ed in parte il perf/watt. di conseguenza avrà più manovra per IPC, aumento cuda.
In ogni caso, nvidia, punterà sull'AI principalmente, vedi lo slogan 5070=4090 AI.
Iceman69
30-06-2025, 13:21
Diciamo che nvidia a sto giro, è rimasta completamente al palo a livello di PP. Ci saremmo aspettati l'uso delle celle HP (4np), e clock leggermente più alti, ma nulla di più.
Con le 6000 Rubin, si passerà ai 3nm (probabilmente enhanced non performance), quindi aumenterà la densità ed in parte il perf/watt. di conseguenza avrà più manovra per IPC, aumento cuda.
In ogni caso, nvidia, punterà sull'AI principalmente, vedi lo slogan 5070=4090 AI.
Speriamo nella 6000 allora, su di me lo slogan 5070=4090 AI ha avuto come unico effetto di farmi saltare la serie 5000, ed è la prima volta negli ultimi 30 anni che non compro il loro gingillo TOP di gamma al day one ... sono stati davvero convincenti complimenti.
ninja750
30-06-2025, 13:22
Con le 6000 Rubin, si passerà ai 3nm (probabilmente enhanced non performance), quindi aumenterà la densità ed in parte il perf/watt. di conseguenza avrà più manovra per IPC, aumento cuda.
che stampando da TSMC come amd, anche quest'ultima avrà gli stessi spazi di manovra anche se una finirà su N3E e l'altra no
In ogni caso, nvidia, punterà sull'AI principalmente, vedi lo slogan 5070=4090 AI.
quello ormai è scontato, ma se presenti un prodotto che già di suo permette salti di 30/40% per fascia alla gente frega il giusto quindi poco. e soprattutto ben rammata al d1
il vantaggio di nvidia contro la concorrenza in alto è talmente elevato che si potrebbe permettere per due gen di rebrandizzare quello che già c'è e rimanere competitivo
5090 = 6080
5080 = 6070
senza spendere un soldo in R&D
Anto_Dur
30-06-2025, 13:27
Speriamo nella 6000 allora, su di me lo slogan 5070=4090 AI ha avuto come unico effetto di farmi saltare la serie 5000, ed è la prima volta negli ultimi 30 anni che non compro il loro gingillo TOP di gamma al day one ... sono stati davvero convincenti complimenti.
Ho paura che sarà difficile trovare la serie 6000 con l'uscita di gta 6. Infatti io volevo aspettare ma mi sono preso la 5000 apposta per non dover aspettare tempi biblici nel caso.
Ma poi si sa il costo di queste super? Per sapere se sono consigliabili.
Predator_1982
30-06-2025, 13:46
che stampando da TSMC come amd, anche quest'ultima avrà gli stessi spazi di manovra anche se una finirà su N3E e l'altra no
quello ormai è scontato, ma se presenti un prodotto che già di suo permette salti di 30/40% per fascia alla gente frega il giusto quindi poco. e soprattutto ben rammata al d1
il vantaggio di nvidia contro la concorrenza in alto è talmente elevato che si potrebbe permettere per due gen di rebrandizzare quello che già c'è e rimanere competitivo
5090 = 6080
5080 = 6070
senza spendere un soldo in R&D
quello che dice Mikael è assolutamente vero, è più probabile che continueranno a pompare le prestazioni AI (quindi le tecnologia a contorno) spostando di fatto sempre più l'attenzione dalla potenza raster pura (tendenza che per altro ormai è confermata, visto l'andazzo).
Boh, vedremo cosa succederà. Volendo però guardare il lato positivo: chi a suo tempo comprò una 4090 può fare il salto quantico tranquillamente alla 6090, per poi star bene almeno fino all'uscita della serie 8000...
La longevità delle top di gamma sta aumentando, considerando che i giochi non è che tengono più di tanto il passo (frenati come sono dall'oscuro mondo console..).
In tutto ciò: AMD potrebbe anche ad un certo punto tirar fuori qualcosa di davvero competitivo a 360 gradi, non è più cosi improbabile.
ninja750
30-06-2025, 13:57
se parliamo delle 90 la longevità delle top gamma sta aumentando per questo motivo:
https://i.postimg.cc/c1Ygfdf0/long.png
troppo stacco dalle 80. una nuova 80 non può non prendere la vecchia 90
e la longevità delle 80 sta aumentando per questo motivo:
https://i.postimg.cc/c1Ygfdf0/long.png
stagnazione di segmento per riduzione di taglio cuda dal chip full
le speranze sono di una 6080 che prenda (e auspicabilmente superi) la 4090 quattro anni dopo in meno di 300w, ma a quanto serve una 6090 da altri tremila watt che faccia +30% sulla 5090?
se non alzi l'asticella della 80, anche 70 e 60 a seguire saranno in stagnazione come adesso
mikael84
30-06-2025, 15:37
Speriamo nella 6000 allora, su di me lo slogan 5070=4090 AI ha avuto come unico effetto di farmi saltare la serie 5000, ed è la prima volta negli ultimi 30 anni che non compro il loro gingillo TOP di gamma al day one ... sono stati davvero convincenti complimenti.
Questa gen. è ADA più un big chip del calibro tesla. Tralasciando la posizione di nvidia, il problema del PP è reale. Con quel PP. e perf/watt non puoi fare altrimenti.
In fascia enthusiast, salvo i cambi nodo devastanti, non ricordo salti davvero notevoli.
che stampando da TSMC come amd, anche quest'ultima avrà gli stessi spazi di manovra anche se una finirà su N3E e l'altra no
Avranno entrambe lo stesso spazio di manovra, abbandoneranno i 4nm per passare ai 3nm (5nm+).
quello ormai è scontato, ma se presenti un prodotto che già di suo permette salti di 30/40% per fascia alla gente frega il giusto quindi poco. e soprattutto ben rammata al d1
il vantaggio di nvidia contro la concorrenza in alto è talmente elevato che si potrebbe permettere per due gen di rebrandizzare quello che già c'è e rimanere competitivo
5090 = 6080
5080 = 6070
senza spendere un soldo in R&D
Beh dipende, lo si diceva pure di Intel... Nvidia per i PP, si è fermata quasi 3 gen. e se non fosse per il RT, AMD la pareggiava con RDNA2.
La differenza sta nei big chip, e sull'investire in monoliti.
A sto giro, è stata obbligata a fermarsi, come con turing, solo che li, il big chip precedente era da 471mm2/250watt, non 608mm2/450watt.
se parliamo delle 90 la longevità delle top gamma sta aumentando per questo motivo:
troppo stacco dalle 80. una nuova 80 non può non prendere la vecchia 90
e la longevità delle 80 sta aumentando per questo motivo:
stagnazione di segmento per riduzione di taglio cuda dal chip full
le speranze sono di una 6080 che prenda (e auspicabilmente superi) la 4090 quattro anni dopo in meno di 300w, ma a quanto serve una 6090 da altri tremila watt che faccia +30% sulla 5090?
se non alzi l'asticella della 80, anche 70 e 60 a seguire saranno in stagnazione come adesso
Anche qua, bisogna fare però un distinguo, non dobbiamo farci abbindolare dagli slogan, ma non dobbiamo neppure estromettere la parte AI.
Prendiamo ad esempio doom, se la 4090 fa 65/100 FG, la 5080 fa 60-90 + MFG, avremmo 5080 >4090.
E' un pò il discorso di ADA e le barre a 2,2x. Da una parte abbiamo 2 schede equivalenti, es: 3080ti - 4070 super, ma se una abilitando non perde quasi nulla con il DLSS4 e l'altra si perchè deve emularsi le FP8 e non ha FG, quest'ultima mi offrirà un'esperienza nettamente migliore.
OrazioOC
30-06-2025, 16:33
https://videocardz.com/newz/axgaming-launch-first-geforce-rtx-50-gpu-with-black-cooler-design-rtx-5050-x2b
OrazioOC
01-07-2025, 07:12
https://videocardz.com/newz/nvidias-next-major-gpu-driver-branch-to-drop-support-for-geforce-gtx-700-900-and-10-series
Anche qua, bisogna fare però un distinguo, non dobbiamo farci abbindolare dagli slogan, ma non dobbiamo neppure estromettere la parte AI.
Prendiamo ad esempio doom, se la 4090 fa 65/100 FG, la 5080 fa 60-90 + MFG, avremmo 5080 >4090.
E' un pò il discorso di ADA e le barre a 2,2x. Da una parte abbiamo 2 schede equivalenti, es: 3080ti - 4070 super, ma se una abilitando non perde quasi nulla con il DLSS4 e l'altra si perchè deve emularsi le FP8 e non ha FG, quest'ultima mi offrirà un'esperienza nettamente migliore.
Scusa Mikael, stai dicendo che se si abilita il dlss e fg e quindi si dà spazio ai tensor la serie 5000 batte le 4000 (a pari potenza)? Oppure è solo un confronto diretto con le 3000 relativo al fg e fp8?
Perché se così fosse a torto o ragione il fg è una variabile 3000 vs 4000, ma sul decadimento delle perf 4000 vs 5000 al netto del mfg non mi sembra che perdano più performance le ada a pari potenza. Ho interpretato male?
ninja750
01-07-2025, 08:30
https://videocardz.com/newz/nvidias-next-major-gpu-driver-branch-to-drop-support-for-geforce-gtx-700-900-and-10-series
1080ti users: it's safe to upgrade now
OrazioOC
01-07-2025, 08:43
780ti users: it's safe to upgrade now
Fixed. :O
mikael84
01-07-2025, 11:03
Scusa Mikael, stai dicendo che se si abilita il dlss e fg e quindi si dà spazio ai tensor la serie 5000 batte le 4000 (a pari potenza)? Oppure è solo un confronto diretto con le 3000 relativo al fg e fp8?
Perché se così fosse a torto o ragione il fg è una variabile 3000 vs 4000, ma sul decadimento delle perf 4000 vs 5000 al netto del mfg non mi sembra che perdano più performance le ada a pari potenza. Ho interpretato male?
Era riferito principalmente ad un discorso di tech, che spesso vengono estromesse.
Nell'esempio che ho fatto, da una parte abbiamo la 3080ti e dall'altra la 4070 super. Schede mediamente simili nelle comparative, ma abilitando il DLSS4, una perde una discreta percentuale, l'altra quasi nulla, ed in più ha il FG stock.
I 70 fps di una 4070s, scendono es: a 67 + FP 95, mentre i 70 fps di una 3080 scendono a 55-60 e stop.
In questo caso abbiamo una scheda di pari potenza che esegue un gioco in modo molto più fluido.
Ok, esiste anche il FG mod volendo (anche se non mi ha mai convinto del tutto), ma già abilitando il DLSS4, ampere perde terreno.
Lo stesso discorso si può fare tra serie 5 e serie 4. con MFG dove supportato bene e con buona latenza.
Ormai le schede, saranno sempre più spinte verso l'AI che verso la potenza bruta.
1080ti users: it's safe to upgrade now
Vabbè, malgrado siano ancora schede utilizzabili, vanno per i 10 anni.
Il brutto è quando la microarchitettura nuova, eclissa la vecchia di 2 anni, vedi appunto Kepler.
zanflank
01-07-2025, 12:08
La longevità delle top di gamma sta aumentando, considerando che i giochi non è che tengono più di tanto il passo (frenati come sono dall'oscuro mondo console..).
Personalmente è l'esatto contrario.
Anche se i muscoli li hanno vengono limitate dalla mancanza di feature della generazione successiva.
Ormai è più software che hardware la questione, quindi arrivare "dopo" oppure avere la feature fatta male oppure la penultima, è solo che deleterio.
Il silicio è quello, i salti non ci saranno più come in precedenza. Resteranno le feature e come si nota, sono limitate (non tutte eh) all'ultima serie (MFG).
Non ti vendono più il pezzo di hardware ma tutta la suite software
Evilquantico
01-07-2025, 12:32
Personalmente è l'esatto contrario.
Anche se i muscoli li hanno vengono limitate dalla mancanza di feature della generazione successiva.
Ormai è più software che hardware la questione, quindi arrivare "dopo" oppure avere la feature fatta male oppure la penultima, è solo che deleterio.
Il silicio è quello, i salti non ci saranno più come in precedenza. Resteranno le feature e come si nota, sono limitate (non tutte eh) all'ultima serie (MFG).
Non ti vendono più il pezzo di hardware ma tutta la suite software
Sarebbe carino a questo punto decidere quali software avere , nel senso per esempio a me di MFG4x non mi interessa niente , mi basta solo FG e DLSS ( 4 e futuro 5 per dire ) , mi vendi la scheda a prezzo base e io poi acquisto tramite driver il pacchetto IA software che mi interessa avere , magari anche con una prova di 7 giorni
zanflank
01-07-2025, 12:49
Sarebbe carino a questo punto decidere quali software avere , nel senso per esempio a me di MFG4x non mi interessa niente , mi basta solo FG e DLSS ( 4 e futuro 5 per dire ) , mi vendi la scheda a prezzo base e io poi acquisto tramite driver il pacchetto IA software che mi interessa avere , magari anche con una prova di 7 giorni
Non faranno questo ma un GeForce Now. L'abbonamento è ben più utile (paghi, consumi e ciao, zero pirateria e zero usato).
Tutte le software house enormi si stanno spostando su quello e l'interfaccia cloud dove i calcoli li fanno i loro server.
Parlo di MS, Autodesk e chi più ne ha ne metta. Lo vedo nel mio lavoro e credo punteranno a questo
bagnino89
01-07-2025, 13:00
Non faranno questo ma un GeForce Now. L'abbonamento è ben più utile (paghi, consumi e ciao, zero pirateria e zero usato).
Tutte le software house enormi si stanno spostando su quello e l'interfaccia cloud dove i calcoli li fanno i loro server.
Parlo di MS, Autodesk e chi più ne ha ne metta. Lo vedo nel mio lavoro e credo punteranno a questo
Esatto, il futuro è niente più hardware in locale per fare i calcoli. Diventerà tutto on demand su cloud.
Cutter90
01-07-2025, 13:04
Non faranno questo ma un GeForce Now. L'abbonamento è ben più utile (paghi, consumi e ciao, zero pirateria e zero usato).
Tutte le software house enormi si stanno spostando su quello e l'interfaccia cloud dove i calcoli li fanno i loro server.
Parlo di MS, Autodesk e chi più ne ha ne metta. Lo vedo nel mio lavoro e credo punteranno a questo
Esatto, il futuro è niente più hardware in locale per fare i calcoli. Diventerà tutto on demand su cloud.
Bella M....... Stai ai loro comodi, nulla è più tuo. Nonostante tu lo stia pagando.
Lato gaming quando u8sciranno TUTTI i giochi al d1 e resteranno epr sempre su UNA piattaforma, allora sarò interessato. Fino ad allora.....
Sta cosa degli abbonamenti io la regolamenterei.
bagnino89
01-07-2025, 13:07
Bella M....... Stai ai loro comodi, nulla è più tuo. Nonostante tu lo stia pagando.
Lato gaming quando u8sciranno TUTTI i giochi al d1 e resteranno epr sempre su UNA piattaforma, allora sarò interessato. Fino ad allora.....
Sta cosa degli abbonamenti io la regolamenterei.
Non è già così oggi ovunque?
Se Steam fallisce, che succede? Ti salvi da qualche parte TB di librerie?
Si spera solo che ci siano servizi concorrenti...
Cutter90
01-07-2025, 13:15
Non è già così oggi ovunque?
Se Steam fallisce, che succede? Ti salvi da qualche parte TB di librerie?
Si spera solo che ci siano servizi concorrenti...
Steam è ben lontano dall'essere un abbonamento. E le possibilità che steam fallisca sono a dir poco remote.
E, anche nel caso fallisse, ci sono, per fortuna tantissime copie pirata che diventano una vera e propria "preziosa" raccolta del medium.
mikael84
01-07-2025, 13:36
Sarebbe carino a questo punto decidere quali software avere , nel senso per esempio a me di MFG4x non mi interessa niente , mi basta solo FG e DLSS ( 4 e futuro 5 per dire ) , mi vendi la scheda a prezzo base e io poi acquisto tramite driver il pacchetto IA software che mi interessa avere , magari anche con una prova di 7 giorni
Ma non è che nvidia ti vende il software, nvidia (o amd) ti vende l'hardware.
I tensor core sono pipeline hardware complesse. Se io integro in hardware pipeline molto dense di transistor che mi costano varia area, perchè dovrei disabilitare funzioni e fartele pagare di meno?
Ad esempio, il DLSS4 o FSR4, lo sfrutti grazie a potenti matrici FP8, non a caso AD104 (4070s) ha il 30% in più di transistor rispetto a GA102 (3090ti), o Navi44 (9060xt) ha più transistor di navi32 (7800xt).
Non è già così oggi ovunque?
Se Steam fallisce, che succede? Ti salvi da qualche parte TB di librerie?
Si spera solo che ci siano servizi concorrenti...
Su GOG infatti i giochi permettono il download degli installer offline, e sono perfettamente avviabili. Potendo io cerco sempre prima il titolo su GOG, poi se non c'è va bene anche Steam. Solo che su Steam per fare una vopia di backup devi prima installare il titolo. Su GOG non è necessario.
Cutter90
01-07-2025, 14:07
Sarebbe carino a questo punto decidere quali software avere , nel senso per esempio a me di MFG4x non mi interessa niente , mi basta solo FG e DLSS ( 4 e futuro 5 per dire ) , mi vendi la scheda a prezzo base e io poi acquisto tramite driver il pacchetto IA software che mi interessa avere , magari anche con una prova di 7 giorni
Seee sogna sogna. Anche a me mi interessa la F1, eppure mi devo cuccare tutto lo sport di sky......
AceGranger
01-07-2025, 14:53
Sarebbe carino a questo punto decidere quali software avere , nel senso per esempio a me di MFG4x non mi interessa niente , mi basta solo FG e DLSS ( 4 e futuro 5 per dire ) , mi vendi la scheda a prezzo base e io poi acquisto tramite driver il pacchetto IA software che mi interessa avere , magari anche con una prova di 7 giorni
finirebbe solo che tu pagheresti la GPU uguale e poi a parte pagheresti di piu per avere il resto :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.