View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Legolas84
09-10-2022, 17:36
Ma quindi la 7900XT sarà quella che andrà circa come la 4080 16gb?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Mallardo
09-10-2022, 18:02
Ma quindi la 7900XT sarà quella che andrà circa come la 4080 16gb?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Questa volta sarà più difficile fare paragoni, tra dlss3, RT, raster ecc. le variabili iniziano ad essere diverse. Possibile che questa volta si dovrà scegliere in base ai titoli che si giocano maggiormente, prezzi permettendo...
scorpion73
09-10-2022, 18:05
Obbiettivamente già la 7800xt di navi32 con poca spesa (200mm2 di core a 5nm, 140nm di collegamenti-cache a 6), può battere la 4080 16.
Bisogna vedere come si posizionano in ray tracing perché in raster è decisamente probabile che vadano di più
Ma la scheda secondo me va valutata complessivamente.
Se quelli sono i watt richiesti realmente siamo sicuramente meglio di nvidia ma il dubbio per le amd è tutto il ray tracing. Se va bene quello è piazzano la 7900xt con un prezzo abbordabile secondo me a sto giro rischiano seriamente di fare il colpaccio visto i prezzi folli di nvidia.
Sempre che poi ovviamente non si sbrodolino coi drivers.
Inviato dal mio iPhone utilizzando Tapatalk
Iceman69
09-10-2022, 18:17
Bisogna vedere come si posizionano in ray tracing perché in raster è decisamente probabile che vadano di più
Ma la scheda secondo me va valutata complessivamente.
Se quelli sono i watt richiesti realmente siamo sicuramente meglio di nvidia ma il dubbio per le amd è tutto il ray tracing. Se va bene quello è piazzano la 7900xt con un prezzo abbordabile secondo me a sto giro rischiano seriamente di fare il colpaccio visto i prezzi folli di nvidia.
Sempre che poi ovviamente non si sbrodolino coi drivers.
Inviato dal mio iPhone utilizzando Tapatalk
Cosa ti fa pensare che se faranno una scheda che va meglio non la vendano a prezzi più alti di Nvidia, driver a parte?
Ormai AMD con i processori sta al pari di Intel per il rapporto prezzo/prestazioni, farà lo stesso con le schede video vedrai...
Ma quindi la 7900XT sarà quella che andrà circa come la 4080 16gb?
Inviato dal mio iPhone utilizzando Tapatalk Pro
In raster è lecito supporre che sia la 7800xt ad andare come 4080 16GB.
La 7700XT in teoria dovrebbe andare poco meno di una 6900xt o comunque giocarsela, quindi si andrebbe ad affiancare alle AD104 (4070-4080 12GB).
7900xt e 7950XT invece dovrebbero vedersela con AD102.
Però ci sono molte incognite riguardo il RT, e i benefici del DLSS3 nei casi limite... Quindi bisogna aspettare rumors più concreti.
Cosa ti fa pensare che se faranno una scheda che va meglio non la vendano a prezzi più alti di Nvidia, driver a parte?
Ormai AMD con i processori sta al pari di Intel per il rapporto prezzo/prestazioni, farà lo stesso con le schede video vedrai...
Si ma in ambito cpu ha un vantaggio tecnologico di nanometria, quindi è in una posizione dominante.
Cosa ben diversa in ambito GPU, dove non ha attualmente tecnologie al pari del DLSS3 e anche lato RT c'è un gap che si spera venga risolto al prossimo step.
In RT le RDNA2 vanno persino peggio delle Intel, il che è tutto dire...
mikael84
09-10-2022, 18:23
io spero che lasci i prezzi delle vecchie .
tipo 699 dollari mi pare fosse la 6800xt.
disponibilità di slot ce n'è e costare gli costano il giusto, non ha molte scuse stavolta
sarebbero 800-900 euro
poi vabbè lisa farà come crede, così vedremo se realmente è interessata a recuperare quote oppure no
Onestamente, non avrebbe neppure senso mettere una 7950xt al prezzo della 4090. Una è una scheda più costosa semi pro (es blender), con tensor core adatti anche ad altri utilizzi.
Se piazza la 7950xt come la 4090 è molto più strozzina lei di JHH, visto che non stai presentando lo stesso prodotto.
Quindi qua JHH sa che ci farà margine concreto.
Per le schede inferiori, bisogna vedere, AMD dovrà proporre per forza un prezzo più aggressivo, oppure un'alternativa concreta, perchè se piazzi la 7950xt quanto la 4080 16, può dire la sua nel raster e di gran lunga.
Da vedere anche i listini a mercato.
JHH avrà messo in conto di venderne di meno ma con più profitto, ed ora come ora, potrebbe essere una scelta voluta, ovvero ne vendo 1000 anzichè 2000 a metà prezzo, poi assesterà tutto dopo il CES.
Ma quindi la 7900XT sarà quella che andrà circa come la 4080 16gb?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Lato raster andrà abbastanza di più, è roba per AD102.
Già la 7800xt è in grado di fare + 50 perf/watt rispetto alle 6900
mikael84
09-10-2022, 18:30
Bisogna vedere come si posizionano in ray tracing perché in raster è decisamente probabile che vadano di più
Ma la scheda secondo me va valutata complessivamente.
Se quelli sono i watt richiesti realmente siamo sicuramente meglio di nvidia ma il dubbio per le amd è tutto il ray tracing. Se va bene quello è piazzano la 7900xt con un prezzo abbordabile secondo me a sto giro rischiano seriamente di fare il colpaccio visto i prezzi folli di nvidia.
Sempre che poi ovviamente non si sbrodolino coi drivers.
Inviato dal mio iPhone utilizzando Tapatalk
In RT se non mette unità dedicate per BVH, difficilmente potrà pareggiare nvidia, però potrebbe usufruire della potenza bruta della GPU.
Se ti mette una GPU simil 4090 raster, contro la 4080 16, beh, li bisogna fare alcuni ragionamenti su cosa è meglio scegliere. L'eventuale gap, verrebbe in parte coperto.
Cosa ti fa pensare che se faranno una scheda che va meglio non la vendano a prezzi più alti di Nvidia, driver a parte?
Ormai AMD con i processori sta al pari di Intel per il rapporto prezzo/prestazioni, farà lo stesso con le schede video vedrai...
Diciamo che qua è diverso, se metti una 7950xt a 1599 o 1499$, sei peggio di lui. Tralasciando il DLSS3, che cmq andrà pesato, il RT, la 4090 è una scheda semi pro, per usi tipo blender.
Non sono offerte equivalenti.
Iceman69
09-10-2022, 18:31
JHH avrà messo in conto di venderne di meno ma con più profitto, ed ora come ora, potrebbe essere una scelta voluta, ovvero ne vendo 1000 anzichè 2000 a metà prezzo, poi assesterà tutto dopo il CES.
0
Non so, guardando qua e là sembra ne abbiano a disposizione parecchie i vari shop, di sicuro i primi giorni ci proveranno a fare prezzi da paura, ma se, come immagino, la domanda non sarà come quella del periodo covid (e minatori) tutto rientrerà per Natale.
Tutto si deciderà nelle prime due settimane di vendite secondo me, anche gli scalper staranno alla finestra a questo giro, il rischio di rimanere con la patata bollente in mano è alto.
Legolas84
09-10-2022, 18:44
Bo ma quindi in raster avremo che AMD va di più a pari watt? Ahiahiahi caro jensen :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
09-10-2022, 18:46
Non so, guardando qua e là sembra ne abbiano a disposizione parecchie i vari shop, di sicuro i primi giorni ci proveranno a fare prezzi da paura, ma se, come immagino, la domanda non sarà come quella del periodo covid (e minatori) tutto rientrerà per Natale.
Tutto si deciderà nelle prime due settimane di vendite secondo me, anche gli scalper staranno alla finestra a questo giro, il rischio di rimanere con la patata bollente in mano è alto.
Infatti non potrà andare avanti in eterno, la 3090ti è li che insegna. Al momento vuole fare più margine possibile con la 4090. Ha messo le 4080 (che fa ridere solo a chiamarle 4080) sconvenienti per indirizzare tutti li nel primo periodo.
Dopo chi comprerà le 4080 ci sarà, anche in minor numero ma con più margine per lui e gli AIB.
La 4080 degli AIB quella da 12, sembra quasi un contentino per far marginare qualcosa pure a loro, visto che stanno colassando.
Dopo il CES di gennaio, quando entrambi i produttori avranno tirato tutte le loro schede, la situazione in base al mercato cambierà, con vari refresh, come ad esempio, l'introduzione della 4080ti, che magari soppianterà la 4080 16.
Con il cambio è tutto un problema.
Se anche ti fa 799, sei sui 1000 euro per una 7800Dipende anche dalle aziende, basta guardare i prezzi dollaro/euro dei nuovi pixel annunciati due giorni fa.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Predator_1982
09-10-2022, 19:14
Secondo me gli scalper ci proveranno anche stavolta :) al massimo la rivendono ad uguale di prima che gli costa.
difficile, loro non ti danno garanzia. Più probabile ci saranno pochi pezzi e tutti presi d'assalto...con poi una attesa medio lunga per il restock
Intanto...non vedo l'ora di leggere le review delle 4090 tra 2 giorni. E' li che capirò se poter ingabbiare il T-Rex o liberarlo
Ale55andr0
09-10-2022, 19:22
Cosa ti fa pensare che se faranno una scheda che va meglio non la vendano a prezzi più alti di Nvidia, driver a parte?
forse il fatto che a quote di mercato stanno tipo 20/80?
Jeetkundo
09-10-2022, 19:27
difficile, loro non ti danno garanzia. Più probabile ci saranno pochi pezzi e tutti presi d'assalto...con poi una attesa medio lunga per il restock
Intanto...non vedo l'ora di leggere le review delle 4090 tra 2 giorni. E' li che capirò se poter ingabbiare il T-Rex o liberarloQuindi le recensioni escono martedì 11? Sai anche a che ora?
Inviato dal mio LYA-L09 utilizzando Tapatalk
Predator_1982
09-10-2022, 19:33
Quindi le recensioni escono martedì 11? Sai anche a che ora?
Inviato dal mio LYA-L09 utilizzando Tapatalk
non so dirti, ma suppongo entro pomeriggio
Iceman69
09-10-2022, 19:43
forse il fatto che a quote di mercato stanno tipo 20/80?
Il recupero delle quote di mercato non sembra essere stato l'obiettivo di AMD neanche durante la pandemia quando poteva usare la leva prezzo senza perderci.
In realtà cercano tutti di vendere al prezzo più alto che possono. Non si faranno di certo una guerra dei prezzi, converrebbe a noi, ma non a loro, si saranno già messi d'accordo.
scorpion73
09-10-2022, 20:32
Cosa ti fa pensare che se faranno una scheda che va meglio non la vendano a prezzi più alti di Nvidia, driver a parte?
Ormai AMD con i processori sta al pari di Intel per il rapporto prezzo/prestazioni, farà lo stesso con le schede video vedrai...
Nulla. È solo la speranza che almeno loro capiscano che il momento non è più di quelli floridi per la gente comune e che si diano quella regolata che giacchetta non vuol darsi. E la voglia che giacchetta prenda con le nuove schede una dentata per tutta quella arroganza che mostra
Inviato dal mio iPhone utilizzando Tapatalk
Amd ha perso il 14% in borsa...deve rientrare nei conti a strettissimo giro.
Devono calcolare benissimo il prezzo.
Sarà interessante vedere questa battaglia in un momento storicamente difficile per entrambe le aziende (-50% ytd).
Ci sarà da divertirsi
fraussantin
09-10-2022, 20:40
Amd ha perso il 14% in borsa...deve rientrare nei conti a strettissimo giro.
Devono calcolare benissimo il prezzo.
Sarà interessante vedere questa battaglia in un momento storicamente difficile per entrambe le aziende (-50% ytd).
Ci sarà da divertirsiUn po di calo dopo il periodo di follie è fisiologico , ma potrebbe diventare pericoloso.
con quei costi di piattaforma non penso che i processori andranno a ruba.
Tra l'altro ci sarà anche confusione 7900 cpu o gpu ? Le han chiamate uguali
Detto questo da gamer e appassionato spero che sia ad amd che ad nvidia gli rimangano tutte sul groppone.
lo giocherai nel 2042, con una RTX 15.090 o giù di li' :asd:
No, non lo giocherò. La mia aspettativa di vita arriva a un anno, non di più. Non credo che in un anno uscirà.
mattxx88
09-10-2022, 20:57
No, non lo giocherò. La mia aspettativa di vita arriva a un anno, non di più. Non credo che in un anno uscirà.
?? in che senso?
Marcellator
09-10-2022, 21:09
Quindi le recensioni escono martedì 11? Sai anche a che ora?
Inviato dal mio LYA-L09 utilizzando Tapatalk
I prodigeek hanno detto che la loro recensione verrà fuori alle 15 le altre non so
Marcellator
09-10-2022, 21:12
difficile, loro non ti danno garanzia. Più probabile ci saranno pochi pezzi e tutti presi d'assalto...con poi una attesa medio lunga per il restock
Intanto...non vedo l'ora di leggere le review delle 4090 tra 2 giorni. E' li che capirò se poter ingabbiare il T-Rex o liberarlo
Io mi aspetto che gli scalper potrebbero essere un problema negli stati uniti ma in Europa col costo del dollaro non credo gli converrebbe
I prodigeek hanno detto che la loro recensione verrà fuori alle 15 le altre non so
Perchè esattamente alle 15 italiane scade l'embargo.
bonzoxxx
09-10-2022, 21:28
No, non lo giocherò. La mia aspettativa di vita arriva a un anno, non di più. Non credo che in un anno uscirà.
Oh mica starai scherzando..
mikael84
09-10-2022, 21:39
Nulla. È solo la speranza che almeno loro capiscano che il momento non è più di quelli floridi per la gente comune e che si diano quella regolata che giacchetta non vuol darsi. E la voglia che giacchetta prenda con le nuove schede una dentata per tutta quella arroganza che mostra
Inviato dal mio iPhone utilizzando Tapatalk
Beh cmq, AMD non può competere con una scheda prosumer come la 4090, lo può fare in raster, magari anche poco meglio, ma non certo per gli ambiti pro a cui è rivolta.
Considerando che le custom stanno ben sopra i 2000 euro, deve almeno farla trovare pronta a 1500, e sotto a scalare.
Cmq i prezzi di AMD sulle GPU stanno crollando, la 6800xt, gran bella scheda, sta appena a 600 euro, JHH ha ancora le manli 3070 a quei prezzi.
Di questo passo, diventerà una delle mie serie candidate.
No, non lo giocherò. La mia aspettativa di vita arriva a un anno, non di più. Non credo che in un anno uscirà.
?? in che senso?
:confused: :confused:
Un po di calo dopo il periodo di follie è fisiologico , ma potrebbe diventare pericoloso.
con quei costi di piattaforma non penso che i processori andranno a ruba.
Tra l'altro ci sarà anche confusione 7900 cpu o gpu ? Le han chiamate uguali
Detto questo da gamer e appassionato spero che sia ad amd che ad nvidia gli rimangano tutte sul groppone.
Sulle CPU ha la concorrenza in casa stesso, chi è che va a spendere 1000 euro per un 7600x... 5700x e via.
Thunder-74
09-10-2022, 21:49
No, non lo giocherò. La mia aspettativa di vita arriva a un anno, non di più. Non credo che in un anno uscirà.
Che minchia dici?
Inviato dal mio iPad utilizzando Tapatalk
fraussantin
09-10-2022, 21:58
No, non lo giocherò. La mia aspettativa di vita arriva a un anno, non di più. Non credo che in un anno uscirà.??
Legolas84
09-10-2022, 22:02
Mikael, sembra un po come dire: se la scheda ti serve anche in ambito pro allora hanno un senso i soldi e i consumi delle GeForce, invece se sei uno come la maggior parte qui che la scheda la usa per multimedia / giochi allora il futuro è con AMD?
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
09-10-2022, 22:15
Mikael, sembra un po come dire: se la scheda ti serve anche in ambito pro allora hanno un senso i soldi e i consumi delle GeForce, invece se sei uno come la maggior parte qui che la scheda la usa per multimedia / giochi allora il futuro è con AMD?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Non proprio, ma considera che le schede sono pensate principalmente per il mercato pro, che è una buona fetta, con dei ricicli importanti come i tensor core delle vecchie HPC. Per dire la 4090 monta i tensor di A100, il bestione HPC tesla.
Le doppie FP servono proprio per programmi pro, come blender, o le fp16 via matrice.
Quindi non puoi prezzarmi una scheda puramente gaming allo stesso prezzo della 4090, pur con costi di sviluppo più bassi.
Lo sono anche le 4080 , 70, ma di certo non le prenderebbe un pro, vista la ram.
Non avrebbe alcun senso mettere una simil 4090, in una fascia di prezzo da 4090, a meno che non si dimostri nettamente più veloce, allora un gamer valuta.
Scusate, in effetti mi è uscita male.
Intendevo dire che non faccio progetti che vanno al di là dell'anno, quindi non considero nulla che vada oltre.
Comunque non ci faccio molto affidamento.
Scusate, brutta esperienza di recente. :stordita:
bonzoxxx
09-10-2022, 22:29
Scusate, in effetti mi è uscita male.
Intendevo dire che non faccio progetti che vanno al di là dell'anno, quindi non considero nulla che vada oltre.
Comunque non ci faccio molto affidamento.
Scusate, brutta esperienza di recente. :stordita:
Ziocan ci hai fatto prendere un colpo!
Thunder-74
09-10-2022, 22:39
Scusate, in effetti mi è uscita male.
Intendevo dire che non faccio progetti che vanno al di là dell'anno, quindi non considero nulla che vada oltre.
Comunque non ci faccio molto affidamento.
Scusate, brutta esperienza di recente. :stordita:
Mi dispiace per la brutta esperienza, però ci hai lasciato con il fiato sospeso … fiuuu .
Iceman69
09-10-2022, 22:55
Nulla. È solo la speranza che almeno loro capiscano che il momento non è più di quelli floridi per la gente comune e che si diano quella regolata che giacchetta non vuol darsi. E la voglia che giacchetta prenda con le nuove schede una dentata per tutta quella arroganza che mostra
Inviato dal mio iPhone utilizzando Tapatalk
Su questo mi trovi d'accordissimo, io dubito che i prezzi resteranno alti, a parte i primi giorni.
Comunque i più scandalosi non sono quelli di Nvidia, alla fine il prezzo è solo 100 dollari più alto, gli scandalosi sono i nostri rivenditori italiani, quelli tipo il dragone che più che draghi sembrano avvoltoi che si approfittano degli inscimmiati sparando prezzi il 10% più alti del dovuto.
Predator_1982
09-10-2022, 23:00
Non proprio, ma considera che le schede sono pensate principalmente per il mercato pro, che è una buona fetta, con dei ricicli importanti come i tensor core delle vecchie HPC. Per dire la 4090 monta i tensor di A100, il bestione HPC tesla.
Le doppie FP servono proprio per programmi pro, come blender, o le fp16 via matrice.
Quindi non puoi prezzarmi una scheda puramente gaming allo stesso prezzo della 4090, pur con costi di sviluppo più bassi.
Lo sono anche le 4080 , 70, ma di certo non le prenderebbe un pro, vista la ram.
Non avrebbe alcun senso mettere una simil 4090, in una fascia di prezzo da 4090, a meno che non si dimostri nettamente più veloce, allora un gamer valuta.
Son d’accordo, ma per quanto concerne AMD se non tira fuori qualcosa di valido anche in RT e una tecnologia simil DLSS non potrò mai considerarla come reale alternativa
SnobWatch
09-10-2022, 23:01
Su questo mi trovi d'accordissimo, io dubito che i prezzi resteranno alti, a parte i primi giorni.
Comunque i più scandalosi non sono quelli di Nvidia, alla fine il prezzo è solo 100 dollari più alto, gli scandalosi sono i nostri rivenditori italiani, quelli tipo il dragone che più che draghi sembrano avvoltoi che si approfittano degli inscimmiati sparando prezzi il 10% più alti del dovuto.
Il dragone è da bandire come la peste.
Prendono i preordini per bloccarti a loro, dopo che hai aspettato quando arriva la scheda ti fanno la sorpresa dicendoti che il prezzo è aumentato.
Statene alla larga.
Son d’accordo, ma per quanto concerne AMD se non tira fuori qualcosa di valido anche in RT e una tecnologia simil DLSS non potrò mai considerarla come reale alternativa
Curiosità, ma per simil DLSS intendi come il DLSS3 o qualcosa che usi un equivalente dei tensor core? Perché FSR 2.1 esiste :confused:
Predator_1982
09-10-2022, 23:19
Curiosità, ma per simil DLSS intendi come il DLSS3 o qualcosa che usi un equivalente dei tensor core? Perché FSR 2.1 esiste :confused:
Esiste ma funziona diversamente, in prospettiva credo che l’accelerazione via tensor sarà il punto di svolta per le prestazioni grafiche, la sola potenza bruta di una gpu non è più sostenibile
albero77
09-10-2022, 23:20
Su questo mi trovi d'accordissimo, io dubito che i prezzi resteranno alti, a parte i primi giorni.
Comunque i più scandalosi non sono quelli di Nvidia, alla fine il prezzo è solo 100 dollari più alto, gli scandalosi sono i nostri rivenditori italiani, quelli tipo il dragone che più che draghi sembrano avvoltoi che si approfittano degli inscimmiati sparando prezzi il 10% più alti del dovuto.
Perdonami ma i commercianti sono commercianti e lo sappiamo, io caso mai non giustifico chi a fronte di determinate strategie commerciali acquista comunque...
StrixyRoG
09-10-2022, 23:28
Su questo mi trovi d'accordissimo, io dubito che i prezzi resteranno alti, a parte i primi giorni.
Comunque i più scandalosi non sono quelli di Nvidia, alla fine il prezzo è solo 100 dollari più alto, gli scandalosi sono i nostri rivenditori italiani, quelli tipo il dragone che più che draghi sembrano avvoltoi che si approfittano degli inscimmiati sparando prezzi il 10% più alti del dovuto.
Alla fine è sempre il solito discorso, nessuno ha la pistola puntata alla testa e non sono beni essenziali. Il problema non è mai di chi vende.
mikael84
10-10-2022, 00:01
Su questo mi trovi d'accordissimo, io dubito che i prezzi resteranno alti, a parte i primi giorni.
Comunque i più scandalosi non sono quelli di Nvidia, alla fine il prezzo è solo 100 dollari più alto, gli scandalosi sono i nostri rivenditori italiani, quelli tipo il dragone che più che draghi sembrano avvoltoi che si approfittano degli inscimmiati sparando prezzi il 10% più alti del dovuto.
Infatti, la 4090 smonta proprio JHH sui costi di produzione, considerando che è il vero chip che risente in parte dei costi. Il problema cmq, in questa fascia sono cambio e gli avvoltoi. Già chiedere 2500 euro per una PNY pre lancio.
Son d’accordo, ma per quanto concerne AMD se non tira fuori qualcosa di valido anche in RT e una tecnologia simil DLSS non potrò mai considerarla come reale alternativa
Senza unità native BVH, dubito fortemente possa pareggiare nvidia. Bravo invece Koduri con Intel su questo campo.
Il DLSS3 lo avrà solo nvidia al momento, e qua dipenderà da quanta potenza a livello di matrici servirà, attualmente la potenza dei tensor core via DLSS è quasi nulla.:)
amon.akira
10-10-2022, 01:09
Infatti, la 4090 smonta proprio JHH sui costi di produzione, considerando che è il vero chip che risente in parte dei costi. Il problema cmq, in questa fascia sono cambio e gli avvoltoi. Già chiedere 2500 euro per una PNY pre lancio.
Senza unità native BVH, dubito fortemente possa pareggiare nvidia. Bravo invece Koduri con Intel su questo campo.
Il DLSS3 lo avrà solo nvidia al momento, e qua dipenderà da quanta potenza a livello di matrici servirà, attualmente la potenza dei tensor core via DLSS è quasi nulla.:)
ho paura che la prima sia legata alla seconda...però come dicevi in un altro post, magari di forza bruta cmq ribilancia il tutto, poi il resto lo farà il prezzo...e li capiremo pure se sono veramente imparentati :p
mikael84
10-10-2022, 02:13
ho paura che la prima sia legata alla seconda...però come dicevi in un altro post, magari di forza bruta cmq ribilancia il tutto, poi il resto lo farà il prezzo...e li capiremo pure se sono veramente imparentati :p
Collaborano. JHH ha pure ammesso che, ad esempio, con Intel, condivide tutta la sua roadmap. Ha sottolineato però, che, nonostante tutto si fanno concorrenza.
Sulla forza bruta, difficile pareggiare una scheda pro e tutto il suo ecosistema pro, non avrebbe senso. Non basterebbe il +10 ipotetico raster.:)
Infatti AMD per quel campo, vorrebbe fare un MCM per arrivare a 16000 e passa shader.
AMD però ha le sue carte sotto, esempio qua. La 4070, pardon, 4080 16, dovrebbe arrivare a circa 134-135% prendendo quei giochi di media, solo raster.
Una 7800xt (navi32) a 300watt con oltre +50% perf/watt, potrebbe fare quanto dichiarato. Già con il 50% in più di ALU, può prendere il 30%, più il clock abbastanza superiore.
Ipoteticamente potrebbe arrivare anche a 2x flops, e spingersi sino al 60%, salvo le latenze MCM.
Però, nvidia avrebbe RT e DLSS3, la leva di nvidia.:)
Dopo, su navi 31, avrà il 40 ed il 60% in più di shader sulla uber.
Nvidia tra 4080 16 e 4090 lascia il 70%, circa 35-40%
https://www.hwupgrade.it/articoli/6303/media_6950xt.png
In RT però c'è da recuperare abbastanza, considerando anche i giochi favorevoli di sole ombre.
https://i.postimg.cc/0N2btcBL/rt.png
amon.akira
10-10-2022, 03:52
Sulla forza bruta, difficile pareggiare una scheda pro e tutto il suo ecosistema pro, non avrebbe senso. Non basterebbe il +10 ipotetico raster.:)
intendevo navi 31 vs x80 16gb price/perf rt...si ovvio la 4090 è oltre
fraussantin
10-10-2022, 06:30
Su questo mi trovi d'accordissimo, io dubito che i prezzi resteranno alti, a parte i primi giorni.
Comunque i più scandalosi non sono quelli di Nvidia, alla fine il prezzo è solo 100 dollari più alto, gli scandalosi sono i nostri rivenditori italiani, quelli tipo il dragone che più che draghi sembrano avvoltoi che si approfittano degli inscimmiati sparando prezzi il 10% più alti del dovuto.Gli scandalosi sono nvidia perche a +100 sulla 3080, ti danno una 4060ti a 12 giga spinta da nuove tecnologie.
Se già a 799 $\1100 euro ci fosse stato un cut della 4090 sarebbe stato diverso .
I prezzi retail in Italia lo sappiamo che sono soggetti a più passaggi fra distributori e commercianti.
Al netto dei comportamenti commercialmente scorretti del drago, tipo chiedere acconti su prodotti con listini ballerini.
Iceman69
10-10-2022, 07:15
Alla fine è sempre il solito discorso, nessuno ha la pistola puntata alla testa e non sono beni essenziali. Il problema non è mai di chi vende.
Certo, infatti dal drago si comprano solo le cose su cui ha prezzi decenti, in genere quelle da pochi euro, peró trovo comunque il loro comportamento molto scorretto. Non trovo invece così scandalosa Nvidia, parlo della 4090 (le altre non sono acquistabili per me), 100 dollari in più per una scheda che va 80% più veloce é accettabile per me, il fatto che l'euro abbia perso sul dollaro non è certo responsabilità di Nvidia ne degli AIB.
Per me i rivenditori come il dragone e gli altri sono solo degli approfittatori, degli scalper legalizzati, oltretutto trovo incredibile che in Italia i vari AIB non presentino dei listini ufficiali, che benchè non vincolanti almeno ti diano un'idea di quanto ti stanno inc...ando.
In America i prezzi "consigliati" sono già ben chiari per molti produttori, in Italia no, chissà come mai.
Siete tutti già pronti alla battaglia di dopodomani? :D :D :D :D :D
Io mi sono già attrezzato con account e metodi di pagamento :D :D :D :D
Scusate, in effetti mi è uscita male.
Intendevo dire che non faccio progetti che vanno al di là dell'anno, quindi non considero nulla che vada oltre.
Comunque non ci faccio molto affidamento.
Scusate, brutta esperienza di recente. :stordita:
Ma che cazz...meno male va mi hai fatto fare mille voli pindarici.:D
Siete tutti già pronti alla battaglia di dopodomani? :D :D :D :D :D
Io mi sono già attrezzato con account e metodi di pagamento :D :D :D :D
No, ma ho già tutta una lista di bench da farti fare appena ti arriva :D
Ma che cazz...meno male va mi hai fatto fare mille voli pindarici.:D
Vi chiedo nuovamente scusa.
Volevo fare un discorso più leggero ma mi è uscito male. :D
Siete tutti già pronti alla battaglia di dopodomani? :D :D :D :D :D
Io mi sono già attrezzato con account e metodi di pagamento :D :D :D :D
Cacchio, ecco cosa dovevo fare, l'account...
Iceman69
10-10-2022, 08:12
Siete tutti già pronti alla battaglia di dopodomani? :D :D :D :D :D
Io mi sono già attrezzato con account e metodi di pagamento :D :D :D :D
Non proprio, se mercoledì sera ne trovo una a un prezzo che mi piace magari la compro, altrimenti aspetto, nessuna battaglia per me, la comprerò, ma senza fretta.
bonzoxxx
10-10-2022, 08:14
100 dollari in più per una scheda che va 80% più veloce é accettabile per me
beh confrontando i prezzi MSRP si, hai ragione, è alto in senso assoluto ma la sostanza c'è anche considerando che quella NON è una GPU da gaming.
Poi lascia fa che la 4080 16 è stata tagliata male.
Quali saranno i prezzi delle FE in Europa?
EDIT 1979€, naaa non ci provo neanche, salto a piedi pari di brutto.
Avessi venduto la 3080 a prezzi da scalper a gennaio e ci fosse qualche coin da minare per ammortizzare pure pure, ma cosi non ne vale proprio la pena imho.
Predator_1982
10-10-2022, 08:54
Siete tutti già pronti alla battaglia di dopodomani? :D :D :D :D :D
Io mi sono già attrezzato con account e metodi di pagamento :D :D :D :D
prontissimo, ho il bot eseguito direttamente dai tensor della 3080 ti :sofico: :D :D
Predator_1982
10-10-2022, 08:57
beh confrontando i prezzi MSRP si, hai ragione, è alto in senso assoluto ma la sostanza c'è anche considerando che quella NON è una GPU da gaming.
Poi lascia fa che la 4080 16 è stata tagliata male.
Quali saranno i prezzi delle FE in Europa?
EDIT 1979€, naaa non ci provo neanche, salto a piedi pari di brutto.
Avessi venduto la 3080 a prezzi da scalper a gennaio e ci fosse qualche coin da minare per ammortizzare pure pure, ma cosi non ne vale proprio la pena imho.
la tua firma fa pensare che scenderai nel campo di battaglia anche tu dopo domani :D :D
In RT però c'è da recuperare abbastanza, considerando anche i giochi favorevoli di sole ombre.
https://i.postimg.cc/0N2btcBL/rt.png
Stavo guardando la recensione della 6950 XT di techpowerup, a me sembra che con driver recenti la situazione RT di AMD non sia poi molto tragica anzi, nonostante faccia tutto tramite sp.
Se consideriamo che con 5120 sp supera anche la 3070 e spesso tallona la 3080 con una iniezione massiccia di SP e clock per me può dare un ottimo score finale.
Bench assortiti.
https://www.techpowerup.com/review/amd-radeon-rx-6950-xt-reference-design/32.html
I prezzi delle AMD poi sono veramente crollati, 6900 XT vendute ai prezzi delle 3070, ho un buon sentore per i prezzi di RDNA3, è nVidia che è fuori di melone non credo che Lisa gli vada a ruota.
mattxx88
10-10-2022, 09:25
sto cercando ovunque info per alimentatori nuovi con connettore onboard 12VHPWR ma mi pare non ce ne siano ancora o sbaglio?
Qualcuno in procinto di fare il cambio gpu ha info più agiornate delle mie?
Il mio SF750 andrà per forza cambiato, già ora mi si spegne il pc con la 3090 in OC e la cpu in OC :stordita:
edit nvm, asus Loki
scorpion73
10-10-2022, 09:40
sto cercando ovunque info per alimentatori nuovi con connettore onboard 12VHPWR ma mi pare non ce ne siano ancora o sbaglio?
Qualcuno in procinto di fare il cambio gpu ha info più agiornate delle mie?
Il mio SF750 andrà per forza cambiato, già ora mi si spegne il pc con la 3090 in OC e la cpu in OC :stordita:
edit nvm, asus Loki
Seasonic Vertex, aspetta metà dicembre. Il Loki è un SFX
Ale55andr0
10-10-2022, 10:28
Stavo guardando la recensione della 6950 XT di techpowerup, a me sembra che con driver recenti la situazione RT di AMD non sia poi molto tragica anzi, nonostante faccia tutto tramite sp.
.
fa meno del mio roito in CP2077 :rolleyes: gli altri titoli "RT" non li considero nemmeno, hanno implementazioni molto meno estensive e quindi probanti.
bonzoxxx
10-10-2022, 10:31
la tua firma fa pensare che scenderai nel campo di battaglia anche tu dopo domani :D :D
Naa, a 1599 dollari si, forse, ma 1979€ no, è troppo e oer fortuna non mi serve una GPU cosi potente :D
Ale55andr0
10-10-2022, 10:33
Il recupero delle quote di mercato non sembra essere stato l'obiettivo di AMD neanche durante la pandemia quando poteva usare la leva prezzo senza perderci.
In realtà cercano tutti di vendere al prezzo più alto che possono. Non si faranno di certo una guerra dei prezzi, converrebbe a noi, ma non a loro, si saranno già messi d'accordo.
semplicemente non avevano numeri sufficienti di pezzi prodotti per via dello shortage, non è certo una scelta voluta quella di restare 80/20, dai siamo seri
Ale55andr0
10-10-2022, 10:52
Scusate, in effetti mi è uscita male.
Intendevo dire che non faccio progetti che vanno al di là dell'anno, quindi non considero nulla che vada oltre.
Comunque non ci faccio molto affidamento.
Scusate, brutta esperienza di recente. :stordita:
Pure io la penso in modo simile, non penso mai a lunga scadenza da quando mio padre è mancato nel 2011 per un brutto male. Tendo sempre a dire 1) "Se Dio vuole" e 2) "se potrò farlo" (ecco, il più delle volte so già che non potrò comunque :asd:) per programmi a scadenza medio-breve, mai lunga
Pure io la penso in modo simile, non penso mai a lunga scadenza da quando mio padre è mancato nel 2011 per un brutto male. Tendo sempre a dire 1) "Se Dio vuole" e 2) "se potrò farlo" (ecco, il più delle volte so già che non potrò comunque :asd:) per programmi a scadenza medio-breve, mai lunga
Stessa identica cosa e stesso identico pensiero, a me è mancato 5 mesi fa per quel male che comincia per "c".
mikael84
10-10-2022, 11:39
intendevo navi 31 vs x80 16gb price/perf rt...si ovvio la 4090 è oltre
Navi 31 non le vede proprio in raster le 4080.
Il solo cut, dovrebbe avere 10700 shader, che è oltre il 2x della 6900.
D'altronde la 4080 16 è già di per se una fascia x70 :)
Stavo guardando la recensione della 6950 XT di techpowerup, a me sembra che con driver recenti la situazione RT di AMD non sia poi molto tragica anzi, nonostante faccia tutto tramite sp.
Se consideriamo che con 5120 sp supera anche la 3070 e spesso tallona la 3080 con una iniezione massiccia di SP e clock per me può dare un ottimo score finale.
Bench assortiti.
https://www.techpowerup.com/review/amd-radeon-rx-6950-xt-reference-design/32.html
AMD bene o male se la cava perchè in vari giochi il RT è molto blando, se si spinge realmente come cyber la situazione cambia. Inoltre il picco massimo degli RT core lo raggiungi nel full.:)
I prezzi delle AMD poi sono veramente crollati, 6900 XT vendute ai prezzi delle 3070, ho un buon sentore per i prezzi di RDNA3, è nVidia che è fuori di melone non credo che Lisa gli vada a ruota.
Si stanno crollando di brutto, infatti ora la 6800xt sta sulle 600, ed onestamente mi garba parecchio come scheda. Considerando si il minor RT globale, ma offre 16gb di ram. Con nvidia ci trovi le manli 3070, ed ADA la lascio dov'è.
AceGranger
10-10-2022, 11:42
semplicemente non avevano numeri sufficienti di pezzi prodotti per via dello shortage, non è certo una scelta voluta quella di restare 80/20, dai siamo seri
lo shortage c'è per tutti, mica solo per AMD...
nel caso delle GPU è semplice la cosa, nVidia non ha avuto i problemi di Intel, e AMD fino ad ora ha presentato GPU mediamente inferiori alla concorrenza, e le quote sono rimaste sempre bene o male quelle.
Fra l'altro, ad AMD interessa poco nulla aumentare le quote se poi per farlo deve abbassare il prezzo e alla fine fatturare uguale.... è nVidia che ha piu interesse a mantenere un market share elevato per alimentare il suo ecosistema; fin quando AMD non si creera un ecosistema suo credo sara dififcile scalzare nVidia.
amon.akira
10-10-2022, 12:10
Navi 31 non le vede proprio in raster le 4080.
Il solo cut, dovrebbe avere 10700 shader, che è oltre il 2x della 6900.
D'altronde la 4080 16 è già di per se una fascia x70 :)
si ma io solo raster non lo considero, dicevo sfruttare come potenza bruta gli shader per un eventuale recupero in rt casomai continuasse ad essere inferiore ad nvidia,do per scontato sempre e solo rt vs rt
non è che compro una navi 31 magari da 1200euro e poi lancio un gioco e inizio a mettere questo off etc...
quindi si la distrugge in raster, ma intendevo se mi pareggia o fa meglio in rt rispetto a una 16gb costando meno, allora da una parte non avrai dlss3 ma dall altra avrai piu potenza in caso di no rt o rt leggero e cmq risparmiando.
mikael84
10-10-2022, 12:31
si ma io solo raster non lo considero, dicevo sfruttare come potenza bruta gli shader per un eventuale recupero in rt casomai continuasse ad essere inferiore ad nvidia,do per scontato sempre e solo rt vs rt
non è che compro una navi 31 magari da 1200euro e poi lancio un gioco e inizio a mettere questo off etc...
quindi si la distrugge in raster, ma intendevo se mi pareggia o fa meglio in rt rispetto a una 16gb costando meno, allora da una parte non avrai dlss3 ma dall altra avrai piu potenza in caso di no rt o rt leggero e cmq risparmiando.
In RT naturalmente recuperi con gli shader (anche se penso che una ritoccata l'abbiano data, non credo siano 1:1 con le 6000). Da vedere però quanto, in RT seri è troppa la differenza, anche nvidia gli ha pompati.
Qua c'è un buon mix tra giochi per AMD e giochi tosti, come DL2, cyber
https://i.postimg.cc/JhXHKYnr/rt.png
Navi 31, avrà un cut del 40% sopra la 7800xt che dovrebbe superare la 4080 16 ed il full chip da 60%. Tra la 4090 e la 4080 16 con il 70% di ALU ci passa il 35-40%.
Fai due conti, in base allo scaling che può avere.:)
Ale55andr0
10-10-2022, 12:34
si ma io solo raster non lo considero, dicevo sfruttare come potenza bruta gli shader per un eventuale recupero in rt casomai continuasse ad essere inferiore ad nvidia,do per scontato sempre e solo rt vs rt
non è che compro una navi 31 magari da 1200euro e poi lancio un gioco e inizio a mettere questo off etc...
quindi si la distrugge in raster, ma intendevo se mi pareggia o fa meglio in rt rispetto a una 16gb costando meno, allora da una parte non avrai dlss3 ma dall altra avrai piu potenza in caso di no rt o rt leggero e cmq risparmiando.
naaa, inzierai a mettere fake resolution e fake frame :D tutto maxato però :O
In questi giorni tocca a me perché ha cominciato a tossire.
Dopo sarà solo un sogno comprare ste schede. Cosi vi liberate di me :D di certo non vengo a scrivere inutilmente.
Edit: comunque c e una giga a 3k su amazon it da terzi.
C'è anche una Suprim X preordinabile sull'Amazzone da Drako.
Col ...zo!
Si stanno crollando di brutto, infatti ora la 6800xt sta sulle 600, ed onestamente mi garba parecchio come scheda. Considerando si il minor RT globale, ma offre 16gb di ram. Con nvidia ci trovi le manli 3070, ed ADA la lascio dov'è.
La 6900XT è scesa a 700€ e la tentazione incomincia a venirmi, ma anche la 6800XT a 600€ non è male :D
amon.akira
10-10-2022, 13:14
naaa, inzierai a mettere fake resolution e fake frame :D tutto maxato però :O
certo sempre meglio vedere illuminata una zona correttamente rispetto a vederla buia, sempre meglio vedere un riflesso corretto rispetto a non vederlo o vederlo scomparire o crearsi a tendina perchè offscreen (ssr).
cmq penso che con la 4090 a 4k 60 prima di mettere il dlss3 significa che dovrà essere veramente overkill come raytracing
li vedrò sempre meglio io anche se togli il dlss vai tranquillo...so pur sempre 2000euro vs 500...sarebbe strano il contrario :stordita:
certo sempre meglio vedere illuminata una zona correttamente rispetto a vederla buia, sempre meglio vedere un riflesso corretto rispetto a non vederlo o vederlo scomparire o crearsi a tendina perchè offscreen (ssr).
cmq penso che con la 4090 a 4k 60 prima di mettere il dlss3 significa che dovrà essere veramente overkill come raytracing
li vedrò sempre meglio io anche se togli il dlss vai tranquillo...so pur sempre 2000euro vs 500...sarebbe strano il contrario :stordita:
più che altro non credo sia possibile che usciranno giochi che di qui a 1/2 anni che renderanno completamente fermacarte schede video dalla 3070 in su tanto da renderli ingiocabili con qualsiasi cosa sia sotto una 4080/4090 altrimenti non venderebbero più giochi se non allo 0.01% dell'utenza pc
più che altro non credo sia possibile che usciranno giochi che di qui a 1/2 anni che renderanno completamente fermacarte schede video dalla 3070 in su tanto da renderli ingiocabili con qualsiasi cosa sia sotto una 4080/4090 altrimenti non venderebbero più giochi se non allo 0.01% dell'utenza pc
Come accade in ogni generazione. Forse ci saranno un titolo o due che renderanno opportuna una scheda potente ma non sarà utile secondo il suo prezzo.
Lo potrebbe essere se uno intendesse tenerla per più di 2 anni.
Ampere la comprai perché in 4K (acquistato principalmente per altri motivi al di là del gaming) ne avevo bisogno oltre la 1080Ti.
La 3090 va ancora benissimo ma già ne ho sentito qualche limitino qua e là. Se questa generazione si fosse dimostrata di poco più potente l'avrei ignorata.
Visto che pare esserci un bel salto ha la mia attenzione, altrimenti cambio ogni due gen.
Lo stesso avverrà per le 5000, bel salto generazionale? Ci si pensa. Saltino? Si ignora. Semplice.
Poi come ho detto cerco di non andare troppo in là...
amon.akira
10-10-2022, 14:01
più che altro non credo sia possibile che usciranno giochi che di qui a 1/2 anni che renderanno completamente fermacarte schede video dalla 3070 in su tanto da renderli ingiocabili con qualsiasi cosa sia sotto una 4080/4090 altrimenti non venderebbero più giochi se non allo 0.01% dell'utenza pc
si quello sicuro ovviamente ma anche piu di 2anni con le console in giro, ma se io potrò giocare che ne so uno spiderman maxato rt con dlaa anzichè dlss quality, e lui non potendo attivare il dlss (perchè non gli piace) giocherà maxato senza rt, penso che lo vedo meglio io
Ale55andr0
10-10-2022, 14:06
certo sempre meglio vedere illuminata una zona correttamente rispetto a vederla buia, sempre meglio vedere un riflesso corretto rispetto a non vederlo o vederlo scomparire o crearsi a tendina perchè offscreen (ssr).
Giusto, l'importante è che siano anche scalette e artefatti però, sennò non vale! :p
cmq non facevo mica un paragone col roito, tranquillo :asd: :D
più che altro non credo sia possibile che usciranno giochi che di qui a 1/2 anni che renderanno completamente fermacarte schede video dalla 3070 in su tanto da renderli ingiocabili con qualsiasi cosa sia sotto una 4080/4090 altrimenti non venderebbero più giochi se non allo 0.01% dell'utenza pc
la 3070 E' un fermacarte, in data 10/10/2022
Da qui a 2 anni, forse, la si potrà considerare reperto storico ("c'erano una volta i roiti")
amon.akira
10-10-2022, 14:14
Giusto, l'importante è che siano anche scalette e artefatti però, sennò non vale! :p
cmq non facevo mica un paragone col roito, tranquillo :asd: :D
be alla fine uno sceglie il male minore, uno dice ma vabbe mi becco una scia in cielo in deathstranding come artefatto con il dlss oppure mi becco una cataratta continua con il taa, oppure il puntinismo liscio...e scegli. l importante è poter scegliere :p
in cyberpunk magari con l rt overdrive converrà cmq come iq anche se con dlss3, vedremo
Giusto, l'importante è che siano anche scalette e artefatti però, sennò non vale! :p
cmq non facevo mica un paragone col roito, tranquillo :asd: :D
la 3070 E' un fermacarte, in data 10/10/2022
Da qui a 2 anni, forse, la si potrà considerare reperto storico ("c'erano una volta i roiti")
il tuo "astio" verso la 3070 e i sui 8Gb di vram diventeranno leggenda :asd:
fraussantin
10-10-2022, 14:28
la 3070 E' un fermacarte, in data 10/10/2022
Da qui a 2 anni, forse, la si potrà considerare reperto storico ("c'erano una volta i roiti")
Ma per piacere.
In 2k con un minimo di settaggio tira tutto che una meraviglia.
È un inc..ta per il costo , ma visto l'andazzo a 500 euro sembra un affarone :asd:
StylezZz`
10-10-2022, 14:33
la 3070 E' un fermacarte, in data 10/10/2022
Da qui a 2 anni, forse, la si potrà considerare reperto storico ("c'erano una volta i roiti")
:blah:
È un inc..ta per il costo , ma visto l'andazzo a 500 euro sembra un affarone :asd:
Le varie custom come Manli sicuro, ma la FE la trovo stupenda, trovatemi una scheda così piccola e compatta che va quanto una 2080 Ti sotto i 200W (undervoltata), altro che fermacarte...
fa meno del mio roito in CP2077 :rolleyes: gli altri titoli "RT" non li considero nemmeno, hanno implementazioni molto meno estensive e quindi probanti.
AMD bene o male se la cava perchè in vari giochi il RT è molto blando, se si spinge realmente come cyber la situazione cambia. Inoltre il picco massimo degli RT core lo raggiungi nel full.:)
Si stanno crollando di brutto, infatti ora la 6800xt sta sulle 600, ed onestamente mi garba parecchio come scheda. Considerando si il minor RT globale, ma offre 16gb di ram. Con nvidia ci trovi le manli 3070, ed ADA la lascio dov'è.
Valutare il RT in FULL ha realmente utilità ? Non penso ci sia qualche gioco, tolto forse Minecraft ( :stordita: ) che ne faccia uso, non è meglio basarsi su un contesto hybrid che poi è più attinente all'ambiente game ? :)
https://tinypic.host/images/2022/10/10/untitled-39.png
A 3 fps dalla 3080.
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/metro-exodus-rt-2560-1440.png
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/control-rt-2560-1440.png
Questi non sono leggeri...
Discorso Cyberpunk
https://tinypic.host/images/2022/10/10/untitled-26.png
8 fps da una 3080 e senza HW dedicato, a me sembra che dove non è giocabile pienamente su RX non lo è neanche su molte RTX... e senza DLSS non va da nessuna parte neanche lei.
La speranza è una alla fine, anche se AMD non ha inserito HW dedicato in RDNA3, possa comunque proporre schede ottime (queste Ada non interessano neanche a me) anche lato RT, mi ripeto ma 5120 sp sono un nulla rispetto alle prossime in arrivo ma riescono comunque a garantire nell'ampio parco giochi con RT uscito prestazioni ottime. :)
Ti quoto sulla 6800, a questi prezzi sono davvero buone :)
amon.akira
10-10-2022, 14:48
si maury a 3fps dalla 3080, però sono msrp 699dollari vs 1099dollari
spero che il rapporto ora sia capovolto approfittando della fake x80
Andy1111
10-10-2022, 14:51
https://www.techpowerup.com/review/asrock-radeon-rx-6950-xt-oc-formula/33.html
C'è anche qua tutta la lista, peccato che comunque non vengono aggiornati,
sono valori presi dalle varie review nel tempo e mai aggiornati
Ale55andr0
10-10-2022, 14:56
Ma per piacere.
In 2k con un minimo di settaggio tira tutto che una meraviglia.
È un inc..ta per il costo , ma visto l'andazzo a 500 euro sembra un affarone :asd:
appunto: devi pure trovare i settaggi "giusti" a risoluzione da smartphone.
Roito, e sono pure buono :O
be alla fine uno sceglie il male minore, uno dice ma vabbe mi becco una scia in cielo in deathstranding come artefatto con il dlss oppure mi becco una cataratta continua con il taa, oppure il puntinismo liscio...e scegli. l importante è poter scegliere :p
in cyberpunk magari con l rt overdrive converrà cmq come iq anche se con dlss3, vedremo
putinismo liscio :O
cmq io non posso scegliere, mi becco tutto il pacchetto :asd:
PS: Ah, e guarda che da mo' in CP 2077 il TAA è stato ampiamente ridimensionato in nativa...è mooooolto più definito ora, ma un botto tipo....e senza zighi zaghi e flickering del DLSS :O
resta solo il problema della diapositiva, che sarà mai :asd:
il tuo "astio" verso la 3070 e i sui 8Gb di vram diventeranno leggenda :asd:
un palo in culo sarebbe più sopportabile (no, non dico per esperienza spiritosoni, ma sono certo che è così :O )
si maury a 3fps dalla 3080, però sono msrp 699dollari vs 1099dollari
spero che il rapporto ora sia capovolto approfittando della fake x80
699... ho pagato di più la mia 3070 :muro: :cry:
amon.akira
10-10-2022, 15:03
PS: Ah, e guarda che da mo' in CP 2077 il TAA è stato ampiamente ridimensionato in nativa...è mooooolto più definito ora, ma un botto tipo....e senza zighi zaghi e flickering del DLSS :O
resta solo il problema della diapositiva, che sarà mai :asd:
li è forzato non lo puoi disabilitare, forse è pure per quello che peggiora il dlss chissà...idem in gow
cmq poi non ho capito se lo provavi in 4k quality...fatto a 1620p quality con una tacca in meno su rt gi con la 3090
poi con l espansione si vedrà
699... ho pagato di più la mia 3070 :muro: :cry:
è anche vero che ora stanno calando a bestia
amd-radeon-rx-6900xt-price-drops-below-700-usd-740-eur (https://videocardz.com/newz/amd-radeon-rx-6900xt-price-drops-below-700-usd-740-eur)
devil_mcry
10-10-2022, 15:08
Io credo che con la 3080 12 gb a 900€ spedita ho fatto il colpaccio un paio di mesi fa
tanto le nuove sono tutte troppo care
è anche vero che ora stanno calando a bestia
amd-radeon-rx-6900xt-price-drops-below-700-usd-740-eur (https://videocardz.com/newz/amd-radeon-rx-6900xt-price-drops-below-700-usd-740-eur)
A 700 euro ti porti a casa una TUF 6900xt, insomma, ma ci rendiamo conto ? :eek:
ninja750
10-10-2022, 15:18
più che altro non credo sia possibile che usciranno giochi che di qui a 1/2 anni che renderanno completamente fermacarte schede video dalla 3070 in su tanto da renderli ingiocabili con qualsiasi cosa sia sotto una 4080/4090 altrimenti non venderebbero più giochi se non allo 0.01% dell'utenza pc
ricordiamo lo steam survey con il 99% di iscritti con GTX1060 RT off no DLSS
qui stiamo parlando di 4k, full path RT, DLSS3.0..
se vogliono vendere giochi PC alla massa meglio che rimangano su soluzioni umane e scalabili
mikael84
10-10-2022, 15:21
Valutare il RT in FULL ha realmente utilità ? Non penso ci sia qualche gioco, tolto forse Minecraft ( :stordita: ) che ne faccia uso, non è meglio basarsi su un contesto hybrid che poi è più attinente all'ambiente game ? :)
A 3 fps dalla 3080.
Questi non sono leggeri...
Discorso Cyberpunk
8 fps da una 3080 e senza HW dedicato, a me sembra che dove non è giocabile pienamente su RX non lo è neanche su molte RTX... e senza DLSS non va da nessuna parte neanche lei.
La speranza è una alla fine, anche se AMD non ha inserito HW dedicato in RDNA3, possa comunque proporre schede ottime (queste Ada non interessano neanche a me) anche lato RT, mi ripeto ma 5120 sp sono un nulla rispetto alle prossime in arrivo ma riescono comunque a garantire nell'ampio parco giochi con RT uscito prestazioni ottime. :)
Ti quoto sulla 6800, a questi prezzi sono davvero buone :)
E' il discorso che ho fatto proprio prima, AMD se la cava in quanto le unità RT non sono spremute, soprattutto se prendiamo il 1440p ancora meno esigente.
Su cyber 8 fps sono il 20% su due schede non equivalenti. A schede equivalenti hai 30 vs 49, ovvero il 64%
Su l'uso RT, devi valutare questo, ti posso fare 3 esempi:
Questo è con una 1080ti, solo software, la 1080ti è in grado di fare lo stesso lavoro della 2070 super con HW nativo.
https://i.postimg.cc/FHhGTgrc/rt-tomb-raider.png
Oppure questo:
FC6 fasce allineate.
https://i.postimg.cc/59hfQjxD/fc-rt.png
Appena però metti un pò di RT, torniamo al 60% per fascia.
DL2
https://i.postimg.cc/yYpXTqGq/dl-rt.png
Quindi, per ricollegarsi, al discorso che abbiamo fatto stamattina con Amon, AMD in vari titoli può sopperire agli RT core con lo shading, ma dipende da come viene implementato il RT e dalla res.
Nel caso di RT spinto, dovrebbe colmare con il 60-65% di shading.
La differenza tra i due RT la noti qua, o per usi pro, ma sono scenari irreali e troppo complessi da gestire per entrambe.:)
https://i.postimg.cc/YqXZmCBQ/mincraft.png
micronauta1981
10-10-2022, 15:32
https://youtu.be/eDQrgMj61A4
Se sono reali scaffale assoluto 😂😂😂😂
mikael84
10-10-2022, 15:36
appunto: devi pure trovare i settaggi "giusti" a risoluzione da smartphone.
Roito, e sono pure buono :O
putinismo liscio :O
cmq io non posso scegliere, mi becco tutto il pacchetto :asd:
PS: Ah, e guarda che da mo' in CP 2077 il TAA è stato ampiamente ridimensionato in nativa...è mooooolto più definito ora, ma un botto tipo....e senza zighi zaghi e flickering del DLSS :O
resta solo il problema della diapositiva, che sarà mai :asd:
un palo in culo sarebbe più sopportabile (no, non dico per esperienza spiritosoni, ma sono certo che è così :O )
A breve la vendi, e ti prendi la 7800-7700 di AMD, oppure una 6800xt che ormai stanno crollando. In casa nvidia hai due soluzioni 3080 12 o 4080 12, oppure il re dei roiti, la 4070 10gb 160bit a 850 euro almeno.:p
Thunder-74
10-10-2022, 15:45
https://youtu.be/eDQrgMj61A4
Se sono reali scaffale assoluto
Sarebbe in linea con la non presentazione della 4090 in raster
fraussantin
10-10-2022, 15:46
appunto: devi pure trovare i settaggi "giusti" a risoluzione da smartphone.
Roito, e sono pure buono :O
se non hai voglia li trova gfe per te :asd:
ricordo male o tu avevi un monitor 1080p?
mikael84
10-10-2022, 15:48
https://youtu.be/eDQrgMj61A4
Se sono reali scaffale assoluto
Pensi seriamente che JHH abbia mandato campioni a canali con quel numero di iscritti?:p
Questo ne ha addirittura 50.
https://www.youtube.com/channel/UC5Gk-fqELD4ut6q-fzBNySg/videos
Ormai ce l'hanno tutti gli youtuber. Semplicemente cavalcano l'onda per fare visual in quanto attrae.
Se avessero il sample e sforassero il NDA, JHH se li inchiappetterebbe a sangue.:asd:
Cmq ci saranno realmente giochi dove lo scaling sarà pessimo, soprattutto se si scende sotto il 4k.
se non hai voglia li trova gfe per te :asd:
ricordo male o tu avevi un monitor 1080p?
Che lui usa in fake 4k, e non è soddisfatto. E non c'è più MSAA, altrimenti ci metteva anche quello.
micronauta1981
10-10-2022, 15:52
I canali con tanti iscritti ovviamente non possono postarli altrimenti verrebbero bannati..appunto per questo possono essere reali..poi domani si vedrà..
Ragazzi scusate, in base alla vostra esperienza, quando pensate che possano uscire le 4080 custom?
Lo chiedo perché una ASUS 3080 TUF costa ora 1100€ su Amazon, praticamente lo stesso prezzo che Nvidia ha dichiarato per la sua 4080.
E' plausibile pensare che a Novembre ci sia una ASUS 4080 TUF a 1100€ o sto sognando come credo, e si parlerà di molto di più?
mikael84
10-10-2022, 15:54
I canali con tanti iscritti ovviamente non possono postarli altrimenti verrebbero bannati..appunto per questo possono essere reali..poi domani si vedrà..
Si, ma il sample chi glielo da? Non è che nvidia manda 4090 a tutti gli youtuber.
Allora lo possiamo fare tutti.:)
Alcune volte saltano anche testate importanti.
In base al documento che firmi, potrebbe anche querelarti.
narniagreen
10-10-2022, 15:55
I canali con tanti iscritti ovviamente non possono postarli altrimenti verrebbero bannati..appunto per questo possono essere reali..poi domani si vedrà..
O è "caduto da un camion", o è fake.
direi la seconda.
amon.akira
10-10-2022, 16:00
Che lui usa in fake 4k, e non è soddisfatto. E non c'è più MSAA, altrimenti ci metteva anche quello.
:what:
adesso inizio a capire l avversione oltremisura contro il dlss
mikael84
10-10-2022, 16:05
:what:
adesso inizio a capire l avversione oltremisura contro il dlss
Usa un 1080p scalato in 4k fake, i pixel quelli rimangono, per avere l'immagine più nitida e meno scalette, grazie ai sub pixel 4x4, poi ci aggiunge DLSS.
fraussantin
10-10-2022, 16:06
Che lui usa in fake 4k, e non è soddisfatto. E non c'è più MSAA, altrimenti ci metteva anche quello.
potrebbe mettere fake 4k + dlss così torna in 1080p :asd:
@alessandro , risparmia i soldi per la scheda e piglia un 27 2k e vivi felice
micronauta1981
10-10-2022, 16:12
Si, ma il sample chi glielo da? Non è che nvidia manda 4090 a tutti gli youtuber.
Allora lo possiamo fare tutti.:)
Alcune volte saltano anche testate importanti.
In base al documento che firmi, potrebbe anche querelarti.
Bhe ma sicuramente non l'hanno data a lui la scheda..magari è un parente/amico di qualche negoziante oppure qualcuno che ha avuto la scheda,oppure qualcuno che gli ha passato i test..
Ragazzi scusate, in base alla vostra esperienza, quando pensate che possano uscire le 4080 custom?
Lo chiedo perché una ASUS 3080 TUF costa ora 1100€ su Amazon, praticamente lo stesso prezzo che Nvidia ha dichiarato per la sua 4080.
E' plausibile pensare che a Novembre ci sia una ASUS 4080 TUF a 1100€ o sto sognando come credo, e si parlerà di molto di più?
non ti far fregare, la 4080 12Gb non è la vera "80" quella da 16Gb è la vera e la FE sta alla modica cifra di 1500€, considerando che su amazon le FE non le troverai mai devi andare di custom e vuoi che non siano intorno ai 1600-1800€ a seconda del modello custom?
DJurassic
10-10-2022, 16:23
Bhe ma sicuramente non l'hanno data a lui la scheda..magari è un parente/amico di qualche negoziante oppure qualcuno che ha avuto la scheda,oppure qualcuno che gli ha passato i test..
https://i.ebayimg.com/images/g/BM8AAOSw3ydVv2OI/s-l500.jpg
non ti far fregare, la 4080 12Gb non è la vera "80" quella da 16Gb è la vera e la FE sta alla modica cifra di 1500€, considerando che su amazon le FE non le troverai mai devi andare di custom e vuoi che non siano intorno ai 1600-1800€ a seconda del modello custom?
Ho capito, grazie.
Faccio quindi una domanda folle, se una 4080 "vera" costerà 1600-1800€ e se il corrispettivo di potenza della 3080 (o il corrispettivo della spesa di 1100€ sulla serie 4000), che suppongo sia la 4070, non vedrà la luce fino ad almeno primavera 2023 salvo disponibilità e quant'altro a prezzi rialzati, comprare ora una 3080 a 1100€ è 100% follia pura?
frankjr1
10-10-2022, 16:25
I canali con tanti iscritti ovviamente non possono postarli altrimenti verrebbero bannati..appunto per questo possono essere reali..poi domani si vedrà..
Ciao io purtroppo non sono molto esperto e leggo sporadicamente qualcosa qua e la. Potresti dettagliare il perchè sarebbe da lasciare sullo scaffale?
Tralasciando un attimo il prezzo, e tralasciando la veridicità di quel video o meno, cosa ci sarebbe che non va?
Edit mi ero fermato al solo CP2077 iniziale, effettivamente successivamente l'incremento è abbastanza lieve
micronauta1981
10-10-2022, 16:38
https://i.ebayimg.com/images/g/BM8AAOSw3ydVv2OI/s-l500.jpg
😂😂😂 Ahahah
micronauta1981
10-10-2022, 16:39
Ciao io purtroppo non sono molto esperto e leggo sporadicamente qualcosa qua e la. Potresti dettagliare il perchè sarebbe da lasciare sullo scaffale?
Tralasciando un attimo il prezzo, e tralasciando la veridicità di quel video o meno, cosa ci sarebbe che non va?
Edit mi ero fermato al solo CP2077 iniziale, effettivamente successivamente l'incremento è abbastanza lieve
Siamo sul 45 per cento in più come media di tutti i giochi testati..magari è fake..ma se fosse vero la comprereste lo stesso per 2500€?
frankjr1
10-10-2022, 16:41
Siamo sul 45 per cento in più come media di tutti i giochi testati..magari è fake..ma se fosse vero la comprereste lo stesso per 2500€?
Effettivamente dando per buono il video (difficile che lo sia perchè nelle impostazioni non fa mai vedere che la scheda video è la 4090 selezionata) decisamente per 2k o piu è deludente
Navigando sul sito della corsair mi sono imbattuto in questo cavo disponibile per l'acquisto (https://www.corsair.com/it/it/Categorie/Prodotti/Accessori-%7C-Parti/Componenti-PC/Alimentatori/12-pin-GPU-Power-Cable/p/CP-8920274), secondo me è uguale a quello che avevamo visto qualche pagina fa e a mio parere è anche più carino dal punto di vista estetico. Chiedo a Predator (che ha preso il nuovo) e a Mikeal che ne pensano.
EDIT
Mi rispondo da solo, credo che non sia compatibile con le nuove VGA che hanno i famosi 4 pin in più.
Predator_1982
10-10-2022, 16:42
Siamo sul 45 per cento in più come media di tutti i giochi testati..magari è fake..ma se fosse vero la comprereste lo stesso per 2500€?
lo scopriremo domani... se è cosi scaffale pure per me in attesa delle soluzioni AMD
micronauta1981
10-10-2022, 16:45
Effettivamente dando per buono il video (difficile che lo sia perchè nelle impostazioni non fa mai vedere che la scheda video è la 4090 selezionata) decisamente per 2k o piu è deludente
O ha modificato tutto con qualche editor video,oppure che scheda viaggia con quelle frequenze oltre la 4090?Bo vedremo domani ormai manca poco
fraussantin
10-10-2022, 16:46
Siamo sul 45 per cento in più come media di tutti i giochi testati..magari è fake..ma se fosse vero la comprereste lo stesso per 2500€?
ma tu ci metti il dlss3.0 e vai a +2000% :asd:
cmq dalle premesse mi pare sia un fake molto attendibile
frankjr1
10-10-2022, 16:49
Finchè non fanno vedere nei settaggi del gioco che la scheda selezionata è la 4090, devono essere PER FORZA considerati fake.
Non danno alcuna prova del contrario
mikael84
10-10-2022, 16:51
Navigando sul sito della corsair mi sono imbattuto in questo cavo disponibile per l'acquisto (https://www.corsair.com/it/it/Categorie/Prodotti/Accessori-%7C-Parti/Componenti-PC/Alimentatori/12-pin-GPU-Power-Cable/p/CP-8920274), secondo me è uguale a quello che avevamo visto qualche pagina fa e a mio parere è anche più carino dal punto di vista estetico. Chiedo a Predator (che ha preso il nuovo) e a Mikeal che ne pensano.
Quello è il 12 pin di ampere.:)
O ha modificato tutto con qualche editor video,oppure che scheda viaggia con quelle frequenze oltre la 4090?Bo vedremo domani ormai manca poco
Fake tranquillo, questo ad esempio, ha risultati fake, ma più consoni.
https://www.youtube.com/watch?v=3TC_71YIh8g&t=525s&ab_channel=TheSpyHood
Scusate ma come mai se provo dal sito nVidia ad acquistare una scheda mi compare questo messaggio?
Access Denied
You don't have permission to access "http://store.nvidia.com/it-it/geforce/store/?" on this server.
Reference #18.d346868.1665417073.3af9bcd5
Sto sbagliando sito? :confused:
amon.akira
10-10-2022, 16:59
O ha modificato tutto con qualche editor video,oppure che scheda viaggia con quelle frequenze oltre la 4090?Bo vedremo domani ormai manca poco
forse ho visto male (ho fatto dei click veloci) ma su minecraft a pari watt fa gli stessi fps della 3090ti pur essendo entrambe al 99%
Scusate ma come mai se provo dal sito nVidia ad acquistare una scheda mi compare questo messaggio?
Access Denied
You don't have permission to access "http://store.nvidia.com/it-it/geforce/store/?" on this server.
Reference #18.d346868.1665417073.3af9bcd5
Sto sbagliando sito? :confused:
Il sito Nvidia è protetto, esce quell'errore quando fai troppi accessi in poco tempo, per risolvere devi cancellare i cookies del browser.
Thunder-74
10-10-2022, 17:01
Quello è il 12 pin di ampere.:)
Fake tranquillo, questo ad esempio, ha risultati fake, ma più consoni.
https://www.youtube.com/watch?v=3TC_71YIh8g&t=525s&ab_channel=TheSpyHood
che poi TheSpyHood è abbastanza conosciuto...
Ale55andr0
10-10-2022, 17:06
li è forzato non lo puoi disabilitare, forse è pure per quello che peggiora il dlss chissà...idem in gow
cmq poi non ho capito se lo provavi in 4k quality...fatto a 1620p quality con una tacca in meno su rt gi con la 3090
poi con l espansione si vedrà
:Puke:
mio Dio, non puoi esser serio :cry:
:blah:
:friend:
Che lui usa in fake 4k, e non è soddisfatto. E non c'è più MSAA, altrimenti ci metteva anche quello.
no, ci mettevo l'SSAA :asd:
Il fake 4k cmq si vede da Dio, 0, ZERO scalette se lo forzi su 24". Una cartolina (anche dal punto di vista della fluidità :asd:). Il DLSS sull'aa e il flicker è una porcata immonda, c'ha voja nvidia chiamarlo "4k quality", una presa per il culo senza eguali
Qui l'unico che mi capisce è kiwivda :cry:
micronauta1981
10-10-2022, 17:06
Finchè non fanno vedere nei settaggi del gioco che la scheda selezionata è la 4090, devono essere PER FORZA considerati fake.
Non danno alcuna prova del contrario
Questo è vero in effetti..
mikael84
10-10-2022, 17:14
che poi TheSpyHood è abbastanza conosciuto...
Per i fake.
Tralasciando la 4090, tu prenderesti seriamente un tipo che fa video così, senza mostrare nulla, con quelle ram?:p
https://www.youtube.com/watch?v=0V8QHP0ldcA&t=20s&ab_channel=TheSpyHood
bonzoxxx
10-10-2022, 17:15
Per i fake.
Tralasciando la 4090, tu prenderesti seriamente un tipo che fa video così, senza mostrare nulla, con quelle ram?:p
https://www.youtube.com/watch?v=0V8QHP0ldcA&t=20s&ab_channel=TheSpyHood
:D :D :D
amon.akira
10-10-2022, 17:19
:Puke:
mio Dio, non puoi esser serio
e lo so è pesante cyberpunk, cmq vai tranquillo che anche qui lo vedevo meglio, l alternativa era 2160p bilanciato, ma almeno cosi avevo il taglio ultrawide
Ale55andr0
10-10-2022, 17:19
potrebbe mettere fake 4k + dlss così torna in 1080p :asd:
@alessandro , risparmia i soldi per la scheda e piglia un 27 2k e vivi felice
con le mie entrate e le mie bollette attuali non posso manco più pagarmi l'abbonamento in palestra altro che risparmiare per il monitor :asd:...
2k su 27"? mmm, anche no (senza anche). Fosse per me ci sarebbero dei 28" 8k su PC :asd:
e lo so è pesante cyberpunk, cmq vai tranquillo che anche qui lo vedevo meglio, l alternativa era 2160p bilanciato, ma almeno cosi avevo il taglio ultrawide
giusto per provare, spegni del tutto l'RT (sennò non ti sposti nemmeno :asd:) e prova 4k nativo (no DLSS), poi dimmi sulla pulizia del quadro...sincero però...
..spè, leggo che hai 32", lascia stare, dovresti impostarlo in 8k o quantomeno DLDcomesichiama per capirmi , lo farai con la 4090 e mi dirai :asd:
amon.akira
10-10-2022, 17:32
..spè, leggo che hai 32", lascia stare, dovresti impostarlo in 8k o quantomeno DLDcomesichiama per capirmi , lo farai con la 4090 e mi dirai :asd:
non vorrei fare il presuntuoso, ma 1080 su 24 pollici dovresti essere a una densità di 90ppi, 4k su 32 siamo sui 140ppi (penso che ti riferivi a questo)
poi non per vantarmi ma se tu potessi teletrasportarti con il tuo monitor di fianco al mio vedresti una grande differenza fidati
non c'è solo la risoluzione, potrei farti un elenco interminabile :)
Marcellator
10-10-2022, 17:46
Navigando sul sito della corsair mi sono imbattuto in questo cavo disponibile per l'acquisto (https://www.corsair.com/it/it/Categorie/Prodotti/Accessori-%7C-Parti/Componenti-PC/Alimentatori/12-pin-GPU-Power-Cable/p/CP-8920274), secondo me è uguale a quello che avevamo visto qualche pagina fa e a mio parere è anche più carino dal punto di vista estetico. Chiedo a Predator (che ha preso il nuovo) e a Mikeal che ne pensano.
EDIT
Mi rispondo da solo, credo che non sia compatibile con le nuove VGA che hanno i famosi 4 pin in più.
Questo è quello che Corsair ha detto andare bene con la 4090 e 600W (ma dovresti avere almeno un alimentatore da 1200W per usarla a tutta manetta altrimenti da 100W):
https://www.corsair.com/it/it/Categorie/Prodotti/Accessori-%7C-Parti/Componenti-PC/Alimentatori/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284
devil_mcry
10-10-2022, 17:51
con le mie entrate e le mie bollette attuali non posso manco più pagarmi l'abbonamento in palestra altro che risparmiare per il monitor :asd:...
2k su 27"? mmm, anche no (senza anche). Fosse per me ci sarebbero dei 28" 8k su PC :asd:
giusto per provare, spegni del tutto l'RT (sennò non ti sposti nemmeno :asd:) e prova 4k nativo (no DLSS), poi dimmi sulla pulizia del quadro...sincero però...
..spè, leggo che hai 32", lascia stare, dovresti impostarlo in 8k o quantomeno DLDcomesichiama per capirmi , lo farai con la 4090 e mi dirai :asd:
però guarda che come densità di pixel hai il monitor peggiore tu. ok che il 27 1440p ha una densità poi non tanto più alta della tua ma è comunque superiore
credo che anche un 42" 4k sia meglio per dire
fraussantin
10-10-2022, 18:00
però guarda che come densità di pixel hai il monitor peggiore tu. ok che il 27 1440p ha una densità poi non tanto più alta della tua ma è comunque superiore
credo che anche un 42" 4k sia meglio per direOltretutto con il monitor più grande stai un pochino più lontano quindi hai necessita di meno densità.
Ale55andr0
10-10-2022, 18:08
però guarda che come densità di pixel hai il monitor peggiore tu. ok che il 27 1440p ha una densità poi non tanto più alta della tua ma è comunque superiore
credo che anche un 42" 4k sia meglio per dire
ma infatti parliamo di nulla, infatti quel che è accettabile lato aliasing per me è il 4k su polliciaggi "normali" (sub 30"), quindi con una densità ben superiore al mio (e ci mancherebbe)ma anche a un 27 1440p :)
Diciamo che il mio monitor ideale sarebbe tipo questo (odio i VA e i TN):
https://eu.aoc.com/en/gaming/products/monitors/ag274uxp
anche se il monitor perfetto sarebbe un OLED 27"/4k. Magari un giorno lo faranno :D
cmq siamo largamente OT...
mikael84
10-10-2022, 18:18
non vorrei fare il presuntuoso, ma 1080 su 24 pollici dovresti essere a una densità di 90ppi, 4k su 32 siamo sui 140ppi (penso che ti riferivi a questo)
poi non per vantarmi ma se tu potessi teletrasportarti con il tuo monitor di fianco al mio vedresti una grande differenza fidati
non c'è solo la risoluzione, potrei farti un elenco interminabile :)
Oltretutto con il monitor più grande stai un pochino più lontano quindi hai necessita di meno densità.
Si in linea di massima, partendo da un 27 1440p, sarebbe così:
110ppi
1080p: 20"
1440p: 27"
4k: 40"
1080p: 24" circa 91ppi
1440p: 32" (l'ho provato non mi piaceva per niente)
4k: 48"
Il 32" 4k sarebbe equivalente ad un 1080p a 16" (un francobollo)
Ovviamente questo vale per i giochi full hd, in 4k nativo è un altro discorso, il francobollo non ha i pixel del 4k.
Chiudo OT.
devil_mcry
10-10-2022, 18:33
nomi a parte i prezzi americani rendono la serie nuova molto più appetibile
fermo restando che cmq la ti tiravano dietro anche le 3090 ti ormai
Il sito Nvidia è protetto, esce quell'errore quando fai troppi accessi in poco tempo, per risolvere devi cancellare i cookies del browser.
Ma ho fatto 2 accessi a malapena, nemmeno... :mbe:
aldo87mi
10-10-2022, 18:40
ragazzi sono così ansioso e agitato per le recensioni della rtx 4090 che usciranno domani :D
chissà quanti fps farà nei giochi. Speriamo che tiene sempre almeno 90 fps in 4K ad Ultra in tutti i giochi più recenti senza usare il Dlss 3 (e con quest'ultimo che faccia almeno 120-150 fps in 4K) :)
amon.akira
10-10-2022, 18:45
ragazzi sono così ansioso e agitato per le recensioni della rtx 4090 che usciranno domani :D
chissà quanti fps farà nei giochi. Speriamo che tiene sempre almeno 90 fps in 4K ad Ultra in tutti i giochi più recenti senza usare il Dlss 3 (e con quest'ultimo che faccia almeno 120-150 fps in 4K) :)
https://pbs.twimg.com/media/EiMYaLXWAAEBvWe.jpg
ragazzi sono così ansioso e agitato per le recensioni della rtx 4090 che usciranno domani :D
chissà quanti fps farà nei giochi. Speriamo che tiene sempre almeno 90 fps in 4K ad Ultra in tutti i giochi più recenti senza usare il Dlss 3 (e con quest'ultimo che faccia almeno 120-150 fps in 4K) :)
Come ad ogni uscita, all'inizio sarà mostruosa, maxerà tutto e la vorranno tutti nel case... tra un anno e mezzo aspetteranno tutti la 5090 e la 4090 non la cagherà più nessuno, in quanto si scoprirà essere insufficiente per maxare davvero tutto, as usual... :O
La storia è sempre la stessa da più di 20 anni, ormai... :stordita:
devil_mcry
10-10-2022, 19:02
Come ad ogni uscita, all'inizio sarà mostruosa, maxerà tutto e la vorranno tutti nel case... tra un anno e mezzo aspetteranno tutti la 5090 e la 4090 non la cagherà più nessuno, in quanto si scoprirà essere insufficiente per maxare davvero tutto, as usual... :O
La storia è sempre la stessa da più di 20 anni, ormai... :stordita:
SEMPRE SE ci entra...
aldo87mi
10-10-2022, 19:06
SEMPRE SE ci entra...
infatti. Bisognerà cambiare case :mad:
e bisognerà anche cambiare Psu con un Atx 3.0 :( :(
SEMPRE SE ci entra...
Ah beh... è sottinteso che ogni cambio di scheda porti con se anche il cambio di case/cpu/ram/psu/moglie/lavoro/... :O
infatti. Bisognerà cambiare case :mad:
e bisognerà anche cambiare Psu con un Atx 3.0 :( :(
eccallà, appunto! :sofico:
devil_mcry
10-10-2022, 19:10
Ci stanno dicendo in tutti i modi di non comprarle
Che sia messo agli atti eh :D
Thunder-74
10-10-2022, 19:11
Video di saddy che non aggiunge nulla di nuovo, ma che spiega quello che ci si dovrebbe aspettare dalla 4090, in base a dei test da lui fatti e in base ai bench proposti da nVidia su titoli in raster
https://youtu.be/wv2uZdNMQq8
Inviato dal mio iPad utilizzando Tapatalk
bonzoxxx
10-10-2022, 19:28
infatti. Bisognerà cambiare case :mad:
e bisognerà anche cambiare Psu con un Atx 3.0 :( :(
nient'altro? :doh: :)
Iceman69
10-10-2022, 19:40
Ah beh... è sottinteso che ogni cambio di scheda porti con se anche il cambio di case/cpu/ram/psu/moglie/lavoro/... :O
Soprattutto moglie :)
Nhirlathothep
10-10-2022, 20:08
c'è una discussione per la 4090?
ho notato che ancora non possono fornire dati sulle prestazioni, quando scade l' nda?
Predator_1982
10-10-2022, 20:09
La prossima moglie prendetela girl gamer :D
Più che altro ricca
mikael84
10-10-2022, 20:38
c'è una discussione per la 4090?
ho notato che ancora non possono fornire dati sulle prestazioni, quando scade l' nda?
Domani con le review la apriamo.
Nhirlathothep
10-10-2022, 20:50
Domani con le review la apriamo.
gentilissimo!tnx!
davide155
10-10-2022, 21:07
Interessante video di saddy dove snocciola dati su vari rapporti prezzo/prestazioni/cuda.
Ovviamente parla di soli dati dichiarati da nvidia.
https://youtu.be/wv2uZdNMQq8
StrixyRoG
10-10-2022, 21:19
Interessante video di saddy dove snocciola dati su vari rapporti prezzo/prestazioni/cuda.
Ovviamente parla di soli dati dichiarati da nvidia.
https://youtu.be/wv2uZdNMQq8
Veramente guardi quel tizio? Ti meriti la console :D
devil_mcry
10-10-2022, 21:27
Veramente guardi quel tizio? Ti meriti la console :D
Che poi, io i miei giochi preferiti li annovero quasi tutti tra le ip di sony o nintendo, quindi non va poi manco tanto male lol
Sonpazzo
10-10-2022, 21:40
Che mente chiusa :asd:
davide155
11-10-2022, 00:17
Veramente guardi quel tizio? Ti meriti la console :DPerché?
A parte che è un personaggio a dir poco esuberante, ha fatto (da perito elettronico) una buona analisi matematica basata sui numeri che abbiamo fino ad oggi. Approssimativa, maaiuta ad avere un quadro più completo di quali schede siano davvero giustificate prettamente sul profilo del prezzo.
Ps: non ho nessuna console, ma dopo i prezzi del giacchetta mi è venuta inspiegabilmente voglia di prendermi una ps5 ed ammazzarmi di horizon2 e gow2.
StrixyRoG
11-10-2022, 00:39
Perché?
A parte che è un personaggio a dir poco esuberante, ha fatto (da perito elettronico) una buona analisi matematica basata sui numeri che abbiamo fino ad oggi. Approssimativa, maaiuta ad avere un quadro più completo di quali schede siano davvero giustificate prettamente sul profilo del prezzo.
Ps: non ho nessuna console, ma dopo i prezzi del giacchetta mi è venuta inspiegabilmente voglia di prendermi una ps5 ed ammazzarmi di horizon2 e gow2.
Ho visto qualche suo video e sparava un sacco di boiate, magari ho visto quelli sbagliati. Il discorso console era una battuta, da PC gamer ho tutto, anche PS5 e Series X :D
In ogni caso i test della 4090 si avvicinano e poi a Novembre ci saranno quelli della 4080. Tanto non c'è fretta, aspetto che gli altri facciano da beta tester :D
mikael84
11-10-2022, 00:43
Perché?
A parte che è un personaggio a dir poco esuberante, ha fatto (da perito elettronico) una buona analisi matematica basata sui numeri che abbiamo fino ad oggi. Approssimativa, maaiuta ad avere un quadro più completo di quali schede siano davvero giustificate prettamente sul profilo del prezzo.
Ps: non ho nessuna console, ma dopo i prezzi del giacchetta mi è venuta inspiegabilmente voglia di prendermi una ps5 ed ammazzarmi di horizon2 e gow2.
La microarchitettura, non è un puro rapporto di ALU e clock, come fa lui. Ci sono tanti sottosistemi da calcolare, come il bus, gli accessi nelle cache positivi, warp stall (uno degli argomenti più complessi), uso delle rop's, velocità geometrica, dagli accessi ai registri, dal calcolo divergente del warp.
Ridurre il tutto a inefficienza dell'architettura, che poi sarebbe microarchitettura. L'architettura è come la vede il programmatore.:)
Il rapporto 1:1 con schede con stadi moltiplicatori completamente diversi non ha molto senso in base all'applicazione.:)
davide155
11-10-2022, 00:43
E nel mentre, per i prime day c'è la evga 3090ti ftw3 a 1199euro venduta e spedita da amazon in offerta.
Signora scheda.
mikael84
11-10-2022, 01:05
Ho visto qualche suo video e sparava un sacco di boiate, magari ho visto quelli sbagliati. Il discorso console era una battuta, da PC gamer ho tutto, anche PS5 e Series X :D
In ogni caso i test della 4090 si avvicinano e poi a Novembre ci saranno quelli della 4080. Tanto non c'è fretta, aspetto che gli altri facciano da beta tester :D
Per carità, fanno il loro, ma per curiosità, ho visto uno dei video, come questo:
https://www.youtube.com/watch?v=ZeXmtIYO_8E&t=559s&ab_channel=SaddyTech
Dice: " non possiamo giudicare il prezzo della 4060 12, pardon 4080 12, in quanto non conosciamo l'architettura" (semai microarchitettura già svelata, pure per i non addetti).
Se non conosci la microarchitettura, dei costi per wafer, siamo già fuori strada, in un sito di appassionati, non apporta nulla, non siamo da mediaworld.:p
Poi va beh, ognuno, la vede a modo suo, con le sue conoscenze, magari sarò pignolo io.:p
Cmq dice bene la 4080 non è una 4080. E sino a li ci siamo arrivati.
mikael84
11-10-2022, 01:24
Si ma sono youtuber per chi non sa molto di cose tecniche. Io sinceramente neanche ci capirei nulla di cose troppo tecniche dunque non li guarderei.
Ora non lo guardo da un po saddytech ma un tempo lo guardavo.
Se ti piacciono guardali, per carità, sono canali per le masse e come tali devono essere, viva la libertà di poter fare video come ci piace. Ormai in siti tecnici come questo "hanno detto i prodigeek, i prodigeek dicono" fanno cascare il latte alle ginocchia, ma sarò io pignolo.:p
Siti markettari che giustificano tutto lo scempio di JHH anche no...
nessuno29
11-10-2022, 06:21
In un certo senso ti capisco perchè dal tuo punto di vista sei più tecnico ma non tutti capiscono cose cosi tecniche. Per me è giapponese :D
Però a volte anche solo per sapere cose basiliari per chi non è informato, o non sa dove informarsi, è sempre qualcosa.
Poi non è che giustificano tutto a volte dicono anche di non comprare. Per il resto bisogna sempre interpetrare se si deve comprarlo o meno. Per esempio c'è quello grosso, o grasso io sono anche simile a lui di corporatura, dice una cosa e si contraddice dopo però è divertente :D ma anche a me alcune cose che fanno vedere, tipo sulla casa, non mi interessa e salto tutto :)
Il problema è che l'obiettivo di quei canali sono i link referral amazon ;)
fraussantin
11-10-2022, 06:47
Il problema è che l'obiettivo di quei canali sono i link referral amazon ;)Come tutti . Se vai oggi a leggere le notizie tech sul "sito italiano sulla tecnologia" si parla solo di prime day e offerte amazon.
sertopica
11-10-2022, 06:49
Come tutti . Se vai oggi a leggere le notizie tech sul "sito italiano sulla tecnologia" si parla solo di prime day e offerte amazon.
Ormai si campa cosi' per stare a galla.
Thunder-74
11-10-2022, 07:23
Perché?
A parte che è un personaggio a dir poco esuberante, ha fatto (da perito elettronico) una buona analisi matematica basata sui numeri che abbiamo fino ad oggi. Approssimativa, maaiuta ad avere un quadro più completo di quali schede siano davvero giustificate prettamente sul profilo del prezzo.
Ps: non ho nessuna console, ma dopo i prezzi del giacchetta mi è venuta inspiegabilmente voglia di prendermi una ps5 ed ammazzarmi di horizon2 e gow2.
concordo, lo avevo postato anch'io perchè trovavo corretto il tipo di analisi per calcolare gli fps della 4090. Poi, a parte qualche video suo inutile, in altri ha affrontato temi argomentandoli correttamente.
Partendo dal fatto che il web può essere una fogna e che io non ha pregiudizi, se ho tempo e curiosità, una possibilità la do a tutti.. poi ricordiamoci che anche dalla merd@ può nascere un fiore :D
Giovamas
11-10-2022, 07:23
Se ti piacciono guardali, per carità, sono canali per le masse e come tali devono essere, viva la libertà di poter fare video come ci piace. Ormai in siti tecnici come questo "hanno detto i prodigeek, i prodigeek dicono" fanno cascare il latte alle ginocchia, ma sarò io pignolo.:p
Siti markettari che giustificano tutto lo scempio di JHH anche no...
per me lo youtuber sei tu e qualche altro qua.. altro che youtuber. aspetto oggi le tue impressioni. peccato che non c'è tiger spero solo sia ok
pheasant_killer
11-10-2022, 07:25
In un certo senso ti capisco perchè dal tuo punto di vista sei più tecnico ma non tutti capiscono cose cosi tecniche. Per me è giapponese :D
Però a volte anche solo per sapere cose basiliari per chi non è informato, o non sa dove informarsi, è sempre qualcosa.
Poi non è che giustificano tutto a volte dicono anche di non comprare. Per il resto bisogna sempre interpetrare se si deve comprarlo o meno. Per esempio c'è quello grosso, o grasso io sono anche simile a lui di corporatura, dice una cosa e si contraddice dopo però è divertente :D ma anche a me alcune cose che fanno vedere, tipo sulla casa, non mi interessa e salto tutto :)
Caspita, che informazioni interessanti che condividi in un forum di tecnologia. Quanto pesi esattamente? Di che segno sei? Processo produttivo? Grazie, chiedo per un amico. :)
fraussantin
11-10-2022, 07:30
Se ti piacciono guardali, per carità, sono canali per le masse e come tali devono essere, viva la libertà di poter fare video come ci piace. Ormai in siti tecnici come questo "hanno detto i prodigeek, i prodigeek dicono" fanno cascare il latte alle ginocchia, ma sarò io pignolo.:p
Siti markettari che giustificano tutto lo scempio di JHH anche no...Piaccia o non piaccia ormai sono diventati veri e propri influencer.
Anche se a livello tecnico spiegano volutamente le cose terra terra ( io credo che la sappiano più lunga di quel che mostrano) e lo fanno per non far scappare la massa, di fatto influenzano i mercati.
Se stanlio e ollio dicono che la 4080 è una bomba , stai certo che la gente la comprerà.
Saddy è quello che ha insegnato a minare ai ragazzotti , e i meno esperti .
Ho un amico che mi ha cacato il cazzo per dargli una mano a minare con il suo pc perché ha visto il video di saddy.
In un ma anche a me alcune cose che fanno vedere, tipo sulla casa, non mi interessa e salto tutto :)
li ammiro per il coraggio.
Non mostrerei mai dove abito in rete , con la massa di matti che ci sono.
Predator_1982
11-10-2022, 07:37
Piaccia o non piaccia ormai sono diventati veri e propri influencer.
Anche se a livello tecnico spiegano volutamente le cose terra terra ( io credo che la sappiano più lunga di quel che mostrano) e lo fanno per non far scappare la massa, di fatto influenzano i mercati.
a che servono le lauree oggi? Gli esperti sono gli youtubbbber e gli adolescenti in cerca di visualizzazioni.....:muro: annamo bene
fraussantin
11-10-2022, 07:41
a che servono le lauree oggi? Gli esperti sono gli youtubbbber e gli adolescenti in cerca di visualizzazioni.....:muro: annamo beneAndiamo male, ma è sempre stato così da che ho memoria io.
Negli anni 80 in tv , poi riviste , adesso i social .
Thunder-74
11-10-2022, 07:42
Nvidia RTX Titan Lovelace distrugge gli alimentatori e fa saltare i fusibili, lo sviluppo è stato interrotto
Al momento, non sembra che Nvidia rilascerà una nuova scheda video che dovrebbe superare presto l'RTX 4090 . Questa cosiddetta scheda RTX 4090 Ti o RTX Titan Ada richiederebbe molta più potenza rispetto al fratello minore da portare tutti i tipi di problemi tecnici.
Ad esempio, Law Is Dead di YouTuber Moore è stato informato che Nvidia ha testato un modello Lovelace con uno spessore di almeno quattro slot di espansione, due connettori 12VHPWR e un consumo energetico da 600 a 700 watt. Tuttavia, si dice che il produttore abbia interrotto lo sviluppo a causa di fusibili bruciati e alimentatori che si sono "sciolti" in laboratorio. In alcuni casi, alcuni campioni di prova si sarebbero autodistrutti perché la quantità di jab era semplicemente troppo alta.
Tom di MLID sospetta che Nvidia voglia prima aspettare l'arrivo delle GPU RDNA 3 di AMD , per poter stimare quanto potente dovrebbe essere il nuovo modello top di Lovelace. Nel frattempo, potrebbero essere disponibili chip di memoria più veloci come gddr6(x) o anche gddr7, in particolare quest'ultimo dovrebbe ridurre leggermente il consumo energetico. Questa GPU senza nome con il chip AD102 completamente abilitato dovrebbe essere dal 10 al 20% più veloce dell'RTX 4090.
FONTE (https://nl.hardware.info/nieuws/82926/lnvidia-rtx-titan-lovelace-sloopt-psurs-en-doet-zekeringen-springen-ontwikkeling-gepauzeerdr)
fraussantin
11-10-2022, 07:55
Nvidia RTX Titan Lovelace distrugge gli alimentatori e fa saltare i fusibili, lo sviluppo è stato interrotto
Al momento, non sembra che Nvidia rilascerà una nuova scheda video che dovrebbe superare presto l'RTX 4090 . Questa cosiddetta scheda RTX 4090 Ti o RTX Titan Ada richiederebbe molta più potenza rispetto al fratello minore da portare tutti i tipi di problemi tecnici.
Ad esempio, Law Is Dead di YouTuber Moore è stato informato che Nvidia ha testato un modello Lovelace con uno spessore di almeno quattro slot di espansione, due connettori 12VHPWR e un consumo energetico da 600 a 700 watt. Tuttavia, si dice che il produttore abbia interrotto lo sviluppo a causa di fusibili bruciati e alimentatori che si sono "sciolti" in laboratorio. In alcuni casi, alcuni campioni di prova si sarebbero autodistrutti perché la quantità di jab era semplicemente troppo alta.
Tom di MLID sospetta che Nvidia voglia prima aspettare l'arrivo delle GPU RDNA 3 di AMD , per poter stimare quanto potente dovrebbe essere il nuovo modello top di Lovelace. Nel frattempo, potrebbero essere disponibili chip di memoria più veloci come gddr6(x) o anche gddr7, in particolare quest'ultimo dovrebbe ridurre leggermente il consumo energetico. Questa GPU senza nome con il chip AD102 completamente abilitato dovrebbe essere dal 10 al 20% più veloce dell'RTX 4090.
FONTE (https://nl.hardware.info/nieuws/82926/lnvidia-rtx-titan-lovelace-sloopt-psurs-en-doet-zekeringen-springen-ontwikkeling-gepauzeerdr)Ma non dovrebbe intervenire prima la protezione elettronica?
frankjr1
11-10-2022, 07:55
Oggi quindi usciranno i primi video e recensioni. Io conosco poco questi youtubers o siti dove recensiscono le schede. Quale sito o youtuber consigliate di tenere d'occhio?
Che sia quanto più possibile onesto
sertopica
11-10-2022, 08:03
Nvidia RTX Titan Lovelace distrugge gli alimentatori e fa saltare i fusibili, lo sviluppo è stato interrotto
Al momento, non sembra che Nvidia rilascerà una nuova scheda video che dovrebbe superare presto l'RTX 4090 . Questa cosiddetta scheda RTX 4090 Ti o RTX Titan Ada richiederebbe molta più potenza rispetto al fratello minore da portare tutti i tipi di problemi tecnici.
Ad esempio, Law Is Dead di YouTuber Moore è stato informato che Nvidia ha testato un modello Lovelace con uno spessore di almeno quattro slot di espansione, due connettori 12VHPWR e un consumo energetico da 600 a 700 watt. Tuttavia, si dice che il produttore abbia interrotto lo sviluppo a causa di fusibili bruciati e alimentatori che si sono "sciolti" in laboratorio. In alcuni casi, alcuni campioni di prova si sarebbero autodistrutti perché la quantità di jab era semplicemente troppo alta.
Tom di MLID sospetta che Nvidia voglia prima aspettare l'arrivo delle GPU RDNA 3 di AMD , per poter stimare quanto potente dovrebbe essere il nuovo modello top di Lovelace. Nel frattempo, potrebbero essere disponibili chip di memoria più veloci come gddr6(x) o anche gddr7, in particolare quest'ultimo dovrebbe ridurre leggermente il consumo energetico. Questa GPU senza nome con il chip AD102 completamente abilitato dovrebbe essere dal 10 al 20% più veloce dell'RTX 4090.
FONTE (https://nl.hardware.info/nieuws/82926/lnvidia-rtx-titan-lovelace-sloopt-psurs-en-doet-zekeringen-springen-ontwikkeling-gepauzeerdr)
"Alcuni campioni di prova si sarebbero autodistrutti". Insomma tipo Harakiri. :D
Quindi al prossimo giro devono per forza di cose innovare e cambiare radicalmente il tutto. Ma quali sono le alternative? Insomma, si sta lavorando a nuove soluzioni? Perche' come dice qualcuno sull'internet di questo passo il PC lo monteremo all'interno della GPU stessa. :asd:
Giovamas
11-10-2022, 08:06
E nel mentre, per i prime day c'è la evga 3090ti ftw3 a 1199euro venduta e spedita da amazon in offerta.
Signora scheda.
vista :)
bonzoxxx
11-10-2022, 08:11
Ma non dovrebbe intervenire prima la protezione elettronica?
Infatti, mi suona strana sta cosa.
pheasant_killer
11-10-2022, 08:24
Ma non dovrebbe intervenire prima la protezione elettronica?
La protezione civile forse...
craesilo
11-10-2022, 08:33
dovrei aver preso la 60ti FE
devil_mcry
11-10-2022, 08:35
Nvidia RTX Titan Lovelace distrugge gli alimentatori e fa saltare i fusibili, lo sviluppo è stato interrotto
Al momento, non sembra che Nvidia rilascerà una nuova scheda video che dovrebbe superare presto l'RTX 4090 . Questa cosiddetta scheda RTX 4090 Ti o RTX Titan Ada richiederebbe molta più potenza rispetto al fratello minore da portare tutti i tipi di problemi tecnici.
Ad esempio, Law Is Dead di YouTuber Moore è stato informato che Nvidia ha testato un modello Lovelace con uno spessore di almeno quattro slot di espansione, due connettori 12VHPWR e un consumo energetico da 600 a 700 watt. Tuttavia, si dice che il produttore abbia interrotto lo sviluppo a causa di fusibili bruciati e alimentatori che si sono "sciolti" in laboratorio. In alcuni casi, alcuni campioni di prova si sarebbero autodistrutti perché la quantità di jab era semplicemente troppo alta.
Tom di MLID sospetta che Nvidia voglia prima aspettare l'arrivo delle GPU RDNA 3 di AMD , per poter stimare quanto potente dovrebbe essere il nuovo modello top di Lovelace. Nel frattempo, potrebbero essere disponibili chip di memoria più veloci come gddr6(x) o anche gddr7, in particolare quest'ultimo dovrebbe ridurre leggermente il consumo energetico. Questa GPU senza nome con il chip AD102 completamente abilitato dovrebbe essere dal 10 al 20% più veloce dell'RTX 4090.
FONTE (https://nl.hardware.info/nieuws/82926/lnvidia-rtx-titan-lovelace-sloopt-psurs-en-doet-zekeringen-springen-ontwikkeling-gepauzeerdr)
ellamadonna
avrei paura... :/
L'NDA scade quando? Alle 15:00?
davide155
11-10-2022, 09:04
concordo, lo avevo postato anch'io perchè trovavo corretto il tipo di analisi per calcolare gli fps della 4090. Poi, a parte qualche video suo inutile, in altri ha affrontato temi argomentandoli correttamente.
Partendo dal fatto che il web può essere una fogna e che io non ha pregiudizi, se ho tempo e curiosità, una possibilità la do a tutti.. poi ricordiamoci che anche dalla merd@ può nascere un fiore :DMa infatti non capisco tutto questo accanimento.
Ha tirato fuori dei numeri che nessun altro aveva fatto, nemmeno in questo thread.
Secondo me il 99% non ha ancora visto quel video o non ha capito a cosa si riferisse saddytech.
È pura e semplice matematica.
Thunder-74
11-10-2022, 09:24
Ma infatti non capisco tutto questo accanimento.
Ha tirato fuori dei numeri che nessun altro aveva fatto, nemmeno in questo thread.
Secondo me il 99% non ha ancora visto quel video o non ha capito a cosa si riferisse saddytech.
È pura e semplice matematica.
La cosa che mi dispiace, ma molto diffusa nel mondo, è sentenziare facendo di un erba tutto un fascio (di questi tempi va anche bene :fagiano: ). Prima si visiona e poi si giudica . Vabbè, ma del resto nella storia, troppi sono stati giudicati in modo errato, Gesù , Nicola Tesla ecc, non che Saddy stia tra questi, ma diciamo che c è di peggio. Io apprezzo chi prova a fare contenuti e mi fanno incavolare chi va dietro a quella massa di streamer che giocano solamente , per poi leggere da leak, che guadagnano 700.000 euro l anno solo per abbonati e doni. O quelli che fanno le maratone dormendo. Fanculo.
Inviato dal mio iPhone X utilizzando Tapatalk
narniagreen
11-10-2022, 09:31
Video di saddy che non aggiunge nulla di nuovo, ma che spiega quello che ci si dovrebbe aspettare dalla 4090, in base a dei test da lui fatti e in base ai bench proposti da nVidia su titoli in raster
https://youtu.be/wv2uZdNMQq8
Inviato dal mio iPad utilizzando Tapatalk
Un video di cose senza senso, rapporti fra CC oltretutto di generazioni differente, senza contare il silicio diverso e l'efficienza che questo porta.
Ma a parte gli strafalcioni tecnici dove non tiene conto del resto dell'architettura, ecc, la cosa peggiore è il continuo giustificare l'aumento di prezzo, di sto passo nel 2030 una gpu costerà 10k euro, "va più veloce della precedente".
Pensate se avessero fatto sto discorso nel 1980 sui processori
Non capisco come facciate a seguire certa gente :doh:
La microarchitettura, non è un puro rapporto di ALU e clock, come fa lui. Ci sono tanti sottosistemi da calcolare, come il bus, gli accessi nelle cache positivi, warp stall (uno degli argomenti più complessi), uso delle rop's, velocità geometrica, dagli accessi ai registri, dal calcolo divergente del warp.
Ridurre il tutto a inefficienza dell'architettura, che poi sarebbe microarchitettura. L'architettura è come la vede il programmatore.:)
Il rapporto 1:1 con schede con stadi moltiplicatori completamente diversi non ha molto senso in base all'applicazione.:)
:asd:
Per carità nessuno nasce imparato, nemmeno io sapevo ste cose, ma almeno non mi sono mai messo a fare video su youtube come quello, se vuole farlo, che almeno imparasse le basi.
ray_hunter
11-10-2022, 09:39
Oggi recensioni solo della RTX 4090, oppure anche delle 4080?
amon.akira
11-10-2022, 09:42
Ma infatti non capisco tutto questo accanimento.
Ha tirato fuori dei numeri che nessun altro aveva fatto, nemmeno in questo thread.
Secondo me il 99% non ha ancora visto quel video o non ha capito a cosa si riferisse saddytech.
È pura e semplice matematica.
ha fatto semplicemente il test con altri 3giochi diversi dai 3giochi di jensen senza dlss3, ovvero resident village,division,valhalla e siamo piu o meno la con le %
queste quelle che ha presentato il 20settembre
https://uploads.disquscdn.com/images/2fbbb8c97983f84bc311a38d9d7e44616fda057f9c099a606eb0fd2d0963e84b.png
Thunder-74
11-10-2022, 09:55
Un video di cose senza senso, rapporti fra CC oltretutto di generazioni differente, senza contare il silicio diverso e l'efficienza che questo porta.
Ma a parte gli strafalcioni tecnici dove non tiene conto del resto dell'architettura, ecc, la cosa peggiore è il continuo giustificare l'aumento di prezzo, di sto passo nel 2030 una gpu costerà 10k euro, "va più veloce della precedente".
Pensate se avessero fatto sto discorso nel 1980 sui processori
Non capisco come facciate a seguire certa gente :doh:
cut.
Credo che tu il video non lo abbia visto attentamente
1) non pretende di dare un valore certo delle performaces, perchè quelle le ha date nvidia con la sua slide
2) cerca di calcolare l'incremento delle prestazioni tra una 3090 e una 4090 e questo è sacrosanto, dimmi tu come fai a fare un confronto se non vuoi mettere a confronto le due architetture. Il tuo discorso sarebbe valido se si cercasse di ricavare in modo empirico le prestazione della 4090, partendo da una 3090, senza tener conto delle differenze architetturali, ma non è questo il caso. Oltretutto , proprio per evitare questo errore, tralascia i titoli in RT perchè Ampere priva di SER
3) Non giustifica i prezzi in senso assoluto, ma lo fa in modo relativo: analizza il delta prestazionale tra 3090 e 4090 e il delta costo tra 3090 e 4090, ed ha ragione a dire che la 4090 è più conveniente , condannando soprattutto la 4080/12.
Il problema è che quando è un italiano a parlare, siamo sempre diffidenti, convincendoci che solo gli americani, tedeschi ecc, sono meritevoli di attenzione.
Ripeto , ci sono tanti ciarlatani, tanti che in modo superficiale affrontano gli argomenti e alcuni che qualcosa di giusto lo dicono. Personalmente se avessi modo di metter mano su tutto l' HW, le conclusioni me le trarrei da solo, ma non avendo accesso a tali schede, qualche video me lo guardo volentieri. Sta a me poi carpire quello che di interessante fanno vedere/dicono e scartare le cose inutili o sbagliate.
Io credo che nella vita si possa imparare da tutti, sia a come fare che a come non fare. Sta con la nostra intelligenza fare cherry picking ;)
devAngnew
11-10-2022, 10:01
Nvidia RTX Titan Lovelace distrugge gli alimentatori e fa saltare i fusibili, lo sviluppo è stato interrotto
Al momento, non sembra che Nvidia rilascerà una nuova scheda video che dovrebbe superare presto l'RTX 4090 . Questa cosiddetta scheda RTX 4090 Ti o RTX Titan Ada richiederebbe molta più potenza rispetto al fratello minore da portare tutti i tipi di problemi tecnici.
Ad esempio, Law Is Dead di YouTuber Moore è stato informato che Nvidia ha testato un modello Lovelace con uno spessore di almeno quattro slot di espansione, due connettori 12VHPWR e un consumo energetico da 600 a 700 watt. Tuttavia, si dice che il produttore abbia interrotto lo sviluppo a causa di fusibili bruciati e alimentatori che si sono "sciolti" in laboratorio. In alcuni casi, alcuni campioni di prova si sarebbero autodistrutti perché la quantità di jab era semplicemente troppo alta.
Tom di MLID sospetta che Nvidia voglia prima aspettare l'arrivo delle GPU RDNA 3 di AMD , per poter stimare quanto potente dovrebbe essere il nuovo modello top di Lovelace. Nel frattempo, potrebbero essere disponibili chip di memoria più veloci come gddr6(x) o anche gddr7, in particolare quest'ultimo dovrebbe ridurre leggermente il consumo energetico. Questa GPU senza nome con il chip AD102 completamente abilitato dovrebbe essere dal 10 al 20% più veloce dell'RTX 4090.
FONTE (https://nl.hardware.info/nieuws/82926/lnvidia-rtx-titan-lovelace-sloopt-psurs-en-doet-zekeringen-springen-ontwikkeling-gepauzeerdr)
Articolo sensazionalistico, :rolleyes:
bonzoxxx
11-10-2022, 10:04
Articolo sensazionalistico, :rolleyes:
Decisamente, mi sembra strano che scoppino gli alimentatori o si fondano le schede..
Alekos Panagulis
11-10-2022, 10:11
E nel mentre, per i prime day c'è la evga 3090ti ftw3 a 1199euro venduta e spedita da amazon in offerta.
Signora scheda.
Io non comprerei una EVGA, ahimè. Fra un anno potrebbero aver finito sia le scorte per eventuali RMA sia la liquidità per i rimborsi. Credo che sia destinata a morire, a meno che non salti sul carro di AMD.
davide155
11-10-2022, 10:13
Credo che tu il video non lo abbia visto attentamente
1) non pretende di dare un valore certo delle performaces, perchè quelle le ha date nvidia con la sua slide
2) cerca di calcolare l'incremento delle prestazioni tra una 3090 e una 4090 e questo è sacrosanto, dimmi tu come fai a fare un confronto se non vuoi mettere a confronto le due architetture. Il tuo discorso sarebbe valido se si cercasse di ricavare in modo empirico le prestazione della 4090, partendo da una 3090, senza tener conto delle differenze architetturali, ma non è questo il caso. Oltretutto , proprio per evitare questo errore, tralascia i titoli in RT perchè Ampere priva di SER
3) Non giustifica i prezzi in senso assoluto, ma lo fa in modo relativo: analizza il delta prestazionale tra 3090 e 4090 e il delta costo tra 3090 e 4090, ed ha ragione a dire che la 4090 è più conveniente , condannando soprattutto la 4080/12.
Il problema è che quando è un italiano a parlare, siamo sempre diffidenti, convincendoci che solo gli americani, tedeschi ecc, sono meritevoli di attenzione.
Ripeto , ci sono tanti ciarlatani, tanti che in modo superficiale affrontano gli argomenti e alcuni che qualcosa di giusto lo dicono. Personalmente se avessi modo di metter mano su tutto l' HW, le conclusioni me le trarrei da solo, ma non avendo accesso a tali schede, qualche video me lo guardo volentieri. Sta a me poi carpire quello che di interessante fanno vedere/dicono e scartare le cose inutili o sbagliate.
Io credo che nella vita si possa imparare da tutti, sia a come fare che a come non fare. Sta con la nostra intelligenza fare cherry picking ;)Eh niente. È più forte di loro.
Guardano un video di più di 20minuti skippando ed estrapolando pezzi qua e la.
Ma è lui stesso a chiamare la 4080, 4070, ed a condannare nvidia per la logica dei prezzi delle 4080.
Soprattutto alla fine mette bene in guardia a spendere 2mila euro di gpu quando con un quarto si gioca benissimo in 1440p a qualsiasi gioco.... Non capisco dove abbiano visto che difende nvidia.
A chi fosse interessato la 4090 Strix di Asus sul dragone è gia ordinabile, il prezzo ancora non compare a listino (2599 Euro) e la da come presto ordinabile ma ponendo più attenzione su una sfuggente casella promo se clicchi la metti nel carrello, compare il prezzo e puoi procedere al pagamento preferito.
Fate voi ! :eek:
narniagreen
11-10-2022, 10:15
Credo che tu il video non lo abbia visto attentamente
1) non pretende di dare un valore certo delle performaces, perchè quelle le ha date nvidia con la sua slide
2) cerca di calcolare l'incremento delle prestazioni tra una 3090 e una 4090 e questo è sacrosanto, dimmi tu come fai a fare un confronto se non vuoi mettere a confronto le due architetture. Il tuo discorso sarebbe valido se si cercasse di ricavare in modo empirico le prestazione della 4090, partendo da una 3090, senza tener conto delle differenze architetturali, ma non è questo il caso. Oltretutto , proprio per evitare questo errore, tralascia i titoli in RT perchè Ampere priva di SER
3) Non giustifica i prezzi in senso assoluto, ma lo fa in modo relativo: analizza il delta prestazionale tra 3090 e 4090 e il delta costo tra 3090 e 4090, ed ha ragione a dire che la 4090 è più conveniente , condannando soprattutto la 4080/12.
Il problema è che quando è un italiano a parlare, siamo sempre diffidenti, convincendoci che solo gli americani, tedeschi ecc, sono meritevoli di attenzione.
Ripeto , ci sono tanti ciarlatani, tanti che in modo superficiale affrontano gli argomenti e alcuni che qualcosa di giusto lo dicono. Personalmente se avessi modo di metter mano su tutto l' HW, le conclusioni me le trarrei da solo, ma non avendo accesso a tali schede, qualche video me lo guardo volentieri. Sta a me poi carpire quello che di interessante fanno vedere/dicono e scartare le cose inutili o sbagliate.
Io credo che nella vita si possa imparare da tutti, sia a come fare che a come non fare. Sta con la nostra intelligenza fare cherry picking ;)
Premettendo che non perdo mai tempo a guardare i video degli youtuber, ma non per qualche odio o chissà che, ma per non perdere tempo in cose che ritengo inutili, anche un altro utente mi ha fatto notare il video e mi son detto "dai lo guardo a 1.5x..." e fa confronti tanto al kilo, un confronto fps/cc, ma mi dici che cosa vuol dire fps/cc ??? e anche il cc/kw? senza nemmeno dire una volta, UNA, che è stato fatto un salto nodo doppio carpiato! :doh:
Tu mica paghi i cuda, tu paghi la scheda finita.
E qua cadrebbe proprio tutto il discorso e il senso del video, quindi o fai un video dove spieghi come funziona una microarchitettura, dove dietro c'è un processo produttivo, dei Die con dimensioni differenti (dai diciamo micro che poi mike si incazza :D), oppure ti limiti a dare delle percentuali e rapporti di costo/prestazioni o consumi/prestazioni che lo capiscono tutti ed è la cosa fondamentale e fruibile ai più.
PS. Onestamente una volta che stai qua dentro, e ti informi, dubito tu abbia bisogno di altre fonti dove capire quale scheda convenga, a prescindere dalle guerre di bandiera.
Eh niente. È più forte di loro.
Guardano un video di più di 20minuti skippando ed estrapolando pezzi qua e la.
Ma è lui stesso a chiamare la 4080, 4070, ed a condannare nvidia per la logica dei prezzi delle 4080.
Soprattutto alla fine mette bene in guardia a spendere 2mila euro di gpu quando con un quarto si gioca benissimo in 1440p a qualsiasi gioco.... Non capisco dove abbiano visto che difende nvidia.
vedi sopra
Bloodline Limit
11-10-2022, 10:25
Una domanda dato che sono poco ferrato... :fagiano:
Avrei modo di prendere una 3080 gigabyte 10gb e una 6800xt tuf a circa lo stesso prezzo.
Preferirei la nvidia, ma ho il dubbio se i 10gb di memoria possano essere sottodimensionati per l'avvenire.
C'è rischio? Gioco in 3440x1440
Grazie :fagiano:
E' il discorso che ho fatto proprio prima, AMD se la cava in quanto le unità RT non sono spremute, soprattutto se prendiamo il 1440p ancora meno esigente.
Su cyber 8 fps sono il 20% su due schede non equivalenti. A schede equivalenti hai 30 vs 49, ovvero il 64%
Su l'uso RT, devi valutare questo, ti posso fare 3 esempi:
Questo è con una 1080ti, solo software, la 1080ti è in grado di fare lo stesso lavoro della 2070 super con HW nativo.
https://i.postimg.cc/FHhGTgrc/rt-tomb-raider.png
Oppure questo:
FC6 fasce allineate.
https://i.postimg.cc/59hfQjxD/fc-rt.png
Appena però metti un pò di RT, torniamo al 60% per fascia.
DL2
https://i.postimg.cc/yYpXTqGq/dl-rt.png
Quindi, per ricollegarsi, al discorso che abbiamo fatto stamattina con Amon, AMD in vari titoli può sopperire agli RT core con lo shading, ma dipende da come viene implementato il RT e dalla res.
Nel caso di RT spinto, dovrebbe colmare con il 60-65% di shading.
La differenza tra i due RT la noti qua, o per usi pro, ma sono scenari irreali e troppo complessi da gestire per entrambe.:)
https://i.postimg.cc/YqXZmCBQ/mincraft.png
Tutto chiaro Mikael ma voglio precisare una cosa, non intendevo dire che il RT di AMD fatto via shading ha possibilità di paragonarsi al RT di nVidia (o Intel Arc) ottenuto via hardware, ma che, a discapito di quanto si possa pensare, può comunque fruirne.
Ci sono casi, ok con implementazioni non massiccie, nel quale il RT è pensato per dare il meglio su RDNA2, vedi Far Cry 6, ebbene in questo caso lo shading la spunta sull'hardware dedicato, aggiungo Watch Dog Legion ad esempio, AMD non sfigura certo:
https://tinypic.host/images/2022/10/11/untitled-24.png
Il mio è un pò un discorso di proiezione futura, RDNA3, se non avrà un HW dedicato potrà comunque contare su una parte shading poderosa, se RDNA 3 avrà anche solo qualche modifica nella gestione del RT allora sarà davvero una proposta completa. Cosa che francamente mi aspetto (e spero!). :)
Alekos Panagulis
11-10-2022, 10:28
Una domanda dato che sono poco ferrato... :fagiano:
Avrei modo di prendere una 3080 gigabyte 10gb e una 6800xt tuf a circa lo stesso prezzo.
Preferirei la nvidia, ma ho il dubbio se i 10gb di memoria possano essere sottodimensionati per l'avvenire.
C'è rischio? Gioco in 3440x1440
Grazie :fagiano:
Dipende. Se sei uno che cambia ogni anno, oppure ogni due, prendi la 3080.
Se sei solito a tenere la VGA anni e a farla diventare obsoleta prima di cambiarla, prendi la la 6800xt.
Thunder-74
11-10-2022, 10:30
Premettendo che non perdo mai tempo a guardare i video degli youtuber, ma non per qualche odio o chissà che, ma per non perdere tempo in cose che ritengo inutili, anche un altro utente mi ha fatto notare il video e mi son detto "dai lo guardo a 1.5x..." e fa confronti tanto al kilo, un confronto fps/cc, ma mi dici che cosa vuol dire fps/cc ??? e anche il cc/kw? senza nemmeno dire una volta, UNA, che è stato fatto un salto nodo doppio carpiato! :doh:
Tu mica paghi i cuda, tu paghi la scheda finita.
E qua cadrebbe proprio tutto il discorso e il senso del video, quindi o fai un video dove spieghi come funziona una microarchitettura, dove dietro c'è un processo produttivo, dei Die con dimensioni differenti (dai diciamo micro che poi mike si incazza :D), oppure ti limiti a dare delle percentuali e rapporti di costo/prestazioni o consumi/prestazioni che lo capiscono tutti ed è la cosa fondamentale e fruibile ai più.
PS. Onestamente una volta che stai qua dentro, e ti informi, dubito tu abbia bisogno di altre fonti dove capire quale scheda convenga, a prescindere dalle guerre di bandiera.
vedi sopra
ho fatto un post in due parti. nella prima ho spiegato cosa intendeva ottenere con i suoi calcoli e ritengo l'approccio corretto. Nella seconda mia parte di post, dico che non predo tutte le info come essenziali o corrette, perchè non sono uno sprovveduto. Dare un valore ai Cuda, concordo con te che ha poco senso. Bene questo si scarta..
Bloodline Limit
11-10-2022, 10:43
Dipende. Se sei uno che cambia ogni anno, oppure ogni due, prendi la 3080.
Se sei solito a tenere la VGA anni e a farla diventare obsoleta prima di cambiarla, prendi la la 6800xt.
Solitamente le tengo qualche anno
Mi sono posto il dubbio perchè tenendola per un po di tempo penso che sarò costretto ad utilizzare il dlss per eventuali nuovi titoli e da quel poco che ho visto attivandolo l'utilizzo della vram diminuisce
Sbaglio qualcosa? :stordita:
piperprinx
11-10-2022, 10:45
In ottica di liquidare velocemente, dovesse andare buca con la FE, qualcuno ha trovato fonti su quali 4090 siano reference? a naso ovviamente direi la classica Zotac trinity, ma qualcosa di piu' sicuro non e' uscito, vero?
Una domanda dato che sono poco ferrato... :fagiano:
Avrei modo di prendere una 3080 gigabyte 10gb e una 6800xt tuf a circa lo stesso prezzo.
Preferirei la nvidia, ma ho il dubbio se i 10gb di memoria possano essere sottodimensionati per l'avvenire.
C'è rischio? Gioco in 3440x1440
Grazie :fagiano:
Vai con Nvidia senza pensarci troppo, con dlss hai voglia a mantenerla. Ho la stessa scheda e tiene senza difficoltà almeno i 60 fps, senza alcuna rinuncia, in tutti i giochi a 3840x2160.
No, i 10gb di memoria non sono per nulla sottodimensionati, il buffer tende a saturarli sia che tu ne abbia 10 che 20. Per il momento a livello di prestazioni non c'è differenza.
Più che altro è importante avere una cpu adeguata a supporto, in quel caso la differenza prestazionale diventa rilevante. ;)
appleroof
11-10-2022, 11:01
ho deciso, prenderò una Arc Intel, nvidia attaccati Arca77o
Bloodline Limit
11-10-2022, 11:13
Vai con Nvidia senza pensarci troppo, con dlss hai voglia a mantenerla. Ho la stessa scheda e tiene senza difficoltà almeno i 60 fps, senza alcuna rinuncia, in tutti i giochi a 3840x2160.
No, i 10gb di memoria non sono per nulla sottodimensionati, il buffer tende a saturarli sia che tu ne abbia 10 che 20. Per il momento a livello di prestazioni non c'è differenza.
Più che altro è importante avere una cpu adeguata a supporto, in quel caso la differenza prestazionale diventa rilevante. ;)
ho un 5600x su base b550 e 32gb di ram, dovrei esserci
magic carpet
11-10-2022, 11:25
https://videocardz.com/press-release/3dmark-speed-way-directx12-ultimate-benchmark-launches-on-october-12th
mmmm... che altro usciva il 12 ottobre? :mbe:
DJurassic
11-10-2022, 11:35
Ma dal sito Nvidia mi sapete spiegare come mai non si può acquistare con p.iva?
appleroof
11-10-2022, 11:40
Ma dal sito Nvidia mi sapete spiegare come mai non si può acquistare con p.iva?
lo ha deciso la GdF :asd:
Una domanda dato che sono poco ferrato... :fagiano:
Avrei modo di prendere una 3080 gigabyte 10gb e una 6800xt tuf a circa lo stesso prezzo.
Preferirei la nvidia, ma ho il dubbio se i 10gb di memoria possano essere sottodimensionati per l'avvenire.
C'è rischio? Gioco in 3440x1440
Grazie :fagiano:
Ma quanto la stai pagando?
Tieni conto che la 6800XT la trovi a poco più di 600€ e con 100€ in più ti prendi una 6900XT.
Personalmente non comprerei una scheda video di fascia alta con meno di 12Gb perché stanno per uscire i giochi su UE5 e sono dei bei mattoni :asd:
Su steam ci sono i demo per UE5 e come requisito minimo per il 1080p c'è una 1070/1080 da 8Gb in base alla demo scaricata :mc:
Alcuni ti diranno che UE5 girerà anche su console, ma l'ottimizzazione per pc è tutta un'altra storia :D e quindi per i 4k meglio avere almeno 12Gb ;)
Bloodline Limit
11-10-2022, 12:02
Ma quanto la stai pagando?
Tieni conto che la 6800XT la trovi a poco più di 600€ e con 100€ in più ti prendi una 6900XT.
Personalmente non comprerei una scheda video di fascia alta con meno di 12Gb perché stanno per uscire i giochi su UE5 e sono dei bei mattoni :asd:
Su steam ci sono i demo per UE5 e come requisito minimo per il 1080p c'è una 1070/1080 da 8Gb in base alla demo scaricata :mc:
Alcuni ti diranno che UE5 girerà anche su console, ma l'ottimizzazione per pc è tutta un'altra storia :D e quindi per i 4k meglio avere almeno 12Gb ;)
Le pagherei entrambe a grandi linee sui 660€
Poi se è uscita una 3080 da 12gb e tutte le top gamma 4000 hanno da 12gb in su, penso che un motivo ci sarà :fagiano:
bonzoxxx
11-10-2022, 12:02
Una domanda dato che sono poco ferrato... :fagiano:
Avrei modo di prendere una 3080 gigabyte 10gb e una 6800xt tuf a circa lo stesso prezzo.
Preferirei la nvidia, ma ho il dubbio se i 10gb di memoria possano essere sottodimensionati per l'avvenire.
C'è rischio? Gioco in 3440x1440
Grazie :fagiano:
Boh io gioco a tutto con la tua stessa risoluzione e problemi non ne ho avuti.
CP2077 lo maxo in RT e con dlss su quality lo tengo cappato a 55 fps poichè lo schermo mio è a 165hz
Su steam ci sono i demo per UE5 e come requisito minimo per il 1080p c'è una 1070/1080 da 8Gb in base alla demo scaricata :mc:
Ora le cerco sono curioso :)
mikael84
11-10-2022, 12:03
Un video di cose senza senso, rapporti fra CC oltretutto di generazioni differente, senza contare il silicio diverso e l'efficienza che questo porta.
Ma a parte gli strafalcioni tecnici dove non tiene conto del resto dell'architettura, ecc, la cosa peggiore è il continuo giustificare l'aumento di prezzo, di sto passo nel 2030 una gpu costerà 10k euro, "va più veloce della precedente".
Pensate se avessero fatto sto discorso nel 1980 sui processori
Non capisco come facciate a seguire certa gente :doh:
:asd:
Per carità nessuno nasce imparato, nemmeno io sapevo ste cose, ma almeno non mi sono mai messo a fare video su youtube come quello, se vuole farlo, che almeno imparasse le basi.
Premettendo che non perdo mai tempo a guardare i video degli youtuber, ma non per qualche odio o chissà che, ma per non perdere tempo in cose che ritengo inutili, anche un altro utente mi ha fatto notare il video e mi son detto "dai lo guardo a 1.5x..." e fa confronti tanto al kilo, un confronto fps/cc, ma mi dici che cosa vuol dire fps/cc ??? e anche il cc/kw? senza nemmeno dire una volta, UNA, che è stato fatto un salto nodo doppio carpiato! :doh:
Tu mica paghi i cuda, tu paghi la scheda finita.
E qua cadrebbe proprio tutto il discorso e il senso del video, quindi o fai un video dove spieghi come funziona una microarchitettura, dove dietro c'è un processo produttivo, dei Die con dimensioni differenti (dai diciamo micro che poi mike si incazza :D), oppure ti limiti a dare delle percentuali e rapporti di costo/prestazioni o consumi/prestazioni che lo capiscono tutti ed è la cosa fondamentale e fruibile ai più.
PS. Onestamente una volta che stai qua dentro, e ti informi, dubito tu abbia bisogno di altre fonti dove capire quale scheda convenga, a prescindere dalle guerre di bandiera.
vedi sopra
:asd: :asd:
ho fatto un post in due parti. nella prima ho spiegato cosa intendeva ottenere con i suoi calcoli e ritengo l'approccio corretto. Nella seconda mia parte di post, dico che non predo tutte le info come essenziali o corrette, perchè non sono uno sprovveduto. Dare un valore ai Cuda, concordo con te che ha poco senso. Bene questo si scarta..
Ha fatto un post di una banalità disarmante. Ha preso un gioco e ne ha calcolato l'efficienza della microarchitettura su tale gioco, poi l'ha applicato alla 4060 12, e come risultato gli ha dato 43 su 50, ovvero 4060 12, sotto il 17% rispetto alla 3090. Poi dice, vabbè l'efficienza è migliore, mettiamoli 5fps in più dai... facciamo 48-49.:p
Quindi è un calcolo nullo.
Come ribattuto sopra anche da grid, sta solo paragonando ALU x clock ed applicando l'efficienza su un chip che non scala al meglio.:p
Anche il discorso watt x cuda è davvero deprimente, la GPU è composta da tanti altri stadi che lavorano, ridurre il tutto a cuda per watt... è di una banalità disarmante.
Se conoscesse un minimo di microarchitettura, al massimo dovrebbe parlare di warp (thread), che schedula tutte le unità.:p
Ripeto nulla contro sti youtuber per carità, ma il livello è di una banalità devastante.
Cmq dai - 2 ore, e vedremmo seriamente la cosa.:)
no_side_fx
11-10-2022, 12:05
Alcuni ti diranno che UE5 girerà anche su console, ma l'ottimizzazione per pc è tutta un'altra storia :D e quindi per i 4k meglio avere almeno 12Gb ;)
come sempre la versione pc sarà un copia-incolla di quella console con l'aggiunto di qualche effettino
è improbabile che facciano ottimizzazione solo per quel 2% di persone che hanno schede da 12gb, giusto per il 4k..
Thunder-74
11-10-2022, 12:18
:asd: :asd:
Ha fatto un post di una banalità disarmante. Ha preso un gioco e ne ha calcolato l'efficienza della microarchitettura su tale gioco, poi l'ha applicato alla 4060 12, e come risultato gli ha dato 43 su 50, ovvero 4060 12, sotto il 17% rispetto alla 3090. Poi dice, vabbè l'efficienza è migliore, mettiamoli 5fps in più dai... facciamo 48-49.:p
Quindi è un calcolo nullo.
Come ribattuto sopra anche da grid, sta solo paragonando ALU x clock ed applicando l'efficienza su un chip che non scala al meglio.:p
Anche il discorso watt x cuda è davvero deprimente, la GPU è composta da tanti altri stadi che lavorano, ridurre il tutto a cuda per watt... è di una banalità disarmante.
Se conoscesse un minimo di microarchitettura, al massimo dovrebbe parlare di warp (thread), che schedula tutte le unità.:p
Ripeto nulla contro sti youtuber per carità, ma il livello è di una banalità devastante.
Cmq dai - 2 ore, e vedremmo seriamente la cosa.:)
Mike, in merito alle performaces 3080 vs 4090 , sono i ragionamenti fatti anche qui, traendo le medesime considerazioni oltretutto. Banale lui , banali noi. Come già detto prima, non tutto deve essere preso per buono da un video, come non tutte le supposizioni che vengono dette in questo forum devono essere prese per vere, perchè cazz@te sono state dette anche qui nel tempo. Nessuno qui divulga il verbo . :)
Le pagherei entrambe a grandi linee sui 660€
Poi se è uscita una 3080 da 12gb e tutte le top gamma 4000 hanno da 12gb in su, penso che un motivo ci sarà :fagiano:
Io con 700€ prenderi una 6900XT che ha anche delle prestazioni dignitose in RT ed è superiore in rasterizzazione.
come sempre la versione pc sarà un copia-incolla di quella console con l'aggiunto di qualche effettino
è improbabile che facciano ottimizzazione solo per quel 2% di persone che hanno schede da 12gb, giusto per il 4k..
Tieni conto che ormai quasi tutti i AAA hanno il pack texture a 4k che ti fa fare il salto di qualità rispetto alle console, ma ti satura di brutto la vram :asd:
fraussantin
11-10-2022, 12:29
Una domanda dato che sono poco ferrato... :fagiano:
Avrei modo di prendere una 3080 gigabyte 10gb e una 6800xt tuf a circa lo stesso prezzo.
Preferirei la nvidia, ma ho il dubbio se i 10gb di memoria possano essere sottodimensionati per l'avvenire.
C'è rischio? Gioco in 3440x1440
Grazie :fagiano:Te la faccio semplice , con nvidia dovrai abbassare i settaggi di texture , con amd dovrai abbassare o togliere del tutto i settaggi di raytractng.
In ogni caso aspetta l'uscita delle nuove amd. Sia mai che ua 7700xt sia sui 650 euro e sia migliore di entrambe.
Ale55andr0
11-10-2022, 12:29
Io con 700€ prenderi una 6900XT che ha anche delle prestazioni dignitose in RT ed è superiore in rasterizzazione.
Tieni conto che ormai quasi tutti i AAA hanno il pack texture a 4k che ti fa fare il salto di qualità rispetto alle console, ma ti satura di brutto la vram :asd:
bah, io veramente vedo ancora robe orripilanti lato texture :asd:
fraussantin
11-10-2022, 12:31
è improbabile che facciano ottimizzazione solo per quel 2% di persone che hanno schede da 12gb, giusto per il 4k..
Più è altro è improbabile che facciano proprio ottimizzazioni :asd:
In linea di massima più potenza c'è meglio è.
mikael84
11-10-2022, 12:31
Tutto chiaro Mikael ma voglio precisare una cosa, non intendevo dire che il RT di AMD fatto via shading ha possibilità di paragonarsi al RT di nVidia (o Intel Arc) ottenuto via hardware, ma che, a discapito di quanto si possa pensare, può comunque fruirne.
Ci sono casi, ok con implementazioni non massiccie, nel quale il RT è pensato per dare il meglio su RDNA2, vedi Far Cry 6, ebbene in questo caso lo shading la spunta sull'hardware dedicato, aggiungo Watch Dog Legion ad esempio, AMD non sfigura certo:
Il mio è un pò un discorso di proiezione futura, RDNA3, se non avrà un HW dedicato potrà comunque contare su una parte shading poderosa, se RDNA 3 avrà anche solo qualche modifica nella gestione del RT allora sarà davvero una proposta completa. Cosa che francamente mi aspetto (e spero!). :)
Si assolutamente, questo è un discorso che spesso sento, come "le AMD non hanno unità RT o non possono fare RT"e mi fa pure incavolare, perchè spesso la gente si informa proprio dagli youtuber.:)
AMD però non può più prendere sottogamba il RT e deve migliorare, se c'è riuscito Koduri, non vedo perchè non debba riuscirci Lisa, soprattutto a livello di immagine.:)
bah, io veramente vedo ancora robe orripilanti lato texture :asd:
Il problema è l'ottimizzazione :D
Per esempio su AC Valhalla alcune volte succede che gli oggetti sul tavolo hanno le texture a 4k mentre il tavolo ha le texture della PS2 :asd:
Per non dimenticare
https://i.postimg.cc/Hn17zrPM/photo-2022-10-11-13-41-31.jpg (https://postimages.org/)
:sofico:
mikael84
11-10-2022, 12:51
Mike, in merito alle performaces 3080 vs 4090 , sono i ragionamenti fatti anche qui, traendo le medesime considerazioni oltretutto. Banale lui , banali noi. Come già detto prima, non tutto deve essere preso per buono da un video, come non tutte le supposizioni che vengono dette in questo forum devono essere prese per vere, perchè cazz@te sono state dette anche qui nel tempo. Nessuno qui divulga il verbo . :)
Quelle che abbiamo fatto noi, erano speculazioni su dati di kopite senza riferimenti, ma su basi tecniche, ed infatti ci abbiamo preso in linea di massima (neppure JHH si può aspettare il dato al millesimo, infatti spesso proiettano e correggono in fase finale).:p Lui non conoscendo la microarchitettura non ci sarebbe arrivato.
La frase dove dice, "vabbè ci aggiungo 4-5fps per l'efficienza" è una barzelletta.:p
Poi boh, mio punto di vista.:)
scorpion73
11-10-2022, 13:03
Te la faccio semplice , con nvidia dovrai abbassare i settaggi di texture , con amd dovrai abbassare o togliere del tutto i settaggi di raytractng.
In ogni caso aspetta l'uscita delle nuove amd. Sia mai che ua 7700xt sia sui 650 euro e sia migliore di entrambe.
Secondo te in 1440p (non UW) basteranno 10gb per le texture?
amon.akira
11-10-2022, 13:05
Quelle che abbiamo fatto noi, erano speculazioni su dati di kopite senza riferimenti, ma su basi tecniche, ed infatti ci abbiamo preso in linea di massima (neppure JHH si può aspettare il dato al millesimo, infatti spesso proiettano e correggono in fase finale).:p Lui non conoscendo la microarchitettura non ci sarebbe arrivato.
La frase dove dice, "vabbè ci aggiungo 4-5fps per l'efficienza" è una barzelletta.:p
Poi boh, mio punto di vista.:)
si ma alla fine per dire cosa, che la 12gb sarà a livello della 3090 senza dlss3, ce l ha fatto vedere jhh alla presentazione.
no_side_fx
11-10-2022, 13:07
Tieni conto che ormai quasi tutti i AAA hanno il pack texture a 4k che ti fa fare il salto di qualità rispetto alle console, ma ti satura di brutto la vram :asd:
per quello hanno inventato il DLSS
upascaling e via .. :asd:
ancora 45min di sofferenza :sofico:
FrancoBit
11-10-2022, 13:17
ancora 45min di sofferenza :sofico:
E poi, siamo sicuri che sarà gioia? :stordita:
mikael84
11-10-2022, 13:20
si ma alla fine per dire cosa, che la 12gb sarà a livello della 3090 senza dlss3, ce l ha fatto vedere jhh alla presentazione.
Infatti. JHH ce l'ha confermato a dire la verità.:D
E poi, siamo sicuri che sarà gioia? :stordita:
gioia non lo so, più che altro vedremo quanto giacchettina ha mentito sui benchmark
DJurassic
11-10-2022, 13:27
E poi, siamo sicuri che sarà gioia? :stordita:
Io sono sicuro che sarà scimmia :asd:
https://media.tenor.com/IiQ8SJFd3IsAAAAC/funny-animals-walking.gif
Giovamas
11-10-2022, 13:29
ancora 45min di sofferenza :sofico:
il conto alla rovescia una volta lo facevo prima dell'appuntamento con una tipa ora per un pezzo (carissimo) di silicio.. eh si cambia.. :D vediamo che ne esce va poi decido
FrancoBit
11-10-2022, 13:29
gioia non lo so, più che altro vedremo quanto giacchettina ha mentito sui benchmark
Son curioso anch'io non posso non ammetterlo...
Io sono sicuro che sarà scimmia :asd:
https://media.tenor.com/IiQ8SJFd3IsAAAAC/funny-animals-walking.gif
Questo è già sul gorilla andante ocio :D
mikael84
11-10-2022, 13:32
il conto alla rovescia una volta lo facevo prima dell'appuntamento con una tipa ora per un pezzo (carissimo) di silicio.. eh si cambia.. :D vediamo che ne esce va poi decido
Giova, prendi subito la 4090?:)
Gigibian
11-10-2022, 13:32
ancora 45min di sofferenza :sofico:
per cosa? spendere 2000 eurozzi per una 4090? o c'è qualcos'altro che mi sono perso?
OvErClOck82
11-10-2022, 13:34
per cosa? spendere 2000 eurozzi per una 4090? o c'è qualcos'altro che mi sono perso?
si, che probabilmente saranno 2500 :asd:
Giovamas
11-10-2022, 13:36
Giova, prendi subito la 4090?:)
dopo decido. O meglio dopo il tuo parere. in ogni caso.. o 4090 o salto.
DJurassic
11-10-2022, 13:41
si, che probabilmente saranno 2500 :asd:
Non se prendi una FE.
magic carpet
11-10-2022, 13:52
Anche questo infatti :) poi vabbe non tutti possono piacere gli youtuber.
Comunque vediamo dai video tra poco io guarderò i prodigeek voi chi guardarete?La recensione SCRITTA di hwupgrade 😁
FrancoBit
11-10-2022, 13:53
Anche questo infatti :) poi vabbe non tutti possono piacere gli youtuber.
Comunque vediamo dai video tra poco io guarderò i prodigeek voi chi guardarete?
Io di solito leggo:
hwupgrade
techpowerup
techspot
guru3d
ecc
Video a tempo perso in pausa pranzo, di solito Jayz2cents, linus, TechJesus e DottorBauer
Gigibian
11-10-2022, 13:54
La recensione SCRITTA di hwupgrade 😁
prepariamoci a ridere di gusto...
nuova generazione con pp dimezzato senza guadagno in perf/watt...
+50% potenza +50% consumi....
vedremo tra 6 minuti :D
Ale55andr0
11-10-2022, 13:59
-1 min XD
-1 min XD
Se vuoi contiamo anche i secondi :D
Predator_1982
11-10-2022, 14:00
sono pronto :read:
DJurassic
11-10-2022, 14:00
https://media.tenor.com/w8kAoMlhgjQAAAAM/so-it-begins-raining.gif
Giovamas
11-10-2022, 14:00
Io di solito leggo:
hwupgrade
techpowerup
techspot
guru3d
ecc
Video a tempo perso in pausa pranzo, di solito Jayz2cents, linus, TechJesus e DottorBauer
guru3d
hwupgrade
Mike
video .. bah.. mai guardati. quelli li guardo per il tuning CPU
Alekos Panagulis
11-10-2022, 14:00
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_3840-2160.png
Ale55andr0
11-10-2022, 14:00
Se vuoi contiamo anche i secondi :D
la tristezza della mia esistenza :asd:
amon.akira
11-10-2022, 14:01
prepariamoci a ridere di gusto...
nuova generazione con pp dimezzato senza guadagno in perf/watt...
+50% potenza +50% consumi....
vedremo tra 6 minuti :D
dici che la 4090 a 450w farà come la 3090 a 450w? :sofico:
DJurassic
11-10-2022, 14:02
Dico solo questo,
https://media1.giphy.com/media/3oKIPa2TdahY8LAAxy/giphy.gif
Sono uscite, qui sono un po indietro :sofico:
Predator_1982
11-10-2022, 14:03
ok la compro
DJurassic
11-10-2022, 14:05
ok la compro
https://c.tenor.com/xPsPQLFKAy0AAAAd/risitas.gif
albero77
11-10-2022, 14:06
Dico solo questo,
https://media1.giphy.com/media/3oKIPa2TdahY8LAAxy/giphy.gif
Rtx 3090ti has left the chat:D
Sto vedendo le varie rece.
Una cosa è pazzesca la 4090 scala di brutto a 4K.
A a 1440p lo stacco con la precedente gen è nella norma, ma a 4k lo stacco è MOSTRUOSO :D
Predator_1982
11-10-2022, 14:08
Sto vedendo le varie rece.
Una cosa è pazzesca la 4090 scala di brutto a 4K.
A a 1440p lo stacco con la precedente gen è nella norma, ma a 4k lo stacco è MOSTRUOSO :D
porca paletta se lo è...devastante. Giacchetta maledizione, prendi i miei sporchi soldi
Ale55andr0
11-10-2022, 14:08
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_3840-2160.png
francamente un + 45% sulla 90ti senza fake resolution mi pare deludente stando il pp molto più avanzato di quello schifo di samsung, i consumi, il clock e il connettore spininculo
Giovamas
11-10-2022, 14:08
ok la compro
la FE o vedi le custom?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.