View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Thunder-74
08-11-2022, 06:53
PCB 4080 ... che tristezza...
https://cdn.videocardz.com/1/2022/11/NVIDIA-RTX4080-FOUNDERS-EDITION-PCB-AD103-GPU-1-768x432.jpg
Cutter90
08-11-2022, 06:55
https://wccftech.com/nvidia-geforce-rtx-4080-graphics-card-geekbench-5-benchmarks-leas-out-faster-than-rtx-3090-ti/
certo certo.... Sto ancora spettando sti punti sulla mappa che poi stasera lo vediamo davvero come si vede... ;)
..cmq ripeto: a te hanno rifilato la versione PS 4 :asd:
Ma poi tu giochi solo a cp 2077 con il dlss?
https://www.youtube.com/watch?v=ZNJT6i8zpHQ
Ecco qua, fine. Questa è un analisi tecnica e oggettiva. Guardala, capiscila. E di certo non dice che è meglio FSR del dlss. Fattene una ragione e andiamo avanti.
Non è possibile che ogni volta che viene nominato il dlss salti fuori tu con la tua crociata contro il dlss su pc 2077. Penso sia ora di darci un taglio.
Cmq, ho piazzato l'ordine su uan liquid X 4090......:eek:
Ale55andr0
08-11-2022, 07:10
Ma poi tu giochi solo a cp 2077 con il dlss?
https://www.youtube.com/watch?v=ZNJT6i8zpHQ
Ecco qua, fine. Questa è un analisi tecnica e oggettiva. Guardala, capiscila. E di certo non dice che è meglio FSR del dlss. Fattene una ragione e andiamo avanti.
Non è possibile che ogni volta che viene nominato il dlss salti fuori tu con la tua crociata contro il dlss su pc 2077. Penso sia ora di darci un taglio.
Cmq, ho piazzato l'ordine su uan liquid X 4090......:eek:
La fine non la sancisci ne tu ne una testata in cui scrivono altri tizi e caio come te e me ( o pensi che siano degli ingegneri del software o programmatori di motori 3d :asd:), per me decido io e i miei OCCHI. "Fine".
E cmq mi piace come omettete di quotare gli altri qui che la pensano come me come fossi l'unico a vedere certe cosucce ...;) Cmq no, lo ho provato anche su RDR 2 e su Horizon zero dawn
Thunder-74
08-11-2022, 07:22
Scusate la banalità del mio concetto... leggo pagine e pagine di diatribe DLSS vs FSR .. ma a che pro? Avete una nVidia? usate quel che più vi piace.
Avete una AMD? mi dispiace, potete usare solo FSR , ma se è quello che preferite, tanto meglio, state con AMD e tutti sono felici e contenti, senza che agli utenti del thread venga l'orchite. :)
Ale55andr0
08-11-2022, 07:27
mi dispiace, potete usare solo FSR , ma se è quello che preferite, tanto meglio, state con AMD e tutti sono felici e contenti, senza che agli utenti del thread venga l'orchite. :)
Si, io ho una AMD RTX3070 Ati anniversary edition
Thunder-74
08-11-2022, 07:29
Si, io ho una AMD RTX3070 Ati anniversary edition
ti piacciono i meticci ... :D
ray_hunter
08-11-2022, 07:49
Scusate la banalità del mio concetto... leggo pagine e pagine di diatribe DLSS vs FSR .. ma a che pro? Avete una nVidia? usate quel che più vi piace.
Avete una AMD? mi dispiace, potete usare solo FSR , ma se è quello che preferite, tanto meglio, state con AMD e tutti sono felici e contenti, senza che agli utenti del thread venga l'orchite. :)
Ma si appunto...
Trovo assurdo che si stia qua a denigrare le feature. Che ognuno metta ciò che preferisce con quello che ha a disposizione dai...
Star li a guardare le analisi di screens a zoom 300% va bene perché siamo dei nerd e ci piace, ma dire che il gioco fa schifo perché si trovano difetti che per essere notati hanno bisogno di immagini statiche zoomate è un po' ridicolo dai...
CP2077 non fa schifo ne con DLSS ne con FSR, così come GOW è godibilissimo allo stesso identico livello con entrambi gli algoritmi!
Il tecnicismo è bello, adoro il DF ma è spesso fine a se stesso, ci aiuta a capire come lavorano gli algoritmi e cosa aspettarci, ma poi giocare è un'altra cosa!!!
cronos1990
08-11-2022, 08:07
Cmq si', visto che ci tieni (e non oso immaginare in movimento :doh:):
https://i.imgur.com/wUxrVVo.jpg
https://i.imgur.com/w9raAWJ.jpg
https://i.imgur.com/ahjrpwA.jpg
Quoto...le immagini parlano da sole pur ridimensionate dall'impaginazione...:Puke:Lo so che mi pentirò di questo commento, ma a tutto c'è un limite. Tralasciando il primo screenshot del quote, i due successivi sono il primo con DLSS e il secondo con FSR (che chiamerò genericamente Prima immagine e Seconda immagine). Per inciso: lo tralascio perchè hai "volutamente" evitato di riportare anche l'altro di confronto, e da come hai "analizzato" i due successivi viene da domandarsi se sai quale hai postato: quello con il DLSS o l'FSR.
Primo punto: è evidente, dalle tue freccette rosse, che hai preso per buone quelle immagini come se fossero entrambe con FSR... perchè altrimenti non si capisce cosa tu voglia far notare. Il che già mi fa capire che non ti sei degnato di leggere e comprendere quello che era stato postato. Il che mi fa capire che lo scopo della tua risposta non è quello di apportare qualcosa di utile alla discussione, ma solo avere la ragione anche di fronte ad evidenze contrarie, dire che "gli altri hanno torto e tu no", magari con commenti sprezzanti e irrispettosi. O quanto meno hai le idee confuse, per non dire che non si sa bene cosa vorresti dimostrare. Ma andiamo oltre.
Partiamo dal particolare della prima immagine che hai evidenziato (immagine DLSS): è indubbiamente molto scalettata, effetto brutto... peccato che quel dettaglio grafico nella seconda immagine (FSR) scompaia quasi del tutto, bisogna aguzzare la vista per notarlo... se si nota. Tu cosa scegli tra un particolare non renderizzato al meglio, e un particolare che viene di fatto eliminato dalla scena?
Lo stesso tipo di particolare, cioè i segmenti di linee, si presenta su tutto il resto del palazzo di sinistra, con diverse angolature: se noti (sempre che tu lo voglia notare) con l'FSR quei dettagli sono meno nitidi/evidenti, o quasi scompaiono come nel caso del particolare che hai segnalato con la tua freccia. Purtroppo per l'FSR, nei rari casi dove quelle linee appaiono evidenti in entrambe le immagini, il DLSS funziona meglio con segmenti più marcati; la maggior nitidezza/marcatura è probabilmente alla base di questa differenza di resa, che però comporta anche una maggior evidenza della scalettatura. Non certo un effetto ottimale, ma il problema di fondo dell'FSR è che banalmente elimina dei dettagli.
Passiamo alla freccia posta nella tua seconda immagine, quella sul lampione: credo che bisogna essere intellettualmente disonesti nel dire che non sia peggiore rispetto a quello della prima immagine. In parole povere: nella prima immagine (DLSS) quel particolare è decisamente meglio definito e più nitido, con meno scalettature.
Allargando il tiro possiamo notare in generale che la prima immagine ha un maggior contrasto, soprattutto nelle zone in ombra o senza illuminazione estrema, così come nei passaggi tra il chiaro e lo scuro. L'asfalto ad esempio ha una resa diversa; in questi aspetti però è difficile dire quale sia l'effetto che più si avvicina al nativo, è quasi più una filosofia diversa di rendering, in questo caso avrebbe fatto comodo anche un'immagine senza gli effetti per averne una di confronto che facesse da base. Questo però determina che la prima immagine ha dettagli meglio definiti; ad esempio i cartelloni sul palazzo a sinistra, all'altezza dell'asfalto, mi sento di poter dire che sono leggermente meglio definiti nella prima immagine.
Continuiamo: se guardiamo il palazzo a destra, risulta in maniera evidente che la prima immagine (DLSS) ha una resa nettamente migliore della seconda (FSR). Le griglie, le finestre, i bordi... credo non ci sia storia. Per quanto riguarda gli elementi sullo sfondo, non si notano particolari differenze, in questo caso la distanza e la conseguente resa è tale che le differenze sono minime (che siano cartelloni, palazzi in lontananza e via dicendo). Anche se in alcuni casi piccole differenze in favore della prima immagine si notano anche in questo caso: ad esempio i cartelloni sotto il palazzo di destra, e in generale una resa leggermente più sfocata per la seconda immagine.
Ora: a me frega una mazza delle convinzioni delle persone basate sul nulla, se uno crede che la Terra sia piatta è un problema suo.
Quello che mi piace meno è che in un forum come questo, in una discussione che dovrebbe quanto meno avere una vaga propensione all'analisi critica dei fatti, ci siano uscite che nulla hanno a che vedere con il raziocinio. Situazione che si ripete fin troppo stesso e della quale tu sei uno dei maggiori portatori.
Possiamo al limite pensare che DJurassic abbia mentito su quanto ha postato (al che tanto vale neanche perderci tempo sul forum, se quando qualcuno posta un pensiero contrario al nostro con tanto di documentazione si considera falso a priori), ma a meno che non saltino fuori argomentazione valide su quanto visto, e non un paio di "freccette rosse" messe a caso, tanto vale tacere.
Perchè se non si hanno argomentazioni "concrete" per rispondere a precise risposte documentate (o un'analisi alternativa spiegata in maniera articolata che possa confutare le proprie tesi), tanto vale non proferire verbo, o almeno avere la decenza di sottolineare che quello che si pensa sono pure astrazioni personali (illazioni?) che nulla hanno a che vedere con quanto riportato.
Ma immagino che tu non rimarrai in silenzio, e di sicuro non per cercare un confronto intellettualmente onesto. No, tu risponderai anche a questo mio post (legittimo, ovviamente) cercando lo scontro e la polemica, come fai nel 100% dei tuoi interventi quando si osa dire qualcosa che va contro il tuo pensiero unificato.
Il tutto senza argomentazioni concrete, per sentito dire, o andando a pescare il singolo particolare (ignorando tutto il contesto) solo per dimostrare che tu hai ragione.
Già non sopporto il 90% dei commenti sul forum, la penosità di gran parte degli interventi è tale che mi domando se non sia frequentato da bambini dell'asilo. Ma avere la presunzione di avere ragione anche quando vengono portate prove concrete, e senza fare altrettanto (anzi, dimostrando di neanche aver perso mezzo secondo a capire cosa l'interlocutore ha postato) trovo difficile non considerarla una pura assurdità. Si può contestare tutto, ma si abbia almeno la decenza di portare avanti tesi e dimostrazioni valide, non le sole convinzioni personali dettate dalla mera presunzione e strafottenza.
Nel caso specifico la questione è semplice: quale delle due immagini ha una resa complessiva migliore? Sia analizzando tutti i particolari presenti (confrontandoli tra loro), sia nel complesso? La tua risposta che ho quotato riporta solo 3 frecce rosse messe a caso (letteralmente a caso), ignora il confronto e da come hai risposto si comprende che neanche hai capito come sono state realizzate le due immagini.
Non hai portato nulla a sostegno del tuo assioma... perchè finora di questo si tratta: una tesi che secondo i tuoi parametri non deve essere dimostrata, è così punto e basta.
Peccato che non funziona così: sarei il primo a darti ragione se tu avessi il coraggio e la capacità di argomentare in maniera onesta e logica il tuo pensiero, cosa che in questo caso (ma anche in tanti altri) non hai fatto. Argomenta e dimostra che la prima immagine è peggiore della seconda. Altrimenti (tanto so che non lo farai) eclissati.
Thunder-74
08-11-2022, 08:10
No dai non dispiacerti. Anche perché personalmente a me non dispiace affatto.
Probabilmente gioco uguale a te spendendo meno della metà, sai che dispiacere guarda :sofico:
L'orchite ve la fate venire da soli. Il thread non è un fanclub nel caso non ve ne foste accorti.
Ma come se poi importasse adesso la scheda video che hai per poter postare su un thread.
Io in proporzione ho avuto quasi sempre schede nvidia e la 3070 l'ho avuta.
Il DLSS in cyberpunk mi aveva fatto cagare pure a me.
Dottò, ti facevo più acuto. Io non mi sono espresso né per una o l'altra bandiera. L'intento era di fare da calmiere in modo colorito si (orchite), ma solo per dire che si può fare una o l'altra scelta in base ai gusti, senza sfociare in sostenitori accaniti di una o l'altra casata... ste cose lasciamole ai bimbiminkia di 15 anni. Qui c'è gente con prole , dai.
Se ho voglia di spendere 2k per una VGA non credo che debba interessare a nessuno, neanche a quello che gioca con una 1660 da tre spicci usata e penso neanche a te, dato che conoscendosi sul forum, sappiamo che non sei uno che ha speso poco nel tempo ;)
discorso orchite e fanclub... Concordo con te, ma l'ho scritto pocanzi, che non siamo bimbi per scadere in queste stronz@te, però è pur vero che io non vado nel thread AMD a scrivere male delle sue schede per poi parlar bene di quelle verdi. Mi aspetterei di essere attaccato... O sono intelligente a proporre e sostenere con garbo un discorso nel thread in questione, oppure evito.
Comunque converrai con me che a volte si esagera in modo infantile su certi argomenti ;)
Siamo tutti appassionati di questo mondo, evitiamo di discutere su c@zzate.. sembra che dobbiamo giustificare i nostri acquisti/scelte agli occhi degli utenti del forum, quando neanche mia moglie mi rompe le OO se spendo 4k per un PC.
Dai, aiutami a rimanere in OT su questo thread, che se non erro hai dato i natali proprio tu ;) EDIT: sbagliato avevi dato il via a quello AMPERE ufficiale :fagiano:
Ale55andr0
08-11-2022, 08:18
@Cronos1990
Hai fatto un wall of text "inutile": ho sempre argomentato e postato immagini a confronto a ribadire quanto dico, inoltre altri utenti nvidia qui hanno detto di pensarla come me, entiende? Non si è capito? Ma come, se sono così tanto insistente e fastidioso... Lo ridico? ma davvero? aliasing e pixel che tremolano in DLSS, NON presenti in nativa. A meno che non si abbiano seri problemi cognitivi o si sia analfabeti funzionali non serve esplicare alcunè in crescendo mi pare. E cmq ho ben DETTO di esser disposto ad utleriori confronti chiedendo le coordinate delle location per postare le miei di immagini nei medesimi luoghi in game, anche perchè nel caso di jurassic c'è decisamente qualquadra che non cosa con lod e dettaglio in generale..più onesto e obiettivo di così...
PS: Io non mi eclisso, faccio quel che voglio come voi nel rispetto del regolamento: parlare di una feature di una gpu in un thread aspettando non è off topic. Esiste il tasto ignore se vi do fastidio (o basta ignorarmi in toto se non si vuole nemmeno il fastidio dei due click..)
Ma come se poi importasse adesso la scheda video hai per poter postare su un thread.
Io in proporzione ho avuto quasi sempre schede nvidia e la 3070 l'ho avuta.
Il DLSS in cyberpunk mi aveva fatto cagare pure a me.
Lo dicevo nel senso che in quanto possessore non ho alcun interesse a parlar male di un prodotto che posseggo e uso "agratis", cioè senza ragioni, o tifare questo o quello. Prodotto con il quale posso usare dalla nativa, al DLSS all'FSR, e quindi parlo senza alcun interesse, e vengo pure da una GTX1080, un'altra verde...i fanboy non mi stanno simpatici rossi o verdi che siano: così come "di la" mi fa venire la gastrite "qualcuno" qui è "qualcun altro". Per me sono uguali.
fraussantin
08-11-2022, 08:19
In realta il dlss in cyb anche se buggato era magico fin dall'inizio a patto di metterci il reshade per il blur.
Poi è ovvio che sono escamotage per farsi stare avanti con le prestazioni , non devi metterti a guardare il pixel , ma goderti l'insieme
Cutter90
08-11-2022, 08:22
Lo so che mi pentirò di questo commento, ma a tutto c'è un limite. Tralasciando il primo screenshot del quote, i due successivi sono il primo con DLSS e il secondo con FSR (che chiamerò genericamente Prima immagine e Seconda immagine). Per inciso: lo tralascio perchè hai "volutamente" evitato di riportare anche l'altro di confronto, e da come hai "analizzato" i due successivi viene da domandarsi se sai quale hai postato: quello con il DLSS o l'FSR.
Primo punto: è evidente, dalle tue freccette rosse, che hai preso per buone quelle immagini come se fossero entrambe con FSR... perchè altrimenti non si capisce cosa tu voglia far notare. Il che già mi fa capire che non ti sei degnato di leggere e comprendere quello che era stato postato. Il che mi fa capire che lo scopo della tua risposta non è quello di apportare qualcosa di utile alla discussione, ma solo avere la ragione anche di fronte ad evidenze contrarie, dire che "gli altri hanno torto e tu no", magari con commenti sprezzanti e irrispettosi. O quanto meno hai le idee confuse, per non dire che non si sa bene cosa vorresti dimostrare. Ma andiamo oltre.
Partiamo dal particolare della prima immagine che hai evidenziato (immagine DLSS): è indubbiamente molto scalettata, effetto brutto... peccato che quel dettaglio grafico nella seconda immagine (FSR) scompaia quasi del tutto, bisogna aguzzare la vista per notarlo... se si nota. Tu cosa scegli tra un particolare non renderizzato al meglio, e un particolare che viene di fatto eliminato dalla scena?
Lo stesso tipo di particolare, cioè i segmenti di linee, si presenta su tutto il resto del palazzo di sinistra, con diverse angolature: se noti (sempre che tu lo voglia notare) con l'FSR quei dettagli sono meno nitidi/evidenti, o quasi scompaiono come nel caso del particolare che hai segnalato con la tua freccia. Purtroppo per l'FSR, nei rari casi dove quelle linee appaiono evidenti in entrambe le immagini, il DLSS funziona meglio con segmenti più marcati; la maggior nitidezza/marcatura è probabilmente alla base di questa differenza di resa, che però comporta anche una maggior evidenza della scalettatura. Non certo un effetto ottimale, ma il problema di fondo dell'FSR è che banalmente elimina dei dettagli.
Passiamo alla freccia posta nella tua seconda immagine, quella sul lampione: credo che bisogna essere intellettualmente disonesti nel dire che non sia peggiore rispetto a quello della prima immagine. In parole povere: nella prima immagine (DLSS) quel particolare è decisamente meglio definito e più nitido, con meno scalettature.
Allargando il tiro possiamo notare in generale che la prima immagine ha un maggior contrasto, soprattutto nelle zone in ombra o senza illuminazione estrema, così come nei passaggi tra il chiaro e lo scuro. L'asfalto ad esempio ha una resa diversa; in questi aspetti però è difficile dire quale sia l'effetto che più si avvicina al nativo, è quasi più una filosofia diversa di rendering, in questo caso avrebbe fatto comodo anche un'immagine senza gli effetti per averne una di confronto che facesse da base. Questo però determina che la prima immagine ha dettagli meglio definiti; ad esempio i cartelloni sul palazzo a sinistra, all'altezza dell'asfalto, mi sento di poter dire che sono leggermente meglio definiti nella prima immagine.
Continuiamo: se guardiamo il palazzo a destra, risulta in maniera evidente che la prima immagine (DLSS) ha una resa nettamente migliore della seconda (FSR). Le griglie, le finestre, i bordi... credo non ci sia storia. Per quanto riguarda gli elementi sullo sfondo, non si notano particolari differenze, in questo caso la distanza e la conseguente resa è tale che le differenze sono minime (che siano cartelloni, palazzi in lontananza e via dicendo). Anche se in alcuni casi piccole differenze in favore della prima immagine si notano anche in questo caso: ad esempio i cartelloni sotto il palazzo di destra, e in generale una resa leggermente più sfocata per la seconda immagine.
Ora: a me frega una mazza delle convinzioni delle persone basate sul nulla, se uno crede che la Terra sia piatta è un problema suo.
Quello che mi piace meno è che in un forum come questo, in una discussione che dovrebbe quanto meno avere una vaga propensione all'analisi critica dei fatti, ci siano uscite che nulla hanno a che vedere con il raziocinio. Situazione che si ripete fin troppo stesso e della quale tu sei uno dei maggiori portatori.
Possiamo al limite pensare che DJurassic abbia mentito su quanto ha postato (al che tanto vale neanche perderci tempo sul forum, se quando qualcuno posta un pensiero contrario al nostro con tanto di documentazione si considera falso a priori), ma a meno che non saltino fuori argomentazione valide su quanto visto, e non un paio di "freccette rosse" messe a caso, tanto vale tacere.
Perchè se non si hanno argomentazioni "concrete" per rispondere a precise risposte documentate (o un'analisi alternativa spiegata in maniera articolata che possa confutare le proprie tesi), tanto vale non proferire verbo, o almeno avere la decenza di sottolineare che quello che si pensa sono pure astrazioni personali (illazioni?) che nulla hanno a che vedere con quanto riportato.
Ma immagino che tu non rimarrai in silenzio, e di sicuro non per cercare un confronto intellettualmente onesto. No, tu risponderai anche a questo mio post (legittimo, ovviamente) cercando lo scontro e la polemica, come fai nel 100% dei tuoi interventi quando si osa dire qualcosa che va contro il tuo pensiero unificato.
Il tutto senza argomentazioni concrete, per sentito dire, o andando a pescare il singolo particolare (ignorando tutto il contesto) solo per dimostrare che tu hai ragione.
Già non sopporto il 90% dei commenti sul forum, la penosità di gran parte degli interventi è tale che mi domando se non sia frequentato da bambini dell'asilo. Ma avere la presunzione di avere ragione anche quando vengono portate prove concrete, e senza fare altrettanto (anzi, dimostrando di neanche aver perso mezzo secondo a capire cosa l'interlocutore ha postato) trovo difficile non considerarla una pura assurdità. Si può contestare tutto, ma si abbia almeno la decenza di portare avanti tesi e dimostrazioni valide, non le sole convinzioni personali dettate dalla mera presunzione e strafottenza.
Nel caso specifico la questione è semplice: quale delle due immagini ha una resa complessiva migliore? Sia analizzando tutti i particolari presenti (confrontandoli tra loro), sia nel complesso? La tua risposta che ho quotato riporta solo 3 frecce rosse messe a caso (letteralmente a caso), ignora il confronto e da come hai risposto si comprende che neanche hai capito come sono state realizzate le due immagini.
Non hai portato nulla a sostegno del tuo assioma... perchè finora di questo si tratta: una tesi che secondo i tuoi parametri non deve essere dimostrata, è così punto e basta.
Peccato che non funziona così: sarei il primo a darti ragione se tu avessi il coraggio e la capacità di argomentare in maniera onesta e logica il tuo pensiero, cosa che in questo caso (ma anche in tanti altri) non hai fatto. Argomenta e dimostra che la prima immagine è peggiore della seconda. Altrimenti (tanto so che non lo farai) eclissati.
Mi hai fatto quasi commuovere con questo intervento. Intanto per la voglia di rispondere ancora argomentando a chi evidentemente non fa della discussione tecnica, in un forum tecnico, la sua regola. In secondo luogo perchè hai centrato tutti i punti possibili. Dopo una risposta come la tua ci sarebbe solo da stare zitti, perchè di fatto si ha preso un palo pazzesco. Ma sappiamo che la prossima volta che verrà nominato il dlss tornerà fuori a dire che il vetro della Porsche in cp2077 è rovinato dal dlss, quando anche fsr e il TAA nel gioco creano artefatti su quelle linee.
Davvero, in un forum tecnico, tanta faziosità e falsità è davvero grave, imho.
Ale55andr0
08-11-2022, 08:27
Mi hai fatto quasi commuovere con questo intervento. Intanto per la voglia di rispondere ancora argomentando a chi evidentemente non fa della discussione tecnica, in un forum tecnico, la sua regola. In secondo luogo perchè hai centrato tutti i punti possibili. Dopo una risposta come la tua ci sarebbe solo da stare zitti, perchè di fatto si ha preso un palo pazzesco. Ma sappiamo che la prossima volta che verrà nominato il dlss tornerà fuori a dire che il vetro della Porsche in cp2077 è rovinato dal dlss, quando anche fsr e il TAA nel gioco creano artefatti su quelle linee.
Davvero, in un forum tecnico, tanta faziosità e falsità è davvero grave, imho.
In FSR non ho guardato la porsche non avendo più il save avendo ricominciato il titolo e non la ho ancora "sbloccata", ma sulle griglie sotto i lampioni il controllo su scalette generale confermo, l'FSR settato al max ha un controllo migliore che in DLSS di quelle situazioni. In nativa, aka "TAA" NON c'è alcun problema sulle diagonali a livello di scalette e flicker, non diciamo corbellerie, grazie. Si, la faziosità è grave, cambia solo il POV...
Cutter90
08-11-2022, 08:29
La fine non la sancisci ne tu ne una testata in cui scrivono altri tizi e caio come te e me ( o pensi che siano degli ingegneri del software o programmatori di motori 3d :asd:), per me decido io e i miei OCCHI. "Fine".
E cmq mi piace come omettete di quotare gli altri qui che la pensano come me come fossi l'unico a vedere certe cosucce ...;) Cmq no, lo ho provato anche su RDR 2 e su Horizon zero dawn
DF sono solamente i massimi esperti nel settore e fanno analisi decennali su queste cose. MA no, Alessandro ne sa di più di loro, ma certo.
I fatti non sono quelli che descrivi tu, ma sono quelli che descrivo io (che cosa vuoi che ne sappia io che ho provato quasi tutti i giochi con dlss su un 65 pollici 4k) , tutti gli altri e non in ultima riga quelli di DF.
E' come andare da uno Storico senza aver studiato nulla di storia e dire Hitler faceva delle carezze alle persone. Hai la tua idea? Ok. Va contro ogni testata che ne sa 10.000 volte più di te? Ok. Vuoi non usare il dlss perchè crea qualche insignificante artefatto? Ok.
Ma non diciamo che fa schifo o usiamo falsità come il FSR migliore del dlss, perchè lì è oggettivo chiaro dalle analisi che non è così.
Inoltre tu stai aspettando una vga nvidia? Perchè se la rispeta è no, cosa ci fai qui a denigrare il dlss? Sei ot due volte e non capisco perchè un mod non ti metta un freno. Non se ne può più del tuo inquinamento in ogni topic in cui si accenna al dlss. Fattene una ragione. La gente lo usa perchè è eccellente. Fine.
Cutter90
08-11-2022, 08:30
In FSR non ho guardato la porsche non avendo più il save avendo ricominciato il titolo e non la ho ancora "sbloccata", ma sulle griglie sotto i lampioni il controllo su scalette generale confermo, l'FSR settato al max ha un controllo migliore che in DLSS di quelle situazioni. In nativa, aka "TAA" NON c'è alcun problema sulle diagonali a livello di scalette e flicker, non diciamo corbellerie, grazie. Si, la faziosità è grave, cambia solo il POV...
E invece c'è anche con il taa, lo vedi che continui a dire falsità? Ma guardacaso non hai più il save. Basta, davvero.
nessuno29
08-11-2022, 08:40
Ragazzi basta dai, sono buoni entrambi con approcci differenti entrambi raggiungono lo stesso obiettivo, fine.
Ale55andr0
08-11-2022, 08:42
E invece c'è anche con il taa, lo vedi che continui a dire falsità? Ma guardacaso non hai più il save. Basta, davvero.
Continuo a dire "falsita"? :rotfl: dico che sono disposto a immagini a confronto chiedendo il punto della mappa e sarei falso :sbonk: :doh:. Bene, mi accusi di dire bugie? No hai problema, ci può stare, del resto pure io dubito delle immagini di jurassic che paiono prese da una PS4 liscia :asd: cerco un comando con il cyber engine tweak per sbloccare la porsche e stasera se vuoi la te posto :)
sertopica
08-11-2022, 08:43
E invece c'è anche con il taa, lo vedi che continui a dire falsità? Ma guardacaso non hai più il save. Basta, davvero.
C'e' ma in maniera estremamente ridotta, com'e' normale che sia. Tempo fa ho postato dei video comparativi che mostrano il tutto, alla fine sembra che abbia soltanto sprecato del tempo nel farli. E' solo in movimento che saltano fuori i limiti.
https://youtu.be/6l_eq9biv-o
https://youtu.be/_3lkp-1pwlY
Comunque, per allacciarmi al discorso dell'emerito professore Chhronosh esperto in stesura di papiri, :D vorrei aggiungere che entrambi gli algoritmi hanno i loro pro e contro, e soprattutto il risultato finale varia da titolo a titolo, perche' i programmatori con l'sdk in mano configurano a proprio piacimento determinati parametri per raggiungere il risultato desiderato. Laddove il DLSS adotta un comportamento piu' aggressivo nell'applicare sharpening e contrasto ai bordi per evitare perdita di dettagli legati alla risoluzione piu' bassa, la soluzione AMD ed in particolare il filtro CAS applicano un contrasto/sharpening selettivo in base alle superfici che necessitano piu' attenzione, questo porta ad un'immagine piu' soft dove alcuni dettagli sono meno marcati, tuttavia ancora presenti. Altri dettagli sono invece piu' scalettati e meno definiti, come le griglie sulla destra in alto, il DLSS invece riesce meglio a rendere tali dettagli. Cio' si vede chiaramente anche negli screens postati. Peccato manchi FSR2 per fare un confronto piu' alla pari.
In ogni caso a ciascuno il suo, ben venga avere alternative ed utilizzare quella che piu' ci aggrada...
4070Ti a gennaio ?
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
E' talmente brutta questa versione che nVidia dovrebbe ritirarla, oppure venderla a 699 max, le proposte AMD la mettono completamente fuori mercato.
narniagreen
08-11-2022, 08:48
4070Ti a gennaio ?
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
E' talmente brutta questa versione che nVidia dovrebbe ritirarla, oppure venderla a 699 max, le proposte AMD la mettono completamente fuori mercato.
Si praticamente la 4080 è una 4070ti, e la 4070ti è una 4060ti.
Mah... sicuramente i polli day one li acchiappano.
craesilo
08-11-2022, 08:49
4070Ti a gennaio ?
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
E' talmente brutta questa versione che nVidia dovrebbe ritirarla, oppure venderla a 699 max, le proposte AMD la mettono completamente fuori mercato.
cosa già pensata qui dentro, ma il mondo deve attendere quello che profetizza quel cretino
OrazioOC
08-11-2022, 10:02
4070Ti a gennaio ?
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
E' talmente brutta questa versione che nVidia dovrebbe ritirarla, oppure venderla a 699 max, le proposte AMD la mettono completamente fuori mercato.
Anche così non la renderebbero una buona sku per quella fascia, è più una 4070 se non 4060 ti, ma vedo che evidentemente a nvidia piacciono i soldi.:rolleyes:
appleroof
08-11-2022, 10:18
4070Ti a gennaio ?
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
E' talmente brutta questa versione che nVidia dovrebbe ritirarla, oppure venderla a 699 max, le proposte AMD la mettono completamente fuori mercato.
a 699 tasse incluse al day one potrei farci un pensiero, ma non succederà mai :asd:
A 899 c'è la 7900xt, che francamente è ben altra cosa, a 150/200 meno ci sarà la 7800xt.
La linea nVidia fa acqua da tutte le parti, veramente pensata e posizionata malissimo.
bonzoxxx
08-11-2022, 11:07
A 899 c'è la 7900xt, che francamente è ben altra cosa, a 150/200 meno ci sarà la 7800xt.
La linea nVidia fa acqua da tutte le parti, veramente pensata e posizionata malissimo.
Er Giacchetta stavolta ha sparato troppo alto imho..
narniagreen
08-11-2022, 11:11
imho si fanno forti del DXR, non c'è altra motivazione per prezzarle così alte.
Anche perchè mediamente sarà così in DXR, 3090ti~4070ti~7900XT.
DF sono solamente i massimi esperti nel settore e fanno analisi decennali su queste cose. MA no, Alessandro ne sa di più di loro, ma certoDF sono i massimi esperti dell'abbozza il tronco su console, e amplifica il pelo storto su PC, quando lo vedono (se no lo trovano lo stesso).
Se c'è un po' di stuttering non si gioca, roba da buttare il gioco...
Posti confronti di tecnologie di upscaler, fatti da chi fino all'altro ieri sosteneva che il CBR su PS4 fosse più che sufficiente ad evitare la risoluzione nativa.
Il CBR è il metodo più grezzo, una sorta di interlacciato, dal quale a volte su PS4 si stirava ulteriormente per raggiungere il target.
Returnal parte da 1080p, per arrivare a 4K con un mix di upscaler temporale terra terra e CBR.
Risultato, di tanto in tanto l'immagine può apparire un po' confusa e sgranata, ma che ce frega, è un gioco brillante e impressionante.
Sono consolari fino all'osso, con quello sono nati, tra PS3 e 360. Facevano le pulci alle loro differenze, però se giocavi a 1080p a 60fps su PC cambiava poco, anzi, gli asset sono fatti per le console, quindi su PC magari peggiorano pure...
Poi testano il Remaster a 1080-60fps di GOW e lì vale la candela di ricomprare il gioco.
Giustificazione ridicola? Azz, in questo caso gli asset erano già pronti per il superiore.
Col frame rate la storia più o meno è quella. Finché sulle console il grosso andava a 30fps, si abbozzava pure quando non ci arrivava.
È abbastanza stabile, nella maggior parte del tempo li regge, 60fps non servono un granché...
Mai parlato dei caricametni da somaro su console, sempre finché non ci hanno messo gli SSD, dopo si contano i decimi...
Poi escono le patch che aumentano solo quello su PS5, e i titoli diventano: Come i 60fps ti cambiano il gioco.
Non è che fino a ieri giocavi solo su console?
Gli esempi di sopra non sono manco la punta dell'iceberg.
Di grazia, la loro "massima espertosità del settore" è certificata da? ... avanti, spiegami cosa ne sancisce la "pontificità" :asd:. E' una testata indipendente...Non sono indipendeti, dipendono da Eurogamer, una delle testate più consolare che esista, in particolare SONara.
Sono mezzi giornalisti, tra i quali figura uno dei fondatori di EG.
mikael84
08-11-2022, 11:44
4070Ti a gennaio ?
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
E' talmente brutta questa versione che nVidia dovrebbe ritirarla, oppure venderla a 699 max, le proposte AMD la mettono completamente fuori mercato.
Ha il die della 3060, rapporto ALU, uguale a quello tra 3090 e 3060ti. Di questo stiamo parlando alla fine.
Sta facendo questi giochetti grazie al clock, e le perf bene o male le raggiunge, ma il chip sempre quello rimane.
Fosse sul 5nm (4lpp) di samsung, doveva rivedere tutto.
Ale55andr0
08-11-2022, 11:48
Non sono indipendeti, dipendono da Eurogamer, una delle testate più consolare che esista, in particolare SONara.
Sono mezzi giornalisti, tra i quali figura uno dei fondatori di EG.
ergo pure peggio :D
Cmq il punto era è rimane che sono i massimi esperti di stocazzo :rotfl: ;)
ninja750
08-11-2022, 11:53
Benissimo quindi la 4080 12 si é trasformata in 4070Ti, la 4070 liscia sará un bel cut di AD104.
Ora vediamo il prezzo, difficile con la 7900xt a 899.
è impossibile che scenda sotto quella cifra, si aprirebbe un buco gigante dalla 4080/16 e le schede sono già tutte impacchettate e finite dagli AIB, che le hanno progettate tenendo quel margine a mente e che sicuramente non solo non vogliono rimetterci ma non vogliono perdere il margine stimato, senza contare che saranno da riflashare di vbios una per una, più rifare le scatole
può giusto togliere quei 50 (o tiratissimi 100) per lanciare le noccioline alle scimmie ma non mi aspetterei meno di 799$ cioè nostri 999€
mikael84
08-11-2022, 12:03
Benissimo quindi la 4080 12 si é trasformata in 4070Ti, la 4070 liscia sará un bel cut di AD104.
Ora vediamo il prezzo, difficile con la 7900xt a 899.
Allo stato attuale dovrebbe tagliare i lisitini di 4080 e mettere la 4070ti ad un prezzo mooooltoooo piú ragionevole di quello annunciato per la 4080 12.
Era auspicabile, sia perchè esclusiva AIB, sia per cercare di alzare il prezzo.
La 4070 sarà quella cut da 10gb e 7168 probabilmente.
Anche se preferirei un leggero taglio di cuda, e tenere il bus e 12gb.
Aveva 12gb la 3060, diamine.:p
A 899 c'è la 7900xt, che francamente è ben altra cosa, a 150/200 meno ci sarà la 7800xt.
La linea nVidia fa acqua da tutte le parti, veramente pensata e posizionata malissimo.
Dopo chiuso il bilancio, i listini vanno rivisti, a meno che non venda bene anche così, ma davvero saremmo alla follia.
La 7970xtx, al momento è a cavallo tra 4080 e 4090 in raster, però in RT, la battaglia di JHH, dai leak se la giocherà con la 4070/ti (salvo i titoli ottimizzati ad HOC per AMD come far cry 6).
Qua una bella comparativa, fatta da pcgameshardware.
https://www.hardwaretimes.com/amds-radeon-rx-7900-xtx-slower-than-the-nvidia-rtx-3090-ti-in-ray-tracing-early-estimates/
Considerando il margine sarebbe una scheda da 699$, ma è una scheda solo AIB, ed in più per prezzarla così, dovrebbe calare l'altra. 500$ di differenza in 20% di perf, sarebbe follia.
mikael84
08-11-2022, 12:42
Si ma capisci bene che questa questa fa ridere a 999 dollari?
Questa stará quel pelo sotto alla 3090ti raster o piú o meno li, la 7900xt (non xtx) a 899 dollari dovrebbe stare a livello di una 4080 raster ed in rt poco sotto una 3090.
Quindi in raster le prenderá di brutto dalla 7900xt, é completamente fuori mercato secondo me.
Il problema è che hanno fatto confusione anche con le fasce, sia comparative che internamente.
Ad esempio, la 7900xtx sarà a cavallo tra 4080 e 4090, ma 4070/ti in rt massivo, quindi una ti da RT e DLSS3 inizialmente, l'altra il raster.
Ad 899$ la 7900xt, andrà quanto una 4080 (forse un pelo in più mediamente), sotto la 4070 in rt massivo.
Qua bisogna vedere le vendite, ma gli 899$ della 4080 con l'offerta AMD sarebbero impossibili proprio. Venderebbe a meno della concorrenza, col marchio nvidia, che ormai è quasi una apple.:muro: :D
Sotto di conseguenza.
Dio mio pure io spero tengano il bus a 256bit, che abbiano la decenza di lasciare i collegamenti e non tagliare completamente un gpc, che lasciassero giusto almeno un tpc nel gpc giusto per tenerla in vita.
Un bus a 160bit e 10gb di vram farebbe ridere ai polli e noi che ci lamentavamo dei 224+32bit della gtx 970 LOL dove siamo finiti!
Vero, era un insulto, e ci lamentavamo di schede da 300 euro.:p
Qua è vero che il concetto di bus, è un tantino relativo con le cache, però dai 160 bit non si può leggere, cancellerei GPU-Z.
Inoltre, siamo nell'era o si dovrebbero aprire le porte del 4k, almeno un minimo di bus e cache lascialo.
160bit, si porterebbero dietro 8mb di cache, e magari le g6 lisce (diventando un 128bit g6x), roba da x50.
fraussantin
08-11-2022, 12:46
Vedremo come si aggiusterà il mercato , ma secondo me sotto i 1000 euro ci sarà poco .
E parliamo di 1000 euro non di noccioline.
ZohanCursio87
08-11-2022, 12:49
Era auspicabile, sia perchè esclusiva AIB, sia per cercare di alzare il prezzo.
La 4070 sarà quella cut da 10gb e 7168 probabilmente.
Anche se preferirei un leggero taglio di cuda, e tenere il bus e 12gb.
Aveva 12gb la 3060, diamine.:p
Dopo chiuso il bilancio, i listini vanno rivisti, a meno che non venda bene anche così, ma davvero saremmo alla follia.
La 7970xtx, al momento è a cavallo tra 4080 e 4090 in raster, però in RT, la battaglia di JHH, dai leak se la giocherà con la 4070/ti (salvo i titoli ottimizzati ad HOC per AMD come far cry 6).
Qua una bella comparativa, fatta da pcgameshardware.
https://www.hardwaretimes.com/amds-radeon-rx-7900-xtx-slower-than-the-nvidia-rtx-3090-ti-in-ray-tracing-early-estimates/
Considerando il margine sarebbe una scheda da 699$, ma è una scheda solo AIB, ed in più per prezzarla così, dovrebbe calare l'altra. 500$ di differenza in 20% di perf, sarebbe follia.
pero' sono contento che AMD recuperi un pò alla volta terreno e possieda la sua fetta consumer....questa concorrenza insieme a intel per provare a destabilizzare leggermente NVIDIA è salutare...
Ale55andr0
08-11-2022, 13:14
Era auspicabile, sia perchè esclusiva AIB, sia per cercare di alzare il prezzo.
La 4070 sarà quella cut da 10gb e 7168 probabilmente.
Anche se preferirei un leggero taglio di cuda, e tenere il bus e 12gb.
Aveva 12gb la 3060, diamine.:p
fosse solo il taglio di ram..leggere 160bit fa venire i brividi :stordita:
OvErClOck82
08-11-2022, 13:16
pero' sono contento che AMD recuperi un pò alla volta terreno e possieda la sua fetta consumer....questa concorrenza insieme a intel per provare a destabilizzare leggermente NVIDIA è salutare...
si ma oltre a quello bisognerebbe non continuare a foraggiare ogni schifezza che il buon JHH partorisce...
ninja750
08-11-2022, 13:21
Si ma capisci bene che questa questa fa ridere a 999 dollari?
Questa stará quel pelo sotto alla 3090ti raster o piú o meno li, la 7900xt (non xtx) a 899 dollari dovrebbe stare a livello di una 4080 raster ed in rt poco sotto una 3090.
Quindi in raster le prenderá di brutto dalla 7900xt, é completamente fuori mercato secondo me.
ormai è chiaro che JHH vuole posizionare tutta la gamma come prodotto premium, vedila alla apple che non offre nulla più di android pari pollici e pari prestazioni, ma che costa 50% in più per device
per me ci sta, nel senso che tanto troverà sempre mercato
pero' sono contento che AMD recuperi un pò alla volta terreno e possieda la sua fetta consumer....questa concorrenza insieme a intel per provare a destabilizzare leggermente NVIDIA è salutare...
Io sono dell'idea che non ci sia nessuna concorrenza, non è un cartello ma sicuramente un patto di non belligeranza. Amd a questo giro avrebbe potuto mettere veramente spalle a muro Nvidia, ha dei chippini ad altissima resa e li prezza giusto giusto per essere appetibili niente più niente meno.
ergo pure peggio :D
Cmq il punto era è rimane che sono i massimi esperti di stocazzo :rotfl: ;)
Comunque è uscita la patch 1.61 per CP2077, dovete rifare tutto da capo perché supporta FSR2.1 :D :sofico: ma niente DLSS 3.0 e niente nuovo Raytracing migliorato.
https://www.cyberpunk.net/en/news/46420/patch-1-61-list-of-changes
Vedremo come si aggiusterà il mercato , ma secondo me sotto i 1000 euro ci sarà poco .
E parliamo di 1000 euro non di noccioline.
Sono curioso di vedere nei prossimi mesi sino a settembre 2023 quante ne venderanno senza i miners. Perché capisco cascarci una volta con la storia della pandemia e della carenza di componenti ma poi basta. Tra le altre cose non ci sono ancora a listino da Caseking le 4080. Brutto segno.
devAngnew
08-11-2022, 14:30
Io aspetterei prima di fasciarmi la testa, ad oggi il listino prezzi è calibrato tutto intorno ad ampere per cercare di venderne il più possibile; entro fine 2023 avreme le risposte. :)
ray_hunter
08-11-2022, 14:53
Comunque è uscita la patch 1.61 per CP2077, dovete rifare tutto da capo perché supporta FSR2.1 :D :sofico: ma niente DLSS 3.0 e niente nuovo Raytracing migliorato.
https://www.cyberpunk.net/en/news/46420/patch-1-61-list-of-changes
Avete talmente rotto le palle con 'sto fsr vs dlss che hanno anticipato l'uscita della patch :D :D :D :D :D
Cutter90
08-11-2022, 15:00
Avete talmente rotto le palle con 'sto fsr vs dlss che hanno anticipato l'uscita della patch :D :D :D :D :D
Nooo perchè hai ritirato fuori sta cosa :doh: :nonsifa: :asd:
giangi989
08-11-2022, 15:05
https://www.reddit.com/r/nvidia/comments/yplnlm/rtx_4080_gaming_performance/
Primo leak di benchmark 4080 con alcuni giochi.
narniagreen
08-11-2022, 15:05
pero' sono contento che AMD recuperi un pò alla volta terreno e possieda la sua fetta consumer....questa concorrenza insieme a intel per provare a destabilizzare leggermente NVIDIA è salutare...
Intel :rotfl:
Ma ancora che nominate Intel, dopo anni, le Arcazzo sono uno dei flop più flop mai visto nella storia delle VGA.
Io aspetterei prima di fasciarmi la testa, ad oggi il listino prezzi è calibrato tutto intorno ad ampere per cercare di venderne il più possibile; entro fine 2023 avreme le risposte. :)
Ah beh, 1 anno, e c'è chi si lamenta che le 7900 escono TRE SETTIMANE DOPO, troppo tardi. :D
Io aspetterei prima di fasciarmi la testa, ad oggi il listino prezzi è calibrato tutto intorno ad ampere per cercare di venderne il più possibile; entro fine 2023 avreme le risposte. :)
Ad averlo questo listino :D
ninja750
08-11-2022, 15:13
Comunque è uscita la patch 1.61 per CP2077, dovete rifare tutto da capo perché supporta FSR2.1 :D :sofico: ma niente DLSS 3.0 e niente nuovo Raytracing migliorato.
https://www.cyberpunk.net/en/news/46420/patch-1-61-list-of-changes
si peccato sia già uscito FSR 2.2 :D
ray_hunter
08-11-2022, 15:19
si peccato sia già uscito FSR 2.2 :D
In teoria esce oggi con l'update di FH5 ma per il momento non si è ancora visto niente!
Avete letto che sul supporto di FSR 2.1 indica PC e console next gen
mikael84
08-11-2022, 15:27
fosse solo il taglio di ram..leggere 160bit fa venire i brividi :stordita:
Ok che i bus, grazie alle cache hanno un valore relativo. 40mb di cache possono captare il 40% degli accessi positivi e sgravarla, ma 160 bit è davvero brutto da leggere, soprattutto su schede fascia x70.
Alla fine la cache dovrebbe migliorare il rapporto del bus, migliorando le latenze, i consumi e la velocità di accesso (lettura e scrittura) di oltre 5 tb/s, non sostituirlo completamente.
narniagreen
08-11-2022, 15:31
La 7970xtx, al momento è a cavallo tra 4080 e 4090 in raster, però in RT, la battaglia di JHH, dai leak se la giocherà con la 4070/ti (salvo i titoli ottimizzati ad HOC per AMD come far cry 6).
Qua una bella comparativa, fatta da pcgameshardware.
https://www.hardwaretimes.com/amds-radeon-rx-7900-xtx-slower-than-the-nvidia-rtx-3090-ti-in-ray-tracing-early-estimates/
In doom eternal AMD dichiara 135fps in DXR.
Per il resto si, le perf saranno circa quelle, 4080ti in Raster e 4070ti in DXR, a 999$.
https://www.reddit.com/r/nvidia/comments/yplnlm/rtx_4080_gaming_performance/
Primo leak di benchmark 4080 con alcuni giochi.
Le mazzate che prenderà sta scheda in 4k, prendendo i bench su HU qua sta al 70% da 4090 (180 e 185 fps), +15% da 3090ti.
In 2k non dovrebbe difendersi così male, ma boh, +1500€, forse sta proprio dicendo compratevi la 4090...
mikael84
08-11-2022, 15:37
In doom eternal AMD dichiara 135fps in DXR.
Per il resto si, le perf saranno circa quelle, 4080ti in Raster e 4070ti in DXR, a 999$.
Si, mediamente torniamo li.
https://i.postimg.cc/B61k654C/doom-rt.png
narniagreen
08-11-2022, 15:40
Si, mediamente torniamo li.
https://i.postimg.cc/B61k654C/doom-rt.png
Dovrebbe essere il caso limite inferiore, si spera. :D
mikael84
08-11-2022, 15:50
Intel :rotfl:
Ma ancora che nominate Intel, dopo anni, le Arcazzo sono uno dei flop più flop mai visto nella storia delle VGA.
Quello sta stampando 406mm2 a 6nm, per perf da 3060 a 10nm.:p
narniagreen
08-11-2022, 15:54
Quello sta stampando 406mm2 a 6nm, per perf da 3060 a 10nm.:p
Boh, la mia Vega a confronto sembra un capolavoro.
Lisa l'ha cacciato troppo tardi, ma meglio tardi che mai :asd:
PS. e si fumava il sigaro in discoteca...
Dopo chiuso il bilancio, i listini vanno rivisti, a meno che non venda bene anche così, ma davvero saremmo alla follia.
La 7970xtx, al momento è a cavallo tra 4080 e 4090 in raster, però in RT, la battaglia di JHH, dai leak se la giocherà con la 4070/ti (salvo i titoli ottimizzati ad HOC per AMD come far cry 6).
Qua una bella comparativa, fatta da pcgameshardware.
https://www.hardwaretimes.com/amds-radeon-rx-7900-xtx-slower-than-the-nvidia-rtx-3090-ti-in-ray-tracing-early-estimates/
Considerando il margine sarebbe una scheda da 699$, ma è una scheda solo AIB, ed in più per prezzarla così, dovrebbe calare l'altra. 500$ di differenza in 20% di perf, sarebbe follia.
Il listino attuale nVidia è da rifare abbondantemente, di sicuro ci metteranno mano, certo non ora ma ad inizio anno qualcosa succederà. Tra la 4080 16 e le inferiori c'è un solco troppo grande.
A mio avviso le AMD hanno il giusto MIX tra prestazioni (raster e RT) e prezzo, a tutti piace fare 3000 fps in tutte le condizioni ma le cose devono avere un senso ed essere accettabili. :)
alethebest90
08-11-2022, 16:39
Il listino attuale nVidia è da rifare abbondantemente, di sicuro ci metteranno mano, certo non ora ma ad inizio anno qualcosa succederà. Tra la 4080 16 e le inferiori c'è un solco troppo grande.
A mio avviso le AMD hanno il giusto MIX tra prestazioni (raster e RT) e prezzo, a tutti piace fare 3000 fps in tutte le condizioni ma le cose devono avere un senso ed essere accettabili. :)
sinceramente per la maggior parte dei giochi preferisco non superare la frequenza massima del monitor...
dico una cavolata, in mass effect tra 144fps e 240fps non noto nessuna differenza perchè è un gioco che molti fps non servono, quindi preferisco cappare a 144fps con la frequenza del monitor a 144hz e cosi la scheda consuma a stento 60w
Dunque sembra che la 4070 sia a 999? Chiedo perchè io mi informo per queste cose anche per amici :)
Per il resto leggo dopo che ci sono troppi post lunghi. Farò altri quote dopo.Se mantengono il prezzo della 4080 12gb, sarà 899$
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
devAngnew
08-11-2022, 17:51
Intel :rotfl:
cut
Ah beh, 1 anno, e c'è chi si lamenta che le 7900 escono TRE SETTIMANE DOPO, troppo tardi. :D
Mi son tenuto largo apposta non avendo numeri certi delle ampere da vendere :D
Boh, la mia Vega a confronto sembra un capolavoro.
Lisa l'ha cacciato troppo tardi, ma meglio tardi che mai :asd:
PS. e si fumava il sigaro in discoteca...Però lato RT l'uarch non sembra male
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
https://www.reddit.com/r/nvidia/comments/yplnlm/rtx_4080_gaming_performance/
Primo leak di benchmark 4080 con alcuni giochi.Interessante, il thread su chiphell ha giochi in più aggiunti dopo.
Qualcuno con 3080/3090/ti/4090 per delle comparative?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mikael84
08-11-2022, 18:42
Credo che mantenga quello, 1100 da noi per la FE, dubito che la venda a meno della 7900xt.
Al massimo fa il contentino e la mette a 849$ :stordita:
Diciamo che non possono allontanarla troppo dalla 4080 16, visto il margine misero di perf. Difficile vedere una scheda a 699 e la 4080 16 a 1199. Ci passano 400$ tra 4080 e 4090, con un abisso di perf...
Alla fine solo il mercato deciderà i prezzi a lungo andare.
Temo che l'assenza del mining gli giocherà un brutto scherzo, ma penso che se la sia studiate bene. Nel mentre fa più margine possibile.
In futuro ci sono vari scenari, come una 4080 super (full chip), magari venduta dai soli AIB, come la 3080 12, che sarebbe una super. Una 4080ti cut di AD102, prima o poi dovrà riciclarlo quel chip, quando le 4090 stagneranno.
mikael84
08-11-2022, 18:52
Però lato RT l'uarch non sembra male
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gli RT core sono potenti, peccato che nei giochi la microarchitettura ed il software non renda.
Soli 32 rt core
https://i.postimg.cc/vmCddqrt/full-path.png
Interessante, il thread su chiphell ha giochi in più aggiunti dopo.
Qualcuno con 3080/3090/ti/4090 per delle comparative?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Dai 3 giochi pubblicati da nvidia, con la stessa config, stava a +18% dalla 3090ti.
Ho visto che ha no testato RDR2 nel benchmark ingame:
Con la 4080 ha fatto 99fps di average
La 7900xtx secondo la slide durante l'evento fa 93 fps, sempre se l'hanno testata nel benchmark pure loro
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Quale slide?Questahttps://uploads.tapatalk-cdn.com/20221108/d5c5fe4212506425026bb3a7e1fe1934.jpg
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
bonzoxxx
08-11-2022, 20:21
e prezzate sotto la 4080 quindi ci sta, imho.
TecnoWorld8
08-11-2022, 20:39
Questahttps://uploads.tapatalk-cdn.com/20221108/d5c5fe4212506425026bb3a7e1fe1934.jpg
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Noto ora che in questa slide è scritto "up to"... cioè quelli sono fps max?
Legolas84
08-11-2022, 20:42
E c'è pure un 1 "apice" dopo la parola settings che non si sa dove riporti....
Senza le review potrebbe essere tutto o niente, per ora AMD si è affrettata a dichiarare che il competitor è la 4080, ma più di questo non si sa...
E c'è pure un 1 "apice" dopo la parola settings che non si sa dove riporti....
1. Testing done by AMD performance labs November 2022 on RX 7900 XTX, on 22.40.00.24 driver, AMD Ryzen 9 7900X processor, 32GB DDR5-6000MT, AM5 motherboard, Win11 Pro with AMD Smart Access Memory enabled. Tested at 4K in the following games: Call of Duty: Modern Warfare, God of War, Red Dead Redemption 2, Assassin’s Creed Valhalla, Resident Evil Village, Doom Eternal. Performance may vary.
Noto ora che in questa slide è scritto "up to"... cioè quelli sono fps max?No, probabilmente fanno diversi test dello stesso gioco e prendono l'average più alto
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mikael84
08-11-2022, 21:19
Si sa nulla sulle versione piu basse della 4070. Dato che non è di certo fascia media.
No, al momento no.
é un casino parametrare cosí, ad esempio in gow su TPU la 4090 fa 130 fps, su cbase ne fa 122, tpu testa con un 5800x Liscio che é tutto dire.
Ecco perché ha poco senso fare delle proiezioni, supererá la 4080 in raster ma stará dietro di sicuro in RT, la 4090 non la vede, in quei casi favorevoli dove si aviccinerá, ci saranno altrettanti casi sfavorevoli che stará ben sotto e non di poco allineandosi ad una 4080 in raster dove va male.
Sono una fascia inferiore al chippone di nvidia, e superiori ad AD103 in termini di transistor.
Con questo mi ci trovo sempre a punteggi, ed ha testato con un 12900kf
https://i.postimg.cc/qvN6sdVG/god-of-war-t.png
Secondo me, molti la stanno inquadrando troppo come una 4090 pura in raster, ma non è sempre così. In quel 54%, ci possono essere giochi da 50-60-70 come 30-40%.
CPbase con 12900k, qua possiamo dare un 155, per arrotondare la custom 6900xt
https://i.postimg.cc/43bcdQTC/cp-base.png
Su hwu 142
https://www.hwupgrade.it/articoli/6391/media-raster_1.png
Qua siamo a 154, ed è pure una custom.
https://i.postimg.cc/pdT9Wbkj/hc.png
E' una scheda che in raster starà mediamente a cavallo delle 2, che in vari giochi starà appresso alla 4090 in altri starà sicuramente ben sotto.
amon.akira
08-11-2022, 23:12
E' una scheda che in raster starà mediamente a cavallo delle 2, che in vari giochi starà appresso alla 4090 in altri starà sicuramente ben sotto.
te lo confermo anche io su gow stai sui 150fps con la 4090
mikael84
09-11-2022, 00:10
te lo confermo anche io su gow stai sui 150fps con la 4090
Ecco, mi ci ritrovo spesso con i punteggi.:)
nessuno29
09-11-2022, 05:50
La 7900xtx è la competitor della rtx 4080, costando però meno, inutile aspettarsi prestazioni irrealistiche a quei prezzi.
fraussantin
09-11-2022, 05:58
E' una scheda che in raster starà mediamente a cavallo delle 2, che in vari giochi starà appresso alla 4090 in altri starà sicuramente ben sotto.
Questa volta ci sarà molta confusione nei benchmark , specialmente quelli cumulativi tipo il "relative performance" di tpu.
Dipenderà molto dal "paniere" dei giochi scelto
fraussantin
09-11-2022, 06:26
Ma quante possibilità ci sono che il giorno del lancio nvidia tolga 200 carte dalla 4080 spacciandola come offerta lancio?
No perché così potrebbe farlo rimettendoci non tutta la faccia ma solo metà :OChe non hanno faccia già lo hanno dimostrato più volte , per esempio con la rimozione della 4080 12 .
Ma se lei cala di 200 la 4080 , cosa inpedirebbe ad amd di fare lo stesso con le sue?
Secondo me non cala niente. Piuttosto allunga le barrette con il dlss3.
Ale55andr0
09-11-2022, 07:46
Buondì, stamattina mio cugggino mi watsappa mentre stava seduto sul trono dicendo che sul gruppo facebook invidia italiano tre utenti hanno riferito di aver bruciato la scheda causa connettore. Io non sono iscritto ad alcun social ne intendo farlo, qualcuno di voi ha modo di verificare? La causa pare appunto il nuovo connettore, senza alcun adattatore di mezzo intendo. Fosse così sto nuovo standard ATX 3.0 è un presa in giro, ma come li hanno testati? Qual'è "l'ente" che definisce ed impone questi nuovi standard?
Ale55andr0
09-11-2022, 07:48
Questa volta ci sarà molta confusione nei benchmark , specialmente quelli cumulativi tipo il "relative performance" di tpu.
Dipenderà molto dal "paniere" dei giochi scelto
Il problema sono anche i siti dove per quale miracolo certi brand vanno o molto più o molto meno che in altre review con configurazioni non troppo dissimili e non sai chi è nel giusto
fraussantin
09-11-2022, 07:49
Buondì, stamattina mio cugggino mi watsappa mentre stava seduto sul trono dicendo che sul gruppo facebook invidia italiano tre utenti hanno riferito di aver bruciato la scheda causa connettore. Io non sono iscritto ad alcun social ne intendo farlo, qualcuno di voi ha modo di verificare? La causa pare appunto il nuovo connettore, senza alcun adattatore di mezzo intendo. Fosse così sto nuovo standard ATX 3.0 è un presa in giro, ma come li hanno testati? Qual'è "l'ente" che definisce ed impone questi nuovi standard?Nel gruppo dove sono io non vedo niente.
Ma ce ne saranno diversi
ninja750
09-11-2022, 07:51
Ma quante possibilità ci sono che il giorno del lancio nvidia tolga 200 carte dalla 4080 spacciandola come offerta lancio?
certo 999€ la 16gb e 699€ la 12gb :O
poi per le feste 499€ la 4060ti
craesilo
09-11-2022, 07:57
non sono esperto di politica estera ma con la forte instabilità che c'è negli usa da adesso, il valore del dollaro dovrebbe scendere, magari se la cina lanciasse qualche peto provocatorio sarebbe pure il top
Ale55andr0
09-11-2022, 08:30
non sono esperto di politica estera ma con la forte instabilità che c'è negli usa da adesso, il valore del dollaro dovrebbe scendere, magari se la cina lanciasse qualche peto provocatorio sarebbe pure il top
credo pesi un filo di più, ahinoi, il "denazificatore" e lo schifo in generale della situazione europea
ninja750
09-11-2022, 08:38
Buondì, stamattina mio cugggino mi watsappa mentre stava seduto sul trono dicendo che sul gruppo facebook invidia italiano tre utenti hanno riferito di aver bruciato la scheda causa connettore. Io non sono iscritto ad alcun social ne intendo farlo, qualcuno di voi ha modo di verificare? La causa pare appunto il nuovo connettore, senza alcun adattatore di mezzo intendo. Fosse così sto nuovo standard ATX 3.0 è un presa in giro, ma come li hanno testati? Qual'è "l'ente" che definisce ed impone questi nuovi standard?
ci sono state anche news su hwupgrade, la corrente che passa in sti cavi è troppa e il sezionamento troppo piccolo, devi stare lì a vedere quanto li pieghi e quante volte li pieghi che è assurdo.. ma sicuro il problema non ci sarà sulle 80 dove il consumo sarà umano
Il problema sono anche i siti dove per quale miracolo certi brand vanno o molto più o molto meno che in altre review con configurazioni non troppo dissimili e non sai chi è nel giusto
Lol, io sono in un gruppo telegram in cui c'è un admin che triggera a bestia quando qualcuno parla di Ray Tracing.
Secondo lui è inutile ed un gioco se è bello merita di essere giocato purché fluido anche con dettagli bassi.
Se gli obbietti ché è proprio per quello che vuoi comprare una 4000, per avere fluidità ma con grafica a bomba schiuma proponendoti paragoni con schede AMD a metà del costo.
Ma zio bono, se ti dico che io voglio l'HDR mi molli o no?
Giocaci tu senza.
craesilo
09-11-2022, 09:37
credo pesi un filo di più, ahinoi, il "denazificatore" e lo schifo in generale della situazione europea
con l'inverno alle porte o mettono in pausa alla souls o finisce in un modo o nell'altro
Ale55andr0
09-11-2022, 10:07
Ma se lei cala di 200 la 4080 , cosa inpedirebbe ad amd di fare lo stesso con le sue?
.
Il fatto che lei non può permetterselo....ma di un 100 si', credo
Ale55andr0
09-11-2022, 10:09
Lol, io sono in un gruppo telegram in cui c'è un admin che triggera a bestia quando qualcuno parla di Ray Tracing.
Secondo lui è inutile ed un gioco se è bello merita di essere giocato purché fluido anche con dettagli bassi.
Se gli obbietti ché è proprio per quello che vuoi comprare una 4000, per avere fluidità ma con grafica a bomba schiuma proponendoti paragoni con schede AMD a metà del costo.
Ma zio bono, se ti dico che io voglio l'HDR mi molli o no?
Giocaci tu senza.
Ok, ehm...ma che centra col mio post? :asd:
ninja750
09-11-2022, 10:14
Continuo a dire "falsita"? :rotfl: dico che sono disposto a immagini a confronto chiedendo il punto della mappa e sarei falso :sbonk: :doh:. Bene, mi accusi di dire bugie? No hai problema, ci può stare, del resto pure io dubito delle immagini di jurassic che paiono prese da una PS4 liscia :asd: cerco un comando con il cyber engine tweak per sbloccare la porsche e stasera se vuoi la te posto :)
non per temperare la supposta
MA
è uscita questa nuova comparativa DLSS vs FSR balanced di cui non conosco il punto della mappa ma sarà facilmente riconducibile
https://www.reddit.com/r/Amd/comments/ypt591/did_quick_test_of_new_fsr_in_cyberpunk_here_is/
qui non serve zoomare 400% sull'helipad a destra
https://i.ibb.co/BfxtFm8/dlss.jpg (https://ibb.co/BfxtFm8) https://i.ibb.co/y8y3jQZ/fsr.jpg (https://ibb.co/y8y3jQZ)
Se tirano giù il listino delle 4080 16gb poi non avrebbe più senso manco il prezzo della 4090 eh :stordita: prezzo doppio per un 30% in più? Manco i nipoti di JHH la comprerebbero poi....
Ok, ehm...ma che centra col mio post? :asd:
Nel senso che non sono solo i siti, ma anche i gruppi legati ai canali, basta una persona che decide la linea e per piaggeria ed a suon di ban tutto il gruppo la segue.
narniagreen
09-11-2022, 10:38
La 4080 la devono abbassare per forza, a quel prezzo non ha proprio senso.
Manco i fanboy gliela comprano dai.
L'unica è che le AMD facciano proprio pena nelle review per poterla tenere a quel prezzo, ma dubito che sia così.
Povero illuso :D
narniagreen
09-11-2022, 10:42
E la inquadrano male, addirittura dopo la presentazione delle amd con le slide fuori, si é insinuato che la 7900xtx potesse stare a -30% dalla 4090 in rt:D e -10% in raster, il secondo caso potrebbe essere reale (in parte) in qualche titolo PRO, ma inutile dire che appena benchi un gioco che non strizza particolarmente l'occhio stará ben sotto a livelli della 4080 se non un filo meno:D
Ma il primo caso, quello che stará a -30% in RT é pura follia.
https://i.postimg.cc/nCzFNMp8/dsfv.jpg (https://postimg.cc/nCzFNMp8)
-10% Raster si, può farlo senza problemi, mal che vada -15%, non meno, mentre il -30% in RT no, guardando poi bene i dati AMD e le review è stato già detto diverse volte che sarà una 3090ti/4070ti.
Adesso non è che devi andare avanti 24 mesi a dire "avevate detto che", oltretutto manco ancora quando non ci sono le review ufficiali, sono interpretazioni, in quanto tali.
Poi occhio con i -%, è diverso che dire +%, il -30% non equivale a +30%, ma a +43%.
-30% in quella tabella equivale a 181%, per tornare a 259% devi fare +43%... che poi sarà circa la 4080.
Mi piace la discussione tecnica ma vorrei riportarvi sulla terra. Non ci sono le schede...intendo fisicamente. :D
Dubito che vedremo schede nei negozi prima di 3 o 4 mesi. Dalla Cina e dal Giappone hanno bloccato ordini di ogni tipo (da me in fabbrica) per i prossimi mesi sia per la mancanza di materie prime e prodotti e sia per la mancanza di trasporti tutti impegnati già per i prossimi mesi. :mc:
mikael84
09-11-2022, 11:20
La 4080 la devono abbassare per forza, a quel prezzo non ha proprio senso.
Manco i fanboy gliela comprano dai.
L'unica è che le AMD facciano proprio pena nelle review per poterla tenere a quel prezzo, ma dubito che sia così.
La 4080 è solo una mossa strategica, serve a far vendere la 4090, quella con più margine, soprattutto quando devi chiudere il bilancio, e mantenere alte le fasce sotto.
Non solo la 4080 è un AD103 con un cut di ben 1000 cuda.
Qua sicuramente ci saranno dei cambiamenti a lungo andare, è impensabile che non tiri fuori una 4080ti con un padellone come AD102, la 4090.
Bisogna vedere il mercato per entrambe, se non vendono vedrai che si inventano di tutto.
narniagreen
09-11-2022, 11:29
Ma dai non lo sapevo:D
In entrambi i casi é errato, la 7900xtx non sará piú lenta del -30% e la 4090 non sará piú veloce della 7900xtx del +43%
Altro che +43%, la 4090 stará sopra qualcosa come +70-75% e sono ottimista, in pratica sto dicendo che in RT le performance spaziano in una forbice tra 3090 e 3090ti.
Dai su Grid, l'hai scritto proprio tu quotandomi e la data é del 4/11 il giorno dopo della presentazione delle amd:
https://i.postimg.cc/q6L7yZnW/fdsfd.jpg (https://postimg.cc/q6L7yZnW)
Anche in raster le medie non saranno vicine, e mi pare pure ovvio, visto il chip da quasi 80 mld di transistor ed il costo della scheda.:p
P.s e non costerá la metá, anche quelle staranno a 1250 le reference, la 4090 sta a 1979 founders, visto che ti piacciono le percentuali, la 4090 (dal sito 1979) 4090 costa +58%, sempre se le amd costeranno quella cifra, ma tra cambio e iva i 999$ si trasformeranno in 1250 euro.
Infatti ti ho detto che guardando meglio i dati forniti e le review vecchie sto ripetendo da 3 giorni questa cosa, cosa non capisci? :p
In raster è diverso, il rapporto transistor/performance va a farsi un po' benedire e non è lineare, per ovvie ragioni di scaling, soprattutto in QHD ;)
Sul RT, evidentemente, non ci hanno ancora voluto spendere troppi transistors, scelta più o meno opinabile o condivisibile dipende dai punti di vista. :)
https://i.postimg.cc/qvN6sdVG/god-of-war-t.png
https://i.postimg.cc/pdT9Wbkj/hc.png
C'è da dire che AMD scala davvero bene, basta vedere la differenza tra 6900 e 6950, e parliamo solo di un aumento clock. :)
mikael84
09-11-2022, 11:41
Con tutto lo spazio infinito che c'é tra 4080 e 4090 a livello si specs e con quel chip mostruoso, puó solo decidere come tagliarlo, fará un bello spezzatino di AD102.
Da AD102 ne potrebbe fare 3:D
-Una con 320bit/20gb oppure lasciando il bus a 384 bit e tagliando ancora tpc
-La 4090 attuale
-la 4090 Ti abilitando tutto il chip
Penso che la 7900xtx avrá la sua rivale raster, Giacchetta calibrerá le performance e taglierá proprio li, giusto per andare uno sputo in piú in raster, visto che il cesso della 4080 attuale non ci arriva.
Per AD102 utilizza più wafer, in quanto ha meno rese e più margine, e prima o poi la domanda della 4090 calerà, quindi è lecito aspettarsi di tutto.
La 4090ti probabilmente non tarderà, non penso che la lanci a domanda calata, altrimenti fa la fine della 3090ti.
Sotto però, non ha tutto sto obbligo per via del RT, dove lui investe per le pro, è impensabile che calibri un chip a pari prezzo e pari raster, con RT e marchio, che ormai è una sorta di apple per certi versi.
Purtroppo la 4080 è troppo strategica per la 4090, e li lui guadagna troppo, e avrà calcolato che meglio venderne 100 a margine che 200 a poco margine.
I prezzi, sia di AMD che di JHH solo il mercato li può cambiare. Quando le vendite saranno basse, qualcosa si inventeranno.
Chi non vuole piegarsi alle top, dovrà cadenzare l'uscita negli anni dispari, a mercato assestato praticamente.:)
C'è da dire che AMD scala davvero bene, basta vedere la differenza tra 6900 e 6950, e parliamo solo di un aumento clock. :)
Beh è una buona custom con le 18 gb/s. :)
Thunder-74
09-11-2022, 11:57
L alternativa è attendere la vga cinese . . .
https://cdn.wccftech.com/wp-content/uploads/2022/11/s7sctt1w57r-768x500.jpg
LINK (https://wccftech.com/moore-threads-launches-chunxiao-gpu-mtt-s80-gaming-s3000-server-graphics-cards-22-billion-transistors-pcie-gen-5/)
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
09-11-2022, 12:06
L alternativa è attendere la vga cinese . . .
LINK (https://wccftech.com/moore-threads-launches-chunxiao-gpu-mtt-s80-gaming-s3000-server-graphics-cards-22-billion-transistors-pcie-gen-5/)
Inviato dal mio iPhone X utilizzando Tapatalk
Sembra la arc di koduri a basso clock. La giacca ovviamente, quella di JHH.:)
mikael84
09-11-2022, 12:33
No certo col cavolo! se la fará pagare cara poiché in Rt andrá sempre tanto.
Intendevo calibrare solo al fine delle prestazioni non del prezzo/prestazioni raster rispetto alla concorrenza, far uscire una scheda cuttando e riciclando AD102 (4080ti) giusto per coprire quel buco enorme che c'é tra 4080 e 4090.
Allo stesso tempo con un cut di ad102 prenderebbe la 7900xtx anche in raster, ovviamente il prezzo sará piú elevato della concorrenza
Si si avevo capito ciò che intendevi.:)
Diciamo che, se quella 4080 non gli servisse per marginare sulla 4090, una 4080ti a quel prezzo sarebbe già tutt'altra cosa. E sinceramente, a lungo andare non la vedo utopistica. In quanto un altro cut di AD102 è quasi sicuro, a meno che le 4090 non le continui a vendere sempre bene, ma non credo.:)
Thunder-74
09-11-2022, 12:34
Sembra la arc di koduri a basso clock. La giacca ovviamente, quella di JHH.:)
'na poracciata ...
comunque la 4080 occata non sarebbe male, peccato il prezzo.
https://i.imgur.com/agF8Wv5.jpg
amon.akira
09-11-2022, 12:45
Ma dai non lo sapevo:D
In entrambi i casi é errato, la 7900xtx non sará piú lenta del -30% e la 4090 non sará piú veloce della 7900xtx del +43%
Altro che +43%, la 4090 stará sopra qualcosa come +70-75% e sono ottimista, in pratica sto dicendo che in RT le performance spaziano in una forbice tra 3090 e 3090ti.
Dai su Grid, l'hai scritto proprio tu quotandomi e la data é del 4/11 il giorno dopo della presentazione delle amd:
https://i.postimg.cc/q6L7yZnW/fdsfd.jpg (https://postimg.cc/q6L7yZnW)
Anche in raster le medie non saranno vicine, e mi pare pure ovvio, visto il chip da quasi 80 mld di transistor ed il costo della scheda.:p
P.s e non costerá la metá, anche quelle staranno a 1250 le reference, la 4090 sta a 1979 founders, visto che ti piacciono le percentuali, la 4090 (dal sito 1979) 4090 costa +58%, sempre se le amd costeranno quella cifra, ma tra cambio e iva i 999$ si trasformeranno in 1250 euro.
1949, sul sito è scritto erroneamente, poi quando la metti nel carrello è 1949 :)
mikael84
09-11-2022, 12:50
'na poracciata ...
comunque la 4080 occata non sarebbe male, peccato il prezzo.
A furia di clock, le perf le tira fuori, certo il prezzo è proprio fuori, ma è strategico purtroppo.
Anche la devastazione non l'aiuta. AD103 full ti tirerebbe fuori quasi un 10% di perf. in più.
bonzoxxx
09-11-2022, 13:05
A furia di clock, le perf le tira fuori, certo il prezzo è proprio fuori, ma è strategico purtroppo.
Anche la devastazione non l'aiuta. AD103 full ti tirerebbe fuori quasi un 10% di perf. in più.
Domanda scema: come mai non ha usato AD103 full, perlomeno?
Siamo stati abituati male con la 3080 che è un cut del GA102?
fraussantin
09-11-2022, 13:12
Domanda scema: come mai non ha usato AD103 full, perlomeno?
Siamo stati abituati male con la 3080 che è un cut del GA102?Presumo per 2 motivi , 1 evidentemente ha chip fallati da vendere , e poi per lasciarsi corda per super . ( La 4080ti la do per certa sul 102)
Riguardo l'abitudine al 102 , a me sta bene anche una 4080 sul 103 o su un 104 come in passato , ma non a 1500 euro.
Con il prezzo che ha fatto doveva essere un cut del 102 ne più me meno.
mikael84
09-11-2022, 13:16
Domanda scema: come mai non ha usato AD103 full, perlomeno?
Siamo stati abituati male con la 3080 che è un cut del GA102?
È una scelta dovuta ai die fallati e strategica per lasciare molto vantaggio alla 4090, così vende quella.
La 3080 cut GA 102 e' stata una scelta quasi obbligata, sia per concorrenza che per troppi chip fail. Era quasi una TI delle vecchie gen, infatti se i 7nm di samsung gli avessero garantito le disponibilità richieste, la doveva far debuttare su GA103, perdendo 1000-1200 cuda, ma più clock.
bonzoxxx
09-11-2022, 13:50
Presumo per 2 motivi , 1 evidentemente ha chip fallati da vendere , e poi per lasciarsi corda per super . ( La 4080ti la do per certa sul 102)
Riguardo l'abitudine al 102 , a me sta bene anche una 4080 sul 103 o su un 104 come in passato , ma non a 1500 euro.
Con il prezzo che ha fatto doveva essere un cut del 102 ne più me meno.
Concordo, la mia domanda infatti partiva da quel presupposto :)
È una scelta dovuta ai die fallati e strategica per lasciare molto vantaggio alla 4090, così vende quella.
La 3080 cut GA 102 e' stata una scelta quasi obbligata, sia per concorrenza che per troppi chip fail. Era quasi una TI delle vecchie gen, infatti se i 7nm di samsung gli avessero garantito le disponibilità richieste, la doveva far debuttare su GA103, perdendo 1000-1200 cuda, ma più clock.
Capisco. Ma il PP di samsung si è rivelato meh per cui ha dovuto tamponare con GA102.
Come sempre ringrazio per le info
ultimate trip
09-11-2022, 16:18
Presumo per 2 motivi , 1 evidentemente ha chip fallati da vendere , e poi per lasciarsi corda per super . ( La 4080ti la do per certa sul 102)
....
ma hanno mai rilasciato super e ti nella medesima gen?
ma hanno mai rilasciato super e ti nella medesima gen?
Turing, 2080, 2080 Super, 2080 Ti (diverso chip). Mentre sulle 3000 han fatto le 3070 Ti, 3080 Ti e 3090 Ti.
ZohanCursio87
09-11-2022, 20:20
si ma oltre a quello bisognerebbe non continuare a foraggiare ogni schifezza che il buon JHH partorisce...
piu che foraggiare è apprezzare lo sviluppo delle tecnologie....
Ben vengano le nuove per rendere anche le precedenti alla portata di piu utenti .
Ad oggi sono a favore piuttosto di un pc con prestazioni accettabili che puntare alle scatolette di sony o microsoft e fare piu risultati video .
Gigibian
09-11-2022, 22:30
E la inquadrano male, addirittura dopo la presentazione con le slide amd fuori, quando ormai i compitini non servivano piú, si é insinuato che la 7900xtx potesse stare a -30% dalla 4090 in rt:D e -10% in raster (post scritto in sto 3d non mi sto inventando nulla) il secondo caso potrebbe essere reale (in parte) in qualche titolo PRO, ma inutile dire che appena benchi un gioco che non strizza particolarmente l'occhio stará ben sotto, sará a livelli della 4080 se non un filo meno:D
Ma il primo caso, quello che stará a -30% in RT é pura follia.
https://i.postimg.cc/nCzFNMp8/dsfv.jpg (https://postimg.cc/nCzFNMp8)
-30% in rt dalla 4090 è pura follia... però dal tuo grafico che tu stesso hai postato è così :fagiano:
Mi spiego (in raytracing )
4090: 259
6900XT: 100
7900XTX (ipotesi conservativa +60% su 6900XT): 169
169 su 259 è esattamente il 35% in meno della 4090.
Non ho capito bene forse cosa volevi dimostrare :P
mattxx88
09-11-2022, 22:49
Per AD102 utilizza più wafer, in quanto ha meno rese e più margine, e prima o poi la domanda della 4090 calerà, quindi è lecito aspettarsi di tutto.
La 4090ti probabilmente non tarderà, non penso che la lanci a domanda calata, altrimenti fa la fine della 3090ti.
Sotto però, non ha tutto sto obbligo per via del RT, dove lui investe per le pro, è impensabile che calibri un chip a pari prezzo e pari raster, con RT e marchio, che ormai è una sorta di apple per certi versi.
Purtroppo la 4080 è troppo strategica per la 4090, e li lui guadagna troppo, e avrà calcolato che meglio venderne 100 a margine che 200 a poco margine.
I prezzi, sia di AMD che di JHH solo il mercato li può cambiare. Quando le vendite saranno basse, qualcosa si inventeranno.
Chi non vuole piegarsi alle top, dovrà cadenzare l'uscita negli anni dispari, a mercato assestato praticamente.:)
Beh è una buona custom con le 18 gb/s. :)
sul serio potrebbe uscire un AD102 full? mi pareva di aver capito di no per il mercato enthusiast, solo pro
'na poracciata ...
comunque la 4080 occata non sarebbe male, peccato il prezzo.
nah go BFG or go ARCa770 :sofico:
amon.akira
09-11-2022, 22:53
100 +60% fa 169?
160+62%=259
259-38%=160
prezzo 1950/1250=+56% per un +60%rt
di solito piu si va verso le topgamma e piu diventa sconveniente il rapporto qualità prezzo. qui vuol dire solo una cosa...o è troppo economica la 4090 o è troppo costosa la 7900xtx
OvErClOck82
09-11-2022, 23:08
100 +60% fa 169?
160+62%=259
259-38%=160
prezzo 1950/1250=+56% per un +60%rt
di solito piu si va verso le topgamma e piu diventa sconveniente il rapporto qualità prezzo. qui vuol dire solo una cosa...o è troppo economica la 4090 o è troppo costosa la 7900xtx
seh vabbè :asd:
mikael84
10-11-2022, 00:05
sul serio potrebbe uscire un AD102 full? mi pareva di aver capito di no per il mercato enthusiast, solo pro
nah go BFG or go ARCa770 :sofico:
Si, dovrebbe uscire, ed in collaborazione micron con le 24 gb/s. Ancora non è chiaro, avendo levato il nvlink, se con 24 o 48gb, ma penso la prima.
Alla 4090 infatti, oltre ai cuda, ha fatto un taglio sulla cache inedito, ovvero ha tagliato ogni canale appositamente.
Con rese migliori, ram 24 gb/s e cache full, questo chip, può prendere anche il 15-20%, quasi un'altra fascia.:)
Si, dovrebbe uscire, ed in collaborazione micron con le 24 gb/s. Ancora non è chiaro, avendo levato il nvlink, se con 24 o 48gb, ma penso la prima.
Alla 4090 infatti, oltre ai cuda, ha fatto un taglio sulla cache inedito, ovvero ha tagliato ogni canale appositamente.
Con rese migliori, ram 24 gb/s e cache full, questo chip, può prendere anche il 15-20%, quasi un'altra fascia.:)
Sarà interessante capire come usare un'altra fascia :sofico:
Stanno pulendo un po' di casi umani ?
Slater91
10-11-2022, 14:04
Stanno pulendo un po' di casi umani ?
E anche oggi ci vediamo fra cinque giorni.
Una ipotetica 4070 non TI come si porrebbe e che specifiche può concretamente avere ?
Già la TI sembra in realtà la 4070 dati i pochi cuda in più, temo che la 4070 liscia sia davvero fiacca :rolleyes:
'na poracciata ...
comunque la 4080 occata non sarebbe male, peccato il prezzo.
Alla fine l'ho ceduta la 3080, ho fatto un upgrade della piattaforma manca solo la VGA.. :mc:
mikael84
10-11-2022, 15:30
Sarà interessante capire come usare un'altra fascia :sofico:
Per questi ed altri.
Questi tra l'altro, visto che molti se lo chiedono ancora, sono full fp32.
https://www.guru3d.com/articles_pages/geforce_rtx_4090_founder_edition_review,27.html
Oppure se vuoi distruggere i bench letteralmente.:)
Una ipotetica 4070 non TI come si porrebbe e che specifiche può concretamente avere ?
Già la TI sembra in realtà la 4070 dati i pochi cuda in più, temo che la 4070 liscia sia davvero fiacca :rolleyes:
Di preciso non si sa, però di 4070 ne avevano speculato 2, la full AD104, ed una cut a 160bit e 7168 cuda, vs 7680.
Si spera sempre che ci sia solo un taglio cuda e non di bus, e che il taglio bus, venga riservato ad una eventuale 4060ti.:)
mikael84
10-11-2022, 15:57
Si é pazzesco, il full chip é tanta roba.
Mi chiedo come sará possibile metterlo alla frusta se non in 4k Rt spinto e maxando tutto, in questi giorni sto provando la 3090ti con il 12900k in oc e ram tirate in 2560x1440 giusto per rendermi conto di come possa girare la 4090 in 4k, alla fine della fiera il carico +o- é quello.
Inutile dire che sono cpu limited in alcuni casi, anche aggiornando con il 13900k (che va giusto uno pó di piú) non risolverei il problema.
Anche dalle review lo noto, in 4k é cpu limited (sopratutto in quelle review dove é stata testata con cpu non all'altezza) e spesso non da il massimo, boh.. allo stato attuale con le piattaforme attuali qualcosa la si perde sempre, é proprio veloce sta scheda, un cavallo imbizzarrito :D credo che per la prima volta dovró usare il DSR giusto per frenarla un pó :D
Prezzi della 4080, da vomito:
https://videocardz.com/newz/microcenter-confirms-geforce-rtx-4080-us-pricing-from-1199-to-1549
Sono chip principalmente pensati per il campo pro, difficile trovare una vera motivazione per un giocatore. Una motivazione potrebbe essere l'azoto ed i benchmark.
Una 4090 al momento copre tutte le esigenze, sia pro che gaming.
Per i pro, sarebbe un best con 48gb, visto che manca nvlink. Altrimenti farebbero prima a farsi un nvlink di 3090 per avere 48gb e stessa potenza.
Pensa che se RDNA4 3nmHP, farà un altro +54% per la terza volta, se la ritroverà vicina e lo stesso vale per nvidia, non immagino come una 5080 possa arrivare a batterlo, visto che passerà una 4080 del 50% almeno.
Tornerà a fare la 5080 tramite il big chip... :p
Di preciso non si sa, però di 4070 ne avevano speculato 2, la full AD104, ed una cut a 160bit e 7168 cuda, vs 7680.
Si spera sempre che ci sia solo un taglio cuda e non di bus, e che il taglio bus, venga riservato ad una eventuale 4060ti.:)
Considerando che la 3070 gode di 5880 cuda averne solo 7168 pare davvero poco come upgrade, a meno di un clock parecchio alto.
Preoccupa la quantità di memoria video. :rolleyes:
mikael84
10-11-2022, 16:22
Considerando che la 3070 gode di 5880 cuda averne solo 7168 pare davvero poco come upgrade, a meno di un clock parecchio alto.
Preoccupa la quantità di memoria video. :rolleyes:
RTX 3070: 5888 cuda
RTX 4070: 7168 cuda (+21,7 cuda)
Potenza di picco 4070@2,7 38,7TF
Potenza di picco 3070@1,9 22TF
RTX 3080: 8704 cuda
RTX 4080: 9728 cuda (+11,7 cuda)
Potenza di picco 3080@1,9 33TF
Potenza di picco 4080@2,7 52,5TF
Potenza di picco 3090ti@2,45 52,6TF
Il clock uguale per tutte. :)
RTX 3070: 5888 cuda
RTX 4070: 7168 cuda (+21,7 cuda)
Potenza di picco 4070@2,7 38,7TF
Potenza di picco 3070@1,9 22TF
RTX 3080: 8704 cuda
RTX 4080: 9728 cuda (+11,7 cuda)
Potenza di picco 3080@1,9 33TF
Potenza di picco 4080@2,7 52,5TF
Il clock uguale per tutte. :)
Messa a 2.7 non è neanche male, tra 3080 e 3080ti :)
Se non tagliano il bus almeno i 12 giga li avrà (spero).
mikael84
10-11-2022, 16:50
Messa a 2.7 non è neanche male, tra 3080 e 3080ti :)
Se non tagliano il bus almeno i 12 giga li avrà (spero).
Il problema è che questa gen, così declassata e con MSRP assurdi, a cui si aggiunge il cambio, non aggiunge nulla dalla vecchia.:)
Anche se prezzata 699$, te ne viene 850-900, per una simil GA102 (neppure top).
Inoltre AMD renderà compatibile con tutte FSR3, quindi anche il DLSS3 esclusivo, lo bypassi, almeno in vari giochi.
amon.akira
10-11-2022, 17:10
Il problema è che questa gen, così declassata e con MSRP assurdi, a cui si aggiunge il cambio, non aggiunge nulla dalla vecchia.:)
Anche se prezzata 699$, te ne viene 850-900, per una simil GA102 (neppure top).
Inoltre AMD renderà compatibile con tutte FSR3, quindi anche il DLSS3 esclusivo, lo bypassi, almeno in vari giochi.
purtroppo è cosi, fascia 3080 cambia poco o nulla, praticamente o aspettano taglio prezzi abbondante o scalo di fascia o le 5000
ultimate trip
10-11-2022, 17:24
Pensa che se RDNA4 3nmHP, farà un altro +54% per la terza volta, se la ritroverà vicina e lo stesso vale per nvidia, non immagino come una 5080 possa arrivare a batterlo, visto che passerà una 4080 del 50% almeno.
Tornerà a fare la 5080 tramite il big chip... :p
"To all my Ampere gamer friends: it is safe to upgrade now" :D
amon.akira
10-11-2022, 17:55
"To all my Ampere gamer friends: it is safe to upgrade now" :D
sicuro :asd:
mikael84
10-11-2022, 18:33
purtroppo è cosi, fascia 3080 cambia poco o nulla, praticamente o aspettano taglio prezzi abbondante o scalo di fascia o le 5000
E' paradossale che il salto più grande della storia, coincida con il salto più inutile della storia, top a parte.:D
Cmq, per come ha tarato tutto, non la vedo molto bene la prossima gen. Se lancia la 4090ti (+50% 4080 16), la 5080 o si allinea, o per fare un +20, dovrà tirare fuori +70%, e stavolta il salto di PP è misero.
Speriamo non faccia: 5090 :2099/1999 - 5080: 1599:p
Con i 3nm AD102 può farla con appena 370-380mm2 con il +18 perf/watt a tot tensione. Quindi servirà rivedere il tutto, altrimenti il bigchip se ne va davvero a 600 stock.
"To all my Ampere gamer friends: it is safe to upgrade now" :D
:D
Gigibian
10-11-2022, 19:35
Il problema è che questa gen, così declassata e con MSRP assurdi, a cui si aggiunge il cambio, non aggiunge nulla dalla vecchia.:)
Anche se prezzata 699$, te ne viene 850-900, per una simil GA102 (neppure top).
Inoltre AMD renderà compatibile con tutte FSR3, quindi anche il DLSS3 esclusivo, lo bypassi, almeno in vari giochi.
Semplice.
Non ha senso comprare una 4070 se puoi comprare una 3080 12gb a prezzo più basso.
Aspettare la nuova generazione serviva solo per un motivo: maggiori performance allo stesso prezzo.
1060 200 euro
2060 200 euro
+50% di perf.
Se la 4070 costa come e piu di una 3080 non ha assolutamente nessun senso comprarla.
Stanno mungendo la vacca finché possono, per piazzare le vecchie 3000. saranno costretti a scendere di prezzo.
mikael84
10-11-2022, 20:19
Turing senza innovazioni peró, 2080 che andava uno sputo in piú di 1080ti e 2080ti +30-40%
Saranno tristi al prossimo giro, la 4090 é l'unica che si salva a sto giro, paradossale dirlo su 2000 euro (a salire) di scheda
Sia turing che Maxwell inizialmente non distavano dalle ex top, però erano sullo stesso nodo. Con la densità dei 3nmHP (sempre che non siano disponibili varianti migliori), puoi ricostruire ADA mediamente in un 370-380, in base anche alle celle sram dei transistor.
Con lovelace, per mm2 hanno impilato il 184% dei transistor rispetto ad ampere, con i 3nm a pari die, puoi impilarne mediamente il 60-65% in più.
Il clock dei 3nmE (hp) è di appena +18% a tensione ideale.
Non ci sarà il salto come questa gen, se non si mette mano alla microarchitettura.
Si prevede una fascia cara ed energivora.
Semplice.
Non ha senso comprare una 4070 se puoi comprare una 3080 12gb a prezzo più basso.
Aspettare la nuova generazione serviva solo per un motivo: maggiori performance allo stesso prezzo.
1060 200 euro
2060 200 euro
+50% di perf.
Se la 4070 costa come e piu di una 3080 non ha assolutamente nessun senso comprarla.
Stanno mungendo la vacca finché possono, per piazzare le vecchie 3000. saranno costretti a scendere di prezzo.
Ormai tra uscite posticipate, uscite per fare solo margine, un utente medio, è meglio che aspetti l'anno successivo abbondante.
In ogni caso, almeno in questa gen, saranno solo sigle diverse con perf uguali. Salvo le fasce top, li si che c'è il cambiamento.
amon.akira
10-11-2022, 21:15
Speriamo non faccia: 5090 :2099/1999 - 5080: 1599:p
be se gli riesce il giochetto della 4080 1199 temo che accadrà sul serio
Nhirlathothep
10-11-2022, 22:49
l'unica scheda interessante per come la vedo io sarà la 4090ti.
Se avevate bisogno di maggiori performance, o quella o nulla
Tutte le altre hanno poco senso :
- sia se avete già una gpu top vecchia (non prendete nulla, vanno uguale)
- sia se non la avete (prendetene una oldgen top)
stanno cercando di annullare la convenienza di fare upgrade ai pc fissi :
se hai un top di gamma ti permettono solo upgrade nella fascia altissima con margini estremi di guadagno
(e chi monta un fisso nel 2022 è di solito perchè vuole prestazioni non ottenibili con pc mobile e vuole poter fare upgrade)
amon.akira
11-11-2022, 00:36
l'unica scheda interessante per come la vedo io sarà la 4090ti.
magari uscirà come la 3090ti a 7mesi dalle 5000 e bisogna vedere pure a che costo
la 3090ti in 5mesi (già da agosto) è passata da 2250€ a 1350€ ufficialmente
mikael84
11-11-2022, 01:12
l'unica scheda interessante per come la vedo io sarà la 4090.
Se avevate bisogno di maggiori performance, o quella o nulla
Tutte le altre hanno poco senso :
- sia se avete già una gpu top vecchia (non prendete nulla, vanno uguale)
- sia se non la avete (prendetene una oldgen top)
stanno cercando di annullare la convenienza di fare upgrade ai pc fissi :
se hai un top di gamma ti permettono solo upgrade nella fascia altissima con margini estremi di guadagno
(e chi monta un fisso nel 2022 è di solito perchè vuole prestazioni non ottenibili con pc mobile e vuole poter fare upgrade)
fix:)
mircocatta
11-11-2022, 07:22
Speriamo non faccia: 5090 :2099/1999 - 5080: 1599:p
:D
taglierebbe le gambe a chi, come me, aspetta la prossima gen per avere le prestazioni di una xx90 al prezzo di una mid/fascia alta
una volta era quasi la prassi fare questi ragionamenti, ma di questo passo lo si prende nel c*lo senza se e senza ma
ray_hunter
11-11-2022, 07:40
l'unica scheda interessante per come la vedo io sarà la 4090ti.
Se avevate bisogno di maggiori performance, o quella o nulla
Tutte le altre hanno poco senso :
- sia se avete già una gpu top vecchia (non prendete nulla, vanno uguale)
- sia se non la avete (prendetene una oldgen top)
stanno cercando di annullare la convenienza di fare upgrade ai pc fissi :
se hai un top di gamma ti permettono solo upgrade nella fascia altissima con margini estremi di guadagno
(e chi monta un fisso nel 2022 è di solito perchè vuole prestazioni non ottenibili con pc mobile e vuole poter fare upgrade)
Se non facciamo considerazioni sui prezzi una RTX 4090 è un ottimo upgrade in termini di prestazione, in alcuni casi sto anche al +100% sulla 3080 TI di prima.
La 4090 TI al momento la vedo davvero una scheda inutile. Già con la 4090 a volte si è murati dal 5800X3D in 4K e, guardando un canale youtube ho visto che anche un tipo con un 13900K@5.8 fisso sui P-core a volte è CPU bound.
Inoltre nei giochi più pesanti hanno già integrato o promesso l'integrazione con DLSS3.
A questo giro già la 4090 è OP figuriamoci un chip full...
Sicuramente la storia con i primi giochi in Unreal Engine 5 Tripla A potrebbe cambiare ma ad ora anche la demo di Matrix ha cali mostruosi legati alla cpu, qualsiasi essa sia...
Cmq la 4080, che sicuramente è sovra prezzata, avrà prestazioni che probabilmente rispecchieranno la situazione 1080 vs 1080 TI e 2080 vs 2080 TI con perf di un 30/40% superiore della seconda rispetto alla prima.
Il salto non mi pare così scandaloso come poteva sembrare. Diciamo che è stata solo con la serie 3000 che c'è stato poco divario tra 3080 12G e 3090 TI dove ci sta più un 25-30% ed in più la 3090TI è uscita molto dopo. Prima avevamo come riferimento 3080 10GB vs 3090 ove il distacco era veramente molto più blando
https://www.igorslab.de/grafikkarten-und-deren-verbrauch-auslesen-statt-aufwaendig-messen-warum-das-bei-nvidia-einfach-ist-und-bei-amd-nahezu-unmoeglich/
Interessantissimo articolo di igor su consumi veri e presunti su entrambe le serie nvidia e amd
mikael84
11-11-2022, 11:52
Al prossimo drop della FE la prendo, voglio solo quella, le custom mi fanno ampiamente cagar3:D
Tanto visto quello che c'é in giro, non c'é altro che possa sostituire la 3090ti, a me l'rt interessa abbastanza, non dico che sia decisionale nella misura 50/50 con le perf raster, ma le amd sono OUT, per me anche se il cambio mi costerebbe poco rivendendo la mia (giá promessa) non cambio una 3090ti per andare alla fine della fiera pari in Rt (quando va bene)
Anche se la cosa piú saggia sarebbe aspettare e restare con la 3090ti, anno prossimo magari esce il cut di AD102.
Sinceramente parlando non avrei manco bisogno di tutta quella potenza, ma purtroppo i caxxoni hanno fatto quel che hanno fatto vendendo quella putrida 4080 con 7gpc a 1500 euro, se fosse stata tagliata in altro modo (AD102 cut tipo 14k cuda e roti 320bit e 20 gb) al prezzo dell'attuale 4080, avrei preso quella, ma cosí é una caccola.
L'unica scheda senza compromessi é la 4090, paghi é vero, ma hai pure tanto.
Grazie per il feed, tu avendola hai confermato quello che sospettavo, si esatto non c'é la fa neanche un 13900k oc a starle dietro in alcune situazioni.
Ho fatto delle prove con 3090ti e 12900k oc in 2560x1440, il carico é +o- quello, inutile dire che sono cpu limited, idem lo sarei con la 4090 in 4k.
La cpu per questa scheda deve ancora uscire:D proprio per questo ho deciso di non investire sui 13TH.
Alla fine stiamo parlando di una scheda che in certi giochi fa +90% da 3090ti in 4k, doppia una 3090 ed alcune volte va poco oltre il doppio.. é pazzesco anche se la media é piú bassa ovvio
Una 3090ti in 1440p è fin tropo potente.:p
Il problema è che sono schede principalmente pensate per uso pro, nei giochi, devi sempre scontrarti col software da scatolette. Ancora niente directstorage, uso delle CPU ai minimi. Abbiamo 12-16 core, ma bisogna aspettare CPU che abbiano IPC sempre più elevati perchè serve potenza in pochi core.
Anche quello è un freno, le CPU fanno +40% a gen... ma anche li per ambiti pro.
Per AMD, no, a te non serve, in RT spesso faresti pure downgrade. Vanno bene per chi vuole aggiornare la serie 6, dove gli aumenti sono lineari entrambi.
Per il resto, la fascia media è la vecchia gen, 3080/6800xt prese al giusto.
Thunder-74
11-11-2022, 12:46
https://www.igorslab.de/grafikkarten-und-deren-verbrauch-auslesen-statt-aufwaendig-messen-warum-das-bei-nvidia-einfach-ist-und-bei-amd-nahezu-unmoeglich/
Interessantissimo articolo di igor su consumi veri e presunti su entrambe le serie nvidia e amd
ma difatti si sta molto meno a margine del PL massimo con una 4090 che non con una Ampere.
davide155
11-11-2022, 13:23
Al prossimo drop della FE la prendo, voglio solo quella, le custom mi fanno ampiamente cagar3:D
Tanto visto quello che c'é in giro, non c'é altro che possa sostituire la 3090ti, a me l'rt interessa abbastanza, non dico che sia decisionale nella misura 50/50 con le perf raster, ma le amd sono OUT, per me anche se il cambio mi costerebbe poco rivendendo la mia (giá promessa) non cambio una 3090ti per andare alla fine della fiera pari in Rt (quando va bene)
Anche se la cosa piú saggia sarebbe aspettare e restare con la 3090ti, anno prossimo magari esce il cut di AD102.
Sinceramente parlando non avrei manco bisogno di tutta quella potenza, ma purtroppo i caxxoni hanno fatto quel che hanno fatto vendendo quella putrida 4080 con 7gpc a 1500 euro, se fosse stata tagliata in altro modo (AD102 cut tipo 14k cuda e roti 320bit e 20 gb) al prezzo dell'attuale 4080, avrei preso quella, ma cosí é una caccola.
L'unica scheda senza compromessi é la 4090, paghi é vero, ma hai pure tanto.È esattamente il ragionamento che giacchetta vuole che facciamo.
Perché spendere 4 o 7 se con 11 hai il top.
È lo stesso "gioco" dei 3 numeri delle offerte. È la base del mercato marketing.
E su questo bisogna riconoscere che in nvidia sono campioni mondiali. Glie ne va dato assolutamente atto.
Soprattutto poi quando tutta quella potenza oggi non è minimamente sfruttabile da nessun hardware cpu sulla terra. Senza parlare dei giochi.
Sta vendendo un mostro di gpu pensata e cuttata per i pro, ad un prezzo esorbitante, senza nemmeno l'hardware che la supporti degnamente e senza nemmeno giochi pensati per lei.
È un genio Jensen senza se e senza ma.
Ps: ultimo ma non per importanza che in 1440p va peggio di una 3090...
Mah allora continuo a leggere ovunque un mare di inesattezze. Vaga libera nell'etere della ferma convinzione secondo cui la 4090 non sia sfruttabile da nessuna cpu presente sul pianeta, non serva a nulla, è troppo potente....balle.
Premettendo che ci possono essere solo 3 scenari d'uso e di utenza per una GPU di questo tipo ( tutti gli altri hanno sbagliato acquisto):
1 uso professionale: va da se che qui la puoi montare sulla tua workstation e vivi sereno a prescindere dalla Cpu, perché tanto se ci lavori quello che hai sarà adeguato alle tue esigenze.
2 gaming maxato in 4k: tra la cpu che ho in firma ed un 13900k ci passano quando va bene 10 fps di differenza sui medi, su un totale che generalmente sfonda la possibilità di refresh del mio pannello, ed ho un 4k a 160Hz. Se lasciata a briglia sciolta le percentuali di utilizzo della gpu variano dal 100% al 95%, se si limita i frame al refresh del monitor si va comunque dal 100% con pause anche intorno al 50%, segni vhe quando vedo la scheda fare 160fps con un uso al 50% potrebbe farne 320. E sono in 4k maxato eh.
3 gaming competitivo ad alto refresh rate 360+ hz: in questo categoria ricade l'unica casistica di collo di bottiglia dato dalla cpu.
Per tutti gli altri:
Chi è disposto a scendere a compromessi sui settings;
Chi non ha pannelli in 4k o che ha pannelli uw;
Chi ha una CPU più vecchia o meno performante di 10900ka 5 ghz;
Chi la trova troppo cara;
Tenersi strette le 3080 a 6/700 euro e vivere felici.
Perché sinceramente non se ne può più di leggere sta storia, e comunque voi preferireste avere una 3090ti sfruttata al 100% che vi fa giocare alla fiera delle diapositive o una 4090 sfruttata al 99% che bi maxa il refresh rate del monitor? Sentiamo.
OvErClOck82
11-11-2022, 14:22
Mah allora continuo a leggere ovunque un mare di inesattezze. Vaga libera nell'etere della ferma convinzione secondo cui la 4090 non sia sfruttabile da nessuna cpu presente sul pianeta, non serva a nulla, è troppo potente....balle.
Premettendo che ci possono essere solo 3 scenari d'uso e di utenza per una GPU di questo tipo ( tutti gli altri hanno sbagliato acquisto):
1 uso professionale: va da se che qui la puoi montare sulla tua workstation e vivi sereno a prescindere dalla Cpu, perché tanto se ci lavori quello che hai sarà adeguato alle tue esigenze.
2 gaming maxato in 4k: tra la cpu che ho in firma ed un 13900k ci passano quando va bene 10 fps di differenza sui medi, su un totale che generalmente sfonda la possibilità di refresh del mio pannello, ed ho un 4k a 160Hz. Se lasciata a briglia sciolta le percentuali di utilizzo della gpu variano dal 100% al 95%, se si limita i frame al refresh del monitor si va comunque dal 100% con pause anche intorno al 50%, segni vhe quando vedo la scheda fare 160fps con un uso al 50% potrebbe farne 320. E sono in 4k maxato eh.
3 gaming competitivo ad alto refresh rate 360+ hz: in questo categoria ricade l'unica casistica di collo di bottiglia dato dalla cpu.
Per tutti gli altri:
Chi è disposto a scendere a compromessi sui settings;
Chi non ha pannelli in 4k o che ha pannelli uw;
Chi ha una CPU più vecchia o meno performante di 10900ka 5 ghz;
Chi la trova troppo cara;
Tenersi strette le 3080 a 6/700 euro e vivere felici.
Perché sinceramente non se ne può più di leggere sta storia, e comunque voi preferireste avere una 3090ti sfruttata al 100% che vi fa giocare alla fiera delle diapositive o una 4090 sfruttata al 99% che bi maxa il refresh rate del monitor? Sentiamo.
quale sarebbe il gioco che rende la 3090ti un proiettore di diapositive ? :stordita: :stordita:
quale sarebbe il gioco che rende la 3090ti un proiettore di diapositive ? :stordita: :stordita:
In 4k maxato i 60 sui minimi non li prendi praticamente in nessun AAA.
Thunder-74
11-11-2022, 14:31
Mah allora continuo a leggere ovunque un mare di inesattezze. Vaga libera nell'etere della ferma convinzione secondo cui la 4090 non sia sfruttabile da nessuna cpu presente sul pianeta, non serva a nulla, è troppo potente....balle.
Premettendo che ci possono essere solo 3 scenari d'uso e di utenza per una GPU di questo tipo ( tutti gli altri hanno sbagliato acquisto):
1 uso professionale: va da se che qui la puoi montare sulla tua workstation e vivi sereno a prescindere dalla Cpu, perché tanto se ci lavori quello che hai sarà adeguato alle tue esigenze.
2 gaming maxato in 4k: tra la cpu che ho in firma ed un 13900k ci passano quando va bene 10 fps di differenza sui medi, su un totale che generalmente sfonda la possibilità di refresh del mio pannello, ed ho un 4k a 160Hz. Se lasciata a briglia sciolta le percentuali di utilizzo della gpu variano dal 100% al 95%, se si limita i frame al refresh del monitor si va comunque dal 100% con pause anche intorno al 50%, segni vhe quando vedo la scheda fare 160fps con un uso al 50% potrebbe farne 320. E sono in 4k maxato eh.
3 gaming competitivo ad alto refresh rate 360+ hz: in questo categoria ricade l'unica casistica di collo di bottiglia dato dalla cpu.
Per tutti gli altri:
Chi è disposto a scendere a compromessi sui settings;
Chi non ha pannelli in 4k o che ha pannelli uw;
Chi ha una CPU più vecchia o meno performante di 10900ka 5 ghz;
Chi la trova troppo cara;
Tenersi strette le 3080 a 6/700 euro e vivere felici.
Perché sinceramente non se ne può più di leggere sta storia, e comunque voi preferireste avere una 3090ti sfruttata al 100% che vi fa giocare alla fiera delle diapositive o una 4090 sfruttata al 99% che bi maxa il refresh rate del monitor? Sentiamo.
hahahahaha
Sai che c'è, è che è la prima volta che ci troviamo di fronte ad una scheda che anticipa i tempi, nel senso che permette di maxare tutto in 4k fullando spesso gli fps del monitor.
Non sarà sempre così , perchè prima o poi giochi mattoni usciranno. Sicuramente una scheda del genere rimarrà più tempo nel case rispetto alle gen precedenti.
Poi per il discorso CPU limited , ci si può divertire con DLDSR . Mai come ora questa funzione ha senso.
Ciò non toglie che schede come 3080 o 3090, hanno tantissimo ancora da dire, visto i giochi in circolazione.
ray_hunter
11-11-2022, 14:33
È esattamente il ragionamento che giacchetta vuole che facciamo.
Perché spendere 4 o 7 se con 11 hai il top.
È lo stesso "gioco" dei 3 numeri delle offerte. È la base del mercato marketing.
E su questo bisogna riconoscere che in nvidia sono campioni mondiali. Glie ne va dato assolutamente atto.
Soprattutto poi quando tutta quella potenza oggi non è minimamente sfruttabile da nessun hardware cpu sulla terra. Senza parlare dei giochi.
Sta vendendo un mostro di gpu pensata e cuttata per i pro, ad un prezzo esorbitante, senza nemmeno l'hardware che la supporti degnamente e senza nemmeno giochi pensati per lei.
È un genio Jensen senza se e senza ma.
Ps: ultimo ma non per importanza che in 1440p va peggio di una 3090...
E' vero che a volte si è CPU limited ma va detto che se vuoi spararti un Cyberpunk, un DL2 o un Chernobylite a palla con RT maxato, senza dover usare il DLSS a performance la 4090 è l'unica GPU che ti permette di farlo e usando il DLSS quality, quindi nemmeno a nativa.
Quando scrivo "permette di farlo" intendo senza scendere sotto i 60fps.
Con una 3090TI non ci si arriva, figuriamo con una 3090.
Scusami ma da dove salta fuori che va peggio di una 3090 in 2K? In senso assoluto ciò non è proprio vero
Anche in 1440P è ~40% sopra la 3090 e 30% sopra la 3090Ti.
Senza contare l'RT dove invece sei sopra anche quasi un 70% dalla 3090TI e ~90% sopra la 3090
https://tpucdn.com/review/asus-geforce-rtx-4090-strix-oc/images/average-fps_2560_1440.png
https://tpucdn.com/review/asus-geforce-rtx-4090-strix-oc/images/cyberpunk-2077-rt-2560-1440.png
OvErClOck82
11-11-2022, 14:34
In 4k maxato i 60 sui minimi non li prendi praticamente in nessun AAA.
si ok ma tra quello e le diapositive ci passano tutti gli oceani messi insieme :D
ray_hunter
11-11-2022, 14:35
si ok ma tra quello e le diapositive ci passano tutti gli oceani messi insieme :D
Diciamo che ha voluto enfatizzare un po' troppo il concetto:sofico: :sofico: :sofico:
mikael84
11-11-2022, 14:53
https://wccftech.com/control-2-announced/
Altro gioco per sfruttare la 4090 4k.:)
Mah allora continuo a leggere ovunque un mare di inesattezze. Vaga libera nell'etere della ferma convinzione secondo cui la 4090 non sia sfruttabile da nessuna cpu presente sul pianeta, non serva a nulla, è troppo potente....balle.
Premettendo che ci possono essere solo 3 scenari d'uso e di utenza per una GPU di questo tipo ( tutti gli altri hanno sbagliato acquisto):
1 uso professionale: va da se che qui la puoi montare sulla tua workstation e vivi sereno a prescindere dalla Cpu, perché tanto se ci lavori quello che hai sarà adeguato alle tue esigenze.
2 gaming maxato in 4k: tra la cpu che ho in firma ed un 13900k ci passano quando va bene 10 fps di differenza sui medi, su un totale che generalmente sfonda la possibilità di refresh del mio pannello, ed ho un 4k a 160Hz. Se lasciata a briglia sciolta le percentuali di utilizzo della gpu variano dal 100% al 95%, se si limita i frame al refresh del monitor si va comunque dal 100% con pause anche intorno al 50%, segni vhe quando vedo la scheda fare 160fps con un uso al 50% potrebbe farne 320. E sono in 4k maxato eh.
3 gaming competitivo ad alto refresh rate 360+ hz: in questo categoria ricade l'unica casistica di collo di bottiglia dato dalla cpu.
Per tutti gli altri:
Chi è disposto a scendere a compromessi sui settings;
Chi non ha pannelli in 4k o che ha pannelli uw;
Chi ha una CPU più vecchia o meno performante di 10900ka 5 ghz;
Chi la trova troppo cara;
Tenersi strette le 3080 a 6/700 euro e vivere felici.
Perché sinceramente non se ne può più di leggere sta storia, e comunque voi preferireste avere una 3090ti sfruttata al 100% che vi fa giocare alla fiera delle diapositive o una 4090 sfruttata al 99% che bi maxa il refresh rate del monitor? Sentiamo.
Per eliminare il problema delle CPU, anche quelle più scarsette, oltre al directsotrage, servirebbe sfruttare più core, e l'evoluzione del software.
ray_hunter
11-11-2022, 14:58
https://wccftech.com/control-2-announced/
Altro gioco per sfruttare la 4090 4k.:)
Control è stato stupendo con l'unica pecca della scarsa varietà proprio per contenere il budget. Spero sia più in linea con Quantum break come ambientazioni
Anche con Black Myth WuKong IMHO ci sarà da ridere
https://wccftech.com/control-2-announced/
Altro gioco per sfruttare la 4090 4k.:)
SIIIIIII!:eek: :eek: :cool:
davide155
11-11-2022, 16:08
Mah allora continuo a leggere ovunque un mare di inesattezze. Vaga libera nell'etere della ferma convinzione secondo cui la 4090 non sia sfruttabile da nessuna cpu presente sul pianeta, non serva a nulla, è troppo potente....balle.
Premettendo che ci possono essere solo 3 scenari d'uso e di utenza per una GPU di questo tipo ( tutti gli altri hanno sbagliato acquisto):
1 uso professionale: va da se che qui la puoi montare sulla tua workstation e vivi sereno a prescindere dalla Cpu, perché tanto se ci lavori quello che hai sarà adeguato alle tue esigenze.
2 gaming maxato in 4k: tra la cpu che ho in firma ed un 13900k ci passano quando va bene 10 fps di differenza sui medi, su un totale che generalmente sfonda la possibilità di refresh del mio pannello, ed ho un 4k a 160Hz. Se lasciata a briglia sciolta le percentuali di utilizzo della gpu variano dal 100% al 95%, se si limita i frame al refresh del monitor si va comunque dal 100% con pause anche intorno al 50%, segni vhe quando vedo la scheda fare 160fps con un uso al 50% potrebbe farne 320. E sono in 4k maxato eh.
3 gaming competitivo ad alto refresh rate 360+ hz: in questo categoria ricade l'unica casistica di collo di bottiglia dato dalla cpu.
Per tutti gli altri:
Chi è disposto a scendere a compromessi sui settings;
Chi non ha pannelli in 4k o che ha pannelli uw;
Chi ha una CPU più vecchia o meno performante di 10900ka 5 ghz;
Chi la trova troppo cara;
Tenersi strette le 3080 a 6/700 euro e vivere felici.
Perché sinceramente non se ne può più di leggere sta storia, e comunque voi preferireste avere una 3090ti sfruttata al 100% che vi fa giocare alla fiera delle diapositive o una 4090 sfruttata al 99% che bi maxa il refresh rate del monitor? Sentiamo.
Ho palesemente esagerato dicendo che una 4090 va meno di una 3090 e credevo fosse evidente.
Ma che le cpu odierne non riescano a sfruttare a pieno l'hardware della 4090 è un dato di fatto, perché le differenze che ci sono tra un 13900k ed una cpu di due generazioni fa sono più che significative.
E le tue percentuali rilevate sono la conferma anche del fatto che non ci sono giochi che la sfruttano a dovere. C'è una differenza sostanziale anche fra 13900k e 7900x, figuriamoci con cpu più vecchie
Per la maggior parte del tempo, chi ha una 4090 con pannello a refresh rate cappato, la vede quasi sempre sotto il 99%. Segno che queste schede sono overkill.
Lo stesso thunder ha ammesso che con la cpu che ha in firma e con la 4090 montata andava peggio che con la 3080, infatti ha rimesso nel case quest'ultima in attesa della nuova piattaforma.
Poi nessuno dice che fa schifo, anzi è una gpu mostruosa ed il distacco con la gen passata è palese, ma da qui a dire che è sfruttata a dovere sia dall'hardware che dai giochi ce ne passa.
Questa gpu poteva uscire tranquillamente fra 2 anni e ne saremmo rimasti lo stesso esterrefatti.
In 4k maxato i 60 sui minimi non li prendi praticamente in nessun AAA.
Non è esattamente così, perché dipende che gioco intendi per tripla A.
Io gioco ai migliori game con grafica della madonna e tranne a plague tale e cyberbug, il resto hanno un frame rate di tutto rispetto sulla 3090 in 4k maxato con 12900k. Ok, alcuni rasentano i 60fps sull'1% low del frametime, ma si contano sulle dita di una mano, e gli altri sono praticamente quasi tutti abbondantemente sopra.
Sto solo dicendo che é una gpu molto veloce (ben venga) e future proof, proprio per questo sono sempre piú convinto all'acquisto.
Quando si parla di elettronica si deve sempre parlare di presente. Perchè quando tutti noi potremo sfruttare una 4090 allora sarà uscita la 4090ti, la 5090, la 5090ti, etc. E soprattutto servono i giochi. Anche quelli quando vedranno la luce e saranno ottimizzati, il mondo pc si sarà evoluto. Non ho mai comprato un solo prodotto guardando al futuro in un campo nel quale appena ti arriva a casa è già vecchio.
P.S. La storia del 4k maxato è una barzelletta che in molti raccontano per sentirsi meno in colpa :D Ogni gioco ha quei 2 o 3 settaggi che una volta modificati ti fanno aumentare di molto gli fps.
ray_hunter
11-11-2022, 16:35
Ho palesemente esagerato dicendo che una 4090 va meno di una 3090 e credevo fosse evidente.
Ma che le cpu odierne non riescano a sfruttare a pieno l'hardware della 4090 è un dato di fatto, perché le differenze che ci sono tra un 13900k ed una cpu di due generazioni fa sono più che significative.
E le tue percentuali rilevate sono la conferma anche del fatto che non ci sono giochi che la sfruttano a dovere. C'è una differenza sostanziale anche fra 13900k e 7900x, figuriamoci con cpu più vecchie
Per la maggior parte del tempo, chi ha una 4090 con pannello a refresh rate cappato, la vede quasi sempre sotto il 99%. Segno che queste schede sono overkill.
Lo stesso thunder ha ammesso che con la cpu che ha in firma e con la 4090 montata andava peggio che con la 3080, infatti ha rimesso nel case quest'ultima in attesa della nuova piattaforma.
Poi nessuno dice che fa schifo, anzi è una gpu mostruosa ed il distacco con la gen passata è palese, ma da qui a dire che è sfruttata a dovere sia dall'hardware che dai giochi ce ne passa.
Questa gpu poteva uscire tranquillamente fra 2 anni e ne saremmo rimasti lo stesso esterrefatti.
Non è esattamente così, perché dipende che gioco intendi per tripla A.
Io gioco ai migliori game con grafica della madonna e tranne a plague tale e cyberbug, il resto hanno un frame rate di tutto rispetto sulla 3090 in 4k maxato con 12900k. Ok, alcuni rasentano i 60fps sull'1% low del frametime, ma si contano sulle dita di una mano, e gli altri sono praticamente quasi tutti abbondantemente sopra.
Io avevo una 3080 TI@1950Mhz e i giochi che andavano sotto i 60fps erano ben più di quelli che citi tu. Ovviamente bastava togliere qualche opzione killer e manco vedevi le differenze grafiche però l'esigenza di un GPU più performante c'erano. Per inciso si giocava a tutto alla grande ma spesso il DLSS quality non bastava.
ray_hunter
11-11-2022, 16:37
Quando si parla di elettronica si deve sempre parlare di presente. Perchè quando tutti noi potremo sfruttare una 4090 allora sarà uscita la 4090ti, la 5090, la 5090ti, etc. E soprattutto servono i giochi. Anche quelli quando vedranno la luce e saranno ottimizzati, il mondo pc si sarà evoluto. Non ho mai comprato un solo prodotto guardando al futuro in un campo nel quale appena ti arriva a casa è già vecchio.
P.S. La storia del 4k maxato è una barzelletta che in molti raccontano per sentirsi meno in colpa :D Ogni gioco ha quei 2 o 3 settaggi che una volta modificati ti fanno aumentare di molto gli fps.
Ti quoto perché hai ragione ma a volte con le RTX 3000, quando si attivano effetti RT come la GI si ha la classica sensazione del "vorrei ma non posso".
Con questa invece si gioca più "leggeri" (anche di portafoglio):D
Sono abbastanza sicuro che si disse la stessa cosa quando uscì la 3090, la 2080Ti (ah no in RT si siedeva anche quella ma c'erano due titoli in croce e non faceva molto testo come scenario), la 1080Ti etc etc :)
Dal 10900k al 13900k ci passa il mondo, architetture ben diverse.
E fin qua nulla da ridire e ci mancherebbe.
:stordita: Il 10900k ha performance molto vicine ad un 10700k che a sua volta non é altro che un 9900k, con IPC da skylake-s (serie 6th) parliamo di roba del 2015.
Dispiaciuto di doverti deludere ma il 10700k, oggi 2022, non regge come un i9 10900k. Tanto per dire ho preso un video a caso con giochi attuali, ed è fatto in 1080p, che ripeto non è l'ambito in cui devi usare una 4090 a meno che tu non risieda nella categoria 3 del mio precedente post, dove allora avresti ragione su tutta la linea e mi trovi d'accordo.
https://i.imgur.com/qdmaazil.png
https://i.imgur.com/83apmYal.png
https://i.imgur.com/XytrMZWl.png
http://i.imgur.com/du7ZLTpl.png
Come vedi il 10900k è quasi a pari del 12900k che a sua volta è poco distante dal 13900k, da la paga quasi sempre al 5950x e il 10700k è la in fondo.
Ora se io devo credere che un 10700k/9900k oppure un 10900k sostenga degnamente senza crolli una 4090, sinceramente passo.
Come già detto ad altri se vuoi farti un teamviewer e provare con mano basta dirlo.
Ma anche no, mai mi sognerei di abbinare una 4090 a quel relitto.
Si parte da minimo un 5800x 3d/intel 12th anche se le cpu ideali sarebbero gli intel 13th.
Concordo, oggi 11 novembre 2022 solo un malato di mente comprerebbe ex novo un 10900k da abbinare ad una 4090. Ma solo un fissato di hardware che ha già un 10900k da 7 anni questa cpu la cambierebbe per qualcos'altro per giocare in 4k maxato con una 4090, a meno che non rientri nella categoria 3 del mio precedente post.
10 fps? cosa vuol dire, su quanti fps totali? spiegati.
Te l'ho scritto, la 4090 tolto cyberpunk maxato cappa il monitor.
Eh no, infatti non esiste cpu che la sostenga a dovere, vedrai che non appena faranno uscire nuove cpu con ipc maggiore, in 4k la 4090 fará altri numeri, o almeno, non avrá dei crolli.
Con le nuove cpu arriveranno i nuovi giochi e la 4090 farà si e no i 60 fps con qualsiasi cpu decente.
Sto solo dicendo che é una gpu molto veloce (ben venga) e future proof, proprio per questo sono sempre piú convinto all'acquisto.
Indubbiamente.
Quando si parla di elettronica si deve sempre parlare di presente. Perchè quando tutti noi potremo sfruttare una 4090 allora sarà uscita la 4090ti, la 5090, la 5090ti, etc. E soprattutto servono i giochi. Anche quelli quando vedranno la luce e saranno ottimizzati, il mondo pc si sarà evoluto. Non ho mai comprato un solo prodotto guardando al futuro in un campo nel quale appena ti arriva a casa è già vecchio.
P.S. La storia del 4k maxato è una barzelletta che in molti raccontano per sentirsi meno in colpa :D Ogni gioco ha quei 2 o 3 settaggi che una volta modificati ti fanno aumentare di molto gli fps.
Guarda non mi sento minimamente in colpa :D anzi pienamente soddisfatto. Ma ci sono 2 metri e 2 misure. Le CPU fanno balzi in avanti anche notevoli ma all'atto pratico "Gaming" non valgono quasi nulla e durano anni (soprattutto le ultime 4 serie intel), le Gpu sono come la carta da :ciapet:, ci giochi quello che reggono e le cambi.
La storia del 4k maxato sarà anche una barzelletta per molti ma allora mi chiedo che ci facciate in un forum di enthusiast, e soprattutto a parlare di 4090. Senza offesa eh.:)
Poi a dirla tutta io soffro di più la frase " si beh i 60 li tiene quasi con tutto ma comunque abbassando quei 2 o 3 settaggi ammazza fps va bene e comunque si gioca tutto alla grande." Questo è cercare di mitigare il fatto che vorresti di più perdendo di obiettività.
Almeno io la vedo così, se su pc devo rinunciare a questo e a quello per girare bene, io cambio tutto.
Certo che le vie di mezzo esistono ma non so al giorno d'oggi quanto convengano, un pc medio fascia gira peggio di una ps5 e indubbiamente lo paghi di più, si ci fai anche altro ma ormai per fare l'altro basta un tablet.
Ti quoto perché hai ragione ma a volte con le RTX 3000, quando si attivano effetti RT come la GI si ha la classica sensazione del "vorrei ma non posso".
Con questa invece si gioca più "leggeri" (anche di portafoglio):D
Soprattutto il portafoglio. :D
mikael84
11-11-2022, 16:59
La 4090 per gli amanti dell'hardware, della microarchitettura in se, è un gioiello. E pensare che è pure castrata . Un salto di transistor mai visto prima.
Cmq -4 giorni e vedremmo la 4070, pardon la 4080 16. Ora le redazioni la starano già testando.:)
Speriamo che testino bene con le nuove CPU, e non con 5800x lisci come varie.
Guarda non mi sento minimamente in colpa :D anzi pienamente soddisfatto. Ma ci sono 2 metri e 2 misure. Le CPU fanno balzi in avanti anche notevoli ma all'atto pratico "Gaming" non valgono quasi nulla e durano anni (soprattutto le ultime 4 serie intel), le Gpu sono come la carta da :ciapet:, ci giochi quello che reggono e le cambi.
La storia del 4k maxato sarà anche una barzelletta per molti ma allora mi chiedo che ci facciate in un forum di enthusiast, e soprattutto a parlare di 4090. Senza offesa eh.:)
Poi a dirla tutta io soffro di più la frase " si beh i 60 li tiene quasi con tutto ma comunque abbassando quei 2 o 3 settaggi ammazza fps va bene e comunque si gioca tutto alla grande." Questo è cercare di mitigare il fatto che vorresti di più perdendo di obiettività.
Almeno io la vedo così, se su pc devo rinunciare a questo e a quello per girare bene, io cambio tutto.
Certo che le vie di mezzo esistono ma non so al giorno d'oggi quanto convengano, un pc medio fascia gira peggio di una ps5 e indubbiamente lo paghi di più, si ci fai anche altro ma ormai per fare l'altro basta un tablet.
Siamo in un forum di informatica dove si aspettano le schede video. Non è la discussione della 4090. il maxato del 4k è per il 2% forse dei giocatori di tutto il mondo. Il resto, come me, aspetta una misera 4060ti per godersi un ottimo 2k. Poi un giorno con calma qualcuno dovrà spiegarmi perchè giocare a 4k maxato limitando così gli fps quando anche la TV più scarsa in 4k arriva a 120hz? Non è meglio un gioco più fluido rinunciando a qualche dettaglio?
P.S. Nella storia delle schede video e dei videogiochi non è mai successo che un hardware al lancio sia stato in grado di far girare al massimo i titoli del momento. Ci sono sempre volute 2 o 3 generazioni a volte. Adesso poi che gli schermi vanno tranquillamente oltre i 144hz in 2k la cosa si fa bella tosta.
La 4090 per gli amanti dell'hardware, della microarchitettura in se, è un gioiello. E pensare che è pure castrata . Un salto di transistor mai visto prima.
Cmq -4 giorni e vedremmo la 4070, pardon la 4080 16. Ora le redazioni la starano già testando.:)
Speriamo che testino bene con le nuove CPU, e non con 5800x lisci come varie.
Non le vedremo nei negozi se non in qualche misero esemplare a cifre assurde. Su questo puoi metterci la mano sul fuoco.
Siamo in un forum di informatica dove si aspettano le schede video. Non è la discussione della 4090. il maxato del 4k è per il 2% forse dei giocatori di tutto il mondo. Il resto, come me, aspetta una misera 4060ti per godersi un ottimo 2k. Poi un giorno con calma qualcuno dovrà spiegarmi perchè giocare a 4k maxato limitando così gli fps quando anche la TV più scarsa in 4k arriva a 120hz? Non è meglio un gioco più fluido rinunciando a qualche dettaglio?
P.S. Nella storia delle schede video e dei videogiochi non è mai successo che un hardware al lancio sia stato in grado di far girare al massimo i titoli del momento. Ci sono sempre volute 2 o 3 generazioni a volte. Adesso poi che gli schermi vanno tranquillamente oltre i 144hz in 2k la cosa si fa bella tosta.
:doh: è vero scusa pensavo di stare di là (ed ero fermamente convinto che tu avessi una 4090, mettete la config in firma!)...troppe schede aperte :ops:
Comunque per tua info il mio TV Sony OLED A1 2017 più di 60 non fa e non ha vrr per quello ho anche un monitor 4k a 160hz.
E concordo con te che nella storia dei videogiochi non sia mai successo prima.
Zotac
https://www.zotac.com/it/page/zotac-gaming-geforce-rtx-4080-series
alethebest90
11-11-2022, 18:21
Zotac
https://www.zotac.com/it/page/zotac-gaming-geforce-rtx-4080-series
scusate ma non è triste vedere in homepage un gioco del 2011 solo perchè è stato aggiunto un effetto grafico ??
:(
davide155
11-11-2022, 18:38
scusate ma non è triste vedere in homepage un gioco del 2011 solo perchè è stato aggiunto un effetto grafico ??
:(Verissimo, ma è uno sponsor cavallo di battaglia di nvidia, tant'è che l'ha usato anche nella presentazione di ada lovelace.
DarkNiko
11-11-2022, 18:57
Guarda non mi sento minimamente in colpa :D anzi pienamente soddisfatto. Ma ci sono 2 metri e 2 misure. Le CPU fanno balzi in avanti anche notevoli ma all'atto pratico "Gaming" non valgono quasi nulla e durano anni (soprattutto le ultime 4 serie intel), le Gpu sono come la carta da :ciapet:, ci giochi quello che reggono e le cambi.
Su ciò che hai scritto in merito alle CPU concordo in pieno. Tuttavia, si inventano e si strombazzano ad arte leggende molto metropolitane che di scientifico e provato hanno poco, come chi sostiene che una data CPU, solo perché tecnologicamente obsoleta, debba a priori fare da collo di bottiglia per le nuove schede video, come se fosse un mantra o una verità assoluta, quando di assoluto e soprattutto di vero c'è ben poco.
Sul discorso GPU invece non sono d'accordo. Le GPU durano quello che l'utente in primis decide di far durare, più che non l'offerta del software e le successive richieste in termini di potenza di calcolo. Di solito la tecnologia è molto più avanti di quello che il software offre e di esempi ne trovi quanti ne vuoi. La 4090 adesso appare una scheda ancor più "figa" di quello che è, semplicemente perché i titoli attuali sono stati progettati ancor prima che uscisse e la maggior parte sono conversioni o "adattamenti" da console con motori ben rodati e scalabili (vedasi Uncharted tanto per citarne uno).
Quando usciranno titoli con engine grafici evoluti, tipo Unreal Engine 5, farciti di Ray Tracing e con supporto al DLSS3 faremo i reali conti e vedremo quanto "lungimirante" sia stata la scelta di avere oggi una 4090 invece di aspettare l'evoluzione del gaming, ma su questo punto ognuno ha la sua concezione.
La storia del 4k maxato sarà anche una barzelletta per molti ma allora mi chiedo che ci facciate in un forum di enthusiast, e soprattutto a parlare di 4090. Senza offesa eh.:)
Forse perché non tutti giocano in 4K. Conosco persone che decantano la risoluzione 21:9, alias 3440*1440 che a me non piace, dicendo che è poco meno di una 4K, quando è MOLTO MENO di una 4K (ci balla un ottimo 60% circa) e che ritengono la 4090 un bene da avere a prescindere.
Poi a dirla tutta io soffro di più la frase " si beh i 60 li tiene quasi con tutto ma comunque abbassando quei 2 o 3 settaggi ammazza fps va bene e comunque si gioca tutto alla grande." Questo è cercare di mitigare il fatto che vorresti di più perdendo di obiettività.
Almeno io la vedo così, se su pc devo rinunciare a questo e a quello per girare bene, io cambio tutto.
Questa è una tua libera interpretazione. Non sta scritto da nessuna parte che se uno abbassa o cambia una impostazione è perché vorrebbe di più ma non può. C'è anche chi maxa tutto e cappa il framerate a 30 fps (vedasi Cyberpunk nel mio caso) per garantirsi un andamento prestazionale costante o perché non è disposto a cambiare VGA e preferisce godere o accontentarsi di quello che ha. Dove sta la perdita di obiettività me lo devi spiegare. :rolleyes:
Considera anche che spesso e volentieri, alcuni giochi sono programmati col :ciapet: ed è soprattutto in quei casi che viene ancor meno la necessità di "buttare" 2000€ (minimo) per vederli girare degnamente. Forse si dovrebbe meditare di più su quest'ultimo aspetto.
Certo che le vie di mezzo esistono ma non so al giorno d'oggi quanto convengano, un pc medio fascia gira peggio di una ps5 e indubbiamente lo paghi di più, si ci fai anche altro ma ormai per fare l'altro basta un tablet.
Semplicemente perché i titoli che arrivano su PC, sono spesso e volentieri più ottimizzati su console o sono ex esclusive console. In altri casi perché il dettaglio grafico offerto dal PC è nettamente superiore (e non è che lo scopriamo oggi).
Sinceramente l'idea di una console mi ha sfiorato più volte, principalmente per le esclusive, ma il PC lo ritengo una macchina sostanzialmente perfetta per tutto, senza dubbio più dispendiosa, ma inarrivabile per una console next, super, fanta gen che sia. :D
amon.akira
11-11-2022, 18:59
scusate ma non è triste vedere in homepage un gioco del 2011 solo perchè è stato aggiunto un effetto grafico ??
:(
1effetto grafico?
the cake is a lie :D
DarkNiko
11-11-2022, 18:59
Sto solo dicendo che é una gpu molto veloce (ben venga) e future proof, proprio per questo sono sempre piú convinto all'acquisto.
Dunque oggi è 11 Novembre, mi salvo il tuo post e ci rivediamo tra un paio d'anni per sondare la tua "prova di futuro". Mi raccomando eh, non tradirti che ti tengo d'occhio. :asd:
amon.akira
11-11-2022, 19:03
Dunque oggi è 11 Novembre, mi salvo il tuo post e ci rivediamo tra un paio d'anni per sondare la tua "prova di futuro". Mi raccomando eh, non tradirti che ti tengo d'occhio. :asd:
diciamo che verrà pareggiata da una 5070 a 1000euro? ci sta dai
davide155
11-11-2022, 19:10
diciamo che verrà pareggiata da una 5070 a 1000euro? ci sta dai5060......ehmmmm.....5070 super mega cuttata in pieno stile ada lovelace
amon.akira
11-11-2022, 19:11
5060......ehmmmm.....5070 super mega cuttata in pieno stile ada lovelace
eh no per beccare la 4090 non possono utilizzare chippini supercut :)
davide155
11-11-2022, 19:24
eh no per beccare la 4090 non possono utilizzare chippini supercut :)Ci sta anche questo che dici tu alla luce delle ultime parole di mikael, dove dice che il prossimo step di processo produttivo sarà molto risicato.
StylezZz`
11-11-2022, 20:05
diciamo che verrà pareggiata da una 5070 a 499euro? ci sta dai
Fixed :asd:
Magari giacchetta vi farà lo stesso scherzetto come con la 2080 Ti e dirà a noi possessori di ampere che è il momento giusto per aggiornare.
Thunder-74
11-11-2022, 20:31
Su ciò che hai scritto in merito alle CPU concordo in pieno. Tuttavia, si inventano e si strombazzano ad arte leggende molto metropolitane che di scientifico e provato hanno poco, come chi sostiene che una data CPU, solo perché tecnologicamente obsoleta, debba a priori fare da collo di bottiglia per le nuove schede video, come se fosse un mantra o una verità assoluta, quando di assoluto e soprattutto di vero c'è ben poco.
Sul discorso GPU invece non sono d'accordo. Le GPU durano quello che l'utente in primis decide di far durare, più che non l'offerta del software e le successive richieste in termini di potenza di calcolo. Di solito la tecnologia è molto più avanti di quello che il software offre e di esempi ne trovi quanti ne vuoi. La 4090 adesso appare una scheda ancor più "figa" di quello che è, semplicemente perché i titoli attuali sono stati progettati ancor prima che uscisse e la maggior parte sono conversioni o "adattamenti" da console con motori ben rodati e scalabili (vedasi Uncharted tanto per citarne uno).
Quando usciranno titoli con engine grafici evoluti, tipo Unreal Engine 5, farciti di Ray Tracing e con supporto al DLSS3 faremo i reali conti e vedremo quanto "lungimirante" sia stata la scelta di avere oggi una 4090 invece di aspettare l'evoluzione del gaming, ma su questo punto ognuno ha la sua concezione.
Forse perché non tutti giocano in 4K. Conosco persone che decantano la risoluzione 21:9, alias 3440*1440 che a me non piace, dicendo che è poco meno di una 4K, quando è MOLTO MENO di una 4K (ci balla un ottimo 60% circa) e che ritengono la 4090 un bene da avere a prescindere.
Questa è una tua libera interpretazione. Non sta scritto da nessuna parte che se uno abbassa o cambia una impostazione è perché vorrebbe di più ma non può. C'è anche chi maxa tutto e cappa il framerate a 30 fps (vedasi Cyberpunk nel mio caso) per garantirsi un andamento prestazionale costante o perché non è disposto a cambiare VGA e preferisce godere o accontentarsi di quello che ha. Dove sta la perdita di obiettività me lo devi spiegare. :rolleyes:
Considera anche che spesso e volentieri, alcuni giochi sono programmati col :ciapet: ed è soprattutto in quei casi che viene ancor meno la necessità di "buttare" 2000 (minimo) per vederli girare degnamente. Forse si dovrebbe meditare di più su quest'ultimo aspetto.
Semplicemente perché i titoli che arrivano su PC, sono spesso e volentieri più ottimizzati su console o sono ex esclusive console. In altri casi perché il dettaglio grafico offerto dal PC è nettamente superiore (e non è che lo scopriamo oggi).
Sinceramente l'idea di una console mi ha sfiorato più volte, principalmente per le esclusive, ma il PC lo ritengo una macchina sostanzialmente perfetta per tutto, senza dubbio più dispendiosa, ma inarrivabile per una console next, super, fanta gen che sia. :D
La 4090 ad oggi è una scheda da 4K. Prenderla per 2k o 3440x1440, si va in contro a cpu limited con qualsiasi cpu.
Io stesso sono rimasto di m..da nel vedere come è sotto sfruttata con un 9900k occato alla mia res di 3840x1600 (35x100 sotto al 4K)
Anche timespy 2k , bench che stressa parecchio la gpu e mediamente la cpu, ho registrato un suo impegno medio sotto 80x100
Ripeto, ad oggi , se si pensa di prendere una 4090 per 2k o 21:9 1440p, si rischia di rimanere delusi, sopratutto se la cpu è di qualche gen fa. Meglio valutare una 3080/12 o 3090. La 4080 sarebbe perfetta, ma ad un altro prezzo.
Ok che il 9900k è ormai vetusto, ma pensate che avrei voluto posticipare il cambio della piattaforma , ma ho dovuto cedere , perché soffrivo a vedere la vga lavorare con consumi da 3060 in certi scenari.
Ps. Martedì monto tutto e si testa di brutto
Inviato dal mio iPhone X utilizzando Tapatalk
davide155
11-11-2022, 20:49
La 4090 ad oggi è una scheda da 4K. Prenderla per 2k o 3440x1440, si va in contro a cpu limited con qualsiasi cpu.
Io stesso sono rimasto di m..da nel vedere come è sotto sfruttata con un 9900k occato alla mia res di 3840x1600 (35x100 sotto al 4K)
Anche timespy 2k , bench che stressa parecchio la gpu e mediamente la cpu, ho registrato un suo impegno medio sotto 80x100
Ripeto, ad oggi , se si pensa di prendere una 4090 per 2k o 21:9 1440p, si rischia di rimanere delusi, sopratutto se la cpu è di qualche gen fa. Meglio valutare una 3080/12 o 3090. La 4080 sarebbe perfetta, ma ad un altro prezzo.
Ok che il 9900k è ormai vetusto, ma pensate che avrei voluto posticipare il cambio della piattaforma , ma ho dovuto cedere , perché soffrivo a vedere la vga lavorare con consumi da 3060 in certi scenari.
Ps. Martedì monto tutto e si testa di brutto
Inviato dal mio iPhone X utilizzando TapatalkKiwi e niko non hanno idea dell'importanza della CPU con la 4090. Non è un discorso meramente centrato sugli fps medi. Dove comunque il divario c'è e non si attesta ai 10fps su cui si basava kiwi.
Io ho visto un boost abissale soprattutto nel 1% frametime low, passando da 7820x (skylake-X, non proprio un Centrino eh) a 12900k. Per di più con una "semplicissima" 3090. E son sicuro (i dati non mentono) che se domattina passo al 13900k, avrei un guadagno ulteriore. Per non parlare del micro stuttering snche con gsync nativi attivo.
Figuriamoci su una 4090 dove sul 1440p è "rotta". E per rotta intendo che microarchitetturalmente parlando è fatta per calcoli 3d intensivi, 4k, 8k, abbassando troppo la risoluzione si va ad essere dipendenti talmente tanto dei dati CPU che il rapporto costo/performance non ha alcun senso su ada in quel target di risoluzione, a maggior ragione se si ha una cpu con qualche anno alle spalle, la forbice si allarga parecchio. E thunder ne è un esempio vivente qua nel forum.
Ps: per i tecnicismi di ada sulla gestione delle res basse rimando a mikael dove aveva spiegato molto bene la differenza di gestione di tali risoluzioni tra ampere e ada :D
amon.akira
11-11-2022, 20:51
Fixed :asd:
Magari giacchetta vi farà lo stesso scherzetto come con la 2080 Ti e dirà a noi possessori di ampere che è il momento giusto per aggiornare.
esempio1
5070(tie) a 1000€ e 5080(+30%) a 1500€
vendi a 900€ la 4090 e ci rimetti 600€ per la 5080
esempio2
5070(tie) a 500€ e 5080(+30%) a 800€
vendi a 400€ la 4090 e ci rimetti 400€ per la 5080
come vedi cambia poco
mikael84
11-11-2022, 21:19
Ci sta anche questo che dici tu alla luce delle ultime parole di mikael, dove dice che il prossimo step di processo produttivo sarà molto risicato.
Il prossimo non sarà minimamente comparabile, circa +60-65% transistor x mm2 e +18 clock a tensione ideale (salvo non gli modi qualche versione dei 3nm particolarmente avanzata).
Quindi serve rivedere la microarchitettura, come turing o pascal, ma è pur vero che deve badare ai pro, a cui servono un fottio di ALU.
Un esempio a pari microarchitettura::)
5080: 18432 cc- 256 bit -128mb di cache circa 380/400mm2
5090ti: 30720cc -384 bit - 196mb di cache circa 600 e over 3,2-3,3ghz.
In MCM, l'ideale sarebbero 4 die da 7680cc (4x AD104 rivisti in collegamenti)
Fixed :asd:
Magari giacchetta vi farà lo stesso scherzetto come con la 2080 Ti e dirà a noi possessori di ampere che è il momento giusto per aggiornare.
Ampere era a 6000$ il wafer, i 3nm a 30000$. :D
Blackwell B102, potrebbe costare 1000$ solo produrla senza MCM.
amon.akira
11-11-2022, 21:28
Blackwell B102, potrebbe costare 1000$ solo produrla senza MCM.
spero siano mcm :asd:
davide155
11-11-2022, 21:29
Già mi piace la 5090ti..... TRENTAMILA cuda core. Senti come riempire la bocca. Trentamila.
Comunque subito dopo l'uscita di ampere mi ricordo mikael (il nostro kopite :asd:) avevi già spoilerato i cuda di ada. Non è che ci azzecchi anche con questi? :D
mikael84
11-11-2022, 21:43
spero siano mcm :asd:
Saranno letteralmente volatili per diabetici... come la giri, se punta alla realizzazione di un over 600, costerà un botto.:p Magari la prossima avremmo un cambio migliore e costerà come la 4090.:p
Già mi piace la 5090ti..... TRENTAMILA cuda core. Senti come riempire la bocca. Trentamila.
Comunque subito dopo l'uscita di ampere mi ricordo mikael (il nostro kopite :asd:) avevi già spoilerato i cuda di ada. Non è che ci azzecchi anche con questi? :D
No vabbè, era un'ipotesi per transistor impilabili, dopo 2 generazioni uguali, magari cambia qualcosa, anche se la deriva pro, lo porterà a mettere un fottio di ALU.
Considerando che AD102, diventerà come BL103 in mm2, potrebbe starci un valore simile o vicino.:sofico:
fraussantin
11-11-2022, 21:57
Il prossimo non sarà minimamente comparabile, circa +60-65% transistor x mm2 e +18 clock a tensione ideale (salvo non gli modi qualche versione dei 3nm particolarmente avanzata).
Quindi serve rivedere la microarchitettura, come turing o pascal, ma è pur vero che deve badare ai pro, a cui servono un fottio di ALU.
Un esempio a pari microarchitettura::)
5080: 18432 cc- 256 bit -128mb di cache circa 380/400mm2
5090ti: 30720cc -384 bit - 196mb di cache circa 600 e over 3,2-3,3ghz.
In MCM, l'ideale sarebbero 4 die da 7680cc (4x AD104 rivisti in collegamenti)
Ampere era a 6000$ il wafer, i 3nm a 30000$. :D
Blackwell B102, potrebbe costare 1000$ solo produrla senza MCM.Speriamo nel frattempo cali un po di costi il 3nm.
Cmq non ho chiara una cosa : visto che ormai nvidia su ogni gen e pp produce 2 linee separate ( hopper e lovelace adesso)
Perche non farne una sola dedicata ai pro e l'altra più economica per il gaming.
mikael84
12-11-2022, 00:01
Speriamo nel frattempo cali un po di costi il 3nm.
Cmq non ho chiara una cosa : visto che ormai nvidia su ogni gen e pp produce 2 linee separate ( hopper e lovelace adesso)
Perche non farne una sola dedicata ai pro e l'altra più economica per il gaming.
Beh non cambierebbe poi molto, la differenza la fa l'uso delle fp e interi in base all'applicazione.
ray_hunter
12-11-2022, 08:57
E fin qua nulla da ridire e ci mancherebbe.
Dispiaciuto di doverti deludere ma il 10700k, oggi 2022, non regge come un i9 10900k. Tanto per dire ho preso un video a caso con giochi attuali, ed è fatto in 1080p, che ripeto non è l'ambito in cui devi usare una 4090 a meno che tu non risieda nella categoria 3 del mio precedente post, dove allora avresti ragione su tutta la linea e mi trovi d'accordo.
...
Come vedi il 10900k è quasi a pari del 12900k che a sua volta è poco distante dal 13900k, da la paga quasi sempre al 5950x e il 10700k è la in fondo.
Come già detto ad altri se vuoi farti un teamviewer e provare con mano basta dirlo.
Concordo, oggi 11 novembre 2022 solo un malato di mente comprerebbe ex novo un 10900k da abbinare ad una 4090. Ma solo un fissato di hardware che ha già un 10900k da 7 anni questa cpu la cambierebbe per qualcos'altro per giocare in 4k maxato con una 4090, a meno che non rientri nella categoria 3 del mio precedente post.
Te l'ho scritto, la 4090 tolto cyberpunk maxato cappa il monitor.
Con le nuove cpu arriveranno i nuovi giochi e la 4090 farà si e no i 60 fps con qualsiasi cpu decente.
Indubbiamente.
Quei test vengono sicuramente da testing games che, ti garantisco è ESTREMAMENTE INAFFIDABILE...
Quei risultati, se andiamo a vedere altre recensioni serie sono ampiamente smentiti.
Thunder-74
12-11-2022, 10:37
Kiwi e niko non hanno idea dell'importanza della CPU con la 4090. Non è un discorso meramente centrato sugli fps medi. Dove comunque il divario c'è e non si attesta ai 10fps su cui si basava kiwi.
Io ho visto un boost abissale soprattutto nel 1% frametime low, passando da 7820x (skylake-X, non proprio un Centrino eh) a 12900k. Per di più con una "semplicissima" 3090. E son sicuro (i dati non mentono) che se domattina passo al 13900k, avrei un guadagno ulteriore. Per non parlare del micro stuttering snche con gsync nativi attivo.
Figuriamoci su una 4090 dove sul 1440p è "rotta". E per rotta intendo che microarchitetturalmente parlando è fatta per calcoli 3d intensivi, 4k, 8k, abbassando troppo la risoluzione si va ad essere dipendenti talmente tanto dei dati CPU che il rapporto costo/performance non ha alcun senso su ada in quel target di risoluzione, a maggior ragione se si ha una cpu con qualche anno alle spalle, la forbice si allarga parecchio. E thunder ne è un esempio vivente qua nel forum.
Ps: per i tecnicismi di ada sulla gestione delle res basse rimando a mikael dove aveva spiegato molto bene la differenza di gestione di tali risoluzioni tra ampere e ada :D
non so se lo avevo già postato, ma giusto per chiuidere il discorso di ieri.
Questo BF2042 maxato senza DLSS e senza RT. il mio pannello è da 144hz, qui sono CPU limited.
https://i.imgur.com/5PazdTL.png
VGA al 57% ....
Cutter90
12-11-2022, 10:52
non so se lo avevo già postato, ma giusto per chiuidere il discorso di ieri.
Questo BF2042 maxato senza DLSS e senza RT. il mio pannello è da 144hz, qui sono CPU limited.
https://i.imgur.com/5PazdTL.png
VGA al 57% ....
Ma perchè ancora c'è chi ha dubbi che la cpu con la 4090 non sia fondamentale? In 1440p la 4090 non va comprata proprio. In 4k ci vuole una cpu dal 10900k in avanti. Non vedo davvero nessun margine di discussione, ci sono tanti test che lo dimostrano :)
davide155
12-11-2022, 11:18
non so se lo avevo già postato, ma giusto per chiuidere il discorso di ieri.
Questo BF2042 maxato senza DLSS e senza RT. il mio pannello è da 144hz, qui sono CPU limited.
https://i.imgur.com/5PazdTL.png
VGA al 57% ....Infatti, se ne è già parlato diverse volte anche su altri thread. Ed i possessori di 4090 hanno tutti confermato. Oltre ovviamente ai milioni di bench che ci sono online.Ma perchè ancora c'è chi ha dubbi che la cpu con la 4090 non sia fondamentale? In 1440p la 4090 non va comprata proprio. In 4k ci vuole una cpu dal 10900k in avanti. Non vedo davvero nessun margine di discussione, ci sono tanti test che lo dimostrano :)Fai anche dal 12700k in poi. Perché i margini si assottigliano solo sopra determinate cpu. Sotto fanno il vuoto.
non so se lo avevo già postato, ma giusto per chiuidere il discorso di ieri.
Questo BF2042 maxato senza DLSS e senza RT. il mio pannello è da 144hz, qui sono CPU limited.
https://i.imgur.com/5PazdTL.png
VGA al 57% ....
per curiosità la stessa 4090 ma sulla tua config in firma su bf2042 quanto viene usata in % mediamente? quando parli di 1440 intendi WQHD o UWQHD?
Pronti i primi prezzi
Schede video ZOTAC RTX 4080 TRINITY al prezzo promozionale di 1.479 € IVA inclusa
Na cosina (cit.)
Thunder-74
12-11-2022, 12:38
per curiosità la stessa 4090 ma sulla tua config in firma su bf2042 quanto viene usata in % mediamente? quando parli di 1440 intendi WQHD o UWQHD?
Il pc in firma è per ora suddiviso nelle scatole, sono in attesa che lunedì mi consegnino l'ali e poi martedì monto tutto.
lo screen che ho fatto è a 3840x1600. In UWQHD, ovvero a 3440x1440 la situazione sarà peggiore, in WQHD (2560x1440) neanche a parlarne.
Quei test vengono sicuramente da testing games che, ti garantisco è ESTREMAMENTE INAFFIDABILE...
Quei risultati, se andiamo a vedere altre recensioni serie sono ampiamente smentiti.
http://i.imgur.com/KH34R7Vl.png (https://imgur.com/KH34R7V)
Il pc in firma è per ora suddiviso nelle scatole, sono in attesa che lunedì mi consegnino l'ali e poi martedì monto tutto.
lo screen che ho fatto è a 3840x1600. In UWQHD, ovvero a 3440x1440 la situazione sarà peggiore, in WQHD (2560x1440) neanche a parlarne.
cavolo addirittura a 3840x1600 :eek: potresti fare una prova anche col nuovo pc in condizioni simili quando hai modo? Sono curioso di vedere la differenza
Thunder-74
12-11-2022, 21:43
cavolo addirittura a 3840x1600 :eek: potresti fare una prova anche col nuovo pc in condizioni simili quando hai modo? Sono curioso di vedere la differenza
Ti farò sapere sicuramente ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Voi quale scheda considerate adatta al 1440p, non dico senza compromessi ma comunque ad alte impostazioni?
Una 3080? O anche sotto?
Voi quale scheda considerate adatta al 1440p, non dico senza compromessi ma comunque ad alte impostazioni?
Una 3080? O anche sotto?
3070 basta e avanza
Ti farò sapere sicuramente ;)
Inviato dal mio iPhone X utilizzando Tapatalk
grazie :)
Voi quale scheda considerate adatta al 1440p, non dico senza compromessi ma comunque ad alte impostazioni?
Una 3080? O anche sotto?
personalmente sotto una 3080 ad oggi io non scenderei, il top sarebbe una 3080Ti se trovata al giusto prezzo. Alla fine dipende tanto anche dai titoli giocati, che compromessi si è disposti ad accettare nel tempo e per quanto tempo tenerla
Ma la 4080 quando esce, che connettore avrà e prezzo?
Thunder-74
13-11-2022, 08:56
Ma la 4080 quando esce, che connettore avrà e prezzo?
connettore 12vhpwr e prezzo non sotto di molto ai 1500 euro. La FE 1479 euro
Shadow Man
13-11-2022, 09:51
Ma la 4080 quando esce, che connettore avrà e prezzo?
purtroppo sempre il connettore 12VHPWR, a breve PCI-SIG ha previsto una revisione visto che il problema é anche su quel cavo , nvidia tace
connettore 12vhpwr e prezzo non sotto di molto ai 1500 euro. La FE 1479 euro
Su trovaprezzi su un sito mai sentito si trova una msi alla modifca cifra di 1900 euro, apparentemente disponibile, mentre su ollostore si parte da 1700 non disponibili, la cosa che mi incuriosisce di più di questa ladrata sono le prestazioni, per capire come si colloca nel rapporto perf/price rispetto alla top, perchè se dovesse essere peggiore gli utenti del forum che la metteranno nella propria firma, dovrebbero essere bannati d'ufficio :D
Dai ragazzi, prima della uscita anche le 4090 non le vedevi a meno di 2500 euro.
Poi sono arrivata le 1900 euro.
Uguale sarà per le 4080, lasciate che escano e si troveranno, per chi le vuole, a 1400 euro.
Thunder-74
13-11-2022, 10:48
Su trovaprezzi su un sito mai sentito si trova una msi alla modifca cifra di 1900 euro, apparentemente disponibile, mentre su ollostore si parte da 1700 non disponibili, la cosa che mi incuriosisce di più di questa ladrata sono le prestazioni, per capire come si colloca nel rapporto perf/price rispetto alla top, perchè se dovesse essere peggiore gli utenti del forum che la metteranno nella propria firma, dovrebbero essere bannati d'ufficio :D
A certo , inizialmente assisteremo alle proposte più oscene, poi quando vedranno che con 2k si riescono a prendere le 4090, i prezzi si sgonfieranno.
Potremmo anche vedere un aumento delle 4090 per giustificare le 4080, ma alla fine, come usciranno le AMD, non so se sto giochino potrà funzionare.
nessuno29
13-11-2022, 10:49
Dai ragazzi, prima della uscita anche le 4090 non le vedevi a meno di 2500 euro.
Poi sono arrivata le 1900 euro.
Uguale sarà per le 4080, lasciate che escano e si troveranno, per chi le vuole, a 1400 euro.
A vabbè affarone a 1400, da prendere subito
A vabbè affarone a 1400, da prendere subito
Imho no, non lo è, ma non è un mio problema... la mia scelta la ho già fatta.
Imho no, non lo è, ma non è un mio problema... la mia scelta la ho già fatta.credo fosse ironico..
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
mikael84
13-11-2022, 12:28
Su trovaprezzi su un sito mai sentito si trova una msi alla modifca cifra di 1900 euro, apparentemente disponibile, mentre su ollostore si parte da 1700 non disponibili, la cosa che mi incuriosisce di più di questa ladrata sono le prestazioni, per capire come si colloca nel rapporto perf/price rispetto alla top, perchè se dovesse essere peggiore gli utenti del forum che la metteranno nella propria firma, dovrebbero essere bannati d'ufficio :D
Leva il 35/40% dalla 4090, e trovi le perf (in 4k), oppure prendi la 3070ti vs 3090, salvo i pixel e geometria, hanno gli stessi rapporti.
Il 3dmark la mette al 40% sotto, ed anche le slide nvidia confermano, anche se nelle review, si tenderà a stare anche al 30-35%.
Fatti due considerazioni x 1700-1900 euro custom:p
https://uploads.disquscdn.com/images/2fbbb8c97983f84bc311a38d9d7e44616fda057f9c099a606eb0fd2d0963e84b.png[/IMG]
fraussantin
13-11-2022, 12:28
Palesemente ironico.
Parlare di affaroni a queste cifre è già una battuta di suo
Marcellator
13-11-2022, 19:18
4090 FE disponibili sul sito nvidia
fraussantin
13-11-2022, 19:53
4090 FE disponibili sul sito nvidiaSito in botta ! mi viene da piangere!
:asd:
Jeetkundo
13-11-2022, 20:13
Sito in botta ! mi viene da piangere!
:asd:
Io sono riuscito a metterla nel carrello e ad arrivare alla schermata di pagamento ma giusto per divertimento (al momento non posso spendere così tanto) :D
mikael84
13-11-2022, 20:26
Sito in botta ! mi viene da piangere!
:asd:
La 4090 bene o male ci può anche stare, il bello sarà la 4070... pardon 4080.:p
Io sono riuscito a metterla nel carrello e ad arrivare alla schermata di pagamento ma giusto per divertimento (al momento non posso spendere così tanto) :D
Stessa cosa :D:D
ma non per divertimento.... credo sia per masochismo :cry: ;) :cry:
A vabbè affarone a 1400, da prendere subito
Certo che le cose sono cambiate tanto.....
https://i.postimg.cc/TYLvjQGG/IMG-7417.jpg (https://postimages.org/)
Certo che le cose sono cambiate tanto.....
https://i.postimg.cc/TYLvjQGG/IMG-7417.jpg (https://postimages.org/)
Continuo a ripetere da molto tempo che ormai il progresso tecnologico lato gpu latita da praticamente un decennio e apparentemente l'unica soluzione per migliorare le prestazioni sia fare gpu sempre piu' grandi su nodi possibilmente sempre piu' piccoli e costosi.
Un salto alla Kepler => Maxwell, con boost cosi elevato di prestazioni **e** riduzione di consumi, sullo stesso nodo non lo vedremo mai piu' (la 980 aveva addirittura il 40% di transistor in meno della 780) a meno che non torni una vera e agguerrita competizione nel mercato gpu.
Ormai AMD e Nvidia hanno deciso che piuttosto fare la guerra campano meglio facendo il minimo sforzo e ottimizzando la quantita' di $ che ci tirano fuori dal portafoglio.
Nvidia ormai e' come Intel nelle cpu, cerca di fare i profitti maggiori (non a caso hanno trimestri in cui toccano il 30/35 % di **utile**, le gpu non ve le vendono certo a 100 o 200 euro in piu di quanto gli costa produrle) minimizzando l'investimento di ricerca.
Con la grande differenza che il mercato cpu e' molto piu' grande e ha competizione anche da architetture differenti per cui anche Intel ha dovuto correre ai ripari e iniziare a tirare fuori CPU serie, quello gpu non ha niente di cio'.
mikael84
14-11-2022, 12:01
4060ti... pardon 4070ti (ex 4080 12), come prevedibile, sarà ufficializzata e lanciata al CES del 5 gennaio.
https://www.hardwaretimes.com/nvidia-rtx-4070-ti-is-planned-for-launch-on-the-5th-of-january-2023/
davide155
14-11-2022, 12:31
E niente, fa già ridere così.
Aperti i preordini su amazon italia, venduta e spedita da Amazon.
https://uploads.tapatalk-cdn.com/20221114/b6f760bcce0d1a0dd458107ed2a8ef28.jpg
E niente, fa già ridere così.
Aperti i preordini su amazon italia, venduta e spedita da Amazon.
https://uploads.tapatalk-cdn.com/20221114/b6f760bcce0d1a0dd458107ed2a8ef28.jpg
Maledettiii!! Cit
mikael84
14-11-2022, 12:45
E niente, fa già ridere così.
Aperti i preordini su amazon italia, venduta e spedita da Amazon.
Fuori di testa per una 4070 che beneficia del clock.
Inoltre, vorrei proprio capire la scelta di uno che spende quasi 2000 euro, per quella chippino, quando sei in soglia 4090...
davide155
14-11-2022, 12:50
Fuori di testa per una 4070 che beneficia del clock.
Inoltre, vorrei proprio capire la scelta di uno che spende quasi 2000 euro, per quella chippino, quando sei in soglia 4090...Infatti non ha senso. A 400euro meno la 7900xtx sarà mille volte meglio.
4090 per i malati enthusiast dai 2mila in su
7900xtx per quelli che si accontentano delle prestazioni in rt a "soli" 1300euro
3090 per chi vuole un ottima scheda a 8-900euro, però usata.
Infatti non ha senso. A 400euro meno la 7900xtx sarà mille volte meglio.
4090 per i malati enthusiast dai 2mila in su
7900xtx per quelli che si accontentano delle prestazioni in rt a "soli" 1300euro
3090 per chi vuole un ottima scheda a 8-900euro, però usata.
Non sono giustificati tutti sti prezzi non dovreste comprare
davide155
14-11-2022, 13:00
Non sono giustificati tutti sti prezzi non dovreste comprareSfondi una porta aperta.
Mi son legato ad una gamba la 3090fe.
fraussantin
14-11-2022, 13:05
Non sono giustificati tutti sti prezzi non dovreste comprareFinche la gente intasa il sito nvidia con le 4090 a 2k , e poi esulta le amd a 1300 euro come l'affare imperdibile salva portafogli , ( MILLE E TRECENTO COCUZZE È .. ) , fanno bene.
Fosse mia l'nvidia le prossime 3000 euro le farei.
davide155
14-11-2022, 13:07
Finche la gente intasa il sito nvidia con le 4090 a 2k , e poi esulta le amd a 1300 euro come l'affare imperdibile salva portafogli , ( MILLE E TRECENTO COCUZZE È .. ) , fanno bene.
Fosse mia l'nvidia le prossime 3000 euro le farei.Vai tranquillo che succederà :asd:
mikael84
14-11-2022, 13:17
Infatti non ha senso. A 400euro meno la 7900xtx sarà mille volte meglio.
4090 per i malati enthusiast dai 2mila in su
7900xtx per quelli che si accontentano delle prestazioni in rt a "soli" 1300euro
3090 per chi vuole un ottima scheda a 8-900euro, però usata.
Paradossalmente siamo arrivati al punto, che il best generazionale sono la Titan nuova e la vecchia.:p
Come fossimo dei pro e ragionassimo come loro.
Finche la gente intasa il sito nvidia con le 4090 a 2k , e poi esulta le amd a 1300 euro come l'affare imperdibile salva portafogli , ( MILLE E TRECENTO COCUZZE È .. ) , fanno bene.
Fosse mia l'nvidia le prossime 3000 euro le farei.
Con i costi del 3nm, la 5090 per mantenere il margine, probabilmente partirà da 1999/2099$.
bonzoxxx
14-11-2022, 13:31
Mah, ieri ho maxato eternal in RT con la 3080: mi rendo conto che è una signora GPU e passerei alla 3090 solo per il dissipatore decisamente più generoso, la 3080 è caldina in certi contesti.
Oppure passerei direttamente alla 7900XT o XTX in base ai prezzi e disponibilità.
4080 e "4070" fai totale a sti prezzi, non sense proprio
fraussantin
14-11-2022, 13:34
Con pa 3080 quanti fps andrei a perdere passando da 1440p a un 1440p UW ?
Considerato anche il fatto che dovrebbe lavorare meglio a quella risoluzione
bonzoxxx
14-11-2022, 13:37
Con pa 3080 quanti fps andrei a perdere passando da 1440p a un 1440p UW ?
Considerato anche il fatto che dovrebbe lavorare meglio a quella risoluzione
Che gioco? Se ce l'ho ti faccio 2 test al volo stasera, ho un 3440*1440
fraussantin
14-11-2022, 13:40
Che gioco? Se ce l'ho ti faccio 2 test al volo stasera, ho un 3440*1440Ma parlavo in generale , perche visto che la scheda non la cambierò , forse cambio il monitor
mikael84
14-11-2022, 13:41
Con pa 3080 quanti fps andrei a perdere passando da 1440p a un 1440p UW ?
Considerato anche il fatto che dovrebbe lavorare meglio a quella risoluzione
Imposta il DSR a pixel equivalenti, e ti fai un'idea .
fraussantin
14-11-2022, 13:46
Imposta il DSR a pixel equivalenti, e ti fai un'idea .Detto bene , ci devo smanettare un po
bonzoxxx
14-11-2022, 13:46
Ma parlavo in generale , perche visto che la scheda non la cambierò , forse cambio il monitor
Imposta il DSR a pixel equivalenti, e ti fai un'idea .
L'idea di mikael è la cosa migliore che puoi fare.
al momento ha parecchia roba installata ma poco che ha bench integrati.
Spannometricamente, si passa da 3,686,400 pixel a 4,953,600, un 35% in più, ma sono calcoli che lasciano il tempo che trovano imho.
Secondo me potresti perdere da un 15 ad un 30% max di prestazioni.
Valuta bene il wide, io mi trovo bene ma taglia parecchio l'immagine sopra e sotto e bisogna andare di FOV più alte con giochi che non sono ottimizzati per il wide.
Per quelli moderni non ci sono particolari problemi imho, eternal funziona benone idem a plague tale
mikael84
14-11-2022, 13:52
Detto bene , ci devo smanettare un po
Altrimenti, usa questo sito che lo testa.
https://www.pcgameshardware.de/Geforce-RTX-3070-Ti-Grafikkarte-277502/Tests/RTX-3070-Ti-wo-kaufen-Test-RTX-3070-Ti-oder-RTX-3080-1373448/2/
le recensioni escono il 15 o il 16?
Io a questo punto mi tengo stretta la 3070 che francamente non fa mancare nulla, ho appena inziato Ghostwire Tokyo (uno spettacolo), 1440 tutto maxato compreso il RT fisso a 60 fps.
Cambierò quando con 700 euro mi porterò a casa il doppio di potenza (raster e RT) e di ram video.
bonzoxxx
14-11-2022, 14:16
Io a questo punto mi tengo stretta la 3070 che francamente non fa mancare nulla, ho appena inziato Ghostwire Tokyo (uno spettacolo), 1440 tutto maxato compreso il RT fisso a 60 fps.
Cambierò quando con 700 euro mi porterò a casa il doppio di potenza (raster e RT) e di ram video.
Anche questa è una buona idea, mettersi un budget e aspettare, lo applico ai cellulari max 300€ e deve durare 3 anni, 400€ e ne deve durare 4: altrimenti non se ne esce, i costi stanno lievitando e putroppo non solo in questo settore :muro: :doh:
Io aspetto il bf magari fanno qualche offerta o AMD o nvidia....mi serve qualcosa per il mio uhdw non devo maxare mai fatto! O aspetto le 7900!
fraussantin
14-11-2022, 14:39
L'idea di mikael è la cosa migliore che puoi fare.
al momento ha parecchia roba installata ma poco che ha bench integrati.
Spannometricamente, si passa da 3,686,400 pixel a 4,953,600, un 35% in più, ma sono calcoli che lasciano il tempo che trovano imho.
Secondo me potresti perdere da un 15 ad un 30% max di prestazioni.
Valuta bene il wide, io mi trovo bene ma taglia parecchio l'immagine sopra e sotto e bisogna andare di FOV più alte con giochi che non sono ottimizzati per il wide.
Per quelli moderni non ci sono particolari problemi imho, eternal funziona benone idem a plague taleIl 25% di media è accettabile , per i giochi non compatibili al massimo tengo le bande nere ai lati .
Boh è l'idea mia passare a uno di quelli per l'immersivita più che altro.
E perche avendo riposto la scimmia sulla gpu , qualcosina per togliersi l'amaro di bocca .... :D
Anche questa è una buona idea, mettersi un budget e aspettare, lo applico ai cellulari max 300€ e deve durare 3 anni, 400€ e ne deve durare 4: altrimenti non se ne esce, i costi stanno lievitando e putroppo non solo in questo settore :muro: :doh:
Si attende l'uscita della linea media ormai e poi si valuta, sia rosso che verde :)
giangi989
14-11-2022, 16:18
https://twitter.com/harukaze5719/status/1592178250423611392?s=20&t=luq5ah2E7RGyJ9nSC2-q3w
davide155
14-11-2022, 17:27
https://twitter.com/harukaze5719/status/1592178250423611392?s=20&t=luq5ah2E7RGyJ9nSC2-q3wTutto confermato come da specifiche.
L'unica cosa negativa di questa gpu è il prezzo.
Sotto i mille euro poteva essere intrigante, ma non a 1700euro.
Certo che vedendo i prezzi della RTX 4080,fa diventare quasi conveniente la RTX 4090....che genio del male black jacket :asd:
OrazioOC
14-11-2022, 17:57
https://twitter.com/harukaze5719/status/1592178250423611392?s=20&t=luq5ah2E7RGyJ9nSC2-q3w
Circa +20% sulla 3090 ti, quindi +25% sulla 3090 vanilla e circa 35% sulla 3080 12gb, il tutto su 5nm e gddr6x abbastanza boostate, con un poco invidiabile tdp out of the box di 320w.
Boh, quasi mi fa rivalutare ampere e il suo 7nm farlocco.:rolleyes:
Tutto confermato come da specifiche.
L'unica cosa negativa di questa gpu è il prezzo.
Sotto i mille euro poteva essere intrigante, ma non a 1700euro.Il prezzo è orribile, dovrebbe stare a 999$
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
La 4080 è davvero una scheda che non vale minimamente quello che costa e anche Nvidia penso che lo stia capendo visto tutte le iniziative che sta lanciando per presentare questo mezzo aborto. Gli RTX DAY (https://multiplayer.it/notizie/geforce-rtx-4080-nvidia-celebra-lancio-della-nuova-gpu-con-nuovo-rtx-day.html) alla presentazione di una scheda in Italia non li avevo mai visti. Evidentemente hanno paura di non venderle.
mikael84
14-11-2022, 18:33
Circa +20% sulla 3090 ti, quindi +25% sulla 3090 vanilla e circa 35% sulla 3080 12gb, il tutto su 5nm e gddr6x abbastanza boostate, con un poco invidiabile tdp out of the box di 320w.
Boh, quasi mi fa rivalutare ampere e il suo 7nm farlocco.:rolleyes:
Che c'entra il PP, se ti stanno dando 9728 cuda vs 18432 del chip full a 5nm.:p
I chip a metà delle ALU, sono sempre state X70.
A die equivalenti e pari cut, vs Ampere, sarebbe una 3060ti spiccicata. Mettila in competizione a pari condizioni.:p
OrazioOC
14-11-2022, 18:55
Che c'entra il PP, se ti stanno dando 9728 cuda vs 18432 del chip full a 5nm.:p
I chip a metà delle ALU, sono sempre state X70.
A die equivalenti e pari cut, vs Ampere, sarebbe una 3060ti spiccicata. Mettila in competizione a pari condizioni.:p
Io non la metto in competizione a pari condizioni, la metto in competizione a pari prezzo, e messa così è un po' deludente.
mikael84
14-11-2022, 19:07
Io non la metto in competizione a pari condizioni, la metto in competizione a pari prezzo, e messa così è un po' deludente.
Beh si, ma il problema non è il PP, ma la furbata di JHH. Una x80 che si rispetti, non big chip, ha sempre avuto 2/3 di ALU del chippone, ovvero 12288.
Qua ha fatto il furbo giusto per il clock.:)
Inoltre, il fattore che rende ancora più ridicolo il chip, oltre al prezzo, è pure la devastazione di ben 1000 cuda.
Il tutto per lasciare ampio spazio per la 4090.
Il vero problema non è spendere 1500/1700 euro. Chi li ha sicuramente se ne fregherà del prezzo. Il problema è la svalutazione di un prodotto di elettronica con un così alto prezzo e un valore relativo basso. Se io oggi trovo senza problema una 3090 usata tra le 800/900 euro questa qui quanto varrà tra 1 anno? Per non svalutarla del tutto la prossima 5080 dovrebbe costare almeno 2000 e passa euro. :sofico: :sofico: :sofico:
Io ho davvero sperperato un sacco di soldi nel gaming ma ora basta. Per me non è intollerabile una spesa del genere.
davide155
14-11-2022, 20:05
Il vero problema non è spendere 1500/1700 euro. Chi li ha sicuramente se ne fregherà del prezzo. Il problema è la svalutazione di un prodotto di elettronica con un così alto prezzo e un valore relativo basso. Se io oggi trovo senza problema una 3090 usata tra le 800/900 euro questa qui quanto vorrà tra 1 anno? Per non svalutarla del tutto la prossima 5080 dovrebbe costare almeno 2000 e passa euro. :sofico: :sofico: :sofico:
Io ho davvero sperperato un sacco di soldi nel gaming ma ora basta. Per me non è tollerabile una spesa del genere.La svalutazione credo sia l'unica cosa rimasta identica nel tempo.
Ovvero, le cifre cambiano, ovviamente, perché il 50% di svalutazione su 1500euro è ben diverso dal 50% su 799euro. Ma la percentuale bene o male è sempre stata la stessa tra nuovo appena uscito ed usato alle porta della gen successiva.
Io non la metto in competizione a pari condizioni, la metto in competizione a pari prezzo, e messa così è un po' deludente.
solo un pò deludente? :asd: a quel prezzo è una barzelletta
dategli tempo che fa sucire una 4080 super e una 4080Ti, tanto la forbice di prezzo per infilarle l'ha creata bella larga, un filo di riposizionamento della 4080 che esce domani tra qualche mese e via a spennare altri utenti
Infatti non ha senso. A 400euro meno la 7900xtx sarà mille volte meglio.
4090 per i malati enthusiast dai 2mila in su
7900xtx per quelli che si accontentano delle prestazioni in rt a "soli" 1300euro
3090 per chi vuole un ottima scheda a 8-900euro, però usata.
Condivido anche gli spazi e le virgole, sto aspettando le rece della 4080 e della 7900XTX per valutare, senza escludere una 3090 a 800/900..;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.