View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
fraussantin
07-09-2023, 11:54
Nella fascia alta la 7900xtx non é male in quanto in raster va anche qualcosina in più della 4080, mentre in RT siamo ai livelli della 4070ti, però il costo si pone nel mezzo delle due, quindi non é malvagia come opzione.
Stessa cosa si ripropone con la 7700xt che in raster va simile alla 4070 forse anche un pelo in più quando ben sfruttata, ma costa quanto la 4060ti e rispetto quest'ultima anche in RT se la cava meglio.
A livello software Nvidia lavora oggettivamente meglio con le varie tecnologie come DLSS e Frame generator, vedremo con l'FSR3 come si comporterà e se sarà migliorata anche l'accuratezza dell'FSR.
Oggettivamente si sono proprio divise il mercato, non c'è una vera concorrenza, Nvidia la peggior mossa commerciale l'ha fatta con la 4060ti 16gb che poteva allegramente risparmiarsela, se ad106 fosse stato dotato di un bus a 192bit sarebbe stata una proposta decisamente più bilanciata.
Comunque i listini penso saranno sicuramente ritoccati, anche perché gli stock di 6000 e 3000 si stanno riducendo notevolmente.
Inviato dal mio M2012K11AG utilizzando TapatalkIl punto è sempre quello , se devi cacciare 1000 euro e rinunciate a dlss e rt , diventa un problema, almeno per me.
Poi dipende dalla persona ovviamente.
Queste tecnologie , belle o brutte che siano costano soldi , se non me pe dai voglio risparmiare parecchio
mikael84
07-09-2023, 21:21
Se BL102 sarà un 600 e passa mm2 sui 3nm di TSMC, basta fare 2+2, senza considerare la questione bus e relativa ram..:)
I chip con la prossima gen, aumenteranno ancora, con qualche contentino in fascia medio-bassa per me.
Se ad oggi gli AIB stanno centellinando l'induttore sulle x70, su un 294 distrutto...
Già il X04 che diventa 05 è un segnale, di cosa intenderà per mid. X06 attuale è tutta roba per mobile x50.
Il punto è sempre quello , se devi cacciare 1000 euro e rinunciate a dlss e rt , diventa un problema, almeno per me.
Poi dipende dalla persona ovviamente.
Queste tecnologie , belle o brutte che siano costano soldi , se non me pe dai voglio risparmiare parecchio
Per chi ha GA102, l'upgrade minimo è la 4080.
OrazioOC
08-09-2023, 07:29
Già il X04 che diventa 05 è un segnale, di cosa intenderà per mid. X06 attuale è tutta roba per mobile x50.
E' tutta shrinkflation, l'alternativa sarebbe stata chiamare questi prodotti con il reale posizionamento dei chip allo stesso prezzo, il che avrebbe fatto rivoltare lo stomaco a parecchi. :D
Es. 4050(quella che oggi si chiama 4060) con ad107 a 299 dollari.
Sai che scandalo chiedere 300 dollari per una XX50 che fino a 5 anni fa era una fascia di GPU che stava sotto i 200 dollari? :rolleyes:
Comunque sia nvidia che amd stanno facendo di tutto per non rendere possibile il cambio di gpu di gen in gen vantaggioso, ieri è uscita la 7800 xt che va' praticamente come la 6800 xt, nvidia ha fatto uscire tre mesi fa la 4060 ti che va' un poco più delle 3060 ti e generalmente meno della 3070, 4070 ti se non fosse per il dlss3 sarebbe una 3080 ti glorificata ecc...
fraussantin
08-09-2023, 07:43
Per chi ha GA102, l'upgrade minimo è la 4080.
Si io mio discorso era generico , anche per dire per chi ha un pc più vecchio.
Per noi con la 3080 secondo me anchel a 4080 è poco , per la differenza di prezzo e l'anno residuo ormai di supporto.
A sto punto si aspetta la 5070 , magari si inventano qualche altra esclusiva e piglia al lancio
Tecnicamente la 4080 è un chip più piccolo della 3070, i vantaggi sono legati tutti al nodo, non c'è nulla di miracoloso riguardo i consumi alla fine consuma come una 3070ti, solo che la 4080 la paghi il doppio :fagiano:
Lato prestazioni nulla da dire, ma anche rispetto la 3080 costa il 50% di listino in più.
fraussantin
08-09-2023, 09:17
È poco? Ma per nulla proprio, è l'upgrade dimensionato per eccellenza, vai tipo +50-55% senza tirare in ballo FG.
Se passi da 3080 a 4080 senti la differenza e fai un upgrade a tutto tondo, le schede non sono nemmeno lontanamente paragonabili.
Se aggiungi FG la 3080 viene polverizzata.
Anche la gestione delle temperature, sopratutto sulle vram è un altro pianeta, 16gb di vram che sono dimensionati perfettamente ad oggi e non la mettono mai in crisi, in uv sta sui 200-220ww è un gioiellino ma molto costoso, costa troppo questo si, e forse la spesa è più grande dell'impresa, rivendendo la 3080 ci devi aggiungere un bel pò di soldi, a quel punto si aspetta blackwell.
Per i possessori di 3080 che ancora non hanno cambiato io aspetterei le prossime, queste cose o si fanno al lancio o perdono di senso.
Inviato dal mio SM-A715F utilizzando TapatalkLa differenza la sento anche sul conto in banca .
Sono 1200 1300 euro secche .
Aspetto un anno e mezzo e forse con 700\800 si piglia una 5070 che rende uguale o meglio.
Tanto la 3080 ormai è svalutata.
500 euro non le puo perdere.
majinbu7
08-09-2023, 09:33
La maggior parte dei gamer non capisce niente di hardware: ha sempre comprato nvidia e sempre lo farà, anche quando costa di più, anche quando va di meno. O entrambe.
Non è colpa loro: sono ignoranti (in senso buono, non c'è niente di male a non essere esperti di hardware dopotutto) e si fidano di "quelli che se ne intendono".
Che per l'80% sono fanboy.
Ed è tutto merito loro, dei fanboy del mondo intero, se ieri la 980ti modello "rocco siffredi" costava 700 euro ed oggi ci compri a malapena la 4070 liscia della Asus biventola con gli stessi soldi.
Grazie ragazzi. Avete vinto. Avete bastonato la concorrenza e ora nVIDIA è leader indiscusso del mercato. Inutile anche soltanto far paragoni.
L'unica piccola e meschina soddisfazione è pensare che adesso la maggior parte di costoro non se la possono più permettere una scheda di fascia alta. A volte son persino stati costretti a passare alla console (powered by AMD, ironia della sorte!) o a cambiar proprio hobby.
Chi è causa del suo mal, pianga sè stesso.
Ma perchè secondo te se le quote del mercato fossero un 50% a testa tra le due AMD/Nvidia non si accorderebbero comunque per tenere alti i prezzi?
Cartello lo fanno ora ed ancor di più lo farebbero con una percentuale del mercato più equo, l'unica soluzione sarebbe altri competitor nel settore.....Intel con le sue soluzioni ARC è ancora purtroppo lontana dall'essere un'alternativa valida.
ora come ora ha ancora senso prendere una 3060ti sui 300€ per il 1440p?
Per quel tipo di risoluzione al momento devi andare almeno di 4070/7800XT , spendere 300€ o ancor peggio 400€ per una vga che il 1440P non riesce a gestirlo se non con molti compromessi, è secondo me una spesa da evitare....tra l'altro con l'UE5 che è un motore molto esoso e che sarà sempre più usato, sarà dura anche per queste schede gestire bene il 1440P.
Vabbè la 3060ti a 300€ è un'ottima soluzione tampone soprattutto se hai gpu vecchie come 1070/2060, anche a 1440p con qualche compromesso e DLSS se la cava.
Ovviamente prendendola già ti poni in ottica di aggiornarla tra un 1-1.5 anni.
Però penso sia quella con il miglior margine prezzo/prestazione, purtroppo sul nuovo le 3080 non hanno seguito lo stesso filone e si allineano alla 4070 lato prezzi, se calassero sui 450-500€ offrirebbero un'ottima alternativa.
devil_mcry
08-09-2023, 10:09
cmq ragazzi basta seghe mentali
il target di prestazioni della 4080-7900xt è 1000€ facciamocene una ragione ormai
come sono fatte e disfatte conta poco, sono del parere di frau, si aspetta di più e si vede, sicuramente i tempi del cambio scheda ad ogni gen così faccio 100pti in più al bench sono finiti
chi rimane fregato è chi gioca davvero
Ma non direi in realtà, chi gioca gli basta anche una 3060, oramai la potenza è tanta che anche un handheld da 15-25w tira su gli AAA.
Discorso diverso se invece vuoi maxare tutto in ogni condizione e risoluzione... Di solito la maggior parte degli utenti cerca un compromesso tra i due estremi e li purtroppo non si può non fare continue valutazioni sui prezzi, e alcune fasce ne escono decisamente male.
devil_mcry
08-09-2023, 10:55
Ma non direi in realtà, chi gioca gli basta anche una 3060, oramai la potenza è tanta che anche un handheld da 15-25w tira su gli AAA.
Discorso diverso se invece vuoi maxare tutto in ogni condizione e risoluzione... Di solito la maggior parte degli utenti cerca un compromesso tra i due estremi e li purtroppo non si può non fare continue valutazioni sui prezzi, e alcune fasce ne escono decisamente male.
intendevo nel senso che deve pagare per forza, chi faceva i bench può farne a meno
mikael84
08-09-2023, 11:56
Comunque sia nvidia che amd stanno facendo di tutto per non rendere possibile il cambio di gpu di gen in gen vantaggioso, ieri è uscita la 7800 xt che va' praticamente come la 6800 xt, nvidia ha fatto uscire tre mesi fa la 4060 ti che va' un poco più delle 3060 ti e generalmente meno della 3070, 4070 ti se non fosse per il dlss3 sarebbe una 3080 ti glorificata ecc...
4090 vs 3090 e 4070 vs GA104 o chip vecchi. Il resto è un pò una scelta.
Su AMD, manca totalmente la fascia x80, quindi anche li, o saltano gen, o buttano il millino, molti infatti hanno saltato.
Discorso fascia x70 (rebrand 80, vabbè, lato tecnico è 70), non sono così severo.
Purtroppo la cadenza sta diventando di 3 anni, ed i loro chip, stanno svalutati da oltre un anno. Navi22 per due anni, sui drop costava 479 di msrp, ora 499, ma con perf, da fascia top precedente. Diciamo che ci sta.
Il problema sta appunto, che per via della cadenza, si ritrova i chip serie 6, totalmente svalutati. Per dire, non si può prendere come riferimento la x70 AMD attuale a 350.
Nvidia, decisamente più imbarazzante sotto quest'aspetto, con una sola over 600 lanciata per i giocatori, il resto è spazzatura mobile (per quello che offrono ovviamente), x50 rebrandate. :)
Si io mio discorso era generico , anche per dire per chi ha un pc più vecchio.
Per noi con la 3080 secondo me anchel a 4080 è poco , per la differenza di prezzo e l'anno residuo ormai di supporto.
A sto punto si aspetta la 5070 , magari si inventano qualche altra esclusiva e piglia al lancio
5070ti per me sarà un buon compromesso, almeno rimanendo sotto il millino. Sopra, per come gioco io, non ha senso.
Ci sarà sicuramente qualche feature nuova, ormai si va avanti così, ma a sto giro, nvidia dovrebbe rivedere anche la microarchitettura, con software che potrebbero trarne vantaggio rispetto le vecchie.
OrazioOC
08-09-2023, 12:00
4090 vs 3090 e 4070 vs GA104 o chip vecchi. Il resto è un pò una scelta.
Su AMD, manca totalmente la fascia x80, quindi anche li, o saltano gen, o buttano il millino, molti infatti hanno saltato.
Discorso fascia x70 (rebrand 80, vabbè, lato tecnico è 70), non sono così severo.
Purtroppo la cadenza sta diventando di 3 anni, ed i loro chip, stanno svalutati da oltre un anno. Navi22 per due anni, sui drop costava 479 di msrp, ora 499, ma con perf, da fascia top precedente. Diciamo che ci sta.
Il problema sta appunto, che per via della cadenza, si ritrova i chip serie 6, totalmente svalutati. Per dire, non si può prendere come riferimento la x70 AMD attuale a 350.
Nvidia, decisamente più imbarazzante sotto quest'aspetto, con una sola over 600 lanciata per i giocatori, il resto è spazzatura mobile (per quello che offrono ovviamente), x50 rebrandate. :)
Concordo su tutto, purtroppo se 4060 e 4060 ti non fossero esistite fino ad oggi non sarebbe cambiato nulla, tanto 3060 ti e 3070 a prezzi di saldo coprono ampiamente quel target di performance. :rolleyes:
Sotto i 500 euro il value non è di casa nvidia...
Concordo su tutto, purtroppo se 4060 e 4060 ti non fossero esistite fino ad oggi non sarebbe cambiato nulla, tanto 3060 ti e 3070 a prezzi di saldo coprono ampiamente quel target di performance. :rolleyes:
Sotto i 500 euro il value non è di casa nvidia...
Nvidia ha fondato gran parte della sua campagna marketing sul DLSS3, sostanzialmente stai pagando quello.
La 4060ti è un chip tecnicamente anche sprecato con 128bit, una 4060ti full chip con quindi tutti e 4608cc abilitati, 192bit e 48mb di cache l2 già avrebbe ottenuto prestazioni molto più interessanti, cosi come un eventuale cut a 3840cc per la 4060.
Infatti sulla 4060 non commento proprio perchè parliamo di un AD107 da 159mm2, quindi non c'è proprio nulla di cui avere aspettative, è interessante solo per i chip mobile, soprattutto per i notebook under 1000€ che si trovano a lavorare tra i 75 e 115w.
mikael84
08-09-2023, 15:12
Concordo su tutto, purtroppo se 4060 e 4060 ti non fossero esistite fino ad oggi non sarebbe cambiato nulla, tanto 3060 ti e 3070 a prezzi di saldo coprono ampiamente quel target di performance. :rolleyes:
Sotto i 500 euro il value non è di casa nvidia...
Nvidia ha fondato gran parte della sua campagna marketing sul DLSS3, sostanzialmente stai pagando quello.
La 4060ti è un chip tecnicamente anche sprecato con 128bit, una 4060ti full chip con quindi tutti e 4608cc abilitati, 192bit e 48mb di cache l2 già avrebbe ottenuto prestazioni molto più interessanti, cosi come un eventuale cut a 3840cc per la 4060.
Infatti sulla 4060 non commento proprio perchè parliamo di un AD107 da 159mm2, quindi non c'è proprio nulla di cui avere aspettative, è interessante solo per i chip mobile, soprattutto per i notebook under 1000€ che si trovano a lavorare tra i 75 e 115w.
Nvidia quando crea i codici, li fa in base a prospettive future e pro.
Alla fine bastava poco, per rendere più competitive le GPU Lovelace in fascia mid. Prendendo proprio spunto dal BL con x05.
4080/ti full 6 TPC, con magari 10240cc dopo il taglio (AD103 ha un GPC monco da 4).
La 4080 liscia, o 4070ti la tagli su AD103, fornendogli il bus, magari tagliato di cache, e la lanci a 8704cc (1 GPC + 2 TPC per salvare il 6° GPC dai pixel).
Sotto, fai roba per mobile AD105. Prendi AD104 e lo chiudi a 4 GPC con 6144cc. Ti verrebbe un 268,5 (meno di GA106). A questo punto, ti ritroveresti una 4070 con 6144cc e 48mb di cache, ma meno costoso di AD104 da produrre.
Sulla 4070, stanno centellinando gli induttori, ma i die sono più cari, in quanto non sono scarti, ma chip volutamente distrutti, quindi una 4070 costa come una 4070ti all'AIB.
Dopo lo disabiliti un GPC e magari metti le g6 lisce, creando una 4060ti con 4608cc e 192bit/12gb(così batterebbe una 3070ti).
AD106 lo fai a 5 TPC e ti viene da 3840cc, e lascerei pure il bus, per 300 euro.
AD107 full 50.
FrancoBit
08-09-2023, 15:16
Si io mio discorso era generico , anche per dire per chi ha un pc più vecchio.
Per noi con la 3080 secondo me anchel a 4080 è poco , per la differenza di prezzo e l'anno residuo ormai di supporto.
A sto punto si aspetta la 5070 , magari si inventano qualche altra esclusiva e piglia al lancio
Sono d'accordo, più passa il tempo meno conviene spendere ben oltre la millata per un upgrade sensato.
ultimate trip
08-09-2023, 18:13
Sono d'accordo, più passa il tempo meno conviene spendere ben oltre la millata per un upgrade sensato.
io ho fatto un ragionamento diverso, sull'usato cominciano a esserci un po' di 4090 a prezzi interessanti, la mia l'ho presa a 1.150, è di marzo 2023.
in 4k con la 3080 facevo troppa fatica, la 4080 manco a pensarci, e la prospettiva di attendere 12 / 18 mesi le 5000 non mi convinceva.
a 1440p il discorso è diverso
FrancoBit
08-09-2023, 18:29
Beh 1150 per una 4090 è un altro discorso bravo
Inviato dal mio M2101K9G utilizzando Tapatalk
Beh 1150 per una 4090 è un altro discorso bravo
Inviato dal mio M2101K9G utilizzando Tapatalk
oddio contando che se ha problemi o se per caso si guasta hai buttato 1.200€ onestamente anche no
marbasso
08-09-2023, 19:31
Beh 1150 per una 4090 è un altro discorso bravo
Inviato dal mio M2101K9G utilizzando Tapatalk
Prezzo ottimo, chi l' ha venduta evidentemente è drogato .
Peccato per il modello, pessimo PCB e componenti mannaggia. Ma se funziona bene basta non spremerla troppo e dovrebbe durare.
Se gli ha passato anche la garanzia è ok
ultimate trip
08-09-2023, 22:00
oddio contando che se ha problemi o se per caso si guasta hai buttato 1.200€ onestamente anche no
ma no è in garanzia e ho la fattura
ultimate trip
08-09-2023, 22:09
Prezzo ottimo, chi l' ha venduta evidentemente è drogato .
Peccato per il modello, pessimo PCB e componenti mannaggia. Ma se funziona bene basta non spremerla troppo e dovrebbe durare.
Se gli ha passato anche la garanzia è ok
Bè chiaramente è base, ma va bene così considerato il margine della 4090. non è drogato, le custom (anche più spinte) si trovano a 150/200 in più. è vero che ci sono gli annunci a 2000 ma quelle rimangono sempre lì
scorpion73
08-09-2023, 23:32
Bè chiaramente è base, ma va bene così considerato il margine della 4090. non è drogato, le custom (anche più spinte) si trovano a 150/200 in più. è vero che ci sono gli annunci a 2000 ma quelle rimangono sempre lì
Scusami ma nuova non mi pare di vedere in giro una 4090 sui 1300€ a meno che non ti pigli una Manli o le pigli non si sa dove, ma quelli non sono parametri da considerare validi per un confronto, nessuno dei due.
Almeno 1860€ per una trinity ci vogliono se presa in shop un minimo affidabile, per una custom spinta stai ben sopra i 2100€ nuova, per cui una custom spinta usata sui 1600-1700€ usata ci sta tutta, una base 1500€ pure. Ovviamente sempre con garanzia e fattura.
Quindi, da un punto di vista meramente economico, hai fatto un ottimo affare tu e un pessimo affare chi te l'ha venduta, a mio sincero parere.
Kostanz77
09-09-2023, 01:18
e la prospettiva di attendere 12 / 18 mesi le 5000 non mi convinceva.
a 1440p il discorso è diverso
fai anche 20-24 mesi
Inviato dal mio iPhone utilizzando Tapatalk Pro
fraussantin
09-09-2023, 07:09
fai anche 20-24 mesi
Inviato dal mio iPhone utilizzando Tapatalk ProDici che non escono il prossimo anno?
Dici che non escono il prossimo anno?
Il prossimo anno è sicuro che non esce nulla, confermato da Nvidia che ha parlato genericamente di primo quarto del 2025 come possibile uscita di Blackwell, ma da voci di corridoio e dal vantaggio accumulato sulla concorrenza Nvidia non ha nessuna fretta di lanciare nulla ed è possibile che sposti ancora più in la l'uscita delle 5000, c'è chi azzarda addirittura che usciranno nell'ottobre 2025 portando il ciclo di vita di ADA a 3 anni pieni.
Scusami ma nuova non mi pare di vedere in giro una 4090 sui 1300€ a meno che non ti pigli una Manli o le pigli non si sa dove, ma quelli non sono parametri da considerare validi per un confronto, nessuno dei due.
Almeno 1860€ per una trinity ci vogliono se presa in shop un minimo affidabile, per una custom spinta stai ben sopra i 2100€ nuova, per cui una custom spinta usata sui 1600-1700€ usata ci sta tutta, una base 1500€ pure. Ovviamente sempre con garanzia e fattura.
Quindi, da un punto di vista meramente economico, hai fatto un ottimo affare tu e un pessimo affare chi te l'ha venduta, a mio sincero parere.Sul nuovo si trovano ad esempio da BPM a partire da 1588€ per la Gamerock.
Sull'usato di solito si sgrava quanto meno l'iva quindi da 1588 diventano 1301...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Cutter90
09-09-2023, 08:34
Sul nuovo si trovano ad esempio da BPM a partire da 1588€ per la Gamerock.
Sull'usato di solito si sgrava quanto meno l'iva quindi da 1588 diventano 1301...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Si, ma solo sul quel modello fai 1300. Poi è anche il prezzo più basso in assoluto sul mercato...
Non c'entra nulla la concorrenza, hanno sempre lanciato i prodotti secondo le loro stime temporali tutte le big quotate in borsa funzionano così.
Amd in fascia alta non esiste da qualche decade.
Per un semplice motivo che è la base, bisogna accontentare gli azionisti, ed un prodotto che stagna da più di due anni non è buona cosa per il mercato.
Per intenderci non c'è bisogno di un iphone nuovo all'anno, si fa e basta per far vedere che l'azienda e sana, lavora, produce e fa soldi sopratutto, oltre ad essere Leader.
Dimentichi che in questo momento Nvidia è impegnata quasi esclusivamente sull'IA che va a gonfie vele e già questo fa gongolare gli azionisti, il settore gaming l'ha temporaneamente messo in secondo piano.
A naso direi che prima della primavera inoltrata 2025 non si vedrà nulla di nuovo sul gaming.
OrazioOC
09-09-2023, 10:07
Il prossimo anno è sicuro che non esce nulla, confermato da Nvidia che ha parlato genericamente di primo quarto del 2025 come possibile uscita di Blackwell, ma da voci di corridoio e dal vantaggio accumulato sulla concorrenza Nvidia non ha nessuna fretta di lanciare nulla ed è possibile che sposti ancora più in la l'uscita delle 5000, c'è chi azzarda addirittura che usciranno nell'ottobre 2025 portando il ciclo di vita di ADA a 3 anni pieni.
E' probabile che ada farà la vita di turing, nel senso che si scontrerà con due generazioni differenti di gpu radeon(serie 7000 e le 8000 di fascia media dato che non dovrebbe uscire nel 2024 da parte di amd una gpu migliore della 7900 xtx) e intel(arc770 e battlemage).:)
Lecito però aspettarsi un refresh di ada nel 2024, un po' come fece nvidia con le turing quando uscirono le prime amd rdna1...
Sku come la 4060/ti ma anche la 4070 con l'uscita della 7800 xt non sono messe benissimo, e la magia del dlss3.5 potrebbe non salvare la faccia di fronte alla miseria nel rapporto prezzo/prestazioni di quelle schede.
Oggettivamente la 4060 ti è come una battuta che non fa ridere, dà solo fastidio. :asd:
Il refresh è l'opzione più elegante per ribilanciare schede, listini e fasce, ma data la concorrenza te la risolvi senza farne niente con una semplice riduzione dei prezzi di listino di un 10%
fraussantin
09-09-2023, 13:49
Però stare un intero anno senza fare niente è un po troppo strano.
Un rebrand almeno me lo aspetterei.
Ale55andr0
09-09-2023, 13:52
Però stare un intero anno senza fare niente è un po troppo strano.
Un rebrand almeno me lo aspetterei.
Non stanno facendo niente, stanno contando i miliardi che fanno con le AI e hanno intenzione di proseguire ovviamente (chiamali scemi..)
StylezZz`
09-09-2023, 14:00
Con giochi ''nextgen'' come Starfield non servono nuove schede video, però servirebbe più ottimizzazione.
Però stare un intero anno senza fare niente è un po troppo strano.
Un rebrand almeno me lo aspetterei.
Io lo spero perchè sarebbe l'opzione più vantaggiosa per tutti, però da quello che vedo i presupposti non sono cosi esaltanti.
Senza contare il vuoto immenso tra la 7600 e 7700xt lasciato da AMD.
Comunque sul nuovo cinebench 2024 le AMD vanno proprio giù di brutto...
https://i.postimg.cc/hQftrDVZ/photo-2023-09-09-14-56-13.jpg (https://postimg.cc/hQftrDVZ)
Con giochi ''nextgen'' come Starfield non servono nuove schede video, però servirebbe più ottimizzazione.
A detta della SH il gioco è perfetto XD
marbasso
09-09-2023, 14:28
Io lo spero perchè sarebbe l'opzione più vantaggiosa per tutti, però da quello che vedo i presupposti non sono cosi esaltanti.
Senza contare il vuoto immenso tra la 7600 e 7700xt lasciato da AMD.
Comunque sul nuovo cinebench 2024 le AMD vanno proprio giù di brutto...
https://i.postimg.cc/hQftrDVZ/photo-2023-09-09-14-56-13.jpg (https://postimg.cc/hQftrDVZ)
A detta della SH il gioco è perfetto XD
La 4090 fa circa 38k a stock.
La 4090 fa circa 38k a stock.
Probabilmente è questione di PL, in quel grafico ne fa circa 34.7k che rispetto ai tuoi 38K è un 8% meno.
Nel caso della tua Suprim parte da 480w a default, ma altre 4090 si fermano a 450w e bisogna sempre vedere che silicio si becca e come gestisce la tensione.
nessuno29
09-09-2023, 17:39
Io lo spero perchè sarebbe l'opzione più vantaggiosa per tutti, però da quello che vedo i presupposti non sono cosi esaltanti.
Senza contare il vuoto immenso tra la 7600 e 7700xt lasciato da AMD.
Comunque sul nuovo cinebench 2024 le AMD vanno proprio giù di brutto...
https://i.postimg.cc/hQftrDVZ/photo-2023-09-09-14-56-13.jpg (https://postimg.cc/hQftrDVZ)
A detta della SH il gioco è perfetto XD
Considerando che una 3080ti va come la 4060ti direi che non solo le AMD hanno problemi, praticamente vanno solo le 4000 ahah
OrazioOC
09-09-2023, 19:29
Ancora quel bench?:doh:
Ma su cosa verte? vorrei tanto saperlo non ho avuto tempo per documentarmi, installarlo e provarlo.
IMHO il refresh non servirà a nulla, tanto i prezzi si manterranno tali, servirà solo a loro per riciclare qualche scarto e per far vedere che si stanno muovendo e non sono fermi, le schede vanno comprate subito, inutile attendere refresh.
Un esempio una 4090 su Ad102 Full farà quel +5% medio (quando scala e se scala) a chi interessa? A nessuno, meglio aspettare le 5000 che buttare 1700 euro (a salire) in quello scaldabagno da 500w (3090ti style) a quel punto 100.00 volte meglio la liscia.
Idem per la 4080, anche qualora decidessero di mettere in vendita ad103 full con i suoi 10240cc quanto cambierebbe in performance? sempre +5% e magari 1349 euro come ora, non ve la mettono di certo a 899 euro spedita con la firma di jensen
Idem per le fasce sotto.
Non serve a nulla, le schede viaggiano già cuttate in sta maniera sono state calcolate a misura, più resa, più chip, meno scarti, più margine, meno spesa (meno spesa per loro ovviamente)
Dai è andata cosi, si aspetta blackwell piuttosto che prendere chip e buttare soldi dopo un anno e mezzo, con schede che performano il +5% medio con+10% di TGP.
Meglio schede più evolute con featrures nuove, tanto ormai le nuove serie in un modo o nell'altro fanno fuori le vecchie con i barbatrucchi e non ci possiamo fare nulla..
Inutile parlarne, refresh o non refresh è una lineup cara e per quel che costano dovrebbero andare tutte di più (compresa la 4090)
Infatti il refresh non serve per dare una scheda più veloce della 4090 odierna(tanto rimarrà la gpu più veloce almeno fino a metà 2025), ma serve per ridare un po' di valore nelle fasce 50/60/70 di nvidia.
Tanto ad107/ad106 e ad104 rimarranno quelli e ne hanno già fabbricati a iosa, ergo una 4060 super 160 bit di bus e 10gb di vram derivata da ad104 edizione "non lo voglio buttare via perchè un die è come un maiale" a 399 dollari ha senso.:cool:
Idem una 4070 super simil 4070 ti con qualche cc in meno e senza gddr6x al posto della 4070 odierna, no perchè sotto i 600 euro o compri amd oppure con nvidia hai performance pure sottotono.
Nvidia ad oggi la si può considerare giusto dalla 4070 ti in su se si guardano le performance pure senza la magia del dlss3.:rolleyes:
Ale55andr0
09-09-2023, 19:48
Nvidia ad oggi la si può considerare giusto dalla 4070 ti in su se si guardano le performance pure senza la magia del dlss3.:rolleyes:
La 70ti è incagabile tanto quanto la 7900XT lato prezzo prestazioni. Le uniche 4000 sensate sono la 70 liscia che è una 3080 bonus +2gb basso consumo e FG e la 90 che è la regina assoluta delle gpu. Le altre per quello che offrono sono piazzate veramente di cacca, e AMD la ha imitata in tutto e per tutto (scandalosi)
Infatti chi vuole il refresh non lo vuole di certo per una 4080/4090 full...
L'aspettativa, almeno mia se mai ci potrebbe essere un refresh, é il potenziamento delle fasce medio basse come ad esempio:
4060 -> 5060 passa su ad106 con eventualmente 3840cc
4060ti -> 5060ti passa su ad104 con 5120cc e GDDR6 (taglio usato sulla RTX 3500m)
4070 -> 5070 con 7424cc (taglio usato sulla RTX 4080 mobile e RTX 4000m)
4070ti -> 5070ti passa su AD103 con eventualmente 8704cc e mantenendo i 16gb.
Ma personalmente ritengo improbabile tutto ciò, é più probabile che riducano di poco i listini e via...
Inviato dal mio M2012K11AG utilizzando Tapatalk
OrazioOC
09-09-2023, 19:57
La 70ti è incagabile tanto quanto la 7900XT lato prezzo prestazioni. Le uniche 4000 sensate sono la 70 liscia che è una 3080 bonus +2gb basso consumo e FG e la 90 che è la regina assoluta delle gpu. Le altre per quello che offrono sono piazzate veramente di cacca, e AMD la ha imitata in tutto e per tutto (scandalosi)
La 4070 è proprio quella più sotto attacco dalle nuove radeon navi 32, ecco perchè c'è bisogno di una 4070 ti con qualche cavallo in meno ad un prezzo più coerente per il chip che è. :rolleyes:
In RT crollano tutte le AMD, se la 4070 cala di 50$ già puoi dire addio alla concorrenza della 7800xt.
Quella che viene demolita é la 4060ti 16gb, che rispetto la 7700xt le prende su ogni fronte compreso il RT, é proprio un chip di categoria inferiore.
Solo che AMD non ha poi concorrenza nel vuoto tra 7600 e 7700xt, in quel vuoto presumo ci finiranno proprio 4060 e 4060ti.
Difatto si sono divise il mercato...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Ale55andr0
09-09-2023, 20:05
La 4070 è proprio quella più sotto attacco dalle nuove radeon navi 32, ecco perchè c'è bisogno di una 4070 ti con qualche cavallo in meno ad un prezzo più coerente per il chip che è. :rolleyes:
c'è bisogno di una 70 con 16 gigi... ora, non so come sia tagliato il chip ma visto che hanno mantenuto i 5888cc della vecchia 3070 nella 4070 magari potrebbero fare una 6144cc come la 3070ti e +4gb/256bit e pensionare quel nonsenso della 4070ti. Compenserebbe in parte i cc in meno con maggior banda e uno sputo di clock in più sulla gpu e tutti sarebbero contenti. Ma sarebbe troppo valida e "definitiva" per l'acquirente, ergo il farabutto non la farà mai. Peggio per lui, mi avrebbe avuto dalla sua three times in a row e invece si torna in red
OrazioOC
09-09-2023, 20:12
In RT crollano tutte le AMD, se la 4070 cala di 50$ già puoi dire addio alla concorrenza della 7800xt.
Quella che viene demolita é la 4060ti 16gb, che rispetto la 7700xt le prende su ogni fronte compreso il RT, é proprio un chip di categoria inferiore.
Solo che AMD non ha poi concorrenza nel vuoto tra 7600 e 7700xt, in quel vuoto presumo ci finiranno proprio 4060 e 4060ti.
Difatto si sono divise il mercato...
Inviato dal mio M2012K11AG utilizzando Tapatalk
In rt va' meglio la 4070 rispetto alla 7800 xt ma non va' esageratamente meglio in una suite di giochi rt mista in 1080p/1440p, non stiamo parlando di uno stacco stile 7900 xtx vs 4080, c'è una differenza un pochetto meno marcata. :)
Il buco tra la 4060 e 4060 ti però a listino è quasi grosso quanto quello tra la 7600 e la 7700 xt(che sarà una scheda da 450 euro tra qualche settimana).
Su 7600 vs 4060 è quasi un pareggio, in raster vanno uguali, la 4060 consuma qualcosa in meno e in ray tracing perde meno colpi, mentre la 7600 costa qualcosa in meno(40/50 euro non sono neanche così pochi su gpu da 300 dollari di msrp).
7700 xt invece è si meglio della 4060 ti 8/16gb, ma ad oggi nessuno te la consiglia perchè costa troppo poco meno della 7800 xt a listino, per perdere 4gb di vram e 12% di performance. :rolleyes:
In tutto questo, ci sono ancora a zonzo le 6700/50 xt di amd(meglio delle 7600) e le 3060 ti/3070(meglio della 4060 la prima e meglio della 4060 ti la seconda). E sono schede che porti a casa anche con 350 euro nella giornata giusta(nel caso delle 6700 xt e delle 3060 ti magari con le gddr6x). :)
c'è bisogno di una 70 con 16 gigi... ora, non so come sia tagliato il chip ma visto che hanno mantenuto i 5888cc della vecchia 3070 nella 4070 magari potrebbero fare una 6144cc come la 3070ti e +4gb/256bit e pensionare quel nonsenso della 4070ti. Compenserebbe in parte i cc in meno con maggior banda e uno sputo di clock in più sulla gpu e tutti sarebbero contenti. Ma sarebbe troppo valida e "definitiva" per l'acquirente, ergo il farabutto non la farà mai. Peggio per lui, mi avrebbe avuto dalla sua three times in a row e invece si torna in redNon lo puoi fare perché dovresti riprogettare in toto il chip.
Quello che puoi fare é rivedere i tagli dei chip già esistenti, e come detto su alcuni di essi sono già utilizzati nel mercato mobile e quadro.
Il chip da 16gb puoi farlo per un'eventuale 5070ti passandola su AD103.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Ale55andr0
09-09-2023, 20:14
In rt va' meglio la 4070 rispetto alla 7800 xt ma non va' esageratamente meglio in una suite di giochi rt mista in 1080p/1440p, non stiamo parlando di uno stacco stile 7900 xtx vs 4080, c'è una differenza un pochetto meno marcata. :)
Cerca di capire, ormai RT = CP2077 overdrive se no non si gira. Ce lo porteremo appresso fino alla prossima marchettata ammazza 5090ti in nativa non bastassero due anni di martellamento di maroni*
*da giocatore che non vede l'ora di giocare a phantom liberty
OrazioOC
09-09-2023, 20:15
c'è bisogno di una 70 con 16 gigi... ora, non so come sia tagliato il chip ma visto che hanno mantenuto i 5888cc della vecchia 3070 nella 4070 magari potrebbero fare una 6144cc come la 3070ti e +4gb/256bit e pensionare quel nonsenso della 4070ti. Compenserebbe in parte i cc in meno con maggior banda e uno sputo di clock in più sulla gpu e tutti sarebbero contenti. Ma sarebbe troppo valida e "definitiva" per l'acquirente, ergo il farabutto non la farà mai. Peggio per lui, mi avrebbe avuto dalla sua three times in a row e invece si torna in red
Se vuoi una 4070 con 16 gb di vram tocca prendere ad103 e tagliarlo con la motosega, ad104 fisicamente arriva a 192 bit di bus. :)
Che per carità con tutti i chip che avranno ammucchiato si può anche fare, ma andrebbe meglio della 4070 ti odierna e quindi dubito la faranno costare meno o troppo meno della 4070 ti.
Sarebbe un'ottima 4070 super comunque...
Ale55andr0
09-09-2023, 20:17
Non lo puoi fare perché dovresti riprogettare in toto il chip.
Quello che puoi fare é rivedere i tagli dei chip già esistenti, e come detto su alcuni di essi sono già utilizzati nel mercato mobile e quadro.
Il chip da 16gb puoi farlo per un'eventuale 5070ti passandola su AD103.
Inviato dal mio M2012K11AG utilizzando Tapatalk
per fare un refresh chiamato 5070ti facciamo in tempo a morire, uscirebbe minimo a metà 2024, sai che hype. Cmq boh, una 6144cc e bus a 256bit sono 4gpc (si chiamano così?) e un mc a 256, non mi pare debbano reinventare le leggi della fisica ma accroccare meglio l'ambaradam..magari glielo disegna in un amen l'AI :asd:
Se vuoi una 4070 con 16 gb di vram tocca prendere ad103 e tagliarlo con la motosega, ad104 fisicamente arriva a 192 bit di bus. :)
Che per carità con tutti i chip che avranno ammucchiato si può anche fare, ma andrebbe meglio della 4070 ti odierna e quindi dubito la faranno costare meno o troppo meno della 4070 ti.
Sarebbe un'ottima 4070 super comunque...
giustappunto dicevo....
Un AD103 con 6144cc significa tagliare il 40% di ALU, praticamente il chip l'hai demolito.
Peggio della 3050 su GA106...
mikael84
09-09-2023, 20:35
c'è bisogno di una 70 con 16 gigi... ora, non so come sia tagliato il chip ma visto che hanno mantenuto i 5888cc della vecchia 3070 nella 4070 magari potrebbero fare una 6144cc come la 3070ti e +4gb/256bit e pensionare quel nonsenso della 4070ti. Compenserebbe in parte i cc in meno con maggior banda e uno sputo di clock in più sulla gpu e tutti sarebbero contenti. Ma sarebbe troppo valida e "definitiva" per l'acquirente, ergo il farabutto non la farà mai. Peggio per lui, mi avrebbe avuto dalla sua three times in a row e invece si torna in red
La 4070 è gravemente devastata, JHH ne ha smontato un intero GPC, 1 TPC, e ben 16mb di cache. Di conseguenza scende anche a 64 rop's.
Sulla 4070, non sono completamente attivi 4 GPC, quindi il 192bit + cache ci sta, sul chip finale, il 256 ci stava, in quanto sono 5 canali attivi.
https://i.postimg.cc/gJ9Y3TvM/4070png.png
Ale55andr0
09-09-2023, 20:37
cioè sto svanito del giacco ha disattivato un gpc più 1/6, e dopo la 3.5+05gb le abbiam viste tutte :asd:
Cmq una 4gpc a 256 mi pare sia fattibile o sbaglio? Bene, se si' hanno zero scuse per lo schifo 12/192. Idealmente un full sarebbe stato 9216cc e 256bit, Dio che scheda meravigliosa sarebbe stata, accidenti a LUI
Ale55andr0
09-09-2023, 20:42
IMHO rimane tutto così, fanno prima a calare i listini dalla 4070 in giù.
Ok, non tratteniamo il respiro :D
OrazioOC
09-09-2023, 20:47
Il 2023 ancora non è finito e il 2024 sarà bello lungo.:)
Ada ha ancora qualche colpo da mostrarci prima di salutarci con Blackwell, anche perchè amd arriva prima con rdna4 e intel con battlemage, e sono tutte gpu che potenzialmente targhettano 4070/ti. :D
Ale55andr0
09-09-2023, 20:48
Ovviamente taglieranno 30 euro su schede da 600 LOL, di sicuro da 600 non passano a 450.
Va be ma le 12gb non mi interessano a priori, parlavo in generale. Possono pure regalarle per quanto mi riguarda, o portarle a 1000 testoni, non mi cambia nulla, una 4070S da 16gb invece mi avrebbe tentato non poco...amen.
mikael84
09-09-2023, 20:53
cioè sto svanito del giacco ha disattivato un gpc più 1/6, e dopo la 3.5+05gb le abbiam viste tutte :asd:
Cmq una 4gpc a 256 mi pare sia fattibile o sbaglio? Bene, se si' hanno zero scuse per lo schifo 12/192. Idealmente un full sarebbe stato 9216cc e 256bit, Dio che scheda meravigliosa sarebbe stata, accidenti a LUI
Si 4 GPC e 256bit si può fare, ma ovviamente non in AD104. Purtroppo il massimo è 192bit.
Quel chip è stato martoriato, esistono 4 versioni: la 4070, la 4070ti, e 2 quadro, una da 6144cc e 160bit (20gb), ed una da 5120cc e 192bit (la 4060ti ideale).
Per il 256bit su nvidia, solo AD103.
mikael84
09-09-2023, 21:00
Non lo faranno mai un Ad103 a 6144cc, ok il tasso di chip FAIL, ma a questo punto mi sembra davvero esagerato.
IMHO rimane tutto così, fanno prima a calare i listini dalla 4070 in giù e fine della storia.
Se amd in un determinata fascia fa 5-10% meglio sai cosa gliene frega? con la menata di RT e frame gen, cut al listino e via.
Se usassero realmente gli scarti ( salvo che sono pochi), si brucerebbe anche la sram.:p
Infatti qualcuno di quelli su GA102 l'hanno utilizzato per coprire le 3070ti.
ColdWarGuy
10-09-2023, 10:12
In rt va' meglio la 4070 rispetto alla 7800 xt ma non va' esageratamente meglio in una suite di giochi rt mista in 1080p/1440p, non stiamo parlando di uno stacco stile 7900 xtx vs 4080, c'è una differenza un pochetto meno marcata. :)
Allo stato attuale di fatto la 4070 è sotto attacco solo negli USA, dove c'è ilprezzo e la disponibilità, qui la situazione è ben differente.
La reference da 557 euro è "coming soon", le carrozzate da 33 cm / 300W costano 100 euro in più e sono scarsamente disponibili, o arrivano in quantità o i prezzi sono destinati ad assestarsi sui 700 euro, ma di questo ne riparliamo tra un tot.
Se volevano veramente "attaccare" il mercato dovevano mettere la reference a 499 euro prezzo finito sullo shop EU, ovviamente con disponibilità maggiore di Zero.
D'altra parte il gap sull'RT, consumi e data di rilascio lo devi compensare lato prezzo, altrimenti Green still Win.
OrazioOC
10-09-2023, 10:30
Allo stato attuale di fatto la 4070 è sotto attacco solo negli USA, dove c'è ilprezzo e la disponibilità, qui la situazione è ben differente.
La reference da 557 euro è "coming soon", le carrozzate da 33 cm / 300W costano 100 euro in più e sono scarsamente disponibili, o arrivano in quantità o i prezzi sono destinati ad assestarsi sui 700 euro, ma di questo ne riparliamo tra un tot.
Se volevano veramente "attaccare" il mercato dovevano mettere la reference a 499 euro prezzo finito sullo shop EU, ovviamente con disponibilità maggiore di Zero.
D'altra parte il gap sull'RT, consumi e data di rilascio lo devi compensare lato prezzo, altrimenti Green still Win.
Alla 7800 xt darei qualche giorno di assestamento, su amazon la migliore(la devil di powercolor) sta a 650 spedita, e sono già 50/70 euro in meno rispetto alle 4070 custom di livello(del solito trio asus/msi/giga).
Però non è partita malissimo per essere un poco più che day one in un mercato come il nostro, che da molti anni non è più di grido per questo tipo di prodotti. :stordita:
In se per se non è un cattivo chip le prestazioni in raster ci sono:
https://tpucdn.com/review/amd-radeon-rx-7800-xt/images/performance-matchup.png
Solo che in RT a seconda del gioco il frame risulta inferiore dal 15 a persino il 40% da 4070, e attualmente ancora non è disponibile l'FSR3.
Alla fine non offre nulla in più delle precedenti 6800xt, che già erano molto scontate e a un prezzo simile.
L'unica interessante è forse la 7700xt ma perchè si scontra con la fascia di prezzo della 4060ti altrimenti pure quella non è niente di che a livello tecnico se paragonata alla 6800 liscia che aveva un prezzo/prestazioni simile e più vram...
Ale55andr0
10-09-2023, 11:09
Allo stato attuale di fatto la 4070 è sotto attacco solo negli USA, dove c'è ilprezzo e la disponibilità, qui la situazione è ben differente.
La reference da 557 euro è "coming soon", le carrozzate da 33 cm / 300W costano 100 euro in più e sono scarsamente disponibili, o arrivano in quantità o i prezzi sono destinati ad assestarsi sui 700 euro, ma di questo ne riparliamo tra un tot.
Se volevano veramente "attaccare" il mercato dovevano mettere la reference a 499 euro prezzo finito sullo shop EU, ovviamente con disponibilità maggiore di Zero.
D'altra parte il gap sull'RT, consumi e data di rilascio lo devi compensare lato prezzo, altrimenti Green still Win.
massì giudichiamo il prezzo a 4 giorni dal lancio quando l'altra sono mesi che è fuori. Su amazon usa è già best seller, e un best seller non puoi farlo con pochi pezzi prodotti, aspettiamo che ne arrivino un numero decente prima di giudicare, poi si sa che l'italia è l'ultima delle pezze da culo per il mercato. 557 cmq è il prezzo di msrp con le tasse, ergo non c'è nemmeno un rincaro dovuto al fatto che è stata appena lanciata, il che è già grasso che cola...
ColdWarGuy
10-09-2023, 12:53
massì giudichiamo il prezzo a 4 giorni dal lancio quando l'altra sono mesi che è fuori. Su amazon usa è già best seller, e un best seller non puoi farlo con pochi pezzi prodotti, aspettiamo che ne arrivino un numero decente prima di giudicare, poi si sa che l'italia è l'ultima delle pezze da culo per il mercato. 557 cmq è il prezzo di msrp con le tasse, ergo non c'è nemmeno un rincaro dovuto al fatto che è stata appena lanciata, il che è già grasso che cola...
Hai replicato di impulso senza leggere quello che ho scritto, negli USA la 7800 è disponibile ed è prezzata in modo concorrenziale, in EU è tutta un'altra storia, se vuoi farti due risate vai a vedere cosa offre l'amazon nostrana.
Sullo shop AMD la 7800 è un fantasma, quindi dei 557 euro ce ne facciamo un baffo.
I numeri interessanti, RT a parte, in termini di prestzione / temperatura saltano fuori da modelli pompati che tirano praticamente 20W in meno della 7900XT, ergo non certo mostri di efficienza.
Anyway, tu sei stato il primo nell'altro thread a tirare carriole di m***a su questa scheda con un fiume interminabile di post pochi minuti dopo le prime recensioni web, hai cambiato idea ?
Ale55andr0
10-09-2023, 13:47
Hai replicato di impulso senza leggere quello che ho scritto, negli USA la 7800 è disponibile ed è prezzata in modo concorrenziale, in EU è tutta un'altra storia, se vuoi farti due risate vai a vedere cosa offre l'amazon nostrana.
Sullo shop AMD la 7800 è un fantasma, quindi dei 557 euro ce ne facciamo un baffo.
I numeri interessanti, RT a parte, in termini di prestzione / temperatura saltano fuori da modelli pompati che tirano praticamente 20W in meno della 7900XT, ergo non certo mostri di efficienza.
Anyway, tu sei stato il primo nell'altro thread a tirare carriole di m***a su questa scheda con un fiume interminabile di post pochi minuti dopo le prime recensioni web, hai cambiato idea ?
ma non c'entra nulla col prezzo da noi e al lancio col fatto che siano un non salto generazionale, quello è pacifico. Dall'America è tornato un "amico di palestra" e sai quanto ha pagato una 4080 gigabyte? Meno di 800 euro in uno shop locale....da noi è prezzata al cambio più tasse, è giusto rispetto l'MSRP, sono altre le schede prezzate a muzzo, a cominciare dalla sua sorellina a 192bit che per 50-60 offre un botto di roba in meno (e ovviamente la 7900XT ma che te lo dico a fare..)
L'unica interessante è forse la 7700xt ma perchè si scontra con la fascia di prezzo della 4060ti altrimenti pure quella non è niente di che a livello tecnico se paragonata alla 6800 liscia che aveva un prezzo/prestazioni simile e più vram...
Solo perchè nvidia ha piazzato davvero un bidone di monezza a confronto con la 60ti, ma la 7700XT rispetto la 7800XT è un acquisto assurdo per la poca differenza di prezzo e le specifiche decisamente cuttate su ram, cache e bus. Praticamente si fa concorrenza in casa destinando un prodotto all'oblio. Ci fosse passato un cento potevo capire perchè in questa fascia pesa ben più che sopra le otto carte
amon.akira
10-09-2023, 14:29
ancora a credere alle palle dell amico/cugino
se esisteva uno shop negli states che vendeva le 4080 a 800dollari si sarebbe fatto un sito internet e ne avrebbe venduto a vagonate diventando ricco, purtroppo il prezzo piu basso è 1100dollari dai 1200ufficiali
digli che oggi esiste internet XD
Ale55andr0
10-09-2023, 15:07
ancora a credere alle palle dell amico/cugino
mi stai accusando di mentire? :doh: anni che mi conoscete e c'è chi mette ancora in dubbio la mia parola quando la 3070 l'ho pure venduta a uno del forum :asd:... non che mi freghi just in case, ma è alquanto ridicolo. E del "amico di mio cugino" ho pure (sbagliando col senno di poi...) dato pure indicazioni di shop e luogo, (chi è in zona bastava che ci facesse un salto e vedere se racconto palle...) sior Tommaso
sai quanto ha pagato una 4080 gigabyte? Meno di 800 euro in uno shop locale....
Si è dimenticato di dirti che è una 4080 usata ?
https://bestvaluegpu.com/history/new-and-used-rtx-4080-price-history-and-specs/
amon.akira
10-09-2023, 17:25
mi stai accusando di mentire? :doh: anni che mi conoscete e c'è chi mette ancora in dubbio la mia parola quando la 3070 l'ho pure venduta a uno del forum :asd:... non che mi freghi just in case, ma è alquanto ridicolo. E del "amico di mio cugino" ho pure (sbagliando col senno di poi...) dato pure indicazioni di shop e luogo, (chi è in zona bastava che ci facesse un salto e vedere se racconto palle...) sior Tommaso
Lungi da me affermare che menti, anzi...peró il tuo amico che è ha preso la 4080 negli states a 800euro/usd sicuramente ci ha ricamato sopra, anche se vedi il "trovaprezzi" americano vedrai che è una cifra a cui trovi le x70ti, le x80 1100, ora magari super offerta da 1100scontato arrivi a 1000 da 1000 ci mettiamo ancora una terza super offerta ed arriviamo a 900, servirebbe una quarta per scendere a 800, invece l hai scritta come se scendo di casa vado dal negozietto e la prendo a 850dollari, forse reggendo una pistola nell altra mano
Sei solo troppo credulone, nn ce nulla di male..nn vuol dire essere bugiardo
Negli Stati Uniti ci tornerò ad ottobre; ho già spulciato e non ci sono 4080 a meno di 1000
Ale55andr0
10-09-2023, 19:41
Lungi da me affermare che menti, anzi...peró il tuo amico che è ha preso la 4080 negli states a 800euro/usd sicuramente ci ha ricamato sopra, anche se vedi il "trovaprezzi" americano vedrai che è una cifra a cui trovi le x70ti, le x80 1100, ora magari super offerta da 1100scontato arrivi a 1000 da 1000 ci mettiamo ancora una terza super offerta ed arriviamo a 900, servirebbe una quarta per scendere a 800, invece l hai scritta come se scendo di casa vado dal negozietto e la prendo a 850dollari, forse reggendo una pistola nell altra mano
Sei solo troppo credulone, nn ce nulla di male..nn vuol dire essere bugiardo
Considera che in America le tasse non sono uguali in tutti gli stati (non so dove sia andato esattamente), e preciso che parlavo in euro non dollari (per quanto il cambio varia poco ormai). Magari c'era una qualche promo o chessò io, poco tempo fa avevo indicato una 7900XT a 720 ivata qui in Italia su noto shop...
Cmq no problem, e poi sono pesantemente OT ;)
Negli Stati Uniti ci tornerò ad ottobre; ho già spulciato e non ci sono 4080 a meno di 1000
Se lo ri-becco chiedo qualche info extra e riferisco
fraussantin
10-09-2023, 19:45
Negli Stati Uniti ci tornerò ad ottobre; ho già spulciato e non ci sono 4080 a meno di 1000Incluso tasse o + tasse perche li mi pareva che i prezzi fossero netti quindi da tassare
Se lo ri-becco chiedo qualche info extra e riferisco
Grazie!
Onestamente non ci spero troppo (non per te, ma perché mi sembra un po' strano come prezzo) ma nel caso vediamo! :)
Incluso tasse o + tasse perche li mi pareva che i prezzi fossero netti quindi da tassare
Prezzo finale, 1100 dollari, circa 1000euro.
Da noi costa 1100 suonati, prezzo migliore, ma nulla di che
Dracula1975
11-09-2023, 14:38
ancora a credere alle palle dell amico/cugino
se esisteva uno shop negli states che vendeva le 4080 a 800dollari si sarebbe fatto un sito internet e ne avrebbe venduto a vagonate diventando ricco, purtroppo il prezzo piu basso è 1100dollari dai 1200ufficiali
digli che oggi esiste internet XD
in america ci sono grosse catene elettroniche (Micro center) che vendono GPu non nuove ma "Open box" abbastanza scontate.
quindi potrebbe davvero aver trovato l'offertona da 850 dollari
ColdWarGuy
12-09-2023, 04:12
ma non c'entra nulla col prezzo da noi e al lancio col fatto che siano un non salto generazionale, quello è pacifico. Dall'America è tornato un "amico di palestra" e sai quanto ha pagato una 4080 gigabyte? Meno di 800 euro in uno shop locale....da noi è prezzata al cambio più tasse, è giusto rispetto l'MSRP, sono altre le schede prezzate a muzzo, a cominciare dalla sua sorellina a 192bit che per 50-60 offre un botto di roba in meno (e ovviamente la 7900XT ma che te lo dico a fare..)
Appena guardato per curiosità Amazon.com, NewEggs e Microcenter, 800 dollari sono fantascienza, il minimo che ho visto è 1099, se poi lui ha preso un sotto costo non fa certo storia.
Torniamo alla 7800, qui in italia ce ne sono in giro pochissime e tutte sovraprezzate, sullo shop AMD EU sono ancora "coming soon", a Milano ce l'ha solo Drako su ordinazione a 650, su Amazon ce l'hanno solo i soliti portoghesi di cui personalmente non mi fido (basta andare a pescare i feedback negativi, ben nascosti), Caseking disponibilità zero, Mindfactory non spedisce fuori dalla Germania, etc.
In EU è praticament un paper launch, lo dico da disinteressato perchè partendo da una 3070 io ho bisogno di almeno una 4070 Ti / 4080, comunque a 650, ora, non è l'affare del secolo e se non arriva in quantità salirà a 700.
Fosse uscita in concomitanza con la 4070 le cose sarebbero cambiate, sempre e comunque se realmente disponibile, come lo sono state effettivamente le NVIDIA.
Ale55andr0
12-09-2023, 11:14
..venuto fuori che il prezzo era escluse le vat, non mi aveva detto così ma ha detto che ricorda benissimo di avermelo specificato. Fatto è che sono sicuro che non lo abbia specificato (prima) ma vabò, uno dei due è rinco, amen. :D
PS: cmq anche così mi pare un prezzo "ottimo"
..venuto fuori che il prezzo era escluse le vat, non mi aveva detto così ma ha detto che ricorda benissimo di avermelo specificato. Fatto è che sono sicuro che non lo abbia specificato (prima) ma vabò, uno dei due è rinco, amen. :D
PS: cmq anche così mi pare un prezzo "ottimo"Ma in caso di guasto che fa, prende un pacco di fazzoletti e si asciuga le lacrime?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
..venuto fuori che il prezzo era escluse le vat, non mi aveva detto così ma ha detto che ricorda benissimo di avermelo specificato. Fatto è che sono sicuro che non lo abbia specificato (prima) ma vabò, uno dei due è rinco, amen. :D
PS: cmq anche così mi pare un prezzo "ottimo"
Bah, personalmente se dico a qualcuno quanto ho speso non gli decurto l'iva, ma gli dico in tondo i soldi volati via dal portafoglio, a meno che non abbia modo di scaricarla... ma vabbè.
Le VAT variano da paese a paese, quindi non so.
Comunque con la nostra iva del 22% saresti poco sotto i 1000€, bene o male sono -150€ rispetto al prezzo minimo su trovaprezzi.
amon.akira
12-09-2023, 14:24
Ma i 1099dollari di bestbuy newegg amazon etc.. nn sono gia senza vat?
Si, inoltre puoi avere delle offerte speciali che non ho mai capito come funzionano ma sento sempre menzionare su reddit con cui puoi togliere un altro 8% circa di prezzo, ma comunque arriviamo a 1000, non 800 dollari.
800 dollari puo' essere solo roba di reso. Tra l'altro non ha nessunissimo senso vendere a 800 dollari quando gia' a 900 o 1000 le venderesti tutte.
amon.akira
12-09-2023, 14:48
Si, inoltre puoi avere delle offerte speciali che non ho mai capito come funzionano ma sento sempre menzionare su reddit con cui puoi togliere un altro 8% circa di prezzo, ma comunque arriviamo a 1000, non 800 dollari.
800 dollari puo' essere solo roba di reso. Tra l'altro non ha nessunissimo senso vendere a 800 dollari quando gia' a 900 o 1000 le venderesti tutte.
esatto diventeresti ricco, ripeto quello è il prezzo senza vat delle x70ti
OrazioOC
18-09-2023, 09:32
https://videocardz.com/newz/nvidia-blackwell-gb100-to-utilize-mcm-design-gpu-unit-structure-to-see-major-reorganization
Era una possibilità prevista già per blackwell? E sopratutto scalerà anche per le altre sku più piccole?
Ma come mai così tardi Blackwell? (2025)
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Ma come mai così tardi Blackwell? (2025)
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Perché Giacchetta è occupato sulla IA con H100; perché la 4090 è inarrivabile a patto di non remargli contro; perché AMD ha già gettato la spugna anche per le prossime gen; perché intel forse è l'unica cosa che può impensierirli ma in nVidia ci credono poco.
Risultato nessuna fretta sotto la Giacchettahhhh!
Cutter90
18-09-2023, 11:02
Perché Giacchetta è occupato sulla IA con H100; perché la 4090 è inarrivabile a patto di non remargli contro; perché AMD ha già gettato la spugna anche per le prossime gen; perché intel forse è l'unica cosa che può impensierirli ma in nVidia ci credono poco.
Risultato nessuna fretta sotto la Giacchettahhhh!
https://www.youtube.com/watch?v=lsskwVyPoxs
E finchè i giochi sono questi.....
Certo che Fsr fa proprio schifo, a minuto 2.36 c'è una differenza abissale senza bisogno di fare zoom a 200x.
Ormai il gioco è andato sono passati mesi, fosse uscito al D1 con DLSS e FG sarebbe stato già diverso.
Starfield farà la stessa fine (almeno per me) da prendere entrambi in forte sconto dopo mesi e svariate patch.
La tua definizione di abissale e' davvero estrema.
Ho visto il segmento e quello precedente almeno 3/4 volte e di abissale c'e` davvero poco: devi sapere dove guardare, cosa guardare, come sarebbe altrimenti e si, devi anche zoomare e rallentare. Realisticamente in gioco non si vede.
Poi oh nativo rimane sempre nativo e se vuoi dire che DLSS 3.1 e' un po meglio in giochi simili ad FSR sono d'accordo.
Pero' penso che il tradeoff ne valga la pena sia su Nvidia che su AMD, sono molto meno talebano di altri sul tema upscaling, ecc.
Tra l'altro il gioco sarebbe stato graficamente mediocre anche 10 anni fa, e non scherzo, mi sembra peggio di Hitman Absolution o Crysis 3 che sono del 2013.
Cutter90
18-09-2023, 12:25
La tua definizione di abissale e' davvero estrema.
Ho visto il segmento e quello precedente almeno 3/4 volte e di abissale c'e` davvero poco: devi sapere dove guardare, cosa guardare, come sarebbe altrimenti e si, devi anche zoomare e rallentare. Realisticamente in gioco non si vede.
Poi oh nativo rimane sempre nativo e se vuoi dire che DLSS 3.1 e' un po meglio in giochi simili ad FSR sono d'accordo.
Pero' penso che il tradeoff ne valga la pena sia su Nvidia che su AMD, sono molto meno talebano di altri sul tema upscaling, ecc.
Tra l'altro il gioco sarebbe stato graficamente mediocre anche 10 anni fa, e non scherzo, mi sembra peggio di Hitman Absolution o Crysis 3 che sono del 2013.
Ingame i problemi di FSR sul movimento e i particellari si notano senza mettere nessuna pausa ne zommare purtroppo.
Dlss è meglio nel senso che gli artefatti che crea sono molto meno visibili di fsr. In alcuni giochi poi crea meno artefatti del TAA.
amon.akira
18-09-2023, 12:39
-blackwell-gb100-to-utilize-mcm-design-gpu-unit-structure-to-see-major-reorganization (https://videocardz.com/newz/nvidia-blackwell-gb100-to-utilize-mcm-design-gpu-unit-structure-to-see-major-reorganization)
mikael84
18-09-2023, 12:50
-blackwell-gb100-to-utilize-mcm-design-gpu-unit-structure-to-see-major-reorganization (https://videocardz.com/newz/nvidia-blackwell-gb100-to-utilize-mcm-design-gpu-unit-structure-to-see-major-reorganization)
BL100 è riferito però al chip HPC ex tesla. Una risposta al foveros di AMD con MI300.
Aprendo il link di Kopite, viene fuori questo... 2025 nvidia 3nm GAA samsung (ovviamente lascia il tempo che trova).
https://i.postimg.cc/VLHmMFvn/3nm-gaa.png
amon.akira
18-09-2023, 12:57
si si chiaro hpc, cmq è troppo in la x noi siamo ancora nel 2023 XD
la 4090 vedrà altri 2natali :D
mikael84
18-09-2023, 13:13
si si chiaro hpc, cmq è troppo in la x noi siamo ancora nel 2023 XD
la 4090 vedrà altri 2natali :D
Bisogna vedere che trimestre 2025, spero non sia debutto ad ottobre 2025 per la 5090, altrimenti se ne va al 2026 per i chip più piccoli :p
amon.akira
18-09-2023, 13:22
Bisogna vedere che trimestre 2025, spero non sia debutto ad ottobre 2025 per la 5090, altrimenti se ne va al 2026 per i chip più piccoli :p
no secondo me iniziano verso aprile/maggio (che significa traghettarsi a settembre), a me starebbe anche bene, rischia di essere la gpu piu longeva che ho avuto.
mikael84
18-09-2023, 15:10
Beh, naturale un + 78% l2, avrebbe un 512bit vs una cache distrutta sulla 4090 che la tarpa.
Cmq in caso di 512bit, non ci sarà aumento cache, ma semplice aumento per canale.
In ogni caso, più che i cuda, vorrei vedere internamente ciò che andranno a migliorare.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-rumors-2-9-ghz-boost-clock-1-5-tb-s-bandwidth-and-128mb-of-l2-cache
512/448bit, quindi no GDDR7
Altro grosso incremento sulla L2
Si farà attendere tanto rispetto a come eravamo abituati ma sarà davvero mostruosa, sarà mia al day one :D :D :D
Come le belle signore:D
Comincio a riempire il porcellino di denari:p
Il problema sarà capire se Intel o Amd riescono a starle dietro come CPU e tutto il resto del sistema. Perchè spendere 2500 euro e poi non sfruttarla non è una buona idea. Per come la vedo io, tra 2 anni preferisco rifarmi il pc di ultima generazione e mantenere la 4090 che verrà sfruttata meglio. O ancora meglio vendere la 4090, prendere la 5080 e via di upgrade di cpu.
Il problema sarà capire se Intel o Amd riescono a starle dietro come CPU e tutto il resto del sistema. Perchè spendere 2500 euro e poi non sfruttarla non è una buona idea. Per come la vedo io, tra 2 anni preferisco rifarmi il pc di ultima generazione e mantenere la 4090 che verrà sfruttata meglio. O ancora meglio vendere la 4090, prendere la 5080 e via di upgrade di cpu.
Secondo me la differenza tra la 5080 e 4090 non sarà tale da giustificare l'esborso economico a meno che Nvidia non tirerà fuori una nuova tecnologia esclusiva per le 5000.
Tra un paio di anni finalmente ci saranno dei processori che spremeranno per bene la 4090, ma cosa succederà con la 5090?
Forse la risposta la sapremo il prossimo anno con la 15 generazione di Intel che rivoluzionerà le sue cpu.
OrazioOC
18-09-2023, 19:41
Beh, naturale un + 78% l2, avrebbe un 512bit vs una cache distrutta sulla 4090 che la tarpa.
Cmq in caso di 512bit, non ci sarà aumento cache, ma semplice aumento per canale.
In ogni caso, più che i cuda, vorrei vedere internamente ciò che andranno a migliorare.
Infatti ho notato come prende come riferimento l'ad102 della 4090 per quanto concerne la stima dell'1,7X di performance, immagino che bw102 vs ad102 full sia su 1.5x di performance a favore di blackwell.
Non è proprio un salto piccolino...:D
mikael84
18-09-2023, 19:54
Infatti ho notato come prende come riferimento l'ad102 della 4090 per quanto concerne la stima dell'1,7X di performance, immagino che bw102 vs ad102 full sia su 1.5x di performance a favore di blackwell.
Non è proprio un salto piccolino...:D
AD102, ha 96mb, la cache della 4090 è di un 288bit. Cmq JHH nel caso farà in modo di smontare pure quella, o con un 112/448bit o con 96/512.
Inoltre a sto giro, bisogna vedere le modifiche microarchitetturali. Aumentare solo cuda e clock non porta da nessuna parte.
Ci vorrebbe una piccola rivoluzione simil maxwell, anche se maxwell ereditava un collabrodo a dipendenze.:)
Lo Straniero Misterioso
18-09-2023, 19:59
Poi non lo so, magari giocate su pannelli da 200 euro FHD 24'' TN e li vi do ragione, li fa schifo pure l'RT, a queste schede vanno abbinati monitor caxxuti, Oled o Mini-Led top di gamma
Sì ma tiratela un po' di meno però :)
Sono buoni tutti a farsi fregare dal marketing a spendere 10000 per avere l'ultimo 3% di qualità, basta avere soldi da spendere.
Quelli più furbi sono quelli che hanno le competenze per spendere 1000 ed ottenere il 97% del possibile.
In un mondo nel quale la maggior parte degli esseri umani non percepisce oltre l'80% - salvo ovviamente i fanboy, che chissà perché sono sempre al vertice della piramide dello scibile :D
OrazioOC
18-09-2023, 20:07
AD102, ha 96mb, la cache della 4090 è di un 288bit. Cmq JHH nel caso farà in modo di smontare pure quella, o con un 112/448bit o con 96/512.
Inoltre a sto giro, bisogna vedere le modifiche microarchitetturali. Aumentare solo cuda e clock non porta da nessuna parte.
Ci vorrebbe una piccola rivoluzione simil maxwell, anche se maxwell ereditava un collabrodo a dipendenze.:)
Sempre che ci arrivi bw102 sui desktop, io credo che per il primo anno rischiamo veramente che la top sia bw103 a 1499 dollari. :rolleyes:
amon.akira
18-09-2023, 20:23
Be forse è stato un po rude, ma ha detto il vero, che piaccia o meno è cosi.
Cmq va e ips sono display tech e possono essere entrambe miniled, cosi x puntualizzare ^^
Lo Straniero Misterioso
18-09-2023, 20:47
LA verità è che per schede come 4080/4090 deve essere tutto al TOP, monitor compreso possibilmente Mini Led.
Deve? Perché, altrimenti che cosa succede?
Verrà DOMINATO dalla POTENZA ASFALTANTE della configurazione HDR ABBAGLIANTE del mio computer fantascientifico?
Che poi a me sta pure sulle balle quando l'HDR mi lascia l'impronta sulla retina, pensa te quanto son stronzo... :D
Sono tutte cazzate che ci raccontano per farci decidere cacciar fuori più grana, amico mio. Ultimamente ho giocato Diablo 4, BG3, Starfield. Ma non mi sento particolarmente più furbo di chi ha speso 3k in meno di me!
...quanto sarebbe stato bello Starfield se avesse supportato HDR e RT però...
Deve? Perché, altrimenti che cosa succede?
Verrà DOMINATO dalla POTENZA ASFALTANTE della configurazione HDR ABBAGLIANTE del mio computer fantascientifico?
Che poi a me sta pure sulle balle quando l'HDR mi lascia l'impronta sulla retina, pensa te quanto son stronzo... :D
Sono tutte cazzate che ci raccontano per farci decidere cacciar fuori più grana, amico mio. Ultimamente ho giocato Diablo 4, BG3, Starfield. Ma non mi sento particolarmente più furbo di chi ha speso 3k in meno di me!
...quanto sarebbe stato bello Starfield se avesse supportato HDR e RT però...
Figurati che io mi sto rendendo conto che mi diverto di più a giocare con giochi di 20 anni e più fa piuttosto che quelli odierni, altro che grafica, RT e DLSS.
Quindi in parole povere prossima serie primavera 2025?
Mi pare strano che non presentino nemmeno uno straccio di refresh nel mentre...
mikael84
18-09-2023, 21:36
Sempre che ci arrivi bw102 sui desktop, io credo che per il primo anno rischiamo veramente che la top sia bw103 a 1499 dollari. :rolleyes:
Arriva sicuramente, considera che sarà il chip di punta anche in fascia work. ex quadro.
I chip sono già scritti da tempo, bisogna vedere se i ritardi sono dovuti ad una probabile rev dei GAA di samsung, o all'utilizzo iniziale dei 3 di TSMC in fascia HPC. Avrà il mondo dietro le prossime "tesla".
OrazioOC
19-09-2023, 07:15
Arriva sicuramente, considera che sarà il chip di punta anche in fascia work. ex quadro.
I chip sono già scritti da tempo, bisogna vedere se i ritardi sono dovuti ad una probabile rev dei GAA di samsung, o all'utilizzo iniziale dei 3 di TSMC in fascia HPC. Avrà il mondo dietro le prossime "tesla".
Non è casuale che BW venga riportato nel 2025, è proprio l'anno di messa in produzione del 3nm GAAFET di Samsung.
Probabilmente si è deciso anche in base agli slot a disposizione, Nvidia se si mette d'impegno la satura da sola quella fab...
Comunque non sottovalutare JHH, BW102 è destinato anche ad uso desktop, ma nulla gli impedisce di venderlo solo sulle ex-quadro/tesla o magari farci una titan da 5k...:help:
E' sempre stato avido e a sto giro tra la mancanza di concorrenza e l'enorme domanda dell'IA, può fare veramente il botto.:rolleyes:
Nulla vieta di usarli entrambi: le tesla sul nodo tsmc e le classiche quadro/gaming su quello di samsung.
ultimate trip
19-09-2023, 08:35
Nulla vieta di usarli entrambi: le tesla sul nodo tsmc e le classiche quadro/gaming su quello di samsung.
ottimizzando anche lato costi e con prezzi finali migliori di Ada...forse
Figurati che io mi sto rendendo conto che mi diverto di più a giocare con giochi di 20 anni e più fa piuttosto che quelli odierni, altro
Parole sante.
Sentire certe persone dire che non si puo' giocare perche' non possono massimizzare tutti i filtri inutili esistenti li fuori a 4k 120hz e' davvero deprimente. Mi fa sempre pensare a persone che di giocare gliene importa poco e nulla.
Non ultimo il fatto che di giochi con grafica bella e anche divertenti sono uno su dieci dei rilasciati.
OrazioOC
19-09-2023, 11:15
Nulla vieta di usarli entrambi: le tesla sul nodo tsmc e le classiche quadro/gaming su quello di samsung.
Beh ci potrebbe finire BW100 da TSMC, un po' come GA100 costruito da TSMC e la restante lineup Ampere finita da Sammy.
Però se mi chiedete se anche BW102 finirà da TSMC, ho qualche dubbio. :rolleyes:
mikael84
19-09-2023, 11:42
Non è casuale che BW venga riportato nel 2025, è proprio l'anno di messa in produzione del 3nm GAAFET di Samsung.
Probabilmente si è deciso anche in base agli slot a disposizione, Nvidia se si mette d'impegno la satura da sola quella fab...
Comunque non sottovalutare JHH, BW102 è destinato anche ad uso desktop, ma nulla gli impedisce di venderlo solo sulle ex-quadro/tesla o magari farci una titan da 5k...:help:
E' sempre stato avido e a sto giro tra la mancanza di concorrenza e l'enorme domanda dell'IA, può fare veramente il botto.:rolleyes:
Il nome Titan è abolito, come Tesla e quadro. Tuttavia sono i PP un pò in ritardo
Samsung ha 3 revisioni del 3 GAA, la seconda va in produzione di massa nel 2024, ma è meno densa dei 3nm di TSMC (cmq potrebbe essere sufficiente). Nel 2025 ci sarà la terza rev.
Ampere usava l'8LPP che era la terza rev dei 10nm.
TSMC è pronto con i 3nm, ma in versione liscia, le versioni HP (alte prestazioni) sono date per H2 2024. Anche se è probabile, che ne abbia una moddata appositamente.
quando potrebbero uscire le nuove schede "Super"? sono ancora indeciso per la 4070
Cutter90
19-09-2023, 13:08
quando potrebbero uscire le nuove schede "Super"? sono ancora indeciso per la 4070
Dubito escano. O se lo faranno per me non varrà la pena
Parole sante.
Sentire certe persone dire che non si puo' giocare perche' non possono massimizzare tutti i filtri inutili esistenti li fuori a 4k 120hz e' davvero deprimente. Mi fa sempre pensare a persone che di giocare gliene importa poco e nulla.
Non ultimo il fatto che di giochi con grafica bella e anche divertenti sono uno su dieci dei rilasciati.
Al 90% sono tutte pippe mentali.
Se provo a spiegare ad un giocatore di ps5 con TV 43" quello che si vede meglio al pc sul mio "piccolo" monitor da 27" mi prende per scemo. E tiene pure ragione :asd:
Per noi è questione di passione per il pc, hardware e gioco ok ma l importante è non farci scimunire dal marketing.
amon.akira
19-09-2023, 17:53
Al 90% sono tutte pippe mentali.
Se provo a spiegare ad un giocatore di ps5 con TV 43" quello che si vede meglio al pc sul mio "piccolo" monitor da 27" mi prende per scemo. E tiene pure ragione :asd:
Per noi è questione di passione per il pc, hardware e gioco ok ma l importante è non farci scimunire dal marketing.
ma che c entra, il discorso era...se compri la 4090 per migliorare la tua esperienza finale e non hai un buon display, hai sbagliato acquisto...era meglio tenere quello che avevi e comprare il display migliore per ottenere una qualità migliore, altrimenti il collo di bottiglia diventa l output finale.
Cutter90
19-09-2023, 18:08
ma che c entra, il discorso era...se compri la 4090 per migliorare la tua esperienza finale e non hai un buon display, hai sbagliato acquisto...era meglio tenere quello che avevi e comprare il display migliore per ottenere una qualità migliore, altrimenti il collo di bottiglia diventa l output finale.
Concordo in pieno
ma che c entra, il discorso era...se compri la 4090 per migliorare la tua esperienza finale e non hai un buon display, hai sbagliato acquisto...era meglio tenere quello che avevi e comprare il display migliore per ottenere una qualità migliore, altrimenti il collo di bottiglia diventa l output finale.
Un buon display ok ma non per forza led o OLED.
Un ips secondo me va benissimo per giocare, tra un paio di anni le 4080 e 4090 saranno delle normali schede come tante altre
mircocatta
19-09-2023, 19:14
Non c'è molto margine per fare il furbo, puoi puntare sulle offerte di certe TV OLED o se preferisci i monitor (ideale) devi spendere e cacciare fuori tanti soldi.
I vari VA, IPS (classici a buon mercato) e ancor meno TN, non arrivano nemmeno per scherzo alla qualità degli oled o mini-led.
Facciamo che con un buon VA (i neri non sono male e nemmeno il contrasto) in SDR arrivi al 70% della qualità video di un OLED (forse anche meno) in HDR (600 la maggior parte dei monitor, hdr 400 è invalutabile essendo pura fuffa) il distacco si fa molto più sostanzioso, quindi ecco che i soldi spesi in più si fanno sentire e ti danno in cambio la soddisfazione.
Se cacci fuori 1100 ti prendi un monitor tipo il PG27AQDM che è un 10bit con HDR 1000 e li non c'è santo che tenga, la qualità c'è tutta.
Con un HDR farlocco arrivi a 8 zone di local dimming, guardati i migliori min led e poi dimmi perchè costano cosi molto.
Non è farsi fregare dal marketing, farsi fregare dal marketing è prendere un monitor HDR 400 da 200nits e tirarsela che si ha l'hdr, ecco quello è molto stupido.
Come vedi non me la tiro, non sono io che valuto in RT la Global illumination con pannelli da 300 euro senza HDR, cosi fa schifo e ripeto do ragione, ti ammazza solo il frame rate.
LA verità è che per schede come 4080/4090 deve essere tutto al TOP, monitor compreso possibilmente Mini Led.
ma visto che questo genere di monitor/tv (molto costosi) li usano in 4 gatti sul loro pc... significa di riflesso che tutti quelli che si sono fatti convincere da "miocuggino" di prendere una nvidia 2000*/3000/4000 perchè "ha rtx e dlss, amd merda" hanno inconsciamente buttato i loro soldi nel cesso, non potendo godere della loro massima magnificenza?
anvedi che alla fine ha ragione gyammy :(
*il piu grosso specchietto per le allodole della storia recente delle gpu :asd:
Lo Straniero Misterioso
19-09-2023, 19:28
ma che c entra, il discorso era...se compri la 4090 per migliorare la tua esperienza finale e non hai un buon display, hai sbagliato acquisto...era meglio tenere quello che avevi e comprare il display migliore per ottenere una qualità migliore, altrimenti il collo di bottiglia diventa l output finale.
Sì ma secondo me la 4090 ha senso per qualsiasi monitor da 4k con refresh rate elevato, non solo per i top di gamma da 1500+ euro con oled e hdr serio... :)
Cutter90
19-09-2023, 19:46
Un buon display ok ma non per forza led o OLED.
Un ips secondo me va benissimo per giocare, tra un paio di anni le 4080 e 4090 saranno delle normali schede come tante altre
Tra un oled e un ips c'è un abisso. Come tra una 4090 e una 2080. In paragone.
Un buon display ok ma non per forza led o OLED.
Un ips secondo me va benissimo per giocare, tra un paio di anni le 4080 e 4090 saranno delle normali schede come tante altre
Se provi per bene a casa tua un oled butti tutto il resto dalla finestra, semplicemente non ha paragoni.
amon.akira
19-09-2023, 19:54
dire ips non vuol dire nulla se non per la tecnologia in se, c'è ips da 100euro con la classica backlight, ci può essere un ips con backlight miniled a zone come il mio o altri gaming come l uqx et simil che costano già migliaia di euro, fino ad arrivare a ips dualcell come reference monitor da 40mila euro
Se provi per bene a casa tua un oled butti tutto il resto dalla finestra, semplicemente non ha paragoni.
Eh lo so ma sticazzi
Tra l altro sono monitor che dopo quello che costano hanno anche una vita più breve.. giusto un dettaglio.
Bo sarò io che sono meno esigente con i giochi
Cutter90
19-09-2023, 21:12
dire ips non vuol dire nulla se non per la tecnologia in se, c'è ips da 100euro con la classica backlight, ci può essere un ips con backlight miniled a zone come il mio o altri gaming come l uqx et simil che costano già migliaia di euro, fino ad arrivare a ips dualcell come reference monitor da 40mila euro
Che cmq non arrivano agli oled a parità di costo e oltre. Quindi si può generalizzare
Cutter90
19-09-2023, 21:13
Eh lo so ma sticazzi
Tra l altro sono monitor che dopo quello che costano hanno anche una vita più breve.. giusto un dettaglio.
Bo sarò io che sono meno esigente con i giochi
Beh dipende. Se ti tieni un pannello per 10 anni si. A meno non c'è differenza
davide155
19-09-2023, 21:16
Eh lo so ma sticazzi
Tra l altro sono monitor che dopo quello che costano hanno anche una vita più breve.. giusto un dettaglio.
Bo sarò io che sono meno esigente con i giochiStai dicendo inesattezze, occhio.
Prendendo per spunto le dichiarazioni di LG, gli oled di produzione 2013 duravano circa 5 anni con uso di 8-10 ore al giorno.
Con la produzione del 2016 hanno affinato le tecniche di lavorazione della materia organica intrinseca del pannello oled ed hanno portato a circa 30-35 anni l'aspettativa di vita di un pannello oled. Sempre con uso intensivo di 8-10 ore al giorno 365 giorni all'anno.
Con le ultimissime tecnologie sono diventati pressoché eterni i pannelli oled.
Quindi no, non hanno una vita più breve di un ips o led perché semplicemente l'obsolescenza delle tecnologie ti farà cambiare prima del dovuto il monitor o la tv che possiedi. In media si cambia monitor da gaming molto prima di tali periodi. E questi sono dati di fatto.
amon.akira
19-09-2023, 21:53
Che cmq non arrivano agli oled a parità di costo e oltre. Quindi si può generalizzare
Quindi la sony ha pensionato l x300 oled x l hx310 ips duallayer cosi tanto per xD, e nn era un oled commerciale ma un true rgb
Cutter90
20-09-2023, 05:44
Quindi la sony ha pensionato l x300 oled x l hx310 ips duallayer cosi tanto per xD, e nn era un oled commerciale ma un true rgb
Se stai parlando del modello che usa anche Vincent Theo siamo su un ambito professionale da 30.000 euro in su.
Direi che non si parla di questo campo ma consumer. Si parla di pannelli "acquistabili":D
amon.akira
20-09-2023, 08:17
dire ips non vuol dire nulla se non per la tecnologia in se, c'è ips da 100euro con la classica backlight, ci può essere un ips con backlight miniled a zone come il mio o altri gaming come l uqx et simil che costano già migliaia di euro, fino ad arrivare a ips dualcell come reference monitor da 40mila euro
Che cmq non arrivano agli oled a parità di costo e oltre.Quindi si può generalizzare
Se stai parlando del modello che usa anche Vincent Theo siamo su un ambito professionale da 30.000 euro in su.
Direi che non si parla di questo campo ma consumer. Si parla di pannelli "acquistabili":D
io ti ho detto che ci sono ips da 100euro ips da 3000euro e ips da 30000euro
tu hai detto che non importa il prezzo e che si può generalizzare e che l ips in generale non arriva al tuo tv oled commerciale wrgb. ora chiedi a vincent se è meglio l oled tuo o il suo ips
Cutter90
20-09-2023, 09:02
io ti ho detto che ci sono ips da 100euro ips da 3000euro e ips da 30000euro
tu hai detto che non importa il prezzo e che si può generalizzare e che l ips in generale non arriva al tuo tv oled commerciale wrgb. ora chiedi a vincent se è meglio l oled tuo o il suo ips
Ripeto: si parla di pannelli consumer acquistabili. Non di prodotti monocopie che si usano come riferimento.
O vai su ips elite da tantissimo soldi, oppure l'oled non ha rivali come qualità e fedeltà dell'immagine.
amon.akira
20-09-2023, 09:12
Ripeto: si parla di pannelli consumer acquistabili. Non di prodotti monocopie che si usano come riferimento.
O vai su ips elite da tantissimo soldi, oppure l'oled non ha rivali come qualità e fedeltà dell'immagine.
quali monocopie lol, solo i dolby sono in rental maui eclipse pulsar... gli altri sono tutti acquistabili logic,eizo,flander,sony etc...
ma come tecnologia quindi cos'è meglio ips o oled mica l ho capito, hai detto che era meglio l oled a prescindere dal costo :asd:
Cutter90
20-09-2023, 09:48
quali monocopie lol, solo i dolby sono in rental maui eclipse pulsar... gli altri sono tutti acquistabili logic,eizo,flander,sony etc...
ma come tecnologia quindi cos'è meglio ips o oled mica l ho capito, hai detto che era meglio l oled a prescindere dal costo :asd:
Lo scrivo l'ultima volta perchè stai facendo finta di non capire evidentemente
Gli oled sono migliori a qualsiasi prezzo, lato CONSUMER. Ossia tv/monitor che tutti possono acquistare e usare per guardare contenuti e NON monitor di calibrazione professionale, usati solo per fare quello
In ogni caso, un lg G3 come il mio, anche in paragone con un Master Monitor come quello di Theo, ne esce benissimo, parole di Vincet Theo. Quasi alla pari, considerando che il g3 55 costa 1800, mentre il suo master monitor costa 30.000.
Parliamod niente quindi. Per avvicinarsi all'oled bisogna spendere una follia in più.
State scadendo in una discussione senza fine. Ognuno ha le sue preferenze. Poi siamo leggerissimamente OT :D
Nulla vieta di usarli entrambi: le tesla sul nodo tsmc e le classiche quadro/gaming su quello di samsung.
Vorrebbe dire progettare due chip diversi, con il doppio dei costi
Vorrebbe dire progettare due chip diversi, con il doppio dei costi
Non direi, l'hanno fatto anche con Ampere, vedi GA100.
amon.akira
20-09-2023, 10:52
Lo scrivo l'ultima volta perchè stai facendo finta di non capire evidentemente
Gli oled sono migliori a qualsiasi prezzo, lato CONSUMER. Ossia tv/monitor che tutti possono acquistare e usare per guardare contenuti e NON monitor di calibrazione professionale, usati solo per fare quello
In ogni caso, un lg G3 come il mio, anche in paragone con un Master Monitor come quello di Theo, ne esce benissimo, parole di Vincet Theo. Quasi alla pari, considerando che il g3 55 costa 1800, mentre il suo master monitor costa 30.000.
Parliamod niente quindi. Per avvicinarsi all'oled bisogna spendere una follia in più.
Quindi con 30mila ti avvicini al tuo xD
amon.akira
20-09-2023, 11:16
:asd:
1.600 vs 30.000 si risparmia dai.
A parte gli scherzi giocando non stiamo facendo color gradient, un qualsiasi buon OLED basta per godersi al 98% un ottima esperienza, idem un buon ips mini led.
Io ho un C2 Oled mi trovo bene, ma girano ancora bene i C1, sfatto anche il mito che ci vogliano 2000 euro per avere un buon OLED, con le offerte un 48'' lo si porta a casa sotto i 1000, se proprio non si vuole l'ultimo modello 2023, certo LG con il G3 ha fatto nuovamente un ottimo lavoro.
Alla fine un buon monitor 27'' 1440p OLED veleggia sui 1100 euro, vedasi il rog o LG, il 4k 32" è stato presentato e temo si avvicini ai 1500-1600.
Be no dai 30000 servono per pensionare l oled da 30000 nn il commerciale wrgb per quello bastano molto meno :)
mikael84
20-09-2023, 16:02
Imbarazzanti le amd:
Ottimo, RT overdrive la 3080 stock performa decentemente con il quality. Considerando che il bench è pure più severo.
Non vedo l'ora.:)
Si AMD con l'overdrive va in bambola, in quanto oltre alle limitazioni ray, va a registri da 256, quindi va più in stallo di nvidia, rispetto al psycho dove si equivalgono, ma li il limite è sempre del ray.
Da notare cmq, come spingono bene le lovelace, anche serie x70.
VanCleef
20-09-2023, 16:27
Due to configuration error all GeForce 40 cards were tested with DLSS 3 Frame Generation enabled. We're retesting right now and will update this review ASAP
:read:
Sono completamente a farfalle:
https://www.techpowerup.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/6.html
il 26 si prova, bene il DLSS 3.5 dalla slide comparative sembra che definisca meglio il tutto.
OT
In raster ARC 770 viaggia eh :D
Fine OT
mikael84
20-09-2023, 17:04
Ho letto, comunque quelli di gamegpu sono della nuova patch 2.0 di CP2077 in uscita domani e sono giusti.
Quelli di TPU sono dell'espansione Phantom liberty in uscita il 26, sembra abbiano fatto un pastrocchio, pur di uscire prima degli altri :doh:
Comunque :stordita: :
https://i.ibb.co/ftPVZ64/dfd.png (https://ibb.co/ftPVZ64)
Abbastanza ambigui i test in raster una 3080 in 1440p fa 49 fps una 7900xtx ne fa 98 la doppia in pratica, boh chissà cosa hanno combinato.
"Due to configuration error all GeForce 40 cards were tested with DLSS 3 Frame Generation enabled. We're retesting right now and will update this review ASAP" :p :p
Cmq la 3080 in raster non può andare come una 6700 o poco più, ma quando mai...
mikael84
20-09-2023, 17:15
Si riguarda le 4000 che hanno Fg attivo, ma come ti spieghi questo?
Tra 3090 e 7900xtx (raster) ci passa il 76%, la 3080 viene doppiata.
https://i.ibb.co/kghFYHX/csaad.png (https://ibb.co/kghFYHX)
Quando nella 1.63 (presumo) ci passa tra le due il 31%
https://i.ibb.co/pLvWQxz/cyberpunk-2077-2560-1440.png (https://ibb.co/pLvWQxz)
Su gamegpu con la patch 2.0 di Cp2077 non hanno nemmeno benchato in raster:stordita:
Non c'è una spiegazione, una 3080 non può andare come una 6700 o poco più.:p Chiaro che se il metro è una 6700 certo che la 7900xtx la doppia.
7700xt = 3090ti, si magari con FSR2.:p
Su cp è 7900xt = 3090ti, qualcosa non quadra.
davide155
20-09-2023, 18:22
Lato CPU si riconferma la media prestazionale del pre-patch, intel va leggermente meglio:
Non mi aspettavo di passare il 13900k in cp2077, ma di stare li li, quindi ci sta, da valutare l'utilizzo dei core si dice che sia pesante e sfrutti bene i thread.
13700k cpu bestiale come sempre, per 400 euro è una bestia, da valutarlo magari con qualche sconto in previsione dell'uscita dei 14th.
https://i.ibb.co/XDpSMDP/gsdfg.jpg (https://ibb.co/XDpSMDP)
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-Ueberraschende-Ergebnisse-mit-dem-AMD-SMT-Fix-1429580/
https://i.ibb.co/HX0DcPz/dcvz.jpg (https://ibb.co/HX0DcPz) https://i.ibb.co/zJjHywT/x-z.jpg (https://ibb.co/zJjHywT)Alla fine è un 12900k con poca cache in più ed un affinamento nei consumi.
Quindi si, da possessore di 12900k non posso che confermarlo. Gran cpu.
Alla fine è un 12900k con poca cache in più ed un affinamento nei consumi.
Quindi si, da possessore di 12900k non posso che confermarlo. Gran cpu.
La serie 13 rispetto alla 12 ha una cosa nettamente superiore e che ti rende conveniente il passaggio, è il memory controller che in caso si abbiano le DDR5 ti permette di salire molto di più che con la serie 12, sperimentato personalmente.
davide155
20-09-2023, 18:49
I core raptor sono più veloci, il 12900k (che possiedo ancora) spesso è sotto al 13600k con 6 pcore, probabilmente quando in alcuni giochi futuri arriveranno quei casi limite, il 12900k starà sopra al 13600k, quindi attualmente vedo il 13600k davanti in game ma è come se avesse vinto la battaglia e non la guerra:D
A me come cpu continuano a piacere hanno un alto potenziale in MT spinto, hanno un gran numero di core quindi hanno sempre una gran riserva e potenziale spesso inespresso, sono cpu a 360 gradi, quello che non mi piace sono i consumi.
Non si può passare stock to stock da un 7800x3d che consuma 64w ad un 13900k che se ne beve 223w, siamo a 3,5x di consumo per delle prestazioni paragonabili.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-Leistungsaufnahme-Review-CPUs-im-Test-1429579/
https://i.ibb.co/XtG79gm/dsad.jpg (https://ibb.co/XtG79gm)
Poi certo si undervolta e si scende, ma restano comunque alti in giochi cpu intensive, in altri giochi leggeri dormono e anche loro consumano poco.
Vedremo con Arrow..In 1440p che è la risoluzione di partenza per un gamer enthusiast, il 12900k sta poco sopra il 13600k.
Il 1080p non lo considero nemmeno nel 2023.
mikael84
20-09-2023, 18:52
12900k, ram DDR5 4400 mt/s ... non si può leggere.
Gli alder cmq sono piuttosto azzoppati .
Per il resto hanno migliorato anche i zen, che avevano qualche problema.
StylezZz`
20-09-2023, 18:55
3070 e 2080 Ti che vanno meno della RX 7600 in raster? Ma cosa si sono bevuti quelli di TPU mentre facevano i test?
Due to configuration error all GeForce 40 cards were tested with DLSS 3 Frame Generation enabled. We're retesting right now and will update this review ASAP
:read:
test molto affidabili insomma :rolleyes:
mikael84
20-09-2023, 18:57
In 1440p che è la risoluzione di partenza per un gamer enthusiast, il 12900k sta poco sopra il 13600k.
Il 1080p non lo considero nemmeno nel 2023.
Sono in 720p, per marcare il CPU limit:)
3070 e 2080 Ti che vanno meno della RX 7600 in raster? Ma cosa si sono bevuti quelli di TPU mentre facevano i test?
test molto affidabili insomma :rolleyes:
Sono sballati, 3090ti=7700xt.
In CB raster, 3090ti=7900xt-
davide155
20-09-2023, 19:03
Sono in 720p, per marcare il CPU limit:)
Sono sballati, 3090ti=7700xt.
In CB raster, 3090ti=7900xt-No io leggevo i test di hwupgrade. Nella media dei giochi in 1440p il 12900k sta sopra al 13600k.
Quei test a res inferiori non li considero nemmeno. Giusto per marcare le differenze tra le varie architetture, ma poi setto 4k e ciao numeri e differenze :D
davide155
20-09-2023, 19:07
Sono situazioni irreali proprio per mostrare i limiti delle cpu, la maggior parte dei test cpu sono fatti in 720p/1080p con 4090, giusto per vedere il tetto massimo dei frame che tirano fuori.
La cpu è molto importante e spesso è un componente trascurato, un 5800x o 11700k/11900k (o ancor peggio dei 10th) posso benissimo limitare (in alcuni casi non sempre) gpu come le 3080/3090 in 1440p se si utilizza DLSS Q, eppure non sono cpu cosi vecchie, figuriamoci le top ADA.
Diciamo che per avere una buona copertura con le gpu top attuali, una buona base con ALDER o similari ci vuole.Senza ombra di dubbio. Quei test servono proprio per far vedere le differenze tecniche delle cpu in determinati casi limite.
Ma per quel che intendo io il gaming i risultati cambiano.
Vedasi il 13600k che a 1080 sta sopra il 12900k ma aumentando la risoluzione perde parecchio terreno.
OrazioOC
20-09-2023, 19:30
Imbarazzanti le amd:
Una piccola riflessione la vorrei fare in generale sul gioco.
Fatto salvo le performance delle amd(che in questo determinato gioco con l'rt attivo non hanno mai avuto chissà quali rese), è un titolo lanciato quasi 3 anni fa, patchato e aggiornato periodicamente, eppure per avere 60 fps con il ray tracing attivo serve una gpu da 1200 euro per evitarti l'utilizzo del dlss.:doh:
Solo io lo trovo un mattonazzo duro da giustificare anche a fine 2023?:rolleyes:
bagnino89
20-09-2023, 19:37
Una piccola riflessione la vorrei fare in generale sul gioco.
Fatto salvo le performance delle amd(che in questo determinato gioco con l'rt attivo non hanno mai avuto chissà quali rese), è un titolo lanciato quasi 3 anni fa, patchato e aggiornato periodicamente, eppure per avere 60 fps con il ray tracing attivo serve una gpu da 1200 euro per evitarti l'utilizzo del dlss.:doh:
Solo io lo trovo un mattonazzo duro da giustificare anche a fine 2023?:rolleyes:Però almeno la resa grafica è notevole... Starfield come lo consideri?
OrazioOC
20-09-2023, 19:42
Però almeno la resa grafica è notevole... Starfield come lo consideri?
La resa c'è e non si discute, ma rimane comunque un gioco veramente tosto anche per gpu che sulla carta scaricano a terra 50 tflops di capacità di calcolo(rtx 4080).
Starfield non lo commento/considero,se con 8 anni di sviluppo ti presenti con un gioco con quella grafica e quelle rese in termini di fps è meglio non fare nulla(sono arrabbiato con Bethesda e la loro pigrizia in fatto di programmazione). :mad:
Una piccola riflessione la vorrei fare in generale sul gioco.
Fatto salvo le performance delle amd(che in questo determinato gioco con l'rt attivo non hanno mai avuto chissà quali rese), è un titolo lanciato quasi 3 anni fa, patchato e aggiornato periodicamente, eppure per avere 60 fps con il ray tracing attivo serve una gpu da 1200 euro per evitarti l'utilizzo del dlss.:doh:
Solo io lo trovo un mattonazzo duro da giustificare anche a fine 2023?:rolleyes:
Perché arriva a un livello di RT mai visto e praticamente nessuna VGA lo regge, ci sta no?
se abbassi AMD essendo più scarsa in RT le prende mentre NVIDIA regge.
se abbassi ancora di più AMD stessa tiene.
se abbassi ancora ancora di più c'è l'RT pure su console.
cioè ok ottimizzare al meglio, ma a mettere l'RT farlocco alla Ubisoft son buoni tutti.
OrazioOC
20-09-2023, 20:00
Perché arriva a un livello di RT mai visto e praticamente nessuna VGA lo regge, ci sta no?
se abbassi AMD essendo più scarsa in RT le prende mentre NVIDIA regge.
se abbassi ancora di più AMD stessa tiene.
se abbassi ancora ancora di più c'è l'RT pure su console.
cioè ok ottimizzare al meglio, ma a mettere l'RT farlocco alla Ubisoft son buoni tutti.
Qui il raytracing non è solo a livelli di mai visto, ma estremizzato in tutto e per tutto.
Lungi da me tirar fuori il solito riflesso dal cupolino della porsche, però vedevo certi gameplay veramente troppo carichi di riflessi, e questo non solo con l'RT Maxato...
Qui il raytracing non è solo a livelli di mai visto, ma estremizzato in tutto e per tutto.
Lungi da me tirar fuori il solito riflesso dal cupolino della porsche, però vedevo certi gameplay veramente troppo carichi di riflessi, e questo non solo con l'RT Maxato...
Che valga la pena usarlo (fermo restando che Cyberpunk su queste cose è diventato un bench quindi arriva all'assurdo), che sia fatto bene, che piaccia soggettivamente la resa finale...quello è del tutto discutibile. Quello che io dico non essere molto discutibile è la pesantezza se poi tu ci metti di più e io di meno, allora grazie che pesi di più.
Elden Ring l'RT bravo chi lo nota e pesa sul framerate, là si che non tornano i conti
mikael84
20-09-2023, 21:04
No io leggevo i test di hwupgrade. Nella media dei giochi in 1440p il 12900k sta sopra al 13600k.
Quei test a res inferiori non li considero nemmeno. Giusto per marcare le differenze tra le varie architetture, ma poi setto 4k e ciao numeri e differenze :D
Si è un usanza giusta isolare i core, ma all'atto pratico, se sei CPU limit te ne accorgi al volo.:)
A me ad esempio segna 70,9 avg e 49 min, ma a conti fatti, io bene o male stavo sopra i 60, ma con NPC scendevo a 50 easy. Quindi anche con una 3080 andavo in CPU limit.
Un 7700x, segna 88,9/64. Quindi si dimostra una CPU sufficiente a tenere la 3080 sempre bene.
Una 4080 su gamegpu, viene data per 85-96, che salirebbe a 90-100 in OC, non starebbe bene con un 7700x, in 1440p quality.:)
La resa c'è e non si discute, ma rimane comunque un gioco veramente tosto anche per gpu che sulla carta scaricano a terra 50 tflops di capacità di calcolo(rtx 4080).
Starfield non lo commento/considero,se con 8 anni di sviluppo ti presenti con un gioco con quella grafica e quelle rese in termini di fps è meglio non fare nulla(sono arrabbiato con Bethesda e la loro pigrizia in fatto di programmazione). :mad:
Più che altro 116k thread mal utilizzati.
mikael84
20-09-2023, 21:21
Ecco ora tornano, non ho capito che test hanno fatto prima...
davide155
20-09-2023, 21:54
Si è un usanza giusta isolare i core, ma all'atto pratico, se sei CPU limit te ne accorgi al volo.:)
A me ad esempio segna 70,9 avg e 49 min, ma a conti fatti, io bene o male stavo sopra i 60, ma con NPC scendevo a 50 easy. Quindi anche con una 3080 andavo in CPU limit.
Un 7700x, segna 88,9/64. Quindi si dimostra una CPU sufficiente a tenere la 3080 sempre bene.
Una 4080 su gamegpu, viene data per 85-96, che salirebbe a 90-100 in OC, non starebbe bene con un 7700x, in 1440p quality.:)
Più che altro 116k thread mal utilizzati.
Si si lo so mike, il mio discorso era relativo al 13600k e 12900k che venivano paragonati.
Poi ovvio, non bisogna prendere solo la media fps come metro di paragone.
Sono uno di quelli malato per il frametime ed il percentile, quindi figuriamoci se non sto dietro ai numeri :D
Ale55andr0
20-09-2023, 21:54
Perché arriva a un livello di RT mai visto e praticamente nessuna VGA lo regge, ci sta no?
no se il restante 90% di cio' che si vede sono modelli poligonari squadrati ed approssimativi per il world building (auto ed edifici e paccottiglia varia paiono di un game di 10-15 anni fa), misto a pop up e texture che vanno dal mediocre al dignitoso (e il santo hulk ci ha almeno messo na pezza, ma non su tutte).
Si vede lontano un miglio che è un gioco a base PS4, e avere la sola illuminazione pesante un macigno rende il tutto ancora più indigesto perchè non basta a giustificare tale peso. La sua fortuna è che ha un artistic design da paura. Quando useranno assets post guerre puniche e l'UE 5 vi vorrà il DLSS 4 e una 5090...ti turbo i.e :sofico:
https://www.techpowerup.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/5.html
https://www.techpowerup.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/6.html
Bench corretti, ora le varie 3080/3090 stanno al posto giusto, nessuna 7900xtx che doppia 3080 in raster:D
L'onore è salvo, in compenso una 7800XT se la mette dietro con un die shrink della 6800 lissia in un gioco bandiera-verde, lo stesso che ha impiegato un anno ad avere FSR ma nessuno ha fatto l'invidgnato :O
davide155
20-09-2023, 22:03
no se il restante 90% di cio' che si vede sono modelli poligonari squadrati ed approssimativi per il world building (auto ed edifici e paccottiglia varia paiono di un game di 10-15 anni fa), misto a pop up e texture che vanno dal mediocre al dignitoso (e il santo hulk ci ha almeno messo na pezza, ma non su tutte).
Si vede lontano un miglio che è un gioco a base PS4, e avere la sola illuminazione pesante un macigno rende il tutto ancora più indigesto perchè non basta a giustificare tale peso. La sua fortuna è che ha un artistic design da pauraMo il 90% addirittura?
Ma sapete la differenza fra un open world ed uno a scorrimento su binari preimpostati?
Guarda non sono un fan di cyberpunk, ma quello che hai scritto graficamente non se lo merita.
Provatelo su un oled con path tracing e 4k e l'impatto visivo è notevole, altroché.
Ale55andr0
20-09-2023, 22:09
Mo il 90% addirittura?
Ma sapete la differenza fra un open world ed uno a scorrimento su binari preimpostati?
Guarda non sono un fan di cyberpunk, ma quello che hai scritto graficamente non se lo merita.
Provatelo su un oled con path tracing e 4k e l'impatto visivo è notevole, altroché.
Quello che ho scritto, graficamente, è esattamente quel che è. E io amo-odio CP2077 (cioè adoro l'atmosfera e il lore ma odio cio' che non è mai stato e doveva essere). Da un mero punto di vista tecnico ha solo due cose notevoli: l'lluminaizone e i modelli dei png principali, tolti quelli, il resto è veramente da 6 tirato nel 2023. Ovviamente cio non toglie nulla, come dicevo, al lato artistico. E si', so bene che un open world non è un corridoio, ma qui il peso del multipiattaforma è molto più evidente che in altri, persino le auto di un gta 5 sono modellate meglio, così come sono resi meglio gli effetti atmosferici ed è sempre un titolo di gen ps 4 eh
mikael84
20-09-2023, 22:10
L'onore è salvo, in compenso una 7800XT se la mette dietro con un die shrink della 6800 lissia in un gioco bandiera-verde, lo stesso che ha impiegato un anno ad avere FSR ma nessuno ha fatto l'invidgnato :O
Ma la batte dove... 3080 rulez.:O :p
Va uguale in raster (ma in questo gioco lascia il tempo che trova), va oltre 1,5x in RT, ed a momenti la triplica nel PT.
Uno è un chip a 5nm, l'altro è un chip a 10nm samsung, e costa pure. Bene ma non benissimo.:sofico:
Si si lo so mike, il mio discorso era relativo al 13600k e 12900k che venivano paragonati.
Poi ovvio, non bisogna prendere solo la media fps come metro di paragone.
Sono uno di quelli malato per il frametime ed il percentile, quindi figuriamoci se non sto dietro ai numeri :D
Il 12900k è una grande CPU, altrochè. Va più va meno... diciamo che se l'usage ti scende al 80%, arranca sia l'una che l'altra. :D
no se il restante 90% di cio' che si vede sono modelli poligonari squadrati ed approssimativi per il world building (auto ed edifici e paccottiglia varia paiono di un game di 10-15 anni fa), misto a pop up e texture che vanno dal mediocre al dignitoso (e il santo hulk ci ha almeno messo na pezza, ma non su tutte).
Si vede lontano un miglio che è un gioco a base PS4, e avere la sola illuminazione pesante un macigno rende il tutto ancora più indigesto perchè non basta a giustificare tale peso. La sua fortuna è che ha un artistic design da paura. Quando useranno assets post guerre puniche e l'UE 5 vi vorrà il DLSS 4 e una 5090...ti turbo i.e :sofico: de
L'onore è salvo, in compenso una 7800XT se la mette dietro con un die shrink della 6800 lissia in un gioco bandiera-verde, lo stesso che ha impiegato un anno ad avere FSR ma nessuno ha fatto l'invidgnato :O
Secondo me é troppo che non metti mano ad un ardware decente :D , la tua memoria storica comincia a fare cilecca. Ne riparliamo quando potrai giocarlo maxato in 4 su un motinor che abbia un senso.
Guardare i video del gameplay altrui non é come giocare in prima persona, nemmeno lontanamente. Byez!
Ale55andr0
20-09-2023, 22:16
Ma la batte dove... 3080 rulez.:O :p
Va uguale in raster (ma in questo gioco lascia il tempo che trova), va oltre 1,5x in RT, ed a momenti la triplica nel PT.
in raster è dietro, i numeri sono li' :O :Prrr: .
https://www.techpowerup.com/review/amd-radeon-rx-7800-xt/32.html
Vero, in PT è meglio la green, posto che parliamo letteralmente di uno show case nvidia di un gioco di 2 anni fa..ma le performance assolute restano "meh" in quell'ambito
Uno è un chip a 5nm, l'altro è un chip a 10nm samsung, e costa pure. Bene ma non benissimo.:sofico:
appunto, è uno shrink della 6800 lissia ma gli "suffice" :asd:
Ed ha la ram che ramma nel 2023 :O
Guardare i video del gameplay altrui non é come giocare in prima persona, nemmeno lontanamente. Byez!
touchè :O
PS: "carico eccessivo sul server" :muro: :doh: :muro: :doh:
mikael84
20-09-2023, 22:23
in raster è dietro, i numeri sono li' :O :Prrr: .
https://www.techpowerup.com/review/amd-radeon-rx-7800-xt/32.html
Vero, in PT è meglio la green, posto che parliamo letteralmente di uno show case nvidia di un gioco di 2 anni fa..ma le performance assolure restano "meh" in quell'ambito
appunt, è uno shrink della 6800 lissia :asd:
Ed ha la ram che ramma nel 2023 :O
Se sono simili +5-5 in raster, ma la 3080 è superiore in RT, non sono uguali.
3080 winner mi dispiace.:O
Qua sono pure pari in raster. (anzi le prende pure):O
https://i.postimg.cc/dtVbLWvd/cpbase.png
La 3080 viene brutalizzata a 360° dalla 4080, ma voglia di dare 1200 euro a JHH non ce l'ho. :D
Ale55andr0
20-09-2023, 22:25
Se sono simili +5-5 in raster, ma la 3080 è superiore in RT, non sono uguali.
3080 winner mi dispiace.:O
Qua sono pure pari in raster. (anzi le prende pure):O
https://i.postimg.cc/dtVbLWvd/cpbase.png
-6 gb e una superiorità in RT che resta inadeguata per un PT come si deve secondo il giacco che ti vuole adescare...su UN titolo che è diventato l'intero parco titoli pare :fagiano:
cmq te lo HAI scelto bene il sito dove piazza la 3080 davanti in raster :D, peccato che i più dicano altro ed addirittura rompe le scatole alla 4070 ti in certi frangenti :O
mikael84
20-09-2023, 22:33
-6 gb e una superiorità in RT che resta inadeguata per un PT come si deve secondo il giacco che ti vuole adescare...su UN titolo che è diventato l'intero parco titoli pare :fagiano:
cmq te lo HAI scelto bene il sito dove la piazza la 3080 davanti in raster :D, peccato che i più dicano altro ed addirittura rompe le scatole alla 4070 ti in certi frangenti :O
Beh è uno dei più utilizzati cpbase.:)
Cmq stavo scherzando, figurati se mi metto a fare il bulletto con una simil 4070.:p
In ogni caso, salvo la ram, ritengo tranquillamente meglio il mio chip onestamente. Per essere un 10nm samsung, se la gioca in raster, e la distrugge in RT vero, e non c'è solo cb.
Beh è uno dei più utilizzati cpbase.:)
Cmq stavo scherzando, figurati se mi metto a fare il bulletto con una simil 4070.:p
In ogni caso, salvo la ram, ritengo tranquillamente meglio il mio chip onestamente. Per essere un 10nm samsung, se la gioca in raster, e la distrugge in RT vero, e non c'è solo cb.
bè in 4K, dove entrambe si arrampicano sugli specchi, la 3080 ha una tecnologia migliore quale il DLSS che la rende utilizzabile bene a quella res partendo ovviamente dal qhd (oltre che può usare la tecnologia concorrente se proprio serve). scambiarla con una 7800XT per usare FSR invece di DLSS anche no grazie, si vede peggio per qualche frame guadagnato, un affarone.
e appena c'è un RT un po' serio la 7800XT scompare per forza di cose.
unico peccato della 3080 sono le versioni da 10GB che non sono larghi ormai, sul frame generator invece ci penserà...AMD :asd:
comunque un gioco che mostra i pro nvidia...starfield con DLSS2+3 fa vedere un DLSS superiore a FSR e l'utilità del framegen. anche se di base è della concorrenza e va meglio su AMD (anzi va male ovunque, grafica ridicola per le prestazioni)...moddato io dico meglio NVIDIA :asd:
PS: si sono consapevole che per qualuno sono "finte res quindi schifo" anche col DLSS 3.5, che sono finti frames quindi guai ad usarli, ma sono anche VGA-finte per il 4K queste insieme a 6800XT e 4070 per cui bisogna accettare che parlo di fake-cose :asd:
amon.akira
21-09-2023, 00:21
Beh è uno dei più utilizzati cpbase.:)
Cmq stavo scherzando, figurati se mi metto a fare il bulletto con una simil 4070.:p
In ogni caso, salvo la ram, ritengo tranquillamente meglio il mio chip onestamente. Per essere un 10nm samsung, se la gioca in raster, e la distrugge in RT vero, e non c'è solo cb.
ma si che lo puoi fare contro l igpu di alessandro :D
DJurassic
21-09-2023, 00:32
Quello che ho scritto, graficamente, è esattamente quel che è. E io amo-odio CP2077 (cioè adoro l'atmosfera e il lore ma odio cio' che non è mai stato e doveva essere). Da un mero punto di vista tecnico ha solo due cose notevoli: l'lluminaizone e i modelli dei png principali, tolti quelli, il resto è veramente da 6 tirato nel 2023. Ovviamente cio non toglie nulla, come dicevo, al lato artistico. E si', so bene che un open world non è un corridoio, ma qui il peso del multipiattaforma è molto più evidente che in altri, persino le auto di un gta 5 sono modellate meglio, così come sono resi meglio gli effetti atmosferici ed è sempre un titolo di gen ps 4 eh
Le spari così grandi che diventano quasi divertenti. :asd:
StylezZz`
21-09-2023, 01:58
Ci sono modelli e texture che fanno pietà, per fortuna che c'è la mod di Hogan.
Ale55andr0
21-09-2023, 07:46
Le spari così grandi che diventano quasi divertenti. :asd:
Lei dice? :asd: :sbonk:
https://i.postimg.cc/XN23fBbW/Quadra-Turbo-R-Raijin-Front-Quarter.webp
https://staticg.sportskeeda.com/editor/2022/03/1d035-16479762851929-1920.jpg
Cutter90
21-09-2023, 07:53
Lei dice? :asd: :sbonk:
https://i.postimg.cc/XN23fBbW/Quadra-Turbo-R-Raijin-Front-Quarter.webp
https://staticg.sportskeeda.com/editor/2022/03/1d035-16479762851929-1920.jpg
Si ma non è che puoi prendere l'auto fatta peggio, senza rt e con dettagli bassi per fare il confronto:sofico:
nessuno29
21-09-2023, 08:06
https://tinypic.host/images/2023/09/21/Immagine.png
In PT senza dlss
Ale55andr0
21-09-2023, 08:11
Si ma non è che puoi prendere l'auto fatta peggio, senza rt e con dettagli bassi per fare il confronto:sofico:
l'auto fatta peggio...sicuro sicuro sicuro? :asd:
Io ho preso delle sports car a caso da gooole immagini...
E poi io ho parlato di modellazione poligonare cacchio centra l'RT e i riflessi :read: :mc:
Ma visto che mi dici di fare cherry picking, prediamo la mia auto preferita in CP2077 nonchè una delle più costose e te la piazzo pure in 4k
https://assets.rpgsite.net/images/images/000/094/247/original/cyberpunk_2077_vehicles_caliburn.jpg
qua na sportivetta media di GTA 5.
https://i.postimg.cc/d1BVbJxK/gta-online-buffalo-stx-1-892343cf004c3dfe.webp
Dai Jura..non arrampicarti sugli specchi, sono fatte meglio, stacce, non sono io ad aver fatto ridere :D Poi chiaro che in entrambi i giochi ci sono anche i bidoni intesi come "fascia utilitaria/carriola scassata" ma quello non c'entra con la qualità del modello 3d. Cyberpunk 2077 è un tripudio di modellazione poligonare povera, squadrata ed approssimativa che prosegue con edifici, elementi urbani etc. Confermo: ha solo una buona illuminazione e modelli dei png, tutto il resto è roba da ps 4
/OT
sertopica
21-09-2023, 08:17
Ecco quello di cui parlavo.
Parli bene di Crapfield (le mod sistemeranno tutto!) e poi vomiti bile su uno dei giochi tecnicamente meglio realizzati di questa generazione, non solo a livello visivo ma anche di ottimizzazione e scalabilita'. Prendi solo ad esempio gli interni delle auto di CP e comparali con quelle di GTA. Non c'e' assolutamente paragone. Ah, non so se hai letto ma le da te tanto odiate tecnologie di upscaling e ricostruzione resteranno anche in futuro. :D
E riguardo alla densita' poligonaLe. Stai confondendo tu le scelte artistiche (stile retro futuristico, brutalismo...) con la qualita' stessa dei modelli. A schermo ci sono migliaia di cose e la maggior parte di esse e' modellata ottimamente. Semmai e' il distant LOD ad essere scarso, ma ci sono mod che rimediano alla grande.
Ale55andr0
21-09-2023, 08:25
Ecco quello di cui parlavo.
Parli bene di Crapfield (le mod sistemeranno tutto!) e poi vomiti bile su uno dei giochi tecnicamente meglio realizzati di questa generazione, non solo a livello visivo ma anche di ottimizzazione e scalabilita'. Prendi solo ad esempio gli interni delle auto di CP e comparali con quelle di GTA. Non c'e' assolutamente paragone.
I modelli di navi e interni delle astronavi di crapfield fanno sembrare i modellatori delle auto di CDP dei dilettanti al primo tirocinio
No, non parlo bene di crapfield, dico che è il mio genere di gioco nel suo contesto (pianeti realisticamente "vuoti", panorami etc) e che per il resto è un titolo Bethesda, e dicendo così ho messo bene in chiaro che cosa è :asd:. Già detto pure che odio i loro png "pupazzetti" di cui proprio non ci si libera :muro:
Il punto è che in due anni CP2077 con gente "pagata e del mestiere" ci ha dato un dlc, qualche aggiustata al combat e una polizia che aveva GTA3... in due anni sai bene che i modder di Starfield faranno fare una figuraccia, sia ai pro/pagati Bethesda che CDP...
ColdWarGuy
21-09-2023, 08:35
I modelli di navi e interni delle astronavi di crapfield fanno sembrare i modellatori delle auto di CDP dei dilettanti al primo tirocinio
No, non parlo bene di crapfield, dico che è il mio genere di gioco nel suo contesto (pianeti realisticamente "vuoti", panorami etc) e che per il resto è un titolo Bethesda, e dicendo così ho messo bene in chiaro che cosa è :asd:. Già detto pure che odio i loro png "pupazzetti" di cui proprio non ci si libera :muro:
Il punto è che in due anni CP2077 con gente "pagata e del mestiere" ci ha dato un dlc, qualche aggiustata al combat e una polizia che aveva GTA3... in due anni sai bene che i modder di Starfield faranno fare una figuraccia, sia ai pro/pagati Bethesda che CDP...
IL vero problema di crapfield non è la grafica ma l'AI degli NPC, molto al di sotto di quella di un primate.
Sorry se è poco, vista la categoria del gioco.
bè in 4K, dove entrambe si arrampicano sugli specchi, la 3080 ha una tecnologia migliore quale il DLSS che la rende utilizzabile bene a quella res partendo ovviamente dal qhd (oltre che può usare la tecnologia concorrente se proprio serve). scambiarla con una 7800XT per usare FSR invece di DLSS anche no grazie, si vede peggio per qualche frame guadagnato, un affarone.
e appena c'è un RT un po' serio la 7800XT scompare per forza di cose.
unico peccato della 3080 sono le versioni da 10GB che non sono larghi ormai, sul frame generator invece ci penserà...AMD :asd:
comunque un gioco che mostra i pro nvidia...starfield con DLSS2+3 fa vedere un DLSS superiore a FSR e l'utilità del framegen. anche se di base è della concorrenza e va meglio su AMD (anzi va male ovunque, grafica ridicola per le prestazioni)...moddato io dico meglio NVIDIA :asd:
PS: si sono consapevole che per qualuno sono "finte res quindi schifo" anche col DLSS 3.5, che sono finti frames quindi guai ad usarli, ma sono anche VGA-finte per il 4K queste insieme a 6800XT e 4070 per cui bisogna accettare che parlo di fake-cose :asd:
Verissimo, ma ti dirò di più: prova ad utilizzare pure il DLDSR e ne vedrai delle belle. :D
Ti faccio un esempio: 4090 con PL al 50% + monitor 1080p + DLDSR 1620p + DLSS Quality + FG = 120Fps :D
Se hai un monitor 4K con il DLDSR puoi goderti il gioco a 5K-6K tranquillamente.
Ormai le tecnologie Nvidia sono imprescindibili.
P.S. Ovviamente non uso il preset Ultra ma parto da quello e abbasso leggermente un paio di valori per ottimizzare le prestazioni. Il preset ultra serve solo per i bench :D
IL vero problema di crapfield non è la grafica ma l'AI degli NPC, molto al di sotto di quella di un primate.
magari fossero quelli i problemi, c'è di peggio
https://www.techpowerup.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/5.html
https://www.techpowerup.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/6.html
Bench corretti, ora le varie 3080/3090 stanno al posto giusto, nessuna 7900xtx che doppia 3080 in raster:D
cavolo, la xtx sta sotto/= la 3080
davide155
21-09-2023, 08:46
Verissimo, ma ti dirò di più: prova ad utilizzare pure il DLDSR e ne vedrai delle belle. :D
Ti faccio un esempio: 4090 con PL al 50% + monitor 1080p + DLDSR 1620p + DLSS Quality + FG = 120Fps :D
Se hai un monitor 4K con il DLDSR puoi goderti il gioco a 5K-6K tranquillamente.
Ormai le tecnologie Nvidia sono imprescindibili.
P.S. Ovviamente non uso il preset Ultra ma parto da quello e abbasso leggermente un paio di valori per ottimizzare le prestazioni. Il preset ultra serve solo per i bench :DFammi capire, hai una 4090 su un monitor 1080p?
Fammi capire, hai una 4090 su un monitor 1080p?
Il monitor si, ma la TV è 4K. :D
Ale55andr0
21-09-2023, 09:31
Ale ci siamo, finalmente riesco ad immaginare un futuro, te ed una scheda dedicata insieme per almeno due generazioni, ti vedo quasi deciso per la 7800xt:D
Immolati :O
https://videocardz.com/newz/undervolted-amd-radeon-rx-7800-xt-with-200w-power-limit-matches-average-performance-of-geforce-rtx-4070
Qualunque scelta farò sarà un compromesso purtroppo, non sono ricco come voi :cry: Cmq non è mica una novità che con l'undervolt si abbassi il consumo e che i produttori per venderti anche i chip schifosi ci van giù pesante...
Permettetemi di consolarmi....triggerandovi di nuovo su una certa cosuccia :O...minuto 1:25, le scale...tremano tutte :asd:
https://www.youtube.com/watch?v=DbuKZgZpDP8
non han risolto proprio un caz col DLSS 3.5 ed è in 4k :asd:
Poi certo immagino che con 5090 occata, in 8K DLDSRABCD e ventordici triliardi di pixel con Skynet a sovrintendere finalmente in sto gioco riusciranno finalmente a tenere i pixel fermi :asd:
Al prossimo giro il giacco dirà che la terrà è quadrata, lo ha capito l'IA, e la gente ci crederà :D
...ragazzi sono ironico, non incazzatevi :p, cmq "un po'" di ragione la ho, mostro cio' di cui parlo...:)
Alodesign
21-09-2023, 09:54
Cosa è che trema??
DJurassic
21-09-2023, 10:43
Cosa è che trema??
I bulbi oculari di Alessandro. Deve tornare dal bisturi per innestare il modello Kiroshi :asd:
Ale55andr0
21-09-2023, 11:27
IL vero problema di crapfield non è la grafica ma l'AI degli NPC, molto al di sotto di quella di un primate.
Sorry se è poco, vista la categoria del gioco.
Io da dopo f.e.a.r non ho più visto una IA davvero buona. Posto che in un open world è difficile averla perchè in un corridoio volutamente strutturato "a cerchio" è relativamente facile fare interagire i nemici con coperture e strutture appositamente fatte per farli interagire con esse, e favorendo l'aggiramento del giocatore facendoli sembrare dei geni. Cmq col senno di poi io quel gioco lo avrei fatto con meccaniche stealth
davide155
21-09-2023, 11:32
Qualunque scelta farò sarà un compromesso purtroppo, non sono ricco come voi :cry: Cmq non è mica una novità che con l'undervolt si abbassi il consumo e che i produttori per venderti anche i chip schifosi ci van giù pesante...
Permettetemi di consolarmi....triggerandovi di nuovo su una certa cosuccia :O...minuto 1:25, le scale...tremano tutte :asd:
https://www.youtube.com/watch?v=DbuKZgZpDP8
non han risolto proprio un caz col DLSS 3.5 ed è in 4k :asd:
Poi certo immagino che con 5090 occata, in 8K DLDSRABCD e ventordici triliardi di pixel con Skynet a sovrintendere finalmente in sto gioco riusciranno finalmente a tenere i pixel fermi :asd:
Al prossimo giro il giacco dirà che la terrà è quadrata, lo ha capito l'IA, e la gente ci crederà :D
...ragazzi sono ironico, non incazzatevi :p, cmq "un po'" di ragione la ho, mostro cio' di cui parlo...:)Le scale che tremano? :rotfl:
Alessandro per favore.
Abbozzala con questa campagna denigratoria.
Non porta a niente di costruttivo per il thread.
Per di più fai solo disinformazione.
Te lo dico con affetto e senza rancore. Compra una 7800xt e vivi felice.
Cutter90
21-09-2023, 11:36
Qualunque scelta farò sarà un compromesso purtroppo, non sono ricco come voi :cry: Cmq non è mica una novità che con l'undervolt si abbassi il consumo e che i produttori per venderti anche i chip schifosi ci van giù pesante...
Permettetemi di consolarmi....triggerandovi di nuovo su una certa cosuccia :O...minuto 1:25, le scale...tremano tutte :asd:
https://www.youtube.com/watch?v=DbuKZgZpDP8
non han risolto proprio un caz col DLSS 3.5 ed è in 4k :asd:
Poi certo immagino che con 5090 occata, in 8K DLDSRABCD e ventordici triliardi di pixel con Skynet a sovrintendere finalmente in sto gioco riusciranno finalmente a tenere i pixel fermi :asd:
Al prossimo giro il giacco dirà che la terrà è quadrata, lo ha capito l'IA, e la gente ci crederà :D
...ragazzi sono ironico, non incazzatevi :p, cmq "un po'" di ragione la ho, mostro cio' di cui parlo...:)
Sinceramente trovo molto brutto che ti siano permessi certi commenti. Continui imperterrito con sta storia. Un disco rotto da mesi. Fai disinformazione, non hai nulla per provare (una scheda, nulla di nulla) , non porti nessun beneficio al forum, ma solo critiche non costruttive che qualche persona che non sa e viene qui dentro per farsi un idea potrebbe seguire. Io spero che ti paghino per fare sti post pieni di scemenze. Altrimenti non si spiega davvero un accanimento simile.
Ma poi dai contro l'unica azienda che bene o male sta portando innovazione e tecnologia in un settore che altrimenti sarebbe stagnante da anni. Vuol dire voler male alla propria passione. ma visto che sei senza scheda presumo che non sia un passione.
Cutter90
21-09-2023, 12:26
la pantomima assurda di come starfield non conti un caxxo perchè le amd vanno (o andavano) meglio e secondo i complotti vanno meglio non per una ottimizzazione causata da piattaforma primaria di sviluppo amd (xbox series che non poteva affatto sfigurare vista la portata del titolo) ma da un "azzoppamento volontario" di nvidia corroborata dal "se due indizi fanno una prova" l'assurda mancanza al lancio di dlss (con tutto che fsr gira pure su nvidia, manco parlassimo quindi di una feature esclusiva...). Tutto questo senza tra l'altro contestualizzare che paradossalmente lato cpu le amd soffrivano/soffrono uno sputo di performance in meno (perchè di questo si tratta, altre pantomime assurde..) rispetto agli intel. SHAME!
però... cyberpunk che fa tutto esattamente tutto l'opposto è la bibbia dell'imparzialità ed oggettività nel testare soluzioni raster, raytraced ed engine di gioco. :asd:
Perchè su cp la amd sono al massimo sfruttate.... e anche le nvidia. E i risultati quando si sfruttano le nvidia sono questi, non quelli di stafield.
DJurassic
21-09-2023, 12:31
Tutto ad un tratto mi sono ricordato del perchè non entro più in questo thread. :asd:
Raga ma quando mai un titolo Bathesda viene preso come riferimento per grafica e nuove tecnologie.
Di solito tutti i titoloni come TES o Falllout hanno fatto parlare di se in primis per il comparto mod e l'engine completamente aperto, e in secondo luogo per la vastità dell'openworld e interazione con oggetti e npc.
Sicuramente essendo un titolo che in tanti aspettavano ci si aspettava un engine più scalabile prestazionalmente, e oggi ha problemi su tutte le build, le GPU amd vanno un pelo meglio ma non è che vada tutto liscio,anche su Steam Deck è un titolo che fatica a girare dignitosamente, sicuramente seguiranno diverse patch e anche la community è molto probabile che metterà delle pezze.
Attualmente Cyberpunk è quello che ad ogni patch cerca di implementare tutte le nuove tecnologie quindi è sicuramente il campione migliore per testare alcune funzionalità, poi che il gioco piaccia o meno è questione soggettiva, se ti piace il genere te lo godi anche semplicemente in raster senza fronzoli.
Ale55andr0
21-09-2023, 12:48
Te lo dico con affetto e senza rancore. Compra una 7800xt e vivi felice.
Anche io senza rancore ma confronto costruttivo fra appassionati: nel video si nota bene che la linea di ogni piano della scalinata "non tiene", sul fermo immagine si nota nel qual caso sotto forma di leggero aliasing (che non dovrebbe esserci a quella risoluzione e con l'AA applicato dal DLSS...) in movimento tale linea mostra una sorta di effetto "sovrapposizione" che non restare netta e ferma
https://i.postimg.cc/rmZL6BmY/3.jpg
Davvero non lo noti? :confused: Chiedo sinceramente. Più che mostrarti lo screen e indicarti nel video che non è mica uppato da me (se temi manipolazioni dello screen da parte mia a parte il ritaglio e l'evidenziamento) pure il minutaggio non so che dirti. A me questo tipo di difetto infastidisce molto, e purtroppo lo noto in molti titoli, dai tempi in cui hanno introdotto aa di tipo "shader" trovare un quadro ben pulito e stabile è divenuto utopistico. Il più delle volte gli elementi in primo piano si vedono bene, ma cio che è in secondo piano più a distanza, specialmente se formato da linee nette su un piano leggermente obliquo o con un effetto a "trama" (reticolati etc) tradisce queste tipo pecche e anzichè concentrarmi su cio che ho subito davanti gli occhi mi vanno automaticamente la'.
Raga ma quando mai un titolo Bathesda viene preso come riferimento per grafica e nuove tecnologie..
Non lo è, alterna cose buone (fondamentalmente navi e interni) a cose orripilanti + i difetti endemici dell'engine che non verranno MAI superati
DJurassic
21-09-2023, 12:51
R
Sicuramente essendo un titolo che in tanti aspettavano ci si aspettava un engine più scalabile prestazionalmente, e oggi ha problemi su tutte le build, le GPU amd vanno un pelo meglio ma non è che vada tutto liscio,anche su Steam Deck è un titolo che fatica a girare dignitosamente, sicuramente seguiranno diverse patch e anche la community è molto probabile che metterà delle pezze.
Ma vedi che la pezza è già stata messa:
https://youtu.be/DeGgOn9xdtI?si=fXdGEUb6IcBnQ_KT
Registrato appositamente in un area critica come la città di Atlantis in 5K DLAA Ultra settings e Frame Gen attivo. Pur volendo essere complottisti non esiste AMD capace di tenere testa a sta roba qua nè di avere la stessa qualità visiva.
Anche io senza rancore ma confronto costruttivo fra appassionati: nel video si nota bene che la linea di ogni piano della scalinata "non tiene", sul fermo immagine si nota nel qual caso sotto forma di leggero aliasing (che non dovrebbe esserci a quella risoluzione e con l'AA applicato dal DLSS...) in movimento tale linea mostra una sorta di effetto "sovrapposizione" che non restare netta e ferma
E' risaputo che Nvidia pubblica video di test con DLSS in modalità performance. Basterà utilizzare la modalità Quality o Balanced per vedere quel problema completamente risolto.
In ogni caso visto in un ottica complessiva di ciò che offre CP2077 in accoppiata con il pathtracing e il dlss 3.5 ti stai volutamente attaccando al fumo della pipa.
Ale55andr0
21-09-2023, 13:15
E' risaputo che Nvidia pubblica video di test con DLSS in modalità performance. Basterà utilizzare la modalità Quality o Balanced per vedere quel problema completamente risolto.
In ogni caso visto in un ottica complessiva di ciò che offre CP2077 in accoppiata con il pathtracing e il dlss 3.5 ti stai volutamente attaccando al fumo della pipa.
per fortuna c'è chi posta in 5k DLD etc in modalità qualità ultra (basta un click per il frame full screen, immagine non ridimensionata in alcun modo, cattura istantanea del tuo video alt+stamp > incolla su paint, minuto 1:10:
https://i.postimg.cc/pRz8bfJ6/5.jpg
Buon proseguimento a tutti.
mikael84
21-09-2023, 13:38
evidentemente i risultati di quando si sfruttano le AMD sono quelli di starfield.ù
Il problema è che da quanto diceva mikael84, le performance tirate fuori con starfield sono causate da uno sfruttamento non usuale da parte dei programmatori della parte dei registri delle AMD che casualmente è invece un punto debole dell'architettura nvidia.
quindi nessun complotto, se programmi per fare andare forte le nvidia hai un risultato simile a cyberpunk, se lo fai per amd hai un risultato simile a starfield. La "fortuna" (strategia) di AMD è che avendo le console con architettura RDNA2, gli sviluppatori non possono ignorare totalmente certe caratteristiche e devono utilizzarle.
E' anche per questo FORSE che negli ultimi anni tolte certe feature (tipo il raytracing) le amd in raster viaggiano più del solito essendo oltremodo competitive e non essendoci in giro unigine heaven o altre boiate unreal engine old che andavano una ca...ta? Capisco che è più facile pensare ad un complotto ma i fatti sono abbastanza logici...
tengo a precisare che non sto facendo una corsa a chi è la scheda migliore ma solo a demistificare certi miti che elevano a bibbia alcuni titoli ed a "ininfluenti" altri quando basta farci una ragionata in cima e capire come stanno le cose.
No, non c'è alcun complotto. Con starfield, hanno ottimizzato a puntino per fare in modo che sia con i reg, che con le cache L0-L1-L2, le AMD avessero un picco estremamente alto di utilizzo vettoriale.
Parliamo di 69% AMD vs 43 nvidia. Un dato pazzesco di utilizzo.
Con CP RT, nvidia addirittura passa da 43 a 42, quindi è sempre sottoutilizzata, ma è AMD che scende da 69 a 50% (che è un buon utilizzo).
Questo non perchè siano penalizzate le AMD, ma è più difficile mantenere la parallelizzazione quando sei costretto ad utilizzare massivamente il sistema di caching-BW. Inoltre i thread AMD devono pure occuparsi di BVH, denoising.
Oltre a questo, l'uso vettoriale va anche mantenuto costante, in quanto per via di svariati motivi possono interrompersi e lasciare momentaneamente con 2-3/4 di idle.
In RT questo è ancora più difficile, infatti a partire da Lovelace, per aiutare la gestione hanno introdotto il SER.
Se andiamo ad analizzare i thread puri, una 7900xtx ha 98.300 thread, una 4080 116.000 thread.
Quindi, anche qua, non c'è alcuna anomalia.
Nel PT, le AMD invece muoiono del tutto, in quanto il compilatore assegna registri doppi, dimezzando l'uso vettoriale medio. Purtroppo è legato all'ISA.
Cutter90
21-09-2023, 13:43
evidentemente i risultati di quando si sfruttano le AMD sono quelli di starfield.ù
Il problema è che da quanto diceva mikael84, le performance tirate fuori con starfield sono causate da uno sfruttamento non usuale da parte dei programmatori della parte dei registri delle AMD che casualmente è invece un punto debole dell'architettura nvidia.
quindi nessun complotto, se programmi per fare andare forte le nvidia hai un risultato simile a cyberpunk, se lo fai per amd hai un risultato simile a starfield. La "fortuna" (strategia) di AMD è che avendo le console con architettura RDNA2, gli sviluppatori non possono ignorare totalmente certe caratteristiche e devono utilizzarle.
E' anche per questo FORSE che negli ultimi anni tolte certe feature (tipo il raytracing) le amd in raster viaggiano più del solito essendo oltremodo competitive e non essendoci in giro unigine heaven o altre boiate unreal engine old che andavano una ca...ta? Capisco che è più facile pensare ad un complotto ma i fatti sono abbastanza logici...
tengo a precisare che non sto facendo una corsa a chi è la scheda migliore ma solo a demistificare certi miti che elevano a bibbia alcuni titoli ed a "ininfluenti" altri quando basta farci una ragionata in cima e capire come stanno le cose.
Di quando si sfruttano le amd e le nvidia no si, sono quelle di starfield. regà, non è difficile. Se in tutti i giochi a parte starfield in raster la 4090 va il 10-25 % in più mentre in Starfield vanno uguali c'è palesente un problema di programmazione in STARFIELD non nel 99% del resto dei giochi.
DJurassic
21-09-2023, 13:44
per fortuna c'è chi posta in 5k DLD etc in modalità qualità ultra (basta un click per il frame full screen, immagine non ridimensionata in alcun modo, cattura istantanea del tuo video alt+stamp > incolla su paint, minuto 1:10:
https://i.postimg.cc/pRz8bfJ6/5.jpg
Buon proseguimento a tutti.
Bravo, hai fatto lo screenshot al frame generato dall'IA.
Capisco che tu abbia sempre avuto roiti (questa non te l'aspettavi eh) al posto di GPU, ma quando giochi le immagini teoricamente le dovresti vedere in movimento, non in slideshow https://i.ibb.co/PmJPKGP/Trollface-non-free.png
Cmq giusto per chiudere il mio fastidioso intervento, non metto in dubbio che Nvidia abbia schede globalmente migliori (o per meglio dire, generalmente più performanti), dico soltanto che è ridicolo vedere scenate e pianti solo perché una volta tanto sfruttano bene hw AMD quando è da 20 anni che in media vuoi per un gameworks vuoi per una base installata ben più elevata, è Nvidia ad essere quella con occhi di riguardo (e spesso dimostrati azzoppamenti volontari della concorrenza) :)
Buona continuazione, ho smesso di fare la vga war da un buon decennio, se potessi comprare una 4090 lo farei ad occhi chiusi :D
Discorso che condivido al 100% se non fosse che qui non è in atto nessuna war, bensì una seduta terapeudica a scopi riabilitativi per il pover Ale55andro :asd:
Cutter90
21-09-2023, 14:14
Quindi il prossimo complotto sarà con AC MIRAGE visto che è ottimizzato per ARC e cpu intel.:D
Siccome le amd non hanno hardware in grado di vantare performance degne in RT e PT allora le nvidia (avendo le capacità) non possono eseguire queste modalità, altrimenti è truffa e azzoppamento, ma è ovvio che ogni azienda punta a mettere in mostra le capacità migliori dei propri prodotti.
Io vedo che in RASTER le amd vanno come dovrebbero, 7900xtx alla pari di 4080 e via discorrendo, non ci vedo azzoppamenti ne favoreggiamenti per un architettura, è abbastanza neutrale.
Certo in RT|PT le nvidia se ne vanno, ma di certo non perchè affossano le amd, ma piuttosto tirano fuori e mettono in gioco la superiorità in hardware per quanto concerne quel campo.
Esatto. Tranne starfield dove la 4090 va magicamente come la 7900xtx. Quando quest'ultima va come la 4080. E' lì la faccenda che evidentemente puzza
Ale55andr0
21-09-2023, 14:16
Bravo, hai fatto lo screenshot al frame generato dall'IA.
Capisco che tu abbia sempre avuto roiti (questa non te l'aspettavi eh) al posto di GPU, ma quando giochi le immagini teoricamente le dovresti vedere in movimento, non in slideshow https://i.ibb.co/PmJPKGP/Trollface-non-free.png
Discorso che condivido al 100% se non fosse che qui non è in atto nessuna war, bensì una seduta terapeudica a scopi riabilitativi per il pover Ale55andro :asd:
la battuta l'accetto volentieri e me la porto a casa :D ;)...ma permettimi: il frame generato all'AI me lo piazza a schermo e lo vedo per forza, a quello serve, che risposta sarebbe la tua dai? :mc: devo cecchinarlo per stoppare il video, andavi in giro come un indemoniato :asd: (ah, io ero uno che nel thread ufficiale chiedevo disperatamente il tasto "cammina" in CP2077, ditemi che si può in starfield :asd:)
Lassiamo perdere va, ognuno sulle sue e pace :D
Sinceramente trovo molto brutto che ti siano permessi certi commenti. Continui imperterrito con sta storia. Un disco rotto da mesi. Fai disinformazione, non hai nulla per provare (una scheda, nulla di nulla) , non porti nessun beneficio al forum, ma solo critiche non costruttive che qualche persona che non sa e viene qui dentro per farsi un idea potrebbe seguire. Io spero che ti paghino per fare sti post pieni di scemenze. Altrimenti non si spiega davvero un accanimento simile.
Ma poi dai contro l'unica azienda che bene o male sta portando innovazione e tecnologia in un settore che altrimenti sarebbe stagnante da anni. Vuol dire voler male alla propria passione. ma visto che sei senza scheda presumo che non sia un passione.
io ero senza gpu questa estate (non c'era neanche nulla da giocare per me) e sull'usato non ho trovato nulla di interessante...da settembre sapevo che usciva roba di mio interesse (comprese sole come lootfield), compro la gpu, fine.
nessuno29
21-09-2023, 14:45
Di quando si sfruttano le amd e le nvidia no si, sono quelle di starfield. regà, non è difficile. Se in tutti i giochi a parte starfield in raster la 4090 va il 10-25 % in più mentre in Starfield vanno uguali c'è palesente un problema di programmazione in STARFIELD non nel 99% del resto dei giochi.
Michael ti ha appena spiegato che non sono le Nvidia ad essere usate male in Starfield ma le AMD ad essere utilizzate particolarmente bene ;)
Michael ti ha appena spiegato che non sono le Nvidia ad essere usate male in Starfield ma le AMD ad essere utilizzate particolarmente bene ;)
Bravo! Esattamente, ed allora sorge la domanda Marzulliana, ma se prendiamo CP2077 in RASTER (lo so...lo so...), le nVidia sono ottimizzate particolarmente bene tanto da penalizzare in qualche modo le AMD? Oppure lo possiamo considerare un campo neutrale?
Qual'è la dimensione del registro tale per cui l'impatto sulle due architetture è neutro?
Quale dimensione Usa CP2077 in RASTER?
Possiamo affermare quindi che se preso in RASTER CP2077 sia un titolo che non penalizza particolarmente nessuna architettura e che a differenza di Starfield cerca in modo bilanciato di sfruttare ogni tipo di Hardware discriminando il meno possibile e implementando fin dal day one tutte le tecnologie di scaling dei vari produttori di hardware, nonostante si evidentemente un titolo in collaborazione con nVidia al contrario di quanto successo con Starfield, Callisto Protocol, Jedi Survivor ecc..?
DJurassic
21-09-2023, 15:05
la battuta l'accetto volentieri e me la porto a casa :D ;)...ma permettimi: il frame generato all'AI me lo piazza a schermo e lo vedo per forza, a quello serve, che risposta sarebbe la tua dai? :mc: devo cecchinarlo per stoppare il video, andavi in giro come un indemoniato :asd: (ah, io ero uno che nel thread ufficiale chiedevo disperatamente il tasto "cammina" in CP2077, ditemi che si può in starfield :asd:)
Lassiamo perdere va, ognuno sulle sue e pace :D
Ormai ho imparato a sopportarti tranquillo :asd:
Ad ogni modo correvo semplicemente per stressare lo streaming dei dati come faccio in ogni gioco. Comunque no, non puoi camminare su Starfield a meno che tu non usi un pad e ci vai delicato con lo stick analogico. :stordita:
nessuno29
21-09-2023, 15:12
Bravo! Esattamente, ed allora sorge la domanda Marzulliana, ma se prendiamo CP2077 in RASTER (lo so...lo so...), le nVidia sono ottimizzate particolarmente bene tanto da penalizzare in qualche modo le AMD? Oppure lo possiamo considerare un campo neutrale?
Qual'è la dimensione del registro tale per cui l'impatto sulle due architetture è neutro?
Quale dimensione Usa CP2077 in RASTER?
Possiamo affermare quindi che se preso in RASTER CP2077 sia un titolo che non penalizza particolarmente nessuna architettura e che a differenza di Starfield cerca in modo bilanciato di sfruttare ogni tipo di Hardware discriminando il meno possibile e implementando fin dal day one tutte le tecnologie di scaling dei vari produttori di hardware, nonostante si evidentemente un titolo in collaborazione con nVidia al contrario di quanto successo con Starfield, Callisto Protocol, Jedi Survivor ecc..?
Premettendo che CP2077 non ha supportato dal day one tutte le tecnologie di scaling (ci ha messo 1 anno), io non ho capito cosa cerchi "marzullamente" di dire :D
Starfield non discrimina nessuno visto che la "dimensione" su cp2077 è persino meno sfruttata, è un merito AMD non un demerito Nvidia (che ha i suoi limiti).
Prendendo ad esempio lo scaling vettoriale citato da Mich su Starfield 43% Nvidia e 69% AMD, in CP2077 42% Nvidia e 50% AMD come vedi siamo la, basterebbe semplicemente accettare che su Starfield è così, può capitare non muore nessuno e soprattutto a Settembre esce la patch col dlss così i piagnistei finiranno.
Ormai ho imparato a sopportarti tranquillo :asd:
Ad ogni modo correvo semplicemente per stressare lo streaming dei dati come faccio in ogni gioco. Comunque no, non puoi camminare su Starfield a meno che tu non usi un pad e ci vai delicato con lo stick analogico. :stordita:
si che puoi basta usare bloc maiusc.
Ale55andr0
21-09-2023, 15:49
si che puoi basta usare bloc maiusc.
santo subito
amon.akira
21-09-2023, 16:03
Certo poi in RT la 4090 fa +82%e la 4080 sta al 57% in qhd, in 4k si allarga ancora di più.
Quisquiglie insomma 😂
mikael84
21-09-2023, 16:13
Nelle forbice di percentuali 43% e 69% è presente molto più gap rispetto al 42% e 50% (ammesso sia così) quindi non siamo la, amd nel primo paragone ha molto più vantaggio.
Cyberpunk in RASTER si può dire che sia neutrale, infatti la 4080 sta lievemente sopra alla 7900xtx, perfettamente in linea, mettiamo anche che sia lievemente ancora a favore di nvidia, e la 4080 passa da +6% a -3% , la sostanza non cambia le schede sono equiparabili, anche fosse il +5% a favore di amd non sposta il livello prestazionale complessivo.
50% è cb psycho. Una situazione ancora peggiore del raster classico.
Quindi il prossimo complotto sarà con AC MIRAGE visto che è ottimizzato per ARC e cpu intel.:D
Il titolo migliore che potessero prendersi, per una scheda che soffre gli stalli, anzi è il vero handicap.:asd:
In fondo è una Vega, con latenze terascale, ma che rispetto a Vega, necessità di una parallelizzazione ancora più alta per rendere. Con pochi thread vega è superiore.
mikael84
21-09-2023, 16:26
E allora figuriamoci:stordita:
Ma alla fine, anche senza fare la conta dei thread, del reg, della banda l1 tex usata dal warp 1, 2, SMT 3 idle etc. Per confrontare 4080 e 7900xtx, basta usare un 3dmark time spy dx12, ed il test mostra che si equivalgono.
Quello è alla fine.
Dopo possiamo fare mille analisi, ma il succo è quello.:)
Dopo ovviamente c'è il software.
carloUba
21-09-2023, 17:00
Ma alla fine, anche senza fare la conta dei thread, del reg, della banda l1 tex usata dal warp 1, 2, SMT 3 idle etc. Per confrontare 4080 e 7900xtx, basta usare un 3dmark time spy dx12, ed il test mostra che si equivalgono.
Quello è alla fine.
Dopo possiamo fare mille analisi, ma il succo è quello.:)
Dopo ovviamente c'è il software.
Ma la 7900 non andava più o meno come la 4090 IN RASTER?
Così avevo letto...
Oppure bisogna downvoltarla per farla andare 50% meglio?
Non capisco più nulla
amon.akira
21-09-2023, 17:12
Ma la 7900 non andava più o meno come la 4090 IN RASTER?
Così avevo letto...
Oppure bisogna downvoltarla per farla andare 50% meglio?
Non capisco più nulla
La nitro plus da 700w era mi sa xD
marbasso
21-09-2023, 18:16
La nitro plus da 700w era mi sa xD
Hahahahahha, si si.....e non ci arrivava nemmeno se non ricordo male.
amon.akira
21-09-2023, 18:43
Sono un babbo, pensavo che il RR funzionasse anche con RT, invece si deve per forza attivare l'overdrive e andare in PT.
Comunque si vede un miglioramento, ma non è così grande, alla fine si vedeva benissimo anche prima ora i riflessi sono più definiti.:D
O sto sbagliando qualcosa io?
Con DLAA sono sicuro che è incompatibile, sparisce proprio il menù LOL
Ottimo il fatto che abbiano aggiunto l'opzione per le cpu amd, la cpu è più impegnata e meglio sfruttata, comunque io questo alto utilizzo di core non l'ho visto, ho caricato salvataggi in più parti della mappa.
Comunque la combo PT+RR+FG+DLSS Q/E in 1440p funzionano benissimo, il frame rate è bello alto e la qualità è ottima, se non ci fosse FG starei già piangendo LOL.
può sembrare poco ma per me è un gran salto, vedi come un custom 4ray 6bounce ma senza dimezzarti ulteriormente il framerate, su dsogaming ci sono screen con RR on/off dacci un occhio
io ancora non lo provo, dovrei avere qualche save in punti in cui il denoiser soffriva :P
marbasso
21-09-2023, 19:17
Io ho aggiornato i driver prima di scaricare l' update ma mi è sparito il g-sync dal pannello di controllo nvidia...
Io ho aggiornato i driver prima di scaricare l' update ma mi è sparito il g-sync dal pannello di controllo nvidia...
controlla la freq di refresh del monitor
sertopica
21-09-2023, 19:32
Io ho aggiornato i driver prima di scaricare l' update ma mi è sparito il g-sync dal pannello di controllo nvidia...
A me invece dopo l'update dei drivers Windows aveva impostato il refresh rate del monitor a 59.95 Hz a mia insaputa, invece di 144. Ho avviato CP con la nuova patch e pensavo che fosse per via dei nuovi requisiti che fosse cosi' poco fluido con FG attivata, e invece... :doh:
edit: ecco vedi sopra. :asd:
marbasso
21-09-2023, 19:36
controlla la freq di refresh del monitor
Eè giusto 240hz....che stranezza non mi era mai successo.
Provo a ripassare ddu e ad installarli di nuovo più tardi..
EDIT
risolto, grazie
DJurassic
21-09-2023, 21:03
si che puoi basta usare bloc maiusc.
Si vede che c'ho giocato tanto eh :asd:
marbasso
22-09-2023, 07:32
C'è un piccolo boost di performance con gli ultimi driver sul solito bench in raster con RT con pt in 4k di CP. Un paio di FPS abbondanti @stock
nessuno29
22-09-2023, 08:40
Poteva fare uno sforzo in più Nvidia ed aggiungere due spicci giusto per farci provare il RR a noi comuni mortali non dotati di FG tanto una 4000 non la compro comunque :D
FrancoBit
22-09-2023, 09:02
Poteva fare uno sforzo in più Nvidia ed aggiungere due spicci giusto per farci provare il RR a noi comuni mortali non dotati di FG tanto una 4000 non la compro comunque :DSi può si può teoricamente. I primi benchmark li ho fatti così, poi improvvisamente non potevo più attivarlo https://uploads.tapatalk-cdn.com/20230922/333ebd71c735b9b4bf96ef8ed8356c6f.jpg
Inviato dal mio M2101K9G utilizzando Tapatalk
SnobWatch
22-09-2023, 09:14
ma le 5090 sono attese per inizio 2023? quando arriveranno secondo voi?
si sa già un periodo ipotetico plausibile?
FrancoBit
22-09-2023, 09:14
ma le 5090 sono attese per inizio 2023? quando arriveranno secondo voi?
si sa già un periodo ipotetico plausibile?
2025, inizio 2023 ce lo siamo giù lasciato alle spalle :ciapet:
Cutter90
22-09-2023, 09:40
C'è un piccolo boost di performance con gli ultimi driver sul solito bench in raster con RT con pt in 4k di CP. Un paio di FPS abbondanti @stock
Piccolo mica tanto. Ho visto un 15 20 fps in 4k....
https://www.youtube.com/watch?v=7y1jt3_9ayc&t=83s
L'unica cosa che un po' mi disturba è che il ray Reconstruction si possa attivare solo con il Path tracing e non con il RT normale. Spero che sia così perchè è una implementazione nuova.
In 4k si può usare pure DLSS Eq, si superano i 100 medi in PT, nelle aree fuori città si fanno 120 fps in scioltezza, un altro +20% rispetto al DLSSQ si porta a casa.
Vola sto gioco, se prima lo giocavo in RT folle +FG+DLSS Q ora sono completamente passato al PT+FG+RR+DLSS Q-E, in 1440p il frame rate è altissimo inutile dirlo.
Difficile rinunciare a quei riflessi cosi accurati.
altrove dicono che si fanno 20 fps e che la resa è pessima
nessuno29
22-09-2023, 11:18
Sta roba è fuori di testa, il miglioramento sui riflessi è netto:
https://i.ibb.co/5YRJ4C9/Cyberpunk2077-2023-09-21-21-05-18-966.png (https://ibb.co/5YRJ4C9) https://i.ibb.co/JCyh2PG/Cyberpunk2077-2023-09-21-21-05-53-396.png (https://ibb.co/JCyh2PG)
Bene cosi non si usano MOD, unica cosa che non mi piace è che quando si corre in auto o in moto le altre macchine che precedono lasciano una sorta di ghosting e mi sa che succede anche con gli npc in movimento, fa un pò schifo li.
Sono molto più realistici i riflessi senza RR, e con realistici intendo simili alla realtà, il RR tende a definirli troppo devono sporcarli un pò di più altrimenti è finto.
DJurassic
22-09-2023, 11:19
Ma quando mai:doh:
Stupidaggini di chi non ha provato con mano.
20-25 fps li fai nel caso più drastico in 4k, con tutto spento FG e DLSS.
é una condizione irreale quellaì, con 4090 si gioca bene in 4k con DLSS EQU. + FG+RR e si fanno 90-100 medi in città (DLSS Q sui 75-80) a salire nelle altre zone della mappa.
Per quanto riguarda la resa, nulla da dire i riflessi sono perfetti, unica cosa che ho notato è il ghosting che lascia l'RR
Io sto giocando in 4K con DLSS Quality e sono su una media di 90fps con FG+RR+PT Ultra. Volendo si può anche utilizzare DLSS Tweak per boostare la res di partenza ancora un pò dei singoli parametri dlss. Il DLAA invece è davvero un mattone e in 4K non garantisce nemmeno i 60fps fissi.
Visivamente è un orgasmo :D
https://live.staticflickr.com/65535/53204604424_2364168f6f_k.jpg ('https://live.staticflickr.com/65535/53204604424_4ae77bcf3d_o.png')
https://live.staticflickr.com/65535/53204223736_1fa201128b_k.jpg ('https://live.staticflickr.com/65535/53204223736_c7ac13f80e_o.png')
https://live.staticflickr.com/65535/53204223431_7dae88e7b8_k.jpg ('https://live.staticflickr.com/65535/53204223431_3c0e351dfd_o.png')
https://live.staticflickr.com/65535/53204529468_03e74a968c_k.jpg ('https://live.staticflickr.com/65535/53204529468_97a1133652_o.png')
https://live.staticflickr.com/65535/53204605214_9c6c0c256b_k.jpg ('https://live.staticflickr.com/65535/53204605214_d717ca8444_o.png')
Ma quando mai:doh:
Stupidaggini di chi non ha provato con mano.
20-25 fps li fai nel caso più drastico in 4k, con tutto spento FG e DLSS.
é una condizione irreale quellaì, con 4090 si gioca bene in 4k con DLSS EQU. + FG+RR e si fanno 90-100 medi in città (DLSS Q sui 75-80) a salire nelle altre zone della mappa.
Per quanto riguarda la resa, nulla da dire i riflessi sono perfetti, unica cosa che ho notato è il ghosting che lascia l'RR
Scusa a cosa corrisponde DLSS EQU?
Comunque sta cosa che il RR non è attivabile con il Raytracing misto raster, mi pare veramente una cagata. Solo in Path Tracing l'intera immagine è renderizzata tracciando i raggi, nella versione mista il raytracing non è l'ultimo layer di elaborazione prima della visualizzazione a schermo ed il denoise, che è poi il punto su cui il RR impatta maggiormente, non era affatto un problema.
Inoltre tutti trovano miglioramenti guardando i riflessi, io personalmente trovo che l'upgrade maggiore sia avvenuto kproprio nella diffuzione della luce riflessa e nelle zone di penombra che finalmente sono illuminate correttamente e non più come pozzi bui e senza luce piedi di flichering del denoise. Inoltre anche la propagazione della luce diretta e dei coni di fade out è molto più estesa, rendendo tutto molto più realistico.
Poi oh Imho eh.
Cutter90
22-09-2023, 11:48
Scusa a cosa corrisponde DLSS EQU?
Comunque sta cosa che il RR non è attivabile con il Raytracing misto raster, mi pare veramente una cagata. Solo in Path Tracing l'intera immagine è renderizzata tracciando i raggi, nella versione mista il raytracing non è l'ultimo layer di elaborazione prima della visualizzazione a schermo ed il denoise, che è poi il punto su cui il RR impatta maggiormente, non era affatto un problema.
Inoltre tutti trovano miglioramenti guardando i riflessi, io personalmente trovo che l'upgrade maggiore sia avvenuto kproprio nella diffuzione della luce riflessa e nelle zone di penombra che finalmente sono illuminate correttamente e non più come pozzi bui e senza luce piedi di flichering del denoise. Inoltre anche la propagazione della luce diretta e dei coni di fade out è molto più estesa, rendendo tutto molto più realistico.
Poi oh Imho eh.
Presumo sia dovuto al fatto che si tratta della prima implementazione
amon.akira
22-09-2023, 12:41
Scusa a cosa corrisponde DLSS EQU?
equilibrato/bilanciato/balanced
58% della nativa, quindi a metà tra 1080 e 1440 partendo da 4k :P
Cutter90
22-09-2023, 13:13
Dipende dalle superfici riflettenti, in quelle due immagini aveva appena finito di piovere, ho catturato il riflesso di una finitura lucida quasi a specchio, per quel motivo i rfilessi risultano cosi enfatizzati è taglienti.
Tombino:
https://i.ibb.co/dWck2Qy/Cyberpunk2077-2023-09-22-13-46-59-987.png
Superfice opaca:
(https://ibb.co/dWck2Qy) https://i.ibb.co/gjsmF53/Cyberpunk2077-2023-09-22-13-48-16-990.png (https://ibb.co/gjsmF53)
Posso prenderti in presti l'ultima immagine? Perchè nel thread amd non hanno mai visto i riflessi comportarsi in modo diverso in base alle superfici :D
ma le 5090 sono attese per inizio 2023? quando arriveranno secondo voi?
si sa già un periodo ipotetico plausibile?
Difficile da dire, gli sforzi sono concentrati sul settore enterprise e data center, noi gamers siamo poco rilevanti per i conti di Nvidia.
E' piuttosto improbabile comunque rilascino le 5000 nel 2024, probabilmente estate 2025.
amon.akira
22-09-2023, 13:41
ragazzi i materials sono tutti pbr, poi ovvio se gli dai un valore sbagliato non è colpa del rt
davide155
22-09-2023, 13:47
Difficile da dire, gli sforzi sono concentrati sul settore enterprise e data center, noi gamers siamo poco rilevanti per i conti di Nvidia.
E' piuttosto improbabile comunque rilascino le 5000 nel 2024, probabilmente estate 2025.Ad ora è ufficiale 2025. Slide nvidia.
Come diceva mikael ci sono anche problemi di tempistiche per le fonderie che nel 2024 son tutte piene o con linee non ancora pronte.
Cutter90
22-09-2023, 14:00
Fai pure:D
Comunque io non ho dubbi su cosa sia meglio, è un filo vero RR tende ad essere molto preciso sui riflessi, però senza mi sembra troppo povero e impastato, questo per quanto riguarda i riflessi, parlando di illuminazione non trovo il punto debole di RR.
https://i.ibb.co/PC819hx/Cyberpunk2077-2023-09-22-14-37-58-595.png (https://ibb.co/PC819hx) https://i.ibb.co/zGNcxWK/Cyberpunk2077-2023-09-22-14-38-10-831.png (https://ibb.co/zGNcxWK)
Inoltre con RR ho notato che spostandomi inquadrando il riflesso il tutto è più fluido.
A livello di illuminazione è incredibile questo e gli altri screen. Cioè, è roba davvero reale questa.
Ora l'unica speranza è che tutti si muovano veramente a rendere il path tracing una normalità sui loro giochi.
Ale55andr0
22-09-2023, 14:06
Posso prenderti in presti l'ultima immagine? Perchè nel thread amd non hanno mai visto i riflessi comportarsi in modo diverso in base alle superfici :D
no perchè infatti in quelle due foto ci sono immagini speculari A SPECCHIO? no
Nessuno parlava di quel tipo di riflesso di la', e lo sai benissimo, infatti in quelle pic giustamente non c'è alcuna specularità e limpidezza perfette da specchio, evitiamo di confondere quindi la cosa con cio' di cui si trattava di la' (cmq tutti interventi OT, mio incluso..ergo sarebbe il caso o di evitare di continuare o di aprire apposito thread se si è interessati)
spakkiuso
22-09-2023, 14:14
Posso prenderti in presti l'ultima immagine? Perchè nel thread amd non hanno mai visto i riflessi comportarsi in modo diverso in base alle superfici :D
Scusa il breve OT. Vedo che abbiamo la stessa sk video. A quanto arrivi in overclock?
Cutter90
22-09-2023, 14:26
Scusa il breve OT. Vedo che abbiamo la stessa sk video. A quanto arrivi in overclock?
Dici oc massimo? Su che suite/gioco? perchè cambia tantissimo da gioco a gioco, da bench a bench. Se vuoi possiamo fare un bench e vediamo quanto tiriamo in oc. dimmi tu :)
Ma quando mai:doh:
Stupidaggini di chi non ha provato con mano.
20-25 fps li fai nel caso più drastico in 4k, con tutto spento FG e DLSS.
é una condizione irreale quellaì, con 4090 si gioca bene in 4k con DLSS EQU. + FG+RR e si fanno 90-100 medi in città (DLSS Q sui 75-80) a salire nelle altre zone della mappa.
Per quanto riguarda la resa, nulla da dire i riflessi sono perfetti, unica cosa che ho notato è il ghosting che lascia l'RR
con la 70 a 1440p/max da 20 fps schizzo (in ogni senso) a circa 60 con dlss q+fg+rr (tenendo conto pure che ho un i5 pseudo old)...assurdo
ColdWarGuy
23-09-2023, 08:37
A questo punto possiamo rinominare il thread in : prove tecniche di 4090 con CP 2077, ingresso esclusivo per i possessori della stessa.
marbasso
23-09-2023, 11:40
Ma no dai cody19 ha la 4070 ed ha dato il suo contributo.
ColdWarGuy
25-09-2023, 01:24
NVIDIA Predicts DLSS 10 Will Offer Full Neural Rendering Interfaced with Game Engines for Much Better Visuals (https://wccftech.com/nvidia-predicts-dlss-10-will-offer-full-neural-rendering-interfaced-with-game-engines-for-much-better-visuals/)
L'unica speranza è che almeno Intel arrivi ad impensierire Nvidia lato tecnologie software, altrimenti il listino prezzi passerà da osceno ad impossibile.
https://cdn.wccftech.com/wp-content/uploads/2023/09/20230921_132143_2023-09-21_132212.png
Ale55andr0
25-09-2023, 08:39
L'unica speranza è che almeno Intel arrivi ad impensierire Nvidia lato tecnologie software, altrimenti il listino prezzi passerà da osceno ad impossibile.
speriamo
RoUge.boh
25-09-2023, 09:16
L'unica speranza è che almeno Intel arrivi ad impensierire Nvidia lato tecnologie software, altrimenti il listino prezzi passerà da osceno ad impossibile.
E' vero ma non puoi confidare in intel, non lo vedo un player che ha il know how sufficiente.
Il fatto che senza un competiotor vero, e con la giusta politica di marketing, attualmente e in futuro (in caso di assenza competitor), NVIDIA fa/farà quello che vuole.
E' vero ma non puoi confidare in intel, non lo vedo un player che ha il know how sufficiente.
Il fatto che senza un competiotor vero, e con la giusta politica di marketing, attualmente e in futuro (in caso di assenza competitor), NVIDIA fa/farà quello che vuole.
Speriamo accada. Quando si rimane praticamente soli sul mercato succedono dinamiche strane che non sempre portano a prezzi alti. Esempio su tutti Windows. Le schede video sono uno strumento per il gaming, se non le rendi accessibili muore il gaming e con lui tutto il mercato dell'intrattenimento su pc. Nvidia può alzare quanto vuole i prezzi perchè tanto avrà sempre le schede delle generazioni precedenti disponibili in grandi quantità.
Come base software Intel sta lavorando bene, il rilascio dei driver é costante e porta miglioramenti a ogni release.
Sulle tecnologie software Xess ha un ottimo algoritmo e talvolta rende anche meglio dell'FSR, ciò che gli manca é il frame generator che sicuramente arriverà in futuro.
Da vedere se in qualche modo anche le unità NPU delle sue prossime CPU siano in qualche modo sfruttabili in game anche se la vedo difficile.
Comunque molto dipende dalla prossima sfornata delle Arc e con quale chip andranno a scontrarsi, se riescono a prendere la 4070ti per il modello top già potrebbe esserci una discreta concorrenza nella fascia media, soprattutto se all'esordio hanno già una base software buona.
Inviato dal mio M2012K11AG utilizzando Tapatalk
E' vero ma non puoi confidare in intel, non lo vedo un player che ha il know how sufficiente.
Il fatto che senza un competiotor vero, e con la giusta politica di marketing, attualmente e in futuro (in caso di assenza competitor), NVIDIA fa/farà quello che vuole.
Non sono strasicuro di questo, le GPU arc fanno sorprendentemente bene in ray tracing ad esempio e altra roba machine-learning.
Le arc 770 andavano spesso piu' di ben piu blasonate e costose 3070.
Sono personalmente ottimista del futuro di Intel nelle gpu anche perche' non devono dominare tutte le fasce di prezzo per avere successo, solo alcune specifiche (ad esempio la deprimente fascia sotto i 400 euro).
mikael84
25-09-2023, 13:41
Come base software Intel sta lavorando bene, il rilascio dei driver é costante e porta miglioramenti a ogni release.
Sulle tecnologie software Xess ha un ottimo algoritmo e talvolta rende anche meglio dell'FSR, ciò che gli manca é il frame generator che sicuramente arriverà in futuro.
Da vedere se in qualche modo anche le unità NPU delle sue prossime CPU siano in qualche modo sfruttabili in game anche se la vedo difficile.
Comunque molto dipende dalla prossima sfornata delle Arc e con quale chip andranno a scontrarsi, se riescono a prendere la 4070ti per il modello top già potrebbe esserci una discreta concorrenza nella fascia media, soprattutto se all'esordio hanno già una base software buona.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Intel al momento lato GPU, deve svoltare, creando quello che ha fatto AMD con RDNA, ma al contrario essendo già abissalmente avanti lato RT, tanto che condivide quelli di Lovelace.
Al momento, l'architettura è una sorta di Vega con latenze peggiori e che rispetto a quest'ultima, soffre il basso carico. Infatti per rendere deve necessariamente avere molti thread in esecuzione.
ColdWarGuy
26-09-2023, 00:01
Non sono strasicuro di questo, le GPU arc fanno sorprendentemente bene in ray tracing ad esempio e altra roba machine-learning.
Le arc 770 andavano spesso piu' di ben piu blasonate e costose 3070.
Sono personalmente ottimista del futuro di Intel nelle gpu anche perche' non devono dominare tutte le fasce di prezzo per avere successo, solo alcune specifiche (ad esempio la deprimente fascia sotto i 400 euro).
In quale lungometraggio l'hai visto ?
ColdWarGuy
26-09-2023, 07:28
NVIDIA B100 “Blackwell” GPUs To Be Made On TSMC 3nm Process, Launching In Q4 2024 (https://wccftech.com/nvidia-b100-blackwell-gpus-made-on-tsmc-3nm-process-launching-in-q4-2024/)
nessuno29
26-09-2023, 07:38
Purtroppo si è rotta la gpu del pc di mio fratello e gli ho dato la mia 3070 strix, voglio prendermi una gpu che vada più o meno come la 3070 e senza spendere troppo, con la 4060 patirei molto in prestazioni? Mi vergogno un pò a spendere per una 4060ti.
devil_mcry
26-09-2023, 07:42
Purtroppo si è rotta la gpu del pc di mio fratello e gli ho dato la mia 3070 strix, voglio prendermi una gpu che vada più o meno come la 3070 e senza spendere troppo, con la 4060 patirei molto in prestazioni? Mi vergogno un pò a spendere per una 4060ti.
prendi una 4070 almeno, la 4060 ti 16gb cmq è un paio di punti % sotto la 3070 a 1440p ma....
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.