View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
E' l'unica scheda sensata cit. :sofico:
Guarda la prenderei anche io ma dato che nel mio bellissimo NZXT H510 non ci entra lascio perdere :sofico:
Hanno fatto i furbi, vendendo chip della minghia cut (ad103/104) e prezzandoli alti, spendere 1200 per stare poco sotto ad una 3090ti in raster anche no, spendera piu di 1500 per stare a +20% in raster anche no, aggiungi 450 euro e ti prendi quel mostro di 4090.
Ovviamente usando i tensor non c'é 3090ti che tenga, la 4080 12 le passa sopra.
Altrimenti per chi non vuole prestazioni da capogiro, aspetta le x70, magari se le prezzano bene e non cuttano a schifo AD104 potrebbe essere l'ancora della salvezza.
Ma dubito fortemente che la lancino a 499$ (meme quattonovenove) sará 699$ e da qui lo schifo, significano 850/900 euro da noi.
L'ha studiata bene senza dubbio...
FrancoBit
23-09-2022, 09:32
Oserei dire ipnotico 🤩https://uploads.tapatalk-cdn.com/20220923/c20cc0dbf05438aa2856ee3f1ee29d7a.jpg
Inviato dal mio M2101K9G utilizzando Tapatalk
Oserei dire ipnotico 🤩https://uploads.tapatalk-cdn.com/20220923/c20cc0dbf05438aa2856ee3f1ee29d7a.jpg
Inviato dal mio M2101K9G utilizzando Tapatalk
Lode all'ipnorospo!
devAngnew
23-09-2022, 09:36
Nooo dovete lasciare la 4090 a me non comprarla ;D
Ma che problema ti fai, le custom le troverai senza problemi. :D
Ma che problema ti fai, le custom le troverai senza problemi. :D
Dici?
Ma siete tutti orientati alla 4090 ?
Come cambia il mondo :fagiano:
Il giochino di giacchetta ha funzionato perfettamente, d'altronde mica sono stupidi.
Mettono due 4080 ridicole a prezzi ancora più ridicoli e l'effetto è che la gente gli compra la 4090 a 2.000 euro :sofico:
Esattamente, mica è fesso... lui :D
E' riuscito a far sembrare le 4090 convenienti roba da matti :D
potete ribilanciare voi orientandovi sulla 4080/12 :D
e sono sicuro che il giacchetta se la riderà anche più...
devAngnew
23-09-2022, 09:47
Dici?
Non lo dico io l'ha detto TSMC che produce a pieno regime... :D
Interessante articolo di PCGamer:
https://www.pcgamer.com/nvidia-rtx-40-series-let-down/
TLDR: La 3080 aveva l'80% degli shaders della 3090. La 4080 12 GB ha il 45 % degli shaders della 4090 e un bus a 192 bit. Non e' nemmeno una 4070, ma al piu una 4060ti (tuttavia, la 3060ti era comunque relativamente piu vicina alla 3090 di quanto la 4080 light lo sia alla 4090).
Anche la 2070 era molto piu vicina alla 2080ti (di fatto una 2090) che non la 4080 12GB sia vicina alla 4090.
Anche i numeri della 4080 full non sono convincenti, parliamo di un -40% dalla 4090 (paragonato al -20% della 3080/3090).
In parole povere la 4090 viene lanciata paradossalmente al rapporto prezzo/valore migliore di tutte e 3 le gpu e anche il rapporto prestazioni/prezzo non sara' poi cosi malvagio per la 4090. Assurdo, considerando si tratta della linea enthusiasts.
Altro elemento: la 4080 light ha di fatto meno shaders e un bus piu piccolo della 3080 liscia e probabilmente anche meno ROPs e texture units. E' molto probabile una differenza molto bassa con la 3080 senza DLSS/RT e i clock non compenseranno tutta questa differenza.
Looking forward, this is all very disappointing and worrying. If this is what the RTX 4080 looks like, what about the RTX 4070? Or the RTX 4060, how pathetic is that going to be?
La maggior parte delle speculazioni online dice che questo marketing e lancio vuole far apparire la 4090 molto piu conveniente rispetto alle flagship precedenti mentre le 4080 (entrambe) sono GPU di second'ordine lanciate a prezzi astronomici che verranno ribassati qualche topo dopo la release per alzare i volumi o verranno sostituite da versioni super/ti.
Expect Nvidia to keep production numbers low for this generation. It knows the whole Ada Lovelace series is onto a loser in terms of market conditions...So, it will likely keep volumes uncharacteristically low and try to maintain higher margins courtesy of short supply, the idea being to keep very high prices for the longer term and for future generations when the market has picked up again, even if sales of Ada Lovelace suffer.
thunderforce83
23-09-2022, 09:57
Interessante articolo di PCGamer:
https://www.pcgamer.com/nvidia-rtx-40-series-let-down/
TLDR: La 3080 aveva l'80% degli shaders della 3090. La 4080 12 GB ha il 45 % degli shaders della 4090 e un bus a 192 bit. Non e' nemmeno una 4070, ma al piu una 4060ti (tuttavia, la 3060ti era comunque relativamente piu vicina alla 3090 di quanto la 4080 light lo sia alla 4090).
Anche la 2070 era molto piu vicina alla 2080ti (di fatto una 2090) che non la 4080 12GB sia vicina alla 4090.
Anche i numeri della 4080 full non sono convincenti, parliamo di un -40% dalla 4090 (paragonato al -20% della 3080/3090).
In parole povere la 4090 viene lanciata paradossalmente al rapporto prezzo/valore migliore di tutte e 3 le gpu e anche il rapporto prestazioni/prezzo non sara' poi cosi malvagio per la 4090. Assurdo, considerando si tratta della linea enthusiasts.
La maggior parte delle speculazioni online dice che questo marketing e lancio vuole far apparire la 4090 molto piu conveniente rispetto alle flagship precedenti mentre le 4080 (entrambe) sono GPU di second'ordine lanciate a prezzi astronomici che verranno ribassati qualche topo dopo la release per alzare i volumi o verranno sostituite da versioni super/ti.
Esatto, per me e' tutto studiato a tavolino, nvidia pensa: venderemo meno ma con maggior margine, l'antifona e' che il videogiocatore pcista esperto capisce bene che queste 4080 sono un incul..tion colossale e pur di avere l'ultima belva nel pc dice ma si... spendo 1000euro in piu' ma per due anni sono al top...
Esatto, per me e' tutto studiato a tavolino, intel pensa: venderemo meno ma con maggior margine, l'antifona e' che il videogiocatore pcista esperto capisce bene che queste 4080 sono un incul..tion colossale e pur di avere l'ultima belva nel pc dice ma si... spendo 1000euro in piu' ma per due anni sono al top...
può anche decidere di restare come sta eh... :p
non è che bisogna per forza ragionare "4 è più di 3" e frega poco dei 4gb.
Esatto, per me e' tutto studiato a tavolino, intel pensa: venderemo meno ma con maggior margine, l'antifona e' che il videogiocatore pcista esperto capisce bene che queste 4080 sono un incul..tion colossale e pur di avere l'ultima belva nel pc dice ma si... spendo 1000euro in piu' ma per due anni sono al top...
Intel?
Si, comunque credo anche nelle conclusioni dell'edit e quote che ho aggiunto dopo.
Nvidia sa che Lovelace non sia una grande gen di GPU e che viene rilasciata in una situazione economica globale sfavorevole alle vendite. Per cui gli sta bene lanciare questa generazione piuttosto deludente, a volumi bassi, ma mantenendo margini di guadagno per pezzo molto elevati e tenerli elevati via volumi non troppo elevati.
Probabilmente sanno anche abbastanza della gen 7000 di AMD da non preoccuparsi, il che dovrebbe preoccupare noi pero' :D
Predator_1982
23-09-2022, 10:05
Ma siete tutti orientati alla 4090 ?
Come cambia il mondo :fagiano:
io sono ancora indeciso, dipenderà da quanto facile sarà acquistarla al day one. Se salta prendo la 4080 16gb, quella da 12 nemmeno la prendo in considerazione avendo già una 3080 Ti.
Non lo dico io l'ha detto TSMC che produce a pieno regime... :D
Fonte?
E' molto poco probabile invece che vedrai queste GPU in volumi importanti.
devAngnew
23-09-2022, 10:09
Interessante articolo di PCGamer:
https://www.pcgamer.com/nvidia-rtx-40-series-let-down/
TLDR: La 3080 aveva l'80% degli shaders della 3090. La 4080 12 GB ha il 45 % degli shaders della 4090 e un bus a 192 bit. Non e' nemmeno una 4070, ma al piu una 4060ti (tuttavia, la 3060ti era comunque relativamente piu vicina alla 3090 di quanto la 4080 light lo sia alla 4090).
Anche la 2070 era molto piu vicina alla 2080ti (di fatto una 2090) che non la 4080 12GB sia vicina alla 4090.
Anche i numeri della 4080 full non sono convincenti, parliamo di un -40% dalla 4090 (paragonato al -20% della 3080/3090).
In parole povere la 4090 viene lanciata paradossalmente al rapporto prezzo/valore migliore di tutte e 3 le gpu e anche il rapporto prestazioni/prezzo non sara' poi cosi malvagio per la 4090. Assurdo, considerando si tratta della linea enthusiasts.
Altro elemento: la 4080 light ha di fatto meno shaders e un bus piu piccolo della 3080 liscia e probabilmente anche meno ROPs e texture units. E' molto probabile una differenza molto bassa con la 3080 senza DLSS/RT e i clock non compenseranno tutta questa differenza.
La maggior parte delle speculazioni online dice che questo marketing e lancio vuole far apparire la 4090 molto piu conveniente rispetto alle flagship precedenti mentre le 4080 (entrambe) sono GPU di second'ordine lanciate a prezzi astronomici che verranno ribassati qualche topo dopo la release per alzare i volumi o verranno sostituite da versioni super/ti.
Quindi la strategia commerciale che paventai immetto poche schede sul mercato per mantenere i prezzi alti viene confermata che biricchino JHH :sofico:
Quasi quasi... tanto i 4gb in più della 4080/16 non mi servono :asd:
Però solo se la Meloni non toglie il RDC altrimenti è un casino.
Non lo toglieranno mai, faranno più controlli il sud è una polveriera :D
devAngnew
23-09-2022, 10:10
Fonte?
E' molto poco probabile invece che vedrai queste GPU in volumi importanti.
Lo lessi qui su Hardware upgrade. :)
Goofy Goober
23-09-2022, 10:15
Ma siete tutti orientati alla 4090 ?
Come cambia il mondo :fagiano:
nel 2024, forse :asd:
tra l'altro oggi non mi serve a niente (no giochi) :D
Il bus di memoria della 4080 è da 192 bit, dalla serie 600 fino alle 3000 è sempre stato il bus delle xx60 (nella serie 600 era la 660ti).
Praticamente si pensava avessero rimarchiato la 4070 in 4080 12gb ma a guardare le specifiche forse hanno lanciato la 4080, 4070 e 4060ti cambiando solo il nome ed alzando i prezzi.
Devono smaltire le serie 3000, è evidente specie dopo il video di j2c, ma quantomeno pensavo ad un taglio dei prezzi della serie precedente.
Qui la fascia bassa (diciamo la vecchia venduta al posto delle 4060 in giù) è quella sotto i 1000 euro e la fascia medio-alta va dai 1000 ai 2000.
Avevo previsto tutto già ai tempi del gk104 venduto a 500 euro ma siamo arrivati alla follia.
E la colpa è anche di chi non capisce che 50% di performance in più con un aumento di prezzi del 20% è insostenibile alla lunga e non è un "affare" :doh: .
amon.akira
23-09-2022, 10:20
Quindi la strategia commerciale che paventai immetto poche schede sul mercato per mantenere i prezzi alti viene confermata che biricchino JHH :sofico:
si ma se ha già contrattualizzato tot volume per 2anni, può frenare all inizio ma poi ne avrà dopo di piu da smaltire, tranne se la domanda andasse a coprire l offerta.
oppure sono contratti parziali e al prossimo step diminuisce se ce ne bisogno.
Il bus di memoria della 4080 è da 192 bit, dalla serie 600 fino alle 3000 è sempre stato il bus delle xx60 (nella serie 600 era la 660ti).
Praticamente si pensava avessero rimarchiato la 4070 in 4080 12gb ma a guardare le specifiche forse hanno lanciato la 4080, 4070 e 4060ti cambiando solo il nome ed alzando i prezzi.
Devono smaltire le serie 3000, è evidente specie dopo il video di j2c, ma quantomeno pensavo ad un taglio dei prezzi della serie precedente.
Qui la fascia bassa (diciamo la vecchia venduta al posto delle 4060 in giù) è quella sotto i 1000 euro e la fascia medio-alta va dai 1000 ai 2000.
Avevo previsto tutto già ai tempi del gk104 venduto a 500 euro ma siamo arrivati alla follia.
E la colpa è anche di chi non capisce che 50% di performance in più con un aumento di prezzi del 20% è insostenibile alla lunga e non è un "affare" :doh: .
non puoi dirmi che la 4090 in realtà sarebbe dovuta essere la 4080 :P
l aumento prezzo colpisce molto quelle inferiori alla 4090
dove per un americano la 4090 ha subito solo il 7% di aumento rispetto alla 3090 (in europa +21%)
invece sempre per gli americani la 4080 16gb è +70% prezzo ed è perfino un taglio inferiore alla vecchia 3080 (in europa +92% prezzo)
thunderforce83
23-09-2022, 10:21
può anche decidere di restare come sta eh... :p
non è che bisogna per forza ragionare "4 è più di 3" e frega poco dei 4gb.
Si puoi restare anche con la 3080, si gioca benissimo lo sappiamo, d'altronde e' l'ultima xx80 che puo' definirsi una scheda dal buon rapporto qualita' prezzo
Intel?
Si, comunque credo anche nelle conclusioni dell'edit e quote che ho aggiunto dopo.
Nvidia sa che Lovelace non sia una grande gen di GPU e che viene rilasciata in una situazione economica globale sfavorevole alle vendite. Per cui gli sta bene lanciare questa generazione piuttosto deludente, a volumi bassi, ma mantenendo margini di guadagno per pezzo molto elevati e tenerli elevati via volumi non troppo elevati.
Probabilmente sanno anche abbastanza della gen 7000 di AMD da non preoccuparsi, il che dovrebbe preoccupare noi pero' :D
infatti...
amd lasciamo stare, lato gpu non esiste piu' dalla 290x che e' stata l'ultima scheda che combatteva quasi ad armi pari con le verdi...ma purtroppo a questi livelli adesso non hai concorrenza, il che va tutto a nostro sfavore, nvidia lo sa benissimo e carica la mano...
ninja750
23-09-2022, 10:21
La maggior parte delle speculazioni online dice che questo marketing e lancio vuole far apparire la 4090 molto piu conveniente rispetto alle flagship precedenti mentre le 4080 (entrambe) sono GPU di second'ordine lanciate a prezzi astronomici che verranno ribassati qualche topo dopo la release per alzare i volumi o verranno sostituite da versioni super/ti.
le 2 4080 non sono già chip full? come faranno a fare super/ti?
Goofy Goober
23-09-2022, 10:22
Il bus di memoria della 4080 è da 192 bit, dalla serie 600 fino alle 3000 è sempre stato il bus delle xx60 (nella serie 600 era la 660ti).
Praticamente si pensava avessero rimarchiato la 4070 in 4080 12gb ma a guardare le specifiche forse hanno lanciato la 4080, 4070 e 4060ti cambiando solo il nome ed alzando i prezzi.
Devono smaltire le serie 3000, è evidente specie dopo il video di j2c, ma quantomeno pensavo ad un taglio dei prezzi della serie precedente.
Qui la fascia bassa (diciamo la vecchia venduta al posto delle 4060 in giù) è quella sotto i 1000 euro e la fascia medio-alta va dai 1000 ai 2000.
Avevo previsto tutto già ai tempi del gk104 venduto a 500 euro ma siamo arrivati alla follia.
E la colpa è anche di chi non capisce che 50% di performance in più con un aumento di prezzi del 20% è insostenibile alla lunga e non è un "affare" :doh: .
e io che mi stupivo ai tempi della 680gtx che aveva il bus da 256, mai visto sulla top prima di allora, e dopo giunse la Titan... ma tutti dicevano che era ok tanto va più forte delle 580... ora mi devo stupire di nuovo!
ma ero io il pazzo all'epoca, e oggi ha fatto con lo stesso con il 192bit... epic capitalism is epic :sofico:
poi oh, se riescono a far nacere un mercato pc gaming che si regge sulle schede vendute solo da 800 a 3000 dollari, buon per loro.
ne devono raccimolare di nuovi clienti per far numeri al posto di tutti quelli che abbandoneranno non disposti a superare i 400 euro/dollari, o anche meno. I valori di oggi dicono che il grosso dell'utenza è li in mezzo.
Wow.
Questo nuovo DLSS3 mi ricorda tanto il black frame insertion/de-judder che usano le tv per creare l'effetto telenovela superfluido.
E io che mi sentivo strano ad usare SVP Smooth Video Player per farlo fare alla gpu mentre guardo i film di animazione a 60fps per non avere stuttering nelle scene di panning violento
Ora le schede video lo applicano ai videogiochi.
Ri-Wow
Anche a me sulla carta sembrano una "evoluzione" i mitici 120 Hz di motion compesation che metteva samsung 10/15 anni fa nei suoi tv lcd ....
Il black frame insertion è un concetto leggermente diverso, però magari lo metteranno in esclusiva nei tensor delle 5000 ...
DJurassic
23-09-2022, 10:27
io sono ancora indeciso, dipenderà da quanto facile sarà acquistarla al day one. Se salta prendo la 4080 16gb, quella da 12 nemmeno la prendo in considerazione avendo già una 3080 Ti.
Ti basterà mangiarti 2kg di prugne la sera prima e la scheda sarà tua :asd:
Goofy Goober
23-09-2022, 10:29
Anche a me sulla carta sembrano una "evoluzione" i mitici 120 Hz di motion compesation che metteva samsung 10/15 anni fa nei suoi tv lcd ....
Il black frame insertion è un concetto leggermente diverso, però magari lo metteranno in esclusiva nei tensor delle 5000 ...
:D
Ormai non stanno nemmeno più frame renderizzati, ma direttamente "inventati" dalle GPU.
La prossima volta che mi accusano di rovinare i film usando SVP saprò come difendermi :asd:
e io che mi stupivo ai tempi della 680gtx che aveva il bus da 256, mai visto sulla top prima di allora, e dopo giunse la Titan... ma tutti dicevano che era ok tanto va più forte delle 580... ora mi devo stupire di nuovo!
Lo so che sono vecchio, ma 256 bit è stato in precedenza il bus delle schede video top per diverse generazioni, prima di andare ai 384. Lato consumer dalle Matrox Pharelia e ATI Radeon 9700 (2002) fino alle GeForce 8800 GTX (2006), che sono solo 4 anni ma vedono 3 generazioni piene di schede video in mezzo:
Radeon 9000/x000/x1000 e GeForce 5000/6000/7000.
Professionalmente esistevano già da prima invece :) , mentre le precedenti consumer fascia alta erano solitamente 128 bit, tranne il particolare collegamento a 192 bit (se non erro) delle Voodoo/Voodoo 2.
DLSS3 is actually a bad technique.
Say an RT game runs at 30FPS (32ms+ input latency).
DLSS3 needs to wait 32ms to examine 2 whole frames + the DLSS3 processing time before generating a new frame
So:
40ms DLSS3 90fps vs
11ms native 90fps
Se questo è vero è proprio da buttare
Il DLSS3 aumenta la latenza, ed è un dato di fatto, e Nvidia per ricorrere ai ripari utilizzerà la tecnologia Reflex.
Quindi il DLSS3 è assolutamente sconsigliato per i giochi competitivi. :D
Poi bisognerà analizzare la questione artefatti.
Alla fine della fiera questo DLSS3 => 4x è veramente una figata :rotfl:
Dite che si può usare anche con altri ali?
Ho sempre letto che vanno utilizzati i cavi proprietari per evitare problemi.
Chissà se Asus si sbriga a tirar fuori un cavo simile.
Gli ho appena sganciato 3 bombe per il Thor ed è già outdated...:mad:
ASSOLUTAMENTE NO! :O
Non si usano i cavi (da non confondere con le prolunghe) di aziende diverse da quella produttrice, perché si danneggia l’alimentatore e di conseguenza i componenti del pc ;)
Ecco infatti credo che quell'alimentatore non sia supportato da quel cavo per un questione di potenza.
Le specifiche della 4090 richiedono esplicitamente un 850 w (da sito nvidia)
Come scritto in minuscolo sul sito nvidia: "Le prestazioni minime si basano su un PC configurato con processore Ryzen 9 5900X. I requisiti di alimentazione possono variare a seconda della configurazione del sistema"
Ma siete tutti orientati alla 4090 ?
Come cambia il mondo :fagiano:
Prima della presentazione si, ora sono MOLTO scettico e, soprattutto, non ho voglia di dare i miei soldi ad una azienda che pensa che i suoi clienti sono stupidi. :muro:
Personalmente ora aspetto AMD.
Predator_1982
23-09-2022, 10:32
Ti basterà mangiarti 2kg di prugne la sera prima e la scheda sarà tua :asd:
esatto :D :D
Predator_1982
23-09-2022, 10:33
Il DLSS3 aumenta la latenza, ed è un dato di fatto, e Nvidia per ricorrere ai ripari utilizzerà la tecnologia Reflex.
Quindi il DLSS3 è assolutamente sconsigliato per i giochi competitivi. :D
Poi bisognerà analizzare la questione artefatti.
Alla fine della fiera questo DLSS3 => 4x è veramente una figata :rotfl:
Però da quanto ho visto su alcuni leaks di test con CyberPunk, sembra addirittura diminuire la latenza con DLSS attivo oltre che addirittura diminuire il consumo.
Il DLSS3 aumenta la latenza, ed è un dato di fatto, e Nvidia per ricorrere ai ripari utilizzerà la tecnologia Reflex.
Quindi il DLSS3 è assolutamente sconsigliato per i giochi competitivi. :D
Poi bisognerà analizzare la questione artefatti.
Alla fine della fiera questo DLSS3 => 4x è veramente una figata :rotfl:
ASSOLUTAMENTE NO! :O
Non si usano i cavi (da non confondere con le prolunghe) di aziende diverse da quella produttrice, perché si danneggia l’alimentatore e di conseguenza i componenti del pc ;)
Come scritto in minuscolo sul sito nvidia: "Le prestazioni minime si basano su un PC configurato con processore Ryzen 9 5900X. I requisiti di alimentazione possono variare a seconda della configurazione del sistema"
Prima della presentazione si, ora sono MOLTO scettico e, soprattutto, non ho voglia di dare i miei soldi ad una azienda che pensa che i suoi clienti sono stupidi. :muro:
Personalmente ora aspetto AMD.
certamente, infatti nei competitivi non vai a guardare la grafica ma solamente nel avere quanti + fps alti e stabili
Ed io che ne so :asd:
@lordsnk bravo non comprare la 4090. Tutti seguiate il suo esempio. Miraccomando ;)
qui nessuno punta alla 4090.
:Perfido:
Gigibian
23-09-2022, 10:57
Il mio nuovo roito in firma pagato 489. :O
Cutter90
23-09-2022, 10:59
Sono 2 gen che corro al volo per acquistare il top di gamma. Ma sto giro non sensato davvero questa spinta. Per via dei giochi, per via che con la 3090 spesso gioco a quanto voglio giocare, per via del prezzo ecc ecc. Poi magari la 4090 la piglierò, ma con moooolta calma a sto giro
devAngnew
23-09-2022, 10:59
si ma se ha già contrattualizzato tot volume per 2anni, può frenare all inizio ma poi ne avrà dopo di piu da smaltire, tranne se la domanda andasse a coprire l offerta.
oppure sono contratti parziali e al prossimo step diminuisce se ce ne bisogno.
non puoi dirmi che la 4090 in realtà sarebbe dovuta essere la 4080 :P
l aumento prezzo colpisce molto quelle inferiori alla 4090
dove per un americano la 4090 ha subito solo il 7% di aumento rispetto alla 3090 (in europa +21%)
invece sempre per gli americani la 4080 16gb è +70% prezzo ed è perfino un taglio inferiore alla vecchia 3080 (in europa +92% prezzo)
Non nego mica i volumi contrattualizzati e prodotti o/in produzione, dopo tutto le schede le tiene in magazzino non credo tu conosca o hai fonti dei reali volumi (a lui poi gli costa meno di quel che pensi Mikael ne ha già parlato); JHH come ogni produttore ha il colte..lo dalla parte del manico fà come vuole poi deve anche tenersi buoni gli AIB :sofico: tutto si tien e noi clienti subiamo (non è che gli altri siano migliori AMD seguirà a ruota come Intel) :)
devAngnew
23-09-2022, 11:06
Ti conviene comprare il cavo che ho postato prima.
In questo caso eviti di usare l’adattatore che si trova nelle scatole delle 4000 e visto l'avviso di Nvidia, personalmente, non correi il rischio considerando il prezzo delle schede.
Ti vedo ferrato sui cavi mi consigli un cavo splitter PCIe 8 pin femmina a 2 maschio per il mio 850 watt ? :sofico:
amon.akira
23-09-2022, 11:09
Non nego mica i volumi contrattualizzati e prodotti o/in produzione, dopo tutto le schede le tiene in magazzino non credo tu conosca o hai fonti dei reali volumi (a lui poi gli costa meno di quel che pensi Mikael ne ha già parlato); JHH come ogni produttore ha il colte..lo dalla parte del manico fà come vuole poi deve anche tenersi buoni gli AIB :sofico: tutto si tien e noi clienti subiamo (non è che gli altri siano migliori AMD seguirà a ruota come Intel) :)
si ma non puoi conservarne e produrne piu di quanto ne vendi ad oltranza...o pensa di venderle o abbasserà subito dopo o avrà i magazzini pieni fino al 2025.
https://hd2.tudocdn.net/1046572?w=660&h=382
Predator_1982
23-09-2022, 11:09
Ti vedo ferrato sui cavi mi consigli un cavo splitter PCIe 8 pin femmina a 2 maschio per il mio 850 watt ? :sofico:
quale link era stato postato? a quale adattatore?
Gigibian
23-09-2022, 11:11
Cmq giocare con la 3080 ti era troppo scomodo ...370W diventava un forno la camera...ho deciso che il mio case non vedrá mai più schede sopra le 300W in OC...
ninja750
23-09-2022, 11:13
la 4080ti la fai facendo spezzatino di ad102, c'é un buco enorme.
Ne escono di TI e di super :D :D
va beh ma se parti da quello i costi sarebbero altissimi
sul fullizzare ad103 la differenza sarebbe troppo bassa imho
magic carpet
23-09-2022, 11:21
Il giochino di giacchetta ha funzionato perfettamente, d'altronde mica sono stupidi.
Mettono due 4080 ridicole a prezzi ancora più ridicoli e l'effetto è che la gente gli compra la 4090 a 2.000 euro :sofico:
Hanno imparato la lezione con le 3000.
La 3080 una schedona per il prezzo MSRP all'uscita e differenza di performance con la 3090 che non giustificava la spesa.
piperprinx
23-09-2022, 11:23
Voi tra le custom quale soluzione vedete meglio ?
La ASUS Strix (gigantesca) oppure la Suprim X che a mio avviso è più discreta come ingombro fisico e meno impertinente come design ?
La Strix 4090 la trovo meno bella della precedente Strix.
Mah, io sto cercando di capire se vale la pena aspettare la strix o andare (disponibilita' permettendo) di FE. Soprattutto perche' a sto giro l'alimentazione dovrebbe essere uguale per tutte senza distinzione di 2 e 3 pin come le 3090, per cui le prestazioni di boost dovrebbero essere piu' o meno tutte li', salvo bios castrati, come sembrerebbe anche dai primi numeri di videocardz.
Dell' estetica personalmente frega poco perche' tanto liquido, con il waterblock "di serie" mi sembra ci sia solo Gigabyte, ma immagino che uscira' un bel po' piu' avanti. Mi era balenata l'idea di moddare la MSI ibrida con l'aio.
Goofy Goober
23-09-2022, 11:23
Lo so che sono vecchio, ma 256 bit è stato in precedenza il bus delle schede video top per diverse generazioni, prima di andare ai 384. Lato consumer dalle Matrox Pharelia e ATI Radeon 9700 (2002) fino alle GeForce 8800 GTX (2006), che sono solo 4 anni ma vedono 3 generazioni piene di schede video in mezzo:
Radeon 9000/x000/x1000 e GeForce 5000/6000/7000.
Professionalmente esistevano già da prima invece :) , mentre le precedenti consumer fascia alta erano solitamente 128 bit, tranne il particolare collegamento a 192 bit (se non erro) delle Voodoo/Voodoo 2.
Le 8800GTX avevano bus a 384bit e le 8800GTS a 320bit (prima delle 8800GTS a 256) :D
Le precedenti si avevano bus a 256, diciamo che dall'era 8800GTX e 2900XT (che aveva il 512bit) fino alla 680 GTX le top avevano bus normalmente sopra i 256.
Predator_1982
23-09-2022, 11:25
Hanno imparato la lezione con le 3000.
La 3080 una schedona per il prezzo MSRP all'uscita e differenza di performance con la 3090 che non giustificava la spesa.
già, dici bene....pagata 719 la FE da Nvidia shop...momenti indimenticabili. Il cambio con la TI l'ho fatto praticamente quasi ad esborso 0 grazie ai miner assetati di schede non LHR
Ti vedo ferrato sui cavi mi consigli un cavo splitter PCIe 8 pin femmina a 2 maschio per il mio 850 watt ? :sofico:
Gli splitter PCIe si usano per le mining rig. :confused:
Tu che cosa ci vuoi fare? Usare un accrocchio del genere per giocare è altamente sconsigliato soprattutto su GPU di fascia alta. ;)
Ale55andr0
23-09-2022, 11:33
Il giochino di giacchetta ha funzionato perfettamente, d'altronde mica sono stupidi.
Mettono due 4080 ridicole a prezzi ancora più ridicoli e l'effetto è che la gente gli compra la 4090 a 2.000 euro :sofico:
ci crederò quando le firme qui si riempiranno di 4080 12gb
Ale55andr0
23-09-2022, 11:40
Quasi quasi... tanto i 4gb in più della 4080/16 non mi servono :asd:
Però solo se la Meloni non toglie il RDC altrimenti è un casino.
non mi interesso di politica (non voto) ma spero di vederlo bandito prima di ieri il reddito di fancazzinanza. Ci sta sacco di gente qui dalle mie parti che non ne ha diritto e glielo pagano gli altri stronzi in regola. Una vergogna fatta per comprarsi i voti dei soliti "più intelligenti" degli altri
/OT
Stavo cazzeggiando su Amazon e alla fine mi sono reso conto che con 900€ mi prendo una rx 6950XT e con il resto dei 2k mi posso prendere questo (https://www.amazon.it/LG-OLED48C24LA-Processore-Precision-Assistant/dp/B09TBFWXSZ/ref=sr_1_1?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FIYN94KANRL5&keywords=LG+OLED48C24LA&qid=1663929516&sprefix=lg+oled48c24la+%2Caps%2C91&sr=8-1) :sofico:
Altro che 4090 :asd:
craesilo
23-09-2022, 11:43
ci crederò quando le firme qui si riempiranno di 4080 12gb
4090?
Gigibian
23-09-2022, 11:44
Stavo cazzeggiando su Amazon e alla fine mi sono reso conto che con 900€ mi prendo una rx 6950XT e con il resto dei 2k mi posso prendere questo (https://www.amazon.it/LG-OLED48C24LA-Processore-Precision-Assistant/dp/B09TBFWXSZ/ref=sr_1_1?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FIYN94KANRL5&keywords=LG+OLED48C24LA&qid=1663929516&sprefix=lg+oled48c24la+%2Caps%2C91&sr=8-1) :sofico:
Altro che 4090 :asd:
Su Amazon ci sono 3090 a 1029 euro
3080 ti a 940
3080 12 a 820
6900xt a 800
Prezzi che seppur alti rendono ancora più fuori di testa queste nuove 4000
mikael84
23-09-2022, 11:46
https://videocardz.com/newz/nvidia-confirms-ada-102-103-104-gpu-specs-ad104-has-more-transistors-than-ga102
AD102: stampo da 608 mm², transistor 76,3B
AD103: stampo da 378,6 mm², transistor 45,9B
AD104: stampo da 294,5 mm², transistor 35,8B
Ma vá meno di una 3090ti (IN RASTER) perché via tensor la saluta proprio come giusto che sia, good job:sofico: vedi cosa succede quando castri all'infinito...
AD104, sta addirittura sotto i 300mm2, follia, vedere il 2xx. I transistor sono elevatissimi per la densa cache l2 a 6tb/s
3060: 274mm2
1660ti: 284mm2
4080 12: 294mm2:p
Ale55andr0
23-09-2022, 11:49
4090?
No, perchè l'indice di "avicolosità ovaiola" saranno le 4080 "sceme" a sancirlo. Chi prende la 4090 sono i soliti entusiast che hanno i soldi (o li gestiscono in modo da poterlo fare) e amano avere il massimo, ci sta da parte loro avere la 4090 da ex 3080ti/90. Voglio invece vedere quanti della fascia 60/70 si metteranno quei due aborti 1000+ per capire in scala da 1 a 10 quando è fottuto il genere umano....
FrancoBit
23-09-2022, 11:49
Stavo cazzeggiando su Amazon e alla fine mi sono reso conto che con 900€ mi prendo una rx 6950XT e con il resto dei 2k mi posso prendere questo (https://www.amazon.it/LG-OLED48C24LA-Processore-Precision-Assistant/dp/B09TBFWXSZ/ref=sr_1_1?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FIYN94KANRL5&keywords=LG+OLED48C24LA&qid=1663929516&sprefix=lg+oled48c24la+%2Caps%2C91&sr=8-1) :sofico:
Altro che 4090 :asd:
Ste schede è già difficile digerirle per quello che sono, se le paragoni poi ad altri prodotti non hanno assoultamente senso di essere considerate lol
Ale55andr0
23-09-2022, 11:49
Stavo cazzeggiando su Amazon e alla fine mi sono reso conto che con 900€ mi prendo una rx 6950XT e con il resto dei 2k mi posso prendere questo (https://www.amazon.it/LG-OLED48C24LA-Processore-Precision-Assistant/dp/B09TBFWXSZ/ref=sr_1_1?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FIYN94KANRL5&keywords=LG+OLED48C24LA&qid=1663929516&sprefix=lg+oled48c24la+%2Caps%2C91&sr=8-1) :sofico:
Altro che 4090 :asd:
ma invece che la 6950 meglio la 6900 a 700....cioè a parte un po' di clock memoria è lo stesso prodotto a 200 in meno...
Per ora tutto fermo e scimmia tranquilla fintanto che vedo le recensioni sia delle 4000 che delle 7000.
E' l'unica cosa sensata da fare...
La cosa che più di ogni cosa mi frena, e per molti potrà sembrare una cazzata, non è il prezzo ma la consapevolezza che non ci sono giochi ne ora ne nell'immediato futuro che sfrutteranno una GPU di quelle caratteristiche. . C'è l'HW ma non c'è il software che lo metta su strada.
Non lo e'.. una cazzata
dai su il DLSS 1 faceva pena, PENA, poi ci hanno messo la pezza 1.1, il 2 è buono, il 3 si iniziano a vedere già artefatti mica da ridere, come ha riportato Alessandro ieri e oggi ho visto cose oscene su spiderman.
https://i.ibb.co/5FN2d0F/spiderman.jpg
Non è tutto oro quello che luccica, ma ancora liberi di credere alle slide dell'oste.
No, ripeto, non seguo più come prima ho perso proprio la voglia e ho visto l'altro giorno la presentazione e qualcosa che passa in questi giorni, come notizie, l'ultima il connettore nuovo che dura 30 plug e play :doh:
Sai bene che noi appassionati a volte diventiamo ciechi a causa dalla scimmia urlatrice, ma aspettiamo le recensioni, e' il minimo sindacale direi..
craesilo
23-09-2022, 11:51
No, perchè l'indice di "avicolosità ovaiola" saranno le 4080 "sceme" a sancirlo. Chi prende la 4090 sono i soliti entusiast che hanno i soldi (o li gestiscono in modo da poterlo fare) e amano avere il massimo, ci sta da parte loro avere la 4090 da ex 3080ti/90. Voglio invece vedere quanti della fascia 60/70 si metteranno quei due aborti 1000+ per capire in scala da 1 a 10 quando è fottuto il genere umano....
forse ho capito male, siccome si diceva che la tattica di jen era quella di far comprare solo le 90, avevi risposto che ci credevi solo se vedevi le firme piene di....
mikael84
23-09-2022, 11:55
Le 8800GTX avevano bus a 384bit e le 8800GTS a 320bit (prima delle 8800GTS a 256) :D
Le precedenti si avevano bus a 256, diciamo che dall'era 8800GTX e 2900XT (che aveva il 512bit) fino alla 680 GTX le top avevano bus normalmente sopra i 256.
Sui bus, bisogna dire che, si sono porcherie, almeno quello della 12, però ora la tendenza, vista l'ampia densità dei transistor, è mettere delle grosse l2 per sopperirli e migliorare un fattore che si chiama warp stall, ovvero i thread che sono in coda ed hanno molte latenze, in quanto la latenza delle ram è troppo elevata.
Chiaramente è molto complesso da spiegare.
Se le schede, avessero un rapporto simmetrico di bus, la 4090 dovrebbe avere 768bit.:)
ma invece che la 6950 meglio la 6900 a 700....cioè a parte un po' di clock memoria è lo stesso prodotto a 200 in meno...
La 6900 sta a 799€, ma avevo postato la 6950 giusto perché è la top di gamma.
Come rapporto prezzo-prestazioni la 6900 è la migliore :D
DarkNiko
23-09-2022, 12:25
Ma si può comprare con il RDC? Chiedo per amico :sofico:
Digli di trovarsi un lavoro che è più dignitoso. :D
nessuno29
23-09-2022, 12:29
Sai bene che noi appassionati a volte diventiamo ciechi a causa dalla scimmia urlatrice, ma aspettiamo le recensioni, e' il minimo sindacale direi..
Indipendenti possibilmente visto che le prime che usciranno saranno sotto contratto nvidia, quindi giochi scelti da nvidia e via discorrendo.
fraussantin
23-09-2022, 12:42
dai su il DLSS 1 faceva pena, PENA, poi ci hanno messo la pezza 1.1, il 2 è buono, il 3 si iniziano a vedere già artefatti mica da ridere, come ha riportato Alessandro ieri e oggi ho visto cose oscene su spiderman.
https://i.ibb.co/5FN2d0F/spiderman.jpg
Non è tutto oro quello che luccica, ma ancora liberi di credere alle slide dell'oste.
No, ripeto, non seguo più come prima ho perso proprio la voglia e ho visto l'altro giorno la presentazione e qualcosa che passa in questi giorni, come notizie, l'ultima il connettore nuovo che dura 30 plug e play :doh:
Cmq finche ti fa vedere il pacco di spiderman più piccolo , ci si puo passare sopra , l'importante è che non lo faccia anche sulle tette e sui culi dei personaggi femminili :asd:
thunderforce83
23-09-2022, 13:02
Cmq finche ti fa vedere il pacco di spiderman più piccolo , ci si puo passare sopra , l'importante è che non lo faccia anche sulle tette e sui culi dei personaggi femminili :asd:
Credo sempre che comunque molti stanno a fissarsi troppo su questi particolari e non considerano che comunque vengono rilasciati continuamente aggiornamenti e miglioramenti...
sicuramente e' uno strumento da rodare, ad esempio su metro exodus all'inizio il dlss era scandaloso, ma adesso a distanza di tempo e di patch e' diventato quasi perfetto...
https://www.hwupgrade.it/news/skvideo/le-nuove-geforce-rtx-3060-e-rtx-3060-ti-in-arrivo-alla-fine-di-ottobre_110051.html
si parla di una 3060ti con memoria gddr6x.
Secondo voi come sarà rispetto alla 3060ti classica? L'incremento prestazionale sarà risicato come dice l'articolo o potrebbe essere interessante?
mikael84
23-09-2022, 13:17
Cmq finche ti fa vedere il pacco di spiderman più piccolo , ci si puo passare sopra , l'importante è che non lo faccia anche sulle tette e sui culi dei personaggi femminili :asd:
Tomb raider va giocato DLSS off, in nativo.:p
Si é sotto i 300mm2 ti rendi conto?:rolleyes: roba da chippetti x60/x60ti, é un GA106 in pratica come die size, con la paraculata che ci hanno ficcato transistor a non finire aumentando la densitá.
Ai tempi ci lamentavamo dei 599/699$ della gtx 1080 con appena 314mm2, visto cil cambio pp da 28nm a 16nm, ma comunque c'era un bel gap prestazionale dalla precedente 980 che alla fine giustificava.
Questa scheduccia 4080/12 lato raster fará quanto una 3080ti, sti caxxi che casino, in pratica non c'é una scheda che a livello di chip sostituisca la 3080, loro fanno in fretta a fare 4080/12 sostituta di 3080/3080ti, ma la realtá non é quella mi spiace.
L'unica é la 4090 che sostituisce la 3090 liscia, infatti i rapporti tornano!
Credo che qui abbiamo oltrepassato il limite in maniera definitiva con sti chip che ci perculano:doh:
Resto della mia, se uno ha 1500/1600 ha anche 2000 euro, tanto vale comprare la 4090 che é tutt'altro pianeta, altrimenti si resta con quello che si ha, per chi é senza gpu si puó optare per delle 6900xt o 3080/3090 e che si fott@no
La tattica di vendere la piú costosa ormai é carta conosciuta, la fanno apparire come conveniente affiancando quelle due costosissime mid-high range, ma temo che ci sará uno shift di prezzo quando usciranno le Ti, vedasi oggi quanto costa una 3090, schede che andavano sulle 3000 euro LOL La vasella a sto giro é obbligatoria.
Le giustificazioni migliori sono l'aumento di wafer da 6000 a 17000. Beh questo è vero.
Considerando le rese di un wafer per quei die piccoli, ci passano circa 55-60$:p
Poi ok, PCB più complesso (gli induttori costano una fesseria), dissi migliorato.
Da 329 a 899, sono 570$ di aumento. Sicuramente tutti costi di produzione.:p
Alla fine i costi di produzione maggiori sono nella 4090, ed è prezzata quasi uguale.
A sto giro cmq si, uno o spende bene, o spendere 1500 euro, per la 4080 16, che è più una x70 anche quella è follia.
La x60 da 12 (perchè di quello parliamo dati tecnici alla mano) a 1100 è davvero follia. Poi per carità, sarà una 3090 con DLSS3.
https://www.hwupgrade.it/news/skvideo/le-nuove-geforce-rtx-3060-e-rtx-3060-ti-in-arrivo-alla-fine-di-ottobre_110051.html
si parla di una 3060ti con memoria gddr6x.
Secondo voi come sarà rispetto alla 3060ti classica? L'incremento prestazionale sarà risicato come dice l'articolo o potrebbe essere interessante?
La serie 3000 deve rimanere sullo scaffale :D
Se le 4080 sono state devastate è per vendere le 3000 con pochissimo sconto.
La pacchia è finita e la legge di Moore è ancora viva checché ne dica JJH ;)
Si aspetta AMD ora :sofico:
thunderforce83
23-09-2022, 13:33
https://www.hwupgrade.it/news/skvideo/le-nuove-geforce-rtx-3060-e-rtx-3060-ti-in-arrivo-alla-fine-di-ottobre_110051.html
si parla di una 3060ti con memoria gddr6x.
Secondo voi come sarà rispetto alla 3060ti classica? L'incremento prestazionale sarà risicato come dice l'articolo o potrebbe essere interessante?
Poca roba rispetto alla 3060ti normale.
Mi sembra un modo disperato da parte di nvidia, di rivendere tutti gli scarti usciti dalla fabbrica samsung 8nm, alias 10nm affinato:doh:
La serie 3000 deve rimanere sullo scaffale :D
Se le 4080 sono state devastate è per vendere le 3000 con pochissimo sconto.
La pacchia è finita e la legge di Moore è ancora viva checché ne dica JJH ;)
Si aspetta AMD ora :sofico:
Siamo daccordo, ma la legge di moore era morta da diversi anni cmq.
mikael84
23-09-2022, 13:43
La serie 3000 deve rimanere sullo scaffale :D
Se le 4080 sono state devastate è per vendere le 3000 con pochissimo sconto.
La pacchia è finita e la legge di Moore è ancora viva checché ne dica JJH ;)
Si aspetta AMD ora :sofico:
La legge di moore è morta, e wafer troppo cari. 55-60$ circa, rispetto il quasi pari die 3060. Quei 570$ sono giustificati.:asd:
Poca roba rispetto alla 3060ti normale.
Mi sembra un modo disperato da parte di nvidia, di rivendere tutti gli scarti usciti dalla fabbrica samsung 8nm, alias 10nm affinato:doh:
Si è un 10nm effettivo per gate.
O meglio la 3° gen dei 10nm samsung, di cui l'ultima chiamata 8 in quanto offriva una densità un tantino più alta, rispetto le prime versioni.
Lo step mezzo decente sarebbe stato il 7nm euv di samsung.:)
Gigibian
23-09-2022, 13:50
le X70 hanno sempre sfiorato (ma mai superato) le performance delle (X-1)80 TI...
con 6000 core e bus a 192 bit ci credo poco che stavolta la 3070 superi sempre e nettamente la 3080TI
l'avevo detto io :O
Solo che neanche si sono degnati di chiamarla 4070...ma 4080! Ed è una 4060!
paolox86
23-09-2022, 14:09
A questo giro passo anche io, mi sono fatto tutte le generazioni dalla GeForce 6800 ma adesso basta. C è un limite a tutto, per la generazione attuale COVID e Mining ok ma ora non accetto prezzi ulteriormente pompati. Speriamo nel futuro ma dubito che si potrà mai tornare indietro
fraussantin
23-09-2022, 14:13
A questo giro passo anche io, mi sono fatto tutte le generazioni dalla GeForce 6800 ma adesso basta. C è un limite a tutto, per la generazione attuale COVID e Mining ok ma ora non accetto prezzi ulteriormente pompati. Speriamo nel futuro ma dubito che si potrà mai tornare indietroEra meglio il mining.
Con un po di fortuna potevi prenderti una gpu a prezzi decenti.
Qui il listino è da truffa, e sulla piazza puo solo peggiorare ,almeno in un primo momento.
scorpion73
23-09-2022, 14:23
Era meglio il mining.
Con un po di fortuna potevi prenderti una gpu a prezzi decenti.
Qui il listino è da truffa, e sulla piazza puo solo peggiorare ,almeno in un primo momento.
Ma lo ha fatto apposta: durante il periodo di mining ha visto che la gente compra anche a prezzo indecente. Adesso che è finito il mining il prezzo indecente lo ha messo lui per continuare sulla stessa strada di profitto.
Solo non ha fatto i conti col fatto che il momento economico è differente, e non solo da noi, e che la gente ha finito i soldi o non ce li ha da sprecare arricchendo lui perché ha da pagare le bollette.. oltre al fatto che già col mining la gente si stava rompendo e sperava in una fine, quindi se lui continua di proposito non fa altro che far innervosire la gente, che non è cretina e lo capisce. E quando uno fa il furbo così si merita solo lo scaffale.
A questo giro passo anche io, mi sono fatto tutte le generazioni dalla GeForce 6800 ma adesso basta. C è un limite a tutto, per la generazione attuale COVID e Mining ok ma ora non accetto prezzi ulteriormente pompati. Speriamo nel futuro ma dubito che si potrà mai tornare indietro
Per quello ci stanno pensando altre forze in gioco, non temere. Certo bisogna considerare che si tornerà anche parecchio indietro...forse troppo... :D
fraussantin
23-09-2022, 14:28
Per quello ci stanno pensando altre forze in gioco, non temere. Certo bisogna considerare che si tornerà anche parecchio indietro...forse troppo... :DSe non si da una calmata lo zar , e pure gli americani che ci mettono del suo , finisce male. Ma male davvero.
fabietto76
23-09-2022, 14:29
Stavo cazzeggiando su Amazon e alla fine mi sono reso conto che con 900€ mi prendo una rx 6950XT e con il resto dei 2k mi posso prendere questo (https://www.amazon.it/LG-OLED48C24LA-Processore-Precision-Assistant/dp/B09TBFWXSZ/ref=sr_1_1?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FIYN94KANRL5&keywords=LG+OLED48C24LA&qid=1663929516&sprefix=lg+oled48c24la+%2Caps%2C91&sr=8-1) :sofico:
Altro che 4090 :asd:
e fai strabene per me! se solo abbassassero un pò il prezzo del maledetto 42' :muro:
bagnino89
23-09-2022, 14:30
Ma lo ha fatto apposta: durante il periodo di mining ha visto che la gente compra anche a prezzo indecente. Adesso che è finito il mining il prezzo indecente lo ha messo lui per continuare sulla stessa strada di profitto.
Solo non ha fatto i conti col fatto che il momento economico è differente, e non solo da noi, e che la gente ha finito i soldi o non ce li ha da sprecare arricchendo lui perché ha da pagare le bollette.. oltre al fatto che già col mining la gente si stava rompendo e sperava in una fine, quindi se lui continua di proposito non fa altro che far innervosire la gente, che non è cretina e lo capisce. E quando uno fa il furbo così si merita solo lo scaffale.
C'è anche da dire una cosa: il potere di acquisto di un italiano non è lo stesso di un americano. Per la mid-class americana, spendere 1000 dollari per una GPU è poca cosa. E il mercato italiano non conta niente su scala globale...
Thunder-74
23-09-2022, 14:31
si potesse almeno pagare con i buoni pasto :D
devil_mcry
23-09-2022, 14:31
ricordo i bei tempi andati quando una 80 costava 500€...
all'epoca non avevo i soldi e le gpu costano pochissimo ma ero all'università e quindi il grano era poco
oggi lavoro e giustamente le buttano a 1500€ lol
paolox86
23-09-2022, 14:33
Per quello ci stanno pensando altre forze in gioco, non temere. Certo bisogna considerare che si tornerà anche parecchio indietro...forse troppo... :D
Certo, hai ragione! Non volevo essere così tragico.. :)
Kostanz77
23-09-2022, 14:34
ricordo i bei tempi andati quando una 80 costava 500...
all'epoca non avevo i soldi e le gpu costano pochissimo ma ero all'università e quindi il grano era poco
oggi lavoro e giustamente le buttano a 1500 lol
Che vita amara :-)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma lo ha fatto apposta: durante il periodo di mining ha visto che la gente compra anche a prezzo indecente. Adesso che è finito il mining il prezzo indecente lo ha messo lui per continuare sulla stessa strada di profitto.
Solo non ha fatto i conti col fatto che il momento economico è differente, e non solo da noi, e che la gente ha finito i soldi o non ce li ha da sprecare arricchendo lui perché ha da pagare le bollette.. oltre al fatto che già col mining la gente si stava rompendo e sperava in una fine, quindi se lui continua di proposito non fa altro che far innervosire la gente, che non è cretina e lo capisce. E quando uno fa il furbo così si merita solo lo scaffale.
Aggiungo un particolare, eravamo in piena pandemia con la gente forzatamente in casa, quindi ci stava volere qualcosa per passare il tempo. Una bramosia di quel livello non c'è e non tornerà, le persone bene o male non sono a piedi, aspettano, non c'è nessuna necessità di correre ad acquistare questi roiti.
Io dico che le schede se le tira sul piede entro poco, quando vedrà che i magazzini non si vuotano.
Kostanz77
23-09-2022, 14:40
Io dico che le schede se le tira sul piede entro poco, quando vedrà che i magazzini non si vuotano.
Nei denti ancora meglio
Inviato dal mio iPhone utilizzando Tapatalk Pro
amon.akira
23-09-2022, 14:41
https://i.imgur.com/FNiFXbO.jpg
:sofico:
Io dico che le schede se le tira sul piede entro poco, quando vedrà che i magazzini non si vuotano.
Tu dici?
Io penso che solo in questo forum ci siano almeno una decina di persone (incluso me) che vogliono prendere la 4090 al lancio, non credo proprio che ne rimarranno molte....
Tu dici?
Io penso che solo in questo forum ci siano almeno una decina di persone (incluso me) che vogliono prendere la 4090 al lancio, non credo proprio che ne rimarranno molte....
Il suo problema sono le altre 2, soprattutto 4080 12, una vera ca@@ta. La 4090 è una bomba, anche nel prezzo.
smoggypeppe
23-09-2022, 14:45
https://www.hwupgrade.it/news/skvideo/le-nuove-geforce-rtx-3060-e-rtx-3060-ti-in-arrivo-alla-fine-di-ottobre_110051.html
si parla di una 3060ti con memoria gddr6x.
Secondo voi come sarà rispetto alla 3060ti classica? L'incremento prestazionale sarà risicato come dice l'articolo o potrebbe essere interessante?
Sarà risicato e in più quelle memorie prendono fuoco, lascerei proprio perdere. Anche perchè se boostasse parecchio andrebbe quanto la 3070 (già adesso hannoperformance simili), e a sto punto non avrebbe proprio senso.
Miii addirittura 10? In questo super forum? Giacchetta starà già stappando lo spumante allora :asd:
azz davvero???
scorpion73
23-09-2022, 14:46
C'è anche da dire una cosa: il potere di acquisto di un italiano non è lo stesso di un americano. Per la mid-class americana, spendere 1000 dollari per una GPU è poca cosa. E il mercato italiano non conta niente su scala globale...
E' vero ma anche negli USA non sta ricevendo commenti positivi.
E comunque anche per loro 1000 dollari restano 1000 dollari, non sono 2 centesimi. Ma indipendentemente da tutto è proprio il modo di fare che sta indispettendo la gente, anche chi i soldi ce li avrebbe.
scorpion73
23-09-2022, 14:48
Il suo problema sono le altre 2, soprattutto 4080 12, una vera ca@@ta. La 4090 è una bomba, anche nel prezzo.
Una bomba del portafoglio, sia per comprarla che per mantenerla, visto quanto consuma.. Vedila così, almeno ci cuoci le uova sul backplate e risparmi il gas.... :D
ricordo i bei tempi andati quando una 80 costava 500€...
all'epoca non avevo i soldi e le gpu costano pochissimo ma ero all'università e quindi il grano era poco
oggi lavoro e giustamente le buttano a 1500€ lol
Come ti capisco. Ai tempi di Pascal, mi ero deciso ad andare di 1080 aspettandomi un prezzo intorno a 500 euro e nvidia piazza la founders a 800. Due anni fa avevo deciso di farmi il PC nuovo senza badare a spese (relativamente, puntavo alla 3080) e le schede sono diventate introvabili. Volevo riprovarci adesso con l'uscita della nuova generazione, e mi raddoppiano i prezzi della x80.
C'è da sperare che le schede gli rimangano in magazzino, ma dubito fortemente che accadrà.
Un leaker ha scoperto che nella 4090 c'è il 5G e fa ammalare, non la comprate!!
Una bomba del portafoglio, sia per comprarla che per mantenerla, visto quanto consuma.. Vedila così, almeno ci cuoci le uova e risparmi il gas.... :D
uhmm pensavo ad una cosa, se la compro poi posso staccare il riscaldamento invernale, ci pensa lei a fare il calduccio. Tutto sommato risparmio :sofico:
Goofy Goober
23-09-2022, 14:52
https://i.imgur.com/FNiFXbO.jpg
:sofico:
epic :D
Tu dici?
Io penso che solo in questo forum ci siano almeno una decina di persone (incluso me) che vogliono prendere la 4090 al lancio, non credo proprio che ne rimarranno molte....
In italia non ne rimarrà nessuna, anzi mi stupirei se ne hanno dedicate già 10 al nostro mercato :asd:
alethebest90
23-09-2022, 14:55
Come ti capisco. Ai tempi di Pascal, mi ero deciso ad andare di 1080 aspettandomi un prezzo intorno a 500 euro e nvidia piazza la founders a 800. Due anni fa avevo deciso di farmi il PC nuovo senza badare a spese (relativamente, puntavo alla 3080) e le schede sono diventate introvabili. Volevo riprovarci adesso con l'uscita della nuova generazione, e mi raddoppiano i prezzi della x70. fixed
C'è da sperare che le schede gli rimangano in magazzino, ma dubito fortemente che accadrà.
:D :D
amon.akira
23-09-2022, 14:57
Come ti capisco. Ai tempi di Pascal, mi ero deciso ad andare di 1080 aspettandomi un prezzo intorno a 500 euro e nvidia piazza la founders a 800. Due anni fa avevo deciso di farmi il PC nuovo senza badare a spese (relativamente, puntavo alla 3080) e le schede sono diventate introvabili. Volevo riprovarci adesso con l'uscita della nuova generazione, e mi raddoppiano i prezzi della x80.
C'è da sperare che le schede gli rimangano in magazzino, ma dubito fortemente che accadrà.
puoi ancora prendere una 3080 a 800 che andrà come una 4080 12gb senza dlss3 a 1100
nell usato risparmi anche qualcosina...ne ho una io in vendita nel mercatino
:D :DVedendola così il prezzo è triplicato, ancora peggio:P
puoi ancora prendere una 3080 a 800 che andrà come una 4080 12gb senza dlss3 a 1100
nell usato risparmi anche qualcosina...ne ho una io in vendita nel mercatino
La 3080 la prenderei in considerazione se ci fosse stato un significativo price cut, non a MSRP due anni dopo l'uscita. Lo so che Jensen dice che i cali di prezzo sono una cosa del passato, ma per certe cose sono un nostalgico.
Ho preso un portatile con 3080 (che non è la stessa cosa ovviamente, ma comunque un bel balzo rispetto alla 1070 che avevo) e andrò avanti con quello. Purtroppo io punto a giocare a 4k con più effetti possibile attivi, e per quello le 4000 avrebbero fatto molto comodo. Ma nella vita bisogna anche sapersi accontentare.
mikael84
23-09-2022, 15:01
https://i.imgur.com/FNiFXbO.jpg
:sofico:
Di quello parliamo, non lo facevo per essere drastico, hanno anche il die identico.:p
Il suo problema sono le altre 2, soprattutto 4080 12, una vera ca@@ta. La 4090 è una bomba, anche nel prezzo.
L'altra è stupenda, già è un chippetto da x70, per di più ha disabilitato 1000 cuda. :D
Sonpazzo
23-09-2022, 15:03
puoi ancora prendere una 3080 a 800 che andrà come una 4080 12gb senza dlss3 a 1100
nell usato risparmi anche qualcosina...ne ho una io in vendita nel mercatino
Ma dove avete visto che la 40 80 va come una 3080? Vi piace seguire il trend del trolling?
no_side_fx
23-09-2022, 15:07
https://www.hwupgrade.it/news/skvideo/le-nuove-geforce-rtx-3060-e-rtx-3060-ti-in-arrivo-alla-fine-di-ottobre_110051.html
si parla di una 3060ti con memoria gddr6x.
Secondo voi come sarà rispetto alla 3060ti classica? L'incremento prestazionale sarà risicato come dice l'articolo o potrebbe essere interessante?
sta roba l'avevano già fatta con la 1060, uscita dopo un bel po' la versione con memoria più spinta
risultato = non cambiava na sega :sofico:
amon.akira
23-09-2022, 15:07
Ma dove avete visto che la 40 80 va come una 3080? Vi piace seguire il trend del trolling?
dai piu o meno, fa 0.90 dalla 3090ti a 450w parlo senza dlss3, quindi magari è +10% ok? fai 50fps+10% sono 55fps, poi si dlss3 ma se poi sei il tipo che non ti piace e non lo usi paghi di piu per nulla.
prendi na 3080 a 650euro usata e vs 1100 che tira a 1200custom sono quasi la metà
Sonpazzo
23-09-2022, 15:10
È un 6% in meno della 3090ti, che asfaltata la 3080,ma ca di moda sputtanare sul nulla
mikael84
23-09-2022, 15:12
Ma dove avete visto che la 40 80 va come una 3080? Vi piace seguire il trend del trolling?
Obbiettivamente, dai 3 test, uno va come una 3090ti, quindi +25%, in uno -4% quindi a cavallo tra 3090 e 3090ti, nel peggiore -10, quindi +15 dalla 3080.
In media dovrebbe essere una 3090 male andando 3080ti.
Di cui però va precisato che in 4k il bus impatta e la cache è piccola, su un 1440p potrebbe avere meno colli.
Certo poi come dice Amon, una 3080 a 650 è decisamente meglio, anche senza DLSS3.
smoggypeppe
23-09-2022, 15:12
Asfaltava proprio non direi, a voler stare proprio larghi va un 20% in più.
E' vero ma anche negli USA non sta ricevendo commenti positivi.
E comunque anche per loro 1000 dollari restano 1000 dollari, non sono 2 centesimi. Ma indipendentemente da tutto è proprio il modo di fare che sta indispettendo la gente, anche chi i soldi ce li avrebbe.
Vabbè i 1000 dollari in america sono quasi i 200-300 euro nostri, nelle grandi città se prendi meno di 10k al mese sei sotto la soglia della povertà...
amon.akira
23-09-2022, 15:15
È un 6% in meno della 3090ti, che asfaltata la 3080,ma ca di moda sputtanare sul nulla
asfalta perchè paragoni la 3080 a 320w vs la 3090ti a 450w
io ho provato la 3090 400w vs la 3080 430w e c erano +8% in favore della 3090
e cmq il discorso non cambia, ci sono anche le 3090 a 1000 quindi se non vuoi spendere 650, spendi 1000 e hai piu vram e prestazioni uguali a -200euro ma senza dlss3
smoggypeppe
23-09-2022, 15:16
asfalta perchè paragoni la 3080 a 320w vs la 3090ti a 450w
io ho provato la 3090 400w vs la 3080 430w e c erano +8% in favore della 3090
e cmq il discorso non cambia, ci sono anche le 3090 a 1000 quindi se non vuoi spendere 650, spendi 1000 e hai piu vram e prestazioni uguali a -200euro ma senza dlss3
E sopratutto non hai un bus ristretto a 192bit che verosimilmente impatta in maniera importante ad elevate risoluzioni
scorpion73
23-09-2022, 15:17
Vabbè i 1000 dollari in america sono quasi i 200-300 euro nostri, nelle grandi città se prendi meno di 10k al mese sei sotto la soglia della povertà...
Ma loro hanno da pagare diverse cose in più rispetto a noi, vedi ad esempio assicurazione sanitaria (che sennò non hai ospedale in caso di necessità o cose simili).
E quella roba costa non te la regalano...
thunderforce83
23-09-2022, 15:17
Si è un 10nm effettivo per gate.
O meglio la 3° gen dei 10nm samsung, di cui l'ultima chiamata 8 in quanto offriva una densità un tantino più alta, rispetto le prime versioni.
Lo step mezzo decente sarebbe stato il 7nm euv di samsung.:)
Infatti!
Purtroppo all'epoca la scelta sbagliata per questo PP forse fu' dovuta ad accordi commerciali partiti tardi e male. Forse nvidia ha potuto dare la 3080 a prezzo buono anche grazie a questa scelta, ma adesso siamo noi appassionati di lungo corso, che praticamente vediamo come unico upgrade l'attuale 4090 al costo che tutti sappiamo...
secondo me non e' stata una grande mossa commerciale quella di nvidia...
amon.akira
23-09-2022, 15:19
Andrá quanto una 3090 piú o meno, non é che la 3080 sia molto sotto alla 3090, é un 88/90% della 3090.
dal 12-13% max in 4k.
a +20% una 3090 a paritá di frequenza non ci arriva, sulla 3080, manco per un caxxo.
e la 3090ti si posiziona appena sopra, +20% 3090ti 450w vs 3080 320w
queste erano le mie, 3080 con 50w in meno
https://www.3dmark.com/compare/spy/29345166/spy/24970128
in rt siamo sul +15%
amon.akira
23-09-2022, 15:24
dai firma aggiornata, mi sbilancio XD
no_side_fx
23-09-2022, 15:24
Ma loro hanno da pagare diverse cose in più rispetto a noi, vedi ad esempio assicurazione sanitaria (che sennò non hai ospedale in caso di necessità o cose simili).
E quella roba costa non te la regalano...
tra l'altro attualmente in USA hanno un'inflazione più alta della nostra non è che stiano messi bene eh... la più alta che abbiano mai avuto negli ultimi 40 anni
mikael84
23-09-2022, 15:28
Andrá quanto una 3090 piú o meno, non é che la 3080 sia molto sotto alla 3090, é un 88/90% della 3090.
dal 12-13% max in 4k
a +20% una 3090 a paritá di frequenza non ci arriva, sulla 3080, manco per un caxxo.
e la 3090ti si posiziona appena sopra, +20% 3090ti 450w vs 3080 320w
La 4070 quella che chiama lui, probabilmente sarà più orientato verso le 3080/12. Quella con 7168cc ed il bus a 160bit. Probabilmente in 1440p ricalcherà la situazione 2080 vs 1080ti, dove la prima era un tantino migliore, con il DLSS, ora 3.
Magari con quella fa 699$, e la 3080 non svaluta, come non svalutava la 1080TI.
mikael84
23-09-2022, 15:34
Infatti!
Purtroppo all'epoca la scelta sbagliata per questo PP forse fu' dovuta ad accordi commerciali partiti tardi e male. Forse nvidia ha potuto dare la 3080 a prezzo buono anche grazie a questa scelta, ma adesso siamo noi appassionati di lungo corso, che praticamente vediamo come unico upgrade l'attuale 4090 al costo che tutti sappiamo...
secondo me non e' stata una grande mossa commerciale quella di nvidia...
Lui dice che praticamente samsung con i 7nm non poteva garantirgli quei 15000 wafer mensili, quindi samsung, ha attrezzato il 10nm per dargli la densità che gli serviva.
Infatti lui la 3080 doveva farla uscire con GA103, quello con 7680cc. Non a caso questo chip, di grandi dimensioni è stato adattato ai notebook alla fine.
Di certo quel PP, poteva permettergli i 2250 o anche i 2300 in game.
Ora sta facendo il bello e cattivo tempo, in quanto si è ritrovato un boost assurdo di clock, e ci sta ritagliando le peggiori schifezze, tanto bene o male con +50% di clock vanno.
Con i 3nmE si parla di 18%, voglio vedere se non mette mano alla microarchitettura dove va.:)
La 4070 quella che chiama lui, probabilmente sarà più orientato verso le 3080/12. Quella con 7168cc ed il bus a 168bit. Probabilmente in 1440p ricalcherà la situazione 2080 vs 1080ti, dove la prima era un tantino migliore, con il DLSS, ora 3.
Magari con quella fa 699$, e la 3080 non svaluta, come non svalutava la 1080TI.
Eh, il problema è che scendendo ulteriormente di fascia ti ritrovi gli stessi prezzi attuali per prestazioni di ampere.
AD106 potrebbe addirittura avere una 4060 e 4060ti, quindi con uno stacco decisamente marginale dagli attuali chip come 3060ti/3070.
mikael84
23-09-2022, 15:40
168bit? 160bit:D
Si giá quel bus irrisorio fa proprio ridere, quindi sará da 10gb:stordita:
La vedo vicinissima a quella c@gata di 4080/12, perderá ben poco, in 1440p andrá come un proiettile, tipo una 3080/3080ti
Pardon, errore di battitura.:p
Si infatti dove dovrebbe essere destinata la 4050ti, pardon volevo dire 4070.:)
Eh, il problema è che scendendo ulteriormente di fascia ti ritrovi gli stessi prezzi attuali per prestazioni di ampere.
AD106 potrebbe addirittura avere una 4060 e 4060ti, quindi con uno stacco decisamente marginale dagli attuali chip come 3060ti/3070.
Sta tornando una situazione alla turing, li rt e dlss , ora con dlss3, ma il problema rispetto a turing è il cambio.
Metti che fa 699$ la 4050ti, pardon 4070, ti viene 850, oppure 499$ una 4060, oltre 600 per una 3070/ti con dlss3
scorpion73
23-09-2022, 16:06
Sta tornando una situazione alla turing, li rt e dlss , ora con dlss3, ma il problema rispetto a turing è il cambio.
Metti che fa 699$ la 4050ti, pardon 4070, ti viene 850, oppure 499$ una 4060, oltre 600 per una 3070/ti con dlss3
Però quella in Euro è una situazione che dipende dal cambio €-$ (non so se intendevi questo quando parli di cambio).
Lui non ragiona in Euro, ragiona in dollari, se poi il cambio ti aumenta del 22% per le tasse di una Europa che dissangua la gente a lui non gliene può fregare di meno.
Prima avevi il cambio che ti faceva pari e patta, adesso non ce l'hai più e quindi vedi un aumento ulteriore che però non è derivato dalle schede.
Ad esempio la 4090, la vedi a 2000 per via di questo motivo, mentre la 3090 quando è uscita la trovavi a un prezzo molto simile a quello in dollari perché il cambio ti annullava le tasse. Fossimo stati nella stessa situazione di due anni fa la 4090 la vedevi sui 1700.
Comunque sono prezzi allucinanti lo stesso e lui fa troppo il furbo.
Ale55andr0
23-09-2022, 16:09
Nei denti ancora meglio
Inviato dal mio iPhone utilizzando Tapatalk Pro
up to the ass is the way :O
nessuno29
23-09-2022, 16:09
Eh, il problema è che scendendo ulteriormente di fascia ti ritrovi gli stessi prezzi attuali per prestazioni di ampere.
AD106 potrebbe addirittura avere una 4060 e 4060ti, quindi con uno stacco decisamente marginale dagli attuali chip come 3060ti/3070.
Esatto avendo creato una fascia nuova verso l'alto (l'ennesima da 10 anni), le nuove schede di fascia media e bassa avranno prezzi da 3080 e 3070 con le stesse prestazioni.
mikael84
23-09-2022, 16:12
Però quella in Euro è una situazione che dipende dal cambio €-$ (non so se intendevi questo quando parli di cambio).
Lui non ragiona in Euro, ragiona in dollari, se poi il cambio ti aumenta del 22% per le tasse di una Europa che dissangua la gente a lui non gliene può fregare di meno.
Prima avevi il cambio che ti faceva pari e patta, adesso non ce l'hai più e quindi vedi un aumento ulteriore che però non è derivato dalle schede.
Ad esempio la 4090, la vedi a 2000 per via di questo motivo, mentre la 3090 quando è uscita la trovavi a un prezzo molto simile a quello in dollari perché il cambio ti annullava le tasse. Fossimo stati nella stessa situazione di due anni fa la 4090 la vedevi sui 1700.
Comunque sono prezzi allucinanti lo stesso e lui fa troppo il furbo.
SI si, praticamente, rispetto a quella situazione abbiamo il cambio sfavorevole.
699 es per la 4070, un pelo meglio la 3080 è come la 2080 vs 1080ti, solo che ora a noi ci costerebbe 850.
piperprinx
23-09-2022, 16:26
Abbi fede. Basta lasciargliele ammuffire sugli scaffali.
Vedi poi come abbassa la cresta il cretino :sofico:
Questa mi sembra di averla gia' sentita. Anche al lancio delle 3000.:D
narniagreen
23-09-2022, 16:27
https://i.imgur.com/FNiFXbO.jpg
:sofico:
Chissà che belle che saranno le barrette perf/cost delle 4000 inferiori alle 3000 tolta la 4090, ma dalla 4080 in giù si :asd:
Assurdo, sempre stato che le fasce enthusiast non seguissero il mercato per ovvi motivi, Jensen mo si inventa il contrario e spera che i polli abbocchino in fascia media o spingendo il compratore alla fascia sopra.
Speriamo davvero che gli rientri tutto in :ciapet:
mikael84
23-09-2022, 16:34
Chissà che belle che saranno le barrette perf/cost delle 4000 inferiori alle 3000 tolta la 4090, ma dalla 4080 in giù si :asd:
Assurdo, sempre stato che le fasce enthusiast non seguissero il mercato per ovvi motivi, Jensen mo si inventa il contrario e spera che i polli abbocchino in fascia media o spingendo il compratore alla fascia sopra.
Speriamo davvero che gli rientri tutto in :ciapet:
Fascia media, is the new 4030, 1 GPC pure smontato. 299$, 400 euro a noi, anzi a loro.:O
fraussantin
23-09-2022, 16:42
Questa mi sembra di averla gia' sentita. Anche al lancio delle 3000.:DSi ma le 3000 a scaffale non c'erano perche le compravano i miner, qui bisogna vedere quanti folli gamer ci sono.
Anche se le dovessero comprare in america, in uk , e in australia , se gli viene a mancare buona parte dell'Europa la muffa la faranno e come.
nessuno29
23-09-2022, 16:52
Ma se c'é stata gente negazionista che al lancio ci sputtava sopra quando ancora non si sapeva nulla della situazione che sarebbe arrivata dopo.
Guarda ho visto gente NEGAZIONISTA (QUELLI CHE IO NON CAMBIO, FANNO CACC@RE E BLA BLA VBLA) passare da 3080 a 3080ti/3090 ed infine 3090ti o gente passare da 6800xt a 6900xt per un gain di performance irrisorio, la gente uscí fuori di testa in quel periodo.
Aggiungo, pagandole piú del doppio, con tanto di servizio di bagarinaggio e trapanamento dell'orifizio, ora secondo te, se mettono una 4090 disponibile a 2000 euro non la comprano? suvvia..
Con le disponibilitá le venderanno, altroché, purtroppo per noi... e sará sempre peggio.
ERGO la 4090 la venderanno anche a 3000, vedrai.
Si ma in quel periodo stavamo tutti chiusi in casa, ed andava di moda la maratona gaming su Warzone, ora le cose sono diverse e ci sono altre distrazioni più importanti.
narniagreen
23-09-2022, 16:54
Diciamo anche che negli anni d'oro costavano poco le schede, io credo sia anche giusto che costino di più rispetto all'era 45-28-16 nm, sono uno stato dell'arte, magari i pcb no nel senso che bene o male le board sono quelle da anni riviste, ma i die e il loro sviluppo si, come il costo del silicio.
Però il limite credo sia stato superato almeno per noi in Italia, può essere anche un discorso di stipendi medi, che in Italia facciamo ridere rispetto al resto d'Europa o America, e quindi si è restii a dire che sia una cifra congrua.
E lo sto dicendo io che ho sempre cercato di spendere poco o il giusto guardando il perf/cost per il PC, ma dal punto di vista aziendale, se vendi e riesci a vendere, fanno bene.
Apple docet.
mikael84
23-09-2022, 16:59
Ma se c'é stata gente negazionista che al lancio ci sputtava sopra quando ancora non si sapeva nulla della situazione che sarebbe arrivata dopo.
Guarda ho visto gente NEGAZIONISTA (QUELLI CHE IO NON CAMBIO, FANNO CACC@RE E BLA BLA VBLA) passare da 3080 a 3080ti/3090 ed infine 3090ti o gente passare da 6800xt a 6900xt per un gain di performance irrisorio, la gente uscí fuori di testa in quel periodo.
Aggiungo, pagandole piú del doppio, con tanto di servizio di bagarinaggio e trapanamento dell'orifizio, ora secondo te, se mettono una 4090 disponibile a 2000 euro non la comprano? suvvia..
Con le disponibilitá le venderanno, altroché, purtroppo per noi... e sará sempre peggio.
ERGO la 4090 la venderanno anche a 3000, vedrai.
Bisogna vedere la disponibilità. Se c'è disponibilità e costano tot, uno la compra, ma a rivenderla è incasinato.
In questi due anni, non essendoci disponibilità, gli scalper ci hanno mangiato troppo, ho visto troppa gente, che veniva da schede max 300 euro di anni fa, cambiare tutte le sigle di nvidia e AMD.
Tanto prendeva 1 e rivendeva al doppio, e così via.
Se i prezzi saranno altissimi, ma con minima disponibilità, la gente prima o poi gliele lascia (magari nei primi mesi, potrebbe esserci poca disponibilità ma prima o poi si assesterà).
La fine che ha fatto la 3090ti con disponibilità fa riflettere.
piperprinx
23-09-2022, 17:02
Si ma le 3000 a scaffale non c'erano perche le compravano i miner, qui bisogna vedere quanti folli gamer ci sono.
Anche se le dovessero comprare in america, in uk , e in australia , se gli viene a mancare buona parte dell'Europa la muffa la faranno e come.
basta riuscire a prenderle senza il delirio delle 3000....
thunderforce83
23-09-2022, 17:08
Lui dice che praticamente samsung con i 7nm non poteva garantirgli quei 15000 wafer mensili, quindi samsung, ha attrezzato il 10nm per dargli la densità che gli serviva.
Infatti lui la 3080 doveva farla uscire con GA103, quello con 7680cc. Non a caso questo chip, di grandi dimensioni è stato adattato ai notebook alla fine.
Di certo quel PP, poteva permettergli i 2250 o anche i 2300 in game.
Ora sta facendo il bello e cattivo tempo, in quanto si è ritrovato un boost assurdo di clock, e ci sta ritagliando le peggiori schifezze, tanto bene o male con +50% di clock vanno.
Con i 3nmE si parla di 18%, voglio vedere se non mette mano alla microarchitettura dove va.:)
Infatti samsung si trovo' in serie difficolta' a produrre chip cosi' grandi e mai prodotti prima, adesso la musica e' cambiata, hanno il miglior nodo disponibile e chip in quantita'...ma qualcosa mi dice che non avremo i sold out visti in questi ultimi due anni con la serie 3xxx...
con i 3nm sicuramente fara' sempre la parte del leone, perche' a livello di azienda nessuno puo' arrivare ad una bestia come invidia (quantita' e qualita' di ingegneri, risorse ecc ecc) il problema e' che io inizio a vedere sempre piu' bastone e meno carota per i giocatori pcisti:D :sofico:
Gyammy85
23-09-2022, 17:16
Ma se c'é stata gente negazionista che al lancio ci sputtava sopra quando ancora non si sapeva nulla della situazione che sarebbe arrivata dopo.
Guarda ho visto gente NEGAZIONISTA (QUELLI CHE IO NON CAMBIO, FANNO CACC@RE E BLA BLA VBLA) passare da 3080 a 3080ti/3090 ed infine 3090ti o gente passare da 6800xt a 6900xt per un gain di performance irrisorio, la gente uscí fuori di testa in quel periodo.
Aggiungo, pagandole piú del doppio, con tanto di servizio di bagarinaggio e trapanamento dell'orifizio, ora secondo te, se mettono una 4090 disponibile a 2000 euro non la comprano? suvvia..
Con le disponibilitá le venderanno, altroché, purtroppo per noi... e sará sempre peggio.
ERGO la 4090 la venderanno anche a 3000, vedrai.
Il punto è che la 4090 ha più del doppio dei cuda core della 4080 da 12, è proprio una lineup assurda
DJurassic
23-09-2022, 17:17
basta riuscire a prenderle senza il delirio delle 3000....
Il delirio delle 3000 non si ripeterà più. Per me è stata la somma di tante cause verificatesi nel medesimo lasso di tempo.
Prezzo allettante + Crisi TSMC + Pandemia
Perchè è inutile girarci intorno, era già successo di non riuscire a trovare la scheda appena uscita disponibile nello shop al D1, ma che non lo sia stato per i quasi successivi 2 anni non s'era mai visto.
Il punto è che la 4090 ha più del doppio dei cuda core della 4080 da 12, è proprio una lineup assurda
Questa assurdità si chiama MARKETING :D
Il fine di JJH è quello di svuotare i magazzini delle 3000 senza rimetterci e rifilarti la 4090 dove ha il maggior margine di guadagno.
Per fare questo ha devastato la 4080.
In un secondo momento con i magazzini vuoti di 3000 e con la presenza delle 7000 di AMD farà uscire la VERA 4080.
albero77
23-09-2022, 17:29
Il delirio delle 3000 non si ripeterà più. Per me è stata la somma di tante cause verificatesi nel medesimo lasso di tempo.
Prezzo allettante + Crisi TSMC + Pandemia
Perchè è inutile girarci intorno, era già successo di non riuscire a trovare la scheda appena uscita disponibile nello shop al D1, ma che non lo sia stato per i quasi successivi 2 anni non s'era mai visto.
Ma non vorrei che questi centellinassero le quantità di nuove gpu per vendere le 30xx nei magazzini. Ormai non mi sorprenderei più di nulla. Ad ogni modo per una custom 4090 servono oltre 2k e a parte gli enthusiast conosco poche persone disposte a spendere tale cifra per l'upgrade. Certo qui siamo su hwup e ci sta, ma quanti realmente sono disposti a spendere oltre 2k oggi? E per giocare a cosa?:confused:
DJurassic
23-09-2022, 17:32
Ma non vorrei che questi centellinassero le quantità di nuove gpu per vendere le 30xx nei magazzini. Ormai non mi sorprenderei più di nulla. Ad ogni modo per una custom 4090 servono oltre 2k e a parte gli enthusiast conosco poche persone disposte a spendere tale cifra per l'upgrade. Certo qui siamo su hwup e ci sta, ma quanti realmente sono disposti a spendere oltre 2k oggi? E per giocare a cosa?:confused:
Sicuramente lo faranno, e difatti trovarle al D1 o nell'immediato seguito lo vedo altamente improbabile ma a differenza di quanto successo per la serie 30xx le schede continueranno ad essere prodotte e ci saranno immissioni continue sul mercato anche se non di stock esagerati per i motivi da te espressi.
Ma non vorrei che questi centellinassero le quantità di nuove gpu per vendere le 30xx nei magazzini. Ormai non mi sorprenderei più di nulla. Ad ogni modo per una custom 4090 servono oltre 2k e a parte gli enthusiast conosco poche persone disposte a spendere tale cifra per l'upgrade. Certo qui siamo su hwup e ci sta, ma quanti realmente sono disposti a spendere oltre 2k oggi? E per giocare a cosa?:confused:
Sarebbe MOLTO pericoloso in quanto hanno un surplus di chip ordinati a TSMC e più di tanto non possono chiudere i rubinetti.
alethebest90
23-09-2022, 17:38
Ma non vorrei che questi centellinassero le quantità di nuove gpu per vendere le 30xx nei magazzini. Ormai non mi sorprenderei più di nulla. Ad ogni modo per una custom 4090 servono oltre 2k e a parte gli enthusiast conosco poche persone disposte a spendere tale cifra per l'upgrade. Certo qui siamo su hwup e ci sta, ma quanti realmente sono disposti a spendere oltre 2k oggi? E per giocare a cosa?:confused:
penso sia un po da kamikaze una cosa del genere....mi tengo le schede in deposito di cui potrei fare maggiori guadagni, per svendere schede vecchie dove il guadagno sarebbe irrisorio ?
mmm non so frank
Questa assurdità si chiama MARKETING :D
Il fine di JJH è quello di svuotare i magazzini delle 3000 senza rimetterci e rifilarti la 4090 dove ha il maggior margine di guadagno.
Per fare questo ha devastato la 4080.
In un secondo momento con i magazzini vuoti di 3000 e con la presenza delle 7000 di AMD farà uscire la VERA 4080.
I chip quelli sono.
La 4080 su base AD103 è quella, al massimo possono tirarti fuori una 4080ti dagli scarti degli scarti di AD102 con 14k cuda e 320bit...
Il problema è dalla 4080 12GB a scendere che è qualcosa di osceno...
Comunque non è impossibile che tra un anno facciano un taglio dei prezzi, forse anche per questo EVGA ha proprio alzato le mani e girato le spalle.
albero77
23-09-2022, 17:42
Sarebbe MOLTO pericoloso in quanto hanno un surplus di chip ordinati a TSMC e più di tanto non possono chiudere i rubinetti.
Io OGGI a parte gli enthusiast non vedo altro mercato. Una volta che vendi a quel tot di "rompicoglioni" super appassionati con i soldi hai finito. Io con 2k la scorsa gen mi sono fatto tutta la build...E non era manco particolarmente economica.
Gigibian
23-09-2022, 18:52
I chip quelli sono.
La 4080 su base AD103 è quella, al massimo possono tirarti fuori una 4080ti dagli scarti degli scarti di AD102 con 14k cuda e 320bit...
Il problema è dalla 4080 12GB a scendere che è qualcosa di osceno...
Comunque non è impossibile che tra un anno facciano un taglio dei prezzi, forse anche per questo EVGA ha proprio alzato le mani e girato le spalle.
Tireranno fuori una 4080 super che sarà la vera 4080 ed una 4080 ti che sarà a metà tra questa e la 4090...coi nomi possono fare quello che vogliono in alto...
Il problema che se la 4080 12 é questa, la 4060 o 4070 saranno schede ridicole
devAngnew
23-09-2022, 18:54
quale link era stato postato? a quale adattatore?
this PCIe (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview)
si ma non puoi conservarne e produrne piu di quanto ne vendi ad oltranza...o pensa di venderle o abbasserà subito dopo o avrà i magazzini pieni fino al 2025.
https://hd2.tudocdn.net/1046572?w=660&h=382
C'è sempre l'incognito dei numeri, ma potrebbe continuare come stà facendo ora :sofico:
Gli splitter PCIe si usano per le mining rig. :confused:
Tu che cosa ci vuoi fare? Usare un accrocchio del genere per giocare è altamente sconsigliato soprattutto su GPU di fascia alta. ;)
Nessun mining cmq.
MI son sbagliato il mio ali ha 4 PCIe 8 trovato sul manuale online ho confuso il mio con quello che ho assembato ad un'amico non troppo tempo fa.
Cmq. ero orientato su questo o simili qui (https://it.aliexpress.com/item/1005003661036757.html)
mikael84
23-09-2022, 19:02
I chip quelli sono.
La 4080 su base AD103 è quella, al massimo possono tirarti fuori una 4080ti dagli scarti degli scarti di AD102 con 14k cuda e 320bit...
Il problema è dalla 4080 12GB a scendere che è qualcosa di osceno...
Comunque non è impossibile che tra un anno facciano un taglio dei prezzi, forse anche per questo EVGA ha proprio alzato le mani e girato le spalle.
Nvidia ci marcerà tantissimo con DLSS3, chiederà anche alle testate di esaltarlo tantissimo come feature.
Qua si sta paragonando la 4080 12 alla 3090 per i classici raster, ma se (faccio un esempio) su DL2 che è un mattone, cyberpunk, FS o altri, Ampere fa 60 DLSS2, e Lovelace fa 80 DLSS3. La 4080 12, risulta mediamente il 33% più veloce.
Vorrei giocare DL2, che è un mattone epocale in RT, che faccio prendo la 3090 che fa 60, o la 4080 12 che ne fa 80.
Tra un pò escono gli unreal come A plague tale. Una può fare 40 l'altra 60.
Alla fine, investendo sui tensor core HPC scorsi, perchè li investe davvero tanto, e guadagna pure più del gaming, si è ritrovato in questa posizione favorevole a lui e pessima per noi.
Il delirio delle 3000 non si ripeterà più. Per me è stata la somma di tante cause verificatesi nel medesimo lasso di tempo.
Prezzo allettante + Crisi TSMC + Pandemia
Perchè è inutile girarci intorno, era già successo di non riuscire a trovare la scheda appena uscita disponibile nello shop al D1, ma che non lo sia stato per i quasi successivi 2 anni non s'era mai visto.
Infatti avessi la certezza di poterla trovare con calma e di potermi scegliere la custom che fa al caso mio non andrei di D1 ma aspetterei.
Invece con questa insicurezza mi tocca provare.
fraussantin
23-09-2022, 19:11
Infatti avessi la certezza di poterla trovare con calma e di potermi scegliere la custom che fa al caso mio non andrei di D1 ma aspetterei.
Invece con questa insicurezza mi tocca provare.Ma quale prendi ? La 4090?
StylezZz`
23-09-2022, 19:15
Unboxing Zotac RTX 4090 AMP Extreme AIRO
https://www.youtube.com/watch?v=iBYIwtOt8cg
devAngnew
23-09-2022, 19:21
E sopratutto non hai un bus ristretto a 192bit che verosimilmente impatta in maniera importante ad elevate risoluzioni
Quello è da vedere, le 4000 hanno delle cache belle corpose :D
DJurassic
23-09-2022, 19:50
Nvidia ci marcerà tantissimo con DLSS3, chiederà anche alle testate di esaltarlo tantissimo come feature.
Qua si sta paragonando la 4080 12 alla 3090 per i classici raster, ma se (faccio un esempio) su DL2 che è un mattone, cyberpunk, FS o altri, Ampere fa 60 DLSS2, e Lovelace fa 80 DLSS3. La 4080 12, risulta mediamente il 33% più veloce.
Vorrei giocare DL2, che è un mattone epocale in RT, che faccio prendo la 3090 che fa 60, o la 4080 12 che ne fa 80.
Tra un pò escono gli unreal come A plague tale. Una può fare 40 l'altra 60.
Alla fine, investendo sui tensor core HPC scorsi, perchè li investe davvero tanto, e guadagna pure più del gaming, si è ritrovato in questa posizione favorevole a lui e pessima per noi.
Tutto giusto ma A Plague Tale non credo si rivelerà il mattone che molti temono. Va bene il cambio di Engine da UE4 a UE5 ma è un prodotto che uscirà anche su console e che avendolo visto in qualche video gameplay non mi pare nemmeno chissà cosa sul piano tecnico. Forse sarà solo il RT applicato ad ammazzare le prestazioni ma visto che sarà solo marginale a poche feature per me non sarà così esigente sul piano delle performance.
Spero ovviamente di non sbagliarmi.
Unboxing Zotac RTX 4090 AMP Extreme AIRO
https://www.youtube.com/watch?v=iBYIwtOt8cg
Il dissi a forma di tampax mi mancava, ora c'è :asd:
Infatti avessi la certezza di poterla trovare con calma e di potermi scegliere la custom che fa al caso mio non andrei di D1 ma aspetterei.
Invece con questa insicurezza mi tocca provare.
Per me il problema non sussiste, tanto sceglierei una FE sempre e comunque perchè a livello costruttivo con la serie 30xx si sono rivelate appunto le migliori. In ogni caso la liquiderei quindi anche avesse temp superiori alle custom pazienza.
devil_mcry
23-09-2022, 19:51
Unboxing Zotac RTX 4090 AMP Extreme AIRO
https://www.youtube.com/watch?v=iBYIwtOt8cg
saranno gusti ma le trinity/holo 3000 erano bellissime da vedere, questa non mi piace
Per i miei gusti trovo la zotac tra le più curate nel design.
Quella che è davvero brutta è la 4090 Strix, non so cosa si sia scolato giù il designer...
Nvidia ci marcerà tantissimo con DLSS3, chiederà anche alle testate di esaltarlo tantissimo come feature.
Qua si sta paragonando la 4080 12 alla 3090 per i classici raster, ma se (faccio un esempio) su DL2 che è un mattone, cyberpunk, FS o altri, Ampere fa 60 DLSS2, e Lovelace fa 80 DLSS3. La 4080 12, risulta mediamente il 33% più veloce.
Vorrei giocare DL2, che è un mattone epocale in RT, che faccio prendo la 3090 che fa 60, o la 4080 12 che ne fa 80.
Tra un pò escono gli unreal come A plague tale. Una può fare 40 l'altra 60.
Alla fine, investendo sui tensor core HPC scorsi, perchè li investe davvero tanto, e guadagna pure più del gaming, si è ritrovato in questa posizione favorevole a lui e pessima per noi.
Per me la cosa migliore è attendere l'uscita delle AMD, dato che Nvidia giocherà moltissimo con il DLSS3, verrebbe spontaneo pensare che AMD spinga un pò più in raster a pari fasci di prezzo.
albero77
23-09-2022, 20:08
Tutto giusto ma A Plague Tale non credo si rivelerà il mattone che molti temono. Va bene il cambio di Engine da UE4 a UE5 ma è un prodotto che uscirà anche su console e che avendolo visto in qualche video gameplay non mi pare nemmeno chissà cosa sul piano tecnico. Forse sarà solo il RT applicato ad ammazzare le prestazioni ma visto che sarà solo marginale a poche feature per me non sarà così esigente sul piano delle performance.
Il fatto che vada bene su console non significa che automaticamente possa girare bene su pc e aggiungo purtroppo. Il primo l'ho giocato su 2080ti ed era ottimizzato, almeno al lancio, maluccio. Di fatto è una grossa incognita ma la 4090 ha dalla sua parte il dlss3 che dovrebbe garantire delle prestazioni ottime. Certo se cosi non fosse sai che figura di merda...Sulla 3080 10G che ho adesso in 4k maxato immagino problemi per la quantità di vram...Di fatto è il primo gioco con motore ue5 che non mi lascia proprio ben sperare, ma che allo stesso tempo attendo con una certa impazienza.
DJurassic
23-09-2022, 20:10
Il fatto che vada bene su console non significa che automaticamente possa girare bene su pc e aggiungo purtroppo. Il primo l'ho giocato su 2080ti ed era ottimizzato, almeno al lancio, maluccio. Di fatto è una grossa incognita ma la 4090 ha dalla sua parte il dlss3 che dovrebbe garantire delle prestazioni ottime. Certo se cosi non fosse sai che figura di merda...Sulla 3080 10G che ho adesso in 4k maxato immagino problemi per la quantità di vram...Di fatto è il primo gioco con motore ue5 che non mi lascia proprio ben sperare, ma che allo stesso tempo attendo con una certa impazienza.
Dal girare male al necessitare di una 4090 con DLSS 3 per essere eseguito al massimo ce ne passa. Sarebbe oltremodo ridicolo visto che non è nè un open world nè tantomeno un gioco spaccamascella.
Il primo me lo sono sparato in 4K tutto al max con la 3080 con frame rate sempre ben oltre i 60 e non aveva nemmeno il DLSS. Questo sequel è vero che avrà un pò di RT aggiunto ma avrà anche il DLSS attivabile, per noi poveri mortali solo in 2.0
UE5 è fatto per girare anche su Nintendo Switch, a livello di scalabilità non cambierà nulla, ma sul fronte porting è un altro discorso e non è colpa dell'engine...
Ma con una 3080 la vram è l'ultimo dei pensieri, soprattutto con il DLSS.
E c'è da considerare che la 4070 avrà un cut a 160bit quindi 10GB di vram, e anche dal lato rosso la RX 7700 con 128bit dovrebbe avere 8GB.
this PCIe (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview)
MI son sbagliato il mio ali ha 4 PCIe 8 trovato sul manuale online ho confuso il mio con quello che ho assembato ad un'amico non troppo tempo fa.
Cmq. ero orientato su questo o simili qui (https://it.aliexpress.com/item/1005003661036757.html)
Questi adattatori sono accrocchi da mining.
Se l'alimentatore ha soli 2 cavi PCIe vuol dire che non ha la potenza per alimentare quel tipo di scheda e, se si usasse uno splitter del genere, per esempio con una 3080, si rischierebbe l'esplosione dell'alimentatore :D
Esatto accontentatevi e non prendete la 4090 :D
E magari aspettiamo la risposta di AMD :D
Kostanz77
23-09-2022, 21:10
Esatto accontentatevi e non prendete la 4090 :D
Sei un disco rotto :-)
Inviato dal mio iPhone utilizzando Tapatalk Pro
DJurassic
23-09-2022, 21:22
E magari aspettiamo la risposta di AMD :D
Che non arriverà mai.
mikael84
23-09-2022, 21:26
Tutto giusto ma A Plague Tale non credo si rivelerà il mattone che molti temono. Va bene il cambio di Engine da UE4 a UE5 ma è un prodotto che uscirà anche su console e che avendolo visto in qualche video gameplay non mi pare nemmeno chissà cosa sul piano tecnico. Forse sarà solo il RT applicato ad ammazzare le prestazioni ma visto che sarà solo marginale a poche feature per me non sarà così esigente sul piano delle performance.
Spero ovviamente di non sbagliarmi.
Lo spero, perchè dovrò adattarmi momentaneamente. :p
Cmq era giusto per fare un esempio.
Per i miei gusti trovo la zotac tra le più curate nel design.
Quella che è davvero brutta è la 4090 Strix, non so cosa si sia scolato giù il designer...
Per me la cosa migliore è attendere l'uscita delle AMD, dato che Nvidia giocherà moltissimo con il DLSS3, verrebbe spontaneo pensare che AMD spinga un pò più in raster a pari fasci di prezzo.
Ovviamente, mai che spenderei 1100 euro ed oltre per quella scheda la. Era giusto per sottolineare. E' anche buona norma avere sempre la situazione completa, che purtroppo, si completerà per entrambe al CES del 4 gennaio.
Chi vuole la 4090, è un conto, gli altri meglio attendano.:)
https://videocardz.com/press-release/sea-sonic-announces-rtx-40-ready-vertex-atx-3-0-pcie-gen5-power-supply
Ecco la PSU :)
amon.akira
23-09-2022, 22:17
https://videocardz.com/press-release/sea-sonic-announces-rtx-40-ready-vertex-atx-3-0-pcie-gen5-power-supply
Ecco la PSU :)
gennaio praticamente
ottimi
Ma quale prendi ? La 4090?
Mi sembra l'unica sensata da prendere dopo la 3090.
Per me il problema non sussiste, tanto sceglierei una FE sempre e comunque perchè a livello costruttivo con la serie 30xx si sono rivelate appunto le migliori. In ogni caso la liquiderei quindi anche avesse temp superiori alle custom pazienza.
Io non liquido mai le schede video, in genere preferisco le custom per le versioni personalizzate che tirano fuori con un occhio alle prestazioni.
Magari ti prendi un buon dissipatore con un po di OC di fabbrica.
Comunque sia cambia davvero poco, non faccio mai OC ne liquido ne sto a guardare troppo i numeri.
Proverò con la FE se ho tempo, male male la rivendo.
fraussantin
24-09-2022, 04:16
Buongiorno e ridiamoci su
https://youtu.be/6nHzMoOpA1I
davide155
24-09-2022, 05:29
Buongiorno e ridiamoci su
https://youtu.be/6nHzMoOpA1IQuesto signore mi spezza ogni volta che lo vedo :D
Comunque qua c'è jayztwocent che parla del nuovo connettore e butta letame a secchiate su nvidia :asd:
Rischio di fuoco e rischio di pin piegati, che aumenterebbero esponenzialmente il già alto rischio di sovraccarico su altri pin dell'adattatore.
https://youtu.be/K6FiGEAp928
caccapupu91
24-09-2022, 06:04
@davide155
ho avuto vari flashback di riparazioni a scaldabagni con prese cinesi :asd:
sertopica
24-09-2022, 06:31
Questo signore mi spezza ogni volta che lo vedo :D
Comunque qua c'è jayztwocent che parla del nuovo connettore e butta letame a secchiate su nvidia :asd:
Rischio di fuoco e rischio di pin piegati, che aumenterebbero esponenzialmente il già alto rischio di sovraccarico su altri pin dell'adattatore.
https://youtu.be/K6FiGEAp928
Forse fra poco lanceranno un servizio tipo applecare. :stordita:
Ma poi i connettori a numero di connessioni e disconnessioni limitate sono un'oscenita'.
fraussantin
24-09-2022, 07:02
Forse fra poco lanceranno un servizio tipo applecare. :stordita:
Ma poi i connettori a numero di connessioni e disconnessioni limitate sono un'oscenita'.si vede che oltre che alla nvidiacare apriranno uno store di adattatori usa e getta , come la mela :asd:
Ovviamente, mai che spenderei 1100 euro ed oltre per quella scheda la. Era giusto per sottolineare. E' anche buona norma avere sempre la situazione completa, che purtroppo, si completerà per entrambe al CES del 4 gennaio.
Chi vuole la 4090, è un conto, gli altri meglio attendano.:)
Figurati su questo concordo in pieno...
Giacchetta sta giocando sul fatto che le 3080ti e 3090 si trovano nuove sui 950-1200€, quindi cosa fai? Ti prendi una 3090 con 24GB o la 4080 che va come 3090ti e con il DLSS 3?
E' uno schifo, senza mezzi termini.
E probabilmente riproporrà lo stesso schema per le fasce inferiori, soprattutto la 4060 potrebbe fare un cut molto brutale di AD106 considerando l'enorme margine con la precedente 3060...
Bisogna incrociare le dita che amd non avendo un'alternativa al DLSS 3, punti a offrire di più in raster e con prezzi più interessanti.
Se uno ha soldi da buttare tanto vale andare dritti sulla 4090 che almeno offre realmente qualcosa in più...
mircocatta
24-09-2022, 09:06
Forse fra poco lanceranno un servizio tipo applecare. :stordita:
Ma poi i connettori a numero di connessioni e disconnessioni limitate sono un'oscenita'.
pff, basta collegarla e scollegarla dal lato opposto del connettore, non dalla gpu
https://media.makeameme.org/created/im-a-genius-5ab2a7.jpg
fraussantin
24-09-2022, 09:09
pff, basta collegarla e scollegarla dal lato opposto del connettore, non dalla gpu
https://media.makeameme.org/created/im-a-genius-5ab2a7.jpgSi a questo ci avevamo pensato tutti , sulla prolunga mini .
Ma con l'alimentatore che ha il connettore da ambo le parti come fai?
Ti porti l'alimemtatore appresso alla scheda? :asd:
Ale55andr0
24-09-2022, 09:11
Figurati su questo concordo in pieno...
Giacchetta sta giocando sul fatto che le 3080ti e 3090 si trovano nuove sui 950-1200€, quindi cosa fai? Ti prendi una 3090 con 24GB o la 4080 che va come 3090ti e con il DLSS 3?
E' uno schifo, senza mezzi termini.
E probabilmente riproporrà lo stesso schema per le fasce inferiori, soprattutto la 4060 potrebbe fare un cut molto brutale di AD106 considerando l'enorme margine con la precedente 3060...
Bisogna incrociare le dita che amd non avendo un'alternativa al DLSS 3, punti a offrire di più in raster e con prezzi più interessanti.
Se uno ha soldi da buttare tanto vale andare dritti sulla 4090 che almeno offre realmente qualcosa in più...
il mondo della grafica dei games si sta spostando all'RT, che cosa dovrebbe cambiarci offrendo di più in raster quando in raster persino il roito tira tutto?
Devono averlo migliorato come si deve l'RT ed avere prezzi non dico bassi (ormai...) ma con il senso del pudore....
mircocatta
24-09-2022, 09:12
Figurati su questo concordo in pieno...
Giacchetta sta giocando sul fatto che le 3080ti e 3090 si trovano nuove sui 950-1200€, quindi cosa fai? Ti prendi una 3090 con 24GB o la 4080 che va come 3090ti e con il DLSS 3?
.
le considerazioni da fare sono molto semplici: quanti giochi sfruttano o sfrutteranno il dlss 3 ? e su quelli che lo sfruttano, quanti non presentano bug/lag da poter dire che "ok, ne vale la pena" ? personalmente, se devo fare da beta tester per il dlss3 preferisco non averlo, almeno oggi
mircocatta
24-09-2022, 09:16
il mondo della grafica dei games si sta spostando all'RT, che cosa dovrebbe cambiarci offrendo di più in raster quando in raster persino il roito tira tutto?
Devono averlo migliorato come si deve l'RT ed avere prezzi non dico bassi (ormai...) ma con il senso del pudore....
io ci andrei cauto, dimentichi le console con RT nato vecchio, sono ancora ad inizio ciclo vitale.
finché ci saranno le scatolette, un RT degno di questo nome lo vedremo sempre sui soliti 1-2 giochi all'anno (forse).
Thunder-74
24-09-2022, 09:17
Comunque...
è stato riferito che 30 cicli di accoppiamento così limitati non sono una cosa straordinaria per un connettore di alimentazione. La stessa durata è prevista da qualsiasi connettore Molex rilasciato negli ultimi 20 anni. Ciò non cambia il fatto che è ancora la prima volta che ZOTAC fa una simile affermazione per il proprio connettore di alimentazione.
https://cdn.videocardz.com/1/2022/09/Molex-Mini-Fit-Power-Connector-768x616.png
Questa cosa mi ha fatto ricordare quando eoni anno fa, riportai un HDD al negozio ( un 1,7 Gigabyte di disco), dicendo che non sempre funzionava. Pagai 30.000 lire perchè era il mio cavo molex ad essere "lento" :fagiano:
fraussantin
24-09-2022, 09:19
Comunque...
è stato riferito che 30 cicli di accoppiamento così limitati non sono una cosa straordinaria per un connettore di alimentazione. La stessa durata è prevista da qualsiasi connettore Molex rilasciato negli ultimi 20 anni. Ciò non cambia il fatto che è ancora la prima volta che ZOTAC fa una simile affermazione per il proprio connettore di alimentazione.
https://cdn.videocardz.com/1/2022/09/Molex-Mini-Fit-Power-Connector-768x616.pngCmq per un uso domestico a 30 cicli non ci si arriva.
La cosa riguarda i tester e i recensori.
craesilo
24-09-2022, 09:24
Figurati su questo concordo in pieno...
Giacchetta sta giocando sul fatto che le 3080ti e 3090 si trovano nuove sui 950-1200€, quindi cosa fai? Ti prendi una 3090 con 24GB o la 4080 che va come 3090ti e con il DLSS 3?
E' uno schifo, senza mezzi termini.
E probabilmente riproporrà lo stesso schema per le fasce inferiori, soprattutto la 4060 potrebbe fare un cut molto brutale di AD106 considerando l'enorme margine con la precedente 3060...
Bisogna incrociare le dita che amd non avendo un'alternativa al DLSS 3, punti a offrire di più in raster e con prezzi più interessanti.
Se uno ha soldi da buttare tanto vale andare dritti sulla 4090 che almeno offre realmente qualcosa in più...
e così appunto si convalida la strategia di jen...meglio vendere una 4090 che 10-20-30 4080 16-12gb
non vedo motivi per non farsi bastare una 3090 liscia ad oggi
il mondo della grafica dei games si sta spostando all'RT, che cosa dovrebbe cambiarci offrendo di più in raster quando in raster persino il roito tira tutto?
Devono averlo migliorato come si deve l'RT ed avere prezzi non dico bassi (ormai...) ma con il senso del pudore....
Si, ovviamente dando per scontato che il RT migliori e si porti a livelli comparabili a Nvidia.
Intendevo che non avendo ancora un'alternativa al DLSS 3, può controbilanciare offrendo più potenza per chip e facendosi bastare l'FSR 2.0 se ce ne fosse bisogno.
e così appunto si convalida la strategia di jen...meglio vendere una 4090 che 10-20-30 4080 16-12gb
non vedo motivi per non farsi bastare una 3090 liscia ad oggi
Ma pure una 3080 liscia
Predator_1982
24-09-2022, 09:43
Si, ovviamente dando per scontato che il RT migliori e si porti a livelli comparabili a Nvidia.
Intendevo che non avendo ancora un'alternativa al DLSS 3, può controbilanciare offrendo più potenza per chip e facendosi bastare l'FSR 2.0 se ce ne fosse bisogno.
Ma pure una 3080 liscia
se le prestazioni in RT sulle RX 7000 saranno in linea o poco superiori a quelle di Ampere e si mantengono sui 1000 euro per la top di gamma, a questo giro rossi tutta la vita.
In ogni caso concordo, oggi come oggi chi ha una 3070 o superiore sta tranquillo per almeno altri 2 anni. Francamente, a mente più fredda, non so se giorno 12 cederò per la 4090..oggettivamente la 3080Ti che ho mi basta e avanza al momento. Probabilmente investirò per cambiare ali e passare al 13700K, predisponendomi per un eventuale nuova GPU al prossimo giro.
Mi sta quasi venendo voglia di cercare una dannata PS5 e abbandonare definitivamente il gaming su pc.
Si, ovviamente dando per scontato che il RT migliori e si porti a livelli comparabili a Nvidia.
Intendevo che non avendo ancora un'alternativa al DLSS 3, può controbilanciare offrendo più potenza per chip e facendosi bastare l'FSR 2.0 se ce ne fosse bisogno.
Ma pure una 3080 liscia
Secondo me il compromesso migliore è la 3080TI.
I 12Gb faranno comodo con i prossimi giochi con il UE5 a 4K.
davide155
24-09-2022, 09:47
e così appunto si convalida la strategia di jen...meglio vendere una 4090 che 10-20-30 4080 16-12gb
non vedo motivi per non farsi bastare una 3090 liscia ad oggiMai parole furono più vere.
Spider-Mans
24-09-2022, 09:50
eh.. ma anche con le stesse 4000
4090 costa il 33% in piú di 4080 16 in base al MSRP, e anche le performance saranno proporzionali, +30% almeno dalle specifiche, in piú hai molta vram ed un chip quasi completo, non la ladrata di AD103 ed il chip mild/low di AD104.
Quando mai si é vista una top di gamma divenire quasi piú conveniente? o allo scalare delle performance un aumento proporzionale di prezzo, esempio 3080 e 3090, 3080 all'90% delle perf costava quasi la metá di 3090 LOL quella era un affare (rovinata dal periodo)
:D :D
4090 é l'unica giusta per ora, con un rincaro di 100$ di MSRP rispetto alla 3090.
Le altre sono da cestinare, neanche con gk104 e gtx 680 sono stati cosi bastard! questa é l'evoluzione (o l'involuzione meglio chiaamrla) di quella bella situazione creatasi nel 2012 con Kepler, stavolta hanno riscalato il chip un altra volta:muro:
AD103 sarebbe AD104 e AD104 sarebbe AD106
vi fate troppi problemi
semplice..salti sta nuova gen farsa
a lvl economico è ingiustificabile
io puntero ad una 3070 o 3080 svalutata per sostiuire la mia instancabile 1080ti che ancora mi da soddisfazioni :D
e aspetto con comodo altri due anni fino a 5xxx o amd rulez se esce qualcosa di buono
Spider-Mans
24-09-2022, 09:51
Secondo me il compromesso migliore è la 3080TI.
I 12Gb faranno comodo con i prossimi giochi con il UE5 a 4K.
11gb della mia 1080ti mai sfruttati a pieno xD
poi finche escono veri nextegn ue5 su pc..passeranno 2-3 anni e ci saranno le 5xxx di nvidia
tra inflazione pazza e microchip scarsi..ora è il peggior momento per upgradare
attendere tempi piu calmi e rosei
Thunder-74
24-09-2022, 09:53
Sarò il solo a dirlo, ma io aspetterei di vedere come si comporta lanche la 4090 in raster puro, prima di osannarla. Perchè il fatto di aver parlato solo di DLSS3 e RT, non mi fa pensar bene e i grafici visti dei titoli DLSS 2 o no DLSS scelti ad Hoc da nvidia, non mi sembrano un miracolo da 2k euro.
Poi magari il DLSS 3 lo troveremo dappertutto, ma a quel punto il salto di prestazioni si potrà avere anche con una ADA più fiacca..
il mio vuole essere solo uno spunto per un ragionamento.
amon.akira
24-09-2022, 10:05
Sarò il solo a dirlo, ma io aspetterei di vedere come si comporta lanche la 4090 in raster puro, prima di osannarla. Perchè il fatto di aver parlato solo di DLSS3 e RT, non mi fa pensar bene e i grafici visti dei titoli DLSS 2 o no DLSS scelti ad Hoc da nvidia, non mi sembrano un miracolo da 2k euro.
Poi magari il DLSS 3 lo troveremo dappertutto, ma a quel punto il salto di prestazioni si potrà avere anche con una ADA più fiacca..
il mio vuole essere solo uno spunto per un ragionamento.
se un titolo non ha il raytracing automaticamente sarà un titolo tecnologicamente vecchio quindi andrà benone, la preoccupazione viene dai titoli rt...valhalla per esempio che non ha ne rt ne dlss li era +50% e mi sembra già un cattivo esempio di scaling della 4090, non escluderei che sia anche colpa della cpu su quel titolo conoscendo i titoli ubisoft.
Cutter90
24-09-2022, 10:12
Cmq per la felicità dei detrattori del dlss, ho preso Soulstice e lo sto giocando con dlss qualità. Zero artefatti e fps circa un +20 dalla nativa, in 4k
Per la qualità ad occhio mi sembra migliore della nativa, tipo Nioh o Death Stranding
Devo dire che sono estremamente contento che lo inizino ad usare anche titoli minori e con risultati top.
Thunder-74
24-09-2022, 10:23
se un titolo non ha il raytracing automaticamente sarà un titolo tecnologicamente vecchio quindi andrà benone, la preoccupazione viene dai titoli rt...valhalla per esempio che non ha ne rt ne dlss li era +50% e mi sembra già un cattivo esempio di scaling della 4090, non escluderei che sia anche colpa della cpu su quel titolo conoscendo i titoli ubisoft.
Vero, anche the Division 2 non brilla... pensando ad una presentazione, io sceglierei titoli dove le performaces sono esaltate... e se esistessero quindi casi con ancor minor margine di guadagno? Questo mi fa pensare.
Vedremo le rece.
amon.akira
24-09-2022, 10:32
Vero, anche the Division 2 non brilla... pensando ad una presentazione, io sceglierei titoli dove le performaces sono esaltate... e se esistessero quindi casi con ancor minor margine di guadagno? Questo mi fa pensare.
Vedremo le rece.
sicuramente esisterà sempre il peggior caso possibile (flight simulator?), vedremo la media su piu titoli...li ha messo un +70% un +60% e un +50%
devAngnew
24-09-2022, 10:36
Sarò il solo a dirlo, ma io aspetterei di vedere come si comporta lanche la 4090 in raster puro, prima di osannarla. Perchè il fatto di aver parlato solo di DLSS3 e RT, non mi fa pensar bene e i grafici visti dei titoli DLSS 2 o no DLSS scelti ad Hoc da nvidia, non mi sembrano un miracolo da 2k euro.
Poi magari il DLSS 3 lo troveremo dappertutto, ma a quel punto il salto di prestazioni si potrà avere anche con una ADA più fiacca..
il mio vuole essere solo uno spunto per un ragionamento.
La penso come te, aggiungo visto quello che ora si sà sul DLSS3 io voglio vederci chiaro con il lag, qui si rischia di avere a video al posto di 50 FPS, 100FPS ma giocare come ne fossero 50FPS; non sò se mi spiego :fagiano:
Poi c'è da mettere in conto che i prossi titoli saranno tutti ibridi nel caso migliore :D
craesilo
24-09-2022, 10:41
Si, ovviamente dando per scontato che il RT migliori e si porti a livelli comparabili a Nvidia.
Intendevo che non avendo ancora un'alternativa al DLSS 3, può controbilanciare offrendo più potenza per chip e facendosi bastare l'FSR 2.0 se ce ne fosse bisogno.
Ma pure una 3080 liscia
si ovvio, includevo quelli a cui magari serviva tanta vram in altri ambiti
Thunder-74
24-09-2022, 10:43
La penso come te, aggiungo visto quello che ora si sà sul DLSS3 io voglio vederci chiaro con il lag, qui si rischia di avere a video al posto di 50 FPS, 100FPS ma giocare come ne fossero 50FPS; non sò se mi spiego :fagiano:
Poi c'è da mettere in conto che i prossi titoli saranno tutti ibridi nel caso migliore :D
Ho visto l'ultimo video dei prodigeek dove parlano della video call avuta, insieme a giornalisti, con JHH. E' stato chiesto proprio del lag introdotto dal DLSS 3. Hanno detto che viene introdotto lag e che però viene compensato dal Reflex. Hanno aggiunto che il DLSS3 si basa sul 2 + le nuove ottimizzazioni introdotte da ADA e per tale motivo nei giochi sarà possibile disattivare i singoli aspetti come l'introduzione dei frames aggiuntivi. Del tipo che sarà possibile scalare dal DLSS3 al DLSS2 qualora si voglia.
Sarò il solo a dirlo, ma io aspetterei di vedere come si comporta lanche la 4090 in raster puro, prima di osannarla. Perchè il fatto di aver parlato solo di DLSS3 e RT, non mi fa pensar bene e i grafici visti dei titoli DLSS 2 o no DLSS scelti ad Hoc da nvidia, non mi sembrano un miracolo da 2k euro.
Poi magari il DLSS 3 lo troveremo dappertutto, ma a quel punto il salto di prestazioni si potrà avere anche con una ADA più fiacca..
il mio vuole essere solo uno spunto per un ragionamento.
Condivido ogni parola.
Ho paura che queste schede diano il meglio di sé in RT/DLSS. Ci può stare, ma a quel punto o nvidia si assicura che RT e DLSS vengano implementati (seriamente, come CP2077, che non dipende da loro) in ogni titolo o non ha senso avere una scheda da 1500€/2000€ ed utilizzarla a pieno solo su qualche titolo. Trovo più sensata la linea amd a questo punto, dove splende in raster, scenario che impatta la stragrande maggioranza dei giochi. Andrà peggio in control e CP? pace, tutto il resto ne beneficerà.
Trovo assurdo avere una scheda da 16000 cuda, TF su TF e poi giocare in downsampling (se va bene, sperando nelle implementazioni degli sviluppatori)
PS: implementare il DLSS non è come implementare l'FSR
Thunder-74
24-09-2022, 11:03
Condivido ogni parola.
Ho paura che queste schede diano il meglio di sé in RT/DLSS. Ci può stare, ma a quel punto o nvidia si assicura che RT e DLSS vengano implementati (seriamente, come CP2077, che non dipende da loro) in ogni titolo o non ha senso avere una scheda da 1500€/2000€ ed utilizzarla a pieno solo su qualche titolo. Trovo più sensata la linea amd a questo punto, dove splende in raster, scenario che impatta la stragrande maggioranza dei giochi. Andrà peggio in control e CP? pace, tutto il resto ne beneficerà.
Trovo assurdo avere una scheda da 16000 cuda, TF su TF e poi giocare in downsampling (se va bene, sperando nelle implementazioni degli sviluppatori)
PS: implementare il DLSS non è come implementare l'FSR
Molto probabilmente , come ha fatto con Turing, il focus di ADA sarà RT e DLSS3. A questo punto attendere una 4080ti ha senso, perchè quando sarà, abbasseranno il prezzo della 4080/16 (la 12 sparirà a mio avviso visto che neanche esiste la FE di tale modello come dichiarato in conferenza con i giornalisti) e magari piazzeranno ad un prezzo prossimo al prezzo attuale della 4080/16, la 4080ti. Magari una 12k Cuda con bus 320 e 20Gb di Vram, potrà essere una buona via di mezzo per affrontare i titoli fine 2023/2024 RT.
devAngnew
24-09-2022, 11:05
Ho visto l'ultimo video dei prodigeek dove parlano della video call avuta, insieme a giornalisti, con JHH. E' stato chiesto proprio del lag introdotto dal DLSS 3. Hanno detto che viene introdotto lag e che però viene compensato dal Reflex. Hanno aggiunto che il DLSS3 si basa sul 2 + le nuove ottimizzazioni introdotte da ADA e per tale motivo nei giochi sarà possibile disattivare i singoli aspetti come l'introduzione dei frames aggiuntivi. Del tipo che sarà possibile scalare dal DLSS3 al DLSS2 qualora si voglia.
Non seguo i pr sul tubo ma
scucatemi non per vantari :sofico: ma è esattamente quello che avevo scritto io DLSS3= DLSS2 + fake frame + reflex anti lag :D (naturalmente con tutti quei tensor e clock maggiorati deve andare di più in DLSS2).
CMq. rimango alla finestra quel fino a x4 richiede attenta verifica.
A proposito quando usciranno le recensioni ? Non ditemi il 12 Ottobre :fagiano:
Molto probabilmente , come ha fatto con Turing, il focus di ADA sarà RT e DLSS3. A questo punto attendere una 4080ti ha senso, perchè quando sarà, abbasseranno il prezzo della 4080/16 (la 12 sparirà a mio avviso visto che neanche esiste la FE di tale modello come dichiarato in conferenza con i giornalisti) e magari piazzeranno ad un prezzo prossimo al prezzo attuale della 4080/16, la 4080ti. Magari una 12k Cuda con bus 320 e 20Gb di Vram, potrà essere una buona via di mezzo per affrontare i titoli fine 2023/2024 RT.
Vero, ma per le ti ci vorrà almeno un anno e parliamoci chiaro, dove c'è il DLSS 3, c'è il 2 e dove c'è il 2, una 3080 avanza in ogni scenario. Secondo me l'affarone l'ha fatto chi si è preso una 3080 a 700euro.
Tornando alle nuove vga, sicuramente la 4080ti sarà la scheda migliore, ma dubito si troverà a meno di 1500€. Se per utilizzare al massimo il DLSS 3 uno sviluppatore deve implementare RT, DLSS, REFLEX cazzi e mazzi sarà un disastro.
Non siamo nell'ottica di avere DLSS in ogni titolo, ahimè
DJurassic
24-09-2022, 11:07
se le prestazioni in RT sulle RX 7000 saranno in linea o poco superiori a quelle di Ampere e si mantengono sui 1000 euro per la top di gamma, a questo giro rossi tutta la vita.
In ogni caso concordo, oggi come oggi chi ha una 3070 o superiore sta tranquillo per almeno altri 2 anni. Francamente, a mente più fredda, non so se giorno 12 cederò per la 4090..oggettivamente la 3080Ti che ho mi basta e avanza al momento. Probabilmente investirò per cambiare ali e passare al 13700K, predisponendomi per un eventuale nuova GPU al prossimo giro.
Mi sta quasi venendo voglia di cercare una dannata PS5 e abbandonare definitivamente il gaming su pc.
Andavi così bene.. e poi leggo l’ultima frase :help:
Ma tenersi le mani in tasca e godersi la tua attuale configurazione non è meglio di buttar soldi per un pezzo di plastica che propone i suoi giochi a 80€? Soprattutto ora che il nodo esclusive è stato definitivamente sciolto.
thunderforce83
24-09-2022, 11:08
sicuramente esisterà sempre il peggior caso possibile (flight simulator?), vedremo la media su piu titoli...li ha messo un +70% un +60% e un +50%
In effetti per sfruttarla a dovere su alcuni titoli servira' un pc corazzato.
Secondo me chi ripete come un mantra che gli basta il 9900k per autoconvincersi forse (tanto per dirne uno) si sbaglia proprio di grosso:D forse a 60fps?
Senza considerare memorie con bassissimi timing per guadagnare sui minimi...
dipendera' sempre dai titoli in effetti...
gia' sono prenotato per il 13600k:oink:
flight simulator mi piega letteralmente il sistema...e c'e' l'ho molto depotenziato ad effetti...
Thunder-74
24-09-2022, 11:17
Non seguo i pr sul tubo ma
scucatemi non per vantari :sofico: ma è esattamente quello che avevo scritto io DLSS3= DLSS2 + fake frame + reflex anti lag :D (naturalmente con tutti quei tensor e clock maggiorati deve andare di più in DLSS2).
CMq. rimango alla finestra quel fino a x4 richiede attenta verifica.
A proposito quando usciranno le recensioni ? Non ditemi il 12 Ottobre :fagiano:
Diciamo che il fatto che DLSS3 è un DLSS2 con aggiunta del fake frame e altre cosine, è un'ottima notizia per tutti coloro che rimarranno con Ampere o Turing, perchè vul dire non rimanere indietro. Tutti i titoli che usciranno concepiti per il DLSS3 , sono automaticamente giocabili in DLSS2.
Poi ripeto, come successo con il RT sulle 1000, il DLSS3 verrà attivato su Ampere quando magari queste saranno Out of Stock. Ottenendo il duplice
vantaggio:
1) mantenuta esclusiva per ADA, utile come motivo trainante delle vendite
2) invogliare i possessori di Turing/Ampere al cambio, quando vedranno che con il DLSS3 in effetti non si va a guadagnare molto rispetto a quanto fa ADA.
Se poi non verrà mai implementato neanche su Ampere, allora penserò che sia stata più una manovra commerciale per spingere ADA che altro.
In effetti per sfruttarla a dovere su alcuni titoli servira' un pc corazzato.
Secondo me chi ripete come un mantra che gli basta il 9900k per autoconvincersi forse (tanto per dirne uno) si sbaglia proprio di grosso:D forse a 60fps?
Senza considerare memorie con bassissimi timing per guadagnare sui minimi...
dipendera' sempre dai titoli in effetti...
gia' sono prenotato per il 13600k:oink:
flight simulator mi piega letteralmente il sistema...e c'e' l'ho molto depotenziato ad effetti...
io sono in stallo. Passo a pensare se spendere subito per cambiare con un 13900k aspettando la 4080ti, o cambiare prima con una 4090 e poi più avanti cambiare il resto.. Ovvio che un 9900k incomincia a creare qualche collo.
FS2020 è un macigno per la CPU in tutti i casi, anche per un 12900k. Su tanti titoli ancora il 9900k va benissimo. Io che gioco con BF2042, mi crea collo per la mole di giocatori on line, al punto che se attivo il DLSS a qualsiasi qualità, i frame sono sempre gli stessi , cambia l'occupazione della GPU. Difatti ho impostato DLSS Quality in modo da averla quasi sempre al max ed avere una qualità visiva migliore.
Ora con il DLSS3 e l'aggiunta del fake frame, si potrebbe anche mitigare in parte il problema, ottenendo FPS ed arrivare a fondo scala del monitor anche con CPU non aggiornatissime. O magari no... diciamo che tutto è molto da valutare...
StylezZz`
24-09-2022, 11:23
Ma tenersi le mani in tasca e godersi la tua attuale configurazione non è meglio di buttar soldi per un pezzo di plastica che propone i suoi giochi a 80€? Soprattutto ora che il nodo esclusive è stato definitivamente sciolto.
*
In effetti per sfruttarla a dovere su alcuni titoli servira' un pc corazzato.
Secondo me chi ripete come un mantra che gli basta il 9900k per autoconvincersi forse (tanto per dirne uno) si sbaglia proprio di grosso:D forse a 60fps?
Ce l'hai con me o sei alleato della scimmia? :D
magic carpet
24-09-2022, 11:29
Ne ho viste di tutti i colori durante il covid, ma il conto alla rovescia che ha messo il drago per il preorder delle 4090 le batte tutte.
Evidentemente si aspettano fiumi di ordini...
Thunder-74
24-09-2022, 11:33
Nvidia ha messo il video di CP2077 con le nuove features .
interessante che ha messo gli FPS fatti in DLSS2 e DLSS3, utile per una comparazione approssimata con AMPERE
ho grabbato due frames.
https://i.imgur.com/TiHZJ94l.png
https://i.imgur.com/TbwcOEol.png
ora non so se questo CP2077 sia più pensate di quello attualmente istallato nei nostri PC, ma 63 FPS in 4K con DLSS2, non mi sembrano irraggiungibili per una 3090, o mi sbaglio?
Chiedo a voi che con sto titolo ci giocate
DJurassic
24-09-2022, 11:44
ora non so se questo CP2077 sia più pensate di quello attualmente istallato nei nostri PC, ma 63 FPS in 4K con DLSS2, non mi sembrano irraggiungibili per una 3090, o mi sbaglio?
Chiedo a voi che con sto titolo ci giocate
Se è DLSS in modalità performance si, se è in modalità quality invece non basta nemmeno una 3090Ti.
In questo video con res 4K tutto maxato e RT Ultra (non Psycho) con DLSS Balanced la 3090TI scende anche sotto i 60fps.
https://www.youtube.com/watch?v=0lC3Vn1MMco
amon.akira
24-09-2022, 11:51
Se è DLSS in modalità performance si, se è in modalità quality invece non basta nemmeno una 3090Ti.
In questo video con res 4K tutto maxato e RT Ultra (non Psycho) con DLSS Balanced la 3090TI scende anche sotto i 60fps.
https://www.youtube.com/watch?v=0lC3Vn1MMco
si ma quella è la versione overdrive...635rays x pixel mi sembra
se fai 4k dlss2 performance 63fps con la 4090, con la 3090ti non so penso che sarai sui 40scarsi
bisogna vedere se il dlss3 si puo impostare in quality e confrontarlo con il dlss2 performance
DJurassic
24-09-2022, 11:56
si ma quella è la versione overdrive...635rays x pixel mi sembra
se fai 4k dlss2 performance 63fps con la 4090, con la 3090ti non so penso che sarai sui 40scarsi
bisogna vedere se il dlss3 si puo impostare in quality e confrontarlo con il dlss2 performance
Infatti è difficile fare un paragone al momento. Io vorrei anche vedere cosa cambia tra il RT che abbiamo oggi nel gioco e la versione overdrive. Perché una comparativa non mi sembra si sia ancora vista.
fraussantin
24-09-2022, 12:01
si ma quella è la versione overdrive...635rays x pixel mi sembra
se fai 4k dlss2 performance 63fps con la 4090, con la 3090ti non so penso che sarai sui 40scarsi
bisogna vedere se il dlss3 si puo impostare in quality e confrontarlo con il dlss2 performanceQuanti raggi aveva il vecchio rt?
mikael84
24-09-2022, 12:01
Figurati su questo concordo in pieno...
Giacchetta sta giocando sul fatto che le 3080ti e 3090 si trovano nuove sui 950-1200€, quindi cosa fai? Ti prendi una 3090 con 24GB o la 4080 che va come 3090ti e con il DLSS 3?
E' uno schifo, senza mezzi termini.
E probabilmente riproporrà lo stesso schema per le fasce inferiori, soprattutto la 4060 potrebbe fare un cut molto brutale di AD106 considerando l'enorme margine con la precedente 3060...
Bisogna incrociare le dita che amd non avendo un'alternativa al DLSS 3, punti a offrire di più in raster e con prezzi più interessanti.
Se uno ha soldi da buttare tanto vale andare dritti sulla 4090 che almeno offre realmente qualcosa in più...
Salvo AMD, la fascia media, e medio alta è scritta. E' vero che con il rebrand in x50xt, ha aumentato le fasce pure lei, però ha una certa scheda come navi33, un die da 200mm2, presumo a 5nm (altrimenti non torna) che con 4096 shader può stare già sopra in flops alla 6950xt, ma è tagliata dal bus, che bisogna vedere l'impatto su un 1440p.
Al momento questa scheda viene chiamata 7600xt, nvidia dal canto suo, la sua x60 sarebbe una sorta di x70-ti (salvo devastazioni), in cui il boost rispetto ad ampere sarebbe nel DLSS3.
Idem il cut di navi32, quello con 6144 shader ad oltre 3ghz, chip sopra la 6950xt, e quindi sopra la 4080 12.
Bisogna valutarle, ma le proposte non mancheranno, certo che se mi ritrovo
Navi33-4070: 649$ vs 699$, allora
Navi32-4080 16gb 1149 vs 1199$ Lisa sarà peggio di lui a strozzinaggio.
amon.akira
24-09-2022, 12:05
Quanti raggi aveva il vecchio rt?
parlano di rt operations x pixel...non so il vecchio al max ma qui dovremmo avere
The new RTX 40 series was officially unveiled last Tuesday, and NVIDIA stated that Cyberpunk 2077 will receive a free PC update to take use of the new technology. Ray Tracing Overdrive will be the name of this new mode, and it promises to elevate the game's graphics to the next level.
Support for NVIDIA RTX Direct Illumination (RTDXI) technology, which adds authentic lighting and shadows to every item in the game, will also be included in the update. NVIDIA ensures that the game universe's colour realism and the type of light present in the environment are preserved. Cyberpunk 2077's ray tracing system will also be improved, with rays now reflecting numerous times. As a result, global lighting, reflections, and auto-reflections are even more accurate, realistic, and immersive.
NVIDIA also claims that all of these effects will be displayed in native resolution in the game. Given the realism provided by the Ray Tracing Overdrive mode, Cyberpunk 2077 does not require the usage of any other occlusion approach that does not act in real time.
Nvidia ha messo il video di CP2077 con le nuove features .
ora non so se questo CP2077 sia più pensate di quello attualmente istallato nei nostri PC, ma 63 FPS in 4K con DLSS2, non mi sembrano irraggiungibili per una 3090, o mi sbaglio?
Chiedo a voi che con sto titolo ci giocate
Quindi il DLSS3 aggiunge il 50% di FPS. Questo è un parametro importante che terrò presente per il futuro.
Quei valori sicuramente sono con DLSS Performance, che fa cagare (almeno il 2 lo faceva). Col QUALITY non basta neppure una 3090Ti per giocarlo a 1440p in full RT. Devi togliere tante opzioni.
Poi non sappiamo che magari il DLSS3 ha un'unica versione che è accettabile come qualità di immagine...
Idem il cut di navi32, quello con 6144 shader ad oltre 3ghz, chip sopra la 6950xt, e quindi sopra la 4080 12.
(...)
Navi32-4080 16gb 1149 vs 1199$ Lisa sarà peggio di lui a strozzinaggio.
Possiamo fare previsioni ponderate solo dopo aver visto il prezzo di navi31. Ma io sono sicuro che sarà sotto i 1000$, che è comunque troppo.
CMQ mi sbilancio:
navi31: 1299$
navi32: 799$ o comunque un centino sotto la 480-12. Se lo prezza uguale o superiore ne venderà pochi.
navi33: sub 500$
Nvidia ha messo il video di CP2077 con le nuove features .
interessante che ha messo gli FPS fatti in DLSS2 e DLSS3, utile per una comparazione approssimata con AMPERE
ho grabbato due frames.
https://i.imgur.com/TiHZJ94l.png
https://i.imgur.com/TbwcOEol.png
ora non so se questo CP2077 sia più pensate di quello attualmente istallato nei nostri PC, ma 63 FPS in 4K con DLSS2, non mi sembrano irraggiungibili per una 3090, o mi sbaglio?
Chiedo a voi che con sto titolo ci giocate
io con la 3080 impostazioni alte (non ultra, alte), RT attivo e DLSS quality faccio circa 60fps in 2k.
Se quello è in 4K e DLSS sarà sicuramente in ultra performance (penoso) ci può stare
amon.akira
24-09-2022, 12:13
io con la 3080 impostazioni alte (non ultra, alte), RT attivo e DLSS quality faccio circa 60fps in 2k, mi sembrano bassini 60 per una 3090ti
no quelli dovrebbero essere con la 4090 4k dlss2 performance se non ho frainteso il grab di thunder ^^
mikael84
24-09-2022, 12:24
Sarò il solo a dirlo, ma io aspetterei di vedere come si comporta lanche la 4090 in raster puro, prima di osannarla. Perchè il fatto di aver parlato solo di DLSS3 e RT, non mi fa pensar bene e i grafici visti dei titoli DLSS 2 o no DLSS scelti ad Hoc da nvidia, non mi sembrano un miracolo da 2k euro.
Poi magari il DLSS 3 lo troveremo dappertutto, ma a quel punto il salto di prestazioni si potrà avere anche con una ADA più fiacca..
il mio vuole essere solo uno spunto per un ragionamento.
Le perf della 4090 sono variabili in base al gioco, ma mediamente, oltre ai test raster, il leak di riferimento parlava di +73% con la scheda a 3ghz, non stock sulla 3090ti.
La scheda deve misurarsi sul campo con la 3090.
Se prendessimo un Titan turing@ 1950-2ghz impostato, la 3090 faceva 30% andando bene da lei.
Molte 3090 ai clock della 3090ti devono fare compromessi pazzeschi, che ricordo è di 1950-2ghz per TDP. A review scendono a 1750-1800:)
se un titolo non ha il raytracing automaticamente sarà un titolo tecnologicamente vecchio quindi andrà benone, la preoccupazione viene dai titoli rt...valhalla per esempio che non ha ne rt ne dlss li era +50% e mi sembra già un cattivo esempio di scaling della 4090, non escluderei che sia anche colpa della cpu su quel titolo conoscendo i titoli ubisoft.
AC però non è l'esempio migliore per scaling, è in perenne warp stall, infatti non a caso consuma nulla rispetto agli altri giochi. Praticamente usa molti thread ma in bassissima percentuale. Sono 336 thread per la 3090ti-512 per la 4090. Cuda ed SM, nel warp stall contano meno.
Con AMD ad esempio alle basse res, va molto meglio per lo scheduler hardware, contro quello software di nvidia.
La cache, aiuta, ma AMD insegna che la cache su questo gioco è meglio non averla, il che fa riflettere.:p
Di conseguenza, la 4090 potrebbe perdere percentuale, la 4080 12, si ritroverebbe pure con metà banda nel confronto con la 3090ti.:)
https://i.postimg.cc/mkZBjtDs/ac.png
devAngnew
24-09-2022, 12:28
no quelli dovrebbero essere con la 4090 4k dlss2 performance se non ho frainteso il grab di thunder ^^
Non credo tu abbia frainteso. :D
Dalla didascalia :
Experience Cyberpunk 2077 like never before with incredible visuals of Night City enhanced by the new Ray Tracing: Overdrive Mode & up to 4X performance increase with NVIDIA DLSS 3 (performance mode l'aggiungo io :D ).
Ma le recensione nessuno conosce una data ? :fagiano:
amon.akira
24-09-2022, 12:28
AC però non è l'esempio migliore per scaling, è in perenne warp stall, infatti non a caso consuma nulla rispetto agli altri giochi. Praticamente usa molti thread ma in bassissima percentuale. Sono 336 thread per la 3090ti-512 per la 4090. Cuda ed SM, nel warp stall contano meno.
si lo dicevo in ottica "cherry picking" nvidia per vantare la 4000, quando penso che abbia voluto semplicemente porre l attenzione sul dlss3.
insomma il +50% come dicevo mi sembra già un cattivo scaling, abbiamo pur sempre +50%cc e +40%clock
60% sarà la media imho
mikael84
24-09-2022, 12:30
Quanti raggi aveva il vecchio rt?
6,8 g/rays/s per 3090ti.
19 g/rays/s per 4090-ti.
amon.akira
24-09-2022, 12:51
6,8 g/rays/s per 3090ti.
19 g/rays/s per 4090-ti.
quanto incide il SER shader execution reordering?
https://www.hwupgrade.it/articoli/6381/nvidia-ser-shader-execution-reordering.jpg
mikael84
24-09-2022, 12:56
Possiamo fare previsioni ponderate solo dopo aver visto il prezzo di navi31. Ma io sono sicuro che sarà sotto i 1000$, che è comunque troppo.
CMQ mi sbilancio:
navi31: 1299$
navi32: 799$ o comunque un centino sotto la 480-12. Se lo prezza uguale o superiore ne venderà pochi.
navi33: sub 500$
Navi32 full può tranquillamente fare +50-60% sopra la 6900xt a 300 watt, quindi sarebbe un buon prezzo di questi tempi malati. Il tutto senza cavi e cavettini.
Da quello che so, lato RT, avrà sicuramente migliorato, ma non farà BVH hardware, pare punti tutto al raster, con quel che può in RT.
Navi32, avrà un die da 203 mm2 a 5nm, come quello della 4060, con però 140mm2 di cache e collegamenti a 6nm. In sintesi gli costa addirittura meno della 4080 12, che salvo DLSS è una 6900xt con RT maggiore e dlss3, navi32 sarà decisamente più potente in raster.
Navi33 paradossalmente in raster, potrebbe già prendere una 408012, anzi...ma rimane a bus da 128bit e con il taglio pci express a 8x. Quindi no 4k con quella.:)
si lo dicevo in ottica "cherry picking" nvidia per vantare la 4000, quando penso che abbia voluto semplicemente porre l attenzione sul dlss3.
insomma il +50% come dicevo mi sembra già un cattivo scaling, abbiamo pur sempre +50%cc e +40%clock
60% sarà la media imho
Se metto fuori la mia brevettata formula di calcolo:p , ovvero 60% per 2x flops, siamo li. Ricordi il famoso 33% flops teorici vs effettivo.:D
Qua tra 3090ti (che cmq non è il riferimento esatto) siamo al 115%, quindi 70%.
Dopo però c'è lo scaling e li dipende dal parco titoli. Se ci saranno più casi AC, certo il picco scende.
Nvidia ha messo il video di CP2077 con le nuove features .
interessante che ha messo gli FPS fatti in DLSS2 e DLSS3, utile per una comparazione approssimata con AMPERE
ho grabbato due frames.
https://i.imgur.com/TiHZJ94l.png
https://i.imgur.com/TbwcOEol.png
ora non so se questo CP2077 sia più pensate di quello attualmente istallato nei nostri PC, ma 63 FPS in 4K con DLSS2, non mi sembrano irraggiungibili per una 3090, o mi sbaglio?
Chiedo a voi che con sto titolo ci giocate
ma solo a me sembra che in entrambi i casi le immagini con DLSSx siano leggermente più a "fuoco"
:mbe:
sertopica
24-09-2022, 13:21
^ ma chi sei, il cugino di aldo? ignore list va... :asd:
90% di post che non aggiungono niente alla discussione. lol
ma solo a me sembra che in entrambi i casi le immagini con DLSSx siano leggermente più a "fuoco"
:mbe:
Saranno a fuoco per lo sharpening, mentre le versioni dlss off usano il taa ingame che non offre alcuno slider per regolare la nitidezza.
mikael84
24-09-2022, 13:26
quanto incide il SER shader execution reordering?
https://www.hwupgrade.it/articoli/6381/nvidia-ser-shader-execution-reordering.jpg
Malgrado la markettata del 25%, 2x.
Quello simula una sorta di scheduler hardware o esecuzione fuori ordine nella CPU.
E'un modo in parole povere, che permette ad una unità in esecuzione di non rimanere in attesa di dati, o perchè è impegnato in vecchie istruzioni già effettuate, sprecando cicli.
Con questo sistema, come avviene anche nelle CPU, il warp = thread, può in modo autonomo, abbandonare le vecchie istruzioni, e quindi evitare l'idle, per processare automaticamente le istruzioni successive.
E'un modo diretto, per massimizzare le risorse di calcolo e sprecare cicli in attesa, che è alla base del warp stall.
E' un pò un linguaggio CPU, ma mediamente vuol dire quello, riorganizzare indipendentemente il lavoro.
Poi da noi si dice, "tra il dire e il fare c'è di mezzo il mare".:p
fraussantin
24-09-2022, 13:30
Infatti mi hanno consigliato la ps5 anche a me solo perchè in un paio di giochi crashano in continuazione su 3 pc che ho pensa te xD
Ma io mai ho comprato una console, neanche nel 90 eccetto il nintendo e l'amiga, e mai la comprerò ora la play o xbox.
Non vorrei sbagliarmi ma forse dipendono dai fps.Se la situazione resta questa con prezzi in salita ovunque , ci finiremo per forza , o almeno in molti.
Ho un sacco di giochi su steam e li vorrò usare probabilmente su una next gen della deck .
Ma per i tripla a. Per forza dovremo cascare su una console , e in quel caso scelgo qurlla con i giochi che preferisco cioè la PS.
Grafica e 100 euro di differenza di prezzo non mi fregano più di tanto. Il parco giochi si.
Ovviamete per adesso mi tengo il pc che ho. Questo è chiaro.
Rigiardo il prezzo dei giochi , ci sono key in giro anche per play
Non ho idea dei limiti e di come funzioni , non mi interessa per adesso , ma le key ci sono
6,8 g/rays/s per 3090ti.
19 g/rays/s per 4090-ti.X3 in linea teorica. È parecchio si. parlano di rt operations x pixel...non so il vecchio al max ma qui dovremmo avere
The new RTX 40 series was officially unveiled last Tuesday, and NVIDIA stated that Cyberpunk 2077 will receive a free PC update to take use of the new technology. Ray Tracing Overdrive will be the name of this new mode, and it promises to elevate the game's graphics to the next level.
Support for NVIDIA RTX Direct Illumination (RTDXI) technology, which adds authentic lighting and shadows to every item in the game, will also be included in the update. NVIDIA ensures that the game universe's colour realism and the type of light present in the environment are preserved. Cyberpunk 2077's ray tracing system will also be improved, with rays now reflecting numerous times. As a result, global lighting, reflections, and auto-reflections are even more accurate, realistic, and immersive.
NVIDIA also claims that all of these effects will be displayed in native resolution in the game. Given the realism provided by the Ray Tracing Overdrive mode, Cyberpunk 2077 does not require the usage of any other occlusion approach that does not act in real time.Si facevo per capire quanto mi ammazzerranno la scheda nei prossimi giocni .
Vabbè giocherò senza rt .
thunderforce83
24-09-2022, 13:33
io sono in stallo. Passo a pensare se spendere subito per cambiare con un 13900k aspettando la 4080ti, o cambiare prima con una 4090 e poi più avanti cambiare il resto.. Ovvio che un 9900k incomincia a creare qualche collo.
FS2020 è un macigno per la CPU in tutti i casi, anche per un 12900k. Su tanti titoli ancora il 9900k va benissimo. Io che gioco con BF2042, mi crea collo per la mole di giocatori on line, al punto che se attivo il DLSS a qualsiasi qualità, i frame sono sempre gli stessi , cambia l'occupazione della GPU. Difatti ho impostato DLSS Quality in modo da averla quasi sempre al max ed avere una qualità visiva migliore.
Ora con il DLSS3 e l'aggiunta del fake frame, si potrebbe anche mitigare in parte il problema, ottenendo FPS ed arrivare a fondo scala del monitor anche con CPU non aggiornatissime. O magari no... diciamo che tutto è molto da valutare...
io ti direi vai anche tu di 13600k ma non pensare a nulla sotto la 4090 perche' al di sotto mi sembra tutto una grande presa per il :ciapet:
Ce l'hai con me o sei alleato della scimmia? :D
sono inscimmiato forte tranquillo:D
lo scrive uno che e' passato da 6600k-8700k-10850k-11700k e adesso l'attuale 12600k che tra poco sara' sostituito dal 13600k...
avere il sistema al top e' una mia fissazione lo ammetto:p
Predator_1982
24-09-2022, 13:41
Andavi così bene.. e poi leggo l’ultima frase :help:
Ma tenersi le mani in tasca e godersi la tua attuale configurazione non è meglio di buttar soldi per un pezzo di plastica che propone i suoi giochi a 80€? Soprattutto ora che il nodo esclusive è stato definitivamente sciolto.
infatti :D la voglia mi passa un istante dopo che mi viene
Non vorrei sbagliarmi ma forse dipendono dai fps.
bè bene no ? , ben vengano gli fps... :)
Saranno a fuoco per lo sharpening, mentre le versioni dlss off usano il taa ingame che non offre alcuno slider per regolare la nitidezza.
ok , comunque rimane il fatto che con il dlss sono leggermente meglio :)
mikael84
24-09-2022, 13:55
Nvidia ha messo il video di CP2077 con le nuove features .
interessante che ha messo gli FPS fatti in DLSS2 e DLSS3, utile per una comparazione approssimata con AMPERE
ho grabbato due frames.
ora non so se questo CP2077 sia più pensate di quello attualmente istallato nei nostri PC, ma 63 FPS in 4K con DLSS2, non mi sembrano irraggiungibili per una 3090, o mi sbaglio?
Chiedo a voi che con sto titolo ci giocate
Tanta roba, però voglio essere un tantino critico, molti dicono di avere problemi o non piacergli il DLSS.
Con DLSS hai 3,4 volte il frame in FP16, una precisione ridicola già 20 anni fa.
L'uso intenso delle matrici causa lag notevoli, che nvidia dice di aver colmato.
Ok l'aiuto, ma se quasi tutto il frame è creato in FP16, beh.:)
amon.akira
24-09-2022, 14:36
Tanta roba, però voglio essere un tantino critico, molti dicono di avere problemi o non piacergli il DLSS.
Con DLSS hai 3,4 volte il frame in FP16, una precisione ridicola già 20 anni fa.
L'uso intenso delle matrici causa lag notevoli, che nvidia dice di aver colmato.
Ok l'aiuto, ma se quasi tutto il frame è creato in FP16, beh.:)
alla fine è un migliorarsi con i mezzi che si hanno, ovviamente avere tutto non è possibile quindi si fanno compromessi, effettivamente ora con i 1/4 di frame + 1frame generato (7/8) non so come sia il risultato dovrò vederlo con i miei occhi, normalmente da 4k fino a bilanciato è accettabile, e quality è il top.
tra cosi e non usufruire del raytracing meglio la prima.
diciamo che ora si sono spinti forse un po troppo in la, ma voglio vedere il risultato finale di un ipotetico cyberpunk overdrive.
sicuramente saranno settings solo da 4090, come lo furono all inizio solo per le 2080ti
sertopica
24-09-2022, 14:47
Ma io personalmente trovo il DLSS un'ottima trovata ed un occhio lo posso pure chiudere a fronte di un guadagno prestazionale raddoppiato o addirittura quadruplicato. Il fatto e' che a questa tecnologia, sempre essendo una forma di upscaling, e' intrinseca la perdita di informazioni, che possono essere si' ricostruite, ma non saranno mai del tutto equivalenti ad una res nativa. Il metodo sara' sicuramente ulteriormente affinato nelle prossime iterazioni, tuttavia la sua introduzione sopperisce semplicemente alla ancora non sufficiente forza bruta per poter gestire l'effettistica introdotta da DXR/RTX/vattelapesca, e sara' ancora cosi' per gli anni a venire. Siamo ancora in un periodo di transizione. Forse ad un certo punto non ce ne sara' piu' bisogno.
amon.akira
24-09-2022, 14:54
Ma io personalmente trovo il DLSS un'ottima trovata ed un occhio lo posso pure chiudere a fronte di un guadagno prestazionale raddoppiato o addirittura quadruplicato. Il fatto e' che a questa tecnologia, sempre essendo una forma di upscaling, e' intrinseca la perdita di informazioni, che possono essere si' ricostruite, ma non saranno mai del tutto equivalenti ad una res nativa. Il metodo sara' sicuramente ulteriormente affinato nelle prossime iterazioni, tuttavia la sua introduzione sopperisce semplicemente alla ancora non sufficiente forza bruta per poter gestire l'effettistica introdotta da DXR/RTX/vattelapesca, e sara' ancora cosi' per gli anni a venire. Siamo ancora in un periodo di transizione. Forse ad un certo punto non ce ne sara' piu' bisogno.
il problema è che l alternativa è non inserirle proprio quelle informazioni (raytracing)
Thunder-74
24-09-2022, 15:56
Ma io personalmente trovo il DLSS un'ottima trovata ed un occhio lo posso pure chiudere a fronte di un guadagno prestazionale raddoppiato o addirittura quadruplicato. Il fatto e' che a questa tecnologia, sempre essendo una forma di upscaling, e' intrinseca la perdita di informazioni, che possono essere si' ricostruite, ma non saranno mai del tutto equivalenti ad una res nativa. Il metodo sara' sicuramente ulteriormente affinato nelle prossime iterazioni, tuttavia la sua introduzione sopperisce semplicemente alla ancora non sufficiente forza bruta per poter gestire l'effettistica introdotta da DXR/RTX/vattelapesca, e sara' ancora cosi' per gli anni a venire. Siamo ancora in un periodo di transizione. Forse ad un certo punto non ce ne sara' piu' bisogno.
Il fatto è che jhh ha esplicitamente detto che non si può contare sulla forza bruta , ma per ottenere più fps la via è questa .
Inviato dal mio iPhone X utilizzando Tapatalk
devAngnew
24-09-2022, 15:59
Tanta roba, però voglio essere un tantino critico, molti dicono di avere problemi o non piacergli il DLSS.
Con DLSS hai 3,4 volte il frame in FP16, una precisione ridicola già 20 anni fa.
L'uso intenso delle matrici causa lag notevoli, che nvidia dice di aver colmato.
Ok l'aiuto, ma se quasi tutto il frame è creato in FP16, beh.:)
Mika cosa mi hai ricordato Halo sulle Nvidia 5900 vs ati 9700pro :Puke:
Ma io personalmente trovo il DLSS un'ottima trovata ed un occhio lo posso pure chiudere a fronte di un guadagno prestazionale raddoppiato o addirittura quadruplicato.
Fortunatamente la differenza visiva tra dlss quality e nativo è molto piccola.
il problema è che l alternativa è non inserirle proprio quelle informazioni (raytracing)
L'alternativa era fare delle schede molto più potenti. Ma non ne hanno le capacità, e chissà per quanti anno ancora.
bonzoxxx
24-09-2022, 16:15
Onestamente trovo il dlss un'ottima tecnologia, analizzando i frame di CP2077 tra nativa e qualità la differenza si vede solo comparando i frame uno vicino l'altro.
Certo va usata con criterio, anche l'RT usato a dovere rende i giochi tutta un'altra cosa (quake II) ma per ora è usato principalmente per rendere le pozzanghere nei giochi.
Andavi così bene.. e poi leggo l’ultima frase :help:
Ma tenersi le mani in tasca e godersi la tua attuale configurazione non è meglio di buttar soldi per un pezzo di plastica che propone i suoi giochi a 80€? Soprattutto ora che il nodo esclusive è stato definitivamente sciolto.
Ma la console o meglio tutte le console, sono il feticcio di ogni gamer… tipo me, che compra ogni console nintendo SOLO per i giochi pokemon 😂
Ma la console o meglio tutte le console, sono il feticcio di ogni gamer… tipo me, che compra ogni console nintendo SOLO per i giochi pokemon 😂
Oppure, come nel mio caso la xbox, è l'opportunità di avere un mezzo di backup per i giochi che nel caso del gamepass hanno anche i salvataggi in comune e li puoi giocare indifferentemente su PC e su console.
Predator_1982
24-09-2022, 18:27
Ma la console o meglio tutte le console, sono il feticcio di ogni gamer… tipo me, che compra ogni console nintendo SOLO per i giochi pokemon 😂
Infatti alla fine penso mi comprerò un Nintendo switch, mi butto su Mario bros come da ragazzino :D
Predator_1982
24-09-2022, 18:50
Beati voi che vi accontentate delle console :D io mi scoccerei a giocare con quelli ormai. Ho già dato da ragazzino con il gameboy con mario e mi basta :) quando ancora non avevo il pc. Non tornerei piu indietro.
A meno che non ho soldi ma non giocherei con le console neanche. Avrei altri problemi nel caso che pensare a giocare ;)
Stando in effetti alle ore che passo al pc a casa (meno di un paio…a settimana) effettivamente mi chiedo il motivo per cui continui a voler upgradare il pc :confused:
terranux
24-09-2022, 19:05
Stando in effetti alle ore che passo al pc a casa (meno di un paio…a settimana) effettivamente mi chiedo il motivo per cui continui a voler upgradare il pc :confused:
2 ore a settimana? :help:
Predator_1982
24-09-2022, 19:14
2 ore a settimana? :help:
Se va bene
Ale55andr0
24-09-2022, 19:31
In ogni caso concordo, oggi come oggi chi ha una 3070 o superiore sta tranquillo per almeno altri 2 anni
Il roito altri due anni? io non lo reggo nemmeno altri 2 mesi :asd:
Ale55andr0
24-09-2022, 19:31
Secondo me il compromesso migliore è la 3080TI.
I 12Gb faranno comodo con i prossimi giochi con il UE5 a 4K.
so già pochi 12gb per quello :asd:
io puntero ad una 3070 o 3080 svalutata per sostiuire la mia instancabile 1080ti che ancora mi da soddisfazioni :D
Il roito non lo devi nemmeno guardare dallo scatolone, le gpu al di sopra della soglia della dignità esistono solo dalla 3080 in su
so già pochi 12gb per quello :asd:
Il roito non lo devi nemmeno guardare dallo scatolone, le gpu al di sopra della soglia della dignità esistono solo dalla 3080 in suEsagerato come sempre
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
FrancoBit
24-09-2022, 19:59
Infatti alla fine penso mi comprerò un Nintendo switch, mi butto su Mario bros come da ragazzino :DA me la switch ha "regalato" uno dei giochi più belli della mia vita, Zelda breath of the wild 😍
Inviato dal mio M2101K9G utilizzando Tapatalk
DJurassic
24-09-2022, 20:32
Fortunatamente la differenza visiva tra dlss quality e nativo è molto piccola..
Pensa che io preferisco il DLSS Quality alla res nativa. Oramai l’ho già spiegato tante di quelle volte che ho più voglia di farlo anche perché c’è il rischio che diventi noioso.
scorpion73
24-09-2022, 21:33
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Io penso di prendere la 4090 (no FE) sono solo indeciso tra Strix di Asus o Suprim X di MSI. La MSI mi sembra abbia un design migliore e meno mastodontica della Strix. Alimentatore ho già un Asus ROG Thor V2 1200W con il nuovo connettore di alimentazione a 12pin PCIeX 5.0. Dovevo comunque cambiarlo e l'ho fatto alcune settimane fa.
amon.akira
24-09-2022, 21:57
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
io penso la FE e cmq la terrei max 450 o anche 400w, l ali probabilmente lo cambierò successivamente con un vertex seasonic a gennaio
scorpion73
24-09-2022, 21:57
Io penso di prendere la 4090 (no FE) sono solo indeciso tra Strix di Asus o Suprim X di MSI. La MSI mi sembra abbia un design migliore e meno mastodontica della Strix. Alimentatore ho già un Asus ROG Thor V2 1200W con il nuovo connettore di alimentazione a 12pin PCIeX 5.0. Dovevo comunque cambiarlo e l'ho fatto alcune settimane fa.
Si ma quello non è nativo, infatti il connettore va verso la PSU con due da 8 pin e gli mancano i pin di controllo dati. Non ha il nativo 12 pin sulla PSU. Ergo è la stessa cosa dell'adattatore.
Comunque se ce la monti fammi sapere come va.
scorpion73
24-09-2022, 21:59
io penso la FE e cmq la terrei max 450 o anche 400w, l ali probabilmente lo cambierò successivamente con un vertex seasonic a gennaio
Si il vertex è anche quello che avrei puntato io visto che è nativo.
Facci sapere come va sull'ali attuale.
Kostanz77
24-09-2022, 22:02
Si ma quello non è nativo, infatti il connettore va verso la PSU con due da 8 pin e gli mancano i pin di controllo dati. Non ha il nativo 12 pin sulla PSU. Ergo è la stessa cosa dell'adattatore.
Comunque se ce la monti fammi sapere come va.
In poche parole quel Thor è un normale ali con in bundle un cavo 12+4 PIN in più? :sofico:
scorpion73
24-09-2022, 22:09
Si. Se vedi il cavo del connettore 16 pin del thor, oltre ad avere due connettori 8 pin lato PSU invece del nativo ha collegati solo due dei 4 pin di controllo.
Il nativo li ha collegati tutti e 4, visto che dal modo di collegare dipende la potenza massima che puoi erogare.
Dovrebbe essere massimo 450W non ricordo bene ma se trovo l'immagine la posto
https://tech.everyeye.it/notizie/asus-rog-thor-platinum-ii-alimentazione-gpu-pcie-gen5-cambiano-specifiche-568304.html
Alaric.se
24-09-2022, 22:12
Buonasera, scusatemi al di là del cavo nativo o meno un buon alimentatore da 1000 watt per una prossima 4090 tipo msi suprim o strix potrebbe non bastare in termini di potenza ?
scorpion73
24-09-2022, 22:21
Buonasera, scusatemi al di là del cavo nativo o meno un buon alimentatore da 1000 watt per una prossima 4090 tipo msi suprim o strix potrebbe non bastare in termini di potenza ?
Se lo devi comprare nuovo aspetta i vertex e prenditi il nativo.
Se vuoi la 4090 è importante che vi sia il nativo rispetto all'adattatore perché sicuramente sarà progettato il cavo per quelle tensioni
L'adattatore funziona sui cavi attuali che avranno una sezione sicuramente minore del nativo.
Io per la 4090 consiglio il nativo o quantomeno, rigorosamente senza OC, un cavo come quello del Thor vs 8 pin ma nativo della casa a sezione maggiore.
Personalmente il thor se dovessi prendere un ali nuovo non lo prenderei, aspetterei il nativo.
fraussantin
24-09-2022, 22:23
Buonasera, scusatemi al di là del cavo nativo o meno un buon alimentatore da 1000 watt per una prossima 4090 tipo msi suprim o strix potrebbe non bastare in termini di potenza ?Per quello che sappiamo fino ad ora basta.
Aspettiamo test più precisi, sopratutto per quel "al di là".
Kostanz77
24-09-2022, 22:24
Io ho già pronto su amazon 2300 euro quasi.
Io dovrei prendere proprio quelli che hai descritto tu :D mannaggia. La prima che trovo tra quelle li.
Io ho sempre pensato ad un corsair ax oppure un asus thor. Secondo me puoi anche risparmiare e prendere il vecchio thor tanto non è nativo quello nuovo e costa 100 euro in più. Se lo trovi allo stesso prezzo invece fai pure :)
Ancora non c'è un Thor nativo ATX 3.0, come ha giustamente scritto scorpion73, il Thor attualmente la versione V2 sul mercato è un normale alimentatore con in più un cavo 2X8 PIN /12+4 PIN che può pilotare fino a 450W sulla singola linea, attualmente l'unico nativo ATX 3.0 è l Asus LOKI.
Inviato dal mio iPad utilizzando Tapatalk Pro
scorpion73
24-09-2022, 22:25
Per quello che sappiamo fino ad ora basta.
Aspettiamo test più precisi
Ti basta come potenza, ma per il cavo hai due scelte:
- un ali atx 3.0 nativo
- un cavo 2x8 vs 12+2 pin (like il thor) che eroga 450w quindi rigorosamente senza OC.
Non prenderei un adattatore: come dicevo sopra la differenza sicuramente sta nella sezione e nel tipo del cavo.
Un 2x8 vs 12+2 ha sezione maggiorata rispetto ai cavi attuali e normali a 8 pin e sarà penso AWG16 invece di AWG18 o AWG20.
Con tutta quella corrente penso che siano dettagli da non trascurare.
fraussantin
24-09-2022, 22:31
Ti basta come potenza, ma per il cavo hai due scelte:
- un ali atx 3.0 nativo
- un cavo 2x8 vs 12+2 pin (like il thor) che eroga 450w quindi rigorosamente senza OC.
Non prenderei un adattatore: come dicevo sopra la differenza sicuramente sta nella sezione e nel tipo del cavo.
Un 2x8 vs 12+2 ha sezione maggiorata rispetto ai cavi attuali e normali a 8 pin e sarà penso AWG16 invece di AWG18 o AWG20.
Con tutta quella corrente penso che siano dettagli da non trascurare.
Che sia preferibile uno nativo è chiaro.
Ma se uno ha GIÀ un alimentatore da 1000 w io aspetterei a buttare 400 euro aspettando cosa succederà.
Un chiarimento. Perche 2x8 -> 14?
Non dovrebbero essere almeno 3x8?
Edit. Sono 4x8 da quel che vedo in giro o sbaglio ?
Cmq su questi consumi credo sia più probabile puntare su un undervolt che su un overclock puro.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.