View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
CHIUSO OT
quoto
e in futuro sarebbe bene neanche aprirlo
>bYeZ<
per quel che mi riguarda potrebbero benissimo piazzare al TI a 1699 euro, poi voglio propiro vedere se i prezzi delle 2000 facevano così cagare, insomma, si stava meglio quando si stava peggio.
Se a quel prezzo un nuovo motivo per passare direttamente alla Play5 :asd:
Non scherziamo visto che Nvidia ha già esagerato fin troppo con i prezzi sulle top di gamma.
Ha inserito una 2080Ti a 1300 euro spacciandola come “next generation” ovvero che doveva essere presentata un anno dopo la 2080 con la scusante che presentandola prima doveva per forza costare in quel modo!
Meglio non tirare troppa la corda fossi in lei perchè veramente si valutano altre alternative con tanto di amaro in bocca sia chiaro!
fraussantin
31-07-2020, 20:27
Edit
Crysis90
31-07-2020, 20:32
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-up-to-35-faster-than-rtx-2080-ti-in-3dmark-timespy/
Se le cose stanno veramente così, Ampere sarà veramente un salto notevole.
Alla Pascal.
Thunder-74
31-07-2020, 20:50
Se le cose stanno così, molto probabilmente la Ti non la tirano fuori da subito, Nvidia non ha bisogno di spingere più di tanto sull'acceleratore, una scheda che outperformi la 2080ti del 35-40% in raster e la annienti in RT è più che sufficiente.
Ho paura che tiri fuori la 3080 a prezzi fuori di testa e la TI venga rivelata solo in seguito, come da prassi (escluso lancio di turing) dove di certo non bastava presentarsi con una 2080 con +10% di performance e 8gb di vram, che razza di flagship sarebbe stata? la 2080ti è stata pushata subito per quel motivo, prestazioni calibrate come sempre.
Ci sta il tuo ragionamento... sarebbe tornare al modus operandi di sempre.
Inviato dal mio iPad utilizzando Tapatalk
Thunder-74
31-07-2020, 21:14
Cioè, capite? è veramente troppo pushare la Ti da subito, la concorrenza ha la vecchia radeon VII e la 5700xt, queste sono le due schedecon le maggiori performance della casa rossa, la 2080ti sta sopra di brutto a queste schede + RT, una 3080 che va il 35-40% e che sia un portento in RT meglio le devasta raggiungiamo quasi il doppio in raster e RT non classificabile.
Big Navi quanto andrà? 15-20% sopra 2080ti? troppo poco, a nvidia basta una scheda come la 3080 se le performance sono quelle (+35% da 2080ti) dopo un pò farà uscire 3080ti, tanto per dare l'ennesima sberla
Però pensavo... dato che si basano sullo stesso chip, molto dipenderà dalle rese. Non credo si mettano a cuttare chip buoni per fare delle 3080ti
Inviato dal mio iPad utilizzando Tapatalk
Giovamas
31-07-2020, 21:34
Oggi mi hanno proposto 800 euro su fb, ho rifiutato..
Troppo presto per svenderla, tanto le nuove per vederle nel case si parla di novembre.
quoto. stessa offerta fatta a me più o meno. no fino a che non ho in casa la "sostituta" non vendo
TigerTank
31-07-2020, 22:27
Se le cose stanno così, molto probabilmente la Ti non la tirano fuori da subito, Nvidia non ha bisogno di spingere più di tanto sull'acceleratore, una scheda che outperformi la 2080ti del 35-40% in raster e la annienti in RT è più che sufficiente.
Ho paura che tiri fuori la 3080 a prezzi fuori di testa e la TI venga rivelata solo in seguito, come da prassi (escluso lancio di turing) dove di certo non bastava presentarsi con una 2080 con +10% di performance e 8gb di vram, che razza di flagship sarebbe stata? la 2080ti è stata pushata subito per quel motivo, prestazioni calibrate come sempre.
Naa vedrai che invece la tirerà fuori subito.
Con la scusa di Cyberpunk 2077 + ray tracing in grande stile, ci saranno tanti inscimmiati cronici che saranno disposti a spendere pure 2000€ per una nuova Ti subito :D
mikael84
31-07-2020, 23:20
Cioè, capite? è veramente troppo pushare la Ti da subito, la concorrenza ha la vecchia radeon VII e la 5700xt, queste sono le due schedecon le maggiori performance della casa rossa, la 2080ti sta sopra di brutto a queste schede + RT, una 3080 che va il 35-40% e che sia un portento in RT meglio le devasta raggiungiamo quasi il doppio in raster e RT non classificabile.
Big Navi quanto andrà? 15-20% sopra 2080ti? troppo poco, a nvidia basta una scheda come la 3080 se le performance sono quelle (+35% da 2080ti) dopo un pò farà uscire 3080ti, tanto per dare l'ennesima sberla
E'un'incognita, non si conoscono le specs esatte, si parla di raddoppio, e può pure essere su un nodo così avanzato.
Di certo ha tutte le possibilità per fare bene, anzi molto bene, ma penso che JHH si sia fatto i suoi conti.:)
Però pensavo... dato che si basano sullo stesso chip, molto dipenderà dalle rese. Non credo si mettano a cuttare chip buoni per fare delle 3080ti
Inviato dal mio iPad utilizzando Tapatalk
Si la 3080ti verrà presentata subito, inizialmente come quadro, e quindi anche come game.:)
JHH sa bene cosa fare, non può piazzare una 3080 a 999$ sopratutto se in quel PP di scarto.:)
Naa vedrai che invece la tirerà fuori subito.
Con la scusa di Cyberpunk 2077 + ray tracing in grande stile, ci saranno tanti inscimmiati cronici che saranno disposti a spendere pure 2000€ per una nuova Ti subito :D
Si, sopratutto questa volta che saranno molto vicine.:)
amon.akira
01-08-2020, 00:36
Si, sopratutto questa volta che saranno molto vicine.:)
anche per me usciranno insieme, però questa volta sarò molto combattuto a causa del tdp semmai fosse veritiero quello dei rumors (320w). Se fosse 7nm almeno il ga102 verrebbe automaticamente smentito, ma tutto punta agli 8nm samsung
mikael84
01-08-2020, 00:57
anche per me usciranno insieme, però questa volta sarò molto combattuto a causa del tdp semmai fosse veritiero quello dei rumors (320w). Se fosse 7nm almeno il ga102 verrebbe automaticamente smentito, ma tutto punta agli 8nm samsung
Per verificarsi un + 35% ad 8nm, devi clockare davvero pesante, o semplicemente hanno letteralmente stirato il chip.
L'IPC da il suo boost, ma mai quanto un cambio micro architetturale.
Lavorando veramente bene di IPC, puoi prenderci un 15%, essendo ottimisti, un 20% dovresti prenderlo dal clock, ma non si traduce in 20% puri.
Qua purtroppo ci vorrebbe la sfera di cristallo, avessi almeno qualche conferma di un solo valore...:)
amon.akira
01-08-2020, 01:05
Per verificarsi un + 35% ad 8nm, devi clockare davvero pesante, o semplicemente hanno letteralmente stirato il chip.
L'IPC da il suo boost, ma mai quanto un cambio micro architetturale.
Lavorando veramente bene di IPC, puoi prenderci un 15%, essendo ottimisti, un 20% dovresti prenderlo dal clock, ma non si traduce in 20% puri.
Qua purtroppo ci vorrebbe la sfera di cristallo, avessi almeno qualche conferma di un solo valore...:)
si ovvio fossero a 8nm si parlerebbe di +20% medio in caso di 3080, dove un 15% medio di ipc e un 5% di clock
È verosimile un’ipotetica 3080 con margine del 20% in più dell’attuale 2080Ti intorno alle 800 euro?
Sarebbe perfetta in 4K per me :)
amon.akira
01-08-2020, 11:19
È verosimile un’ipotetica 3080 con margine del 20% in più dell’attuale 2080Ti intorno alle 800 euro?
Sarebbe perfetta in 4K per me :)
sulle prestazioni sicuro, sul prezzo può darsi, mal che vada 900 :)
magic carpet
01-08-2020, 11:27
Se fosse vero il tdp di 320w, secondo voi basta un ali da 650 80+?
Amon Akira,se Asus Strix sicuramente...
Altra possibilità è che Nvidia lanci anche una 3080Ti con margine del 35-40% in più della 2080Ti.
Il punto è capire se presenterà solo una 3080 e solo successivamente una 3080Ti o entrambe
mikael84
01-08-2020, 11:39
si ovvio fossero a 8nm si parlerebbe di +20% medio in caso di 3080, dove un 15% medio di ipc e un 5% di clock
15% di IPC, è un dato davvero ottimistico, samsung a livello di clock qualcosa in più la può fare. Sicuramente una stirata via pipe in maniera intelligente verrà fatta.
A livello di clock sarà un 10nm puro, in quanto gli 8nm non portano benefici in questo caso, quindi si parte da oltre il 10% sino al 20%, con valori forse a metà strada. Anche se un 20% non è escluso.
Diciamo che questo è un PP, che sarebbe stato ottimo per turing.:)
Un elemento che mi farebbe desistere, se così fosse non sceglierò la top di gamma, se ci devo buttare il cavo di alta tensione dentro il case, allora prendo una x80 liscia e via a sto giro, non voglio schede che sotto oc consumino 600w, già la 2080ti sotto oc con bios sbloccato fa cag@re, uno scaldabagno.
La 3080 sarà sempre basata su GA102, con TDP probabilmente simili. Chiaro che la 3080ti a pari clock sarà mediamente più esosa, o tenderà a downclockare di più.
maxmix65
01-08-2020, 11:52
È verosimile un’ipotetica 3080 con margine del 20% in più dell’attuale 2080Ti intorno alle 800 euro?
Sarebbe perfetta in 4K per me :)
Ma non penso proprio secondo me la metteranno la 3080 a 1199€ e la 3090 1399€
Vedrai se e' cosi.. tanto concorrenza = 0
Nvidia non e' un ente benefico
e le 2080ti rimarranno sulle 900-1000€
1200 euro per una 3080 che andrebbe a sostituire la 2080 Super?
Per un ipotetico 20% in più dell’attuale 2080Ti?
Non credo proprio o almeno spero...
mikael84
01-08-2020, 12:06
Ma non penso proprio secondo me la metteranno la 3080 a 1199€ e la 3090 1399€
Vedrai se e' cosi.. tanto concorrenza = 0
Nvidia non e' un ente benefico
e le 2080ti rimarranno sulle 900-1000€
Quasi un 2x rispetto alla 2080 no. Forse ci saranno prezzi folli, con poche disponibilità, ed inizialmente senza competitor, ma dopo si daranno una regolata.
Da 699$ a 1199$ è davvero tanto.
AMD poi farà cartello con la 3080, e difficilmente si spingerà a quei livelli.
OrazioOC
01-08-2020, 12:09
Quasi un 2x rispetto alla 2080 no. Forse ci saranno prezzi folli, con poche disponibilità, ed inizialmente senza competitor, ma dopo si daranno una regolata.
Da 699$ a 1199$ è davvero tanto.
AMD poi farà cartello con la 3080, e difficilmente si spingerà a quei livelli.
Però la 2080 ti negli usa parte da 999 dollari, i 1199 sono per la fe.
mikael84
01-08-2020, 12:23
Però la 2080 ti negli usa parte da 999 dollari, i 1199 sono per la fe.
Tutti i chip non A partono da 999$, ovvero quelli a basso TDP e PL. Le FE, si a 1199$, però parliamo del modello TI.
La 2080s parte da 699$ in bin.
Thunder-74
01-08-2020, 12:25
Un elemento che mi farebbe desistere, se così fosse non sceglierò la top di gamma, se ci devo buttare il cavo di alta tensione dentro il case, allora prendo una x80 liscia e via a sto giro, non voglio schede che sotto oc consumino 600w, già la 2080ti sotto oc con bios sbloccato fa cag@re, uno scaldabagno.
Se il pensiero fossero le temp, segnalo che alphacool ha prodotto un sistema AIO per le vga . Con 200 euro ti danno waterblock , radiatore 360, ventole , pompa integrata nel WB con sganci rapidi puoi anche espanderlo se vuoi includere altri rad o wb per cpu. Ovviamente per vga con pcb reference . Dicono che anche per la serie 3000 lo faranno.
https://vonguru.fr/2020/07/30/alphacool-eiswolf-2-un-watercooling-aio-pour-carte-graphique/amp/
Inviato dal mio iPhone X utilizzando Tapatalk
OrazioOC
01-08-2020, 12:27
Tutti i chip non A partono da 999$, ovvero quelli a basso TDP e PL. Le FE, si a 1199$, però parliamo del modello TI.
La 2080s parte da 699$ in bin.
Vabbe' lo street price della fe non è veritiero, caricano un centone in più solo per il loro dissipatore, che è anche peggiore di molte custom entry level :asd:.
Tutti i chip non A partono da 999$, ovvero quelli a basso TDP e PL. Le FE, si a 1199$, però parliamo del modello TI.
La 2080s parte da 699$ in bin.
A parte le Fe con chip A,per distinguere quelle custom e stare sicuri che il chip sia A e non altro( anche perchè ci siamo trovati una differenza scandalosa di 30-50 euro tra una custom con chip A e un’altra con chip Non A) occorre puntare su tutte le versioni Oc?
Solo quest’ultima è la discriminante?
Grazie ;)
mikael84
01-08-2020, 12:36
Vabbe' lo street price della fe non è veritiero, caricano un centone in più solo per il loro dissipatore, che è anche peggiore di molte custom entry level :asd:.
Con turing le FE hanno giocato anche sul fattore bin.
A parte le Fe con chip A,per distinguere quelle custom e stare sicuri che il chip sia A e non altro( anche perchè ci siamo trovati una differenza scandalosa di 30-50 euro tra una custom con chip A e un’altra con chip Non A) occorre puntare su tutte le versioni Oc?
Solo quest’ultima è la discriminante?
Grazie ;)
Esatto, ecco per esempio.
Clicca
https://i.postimg.cc/4YTjKGMQ/bin2.png (https://postimg.cc/4YTjKGMQ)
Questo ovviamente valeva anche per i modelli scrausi.
Ad esempio, una ventus di MSI (le più economiche della serie), per avere il bin, dovevi prendere la versione con scritta OC.:)
Thunder-74
01-08-2020, 12:49
Con turing le FE hanno giocato anche sul fattore bin.
Esatto, ecco per esempio.
Clicca
https://i.postimg.cc/4YTjKGMQ/bin2.png (https://postimg.cc/4YTjKGMQ)
Questo ovviamente valeva anche per i modelli scrausi.
Ad esempio, una ventus di MSI (le più economiche della serie), per avere il bin, dovevi prendere la versione con scritta OC.:)
Esatto, poi bisogna stare attenti alle schede con PCB custom da 19 fasi e chip non A come la Asus Strix liscia :doh:
Crysis90
01-08-2020, 13:25
https://www.hwupgrade.it/news/cpu/nvidia-sempre-piu-vicina-a-rilevare-arm-da-softbank_91167.html
Pensate a che tipo di azienda fantasmagorica potrebbe diventare NVidia con l'acquisizione di ARM.
Si aprirebbe un mondo nuovo. :read:
maxmix65
01-08-2020, 13:34
1200 euro per una 3080 che andrebbe a sostituire la 2080 Super?
Per un ipotetico 20% in più dell’attuale 2080Ti?
Non credo proprio o almeno spero...
Quasi un 2x rispetto alla 2080 no. Forse ci saranno prezzi folli, con poche disponibilità, ed inizialmente senza competitor, ma dopo si daranno una regolata.
Da 699$ a 1199$ è davvero tanto.
AMD poi farà cartello con la 3080, e difficilmente si spingerà a quei livelli.
Spero mi sbagli ma secondo me i prezzi saranno quelli
Nvidia non regala nulla ...ha la 3080 che va 20% + della 2080ti= la paghiii di piu..
E poi non renderebbe invendibili le 2080ti mettendo la 3080 al prezzo da me indicato..
Thunder-74
01-08-2020, 14:16
https://www.hwupgrade.it/news/cpu/nvidia-sempre-piu-vicina-a-rilevare-arm-da-softbank_91167.html
Pensate a che tipo di azienda fantasmagorica potrebbe diventare NVidia con l'acquisizione di ARM.
Si aprirebbe un mondo nuovo. :read:
si, ma sai chi pagherà i costi di acquisto di Arm?
Crysis90
01-08-2020, 14:20
si, ma sai chi pagherà i costi di acquisto di Arm?
Gli investitori.
Ogni azienda si auto-finanzia grazie alla propria quotazione in borsa. :O
mikael84
01-08-2020, 14:24
Esatto, poi bisogna stare attenti alle schede con PCB custom da 19 fasi e chip non A come la Asus Strix liscia :doh:
Giusto per vendere nmilla modelli. Se pensi alla 980ti con quei valori di TDP e PL con 6+2 fasi da reference.
Spero mi sbagli ma secondo me i prezzi saranno quelli
Nvidia non regala nulla ...ha la 3080 che va 20% + della 2080ti= la paghiii di piu..
E poi non renderebbe invendibili le 2080ti mettendo la 3080 al prezzo da me indicato..
Sul 20% bisogna realmente capire il PP. Su un 7nm, cambierebbe tutto.
Cmq, non per forza deve succedere questo, allora la 3070 la vendiamo a 999$ considerando prestazioni media da TI e superiori in RT.:) .
La 3080 ad 8nm sarebbe un chip da 615mm2 circa in versione di mega scarto.
La 2080 ha scalato fascia per vari motivi, come mining, nessuna concorrenza, e chip più grande della 1080ti con progetto RT.:)
maxmix65
01-08-2020, 14:37
Giusto per vendere nmilla modelli. Se pensi alla 980ti con quei valori di TDP e PL con 6+2 fasi da reference.
Sul 20% bisogna realmente capire il PP. Su un 7nm, cambierebbe tutto.
Cmq, non per forza deve succedere questo, allora la 3070 la vendiamo a 999$ considerando prestazioni media da TI e superiori in RT.:) .
La 3080 ad 8nm sarebbe un chip da 615mm2 circa in versione di mega scarto.
La 2080 ha scalato fascia per vari motivi, come mining, nessuna concorrenza, e chip più grande della 1080ti con progetto RT.:)
All'inizio sara' cosi spero di sbagliarmi poi all'uscita di Amd calera' i prezzi rendendoli "Normali"
La 3070 non so se uscira' in contemporanea ma secondo me costera' piu' della 2070s almeno 100-120€ in piu
thunderforce83
01-08-2020, 14:45
Giusto per vendere nmilla modelli. Se pensi alla 980ti con quei valori di TDP e PL con 6+2 fasi da reference.
Sul 20% bisogna realmente capire il PP. Su un 7nm, cambierebbe tutto.
Cmq, non per forza deve succedere questo, allora la 3070 la vendiamo a 999$ considerando prestazioni media da TI e superiori in RT.:) .
La 3080 ad 8nm sarebbe un chip da 615mm2 circa in versione di mega scarto.
La 2080 ha scalato fascia per vari motivi, come mining, nessuna concorrenza, e chip più grande della 1080ti con progetto RT.:)
esattamente...al massimo vedremo un lievitare dei prezzi nella misura dei 100 euro ciascuno,del tipo la 3070 a 600euro e la 3080a 800/900 euro...con la 3070che fara' meglio o piu' o meno come la 2080ti...
leggo con simpatia che qualcuno vuole fare il prezzo della 2080ti usata:D si certo...com'e' successo all'epoca delle vecchie titan che da 1200euro di colpo sono state svendute in fretta a 300euro:D suvvia siate serii,,,se trovate il pollo che vi da quei soldi a fine vita per un termosifone che d'estate in previsione delle nuove serve poco e niente ok...magari qualcuno vi scuce pure 1000euro,,,ma comunque tra chi ne capisce sapete benissimo che appena si vocifera dell'imminente uscite della 3070 a 600 euro, credo che se vendete la 2080ti a 400/450e siete gia' fortunati...
È verosimile un’ipotetica 3080 con margine del 20% in più dell’attuale 2080Ti intorno alle 800 euro?
Sarebbe perfetta in 4K per me :)
Secondo me molto probabile entrambe le cose, e la 3070 a 600€.
maxmix65
01-08-2020, 15:16
esattamente...al massimo vedremo un lievitare dei prezzi nella misura dei 100 euro ciascuno,del tipo la 3070 a 600euro e la 3080a 800/900 euro...con la 3070che fara' meglio o piu' o meno come la 2080ti...
leggo con simpatia che qualcuno vuole fare il prezzo della 2080ti usata:D si certo...com'e' successo all'epoca delle vecchie titan che da 1200euro di colpo sono state svendute in fretta a 300euro:D suvvia siate serii,,,se trovate il pollo che vi da quei soldi a fine vita per un termosifone che d'estate in previsione delle nuove serve poco e niente ok...magari qualcuno vi scuce pure 1000euro,,,ma comunque tra chi ne capisce sapete benissimo che appena si vocifera dell'imminente uscite della 3070 a 600 euro, credo che se vendete la 2080ti a 400/450e siete gia' fortunati...
La 2070 super in negozi serie viene ancora almeno 520-620€
Mettici 100-150€ a seconda del modello per le 3070..
Sopratutto per non far deprezzare troppo la serie 2070s-2080s-2080ti che hanno nei magazzini distributori etcc..
fraussantin
01-08-2020, 15:21
La 2070 super in negozi serie viene ancora almeno 520-620
Mettici 100-150 a seconda del modello per le 3070..
Sopratutto per non far deprezzare troppo la serie 2070s-2080s-2080ti che hanno nei magazzini distributori etcc..E finchè le 2080 non si esaurita non uscirà la 3060.
Cmq in euro mi aspetto una volta uscite le custom a seconda del modello
3060 450\550
3070 590\700
3080 800\950
Sulla ti non mi pronuncio ma onestamente penso sia difficile vederla prezzata più della attuale.
Non è la prima volta che i magazzini se la tengono sullo scaffale dopo l’uscita della nuova serie di sk grafiche...
In sostanza,se sei convinto di fare il passaggio meglio venderla ora,ad un prezzo “realistico”,piuttosto che svenderla inevitabilmente dopo.
Altrimenti la si tiene e sei contento due volte sopratutto se non giochi in 4K :D
maxmix65
01-08-2020, 15:26
E finchè le 2080 non si esaurita non uscirà la 3060.
Cmq in euro mi aspetto una volta uscite le custom a seconda del modello
3060 450\550
3070 590\700
3080 800\950
Sulla ti non mi pronuncio ma onestamente penso sia difficile vederla prezzata più della attuale.
la 3080 se va' 20-25% piu' della 2080ti verra molto di piu se invece va un 5% in piu sulle 950€ ci sta
Ma anche no...
Chi se la compra a 950 euro per un 5%??
mikael84
01-08-2020, 15:34
All'inizio sara' cosi spero di sbagliarmi poi all'uscita di Amd calera' i prezzi rendendoli "Normali"
La 3070 non so se uscira' in contemporanea ma secondo me costera' piu' della 2070s almeno 100-120€ in piu
La 3070 probabilmente debutterà 2 mesi dopo, generico q4.
La preoccupazione sui prezzi deriva per lo più che, la 3070 dovrebbe sostituire TU106, invece sostituirà TU104.
Probabilmente lo farà insieme ad AMD.
Sulla 3070 si saprà tutto alla presentazione della 3080.
Dovrebbe portare a 3 cut.
La 3060 potrebbe addirittura debuttare ad inizi 2021, ed anche qua non si potrà tirare troppo la corda, perchè teoricamente sostituisce la serie 1660.
fraussantin
01-08-2020, 15:41
la 3080 se va' 20-25% piu' della 2080ti verra molto di piu se invece va un 5% in piu sulle 950 ci staSecondo me le fasce in concorrenza con amd o cmq vicine non subiranno troppi svarioni.
mikael84
01-08-2020, 15:46
Secondo me le fasce in concorrenza con amd o cmq vicine non subiranno troppi svarioni.
Ci sono tuttavia altri fattori da calcolare. In questa gen, RT e pro la faranno da padrona sui chipponi.
Nvidia con nvlink e tensor anche sulla 3080 come la 3080ti, ha poco senso paragonarla in raster con la concorrenza.
Non siamo più ai tempi di pascal/vega.
La battaglia sarà anche, e sopratutto li.
thunderforce83
01-08-2020, 17:26
La 2070 super in negozi serie viene ancora almeno 520-620€
Mettici 100-150€ a seconda del modello per le 3070..
Sopratutto per non far deprezzare troppo la serie 2070s-2080s-2080ti che hanno nei magazzini distributori etcc..
nvidia ha fermato la produzione di turing da un pezzo...non credo che ci siano tante schede come con le vecchie 1080/1080ti per via del mining anzi...i padelloni delle 2080ti saranno anche pochi e molti polli la prenderenno nel breve termine ignorando completamente che a breve uscira' la serie 3xxx:D
maxmix65
01-08-2020, 18:03
Ma anche no...
Chi se la compra a 950 euro per un 5%??
Scusa ammettiamo che faccia solo un 5-10% di piu della 2080ti mi sembra normale il prezzo 950 considerando che la 2080ti costa 1200€
Ma se fosse cosi gli ordini fioccano
FrancoBit
01-08-2020, 18:17
E poi entro io in gamba tesa e prendo la 3080 super 6 mesi dopo l'uscita di ampère taaaaaaac 😁
Inviato dal mio Mi 9 SE utilizzando Tapatalk
Scusa ammettiamo che faccia solo un 5-10% di piu della 2080ti mi sembra normale il prezzo 950 considerando che la 2080ti costa 1200€
Ma se fosse cosi gli ordini fioccano
Perchè mi aspetterei da una 3080 un + 20% dalla 2080Ti,non un 5% ;)
Dobbiamo cominciare a ragionare, la 3080 andrà molto di più nel complesso, il +20% in raster passa in secondo piano, quando in RT andrà molto meglio rispetto alla 2080ti, Nvidia ovviamente pubblicizzerà ancora RT e farà vedere una bella slide dove 3080 sarà molto più veloce della top di gamma turing.
Sempre se l’Rt prenderà piede anche se le premesse ci sono.
C’è anche da dire che i titoli futuri che implementeranno Rt migliorato necessiteranno di maggiore potenza di calcolo e mettici anche i porting mal ottimizzati ed ecco che una 3080 potrà anche risultare non sufficientemente potente,almeno in 4k
Ma magari fosse anche ''solo'' +20% e se fosse un salto alla pascal dove 3080 +35% rispetto a 2080ti, ancor meglio:D :D
A quel punto mi prendo la 3080 e campo felice:D :D
In 1440p potrei essere cpu limited LOL in 1440p Rt on Dlss 3.0 andrà una spada ed in 4k ne ho per altri 2 annetti XD, 3080 is the way, spero dia un 30%
Un 20% non lo vedo impropabile...
Siamo in due comunque :D
mikael84
01-08-2020, 18:37
Dobbiamo cominciare a ragionare, la 3080 andrà molto di più nel complesso, il +20% in raster passa in secondo piano, quando in RT andrà molto meglio rispetto alla 2080ti, Nvidia ovviamente pubblicizzerà ancora RT e farà vedere una bella slide dove 3080 sarà molto più veloce della top di gamma turing.
Sul RT, ho fatto un piccolo ragionamento, riguardo voci di un 2x, prendendo un vecchio rumor di ampere.
https://www.hwupgrade.it/forum/showpost.php?p=46897328&postcount=48811
Kostanz77
01-08-2020, 18:47
Ma magari fosse anche ''solo'' +20% e se fosse un salto alla pascal dove 3080 +35% rispetto a 2080ti, ancor meglio:D :D
A quel punto mi prendo la 3080 e campo felice:D :D
In 1440p potrei essere cpu limited LOL in 1440p Rt on Dlss 3.0 andrà una spada ed in 4k ne ho per altri 2 annetti XD, 3080 is the way, spero dia un 30%
è ora di cambiare monitor con queste schede.....minimo un 3440x1440p
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
amon.akira
01-08-2020, 19:04
Sul RT, ho fatto un piccolo ragionamento, riguardo voci di un 2x, prendendo un vecchio rumor di ampere.
https://www.hwupgrade.it/forum/showpost.php?p=46897328&postcount=48811
invece di
RTX 3080ti 82tf @ 2ghz
RTX 3080@ 67TF@ 2ghz
se mettiamo 1800mhz vs 2000mhz di quanto si ridurebbe il distacco? ipoteticamente sarebbe piu realistica in ottica power limit un -200 o cmq -10%clock
dovrebbe essere una "sciocchezza" in rt, tipo 79.5/80 a 1800 per la ti
il distacco rimarrebbe cmq +20% in rt (-3%?) e +12%raster (-10%?)
sarebbero cmq +10fps su 50 in rt ma in raster sarebbe decisamente sconveniente.
mikael84
01-08-2020, 19:20
Bella Mike, ottima disamina avevo già letto il tuo post, un 2x è qualcosa di allucinante ma non tanto distante dalla realtà, potrebbe accadere sul serio, se cosi fosse Ampere potrebbe essere un vero mostro di architettura.:D
Ampere dovrebbe puntare molto sul RT. A livello di tensor, se solo saranno quelli, o anche dimezzati, sarà un salto assurdo (e quelli si conoscono già).
invece di
RTX 3080ti 82tf @ 2ghz
RTX 3080@ 67TF@ 2ghz
se mettiamo 1800mhz vs 2000mhz di quanto si ridurebbe il distacco? ipoteticamente sarebbe piu realistica in ottica power limit un -200 o cmq -10%clock
dovrebbe essere una "sciocchezza" in rt, tipo 79.5/80 a 1800 per la ti
il distacco rimarrebbe cmq +20% in rt (-3%?) e +12%raster (-10%?)
sarebbero cmq +10fps su 50 in rt ma in raster sarebbe decisamente sconveniente.
3080ti : 73,34 (calcolato a full chip)
3080: 58tf
Nelle prime stime, non mi ricordo se ho calcolato a full chip, nel caso posso rifarli.
amon.akira
01-08-2020, 19:23
Ampere dovrebbe puntare molto sul RT. A livello di tensor, se solo saranno quelli, o anche dimezzati, sarà un salto assurdo (e quelli si conoscono già).
3080ti : 73,34 (calcolato a full chip)
3080: 58tf
Nelle prime stime, non mi ricordo se ho calcolato a full chip, nel caso posso rifarli.
allora peggio, no vabbe prendo per buoni i 67tf a 2ghz dei 4352cuda della liscia...però cosi sarebbe sconveniente anche in rt...mi sa che salvo wattaggi smentiti la 3080 is the way
mikael84
01-08-2020, 19:30
allora peggio, no vabbe prendo per buoni i 67tf a 2ghz dei 4352cuda della liscia...però cosi sarebbe sconveniente anche in rt...mi sa che salvo wattaggi smentiti la 3080 is the way
Ti confermo, i dati sono sul full chip, ma qualche cc verrà tagliato sicuro sulla TI.
Allora sono circa 80tf con 5248cc /78tf con 5120cc /cifre arrotondate
amon.akira
01-08-2020, 19:34
Ti confermo, i dati sono sul full chip, ma qualche cc verrà tagliato sicuro sulla TI.
Allora sono circa 80tf con 5248cc /78tf con 5120cc /cifre arrotondate
sempre peggio dal mio punto di vista, cioè mantenermi nei 330w ad aria :P
fraussantin
01-08-2020, 21:25
Ci sono tuttavia altri fattori da calcolare. In questa gen, RT e pro la faranno da padrona sui chipponi.
Nvidia con nvlink e tensor anche sulla 3080 come la 3080ti, ha poco senso paragonarla in raster con la concorrenza.
Non siamo più ai tempi di pascal/vega.
La battaglia sarà anche, e sopratutto li.Si ma guarda per dire la 5700xt ,.nonostante non abbia RT nonostante i driver e i bug non siano mancati non è andata male.. anzi
E come prezzo si assestava suo 400 500 euro
Se big navi esce con 16 giga e una specie di raytracing secondo me incontrerà bene . E Nvidia non potrà esagerare.
Io me l'aspetto tra la 3070 e la 3080. Sui 600 700 euro. ( Ma calerà presto )
Una 3080 a quanto la vendi? 1000 euro? E chi te la compra?
Arrow0309
01-08-2020, 22:00
sempre peggio dal mio punto di vista, cioè mantenermi nei 330w ad aria :P
Ehhehhehehhe, io ho smesso coi watt gpu oltre una certa soglia, la soluzione e' la xx80 seppur ad aria.
Ho dedicato tutta la potenza raffreddante alla cpu ed anche se sono sui 300W in full load avx (lol) in gaming ne consuma molto meno :D :cool:
Ovv resterò sempre sulla 3080, spero di scegliere bene sin dall'inizio.
mikael84
01-08-2020, 23:18
sempre peggio dal mio punto di vista, cioè mantenermi nei 330w ad aria :P
Per i consumi, è da vedere ancora. A meno che, non le abbiamo stirate, con pochissima manovra in OC.
Tipo 2200 a def.:)
Per TDP, si intende anche raster, salve specifiche particolari.
La 2080ti ha 6 GPC da 43 watt su 260w chip bin (fe), con 7 sarebbe a 305 watt, ma non ha un collegamento, quindi meno.
In chip del genere dovrebbe stare sui 215/220watt, levando il collegamento, anche meno.
Quindi, o è sballato, o c'è dell'altro, oppure l'hanno letteralmente sparata, e per gestirla dovrai downclockarla subito.:)
Si ma guarda per dire la 5700xt ,.nonostante non abbia RT nonostante i driver e i bug non siano mancati non è andata male.. anzi
E come prezzo si assestava suo 400 500 euro
Se big navi esce con 16 giga e una specie di raytracing secondo me incontrerà bene . E Nvidia non potrà esagerare.
Io me l'aspetto tra la 3070 e la 3080. Sui 600 700 euro. ( Ma calerà presto )
Una 3080 a quanto la vendi? 1000 euro? E chi te la compra?
AMD, ha le carte per fare molto bene, ha un PP super avanzato praticamente, risulta quasi un nodo avanti.
Ciò che però conterà, saranno altri 2 fattori, come il pro e il RT.
La 5700 ha venduto bene, però ricopre una fascia medio bassa, bisogna vedere come se la giocherà con una pro, e con un possibile divario RT a certi prezzi.
Bisogna vedere entrambe le offerte e valutare.
In fascia medio bassa, certi parametri neppure li valuti.
Giusto per vendere nmilla modelli. Se pensi alla 980ti con quei valori di TDP e PL con 6+2 fasi da reference.
cut
All epoca nvdia non ha messo mano all alimentazione perche fosse intervenuta alla turing altro che 649 per la top.
La mia previsione è 3080 al prezzo della tu102, per versione TI union black jacket ha gia pronta la purga olio di ricino incluso al bisogno dopo i pasti
e anche per quest anno me ne resto buono con la mia milfona di rame
Thunder-74
02-08-2020, 09:07
Sinceramente per la questione dei watt poco mi importa ... ero abituato agli SLi ... voglio le prestazioni a tutti i costi :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
Sinceramente per la questione dei watt poco mi importa ... ero abituato agli SLi ... voglio le prestazioni a tutti i costi :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
Considerando che lo sli è morto, ci sta una singola pompata, che tra l'altro consuma meno di qualunque sli XD
Crysis90
02-08-2020, 09:50
voglio le prestazioni a tutti i costi :fagiano:
Questo si che è parlare. :ave: :read:
è ora di cambiare monitor con queste schede.....minimo un 3440x1440p
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk ProE già.. su cosa puntare senza spendere un rene ? Hai già qualche idea ? 🤔
Inviato dal mio RNE-L21 utilizzando Tapatalk
amon.akira
02-08-2020, 11:27
Sinceramente per la questione dei watt poco mi importa ... ero abituato agli SLi ... voglio le prestazioni a tutti i costi :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
non ne facevo un problema di consumi, ma di watt=calore=rumore ad aria :P
mikael84
02-08-2020, 11:31
All epoca nvdia non ha messo mano all alimentazione perche fosse intervenuta alla turing altro che 649 per la top.
La mia previsione è 3080 al prezzo della tu102, per versione TI union black jacket ha gia pronta la purga olio di ricino incluso al bisogno dopo i pasti
e anche per quest anno me ne resto buono con la mia milfona di rame
Mah, onestamente, pur con i prezzi pazzi, si riesce a realizzare qualcosa di buono. Ok non sarà il top, ma te la cavi.
Io mi sono fatto un PC mid, sui migliori pezzi in rapporto, e mi trovo benissimo lo stesso.:)
Il top di gamma mi manca, ma ci si arrangia lo stesso.
Sinceramente per la questione dei watt poco mi importa ... ero abituato agli SLi ... voglio le prestazioni a tutti i costi :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
Non ricordarmelo, poi ad aria ed al vecchio overvolt.:p
Ovviamente, su una singola scheda cominciano ad essere troppi ad aria, perchè se aggiungi PL ed OC, devi già preventivare al costo base, una GPU premium.:) :)
OrazioOC
02-08-2020, 11:38
Mah, onestamente, pur con i prezzi pazzi, si riesce a realizzare qualcosa di buono. Ok non sarà il top, ma te la cavi.
Io mi sono fatto un PC mid, sui migliori pezzi in rapporto, e mi trovo benissimo lo stesso.:)
Il top di gamma mi manca, ma ci si arrangia lo stesso.
Beh la tua config mike non è proprio mid :asd:, è un pc di fascia alta.
La tua rtx 2070 super con 2 click di afterburner ne avrebbe quanto una 2080 stock, e il 3700x è veramente poco sotto ad un 9900k quando lo si testa con gpu inferiori alla 2080 ti.
Semmai è la fascia enthusiast che ha preso il volo in fatto di prezzi, si è passati dai 7/800 euro della 1080 ti ai 11/1200 della 2080 ti.
E anche come cpu non si scherza, per ottenere qualcosa di veramente buono servono quasi 500 euro(10700k o 3900x).
Onestamente wuando compri una top di gamma non lo fai certo per tenere a bada i consumi
Beh la tua config mike non è proprio mid :asd:, è un pc di fascia alta.
La tua rtx 2070 super con 2 click di afterburner ne avrebbe quanto una 2080 stock, e il 3700x è veramente poco sotto ad un 9900k quando lo si testa con gpu inferiori alla 2080 ti.
Semmai è la fascia enthusiast che ha preso il volo in fatto di prezzi, si è passati dai 7/800 euro della 1080 ti ai 11/1200 della 2080 ti.
E anche come cpu non si scherza, per ottenere qualcosa di veramente buono servono quasi 500 euro(10700k o 3900x).
Non vorrei dire ma parliamo anche di cpu nel caso di AMD da 12 e 16 core... Roba che usi solo in ambito lavorativo non certo per giocare, senza considerare che aldilà dei core c'è anche un netto salto di performance per core, anche un 3600X se lo gioca quasi con un 2700, e con la serie 4000 il distacco sarà maggiore.
Oramai anche gli entry level sono minimo 4c/8t e la cpu mid è minimo 6c/12t e parliamo comunque di soluzioni con clock decenti e ipc elevati, che per giocare e gestire GPU top di gamma non hanno problemi.
La 2070 Super è senza dubbio una soluzione validissima ma ora che uscirà ampere sarà un chippetto mid :fagiano:
La mia config in firma è praticamente un PC di ufficio, per equipararlo in performance basterà un 4300 liscio e un eventuale RTX 3050 :fagiano:
OrazioOC
02-08-2020, 11:59
Non vorrei dire ma parliamo anche di cpu nel caso di AMD da 12 e 16 core... Roba che usi solo in ambito lavorativo non certo per giocare, senza considerare che aldilà dei core c'è anche un netto salto di performance per core, anche un 3600X se lo gioca quasi con un 2700, e con la serie 4000 il distacco sarà maggiore.
Oramai anche gli entry level sono minimo 4c/8t e la cpu mid è minimo 6c/12t e parliamo comunque di soluzioni con clock decenti e ipc elevati, che per giocare e gestire GPU top di gamma non hanno problemi.
La 2070 Super è senza dubbio una soluzione validissima ma ora che uscirà ampere sarà un chippetto mid :fagiano:
La mia config in firma è praticamente un PC di ufficio, per equipararlo in performance basterà un 4300 liscio e un eventuale RTX 3050 :fagiano:
Si ma bisogna anche considerare che nel caso delle cpu amd ha sempre offerto più core, e in gaming questo non è che sia necessariamente un vantaggio, ormai intel sui 200 euro propone 6c/12t come fa amd.
Però un 10700k o un 3900x risultano comunque cpu più adeguate a certi target, questione di cpu usage, di fps minimi, frametime e altre piccolezze che se sommate giustificano comunque l'acquisto di una cpu da 4/500 euro rispetto a quella da 200.
Per la 2070 super, bisogna valorizzarla sul momento, è chiaro che con le prossime gpu e console scenderà di fascia, ma quando è uscita 1 anno fa non era assolutamente una scheda di fascia media, come non lo è in questo momento. :asd:
mikael84
02-08-2020, 12:04
Beh la tua config mike non è proprio mid :asd:, è un pc di fascia alta.
La tua rtx 2070 super con 2 click di afterburner ne avrebbe quanto una 2080 stock, e il 3700x è veramente poco sotto ad un 9900k quando lo si testa con gpu inferiori alla 2080 ti.
Semmai è la fascia enthusiast che ha preso il volo in fatto di prezzi, si è passati dai 7/800 euro della 1080 ti ai 11/1200 della 2080 ti.
E anche come cpu non si scherza, per ottenere qualcosa di veramente buono servono quasi 500 euro(10700k o 3900x).
Lo so, ma è il mio modo di vedere le cose in base ai chip. Sono passato da SLI di top o semitop, alla top singola, alla medio alta ora alla mid.
La vedo come una 1070 o una 970 dell'epoca o poco più.:)
Sulle prestazioni, si, ci sono alla grande, considerando che è un chip bin, riesco a giocare a 2100 fisso (dopo qualche taglio):) .
Lo so, ma è il mio modo di vedere le cose in base ai chip. Sono passato da SLI di top o semitop, alla top singola, alla medio alta ora alla mid.
La vedo come una 1070 o una 970 dell'epoca o poco più.:)
Sulle prestazioni, si, ci sono alla grande, considerando che è un chip bin, riesco a giocare a 2100 fisso (dopo qualche taglio):) .
L'errore maggiore che hai fatto è stato passare da 980ti a 1080, secondo me avresti dovuto osare e prendere direttamente una 1080ti, saltare di sana pianta turing e passare diretto alla 3070.
Ora con la 2070s, i vantaggi maggiori credo stiano solo nel RT e non credo ti convenga la 3070, penso che come minimo dovresti ambire alla 3080 che però è un chip monco che a sua volta è ottenuto da un altro chip monco :fagiano:
Bha...
Solo a me sto Rt non convince??
Tombraider è osceno graficamente sia con e sia senza Rt in confronto ad AC Odissey o Forza Horizon 4 che non l’implementano.
Sento troppo ottimismo ma lo ritengo piuttosto acerbo e dalle richieste grafiche troppo elevate.
Bha...
Solo a me sto Rt non convince??
Tombraider è osceno graficamente sia con e sia senza Rt in confronto ad AC Odissey o Forza Horizon 4 che non l’implementano.
Sento troppo ottimismo ma lo ritengo piuttosto acerbo e dalle richieste grafiche troppo elevate.
Con la prossima gen considera che le unità RT disponibili in una 2080ti le hai praticamente nella 3060, differendo solo per le performance in raster a vantaggio della 2080ti, quindi quel crollo di performance con RT attivo non dovrebbe verificarsi con Ampere...
Turing ha fatto praticamente da apri acque per i dev e per integrare il RT, ma solo con ampere potremmo vedere un'effettiva implementazione fatta come si deve e infatti in base ai rumors sarà accessibile anche per i chip entry level...
Inoltre stanno aggiornando anche i motori grafici per avere un supporto nativo, è solo questione di tempo.
fraussantin
02-08-2020, 14:07
Bha...
Solo a me sto Rt non convince??
Tombraider è osceno graficamente sia con e sia senza Rt in confronto ad AC Odissey o Forza Horizon 4 che non limplementano.
Sento troppo ottimismo ma lo ritengo piuttosto acerbo e dalle richieste grafiche troppo elevate.
Tomb raider osceno?
Con la prossima gen considera che le unità RT disponibili in una 2080ti le hai praticamente nella 3060, differendo solo per le performance in raster a vantaggio della 2080ti, quindi quel crollo di performance con RT attivo non dovrebbe verificarsi con Ampere...
Turing ha fatto praticamente da apri acque per i dev e per integrare il RT, ma solo con ampere potremmo vedere un'effettiva implementazione fatta come si deve e infatti in base ai rumors sarà accessibile anche per i chip entry level...
Inoltre stanno aggiornando anche i motori grafici per avere un supporto nativo, è solo questione di tempo.
Si,questo lo so ma occorre vedere se effettivamente l’Rt prenderà il volo e se le migliorie grafiche saranno effettivamente tangibili.
Al momento,personalmente parlando,mi ispira ben poco ;)
razor820
02-08-2020, 14:19
Bha...
Solo a me sto Rt non convince??
Tombraider è osceno graficamente sia con e sia senza Rt in confronto ad AC Odissey o Forza Horizon 4 che non limplementano.
Sento troppo ottimismo ma lo ritengo piuttosto acerbo e dalle richieste grafiche troppo elevate.
Ahahahah
Stai prendendo lezioni da Aldo?
Assurdo dire che è osceno e ancora più assurdo considerare forza horizon e ac nettamente superiore.
Tomb raider osceno?
In confronto ai giochi che ho citato sicuramente.
Si vede che è un porting delle consolle.
Ci vedo poco realismo.
Sarà che gioco in 4 K e che rispetto al 2K le cose si fanno ben diverse...
Ahahahah
Stai prendendo lezioni da Aldo?
Assurdo dire che è osceno e ancora più assurdo considerare forza horizon e ac nettamente superiore.
Graficamente sicuramente.
Provate a giocarci in 4K :)
fraussantin
02-08-2020, 14:32
Graficamente sicuramente.
Provate a giocarci in 4K :)Più che il 4k ( che non può che migliorare la grafica) casomai è la dimensione elevata del monitor a mettere in evidenza i difetti.
Per curiosità che settaggi avevi ? Avevi attivo il cas? Hai provato a migliorare la nitidezza?
Cmq RT a livello di grafica cambia solo le ombre quindi ...
razor820
02-08-2020, 14:33
In confronto ai giochi che ho citato sicuramente.
Si vede che è un porting delle consolle.
Ci vedo poco realismo.
Sarà che gioco in 4 K e che rispetto al 2K le cose si fanno ben diverse...
Mi sa che hai fatto il discorso diametralmente inverso....
Semmai i giochi ubi e soprattuto esclusive Xbox sono dei porting. E si vede sia per ottimizzazione che per il resto
L ultimo Tomb raider in 4k graficamente è eccelso e anche ben ottimizzato... Una rarità in confronto agli altri titoli in circolazione.
mikael84
02-08-2020, 14:38
Dai mike, se la vediamo in questo modo anche la 2080ti e la 1080ti non sono proprio TOP poichè cuttate, sempre scarti, per avere il chip full (full bus, 24gb di vram e tutti i cuda abilitati) si deve andare di Titan.
Se pensiamo che anche i chipponi HPC vengono leggermente castrati (i soliti 256cc di ridondanza). ovviamente per questioni di rese viste le padelle che sono.
A me ha sempre fatto venire i brividi spendere 1279 euro e vedere che non è un chip full, ho digerito pure questo boccone, l'unica veramente tutta abilitata parlando di mercato consumer/gaming era la 780ti, con delle rinunce (ovvio) 3gb di vram e fp64 downcloccate a 1/24 (titan black)
No, io solitamente non parlo di cut o per posizione di mercato, in cui anche una 2060 è high.
La 2080ti è la fascia alta cut (una 570 dei vecchi tempi), la 2080s è la medio alta, TU 106, la fascia mid x chip.
TU102: High
TU104: medio alta
TU106: mid
La mia può essere inquadrata come mid, mid high.
La 2070 liscia la mid perfetta.
Con Pascal:
gp102: high
gp104: mid
gp106: bassa
In termini di chip è così, poi per marketing cambia.
L'errore maggiore che hai fatto è stato passare da 980ti a 1080, secondo me avresti dovuto osare e prendere direttamente una 1080ti, saltare di sana pianta turing e passare diretto alla 3070.
mi sono mosso tardi, e le disponibilità, non erano disponibilità, di 1080ti ne ho preso un paio, ma sempre senza esito.
Altrimenti, turing l'avrei saltato.:)
L'unico big chip che ho saltato, mi si è ritorto contro.
Ora con la 2070s, i vantaggi maggiori credo stiano solo nel RT e non credo ti convenga la 3070, penso che come minimo dovresti ambire alla 3080 che però è un chip monco che a sua volta è ottenuto da un altro chip monco :fagiano:
Si, nel mio caso la 3080 sarebbe un vero upgrade, però una sorta di 2080ti con più RT, non sarebbe male neanche nella mia posizione, se con un buon rapporto prezzo/prestazioni.
Rimango sempre più convinto che la 3070 full sia un piccolo best buy, in questa fase di prezzi folli.:)
L ultimo Tomb raider in 4k graficamente è eccelso e anche ben ottimizzato... Una rarità in confronto agli altri titoli in circolazione.
Graficamente eccelso non direi proprio...
AC Odissey,in 4K (sembra che per alcuni sia un optional giocare in 4K) in certi frangenti dà l'impressione di avvicinarsi al fotorealismo; Tombraider,in confronto,sembra un porting da console.
Basta guardare le rocce per rendersene conto...
Si anche io sono convinto che il best buy sarà la 3070, solo che mi trovo in una situazione totalmente diversa dalla tua, avendo una 980ti qualunque cosa è upgrade ci manca poco che anche la x50 sia upgrade :fagiano:
Nel tuo caso la scelta ricadrà prettamente sui prezzi, ma anche sui prossimi titoli e quanto piegheranno la GPU.
razor820
02-08-2020, 14:53
Graficamente eccelso non direi proprio...
AC Odissey,in 4K (sembra che per alcuni sia un optional giocare in 4K) in certi frangenti dà l'impressione di avvicinarsi al fotorealismo; Tombraider,in confronto,sembra un porting da console.
Basta guardare le rocce per rendersene conto...
A questo punto.Mi sa che uno dei due deve andare al più presto a farsi un check up visivo..
Potrei, proprio potrei pensare che i due giochi abbiano un peso uguale sulla stessa bilancia.. ma su ac odissey tutto questo fotorealismo non L ho visto e ci ho fatto 120 ore.. Lavoro ben fatto sui volti dei principali personaggi, mentre tutti i restanti sono uguali, L acqua fa il suo bel effetto. Ok ma resta sempre un gioco da consolle. Tomb raider è concentrato meno sull open world di conseguenza ha alcuni dettagli più pompati.
Più che il 4k ( che non può che migliorare la grafica) casomai è la dimensione elevata del monitor a mettere in evidenza i difetti.
E l'avrei dovuto riscontrare anche sui titoli citati sopra la stessa cosa.
E' anche vero che in 2K si nascondano più defetti,quindi vale anche per lo stesso discorso che fai sulle maggiori dimensioni dello schermo...
Per curiosità che settaggi avevi ? Avevi attivo il cas? Hai provato a migliorare la nitidezza?
Cmq RT a livello di grafica cambia solo le ombre quindi ...
Si,attivo il Cas.
Non è questione di nitidezza...
Questione Rt,non solo ombre ma anche i riflessi della luce su un oggetto.
Il suo scopo sarebbe quello di avvicinarsi al fotorealismo e francamente in Tombraider non ci vedo nulla di tutto ciò,anzi...
A questo punto.Mi sa che uno dei due deve andare al più presto a farsi un check up visivo..
Non ho problemi di vista,parla per te.
Potrei, proprio potrei pensare che i due giochi abbiano un peso uguale sulla stessa bilancia..
Si,come no... :asd:
L ho visto e ci ho fatto 120 ore.. Lavoro ben fatto sui volti dei principali personaggi, mentre tutti i restanti sono uguali, L acqua fa il suo bel effetto. Ok ma resta sempre un gioco da consolle.
Su quale monitor hai giocato?
Li facessero tutti cosi i giochi da consolle...
Tomb raider è concentrato meno sull open world di conseguenza ha alcuni dettagli più pompati.
Non ci vedo proprio nulla di pompato francamente.
Se non giochi in 4K i confronti facciamoli al massimo della risoluzione che un gioco può permettere,poi ne riparliamo...
Leggo solo ora che utilizzi un monitor full hd parlando di grafica eccelsa...
mikael84
02-08-2020, 15:09
Si anche io sono convinto che il best buy sarà la 3070, solo che mi trovo in una situazione totalmente diversa dalla tua, avendo una 980ti qualunque cosa è upgrade ci manca poco che anche la x50 sia upgrade :fagiano:
Nel tuo caso la scelta ricadrà prettamente sui prezzi, ma anche sui prossimi titoli e quanto piegheranno la GPU.
Infatti valuterò molto quest'aspetto, tenendo sempre presente l'eventuale MCM con tsmc 5nm. Diciamo che una 3070 full potrebbe essere un buon ripiego.
Devo valutare, anche se, salvo RT, la 2070s a 2100 fa il suo lavoro.:)
Nel tuo caso, anche i cut di GA104 potrebbero essere tanta roba.
Per dire, una 3060s a 2560cc, sarebbe una 2080s con più rt, o ancora meglio il cut a 2944cc (una 2080 liscia a +15/20% raster + rt sopra la 2080ti).
Le soluzioni non mancheranno.
Al momento non abbiamo neppure certezze che la 3080 costi troppo.
Ad 8nm siamo a 615mm2 in mega cut.
Li facessero tutti cosi i giochi da consolle...
Mediocri, pesanti, incompleti e noisi?
Mediocri, pesanti, incompleti e noisi?
De gustibus...
Noioso quanto Tombraider che offre la solita solfa.
Tombraider è leggero?
Ma si parlava di grafica e non di esperienza di gioco :rolleyes:
razor820
02-08-2020, 15:31
Su quale monitor hai giocato?
Li facessero tutti cosi i giochi da consolle...
Leggo solo ora che utilizzi un monitor full hd parlando di grafica eccelsa...
Se leggi la mia firma per intero, vedresti che teoricamente ho 3 monitor, mettendoci anche il fhd del mio notebook.
Ma il paragone te lo posso fare sia in 2k da 27 pollici sia con il 49 pollici in 2160p va che valorizza anche i giochi meno belli graficamente.
Comunque come non detto. Evito di dilungarmi in discorsi inutili. E non vado oltre OT.
Basta la tua frase in cui dici: MAGARI I GIOCHI LI REALIZZASSERO COSÌ. :D come gli ac? I giochi più mal ottimizzati della storia?
Mediocri, pesanti, incompleti e noisi?
Lascia perdere. Il troll di giornata...
Il troll della giornata?
A parte che 2K non significa giocare in 1080P :D
MA sempre in full hd giochi,o no?
Appunto,non dilungarti ulteriormente quando giochi in full hd e parli di grafica eccelsa.
Per la cronaca,non si parlava di ottimizzazione dei giochi ma di pura grafica e a quanto pare,per qualcuno,ci si deve sempre arrivare a parlare di qualcosa fuori dal contesto pur di avere ragione.
Tieniti le tue convinzioni che a me francamente interessano poco e vale quanto ho scritto personalmente sopra : l'Rt non convince per ora ed è innegabile,altro che fotorealismo (dovrebbe essere l'obiettivo cui punta la tecnica del Rt) con Tombraider :muro:
razor820
02-08-2020, 15:57
Il troll della giornata?
A parte che 2K non significa giocare in 1080P :D
MA sempre in full hd giochi,o no?
Appunto,non dilungarti ulteriormente quando giochi in full hd e parli di grafica eccelsa.
Per la cronaca,non si parlava di ottimizzazione dei giochi ma di pura grafica e a quanto pare,per qualcuno,ci si deve sempre arrivare a parlare di qualcosa fuori dal contesto pur di avere ragione.
Tieniti le tue convinzioni che a me francamente interessano poco e vale quanto ho scritto personalmente sopra : l'Rt non convince per ora ed è innegabile,altro che fotorealismo (dovrebbe essere l'obiettivo cui punta la tecnica del Rt) con Tombraider :muro:
2k è 1440p informati.
Quello che dici tu è un altra risoluzione
Che poi 4k con una 2080 in ac odissey con dettaglio medio-basso vedi che splendore..
2k è 1440p informati.
Quello che dici tu è un altra risoluzione
Che poi 4k con una 2080 in ac odissey con dettaglio medio-basso vedi che splendore..
Appunto e tu non stai giocando in 2K ma in full Hd.
Poi mi spiegherai,in altra sede, cosa significherebbe "tre monitor virtuali con notebook in full hd" tenendo anche conto che si parlava di grafica pura :asd:
Che poi 4k con una 2080 in ac odissey con dettaglio medio-basso vedi che splendore.
Avrebbe senso??
Ma tutto ciò è dopo il pranzo domenicale?:D
fraussantin
02-08-2020, 16:06
E l'avrei dovuto riscontrare anche sui titoli citati sopra la stessa cosa.
E' anche vero che in 2K si nascondano più defetti,quindi vale anche per lo stesso discorso che fai sulle maggiori dimensioni dello schermo...
Si,attivo il Cas.
Non è questione di nitidezza...
Questione Rt,non solo ombre ma anche i riflessi della luce su un oggetto.
Il suo scopo sarebbe quello di avvicinarsi al fotorealismo e francamente in Tombraider non ci vedo nulla di tutto ciò,anzi...
No RT in tomb raider è solo sulle ombre.
E il cas deteriora l'immagine a quel che mi hanno detto.
Non ho ancora provato
PS quello che viene erroneamente chiamato 2k è il qhd cioè 2560x1440
Anche se secondo la logica del 4k dovrebbe essere il full HD
4k = 3840 full HD è la metà esatta 1920 .
razor820
02-08-2020, 16:11
Appunto e tu non stai giocando in 2K ma in full Hd.
Poi mi spiegherai,in altra sede, cosa significherebbe "tre monitor virtuali con notebook in full hd" tenendo anche conto che si parlava di grafica pura :asd:
Avrebbe senso??
Ma tutto ciò è dopo il pranzo domenicale?:D
Mi sembra di non parlare il mandarino...
Comunque basta leggere la mia firma, informarti e vedere che monitor e tv ho.
Tu che monitor hai?
Per concludere Tomb raider non è nato con RTX, ma è stato aggiunto dopo, come dice fraussnatin sulle ombre.. quindi non puoi paragonarlo con altri titoli rtx completi come metro exodus o control...
CrazyDog
02-08-2020, 16:11
2k è 1440p informati.
2K si riferisce alla risoluzione orizzontale di 2000px, il fhd 1920x1080 è praticamente una 2K (lo standard è 2048x1080)
la 2560x1440 è un quad hd, volendo puoi chiamarla 2.5K
4K sarebbero attorno a 4000px orizzontali (standard 4096x2160), nei monitor-tv 3840x2160 o ultra -hd
https://it.wikipedia.org/wiki/2K
La sigla 2K è spesso erroneamente utilizzata. Infatti per i monitor PC con 2K si identifica la risoluzione 2560x1440, propriamente detta Quad HD (QHD o WQHD). :asd:
No RT in tomb raider è solo sulle ombre.
Ok ed è per questo motivo che attivando l'Rt non ho riscontrato particolari migliorie gridando al miracolo del Rt ;)
PS quello che viene erroneamente chiamato 2k è il qhd cioè 2560x1440
Si,ma lui parte da un monitor che è full hd,l'Acer Predator.
2K non equivale a 1920x1080 (anche se la logica del 2K preve la metà del 4K 3840x2160)
2K si riferisce alla risoluzione orizzontale di 2000px, il fhd 1920x1080 è praticamente una 2K (lo standard è 2048x1080)
la 2560x1440 è un quad hd, volendo puoi chiamarla 2.5K
4K sarebbero attorno a 4000px orizzontali (standard 4096x2160), nei monitor-tv 3840x2160 o ultra -hd
https://it.wikipedia.org/wiki/2K
La sigla 2K è spesso erroneamente utilizzata. Infatti per i monitor PC con 2K si identifica la risoluzione 2560x1440, propriamente detta Quad HD (QHD o WQHD). :asd:
Perfetto,ti ringrazio ;)
CrazyDog
02-08-2020, 16:19
2K non equivale a 1920x1080
leggenda dice che ogni volta che viene scritto un monitor da qualche parte del mondo muore, lo stesso accade quando qualcuno scrive 2K riferendosi ad un QHD :sofico:
amon.akira
02-08-2020, 16:22
ma l rt è piu che altro una questione di fedeltà/precisione/accuratezza, nel senso questa ombra dovrebbe essere in quella posizione con quella intensità? oppure quell oggetto dovrebbe riflettere quell altro oggetto in quella maniera?la stanza dovrebbe essere illuminata in questa maniera avendo quella fonte di luce?
come si fa a dire che non convince, al massimo gli si può criticare la pesantezza, un ombra/luce/riflesso nel posto sbagliato/fake sono sempre peggio.
quindi inutile incaponirsi, per migliorare bisogna puntare sul raytracing.
leggenda dice che ogni volta che viene scritto un monitor da qualche parte del mondo muore, lo stesso accade quando qualcuno scrive 2K riferendosi ad un QHD :sofico:
sarebbe meglio parlare per Mpixel...l ho giocato su un 8mil, su un 2mil, su un 4mpixel...anche perchè un 32:9 3840x1080 ha la metà dei pixel :asd:
A parte questa lunga digressione sul 2k-4k e gusti grafici di un gioco o altro (non capisco perchè se ne dovrebbe discutere ad oltranza su ciò che soggettivamente viene visto da un gioco) possiamo sostenere che l'Rt,allo stato attuale,non convince e che Tombraider ne è un esempio?
ma l rt è piu che altro una questione di fedeltà/precisione/accuratezza, nel senso questa ombra dovrebbe essere in quella posizione con quella intensità? oppure quell oggetto dovrebbe riflettere quell altro oggetto in quella maniera?la stanza dovrebbe essere illuminata in questa maniera avendo quella fonte di luce?
come si fa a dire che non convince, al massimo gli si può criticare la pesantezza, un ombra/luce/riflesso nel posto sbagliato/fake sono sempre peggio.
quindi inutile incaponirsi, per migliorare bisogna puntare sul raytracing.
Ripeto,se l'obiettivo dal Rt è il fotorealismo,e con questo le ombre e le riflessione della luce,direi che non ci siamo minimamente.
E avevo preso Tombraider come esempio,tutto qui
amon.akira
02-08-2020, 16:27
A parte questa lunga digressione sul 2k-4k e gusti grafici di un gioco o altro (non capisco perchè se ne dovrebbe discutere ad oltranza su ciò che soggettivamente viene visto da un gioco) possiamo sostenere che l'Rt,allo stato attuale,non convince e che Tombraider ne è un esempio?
assolutamente no XD, stupendo, meglio con rt anche a 1080p :D
fraussantin
02-08-2020, 16:27
Ok ed è per questo motivo che attivando l'Rt non ho riscontrato particolari migliorie gridando al miracolo del Rt ;)
Si,ma lui parte da un monitor che è full hd,l'Acer Predator.
2K non equivale a 1920x1080 (anche se la logica del 2K preve la metà del 4K 3840x2160)Ho il suo stesso monitor ed è qhd
Parliamo di questo? :
https://www.acer.com/ac/en/CA/content/predator-model/UM.HX1AA.A02
assolutamente no XD, stupendo, meglio con rt anche a 1080p :D
Vabbè,tu sei di parte :cry:
;)
fraussantin
02-08-2020, 16:35
Parliamo di questo? :
https://www.acer.com/ac/en/CA/content/predator-model/UM.HX1AA.A02https://www.acer.com/ac/it/IT/content/predator-model/UM.HX1EE.A01
HU
Poi c'è HUA che è TN e HUB che è ips.
CrazyDog
02-08-2020, 16:44
sarebbe meglio parlare per Mpixel...l ho giocato su un 8mil, su un 2mil, su un 4mpixel...anche perchè un 32:9 3840x1080 ha la metà dei pixel :asd:
3840x1080 è una 32:9 dfhd super wide 1080, praticamente due pannelli fhd/2K 1920x1080 affiancati in orizzontale, rientra nella cerchia dei 4K in quanto ha ugualmente circa 4000pixel orizzontali
allo stesso modo la dqhd super wide 1440 32:9 (5120x1440) è definibile 5K, sarebbero come due pannelli qhd/2.5K 2560x1440 affiancati
salendo c'è anche la duhd, ovvero la super wide 2160, due pannelli uhd/4K affiancati orizzontalmente, risoluzione orizzontale doppia rispetto al 4K ma uguale in verticale (7680x2160)
il discorso 2K-4K-8K non riguarda i milioni di pixel complessivi, ma solo i pixel orizzontali del pannello
Mi sembra di non parlare il mandarino...
Comunque basta leggere la mia firma, informarti e vedere che monitor e tv ho.
Tu che monitor hai?
È che ancora non capisco cosa significherebbe la questione dei tre monitor virtuali quando si discuteva di pura grafica del gioco e risoluzione.
Come non capisco perchè parli di ottimizzazione del motore grafico che non c’entra un tubo con quanto sopra...
Però lascia perdere...
Per concludere Tomb raider non è nato con RTX, ma è stato aggiunto dopo, come dice fraussnatin sulle ombre.. quindi non puoi paragonarlo con altri titoli rtx completi come metro exodus o control...
Metro Exodus finito,giocato anche in Rt ma non ne valeva la candela e ho preferito aumentare i settaggi in 4k piuttosto che avere un crollo vistoso degli fps con Rt attivo!
Stiamo sempre li...
Poi si vedrà più in la se decollerà come feature ma al momento non mi convince ( e non sono l’unico a pensarla in tal senso).
Spero sia stato chiaro!
amon.akira
02-08-2020, 17:45
Metro Exodus finito,giocato anche in Rt ma non ne valeva la candela e ho preferito aumentare i settaggi in 4k piuttosto che avere un crollo vistoso degli fps con Rt attivo!
Stiamo sempre li...
Poi si vedrà più in la se decollerà come feature ma al momento non mi convince ( e non sono l’unico a pensarla in tal senso).
Spero sia stato chiaro!
finito in rt high 4k dlss, molto meglio del 1440p via scaler...se con tomb raider le differenze sulle ombre potevano passare diciamo, su metro ti cambia proprio la scena avendo la gi in rt.
decollerà=quando farai tot fps? se si allora stiamo discutendo del nulla, pensavo stessimo parlando di qualità non di convenienza.
il prossimo chi è control? XD
Subentra anche la fluidità quando ti rendi conto che l’Rt su high pesa tantissimo in 4K,senza dover attivare il dlss per compensare..
Quale convenienza??
Fluidità e qualità nel gioco vanno di pari passo nell’esperienza gaming.
Scusa,ma da purista cinema che usa Madvr odio qualsiasi tipo di upscaling...
il prossimo chi è control? XD
Sarebbe??
redbaron
02-08-2020, 19:50
Ma non si dovrebbe parlare delle prossime schede nvidia? :fagiano:
Certo,visto che l’Rt rappresenta una delle principali feature delle prossime schede video,con raddoppio delle prestazioni rispetto a quelle fornite dalle attuali,se ne può parlare.
Anche in rapporto ai giochi attuali,su come rende,delle richieste esose in 4K e sulle possibilità di sviluppo futuro.
CrazyDog
02-08-2020, 20:26
io mi sarei aspettato più supporto rt nei giochi, invece dall'uscita delle rtx non se ne sono visti molti e, almeno a me, non mi ha fatto gridare al miracolo nessuna implementazione, bf5, control, tomb raider, unico che mi ha dato quel qualcosa in più è stato metro, speriamo che con le rtx3000, vista la maggiore potenza in gioco, si sblocchi la situazione
Io la vedo come investimento da parte di Nvidia.
Anche Amd nella Play5 implementa l’Rt.
Anche io sono del tuo stesso avviso e non ho visto il miracolo.
Parliamo di miglioramenti e non stravolgimenti come qualcuno,preso dall’entusiasmo,vuol far credere e poi dipende dal gioco in esame.
CrazyDog
02-08-2020, 20:38
Anche io sono del tuo stesso avviso e non ho visto il miracolo.
Parliamo di miglioramenti e non stravolgimenti come qualcuno,preso dall’entusiasmo,vuol far credere e poi dipende dal gioco in esame.
esatto non ho mai notato alcuno stravolgimento se non nell'impatto sulle prestazioni, magari fermandosi e facendo screenshot su screenshot si nota meglio la differenza, ma nel mezzo di una scena di gioco non si sta a guardare il capello solitamente (ad esempio bf5 in rt lo trovo peggio che senza, la considero un'implementazione troppo enfatizzata che fa perdere realismo più che aggiungerlo, troppi sbrilluccichi, luccicanze, pure il fango rispecchia e non mi pare una buona cosa)
ad esempio death stranding mi è parso più realistico (in alcuni tratti quasi foto realistico) di questi giochi con RT
redbaron
02-08-2020, 20:46
Certo,visto che l’Rt rappresenta una delle principali feature delle prossime schede video,con raddoppio delle prestazioni rispetto a quelle fornite dalle attuali,se ne può parlare.
Anche in rapporto ai giochi attuali,su come rende,delle richieste esose in 4K e sulle possibilità di sviluppo futuro.
A me sembrava ac odissey vs tomb raider :stordita:
A me sembrava ac odissey vs tomb raider :stordita:
Il confronto era scaturito dal mio intervento relativo al presunto miglioramento grafico che l’Rt apportasse ai giochi.
Prendendo come esempio Tombraider in cui non ho notato miglioramenti grafici attivandolo(in verità solo un calo drastico di fps)mi sono permesso di confrontarlo ad Ac che ritengo,graficamente parlando,un punto di riferimento e che non dispone di tecnologia Rt.
Era a titolo esemplificativo ma qualcuno si è sentito in dovere di parlare di altri aspetti non attinenti al tema centrale.
esatto non ho mai notato alcuno stravolgimento se non nell'impatto sulle prestazioni,
Esiste il super sampling che ti fa aumentare parecchio gli fps :D
Scherzi a parte,miglioramento(sopratutto per gli occhi)non significa naturalezza o realismo...
Thunder-74
03-08-2020, 07:23
esatto non ho mai notato alcuno stravolgimento se non nell'impatto sulle prestazioni, magari fermandosi e facendo screenshot su screenshot si nota meglio la differenza, ma nel mezzo di una scena di gioco non si sta a guardare il capello solitamente (ad esempio bf5 in rt lo trovo peggio che senza, la considero un'implementazione troppo enfatizzata che fa perdere realismo più che aggiungerlo, troppi sbrilluccichi, luccicanze, pure il fango rispecchia e non mi pare una buona cosa)
ad esempio death stranding mi è parso più realistico (in alcuni tratti quasi foto realistico) di questi giochi con RT
Death Stranding non ha RT, supporta solo il DLSS...
Hai annoverato Control tra i titoli dove hai visto poco il RT, beh sinceramente è il titolo dove viene implementato di più e se lo togli lo noti veramente tanto. sopratutto i riflessi che sono in ogni dove. Oltretutto essendo un titolo "al chiuso" e non frenetico come un fps, si riesce ad apprezzare meglio l'implementazione.
In altri titoli sono d'accordo con te, si nota poco o effetti esasperati... da qualche parte bisognava iniziare ;)
Con l'avvento delle console che lo supporteranno, le future AMD e le Intel, lo vedremo sempre di più nei titoli e sapere che Ampere avrà un bel boost in questo ambito, fa ben sperare. Senza contare il DLSS 3.0 che sarà un altro bel boost ove applicato. il DLSS 2.0, a parer mio, rappresenta ad oggi una delle miglior features implementate nelle schede video di sempre: avere un aumento di prestazioni tra il 35/50 % in più senza perdita di qualità, è come aver aggiornato la scheda video con la generazione successiva. La speranza è vederlo sempre più utilizzato e se il DLSS 3.0 è di più facile implementazione come si afferma, tutto sembra portare a questo. ... speriamo..
fraussantin
03-08-2020, 07:27
Lasciate perdere é solo un troll.
Prima dice che usa il cas e il gioco é brutto , poi dice che é un purista dell'immagine poi dice che usa il dlss e che per colpa di quello RT fa pena
Completamente nosense
Giovamas
03-08-2020, 07:52
io mi sarei aspettato più supporto rt nei giochi, iunico che mi ha dato quel qualcosa in più è stato metro, speriamo che con le rtx3000, vista la maggiore potenza in gioco, si sblocchi la situazione
vero.. durante il viaggio in treno guarda il panorama... è incredibile da come è ben fatto (a parte qualche crash di troppo ricordo). questo ti fa capire la potenza dell'rtx
Lasciate perdere é solo un troll.
Prima dice che usa il cas e il gioco é brutto , poi dice che é un purista dell'immagine poi dice che usa il dlss e che per colpa di quello RT fa pena
Completamente nosense
Ci vuole poco a scomporsi,vero Fraussantin?
Nessuno ti ha detto che puoi prenderti tutta questa confidenza,a te e quell’amichetto di merende che spara a vuoto.
Hai scritto solo eresie nel tuo ultimo post.
È la solita combriccola di 2-3 elementi che difende a spada tratta un prodotto o una feature senza dare la possibilità ad altri di esprimere il proprio parere.
Persone che utilizzano Rt sparato al max compensando con la tecnica del supersampling per compensare gli fps ( e le differenze si vedono tutte tra Dlss e 4 K nativo basta anche vedere i video su youtube per rendersene conto) ma tant’è si aspetta un Dlss 3.0.... :rolleyes:
Oppure grafica eccelsa a 1080P. :rolleyes:
Sarebbe l’ora di avere maggiore compostezza con inutili atteggiamenti da fanboy che non servono a nessuno e rispettare il parere altrui!
razor820
03-08-2020, 08:27
L amichetto di merende ha finito di rispondere già da tempo. Dopo che nonostante replicassi a chiunque alla media di bot e nonostante ti abbia più volte detto che gioco sia a 2160p in una tv sia in 1440p.
Lasciate perdere é solo un troll.
Sospeso 7gg per attacco personale/flame
>bYeZ<
Ci vuole poco a scomporsi,vero Fraussantin?
Nessuno ti ha detto che puoi prenderti tutta questa confidenza,a te e quell’amichetto di merende che spara a vuoto.
Hai scritto solo eresie nel tuo ultimo post.
È la solita combriccola di 2-3 elementi che difende a spada tratta un prodotto o una feature senza dare la possibilità ad altri di esprimere il proprio parere.
Persone che utilizzano Rt sparato al max compensando con la tecnica del supersampling per compensare gli fps ( e le differenze si vedono tutte tra Dlss e 4 K nativo basta anche vedere i video su youtube per rendersene conto) ma tant’è si aspetta un Dlss 3.0.... :rolleyes:
Oppure grafica eccelsa a 1080P. :rolleyes:
Sarebbe l’ora di avere maggiore compostezza con inutili atteggiamenti da fanboy che non servono a nessuno e rispettare il parere altrui!
appunto, ognuno è libero di esprimersi, ma bada che sulle basi di questi pareri che poi si viene "pesati".
praticamente hai affermanto che le differnze di resa a schermo tra 4k nativi e dlss sono evidenti, mentre differenze tra RT on/off nei giochi sono abbastanza superflue...
parere tuo e ... "spallucce"!
bye
appunto, ognuno è libero di esprimersi, ma bada che sulle basi di questi pareri che poi si viene "pesati".
Senza dover necessariamente sfociare in battute di cattivo gusto e dell tutto gratuite,non credi?
Fino a prova contraria siamo su un forum di appassionati e ci si scambiano idee e parei.
Alcune possono essere giuste,altre sbagliate...
Se poi l'essere"pesati" arriva da chi nutre preconcetti,non accettando in maniera rispettosa il parere altrui,non va affatto bene.
Ad ogni modo sono iscritto da molti anni in questo forum e ti ringrazio per la "dritta" ma non occorre e potevi anche farne a meno.
praticamente hai affermanto che le differnze di resa a schermo tra 4k nativi e dlss sono evidenti, mentre differenze tra RT on/off nei giochi sono abbastanza superflue...
Sono del parere che la tecnica del Dlss,per quanto possa fornire un boost prestazionale,appare sempre una tecnica di upscaling.
A sostegno di quanto affermo ci sono anche video su youtube in cui,almeno in determinate scene,le differenze sono evidenti.
Ritengo,pertanto,un controsenso attivare l'Rt al massimo e poi affidarmi ad una tecnica di super sampling,seppur avanzata,per compensare la perdita eccessiva di fps.
Inoltre è risaputo che l'Rt sia agli albori e non sempre fornisce quel realismo cui si prefigge di ottenere e risulta anche eccessivo in alcune scene.
Concludendo,attiverei il Dlss se non avessi una sk grafica all'altezza piuttosto che averla e attivando il Rt al max
Mah, onestamente, pur con i prezzi pazzi, si riesce a realizzare qualcosa di buono. Ok non sarà il top, ma te la cavi.
Io mi sono fatto un PC mid, sui migliori pezzi in rapporto, e mi trovo benissimo lo stesso.:)
Il top di gamma mi manca, ma ci si arrangia lo stesso.
ogni tanto l occhio cade sulle firme dei colleghi lo ammetto, se non ricordo male tu hai sempre avuto sistemi medio alti soprattutto la vga.
Mid o top dipende al momento dell acquisto la congiuntura quanto va ad incidere sui vari componenti.
Con l attuale sistema se avessi cambiato anche solo modello di cpu ai tempi mi colpiva pesantemente la spesa.
L altro aspetto è quando una vga o tutto il sistema è da pensionare?
Quando invece solo pensionabile?
Dal mio punto di vista alla prima domanda rispondo, quando non riesco piu a giocare e scatta il mega computo per scalare il budget a disposizione.
Alla seconda rispondo quando si ipotizza un cambio per avere piu prestazioni senza considerare il rapporto costi benefici. Lecito se hai soldi in piu.
Mi va a genio la tua frase in grassetto perche è quello che mi rispondo tutt oggi quando penso di dover cambiare la king. Peggio ancora tutto il sistema.
L unica variante è che passare da 980ti a 3080ti nel mio caso a prescindere dal prezzo (lo dico sanguinando dal naso) sarebbe talmente alta la sberla di frame in piu da giustificare la scimmia.(altro sangue dal naso) :)
Mentre un cambio di main system per me che uso solo 4k 25fps si tradurrebbe in fail. In rapporto alla spesa troppo poco guadagno.
A questo aggiungi una main board (una delle poche) che 5 anni fa aveva nvme su m2 sensori ovunque, doppio dac (1 hifi) specifico 2ch uso solo quello, insomma ci pensi prima di buttarla via.
OrazioOC
03-08-2020, 10:23
https://www.guru3d.com/news-story/nvidia-ampere-cards-well-under-way-for-a-release-in-september-flagship-50-faster.html
Ciò che mi puzza non è la tempistica, ma le caratteristiche, tdp per una singola gpu consumer fuori dal mondo, e una 3070 con troppi cc rispetto ad un'eventuale super.
https://www.guru3d.com/news-story/nvidia-ampere-cards-well-under-way-for-a-release-in-september-flagship-50-faster.html
Ciò che mi puzza non è la tempistica, ma le caratteristiche, tdp per una singola gpu consumer fuori dal mondo, e una 3070 con troppi cc rispetto ad un'eventuale super.Anche la 3080ti(3090[Titan]) mi puzza un po'. Vuol dire davvero 999 per la 3080 e 1999 per la """""Titan""""" con quel quantitativo di RAM fosse vero.
Senza contare che si passa da 10gb a 24 così....
Inviato dal mio J9110 utilizzando Tapatalk
mikael84
03-08-2020, 11:31
ogni tanto l occhio cade sulle firme dei colleghi lo ammetto, se non ricordo male tu hai sempre avuto sistemi medio alti soprattutto la vga.
Mid o top dipende al momento dell acquisto la congiuntura quanto va ad incidere sui vari componenti.
Con l attuale sistema se avessi cambiato anche solo modello di cpu ai tempi mi colpiva pesantemente la spesa.
L altro aspetto è quando una vga o tutto il sistema è da pensionare?
Quando invece solo pensionabile?
Dal mio punto di vista alla prima domanda rispondo, quando non riesco piu a giocare e scatta il mega computo per scalare il budget a disposizione.
Alla seconda rispondo quando si ipotizza un cambio per avere piu prestazioni senza considerare il rapporto costi benefici. Lecito se hai soldi in piu.
Mi va a genio la tua frase in grassetto perche è quello che mi rispondo tutt oggi quando penso di dover cambiare la king. Peggio ancora tutto il sistema.
L unica variante è che passare da 980ti a 3080ti nel mio caso a prescindere dal prezzo (lo dico sanguinando dal naso) sarebbe talmente alta la sberla di frame in piu da giustificare la scimmia.(altro sangue dal naso) :)
Mentre un cambio di main system per me che uso solo 4k 25fps si tradurrebbe in fail. In rapporto alla spesa troppo poco guadagno.
A questo aggiungi una main board (una delle poche) che 5 anni fa aveva nvme su m2 sensori ovunque, doppio dac (1 hifi) specifico 2ch uso solo quello, insomma ci pensi prima di buttarla via.
Il sistema in 4k puoi pure lasciarlo. Nel tuo caso sarebbe meglio un cambio totale di GPU. Considera cmq, che non ti servirà più la KP, ormai in base al bin, salgono quasi tutte uguali. Puoi pure prendere la 3070 full.
Se il tuo scopo è lasciarla qualche anno in più, attenzione al MCM del 2022.:)
https://www.guru3d.com/news-story/nvidia-ampere-cards-well-under-way-for-a-release-in-september-flagship-50-faster.html
Ciò che mi puzza non è la tempistica, ma le caratteristiche, tdp per una singola gpu consumer fuori dal mondo, e una 3070 con troppi cc rispetto ad un'eventuale super.
I cc per la 3070 vanno bene, in quanto un GA106 a 7 TPC, è troppo complesso per i giochi, ed in più, sempre con collegamento a vuoto.
Quindi ci sta il salto di schema, anche per il passaggio alle 6 primitive.
Se facevi 4 GPC da 6 tpc, andavi sempre a 3072cc.
La 3070 super può essere il nome del chip full, come può pure non esistere, non è legge.
Possono in caso, storpiare ancora di più GA102.:)
Anche la 3080ti(3090[Titan]) mi puzza un po'. Vuol dire davvero 999 per la 3080 e 1999 per la """""Titan""""" con quel quantitativo di RAM fosse vero.
Senza contare che si passa da 10gb a 24 così....
Inviato dal mio J9110 utilizzando Tapatalk
Dubito che la 3080ti abbia 24gb in cut.
24gb li avrà la Titan, fascia da 2400$, e la 3080ti ne avrà 12 quasi sicuramente.
Dovessero fare una cosa simile, significa che JHH, vuole provare a varcare nuovi orizzonti con i prezzi, come fece con la prima titan.
Cmq, non avrebbe senso quel chip, altrimenti con la Titan che ci fanno, con solo 128cc in più.:)
Crysis90
03-08-2020, 11:40
Beh, mancando ormai poco più di un mese al lancio, direi che i rumors dovrebbero essere abbastanza precisi un pò su tutto.
Certo è che 350 W di TDP è 'na roba da centraletta nucleare dentro al case, anche peggio di Fermi. :asd: :asd: :eek:
OrazioOC
03-08-2020, 11:57
I cc per la 3070 vanno bene, in quanto un GA106 a 7 TPC, è troppo complesso per i giochi, ed in più, sempre con collegamento a vuoto.
Quindi ci sta il salto di schema, anche per il passaggio alle 6 primitive.
Se facevi 4 GPC da 6 tpc, andavi sempre a 3072cc.
La 3070 super può essere il nome del chip full, come può pure non esistere, non è legge.
Possono in caso, storpiare ancora di più GA102.:)
Mi riferivo al fatto che la 2080 è arrivata non full chip da subito solo per una questione di rese produttive, condizione improbabile con ampere.
E' probabile che il chip 104 arrivi in versione full al d1, e che un'eventuale variante super(ulteriore cut di ga102) possa arrivare come refresh magari grazie ad una diretta concorrente amd.
mikael84
03-08-2020, 12:13
Beh, mancando ormai poco più di un mese al lancio, direi che i rumors dovrebbero essere abbastanza precisi un pò su tutto.
Certo è che 350 W di TDP è 'na roba da centraletta nucleare dentro al case, anche peggio di Fermi. :asd: :asd: :eek:
Il tutto sta alla compilazione dei bios e driver, che dovrebbero appunto ultimare questo mese.
Cmq, molti valori potrebbero essere corretti, compresi i TDP.:)
Mi riferivo al fatto che la 2080 è arrivata non full chip da subito solo per una questione di rese produttive, condizione improbabile con ampere.
E' probabile che il chip 104 arrivi in versione full al d1, e che un'eventuale variante super(ulteriore cut di ga102) possa arrivare come refresh magari grazie ad una diretta concorrente amd.
Salvo turing (che cmq è un chippone anche in x04), le x04 sono sempre state full, anche se sempre con die ben più piccoli.
GA104 in shrink sarebbe:
330mm2 a 7nm + inserimenti vari (cache/doppie fp etc)
390mm2 a 8nm + varie.
In questa serie il GA104 sarebbe dovuto essere GA103 quello con 3840cc, e da li, fare sicuramente 2 cut.
Se devastano ancora GA102 fanno un record.
Sino a 3840cc puoi lasciare il 320bit. Scendendo ancora si rischierebbero i 9gb a 288bit (oddio).:sofico:
Mi riferivo al fatto che la 2080 è arrivata non full chip da subito solo per una questione di rese produttive, condizione improbabile con ampere.
E' probabile che il chip 104 arrivi in versione full al d1, e che un'eventuale variante super(ulteriore cut di ga102) possa arrivare come refresh magari grazie ad una diretta concorrente amd.
Ma sempre da vedere se ci sarà un refresh...
Per come sono impostati i chip dai rumors c'è ben poco da refreshare :fagiano:
E più probabile che tra 1 anno e mezzo si passi diretti a MCM e 5nm.
L'errore maggiore che hai fatto è stato passare da 980ti a 1080, secondo me avresti dovuto osare e prendere direttamente una 1080ti, saltare di sana pianta turing e passare diretto alla 3070.
Ora con la 2070s, i vantaggi maggiori credo stiano solo nel RT e non credo ti convenga la 3070, penso che come minimo dovresti ambire alla 3080 che però è un chip monco che a sua volta è ottenuto da un altro chip monco :fagiano:
Dimentichi il DLSS, che non è supportato dalle 10xx. Io ho preso una 2070 soprattutto per quello, e non volevo spendere troppo in vista di un cambio di monitor piuttosto imminente.
Dipende infatti dalla risoluzione a cui giochi, per cui una 3070 potrebbe bastare o meno. In 4k sicuramente no.
Un refresh lo faranno solo se costretti da AMD (o forse da intel) ;)
Un refresh lo faranno solo se costretti da AMD (o forse da intel) ;)
Si ma cosa refreshi?
Alla fine per come sono impostati i chip GA104 dovrebbe avere di suo 3 chip 3060ti/3070/3070ti, GA102 ha già 3 derivazioni Titan/3080ti/3080 quest'ultima già laserata in modo abominevole.
Con turing molti chip o erano laserati già all'esordio come la 2080, o c'era un vuoto di fascia come quello tra 2070 e 2080.
Al massimo potrebbero esserci proposte con memoria a doppia densità o con clock delle GDDR6 superiori come avvenuto con 1060 e 1080.
Aggiungerei che la 2080ti era l'unica che andava toccata 🤣
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
mikael84
03-08-2020, 14:50
Dimentichi il DLSS, che non è supportato dalle 10xx. Io ho preso una 2070 soprattutto per quello, e non volevo spendere troppo in vista di un cambio di monitor piuttosto imminente.
Dipende infatti dalla risoluzione a cui giochi, per cui una 3070 potrebbe bastare o meno. In 4k sicuramente no.
Le pascal purtroppo non hanno unità fp16 native, anche per questo nei vulkan crollano. Giochi come Wolfenstein sono imbottiti.
La 2070 ha 144 tensor, ovvero 33tf fp16 da eseguire simultaneamente alle FP32.
Ovviamente in questi casi crolla un pò il clock:)
Nell'esempio con le nuove, la 3070 avrà 192 tensor, il cui ratio a 2ghz, salirebbe a 196tf/392 fp16.
Pur dimezzandoli in ratio, per occupare meno spazio (1 tensor 4 unità fp16, con ampere 8 unità fp16), avresti un picco di 98tf/196tf.
Dalle 3 alle 6 volte più potente.:)
Basterà mettere memorie più veloci aggiungere un suffisso idiota tipo "Super'' ed ecco il refresh, non ci vuole la scienza, questo a metà carriera, giusto un lifting giusto per far svalutare le schede precedenti..
Su, prima o poi le 18gb/s debutteranno. Per ora, salvo strani contratti, abbiamo solo le 16, e 18 con rambus (ma non rientra negli accordi).
Inoltre per essere adottate tutti i brand devono averle.
p.s fate conto che a parità di prezzo molti preferiscono una 2070 super ad una 2080 liscia, ho detto tutto! il potere del marketing..
A parità di prezzo è follia, però va anche detto, che varie 2070s, adottano le 16gb/s, e sono più binnate, ovvero superano agevolmente i 2100.
La mia a 2100 ci rimane anche in rt dopo qualche piccolo taglio.:)
Aggiungerei che la 2080ti era l'unica che andava toccata 🤣
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Si chiama pianificazione, se facevi un refresh della 2080ti, la 3080 sarebbe stata meno appetibile, o meglio la dovevi far partire con 4608cc e magari pure 11gb.:sofico:
A questo punto si, altro che 16gb, rimaniamo ancorati (+ o -) alla capacità di memoria di schede del 2017 (1080ti) 12gb nel 2020 sulla top suonano malissimo, poi che bastino ok, ma stanno dando troppo poco.... a seconda dei prezzi ci sarà da ridere.:cry:
I chip nvidia sono un vero è proprio problema a salire di bus. Spesso costano più i collegamenti delle unità di calcolo+P.E. Totalmente diverso da AMD.
Non a caso, non hanno chiuso neppure il settimo GPC.
Forse con gli MCM vedremmo 15/16gb sulla 4080ti
Si chiama pianificazione, se facevi un refresh della 2080ti, la 3080 sarebbe stata meno appetibile, o meglio la dovevi far partire con 4608cc e magari pure 11gb.:sofico:
Già... ma è innegabile che in tutta la generazione Turing quella che si meritava un piccolo ritocchino verso l'alto anche senza sbloccarla totalmente, era proprio la 2080ti :fagiano:
mikael84
03-08-2020, 15:34
Già... ma è innegabile che in tutta la generazione Turing quella che si meritava un piccolo ritocchino verso l'alto anche senza sbloccarla totalmente, era proprio la 2080ti :fagiano:
Al debutto delle 2070s ci credevo pure io, sapendo anche della non concorrenza, e del passaggio presunto ai 7nm euv.
Dopo aver visto che è stata l'unica fascia, ancora con i chip non A, ho capito che sarebbe rimasta così, salvo qualche anticipo di AMD, in quanto il TU102 stirato a 16gb/s può tirare fuori ancora un 15-20%.:)
Al debutto delle 2070s ci credevo pure io, sapendo anche della non concorrenza, e del passaggio presunto ai 7nm euv.
Dopo aver visto che è stata l'unica fascia, ancora con i chip non A, ho capito che sarebbe rimasta così, salvo qualche anticipo di AMD, in quanto il TU102 stirato a 16gb/s può tirare fuori ancora un 15-20%.:)
Già... sarebbe stata utile una 290x 2.0, purtroppo senza concorrenza succede anche questo.
varie 2070s, adottano le 16gb/s, e sono più binnate, ovvero superano agevolmente i 2100.
La mia a 2100 ci rimane anche in rt dopo qualche piccolo taglio.:)
Anche la mia 2070 liscia sale molto bene, ma non ci tiro il collo per tenere le ventole a regimi bassi. Il pc in firma è molto, ma molto silenzioso: la vga è l'unica cosa che si sente appena con le cuffie.
Il sistema in 4k puoi pure lasciarlo. Nel tuo caso sarebbe meglio un cambio totale di GPU. Considera cmq, che non ti servirà più la KP, ormai in base al bin, salgono quasi tutte uguali. Puoi pure prendere la 3070 full.
Se il tuo scopo è lasciarla qualche anno in più, attenzione al MCM del 2022.:)
Esatto occhi puntati solo sulla gpu.
Sul modello valuto solo una cerchia ristretta msi,evga, e dopo tanti anni di odio per le truffe fatte ai tempi del chipset nvidia sulle striker extreme forse asus.
Discorso a parte le FE/reference che con l avvento di turing mi hanno sedotto sin da subito per design, per la revisione del circuito di alimentazione e del termico stesso.
Piccola digressione sulle king
Ai tempi se ricordi non avevo bisogno -così come oggi con ampere- di un modello cosi estremo.
Tutto nacque dall ipotesi diffusa in quegl anni “la prende solo chi deve azotare” ad aria è inutile meglio le altre.
Non avendone mai avuta una per le mani la cosa mi incuriosiva .
Sapendo che avrei comunque preso una super custom in alluminio msi/giga 850€ minimo, il listino appena 50€ superiore per una in rame ci poteva stare.
Ragionamento che oggi non si puo piu applicare per la follia dei prezzi stellari raggiunti con turing.
Posso dirti dopo 5 anni sono schede fantastiche aria,liquido vanno solo studiate perche il pcb è molto complesso e pieno di switch tensioni e drop.
Una scheda cosi va goduta per anni :)
Per l mcm lo so infatti la scimmia si sfoga qui con voi ma piu realisticamente me ne resto buono con la king e aspetto la vera rivoluzione.
Il 2022 è dietro l angolo.
ps. ho letto di tu102 portato 2.7 sulla king hybrid tanta roba :p
Ma il silicio stampato è sempre quello, oramai con ampere la 980ti è preistoria e se la giocherà con i chippetti come 3050/3050ti che consumano 1/4 :fagiano:
Ad aspettare ancora ci si ritrova nel 2022 con le DDR5 che offiranno BW decenti e gpu integrate che vanno di più :sofico:
Poi anche per le cpu c'è un discorso un pò complesso, considerando quanto consumano e scaldano i vecchi HEDT passare a piattaforme più recenti è un modo anche per snellire la piattaforma, cpu come 5820K/4930K/3930K oramai le prendono anche da un 3600 liscio e senza un buon OC in MT non hanno risultati molto lontani da un 3300X e al contempo c'è un netto stacco in ST sopratutto ora che arriverà la nuova serie di CPU.
A parità di prezzo è follia, però va anche detto, che varie 2070s, adottano le 16gb/s, e sono più binnate, ovvero superano agevolmente i 2100.
La mia a 2100 ci rimane anche in rt dopo qualche piccolo taglio.:)
la mia 2070s arriva a 2050/2080 sul core il problema è che quando metti il power limit al massimo ci spari dentro 300w (almeno nel mio caso) e con un dissipatore ad aria non ce la fai in nessun modo a tenerla sotto i 70 grandi.
la mia 2070s arriva a 2050/2080 sul core il problema è che quando metti il power limit al massimo ci spari dentro 300w (almeno nel mio caso) e con un dissipatore ad aria non ce la fai in nessun modo a tenerla sotto i 70 grandi.
Io infatti arrivo a 75 gradi, ma con ventole sul 70%.
Io infatti arrivo a 75 gradi, ma con ventole sul 70%.Anche io con la ventola al 70% (rumore abbastanza fortino) arrivo a 78/80 gradi facili sempre con il power limit al massimo che nella mia è 139%
Alla fine sono andato a impostare il power limit a 110 in questo modo la gpu arriva a massimo 1950mhz ma in compenso le temp non vanno oltre i 72/73 gradi con ventola al 45%
Inviato dal mio ELE-L29 utilizzando Tapatalk
Ma il silicio stampato è sempre quello, oramai con ampere la 980ti è preistoria e se la giocherà con i chippetti come 3050/3050ti che consumano 1/4 :fagiano:
Ad aspettare ancora ci si ritrova nel 2022 con le DDR5 che offiranno BW decenti e gpu integrate che vanno di più :sofico:
Poi anche per le cpu c'è un discorso un pò complesso, considerando quanto consumano e scaldano i vecchi HEDT passare a piattaforme più recenti è un modo anche per snellire la piattaforma, cpu come 5820K/4930K/3930K oramai le prendono anche da un 3600 liscio e senza un buon OC in MT non hanno risultati molto lontani da un 3300X e al contempo c'è un netto stacco in ST sopratutto ora che arriverà la nuova serie di CPU.
ci puo stare il classico schema marketing che non tiene in considerazione costi benefici.
Nvidia amd intel amano quelli cosi recettivi odiano le cariattidi come me.
Il portatile da cui scrivo W10 è del 2006 core2duo, nvidia 8600m GT 256mb una scheggia :sofico:
Purtroppo non ho soldi in eccesso, e ci tengo a quelli gia spesi quindi spremo finche posso il sistema attuale.
Sui consumi non vedo il problema : oveclokkato @4.5 consuma 88w, direi piu che adeguato.
Idem la king il problema non sono i 25fps ma come vengono sincronizzati su pannello. Grazie al nuovo tv problema risolto :)
Poi denigrare il vecchio hw di punta come se non fosse piu adatto al gaming è soggettivo a me frega men che meno.
Ho speso un sacco di soldi nel 2015 è mi ritrovo con un gran sistema che invecchia benissimo questa è la verità.
Le pulci da riviste patinate non fanno per me se non a livello informativo, perche costi benefici con i prezzi raggiunti dall hw oggi siamo messi male.
Chi ha investito su hedt e cerca 4k ha solo da investire sulla vga
Chi non cerca res estreme con una 980ti e le sue 96rops campa cent'anni in fhd e non solo dipenda dal motore.
Cambiare una gm200 con una 1660 nei forum stranieri è sconsigliatissimo perche costi benefici vince la 980ti
Se non giochi in 4K,te ne frega del RT,la 980Ti è più che sufficiente.
In 4K e Rt non esiste Gpu che tenga se non con i dovuti compromessi,Dlss e filtri impostati in maniera oculata.
Sarebbe un bel passo se Nvidia lanciasse contemporaneamente una 3080 con margine del 15-20% rispetto alla 2080Ti intorno alle 850 euro e una 3080Ti con margine intorno al 35-40% rispetto alla 2080Ti intorno alle 1250-1300 euro.
Non la vedrei inverosimile come soluzione da parte di Nvidia e non starebbe regalando nulla ai clienti visto che dovrebbe garantire i 60 fps in 4K in tutti i giochi... ( che ora non lo permette)
mikael84
04-08-2020, 12:17
Anche la mia 2070 liscia sale molto bene, ma non ci tiro il collo per tenere le ventole a regimi bassi. Il pc in firma è molto, ma molto silenzioso: la vga è l'unica cosa che si sente appena con le cuffie.
Basta farsi vari profili su AB, anche di downvolt se serve.:)
Esatto occhi puntati solo sulla gpu.
Sul modello valuto solo una cerchia ristretta msi,evga, e dopo tanti anni di odio per le truffe fatte ai tempi del chipset nvidia sulle striker extreme forse asus.
Discorso a parte le FE/reference che con l avvento di turing mi hanno sedotto sin da subito per design, per la revisione del circuito di alimentazione e del termico stesso.
Piccola digressione sulle king
Ai tempi se ricordi non avevo bisogno -così come oggi con ampere- di un modello cosi estremo.
Tutto nacque dall ipotesi diffusa in quegl anni “la prende solo chi deve azotare” ad aria è inutile meglio le altre.
Non avendone mai avuta una per le mani la cosa mi incuriosiva .
Sapendo che avrei comunque preso una super custom in alluminio msi/giga 850€ minimo, il listino appena 50€ superiore per una in rame ci poteva stare.
Ragionamento che oggi non si puo piu applicare per la follia dei prezzi stellari raggiunti con turing.
Posso dirti dopo 5 anni sono schede fantastiche aria,liquido vanno solo studiate perche il pcb è molto complesso e pieno di switch tensioni e drop.
Una scheda cosi va goduta per anni :)
Oggi cmq, non servono GPU così spinte, l'OC è sempre quello mediamente, anzi spesso certe GPU hanno bisogno di downvolt. Con il prossimo PP, potrebbe essere ancora peggio.
Inoltre oggi una premium top della TI come Galax, ti costa un rene.:p
Quelle vanno lasciate a MADTSE, che deve fare i record.
Trovassi la 3070 come la mia attuale, ex OC di KFA2 (galax), la prenderei al volo.
Considera che, le GPU anche reference, sono multifase da 16.
Certo senza i 3 PLL, o altro.:)
Per l mcm lo so infatti la scimmia si sfoga qui con voi ma piu realisticamente me ne resto buono con la king e aspetto la vera rivoluzione.
Il 2022 è dietro l angolo.
ps. ho letto di tu102 portato 2.7 sulla king hybrid tanta roba :p
Lo aspetto con ansia, conosco lo standard MCM del progetto nvidia da qualche anno, con i problemi annessi, sono molto curioso di vederlo all'opera.
Sicuramente avranno fatto passi da gigante. Dovrebbe debuttare per il calcolo HPC, che è pure più semplice, considerando il meno overhead, dato da BW giganti.
la mia 2070s arriva a 2050/2080 sul core il problema è che quando metti il power limit al massimo ci spari dentro 300w (almeno nel mio caso) e con un dissipatore ad aria non ce la fai in nessun modo a tenerla sotto i 70 grandi.
:read:
https://i.postimg.cc/nXqxgvLX/test-vg.png (https://postimg.cc/nXqxgvLX)
Profilo fan abbastanza spinto per i tagli, max 70% (57° tamb 24)
TDP da 215 + 10% PL, è una reference di PCB.
In game va meglio 8nel test non ho spinto le ram a dovere).
Ovviamente no downvolt.
:read:
https://i.postimg.cc/nXqxgvLX/test-vg.png (https://postimg.cc/nXqxgvLX)
Profilo fan abbastanza spinto per i tagli, max 70% (57° tamb 24)
TDP da 215 + 10% PL, è una reference di PCB.
In game va meglio 8nel test non ho spinto le ram a dovere).
Ovviamente no downvolt.
che Vcore raggiungi? frequenza media?
il TDP della KFA2 è di 240w quello della mia è 300w quindi è ovvio che se sparo al massimo il power limit nella mia le temp salgono a bomba.
Oltre questo le ventole al 70% sicuramente si fanno sentire.
quando torno a casa provo superposition con power limit a 110% e velocità della ventola al 70% e vediamo
No, sarebbe un fail colossale, +35% in raster a 699 MSRP me li aspetto dalla 3080 e non dalla TI, cosi avrebbe senso e si parlerebbe di progresso, se poi la top continua a costare 1279 euro con un +50% in raster, non grido di certo al miracolo, ci vorrebbe una sorpresa alla maxwell, ma è utopia.
Maxwell mi piacque un botto, schede efficienti e prezzi di mercato aggressivi (vedasi gtx 970) anche pascal fu ottimo, tralasciando che i 314mm2 di 1080 sono da chip mid e fu prezzata alta se guardiamo le dimensioni del die, ma le performance c'èrano, out of the box +35% rispetto a 980ti e +65% rispetto a 980 che andava a sostituire.
L'incremento di turing in raster è ben più basso, oggi abbiamo un +40% medio in 4k (con picchi del 70% in alcuni casi vulkan ecc.) tra 1080ti e 2080ti, oggi, perchè al lancio era più sul 35% medio.
Con turing si sono fatti ben pagare l'innovazione RT, ormai è roba scoperta, quindi ora è arrivato il tempo di dare (e non solo di ricevere) a prezzi più umani, ma tanto indietro non si torna e le venderanno a caro prezzo, continuo a pensare che schede da 350w siano una schifezza immonda, ma se hanno quel pp non hanno scelta.
Sono anche periodi diversi, Maxwell dovette imporsi di forza bruta per contrastare le 290x/390x che con i driver rivisti di AMD avevano completamente demolito kepler.
La stessa 970 fu venduta a un prezzo molto aggressivo, poco sopra i 300€ e con tanto di gioco omaggio a scelta, non ci fu un salto di pp, ma l'architettura fu completamente rivista e per fortuna gli stessi clock di maxwell furono decisamente interessanti.
Pascal ha campato di rendita con il pp, i 28nm furono eterni, e il passaggio ai 16nm fu netto permettendo di migliorare clock e aumentare la densità dei chip...
Turing si basa sui 12nm, non ha rivoluzionato l'architettura come fece Maxwel e non ha potuto contare su un pp più avanzato come Pascal, e meglio di quanto hanno fatto non si poteva, per farlo avrebbero dovuto alzare i TDP nominali delle GPU e purtroppo anche facendolo non è che potevi spingerti molto oltre con i clock, presentarsi con il RT ha messo su le basi per i prossimi titoli, poi se ci fosse stata maggior concorrenza avrebbero di sicuro spremuto meglio l'architettura, sopratutto per la 2080ti montando memorie più veloci e con qualche affinamento elettrico.
Ora con Ampere ci tocca la fase toc di turing, e sarebbe stato il top averla sui 7nm, ma da quanto si legge sembrano ormai confermati gli 8nm di samsung.
OrazioOC
04-08-2020, 13:27
https://www.igorslab.de/en/is-big-ampere-with-air-only-heavy-cooling-a-thermal-predictive-decomposition/
Thunder-74
04-08-2020, 13:51
No, sarebbe un fail colossale, +35% in raster a 699 MSRP me li aspetto dalla 3080 e non dalla TI, cosi avrebbe senso e si parlerebbe di progresso, se poi la top continua a costare 1279 euro con un +50% in raster, non grido di certo al miracolo, ci vorrebbe una sorpresa alla maxwell, ma è utopia.
Maxwell mi piacque un botto, schede efficienti e prezzi di mercato aggressivi (vedasi gtx 970) anche pascal fu ottimo, tralasciando che i 314mm2 di 1080 sono da chip mid e fu prezzata alta se guardiamo le dimensioni del die, ma le performance c'èrano, out of the box +35% rispetto a 980ti e +65% rispetto a 980 che andava a sostituire.
L'incremento di turing in raster è ben più basso, oggi abbiamo un +40% medio in 4k (con picchi del 70% in alcuni casi vulkan ecc.) tra 1080ti e 2080ti, oggi, perchè al lancio era più sul 35% medio.
Con turing si sono fatti ben pagare l'innovazione RT, ormai è roba scoperta, quindi ora è arrivato il tempo di dare (e non solo di ricevere) a prezzi più umani, ma tanto indietro non si torna e le venderanno a caro prezzo, continuo a pensare che schede da 350w siano una schifezza immonda, ma se hanno quel pp non hanno scelta.
io credo che siano percentuali molto attendibili tra Turing e Ampere.
un +20% tra 2080ti e 3080 e un +40% tra 2080ti e 3080ti..
A quel punto se fossero questi i margini, sarebbe da valutare se spendere quei 400 euro ipotizzati da Spytek, per quel circa 20% tra 3080 e la Ti.
https://www.igorslab.de/en/is-big-ampere-with-air-only-heavy-cooling-a-thermal-predictive-decomposition/
io l'avevo detto ... Rivaluteremo l'ALI e e molti passeranno al liquido :fagiano:
Ragazzi, se non volete addentrarvi nel custom loop, valutate la possibile proposta di Alphacool con AIO per VGA (200 euro)... hanno detto che sicuramente lo faranno anche per Ampere. Meglio quindi se prenderete una VGA con PCB reference
LINK (https://www.alphacool.com/alphacool-eiswolf-2-gpu-aio)
https://www.alphacool.com/media/image/f8/cd/ba/1019586_01_600x600.jpg
Vi lascio anche una Review di TpUP LINK (https://www.techpowerup.com/review/alphacool-eiswolf-2-aio-gpu-cooler/)
Basta farsi vari profili su AB, anche di downvolt se serve.:)
No need.
Intendevo dire che la sento solo quando gioco :)
No, sarebbe un fail colossale, +35% in raster a 699 MSRP me li aspetto dalla 3080 e non dalla TI, cosi avrebbe senso e si parlerebbe di progresso, se poi la top continua a costare 1279 euro con un +50% in raster, non grido di certo al miracolo, ci vorrebbe una sorpresa alla maxwell, ma è utopia.
Considerando che la 3080 dovrebbe sostituire la 2080/2080S significherebbe un boost teorico intorno ai 65-70% :D
Praticamente un "raddoppio" da Sli di 2080...
Maxwell mi piacque un botto, schede efficienti e prezzi di mercato aggressivi (vedasi gtx 970) .
Maxwell piacque molto perchè c'era la vera concorrenza,a beneficio di tutti ...
anche pascal fu ottimo, tralasciando che i 314mm2 di 1080 sono da chip mid e fu prezzata alta se guardiamo le dimensioni del die,
Fu il periodo del mining e poca disponibilità nei negozi che consenti' ad Nvidia di aumentare pesantemente l'asticella del prezzo sulla top di gamma 2080Ti facendola passare come scheda che doveva essere presentata un anno dopo :rolleyes:
ma le performance c'èrano, out of the box +35% rispetto a 980ti e +65% rispetto a 980 che andava a sostituire
E' molto logico il tuo discorso e ha pieno rigore;volevo stare solo con i piedi per terra senza inutili trionfalismi e considerando che non esiste concorrenza in tale fascia e figuriamoci se Nvidia si mette a "regalare" qualcosa se non che preferisce castrare il chip... :rolleyes:
Con turing si sono fatti ben pagare l'innovazione RT, ormai è roba scoperta, quindi ora è arrivato il tempo di dare (e non solo di ricevere) a prezzi più umani, ma tanto indietro non si torna e le venderanno a caro prezzo, continuo a pensare che schede da 350w siano una schifezza immonda, ma se hanno quel pp non hanno scelta.
Sono del tuo stesso parere.
Nvidia è diventata come Apple oramai...
mikael84
04-08-2020, 14:28
L'incremento di turing in raster è ben più basso, oggi abbiamo un +40% medio in 4k (con picchi del 70% in alcuni casi vulkan ecc.) tra 1080ti e 2080ti, oggi, perchè al lancio era più sul 35% medio.
Con turing si sono fatti ben pagare l'innovazione RT, ormai è roba scoperta, quindi ora è arrivato il tempo di dare (e non solo di ricevere) a prezzi più umani, ma tanto indietro non si torna e le venderanno a caro prezzo, continuo a pensare che schede da 350w siano una schifezza immonda, ma se hanno quel pp non hanno scelta.
Turing meritava un PP più avanzato, il PP di ampere andava bene per turing.
Troppe spese di silicio e clock non consoni.
Un TU104 a 3840cc (5 tpc x gpc) sarebbe stato un bel salto (considerando anche il clock).
In numeri avremmo avuto TU104 da 435mm2 e 3840cc, sopra i 2ghz.
che Vcore raggiungi? frequenza media?
1,05v
il TDP della KFA2 è di 240w quello della mia è 300w quindi è ovvio che se sparo al massimo il power limit nella mia le temp salgono a bomba.
Oltre questo le ventole al 70% sicuramente si fanno sentire.
Ed è per questo che scelgo chip reference ben raffreddati.
Solo il 3dmark mi sfora leggermente il TDP, quindi non mi serve a nulla un chip da 300watt di TDP.
in game mediamente sto sui 190/200watt a 2100 dopo i tagli (quindi partendo da oltre).
inoltre il PL, salvo bench, non mi serve.:)
No, sarebbe un fail colossale, +35% in raster a 699 MSRP me li aspetto dalla 3080 e non dalla TI, cosi avrebbe senso e si parlerebbe di progresso, se poi la top continua a costare 1279 euro con un +50% in raster, non grido di certo al miracolo, ci vorrebbe una sorpresa alla maxwell, ma è utopia.
Sono usciti dei leak con + 35%, ma per un valore del genere, oltre ad aumentare la l1 dati (1/3 dei cicli) ed l2, compressione, dovresti clockare veramente alto.
A meno che nvidia non spari completamente il chip, però bisogna considerare anche che il VRM nvidia lo piomba con un doppio 00 binario.
Valori simili sarebbero da 7nm, o da chip sparato. :)
Thunder-74
04-08-2020, 16:14
cut...
Sono usciti dei leak con + 35%, ma per un valore del genere, oltre ad aumentare la l1 dati (1/3 dei cicli) ed l2, compressione, dovresti clockare veramente alto.
A meno che nvidia non spari completamente il chip, però bisogna considerare anche che il VRM nvidia lo piomba con un doppio 00 binario.
Valori simili sarebbero da 7nm, o da chip sparato. :)
in che senso? credi che +35% tra 2080ti a 3080ti sia con un chip tirato per il collo? ...
Se stiamo con un +20% , vuol dire che 3080=2080ti in raster...
se fosse a quel punto aspetto prima i titoli in Ray Tracing che mi interessano e poi valuto l'acquisto di Ampere... del resto sono ancora molto affezionato alla mia bestiolina :fagiano:
https://i.imgur.com/EsFYoTKm.jpg
TigerTank
04-08-2020, 16:20
io l'avevo detto ... Rivaluteremo l'ALI e e molti passeranno al liquido :fagiano:
Più che altro speriamo siano meglio di quelle premesse...perchè se oltre a costare parecchio, ad aria fossero dei forni con tanto di tagli impietosi(alias castrate) in base temperatura, saremmo a posto... :stordita:
Vorrebbe dire che mi accontenterei di una sorella minore piuttosto che una top + necessità elevata di liquidare.
O confido in qualche custom da quasi 3 slot.
Thunder-74
04-08-2020, 16:24
Più che altro speriamo siano meglio di quelle premesse...perchè se oltre a costare parecchio, ad aria fossero dei forni con tanto di tagli impietosi(alias castrate) in base temperatura, saremmo a posto... :stordita:
Vorrebbe dire che mi accontenterei di una sorella minore piuttosto che una top + necessità elevata di liquidare.
O confido in qualche custom da quasi 3 slot.
Beh se assisteremo a un delta del 20% tra 3080 e 3080ti, ci puoi giurare che la Ti la lascio agli altri... anche perché se cambiamo VGA ad ogni generazione, tanto vale non optare per il TOP
io credo che siano percentuali molto attendibili tra Turing e Ampere.
un +20% tra 2080ti e 3080 e un +40% tra 2080ti e 3080ti..
A quel punto se fossero questi i margini, sarebbe da valutare se spendere quei 400 euro ipotizzati da Spytek, per quel circa 20% tra 3080 e la Ti.
io l'avevo detto ... Rivaluteremo l'ALI e e molti passeranno al liquido :fagiano:
Ragazzi, se non volete addentrarvi nel custom loop, valutate la possibile proposta di Alphacool con AIO per VGA (200 euro)... hanno detto che sicuramente lo faranno anche per Ampere. Meglio quindi se prenderete una VGA con PCB reference
LINK (https://www.alphacool.com/alphacool-eiswolf-2-gpu-aio)
https://www.alphacool.com/media/image/f8/cd/ba/1019586_01_600x600.jpg
Vi lascio anche una Review di TpUP LINK (https://www.techpowerup.com/review/alphacool-eiswolf-2-aio-gpu-cooler/)
Si si a sto giro FE + Eiswolf. Speriamo non sigillino le fe...
GIà volevo farlo con la 2080ti ma alla fine ho optato per il mostro ad aria. Per carità non è rumorosa eh, ma sono 80kg di vga e mi ha già dato piu’ di un problema il peso tra staffe e scheda che tende a piegarsi...
Inviato dal mio iPad utilizzando Tapatalk
mikael84
04-08-2020, 16:25
in che senso? credi che +35% tra 2080ti a 3080ti sia con un chip tirato per il collo? ...
Se stiamo con un +20% , vuol dire che 3080=2080ti in raster...
se fosse a quel punto aspetto prima i titoli in Ray Tracing che mi interessano e poi valuto l'acquisto di Ampere... del resto sono ancora molto affezionato alla mia bestiolina :fagiano:
https://i.imgur.com/EsFYoTKm.jpg
No Thunder, si commentavano quei leak postati da max, ma senza ovviamente riscontro, in cui il +35% veniva assegnato alla 3080, roba che KP e madtse spostati:p
https://www.hwupgrade.it/forum/showpost.php?p=46904643&postcount=48912
Beh... a me 350w di tdp fanno pensare a chip tirati per il collo su 8nm:O con margini di oc inesistenti, binnate al top e via.
A me fanno pietà questi 350w, ma se questo è l'unico modo per tirare fuori le performance.....
Ormai la 2080ti l'ho piazzata, di certo non starò li ad investire più di 1.000 euro per una gpu dal tdp di 350w LOL la vedo già obsoleta sul nascere, sta su di un pp dove non dovrebbe essere tutto qui, manco fermi caxxo.
350 però viene data sui modelli a 24gb (Titan).
Quadro turing per dire ha 295w di TDP.
In parte un ruolo l'avrà pure la circuiteria.
TigerTank
04-08-2020, 16:28
Beh se assisteremo a un delta del 20% tra 3080 e 3080ti, ci puoi giurare che la Ti la lascio agli altri... anche perché se cambiamo VGA ad ogni generazione, tanto vale non optare per il TOP
E aggiungici anche la questione RT in evoluzione che ovviamente impatta parecchio ad ogni generazione.
Comunque vedremo :)
Personalmente spero che evga tiri fuori qualcosa di piacente e senza surplus di prezzo esagerato...così la terrei pure ad aria ma cambiando al "day two"(perchè il day one è per il controllo funzionamento 100%) la pasta termica :D
Si si a sto giro FE + Eiswolf. Speriamo non sigillino le fe...
Curioso di vedere come siano le nuove FE...mi auguro non troppo articolate come visto da certe anticipazioni :sofico:
Thunder-74
04-08-2020, 16:29
Si si a sto giro FE + Eiswolf. Speriamo non sigillino le fe...
Inviato dal mio iPad utilizzando Tapatalk
oppure vai di qualsiasi marca con PCB ref. , magari risparmi pure... tipo Manli, sincerandoti del chip tipo A o non A se questo esisterà anche con Ampere
No Thunder, si commentavano quei leak postati da max, ma senza ovviamente riscontro, in cui il +35% veniva assegnato alla 3080, roba che KP e madtse spostati:p
https://www.hwupgrade.it/forum/showpost.php?p=46904643&postcount=48912
aaahh ok, magari una 3080 +35% :fagiano:
E aggiungici anche la questione RT in evoluzione che ovviamente impatta parecchio ad ogni generazione.
Comunque vedremo :)
Personalmente spero che evga tiri fuori qualcosa di piacente e senza surplus di prezzo esagerato...così la terrei pure ad aria ma cambiando al "day two"(perchè il day one è per il controllo funzionamento 100%) la pasta termica :D
Curioso di vedere come siano le nuove FE...mi auguro non troppo articolate come visto da certe anticipazioni :sofico:
Sicuramente lasciamo un po' di tempo che si assestino gli RMA :D
TigerTank
04-08-2020, 16:32
Sicuramente lasciamo un po' di tempo che si assestino gli RMA :D
Ahahahah bella questa :ciapet:
mikael84
04-08-2020, 16:38
Beh se assisteremo a un delta del 20% tra 3080 e 3080ti, ci puoi giurare che la Ti la lascio agli altri... anche perché se cambiamo VGA ad ogni generazione, tanto vale non optare per il TOP
Tra 3080ti e 3080 non aspettarti miracoli, i clock sono quelli, la differenza ALU è del 20% circa (che non rispecchia sempre in game), a cui bisognerà vedere l'importanza di rop's e BW.
20% ci può stare, le doppie ALU potrebbero avvantaggiare l'RT.
oppure vai di qualsiasi marca con PCB ref. , magari risparmi pure... tipo Manli, sincerandoti del chip tipo A o non A se questo esisterà anche con Ampere
Ai tempi di maxwell, con il VRM piombato, ne parlavamo con Tiger, e pure con te mi pare. Vuoi vedere che arriveranno a piombare anche l'OC per bin. Costringendoti alle premium.:sofico:
aaahh ok, magari una 3080 +35% :fagiano:
Beh si, perchè si rispecchierebbe anche nelle fasce più basse.:)
I chip stirati non sono una novità, anche se il VRM bloccato potrà poco.
mikael84
04-08-2020, 16:47
Speriamo sia così Mike.. per i watt intendo.
Per quanto riguarda il +35% della 3080, o sono balle, oppure di base va +20% e li era in forte oc +10-15%:D :D :D :D ecco spiegato il +35%
Nella realtà dei fatti sarà a +20% dalla 2080ti, e vabbè:D :D
Senza IPC, sarebbe un chip intorno ai 2300/2400.
Tra il 15-20% a seconda dei casi?
A numeri è un 20% (rapporto ALU/rop's), dopo bisogna vederle sul campo.
mikael84
04-08-2020, 17:08
Intendi solo valutando il clock, 2080ti a circa 1850 mhz e 3080 a 2300? con stessi cc (4352)
+20% di punteggio lineare su sintetico, di ipc quanto ci potrebbe essere? +15%?
A sto punto l'unica incognita è il clock, tanto le memorie daranno un +5-8%, ipc?? 15%? e il clock? BOHHHH:cry: :cry:
Almeno un +20% la 3080 lo dovrebbe rifilare alla 2080ti.
A pari CC.
https://www.3dmark.com/spy/4443737
Riguardo le ram, bisogna dire una cosa, attualmente abbiamo sia da samsung che da micron le 16gb/s.
Le 16gb/s sono quelle montate dalle 2080s e da varie 2070s (le HC16).
Solo rambus ha le 18, ma non credo sia da contratto.
Considerando il bus, la 3080 partirà da 640gb/s + compressione, mentre la 2080ti stava a 616.
Potrebbero essere inclusi anche colpi da 18, la stessa Micron ha montato la doppia densità senza confermarla, o 17 in bin.
Oltre al clock, bisogna vedere il possibile IPC, se aumentano come da progetto volta, e non fatto in turing la l1 dati/shared, aumenterà la BW l1, èd i cicli in meno (nvidia specifica 1/3).
La l1, è stato un parametro alla base di zen2 ed haswell per dire.
La l2 raddoppierà.
Le load, è ancora da vedere, anche li con turing le hanno dimezzate, dimezzando le istruzioni al pari di volta.
anche perché se cambiamo VGA ad ogni generazione, tanto vale non optare per il TOP
Specie se quel +20% te lo fanno pagare 4-500 euro in più :stordita:
Thunder-74
04-08-2020, 17:49
Tra 3080ti e 3080 non aspettarti miracoli, i clock sono quelli, la differenza ALU è del 20% circa (che non rispecchia sempre in game), a cui bisognerà vedere l'importanza di rop's e BW.
20% ci può stare, le doppie ALU potrebbero avvantaggiare l'RT.
Ai tempi di maxwell, con il VRM piombato, ne parlavamo con Tiger, e pure con te mi pare. Vuoi vedere che arriveranno a piombare anche l'OC per bin. Costringendoti alle premium.:sofico:
Beh si, perchè si rispecchierebbe anche nelle fasce più basse.:)
I chip stirati non sono una novità, anche se il VRM bloccato potrà poco.
Ma sicuro . Già su Turing con chip non A, mi pare non puoi flashare bios per aumentare il PL. Quindi l OC ne risente notevolmente.
Ma immagino che questi grossi salti non ci saranno tra la liscia e la Ti ... bisognerà vedere il prezzo. Possibile che non si discostino tanto come su Turing, visto che il chip è quello, come dicevo qualche giorno fa, potremmo vedere una differenza di prezzo simile a quella che avevamo tra 1080 e 1080ti , ma probabile con prezzo assestato più su per la 3080.
Inviato dal mio iPad utilizzando Tapatalk
Ma sicuro . Già su Turing con chip non A, mi pare non puoi flashare bios per aumentare il PL. Quindi l OC ne risente notevolmente.
Ma immagino che questi grossi salti non ci saranno tra la liscia e la Ti ... bisognerà vedere il prezzo. Possibile che non si discostino tanto come su Turing, visto che il chip è quello, come dicevo qualche giorno fa, potremmo vedere una differenza di prezzo simile a quella che avevamo tra 1080 e 1080ti , ma probabile con prezzo assestato più su per la 3080.
Inviato dal mio iPad utilizzando Tapatalk
Ma secondo me il chip non A sarà proprio la 3080, altrimenti con 3080ti lo stacco sarebbe troppo risicato persino inferiore in proporzione a 780 e 780ti.
Però aspettiamo ulteriori dettagli tanto penso sia questione di qualche settimana per info più certe.
mikael84
04-08-2020, 18:40
Ma sicuro . Già su Turing con chip non A, mi pare non puoi flashare bios per aumentare il PL. Quindi l OC ne risente notevolmente.
Ma immagino che questi grossi salti non ci saranno tra la liscia e la Ti ... bisognerà vedere il prezzo. Possibile che non si discostino tanto come su Turing, visto che il chip è quello, come dicevo qualche giorno fa, potremmo vedere una differenza di prezzo simile a quella che avevamo tra 1080 e 1080ti , ma probabile con prezzo assestato più su per la 3080.
Inviato dal mio iPad utilizzando Tapatalk
Si esatto, per la prima domanda, anche se hanno il vantaggio del reference.
Per il resto un 20% è buono.
Facendo due calcoli, prendendo per buoni, clock più o meno simili o molto vicini, la 2080s sta tra il 13/14% nelle medie, la 2070s (stesso chip) con il 20% sulle ALU ed il 10% sulla BW.
La 3080ti starebbe sopra il 20% in tutti gli stadi principali, quindi un 20% ci potrebbe pure stare, sopratutto alle alte risoluzioni.
Non mi aspetto miracoli.
Tra 3080 e 2080ti, bisogna valutare ancora varie cose.:)
Ma secondo me il chip non A sarà proprio la 3080, altrimenti con 3080ti lo stacco sarebbe troppo risicato persino inferiore in proporzione a 780 e 780ti.
Però aspettiamo ulteriori dettagli tanto penso sia questione di qualche settimana per info più certe.
Il chip non A, però riguarda lo scarto dei vari chip, non il chip in se.
Ad oggi si prevedono TDP simili.
Non è neppure da escludere che i chip bin, come quelli delle FE, siano di base belli pompati, tipo 2200 e sulle non bin 2000 con varie limitazioni.:)
Tecnicamente tutti gli scarti delle Ti mal riusciti sono 3080.
Poi se le rese sono realmente cosi pessime da dover fare anche degli scarti degli scarti degli scarti allora si.
mikael84
04-08-2020, 18:52
Tecnicamente tutti gli scarti delle Ti mal riusciti sono 3080.
Poi se le rese sono realmente cosi pessime da dover fare anche degli scarti degli scarti degli scarti allora si.
Si, ma non per questo differire sui clock ed altro. Un pò come le 1080ti dalle titan o le 980ti dalle titan m o addirittura kepler.
Ci saranno le FE per la 3080, le ventus "economiche"della serie, e le varie Strix/evga/HOF.:)
Sicuramente, ma già con la serie Super, i 12nm furono affinati e almeno sulla carta ci furono solo i chip *410.
Presumo dipenderà anche dagli 8nm e se mostreranno differenze non trascurabili in produzione.
mikael84
04-08-2020, 19:04
Sicuramente, ma già con la serie Super, i 12nm furono affinati e almeno sulla carta ci furono solo i chip *410.
Presumo dipenderà anche dagli 8nm e se mostreranno differenze non trascurabili in produzione.
Diciamo che i chip bin ci sono sempre stati, con le super, hanno levato i non A dalle serie minori.
Possono venderti anche le 3080ti in modalità solo bin, e le 3080 in tutte le modalità.
I bin erano proprio il fattore su cui ha puntato nvidia via FE.
Anche se con questi TDP, non è che ci sia tanto spazio per modelli plasticosi o scarsi.:p
Diciamo che i chip bin ci sono sempre stati, con le super, hanno levato i non A dalle serie minori.
Possono venderti anche le 3080ti in modalità solo bin, e le 3080 in tutte le modalità.
I bin erano proprio il fattore su cui ha puntato nvidia via FE.
Anche se con questi TDP, non è che ci sia tanto spazio per modelli plasticosi o scarsi.:p
Si ma con Turing alla prima sfornata hanno messo vere e proprie limitazioni, in passato i chip muravano e basta, quindi si nota il cambio di rotta un pò come per intel quando introdusse le cpu K, eliminando proprio la componente oc dalle cpu lisce.
Ma credo che pian piano si arriverà a quello, con GPU da OC e altre intoccabili XD
mikael84
04-08-2020, 23:51
Si ma con Turing alla prima sfornata hanno messo vere e proprie limitazioni, in passato i chip muravano e basta, quindi si nota il cambio di rotta un pò come per intel quando introdusse le cpu K, eliminando proprio la componente oc dalle cpu lisce.
Ma credo che pian piano si arriverà a quello, con GPU da OC e altre intoccabili XD
Guarda, ti dirò che io lo preferisco. Una delle vere buone cose che ha fatto JHH.
Con Maxwell, due persone prendono lo stesso chip, uno si ritrova 80+, l'altro 62+ (io). A pari soldi perde 100/150mhz in OC e 200 in bench.
Con i chip A, non A, basta scegliersi la versione, anche scrausa, ma in versione OC, e non hai problemi.
Meglio della lotteria.
L'avessero fatto con maxwell, avrei scelto.:p
Di la verità sei rimasto scottato dalla tua 980ti, se non ricordo male murava sui 1400mhz 🤣
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Thunder-74
05-08-2020, 08:58
piccola riflessione sull'argomento connettore 12 pin...
Sto vendendo che EVGA sta introducendo sul mercato dei nuovi ali anche di fascia alta (1300 e 1600 W). LINK (https://www.evga.com/articles/01417/evga-supernova-1600-1300-g-plus-power-supplies/)
E' vero che ancora di annunciato da parte di nVidia non c'è nulla, ma penso che una casa come EVGA venga informata da nVidia se avviene un cambio simile.
Comunque per curiosità sono andato a vedere che cavi in dotazione ci sono e nell'immagine non ci sono cavi particolari. LINK CAVI (https://images.evga.com/products/gallery/220-GP-1600-X1_XL_3.jpg)
Questo può non voler dire nulla, potrebbero benissimo inviarlo gratis a posteriori.... però mi chiedo... se io producessi ALI e venissi a sapere di un cambio da parte di nVidia, lancerei sul mercato un prodotto un mese prima senza cavo e senza mensionare il supporto ad Ampere ( o cavo 12pin)? Probabilmente attenderei la presentazione di Ampere e poi venderei il mio nuovo ali con il cavo in dotazione e pompando il marketing per "supporto alla nuova VGA"...
piccola riflessione sull'argomento connettore 12 pin...
Sto vendendo che EVGA sta introducendo sul mercato dei nuovi ali anche di fascia alta (1300 e 1600 W). LINK (https://www.evga.com/articles/01417/evga-supernova-1600-1300-g-plus-power-supplies/)
E' vero che ancora di annunciato da parte di nVidia non c'è nulla, ma penso che una casa come EVGA venga informata da nVidia se avviene un cambio simile.
Comunque per curiosità sono andato a vedere che cavi in dotazione ci sono e nell'immagine non ci sono cavi particolari. LINK CAVI (https://images.evga.com/products/gallery/220-GP-1600-X1_XL_3.jpg)
Questo può non voler dire nulla, potrebbero benissimo inviarlo gratis a posteriori.... però mi chiedo... se io producessi ALI e venissi a sapere di un cambio da parte di nVidia, lancerei sul mercato un prodotto un mese prima senza cavo e senza mensionare il supporto ad Ampere ( o cavo 12pin)? Probabilmente attenderei la presentazione di Ampere e poi venderei il mio nuovo ali con il cavo in dotazione e pompando il marketing per "supporto alla nuova VGA"...
Diciamo che questo connettore a 12pin è ancora un oggetto mistico non confermato.
Ma credo che essendo una news recente, EVGA aveva già progettato i nuovi ali da prima e se anche fosse confermato il nuovo il connettore probabilmente nella roadmap di EVGA non era previsto.
Però parliamo sempre di EVGA, se dovesse esserci stai pur sicuro che non ti lasciano a piedi...
Thunder-74
05-08-2020, 09:17
Diciamo che questo connettore a 12pin è ancora un oggetto mistico non confermato.
Ma credo che essendo una news recente, EVGA aveva già progettato i nuovi ali da prima e se anche fosse confermato il nuovo il connettore probabilmente nella roadmap di EVGA non era previsto.
Però parliamo sempre di EVGA, se dovesse esserci stai pur sicuro che non ti lasciano a piedi...
Si certo non rimani a piedi con EVGA, ma a livello di marketing , puoi ritardare la messa in vendita di un prodotto (attesa presentazione Ampere) e modificare il bundle all ultimo, se l ALI lo hai già prodotto/progettato
Inviato dal mio iPad utilizzando Tapatalk
Si certo non rimani a piedi con EVGA, ma a livello di marketing , puoi ritardare la messa in vendita di un prodotto (attesa presentazione Ampere) e modificare il bundle all ultimo, se l ALI lo hai già prodotto/progettato
Inviato dal mio iPad utilizzando Tapatalk
Dipende, se vuoi fare un uscita diretta devi riprogettare l'ali, se invece fai una sorta di adattatore nativo devi convertire 3x8pin a 12pin.
Secondo me in questi casi la soluzione più semplice è quella di lasciare tutto come da roadmap e nell'eventualità fornire a chi ne fa richiesta l'adattatore.
Un pò come successe inizialmente con l'uscita di AM4 dove molti dissi anche di prima uscita non avevano la staffa adatta ma aprendo una segnalazione te le inviavano gratuitamente.
Ma non c'è la possibilità della presentazione della nuova serie a Ottobre,causa rallentamenti Covid,un po come Apple con l'Iphone 12?
mikael84
05-08-2020, 11:51
piccola riflessione sull'argomento connettore 12 pin...
Sto vendendo che EVGA sta introducendo sul mercato dei nuovi ali anche di fascia alta (1300 e 1600 W). LINK (https://www.evga.com/articles/01417/evga-supernova-1600-1300-g-plus-power-supplies/)
E' vero che ancora di annunciato da parte di nVidia non c'è nulla, ma penso che una casa come EVGA venga informata da nVidia se avviene un cambio simile.
Comunque per curiosità sono andato a vedere che cavi in dotazione ci sono e nell'immagine non ci sono cavi particolari. LINK CAVI (https://images.evga.com/products/gallery/220-GP-1600-X1_XL_3.jpg)
Questo può non voler dire nulla, potrebbero benissimo inviarlo gratis a posteriori.... però mi chiedo... se io producessi ALI e venissi a sapere di un cambio da parte di nVidia, lancerei sul mercato un prodotto un mese prima senza cavo e senza mensionare il supporto ad Ampere ( o cavo 12pin)? Probabilmente attenderei la presentazione di Ampere e poi venderei il mio nuovo ali con il cavo in dotazione e pompando il marketing per "supporto alla nuova VGA"...
Penso che dite come Seasonic ed EVGA siano ben al corrente di queste mosse da parte di nvidia, rsipetto a wccftech o igorlabs.
Cmq con Turing prima di un mese dal lancio avevano presentato il PCB, infatti lo aspetto.
Quindi è sicura come info?
Non bastavano gli 8+8 pin? :rolleyes:
mikael84
05-08-2020, 12:08
Quindi è sicura come info?
Non bastavano gli 8+8 pin? :rolleyes:
Mai creduto personalmente. L'ho sempre bollato come fake.
Nel dubbio, dovrebbero mostrare il PCB ben prima del debutto.
Vabbè,nel caso ciò avvenisse,Nvidia sarà cosi attenta e corretta nei confronti dei clienti che per motivi imprescindibili dal nuovo standard di alimentazione,commercializza sk grafiche a prezzo più contenuto perchè consapevole dell’aggravio economico risultante dall’acquisto di un nuovo alimentatore conforme a tale standard... :rolleyes:
Meglio pensare ad un fake dai...
razor820
05-08-2020, 12:35
Ma secondo te uno che spende dalle 800 euro in poi per una gpu pensa ad un ulteriore spesa per cambio di alimentatore che potrebbe variare dalle 100 alle 150?
Poi nella migliore delle ipotesi potrebbe anche bastare un semplice adattatore di 20 euro.
Nvidia da anni non si è mai fatta scrupoli sui prezzi, perché sa che L interessato compra.
Un po’ come Apple per intenderci
Thunder-74
05-08-2020, 12:39
Vabbè,nel caso ciò avvenisse,Nvidia sarà cosi attenta e corretta nei confronti dei clienti che per motivi imprescindibili dal nuovo standard di alimentazione,commercializza sk grafiche a prezzo più contenuto perchè consapevole dell’aggravio economico risultante dall’acquisto di un nuovo alimentatore conforme a tale standard... :rolleyes:
Meglio pensare ad un fake dai...
Qualora non fosse un fake, dubito che non daranno a corredo un cavo per utilizzare più connettori da 6 o 8 pin. Vendere una VGA con l'obbligo di cambiare ALI, la vedrei una mossa pericolosa.
Ma secondo te uno che spende dalle 800 euro in poi per una gpu pensa ad un ulteriore spesa per cambio di alimentatore che potrebbe variare dalle 100 alle 150?
No,ma l'idea di aver speso 150 euro per un alimentatore poco tempo fa e tenerselo "obsoleto" fa incaxxare e non poco,specie se alla base ci sono politiche di marketing che non giustificano in alcun modo il cambio di standard.
Poi nella migliore delle ipotesi potrebbe anche bastare un semplice adattatore di 20 euro.
Si certo,credi che non ci sarei arrivato?
Il mio era un discorso di principio e speravo che qualcuno non intervenisse con la solita adesione acritica...
Qualora non fosse un fake, dubito che non daranno a corredo un cavo per utilizzare più connettori da 6 o 8 pin. Vendere una VGA con l'obbligo di cambiare ALI, la vedrei una mossa pericolosa.
Se cosi fosse,anche io sono convinto che inseriranno un adattatore Pci-Ex come successo in passato con il 6+2 pin ;)
Lo spero, visto che stamattina ho venduto la 2080ti:D :D me la sono levata dalle scatole:D :D 870 puliti in tasca, alla fine ho trovato la persona giusta, darla via per 800 miseri euro mi piangeva il cuore.
Azzarola,prezzaccio ;)
Il periodo di transizione non è dei migliori per vendere.
Io ho già prenotato "mentalmente" 3080 liscia sperando di non pagarla oltre le 850-900 euro con almeno un 20% di prestazioni in più dalla 2080Ti :D
Io ho un uber pc in formato abbastanza compatto, su scala mini itx, con alimentatore Silverstone pensato appositamente per essere inserito in un case compatto -il Raven 01 di qualche anno fa-
Ho una 2070 liscia, comprata più per togliermi un prurito che altro, ma sto aspettanto le 3080 con estrema fiducia.
Posso permettermi 800 Euro di scheda video in questo periodo? Sì, ma con molti sacrifici e sotterfugi -se lo scopre mia moglie divorzio istantaneo, lei è avvocato, perdo casa, figlia e prostata in un nanosecondo ^__^-.
Posso permettermi un nuovo alimentatore da 150/200 Euro?
Nì.
Alle brutte dovrei comunque attendere una versione compatta e compatibile col formato mini itx del mio case, oltre che pagarlo il triplo perchè è un formato particolare.
Questo per dire che sono il classico caso, se me la cavo con un adattatore da 20 Euro bene, se no la 3080 può restare lì dove sta in attesa riesca a nascondere a mia moglie anche il fatto che cambio in toto il sistema :D.
Cmq, sarà sicuramente un fake, ma per non saper nè leggere, nè scrivere, mi spaventa che nVidia non si sia precipitata a chiarire la cosa, nel caso non veritiera...
Voglio dire, non è che mi deve dare il datasheet delle sue nuove schede mesi prima, "me deve solo da dì" se sta cosa dell'alimentatore è vera o meno, e se non è vera le basta un tweet per dire, fresca, che creduloni che siete.
Quello che farò anch'io, facile che +20% e la demolisca in RT, potrebbe bastarmi, visto e considerato che non dovrei aggiungere un becco di un centesimo :sofico: :sofico: :sofico: o al limite un centone scarso:D
Ma infatti,ora sei apposto e in estate si gioca poco al Pc e se ne riparla a Ottobre :D
Poi vabbè, se vedo la 3080ti a 1100, facile che la scimmia mi faccia scucire questi 200 euro "di conguaglio" LOL
Scordati 1100 euro per una 3080Ti.
Nvidia non torna indietro e il nuovo target di prezzo(1300 euro)è solido come la roccia...
Azzarola,prezzaccio ;)
Il periodo di transizione non è dei migliori per vendere.
Io ho già prenotato "mentalmente" 3080 liscia sperando di non pagarla oltre le 850-900 euro con almeno un 20% di prestazioni in più dalla 2080Ti :D
Dipende da innumerevoli fattori, se la 3070 pareggia o va poco sotto in raster rispetto la 2080ti e con un prezzo del nuovo sui 699$ la 2080ti si svaluta enormemente più, nessuno la comprerebbe neanche a 800€ se poi prende una scheda analoga nuova e con maggiori performance in RT...
Ma nei cambi di gen è norma, e più un chip è costoso maggiore è la sua svalutazione... La situazione peggiore la si ebbe con Kepler, con le 780ti praticamente regalate nell'usato per via della 970 che sul nuovo costavano quasi la metà.
Ma anche la 980ti ebbe la sua bella e grossa svalutazione con l'uscita delle Pascal... Io la mia la presi a 270€ ed è anche una custom che da fabbrica boosta a 1430mhz, in quel periodo Pascal era in giro da 3-4 mesi e la 1070 non vacillava a scendere sotto le 450€ nuova.
L'unica che ha mantenuto valore (forse troppo) è la 1080ti complici anche i 12GB di Vram e il poco salto in raster di turing.
Con la 2080ti, 870€ adesso è un prezzone, poteva prenderci di più, considerando che sul nuovo la più scrauza delle 2080ti targata manli sta 1015€ :fagiano:
Ma tra qualche mese non si sa cosa succederà tanto potrebbe mantenere un valore dignitoso, tanto subire severe legnate.
stefano192
05-08-2020, 13:22
Ma infatti,ora sei apposto e in estate si gioca poco al Pc e se ne riparla a Ottobre :D
Scordati 1100 euro per una 3080Ti.
Nvidia non torna indietro e il nuovo target di prezzo(1300 euro)è solido come la roccia...
Ma chi te lo dice?
All'uscita le RTX erano qualcosa di nuovo fornito solo da NVIDIA, nessuna concorrenza. Vuoi la nuova tecnologia? Facciamo noi il prezzo.
Con l'uscita delle nuove console, AMD con il suo RT, può essere che il prezzo delle 3000 sia un po' più basso rispetto alle 2000. Così come potrebbero piazzare una 3060 a 700€. Finché non annunceranno i prezzi sarà tutto possibile. Anch'io mi aspetto prezzi alti, ma spero vivamente che con le varie uscite di quest'anno, si abbia una maggiore competitività e quindi un minor prezzo, tornando a cifre più ragionevoli per quanto riguarda le gpu. Lo è stato fatto con le CPU, si spera che funzioni anche con le schede video.
Gli ultimi leak che paiono "affidabili", parlano di 3070 a 400$ e 3070ti a 500$ circa. Fai a salire anche un +150$ per la 3080 e altri 150 per la ti, arrivi sui 900.
A parte questo spero vivamente che i prezzi di questa serie siano più umani visto che l'idea è quella di prendere una 3070/3070ti però come budget più di 500€ non sono disposto a spendere.
Posso permettermi 800 Euro di scheda video in questo periodo? Sì, ma con molti sacrifici e sotterfugi -se lo scopre mia moglie divorzio istantaneo, lei è avvocato, perdo casa, figlia e prostata in un nanosecondo ^__^-.
Spettacolo :asd:
Posso permettermi un nuovo alimentatore da 150/200 Euro?
Nì.
Si risolve con un adattatore come già successo in passato sperando di non incorrere in brutte sorprese ma dubito vivamente.
Ma chi te lo dice?
Nessuno, ma guardando la politica di Nvidia negli ultimi anni con aumento spropositato per la top di gamma,in stile Titan di qualche tempo fa,non mi sento di essere per nulla ottimista.
All'uscita le RTX erano qualcosa di nuovo fornito solo da NVIDIA, nessuna concorrenza. Vuoi la nuova tecnologia? Facciamo noi il prezzo.
Vero,peccato che chi gioca in 4K ( se si vuole il massimo bisogna giocare anche al massimo della risoluzione) non esiste Sk grafica che tenga con Rt al max (come scritto almeno 100 volte nei post successivi).
Certo,è inutile blaterare e nessuno è obbligato ma la delusione c'è e fa riflettere.
Gli ultimi leak che paiono "affidabili", parlano di 3070 a 400$ e 3070ti a 500$ circa. Fai a salire anche un +150$ per la 3080 e altri 150 per la ti, arrivi sui 900.
Da 750$ per una 3080 a 900$ per una 3080Ti?
Mezzo miracolo? :D
Guarda,lo spero veramente che i prezzi siano più contenuti.
Dipende da innumerevoli fattori, se la 3070 pareggia o va poco sotto in raster rispetto la 2080ti e con un prezzo del nuovo sui 699$ la 2080ti si svaluta enormemente più, nessuno la comprerebbe neanche a 800€ se poi prende una scheda analoga nuova e con maggiori performance in RT...
Appunto,non è insolito trovarsi di fronte a store con prezzi per l'ex top "esagerati" in rapporto alle schede di nuova generazione...
Restano sullo scaffale,semplice ;)
Con la 2080ti, 870€ adesso è un prezzone, poteva prenderci di più, considerando che sul nuovo la più scrauza delle 2080ti targata manli sta 1015€ :fagiano:
Nell'immediato si ma in vista di futuro acquisto ( e nemmeno tanto visto che parliamo di attendere circa un mese) è un mezzo bagno :D
Thunder-74
05-08-2020, 13:53
Ci ho provato, più di quello non sono riuscito, la maggior parte delle offerte consistevano in cifre inferiori, si parla di 800 euro mediamente, molte ridicole di 700 euro, il fatto che vedo gente vendere le HOF alla stessa cifra di una barebone usata (800) LOL..
Quelli che hanno acquistato custom da oltre 1500 euro sentiranno ancora più il colpo, sempre 2080ti sono, quindi.....più di quello non ti danno, appena usciranno le 3000, potranno avere anche i caps d'oro che non gliene fregherà una mazza a nessuno.
870 puliti secondo me è andata bene, possibile che tra due settimane svaluti della metà:)
Hai fatto bene. Alla fine quanto ci potevi fare ...900 a dire tanto? Se togli iva e calcoli il fatto che è usata da più di un anno...
Inviato dal mio iPhone X utilizzando Tapatalk
razor820
05-08-2020, 13:57
Purtroppo il mercato lo fa richiesta e non chi vende.. Un po’ come la benzina, nessuno riempie le auto e il prezzo della benzina cala drasticamente. Il 90% di questo range spende dalle 1000 alle 1500 euro per una gpu, quindi perché il venditore deve abbassare il prezzo?
Mi ricordo ai tempi della 3dfx voodoo, che per comprarla, circa 120 euro, ti sudavano le mani.
I prezzi tenderanno esponenzialmente sempre ad aumentare.
iPhone 3GS da circa 360 euro è arrivato con 11 pro a oltre 1200 euro..
Adesso chi di voi per far abbassare il prezzo delle gpu è disposto a non comprarne una nuova nei prox 3 anni? :D
è del 19-10-2018, tolta l'iva sono 1050, ci ho perso 180 euro in quasi due anni (al netto dell'iva che va comunque scorporata)
Fare 1050 è utopia, ma anche 950 è durissima.
Non male comunque, se avessi aspettato a venderla, correvi il rischio di una svalutazione ancora più aggressiva.
Thunder-74
05-08-2020, 14:20
Non male comunque, se avessi aspettato a venderla, correvi il rischio di una svalutazione ancora più aggressiva.
Ma di fatti, già che sia di interesse ad un mese dall uscita delle nuove, mi sembra tanto e a quel prezzo poi... chi compra ora un usato lo fa perché deve per forza mettere su una build, perché è abbastanza da matti se fosse un aggiornamento. Non dico che devi attendere Ampere per prendere una 3000, ma aspetti che esce e ti predi quello che più conviene o Turing a due spicci ... solo il mining può invertire questa tendenza... e speriamo bene ...
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
05-08-2020, 14:30
Vabbè,nel caso ciò avvenisse,Nvidia sarà cosi attenta e corretta nei confronti dei clienti che per motivi imprescindibili dal nuovo standard di alimentazione,commercializza sk grafiche a prezzo più contenuto perchè consapevole dell’aggravio economico risultante dall’acquisto di un nuovo alimentatore conforme a tale standard... :rolleyes:
Meglio pensare ad un fake dai...
Qualora non fosse un fake, dubito che non daranno a corredo un cavo per utilizzare più connettori da 6 o 8 pin. Vendere una VGA con l'obbligo di cambiare ALI, la vedrei una mossa pericolosa.
Dai leak abbiamo visto alcune cose fasulle.
Io lo valuto uno standard quando viene certificato.
Da mesi si parla di ram gddr6x a 21gb/s, ma nessuna testata di livello, ha mai analizzato questa bufala.
Attualmente nvidia ha il contratto con micron e samsung, e di certificato hanno solo le 16 gb/s.
Con turing avevano le 14 e quelle hanno messo, con la 1080 avevano le 10gb/s e quelle hanno messo.:)
Ora non ci resta che vedere il PCB nudo, ma in tale PCB hanno dichiarato anche il coprocessor transversal, che avrebbe 50/70 watt di suo, portando un picco tensor pari alla 2080ti.
Il problema è che i tensor di ampere sono nettamente superiori per mettere un simile aggeggio. :)
Thunder-74
05-08-2020, 14:34
Dai leak abbiamo visto alcune cose fasulle.
Io lo valuto uno standard quando viene certificato.
Da mesi si parla di ram gddr6x a 21gb/s, ma nessuna testata di livello, ha mai analizzato questa bufala.
Attualmente nvidia ha il contratto con micron e samsung, e di certificato hanno solo le 16 gb/s.
Con turing avevano le 14 e quelle hanno messo, con la 1080 avevano le 10gb/s e quelle hanno messo.:)
Ora non ci resta che vedere il PCB nudo, ma in tale PCB hanno dichiarato anche il coprocessor transversal, che avrebbe 50/70 watt di suo, portando un picco tensor pari alla 2080ti.
Il problema è che i tensor di ampere sono nettamente superiori per mettere un simile aggeggio. :)
Dai Mike, di la verità... passi il tempo sul tasto F5 in attesa di vedere questo PCB ;) Scherzo, ma in effetti più uno si avvicina all'uscita e più vuole info certe :D
mikael84
05-08-2020, 14:45
Dai Mike, di la verità... passi il tempo sul tasto F5 in attesa di vedere questo PCB ;) Scherzo, ma in effetti più uno si avvicina all'uscita e più vuole info certe :D
Diciamo che a me piace commentare su base di dati tecnici concreti, non sono amante delle sfere di cristallo.:)
Chiaramente, osservo ed analizzo le varie fonti, e le valuto nel mio contesto.
stefano192
05-08-2020, 14:58
Purtroppo il mercato lo fa richiesta e non chi vende.. Un po’ come la benzina, nessuno riempie le auto e il prezzo della benzina cala drasticamente. Il 90% di questo range spende dalle 1000 alle 1500 euro per una gpu, quindi perché il venditore deve abbassare il prezzo?
Mi ricordo ai tempi della 3dfx voodoo, che per comprarla, circa 120 euro, ti sudavano le mani.
I prezzi tenderanno esponenzialmente sempre ad aumentare.
iPhone 3GS da circa 360 euro è arrivato con 11 pro a oltre 1200 euro..
Adesso chi di voi per far abbassare il prezzo delle gpu è disposto a non comprarne una nuova nei prox 3 anni? :D
Beh ma che c'entra iphone? Lì è diventato anche un simbolo, una moda, un modo per essere "fighi". La gente vuole apparire, apple ci guadagna. Si vendono pure la mamma tra un po' per prendere un iphone perché non hanno i soldi per comprarselo. Poi vanno dal cinese per risparmiare il più possibile se si è rotto il display o simili :sofico:
Detto questo, sicuramente sono aumentati i prezzi, però il grosso del mercato è ancora dato da gpu di fascia media se non addirittura bassa. Il 90% di non ho capito chi spenderebbe 1000-1500€ per una gpu? :mbe: Mica tutti hanno sti soldi da "buttare" in un unico componente per il pc.
Io il mio budget l'ho settato, e l'intenzione è quella di tenerla minimo 3 anni se vado a spendere 500€ visto che con la 1060 ne ho spesi 270 (-90€ della 760 venduta) e son 3 anni che ce l'ho e mi sta dando ancora soddisfazioni visto che in alcuni titoli il 1440p seppur con alcune limitazioni, riesco a giocarci. In altri invece va ancora bene quindi nulla di cui lamentarsi.
Nessuno, ma guardando la politica di Nvidia negli ultimi anni con aumento spropositato per la top di gamma,in stile Titan di qualche tempo fa,non mi sento di essere per nulla ottimista.
Vero,peccato che chi gioca in 4K ( se si vuole il massimo bisogna giocare anche al massimo della risoluzione) non esiste Sk grafica che tenga con Rt al max (come scritto almeno 100 volte nei post successivi).
Certo,è inutile blaterare e nessuno è obbligato ma la delusione c'è e fa riflettere.
Da 750$ per una 3080 a 900$ per una 3080Ti?
Mezzo miracolo? :D
Guarda,lo spero veramente che i prezzi siano più contenuti.
Ma siam sempre qua, non hanno praticamente avuto concorrenza negli ultimi anni e quindi si sono sentiti liberi di alzare i prezzi. Non dico che con la serie 5000 di AMD le cose siano cambiate, però sicuramente una 5700xt che va quasi quanto una 2070S se non come o meglio in alcuni titoli e costa almeno qua da noi mediamente 150-200€ in meno, può dare una scossa ai prezzi di NVIDIA.
Il 4k ad oggi è inutile nel gaming, poi sarà un pensiero mio, ma se non si hanno le schede per giocarlo senza compromessi, che senso ha prendere un monitor 4k? Boh non capisco di cosa ci si lamenti visto che prima bisognava verificare che ci fossero le schede per giocarlo a pieno, e poi prendersi il monitor. Cioè è come se mi comprassi l'auto elettrica ma non ci fosse modo di ricaricarla, oppure l'unico impiegherebbe 2 settimane per una carica che mi dura 1 giorno. Io sono "fresco" di monitor in 1440p, e quando l'ho comprato ero conscio del fatto che già adesso ci sono schede che permettono di giocare a titoli a questa risoluzione, senza compromessi garantendo un ottimo framerate. Se già la serie attuale lo permette, la prossima andrà ancora meglio e probabilmente pure una scheda di fascia media come la 3060 permetterà di fare 120fps di media nei titoli in 1440p (risultati sparati a caso).
Sta roba che se si vuole il massimo bisogna giocare al massimo della risoluzione mi pare un po' una cazzata senza offesa. Infatti se vuoi giocare al massimo devi sganciare 1300€ e scendere a compromessi, affarone proprio :sofico: Come se una risoluzione maggiore cambiasse l'esperienza di gioco. Un 1440p su un 27" è già un'ottima risoluzione che ti permette di godere a pieno della qualità grafica di un gioco.
Thunder-74
05-08-2020, 15:03
Diciamo che a me piace commentare su base di dati tecnici concreti, non sono amante delle sfere di cristallo.:)
Chiaramente, osservo ed analizzo le varie fonti, e le valuto nel mio contesto.
Giustissimo... il resto sono chiacchiere da bar per passare il tempo :)
Inviato dal mio iPad utilizzando Tapatalk
Bah, per costare il 35% in piu in media, la 2070s non e` che sia tutto questo affarone rispetto alla 5700xt.
Tra l'altro, non per memare, ma sono dieci anni che anno dopo i driver fanno andare amd meglio di nvidia al rilascio di nuovi titoli.
A parita` di prezzo prenderei una 2070s, sempre che io sia uno che cambia ogni 2/3 anni, altrimenti prenderei la 5700xt in ogni caso.
razor820
05-08-2020, 15:32
Beh ma che c'entra iphone? Lì è diventato anche un simbolo, una moda, un modo per essere "fighi". La gente vuole apparire, apple ci guadagna. Si vendono pure la mamma tra un po' per prendere un iphone perché non hanno i soldi per comprarselo. Poi vanno dal cinese per risparmiare il più possibile se si è rotto il display o simili :sofico:
Detto questo, sicuramente sono aumentati i prezzi, però il grosso del mercato è ancora dato da gpu di fascia media se non addirittura bassa. Il 90% di non ho capito chi spenderebbe 1000-1500€ per una gpu? :mbe: Mica tutti hanno sti soldi da "buttare" in un unico componente per il pc.
Io il mio budget l'ho settato, e l'intenzione è quella di tenerla minimo 3 anni se vado a spendere 500€ visto che con la 1060 ne ho spesi 270 (-90€ della 760 venduta) e son 3 anni che ce l'ho e mi sta dando ancora soddisfazioni visto che in alcuni titoli il 1440p seppur con alcune limitazioni, riesco a giocarci. In altri invece va ancora bene quindi nulla di cui lamentarsi.
Ma siam sempre qua, non hanno praticamente avuto concorrenza negli ultimi anni e quindi si sono sentiti liberi di alzare i prezzi. Non dico che con la serie 5000 di AMD le cose siano cambiate, però sicuramente una 5700xt che va quasi quanto una 2070S se non come o meglio in alcuni titoli e costa almeno qua da noi mediamente 150-200€ in meno, può dare una scossa ai prezzi di NVIDIA.
Il 4k ad oggi è inutile nel gaming, poi sarà un pensiero mio, ma se non si hanno le schede per giocarlo senza compromessi, che senso ha prendere un monitor 4k? Boh non capisco di cosa ci si lamenti visto che prima bisognava verificare che ci fossero le schede per giocarlo a pieno, e poi prendersi il monitor. Cioè è come se mi comprassi l'auto elettrica ma non ci fosse modo di ricaricarla, oppure l'unico impiegherebbe 2 settimane per una carica che mi dura 1 giorno. Io sono "fresco" di monitor in 1440p, e quando l'ho comprato ero conscio del fatto che già adesso ci sono schede che permettono di giocare a titoli a questa risoluzione, senza compromessi garantendo un ottimo framerate. Se già la serie attuale lo permette, la prossima andrà ancora meglio e probabilmente pure una scheda di fascia media come la 3060 permetterà di fare 120fps di media nei titoli in 1440p (risultati sparati a caso).
Sta roba che se si vuole il massimo bisogna giocare al massimo della risoluzione mi pare un po' una cazzata senza offesa. Infatti se vuoi giocare al massimo devi sganciare 1300€ e scendere a compromessi, affarone proprio :sofico: Come se una risoluzione maggiore cambiasse l'esperienza di gioco. Un 1440p su un 27" è già un'ottima risoluzione che ti permette di godere a pieno della qualità grafica di un gioco.
Avevo menzionato iPhone, come il petrolio per fare L esempio della domanda e prezzo.
Per quanto riguarda la percentuale delle gpu, si sa perfettamente che oltre 80%, come sui database steam, sono costituite da schede in media 1060.
Ci sono diversi mercati. E per il mercato delle xx80 a salire i prezzi sono quelli, perché le 10 persone spendono 1200 euro per una 2080 ti e altre 500 persone ne spendono 300 per una 2060.
Quindi se nvidia ogni 2 anni in media sa che quel numero di 10 persone rimarrà tale o addirittura aumenterà, i prezzi perché dovrebbero diminuire?
mikael84
05-08-2020, 15:41
Giustissimo... il resto sono chiacchiere da bar per passare il tempo :)
Inviato dal mio iPad utilizzando Tapatalk
Ci mancherebbe, siamo tutti curiosi da appassionati.:)
Con ampere l'ipc crescerà ancora e ciaone, per chi si aspetta Big Navi a livelli del chippone Nvidia, credo che si mangerà le mani.
AMD dice +50% dalla 2080ti praticamente dalle sue slide (il 100% dalla 5700xt), il tutto con un 505mm2 a circa 20,6mtransistor (contro 18,6 di tu102).
Per ora dove non c'è RT, ed a circa pari transistor (gtx 1660ti vs 5500xt), nvidia va il 24% oltre la versione da 8gb e 31% sulla 4.
Io preferisco basarmi su certi dati che su slide, però, tutto può essere.:)
Bah, per costare il 35% in piu in media, la 2070s non e` che sia tutto questo affarone rispetto alla 5700xt.
Tra l'altro, non per memare, ma sono dieci anni che anno dopo i driver fanno andare amd meglio di nvidia al rilascio di nuovi titoli.
A parita` di prezzo prenderei una 2070s, sempre che io sia uno che cambia ogni 2/3 anni, altrimenti prenderei la 5700xt in ogni caso.
Certo, questo è in parte vero, in quanto AMD ha sempre tirato avanti con la stessa architettura (maxwell e pascal non hanno subito variazioni per dire), però quando si è svoltato, con vliw, con la fury e vedremmo ora con Vega, dove già qualche ammacco si vede, i risultati non sono stati esemplari.
La fury mi sembra morta male, pur con titoli sotto i 4gb (considerando il compilatore).
Crysis90
05-08-2020, 15:54
Da 750$ per una 3080 a 900$ per una 3080Ti?
Mezzo miracolo? :D
Guarda,lo spero veramente che i prezzi siano più contenuti.
Vi state dimenticando che il cambio euro/dollaro è sempre a nostro sfavore, dove "per magia" 750$ diventano tranquillamente 850/900 euro e 900$ diventano 1000 euro.
Vedi come è successo con la 2080 Ti. :asd: :muro:
Giovamas
05-08-2020, 16:08
Lo spero, visto che stamattina ho venduto la 2080ti:D :D me la sono levata dalle scatole:D :D 870 puliti in tasca, alla fine ho trovato la persona giusta, darla via per 800 miseri euro mi piangeva il cuore.
Spero anche che conservino 8+8 pin, tanto si arriva sino a 375w sin specifica, ovvio le custom più spinte avranno 8pin *3 ma è roba già vista.
hai fatto bene anche se da parte mia aspetto. Ho un collega/amico che me la sta chiedendo insistemente (la mia è ottima con memorie samsung) ma la prenderà all'uscita di Ampere. Matematico. Qui si tratta di aspettare novembre per le custom che voglio io
stefano192
05-08-2020, 16:11
In quale pianeta va quanto una 2070 Super? un paio di casi con titoli pro AMD? ok, allora togliamo fuori i casi pro Nvidia dove la 2070s la passa di una fascia piena, è quasi un Tier inferiore, in più non ha rt, aggiungiamoci la mole di RMA, i driver penosi che si sono trascinati per mesi, insomma è pure normale che costi meno o no?
https://i.postimg.cc/qg1nh35c/Cattura.jpg (https://postimg.cc/qg1nh35c)
Paghi quel che acquisti, sono forti solo lato TMU, per il resto una 5700xt con 2560cc non riesce a stare dietro alla 2070s (sempre 2560cc) a parità di ALU sono più veloci i core turing.
Con ampere l'ipc crescerà ancora e ciaone, per chi si aspetta Big Navi a livelli del chippone Nvidia, credo che si mangerà le mani.
https://i.imgur.com/CKUdRaW.png
Va in media il 9% in meno, in alcuni titoli qualcosina in più in altri uguali in altri molto peggio. Il tutto rientra in "va quasi quanto". E ok tutte le cose che hai detto, ma il punto qual è? Alla fine ho detto che costa meno e offre prestazioni simili. Se ad uno va bene il 10% in meno di prestazioni e risparmiare quasi 200€ sono scelte sue. Nvidia ha comunque dovuto riguardare un attimo i prezzi della serie S, era questo il punto.
Non mi aspetto che butti fuori chissà cosa AMD, spero solo quel tanto per essere competitiva con NVIDIA e abbassare un po' i prezzi. Alla fine chissene rosso o verde, l'importante è che ci sia competizione. Un po' come successo con Ryzen e Intel negli ultimi anni.
Vi state dimenticando che il cambio euro/dollaro è sempre a nostro sfavore, dove "per magia" 750$ diventano tranquillamente 850/900 euro e 900$ diventano 1000 euro.
Vedi come è successo con la 2080 Ti. :asd: :muro:
Ma sì erano prezzi sparati a caso. Gli unici prezzi che per ora sono trapelati sono quelli della 3070 a 400$ e 3070ti 500$, e non si sa neanche se siano attendibili o che.
Diciamo che a me piace commentare su base di dati tecnici concreti, non sono amante delle sfere di cristallo.:)
Chiaramente, osservo ed analizzo le varie fonti, e le valuto nel mio contesto.Non ti scende giù sta cosa delle GDDR6X... Eppure anche Guru3D le ha riportate.. 😁..
Si scherza eh!🙏
Inviato dal mio RNE-L21 utilizzando Tapatalk
Il 4k ad oggi è inutile nel gaming, poi sarà un pensiero mio, ma se non si hanno le schede per giocarlo senza compromessi, che senso ha prendere un monitor 4k?
Significa letteralmente non stare al passo con i tempi sia di fronte al monitor 4k e sia di fronte al gioco che ti consente di arrivare a quella risoluzione.
P.S. inutile pensiero tuo eh?:D
Boh non capisco di cosa ci si lamenti visto che prima bisognava verificare che ci fossero le schede per giocarlo a pieno, e poi prendersi il monitor.
Nessuna lamentela,solo un dato di fatto.
Sta roba che se si vuole il massimo bisogna giocare al massimo della risoluzione mi pare un po' una cazzata senza offesa. Come se una risoluzione maggiore cambiasse l'esperienza di gioco. Un 1440p su un 27" è già un'ottima risoluzione che ti permette di godere a pieno della qualità grafica di un gioco.
Nessuna offesa ma è una castroneria perchè le differenze sono evidenti.
Potrei perdonarti se mi parli di framerate più elevato rispetto al canonico 60 hz di un monitor Tv ma con la risoluzione 4K cambia il mondo in termini grafici.
L'importante è essere soddisfatti di quello che si ha e di come si gioca :)
Diciamo che a me piace commentare su base di dati tecnici concreti, non sono amante delle sfere di cristallo.:)
Chiaramente, osservo ed analizzo le varie fonti, e le valuto nel mio contesto.
E non hai mai fatto una piega,preso parte a polemiche inutili e hai sempre saputo dosare le parole con attendibilità e rigore ;)
Vi state dimenticando che il cambio euro/dollaro è sempre a nostro sfavore, dove "per magia" 750$ diventano tranquillamente 850/900 euro e 900$ diventano 1000 euro.
Vedi come è successo con la 2080 Ti. :asd: :muro:
Hai ragione,mettici anche le versioni custom e la frittata è fatta :(
Vi state dimenticando che il cambio euro/dollaro è sempre a nostro sfavore, dove "per magia" 750$ diventano tranquillamente 850/900 euro e 900$ diventano 1000 euro.
Vedi come è successo con la 2080 Ti. :asd: :muro:
confondi prezzi MSRP in $ senza iVA con prezzi retail € con IVA.....
un po' come quando leggo che un i9 costa 500$, si MSRP $ e per lotti di almeno 1000 processori :asd:
Thunder-74
05-08-2020, 17:09
confondi prezzi MSRP in $ senza iVA con prezzi retail € con IVA.....
un po' come quando leggo che un i9 costa 500$, si MSRP $ e per lotti di almeno 1000 processori :asd:
Esatto. Ci si dimentica che in America tutti i prezzi sono presentati senza tasse, perché queste sono differenti da stato a stato . Addirittura nei negozi i prezzi sono senza tasse da aggiungere alla cassa
Inviato dal mio iPhone X utilizzando Tapatalk
Dovevano scrivere 799$+ Iva :D
Crysis90
05-08-2020, 17:31
confondi prezzi MSRP in $ senza iVA con prezzi retail € con IVA.....
Magari.
Le 2080 Ti più economiche costano 1200 euro in Italia, ma per i modelli TOP si devono sborsare 1300/1400 euro.
Follia.
Il paradosso è che se “risparmi” 30-50 euro puoi anche essere fortunato a beccare il chip non A :asd: ( vedi ad es.Strix Advanced)
mikael84
05-08-2020, 17:54
Non ti scende giù sta cosa delle GDDR6X... Eppure anche Guru3D le ha riportate.. 😁..
Si scherza eh!🙏
Inviato dal mio RNE-L21 utilizzando Tapatalk
Guru3d copia i dati di wccftech e tweet vari.
Le specifiche sono ben altre.
Samsung ancora non ha ufficializzato le 18 (quindi ha le sole HC-16), Micron (principale partner), ha da poco ufficializzato le 16, e rambus ha le 18, ma non rientra negli accordi.
Puoi verificarlo anche tu, non sono fonti aliene:)
Le uniche HC-16 viste sono state quelle delle 2080 super e alcune 2070 super, addirittura downclockate a 15,5.
Quindi parlare di 21 gb/s gddr6x, ora come ora è fake totale.
Potrebbero anche allinearsi alle 18 prima del debutto, in quantità sufficienti, ma è già un'ipotesi.;)
E non hai mai fatto una piega,preso parte a polemiche inutili e hai sempre saputo dosare le parole con attendibilità e rigore ;)
;)
Ton90maz
05-08-2020, 22:29
AMD dice +50% dalla 2080ti praticamente dalle sue slide (il 100% dalla 5700xt), il tutto con un 505mm2 a circa 20,6mtransistor (contro 18,6 di tu102).
Per ora dove non c'è RT, ed a circa pari transistor (gtx 1660ti vs 5500xt), nvidia va il 24% oltre la versione da 8gb e 31% sulla 4..
Si ma la 1660 ti in parte va di più per la banda passante e la 5500 xt, ad essere pignoli, è pure un chip di scarto, che comunque non è nemmeno il chip più interessante visto che, sempre in casa amd, con il 60% di transistor in più e solo una leggera differenza di clock, la 4 GB è quasi doppiata.
P.S. No, il doppio della 5700 xt sarebbe il 30-35% in più della 2080 Ti.
mikael84
05-08-2020, 23:14
Si ma la 1660 ti in parte va di più per la banda passante e la 5500 xt, ad essere pignoli, è pure un chip di scarto, che comunque non è nemmeno il chip più interessante visto che, sempre in casa amd, con il 60% di transistor in più e solo una leggera differenza di clock, la 4 GB è quasi doppiata.
Il 9% sulle ALU, non cambia molto. AMD ha speso tantissimo sulle DCU, nvidia in collegamenti. ;)
Da considerare però che una ha fatto un salto nodo, uno shrink di TU106 non la vedrebbe proprio a pari TS.
P.S. No, il doppio della 5700 xt sarebbe il 30-35% in più della 2080 Ti.
E no, se la 2080ti è il 50% più veloce, AMD ha promesso un 50 perf/watt.
Quindi dice che a 290/300watt può garantire un 2x da rdna1.
Su su un 505mm2 vengono 20,6mtransistor, un 10% su TU102, vediamo se Lisa dice la verità.
Io come sempre detto, penso ad RDNA2 vs 3080, ragionando.
Ovviamente il paragone è nullo, qual'ora una delle due in RT sia peggio.
Che poi, è pure da chiarire che AMD è su un nodo ben maggiore.
amon.akira
05-08-2020, 23:55
Che poi, è pure da chiarire che AMD è su un nodo ben maggiore.
esatto anche pareggiando nel raggio dei 320w, resterebbe la differenza del nodo, quindi dovrebbe ancora recuperare in arch, ma accorcerebbe Notevolmente le distanze il che è un bene, rt permettendo ^^'
la 3080ti sarà 626mm? se si, quanto sarebbe a 7nm+?
mikael84
06-08-2020, 00:15
esatto anche pareggiando nel raggio dei 320w, resterebbe la differenza del nodo, quindi dovrebbe ancora recuperare in arch, ma accorcerebbe Notevolmente le distanze il che è un bene, rt permettendo ^^'
la 3080ti sarà 626mm? se si, quanto sarebbe a 7nm+?
Beh, pensa che una 2080ti FE a 7nm sarebbe un chip da 160/165watt, con un 30/37% di clock max da cui, ovviamente tornerebbe a consumare come prima, ma con ben altri numeri.
Una 2080ti a 7nm avrebbe un die, senza tensor (che amd non ha), ma solo le fp16 (che AMD splitta) di 425mm2 (con i tensor 455).
Ovviamente riguarda la Titan full.
AMD dalle speculazioni pare andare poco oltre con 505mm2 e circa 20,6mtransistor.
Con il PP di AMD, una 3080ti, parte da 7 GPC, quindi, un TU102 con + 72mm2 di calcolo , quindi 826mm2.
826mm2 sul PP di AMD, sarebbero circa 500mm2, a cui andrà aggiunta la possibile 2x l2, doppia probabile fp, l1 etc.
Igorlabs dice che il die secondo lui, da varie fonti è di 627 (quindi circa 885/890mm2 di turing).
Quindi circa 535mm2 sul PP di AMD, ma con efficienza e clock ben maggiori.:)
Giovamas
06-08-2020, 08:10
Hai ragione,mettici anche le versioni custom e la frittata è fatta :(
io ho il presentimento che le custom di un certo livello (tipo ASUS OC, MSI) saranno prezzate a più di ora. spero di sbagliarmi
comunque, non so se sono già stati postati
https://videocardz.com/newz/nvidia-geforce-rtx-30-series-to-gradually-launch-between-september-and-november
ed anche la 2070s è in EOL pare
https://videocardz.com/newz/report-nvidia-geforce-rtx-2070-super-has-been-discontinued
2070 super.
considerando va come una 5700 su buona parte dei giochi nuovi che costa oltre il 40 % in meno era il minimo che potevano fare.
Sta cosa del nodo non la capisco....è nvidia indietro non amd avanti.... per un purista delle uarch come te lo posso capire, a uno che esce a comprare una vga che gli vada bene sai che gli frega su che nodo è una o l'altra.... amd ha un vantaggio tecnologico che dipende anche dal fatto che ha una sezione cpu da decenni, nvidia no..... mettiamo a parità i budget di sviluppo allora? :stordita:
io ho il presentimento che le custom di un certo livello (tipo ASUS OC, MSI) saranno prezzate a più di ora. spero di sbagliarmi
comunque, non so se sono già stati postati
https://videocardz.com/newz/nvidia-geforce-rtx-30-series-to-gradually-launch-between-september-and-november
ed anche la 2070s è in EOL pare
https://videocardz.com/newz/report-nvidia-geforce-rtx-2070-super-has-been-discontinued
Si ma il performance/price viene comunque incrementato, considera che la 3070/3070ti ha le stesse unità della 2080s, dati gli 8nm un minimo di margine sul clock si ha, e con i miglioramenti della L1 e L2 anche l'ipc dovrebbe avere un margine del 15% in più, un chippetto del genere prenderebbe una 2080ti o poco sotto in raster costando la metà.
Poi è da capire questo discorso 3070 e 3070ti alcuni rumors vociferano di una versione full con GDDR6x e un altra cuttata di un TPC quindi 2944cc e GDDR6, quest'ultima risultare anche più appetibile come prezzo/prestazioni.
Però giustamente come fa notare mikael queste GDDR6X non si capisce da dove escano e cosa siano... Dai dati ufficiali le memorie dovrebbero essere a 16Gbps quindi le cose sono due o la 3070ti monta dei chip a 18Gbps che effettivamente ci sono, o la 3070 monta delle GDDR6 di precedente stepping quindi intorno ai 14Gbps
Sta cosa del nodo non la capisco....è nvidia indietro non amd avanti.... per un purista delle uarch come te lo posso capire, a uno che esce a comprare una vga che gli vada bene sai che gli frega su che nodo è una o l'altra.... amd ha un vantaggio tecnologico che dipende anche dal fatto che ha una sezione cpu da decenni, nvidia no..... mettiamo a parità i budget di sviluppo allora? :stordita:
Ma non è che è indietro è che non è riuscita ad accaparrarsi la produzione di TSMC a 7nm sui chip gaming, saturata completamente da AMD.
Tra un pò la 2070 super va quanto una 5600 LOL, mamma mia che troll che ci stanno qui dentro.
Il +11% 2070s te lo capovolgono in -9% (che è la stessa cosa ma è meno indolore:D da sentire, della serie è meno veloce di 2070s del 9% e non 2070s è più veloce del 11% LOL) anche quando uscirà big navi useranno quella formula ne sono convinto, è -25% rispetto a 3080ti LOL
Comunque parlando di cose attinenti al 3d:
https://wccftech.com/nvidia-geforce-rtx-3080-ti-rtx-3080-ampere-gaming-graphics-cards-launch-rumored-17th-september-rtx-3070-in-october-rtx-3060-in-november/
Quanto vi piace la storia dei porting.
Non solo e` poco sensata (pochissimissimi giochi escono progettati per api specifiche, tie` horizon potrebbe essere uno di questi) ma mi pare limitata, il 90% dei titoli esosi e` cross platform.
Giovamas
06-08-2020, 09:28
T
Comunque parlando di cose attinenti al 3d:
https://wccftech.com/nvidia-geforce-rtx-3080-ti-rtx-3080-ampere-gaming-graphics-cards-launch-rumored-17th-september-rtx-3070-in-october-rtx-3060-in-november/
va beh.. quindi custom in novembre (di sicuro si parte con le FE) sperando senza RMA questa volta e senza magheggi sull'alimentatore
Va bene tutto eh, ma scadere così nel personale è abbastanza squallido....dai su ragazzi
Thunder-74
06-08-2020, 11:08
Io ancora mi chiedo perché parlare in questo thread di schede non nvidia e per giunta già uscite ... ok paragoni ampere / big navi , ma il resto poco interessa a questo punto... per quello ci sono i thread appositi ... della serie ... sti c@xxi se la 5700 sta sopra o sotto ad una 2070 / 2080 ecc ... poi se si continua arriva Freeman, lo sapete ...
Inviato dal mio iPad utilizzando Tapatalk
La 2080ti è imbarazzante solo nel prezzo :D
La 2080ti è imbarazzante solo nel prezzo :D
https://64.media.tumblr.com/5f1c7fcdaf697ae1b19f68e7faaa17d0/tumblr_n6dqdjdsTf1qz6z2wo2_500.gifv
Gli RMA erano comuni anche ai chip inferiori, non so bene i motivi ma c'erano proprio dei lotti fallati.
mikael84
06-08-2020, 14:47
Sta cosa del nodo non la capisco....è nvidia indietro non amd avanti.... per un purista delle uarch come te lo posso capire, a uno che esce a comprare una vga che gli vada bene sai che gli frega su che nodo è una o l'altra.... amd ha un vantaggio tecnologico che dipende anche dal fatto che ha una sezione cpu da decenni, nvidia no..... mettiamo a parità i budget di sviluppo allora? :stordita:
Assolutamente, non a caso ho preso Ryzen, non certo guardando il PP.
Una conto è valutare su dati tecnici, un altro sulla convenienza.:)
Io ancora mi chiedo perché parlare in questo thread di schede non nvidia e per giunta già uscite ... ok paragoni ampere / big navi , ma il resto poco interessa a questo punto... per quello ci sono i thread appositi ... della serie ... sti c@xxi se la 5700 sta sopra o sotto ad una 2070 / 2080 ecc ... poi se si continua arriva Freeman, lo sapete ...
Inviato dal mio iPad utilizzando Tapatalk
Perchè si continua ad alimentare i troll, se nessuno se li fila, spariscono, e la discussione non crolla.
Cmq il grafico è interessante sotto un certo punto di vista. Spesso si parla di obsolescenza programmata di nvidia, una domanda troppo frequente e di interesse.
Nel grafico vediamo, una Vega64 andare il 30% in meno di una sua ex rivale, in uno scenario totalmente favorevole.
Questo per far capire, che ad ogni cambio micro architetturale, è normale che una GPU di vecchia gen, perda colpi, come fu kepler con le dipendenze.
Bene, Turing con Ampere, condivideranno la stessa micro architettura di base, questo è un bene.
amon.akira
06-08-2020, 15:23
https://i.ibb.co/xs9rc3b/navi-vs-turing-stesso-clock.jpg
ce pure un vs watt a 1500/7000 giusto per capire i 12nm vs 7nm...chiedo eh...curiosità :D
mikael84
06-08-2020, 15:28
Già, motivo per cui le turing invecchieranno bene, ampere è un TOC di Turing alla fine.:fagiano:
Il problema turing vs ampere, è che si gioca su 2 fronti, raster ed RT/dlss.
272 tensor vs 272 tensor (2080ti vs 3080)
Una produce 50tf stock, l'altra 306/612 tf sparsity (a metà ratio sono 153/306).:)
mircocatta
06-08-2020, 17:12
ma fate davvero?
cioè per dei pezzi di silicio venite a vomitare il vostro malessere interiore su un forum? LOL
capisco racedriver che alla fine viene qua per parlare di hardware e per farsi due risate per certe cose che si leggono, ma fare un account per sparare un paio di post in cui vomitare schifezze come quelle qua sopra è proprio da persone con l'oca corta
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.