View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Ah io ci copiato quell'articolo , ma poi ci va messa l'iva.
Ah io ci copiato quell'articolo , ma poi ci va messa l'iva.
Ah io ci copiato quell'articolo , ma poi ci va messa l'iva.
ehhh, abbiamo capito! :O
:sofico:
mattxx88
28-08-2020, 08:41
ehhh, abbiamo capito! :O
:sofico:
il 30000 messaggio lo vogliamo in questo 3d mi raccomando :O
fraussantin
28-08-2020, 08:45
ehhh, abbiamo capito! :O
:sofico:
Maledetto forum obsoleto ! .. :asd:
ninja750
28-08-2020, 08:50
1000 watt come base?
550 watt piccolo?
Dubbi con 850 watt?
Corsair rmi fascia media?
Ma che cavolo sta succedendo qua dentro? Tra un po' ci vorrà un reattore nucleare per essere un "gamer"?
quando AMD produce schede energivore "scaffaleh!" :O
se lo fa nvidia si corre a comprare il millevatt :O
spero francamente che l'unica scheda sbilanciata in fatto di consumi sia la 3090 e che già la 3080 sia allineata alla 2080ti (che già poco non consumava..) e che dalla 3070 in giu si possano usare i ""normali"" buoni alimentatori da 550/600/650
perchè poi si sta qui a misurare il watt solo in termine di consumo, ma il problema grosso con tutto questo assorbimento sarà il calore da smaltire, già si è visto che hanno dovuto fare un dissipatore enorme e pure con nuove idee per raffreddare il tutto voglio vedere a quanti gradi gireranno, a che rumore, e con che risvolti in termini di throttling
Giovamas
28-08-2020, 08:51
comunque.. dice
"Once again, these prices are for early listing only and we can expect much lower prices when the official MSRP is announced by the AIB vendors in the coming month"
redbaron
28-08-2020, 08:51
:D :D Film giá visto, schede nemmeno uscite e prezzi a cannone dei soliti canali cinesi:D :D
Ad ogni gen parte la PSICOSI prezzi:sofico:
Detto questo, a molti passerá la voglia di prendere la 3090 XD
In questo momento si stanno moltiplicando le segnalazioni di siti cinesi che fanno preorder con schede con improbabili tagli di ram e prezzi che partono 5000 yuan in su... il caos :asd:
Io aspetto una 3070 ... ma non per necessità avendo una 2070s... ma la scimmia è così :) poi vedendo i consumi devo vedere perché per adesso ho “un misero 650 seasonic gold “... vediamo quando esce qualcosa di specifiche e se conviene fare il cambio
Inviato dal mio iPhone utilizzando Tapatalk
Ton90maz
28-08-2020, 09:02
però se escono delle console da 12GB utilizzabili... si pongono dei problemi non banali da risolvere (come dice DevA) ;)Fai pure 13,5 GB. Le console attuali, se ben ricordo, partivano con 4,5 GB, poi portati a 5.
Quindi dubito che da qui a 4 anni, 10-12GB di vram siano problematici, anzi quando si arriverà a quel livello di dettagli o texture di alto livello, sarà la stessa potenza a non essere sufficiente e a richiedere compromessi...
Esattamente come successo con le 780ti che oggi anche in engine moderni non cambia una mazza tra una 780ti 3GB e una Titan 6GB.Sì ma che titoli sono stati testati e perchè non cambia una mazza? Cambiava 5-6 anni fa con le schede da 2 o 4 GB, e cambia adesso con le 5500 xt da 4 o 8 GB. Se kepler è "esente" da questo problema perchè è comunque un chiodo non è una bella prospettiva. Ampere pensate che morirá in modo simile?
ninja750
28-08-2020, 09:04
poi vedendo i consumi devo vedere perché per adesso ho “un misero 650 seasonic gold
ti toccherà tenere il PL a -25% :nono:
devAngnew
28-08-2020, 10:13
Vabbè non esageriamo ora:p
Già dalle 980 AC unity andava a meraviglia, lo stesso per gli altri menzionati.
Gli AC allocano ( diverso da usare effettivamente), dai 3,5 ai 5,5 su 1440p.
Ed ho tutto monitorato, anche quanta banda usano.
Cmq, il problema di nvidia sono i bus piccoli, troppo grossi i collegamenti, quindi o accettare una quota giusta e magari compressa, o una quantità astronomica di ram.
La questione bus verrà bypassata dal MCM.
No, non volevo esagerare nel mio etc. era incluso call of duty che ha dato fastidio a più di una persona per la vram :p .
Cmq. oggi la questione non è aspettare MCM la potenza c'è o almeno sembra asseci se va il doppio di PS5 , XBOX next semai, abbiamo necessita di nvme con almeno 10 GB/s con nvcache o HBCC che funzionino a dovere in DMA su pciex 4 o superiore. :D
Io se butta male come dite posso aspettare ancora ma il monitor 4K lo vorrei prendere comunque.
Sono uno di quei bavboni che è riuscito a sopravvivere con la 1080 Ti...e sono ancora vivo...pensate!! :eek:
sopravvivere? pascal l è upgrade dei miei sogni :O
Fai pure 13,5 GB. Le console attuali, se ben ricordo, partivano con 4,5 GB, poi portati a 5.
Sì ma che titoli sono stati testati e perchè non cambia una mazza? Cambiava 5-6 anni fa con le schede da 2 o 4 GB, e cambia adesso con le 5500 xt da 4 o 8 GB. Se kepler è "esente" da questo problema perchè è comunque un chiodo non è una bella prospettiva. Ampere pensate che morirá in modo simile?
è da max 2.0 che le schede non fanno una brutta fine.
Kepler si trascinava la gamba morta i difetti architetturali ed elettrici.
Con la delta color di maxwell in poi migliorata in pascal, il messaggio era chiaro il nodo puo attendere.
Le 28 gm200 ne sono una dignitosissima prova tutt oggi.
Ricordo ai tempi le prese per il :ciapet: di chi come me restava alla old gen;
ACCATATAVILLE con i 16 cambia tutto da qui in avanti le schede consumeranno 180/220w al massimo.
Non serviranno piu psu grosse. Vero mikael e non solo? love u :p
Turing prima o adesso ampere dimostrano che il chip mangiawatt è sempre dietro l angolo.
Poco spazio a voli pindarici di pp green futuristici
devAngnew
28-08-2020, 10:18
comunque.. dice
"Once again, these prices are for early listing only and we can expect much lower prices when the official MSRP is announced by the AIB vendors in the coming month"
Ho capito questi usano la psicologia inversa sparano su i prezzi per poi far pagare a cuor leggero 1500 € :sofico:
OrazioOC
28-08-2020, 10:22
Ho capito questi usano la psicologia inversa sparano su i prezzi per poi far pagare a cuor leggero 1500 € :sofico:
Fanno bene, se vuoi il meglio lo paghi. :O
freddye78
28-08-2020, 10:22
spero francamente che l'unica scheda sbilanciata in fatto di consumi sia la 3090 e che già la 3080 sia allineata alla 2080ti (che già poco non consumava..) e che dalla 3070 in giu si possano usare i ""normali"" buoni alimentatori da 550/600/650
perchè poi si sta qui a misurare il watt solo in termine di consumo, ma il problema grosso con tutto questo assorbimento sarà il calore da smaltire, già si è visto che hanno dovuto fare un dissipatore enorme e pure con nuove idee per raffreddare il tutto voglio vedere a quanti gradi gireranno, a che rumore, e con che risvolti in termini di throttling
Condivido, io ho un Corsair 750 gold e in teoria dovrei stare abbastanza tranquillo ma mi rifiuto di mettere nel case un fornello mangiawatt perché per me il progresso tecnologico dovrebbe comportare migliori prestazioni ma anche minor consumo e quindi calore.
Se a sto giro, come sembra, non ci sono riusciti, possono pure tenersi le loro gpu sovrapprezzate
terranux
28-08-2020, 10:27
ma insomma l'avete scelto l'ali?:D cmq per me la 3090 a 2500 € se la possono tenere e la 3080 a 1500€ idem. aspettero amd .
devAngnew
28-08-2020, 10:32
Fanno bene, se vuoi il meglio lo paghi. :O
Qui, di meglio , per ora c'è ben poco con fornelli mangia watt e sembra quantità vram inferiore alle console next gen. :D
OrazioOC
28-08-2020, 10:35
Qui, di meglio , per ora c'è ben poco con fornelli mangia watt e sembra quantità vram inferiore alle console next gen. :D
Che però se la devono condividere con l'os, senza contare la capacità computazionale del tutto differente. :asd:
Ale55andr0
28-08-2020, 10:37
quando AMD produce schede energivore "scaffaleh!" :O
se lo fa nvidia si corre a comprare il millevatt :O
quando lo fa nvidia va più forte, possibile che ogni volta va ripetuto?
Crysis90
28-08-2020, 10:38
Saranno felici quelli che hanno già venduto le 2080 Ti. :asd:
Per chi viene da questo modello e fare il salto vero serve per forza puntare alla 3090, e bisogna vendere un rene per comprarla. :rolleyes: :asd:
Ale55andr0
28-08-2020, 10:40
Che però se la devono condividere con l'os, senza contare la capacità computazionale del tutto differente. :asd:
repetita juvant: xbox ha 10gb dichiaratamente dedicati alla gpu (li chiamano ufficialmente "GPU optimal memory"...), sony, può far lo stesso visto che i avrà liberi anche lei 13-14gb da gestire come crede. La capacità computazionale te la dai sui denti se il gioco con le texture al massimo ti satura la ram: avrai stuttering intervallalto però da frame rate altisismi eh :asd:
repetita juvant: xbox ha 10gb dichiaratamente dedicati alla gpu, sony, può far lo stesso visto che i avrà liberi anche lei 13-14gb da gestire come crede
per completezza 10GB per far girare i giochi in 4K nativo, essendo l'obiettivo di queste console in teoria
devAngnew
28-08-2020, 10:43
Che però se la devono condividere con l'os, senza contare la capacità computazionale del tutto differente. :asd:
Vedo che rispetto a me che seguo poco, tu segui diversamente bene. La vram a disposizione delle console per la grafica è stata calcolata ed è (forse) maggiore della vram delle gpu ampere che vanno il doppio. Ti sembra una soluzione equilibrata ? :D
DirectX Feature Level 12_2 Microsoft: il salto da 12_1 è enorme
https://wccftech.com/directx-feature-level-12_2-detailed-microsoft-the-jump-from-12_1-is-huge/
amon.akira
28-08-2020, 10:47
per completezza 10GB per far girare i giochi in 4K nativo, essendo l'obiettivo di queste console in teoria
e fin qui ci troviamo 10gb console, 10gb 3080...però su pc se qualche sviluppatore volesse dare una tacchetta in piu rispetto alle console? tipo console high, pc ultra? poi se veramente fanno per tutte le doppie densità, tipo 3070 con 16, 3080 20, bignavi 16...qualche cristo magari dice ok dai gliela mettiamo sta texture 8k che si vede leggermente meglio a sti poveri cristi che hanno la memoria parcheggiata nel case XD
devAngnew
28-08-2020, 10:47
per completezza 10GB per far girare i giochi in 4K nativo, essendo l'obiettivo di queste console in teoria
Bhe, questo non lo sappiamo potrebbero usare DirectML o VK_ML o equivalente sony (simil DLSS) renderizzare internamente 1080p upscalare in 4k e usare il resto della potenza per aumentare geometria e complessità della scena. :D
Ale55andr0
28-08-2020, 10:49
per completezza 10GB per far girare i giochi in 4K nativo, essendo l'obiettivo di queste console in teoria
beh, voglio sperare che prende una 3080 non lo faccia per il 1080p :sofico:
fraussantin
28-08-2020, 10:50
beh, voglio sperare che prende una 3080 non lo faccia per il 1080p :sofico:Oddio, con rtx attivo e monitor ad 240hz non é che caschi troppo lontano é :asd:
OrazioOC
28-08-2020, 10:51
repetita juvant: xbox ha 10gb dichiaratamente dedicati alla gpu (li chiamano ufficialmente "GPU optimal memory"...), sony, può far lo stesso visto che i avrà liberi anche lei 13-14gb da gestire come crede. La capacità computazionale te la dai sui denti se il gioco con le texture al massimo ti satura la ram: avrai stuttering intervallalto però da frame rate altisismi eh :asd:
Vedo che rispetto a me che seguo poco, tu segui diversamente bene. La vram a disposizione delle console per la grafica è stata calcolata ed è (forse) maggiore della vram delle gpu ampere che vanno il doppio. Ti sembra una soluzione equilibrata ? :D
Prima facciamoli dei giochi che usano davvero quella vram invece che scialacquarla in cache come stanno facendo ora, poi si vedrà.
Perchè di bench in cui si arrivano a saturare anche 8gb di vram ce ne sono, ma non per questo una 2060 super eguaglia una 2080 super. :asd:
amon.akira
28-08-2020, 10:51
Aspetti e ti compri la versione da 20gb a 200$ in piú:D :D :D
Io non lo farei, a quel punto si va di 3090:p
e forse, stanno giocando proprio su questo fattore, i 24gb ambito gaming sono uno specchietto per le allodole.
24 sicuro, ma 16 da qui a fine 2022?
devAngnew
28-08-2020, 10:52
e fin qui ci troviamo 10gb console, 10gb 3080...però su pc se qualche sviluppatore volesse dare una tacchetta in piu rispetto alle console? tipo console high, pc ultra? poi se veramente fanno per tutte le doppie densità, tipo 3070 con 16, 3080 20, bignavi 16...qualche cristo magari dice ok dai gliela mettiamo sta texture 8k che si vede leggermente meglio a sti poveri cristi che hanno la memoria parcheggiata nel case XD
Credo che le texture 4k possono anche bastare :sofico: il problema è la varietà delle stesse che ti frega :asd:
Crysis90
28-08-2020, 10:53
non sta li a guardare 100 euro,
Sarei proprio curioso di sapere se la pensano come te. :asd: :asd:
slide1965
28-08-2020, 10:53
Vedo che la combinazione ali-pin sta togliendo il sonno:D ma non si risolve semplicemente aspettando le custom ? che molto probabilmente avranno i soliti x8, tra l’altro aspettare conviene comunque se non altro per darsi il tempo di vedere eventuali problemi e performance reali.
amon.akira
28-08-2020, 10:54
Credo che le texture 4k possono anche bastare :sofico: il problema è la varietà delle stesse che ti frega :asd:
certo non lo devi dire a me ma ai dev, possono fare anche 16k smarmellata se per quello XD
repetita juvant: xbox ha 10gb dichiaratamente dedicati alla gpu (li chiamano ufficialmente "GPU optimal memory"...), sony, può far lo stesso visto che i avrà liberi anche lei 13-14gb da gestire come crede. La capacità computazionale te la dai sui denti se il gioco con le texture al massimo ti satura la ram: avrai stuttering intervallalto però da frame rate altisismi eh :asd:
Sony a differenza di Xbox ha un bus a 256bit invece che 320bit, quasi sicuro avrà 8GB di vram per la gpu, e il resto distribuito per memoria di sistema e OS...
E considerando che ci devono campare minimo 4 anni prima di eventuali versioni potenziate direi che se ne può ampiamente fregare... Tra 4 anni su PC sarà passata un'era con altre 2 gen...
Magari é gente con disponibilitá economica e di reni non ne ha 2 ma 3:D :D sai, chi punta a quel tipo di schede non sta li a guardare 100 euro, loro lo sanno non per niente dai rumor sono +200$ rispetto alla giá salata 2080ti.
Se proprio dobbiamo dirla tutta la 2080ti era salata, la presi al d1 per scommessa.
A sto giro, mi fermeró alla 3080 credo, tanto alla fine con la 2080ti stavo bene (tranne RT) 3080 puó solo migliorare le performance in toto.:sofico:
Comunque io sono ben felice di averla venduta bene, era li stagnante 2 anni dentro il case, meglio provare/acquistare le nuove architetture, altrimenti si parla a vanvera come certi sognatori che mai acquistano criticano ma sanno tutto LOL.
Rimpiangeró solo l'estetica di quella scheda.
Scusa ma avevi la scheda stagnante nel case e ne hai comprata un'altra? :mbe:
A meno che per stagnante tu intendessi qualcosa di diverso da "non la usavo perché non giocavo quasi a nulla o al massimo a pac man". :D
Giovamas
28-08-2020, 10:57
Per chi viene da questo modello e fare il salto vero serve per forza puntare alla 3090, e bisogna vendere un rene per comprarla. :rolleyes: :asd:
hai ragione. purtroppo è così
devAngnew
28-08-2020, 11:02
Prima facciamoli dei giochi che usano davvero quella vram invece che scialacquarla in cache come stanno facendo ora, poi si vedrà.
Perchè di bench in cui si arrivano a saturare anche 8gb di vram ce ne sono, ma non per questo una 2060 super eguaglia una 2080 super. :asd:
Vedo che non ci capiamo, o facciamo finta di non capire il confronto con le consoles, quindi io la chiudo qui.
certo non lo devi dire a me ma ai dev, possono fare anche 16k smarmellata se per quello XD
Quello è vero, il problema nasce anche per la varietà delle texture e vedi se non riempi la vram in un batter d'occhio. Ace del forum ne sà qualcosa :D
devAngnew
28-08-2020, 11:11
Sony a differenza di Xbox ha un bus a 256bit invece che 320bit, quasi sicuro avrà 8GB di vram per la gpu, e il resto distribuito per memoria di sistema e OS...
E considerando che ci devono campare minimo 4 anni prima di eventuali versioni potenziate direi che se ne può ampiamente fregare... Tra 4 anni su PC sarà passata un'era con altre 2 gen...
Scusa se entro a gamba tesa :sofico: , ma se io ho una gpu che va il doppio delle prossime console io tra 4 anni voglio tenerla perchè i giochi son tarati sulle console etc. posso dirlo ? :D Ovviamente se mi azzoppano la gpu con la vram risicata il discorso vale poco.
P.s: da quel che leggo di fretta la ps5 ha memoria unificata di 16GB 448GB/s Bandwidth. più flessibile di xbox.
Ale55andr0
28-08-2020, 11:17
Sony a differenza di Xbox ha un bus a 256bit invece che 320bit, quasi sicuro avrà 8GB di vram per la gpu, e il resto distribuito per memoria di sistema e OS...
E considerando che ci devono campare minimo 4 anni prima di eventuali versioni potenziate direi che se ne può ampiamente fregare... Tra 4 anni su PC sarà passata un'era con altre 2 gen...
non ci azzecca una mazza il bus con quanta ram dedichi al frame buffer, è tutta memoria unificata, la suddividono come gli pare
beh, voglio sperare che prende una 3080 non lo faccia per il 1080p :sofico:
bè magari a 1080p o 2560x1080 la compra giusto se è un pro col monitor a 360Hz :asd:
però già il qhd è molto più pesante soprattutto per chi cerca alti framerate, poi ancora più pesante c'è il 3440x1440 che se riesci a posizionarlo è una vera goduria. Entrambe però molto più leggere del 4K.
Non dico che 8GB+ si possano usare solo in 4K, in realtà li ho visti occupati a 2560x1080 per cui...ma il nuovo standard console sicuramente è "una decina di GB dedicati con possibile surplus per 4K nativi di risoluzione"
amon.akira
28-08-2020, 11:29
Allora prenditi una AMD:p :p :p
Vuoi che non campiamo fino a Hopper con 10gb? io credo di si:)
pensa alla 3070...1070 8gb, 2070 8gb, 3070 8gb e sono 6anni di gpu XD
pensa alla 5500 8gb e costa 175euro all utente finale XD
Scusa se entro a gamba tesa :sofico: , ma se io ho una gpu che va il doppio delle prossime console io tra 4 anni voglio tenerla perchè i giochi son tarati sulle console etc. posso dirlo ? :D Ovviamente se mi azzoppano la gpu con la vram risicata il discorso vale poco.
P.s: da quel che leggo di fretta la ps5 ha memoria unificata di 16GB 448GB/s Bandwidth. più flessibile di xbox.
In che senso?
Tra 4 anni la 3090 andrà come un chippetto x60 senza contare che è prodotta a 8nm e ci sta decisamente stretta in questo pp, già al prossimo step con il progetto MCM e i 5nm il salto potrebbe essere simil Pascal...
La vram in se serve a poco e di norma i chip sono sempre ben tarati in relazione alla potenza, ma basta osservare le precedenti gpu come la Titan Kepler con 6GB che oggi le prende anche da una 1050ti in alcuni engine e senza particolari vantaggi dalla 780ti 3GB, stessa cosa anche per 980ti 6GB e titan Maxwell da 12GB...
Onestamente aspetterei per lo meno i bench prima di parlare di vram insufficiente sulle prossime schede... Ed eventualmente osservare anche i confronti tra le versioni lisce e a doppia densità....
mikael84
28-08-2020, 11:49
Ricordo ai tempi le prese per il :ciapet: di chi come me restava alla old gen;
ACCATATAVILLE con i 16 cambia tutto da qui in avanti le schede consumeranno 180/220w al massimo.
Non serviranno piu psu grosse. Vero mikael e non solo? love u :p
Pascal rendeva per i clock elevatissimi, e il solo raster semplificava tutto, ma era abbastanza esigente. 250/300watt per un 471mm2.
Con un 628mm2 (più piccolo di ga102), andavi verso i 400watt, e se lo volevi portare almeno a 300watt dovevi scendere tantissimo di clock, che forse tornava ai livelli di max.:p
Ora nel chip GA102 hai 5376 INT32 /5376 fp32, l'equivalente di 106000 ALU in tensor, e forse doppie FP per altre 5376cc.:)
pensa alla 3070...1070 8gb, 2070 8gb, 3070 8gb e sono 6anni di gpu XD
pensa alla 5500 8gb e costa 175euro all utente finale XD
Nvidia ha una bella architettura scalabile, ma anche un problema nella creazione dei bus.
Pensa che la 2070 ha 216mm2 di calcolo e 229mm2 di collegamenti per un 256bit monco (in quanto su un canae ha accesso solo alla l2, e rop's che non elabora, diminuendo la BW effettiva).
La 2080 come la 3070 sono native 12gb, solo che per spazio enorme die ha due canali non collegati.
AMD sui canali è nettamente in vantaggio.
Cmq, i primi di ottobre da quello che dicono usciranno le 20gb, e penso che anche le 3070 le faranno a 16 (almeno i partner).
ma sinceramente ci può stare... se pensi che la Titan con 24gb sta a 2.749,00..
E' possibile che alla presentazione JHH faccia il fico facendo passare la 3090 per economica rispetto alla Titan di prima
JHH può varcare nuovi orizzonti, con la Titan da 48gb, così può sperimentare per la nuova gen.
Con MCM avrai 16 e 32 gb per il full.
Una bella 4090 da 32gb a 2500/3000 euro e via
Le Titan servono a questo alla fine :)
devAngnew
28-08-2020, 11:56
In che senso?
Tra 4 anni la 3090 andrà come un chippetto x60 senza contare che è prodotta a 8nm e ci sta decisamente stretta in questo pp, già al prossimo step con il progetto MCM e i 5nm il salto potrebbe essere simil Pascal...
La vram in se serve a poco e di norma i chip sono sempre ben tarati in relazione alla potenza, ma basta osservare le precedenti gpu come la Titan Kepler con 6GB che oggi le prende anche da una 1050ti in alcuni engine e senza particolari vantaggi dalla 780ti 3GB, stessa cosa anche per 980ti 6GB e titan Maxwell da 12GB...
Onestamente aspetterei per lo meno i bench prima di parlare di vram insufficiente sulle prossime schede... Ed eventualmente osservare anche i confronti tra le versioni lisce e a doppia densità....
A me frega poco se MCM va 4 volte ampere. Se ampere è 2 volte la potenza console io stò tranquillo lo stesso con vram adeguata, tanto lo sviluppo giochi è tarato sulla console next meno potente. E' chiaro il discorso ? :D :O
fraussantin
28-08-2020, 12:01
A me frega poco se MCM va 4 volte ampere. Se ampere è 2 volte la potenza console io stò tranquillo lo stesso con vram adeguata, tanto lo sviluppo giochi è tarato sulla console next meno potente. E' chiaro il discorso ? :D :OSi come no ..
I giochi per PC vanno avanti , prendi una 570 e dimmi cosa ci fai adesso
tanto lo sviluppo giochi è tarato sulla console next meno potente
ma certo!.... peccato che poi i porting sia delle schifezze inenarrabili che girano demmerda pure su hardware finedimondo (Horizon zero dawn anyone?) :sofico:
il 30000 messaggio lo vogliamo in questo 3d mi raccomando :O
uhm... sono sicuro di averlo già passato, quel traguardo :O .... ma ogni tanto le vecchie discussioni purgate o chissà che casino e ti ritrovi con mille messaggi in meno... :fagiano:
Maledetto forum obsoleto ! .. :asd:
Ma vaaaa!... vbullettin 3.6.4 è solo del 2006!... a 20 anni di utilizzo ci può arrivare tranquillo, dai! :sofico:
Ale55andr0
28-08-2020, 12:24
A me frega poco se MCM va 4 volte ampere. Se ampere è 2 volte la potenza console io stò tranquillo lo stesso con vram adeguata, tanto lo sviluppo giochi è tarato sulla console next meno potente. E' chiaro il discorso ? :D :O
la console meno potente può usare tanta video ram quanto series x, anche di più volendo. E chi ribatte sulla potenza di calcolo vorrei ricordare che le texture migliori ormai sulla gpu pesano pochissimo, ergo non ci azzecca a priori l'analogia
mikael84
28-08-2020, 12:31
ma certo!.... peccato che poi i porting sia delle schifezze inenarrabili che girano demmerda pure su hardware finedimondo (Horizon zero dawn anyone?) :sofico:
A me gira davvero una favola. Ho dovuto eliminare solo una tacca di nubi volumetriche. Certo se si cercano i 120fps, allora no.:)
fraussantin
28-08-2020, 12:34
A me gira davvero una favola. Ho dovuto eliminare solo una tacca di nubi volumetriche. Certo se si cercano i 120fps, allora no.:)Anche a me gira bene 60+ fps un po' ovunque , ma vista la potenza del mio PC e quello di una PS4 pro dove gira in 4k a 30 fps, in 2k 120 fps me li sarei aspettato..
Ma é sempre la solita storia.
E aggiungerei il 4k...
Quando commercializzeranno i monitor 4k a 120 hz sentiamo :D
mikael84
28-08-2020, 12:40
Anche a me gira bene 60+ fps un po' ovunque , ma vista la potenza del mio PC e quello di una PS4 pro dove gira in 4k a 30 fps, in 2k 120 fps me li sarei aspettato..
Ma é sempre la solita storia.
4k in check però e chissà a che dettagli.;)
devAngnew
28-08-2020, 12:44
Si come no ..
I giochi per PC vanno avanti , prendi una 570 e dimmi cosa ci fai adesso
Si vanno avanti fornendo shader fp32 in ultrà quanto basta uno fp16 per avere lo stesso risultato.. però ti ammazzano le prestazioni... :asd:
la console meno potente può usare tanta video ram quanto series x, anche di più volendo. E chi ribatte sulla potenza di calcolo vorrei ricordare che le texture migliori ormai sulla gpu pesano pochissimo, ergo non ci azzecca a priori l'analogia
Sono d'accordo, in parte e poiché le console sono realizzate al risparmio, non credo che abbiano piazzato la quantità vram a caso ergo non vedo perché devo acquistare una gpu 2x potente ps5 con quantità vram da povery a prezzi da formula 1 :D
Inoltre vi ricordo che esiste anche la varietà delle texture... Mai visti ambienti con texture ripetute ? Io si ... :D inoltre la quantità vram evita stuttering negli open world tanto di moda :sofico:
fraussantin
28-08-2020, 12:44
4k in check però e chissà a che dettagli.;)Cambia poco o nulla purtroppo. L'unica cosa migliorata sono le foglie che si muovono, il resto visibilmente é simile.
Si vanno avanti fornendo shader fp32 in ultrà quanto basta uno fp16 per avere lo stesso risultato.. però ti ammazzano le prestazioni... :asd:
Anche con effetti rtx , a altre cavolate , poi considera che le console presto torneranno si bei 30 fps. Qui a 60 tra un po' sembra di essere fermi.. xD.
Sono d'accordo, in parte e poiché le console sono realizzate al risparmio, non credo che abbiano piazzato la quantità vram a caso ergo non vedo perché devo acquistare una gpu 2x potente ps5 con quantità vram da povery a prezzi da formula 1 :D
Inoltre vi ricordo che esiste anche la varietà delle texture... Mai visti ambienti con texture ripetute ? Io si ... :D inoltre la quantità vram evita stuttering negli open world tanto di moda :sofico:
Mi ricordi il primo rage con la maxi texturona gigante!
Cmq la vram basterà finché la vorranno fare bastare , quando decideranno che non basterà piú te ne servirà il doppio.
Io non spenderei mai 250\300 euro per passare dalla 3070 alla 3070 sempre con 8 giga. ( Considerato la vendita della vecchia) potrei valutare un centone al massimo. Anche perché purtroppo ci sono già giochi che la saturano.
devAngnew
28-08-2020, 12:49
Anche a me gira bene 60+ fps un po' ovunque , ma vista la potenza del mio PC e quello di una PS4 pro dove gira in 4k a 30 fps, in 2k 120 fps me li sarei aspettato..
Ma é sempre la solita storia.
Apro e chiudo l'OT ma hai setteto la grafica in maniera analoga alla ps4 pro ?
Se vuoi rispondi in privato o sul topic che ti leggo.
Certo con la tua configurazione.. lascia pensare a un porting come dire naive :asd:
Scusate l'ot :)
Crysis90
28-08-2020, 12:57
peccato che poi i porting sia delle schifezze inenarrabili che girano demmerda pure su hardware finedimondo (Horizon zero dawn anyone?) :sofico:
E secondo te la colpa di tutto ciò di chi sarebbe, dell'hardware finedimondo?
O delle SH, che sui porting per PC ci investono 1/20 di quel che servirebbe per sfruttare veramente appieno l'abnorme differenza di potenza che c'è tra PC enthusiast e console? :boh: :mbe:
O peggio ancora, in certi casi non ci lavorano neanche in prima persona ma li sbolognano a SH minori, che non sanno neanche sfruttare l'engine. :doh:
amon.akira
28-08-2020, 12:57
Anche a me gira bene 60+ fps un po' ovunque , ma vista la potenza del mio PC e quello di una PS4 pro dove gira in 4k a 30 fps, in 2k 120 fps me li sarei aspettato..
Ma é sempre la solita storia.
su console non gira a 4k, è checkerboard rendering...sarà 1920x2160 e poi upscalato, inoltre per fare un confronto diretto fps dovresti scegliere il preset "original"...cmq anche a me perfettamente liscio, certo maxato è pesante :P
4k in check però e chissà a che dettagli.;)
esatto, su pc hanno messo "original" :D
- 3gg e manco uno stralcio di bench...
Ma siamo sicuri che il lancio del primo settembre sia ufficiale?? :p:
Ale55andr0
28-08-2020, 13:18
Io non spenderei mai 250\300 euro per passare dalla 3070 alla 3070 sempre con 8 giga. ( Considerato la vendita della vecchia) potrei valutare un centone al massimo. Anche perché purtroppo ci sono già giochi che la saturano.
io non l'avrei proprio proposta una 3070 da 8 gb, o 10 o 12 ,certo non 8. A ogni modo, finchè non le presentano ufficialmente....
fireradeon
28-08-2020, 13:20
- 3gg e manco uno stralcio di bench...
Ma siamo sicuri che il lancio del primo settembre sia ufficiale?? :p:
Francamente io preferisco così. Ormai si arriva sempre con leaked ad ogni evento e se ne perde il senso (non solo Nvidia ma intendo tutti questi eventi di presentazione).
nessuno29
28-08-2020, 13:35
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked
Qua parla di tgp, cosa cambia dal tdp?
fraussantin
28-08-2020, 13:40
https://i.ibb.co/f47DpkG/Cattura.png
Niente 8nm (10nm lpp farlocchi), vediamo adesso dove ve la ficcate la storiella del nodo di vantaggio :rotfl:
Fu così che il castello fatto sulla sabbia pian pian iniziò a crollare inesorabile :asd:
Strano però, eppure usano il 7nm quello vero, vero Ace? :sofico:
630mmq vs 500mmq, se gli sta attaccato a -10% sai le risate poi, con 3 gen di vantaggio sull'architettura cit. a +2000 è pure regalata, 350watt quelli freschi mica come Vega sui 14nm lpp... opsQuante Vega servono per coprire una di queste?
fraussantin
28-08-2020, 13:45
Cut
Arrow0309
28-08-2020, 13:46
Qua parla di tgp, cosa cambia dal tdp?
TGP. TDP, or Thermal Design Power represents the maximum heat generated by the component under normal working condition. TGP, or Total Graphics Power represents the maximum amount of power system power supply should provide to the graphics board. TDP is a rating of heat generation and TGP is rating of power wattage.
Francamente io preferisco così. Ormai si arriva sempre con leaked ad ogni evento e se ne perde il senso (non solo Nvidia ma intendo tutti questi eventi di presentazione).
Si infatti.
La dimostrazione è data dalle ultime 100 pagine del thread :D
il lancio effettivo sarà il 21 per le Fe e 28 per le custom, c'era un tweet di qualche giorno fa... praticamente ottobre.
Un altro mese quindi...
fraussantin
28-08-2020, 13:53
Cut
ultimate trip
28-08-2020, 13:55
il lancio effettivo sarà il 21 per le Fe e 28 per le custom, c'era un tweet di qualche giorno fa... praticamente ottobre.
per cui le founder che verranno messe in vendita il giorno della presentazione te le spediscono poi il 21? mh...:muro:
amon.akira
28-08-2020, 13:56
https://twitter.com/leakbench/status/1298265934939865093
si, c'era da aspettarselo.
quindi 7nm e la 3080 +15% sulla 2080ti :asd:
Thunder-74
28-08-2020, 13:59
quindi 7nm e la 3080 +15% sulla 2080ti :asd:
che schifo ... :ops:
se queste sono le premesse, boost solo per RT... posso saltare questa gen...
Ale55andr0
28-08-2020, 14:02
https://i.ibb.co/f47DpkG/Cattura.png
Niente 8nm (10nm lpp farlocchi), vediamo adesso dove ve la ficcate la storiella del nodo di vantaggio :rotfl:
Fu così che il castello fatto sulla sabbia pian pian iniziò a crollare inesorabile :asd:
Strano però, eppure usano il 7nm quello vero, vero Ace? :sofico:
630mmq vs 500mmq, se gli sta attaccato a -10% sai le risate poi, con 3 gen di vantaggio sull'architettura cit. a +2000€ è pure regalata, 350watt quelli freschi mica come Vega sui 14nm lpp... ops
-bisogna vedere se è vero
-consumano "di più" /(la 3090) ma sicuro vanno di più, you know.... la critica è comprensibile, ma quando consumano più per andare di meno o uguale e questo per giunta quando sei tu ad avere il nodo di vantaggio :rotfl:...non facciamo nomi che ormai spariamo sulla croce rossa...
-a breve/brevissimo queste schede consumose (la 3090) quantomeno will actually exists, la concorrenza dov'è???*
*https://steamuserimages-a.akamaihd.net/ugc/781785179824574694/94D90D739B5BB5A1F2FDFBBC0FF52D0B0DFECE62/
amon.akira
28-08-2020, 14:02
che schifo ... :ops:
se queste sono le premesse, boost solo per RT... posso saltare questa gen...
tanto fino all 1settembre avrà cambiato altri 10nick e i nostri post saranno spariti con i 7nnsamsungquelliveri XD
no ma stai sereno, sopratutto se fosse vero dei 7nmquelliveri :D
Ale55andr0
28-08-2020, 14:03
Se quel leak è vero si, fin ora li hanno presi tutti i leak...
aggiungo: almeno sul verde c'è qualcosa da leakkare, la concorrenza ormai manco più roadmap col quadratino troppo spostato da un lato su cui parlare :asd:
thunderforce83
28-08-2020, 14:07
quindi 7nm e la 3080 +15% sulla 2080ti :asd:
la 3080 a 7nm e 320w di tdp credo che veramente distruggera' qualsiasi cosa mai costruita fino ad ora a livello gaming...ma la vedo difficile...la 2080ti aveva un tdp di 250w...qui i conti non tornano.
se fosse vero la 3080 fara' un +40% rispetto alla 2080ti almeno:D
amon.akira
28-08-2020, 14:10
quindi ricapitolando, vediamo se ho capito
2080ti vs 3080
12nm vs 7nm
nessun vantaggio clock
260w vs 320w
14gbps vs 19gbps
4352cc vs 4352cc
ipc ampere dichiarato +10-20% media 15%? ma prendiamo il minimo 10%
totale +10% :sofico:
thunderforce83
28-08-2020, 14:12
quindi ricapitolando, vediamo se ho capito
2080ti vs 3080
12nm vs 7nm
nessun vantaggio clock
260w vs 320w
14gbps vs 19gbps
4352cc vs 4352cc
ipc ampere dichiarato +10-20% media 15%? ma prendiamo il minimo 10%
totale +10% :sofico:
si infatti...e qui gli asini volano:D secondo me si e' infiltrato qualche fanboy amd storico con un nickname e profilo falso...:sofico:
fraussantin
28-08-2020, 14:13
Cut
amon.akira
28-08-2020, 14:16
e tu ne sai "sull essere di passaggio" :asd:
thunderforce83
28-08-2020, 14:17
e tu ne sai "sull essere di passaggio" :asd:
i fanboy estremi sono un fenomeno che andrebbe studiato guarda:D :sofico: :ahahah:
Ale55andr0
28-08-2020, 14:19
Cioè a te pare normale fare praticamente +0~10% di efficienza con salto nodo?
ok
Dipende da quanto boosteranno simultaneamente le prestazioni... Se tu puoi sopportare chi prende le pizze in faccia consumando di più col nodo di vantaggio non vedo perchè dovrei scandalizzarmi di un +10% di efficienza restando avanti in tutto alla concorrenza, ti pare?
si ma basta con sta storia che di qua perculi amd e di la perculi nvidia, cosa fai l'hater di tutto?
nel rispetto del regolamento e dell'educazione faccio quel che mi pare, comprese le critiche a certe scelte delle aziende in un forum di hardware e no, è solo la dimostrazione che io NON fanboyeggio nessuna fetta di silicio a differenza di alcuni soggetti, (sia in questo che nell'altro thread, sia chiaro). Quando c'è da purgare una, la purgo se devo, quando c'è da plaudirla (sempre più di rado) lo faccio, a prescindere dal colore. Ma in questi threadS (il plurale è importante :O) se non salamelecchi spesso diventi "un fanboy dell'altra fazione", se invece sei obiettivo sei uno che fa l'"hater tutto il giorno" :rotfl:
Poi ste etichette..pensa che c'è chi passa i giorni a creare account...
cosa c'è da leakare, ma secondo te AMD fa uscire leak a caso così, nello stesso periodo che devono presentare queste?
ormai AMD fa tutto a caso dai tempi di poor volta(ge) :rolleyes:
Che poi sono usciti ma non te ne sei accordo, e non leak informazioni reali, MS ha presentato il botolo, con un chippino da 360mmq all in one...
ah, era un leak delle vga di aemmeddì, credevo fosse relativo alla console! :eek:
e comunque con quel leak non hanno manco capito loro se è rdna 2, ne se ne esisterà la variante PC o ci affibbieranno un refresh di rdna 1...:rolleyes:
a settembre probabilmente sentirai qualche leak amd così sei contento, tutti contenti, di leggere leak in continuazione... speriamo non siano così i leak però, che fanno pena.
beh, se ti prendi briga di perculare i...leak (!) di nvidia vuol dire che li leggi pure te e te ne interessi mi pare. E poi nei thread aspettando ci si appoggia proprio ai pochi stralci di informazione che si captano. Su AMD non abbiamo nemmeno quelli...:mc:
thunderforce83
28-08-2020, 14:22
proprio tu parli che sei il fanboy nvidia numero 1 :sofico:
a me piace puntare sui cavalli vincenti infatti:D :sofico:
amon.akira
28-08-2020, 14:23
ti svelo un segreto, sono iscritto dal 2006 ma leggo il forum da prima
Ale55andr0
28-08-2020, 14:26
TL;DR
dici? io dico che di tempo ne hai più che abbastanza per leggerlo se ne hai per rifarti 10mila account un giorno si e l'altro pure ;) o semplicemente non sapevi che ribattere :asd:
amon.akira
28-08-2020, 14:29
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked
riepilogo, 3070 16gbps....gddr6x solo su 3080/3090?!
Ale55andr0
28-08-2020, 14:35
c
No, ho capito che sei sotto ciclo e non ho voglia di stare li ad ascoltare i tuoi isterismi ciclici.
:mc:
..e cmq se hai letto e risposto a questo hai letto pure l'altro, that's for sure :asd:
amon.akira
28-08-2020, 14:38
cmq realisticamente ci sta il +20% 3080 su 2080ti in raster, però diventa strano il 320w 7nm...uno dei 2 è fake secondo me sopratutto con clock quasi simili...di cosa si parla di 100mhz in piu forse
Arrow0309
28-08-2020, 14:39
quindi ricapitolando, vediamo se ho capito
2080ti vs 3080
12nm vs 7nm
nessun vantaggio clock
260w vs 320w
14gbps vs 19gbps
4352cc vs 4352cc
ipc ampere dichiarato +10-20% media 15%? ma prendiamo il minimo 10%
totale +10% :sofico:
Ma come nessun vantaggio clock?
1575 vs 1710 (reference vs reference, almeno sulla 3080 credo si parli di quella visto che si parla di 2x 8pin su entrambe e mica del nuovo 12pin) e lo chiami nessun vantaggio?
ninja750
28-08-2020, 14:41
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked
riepilogo, 3070 16gbps....gddr6x solo su 3080/3090?!
soprattutto 3070 8gb e 220w.. quasi lo stesso della 2070s
amon.akira
28-08-2020, 14:45
Ma come nessun vantaggio clock?
1575 vs 1710 (reference vs reference, almeno sulla 3080 credo si parli di quella visto che si parla di 2x 8pin su entrambe e mica del nuovo 12pin) e lo chiami nessun vantaggio?
ma è il boost clock non il base...se fosse il base sarebbe peggio ancora in quel confronto strampalato XD
thunderforce83
28-08-2020, 14:45
capisco, AMD dopo le 290x hanno latitato nella fascia TOP, ma spesso ho letto di prese per il :sofico: tue, non è che tutti diano tutta questa importanza nello spendere +1000€ per giocare la PC, ci hai mai pensato?
adesso mi trovo con un mulettino che all epoca volevo prendere amd ma purtroppo ho trovato piu' competitiva la piccola 1660s ...questo per farti capire che purtroppo non c'e concorrenza da un pezzo...nonostante in passato ho avuto schede amd e non sono fanboyestremo come qualcuno:D ...so per certo che nvidia dominera' peggio di turing e ampere messa insieme quindi amd per me e' out da un sacco di tempo..magari per il prossimo muletto prendero' amd se converra', ma la vedo molto difficile.
fraussantin
28-08-2020, 14:46
soprattutto 3070 8gb e 220w.. quasi lo stesso della 2070sCmq se dovessero fare una versione a 16 giga e se la gioca con la 2080ti in raster secondo me é la piú interessate perché é l'unica con consumi umani.
350 w o 320 non sono per persone umane. Neanche per la corrente dai , ma sai che caldo che fa in questi periodi .
mikael84
28-08-2020, 14:48
quindi 7nm e la 3080 +15% sulla 2080ti :asd:
Non è neppure sicuro il +15/20%, Wccftech e quel leak di ieri di orazio riportava +35% e 8600 di time spy.
Per dire 8800 li faceva KP con la 2080ti
https://www.3dmark.com/spy/4443737
Cmq vedi, che non tutto è sicuro.:p
Cmq se fosse realmente a 7nm, ci sarebbe almeno un 25% di extra rispetto a turing.
Quindi il 2x tensor non dovrebbe essere un problema, più le doppie FP.
Considerando che Ampere ha 48mb l2, potrebbero aver messo anche 24mb e forse abbondato via L1 (ampere ha 192kb su 96 per SM).
Un chip così denso, minimo sta a 35mtransistor.
Ampere in rapporto starebbe a 45 su 826.
amon.akira
28-08-2020, 14:48
il TDP sembra strano, semplicemente non avete mai considerato che i 12nm FFN era ottimizzati per nVidia da TSMC, e adesso usa si un nodo con maggior densità, il 7nm Samsung, ma che non è della stessa qualità di quello di TSMC e non è ottimizzato, quindi Vcore più alti e clock simili ai 12nm.
allora ci può stare il discorso iniziale 8nm/7nm samsung, ma sul +20% in raster non mi smuovo su strada dico, realisticamente
Vedrai, sopratutto vedendo i prezzi, se piazzano la top a 800$ come VII che supera 3080 in 280/300watt max.
mi spiace ma io vedrò solo prestazioni rt, quindi in raster può superare anche la 3090
mikael84
28-08-2020, 14:56
Comunque, non per dire:
"The data that we saw clearly mention the 7nm fabrication node. At this time we are unable to confirm if this is indeed true."
Qui si é peggio delle bandiere, basta io fino al primo non credo piú a un caxxo.
Tutto può essere, vuol dire che c'è un 25% extra.
Però questi rumor martellanti sono da analizzare.
Uscito ieri
https://i.postimg.cc/Ls99Cv28/esa.png
https://i.postimg.cc/wBxt3hqs/esay.png
thunderforce83
28-08-2020, 14:56
Comunque, non per dire:
"The data that we saw clearly mention the 7nm fabrication node. At this time we are unable to confirm if this is indeed true."
Qui si é peggio delle bandiere, basta io fino al primo non credo piú a un caxxo.
io credo che se veramente la 3080sara' a 7nm e 320w di td sara' qualcosa di mostruoso...:D :sofico:
Iceman69
28-08-2020, 14:57
Non è neppure sicuro il +15/20%, Wccftech e quel leak di ieri di orazio riportava +35% e 8600 di time spy.
Per dire 8800 li faceva KP con la 2080ti
https://www.3dmark.com/spy/4443737
Cmq vedi, che non tutto è sicuro.:p
Cmq se fosse realmente a 7nm, ci sarebbe almeno un 25% di extra rispetto a turing.
Quindi il 2x tensor non dovrebbe essere un problema, più le doppie FP.
Considerando che Ampere ha 48mb l2, potrebbero aver messo anche 24mb e forse abbondato via L1 (ampere ha 192kb su 96 per SM).
Un chip così denso, minimo sta a 35mtransistor.
Ampere in rapporto starebbe a 45 su 826.
Mi sono un po' perso, ma se fossero veri i 7nm che prestazioni in più dovremmo aspettarci 3080 su 2080ti non in RT?
thunderforce83
28-08-2020, 15:02
Che sono gli stessi dati che postó maxmix65 a fine luglio:
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-up-to-35-faster-than-rtx-2080-ti-in-3dmark-timespy/
Boh, ci hanno mandato in confusione, qui ci balla un +35% a favore di 3080 su 2080ti.. mi sembra incredibile..
incredibile? neanche tanto..secondo me e' molto veritiero e possibile invece...
Arrow0309
28-08-2020, 15:02
ma è il boost clock non il base...se fosse il base sarebbe peggio ancora in quel confronto strampalato XD
E grazie, perché sulla 2080ti non parlavo sempre del boost clock?
Anzi:
1350 (base clock)/1545 (boost clock)
FE: 1635MHz
A 1575 ero pure generoso.
Quindi?
Le custom avranno 8+8, le FE avranno il 12pin.
Era ovvio, lo sapevo. ;)
mikael84
28-08-2020, 15:09
Mi sono un po' perso, ma se fossero veri i 7nm che prestazioni in più dovremmo aspettarci 3080 su 2080ti non in RT?
Le prestazioni RT dipendono anche dal clock. Di certo, troverebbe pù conferma la doppia FP, il doppio tensor e tanta cache (che a livello di RT serve come il pane).
Che sono gli stessi dati che postó maxmix65 a fine luglio:
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-up-to-35-faster-than-rtx-2080-ti-in-3dmark-timespy/
Boh, ci hanno mandato in confusione, qui ci balla un +35% a favore di 3080 su 2080ti.. mi sembra incredibile..
IPC un 35% è impensabile, neppure a cambio architettura.
Se hanno mesos i 7nm mi aspetto minimo 35mtransistor su 628 e tanta cache, perchè no, magari 24.
Servirebbe un bench realistico su 3dmark.
8600, li ha presi KP a 2400 senza IPC, troppo.
Arrow0309
28-08-2020, 15:13
Le prestazioni RT dipendono anche dal clock. Di certo, troverebbe pù conferma la doppia FP, il doppio tensor e tanta cache (che a livello di RT serve come il pane).
IPC un 35% è impensabile, neppure a cambio architettura.
Se hanno mesos i 7nm mi aspetto minimo 35mtransistor su 628 e tanta cache, perchè no, magari 24.
Servirebbe un bench realistico su 3dmark.
8600, li ha presi KP a 2400 senza IPC, troppo.
Esatto, io cmq spero nei boost clock superiori sulle FE e custom (quelle non liscie).
ninja750
28-08-2020, 15:13
Cmq se dovessero fare una versione a 16 giga e se la gioca con la 2080ti in raster secondo me é la piú interessate perché é l'unica con consumi umani.
350 w o 320 non sono per persone umane. Neanche per la corrente dai , ma sai che caldo che fa in questi periodi .
concordo, sopra quel wattaggio i problemi ce li si vanno a cercare imho
chissà big navi pari prestazioni quanto consumerà
mikael84
28-08-2020, 15:18
Comunque le memorie della 3090 sono in oc a 19,5gbps contro i 19gbps della 3080, inizialmente si parlava di 21gbps per la 3090 e 19 gbps per la 3080..
Micron non si smentisce mai.
Prima le ddr5x dovevano andare a 16, poi hanno dichiarato che non riuscivano a salire a 13, erano incasinatissimi.
Risultato gddr5x lanciate a 10gb/s ed abbandonato il progetto per le gddr6 a 16 bit
Le gddr6 dovevano andare a 20 easy, falliti a 16gb/s.
Ora con le PAM 4 vai a 19 gb/s.:p .
Memorie costosissime per quasi niente, solo perchè nvidia è al limite con i bus.
Chissà i consumi, se la 2080ti con 11gb a 14 gb/s stava a 50watt.
Esatto, io cmq spero nei boost clock superiori sulle FE e custom (quelle non liscie).
Qua dipende molto dalla densità, se il chip avrà minimo 33/35mtransistor, non vai lontano.
Il base non bin della 2080ti era 1545, della FE 1630 mi pare, via tensione dipende dal silicio, su review media FE 1750 circa.
devAngnew
28-08-2020, 15:19
Cmq se dovessero fare una versione a 16 giga e se la gioca con la 2080ti in raster secondo me é la piú interessate perché é l'unica con consumi umani.
350 w o 320 non sono per persone umane. Neanche per la corrente dai , ma sai che caldo che fa in questi periodi .
Si una 3070 con 16 GB mi sembra un buon compromesso. :D anche per i consumi.
fireradeon
28-08-2020, 15:22
Si infatti.
La dimostrazione è data dalle ultime 100 pagine del thread :D
Parlo del discorso prestazioni che hai fatto tu. Ma tanto lo so che ormai esce sempre tutto prima e si perde secondo me il bello di queste conferenze. Ma ormai i bambini vanno accontentati altrimenti si mettono a piangere, che ci vuoi fare. ;)
TigerTank
28-08-2020, 15:23
quindi 7nm e la 3080 +15% sulla 2080ti :asd:
che schifo ... :ops:
se queste sono le premesse, boost solo per RT... posso saltare questa gen...
Alla fine però per noi che passeremmo da 2080 liscia a 3080 non sarebbe male come stacco. Facile che sia più del 30% in raster e un sacco in più in RT(e di conseguenza in DLSS+RT).
Tralasciando poi cose come OC, rese effettive sui vari giochi, ecc...
Comunque vabbè, non resta che attendere il concreto, tra recensioni serie, discorso adattatori, DLSS 3.0, disponibilità effettive, modelli e prezzi :D
Considerato che per me l'RT è piuttosto facoltativo, attendo che mi scatti il semaforo verde interiore circa una situazione gisuta di acquisto.
maxmix65
28-08-2020, 15:25
Che sono gli stessi dati che postó maxmix65 a fine luglio:
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-up-to-35-faster-than-rtx-2080-ti-in-3dmark-timespy/
Boh, ci hanno mandato in confusione, qui ci balla un +35% a favore di 3080 su 2080ti.. mi sembra incredibile..
Chi mi ha Evocato ......:cool:
Andy1111
28-08-2020, 15:27
Si una 3070 con 16 GB mi sembra un buon compromesso. :D anche per i consumi.
ne sei sicuro a 16Gb non consumerà 220W minimo ci devi aggiungere altri 50W
Le custom avranno 8+8, le FE avranno il 12pin.
con 320W direi anche 8+8+6
Se escono il 21 settembre le FE niente recensioni prima sicuramente NDA fino all'uscita
mikael84
28-08-2020, 15:29
Alla fine però per noi che passeremmo da 2080 liscia a 3080 non sarebbe male come stacco. Facile che sia più del 30% in raster e un sacco in più in RT(e di conseguenza in DLSS+RT).
Tralasciando poi cose come OC, rese effettive sui vari giochi, ecc...
Comunque vabbè, non resta che attendere il concreto, tra recensioni serie, DLSS 3.0, disponibilità effettive, modelli e prezzi :D
Considerato che per me l'RT è piuttosto facoltativo, attendo che mi scatti il semaforo verde interiore circa una situazione gisuta di acquisto.
Se è a 7nm c'è almeno 25% di extra, tra tensor, fp, cache gigante.
Almeno in RT e Dlss dovrebbe andare.:p
Raster è da vedere.
Potrebbe anche esserci un 35% su Time spy, con opportune modifiche sul basso livello, come il superposition era di gran lunga superiore rispetto a pascal.
fireradeon
28-08-2020, 15:37
Cioè 35% la 3080 e un 50% circa la 3090 sulla 2080ti?
Fosse vero posso dire solo "Me coions!". Take my money now
ninja750
28-08-2020, 15:43
Cioè 35% la 3080 e un 50% circa la 3090 sulla 2080ti?
no quelli sono gli incrementi dei consumi
(:asd:)
fireradeon
28-08-2020, 15:44
E allora dico Me coions doppio, che ci vuole la centrale Enel sotto casa?
Andy1111
28-08-2020, 15:47
Cioè 35% la 3080 e un 50% circa la 3090 sulla 2080ti?
Fosse vero posso dire solo "Me coions!". Take my money now
No 35% da 2080 a 3080 e da 2080 TI a 3090
No 35% da 2080 a 3080 e da 2080 TI a 3090
ma la percentuale è l'aumento di prestazioni o quello del prezzo? :O
mattxx88
28-08-2020, 15:54
ma la percentuale è l'aumento di prestazioni o quello del prezzo? :O
prezzo e consumi, prestazioni uguali :asd:
Arrow0309
28-08-2020, 16:10
prezzo e consumi, prestazioni uguali :asd:
Corro a rimediare una 2080ti a pocoh :D
devAngnew
28-08-2020, 16:15
ne sei sicuro a 16Gb non consumerà 220W minimo ci devi aggiungere altri 50W
Cut
all'uscita
Si, quoto. Il discorso era riferito al consumo generalmente minore rispetto alle sorelle maggiori Fermi edition :asd:
Nhirlathothep
28-08-2020, 16:15
Corro a rimediare una 2080ti a pocoh :D
le turing erano da saltare sec me, si capiva da subito
No 35% da 2080 a 3080 e da 2080 TI a 3090
no
amon.akira
28-08-2020, 16:19
E grazie, perché sulla 2080ti non parlavo sempre del boost clock?
Anzi:
1350 (base clock)/1545 (boost clock)
FE: 1635MHz
A 1575 ero pure generoso.
Quindi?
Era ovvio, lo sapevo. ;)
sicuro base clock 2080fe 1350mhz? l accendiamo?
Andy1111
28-08-2020, 16:25
le turing erano da saltare sec me, si capiva da subito
no
Ampere latest
21/09/2020 - FE
28/09/2020 - AIB
35% perf increase
35% across the board. 4k you're looking at more of a jump
2080Ti > 3090
2080 > 3080
etc
non sono io quello che parlava di silicio di samsung piu bello o meno bello di vero o di falso
Non ricordo chi lo diceva e non voglio assolutamente dire che eri tu, ma diversi affermavano convinti che i 7 di samsung erano molto meglio dei 7 di tsmc.
Crysis90
28-08-2020, 17:24
quindi 7nm e la 3080 +15% sulla 2080ti :asd:
che schifo ... :ops:
se queste sono le premesse, boost solo per RT... posso saltare questa gen...
Ripeto:
chissà ma felici che saranno quelli che hanno già venduto le 2080 Ti. :asd: :asd: :asd:
Penso che più senza senso di litigare per dei pezzi di silicio sia solo litigarci con un clone iscritto appositamente per farlo.
A me non diverte pulire i thread che si incasinano anche per colpa di chi risponde, poi non lamentatevi se chi risponde va a fare compagnia al clone.
AceGranger
28-08-2020, 17:40
Se è a 7nm c'è almeno 25% di extra, tra tensor, fp, cache gigante.
Almeno in RT e Dlss dovrebbe andare.:p
Raster è da vedere.
Potrebbe anche esserci un 35% su Time spy, con opportune modifiche sul basso livello, come il superposition era di gran lunga superiore rispetto a pascal.
l'eventuale presenza delle doppie FP cosa comporterebbe a livello di ipotetico IPC ?
perche teoricamente, secondo quello dichiarato da nVidia all'uscita di Turing, mediamente per ogni 100 istruzioni FP ci sono 36 istruzioni INT, quindi si raggiungerebbe un rapporto quasi perfetto.
Arrow0309
28-08-2020, 18:02
sicuro base clock 2080fe 1350mhz? l accendiamo?
2080ti (non FE):
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
Di questo si parlava, le specs della 3080 non parlano ancora della FE ;)
Quindi boost clock 1545 vs 1710?
Dobbiamo argomentare altro?
PS:
Che poi il "boost" a 1545 era quello delle non "A"
Mentre a 1575 tutte le "A" base, non occate (MSI Lightning compresa)
A 1635 le FE, 1650 le EVGA SC Ultra, ecc
Io non ci sto piu a capi un cazzo.. 2 settimane fa tutti a dire che le 3000 avrebbero reso obsolete le 2000, oggi parlate di un +15% di prestazioni...
Mi devo pentire di aver venduto la 2080ti?
amon.akira
28-08-2020, 18:17
2080ti (non FE):
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
Di questo si parlava, le specs della 3080 non parlano ancora della FE ;)
Quindi boost clock 1545 vs 1710?
Dobbiamo argomentare altro?
PS:
Che poi il "boost" a 1545 era quello delle non "A"
Mentre a 1575 tutte le "A" base, non occate (MSI Lightning compresa)
A 1635 le FE, 1650 le EVGA SC Ultra, ecc
ok voglio stare al tuo gioco, senza che riprendiamo da dietro...boost clock 2080ti fe 1635mhz vs 1710mhz
cmq realisticamente ci sta il +20% 3080 su 2080ti in raster, però diventa strano il 320w 7nm...uno dei 2 è fake secondo me sopratutto con clock quasi simili...di cosa si parla di 100mhz in piu forse
quindi?
Io non ci sto piu a capi un cazzo.. 2 settimane fa tutti a dire che le 3000 avrebbero reso obsolete le 2000, oggi parlate di un +15% di prestazioni...
Mi devo pentire di aver venduto la 2080ti?
Infatti solo uno con poco senso delle cose "REALI" va a vendere un mostro del genere per cimentarsi su un qualcosa che ANCORA NON E' USCITO.
amon.akira
28-08-2020, 18:26
Infatti solo uno con poco senso delle cose "REALI" va a vendere un mostro del genere per cimentarsi su un qualcosa che ANCORA NON E' USCITO.
quando ci sarà molto margine non farà uscire tutto subito jhh, tornerà al vecchio schema x80 poi x90/ti
mikael84
28-08-2020, 18:30
No 35% da 2080 a 3080 e da 2080 TI a 3090
Praticamente 3080 = 2080ti, speriamo di no.:D
sicuro base clock 2080fe 1350mhz? l accendiamo?
1350 è il base clock di tutto TU102.
Boost base 1545 no bin
1630 bin.
l'eventuale presenza delle doppie FP cosa comporterebbe a livello di ipotetico IPC ?
perche teoricamente, secondo quello dichiarato da nVidia all'uscita di Turing, mediamente per ogni 100 istruzioni FP ci sono 36 istruzioni INT, quindi si raggiungerebbe un rapporto quasi perfetto.
Ancora non si sa che ruolo possono avere quelle ALU speculate, perchè i warp, sono dichiarati da 32 thread classici con 4 LDS, quindi sempre 1024 istruzioni max per cuda.
Probabile che alcune cose siano sbagliate.
Così come sono messe il warp schedula solo 16 FP non 32.
Anche le INT sarebbero la metà rispetto le FP totali.
Queste ALU, ipotizzo possano essere utilizzate per RT, e lavorare simil tensor core, raddoppiando il ratio di questi.
Bisognerà vedere la logica finale. Ora come ora potrebbero essere un fake.
Per RT core, si speculava anche di un aggiornamento del RT core.
Infatti solo uno con poco senso delle cose "REALI" va a vendere un mostro del genere per cimentarsi su un qualcosa che ANCORA NON E' USCITO.
Ma che discorsi sono, da che mondo in mondo le generazioni di GPU nuove vanno di più di quelle vecchie.
Io ho fatto 980ti - 1080ti - 2080ti.
A sto giro vediamo cosa succede, ma la fate prende male cosi..
amon.akira
28-08-2020, 18:36
Ma che discorsi sono, da che mondo in mondo le generazioni di GPU nuove vanno di più di quelle vecchie.
Io ho fatto 980ti - 1080ti - 2080ti.
A sto giro vediamo cosa succede, ma la fate prende male cosi..
a con la 3090 avrai il boost tranquillo non è +15% :P
Arrow0309
28-08-2020, 18:37
ok voglio stare al tuo gioco, senza che riprendiamo da dietro...boost clock 2080ti fe 1635mhz vs 1710mhz
OK ma ripeto (e spero) che la 3080 FE / custom bin andrà a 1800 +
a con la 3090 avrai il boost tranquillo non è +15% :P
Eh ma se prende il segmento Titan, devo sborsare 2000€... :muro:
Se questa 3080 fa schifo, tocca sperare in una 3080super o Ti
amon.akira
28-08-2020, 18:46
OK ma ripeto (e spero) che la 3080 FE / custom bin andrà a 1800 +
cmq in un modo o nell altro secondo me chi viene da 2080ti e passa a 3080 avrà il suo 20%...e un 40% con 3090 però su strada la 3090 richiede molti watt quindi perderà qualche punto % se non sfruttata bene (esempio liquido) e potrebbe stare a +35%/+37%
OrazioOC
28-08-2020, 18:46
https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured
slide1965
28-08-2020, 18:48
devo ammettere che seguire questo thread mi sta tornando molto utile , mi è passata la voglia di fare l'upgrade, la cosa è molto positiva, risparmierò dei soldi:D
Dunque 2 mesi fa si parlava di un +50% in raster tra 2080ti e 3080ti, qualche temerario si era lanciato anche in un folle +60%, oggi siamo arrivati al punto che uno che ha un 2080ti per dare un senso all'upgrade dovrebbe saltare direttamente alla 3090, che costerà 2000€ e andrà SOLO un 35% in piu
Do un consiglio a chi ha la 2080ti:
tenetevela stretta.:read:
no perchè non penserete che uno possa basarsi sulle prestazioni in RT vero?
https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured
Madonna che scimmia immensa che ho.
Devo resistere e non comprare al dayone... sarà dura:D
Se questa 3080 fa schifo, tocca sperare in una 3080super o Ti
+15% di una 2080ti di cui al momento non esiste uguali... strana idea di "schifo"... :fagiano:
(premesso che sono percentuali tutte ipotetiche)
OrazioOC
28-08-2020, 18:51
https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured
https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured
Troppo lento. :p
OrazioOC
28-08-2020, 18:52
Edit.
amon.akira
28-08-2020, 18:52
+15% di una 2080ti di cui al momento non esiste uguali... strana idea di "schifo"... :fagiano:
(premesso che sono percentuali tutte ipotetiche)
ma infatti a me sta benissimo...mi becco il mio +50% in rt e sono felice :P
Thunder-74
28-08-2020, 18:53
3090...
https://abload.de/img/tojbu.png
:D :D
+15% di una 2080ti di cui al momento non esiste uguali... strana idea di "schifo"... :fagiano:
(premesso che sono percentuali tutte ipotetiche)
Beh il gain con le passate generazioni era di almeno il 30%... ovvio che anche il 15% non lo butto via, peró che cazzo... sarebbe la prima volta che compro una scheda video nuova di pacca , e proprio a sto giro dovevano cambiare il modus operandi in casa nvidia?? :ciapet:
fraussantin
28-08-2020, 18:59
https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-picturedArtisti delle foto. Non si vede il connettore di alimentazione , ma si vede chiaramente che butta un po' di aria dietro.
amon.akira
28-08-2020, 18:59
il brutto cmq è che ste percentuali ce li aspettavamo dagli 8nm aka 10nm, oggi arriva la notizia 7nm samsung e scendono anche le % lol
OrazioOC
28-08-2020, 19:01
Tra un pó (a leggervi) la 3080 stará sotto alla 2080ti di un 10%:D :D :D
+20% in raster lo rifila, suvvia, in rt ciaone...
Eh ma sti tirchiazzi non vogliono cacciare e sperano che rimediando una 2080 ti usata raggiungano lo stesso risultato. :asd:
amon.akira
28-08-2020, 19:02
Tra un pó (a leggervi) la 3080 stará sotto alla 2080ti di un 10%:D :D :D
+20% in raster lo rifila, suvvia, in rt ciaone...
:mano:
Artisti delle foto. Non si vede il connettore di alimentazione , ma si vede chiaramente che butta un po' di aria dietro.
Guarda meglio... Sono 2x8pin :O
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-3.jpg
OrazioOC
28-08-2020, 19:15
LOL a pensare che (ad oggi) gliela avrei ceduta molto volentieri la mia 2080ti, a buon prezzo eh..
Peró 2-3 settimane fa in alcuni lidi, ricevetti proposte ridicole, tipo 700 euro (che tanto ormai non valeva nulla che mio cuggginooooo prende la serie 3000) oggi magicamente 2080ti é una bomba di scheda da tenere stretta LOL.
eh... com'é strano l'essere umano..:sofico:
Sognare non costa nulla, la 3080 é ben sopra la 2080ti, giá sullo stesso pp con quel poco clock in piú e la BW maggiore farebbe quasi un +10%, al netto dell'ipc, quindi +20% é auspicabile.
Che la 2080 ti sia una bella scheda nell'ormai 2021 non lo nego, ma che anche con un po' di overclock vada a dar fastidio ad una 3080 anche reference non ci credo manco se lo vedo, stesse specifiche ma su un pp migliore.
Inoltre con quel tgp ste ampere mi sembrano cani sciolti, anche la 3070 per gli standard di un chip 104 ha quei 40w di troppo(tolto turing dove tu104 ha praticamente sostituito GP102, gli altri chip 104 avevano un tdp medio di 180w massimo).
slide1965
28-08-2020, 19:16
LOL a pensare che (ad oggi) gliela avrei ceduta molto volentieri la mia 2080ti, a buon prezzo eh..
Peró 2-3 settimane fa in alcuni lidi, ricevetti proposte ridicole, tipo 700 euro (che tanto ormai non valeva nulla che mio cuggginooooo prende la serie 3000) oggi magicamente 2080ti é una bomba di scheda da tenere stretta LOL.
eh... com'é strano l'essere umano..:sofico:
Sognare non costa nulla, la 3080 é ben sopra la 2080ti, giá sullo stesso pp con quel poco clock in piú e la BW maggiore farebbe quasi un +10%, al netto dell'ipc, quindi +20% é auspicabile.
c'è poco da sognare, se il balzo in avanti è netto io faccio l'upgrade senza esitare diversamente no e se i dati saranno quelli che state dicendo la 3080 non ha alcun senso per chi ha una 2080ti, un +20% se va bene è aria fritta, non sto neanche a smontare la scheda dal case per un incremento del genere.
io tifavo e tifo tuttora per un boost di performance il piu alto possibile e infatti mi auguro che vi sbagliate dato che per la 2080ti ho gia l'acquirente ma un minimo di libidine la voglio quando vado a unboxare il pacchetto, non posso fare un upgrade per un 20%, dai su:muro:, bisogna stare su un + 40% in raster (come minimo).
Si spera nella 3090.....
Arrow0309
28-08-2020, 19:16
Tra un pó (a leggervi) la 3080 stará sotto alla 2080ti di un 10%:D :D :D
+20% in raster lo rifila, suvvia, in rt ciaone...
:asd: :asd:
@amon.akira come lo vedi sto clock della 3080? :sofico:
https://cdn.videocardz.com/1/2020/08/zotacgaming_ampere_vga_firestorm.jpg
amon.akira
28-08-2020, 19:20
:asd: :asd:
@amon.akira come lo vedi sto clock della 3080? :sofico:
passando dalla mia a 2010, vorrei una 3080 a 2100 sempre nei 330w, non penso di chiedere troppo...100mhz in piu
Thunder-74
28-08-2020, 19:21
passando dalla mia a 2010, vorrei una 3080 a 2100 sempre nei 330w, non penso di chiedere troppo...100mhz in piu
2010 perchè la tieni UnderVolt...
Tu sbagli proprio:D :D tu confronti l'ex top di gamma 2080ti con la semi top 3080, dovresti confrontare 2080ti con 3090 e 2080 con 3080, li ci passa un 40% sicuro.
Mah secondo me no.
La 3090 prende il posto della titan.
La 3080 se è come dicono va confrontata con la 2080 liscia
Io presumo che il vero successore della 2080ti deve ancora saltare fuori... ripeto probabilmente tireranno fuori una 3080ti o super
Arrow0309
28-08-2020, 19:23
passando dalla mia a 2010, vorrei una 3080 a 2100 sempre nei 330w, non penso di chiedere troppo...100mhz in piu
E li avrai imho
Anch'io li voglio, dai 2055 dell'attuale 2080 Super "mi accontento" di 2100 sulla 3080 :p
amon.akira
28-08-2020, 19:24
2010 perchè la tieni UnderVolt...
si sono watt limited a 330w, sennò downclokka per pl, cosi è stabile. potrei mettere bios per avere piu watt e piu mhz ma poi subentra il problema temp/rumore, quindi è il mio sweetspot anche d estate.
Lo Straniero Misterioso
28-08-2020, 19:24
Noi abbiamo dei soldi.
nVIDIA li vuole.
Tutti.
Non segmentano il mercato con l'obiettivo di permettere a tutti di giocare in base al loro portafogli. No, tutto il contrario: l'idea è di darci sempre un motivo (più o meno) valido per tirar fuori qualche centone in più e prendere il prodotto più costoso.
Ci sarà sempre un path d'upgrade valido, non preoccupatevi: se hai una X70 vuol dire che sei disposto a spendere 400, e avrai una nuova scheda da 400 molto più potente di quella che avevi prima.
Se avevi una X80, sei uno che spende 800, e ora avrai poco più di quello che ieri costava 1300.
E se sei uno che non ha budget, eccoti la 3090 (è la Titan ragazzi) che per soli 1500 euro ti permetterà di riempire il cuore d'orgoglio ogni volta che pensi a quello che c'è dentro il tuo case.
amon.akira
28-08-2020, 19:26
Mah secondo me no.
La 3090 prende il posto della titan.
La 3080 se è come dicono va confrontata con la 2080 liscia
Io presumo che il vero successore della 2080ti deve ancora saltare fuori... ripeto probabilmente tireranno fuori una 3080ti o super
sicuramente salterà però mi scoccio ad aspettare 8-10mesi, e poi che faccio la tengo 1anno e poi ce subito hopper...meglio 3080subito per 2anni
slide1965
28-08-2020, 19:27
Tu sbagli proprio:D :D tu confronti l'ex top di gamma 2080ti con la semi top 3080, dovresti confrontare 2080ti con 3090 e 2080 con 3080, li ci passa un 40% sicuro.
io ho solo detto che, se le performance saranno quelle che state dicendo, per chi viene da una 2080ti non ha alcun senso fare l'upgrade con la 3080, se si vuole upgradare dando un senso alla cosa bisognerà dirigersi sulla 3090 o su un ipotetica 3080ti se uscirà, diversamente conviene non prendere niente.
Per chi viene da una 2080 è ovvio che una 3080 andrà bene.
Tutto chiaro o mi sono spiegato male ?
Thunder-74
28-08-2020, 19:28
si sono watt limited a 330w, sennò downclokka per pl, cosi è stabile. potrei mettere bios per avere piu watt e piu mhz ma poi subentra il problema temp/rumore, quindi è il mio sweetspot anche d estate.
si era per dire che i 2100 li prendi già adesso volendo ;)
Mi stavo soffermando su i valori scritti sul software Zotac...
Clock 1234 Boost Clock 4321
GPU max Volt 67
Memory Clock 2345
ecc.
insomma numeri buttati a caso... vai a sapere se il boost letto in tempo reale è vero...
https://i.imgur.com/KyRZ4E4.png
EDIT: il più bello Display Clock (HZ) 14703 ahahahha
sicuramente salterà però mi scoccio ad aspettare 8-10mesi, e poi che faccio la tengo 1anno e poi ce subito hopper...meglio 3080subito per 2anni
Sei sicuro che ora compri la 3080 e non la cambi subito con la Ti non appena esce? :D
Lo Straniero Misterioso
28-08-2020, 19:29
Chi ha la 2080Ti non ha motivo di upgradare, a meno che abbia anche un monitor 4k a più di 60hz...
io ho solo detto che, se le performance saranno quelle che state dicendo, per chi viene da una 2080ti non ha alcun senso fare l'upgrade con la 3080, sarà obbligatorio( se si vuole upgradare) dirigersi sulla 3090 o su un ipotetica 3080ti se uscirà.
Tutto chiaro o mi sono spiegato male ?
Dipende anche da quanto deve attendere, chi l'ha venduta e ci ha già preso 7-800€ potrebbe prendersi la 3080 a costo 0 praticamente, con performance in RT migliorate, e un discreto boost in raster e 2-5 anni di garanzia a seconda del produttore/venditore.
In attesa di Hopper non è malvagia come opzione.
fraussantin
28-08-2020, 19:30
Guarda meglio... Sono 2x8pin :O
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-3.jpg
Che occhio !, e conto anche 12 banchi di RAM che immagino siano a panino quindi 24 se quella é la 390 come fa con 2 da 8 a consumare 350w?
Il mistero si infittisce sempre di piú xD
amon.akira
28-08-2020, 19:31
si era per dire che i 2100 li prendi già adesso volendo ;)
se liquidavo e andavo a 2100 poi avrei voluto i 2200 a parità di condizioni, quindi de gustibus :D
Sei sicuro che ora compri la 3080 e non la cambi subito con la Ti non appena esce? :D
sicuro mi sono fatto anche 2anni con la 1080 senza andare di 1080ti
ma se già la 3080 e la 3090 si passeranno quanto 17-18% ma anche 20% diciamo...una 3080ti nel mezzo che guadagno avresti 10-13%?
OrazioOC
28-08-2020, 19:31
Noi abbiamo dei soldi.
nVIDIA li vuole.
Tutti.
Non segmentano il mercato con l'obiettivo di permettere a tutti di giocare in base al loro portafogli. No, tutto il contrario: l'idea è di darci sempre un motivo (più o meno) valido per tirar fuori qualche centone in più e prendere il prodotto più costoso.
Ci sarà sempre un path d'upgrade valido, non preoccupatevi: se hai una X70 vuol dire che sei disposto a spendere 400, e avrai una nuova scheda da 400 molto più potente di quella che avevi prima.
Se avevi una X80, sei uno che spende 800, e ora avrai poco più di quello che ieri costava 1300.
E se sei uno che non ha budget, eccoti la 3090 (è la Titan ragazzi) che per soli 1500 euro ti permetterà di riempire il cuore d'orgoglio ogni volta che pensi a quello che c'è dentro il tuo case.
Infatti Jensen se fa partire la 3090 con ben 24 gb di vram a 1500 euro ci fa un favore altrochè, sostituisce la titan per specifiche costando la metà. :O
slide1965
28-08-2020, 19:34
Dipende anche da quanto deve attendere, chi l'ha venduta e ci ha già preso 7-800€ potrebbe prendersi la 3080 a costo 0 praticamente, con performance in RT migliorate, e un discreto boost in raster e 2-5 anni di garanzia a seconda del produttore/venditore.
In attesa di Hopper non è malvagia come opzione.
sarà ma per me è una delle opzioni piu deprimenti che si possano immaginare :stordita: , sarebbe uno degli acquisti meno entusiasmanti di sempre, a parte che la mia 2080ti ha 4 anni garanzia
Cioè, nuova generazione e dovrei fare tutta la trafila di vendita e acquisto per guadagnare una manciata di frames?
ma va....
mikael84
28-08-2020, 19:34
il brutto cmq è che ste percentuali ce li aspettavamo dagli 8nm aka 10nm, oggi arriva la notizia 7nm samsung e scendono anche le % lol
Ma da dove vengono queste basse percentuali?:p
Se il chip anche a 7nm ha difficoltà a clockare è perchè c'è troppa roba e densa dentro.
Un 628 a 7nm ha minimo 2 x i transistor di una 2080ti.
Si ripete quanto fatto per l'HPC A100 65mt su mm2, qua saremmo a 50/55mt su mm2.
Praticamente c'è almeno il 25% di roba extra die rispetto a TU102.
Da tensor new gen, cache che potrebbe essere a ben 24mb (48 HPC, ma a 12 canali), nvlink massiccio, etc:)
Un bello schifo però.:sofico:
Attenzione a non comprare l'alimentatore correttamente dimensionato. (https://youtu.be/nbC7BxXtOlo?t=1378)
slide1965
28-08-2020, 19:38
Tutto chiaro ma non condivido..
Se uno ha piazzato bene la 2080ti nel mercato dell'usato, probabile che con veramente pochi soldi esca una 3080 10gb, é sempre un prodotto piú nuovo, completamente in garanzia per 3 anni, piú veloce, in RT sará molto piú veloce, non sono cose di poco conto.
Alla fine per IL QHD la 3080 potrebbe essere definitiva fino a Hopper e oltre.
Neanche io spendo 500 euro in piú per un +15/20% infatti la 3090 la lascio li, e mi piglio la 3080:p :p :p (ho sempre preso le top, quindi ti lascio immaginare come non mi vada proprio a genio la 3090)
Come vedi é tutto valutabile, ognuno fa quello che crede sia giusto.
ecco, condivido!
infatti io ragiono diversamente,se la 3090 fa un +40% rispetto alla mia la prendo e faccio l'upgrade, se devo prendere la 3080 allora mi tengo la mia( che in ogni caso non venderò finchè non avrò in mano la scheda nuova e l'avrò montata e testata)
A me interessano in primis le prestazioni in raster, l'RT viene dopo che tanto di 2 riflessi in più me ne faccio poco
amon.akira
28-08-2020, 19:40
Ma da dove vengono queste basse percentuali?:p
Se il chip anche a 7nm ha difficoltà a clockare è perchè c'è troppa roba e densa dentro.
Un 628 a 7nm ha minimo 2 x i transistor di una 2080ti.
Si ripete quanto fatto per l'HPC A100 65mt su mm2, qua saremmo a 50/55mt su mm2.
Praticamente c'è almeno il 25% di roba extra die rispetto a TU102.
Da tensor new gen, cache che potrebbe essere a ben 24mb (48 HPC, ma a 12 canali), nvlink massiccio, etc:)
Un bello schifo però.:sofico:
era quello che rispondevo a grid dal tweet perf +35% per fascia a 7nm...avevo estremizzato verso il basso ma sembra sia passato il mio +10% lolloso e tutti a ricomprare le 2080ti XD
Chi ha la 2080Ti non ha motivo di upgradare, a meno che abbia anche un monitor 4k a più di 60hz...
Beh dipende a cosa giochi.
Io gioco spesso a cod warzone, e pur avendo una 2080ti (avevo) e tenendo i dettagli medio/alti, facevo difficolta a stare sui 144 fps, anzi in alcune situazioni era proprio 100-110 fps. (Risoluzione 2k)
Menomale che ho il gsync, quando lo disattivavo i cali di fps erano fastidiosi e vedevi la differenza.
Io spero con queste 3000 di potermi godere il 2k 144hz senza compromessi
Thunder-74
28-08-2020, 19:41
Giuro, con due spicci ve la portate a casa ... :D :D
https://www.fudzilla.com/media/k2/items/cache/f2f5912c989e0d40d295250a59d0b4c7_XL.jpg
freddye78
28-08-2020, 19:43
Infatti solo uno con poco senso delle cose "REALI" va a vendere un mostro del genere per cimentarsi su un qualcosa che ANCORA NON E' USCITO.Condivido
mikael84
28-08-2020, 19:43
era quello che rispondevo a grid dal tweet perf +35% per fascia a 7nm...avevo estremizzato verso il basso ma sembra sia passato il mio +10% lolloso e tutti a ricomprare le 2080ti XD
Ahh, perchè non avevo seguito tutto, e pensavo a qualche rumor inquietante che mi ero perso.:asd:
freddye78
28-08-2020, 19:44
devo ammettere che seguire questo thread mi sta tornando molto utile , mi è passata la voglia di fare l'upgrade, la cosa è molto positiva, risparmierò dei soldi:D
Dunque 2 mesi fa si parlava di un +50% in raster tra 2080ti e 3080ti, qualche temerario si era lanciato anche in un folle +60%, oggi siamo arrivati al punto che uno che ha un 2080ti per dare un senso all'upgrade dovrebbe saltare direttamente alla 3090, che costerà 2000€ e andrà SOLO un 35% in piu
Do un consiglio a chi ha la 2080ti:
tenetevela stretta.:read:
no perchè non penserete che uno possa basarsi sulle prestazioni in RT vero?Condivido e sottoscrivo
slide1965
28-08-2020, 19:46
Beh dipende a cosa giochi.
Io gioco spesso a cod warzone, e pur avendo una 2080ti (avevo) e tenendo i dettagli medio/alti, facevo difficolta a stare sui 144 fps, anzi in alcune situazioni era proprio 100-110 fps. (Risoluzione 2k)
Menomale che ho il gsync, quando lo disattivavo i cali di fps erano fastidiosi e vedevi la differenza.
Io spero con queste 3000 di potermi godere il 2k 144hz senza compromessi
In warzone con dettagli medio alti sto tra i 140 e 155 fissi (cappati) a 3440x1440, come facevi a scendere a 110 in 2560x1440?
Rt attivo?
mikael84
28-08-2020, 19:47
Giuro, con due spicci ve la portate a casa ... :D :D
Bello questo clima di terrore.
https://www.electronicsb2b.com/wp-content/uploads/2020/05/Jensen-Huang-CEO-Nvidia.png
In warzone con dettagli medio alti sto tra i 140 e 155 fissi (cappati) a 3440x1440, come facevi a scendere a 110 in 2560x1440?
Rt attivo?
Rt spento.
In alcune parti della mappa tipo Downtown mi scende a 110.
Calcola che ho un 7700k..
Non andiamo ot che ci ribannano lol
amon.akira
28-08-2020, 19:49
Ahh, perchè non avevo seguito tutto, e pensavo a qualche rumor inquietante che mi ero perso.:asd:
piuttosto alla luce di questi 7nm e della ciccia in piu e diciamo 2100mhz in rt come stiamo messi? ero rimasto ai 67tf a 2000 se non sbaglio :D
OrazioOC
28-08-2020, 19:50
Ma ricordatevi una cosa, It Just Works! (https://www.youtube.com/watch?v=4u0NRgMyzEM) :O
mikael84
28-08-2020, 20:10
piuttosto alla luce di questi 7nm e della ciccia in piu e diciamo 2100mhz in rt come stiamo messi? ero rimasto ai 67tf a 2000 se non sbaglio :D
69TF totali. In linea di massima un 2x esatto da una 2080 a 2100.:)
Si parla anche di RT core advanded, sicuramente bello pompato e più efficiente.
AceGranger
28-08-2020, 20:11
bel salto in raster un 15/20% ?:muro:
con tutto il silicio che stanno riservando "ad altro" non credo si avranno piu salti significativi in quel particolare frangente, la coperta è sempre quella.
sono focalizzati su RT e DLSS.
SPARTANO93
28-08-2020, 20:13
Almeno per me venendo da una 1080 il salto lo avrò bello grande sia se scelgo 3070 che 3080😁 grande in raster ed enorme in RT(ovviamente 😆)
Inviato dal mio SM-G973F utilizzando Tapatalk
mikael84
28-08-2020, 20:16
Che occhio !, e conto anche 12 banchi di RAM che immagino siano a panino quindi 24 se quella é la 390 come fa con 2 da 8 a consumare 350w?
Il mistero si infittisce sempre di piú xD
Tutto molto bello, ma manca il connettore nvlink.
In questi 3 gg sarà delirio.:p
redbaron
28-08-2020, 20:27
https://videocardz.com/newz/nvidia-ampere-ga102-rtx-3090-3080-gpu-pictured
É un render purtroppo...
fraussantin
28-08-2020, 20:37
Tutto molto bello, ma manca il connettore nvlink.
In questi 3 gg sarà delirio.:pSi in questa foto si vede meglio ,
questa in teoria o é una 3090 downcloccata ( 3080ti? 12 giga!? :asd:) perché é a 2.5 slot senza maggiorazione in larghezza , oppure é una 3080 occata
Il connettore ci dovrebbe essere se lo saranno scordato nel rendering.https://uploads.tapatalk-cdn.com/20200828/829c4124edda85d975a3df2ffefdd75c.jpg
TigerTank
28-08-2020, 20:44
Giuro, con due spicci ve la portate a casa ... :D :D
https://www.fudzilla.com/media/k2/items/cache/f2f5912c989e0d40d295250a59d0b4c7_XL.jpg
No Thunder, sbagli unità di misura. Per JHH un dito è un millino!
Poi vabbè...per lui 2 millini sono 2 spicci :sofico:
Comunque quanto scrivete! :asd:
1500€ purtroppo penso non bastino per la top.. e spendere anche soli 1200 per la 3080, mi girano altamente.. speriamo il 1° settembre ci siano belle notizie €€€
1500€ purtroppo penso non bastino per la top.. e spendere anche soli 1200 per la 3080, mi girano altamente.. speriamo il 1° settembre ci siano belle notizie €€€
E Big Navi a 1000. What a time to be alive :O
Jeetkundo
28-08-2020, 21:19
Zotac lineup leak :) Le 3090 sembrano belle lunghe.
https://wccftech.com/zotac-geforce-rtx-3090-geforce-rtx-3080-geforce-rtx-3070-custom-graphics-cards-pictured/
Inviato dal mio LYA-L09 utilizzando Tapatalk
Ale55andr0
28-08-2020, 21:26
Ci sarà sempre un path d'upgrade valido, non preoccupatevi: se hai una X70 vuol dire che sei disposto a spendere 400, e avrai una nuova scheda da 400 molto più potente di quella che avevi prima.
se hai 400 euro a sto giro della x70 ti danno solo la scatola, senza manco il CD coi driver
Ale55andr0
28-08-2020, 21:30
E Big Navi a 1000. What a time to be alive :O
non ci credo nemmeno se lo vedo
fraussantin
28-08-2020, 21:49
Zotac lineup leak :) Le 3090 sembrano belle lunghe.
https://wccftech.com/zotac-geforce-rtx-3090-geforce-rtx-3080-geforce-rtx-3070-custom-graphics-cards-pictured/
Inviato dal mio LYA-L09 utilizzando TapatalkSecondo queste speculazioni la 3090 avrà 3 connettori , la 3080 2 connettori , quella nella foto smontata , ha 2 connettori ma non ha nvlink.
Che abbiano tolto nvlink dalla 3080?
Ma i giga di RAM non tornano. Sembrano 11.
terranux
28-08-2020, 22:01
secondo me stanno leggendo tutti i forum per fare il prezzo:stordita:
redbaron
28-08-2020, 22:02
Ma i giga di RAM non tornano. Sembrano 11.
Ce n’é uno sotto, comunque é un rendering generico ;)
secondo me stanno leggendo tutti i forum per fare il prezzo:stordita:
bene allora:
3070 450€
3080 650€
3090 900€
nvidia leggi bene :read:
e siamo tutti contenti :sofico:
Kostanz77
28-08-2020, 22:46
In warzone con dettagli medio alti sto tra i 140 e 155 fissi (cappati) a 3440x1440, come facevi a scendere a 110 in 2560x1440?
Rt attivo?
edit
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Ale55andr0
28-08-2020, 22:46
secondo me stanno leggendo tutti i forum per fare il prezzo:stordita:
male, perchè qua i più paiono pronti coi 1000+ in mano per una 3080
Ale55andr0
28-08-2020, 22:47
bene allora:
3070 450€
3080 650€
3090 900€
nvidia leggi bene :read:
e siamo tutti contenti :sofico:
aggiungo: gli 8gb lasciateli alle 3050 :read:
mikael84
28-08-2020, 23:05
Secondo queste speculazioni la 3090 avrà 3 connettori , la 3080 2 connettori , quella nella foto smontata , ha 2 connettori ma non ha nvlink.
Che abbiano tolto nvlink dalla 3080?
Ma i giga di RAM non tornano. Sembrano 11.
Qua si vede meglio, ne vedo solo una con un 3x8 (525watt) e connettore, in una non si capisce, ed uno è un rendering fake.:)
amon.akira
28-08-2020, 23:13
male, perchè qua i più paiono pronti coi 1000+ in mano per una 3080
update totoprezzi XD
3060 8gb 399$
3070 8gb 549$
3070 16gb 649$
3080 10gb 799$
3080 20gb 949$
3090 12gb 1099$ (marzo/aprile)
3090 24gb 1399$
OrazioOC
28-08-2020, 23:25
Totoprezzi di Giancarlone.:D
3060 6gb 349$
3060 Super 8gb 449$
3070 8gb 599$
3070 16gb 699$
3080 10gb 899$
3080 20gb 999$
3090 12gb 1099$ (marzo/aprile)
3090 24gb 1499$
magic carpet
28-08-2020, 23:33
Ragazzi sinceramente sono un po' preoccupato.
Su tweaktown leggevo di un TDP di 350 watt per la 3090 e di 320 per la 3080.
A questo punto dubito che il mio Enermax da 625 possa riuscire a reggere neanche la 3080.
Il TDP della strix 1080Ti che attualmente ho è di 250 watt.
Voi che ne dite?
amon.akira
28-08-2020, 23:38
Ragazzi sinceramente sono un po' preoccupato.
Su tweaktown leggevo di un TDP di 350 watt per la 3090 e di 320 per la 3080.
A questo punto dubito che il mio Enermax da 625 possa riuscire a reggere neanche la 3080.
Il TDP della strix 1080Ti che attualmente ho è di 250 watt.
Voi che ne dite?
si mai hai pl 0 sulla tua strix? sennò arriva a 300w, cmq con la 3080 ci rientri solo che avrai l ali tirato, sopratutto se la cpu ciuccia molto
Free Gordon
29-08-2020, 00:02
update totoprezzi XD
3060 8gb 399$
3070 8gb 549$
3070 16gb 649$
3080 10gb 799$
3080 20gb 949$
3090 12gb 1099$ (marzo/aprile)
3090 24gb 1399$
Me cojoni!!! :eek: :eek: :eek:
3080 10gb 799$ --> 800 carte e già al limite ancora prima di uscire... :asd:
DoA con in uscita le console con 12GB sfruttabili :stordita:
3080 20gb 949$ --> Navi21 competitor da 1000 euri, bel cartello e via di schede da chi vuol essere milionario.... :doh: :doh: :doh:
Una generazione oscena sostanzialmente.... :sofico:
PS: 3090 12gb 1099$ (marzo/aprile) questa poi sarebbe davvero geniale... :rotfl:
amon.akira
29-08-2020, 00:15
Me cojoni!!! :eek: :eek: :eek:
3080 10gb 799$ --> 800 carte e già al limite ancora prima di uscire... :asd:
DoA con in uscita le console con 12GB sfruttabili :stordita:
si praticamente sarò cosi alla scelta :asd:
https://www.youtube.com/watch?v=VYlLtgv8IUs
Ragazzi sinceramente sono un po' preoccupato.
Su tweaktown leggevo di un TDP di 350 watt per la 3090 e di 320 per la 3080.
A questo punto dubito che il mio Enermax da 625 possa riuscire a reggere neanche la 3080.
Il TDP della strix 1080Ti che attualmente ho è di 250 watt.
Voi che ne dite?Secondo me ci stai dentro tranquillamente con la 3080
Inviato dal mio ELE-L29 utilizzando Tapatalk
mikael84
29-08-2020, 00:24
Cmq, immaginando 30/35mtransistor, che diavolo ci sarà tutto in un 628 a 7nm.
Questo è tesla, 826mm2, vs ampere GA102
https://i.postimg.cc/43zxGwXt/ampere2.png
Cambiano leggermente i collegamenti.
-A100 tensor new gen x4
-FP64 (2 x fp32)
-25mb l1/shared
-2 x load store
-No RT core
-192 rop's e 48mb l2
GA102
-Tensor core (da vedere quali)
- 2 x ALU fp32 (ma sopperirebbe alle FP64 in spazio)
-RT core più piccoli delle unità fp32)
-P.E, questi sono grandini
-96 rop's e 12/24mb l2
Arrow0309
29-08-2020, 00:25
Totoprezzi di Giancarlone.:D
3060 6gb 349$
3060 Super 8gb 449$
3070 8gb 599$
3070 16gb 699$
3080 10gb 899$
3080 20gb 999$
3090 12gb 1099$ (marzo/aprile)
3090 24gb 1499$
This
3080 10gb 899$ (FE e custom bone, a partire da) :D
maxmix65
29-08-2020, 00:39
This
3080 10gb 899$ (FE e custom bone, a partire da) :D
Secondo me prendera' il posto della 2080ti come prezzo...
Spero di toppare questa volta
Arrow0309
29-08-2020, 01:16
Secondo me prendera' il posto della 2080ti come prezzo...
Spero di toppare questa volta
Un po meno dai, ha 1gb in meno :fagiano: :p
non ci credo nemmeno se lo vedo
Era una trollata :asd:
Ale55andr0
29-08-2020, 07:55
Me cojoni!!! :eek: :eek: :eek:
3080 10gb 799$ --> 800 carte e già al limite ancora prima di uscire... :asd:
DoA con in uscita le console con 12GB sfruttabili :stordita:
le console hanno circa 13 giga liberi per i game ma mica tutti per la grafica, Dovranno pur ficcare da qualche parte il codice del gioco e tutto il resto che lo accompagna (fisica, audio, IA ecc.) :asd:. Microsoft comunque ha detto che avrà 10gb dedicati alla gpu, credo quindi che anche sony destinerà più o meno quel quantitativo per la grafica
Crysis90
29-08-2020, 07:58
Non capisco che senso abbia giudicare la "potenza" di una GPU o di una console dalla quantità di VRAM che ha a disposizione, quando sappiamo benissimo che quello è un dettaglio secondario.
La differenza la fanno ben altri parametri, smettetela di paragonare le console con le GPU enthusiast perchè NON HA MINIMAMENTE SENSO. :O :muro:
fraussantin
29-08-2020, 08:07
le console hanno circa 13 giga liberi per i game ma mica tutti per la grafica, Dovranno pur ficcare da qualche parte il codice del gioco e tutto il resto che lo accompagna (fisica, audio, IA ecc.) :asd:. Microsoft comunque ha detto che avrà 10gb dedicati alla gpu, credo quindi che anche sony destinerà più o meno quel quantitativo per la graficaNvidia adotterà un sistema simile ad amd per usare la RAM di sistema.
Ma serviranno 32 giga di RAM .
Se uno non li tiene e deve spendere 100 150 euro per upgradarli tanto vale prendere la versione maggiorata.
Ammesso che funzioni bene.
Questa scelta fa già capire che con la next gen 8\10 giga sono pochi per maxare.
Poi sarà da vedere quanto cambia a vista scalando un po' le texture . Ma per le cifre chieste rimane il sapore di amaro in bocca.
Non capisco che senso abbia giudicare la "potenza" di una GPU o di una console dalla quantità di VRAM che ha a disposizione, quando sappiamo benissimo che quello è un dettaglio secondario.
La differenza la fanno ben altri parametri, smettetela di paragonare le console con le GPU enthusiast perchè NON HA MINIMAMENTE SENSO. :O :muro:
Non siamo su multiplayer.it , penso che qui tutti sappiano che la RAM non misura la potenza , ma se fai partire un gioco maxato e inizia a stutterare o iniziano a sparire texture per la mancanza di vram dopo aver speso 1000 euro penso che qualche santo salti giú dalla sua nuvola!
magic carpet
29-08-2020, 08:17
si mai hai pl 0 sulla tua strix? sennò arriva a 300w, cmq con la 3080 ci rientri solo che avrai l ali tirato, sopratutto se la cpu ciuccia moltommmm....no hai ragione, pl al max con afterburner e gpu a 2.000.
CPU a 4.2.
fafathebest
29-08-2020, 08:34
Per la VRAM, non si era parlato di una compressione via tensor core che può far risparmiare dal 20 al 40%? Se così fosse, sarebbe equiparabile ad avere un maggior quantitativo di memoria disponibile... Vedremo martedi
fraussantin
29-08-2020, 08:37
Per la VRAM, non si era parlato di una compressione via tensor core che può far risparmiare dal 20 al 40%? Se così fosse, sarebbe equiparabile ad avere un maggior quantitativo di memoria disponibile... Vedremo martediHo dei dubbi che I tensor core possano restituire una qualità medesima o simile
Non ci riescono i programmi di foto-videoritocco con elaborazioni lunghe.
Spero almeno che sia disattivabile sta cosa o almeno legata al DLSS
A quel punto tanto vale usare le texture subito sotto. Già compresse "con calma"
nessuno29
29-08-2020, 08:39
Ragazzi sinceramente sono un po' preoccupato.
Su tweaktown leggevo di un TDP di 350 watt per la 3090 e di 320 per la 3080.
A questo punto dubito che il mio Enermax da 625 possa riuscire a reggere neanche la 3080.
Il TDP della strix 1080Ti che attualmente ho è di 250 watt.
Voi che ne dite?
Il 625 è un modello molto vecchio o sbaglio?
Comunque si trovano dei buoni 750 watt a poco più di 100 euro, alla fine invece invece di 900 euro si sale a 1000 e via.
Sabbath80
29-08-2020, 08:40
bene allora:
3070 450€
3080 650€
3090 900€
nvidia leggi bene :read:
e siamo tutti contenti :sofico:
:yeah:
Questi dovrebbero essere i prezzi giusti ma invece sarà cosi putroppo:
3060 450€
3070 650€
3080 900€
3090 :fuck:
Jeetkundo
29-08-2020, 08:42
bene allora:
3070 450€
3080 650€
3090 900€
nvidia leggi bene :read:
e siamo tutti contenti :sofico:Non è che hai scambiato Nvidia per una ONLUS? :)
Inviato dal mio LYA-L09 utilizzando Tapatalk
Considerando che la mia 1080ti è una scheda del 2017 con 11gb, onestamente uscirsene ora con una 3080 con 10.... mbah... spero non sia vero...
Sicuramente non sarà molto "future proof" (cosa che comunque qua dentro non dovrebbe importare a molti, visto che la frequenza di sostituzione delle vga! :asd: )
Thunder-74
29-08-2020, 08:51
Ragazzi, AMD ha calato l asso contro Ampere...
https://wccftech.com/amd-silently-launches-radeon-rx-5300-3-gb-graphics-card/
:D
@Tiger , bravo l incognita da risolvere erano i due spicci... valore puramente soggettivo ;)
Inviato dal mio iPad utilizzando Tapatalk
Ragazzi, AMD ha calato le braghe contro Ampere...
fixed! :O
OrazioOC
29-08-2020, 08:53
Ragazzi, AMD ha calato l asso contro Ampere...
https://wccftech.com/amd-silently-launches-radeon-rx-5300-3-gb-graphics-card/
:D
Inviato dal mio iPad utilizzando Tapatalk
Una 1060 3gb, 4 anni dopo. :asd:
fraussantin
29-08-2020, 08:54
Ragazzi, AMD ha calato l asso contro Ampere...
https://wccftech.com/amd-silently-launches-radeon-rx-5300-3-gb-graphics-card/
:D
@Tiger , bravo l incognita da risolvere erano i due spicci... valore puramente soggettivo ;)
Inviato dal mio iPad utilizzando TapatalkEcco.https://uploads.tapatalk-cdn.com/20200829/341d6a3f97dcb5efdbe8278802fc28ad.jpg
Thunder-74
29-08-2020, 08:54
Ecco.
Hahahahahaah
Però cavolo, tanto silenzio su big navi in questo momento, non ci voleva...
Inviato dal mio iPad utilizzando Tapatalk
Ecco.
Ho sputato un polmone! :rotfl:
amon.akira
29-08-2020, 09:04
:asd:
maxmix65
29-08-2020, 09:07
Ragazzi, AMD ha calato l asso contro Ampere...
https://wccftech.com/amd-silently-launches-radeon-rx-5300-3-gb-graphics-card/
:D
@Tiger , bravo l incognita da risolvere erano i due spicci... valore puramente soggettivo ;)
Inviato dal mio iPad utilizzando Tapatalk
https://i.postimg.cc/RJ78Hjjb/che-figura-di-merda.gif (https://postimg.cc/RJ78Hjjb)
Thunder-74
29-08-2020, 09:19
Comunque ragazzi, il pub che ha pubblicato videocardz è vero che è un rendering, ma è la stessa immagine presa dalle slide di presentazione del prodotto che si trovano sul sito/scatola Zotac. Quindi attendibile.
https://uploads.tapatalk-cdn.com/20200829/1fa01e34ca7b67bb66b80907ef131b23.jpg
https://uploads.tapatalk-cdn.com/20200829/a89d885afcbb003d0e165154cfa58dc0.jpg
Inviato dal mio iPad utilizzando Tapatalk
redbaron
29-08-2020, 09:21
https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-Phoenix-Specs-1.jpg
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3080-Phoenix-Specs.jpg
fraussantin
29-08-2020, 09:21
Hahahahahaah
Però cavolo, tanto silenzio su big navi in questo momento, non ci voleva...
Inviato dal mio iPad utilizzando TapatalkScherzi a parte ,secondo me amd aspetta che Nvidia cali le sue carte e i prezzi e poi agirà di conseguenza.
Io farei lo stesso a sto punto. Si é già scottata con navi sbagliano a prezzarle non può ripetere l'errore.
Come Nvidia non può abbassare il prezzo subito dopo il lancio.
Thunder-74
29-08-2020, 09:25
Scherzi a parte ,secondo me amd aspetta che Nvidia cali le sue carte e i prezzi e poi agirà di conseguenza.
Io farei lo stesso a sto punto. Si é già scottata con navi sbagliano a prezzarle non può ripetere l'errore.
Come Nvidia non può abbassare il prezzo subito dopo il lancio.
Possibile....
Inviato dal mio iPad utilizzando Tapatalk
Thunder-74
29-08-2020, 09:32
Design orrendo questo di gainward, anche zotac dei cessi, se non tirano fuori una bella strix, vado di fe pure a sto giro.:D
Vedrai che ci sarà un dilagare di slide delle varie marche.
Io fossi in te, visto che devi stare ad aria e queste scalderanno tanto, aspetterei delle recensioni per capire quella più efficiente
Inviato dal mio iPad utilizzando Tapatalk
redbaron
29-08-2020, 09:40
Design orrendo questo di gainward, anche zotac dei cessi, se non tirano fuori una bella strix, vado di fe pure a sto giro.:D
Mi sembrano ,come al solito, due approcci differenti. Molto pulito e si spera anche efficace quello di nvidia, old style tre ventoloni e tanta plastica quello dei partner...
Anche a me queste gainward mi fanno abbastanza cagxxx
devAngnew
29-08-2020, 09:50
Nvidia adotterà un sistema simile ad amd per usare la RAM di sistema.
Ma serviranno 32 giga di RAM .
Se uno non li tiene e deve spendere 100 150 euro per upgradarli tanto vale prendere la versione maggiorata.
Ammesso che funzioni bene.
Questa scelta fa già capire che con la next gen 8\10 giga sono pochi per maxare.
Poi sarà da vedere quanto cambia a vista scalando un po' le texture . Ma per le cifre chieste rimane il sapore di amaro in bocca.
Non siamo su multiplayer.it , penso che qui tutti sappiano che la RAM non misura la potenza , ma se fai partire un gioco maxato e inizia a stutterare o iniziano a sparire texture per la mancanza di vram dopo aver speso 1000 euro penso che qualche santo salti giú dalla sua nuvola!
Son diverse pagine che cerco di farlo capire ma qui ci son troppi professori, e pochi allievi. Ci vorrebbe un pò più senso "scientifico" anziché partire a spada tratta. :D
https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed
Che caccole :doh: :doh:
confermati i 10gb sulla 3080... :rolleyes: :doh:
Mica scemi... vogliono che quelli della 2080ti passino per forza di cose sulla 3090.... (24Gb... voglio proprio vedere il prezzo! :asd: )
... e tra un 6 mesi poi esce la 3080ti/super/plus/salcazzo con 20gb... sicuro come la morte! :O
ps: bruttine, le gainward...
In anteprima la prova di un primo esemplare di 3090
https://scontent-fco1-1.xx.fbcdn.net/v/t1.0-9/118570822_3382581328467136_1734474860607039722_n.jpg?_nc_cat=104&_nc_sid=730e14&_nc_ohc=DQHP5-lhbnYAX_AtKPs&_nc_ht=scontent-fco1-1.xx&oh=8c10155ff54b99fced72233257307702&oe=5F7155C5
fraussantin
29-08-2020, 10:04
https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-Phoenix-Specs-1.jpg
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3080-Phoenix-Specs.jpg
Confermato che la 3080 non avrà sli .
Non che abbia senso ok almeno in gaming , ma per sicurezza sia mai che qualcuno per qualche uso particolare preferisca 2 3080 ad una 3090 ...
devAngnew
29-08-2020, 10:09
confermati i 10gb sulla 3080... :rolleyes: :doh:
Mica scemi... vogliono che quelli della 2080ti passino per forza di cose sulla 3090.... (24Gb... voglio proprio vedere il prezzo! :asd: )
... e tra un 6 mesi poi esce la 3080ti/super/plus/salcazzo con 20gb... sicuro come la morte! :O
ps: bruttine, le gainward...
Anche le refenrence non scherzano :asd: preferisco il design di turing :O
Non mi avranno mai:D :D :D :D 3090 a 1500/1600 euro NOOOOOOO:p :p
Faró il pezzente peasant con soli 10gb di vram :Prrr:
Scherzi a parte, a sto giro la scelta giusta sarebbe aspettare un pochetto, per vederle tutte fuori.. JHH ha ben altro dentro quel cilindro.
Io già ti vedo in banca a chiedere un prestito per la 3090 :sofico: :asd:
devAngnew
29-08-2020, 10:13
Confermato che la 3080 non avrà sli .
Non che abbia senso ok almeno in gaming , ma per sicurezza sia mai che qualcuno per qualche uso particolare preferisca 2 3080 ad una 3090 ...
A quanto pare vogliono evitare di far spedere meno e usarne un paio per il rendering con un nvlink. Questo è proprio un colpo basso... :muro:
thunderforce83
29-08-2020, 10:13
Ragazzi, AMD ha calato l asso contro Ampere...
https://wccftech.com/amd-silently-launches-radeon-rx-5300-3-gb-graphics-card/
:D
@Tiger , bravo l incognita da risolvere erano i due spicci... valore puramente soggettivo ;)
Inviato dal mio iPad utilizzando Tapatalk
sempre piu' scandalosa amd...a questo punto abbiamo capito tutti che le prossime schede rosse saranno l'ennesima presa per il :ciapet:
terranux
29-08-2020, 10:15
https://postimg.cc/XXBCZSn2 ma questo và bene?:)
Non mi avranno mai:D :D :D :D 3090 a 1500/1600 euro NOOOOOOO:p :p
.
Anche io mi rifiuto di spendere 1500-1700 euro per una 3090.
Siamo al delirio totale,compresa la questione dell’alimentatore, ma non è mia intenzione avviare una campagna denigratoria contro Nvidia.
Ognuno fa le sue opportune considerazioni e acquista quello che vuole.
Ma non amo sentire che è giustificato,perchè i chip sono più complessi e bla bla bla visto che ci vengono venduti anche lo scarto delle Gpu.
Ogni epoca ha avuto le sue complessità e costi di produzione aumentati per una nuova architettura ma senza superare abbondantemente il doppio del target del prezzo finale.
Faró il pezzente peasant con soli 10gb di vram :Prrr:
secondo me ti conviene attendere tranquillo con la tua 2080ti e vedere un po' che succede fra qualche mese ;) , tanto non penso che al momento tu stia "appeso", come prestazioni :sofico:
maxmix65
29-08-2020, 10:27
Non mi avranno mai:D :D :D :D 3090 a 1500/1600 euro NOOOOOOO:p :p
Faró il pezzente peasant con soli 10gb di vram :Prrr:
Scherzi a parte, a sto giro la scelta giusta sarebbe aspettare un pochetto, per vederle tutte fuori.. JHH ha ben altro dentro quel cilindro.
Anche io mi rifiuto di spendere 1500-1700 euro per una 3090.
Siamo al delirio totale,compresa la questione dell’alimentatore, ma non è mia intenzione avviare una campagna denigratoria contro Nvidia.
Ognuno fa le sue opportune considerazioni e acquista quello che vuole.
Ma non amo sentire che è giustificato,perchè i chip sono più complessi e bla bla bla visto che ci vengono venduti anche lo scarto delle Gpu.
Ogni epoca ha avuto le sue complessità e costi di produzione aumentati per una nuova architettura ma senza superare abbondantemente il doppio del target del prezzo finale.
A 1500€ ve la fanno vedere e la rimettono nello scaffale...
devAngnew
29-08-2020, 10:27
secondo me ti conviene attendere tranquillo con la tua 2080ti e vedere un po' che succede fra qualche mese ;) , tanto non penso che al momento tu stia "appeso", come prestazioni :sofico:
È già a piedi l'ha venduta... :asd: e poi 10GB son megl che 11GB :asd: :sofico:
freddye78
29-08-2020, 10:28
Chissà se finalmente a sto giro tra prezzi altissimi, maggiore consumo e calore, nvidia non spezzi la corda con i consumatori che sta tirando da almeno un paio di generazioni di GPU.
2000 euro per una GPU consumer, praticamente come un PC intero di fascia altissima, una follia a cui i consumatori dovrebbero porre un freno lasciandogliela prendere polvere nei magazzini.
Ma non mi illudo che accadrà, visto l'hype che vedo per queste schede :asd:
A 1500€ ve la fanno vedere e la rimettono nello scaffale...
Appunto,motivo per cui non le voglio nemmeno vedere :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.