View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
OrazioOC
08-07-2020, 10:23
La 1070 non andava quanto la 980 Ti.
In alcuni giochi si avvicinava, in altri la 980 Ti era testa a testa con la 1080.
No, assolutamente, la 1070 già al d1 era superiore alla 980 ti, e la 1080 la staccava di netto.
https://www.techpowerup.com/review/nvidia-geforce-gtx-1070/24.html
Che poi la 980 ti custom guadagnasse un 10% tranquillamente dalla reference è un altro discorso, ma anche da custom, la 1070 rimane sopra.
No, assolutamente, la 1070 già al d1 era superiore alla 980 ti, e la 1080 la staccava di netto.
https://www.techpowerup.com/review/nvidia-geforce-gtx-1070/24.html
Che poi la 980 ti custom guadagnasse un 10% tranquillamente dalla reference è un altro discorso, ma anche da custom, la 1070 rimane sopra.
Dipende dai clock...
La reference nel migliore dei casi con l'Asic più alto possibile arriva massimo a 1200mhz...
Le custom come la strix o la gigabite G1 bostano oltre i 1400mhz, la mia ad esempio che è il modello xtreme gaming boosta a 1430 a default e non è neanche tra le più fortunate, altri chip boostano anche a 1455mhz a default.
Poi essendo un chippone con 2816cc lo scaling in OC è maggiore della 1070, anche se la 1070 è un chip molto più snello e con meno latenza oltre alla compressione migliorata quindi a seconda del titolo se la gioca, ma bene o male vanno a braccetto, la 980ti è molto muscle come chip e nei titoli non ottimizzatissimi è difficile sfruttare tutte le risorse a dovere, oggi comunque sono tutti chip che si paragonano a una 1660s/TI e con il prossimo step di ampere probabilmente saranno performance da x50ti.
OrazioOC
08-07-2020, 11:05
Dipende dai clock...
La reference nel migliore dei casi con l'Asic più alto possibile arriva massimo a 1200mhz...
Le custom come la strix o la gigabite G1 bostano oltre i 1400mhz, la mia ad esempio che è il modello xtreme gaming boosta a 1430 a default e non è neanche tra le più fortunate, altri chip boostano anche a 1455mhz a default.
Poi essendo un chippone con 2816cc lo scaling in OC è maggiore della 1070, anche se la 1070 è un chip molto più snello e con meno latenza oltre alla compressione migliorata quindi a seconda del titolo se la gioca, ma bene o male vanno a braccetto, la 980ti è molto muscle come chip e nei titoli non ottimizzatissimi è difficile sfruttare tutte le risorse a dovere, oggi comunque sono tutti chip che si paragonano a una 1660s/TI e con il prossimo step di ampere probabilmente saranno performance da x50ti.
Infatti il dissipatore della 980 ti reference è sottodimensionato per la gpu che è, da custom già solo di boost si prende tranquillamente 150/200 mhz in più sul core clock senza toccare nulla.
Però è una scheda che aveva un tdp importante(da custom se non prende 300w poco ci manca) e con una architettura fortissima in dx11 ma molto meno nel 12/vulkan.
Nel 2016 onestamente c'erano pochi dubbi tra la gpu su cui puntare, ovviamente l'ha spuntata la 1070 ma la 980 ti si è dimostrata veramente longeva, anche più della rivale fury x.
mikael84
08-07-2020, 11:15
Mikael io un salto dell'85% tra 980ti e 1080ti proprio non me lo ricordo, a me sembra piu un 50%, che è comunque tanto rispetto al passaggio 1080ti e 2080ti che è stato del 20/30%.
Su TPU siamo ad oltre l'85%
https://tpucdn.com/review/nvidia-geforce-gtx-1080-ti/images/perfrel_3840_2160.png
Su cpbase al 75%
https://i.postimg.cc/RZ2cDhvD/esa.png
Non ti porto tutte le medie, ma siamo tra il 75/85%
Basta farsi anche un calcolino ipotetico.
GTX 980ti stock (6,3tf)
GTX 1080ti stock (12tf circa).
In rapporto la 1080ti è vicina al 2x teorico di potenza bruta.:)
Il salto, stando a techpowerup, era in media del 53%.
No ricontrolla, 85%
https://tpucdn.com/review/nvidia-geforce-gtx-1080-ti/images/perfrel_3840_2160.png
Che poi come detto su, il rapporto a stock è di 2x flops, è come dire che la 3080ti dovrebbe toccare 30tf per fare quei valori, considerando che la 2080ti boosta per tensione mediamente in downclock a 1750/1800.
Non avrebbe minimamente alcun senso fare uscire tanti modelli (3070, 3070 Ti, 3080 e 3080 Ti/3090) e piazzare la 3070 liscia (che tra i 4 modelli sarebbe quello meno performante) allo stello livello della 2080 Ti.
Se il chip della 3070, è simile a quello della 2080s, non vedo come a cambio nodo ed IPC non possa fare meglio, e la 2080ti e al 18/20% dalla super.:)
La 1070 non andava quanto la 980 Ti.
In alcuni giochi si avvicinava, in altri la 980 Ti era testa a testa con la 1080.
Come no, in queste medie sta a quasi il 14% sopra.
https://i.postimg.cc/hvSmF7zK/usa.png
La 980ti era più muscle, nonostante mega OC, perdeva quasi sempre dalla 1070 in gaming
https://www.youtube.com/watch?v=3INh5i5waSw
Senza considerare che i 1500 io me li scordavo, stavo a max 1400.:p
No, assolutamente, la 1070 già al d1 era superiore alla 980 ti, e la 1080 la staccava di netto.
https://www.techpowerup.com/review/nvidia-geforce-gtx-1070/24.html
Che poi la 980 ti custom guadagnasse un 10% tranquillamente dalla reference è un altro discorso, ma anche da custom, la 1070 rimane sopra.
Vero.
Qua si confronta una 980ti a 1500 (io arrivavo a 1400), e la 1070 OC vince.
Sui vari vulkan allunga pure.
https://www.youtube.com/watch?v=3INh5i5waSw
OrazioOC
08-07-2020, 11:19
Vero.
Qua si confronta una 980ti a 1500 (io arrivavo a 1400), e la 1070 OC vince.
Sui vari vulkan allunga pure.
https://www.youtube.com/watch?v=3INh5i5waSw
Era un progetto più moderno la 1070, consumava tra le 160 e le 180w a seconda dell'overclock di fabbrica delle custom, scalava decentemente in overclock, aveva 2gb di vram in più e come chip era anche meglio bilanciato.
La 980 ti è stata una grandissima scheda, ma pascal con quel pp era semplicemente una scelta migliore.
Infatti il dissipatore della 980 ti reference è sottodimensionato per la gpu che è, da custom già solo di boost si prende tranquillamente 150/200 mhz in più sul core clock senza toccare nulla.
Però è una scheda che aveva un tdp importante(da custom se non prende 300w poco ci manca) e con una architettura fortissima in dx11 ma molto meno nel 12/vulkan.
Nel 2016 onestamente c'erano pochi dubbi tra la gpu su cui puntare, ovviamente l'ha spuntata la 1070 ma la 980 ti si è dimostrata veramente longeva, anche più della rivale fury x.
E' pur sempre un chippone, io personalmente la tengo a default 1430/7200 solo in qualche titolo se noto incertezze uso il collegamento rapido di MSI AB per il profilo 1500/8000 rimanendo comunque silenziosa intorno ai 65°, andare oltre ad aria non conviene molto non tanto per la temperatura avendo un ottimo dissi ma proprio per la rumorosità.
Ma oramai arrivati al 2020-2021 sono tutti chip che al prossimo step avranno performance da entry level.
Crysis90
08-07-2020, 11:25
La 980ti era più muscle, nonostante mega OC, perdeva quasi sempre dalla 1070 in gaming
https://www.youtube.com/watch?v=3INh5i5waSw
Nel video si vede chiaramente come ci sia una differenza di 3-5 FPS in base al gioco, in alcuni casi a favore della 980 Ti in altri a favore della 1070.
Come fate a dire che è più veloce del 15%. :boh:
Le medie lasciatele perdere, analizziamo i dati crudi.
Vero ma Nvidia ultimamente ha fatto la bravata di lanciare la 2070S e 2080S e quindi non è da scartare come possibilità.
Ma quei modelli hanno sostituito gli altri, non è che li hanno affiancati.
E' diverso.
Le versioni non-Super sono andate in EOL e non sono state più prodotte.
DarkNiko
08-07-2020, 11:26
Secondo me col discorso dei tensor core e del fatto che queste vga sono oramai coniugate sia per utilizzi professionali (come valide alternative alle Tesla) che in ambito videoludico, prepariamoci a prezzi base a 3 zeri, almeno per le proposte di fascia alta (nemmeno enthusiast), poi felice di venir smentito.
Del resto, ancora oggi, le 2080Ti hanno mantenuto il loro prezzo a distanza di 1 anno circa.
mikael84
08-07-2020, 11:30
Era un progetto più moderno la 1070, consumava tra le 160 e le 180w a seconda dell'overclock di fabbrica delle custom, scalava decentemente in overclock, aveva 2gb di vram in più e come chip era anche meglio bilanciato.
La 980 ti è stata una grandissima scheda, ma pascal con quel pp era semplicemente una scelta migliore.
Si, grazie al clock è stata un gioiellino, perchè abbinava numeri puri ( stava quasi 1tf sopra la 980ti a stock) ed aveva meno ALU ma molto più clockate, e non ammazzava il gigathread.
Perdeva sulle primitive e un tantino sulla BW, ma il clock e la compressione compensavano in gran parte.
La 1080 invece è stata un tantino strozzata dalle ddr5x a soli 10gb/s, la grande micron, che prometteva 16gb/s.:p
OrazioOC
08-07-2020, 11:31
E' pur sempre un chippone, io personalmente la tengo a default 1430/7200 solo in qualche titolo se noto incertezze uso il collegamento rapido di MSI AB per il profilo 1500/8000 rimanendo comunque silenziosa intorno ai 65°, andare oltre ad aria non conviene molto non tanto per la temperatura avendo un ottimo dissi ma proprio per la rumorosità.
Ma oramai arrivati al 2020-2021 sono tutti chip che al prossimo step avranno performance da entry level.
Dipende molto dalle custom, come sempre alcune sono meglio di altre e boostano meglio a parità di temperatura, schede come la gigabyte g1, msi gaming/lightning, asus strix e evga ftw erano le migliori.
Si ormai è una scheda che è a livello di una 1660 super, va' benissimo per il full hd magari 144hz a seconda del titolo e dei dettagli e qualcosina in 1440p.
Ma per chi vuole una scheda da maxed out negli ultimi tripla a, di tempo per prendersi qualcosa che andasse meglio ne ha avuto.
Anche una 2070 o una 5700 xt sono upgrade significativi per quella, soprattutto nei titoli dx 12 e vulkan.
Crysis90
08-07-2020, 11:32
Del resto, ancora oggi, le 2080Ti hanno mantenuto il loro prezzo a distanza di 1 anno circa.
2 anni.
La 2080 Ti è uscita a Settembre 2018.
Ed è ovvio che i prezzi non siano scesi, se non c'è concorrenza i prezzi non scendono.
E con questa sono 11. :D :D :read:
Nel video si vede chiaramente come ci sia una differenza di 3-5 FPS in base al gioco, in alcuni casi a favore della 980 Ti in altri a favore della 1070.
Come fate a dire che è più veloce del 15%. :boh:
Le medie lasciatele perdere, analizziamo i dati crudi.
Ma infatti prestazionalmente vanno a braccetto, da una parte hai un chip più snello ed efficiente con clock più alti, meno latenze e miglior compressione e dall'altra un chip più carrozzato in HW.
Tra Maxwel e Pascal l'IPC è quello, ma strutturalmente 980ti e 1070 sono completamente diverse, quindi è normale che a seconda del contesto ci siano differenze ma personalmente non mi ci soffermerei neanche più di tanto...
Oramai come dicevo arrivati al 2020 è proprio inutile porsi il problema il target prestazionale in cui risiedono è quello e al prossimo step sono tutte entry level...
belle schede, se non sbaglio inserirono qualche blocco già da pascal giusto? il voltaggio delle 1080ti se non ricordo era davvero risicato (sopratutto sulla mia sc2, che nonostante tutto prendeva i 2130mhz)
si era il periodo in cui ho smesso di seguire per qualche mese ma si parlava di deviatori di tensione aggiuntivi volgarmente resistenze shunt.
I 2130 sono figli salto litografico -12 e loro lo sapevano al campo base.
Il discorso è che nvidia impara dagli errori se con la serie 900 dava un bigbus da 384 un chip che anche non binned prendeva +200 il tutto sotto le 700usd
con pascal ha pensato bene di rivedere la situazione.
La serie 10 aveva gia il collo tirato via clock, poi hanno pensato bene di non potenziare il pcb -cosa fatta in turing-
Un pascal con la sezione di alimentazione robusta stile rtx avrebbe garantito clock superiori quando andava gia fortissimo gp102 col bus azzoppato e vram segata.
Per loro maxwell 2 fu un anomalia forse col nodo pleistocenico si attendevano prestazioni inferiori in oc. è l unica spiegazione.
Discorso paragoni come diceva ubro cambia tanto da un titolo ad un altro, le 1070 e le 1080 lisce diventano assimilabili solo per l'enorme elasticità
in materia di overclock di gm200.
E li non c'è una regola chi ha la 980ti piu cazzuta le suona alla 1070 e pure alle 1080 stock -clock 1500-
Come sarebbe sbagliato consigliare di cambiare a prescindere perche ormai la serie 9 è superata. Magari si ha un signor chip che va come gp104.
Idem per chi ha serie 10 con pcb a regolatori di tensione maggiorati.
OrazioOC
08-07-2020, 11:36
Si, grazie al clock è stata un gioiellino, perchè abbinava numeri puri ( stava quasi 1tf sopra la 980ti a stock) ed aveva meno ALU ma molto più clockate, e non ammazzava il gigathread.
Perdeva sulle primitive e un tantino sulla BW, ma il clock e la compressione compensavano in gran parte.
La 1080 invece è stata un tantino strozzata dalle ddr5x a soli 10gb/s, la grande micron, che prometteva 16gb/s.:p
Beh nel caso della 1080 ci sono state anche le revisioni con le 11gbps, e il guadagno era veramente risibile, la 1080 tutto sommato è ben bilanciata e non aveva problemi di BW a differenza della 1070 ti, stesso chip ma con le classiche gddr5.
mikael84
08-07-2020, 11:38
Nel video si vede chiaramente come ci sia una differenza di 3-5 FPS in base al gioco, in alcuni casi a favore della 980 Ti in altri a favore della 1070.
Come fate a dire che è più veloce del 15%. :boh:
Le medie lasciatele perdere, analizziamo i dati crudi.
Si parla sempre dei valori a stock, perchè è il valore di riferimento. I valori in OC lasciano il tempo che trovano, perchè non attuabili da tutti.
Nel video, la 1070 vince 8 volte su 6, ma la 980ti clocka a 1500, io ad esempio mi fermavo a 1400. Tantissimi i 1500 stabili non li vedevano mai.
Chiaro che la 980ti essendo più muscle, in parte recupera, ma come puoi vedere viene battuta, in tutte le condizioni.:)
E considera che non ci sono vulkan o simili.
Crysis90
08-07-2020, 11:39
Ma infatti prestazionalmente vanno a braccetto
Guarda che è quello che dico io, ma in giro si parla di differenze del 15%. :mbe:
Si parla sempre dei valori a stock, perchè è il valore di riferimento. I valori in OC lasciano il tempo che trovano, perchè non attuabili da tutti.
Nel video, la 1070 vince 8 volte su 6, ma la 980ti clocka a 1500, io ad esempio mi fermavo a 1400. Tantissimi i 1500 stabili non li vedevano mai.
Chiaro che la 980ti essendo più muscle, in parte recupera, ma come puoi vedere viene battuta, in tutte le condizioni.:)
E considera che non ci sono vulkan o simili.
Nel video che hai postato tu, la 980 Ti non viene battuta in tutte le condizioni e comunque 3-4 FPS in più a favore della 1070 non la fanno di certo più veloce del 15%.
Guarda che è quello che dico io, ma in giro si parla di differenze del 15%. :mbe:
quindi pascal => turing 2.0?
No dai non ci credo in differenze cosi` contenute.
No ricontrolla, 85%
https://tpucdn.com/review/nvidia-geforce-gtx-1080-ti/images/perfrel_3840_2160.png
vabbe`, a 4k, dove la 980ti aveva 6GB...a 1080p il boost era del 50%.
max oc vs max oc, la differenza diminuiva ulteriormente.
Crysis90
08-07-2020, 11:46
quindi pascal => turing 2.0?
Penso tu volessi scrivere Turing => Pascal 2.0.
Anche se il salto che c'è stato tra Pascal e Maxwell è stato superiore secondo me rispetto a quello che c'è stato tra Pascal e Turing.
Comunque no, perchè quì si parlava di 980 Ti vs. 1070 e di 2080 Ti vs. la futura 3070.
Ripeto che non avrebbe assolutamente alcun senso per NVidia segmentare troppo una fascia di nicchia come quella enthusiast, se veramente la 3070 rullasse quanto una 2080 Ti poi si ritroverebbero 3 modelli (3070 Ti, 3080 e 3080Ti/3090) a farsi la concorrenza da soli e 3 modelli sono troppi in uno spazio di mercato così di nicchia.
NVidia rischierebbe solo di scontentare i partners ed i rivenditori, con i magazzini pieni di schede destinate ad utenze premium ma con differenze prestazionali poco giustificabili per la fascia di prezzo a cui vengono proposte.
mikael84
08-07-2020, 11:54
Beh nel caso della 1080 ci sono state anche le revisioni con le 11gbps, e il guadagno era veramente risibile, la 1080 tutto sommato è ben bilanciata e non aveva problemi di BW a differenza della 1070 ti, stesso chip ma con le classiche gddr5.
Beh, io l'avevo ed i sintetici lo dimostravano. Nei giochi, dipende sempre dal motore.
Nel video che hai postato tu, la 980 Ti non viene battuta in tutte le condizioni e comunque 3-4 FPS in più a favore della 1070 non la fanno di certo più veloce del 15%.
Il 14% è il dato delle review a stock, non il dato in max OCm che come detto prima, non tutti prendevano, io mi fermavo a 1400 ad esempio.
Come detto su, la 980ti è più muscle ed in parte recupera lo svantaggio, ma anche in condizioni fuori dalle medie di molti, la 1070 vince in più giochi.
1070 stock: 7tf
980ti stock:6,3tf circa
1070 a 2080 8tf circa
980ti a 1500 8,4tf.
vabbe`, a 4k, dove la 980ti aveva 6GB...a 1080p il boost era del 50%.
max oc vs max oc, la differenza diminuiva ulteriormente.
1080p neppure presa come riferimento per una 1080ti appena uscita. Già in 1440p torna nel range indicato.
Se parliamo di OC, anche la 1080ti saliva bene, perchè nelle review boostava molto bassa (1650), ed arrivava sopra i 2000 con più stadi moltiplicatori.;)
sostanzialmente i modelli gm200 che navigano intorno agli 8tf possono dare filo da torcere alle pascal stock. ripeto sotck.
Tutto molto interessante per essere un vecchia scheda.
Stesso discorso per gp102 su tu102 dove il margine è risicato non hanno 12nm di separazione.
Ho piu dubbi ne confronto turing ampere forse la 2080ti non sara cosi longeva come le precedenti - uscita con tempistica anomala-
mikael84
08-07-2020, 14:25
sostanzialmente i modelli gm200 che navigano intorno agli 8tf possono dare filo da torcere alle pascal stock. ripeto sotck.
Tutto molto interessante per essere un vecchia scheda.
Stesso discorso per gp102 su tu102 dove il margine è risicato non hanno 12nm di separazione.
Con TU102, c'è stato un cambio micro architetturale, introducendo vari aspetti pro, come nvlink-RT-tensor, e purtroppo i clock sono rimasti quelli.
Pascal, come maxwell, via dx11 sono architetture quasi perfette. Difficile fare molto meglio con lo stesso PP in linea di massima.:)
Ho piu dubbi ne confronto turing ampere forse la 2080ti non sara cosi longeva come le precedenti - uscita con tempistica anomala-
Si, il punto di forza di Ampere non sarà puramente raster, ma RT, e pro sui big chip.
Una 2080ti potrebbe anche mediamente in OC essere superiore al GA104, ma se quest'ultima lo passa facilmente in RT, il finale è scritto.
Cyberpunk, potrebbe essere un bel banco di pro per GA104.:)
Bisognerebbe secondo me fare una stima della perdita di prestazioni quando si attiva il raytracing. Facciamo un esempio, cerco di basarmi su cosa ho avuto modo di provare io. Posseggo una 2080 liscia raffreddata a liquido ed occata a 2130/2115Mhz (clock che mi varia in base alle temp). Provando Bright Memory in raster a 1080p ho un framerate medio di 120fps e forse anche più, attivando il raytracing e senza dlss il framerate medio si dimezza quindi c'è una perdita del 50% di prestazioni quando si attiva il Raytracing. Ora non so come si comporta nel medesimo scenario una 2080ti. Ora se una 3080 pareggiasse la 2080ti in raster e subisse una perdita di prestazioni in Raytracing nell'ordine del 15%medio si otterrebbe praticamente in Raytracing il doppio delle prestazioni e sarebbe davvero tanta roba e credo che nvidia stia puntando proprio su questo scenario di differenzazione prestazionale, ovvero in raster miglioramento minimo ed in Raytracing miglioramento esagerato, in più faranno anche uscire una nuova versione del dlss ed ecco una bella 3080 liscia alla modica cifra di 899$
Thunder-74
08-07-2020, 15:38
NVIDIA’s RTX 3000 Series ‘Ampere’ Flagship Will Have 627mm² Large Die?
LINK (https://wccftech.com/nvidia-ampere-gpu-gaming-627mm-2-die/)
L'RTX 2080 Ti aveva un 754mm² ma era basato sul processo a 16 nm (12 NFF è essenzialmente 16 nm FF con ottimizzazioni). Il passaggio al processo a 8 nm di Samsung (che è fondamentalmente a 10 nm con ottimizzazioni) dovrebbe consentire un minimo del 30% in più di densità di tenuta costante e tenendo conto di un assorbimento di potenza leggermente maggiore. Ciò significa che stai osservando l'equivalente di una GPU da 895 mm² fabbricata con il processo 12NFF.
https://cdn.wccftech.com/wp-content/uploads/2020/07/Package-1320x723-1-1030x564.jpg
Modalità "chiacchiere da BAR" ON.... :D
OrazioOC
08-07-2020, 16:00
Solo il 20% di riduzione nel die size?Siamo ancora belli lontani dalla grandezza di gp102.
Praticamente GA104 sarebbe sulle 450 mm^2 circa e GA106 tra i 350 e i 400 mm^2, sono ancora die cicciotti.
Questo che vorrebbe dire? Prestazioni superiori a prezzi inferiori?
mikael84
08-07-2020, 16:09
NVIDIA’s RTX 3000 Series ‘Ampere’ Flagship Will Have 627mm² Large Die?
LINK (https://wccftech.com/nvidia-ampere-gpu-gaming-627mm-2-die/)
L'RTX 2080 Ti aveva un 754mm² ma era basato sul processo a 16 nm (12 NFF è essenzialmente 16 nm FF con ottimizzazioni). Il passaggio al processo a 8 nm di Samsung (che è fondamentalmente a 10 nm con ottimizzazioni) dovrebbe consentire un minimo del 30% in più di densità di tenuta costante e tenendo conto di un assorbimento di potenza leggermente maggiore. Ciò significa che stai osservando l'equivalente di una GPU da 895 mm² fabbricata con il processo 12NFF.
Modalità "chiacchiere da BAR" ON.... :D
E' da tempo che circola quel die. Di certo pare davvero un 8nm.
Teoricamente a 12nm è più un 880mm2, ma ci può anche stare un circa 900mm2.
Vista così, non pare aggiungere molto, Turing con un GPC in più da 72, sarebbe grande circa 826mm2.
La cache dovrebbe passare da 6 a 12, quasi obbligatoriamente, occupando peso nei canali di collegamento.
Rop's uguali.
I tensor doppi pesano su turing circa 70mm2, che su ampere occupano 2x quelli di turing.
Questo potrebbe far pensare a dei tensor new gen dimezzati., ma sempre molto più potenti rispetto a turing.
Dovrebbero ampliare la cache SM/l1/load, ma dovrebbe comportare solo 2,6mb.
Nvlink dovrebbe essere maggiorato, di almeno 2x in peso.
E' una fase tock, non mi aspetto miracoli, micro architetturali.
Solo il 20% di riduzione nel die size?Siamo ancora belli lontani dalla grandezza di gp102.
Praticamente GA104 sarebbe sulle 450 mm^2 circa e GA106 tra i 350 e i 400 mm^2, sono ancora die cicciotti.
Circa 40%, considera che non è uno shrink, ha 7 GPC, più cache l2 etc.
Nessun miracolo.
AMD è in netto vantaggio.
Solo il 20% di riduzione nel die size?Siamo ancora belli lontani dalla grandezza di gp102.
Praticamente GA104 sarebbe sulle 450 mm^2 circa e GA106 tra i 350 e i 400 mm^2, sono ancora die cicciotti.
Si parla di una scheda 8nm (un 10 rivisitato), i 7nm+ come densità sono di un altro livello.
appleroof
08-07-2020, 16:43
Scusate ma cosa c'è di ottimo un una 3070 che andrebbe poco più di una 2070S con la solita vram ? Allo stesso prezzo poi se non di più .
Boh.
per chi ha già una 2070s o 2080 o 2080s nulla, per chi deve fare un upgrade più sostanzioso pariprezzo meglio una 3070 che 2080 o 2070
Esatto, io vengo da una gloriosa vecchietta, quindi discorso per me eccellente
Io credo che a def la prenda . Tra una 2080 e la 2080s ci sono il 5 per cento di prestazioni in più , quindi ampiamente colmato dal nuovo PP/cache ecc. Questo nei titoli raster , in RT dovrebbe distanziarla di parecchio dato che si dice che una 3060 sarà equiparabile ad una 2080ti in tale ambito
Inviato dal mio iPhone X utilizzando Tapatalk
Sarebbe ottimo, nel raster avrei comunque un grosso boost e pure nel RT rispetto ad una serie 2000, sperem...
Bella Apple, come va...:)
Si teoricamente dovrebbe essere così.
La 3070 pare adottare il chip visto con la 2080s, ma pompato in clock e IPC cache.
Bella schedina che suo pure io.
In RT prove non abbiamo, per ora abbiamo visto dei tensor pazzeschi sul chip HPC, ma in linea di massima dovrebbe essere il suo vero punto di forza, tanto che penso che JHH, parlerà sopratutto del RT e dei numeri teorici.:)
Ti leggo ora.:p
La 2080ti di base è potente, ha un boost base un tanto più basso, ma ha un'architettura che i motori grafici sfruttano male, è una scheda più che altro pensata per il calcolo puro.
Rimane ovviamente più muscle di un chip con molti meno cc.
Beh i tagli non si conoscono, dovremmo partire per ora da una base che è quella di una 2080/s, ma con i vantaggi del nuovo PP ed IPC.:)
Dubito che lancino subito 2 schede con soli 128cc di differenza.:p
Ciao Mike :) scusami, quando dici lo stesso chip della 2080s intendi solo come numeri di cuda core etc, perché l'architettura è anche per quella la nuova, corretto? O è un semplice due shrink del chip montato su 2080s? Perché se così fosse mi sposterei sulla fantomatica 3070ti o 3080..
Thunder-74
08-07-2020, 16:55
Caro Apple prepara i dindi che ci sarà da spendere :fagiano:
OrazioOC
08-07-2020, 16:55
Circa 40%, considera che non è uno shrink, ha 7 GPC, più cache l2 etc.
Nessun miracolo.
AMD è in netto vantaggio.
Si non ho considerato il gpc in più di ampere, però sono die oggettivamente cicciotti, quindi il costo per produrrli sarà comunque alto.
mikael84
08-07-2020, 17:00
Ciao Mike :) scusami, quando dici lo stesso chip della 2080s intendi solo come numeri di cuda core etc, perché l'architettura è anche per quella la nuova, corretto? O è un semplice due shrink del chip montato su 2080s? Perché se così fosse mi sposterei sulla fantomatica 3070ti o 3080..
Si il chip delle 3070 GA104 (i nomi ancora non si conoscono di preciso), dovrebbe essere una sorta di shrink di TU104, ovvero quello della 2080/2080s, ma con varie migliore, cache, clock etc.
Sarà ad 8gb su 256 bit e ram più veloci delle 2080 standard.
Per me (almeno nel mio caso), con i prezzi folli, potrebbe essere un best buy.
Da questo chip faranno 2/3 scarti.
La 3080 sarà invece lo scarto, dello scarto di GA102, e per specifiche dovrebbe essere simile alla 2080ti (4352cc), ma con ovviamente salto nodo (piccolo) ed IPC, cache etc.:)
Caro Apple prepara i dindi che ci sarà da spendere :fagiano:
Anche se ultimamente non mi consideri più, perchè ti ho fregato con la super.
Ti aspetto a settembre, ho qualcosa per te a soli 1500 euro.
Vedrai che luci.
https://www.vortez.net/news_file/17524_nvidia-mwc-la-2019-keynote-1.jpg
appleroof
08-07-2020, 17:57
Caro Apple prepara i dindi che ci sarà da spendere :fagiano:
Quello è sottinteso :cry:
Si il chip delle 3070 GA104 (i nomi ancora non si conoscono di preciso), dovrebbe essere una sorta di shrink di TU104, ovvero quello della 2080/2080s, ma con varie migliore, cache, clock etc.
Sarà ad 8gb su 256 bit e ram più veloci delle 2080 standard.
Per me (almeno nel mio caso), con i prezzi folli, potrebbe essere un best buy.
Da questo chip faranno 2/3 scarti.
La 3080 sarà invece lo scarto, dello scarto di GA102, e per specifiche dovrebbe essere simile alla 2080ti (4352cc), ma con ovviamente salto nodo (piccolo) ed IPC, cache etc.:)
Anche se ultimamente non mi consideri più, perchè ti ho fregato con la super.
Ti aspetto a settembre, ho qualcosa per te a soli 1500 euro.
Vedrai che luci.
https://www.vortez.net/news_file/17524_nvidia-mwc-la-2019-keynote-1.jpg
E come potrebbe avere più prestazioni in RT se è un semplice shrink? Cioè io sono rimasto che lo shrink è un semplice copia/incolla del chip a pp minore, senza aggiunta di unità di vario tipo, ipc migliore, cache etc ma solo al limite maggiore frequenza a parità consumo etc ...
devil_mcry
08-07-2020, 18:00
Ma questa ipotetica 3080 quando potrebbe uscire? secondo voi in 800euro ci si sta?
Sto rinnovando il mio Aegis e come vga vorrei quella per sostituire la mia 1080
mikael84
08-07-2020, 18:04
Quello è sottinteso :cry:
E come potrebbe avere più prestazioni in RT se è un semplice shrink? Cioè io sono rimasto che lo shrink è un semplice copia/incolla del chip a pp minore, senza aggiunta di unità di vario tipo, ipc migliore, cache etc ma solo al limite maggiore frequenza a parità consumo etc ...
Una 2080s aggiornata a tensor, cache, forse una sorta di HBCC (nvcache), ed RT più veloci o meglio utilizzati.
Il succo non cambia, sopratutto a livello raster..
Chiaro che non è uno shrink 1/1, almeno credo.:p
X Devil
Usciranno sicuramente un 3080 con street price intorno alle 800-850 euro e 3080Ti con street price intorno ai 1300 euro *
* prezzi variabili un po per le custom
Prestazioni per la 3080 max 10% in più rispetto alla 2080Ti
Prestazioni 3080Ti max 35-40% rispetto alla 2080Ti.
Comunque mi state facendo venire una brutta scimmia e beati voi che usate max il 1440P!
devil_mcry
08-07-2020, 18:33
Usciranno sicuramente un 3080 con street price intorno alle 800-850 euro e 3080Ti con street price intorno ai 1300 euro *
* prezzi variabili un po per le custom
Prestazioni per la 3080 max 10% in più rispetto alla 2080Ti
Prestazioni 3080Ti max 35-40% rispetto alla 2080Ti.
Comunque mi state facendo venire una brutta scimmia e beati voi che usate max il 1440P!
Io ora sono in 4k, ma con la 1080 per lo più gioco a 1440p e amen, non ce la fa. Vorrei anche la 3080 sia per l'RT ma anche per non dovermi più preoccupare delle prestazioni nei giochi, mettendo sempre 1440p + dlss2 la dove possibile
Thunder-74
08-07-2020, 18:38
cut...
Anche se ultimamente non mi consideri più, perchè ti ho fregato con la super.
Ti aspetto a settembre, ho qualcosa per te a soli 1500 euro.
Vedrai che luci.
https://www.vortez.net/news_file/17524_nvidia-mwc-la-2019-keynote-1.jpg
hehe verissimo, con la Super mi ha fregato... il problema è che mi frega sempre e comunque... :fagiano:
Faresti un triplo passo passando ad una 3080.
Scordati l’Rt al max in 4K se vuoi maxare tutto il resto.
devil_mcry
08-07-2020, 18:42
Faresti un triplo passo passando ad una 3080.
Scordati l’Rt al max in 4K se vuoi maxare tutto il resto.
Mi andrebbe bene anche 1440p + dlss2.0, tanto considera che ho un setup atipico, non uso un monitor ma una tv 4k hdr da 55'' che dista dalla scrivania e me boh fai 2 metri.
Infatti tipo ora anche a 1440p senza dlss non è che vedo tantissimo la differenza penso potrebbe andare il RT in quella condizione no?
Passare dal 1440P al 2160P richiede ingenti risorse di carico Gpu ma se ti “ accontenti” del 1440P andresti alla grande con una 3080 ;)
devil_mcry
08-07-2020, 18:50
Si ormai purtroppo non ci vedo più come una volta XD Non scherzo dovrei mettere gli occhiali mi sa però almeno posso avere i riflessi di luce :D
hehe verissimo, con la Super mi ha fregato... il problema è che mi frega sempre e comunque... :fagiano:
È Nvidia che ci ha fregato...
Quei 3 fps in più mi servivano in 4K :asd:
Thunder-74
08-07-2020, 19:16
È Nvidia che ci ha fregato...
Quei 3 fps in più mi servivano in 4K :asd:
La giacchettina che in dossa JHH, è fatta di pelle dei nostri :ciapet:
Comunque ditemi quello che volete ma secondo me è sempre lui con trucco stile "tali e quali"
Poi dici "fanno cartello" ..... :doh:
https://i.imgur.com/AYsUPEb.png https://i.imgur.com/lBD9XnH.png
In effetti si assomigliano tantissimo :D
OvErClOck82
08-07-2020, 21:18
In effetti si assomigliano tantissimo :DSono effettivamente imparentati...alla lontana, ma lo sono :D
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
appleroof
08-07-2020, 23:04
Una 2080s aggiornata a tensor, cache, forse una sorta di HBCC (nvcache), ed RT più veloci o meglio utilizzati.
Il succo non cambia, sopratutto a livello raster..
Chiaro che non è uno shrink 1/1, almeno credo.:p
Ok, insomma per la 3070 un Turing 2.0 mentre "full" ampere solo dalla 3080....venendo dalla vecchietta potrei comunque "accontentarmi" :D
Ok per ora grazie mille Mike ;)
mikael84
08-07-2020, 23:11
La giacchettina che in dossa JHH, è fatta di pelle dei nostri :ciapet:
Comunque ditemi quello che volete ma secondo me è sempre lui con trucco stile "tali e quali"
Poi dici "fanno cartello" ..... :doh:
Neppure a farlo apposta, Jensen, ha anticipato ogni mossa di AMD. Ha preparato le super, prima di sapere quanto andassero realmente le AMD.
Ha venduto tutto gli scarti non A, e levati con le super, ma lasciati sulle TI.
Si è fatto un anno vendendo gli scarti come meglio credeva.
Ok, insomma per la 3070 un Turing 2.0 mentre "full" ampere solo dalla 3080....venendo dalla vecchietta potrei comunque "accontentarmi" :D
Ok per ora grazie mille Mike ;)
Il chip raster della 3070 sarà quello della 2080s (tu104/ga104). La 3080 sarà uno scarto degli scarti del GA102, pensato molto anche per i pro.
Il chip ga104 potrebbe essere un best buy in rapporto, ed è anche quello a cui punto io.
Se prendi anche solo un 15%, in raster, ti scontri con la 2080ti, e vai di più in RT.
i core RT advanced, potrebbero essere un 2x turing, ed i tensor Ampere sono paurosi.
appleroof
08-07-2020, 23:35
Mi gasi Mike :D
Ok insomma mi sa che na bella 3070 sarà la mia prossima vga, speriamo in tempo per Cyberpunk con RT :sofico:
Giovamas
09-07-2020, 07:53
Il chip raster della 3070 sarà quello della 2080s (tu104/ga104). La 3080 sarà uno scarto degli scarti del GA102, pensato molto anche per i pro.
Il chip ga104 potrebbe essere un best buy in rapporto, ed è anche quello a cui punto io.
Se prendi anche solo un 15%, in raster, ti scontri con la 2080ti, e vai di più in RT.
i core RT advanced, potrebbero essere un 2x turing, ed i tensor Ampere sono paurosi.
beh Mike io aspetto le custom e evediamo.. mi aspetto alla luce di quanto dici una 3080ti con un 30-40% in più rispetto alla mia
Predator_1982
09-07-2020, 08:53
Il chip ga104 potrebbe essere un best buy in rapporto, ed è anche quello a cui punto io.
Il GA104 full dovrebbe dar vita alla 3070Ti, giusto? In effetti pensavo anche io che a questo giro potrebbe essere la scheda sui cui puntare.
Molto comunque dipenderà dal prezzo, solitamente mi sono sempre mantenuto sulla fascia top (per intenderci 2080). Ciò che so per certo e che anche a questo giro preferirò acquistare le founders.
mikael84
09-07-2020, 09:52
Mi gasi Mike :D
Ok insomma mi sa che na bella 3070 sarà la mia prossima vga, speriamo in tempo per Cyberpunk con RT :sofico:
Per il GA104 dovremmo aspettare un pò di più. Al momento viene dato per q4, ed a seguire il GA106 a fine anno.
Da una parte è meglio, almeno sai già cosa aspettarti, conoscendo il big chip.
Dopo le morie dei primi lotti di turing, meglio...:)
beh Mike io aspetto le custom e evediamo.. mi aspetto alla luce di quanto dici una 3080ti con un 30-40% in più rispetto alla mia
Si, voliamo bassi, a parer mio +20 3080 + 20 3080ti. Con questo PP, non ci si può aspettare la luna, però in RT il salto dovrebbe essere ben più ampio.:)
Il GA104 full dovrebbe dar vita alla 3070Ti, giusto? In effetti pensavo anche io che a questo giro potrebbe essere la scheda sui cui puntare.
Molto comunque dipenderà dal prezzo, solitamente mi sono sempre mantenuto sulla fascia top (per intenderci 2080). Ciò che so per certo e che anche a questo giro preferirò acquistare le founders.
Il chip alla base è quello, i nomi ancora non si conoscono precisamente, tu che vieni dalla 2080, dovresti prendere la versione full.
Cmq le vediamo man mano queste cose. Per ora le info sono poche, se non del chip in se.
Con TU102, c'è stato un cambio micro architetturale, introducendo vari aspetti pro, come nvlink-RT-tensor, e purtroppo i clock sono rimasti quelli.
Pascal, come maxwell, via dx11 sono architetture quasi perfette. Difficile fare molto meglio con lo stesso PP in linea di massima.:)
salire di clock forse ampere ma da quello che si sa non credo facciano miracoli con gli 8 a livello elettrico.
Sulle rtx non gli resta che pompare i regolatori come gia fatto. In questo discorso dovrebbe intrufolarsi amd e mazzolare duro
Si, il punto di forza di Ampere non sarà puramente raster, ma RT, e pro sui big chip.
Una 2080ti potrebbe anche mediamente in OC essere superiore al GA104, ma se quest'ultima lo passa facilmente in RT, il finale è scritto.
Cyberpunk, potrebbe essere un bel banco di pro per GA104.:)
i due chip rtx si somigliano e non avendo 12nm di stacco come fu per pascal sono molto piu vicine delle passate gen.
In rt ga104 deve garantire ben altre performance perche oggi in fasca media non ci siamo.
Scopriremo se la serie 20 ammortizza il colpo con l uscita delle nuove o fara la fine di fermi 1.0 con la ben ottimizzata serie 5.
X Devil
Usciranno sicuramente un 3080 con street price intorno alle 800-850 euro e 3080Ti con street price intorno ai 1300 euro *
* prezzi variabili un po per le custom
Prestazioni per la 3080 max 10% in più rispetto alla 2080Ti
Prestazioni 3080Ti max 35-40% rispetto alla 2080Ti.
Comunque mi state facendo venire una brutta scimmia e beati voi che usate max il 1440P!
+40 dalla 2080ti speriamo per me sarebbe perfetta una vga 100% piu veloce della mia. e via col casco di banane al primate :sofico:
oZonoRobotics
09-07-2020, 10:20
+40 dalla 2080ti speriamo per me sarebbe perfetta una vga 100% piu veloce della mia. e via col casco di banane al primate :sofico:
ho preso la calcolatrice e mi son venuti fuori sti valori
980ti 100%
1080ti 160% (più o meno il 60% mediamente a guardare i bench)
2080ti 224% (più o meno il 40% o poco più sui giochi nuovi)
3080ti 313% (ipotizzando il 40%)
son giusti i conti?
Andy1111
09-07-2020, 10:31
ho preso la calcolatrice e mi son venuti fuori sti valori
980ti 100%
1080ti 160% (più o meno il 60% mediamente a guardare i bench)
2080ti 224% (più o meno il 40% o poco più sui giochi nuovi)
3080ti 313% (ipotizzando il 40%)
son giusti i conti?
Lo ha già scritto mikael84
Si, voliamo bassi, a parer mio +20 3080 + 20 3080ti. Con questo PP, non ci si può aspettare la luna, però in RT il salto dovrebbe essere ben più ampio.:)
.
Scordati il 40% o più via raster
Thunder-74
09-07-2020, 10:54
Lo ha già scritto mikael84
Scordati il 40% o più via raster
Spero almeno il 30... 20 è pochino :fagiano: ...
Inviato dal mio iPhone X utilizzando Tapatalk
ho preso la calcolatrice e mi son venuti fuori sti valori
980ti 100%
1080ti 160% (più o meno il 60% mediamente a guardare i bench)
2080ti 224% (più o meno il 40% o poco più sui giochi nuovi)
3080ti 313% (ipotizzando il 40%)
son giusti i conti?
probabile ammesso che ampere sia ottimisticamente giusto.
vado a stimare piu dalla fascia pascal per via dei clock -della king- nel considerare un eventuale cambio, di cui forse non ho bisogno
avendo mk10 come titolo piu moderno e gira in 4khdr filtri aa+t4x come il resto del portfolio.
Diciamo che dal chip liscio gia una 2080ti pompata dovrebbe sfondare il muro bissando gm200 su ogni scenario.
Quindi è lecito attendersi da ampere il doppio e pure meglio di una 980ti pompata su carta. poi in d3d calano le stime come sempre motore grafico etc
mikael84
09-07-2020, 11:06
Lo ha già scritto mikael84
Scordati il 40% o più via raster
No aspè, partendo dalla 2080ti:
-3080 +20%
-3080ti + 20%
+ 40% totali.
La 2080ti in OC a 1900 fissi va un 10% rispetto alla stock FE, la 3080 potrebbe lavorare tranquillamente anche oltre. Gli 8nm possono portare sino al 20% di clock.
La 3080 sarà una 2080ti ma con un piccolo salto di nodo ed IPC.
Volendo nvidia può già dare il 20% con margine con Turing, clockando il suo full chip e memorie nuove.
Thunder-74
09-07-2020, 11:14
probabile ammesso che ampere sia ottimisticamente giusto.
vado a stimare piu dalla fascia pascal per via dei clock -della king- nel considerare un eventuale cambio, di cui forse non ho bisogno
avendo mk10 come titolo piu moderno e gira in 4khdr filtri aa+t4x come il resto del portfolio.
Diciamo che dal chip liscio gia una 2080ti pompata dovrebbe sfondare il muro bissando gm200 su ogni scenario.
Quindi è lecito attendersi da ampere il doppio e pure meglio di una 980ti pompata su carta. poi in d3d calano le stime come sempre motore grafico etc
posso portarti la mia esperienza.... passando dallo SLi di 980ti tirate 1500/8000 ad una singola 2080, in qualche titolo dove lo SLi era ottimamente supportato, ho perso qualche cosa in termini di fps medi/massimi , ma ho ottenuto un aumento dei fps minimi più alti.
Paragonando 980ti singola VS 2080 il boost è incredibile e cosa che mi ha stupito era la maggior fluidità a parità di fps (avevo ancora il vecchio monitor 60 fps VSync). Altro aspetto che poco è emerso, ma che in molti notammo, colori più vivi con Turing.
No aspè, partendo dalla 2080ti:
-3080 +20%
-3080ti + 20%
+ 40% totali.
La 2080ti in OC a 1900 fissi va un 10% rispetto alla stock FE, la 3080 potrebbe lavorare tranquillamente anche oltre. Gli 8nm possono portare sino al 20% di clock.
La 3080 sarà una 2080ti ma con un piccolo salto di nodo ed IPC.
Volendo nvidia può già dare il 20% con margine con Turing, clockando il suo full chip e memorie nuove.
allora avevo capito bene :)
EDIT:
NVIDIA’s GeForce RTX 3060 Mainstream $300-$400 Ampere Gaming Graphics Cards Rumored To Feature GA106 GPUs, GA107 Entry-Level Ampere GPU Taped Out Too
...Le indiscrezioni sulla GPU Ampere Gaming di NVIDIA si stanno riscaldando e gli ultimi dettagli che abbiamo oggi sono per la serie principale GeForce RTX 3060. Sostituendo la GeForce RTX 2060, la serie NVIDIA RTX 3060 sarà posizionata nel segmento mainstream con un prezzo compreso tra $ 300 e $ 400 US, che è praticamente il costo della lineup esistente...
LINK (https://wccftech.com/nvidia-geforce-rtx-3060-rtx-3050-ga106-ga107-ampere-gaming-gpu-specs-rumor/)
Andy1111
09-07-2020, 11:15
No aspè, partendo dalla 2080ti:
-3080 +20%
-3080ti + 20%
+ 40% totali.
La 2080ti in OC a 1900 fissi va un 10% rispetto alla stock FE, la 3080 potrebbe lavorare tranquillamente anche oltre. Gli 8nm possono portare sino al 20% di clock.
La 3080 sarà una 2080ti ma con un piccolo salto di nodo ed IPC.
Volendo nvidia può già dare il 20% con margine con Turing, clockando il suo full chip e memorie nuove.
correggimi se sbaglio ma ricordo di aver letto che gli 8 di samsung portano anche a un aumento dei consumi, quindi aumenti l1 , l2 aumenti tensor e rtcore ipc ecc ecc, la coperta comincia a stare stretta ........ o useranno le hbm2e di hynix per la top o da qualche parte devi scendere.
appleroof
09-07-2020, 11:36
Per il GA104 dovremmo aspettare un pò di più. Al momento viene dato per q4, ed a seguire il GA106 a fine anno.
Da una parte è meglio, almeno sai già cosa aspettarti, conoscendo il big chip.
Dopo le morie dei primi lotti di turing, meglio...:)
Cut
Azz adesso mi sgasi :stordita:
Speravo settembre...
mikael84
09-07-2020, 11:38
correggimi se sbaglio ma ricordo di aver letto che gli 8 di samsung portano anche a un aumento dei consumi, quindi aumenti l1 , l2 aumenti tensor e rtcore ipc ecc ecc, la coperta comincia a stare stretta ........ o useranno le hbm2e di hynix per la top o da qualche parte devi scendere.
Bisogna vederli questi transistor prima. Io ho visto bene i 14lpp e non sono per niente male, già di loro boostano a 1800-1820. Rispetto a TSMC necessitano però di tensioni leggermente più alte e overclockano un tantino meno, però erano tarati per chip da 75watt, quindi lascia il tempo che trova.
La l2 sarà 2x, i tensor più efficienti non più esosi (salvo non mettere per intero quelli di ampere, ma per ora le dimensioni del die sono modeste, ci stanno giusto i 7 GPC e qualcos'altro), la l1 sciocchezze, 2,6mb.
La 3080 per andare come la 2080ti non dovrebbe avere alcun IPC e boostare uguale.
Riguardo le HBM, non puoi metterle su un bus da 384bit, per farlo dovresti creare collegamenti a vuoto, ma su nvidia sono troppo pesanti, perchè si portano dietro pure le rop's, che non verrebbero utilizzate.;)
Azz adesso mi sgasi :stordita:
Speravo settembre...
E si, per ora dovrebbero uscire dopo. Indicativamente con AMD.
appleroof
09-07-2020, 11:45
cut
E si, per ora dovrebbero uscire dopo. Indicativamente con AMD.
Vedremo allora, casomai mi butto sulla 3080
_sissio_
09-07-2020, 11:55
sto leggendo con piacere le Vs considerazioni, thread interessante.
Se decidessi di upgradare la 5600xt verso la 2080 super, potrebbe aver senso aspettare i nuovi rilasci Nvidia oppure in tema gaming e per giochi "poco ottimizzati" (come PUBG) non avrebbe senso attendere. Che dite ?
Il mio obiettivo sarebbe maxare FHD (240Hz) oppure spingere bene QHD (165Hz)
grazie
Mi piacerebbe puntare alla 3070ti ma come minimo non costerà meno di 600€
Inviato dal mio ELE-L29 utilizzando Tapatalk
+40 dalla 2080ti speriamo per me sarebbe perfetta una vga 100% piu veloce della mia. e via col casco di banane al primate :sofico:
Si,anche lo scimmione che è in me si stà facendo sentire :D
La 3080 sarà uno scarto degli scarti del GA102, pensato molto anche per i pro.
Qundi chip Non A.
Secondo te,solo la 3080Ti avrà chip selezionati di grado A?
Lo ha già scritto mikael84
Scordati il 40% o più via raster
Se i rumors sui 21tf a 320w sono veri saranno anche superiori.
Potremmo avere:
3080ti 21tf
3080 17tf
3070 14tf
3060 12tf
Forse son troppo ottimista, ma mi aspetto che la 3060 sia più performante delle nuove scatolette.
IMHO
amon.akira
09-07-2020, 12:21
Quindi è lecito attendersi da ampere il doppio e pure meglio di una 980ti pompata su carta. poi in d3d calano le stime come sempre motore grafico etc
ampere il doppio?
ora non so a quanti mhz tieni la 980ti ma ecco un confronto con la mia a 1430mhz
980ti vs 2080ti (https://www.3dmark.com/compare/spy/543078/spy/10856027)
entrambe non spintissime 1430mhz vs 1965mhz -> graphic score +155%
mircocatta
09-07-2020, 12:22
sto leggendo con piacere le Vs considerazioni, thread interessante.
Se decidessi di upgradare la 5600xt verso la 2080 super, potrebbe aver senso aspettare i nuovi rilasci Nvidia oppure in tema gaming e per giochi "poco ottimizzati" (come PUBG) non avrebbe senso attendere. Che dite ?
Il mio obiettivo sarebbe maxare FHD (240Hz) oppure spingere bene QHD (165Hz)
grazie
Non ha senso cambiare ora, non tanto per le performance della 2080super che sono ottime, ma per il fatto che tra qualche mese le stesse performance dovrebbero costare molto meno
tieniti stretta la 5600xt se non ti da problemi, è una fascia di perf/prezzo che probabilmente nei prossimi 6-7 mesi non verrà intaccata quindi difficilmente perderà valore
Andy1111
09-07-2020, 12:24
Se i rumors sui 21tf a 320w sono veri saranno anche superiori.
Potremmo avere:
3080ti 21tf
3080 17tf
3070 14tf
3060 12tf
Forse son troppo ottimista, ma mi aspetto che la 3060 sia più performante delle nuove scatolette.
IMHO
mi sa che sei troppo ottimista, perchè già per la top ci vorranno 350W se ricordo bene era anche uno dei rumors, e parliamo di un chip che sarà minimo 630 di grandezza, nel salto da pascal a turing hai usufruito del miglior supporto per dx12 e vulkan anche grazie all'utilizzo dei tensor cosa che in pascal non avevi.
posso portarti la mia esperienza.... passando dallo SLi di 980ti tirate 1500/8000 ad una singola 2080, in qualche titolo dove lo SLi era ottimamente supportato, ho perso qualche cosa in termini di fps medi/massimi , ma ho ottenuto un aumento dei fps minimi più alti.
Paragonando 980ti singola VS 2080 il boost è incredibile e cosa che mi ha stupito era la maggior fluidità a parità di fps (avevo ancora il vecchio monitor 60 fps VSync). Altro aspetto che poco è emerso, ma che in molti notammo, colori più vivi con Turing.
interessante thunder, non avendo scritto per un bel pezzo mi ero dimenticato del tuo sli.
Ormai ci leggiamo da un po di anni come saprai se cambio è per tenerla altri 5 anni quindi devo stare molto attento a cosa mi metto in casa -una po come la fidanzata-.
In attesa del lancio ufficiale faccio giusto un pensiero per il piacere di condividere con voi.
Discorso colori non sapevo che turing andava meglio di pascal e max.
Di certo bisogna prendere il pannello giusto, da quando ho cambiato tv i colori suhd sono tutta un altra storia con la 980ti
-se ho capito bene con una rtx posso solo migliorare anche su questo fronte-
mikael84
09-07-2020, 12:37
Qundi chip Non A.
Secondo te,solo la 3080Ti avrà chip selezionati di grado A?
Non proprio, ti faccio un'esempio, fatto su due piedi, però è funzionale.:)
Come puoi vedere, il chip completo dispone di 7 GPC.
All'interno ci sono ben 5376 cuda e 384 bit x 12GB (chip full, che userà la TItan o una probabile 3080ti)
Questa sarà la 3080 liscia, ovvero perde un GPC ed altri 256 cuda.
Di conseguenza si ritrova 1024 cuda in meno ed anche un canale di collegamento, per via di due partizioni cache fallate, di conseguenza scende anche il bus da 384 bit a 320 bit, e la ram da 12 a 10GB.
https://i.postimg.cc/LXRVJRBy/usa.png
ampere il doppio?
ora non so a quanti mhz tieni la 980ti ma ecco un confronto con la mia a 1430mhz
980ti vs 2080ti (https://www.3dmark.com/compare/spy/543078/spy/10856027)
entrambe non spintissime 1430mhz vs 1965mhz -> graphic score +155%
:sofico:
mi sa che sei troppo ottimista, perchè già per la top ci vorranno 350W se ricordo bene era anche uno dei rumors, e parliamo di un chip che sarà minimo 630 di grandezza, nel salto da pascal a turing hai usufruito del miglior supporto per dx12 e vulkan anche grazie all'utilizzo dei tensor cosa che in pascal non avevi.
Diciamo che il salto di IPC su Turing, è stato dato dalle INT32 in contemporanea alle FP32, capacità di eseguire fp16 via tensor etc.
Inoltre i warp sono scesi da 32 a 16 cuda, dimezzando i cicli, ed ogni thread è completamente schedulato, prima era tutto in mano al contatore del warp, che decideva i gruppi di thread su cui lavorare.
Questa disposizione dei warp, migliora le rop's da blending, pareggia praticamente le AMD, dove andavano più forte, e tende a migliorare anche la tassellazione.
oZonoRobotics
09-07-2020, 12:40
Lo ha già scritto mikael84
intendevo solo rispondere a Nurabsa che non la 3080ti non andrà il 100% in più della 980ti ma 3 volte tanto...
intendevo solo rispondere a Nurabsa che non la 3080ti non andrà il 100% in più della 980ti ma 3 volte tanto...
Dopo 3 gen vorrei ben vedere... :fagiano:
oZonoRobotics
09-07-2020, 12:52
Dopo 3 gen vorrei ben vedere... :fagiano:
ma infatti mica dico niente, dicevo solo che non andrà il doppio ma il triplo, tutto qua
Non proprio, ti faccio un'esempio, fatto su due piedi, però è funzionale.:)
Come puoi vedere, il chip completo dispone di 7 GPC.
All'interno ci sono ben 5376 cuda e 384 bit x 12GB (chip full, che userà la TItan o una probabile 3080ti)
Questa sarà la 3080 liscia, ovvero perde un GPC ed altri 256 cuda.
Di conseguenza si ritrova 1024 cuda in meno ed anche un canale di collegamento, per via di due partizioni cache fallate, di conseguenza scende anche il bus da 384 bit a 320 bit, e la ram da 12 a 10GB.
Devo desumere che la presenza o meno del Chip A non è collegata alla scelta della 3080 Ti o della 3080.
Se ho ben capito Nvidia utilizza tali chip selezionati nelle Fe mentre vende gli scarti ai propri partners.
Fanno eccezioni le Asus Strix OC che montano il Chip A (differentemente dalle Advanced con chip Non A vendute a meno di 50 euro dalla versione Oc,una vergogna insomma...:rolleyes: ) e altri modelli non economici di altre case.
Giusto?
Grazie ;)
mi sa che sei troppo ottimista, perchè già per la top ci vorranno 350W se ricordo bene era anche uno dei rumors, e parliamo di un chip che sarà minimo 630 di grandezza, nel salto da pascal a turing hai usufruito del miglior supporto per dx12 e vulkan anche grazie all'utilizzo dei tensor cosa che in pascal non avevi.
Dici, 350w erano per la titan con 24gb.
La cosa che non mi torna sui vostri conti è che una 2080ti portata a consumare 320w fa già circa +20% dalla reference in 4k. Qui stiamo parlando di un nuovo pp a 8nm "tutto da confermare" nuova architettura e aumenti di specifiche.
Quindi la 3080ti dovrebbe consumare circa il 20% in più per avere il +20% di prestazioni rispetto alla 2080ti, praticamente vanno a peggiorare il pref/watt. Qualcosa non mi quadra.
IMHO
Non proprio, ti faccio un'esempio, fatto su due piedi, però è funzionale.:)
Come puoi vedere, il chip completo dispone di 7 GPC.
All'interno ci sono ben 5376 cuda e 384 bit x 12GB (chip full, che userà la TItan o una probabile 3080ti)
Questa sarà la 3080 liscia, ovvero perde un GPC ed altri 256 cuda.
Di conseguenza si ritrova 1024 cuda in meno ed anche un canale di collegamento, per via di due partizioni cache fallate, di conseguenza scende anche il bus da 384 bit a 320 bit, e la ram da 12 a 10GB.
https://i.postimg.cc/LXRVJRBy/usa.png
:sofico:
Diciamo che il salto di IPC su Turing, è stato dato dalle INT32 in contemporanea alle FP32, capacità di eseguire fp16 via tensor etc.
Inoltre i warp sono scesi da 32 a 16 cuda, dimezzando i cicli, ed ogni thread è completamente schedulato, prima era tutto in mano al contatore del warp, che decideva i gruppi di thread su cui lavorare.
Questa disposizione dei warp, migliora le rop's da blending, pareggia praticamente le AMD, dove andavano più forte, e tende a migliorare anche la tassellazione.
Ma ora che i tensor possono eseguire calcoli a doppia precisione, potranno essere sfruttati per altri compiti?
Thunder-74
09-07-2020, 14:24
interessante thunder, non avendo scritto per un bel pezzo mi ero dimenticato del tuo sli.
Ormai ci leggiamo da un po di anni come saprai se cambio è per tenerla altri 5 anni quindi devo stare molto attento a cosa mi metto in casa -una po come la fidanzata-.
In attesa del lancio ufficiale faccio giusto un pensiero per il piacere di condividere con voi.
Discorso colori non sapevo che turing andava meglio di pascal e max.
Di certo bisogna prendere il pannello giusto, da quando ho cambiato tv i colori suhd sono tutta un altra storia con la 980ti
-se ho capito bene con una rtx posso solo migliorare anche su questo fronte-
Se vuoi tenerla tanto, l'unica è andare sul pezzo grosso. Alla fine te la ripaghi nel tempo.
Discorso fidanzata.... beh .. andare sempre sul giovane . il "point even break" sono 25 anni :oink:
Comunuque ragazzi, noi più che le VGA nVidia, dovremmo prendere le sue azioni ... :doh:
Nvidia supera la capitalizzazione di mercato di Intel per diventare il chipmaker più prezioso degli Stati Uniti
LINK (https://www.overclock3d.net/news/misc_hardware/nvidia_surpasses_intel_market_cap_to_become_the_us_most_valuable_chipmaker/1)
amon.akira
09-07-2020, 14:27
Dici, 350w erano per la titan con 24gb.
La cosa che non mi torna sui vostri conti è che una 2080ti portata a consumare 320w fa già circa +20% dalla reference in 4k. Qui stiamo parlando di un nuovo pp a 8nm "tutto da confermare" nuova architettura e aumenti di specifiche.
Quindi la 3080ti dovrebbe consumare circa il 20% in più per avere il +20% di prestazioni rispetto alla 2080ti, praticamente vanno a peggiorare il pref/watt. Qualcosa non mi quadra.
IMHO
no la 3080liscia dovrebbe stare a +20% in raster e la Ti un altro +20% dalla liscia, stime al ribasso perchè nn sappiamo i clock.
cmq è anche vero che se startano da 320w sono spremute gia di fabbrica e hai poco spazio di manovra almeno ad aria
mikael84
09-07-2020, 14:43
Devo desumere che la presenza o meno del Chip A non è collegata alla scelta della 3080 Ti o della 3080.
Se ho ben capito Nvidia utilizza tali chip selezionati nelle Fe mentre vende gli scarti ai propri partners.
Fanno eccezioni le Asus Strix OC che montano il Chip A (differentemente dalle Advanced con chip Non A vendute a meno di 50 euro dalla versione Oc,una vergogna insomma...:rolleyes: ) e altri modelli non economici di altre case.
Giusto?
Grazie ;)
Si, in primis, devi puntare il chip che ti interessa, quindi se scegli una 3080ti, vai un 20% in più della 3080, dopo devi guardare questi particolari. Non è detto che vengano confermati.
Per il resto non solo Asus, con Turing, i chip blower e versioni non OC erano non A.
Qualsiasi modello, anche il più disperato di turing, ma avente la sigla OC era chip A.:)
Dici, 350w erano per la titan con 24gb.
La cosa che non mi torna sui vostri conti è che una 2080ti portata a consumare 320w fa già circa +20% dalla reference in 4k. Qui stiamo parlando di un nuovo pp a 8nm "tutto da confermare" nuova architettura e aumenti di specifiche.
Quindi la 3080ti dovrebbe consumare circa il 20% in più per avere il +20% di prestazioni rispetto alla 2080ti, praticamente vanno a peggiorare il pref/watt. Qualcosa non mi quadra.
IMHO
Dei TDP ancora non sappiamo nulla, potrebbero aver messo un transversal coprocessor, sparato i clock, oppure il 7 GPC pesa non poco.
Se pensiamo che la 1080, aveva 4 GPC da 45 watt, ora ne abbiamo 7.
Ma ora che i tensor possono eseguire calcoli a doppia precisione, potranno essere sfruttati per altri compiti?
No, perchè il 2x dato dai tensor, è totalmente vanificato dalla decurtazione.
Se prendiamo una 3080i con possibili 21tf fp32, avresti 0,65tf fp64, ed 1,31 via tensor.
Le fp64 verranno decurtate ad 1/32.:)
Per qualcosa di più attendibile occorre aspettare Settembre?
mikael,ascoltare te sembra ricordare i "vecchi" Yossarian e Vifani :D
FrancoBit
09-07-2020, 14:52
Comunuque ragazzi, noi più che le VGA nVidia, dovremmo prendere le sue azioni ... :doh:
Nvidia supera la capitalizzazione di mercato di Intel per diventare il chipmaker più prezioso degli Stati Uniti
LINK (https://www.overclock3d.net/news/misc_hardware/nvidia_surpasses_intel_market_cap_to_become_the_us_most_valuable_chipmaker/1)
Andava fatta la spesa a metà marzo durante la "crisi" del Covid, sai le paccate di gain che ti portavi a casa... E non solo con Nvidia
mikael84
09-07-2020, 14:59
Per qualcosa di più attendibile occorre aspettare Settembre?
mikael,ascoltare te sembra ricordare i "vecchi" Yossarian e Vifani :D
Esagerato.:p
Cmq, dovremmo avere i primi bios pronti per il mese prossimo.:)
Crysis90
09-07-2020, 16:09
Andava fatta la spesa a metà marzo durante la "crisi" del Covid, sai le paccate di gain che ti portavi a casa... E non solo con Nvidia
Amazon, Tesla...
Oggi eri ricco sfondato. :D
Thunder-74
09-07-2020, 16:29
Andava fatta la spesa a metà marzo durante la "crisi" del Covid, sai le paccate di gain che ti portavi a casa... E non solo con Nvidia
verissimo, soprattutto sulle compagnie aeree
devil_mcry
09-07-2020, 16:33
Ma che cambiava tra chip A e non A?
fraussantin
09-07-2020, 16:38
Ma che cambiava tra chip A e non A?
selezione ,ma anche il tdp massimo , quindi c'èra un po di differenza di prestazioni.
devil_mcry
09-07-2020, 16:46
selezione ,ma anche il tdp massimo , quindi c'èra un po di differenza di prestazioni.
Grazie non avevo seguito
fraussantin
09-07-2020, 16:49
Grazie non avevo seguito
ma questo riguardava turing cmq, per ampere non si sa nulla
Free Gordon
10-07-2020, 01:29
Se i rumors sui 21tf a 320w sono veri saranno anche superiori.
Potremmo avere:
3080ti 21tf
3080 17tf
3070 14tf
3060 12tf
Forse son troppo ottimista, ma mi aspetto che la 3060 sia più performante delle nuove scatolette.
IMHO
Se i tuoi calcoli son giusti, come potrebbe essere più performante? :D
Già perde in partenza per la maggiore ottimizzazione possibile su console, oltretutto a pari di flops... :)
majinbu7
10-07-2020, 09:54
sto leggendo con piacere le Vs considerazioni, thread interessante.
Se decidessi di upgradare la 5600xt verso la 2080 super, potrebbe aver senso aspettare i nuovi rilasci Nvidia oppure in tema gaming e per giochi "poco ottimizzati" (come PUBG) non avrebbe senso attendere. Che dite ?
Il mio obiettivo sarebbe maxare FHD (240Hz) oppure spingere bene QHD (165Hz)
grazie
Ti conviene aspettare settembre, alla fine non sei certo a piedi come vga ;)
ampere il doppio?
ora non so a quanti mhz tieni la 980ti ma ecco un confronto con la mia a 1430mhz
980ti vs 2080ti (https://www.3dmark.com/compare/spy/543078/spy/10856027)
entrambe non spintissime 1430mhz vs 1965mhz -> graphic score +155%
forse ti riferisci a qualche sintetico ma +155% di frame in game non esiste.
Mi riferivo a quello, non ai teorici massimali.
Per rispondere alla tua domanda 1500/8000 vcore dinamico oscilla tra 1.09 e accelera fino ad un massimo di 1.15. aria
L unico dato affidabile è la reale performance gioco per gioco che come sai purtroppo cambia da motore a motore.
Crysis 3 -titolo vecchissimo in rapporto alla 2080ti- in 4k con tu102 a 1990 ghz sta sopra i 60fps . ripeto gioco vecchio e chip con OC.
-spingendo il core oltre i 2 si sfiorano i 70fps-
La mia sta intorno ai 45/50fps quindi + 40% a favore dell rtx.
Per quello che è il mio modo di intendere una vga oggi non cambio scheda per cosi poco.
Se ampere segnerà +100% di fps in crysis 3 -ripeto vecchissimo- se ne puo parlare.
intendevo solo rispondere a Nurabsa che non la 3080ti non andrà il 100% in più della 980ti ma 3 volte tanto...
come sopra ampere non andra mai +300% fps in game.
Graphic score firestike sintetici potenza grezza siamo d accordo.
Ampere stock se tutto va bene fara +60% di fps reale in game 4k da una gm200 bella spinta
oZonoRobotics
10-07-2020, 11:05
come sopra ampere non andra mai +300% fps in game.
Graphic score firestike sintetici potenza grezza siamo d accordo.
Ampere stock se tutto va bene fara +60% di fps reale in game 4k da una gm200 bella spinta
https://www.youtube.com/watch?v=s4cbUUOiAK8
già una 2080ti va il doppio abbondante... vediamo quanto vanno le nuove...
pure io avevo una delle due 980ti con 88 di asic e faceva 1527 mhz (edit, ho tirato fuori un bench ed erano 1529mhz) ma non su tutti i giochi... vuoi mettere 200mhz di oc su una 3080ti contro 300 su una 980ti?
che la 980ti sia invecchiata bene non c'è dubbio, ma la serie 3000 spazza via pure le pascal :P
https://www.youtube.com/watch?v=s4cbUUOiAK8
già una 2080ti va il doppio abbondante... vediamo quanto vanno le nuove...
pure io avevo una delle due 980ti con 88 di asic e faceva 1527 mhz ma non su tutti i giochi... vuoi mettere 200mhz di oc su una 3080ti contro 300 su una 980ti?
che la 980ti sia invecchiata bene non c'è dubbio, ma la serie 3000 spazza via pure le pascal :P
purtroppo l asic oltre un certo punto ad aria serve a poco differenze risicate in oc massimale faccio 1500 con 74.
1527 mi sembra basso ricordo le 88 della king stavano oltre i 1550 aria
Un test a 2560x1440 come quello del link è poco indicativo perche
core 1376 vram 3506 vs la mia king 1500 vram 4200 praticamente un altra scheda molto piu vicina a pascal che alla 980ti del video.
Il video mostra 80fps su bf in favore dell rtx che non è il doppio dei 43 dell gm200 -non spinto- nel test. mancano 6fps
Su altri titoli va meglio ma non siamo in uhd e i clock sono lontani dai miei.
Concretamente la mia riflessione dopo 3 anni da gm200, un salto litografico di 16nm e ben 3 gen di mezzo in 4k tu102 non va il doppio della mia e in certi scenari nemmeno della stock. vedi cry engine
oZonoRobotics
10-07-2020, 12:18
vabbè adesso non mi metto a discutere, io dal video vedo il doppio di prestazioni e un 10% dovuto all'oc (che ti ricordo puoi fare anche sull'altra vga) non cambia niente, gg
thunderforce83
10-07-2020, 14:32
forse ti riferisci a qualche sintetico ma +155% di frame in game non esiste.
Mi riferivo a quello, non ai teorici massimali.
Per rispondere alla tua domanda 1500/8000 vcore dinamico oscilla tra 1.09 e accelera fino ad un massimo di 1.15. aria
L unico dato affidabile è la reale performance gioco per gioco che come sai purtroppo cambia da motore a motore.
Crysis 3 -titolo vecchissimo in rapporto alla 2080ti- in 4k con tu102 a 1990 ghz sta sopra i 60fps . ripeto gioco vecchio e chip con OC.
-spingendo il core oltre i 2 si sfiorano i 70fps-
La mia sta intorno ai 45/50fps quindi + 40% a favore dell rtx.
Per quello che è il mio modo di intendere una vga oggi non cambio scheda per cosi poco.
Se ampere segnerà +100% di fps in crysis 3 -ripeto vecchissimo- se ne puo parlare.
come sopra ampere non andra mai +300% fps in game.
Graphic score firestike sintetici potenza grezza siamo d accordo.
Ampere stock se tutto va bene fara +60% di fps reale in game 4k da una gm200 bella spinta
ma dici serio o scherzi?:D la tua scheda e' veramente roba del paleolitico, se credi che il salto non sara' notevole sei libero di pensarlo,io dico solo che ad ogni cambio di generazione ci sono stati salti ragguardevoli grazie ad architettura,PP,ottimizzazioni varie. Considera che la mia schedina che e' un muletto superscarso di sicuro va anche meglio della tua, quindi per favore non diciamo sciocchezze dai...capisco che ci sei affezionato ma comunque parliamo di schede vetuste proprio,venire a decantare le lodi di una 980ti dicendo che non vale la pena il passaggio ad ampere mi sembra veramente assurdo:p saluti...
ma dici serio o scherzi?:D la tua scheda e' veramente roba del paleolitico, se credi che il salto non sara' notevole sei libero di pensarlo,io dico solo che ad ogni cambio di generazione ci sono stati salti ragguardevoli grazie ad architettura,PP,ottimizzazioni varie. Considera che la mia schedina che e' un muletto superscarso di sicuro va anche meglio della tua, quindi per favore non diciamo sciocchezze dai...capisco che ci sei affezionato ma comunque parliamo di schede vetuste proprio,venire a decantare le lodi di una 980ti dicendo che non vale la pena il passaggio ad ampere mi sembra veramente assurdo:p saluti...
Più che altro 980ti/1070/1660S sono tutte schede che con Ampere se la giocheranno con un chippetto da 75w :fagiano:
amon.akira
10-07-2020, 15:19
esatto basta vedere il consumo neanche gli fps...io ne ho avute 2 di 980ti...una asus a 1.2v toccava i 350w e una msi con asic 95% stavo a 280w a 1.1
ora se con una 1660super con 120w fai 40fps a crysis3 (prendo per buono quanto detto sopra), con i 330w della 2080ti ne fai solo 60...il 50% in piu?
https://www.youtube.com/watch?v=Bez3r-RfosU
mikael84
10-07-2020, 18:16
Ampere stock se tutto va bene fara +60% di fps reale in game 4k da una gm200 bella spinta
Si buonanotte, e che sarà più scarsa della 1080ti/2070s.
La tua scheda anche in OC è una 1660ti, spesso è più le volte che le prende che quando le da, se poi andiamo in vulkan la stacca pure, avendo fp16 e IDS.
Se prendiamo le medie di TUP, una 2080ti sta sul 130%, una 3080ti, in vari motori gli farà un 3x
Cmq, qualche test con nvlink su port royal.
Sarà uno dei test più interessanti per Ampere.
https://www.servethehome.com/wp-content/uploads/2020/06/NVIDIA-Quadro-RTX-8000-NVLINK-Port-Royal.jpg
Ampere stock se tutto va bene farà +60% di fps reale in game 4k da una gm200 bella spinta
cosi poco ? di piu.. :D
ma dici serio o scherzi?:D la tua scheda e' veramente roba del paleolitico, se credi che il salto non sara' notevole sei libero di pensarlo,io dico solo che ad ogni cambio di generazione ci sono stati salti ragguardevoli grazie ad architettura,PP,ottimizzazioni varie. Considera che la mia schedina che e' un muletto superscarso di sicuro va anche meglio della tua, quindi per favore non diciamo sciocchezze dai...capisco che ci sei affezionato ma comunque parliamo di schede vetuste proprio,venire a decantare le lodi di una 980ti dicendo che non vale la pena il passaggio ad ampere mi sembra veramente assurdo:p saluti...
Si buonanotte, e che sarà più scarsa della 1080ti/2070s.
La tua scheda anche in OC è una 1660ti, spesso è più le volte che le prende che quando le da, se poi andiamo in vulkan la stacca pure, avendo fp16 e IDS.
Se prendiamo le medie di TUP, una 2080ti sta sul 130%, una 3080ti, in vari motori gli farà un 3x
Cmq, qualche test con nvlink su port royal.
Sarà uno dei test più interessanti per Ampere.
ragazzi non vi scaldate qui nessuno dice sciocchezze o vuole denigrare le nuove.
Mi basavo esclusivamente sulle performance del video postato e consideravo che pur essendo un mostro in 2k a me non conviene l acquisto di turing.
Le vga sono piene di valori da tenere in considerazione tutti importanti, poi ognuno di noi fa una cernita.
C' è chi vuole i consumi bassi , il prezzo basso, chi vuole giocare a 200fps, e c'è pure chi si accontenta gioca poco quando ha tempo a 50fps in 4k. eccomi :)
Mischiare dati ufficiali a zonzo quando si stava esaminando solo un aspetto ben preciso è fuorviante.
Le nuove sono stupende da appassionato lo so, fosse per me le acquisterei ad ogni nuova uscita solo per l'elettronica.
Ma andare piu del doppio in 4k di una maxwell2 tirata, peggio ancora pascal è dura infatti la prestazione non è assicurata con tutti i motori.
I video vanno visti prima di scrivere +130% fattore 3x e marketing vario.
https://www.youtube.com/watch?v=_axUTvhJ4ps
Allo stato attuale tu102 a 2ghz fa 65fps in 4k su crysis3, non fa 200fps fatti non opinioni. uso cpu 99% praticamente spremuta.
La scheda paleolitico che dice thunder ne fa 45, -20fps da tu102 spremuto +40% a favore di turing. in 4k con crysis3.
Di fronte alla dura realtà di quale percentuali mirabolanti parliamo?
quali grafici vuoi tirare fuori mikael quando io "utente" che caccio fuori 1200€ di 2080ti mi aspetto 200fps a sto gioco?
Voler fare apparire tu102 come fosse una salto da Fermi è fuori dalla realta.
Dal 2015 ad oggi non c'è stato questo salto prestazionale se prendiamo in esame il solo 4k.
ps. Mikael sei sempre preciso corretto ed impeccabile ma ti piace accomunare la mia vga alla 1660ti.
Se mi quoti non devi prendere una gm200 qualsiasi in esame, sai benissimo che il paragone regge fino alla stock.
Per fare un paragone ho avuto la 8800gtx 2006 ai tempi, e dopo la gts450 2010 -molto piu moderna e piu vram gddr5-
su crysis 1 andava meglio tesla g80
Andy1111
11-07-2020, 09:52
https://www.youtube.com/watch?v=3d88b8H3XXU
c'è anche questo più recente sempre con la vga a liquido ma più spinta e un i9
Intel i9 9900K Overclocked to 5.1GHz
NVIDIA Palit Gaming Pro OC RTX 2080 Ti , Hybrid Cooled
NZXT Kraken G12 + NZXT Kraken X72 360MM AIO Cooler Push Pull
ma alla fine cambia poco !!!
Io spero solo che la mia futura 3080Ti usata riesca a farmi giocare a Cyberpunk 2077 tutto maxato in 1080P a 141Hz, poi del resto :ciapet:
Crysis90
11-07-2020, 11:00
Io spero solo che la mia futura 3080Ti usata riesca a farmi giocare a Cyberpunk 2077 tutto maxato in 1080P a 141Hz
E il senso di tutto ciò....sarebbe?????
Mica è un gioco multiplayer competitivo, cribbio. :doh: :muro: :muro: :muro:
Che senso ha rinunciare alla definizione per giocare ad un singleplayer dove nell'esperienza generale di gioco non si noterà la differenza tra 60/70 e 140 FPS? :boh:
Jeetkundo
11-07-2020, 11:16
Io spero solo che la mia futura 3080Ti usata riesca a farmi giocare a Cyberpunk 2077 tutto maxato in 1080P a 141Hz, poi del resto :ciapet:
Io mi accontento di 4k 60 fps con rtx :D
oZonoRobotics
11-07-2020, 11:27
E il senso di tutto ciò....sarebbe?????
Mica è un gioco multiplayer competitivo, cribbio. :doh: :muro: :muro: :muro:
Che senso ha rinunciare alla definizione per giocare ad un singleplayer dove nell'esperienza generale di gioco non si noterà la differenza tra 60/70 e 140 FPS? :boh:
beh, io mi son fatto doom eternal sull'ips 3440x1440 a 100hz e dopo l'ho ricominciato sul 1080p 240hz... e.... l'ho apprezzato di più sul monitor 1080p essendo un fps frenetico... è più facile sparare non c'è niente da fare... se poi parliamo di single player in terza persona, manageriali, giochi di guida meglio il 3440x1440 a 100hz... (per non parlare di stare sul desktop con un 1080p slavato contro un ips)
speriamo che sto dls funzioni sulle nuove un po' meglio, perchè a vedere le comparative non sembra funzionare ancora bene...
E il senso di tutto ciò....sarebbe?????
Mica è un gioco multiplayer competitivo, cribbio. :doh: :muro: :muro: :muro:
Che senso ha rinunciare alla definizione per giocare ad un singleplayer dove nell'esperienza generale di gioco non si noterà la differenza tra 60/70 e 140 FPS? :boh:
Ma dai, in Single si gioca a 60fps senza notare la differenza adesso (addirittura condito di diverse faccine che si spaccano la testa contro il muro) ? S'impara sempre qualcosa in questo forum !
Invece ho il cuore pieno di gioia notanto che l'amore carnale per la propria 980ti di Nurabsa non e' stato scalfito dal tempo,un paio d'anni fa se la giocava con la 1080ti ma adesso siamo a livelli ancora superiori, secondo me "spinge" anche dlss e spra(u)zzi di rtx :sofico:
mikael84
11-07-2020, 12:02
ps. Mikael sei sempre preciso corretto ed impeccabile ma ti piace accomunare la mia vga alla 1660ti.
Se mi quoti non devi prendere una gm200 qualsiasi in esame, sai benissimo che il paragone regge fino alla stock.
Per fare un paragone ho avuto la 8800gtx 2006 ai tempi, e dopo la gts450 2010 -molto piu moderna e piu vram gddr5-
su crysis 1 andava meglio tesla g80
Perchè lo è, conosco le schede.
La 1660ti, spesso gli sta pure sopra.
https://www.youtube.com/watch?v=qr9LJLYhkRw
Ancora una volta, quando dici che la tua 980ti va a 1500, non è che cambi chissà cosa.
Nel video gira a 1376, un 9% meno.
La 1660ti ci prende lo stesso tanto in OC.
Discorso 4k con quella scheda lascia il tempo che trova, neppure campo minato.
E' stata una signora scheda, la tua una grandissima scheda, ma ora è a quei livelli, o meno, piaccia o no. Anzi, più si va avanti e con dei vulkan/dx12, il divario aumenterà non poco, visto che la 980ti non ha fp16 e IDS.;) .
Sentire parlare di 3080ti, 60% su 980ti OC fa rabbrividire, quel valore lo prenderà sulla 2080s che è vicina al 2x dalla tua (stock x stock).
Ma dai, in Single si gioca a 60fps senza notare la differenza adesso (addirittura condito di diverse faccine che si spaccano la testa contro il muro) ? S'impara sempre qualcosa in questo forum !
Invece ho il cuore pieno di gioia notanto che l'amore carnale per la propria 980ti di Nurabsa non e' stato scalfito dal tempo,un paio d'anni fa se la giocava con la 1080ti ma adesso siamo a livelli ancora superiori, secondo me "spinge" anche dlss e spra(u)zzi di rtx :sofico:
Magari l'ha fatta shrinkare a 5nm da tsmc e gli boosta a 2,6, montandoci pure le ddr6, altrimenti non me lo spiego. Non so che appoggi abbia, anche se mi viene difficile crederci.
OrazioOC
11-07-2020, 12:03
https://www.notebookcheck.net/Nvidia-s-GeForce-RTX-3060-and-RTX-3050-Ampere-GPUs-rumored-to-already-be-in-production.480835.0.html
Si ripeterà ciò che è successo nel 2016, 3060 6gb vs 5700 xt 8gb. :rolleyes:
mikael84
11-07-2020, 12:17
https://www.notebookcheck.net/Nvidia-s-GeForce-RTX-3060-and-RTX-3050-Ampere-GPUs-rumored-to-already-be-in-production.480835.0.html
Si ripeterà ciò che è successo nel 2016, 3060 6gb vs 5700 xt 8gb. :rolleyes:
L'unica scheda che non aumenta di TPC per GPC dopo un cambio nodo.
In linea teorica quella dovrebbe essere una sostituta della 1660ti non della 2060.
OrazioOC
11-07-2020, 12:20
L'unica scheda che non aumenta di TPC per GPC dopo un cambio nodo.
In linea teorica quella dovrebbe essere una sostituta della 1660ti non della 2060.
Esatto, hanno fatto i furbetti facendo scalare quel chip in fascia medio/alta.
Ma è probabile che arrivi anche qualche scartina di ga104 se amd portasse qualcosa di convincente nella fascia 300/400 dollari.
OrazioOC
11-07-2020, 12:21
Agosto non ti conosco...
RTX 3080 (https://twitter.com/this63994753/status/1281682560049917954/photo/1)
Agosto non ti conosco...
RTX 3080 (https://twitter.com/this63994753/status/1281682560049917954/photo/1)
Oh mamma mia vedo già A1, A, non A, cchip B e vattelapesca, che palle.
Crysis90
11-07-2020, 12:38
Ma dai, in Single si gioca a 60fps senza notare la differenza adesso (addirittura condito di diverse faccine che si spaccano la testa contro il muro) ? S'impara sempre qualcosa in questo forum !
Solo lo 0.5% dei PC gamer si fa le pippe mentali sulla differenza tra giocare un RPG singleplayer NON frenetico come Doom tra 60 FPS e 140 FPS.
Ma dai, siete alquanto ridicoli. :doh:
Vi lamentate delle schede da 1200 euro e le comprate per sfruttarle al 50%. :asd: :asd:
oZonoRobotics
11-07-2020, 12:52
Solo lo 0.5% dei PC gamer si fa le pippe mentali sulla differenza tra giocare un RPG singleplayer NON frenetico come Doom tra 60 FPS e 140 FPS.
Ma dai, siete alquanto ridicoli. :doh:
Vi lamentate delle schede da 1200 euro e le comprate per sfruttarle al 50%. :asd: :asd:
doom non è frenetico? il mio è frenetico non so il tuo :P
ognuno è abituato a modo suo, a me giocare un fps a 100hz (sopratutto su un ips che si porta dietro l'immagine quando ti giri) non va bene, se a te vanno bene 60hz meglio per te...
slide1965
11-07-2020, 13:23
beh, io mi son fatto doom eternal sull'ips 3440x1440 a 100hz e dopo l'ho ricominciato sul 1080p 240hz... e.... l'ho apprezzato di più sul monitor 1080p essendo un fps frenetico... è più facile sparare non c'è niente da fare... se poi parliamo di single player in terza persona, manageriali, giochi di guida meglio il 3440x1440 a 100hz... (per non parlare di stare sul desktop con un 1080p slavato contro un ips)
speriamo che sto dls funzioni sulle nuove un po' meglio, perchè a vedere le comparative non sembra funzionare ancora bene...
Giusto per la cronaca ormai esistono ips 21/9 3440x1440 che vanno a 160hz con tempi di risposta e input lag al pari se non superiori a parecchi TN, ostinarsi all’alba del 2021 a usare dei TN fullhd è a mio parere “masochistico”, e ovviamente mi riferisco proprio all’uso competitivo.
Ti anticipo dicendo che tra 160hz e 240 i confronti li ho fatti e in uso competitivo la differenza è pressoché nulla, diciamo che avere i 240 ti da quella “sicurezza” psicologica di avere la massima reattività ottenibile , all’atto pratico , superata l’autoconvinzione, non cambia na mazza.
C’è molta più differenza tra 100 e 160 che tra 160 e 240.
oZonoRobotics
11-07-2020, 13:34
Giusto per la cronaca ormai esistono ips 21/9 3440x1440 che vanno a 160hz con tempi di risposta e input lag al pari se non superiori a parecchi TN, ostinarsi all’alba del 2021 a usare dei TN fullhd è a mio parere “masochistico”, e ovviamente mi riferisco proprio all’uso competitivo.
Ti anticipo dicendo che tra 160hz e 240 i confronti li ho fatti e in uso competitivo la differenza è pressoché nulla, diciamo che avere i 240 ti da quella “sicurezza” psicologica di avere la massima reattività ottenibile , all’atto pratico , superata l’autoconvinzione, non cambia na mazza.
C’è molta più differenza tra 100 e 160 che tra 160 e 240.
non sono un esperto, parlo per la mia esperienza, ho un amico che ha un pg279q ips 165hz, fa lo stesso problema che fa il mio pg348q anche se ha 65hz in più, sugli fps quando "ti giri" io (quindi in base alla mia esperienza) vedo l'immagine non nitida (ghosting o come lo vuoi chiamare), sul tn la vedo nitida, poi magari è un problema mio... e preferisco avere il top (secondo i miei standard e le mie tasche) da un ips per quanto riguarda la resa visiva per determinati giochi e il top da un tn per quanto riguarda il continuo dell'immagine a video per altri giochi come cod, inoltre, lavorando ora da casa mi fa comodo avere più spazio sul desktop
può essere che monitor più recenti come i VA siano migliori da quel punto di vista ma non ne ho mai visto uno dal vivo quindi non so dirti... e in base al mio utilizzo per il momento mi trovo bene così, detto questo chiudo l'ot
SPARTANO93
11-07-2020, 13:52
non sono un esperto, parlo per la mia esperienza, ho un amico che ha un pg279q ips 165hz, fa lo stesso problema che fa il mio pg348q anche se ha 65hz in più, sugli fps quando "ti giri" io (quindi in base alla mia esperienza) vedo l'immagine non nitida (ghosting o come lo vuoi chiamare), sul tn la vedo nitida, poi magari è un problema mio... e preferisco avere il top (secondo i miei standard e le mie tasche) da un ips per quanto riguarda la resa visiva per determinati giochi e il top da un tn per quanto riguarda il continuo dell'immagine a video per altri giochi come cod
può essere che monitor più recenti come i VA siano migliori da quel punto di vista ma non ne ho mai visto uno dal vivo quindi non so dirti... e in base al mio utilizzo per il momento mi trovo bene così, detto questo chiudo l'otIo ho il pg279q e non noto questo "problema" anzi sono contentissimo di questo monitor
Inviato dal mio SM-G973F utilizzando Tapatalk
oZonoRobotics
11-07-2020, 14:00
Io ho il pg279q e non noto questo "problema" anzi sono contentissimo di questo monitor
Inviato dal mio SM-G973F utilizzando Tapatalk
prima avevo un pg278q (tn) e passare dal tn al pg348q è stato grave... ormai il pg278q l'avevo venduto e ho dovuto ricomprare un tn...
torno a ripetere, dipende tutto da come sei abituato
comunque ritorniamo on topic altrimenti mi sospendono :P
se sei interessato proseguiamo nell’apposita discussione , come ti dicevo ci sono ips che hanno prestazioni uguali o superiore a parecchi tn e zero ghosting
ok ora cerco il thread
Solo lo 0.5% dei PC gamer si fa le pippe mentali sulla differenza tra giocare un RPG singleplayer NON frenetico come Doom tra 60 FPS e 140 FPS.
Ma dai, siete alquanto ridicoli. :doh:
Vi lamentate delle schede da 1200 euro e le comprate per sfruttarle al 50%. :asd: :asd:
Il caldo inizia a dare fastidio ?
slide1965
11-07-2020, 14:56
prima avevo un pg278q (tn) e passare dal tn al pg348q è stato grave... ormai il pg278q l'avevo venduto e ho dovuto ricomprare un tn...
torno a ripetere, dipende tutto da come sei abituato
comunque ritorniamo on topic altrimenti mi sospendono :P
se sei interessato proseguiamo nell’apposita discussione , come ti dicevo ci sono ips che hanno prestazioni uguali o superiore a parecchi tn e zero ghosting
TigerTank
11-07-2020, 16:04
Agosto non ti conosco...
RTX 3080 (https://twitter.com/this63994753/status/1281682560049917954/photo/1)
Oh mamma mia vedo già A1, A, non A, cchip B e vattelapesca, che palle.
Leggete i commenti sotto, a quanto pare è un fake :D
amon.akira
11-07-2020, 16:08
Allo stato attuale tu102 a 2ghz fa 65fps in 4k su crysis3, non fa 200fps fatti non opinioni. uso cpu 99% praticamente spremuta.
La scheda paleolitico che dice thunder ne fa 45, -20fps da tu102 spremuto +40% a favore di turing. in 4k con crysis3.
Di fronte alla dura realtà di quale percentuali mirabolanti parliamo?
screen da youtube
980ti 1406mhz 99%usage 32.2fps (https://i.imgur.com/sx20FWD.jpg)
la mia
2080ti 1905mhz 90%usage (cpu?) 65fps (https://i.imgur.com/Uq97dZH.jpg)
incremento +104% e non il +40% come vedi
stessa scena, stesse impostazioni copiate dal video.
edit
mi sono ricordato che crysis3 un altro utente qui aveva avuto il problema del cap fps a 65, disabilitando le ottimizzazioni schermo dal exe si era sbloccato, a me non lo fa...cmq anche googlando sembra un problema comune questo del cap a 65fps...
cmq per dire che nonostante l usage al 90% c'è già un +104% che salirebbe al 120%? se riuscissi a sbloccarlo :ciapet:
edit2
non so come ho fatto ma ci sono riuscito a farlo andare al max, e facevo nella stessa scena 73fps quindi +125% dalla 980ti, ho fatto screen con il tasto stamp ma me l ha dato nero nel paint, poi rilanciandolo mi andava di nuovo in cap XD, quindi manca la testimonianza XD
edit3
ecco lo screen (https://i.imgur.com/HPO4GeX.jpg)
mikael84
11-07-2020, 18:16
Esatto, hanno fatto i furbetti facendo scalare quel chip in fascia medio/alta.
Ma è probabile che arrivi anche qualche scartina di ga104 se amd portasse qualcosa di convincente nella fascia 300/400 dollari.
Si, molto dipenderà dalla concorrenza, ma un chip di puro scarto sul GA104 non è impossibile.
Dalla 3060 stessa cosa, ci faranno vari chip, per la fascia da 200/300 euro.
Il chip perfetto per questa serie, sarebbe stato a 4 raster da 2048cc e 64 rops/256bit.
8GB, ed una scheda perfetta ed equilibrata per un 1440p, con pure le primitive pari alle console.
screen da youtube
980ti 1406mhz 99%usage 32.2fps (https://i.imgur.com/sx20FWD.jpg)
la mia
2080ti 1905mhz 90%usage (cpu?) 65fps (https://i.imgur.com/Uq97dZH.jpg)
incremento +104% e non il +40% come vedi
stessa scena, stesse impostazioni copiate dal video.
edit
mi sono ricordato che crysis3 un altro utente qui aveva avuto il problema del cap fps a 65, disabilitando le ottimizzazioni schermo dal exe si era sbloccato, a me non lo fa...cmq anche googlando sembra un problema comune questo del cap a 65fps...
cmq per dire che nonostante l usage al 90% c'è già un +104% che salirebbe al 120%? se riuscissi a sbloccarlo :ciapet:
edit2
non so come ho fatto ma ci sono riuscito a farlo andare al max, e facevo nella stessa scena 73fps quindi +125% dalla 980ti, ho fatto screen con il tasto stamp ma me l ha dato nero nel paint, poi rilanciandolo mi andava di nuovo in cap XD, quindi manca la testimonianza XD
edit3
ecco lo screen (https://i.imgur.com/HPO4GeX.jpg)
:p :p
Considerando pure che crysis 3 è decisamente pro, per architetture vecchie.
OrazioOC
11-07-2020, 18:21
Si, molto dipenderà dalla concorrenza, ma un chip di puro scarto sul GA104 non è impossibile.
Dalla 3060 stessa cosa, ci faranno vari chip, per la fascia da 200/300 euro.
Il chip perfetto per questa serie, sarebbe stato a 4 raster da 2048cc e 64 rops/256bit.
8GB, ed una scheda perfetta ed equilibrata per un 1440p, con pure le primitive pari alle console.
Si ma andrebbe veramente poco di più della 3060 preventivata, io parlavo di un'eventuale 3060 super con 2560 cc, 256 bit di bus e 8gb gddr6, una roba che stia al passo dell'odierna 2080 super, una 2070 super in salsa ampere.
TigerTank
11-07-2020, 18:27
Ma infatti la 980Ti ai suoi tempi è stata una grande scheda ma ormai se la gioca con una 1660Ti e anzi...in certi titoli ovviamente va sotto per via delle ottimizzazioni per schede più recenti.
Con l'arrivo delle nuove sarà ormai in fascia entry level x30-x50 :D
Solo lo 0.5% dei PC gamer si fa le pippe mentali sulla differenza tra giocare un RPG singleplayer NON frenetico come Doom tra 60 FPS e 140 FPS.
Ma dai, siete alquanto ridicoli. :doh:
Vi lamentate delle schede da 1200 euro e le comprate per sfruttarle al 50%. :asd: :asd:
STOP!
>bYeZ<
OrazioOC
11-07-2020, 18:41
:p :p
Considerando pure che crysis 3 è decisamente pro, per architetture vecchie.
Ci manca solo che tiriamo fuori i benchmark di team fortress 2.:rolleyes:
Per carità, gran bella scheda la 980 ti, ma lo si poteva dire nel 2015,2016,2017, ma da quando c'è turing di motivi per fare un upgrade ce ne sono.
In titoli dx 12/vulkan, gpu di pari potenza se la lasciano dietro senza problemi, in doom eternal è a pochi fps da una banale 5500 xt, che sulla carta è un filino più performante della rx 580 8gb/1060 6gb. :rolleyes:
https://static.techspot.com/articles-info/2001/bench/1080p.png
mikael84
11-07-2020, 18:44
Ma infatti la 980Ti ai suoi tempi è stata una grande scheda ma ormai se la gioca con una 1660Ti e anzi...in certi titoli ovviamente va sotto per via delle ottimizzazioni per schede più recenti.
Con l'arrivo delle nuove sarà ormai in fascia entry level x30-x50 :D
Se la gioca in crysis, e nei motori vecchi, ora come ora, i driver di maxwell, chissà come saranno a livello di supporto.:p
Guarda qua, contro una 1660 super, leggermente più scarsa della 1660TI.
https://i.postimg.cc/R3jXFn2M/ah.png (https://postimg.cc/R3jXFn2M)
https://i.postimg.cc/21ysLh9v/control.png (https://postimg.cc/21ysLh9v)
https://i.postimg.cc/Z93D6c89/red2.png (https://postimg.cc/Z93D6c89)
Si ma andrebbe veramente poco di più della 3060 preventivata, io parlavo di un'eventuale 3060 super con 2560 cc, 256 bit di bus e 8gb gddr6, una roba che stia al passo dell'odierna 2080 super, una 2070 super in salsa ampere.
Via cuda, si, però si porterebbe dietro una maggior larghezza di banda, 16 rop's in più, una primitiva, cache ed 8gb.
Chiaramente, in lista ci sta pure lo scarto del GA104.
Con il chip da 6gb, uno scarto, dovranno inventarselo per forza, magari, con i cuda della 2070 liscia.
OrazioOC
11-07-2020, 18:48
Via cuda, si, però si porterebbe dietro una maggior larghezza di banda, 16 rop's in più, una primitiva, cache ed 8gb.
Chiaramente, in lista ci sta pure lo scarto del GA104.
Con il chip da 6gb, uno scarto, dovranno inventarselo per forza, magari, con i cuda della 2070 liscia.
Non sarebbe neanche male con le specifiche della 2070, magari sarebbe più a livello della 2080 che non della super, ma sarebbe comunque un'ottima via di mezzo tra la 3060 con 1920 cc e la 3070 con 3072 cc.
mikael84
11-07-2020, 18:58
Non sarebbe neanche male con le specifiche della 2070, magari sarebbe più a livello della 2080 che non della super, ma sarebbe comunque un'ottima via di mezzo tra la 3060 con 1920 cc e la 3070 con 3072 cc.
Si perchè si porterebbe dietro tutto il collegamento di GA104.
Considerando i soli 4 collegamenti, puoi scendere anche a 2048cc senza perdere altro, se non cc.
Nhirlathothep
11-07-2020, 19:15
Per confrontare le prestazioni di 780 ti - 980 ti - 1080 ti ...
secondo me il bench migliore è Crysis 3, l' unico per cui i driver hanno avuto la stessa ottimizzazione.
capisco comunque che sia normale prendere l' ultima gpu per giocare con gli ultimi giochi, dove la differenza di ottimizzazione è una realtà oggettiva da considerare.
Crysis90
11-07-2020, 20:27
Il caldo inizia a dare fastidio ?
https://www.youtube.com/watch?v=ZEiJgYoluYI
Perchè lo è, conosco le schede.
La 1660ti, spesso gli sta pure sopra.
https://www.youtube.com/watch?v=qr9LJLYhkRw
Ancora una volta, quando dici che la tua 980ti va a 1500, non è che cambi chissà cosa.
Nel video gira a 1376, un 9% meno.
La 1660ti ci prende lo stesso tanto in OC.
Discorso 4k con quella scheda lascia il tempo che trova, neppure campo minato.
E' stata una signora scheda, la tua una grandissima scheda, ma ora è a quei livelli, o meno, piaccia o no. Anzi, più si va avanti e con dei vulkan/dx12, il divario aumenterà non poco, visto che la 980ti non ha fp16 e IDS.;) .
Sentire parlare di 3080ti, 60% su 980ti OC fa rabbrividire, quel valore lo prenderà sulla 2080s che è vicina al 2x dalla tua (stock x stock).
Guardo la mia non quelle dei video anche perche caro mikael spesso per non dire sempre vanno peggio.
Una gm200 king 1500x8400 in 4k la 1660ti la distrugge, non a caso nvidia non la vende per l uhd.
Mischi i dati e modelli di schede con circuiterie molto diverse prendi risoluzioni inferiori in esame e dici che le schede sono simili.
Sai essere precisissimo quando spieghi le architetture te ne sarei grato se lo fossi anche quando si prende in esame solo il 4k.
1660ti @1785 fa 25fps la mia 33 in quel preciso punto : https://www.youtube.com/watch?v=1asf09h9QJI
viene umiliata in uhd la 1660ti dalla king +25% almeno.
In generale le prede a tutte le risoluzioni dalla mia.
Tornando ad un mio ipotetico futuro acquisto tu102.
In crysis3 e shadow otr -4k- va male per essere una scheda da 1200€.
Le prestazioni che guardo sono solo ed esclusivamente quelle dei titoli a cui gioco.
Ripeto nulla contro le nuove anzi speriamo che ampere vada molto forte in 4k - oltre i 100fps nei titoli vecchi-
poi se vuoi capire che la mia scheda non gira come una 980ti presa a caso su youtube non è mai troppo tardi :)
Le battute su campo minato 4k non ti fanno onore per lo spessore che rappresenti in questo forum.
uhd su tutti i miei titoli con qualche compromesso è vero -ombre da molto alto ad alto-
gm200 anche sul sito è stato pubblicizzato come primo chip papabile uhd. Spiega a nvidia che hanno sbagliato.
https://www.nvidia.com/it-it/geforce/900-series/
"Al momento del lancio nel 2015 la GTX 980 Ti era la GPU fiore all'occhiello dell'architettura NVIDIA Maxwell™, con prestazioni in 4K imbattibili e ottimizzazione per esperienze immersive in realtà virtuali, una vera e propria innovazione."
Il supporto driver è ancora ottimo 436.15 mai un crash.
ps. ampere +60% garantiti su tutti i motori era una mia previsione che come le tue stime eccessivamente zelanti su turing potrebbe essere verosimile o meno ;)
screen da youtube
980ti 1406mhz 99%usage 32.2fps (https://i.imgur.com/sx20FWD.jpg)
la mia
2080ti 1905mhz 90%usage (cpu?) 65fps (https://i.imgur.com/Uq97dZH.jpg)
incremento +104% e non il +40% come vedi
stessa scena, stesse impostazioni copiate dal video.
edit
mi sono ricordato che crysis3 un altro utente qui aveva avuto il problema del cap fps a 65, disabilitando le ottimizzazioni schermo dal exe si era sbloccato, a me non lo fa...cmq anche googlando sembra un problema comune questo del cap a 65fps...
cmq per dire che nonostante l usage al 90% c'è già un +104% che salirebbe al 120%? se riuscissi a sbloccarlo :ciapet:
edit2
non so come ho fatto ma ci sono riuscito a farlo andare al max, e facevo nella stessa scena 73fps quindi +125% dalla 980ti, ho fatto screen con il tasto stamp ma me l ha dato nero nel paint, poi rilanciandolo mi andava di nuovo in cap XD, quindi manca la testimonianza XD
edit3
ecco lo screen (https://i.imgur.com/HPO4GeX.jpg)
+104 non dalla mia.
Ad ogni modo hai una bella scheda non fraintendermi.
Se costasse meno ci penserei ma a parità di 1200€ aspetto ampere e spero vivamente che si comporti molto meglio col cryengine e il Foundation Engine di Crystal Dynamics.
TigerTank
12-07-2020, 14:02
Guardo la mia non quelle dei video anche perche caro mikael spesso per non dire sempre vanno peggio.
Una gm200 king 1500x8400 in 4k la 1660ti la distrugge, non a caso nvidia non la vende per l uhd.
Mischi i dati e modelli di schede con circuiterie molto diverse prendi risoluzioni inferiori in esame e dici che le schede sono simili.
Sai essere precisissimo quando spieghi le architetture te ne sarei grato se lo fossi anche quando si prende in esame solo il 4k.
1660ti @1785 fa 25fps la mia 33 in quel preciso punto : https://www.youtube.com/watch?v=1asf09h9QJI
viene umiliata in uhd la 1660ti dalla king +25% almeno.
In generale le prede a tutte le risoluzioni dalla mia.
Tornando ad un mio ipotetico futuro acquisto tu102.
In crysis3 e shadow otr -4k- va male per essere una scheda da 1200€.
Le prestazioni che guardo sono solo ed esclusivamente quelle dei titoli a cui gioco.
Ripeto nulla contro le nuove anzi speriamo che ampere vada molto forte in 4k - oltre i 100fps nei titoli vecchi-
poi se vuoi capire che la mia scheda non gira come una 980ti presa a caso su youtube non è mai troppo tardi :)
Le battute su campo minato 4k non ti fanno onore per lo spessore che rappresenti in questo forum.
uhd su tutti i miei titoli con qualche compromesso è vero -ombre da molto alto ad alto-
gm200 anche sul sito è stato pubblicizzato come primo chip papabile uhd. Spiega a nvidia che hanno sbagliato.
https://www.nvidia.com/it-it/geforce/900-series/
"Al momento del lancio nel 2015 la GTX 980 Ti era la GPU fiore all'occhiello dell'architettura NVIDIA Maxwell™, con prestazioni in 4K imbattibili e ottimizzazione per esperienze immersive in realtà virtuali, una vera e propria innovazione."
Il supporto driver è ancora ottimo 436.15 mai un crash.
ps. ampere +60% garantiti su tutti i motori era una mia previsione che come le tue stime eccessivamente zelanti su turing potrebbe essere verosimile o meno ;)
Sì ma alla fine non è che cambi molto la questione.
Dici che la tua Kingpin tirata supera una 1660Ti? Ok va bene...ma è comunque ormai fascia bassa inferiore ad una 2060.
E se poi consideriamo l'eventuale sfruttamento del DLSS con le RTX, il divario si fa ancora più pesante :)
La 980Ti è stata un'ottima scheda che ha fatto il suo tempo(io avevo una Classified) ma ormai un upgrade ci sta tutto.
Thunder-74
12-07-2020, 14:21
Susami Nurabsa... io ho strapazzato parecchio Maxwell. Mi sono modificato i bios di entrambe le due Strix 980ti per tirare fuori tutto il possibile essendo a liquido e con tutto che gli asic di entrambe non erano il massimo (69 e 70,9), ho fatto un ragguardevole punteggio Graphic score su 3D Mark (41879) con le due schede a 1545/8300 (praticamente quanto fa una 2080ti occata di brutto). Se vai a vedere sul thread apposito (LINK) (https://www.hwupgrade.it/forum/showthread.php?t=2544394), non c'è stato Sli di 980ti che abbia fatto di più, il più vicino si è fermato a 40000 punti (Domen con una KP e una Palit), ma ti ripeto ho modificato tutto il modificabile nel bios delle VGA, compresi i boot states della cache L2.
Questo per dire che il GM200 lo conosco bene e sinceramente ho notato che l'aumento dell'oc non è lineare. Salire oltre i 1455mhz sul core, non faceva guadagnare chissà cosa rispetto ai 1545. Certo in Sli il guadagno quasi raddoppiava, ma in singola poca cosa. Ora non ho mai avuto in KP, ma ipotizzo che il comportamento sia il medesimo.... Non capisco dove possa risiedere tutto questo potenziale del GM200 di una KP rispetto ad un'altra 980ti di altra marca, al punto da considerarla come una scheda di fascia differente.... secondo me saresti sorpreso se utilizzassi una 2080ti in 4k rispetto alla tua... lo sono stato io passando da uno sli di 980ti ad una 2080 liscia a 3440x1440... praticamente ho avuto quasi gli stessi fps nei casi dove lo sli era ottimamente supportato, con la metà del consumo e questo sui titoli vecchi. Sui nuovi lasciamo perdere ...
amon.akira
12-07-2020, 15:42
+104 non dalla mia.
Ad ogni modo hai una bella scheda non fraintendermi.
Se costasse meno ci penserei ma a parità di 1200€ aspetto ampere e spero vivamente che si comporti molto meglio col cryengine e il Foundation Engine di Crystal Dynamics.
si lo so la tua è 1500mhz vs i 1406mhz del video youtube, però anche la mia è 1905mhz, la tua è molto spinta per una maxwell, è come avere una 2080ti a 2100mhz,
quando credi otterresti rispetto al tizio youtube in quella scena? da 32fps a 1406mhz a 1500mhz, quando arriveresti a 35fps? sono +7% di clock se scalerebbe linearmente avresti 32.2+7%=34.4fps
34.4fps+115%=74fps della mia
dov'è il famoso +40% di crysis3? e come può ampere arrivare a 60% se già la mia ti da il 115%?
OrazioOC
12-07-2020, 15:43
https://wccftech.com/nvidia-geforce-rtx-20-turing-production-end-geforce-rtx-30-ampere-gaming-graphics-card-launch-close/
La fonte è quella che è, ma le tempistiche mi sembrano ormai mature per salutare turing in giro da ormai 2 anni.
mircocatta
12-07-2020, 16:16
https://wccftech.com/nvidia-geforce-rtx-20-turing-production-end-geforce-rtx-30-ampere-gaming-graphics-card-launch-close/
La fonte è quella che è, ma le tempistiche mi sembrano ormai mature per salutare turing in giro da ormai 2 anni.
fecero lo stesso anche con pascal all'uscita di turing? perchè ricordavo fossero state parecchio assieme nel mercato a farsi concorrenza (con la 1080ti a ridosso della rtx 2080 sia come prezzo sia come prestazioni), più di quanto lo fece maxwell (vado a memoria)
Thunder-74
12-07-2020, 16:34
https://wccftech.com/nvidia-geforce-rtx-20-turing-production-end-geforce-rtx-30-ampere-gaming-graphics-card-launch-close/
La fonte è quella che è, ma le tempistiche mi sembrano ormai mature per salutare turing in giro da ormai 2 anni.
la cosa triste è questa...
It is additionally reported that ending production on GeForce RTX 20 series graphics cards will lead to severe shortages in the coming weeks due to a rising demand in the mining segment which has started to revive in recent months
fecero lo stesso anche con pascal all'uscita di turing? perchè ricordavo fossero state parecchio assieme nel mercato a farsi concorrenza (con la 1080ti a ridosso della rtx 2080 sia come prezzo sia come prestazioni), più di quanto lo fece maxwell (vado a memoria)
ricordi bene, ma nell'articolo lo accenna... nVidia mise in produzione parecchi Chip di Pascal per soddisfare la richiesta causa mining, ma quando si stoppò tutto, rimasero parecchie schede invendute. Per questo ci fu sovrapposizione con i prezzi di Turing più alti per differenziare le due famiglie di prodotti.
OrazioOC
12-07-2020, 17:09
la cosa triste è questa...
It is additionally reported that ending production on GeForce RTX 20 series graphics cards will lead to severe shortages in the coming weeks due to a rising demand in the mining segment which has started to revive in recent months
Questa cosa è vera purtroppo, guardate su amazon.com, molte custom dalla 1660 super in su sono out of stock, e dubito che sia colpa del covid e dei mancati rifornimenti dei magazzini.
Thunder-74
12-07-2020, 17:14
Questa cosa è vera purtroppo, guardate su amazon.com, molte custom dalla 1660 super in su sono out of stock, e dubito che sia colpa del covid e dei mancati rifornimenti dei magazzini.
E' una disgrazia se riprende come un tempo...
OrazioOC
12-07-2020, 17:42
https://videocardz.com/newz/nvidia-rumored-to-retire-geforce-rtx-2080-ti-super-and-geforce-rtx-2070-super-graphics-cards-soon
E se lo dice anche videocardz.:rolleyes:
Thunder-74
12-07-2020, 19:12
https://videocardz.com/newz/nvidia-rumored-to-retire-geforce-rtx-2080-ti-super-and-geforce-rtx-2070-super-graphics-cards-soon
E se lo dice anche videocardz.:rolleyes:
ho capito, se si vuole un' Ampere, si rischia di doversi mettere in lista alla sua presentazione ... speriamo di no...
A me tange poco visto che aspetto una con waterblock di fabbrica, pero' sta storia del ritorno del mining non mi sembra molto promettente
L’incubo ritorna...
Ma perchè i minatori non se ne vanno a scavare nelle vere miniere e ci lasciano in pace? :D
Thunder-74
12-07-2020, 21:01
A me tange poco visto che aspetto una con waterblock di fabbrica, pero' sta storia del ritorno del mining non mi sembra molto promettente
Anch io Nap, la speranza è che non si attacchino alle versioni con wb, ma i prezzi si impennano ugualmente
Inviato dal mio iPhone X utilizzando Tapatalk
Solo lo 0.5% dei PC gamer si fa le pippe mentali sulla differenza tra giocare un RPG singleplayer NON frenetico come Doom tra 60 FPS e 140 FPS.
Ma dai, siete alquanto ridicoli. :doh:
Vi lamentate delle schede da 1200 euro e le comprate per sfruttarle al 50%. :asd: :asd:
STOP!
>bYeZ<
https://www.youtube.com/watch?v=ZEiJgYoluYI
e allora ve l'andate a cercare... sospeso 5gg
non voglio sentire lamentele
>bYeZ<
fraussantin
12-07-2020, 21:59
https://www.dsogaming.com/news/nvidia-rtx2080ti-cannot-run-watch-dogs-legion-preview-build-with-60fps-on-1080p-ultra-settings-rtx/
Ampere farà un bel salto in RT...
https://www.dsogaming.com/news/nvidia-rtx2080ti-cannot-run-watch-dogs-legion-preview-build-with-60fps-on-1080p-ultra-settings-rtx/
Ampere farà un bel salto in RT...
Li c'e anche scritto pero' che il dlss non era attivato, sinceramente anche su un semplice bright memory non avere il dlss attivato fa penare la mia 2080liscia a 60fps, bisogna attivare per forza il dlss
sertopica
13-07-2020, 05:35
https://www.dsogaming.com/news/nvidia-rtx2080ti-cannot-run-watch-dogs-legion-preview-build-with-60fps-on-1080p-ultra-settings-rtx/
Ampere farà un bel salto in RT...
Bel messaggio promozionale mascherato da news. :D
OrazioOC
13-07-2020, 07:22
https://www.dsogaming.com/news/nvidia-rtx2080ti-cannot-run-watch-dogs-legion-preview-build-with-60fps-on-1080p-ultra-settings-rtx/
Ampere farà un bel salto in RT...
Anche loro furbetti, il ray tracing per mantenere frame costanti e accettabili ha bisogno di funzionare assieme al dlss, ovviamente non attivarlo darà quei risultati anche sulle high end attuali.:rolleyes:
https://multiplayer.it/notizie/nvidia-registra-marchi-3080-4080-5080-presso-intellectual-property-office-europeo.html
Inviato dal mio RNE-L21 utilizzando Tapatalk
Giovamas
13-07-2020, 07:42
più che altro qua inoltre si parla di mining :rolleyes:
https://videocardz.com/newz/nvidia-rumored-to-retire-geforce-rtx-2080-ti-super-and-geforce-rtx-2070-super-graphics-cards-soon
oZonoRobotics
13-07-2020, 08:11
più che altro qua inoltre si parla di mining :rolleyes:
https://videocardz.com/newz/nvidia-rumored-to-retire-geforce-rtx-2080-ti-super-and-geforce-rtx-2070-super-graphics-cards-soon
a possible launch of the upcoming GeForce RTX 30 series is currently expected on September 17th
speriamo!
mi sa che sto giro appena è disponibile il preorder sul sito di nvidia prendo una reference invece della custom che dovrei prendere :S è che la fame è tanta....
con tutto il rischio che le amd potrebbero andare bene e far abbassare ad nvidia il prezzo...
Giovamas
13-07-2020, 08:19
a possible launch of the upcoming GeForce RTX 30 series is currently expected on September 17th
speriamo!
mi sa che sto giro appena è disponibile il preorder sul sito di nvidia prendo una reference invece della custom che dovrei prendere :S è che la fame è tanta....
con tutto il rischio che le amd potrebbero andare bene e far abbassare ad nvidia il prezzo...
vediamo e speriamo. Io invece aspetto le custom quindi se la news è vera dovrò attendere novembre.
oZonoRobotics
13-07-2020, 08:22
vediamo e speriamo. Io invece aspetto le custom quindi se la news è vera dovrò attendere novembre.
a meno che il dissipatore reference non sia come nelle immagini rumoreggiate.. veramente orrendo... ma orrendo anche il dissipatore (spero fake) che è uscito della strix... a sto punto meglio di tutto sarebbe il reference design delle 2000
mikael84
13-07-2020, 11:38
Anche loro furbetti, il ray tracing per mantenere frame costanti e accettabili ha bisogno di funzionare assieme al dlss, ovviamente non attivarlo darà quei risultati anche sulle high end attuali.:rolleyes:
I tensor core su Ampere potrebbero essere devastanti, se verranno utilizzati completamente quelli del chip HPC, si passerebbe da 50tf a 278tf. Anche dimezzandoli, come fatto su turing, si manterrebbe un 3x per fascia.
Sugli RT core, ancora non si sa nulla, ma se dovessero fare un 2x rispetto a turing, ci si ritroverebbe con una 3060 alla pari di una 2080ti, addirittura più potente via tensor (50 vs 70tf).
mikael84
13-07-2020, 11:53
Per ora possiamo solo immaginare come possano essere, ma dato che vedo che ne sai parecchio, indipendentemente dal prezzo che vedremo, quella che sarà la 3080ti/3090 (insomma la top di gamma), consiglieresti di acquistarla per tenerla fino alle prossime gen, e comunque almeno 1 anno e mezzo circa?
Naturalmente basandosi su quello che si sa ora, perché vista la paura di non trovarla poi per troppo tempo, rischierei un pre-ordine :D
Se ti serve si, altrimenti ci sarà di meglio a livello di prezzo/prestazioni.
In raster penso ad un +40 su 2080ti (molto dipenderà dal clock), in RT ben di più.
OrazioOC
13-07-2020, 12:56
I tensor core su Ampere potrebbero essere devastanti, se verranno utilizzati completamente quelli del chip HPC, si passerebbe da 50tf a 278tf. Anche dimezzandoli, come fatto su turing, si manterrebbe un 3x per fascia.
Sugli RT core, ancora non si sa nulla, ma se dovessero fare un 2x rispetto a turing, ci si ritroverebbe con una 3060 alla pari di una 2080ti, addirittura più potente via tensor (50 vs 70tf).
Mi aspetto un salto notevole in rt, ma di certo non che una 2080 ti diventi un fermaporte da 1200 euro.:rolleyes:
Anche perchè il dlss 2 è una gran trovata, e nei giochi dov'è implementato decentemente rende godibili giochi maxed out con rt anche a schede come la 2070 super, non è poco.
fraussantin
13-07-2020, 13:11
Anche loro furbetti, il ray tracing per mantenere frame costanti e accettabili ha bisogno di funzionare assieme al dlss, ovviamente non attivarlo darà quei risultati anche sulle high end attuali.:rolleyes:
penso che i megaserver nvidia stiano tutti impegnati con c2077. finito con quello inizieranno a macinare su questo . a meno che non arrivi il dlss3.0 direttamente. ma se non sbaglio questo esclude turing
mikael84
13-07-2020, 14:37
Mi aspetto un salto notevole in rt, ma di certo non che una 2080 ti diventi un fermaporte da 1200 euro.:rolleyes:
Anche perchè il dlss 2 è una gran trovata, e nei giochi dov'è implementato decentemente rende godibili giochi maxed out con rt anche a schede come la 2070 super, non è poco.
Si chiama avanzamento tecnologico. Se in raster potrebbe anche andare quella piccola percentuale in più grazie ai muscoli, ben poco potrà fare in RT.
Lato tensor, c'è poco da fare, Ampere umilia Turing e Volta, anche a tensor dimezzati.
Per fare un becero paragone, una 3050 da 150 euro e 1280cc con hardware RT e tensor, avrebbe di picco 86tf fp16 e 172tf in sparsity contro i 50 di una 2080ti. Se gli dimezziamo come visto con turing, avremmo 43tf/86tf.
I tensor saranno quelli di Ampere HPC al 99%.
Chi diceva 3060/2080ti in RT, non è che avesse poi torto, se oltre ai tensor, avremmo un 2x RT.;)
OrazioOC
13-07-2020, 18:25
Si chiama avanzamento tecnologico. Se in raster potrebbe anche andare quella piccola percentuale in più grazie ai muscoli, ben poco potrà fare in RT.
Lato tensor, c'è poco da fare, Ampere umilia Turing e Volta, anche a tensor dimezzati.
Per fare un becero paragone, una 3050 da 150 euro e 1280cc con hardware RT e tensor, avrebbe di picco 86tf fp16 e 172tf in sparsity contro i 50 di una 2080ti. Se gli dimezziamo come visto con turing, avremmo 43tf/86tf.
I tensor saranno quelli di Ampere HPC al 99%.
Chi diceva 3060/2080ti in RT, non è che avesse poi torto, se oltre ai tensor, avremmo un 2x RT.;)
Avanzamento tecnologico si, ma che una 2080 ti mi diventi una 3060 in rt, che sarà un chippetto neanche troppo prestante, mi irriterebbe davvero molto se fossi in possesso della suddetta scheda.
Una 1080 ti nella gen successiva non la confrontavi con la fascia media di turing, ma con quella alta(2070s/2080 a seconda del titolo e della versione presa in esame).
Ma anche prima, una 980 ti era vicina alla 1070, e molto superiore alla 1060.:rolleyes:
Avanzamento tecnologico si, ma che una 2080 ti mi diventi una 3060 in rt, che sarà un chippetto neanche troppo prestante, mi irriterebbe davvero molto se fossi in possesso della suddetta scheda.
Una 1080 ti nella gen successiva non la confrontavi con la fascia media di turing, ma con quella alta(2070s/2080 a seconda del titolo e della versione presa in esame).
Ma anche prima, una 980 ti era vicina alla 1070, e molto superiore alla 1060.:rolleyes:Si ma infatti una 2080ti secondo me se la giocherà con 3070 in rt off che meno di 600/700€ sicuramente non la faranno pagare.
Inviato dal mio ELE-L29 utilizzando Tapatalk
mikael84
13-07-2020, 19:06
Avanzamento tecnologico si, ma che una 2080 ti mi diventi una 3060 in rt, che sarà un chippetto neanche troppo prestante, mi irriterebbe davvero molto se fossi in possesso della suddetta scheda.
Una 1080 ti nella gen successiva non la confrontavi con la fascia media di turing, ma con quella alta(2070s/2080 a seconda del titolo e della versione presa in esame).
Ma anche prima, una 980 ti era vicina alla 1070, e molto superiore alla 1060.:rolleyes:
Questo rimarrà così anche con Ampere via raster. Una 2080ti, non la vedrà proprio la 3060.
Il problema è proprio dove sta investendo nvidia, e la capacità dei core RT e dei tensor.
A livello di tensor una 3060 potrebbe demolirla letteralmente, anche se dimezzati (ti ho fatto l'esempio della 3050).
Se già una 3070/super/ti (come la chiameranno), sarà più o meno simile in raster, è lecito aspettarsi un bel boost in RT.
Iceman69
13-07-2020, 19:55
Questo rimarrà così anche con Ampere via raster. Una 2080ti, non la vedrà proprio la 3060.
Il problema è proprio dove sta investendo nvidia, e la capacità dei core RT e dei tensor.
A livello di tensor una 3060 potrebbe demolirla letteralmente, anche se dimezzati (ti ho fatto l'esempio della 3050).
Se già una 3070/super/ti (come la chiameranno), sarà più o meno simile in raster, è lecito aspettarsi un bel boost in RT.
Ma guarda, cosa farà in RT proprio non mi interessa, mi avevano abbindolato con la serie 20, ma da quello che ho visto la differenza è quasi impercettibile come qualità grafica, due riflessi in più non mi dicono nulla, io contavo sulle luci dinamiche, ma veramente non si nota la differenza ad attivarlo o meno.
Spero di essere smentito in futuro, ma a me l'RT a due anni dalla sua introduzione sembra sempre più una presa in giro.
Ma guarda, cosa farà in RT proprio non mi interessa, mi avevano abbindolato con la serie 20, ma da quello che ho visto la differenza è quasi impercettibile come qualità grafica, due riflessi in più non mi dicono nulla, io contavo sulle luci dinamiche, ma veramente non si nota la differenza ad attivarlo o meno.
Spero di essere smentito in futuro, ma a me l'RT a due anni dalla sua introduzione sembra sempre più una presa in giro.Concordo anche per me il RT non è mai stato un punto fondamentale.
Reputo molto più interessante il dlss 2.0
Inviato dal mio ELE-L29 utilizzando Tapatalk
amon.akira
13-07-2020, 20:36
invece a me interessa solo la parte RT, +40% in raster gia va bene anche perchè gia un cyberpunk metti gi,ao,shadow e reflection hai praticamente metà lavoro in rt...anzi servono grossi step ad ogni generazione se si vogliono accorciare i tempi, quindi spero anche negli rt core x2, ma nn so se ce spazio ^^'
Thunder-74
13-07-2020, 20:53
Del resto più potenza c è a disposizione, più il RT viene implementato in un titolo. Ad oggi con Turing un aspetto alla volta . Giusto con Control abbiamo visto un uso più intenso, ma è un titolo limitato da ambienti chiusi . Sicuro che se Ampere porterà con se tanta potenza , vedremo un RT più incisivo e poi ora avremo concorrenza e console con tale feature...
Inviato dal mio iPhone X utilizzando Tapatalk
oZonoRobotics
13-07-2020, 21:01
quando usciranno i giochi per le nuove console già con il raytracing inizierà a vedersi qualcosa... dipendiamo al 100% dalle console in realtà :S
Thunder-74
13-07-2020, 21:23
quando usciranno i giochi per le nuove console già con il raytracing inizierà a vedersi qualcosa... dipendiamo al 100% dalle console in realtà :S
Esatto... purtroppo ne siamo succubi
Inviato dal mio iPhone X utilizzando Tapatalk
DarkNiko
13-07-2020, 21:41
Esatto... purtroppo ne siamo succubi
Inviato dal mio iPhone X utilizzando Tapatalk
Mah.... sinceramente non la vedrei così tragica. Il PC alla fine dice ancora la sua alla grande. :cool:
Ma guarda, cosa farà in RT proprio non mi interessa, mi avevano abbindolato con la serie 20, ma da quello che ho visto la differenza è quasi impercettibile come qualità grafica, due riflessi in più non mi dicono nulla, io contavo sulle luci dinamiche, ma veramente non si nota la differenza ad attivarlo o meno.
Spero di essere smentito in futuro, ma a me l'RT a due anni dalla sua introduzione sembra sempre più una presa in giro.
Sono dello stesso avviso e francamente sembra essere implementato male e dipende dal gioco.
Su Tombraider,come scritto qualche post fa,sembra un upscaling riuscito male e si nota solo il dimezzamento dei frames...
Vedremo... ma posso dire che in 4K e settaggi al max con giochi come Ac Odissey o Forza horizon 4 non serve praticamente nulla,altro che Rt :rolleyes:
oZonoRobotics
13-07-2020, 21:57
Mah.... sinceramente non la vedrei così tragica. Il PC alla fine dice ancora la sua alla grande. :cool:
nel senso che bisogna aspettare che la feature di turno sia mainstream per finalmente goderne al 100%
mikael84
13-07-2020, 23:57
Ma guarda, cosa farà in RT proprio non mi interessa, mi avevano abbindolato con la serie 20, ma da quello che ho visto la differenza è quasi impercettibile come qualità grafica, due riflessi in più non mi dicono nulla, io contavo sulle luci dinamiche, ma veramente non si nota la differenza ad attivarlo o meno.
Spero di essere smentito in futuro, ma a me l'RT a due anni dalla sua introduzione sembra sempre più una presa in giro.
Beh questi sono punti di vista, ed ognuno ha il suo, non è matematica. Io qualcosa l'ho vista, e spero che si vada verso questa direzione, con motori ad hoc. Con base standard le scatolette, è tutto molto complicato, sopratutto se nel 2020, il RT viene applicato a motori pensati per PS3, neppure 4 (come metro).
Il RT da il via alle danze, quando la base è tutta da riammodernare.
Forse molti non si rendono neppure conto, che la base poligonale delle console, è inferiore ad una gtx 580, e con tassellazione attiva viene umiliata dalla 570 (2010).
invece a me interessa solo la parte RT
:D ecco, ho quotato due commenti completamente opposti.
+40% in raster gia va bene anche perchè gia un cyberpunk metti gi,ao,shadow e reflection hai praticamente metà lavoro in rt...anzi servono grossi step ad ogni generazione se si vogliono accorciare i tempi, quindi spero anche negli rt core x2, ma nn so se ce spazio ^^'
Lo spazio c'è, ma non serve raddoppiarli, basta migliorarli e potenziarli. Si parla di RT core advanced, magari proprio arrivando ad un 2x su ray:)
Picco teorico di una 3080ti, 33,6 g/rays su base 2ghz.
quando usciranno i giochi per le nuove console già con il raytracing inizierà a vedersi qualcosa... dipendiamo al 100% dalle console in realtà :S
Assolutamente si, purtroppo...
Del resto più potenza c è a disposizione, più il RT viene implementato in un titolo. Ad oggi con Turing un aspetto alla volta . Giusto con Control abbiamo visto un uso più intenso, ma è un titolo limitato da ambienti chiusi . Sicuro che se Ampere porterà con se tanta potenza , vedremo un RT più incisivo e poi ora avremo concorrenza e console con tale feature...
Inviato dal mio iPhone X utilizzando Tapatalk
Si thunder qua bisogna fare dei grossi salti, e sperare anche nel salto poligonale.
I tensor di Ampere rappresentano un salto spaventoso, ad esempio.
Molti sono dispiaciuti che via raster si sta crollando, in realtà è difficilissimo salire, si potrebbero ridurre i die, le cache, gli nvlink e l'hardware RT in se, ma via raster oltre non vai.
slide1965
14-07-2020, 00:19
raster o non raster se io non vedo almeno, e ripeto almeno, e ripeto ancora almeno, un 40% di prestazioni in piu ( e non in RT),la 3080ti se la possono tenere sullo scaffale e mi tengo la mia 2080ti, dell' RT me ne frega na mazza, a me interessano i frames non le lucine e le ombrine:D
amon.akira
14-07-2020, 02:17
Lo spazio c'è, ma non serve raddoppiarli, basta migliorarli e potenziarli. Si parla di RT core advanced, magari proprio arrivando ad un 2x su ray:)
Picco teorico di una 3080ti, 33,6 g/rays su base 2ghz.
ottimo, tanto tra un mese sapremo tutto :D
FrancoBit
14-07-2020, 08:47
raster o non raster se io non vedo almeno, e ripeto almeno, e ripeto ancora almeno, un 40% di prestazioni in piu ( e non in RT),la 3080ti se la possono tenere sullo scaffale e mi tengo la mia 2080ti, dell' RT me ne frega na mazza, a me interessano i frames non le lucine e le ombrine:D
Concordo pienamente. Se ad oggi, dopo quasi 2 anni di rtx2080, dovessi dare a Raytracing un valore percentuale su tutto ciò che è la mia fruizione/esperienza dei videogiochi, penso che ci aggiriamo sullo 0.99%. Peso che sul prezzo della scheda invece è ben più ingombrante.
> Il RT da il via alle danze, quando la base è tutta da riammodernare.
Ma non e` vero, se parliamo delle luci.
Vedi Quake, Minecraft e altri giochi in cui hanno implementato il ray tracing.
Non ha praticamente nulla a che vedere con il motore grafico sottostante e alla sua presunta modernita`.
fraussantin
14-07-2020, 09:00
raster o non raster se io non vedo almeno, e ripeto almeno, e ripeto ancora almeno, un 40% di prestazioni in piu ( e non in RT),la 3080ti se la possono tenere sullo scaffale e mi tengo la mia 2080ti, dell' RT me ne frega na mazza, a me interessano i frames non le lucine e le ombrine:DPiú che altro bisogna capire quanto la 3080ti sarà capace di farti godere RT , quanto sarà pulita l'immagine con dlss 3.0 e soprattutto quanti giochi lo sfrutteranno, a che risoluzione , se ci sarà stutter , .
CI sono troppe cose da vedere e troppe incognite.
Cioé cyberpunk 2077 in rtx ê stupendo , chi lo nega é miope.
Ma se per vederlo a quel modo , devo perdere il 30% degli fps , devo averci Blur o artefatti , o peggio ancora stutter , non vale la Pena.
Poi quanti giochi lo supporteranno?
Imho ê..
Sono molto fiducioso di ampere , ma avrei voluto piú potenza in generale per tutti i giochi , e li invece ho paura che sarà l'ennesimo passettino
Certo nei giochi con dlss e rtx avremo salti spaventosi , ma quanti saranno quelli meritevoli?
PS di per scontato che nei giochi nuovi in RT Turing sarà tagliato fuori .
TigerTank
14-07-2020, 09:46
Piú che altro bisogna capire quanto la 3080ti sarà capace di farti godere RT , quanto sarà pulita l'immagine con dlss 3.0 e soprattutto quanti giochi lo sfrutteranno, a che risoluzione , se ci sarà stutter , .
CI sono troppe cose da vedere e troppe incognite.
Cioé cyberpunk 2077 in rtx ê stupendo , chi lo nega é miope.
Ma se per vederlo a quel modo , devo perdere il 30% degli fps , devo averci Blur o artefatti , o peggio ancora stutter , non vale la Pena.
Poi quanti giochi lo supporteranno?
Imho ê..
Sono molto fiducioso di ampere , ma avrei voluto piú potenza in generale per tutti i giochi , e li invece ho paura che sarà l'ennesimo passettino
Certo nei giochi con dlss e rtx avremo salti spaventosi , ma quanti saranno quelli meritevoli?
PS di per scontato che nei giochi nuovi in RT Turing sarà tagliato fuori .
Ma infatti a parte che offrire prestazioni maggiori con schede inferiori, in teoria il DLSS 2.0(e 3.0 poi) dovrebbe appunto fare da compensazione in questo.
E ovviamente si spera che la nuova generazione di giochi sviluppati anche in previsione del ray tracing e non patchati a posteriori, sia più ottimizzata e "leggera" in tal senso :)
Comunque a parte questo, speriamo davvero che non ritorni di nuovo il mining di massa. Il 2020 fa già abbastanza schifo ed il ritorno del mining sarebbe una vera e propria pandemìa sull'hardware tra indisponibilità e ulteriori rincari sulle vga :muro:
LINK (https://www.guru3d.com/news-story/is-another-gpu-mining-wave-inbound.html).
fraussantin
14-07-2020, 10:10
Ma infatti a parte che offrire prestazioni maggiori con schede inferiori, in teoria il DLSS 2.0(e 3.0 poi) dovrebbe appunto fare da compensazione in questo.
.
Sicuramente il dlss ha del potenziale , bisogna vedere quanti giochi lo supporteranno.
Spero veramente che trovino il sistema di poterlo usare in tutti i giochi semplicemente attivandolo da driver senza bisogno di "allenamento".
mircocatta
14-07-2020, 10:11
domanda ai più informati: ad oggi i tensor delle rtx, nei videogiochi, per cosa vengono usati? solo DLSS? perchè di potenza ne hanno tanta (i tensor) ma se questa viene usata solo in ambito HPC mi seccherebbe spendere di più per qualcosa che non posso "sfruttare"
fraussantin
14-07-2020, 10:25
domanda ai più informati: ad oggi i tensor delle rtx, nei videogiochi, per cosa vengono usati? solo DLSS? perchè di potenza ne hanno tanta (i tensor) ma se questa viene usata solo in ambito HPC mi seccherebbe spendere di più per qualcosa che non posso "sfruttare"Aggiungo alla tua domanda per chi se ne intende :se su Turing la superfice utilizzata dai tensor core e dagli RT core fosse stata usata dai cuda core quanta prestazione ci sarebbe stata in piú ?
Se i tuoi calcoli son giusti, come potrebbe essere più performante? :D
Già perde in partenza per la maggiore ottimizzazione possibile su console, oltretutto a pari di flops... :)
Giusti no, stiamo facendo supposizioni basati su rumors di specifiche non ufficiali.
Però come ben sai i flops non è un metro di confronto tra architetture differenti, navi ha 9,7tf mentre vega 13tf e le differenze prestazionali sono minime.
Ma il punto è che niente vieterebbe a nvidia di creare una 3060 ad hoc per contrastare le prestazioni delle scatolette, che siano 12 o 13tf. Partendo da 21tf possono livellare le prestazioni come vogliono, la serie S ne è un esempio. Senza considerare il fattore RT, che con la prima implementazione di AMD è un incognita non da poco.
Le ottimizzazioni ci sono ma non incidono più come una volta, ormai hardware e librerie sono conformi tra piattaforme.
IMHO
PS di per scontato che nei giochi nuovi in RT Turing sarà tagliato fuori .
Visto che i giochi ormai sono multipiattaforma, ti aspetti che le scatolette saranno migliori di turing in RT, non lo darei per scontato.
IMHO
fraussantin
14-07-2020, 11:40
Visto che i giochi ormai sono multipiattaforma, ti aspetti che le scatolette saranno migliori di turing in RT, non lo darei per scontato.
IMHOIo parlo del raytracing sviluppato da Nvidia.
Per quello generico\amd ancora non si sa se useranno rtcore compatibili con Nvidia o altri sistemi.
dovahkiin
14-07-2020, 11:49
Io parlo del raytracing sviluppato da Nvidia.
Per quello generico\amd ancora non si sa se useranno rtcore compatibili con Nvidia o altri sistemi.
si adegueranno allo standard: DX12 Ultimate (quindi DXR = DirectX Raytracing).
amd pubblicò già una demo a suo tempo: AMD RDNA 2 Microsoft DirectX Raytracing (DXR) Demo (https://www.youtube.com/watch?v=eqXeM4712ps)
e nvidia ha già annunciato che Turing supporterà le DX12 Ultimate (o forse già è stato implementato nei driver più recenti)
Io parlo del raytracing sviluppato da Nvidia.
Per quello generico\amd ancora non si sa se useranno rtcore compatibili con Nvidia o altri sistemi.
Fate sempre confusione, il raytracing non ê sviluppato da nvidia è una tecnica usata da anni ed ora uno standard nelle dxr e vulkan, la compatibilità è verso quest'ultime.
I meriti di turing sono quelli di aver aperto la strada anche se piena di buche, però ora tutti si possono dirigere in quella direzione.
Senza non saremmo neanche qui a parlarne.
IMHO
fraussantin
14-07-2020, 12:47
Fate sempre confusione, il raytracing non ê sviluppato da nvidia è una tecnica usata da anni ed ora uno standard nelle dxr e vulkan, la compatibilità è verso quest'ultime.
I meriti di turing sono quelli di aver aperto la strada anche se piena di buche, però ora tutti si possono dirigere in quella direzione.
Senza non saremmo neanche qui a parlarne.
IMHOsi adegueranno allo standard: DX12 Ultimate (quindi DXR = DirectX Raytracing).
amd pubblicò già una demo a suo tempo: AMD RDNA 2 Microsoft DirectX Raytracing (DXR) Demo (https://www.youtube.com/watch?v=eqXeM4712ps)
e nvidia ha già annunciato che Turing supporterà le DX12 Ultimate (o forse già è stato implementato nei driver più recenti)Sì ovvio , come l'antialiasing , hairworks , l'erba e fisica in generale.
Bisogna vedere se useranno peró algoritmi standard o ottimizzati per certe architetture .
Non penso che amd avrá una architettura identica a quella di Turing. Ci sono brevetti e altre cosucce che non possono essere copiate.
Poi vi siete scordati la cosa piú importante :
SU CONSOLE I GIOCHI VIAGGERANNO A 30 FPS.
Cosa che su PC fa venire i crampi allo stomaco solo il pensarci.
Quindi se RT di un gioco console con una rdna2 fa 30 fps non credo che su un architettura diversa possa fare meglio almeno che non sia una scheda mooolto piú potente
Su Turing ci si salva solo con il dlss ma che per adesso lo vediamo solo sui giochi marchiati di verde.
Chi è rimasto con i 1080p (magari G-Sync) è magari ogni tanto attacca la tv in 4k potrà godersi benissimo tutti i titoli futuri ben sopra i 60 secondo me.
Il 4k è prematuro. La 2080Ti ce la fa appena, una 3080Ti potrebbe riuscirci, sempre che il RayTracing non venga implementato i tutte le sue componenti (luci, ombre, riflessi) in questo caso la richiesta di risorse triplicherebbe e Ampere farebbe quello che fino ad oggi ha fatto Turing con un solo effetto alla volta.
Il DLSS potrebbe salvare capra e cavoli, dando ad Ampere lo spunto per reggere il 4k sopra i 60 e a Turing il 1080p intorno ai 60.
Almeno questa è la mia idea, vedremo se mi sbaglio, ma non prima che escano i giochi che sfruttano le nuove tecnologie, perche è chiaro che se prendiamo un Control, una 3080Ti potrebbe anche andare il doppio di una 2080Ti.
Susami Nurabsa... io ho strapazzato parecchio Maxwell. Mi sono modificato i bios di entrambe le due Strix 980ti per tirare fuori tutto il possibile essendo a liquido e con tutto che gli asic di entrambe non erano il massimo (69 e 70,9), ho fatto un ragguardevole punteggio Graphic score su 3D Mark (41879) con le due schede a 1545/8300 (praticamente quanto fa una 2080ti occata di brutto). Se vai a vedere sul thread apposito (LINK) (https://www.hwupgrade.it/forum/showthread.php?t=2544394), non c'è stato Sli di 980ti che abbia fatto di più, il più vicino si è fermato a 40000 punti (Domen con una KP e una Palit), ma ti ripeto ho modificato tutto il modificabile nel bios delle VGA, compresi i boot states della cache L2.
Questo per dire che il GM200 lo conosco bene e sinceramente ho notato che l'aumento dell'oc non è lineare. Salire oltre i 1455mhz sul core, non faceva guadagnare chissà cosa rispetto ai 1545. Certo in Sli il guadagno quasi raddoppiava, ma in singola poca cosa. Ora non ho mai avuto in KP, ma ipotizzo che il comportamento sia il medesimo.... Non capisco dove possa risiedere tutto questo potenziale del GM200 di una KP rispetto ad un'altra 980ti di altra marca, al punto da considerarla come una scheda di fascia differente.... secondo me saresti sorpreso se utilizzassi una 2080ti in 4k rispetto alla tua... lo sono stato io passando da uno sli di 980ti ad una 2080 liscia a 3440x1440... praticamente ho avuto quasi gli stessi fps nei casi dove lo sli era ottimamente supportato, con la metà del consumo e questo sui titoli vecchi. Sui nuovi lasciamo perdere ...
rispondo solo adesso thunder nn ho avuto tempo.
Ci tengo solo a precisare che mi confronto con piacere come se parlassi con amici veterani e tecnicamente preparati
Spero sia lo stesso per te/voi ai fini di un leale confronto di riflessioni tra appassionati di vga 😊
Discorso è che stiamo parlando di macchine seppur simili -x86- molto diverse tra loro.
Se leggiamo l utente X che racconta la sua storia guardiamo solo che vga monta e i clock.
Una lettura oggettiva dovrebbe tenere in considerazioni mille altri fattori cpu (clock e n.core ,mb dual o quad ch., eventuale over clock di : cpu,ram, e ring bus di intel)
Non ultimo il rapporto freq tensione applicata.
Esempio:
4ghz a 1.20 con 4ghz a 1.30 non sono la stessa cosa a parita di cpu, peggio ancora tensione fissa contro tensione adattiva.
Ci scordiamo che il PC è un iper complessa macchina di turing -il matematico non l architettura verde-
Le tue schede erano ottimi esemplari ti credo quando scrivi, non mi sognerei di parlare di sli non avendone mai avuto uno.
1545/8300 sono bei numeri respect -a liquido se non ricordo male-
Solo 2 schede ho avuto -ultimi 6 anni- la G1 970, e dopo la king.
Sulla carta schede molto simili in termini di mod tuning clock,vcore,etc, la dura realtà e che dopo qualche mese sotto stress oc,ov, core e vram – samsung- la G1 mi ha abbandonato.
Bruciata e non erano chip difettosi era pcb insufficiente alla gestione elettrica air.
Capirai che oggi dopo 5 anni di overclok pesante vedo la king tranquilla mi son fatto un idea piu chiara delle 2.
Sul mono scheda in virtu di un pcb estremamente curato credo di avere una stabilità superiore nei minimi di conseguenza una esperienza di gioco meno ballerina delle altre 980ti.
La paragono ad una gp104.
Senza considerare elementi chiave come l’nvpanel che nei video in giro non si conosce, io ad esempio tengo le trasparenze fisse a 2x. Off sarebbe meglio.
Altro fattore di cui si parla poco quando si valuta un esperienza utente è l uso o meno di HDR.
Lo cito non a caso perché non so pascal,turing,ampere ma su maxwell2 funziona ma incide negativamente su tensioni di conseguenza temperatura che a sua volta si trascina il clock.
Assolutamente d accordo che rimarrei piacevolmente stupito stai parlando con un amatore a prescindere dal frame in piu in meno.
Discorso era caduto in prospettiva personale avendo gia dato 1k a nvidia 5 anni fa,
oggi non credo alla luce dei titoli vecchi che uso che le prestazioni 4k siano coerenti con il prezzo indicato per una tu102.
La kpe costa 2000€ i prezzi sono sfuggiti di mano.
Quando feci girare i vari crysis per la prima volta in 4k sulla king dissi i 1000€ meglio spesi.
Con la 970 ingiocabili uhd.
Lo stesso vale per i vari tomb raider, passano gli anni e mi diverto a rigiocarli quando posso.
Adesso crysis 3 e del 2013 gira a 65 con cali sotto i 60 senza hdr con turing big.
Preferisco attendere ottimisticamente un scheda come ampere perche un gioco di 7 anni fa deve segnare almeno 100fps medi con l ammiraglia -senza overclock- secondo me.
La mia riflessione era su titoli ben precisi a res ben precise in generale le schede vanno forte chiaramente. goditela sarà una bomba per come ne parli
si lo so la tua è 1500mhz vs i 1406mhz del video youtube, però anche la mia è 1905mhz, la tua è molto spinta per una maxwell, è come avere una 2080ti a 2100mhz,
quando credi otterresti rispetto al tizio youtube in quella scena? da 32fps a 1406mhz a 1500mhz, quando arriveresti a 35fps? sono +7% di clock se scalerebbe linearmente avresti 32.2+7%=34.4fps
34.4fps+115%=74fps della mia
dov'è il famoso +40% di crysis3? e come può ampere arrivare a 60% se già la mia ti da il 115%?
Amon ti credo la tua è una belva.
Quella vista su youtube faceva 65 con cali a 57 il tutto senza hdr che nella maxwell2 penalizza.
Ripeto gran bella scheda sicuramente godibile in 4k un altro pianeta dalla mia.
Come sopra un gioco cosi vecchio lo facevo piu agile con questa gpu intorno ai 100.
Sarà che a furia di parlare di miglioramenti architetturali mi sono gasato troppo ma ci speravo
L impressione è che si siano concentrati troppo sull RT, forse erano meglio una 50ina di fps vecchia scuola
Avanzamento tecnologico si, ma che una 2080 ti mi diventi una 3060 in rt, che sarà un chippetto neanche troppo prestante, mi irriterebbe davvero molto se fossi in possesso della suddetta scheda.
Una 1080 ti nella gen successiva non la confrontavi con la fascia media di turing, ma con quella alta(2070s/2080 a seconda del titolo e della versione presa in esame).
Ma anche prima, una 980 ti era vicina alla 1070, e molto superiore alla 1060.:rolleyes:
corretto ma il gap temporale di turing è un unicum. uscito prima rispetto alla cadenza biennale verde.
Ampere da pascal ristabilirebbe la cadenza 24 mesi
mikael84
14-07-2020, 14:50
raster o non raster se io non vedo almeno, e ripeto almeno, e ripeto ancora almeno, un 40% di prestazioni in piu ( e non in RT),la 3080ti se la possono tenere sullo scaffale e mi tengo la mia 2080ti, dell' RT me ne frega na mazza, a me interessano i frames non le lucine e le ombrine:D
Si, quel minimo di boost ci sarà, anche se oggettivamente in raster, sta diventando davvero difficile salire.
Purtroppo il PP scelto non aiuta per niente.
ottimo, tanto tra un mese sapremo tutto :D
Speriamo.:)
per ora conosciamo i tensor, tanta roba.
> Il RT da il via alle danze, quando la base è tutta da riammodernare.
Ma non e` vero, se parliamo delle luci.
Vedi Quake, Minecraft e altri giochi in cui hanno implementato il ray tracing.
Non ha praticamente nulla a che vedere con il motore grafico sottostante e alla sua presunta modernita`.
Ho capito, ma sarebbe bello vederlo applicato a motori di nuova generazione.;)
Aggiungo alla tua domanda per chi se ne intende :se su Turing la superfice utilizzata dai tensor core e dagli RT core fosse stata usata dai cuda core quanta prestazione ci sarebbe stata in piú ?
Lo spazio dei tensor e nuclei RT è del 12,9% circa, vale a dire che una Titan RTX senza unità hardware RT avrebbe un die di 668mm2.
Questo spazio hanno anche provato a calcolarlo, ma non hanno capito che una parte dei tensor sulle GPU di fascia bassa viene destinato alle fp16, quando nvidia, come visto su GP100 è capace, come AMD di splittarle.
Dopo bisogna passare alla l2, aumentata per RT, e conseguente nvlink.
Pascal aveva collegamenti di 43mm2 (258mm2 su 1080ti vs 322 su 2080ti).
La 2080ti poteva essere un chip sulle 600mm2, solo raster, ma non poteva andare oltre in potenza, se lo facevi, dovevi pagare via clock e consumi.
Siamo arrivati ad un punto che via raster non è più semplice salire.
Unica strada possibile, è migliorare l'efficienza dei cuda.
Ad esempio su Ampere, spero molto sulla l1, introdotta da volta, dove i cicli saranno 1/3 del totale.;)
oZonoRobotics
14-07-2020, 15:54
https://www.youtube.com/watch?v=IMi3JpNBQeM&fbclid=IwAR0CYfYI_gJ4FeI84rz54yAiY2YuYq7FxQu3SehRNPibRC8HuT0V0Tiok8I
dite che funzionerà veramente così bene? doppio prestazioni + qualità superiore? mah... :P
Thunder-74
14-07-2020, 15:58
rispondo solo adesso thunder nn ho avuto tempo.
Ci tengo solo a precisare che mi confronto con piacere come se parlassi con amici veterani e tecnicamente preparati
Spero sia lo stesso per te/voi ai fini di un leale confronto di riflessioni tra appassionati di vga 😊
Discorso è che stiamo parlando di macchine seppur simili -x86- molto diverse tra loro.
Se leggiamo l utente X che racconta la sua storia guardiamo solo che vga monta e i clock.
Una lettura oggettiva dovrebbe tenere in considerazioni mille altri fattori cpu (clock e n.core ,mb dual o quad ch., eventuale over clock di : cpu,ram, e ring bus di intel)
Non ultimo il rapporto freq tensione applicata.
Esempio:
4ghz a 1.20 con 4ghz a 1.30 non sono la stessa cosa a parita di cpu, peggio ancora tensione fissa contro tensione adattiva.
Ci scordiamo che il PC è un iper complessa macchina di turing -il matematico non l architettura verde-
Le tue schede erano ottimi esemplari ti credo quando scrivi, non mi sognerei di parlare di sli non avendone mai avuto uno.
1545/8300 sono bei numeri respect -a liquido se non ricordo male-
Solo 2 schede ho avuto -ultimi 6 anni- la G1 970, e dopo la king.
Sulla carta schede molto simili in termini di mod tuning clock,vcore,etc, la dura realtà e che dopo qualche mese sotto stress oc,ov, core e vram – samsung- la G1 mi ha abbandonato.
Bruciata e non erano chip difettosi era pcb insufficiente alla gestione elettrica air.
Capirai che oggi dopo 5 anni di overclok pesante vedo la king tranquilla mi son fatto un idea piu chiara delle 2.
Sul mono scheda in virtu di un pcb estremamente curato credo di avere una stabilità superiore nei minimi di conseguenza una esperienza di gioco meno ballerina delle altre 980ti.
La paragono ad una gp104.
Senza considerare elementi chiave come l’nvpanel che nei video in giro non si conosce, io ad esempio tengo le trasparenze fisse a 2x. Off sarebbe meglio.
Altro fattore di cui si parla poco quando si valuta un esperienza utente è l uso o meno di HDR.
Lo cito non a caso perché non so pascal,turing,ampere ma su maxwell2 funziona ma incide negativamente su tensioni di conseguenza temperatura che a sua volta si trascina il clock.
Assolutamente d accordo che rimarrei piacevolmente stupito stai parlando con un amatore a prescindere dal frame in piu in meno.
Discorso era caduto in prospettiva personale avendo gia dato 1k a nvidia 5 anni fa,
oggi non credo alla luce dei titoli vecchi che uso che le prestazioni 4k siano coerenti con il prezzo indicato per una tu102.
La kpe costa 2000€ i prezzi sono sfuggiti di mano.
Quando feci girare i vari crysis per la prima volta in 4k sulla king dissi i 1000€ meglio spesi.
Con la 970 ingiocabili uhd.
Lo stesso vale per i vari tomb raider, passano gli anni e mi diverto a rigiocarli quando posso.
Adesso crysis 3 e del 2013 gira a 65 con cali sotto i 60 senza hdr con turing big.
Preferisco attendere ottimisticamente un scheda come ampere perche un gioco di 7 anni fa deve segnare almeno 100fps medi con l ammiraglia -senza overclock- secondo me.
La mia riflessione era su titoli ben precisi a res ben precise in generale le schede vanno forte chiaramente. goditela sarà una bomba per come ne parli
cut..
Assolutamente, siamo qui per confrontarci in armonia. Del resto non concepirei altro modo trattandosi di passione / hobby comune ;)
Magari, prova a prendere di riferimento altri titoli per il paragone, perchè di fatti qualche problema oltre i 65 fps in 4k, Crysis ce l'aveva. Questo va a falsare il vero potenziale di una 2080ti. ;)
mattxx88
14-07-2020, 15:59
https://www.youtube.com/watch?v=IMi3JpNBQeM&fbclid=IwAR0CYfYI_gJ4FeI84rz54yAiY2YuYq7FxQu3SehRNPibRC8HuT0V0Tiok8I
dite che funzionerà veramente così bene? doppio prestazioni + qualità superiore? mah... :P
Visto con i miei occhi su deliver us the moon, non ci credevo. il dlss 2.0 è una tecnologia che se implementata in molti giochi, può far pendere l'ago della bilancia in maniera non indifferente verso il lato verde
Andy1111
14-07-2020, 16:02
https://www.youtube.com/watch?v=IMi3JpNBQeM&fbclid=IwAR0CYfYI_gJ4FeI84rz54yAiY2YuYq7FxQu3SehRNPibRC8HuT0V0Tiok8I
dite che funzionerà veramente così bene? doppio prestazioni + qualità superiore? mah... :P
lo avevo appena postato in un altro thread trovi una rece qua di come va con dlss
https://www.hardwareluxx.de/index.php/artikel/software/spiele/53616-death-stranding-mit-dlss-2-0-und-fidelityfx-cas-im-leistungstest.html
oZonoRobotics
14-07-2020, 16:04
beh, se me lo dite voi ci credo... ma non vedo l'ora di vederlo con i miei occhi :D
mattxx88
14-07-2020, 16:11
beh, se me lo dite voi ci credo... ma non vedo l'ora di vederlo con i miei occhi :D
la cosa che ancora fatico a capacitarmi è di come riesca a migliorare anche la grafica di base
oZonoRobotics
14-07-2020, 16:13
la cosa che ancora fatico a capacitarmi è di come riesca a migliorare anche la grafica di base
ma infatti, avevo visto dei video (sempre nvidia) dove il dlss funzionava perfettamente su bf5 e poi vedevi i video su youtube dove si vedeva tutto blurrato... se veramente hanno sistemato la serie 3000 sarà una bomba a mano (solo sui giochi che supportano, siamo sempre la)
TigerTank
14-07-2020, 16:21
Però è un gioco un pò strano, indipendentemente da DLSS e altri concetti di grafica :D
Sembra un simulatore di equilibrio da trasporti eccezionali :asd:
LINK (https://www.youtube.com/watch?v=A1wnumJMI-0).
devil_mcry
14-07-2020, 16:38
Però è un gioco un pò strano, indipendentemente da DLSS e altri concetti di grafica :D
Sembra un simulatore di equilibrio da trasporti eccezionali :asd:
LINK (https://www.youtube.com/watch?v=A1wnumJMI-0).
E' un gioco che ti diverte mentre lo giochi e ti crea dipendenza anche ma ti lascia un po' poco nel tempo dopo averlo giocato.
dovahkiin
14-07-2020, 16:44
la cosa che ancora fatico a capacitarmi è di come riesca a migliorare anche la grafica di base
il fatto che si veda "meglio"™ è dovuto al fatto che addestrano la rete neurale a produrre frame quanto più simili a quelli 16K (renderizzati da loro ed usati come ground truth appunto)
https://i.imgur.com/S8kiusp.jpg
FrancoBit
14-07-2020, 19:22
Be comunque death stranding spaccahttps://uploads.tapatalk-cdn.com/20200714/320cb07f7c5a1eddc8f8a47d63a026b5.jpg
Inviato dal mio Mi 9 SE utilizzando Tapatalk
razor820
14-07-2020, 22:01
Bahhhh. Io già ero prevenuto visto i requisiti consigliato.. una 1060..
Ho visto qualche video sul tubo in 4K e sinceramente tutto il miracolo grafico che mi aspettavo da PS4 a pc non c è assolutamente stato. C’è stato solo un miglioramento netto di fps
Thunder-74
14-07-2020, 22:07
Peccato che non sia un metal gear vecchio stile ... lo preferivo di più che un gioco da fattorino che tanto mi ricorda quei poveretti che lavorano per Amazon.... vabbè ...
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
14-07-2020, 23:14
Bahhhh. Io già ero prevenuto visto i requisiti consigliato.. una 1060..
Ho visto qualche video sul tubo in 4K e sinceramente tutto il miracolo grafico che mi aspettavo da PS4 a pc non c è assolutamente stato. C’è stato solo un miglioramento netto di fps
Non esistono i miracoli lato hardware. L'hw è sempre quello. C'è chi sa lavorarci meglio, sfruttare il basso livello (non una passeggiata per i programmatori) etc.:)
mircocatta
15-07-2020, 07:00
Non esistono i miracoli lato hardware. L'hw è sempre quello. C'è chi sa lavorarci meglio, sfruttare il basso livello (non una passeggiata per i programmatori) etc.:)
è un ottimo porting, gira bene anche su pc, una rx570 (al pari di una ps4pro circa) fa 26 fps medi in 4k nativi
fraussantin
15-07-2020, 07:06
Ma solo a me fa cagare[anche] come grafica.
É un mondo completamente vuoto , non si muove quasi niente .
Boh.
Ma solo a me fa cagare come grafica.
É un mondo completamente vuoto , non si muove quasi niente .
Boh.É un gioco lento che punta alla storia, personalmente non li amo particolarmente, preferisco vedermi un film o una serie TV a quel punto.
Forse in VR avrebbe avuto più senso come titolo.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
fraussantin
15-07-2020, 07:21
Qui un confronto tra le varie tecnologie proprietarie.
https://www.dsogaming.com/screenshot-news/death-stranding-native-4k-vs-fidelityfx-upscaling-vs-dlss-2-0/
Sono al cellulare quindi fino a stasera non potrò vedere i dettagli nelle foto.
Parla di meno nitidezza del dlss2.0 , ma alle brutte immagino che si possa aggiustare da driver.
TigerTank
15-07-2020, 07:59
Be comunque death stranding spaccahttps://uploads.tapatalk-cdn.com/20200714/320cb07f7c5a1eddc8f8a47d63a026b5.jpg
Sinceramente per ora non mi entusiasma....lo trovo piuttosto soft e blurrato.
Ok che magari con un pò di sharpening migliora ma ormai c'è sempre da smanettare per recuperare nitidezza.
Inoltre la questione di mantenersi in equilibrio pompando con le braccia è esilarante. Diciamo che visto il gioco....io non avrei mai usato il viso di quell'attore per il personaggio :stordita:
Mah...io ormai sono nell'ottica di vedere vga sempre più costose, delle hyperate enormi sulle nuove features ma poi sti porting hanno sempre qualche carenza.
Thunder-74
15-07-2020, 08:03
Nuovo Rumors...
Schede grafiche NVIDIA GeForce RTX serie 30 Ampere basate su una nuova interfaccia di alimentazione a 12 pin
https://cdn.wccftech.com/wp-content/uploads/2020/07/NVIDIA-GeForce-RTX-30-Series-Ampere-Gaming-Graphics-Card_12-Pin-12V-Power-Connector_2.jpg https://cdn.wccftech.com/wp-content/uploads/2020/07/NVIDIA-GeForce-RTX-30-Series-Ampere-Gaming-Graphics-Card_12-Pin-12V-Power-Connector_1.jpg
LINK (https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-cards-new-power-connector-rumor/)
fraussantin
15-07-2020, 08:12
Nuovo Rumors...
Schede grafiche NVIDIA GeForce RTX serie 30 Ampere basate su una nuova interfaccia di alimentazione a 12 pin
https://cdn.wccftech.com/wp-content/uploads/2020/07/NVIDIA-GeForce-RTX-30-Series-Ampere-Gaming-Graphics-Card_12-Pin-12V-Power-Connector_2.jpg https://cdn.wccftech.com/wp-content/uploads/2020/07/NVIDIA-GeForce-RTX-30-Series-Ampere-Gaming-Graphics-Card_12-Pin-12V-Power-Connector_1.jpg
LINK (https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-cards-new-power-connector-rumor/)Ma che senso ha?
Non si poteva usare l'8x2 solito.
Tanto per cambiare gli alimentatori di nuovo?
Thunder-74
15-07-2020, 08:16
Ma che senso ha?
Non si poteva usare l'8x2 solito.
Tanto per cambiare gli alimentatori di nuovo?
Questo è ciò che viene detto..
Viene fornito il progetto del connettore a 12 pin a 12 pin e, a prima vista, sembra che i tradizionali connettori 2x a 6 pin siano collegati tra loro. Il connettore è simile alla serie di connettori di alimentazione Molex Micro-Fit che sono larghi 19 mm e hanno un passo di 3 mm. Questa è la stessa larghezza dei due connettori di alimentazione a 6 pin offerti dagli attuali alimentatori, ma offre una capacità di corrente di 8,5 A rispetto ai 6 A dei connettori mini-Fit 5556. Con un tasso di efficienza perfetto, il mini-fit fornirebbe 600 Watt di potenza, ma non è sempre così e la potenza effettiva erogata alla GPU è di circa 400 W a 6 Ampere. Il principale collo di bottiglia con i connettori tradizionali sono le specifiche 20AWG per i pin.La fonte riporta anche che c'è un'interfaccia secondaria a 4 pin vicino al connettore principale a 12 pin il cui scopo è sconosciuto al momento
Sembra che gli utenti con buoni alimentatori possano ancora collegare due connettori di alimentazione a 6 pin dato che soddisfano l'elevata efficienza richiesta per sostenere una scheda grafica di livello entusiasta.
razor820
15-07-2020, 08:49
Non esistono i miracoli lato hardware. L'hw è sempre quello. C'è chi sa lavorarci meglio, sfruttare il basso livello (non una passeggiata per i programmatori) etc.:)
Si però avrei preferito un porting alla red2 per esempio... più dettagli e meno fps
10900k occato + 3080ti occata = centralina Enel dedicata :asd:
TigerTank
15-07-2020, 09:08
Questo è ciò che viene detto..
Viene fornito il progetto del connettore a 12 pin a 12 pin e, a prima vista, sembra che i tradizionali connettori 2x a 6 pin siano collegati tra loro. Il connettore è simile alla serie di connettori di alimentazione Molex Micro-Fit che sono larghi 19 mm e hanno un passo di 3 mm. Questa è la stessa larghezza dei due connettori di alimentazione a 6 pin offerti dagli attuali alimentatori, ma offre una capacità di corrente di 8,5 A rispetto ai 6 A dei connettori mini-Fit 5556. Con un tasso di efficienza perfetto, il mini-fit fornirebbe 600 Watt di potenza, ma non è sempre così e la potenza effettiva erogata alla GPU è di circa 400 W a 6 Ampere. Il principale collo di bottiglia con i connettori tradizionali sono le specifiche 20AWG per i pin.La fonte riporta anche che c'è un'interfaccia secondaria a 4 pin vicino al connettore principale a 12 pin il cui scopo è sconosciuto al momento
Sembra che gli utenti con buoni alimentatori possano ancora collegare due connettori di alimentazione a 6 pin dato che soddisfano l'elevata efficienza richiesta per sostenere una scheda grafica di livello entusiasta.
Speriamo davvero non creino problemi circa gli alimentatori...oltre alle vga in sè che di sicuro non regaleranno, ci mancherebbe solo di ritrovarsi con un buon alimentatore ma con qualche incompatibilità con questo nuovo connettore.
Ok collegare 2 connettori da 6pin...ma mi auguro che le linguetta per trasformarli in un 6+2pin non siano un problema. O in alternativa che si trovino in giro dei cavi appositi da acquistare singolarmente(o includano qualcosa in bundle con le vga).
E io che pensavo di poter finalmente usare gli EVGA Powerlink, ricevuti in regalo quando presi lo Sli di evga 1070...e ancora inutilizzati :asd:
Comunque sì, la necessità di questo connettore più potente e stabile mi fa sospettare che le nuove schede non saranno tanto efficienti a potenza e fresche :D
Spero che se proprio stia solo sulle Ti.
FrancoBit
15-07-2020, 09:10
Speriamo davvero non creino problemi circa gli alimentatori...oltre alle vga in sè che di sicuro non regaleranno, ci mancherebbe solo di ritrovarsi con un buon alimentatore ma con qualche incompatibilità con questo nuovo connettore.
Ok collegare 2 connettori da 6pin...ma mi auguro che le linguetta per trasformarli in un 6+2pin non siano un problema.
E io che pensavo di poter finalmente usare gli EVGA Powerlink, ricevuti in regalo quando presi lo Sli di evga 1070...e ancora inutilizzati :asd:
Per non parlare dell'abbattimento di tutti i cavi vanitosi tipo Cable Mod costati un rene :muro:
TigerTank
15-07-2020, 09:13
Per non parlare dell'abbattimento di tutti i cavi vanitosi tipo Cable Mod costati un rene :muro:
Comunque vediamo, magari certe custom continueranno tranquillamente ad usare tipo 2x8 pin.
Giovamas
15-07-2020, 09:19
sicuramente se è vero forniranno in bundle un adattatore
Speriamo davvero non creino problemi circa gli alimentatori...oltre alle vga in sè che di sicuro non regaleranno, ci mancherebbe solo di ritrovarsi con un buon alimentatore ma con qualche incompatibilità con questo nuovo connettore.
Ok collegare 2 connettori da 6pin...ma mi auguro che le linguetta per trasformarli in un 6+2pin non siano un problema. O in alternativa che si trovino in giro dei cavi appositi da acquistare singolarmente(o includano qualcosa in bundle con le vga).
E io che pensavo di poter finalmente usare gli EVGA Powerlink, ricevuti in regalo quando presi lo Sli di evga 1070...e ancora inutilizzati :asd:
Comunque sì, la necessità di questo connettore più potente e stabile mi fa sospettare che le nuove schede non saranno tanto efficienti a potenza e fresche :D
Spero che se proprio stia solo sulle Ti.
Da quanto ne so ogni connettore da 6pin fornisce massimo 75w, quindi come alimentazione ausiliaria non credo che 2x6pin standard possano sforare più di tanto il range di 150-200w se non di picco per qualche secondo... poi vabbè ci sarebbe anche ulteriore alimentazione fornita dal Pci-e ma credo che inserire un classico 2x6 pin possa limitare il PL della VGA se parliamo di chipponi.
Mentre l'8pin già fornisce 150w per ogni connettore, credo sia meglio usare un adattatore 2x8pin to 12pin, però mi farei pochi problemi non credo che mancheranno soluzioni classiche con 2x8pin, alla fine ancora oggi si vedono GPU con 2x6pin invece di usare un singolo connettore classico da 8pin.
fraussantin
15-07-2020, 09:31
Si ma connettere un 6+6 poi ti lascia penzoloni i 2 da 2 . Non é proprio bello
Usciranno spero delle prolunghe che adattano magari 2 cavi da 8+8 in uno da 6 nuovo.
TigerTank
15-07-2020, 09:35
Però anche se ci fossero gli adattatori 2x8 ---> 12pin....sai che brutto averlo in vista attaccato alla vga :muro:
A questo punto speriamo escano direttamente dei cavi appositi in modo da integrarli ai nostri "corredi" di cavi sleevati.
fraussantin
15-07-2020, 09:38
Però anche se ci fossero gli adattatori 2x8 ---> 12pin....sai che brutto averlo in vista attaccato alla vga :muro:
A questo punto speriamo escano direttamente dei cavi appositi in modo da integrarli ai nostri "corredi" di cavi sleevati.L'adattatore no , intendo la prolunga( colorate nere pettinate ecc) in modo la lasciare gli agganci dietro.
Ma anche quella roba costicchia.
Thunder-74
15-07-2020, 09:45
10900k occato + 3080ti occata = centralina Enel dedicata :asd:
Varrà dire che proveremo cosa vuol dire avere una AMD ....
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
15-07-2020, 09:50
L'adattatore no , intendo la prolunga( colorate nere pettinate ecc) in modo la lasciare gli agganci dietro.
Ma anche quella roba costicchia.
Sì, esatto...dei cavi appositi da alimentatore a vga.
Ma circa i bundle delle schede credo che sarebbe già un miracolo trovare inclusi degli adattatori, con tanto di cavi sleevati :D
Che poi appunto c'è la questione colori dello sleeving che usiamo(i miei per esempio sono tutti rossi).
Magari ci saranno in bundle delle meraviglie estetiche tipo queste :asd:
https://i.ebayimg.com/images/g/mA8AAOSwtaBb6~6R/s-l300.jpg
Varrà dire che proveremo cosa vuol dire avere una AMD ....
Inviato dal mio iPhone X utilizzando Tapatalk
Cattiva questa :sofico:
OrazioOC
15-07-2020, 09:51
Varrà dire che proveremo cosa vuol dire avere una AMD ....
Inviato dal mio iPhone X utilizzando Tapatalk
A perchè gli ultimi driver nvidia fanno schifo? :rotfl:
Thunder-74
15-07-2020, 09:54
A perchè gli ultimi driver nvidia fanno schifo? :rotfl:
a parte gli scherzi, gli ultimi danno veramente problemi :D :D
Sì, esatto...dei cavi appositi da alimentatore a vga.
Ma circa i bundle delle schede credo che sarebbe già un miracolo trovare inclusi degli adattatori, con tanto di cavi sleevati :D
Che poi appunto c'è la questione colori dello sleeving che usiamo(i miei per esempio sono tutti rossi).
Magari ci saranno in bundle delle meraviglie estetiche tipo queste :asd:
https://i.ebayimg.com/images/g/mA8AAOSwtaBb6~6R/s-l300.jpg
Cattiva questa :sofico:
confido nelle custom con 2 da 8 pin, o anche 3 da 8 ... stica, un adattatore farlocco no...
FrancoBit
15-07-2020, 09:59
Sì, esatto...dei cavi appositi da alimentatore a vga.
Ma circa i bundle delle schede credo che sarebbe già un miracolo trovare inclusi degli adattatori, con tanto di cavi sleevati :D
Che poi appunto c'è la questione colori dello sleeving che usiamo(i miei per esempio sono tutti rossi).
Magari ci saranno in bundle delle meraviglie estetiche tipo queste :asd:
https://i.ebayimg.com/images/g/mA8AAOSwtaBb6~6R/s-l300.jpg
Cattiva questa :sofico:
Mi sanguinano gli occhi lol
OrazioOC
15-07-2020, 10:03
a parte gli scherzi, gli ultimi danno veramente problemi :D :D
Boh, a me sulla 1660 i 451 mi vanno senza problemi.
fraussantin
15-07-2020, 10:15
Boh, a me sulla 1660 i 451 mi vanno senza problemi.Ci sono alcuni problemi di freezee su giochi Ubisoft. Sono indicati nella relese note.
Io ho avuto anche un black screen su Photoshop (stava spingendo con filtri) mi si é spenta la gpu. Ma sentivo l'audio. Ho dovuto riavviare. La prima volta che lo vedo in quasi 2 anni.
Non ho voglia di fare ddu e tornare indietro.
Ma sono anche sotto OC potrebbe essere quello che magari non é tollerato da questo driver.
AceGranger
15-07-2020, 10:17
Varrà dire che proveremo cosa vuol dire avere una AMD ....
si ma con le prestazioni :p, si spera.
Thunder-74
15-07-2020, 10:27
Boh, a me sulla 1660 i 451 mi vanno senza problemi.
intendo i 451.67 , già i 451.48 vanno benissimo
mikael84
15-07-2020, 11:00
Ma che senso ha?
Non si poteva usare l'8x2 solito.
Tanto per cambiare gli alimentatori di nuovo?
Questo è ciò che viene detto..
Viene fornito il progetto del connettore a 12 pin a 12 pin e, a prima vista, sembra che i tradizionali connettori 2x a 6 pin siano collegati tra loro. Il connettore è simile alla serie di connettori di alimentazione Molex Micro-Fit che sono larghi 19 mm e hanno un passo di 3 mm. Questa è la stessa larghezza dei due connettori di alimentazione a 6 pin offerti dagli attuali alimentatori, ma offre una capacità di corrente di 8,5 A rispetto ai 6 A dei connettori mini-Fit 5556. Con un tasso di efficienza perfetto, il mini-fit fornirebbe 600 Watt di potenza, ma non è sempre così e la potenza effettiva erogata alla GPU è di circa 400 W a 6 Ampere. Il principale collo di bottiglia con i connettori tradizionali sono le specifiche 20AWG per i pin.La fonte riporta anche che c'è un'interfaccia secondaria a 4 pin vicino al connettore principale a 12 pin il cui scopo è sconosciuto al momento
Sembra che gli utenti con buoni alimentatori possano ancora collegare due connettori di alimentazione a 6 pin dato che soddisfano l'elevata efficienza richiesta per sostenere una scheda grafica di livello entusiasta.
Le specifiche lasciano anche a desiderare, è vero che i cavi a 6 pin ed 8 portano rispettivamente 75w e 150watt, ma questo perchè sono configurati così.
Quei cavi possono essere configurati direttamente ad 8 ampere, portando rispettivamente 288 e 384watt.
Speriamo davvero non creino problemi circa gli alimentatori...oltre alle vga in sè che di sicuro non regaleranno, ci mancherebbe solo di ritrovarsi con un buon alimentatore ma con qualche incompatibilità con questo nuovo connettore.
Ok collegare 2 connettori da 6pin...ma mi auguro che le linguetta per trasformarli in un 6+2pin non siano un problema. O in alternativa che si trovino in giro dei cavi appositi da acquistare singolarmente(o includano qualcosa in bundle con le vga).
E io che pensavo di poter finalmente usare gli EVGA Powerlink, ricevuti in regalo quando presi lo Sli di evga 1070...e ancora inutilizzati :asd:
Comunque sì, la necessità di questo connettore più potente e stabile mi fa sospettare che le nuove schede non saranno tanto efficienti a potenza e fresche :D
Su questo bisogna stare attenti, era già successo su dual GPU molto esose, anche se nei limiti.
Praticamente molti ali anche di qualità non riuscivano a stargli dietro, non per la potenza, ma per via delle oscillazioni troppo grandi e frequenti nei millisecondi, Risultato PC spento e mobo in protezione.
L'ali non lo legge (i vari software), solo con gli oscilloscopi.
Spero che se proprio stia solo sulle Ti.
Beh, no, a sto giro la 3080 utilizza lo stesso PCB della TI.:)
Si però avrei preferito un porting alla red2 per esempio... più dettagli e meno fps
Su questo concordo.
è un ottimo porting, gira bene anche su pc, una rx570 (al pari di una ps4pro circa) fa 26 fps medi in 4k nativi
Si, ho visto i bench, leggerissimo, anche se pare mettere in seria difficoltà le cpu, tra cui il 9700k e ryzen vecchi.
AceGranger
15-07-2020, 11:06
Le specifiche lasciano anche a desiderare, è vero che i cavi a 6 pin ed 8 portano rispettivamente 75w e 150watt, ma questo perchè sono configurati così.
Quei cavi possono essere configurati direttamente ad 8 ampere, portando rispettivamente 288 e 384watt.
eh ma ormai sono standard, non possono piu essere modificati.
slide1965
15-07-2020, 11:22
Ma questa novità dei pin è ufficiale ?
Varrà dire che proveremo cosa vuol dire avere una AMD ....
Intendi per la resa cromatica perfetta a video? :sofico:
si scherza su, non prenderla sul personale...
mikael84
15-07-2020, 11:27
si ma con le prestazioni :p, si spera.
+50 dalla 2080ti con gli stessi cc della Titan.
https://www.tweaktown.com/news/73772/amds-next-gen-rdna-2-rumor-40-50-faster-than-geforce-rtx-2080-ti/index.html
Ma quando mai.
Ogni flops che speculano lo rapportano in percentuale ai 13 della TI a 1500 a 0,8v non A.
eh ma ormai sono standard, non possono piu essere modificati.
E purtroppo è così.
Intendi per la resa cromatica perfetta a video? :sofico:
si scherza su, non prenderla sul personale...
AMD è fortissima in certi colori, come il nero dei black screen, il blu dei bsod, ed il verde, anche il marrone delle memorie non scherza.:sofico: :D
Scherzo anch'io, su certi pannelli, è vero che AMD risulta bella più satura di default.:)
Giovamas
15-07-2020, 12:02
+50 dalla 2080ti con gli stessi cc della Titan.
https://www.tweaktown.com/news/73772/amds-next-gen-rdna-2-rumor-40-50-faster-than-geforce-rtx-2080-ti/index.html
Beh Mike spero che vadano forte così abbasseranno i prezzi. la 5850 è stata la mia ultima AMD io prenderò sempre nvidia lasciando perdere i fanboysmi (ed ho le mie ragioni)
Beh Mike spero che vadano forte così abbasseranno i prezzi. la 5850 è stata la mia ultima AMD io prenderò sempre nvidia lasciando perdere i fanboysmi (ed ho le mie ragioni)
bhe ma vi immaginate se la mettessero a 1199$ msrp? :asd:
Il fatto che abbia delle DDR6 invece della HBM2 potrebbe far pensare a costi più competitivi MA non sapendo un die sui 7nm+ quanto costi rispetto ai precedenti 7 lisci lascia ancora dubbi su prezzi "umani"..... al solito in casa amd il best bung for the buck è sempre la top tagliata ed è quella a cui punto l'anno prossimo....
AMD è fortissima in certi colori, come il nero dei black screen, il blu dei bsod, ed il verde, anche il marrone delle memorie non scherza.:sofico: :D
:asd:
fraussantin
15-07-2020, 12:37
+50
AMD è fortissima in certi colori, come il nero dei black screen, il blu dei bsod, ed il verde, anche il marrone delle memorie non scherza.:sofico: :D
:rotfl:
Scherzo anch'io, su certi pannelli, è vero che AMD risulta bella più satura di default.:)
Si ho notato anche io una calibrazione piú spinta in vividezza e saturazione.
Ma del resto é una moda del momento e forse non sbagliano , abituati a vedere i colori sparati dei telefoni moderni , la vita reale ci sembra sbiadita e piú triste del solito.
mikael84
15-07-2020, 12:42
Beh Mike spero che vadano forte così abbasseranno i prezzi. la 5850 è stata la mia ultima AMD io prenderò sempre nvidia lasciando perdere i fanboysmi (ed ho le mie ragioni)
Beh AMD è avanti di un nodo, le possibilità di migliorare le ha (non certo 50% 2080ti).
Molto ben più drammatica è la situazione del raster di nvidia, in quanto rimane molto indietro con un 10nm Samsung aggiornato, con piccolissimi incrementi d'area e consumi.
Per dirti il boost clock di questi nanometri possono variare dal 10 al 20%.
Se i clock si riveleranno a metà o ancora vicini al 10%, bisogna sperare nell'IPC o in un lavoro elettrico mirato.:)
Thunder-74
15-07-2020, 12:44
Intendi per la resa cromatica perfetta a video? :sofico:
si scherza su, non prenderla sul personale...
Tranquillo nessuno se la prende, non avevo messo faccine ma ero sull'ironico anch'io ;)
Beh AMD è avanti di un nodo, le possibilità di migliorare le ha (non certo 50% 2080ti).
Molto ben più drammatica è la situazione del raster di nvidia, in quanto rimane molto indietro con un 10nm Samsung aggiornato, con piccolissimi incrementi d'area e consumi.
Tanto poi farà il refresh coi 7 o 5nm di TSMC :)
Io se posso salterò questa gen.
mikael84
15-07-2020, 12:53
:rotfl:
Si ho notato anche io una calibrazione piú spinta in vividezza e saturazione.
Ma del resto é una moda del momento e forse non sbagliano , abituati a vedere i colori sparati dei telefoni moderni , la vita reale ci sembra sbiadita e piú triste del solito.
Nvidia ti costringe a smanettare un tantino la brillantezza digitale, o il contrasto dal driver a seconda del pannello, sopratutto TN e VA di basso livello.
Su AH-IPS, ho fatto varie prove, e non cambiava nulla.
Molti queste cose non le conoscono, sopratutto su certi pannelli, e si ritrovano di default un piattume generale.
Ci sono schede però come le Asus, che spesso hanno un contrasto più elevato di base delle AMD.
10900k occato + 3080ti occata = centralina Enel dedicata :asd:
:D :D :D
Giovamas
15-07-2020, 13:20
Beh AMD è avanti di un nodo, le possibilità di migliorare le ha (non certo 50% 2080ti).
Molto ben più drammatica è la situazione del raster di nvidia, in quanto rimane molto indietro con un 10nm Samsung aggiornato, con piccolissimi incrementi d'area e consumi.
Per dirti il boost clock di questi nanometri possono variare dal 10 al 20%.
Se i clock si riveleranno a metà o ancora vicini al 10%, bisogna sperare nell'IPC o in un lavoro elettrico mirato.:)
grazie Mike chiarissimo come sempre :)
TigerTank
15-07-2020, 13:22
Nvidia ti costringe a smanettare un tantino la brillantezza digitale, o il contrasto dal driver a seconda del pannello, sopratutto TN e VA di basso livello.
Su AH-IPS, ho fatto varie prove, e non cambiava nulla.
Molti queste cose non le conoscono, sopratutto su certi pannelli, e si ritrovano di default un piattume generale.
Ci sono schede però come le Asus, che spesso hanno un contrasto più elevato di base delle AMD.
O lumasharpen + vibrance da Reshade.
Insieme all'SMAA sono il mio terzetto classico usato millemila volte :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.