View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
Crysis90
18-11-2020, 10:13
ARRIVATA LA BIMBA!!!
https://i.imgur.com/I5MVy1W.jpg
https://i.imgur.com/6TvnAcK.jpg
https://i.imgur.com/avzq4zm.jpg
https://i.imgur.com/eeqVX9y.jpg
https://i.imgur.com/WZ9YeWC.jpg
E' veramente ENORME. :eek: :eek:
Quincy_it
18-11-2020, 10:18
ARRIVATA LA BIMBA!!!
[cut img]
Bella bestia! ;)
jing1988
18-11-2020, 10:23
Consegnata anche la mia! Devo solo andare a ritirarlo, fra 5 minuti! Cincin!
Inviato dal mio iPhone utilizzando Tapatalk
sertopica
18-11-2020, 10:25
Mi fai una foto alla tua curvatura? Io non riesco a farla andare nenake a 1950 fissa.. Sale e scende in contuazione bohh
Ecco qua: https://abload.de/img/cattcckng.png
Devi anche controllare che non raggiunga il power limit, senno' taglia comunque.
edit: ah no spe, intendi la curva voltaggio/freq? Tie':
https://abload.de/img/catt2sxjch.png
ARRIVATA LA BIMBA!!!
cut
E' veramente ENORME. :eek: :eek:
Auguri! :cincin: :hic:
Non scordare di mettere lo switch su oc mode, senno' le ventole si fermano sotto una certa temperatura. :O
jing1988
18-11-2020, 10:42
https://uploads.tapatalk-cdn.com/20201118/0ba5b423ab5ff9f7a65d2de6d5eaf0ba.jpg
Eccola la mia!!
Inviato dal mio iPhone utilizzando Tapatalk
fraussantin
18-11-2020, 10:42
Ecco qua: https://abload.de/img/cattcckng.png
Devi anche controllare che non raggiunga il power limit, senno' taglia comunque.
edit: ah no spe, intendi la curva voltaggio/freq? Tie':
https://abload.de/img/catt2sxjch.png
Auguri! :cincin: :hic:
Non scordare di mettere lo switch su oc mode, senno' le ventole si fermano sotto una certa temperatura. :O
Ma le ventole le gestisce tutte e 2\3 assieme MSI AB?
Un voltaggio per iniziare , che funzioni di sicuro a 1900 ? 875 sarà poco?
Oggi volevo smanettarci un po' per abbassare il consumo.
lunaticgate
18-11-2020, 10:44
Ma se un giorno mai dovessi trovare disponibilità di una 3080, avete consigli su quale 3080 prendere in considerazione e quale magari evitare?
Non faccio overclocking, ma mi interessa tenere a bada temperatura e rumorosità.
sertopica
18-11-2020, 10:50
Eccola la mia!!
Inviato dal mio iPhone utilizzando Tapatalk
Wow che bella scatola! Mi ricorda quella che ho visto due post piu' sopra. :asd:
Ma le ventole le gestisce tutte e 2\3 assieme MSI AB?
Un voltaggio per iniziare , che funzioni di sicuro a 1900 ? 875 sarà poco?
Oggi volevo smanettarci un po' per abbassare il consumo.
Su x1 precision devi cliccare sul simbolo che linka le tre ventole, dopodiche' puoi anche chiudere precision e proseguire su afterburner. 1900 puoi anche provare 0.85 ma ogni scheda e' un caso a se' devi testare.
fraussantin
18-11-2020, 10:57
Wow che bella scatola! Mi ricorda quella che ho visto due post piu' sopra. :asd:
Su x1 precision devi cliccare sul simbolo che linka le tre ventole, dopodiche' puoi anche chiudere precision e proseguire su afterburner. 1900 puoi anche provare 0.85 ma ogni scheda e' un caso a se' devi testare.Ok grazie , dopo mi ci diverto un po' .
In pratica x1 lascia in memoria alla scheda il settaggio
Crysis90
18-11-2020, 10:57
Bella bestia! ;)
Tutto grazie a te. :mano:
Auguri! :cincin: :hic:
Non scordare di mettere lo switch su oc mode, senno' le ventole si fermano sotto una certa temperatura. :O
Sarà la prima cosa che farò.
Eccola la mia!!
Siamo diventati fratelli gemelli. :D
Ecco qua: https://abload.de/img/cattcckng.png
Devi anche controllare che non raggiunga il power limit, senno' taglia comunque.
edit: ah no spe, intendi la curva voltaggio/freq? Tie':
https://abload.de/img/catt2sxjch.png
Auguri! :cincin: :hic:
Non scordare di mettere lo switch su oc mode, senno' le ventole si fermano sotto una certa temperatura. :O
Io il power limit lo metto al massimo 109% non devo farlo?
jing1988
18-11-2020, 11:08
Tutto grazie a te. :mano:
Sarà la prima cosa che farò.
Siamo diventati fratelli gemelli. :D
Ahahah. Non sarebbe male.
Voi tutti usate AB? precision x1 di evga va bene comunque? Ha anche lui i grafici utilizzo e altro?
Inviato dal mio iPhone utilizzando Tapatalk
fraussantin
18-11-2020, 11:10
Ahahah. Non sarebbe male.
Voi tutti usate AB? precision x1 di evga va bene comunque? Ha anche lui i grafici utilizzo e altro?
Inviato dal mio iPhone utilizzando TapatalkL'ho provato 5 mn per i led , e sinceramente mi pare uguale
Ma mi serve rivatuner , per l'osd di hwinfo quindi preferisco usare un sw unico.
sertopica
18-11-2020, 11:11
Ok grazie , dopo mi ci diverto un po' .
In pratica x1 lascia in memoria alla scheda il settaggio
A quanto pare si!
Io il power limit lo metto al massimo 109% non devo farlo?
Piu' lo alzi piu' dai corrente alla scheda, quindi in linea teorica se non sfori con le temperature avrai frequenze piu' alte.
x1 comunque non e' all'altezza di afterburner purtroppo, ed e' pure piu' pesante. E' utile per i led e per vedere le temperature di tutte le singole componenti.
NemesisQ3A
18-11-2020, 11:19
Ma le ventole le gestisce tutte e 2\3 assieme MSI AB?
Un voltaggio per iniziare , che funzioni di sicuro a 1900 ? 875 sarà poco?
Oggi volevo smanettarci un po' per abbassare il consumo.
La mia (che è uguale alla tua) Ha bisogno di 912mV per essere stabile a 1950, ma siamo proprio sul bordo del Power Limit (Power Limit che anche se settato al 108% non varia assolutamente, sempre tra i 330 e i 345 W rimane)
fraussantin
18-11-2020, 11:22
Cut
Cutter90
18-11-2020, 11:23
E pensate che le evga sono tra le più minute
NemesisQ3A
18-11-2020, 11:24
Cut
Mai visto andare sopra i 345W
fraussantin
18-11-2020, 11:33
Mai visto andare sopra i 345WLo hai aggiornato il BIOS?
X1 la fa da se.
Io non l'ho vista andare oltre i 315 , ma boh secondo me monitora male hwinfo.
Volevo provare ad abbassarlo un po' il consumo e vedere se sta un po' più fresca.
Ma forse non ti supera i 340 perché é bloccata a 1950.
NemesisQ3A
18-11-2020, 11:52
Lo hai aggiornato il BIOS?
X1 la fa da se.
Io non l'ho vista andare oltre i 315 , ma boh secondo me monitora male hwinfo.
Volevo provare ad abbassarlo un po' il consumo e vedere se sta un po' più fresca.
Ma forse non ti supera i 340 perché é bloccata a 1950.
La scheda l'ho aggiornata. Sul powerlimit invece sono sicuro che i limiti son questi, non va oltre, ho trovato svariate conferme sul forum di evga. Considerato che in ogni caso ha 2 connettori, per una configurazione in daily, va benone per me.
Thunder-74
18-11-2020, 11:52
Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
https://i.imgur.com/gRtGZjp.png
DJurassic
18-11-2020, 11:55
Ottimo, facessero però qualche ottimizzazione anche per Flight Simulator 2020 :stordita:
FS al momento ha semplicemente bisogno del meglio del meglio del meglio per essere giocato maxato.
https://www.youtube.com/watch?v=xxcTRDFivLA&list=FL9YyRlrjGAKC1CvjHapLMUQ&index=1
Quando arriveranno le DX12 in concomitanza con il lancio su XSX allora avremo tutti un bel boost delle performance.
fraussantin
18-11-2020, 11:55
La scheda l'ho aggiornata. Sul powerlimit invece sono sicuro che i limiti son questi, non va oltre, ho trovato svariate conferme sul forum di evga. Considerato che in ogni caso ha 2 connettori, per una configurazione in daily, va benone per me.Ma si figurati io volevo abbassarlo i consumi più che altro se mi dici che 1950 vuole quei voltaggi la penso più che abbiano finito i chip buoni sulle FE e ci abbiano messo chip sbinnati.
Poi frega meno di 0 é...
E cmq Abbiamo il reso fino a fine gennaio xD...
Se mai arrivasse una FE a stock prima xD..
DJurassic
18-11-2020, 11:57
Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
https://i.imgur.com/gRtGZjp.png
Con un 8700K dubito possa fare quel punteggio (intendo i 17k). Datemi un 5900x e se ne riparla. :O
Cutter90
18-11-2020, 12:01
Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
https://i.imgur.com/gRtGZjp.png
21100:D ....... ma con la 3090 :fagiano:
https://www.3dmark.com/spy/15139206
piperprinx
18-11-2020, 12:37
Arrivata anche la FTW
Two girls one...sli?:D
https://i.postimg.cc/66LVMCfC/3090.jpg (https://postimages.org/)
Crysis90
18-11-2020, 12:43
Arrivata anche la FTW
Two girls one...sli?:D
Sei andato giusto un tantino overkill. :asd: :eek: :eek:
jing1988
18-11-2020, 12:46
Arrivata anche la FTW
Two girls one...sli?:D
https://i.postimg.cc/66LVMCfC/3090.jpg (https://postimages.org/)
Eh la madonna. Ecco perché tantino non trovavano una. Hahaha.
Intanto posto la mia montata. ENORME! https://uploads.tapatalk-cdn.com/20201118/2c889a87d35f9b2db9e3f0d15a5ff395.jpg
Sta in TT LEVEL 20XT. ancora due cm toccava il radiatore posto sopra. Ho fatto una faticaccia ad inserire i tre da 8pin! Ci ho messo 5 minuti!
Inviato dal mio iPhone utilizzando Tapatalk
DarkNiko
18-11-2020, 12:50
Arrivata anche la FTW
Two girls one...sli?:D
Complimenti, ma dove le hai prese?
Comunque questo dimostra che gli operatori di Amazon sono degli autentici buffoni,
perché sicuramente l'ordine che avevo fatto della EVGA FTW3 Ultra era andato a buon fine
(i soldi erano trattenuti dalla banca), ma l'operatore non vedendo il prodotto disponibile
sul sito ha pensato che fosse un errore e ha annullato tutto.
Pace, lieto che qualcun altro l'abbia avuta. Io me la sono presa, invece, in quel posto e non per un errore mio. :(
Mi sono accorto adesso, non so se ne eravate al corrente, che su Drako hanno la RTX Titan in pronta consegna. :eek:
DJurassic
18-11-2020, 12:59
Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
Detto fatto :asd:
https://i.ibb.co/YXtR0yv/TIMESPY-3080-19000-GPU-SCORE.png
https://www.3dmark.com/3dm/53209117?
Cutter90
18-11-2020, 13:00
Arrivata anche la FTW
Two girls one...sli?:D
https://i.postimg.cc/66LVMCfC/3090.jpg (https://postimages.org/)
Ma cosa te ne fai? :D
fraussantin
18-11-2020, 13:16
https://i.postimg.cc/FFSNvKz0/screenshot-287.jpg (https://postimages.org/)
https://i.postimg.cc/gkPd2PLQ/screenshot-288.jpg (https://postimg.cc/pyk3s4ZJ)
messo per prova a 900mv 1905 sembra stabile per adesso in horizon il gioco più potente che ho al momento installato ( moolto safe anche per capire come funziona il sistema)
il consumo sotto horizon è droppato di brutto da 315 a 280W .
il problema è la gestione delle ventole secondo me troppo sballata. non mi tornano i valori di rpm .
anche l'interfaccia di AB non aiuta , per errore mi era partito a ventole spente anche se le avevo settate.
io cmq il tdp a 340 non l'ho mai visto manco con la gpu al 99%.
ma che dipende dai giochi forse? la 2070 era sempre a 200 a stecca
ps ho settato bene la curva? mi ha droppato anche gli tep precedenti è normale? ( ho seguito la giuda linkat aieri)
DarkNiko
18-11-2020, 13:16
Ma cosa te ne fai? :D
Si vanterà di averne sottratta una a qualche altro utente che la vuole come il pane. :asd:
piperprinx
18-11-2020, 13:18
Sei andato giusto un tantino overkill. :asd: :eek: :eek:
No, tranqui, se la FTW mi convince la TUF la vendo, se non mi convince torna ad Amazon e aspetto una Strix e poi vendo la TUF, che e' ottima ma nell'ottica un domani di liquidare preferisco una 3 connettori.
La Strix ha anche piu' scelta di WB...
Cutter90
18-11-2020, 13:27
No, tranqui, se la FTW mi convince la TUF la vendo, se non mi convince torna ad Amazon e aspetto una Strix e poi vendo la TUF, che e' ottima ma nell'ottica un domani di liquidare preferisco una 3 connettori.
La Strix ha anche piu' scelta di WB...
Se aggiustano il bios della ftw3090 500 watt andrebbe a scheggia. Ci ho smanettato parecchio ma sembra che abbiano problemi a raggiungere i 500 watt senza shunt mod
Thunder-74
18-11-2020, 13:35
Detto fatto :asd:
cut...
https://www.3dmark.com/3dm/53209117?
hai un chip che doveva trovarsi su altro pcb...
Ennesima prova e conferma che le custom premium non servono a un caxxo, se non a fare qualche grado in meno (rispetto alla 3080 FE)
719 é il prezzo giusto per una 3080..... anche spendere solo 50 euro in piú, no sense! per poi avere pure della plasticaccia!! tolti i bios da 450w LOL, altra inutilitá..
Avessi trovato una FE:doh: :doh:
ora non so se nVidia si è tenuta i chip migliori per le sue, ma se ti vai a vedere le rece di varie 3080 in merito all'oc, ti renderai conto che va veramente a :ciapet: più di quanto non fosse con Turing. Ci sono alcune che non salgono di una virgola rispetto alle feq. def vendute, indipendentemente dal modello.
Crysis90
18-11-2020, 13:37
https://i.imgur.com/J9CVEYq.jpg
https://i.imgur.com/ofhi5ii.jpg
Non sono mai stato uno che compra componenti PC per le lucine, ma devo dire che esteticamente è piacevole.
DJurassic
18-11-2020, 13:40
Ennesima prova e conferma che le custom premium non servono a un caxxo, se non a fare qualche grado in meno (rispetto alla 3080 FE)
719 é il prezzo giusto per una 3080, no sense anche spendere solo 50 euro in piú, per poi avere pure della plasticaccia, tolti i bios da 450w LOL, altra inutilitá..
Avessi trovato una FE:doh: :doh:
E' anche vero che la mia probabilmente è una di quelle fortunate. Ma si, sono perfettamente d'accordo con te. Se una scheda da 719€ tiene botta anche al top tra le custom quale la Strix al momento c'è qualche considerazione che andrebbe fatta. Che poi quei 10 °C in meno sono senz'altro da preferirsi è sacrosanto ma è pure vero che ti stanno facendo pagare una media di 20€ a grado. E se consideri che il waterblock EK ti costa 270€ hai la risposta.
hai un chip che doveva trovarsi su altro pcb...
ora non so se nVidia si è tenuta i chip migliori per le sue, ma se ti vai a vedere le rece di varie 3080 in merito all'oc, ti renderai conto che va veramente a :ciapet: più di quanto non fosse con Turing. Ci sono alcune che non salgono di una virgola rispetto alle feq. def vendute, indipendentemente dal modello.
Vero. La mia è parecchio sculata. Ma da quello che ho visto anche Exes ha un bel chip sulla stessa FE. Poi siamo talmente pochi ad averla che difficile fare una vera e propria media. Per altro pcb che intendi?
Thunder-74
18-11-2020, 13:45
E' anche vero che la mia probabilmente è una di quelle fortunate. Ma si, sono perfettamente d'accordo con te. Se una scheda da 719€ tiene botta anche al top tra le custom quale la Strix al momento c'è qualche considerazione che andrebbe fatta. Che poi quei 10 °C in meno sono senz'altro da preferirsi è sacrosanto ma è pure vero che ti stanno facendo pagare una media di 20€ a grado. E se consideri che il waterblock EK ti costa 270€ hai la risposta.
Vero. La mia è parecchio sculata. Ma da quello che ho visto anche Exes ha un bel chip sulla stessa FE. Poi siamo talmente pochi ad averla che difficile fare una vera e propria media. Per altro pcb che intendi?
sul mio PCB :D
DJurassic
18-11-2020, 13:47
sul mio PCB :D
:mc: :asd:
Parliamo di bench Thunder. All'atto pratico stai in una botte di ferro e nei giochi non vedrai mai nessuna differenza.
Thunder-74
18-11-2020, 13:51
:mc: :asd:
Parliamo di bench Thunder. All'atto pratico stai in una botte di ferro e nei giochi non vedrai mai nessuna differenza.
per carità , poi mangari in situazioni dove si sforano i 370w, la strix riesce a tenere mediamente freq. più alte, però parliamo di inezie.
Sono curioso di vedere se a liquido la situazione migliora.... a dicembre forse riuscirò a ricevere il WB...
DarkNiko
18-11-2020, 13:54
@Crysis90
Hai un Helios Strix di Asus come case? Chiedo per pura curiosità perché mi piace molto la tua disposizione all'interno. :)
Crysis90
18-11-2020, 14:00
@Crysis90
Hai un Helios Strix di Asus come case? Chiedo per pura curiosità perché mi piace molto la tua disposizione all'interno. :)
No.
NZXT H510 Elite.
Thunder-74
18-11-2020, 14:07
3080 POCO SOPRA
https://i.postimg.cc/Z96RnD5Q/relative-performance-3840-2160.png (https://postimg.cc/Z96RnD5Q)
https://i.postimg.cc/nMg6SVkv/grgr.jpg (https://postimg.cc/nMg6SVkv)
ottimo dai, quindi 6900xt poco sopra 3080
si ma in RT fa cacare... e senza DLSS
https://tpucdn.com/review/amd-radeon-rx-6800/images/metro-exodus-rtx-3840-2160.pnghttps://tpucdn.com/review/amd-radeon-rx-6800/images/control-rtx-3840-2160.png
Cutter90
18-11-2020, 14:08
Ma cos'è uno scherzo? Cioè, non può andare così male in rt:mbe:
DJurassic
18-11-2020, 14:11
Quello era sottinteso thunder:p parlavo di raster.
Globalmente meglio 3080, certo, amd é piú efficiente perf/watt (sempre parlando di raster) e con piú vram, ma finisce li..
Ci fai ben poco con la RAM quando si tratta di RT :asd:
Thunder-74
18-11-2020, 14:13
Quello era sottinteso thunder:p parlavo di raster.
Globalmente meglio 3080, certo, amd é piú efficiente perf/watt (sempre parlando di raster) e con piú vram, ma finisce li..
assolutamente... vedevo l'oc di 2500mhz e pensavo a come sarebbe stato Ampere a 7nm... :cry:
Crysis90
18-11-2020, 14:18
si ma in RT fa cacare... e senza DLSS
Esatto.
3080 docet. :O :read:
Thunder-74
18-11-2020, 14:19
Alla prossima amd:O inutile andare quanto una 2080ti del 2018 in RT, quelle performance le avevo 2 anni fa:p
https://i.postimg.cc/62yBRjWw/variazione-media-rt-su-2080-no-dirt5.png (https://postimg.cc/62yBRjWw)
Dovrebbero costare molto meno, 50 dollari in meno per prenderle sonoramente in RT (per non parlare del DLSS???)
praticamente nVidia è una generazione indietro rispetto al PP, mentre AMD lo è con il RT senza considerare il DLSS, altrimenti è 2 indietro...
Black"SLI"jack
18-11-2020, 14:21
praticamente in RT la XT fa meno della mia 2080ti....
pensavo quasi di pentirmi di aver preso la 3090, invece. considerando poi che che solo in una manciata di giochi è sopra alle verdi.
Crysis90
18-11-2020, 14:22
NVidia in raster è riuscita a fare meglio benchè abbia un PP nettamente inferiore.
Dai, poteva andare peggio. :D :D
Pensate che mostri sarebbero state queste Ampere se NVidia avesse potuto spingerle alle stesse frequenze dei modelli RDNA2. :eek: :eek:
mikael84
18-11-2020, 14:41
si ma in RT fa cacare... e senza DLSS
Naturale raga.
Calcolo matematico
RTX 2080ti: 42-45 a stock
RX 6800xt: 20,5tf in downclock medio 42/43 in base al clock in RT.
https://i.postimg.cc/MK61xp6L/rat.png
Ci fai ben poco con la RAM quando si tratta di RT :asd:
Una 3070 media senza DLSS per lo stesso prezzo, hai voglia di mettere ram.:p
assolutamente... vedevo l'oc di 2500mhz e pensavo a come sarebbe stato Ampere a 7nm... :cry:
Qualcuno però, dice che sono lo stesso nodo.:p
Proprio cosí, le amd ottime in raster rapporto perf/watt lo hanno loro, con piú vram......per quanto riguarda le performance assolute, la 3080 sopra ma di pochissimo, diciamo che sono equiparabili + o -...... ma.....
ma.....Manca tutto il contorno, rt a livelli di 2080ti, dlss?? boh...
Listino 649 e 699, io scelgo la seconda...
Tirando le somme, ci abbiamo visto bene, per solo gaming 6900xt e 3090 da lasciare li, 3080 sembra sia davvero un asso pigliatutto al giusto prezzo.
Senza RT di livello non servono a nulla a quei prezzi.
Io che ho una 2070s binnata, che spendo 600 euro (se va bene ) per una 6800 liscia, per medie leggermente sopra (5-7%) ad una 3070, ed RT simile al mio, e senza DLSS.
Questa gen, la 3080 la vince a mani basse.
Crysis90
18-11-2020, 14:44
3080 sembra sia davvero un asso pigliatutto al giusto prezzo.
Assolutamente.
Poi per chi gioca in 4K come me, il DLSS è una killer app.
mattia.l
18-11-2020, 14:47
I 10GB di ram mi preoccupano di brutto, la scheda non ha futuro
praticamente in RT la XT fa meno della mia 2080ti....
pensavo quasi di pentirmi di aver preso la 3090, invece. considerando poi che che solo in una manciata di giochi è sopra alle verdi.scusa che mdello di 3090 hai preso ciao
Crysis90
18-11-2020, 14:55
Vince 3080 IMHO, 660 euro manco per sogno glieli darei, meglio i 719 per la verde.
Comunque anche AMD ha spremuto il chip fino all'osso, anche in OC spinto a 2.5 Ghz non svernicia la 3080 che è più lenta di 5/600 Mhz a default.
https://i.imgur.com/Y7aQdVQ.png
Black"SLI"jack
18-11-2020, 14:56
scusa che mdello di 3090 hai preso ciao
palit gaming pro. da amazon.
acquisto fatto in un momento di pazzia/scimmia/inca..atura/"quel che vuoi" :asd:
ARRIVATA LA BIMBA!!!
E' veramente ENORME. :eek: :eek:
;)
Eccola la mia!!
;)
Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
https://i.imgur.com/gRtGZjp.png
18892 My Trinity
https://i.postimg.cc/jq39w9w7/Spy-2-K-3080-Copia.png (https://postimages.org/)
Proprio cosí, le amd ottime in raster rapporto perf/watt lo hanno loro, con piú vram......per quanto riguarda le performance assolute, la 3080 sopra ma di pochissimo, diciamo che sono equiparabili + o -...... ma.....
ma.....Manca tutto il contorno, rt a livelli di 2080ti, dlss?? boh...
Listino 649 e 699, io scelgo la seconda...
Tirando le somme, ci abbiamo visto bene, per solo gaming 6900xt e 3090 da lasciare li, 3080 sembra sia davvero un asso pigliatutto al giusto prezzo.
Diciamo ampiamente prevedibile, buon lavoro di AMD ma non ancora alla pari.
Questa gen, la 3080 la vince a mani basse.
Sono curioso di vedere la 6900XT..
mikael84
18-11-2020, 15:17
Eh no mike, vedrai che appena finiscono di leggere le review, DIRT 5 diventerá l'uber alles, il King bench! corsini ha stilato due medie, includendolo ed escludendolo.
Parliamoci chiaro, nvidia e robaccia a livello di pp-densitá- e tutto quello che ne deriva (area die enormi, frequenze basse e consumi spropositati)
Ma amd é robaccia in rt, plagio al DLSS non ancora pervenuto .
Vince 3080 IMHO, 660 euro manco per sogno glieli darei, meglio i 719 per la verde.
https://www.techpowerup.com/review/amd-radeon-sam-smart-access-memory-performance/4.html
Neanche fidelizzandosi completamente ad amd, cpu+gpu si va oltre..
Comprerei solo le cpu sinceramente, visto che intel sta dietro per il momento.
6800xt vs 3080 non c'è proprio storia, vince a mani basse la seconda.
Non spenderei mai quelle cifre, per una GPU monca.
AMD ha speso molto per colmare i bus, nvidia ha speso molto per tensor e pro.
Certo che se veramente li usasse quei tensor...
In geometria è rimasta uguale, sempre 4 primitive e 8 cull, le rop's sono raddoppiate, ma nei sintetici sono poca roba.
;)
Sono curioso di vedere la 6900XT..
La 6900xt ha solo il 10% sulle ALU, quindi teoricamente è il massimo possibile, ma quel valore è solo teorico.
Per fare meglio dovrà clockare più alto, o downclockare meno nelle review, però messe a pari clock, ci passerà meno del 10%.:)
TigerTank
18-11-2020, 15:19
Porno Raytracing :p
Mah...diciamo che il ray tracing dovrebbe introdurre un nuovo livello di realismo dinamico, ma quando i pavimenti sono talmente lucidi e riflettenti da sembrare uno specchio di acqua in una giornata estiva, si va nella direzione opposta :sofico:
Poi piú si sale di risoluzione piú incassa, come avevo previsto, la 3080 é piú muscle..
Prendo un titolo ubisoft Ac Valhalla, dov'é c'é scarso utilizzo di ALU e si é cpu bound, notare come in 1440p la 6800xt decolli, spostandosi in 4k la 3080 la riprende come nulla.
https://www.youtube.com/watch?v=ZtxrrrkkTjc
6800xt é un ottima scheda per il 1440p, grazie anche al SAM e alcuni barbatrucchi riesce a recuperare piccole percentuali, mitigando cpu limited e spingendo tutte le Alu, merito anche della frequenza elevata, tutto il contrario della 3080, dove ha la meglio in 4k appena il computo grafico si eleva.
Ottima scheda per il 1440p, ma a risoluzioni elevate 3080 la stacca.
Morale della favola, come specifiche 3080 é una bestia ma paga dazio a risoluzioni basse per la questione del clock, 6800xt é una saetta in QHD avendo un clock elevatissimo e riuscendo ad impiegare e sfruttare molte piú alu le performance sono ottime!
Hai letto la recensione?
Ti riporto proprio il giudizio sui 4k
La Radeon RX 6800 XT, avete visto nei nostri test, incrocia la spada con la GeForce RTX 3080 di Nvidia, un risultato che in pochi si sarebbero aspettati sino a qualche settimana fa. Se teniamo conto di tutti i test, quindi anche il caso DiRT 5, abbiamo il pareggio a risoluzione 4K tra le due schede e un leggero vantaggio per la RX 6800 XT alle risoluzioni inferiori, mentre se escludiamo il titolo di Codemasters, i test vedono un leggero vantaggio di Nvidia, ma possiamo definirla una partita che si è conclusa con una patta.
TigerTank
18-11-2020, 15:25
per carità , poi mangari in situazioni dove si sforano i 370w, la strix riesce a tenere mediamente freq. più alte, però parliamo di inezie.
Sono curioso di vedere se a liquido la situazione migliora.... a dicembre forse riuscirò a ricevere il WB...
Beh guarda, dopo l'esperienza che feci con la 980TI Classified ti posso dire che non c'è cosa peggiore che trovare un silicio "scarso" su una scheda custom di alto livello. Manco il liquido e l'overvolt "esclusivo" smossero nulla :mc:
Ecco perchè ormai punto a modelli più "standard"(tipo XC3 o TUF invece di FTW3 o Strix) almeno in caso di gpu non binnata, la frustrazione sarebbe minore :D
palit gaming pro. da amazon.
acquisto fatto in un momento di pazzia/scimmia/inca..atura/"quel che vuoi" :asd:
pure io spero di non aver fatto una cazzata:confused: :confused: :confused:
[QUOTE=Thunder-74;47107787]Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
https://i.ibb.co/X2L2fvq/TIMESPY.png (https://ibb.co/Gxpxfbq)
Aorus Xtreme
mikael84
18-11-2020, 15:31
Poi piú si sale di risoluzione piú incassa, come avevo previsto, la 3080 é piú muscle..
Prendo un titolo ubisoft Ac Valhalla, dov'é c'é scarso utilizzo di ALU e si é cpu bound, notare come in 1440p la 6800xt decolli, spostandosi in 4k la 3080 la riprende come nulla.
https://www.youtube.com/watch?v=ZtxrrrkkTjc
6800xt é un ottima scheda per il 1440p, grazie anche al SAM e alcuni barbatrucchi riesce a recuperare piccole percentuali, mitigando cpu limited e spingendo tutte le Alu, merito anche della frequenza elevata, tutto il contrario della 3080, dove ha la meglio in 4k appena il computo grafico si eleva.
Ottima scheda per il 1440p, ma a risoluzioni elevate 3080 la stacca.
Morale della favola, come specifiche 3080 é una bestia ma paga dazio a risoluzioni basse per la questione del clock, 6800xt é una saetta in QHD avendo un clock elevatissimo e riuscendo ad impiegare e sfruttare molte piú alu le performance sono ottime!
Da considerare che la 3080 è anche più squartata.
La 6800xt ha 10/11% in meno di shader e basta, la 3080 il 23% in meno di shader, 16% sulle rop's e geometria, banda etc.
inoltre se gli butti qualche gioco poco sgradito è la fine.
Certo, poi parliamo anche del 20% dovuto al PP.
Alekos Panagulis
18-11-2020, 15:37
Vince 3080 IMHO, 660 euro manco per sogno glieli darei, meglio i 719 per la verde.
Peccato che a quel prezzo l'hanno presa due persone in tutto il mondo.
Il prezzo da prendere in considerazione è almeno 800 euro, se si è fortunati, più facile 900.
In questo le comparative prezzo/performance sono completamente sballate.
Leggi bene quello che ho scritto:)
Non é una novitá, piú si sale di risoluzione e piú la 3080 stacca la 6800xt, basta guardarsi le medie delle review.
Ho fatto l'esempio di Ac, proprio per far capire che in 1440p la 6800xt é in netto vantaggio, ma appena ci si sposta in 4k la 3080 recupera, e nella maggioranza dei titoli in 4k é sopra.
ERGO la 6800xt é ottima e bilanciata in 1440p ambito raster ed eguaglia la 3080 (mediamente) nulla di piú...
Ambito Rt lasciamo stare, sono a livello di 2080ti.
Sono d'accordo:cincin:
mikael84
18-11-2020, 16:08
Cut
Hai notato che anandtech non ha recensito neppure le AMD, strano.
Altro sito tecnico mezzo morto.
TigerTank
18-11-2020, 16:13
Da considerare che la 3080 è anche più squartata.
La 6800xt ha 10/11% in meno di shader e basta, la 3080 il 23% in meno di shader, 16% sulle rop's e geometria, banda etc.
inoltre se gli butti qualche gioco poco sgradito è la fine.
Certo, poi parliamo anche del 20% dovuto al PP.
Ahahah grande Mike, detto il devastatore(ma molto tecnico)! :D
albero77
18-11-2020, 16:16
Peccato che a quel prezzo l'hanno presa due persone in tutto il mondo.
Il prezzo da prendere in considerazione è almeno 800 euro, se si è fortunati, più facile 900.
In questo le comparative prezzo/performance sono completamente sballate.
si certo, ma le amd dove sono e a che prezzo? io ho visto un altro paper launch..congratulation
piperprinx
18-11-2020, 16:16
Se aggiustano il bios della ftw3090 500 watt andrebbe a scheggia. Ci ho smanettato parecchio ma sembra che abbiano problemi a raggiungere i 500 watt senza shunt mod
Vediamo un po', nel we testo. Hai provato il bios XC? Dicono che sblocchi...
Altra cosa da provare e' il bios Strix che ne ha 480.
Al momento ho fatto giusto in tempo a fare un Port Royal con giusto due click di AB e i 450W se li prende tutti, ha passato i 14.000, arrivato a 14100
Mallardo
18-11-2020, 16:32
Peccato che a quel prezzo l'hanno presa due persone in tutto il mondo.
Il prezzo da prendere in considerazione è almeno 800 euro, se si è fortunati, più facile 900.
In questo le comparative prezzo/performance sono completamente sballate.
Si vedrà tra un po' di tempo come si assesteranno i prezzi, certo se rimanessero questi la 6800xt avrebbe molto più senso, considerando che la maggior parte delle 3070 si trovano a più di 600€ e le 3080 a più di 800€. La disponibilità è stata scarsa, ma niente di paragonabile al lancio della serie 3000, molti qui sul forum sono riusciti a prenderle, penso torneranno sullo storie AMD. Io aspetterò ancora un po', se tornassero in vendita le FE andrei di 3080, ma se l'andazzo non cambia potrei passare ad AMD. La cosa positiva a questo giro, è che qualsiasi scheda si prenda ha ottime prestazioni.
si certo, ma le amd dove sono e a che prezzo? io ho visto un altro paper launch..congratulation
siamo giusto 20 persone ad averla presa al dayone dal sito amd qui sul forum.
io ero al dayone anche sul sito nvidia per la 3080 e 3070, eppure ho visto solo il passaggio da "available soon" a "acquista dai nostri partner".
DJurassic
18-11-2020, 17:08
Mah...diciamo che il ray tracing dovrebbe introdurre un nuovo livello di realismo dinamico, ma quando i pavimenti sono talmente lucidi e riflettenti da sembrare uno specchio di acqua in una giornata estiva, si va nella direzione opposta :sofico:
Dai vorresti dirmi che i miei ss di Legion ti hanno lasciato indifferente? :Prrr:
Jeetkundo
18-11-2020, 17:16
siamo giusto 20 persone ad averla presa al dayone dal sito amd qui sul forum.
io ero al dayone anche sul sito nvidia per la 3080 e 3070, eppure ho visto solo il passaggio da "available soon" a "acquista dai nostri partner".È stato un lancio del razzo dai. Oggi alle 15 ho provato. Rispetto al D-day nvidia ho visto per 3 secondi la roba in stock. Poi errore 503 e sito irraggiungibile.
Inviato dal mio LYA-L09 utilizzando Tapatalk
albero77
18-11-2020, 17:17
siamo giusto 20 persone ad averla presa al dayone dal sito amd qui sul forum.
io ero al dayone anche sul sito nvidia per la 3080 e 3070, eppure ho visto solo il passaggio da "available soon" a "acquista dai nostri partner".
vuoi che ti mando lo screen degli articoli rimasti nel carrello bloccati? stessa sorte delle cpu..ma poi ne vogliamo parlare del fatto che ad articoli esauriti manda comunque sul sito paypal per il pagamento:confused:
TigerTank
18-11-2020, 17:19
Dai vorresti dirmi che i miei ss di Legion ti hanno lasciato indifferente? :Prrr:
No no, anzi...molto belli a parte appunto quegli eccessi di riflessi. E' una cosa che non mi piace molto del ray tracing.
Attendendo Cyberpunk :D
Crysis90
18-11-2020, 17:20
Primi bench. con la EVGA (a default, BIOS OC).
Partiamo con RDR2.
Questi i settaggi grafici che avevo impostato con la 2080 Ti:
https://i.imgur.com/ZtjyZCn.jpg
https://i.imgur.com/MOvXmwl.jpg
https://i.imgur.com/7hkZjP5.jpg
https://i.imgur.com/kmKDfx0.jpg
Bench. con la RTX 2080 Ti che avevo prima:
https://i.imgur.com/d06eLa8.jpg
Bench. con la RTX 3080:
https://i.imgur.com/PnB8CUe.jpg
Bench. con la RTX 3080 col gioco a MASSIMO dettaglio possibile:
https://i.imgur.com/6yXtxFC.jpg
https://i.imgur.com/YlMaO5Z.jpg
Scheda lockata a 1950 Mhz, non si schioda.
T°max 69 °C.
Consumo massimo 389W.
Thunder-74
18-11-2020, 17:22
Uscito l'aggiornamento a godfall per attivare il Ray Tracing, ma solamente su GPU AMD, per le GPU nVidia bisogna attendere successivo aggiornamento. Strano visto che si basa sulle API Microsoft e quindi gestibili da entrambi... non sarà che dietro c'è lo zampino di AMD per spingere le sue schede e non far brutta figura lato RT con nVidia? .... eppure erano tranquilli perché titolo fuori dalla portata della 3080 visto i soli 10gb...
LINK (https://wccftech.com/godfall-ray-tracing-now-enabled-on-pc-but-only-on-amd-gpus-nvidia-getting-it-later/)
DJurassic
18-11-2020, 17:23
No no, anzi...molto belli a parte appunto quegli eccessi di riflessi. E' una cosa che non mi piace molto del ray tracing.
Attendendo Cyberpunk :D
Sarà identico sotto quell'aspetto. La differenza che CP avrà il RT anche per quanto riguarda l'illuminazione e le ombre. Mattonazzo clamoroso quindi :D
Considera che in Legion i riflessi cambiano a seconda delle superfici, su pozze d'acqua e marmi sono molto più riflettenti che non sui metalli per dirne una. Io sinceramente non lo sò, ma nella realtà non dovrebbe essere uguale?
Uscito l'aggiornamento a godfall per attivare il Ray Tracing, ma solamente su GPU AMD, per le GPU nVidia bisogna attendere successivo aggiornamento. Strano visto che si basa sulle API Microsoft e quindi gestibili da entrambi... non sarà che dietro c'è lo zampino di AMD per spingere le sue schede e non far brutta figura lato RT con nVidia? .... eppure erano tranquilli perché titolo fuori dalla portata della 3080 visto i soli 10gb...
LINK (https://wccftech.com/godfall-ray-tracing-now-enabled-on-pc-but-only-on-amd-gpus-nvidia-getting-it-later/)
E te lo chiedi pure? :sofico:
Come scrissi qualche giorno fà se vogliono killare quei 10Gb di Vram delle 3080 il modo di farlo lo trovano e su questo stai pure certo. Ma come la metti la metti è un gioco che ha già floppato sia su PS5 che su PC.
albero77
18-11-2020, 17:23
È stato un lancio del razzo dai. Oggi alle 15 ho provato. Rispetto al D-day nvidia ho visto per 3 secondi la roba in stock. Poi errore 503 e sito irraggiungibile.
Inviato dal mio LYA-L09 utilizzando Tapatalk
stessa cagata dei verdi, inizio a diventare insofferente verso chiunque.
alla fine dei conti le amd si sono avvicinate molto ma restano ancora dietro perche' a tuttotondo le 3000 offrono piu' ciccia , poi se vediamo anche i prezzi delle custom siamo gia' ai livelli delle verdi la scelta diventa obbligata a meno che uno non sia scimmiato di brutto per le amd...l'affare l'ha fatto chi e' riuscito a prendere la 6800xt a 680 prezzo giusto per una bella vga di fascia alta ma che arranca tremendamente nel reparto RT...oltre quel prezzo non ci siamo proprio
Raga ma che spettacolo è giocare ad Horizon Zero Dawn in 4K dettagli Ultra con media di 65-70 fps:eek: :eek: che grafica assurdo:)
https://i.imgur.com/dP4QohJ.jpg
fraussantin
18-11-2020, 17:46
Raga ma che spettacolo è giocare ad Horizon Zero Dawn in 4K dettagli Ultra con media di 65-70 fps:eek: :eek: che grafica assurdo:)
https://i.imgur.com/dP4QohJ.jpgIo me lo sto gustando in 2k a 100- 120 FPS
Crysis90
18-11-2020, 17:46
Prime prove in OC col BIOS originale da 380W:
https://i.imgur.com/c72UJd7.jpg
+100 Mhz e +100 mV sul core dal PrecisionX.
2.070 Mhz di frequenza, con ventole al 100% max T° di 63°C.
Consumo sempre 389W.
5% di gain a livello performances su RDR2.
SinapsiTXT
18-11-2020, 17:47
Comunque le schede AMD sono la scelta giusta per chi se ne fotte del RT :D
e ora lasciatemi comprare in santa pace la 3080 grazie :Prrr:
DJurassic
18-11-2020, 17:52
Raga ma che spettacolo è giocare ad Horizon Zero Dawn in 4K dettagli Ultra con media di 65-70 fps:eek: :eek: che grafica assurdo:)
Occhio che se ti sentono i divulgatori di isteria di massa ti diranno che i 10Gb di Vram non bastano per Horizon in 4K e che avrai problemi di stuttering clamorosi. :asd:
Comunque le schede AMD sono la scelta giusta per chi se ne fotte del RT :D
e ora lasciatemi comprare in santa pace la 3080 grazie :Prrr:
Per chi se ne fotte del RT e del DLSS quando è applicato. Che ad occhio e croce rappresenta un buon 30-40% a livello quality.
Io me lo sto gustando in 2k a 100- 120 FPS
potrei anch'io, ma fin quando sono al di sopra i 60fps preferisco il 4K
Occhio che se ti sentono i divulgatori di isteria di massa ti diranno che i 10Gb di Vram non bastano per Horizon in 4K e che avrai problemi di stuttering clamorosi. :asd:
hahah:D :D :D al momento 0 stuttering;) neanche mezzo. và liscio come l'olio;)
DJurassic
18-11-2020, 18:04
Se volevi suscitare il giusto clamore dovevi andarlo a scrivere di là, tanto mi sembra di capire che tu abbia scelto la via del ban in ogni caso :asd:
Crysis90
18-11-2020, 18:40
Altri test in OC:
https://i.imgur.com/QqG6SJW.jpg
+130 Mhz e +100 mV sul core dal PrecisionX.
Questo è il muro del mio chip col BIOS standard, se aumento di 5 punti la frequenza sul core crasha.
2.115 Mhz di frequenza, con ventole al 100% max T° di 64°C.
Adesso devo provare a montare il BIOS da 450W, spero mi aiuti a raggiungere almeno i 2.150 Mhz.
Con RDR2 tutto maxato il gain a livello di performances si aggira sempre sul 5%.
https://i.imgur.com/wYnltoU.jpg
Molto vicino ad un rock-solid 60 FPS in 4K.
Non vedo l'ora di provare Cyberpunk 2077. :sbav: :sbav:
È stato un lancio del razzo dai. Oggi alle 15 ho provato. Rispetto al D-day nvidia ho visto per 3 secondi la roba in stock. Poi errore 503 e sito irraggiungibile.
Inviato dal mio LYA-L09 utilizzando Tapatalk
io ho provato alle 15, come ho provato per i processori, ed ho avuto in entrambi i casi successo.
a me il sito ha sempre funzionato, tranne che per qualche minuto una volta che avevo già finito l'acquisto. le 6800xt sono state disponibili per circa 8-10 minuti, le 6800 per circa 20-25 minuti.
cambiate dns.
vuoi che ti mando lo screen degli articoli rimasti nel carrello bloccati? stessa sorte delle cpu..ma poi ne vogliamo parlare del fatto che ad articoli esauriti manda comunque sul sito paypal per il pagamento:confused:
almeno sei riuscito a metterla nel carrello, è già un passaggio in più rispetto a nvidia :sofico:
non dovevi usare paypal, ti incarti in passaggi ulteriori e nuove richieste di connessione al sito. io ho usato sia per la cpu che la scheda la carta di credito.
comunque le schede non saranno state tante ma c'erano, come testimonia il fatto che siamo almeno 20 persone sul forum ad averle prese oggi rispetto a 1, 2 delle FE nvidia.
Altri test in OC:
+130 Mhz e +100 mV sul core dal PrecisionX.
Questo è il muro del mio chip col BIOS standard, se aumento di 5 punti la frequenza sul core crasha.
2.115 Mhz di frequenza, con ventole al 100% max T° di 64°C.
Adesso devo provare a montare il BIOS da 450W, spero mi aiuti a raggiungere almeno i 2.150 Mhz.
Con RDR2 tutto maxato il gain a livello di performances si aggira sempre sul 5%.
Molto vicino ad un rock-solid 60 FPS in 4K.
Non vedo l'ora di provare Cyberpunk 2077. :sbav: :sbav:
ma perchè fai le foto allo schermo ? :stordita:
ovvio cazzone, fanno così cagare che gli scalpers si sono scansati :asd:
o forse c'era una protezione antibot migliore.
Blackbox11
18-11-2020, 18:47
Ho visto i test delle nuove Radeon.
Devo dire la verità, non davo un centesimo ad AMD per le sue nuove GPU, e invece hanno sganciato due belle bombette. Per chi se ne frega altamente di RT e DLSS e pensa a giocare e basta sono un best buy, soprattutto la 6800 liscia.
Ma per noi verdoni che siamo gente viziata non basta :D
Il primo titolo ufficiale a cui giocherò con la mia 3080 sarà Dirt 5, seguito da RDR2 (posticipato all'infinito proprio per giocarci con la 3080 :D )
Ragazzi, riuscite a fare 19k nel graphics score di Time Spy?
mi ci sono avvicinato parecchio :fagiano:
https://i.imgur.com/gRtGZjp.png
https://www.3dmark.com/spy/15095582 ;)
Crysis90
18-11-2020, 18:52
ma perchè fai le foto allo schermo ? :stordita:
Perchè il maledetto tasto Stamp nella tastiera non funge. :muro: :muro:
Dovrei cambiare la tastiera o scaricare un programma da screen.
Perchè il maledetto tasto Stamp nella tastiera non funge. :muro: :muro:
Dovrei cambiare la tastiera o scaricare un programma da screen.
Start -> Accessori windows -> Strumento di cattura :)
Thunder-74
18-11-2020, 19:42
https://www.3dmark.com/spy/15095582 ;)
alla fine li ho presi anch'io i 19k ;)
Vedo temp 52°, hai messo il pc sul balcone?
fraussantin
18-11-2020, 19:42
Start -> Accessori windows -> Strumento di cattura :)Perchè il maledetto tasto Stamp nella tastiera non funge. :muro: :muro:
Dovrei cambiare la tastiera o scaricare un programma da screen.O installate l'app di postimage e vi cambierà totalmente la vita
alla fine li ho presi anch'io i 19k ;)
Vedo temp 52°, hai messo il pc sul balcone?
Ventola sparata al 100%
Thunder-74
18-11-2020, 19:51
Ventola sparata al 100%
fanno meglio di quelle della Strix... è vero però che non ho un pc concepito per un flusso d'aria, ma per il liquido...
Comunque hai fatto un pochino di più come Graphics score , anche se io ho mantenuto una media delle freq. maggiore... troppi cavoli in BG... non so
tu sulla sinistra io sulla destra
https://i.imgur.com/FkQHKIq.png
Hai provato a disabilitare l'osd di MSI AB e a spengere il simulatore della cabina di pilotaggio dello shuttle che ti gira sul desktop ? :D
Thunder-74
18-11-2020, 19:56
Hai provato a disabilitare l'osd di MSI AB e a spengere il simulatore della cabina di pilotaggio dello shuttle che ti gira sul desktop ?
ho chiuso lo shuttle, ma certi processi rimangono a girare.. l'osd di AB era attivo, volevo vedere le feq. se oscillavano
Edit: altra cosa che non ho provato ... ad abbassare l oc delle memorie perché non è detto che più 500 ai troppo
mikael84
18-11-2020, 20:40
ho chiuso lo shuttle, ma certi processi rimangono a girare.. l'osd di AB era attivo, volevo vedere le feq. se oscillavano
Edit: altra cosa che non ho provato ... ad abbassare l oc delle memorie perché non è detto che più 500 ai troppo
Controlla anche il pannello di controllo, su AF (magari lasciato forzato a 16x), alta qualità, g-sync etc.
Per il resto ci sono mille variabili.
Le ram a +500 difficilmente causa crolli.
DJurassic
18-11-2020, 21:08
Ventola sparata al 100%
In balcone ci è arrivato da solo il pc :asd:
Perchè il maledetto tasto Stamp nella tastiera non funge. :muro: :muro:
Dovrei cambiare la tastiera o scaricare un programma da screen.
Snipping tool
È di default in windows :stordita:
TigerTank
18-11-2020, 22:08
Snipping tool
È di default in windows :stordita:
C'è anche il nuovo "Cattura e Annota"(Tasti WINDOWS+MAIUSC+S).
Crysis90
19-11-2020, 06:34
Nel frattempo:
https://wccftech.com/nvidia-q3-fy-2021-revenue-switch-lockdowns/
Le schede "non ci sono", ma giacchetta nera continua ad abbattere record su record di fatturati ogni trimestre.
Ve lo dicevo io che stanno testando una nuova strategia di vendita.
Probabilmente si son messi d'accordo con AMD.
A pensar male quasi sempre ci si azzecca.
Non mi sorprenderei se anche i prossimi lanci saranno così... :rolleyes: :rolleyes:
Comunque in RT con DLSS attivo siamo su un altro pianeta:
https://wccftech.com/review/amd-radeon-rx-6800-xt-radeon-rx-6800-16-gb-graphics-cards-review-heres-big-navi/14/
NVidia avanti di almeno 1 generazione.
Ma ci sono novità sul DLSS 3.0??
Thunder-74
19-11-2020, 07:27
Controlla anche il pannello di controllo, su AF (magari lasciato forzato a 16x), alta qualità, g-sync etc.
Per il resto ci sono mille variabili.
Le ram a +500 difficilmente causa crolli.
Devo ottimizzare il sistema ad hoc per benchare, poco ma sicuro.
Quando mi arriva il WB riprendo il discorso, se vi facessi vedere quanti servizi girano in BG vi spaventereste ;)
Nel frattempo:
https://wccftech.com/nvidia-q3-fy-2021-revenue-switch-lockdowns/
Le schede "non ci sono", ma giacchetta nera continua ad abbattere record su record di fatturati ogni trimestre.
Ve lo dicevo io che stanno testando una nuova strategia di vendita.
Probabilmente si son messi d'accordo con AMD.
A pensar male quasi sempre ci si azzecca.
Non mi sorprenderei se anche i prossimi lanci saranno così... :rolleyes: :rolleyes:
Comunque in RT con DLSS attivo siamo su un altro pianeta:
https://wccftech.com/review/amd-radeon-rx-6800-xt-radeon-rx-6800-16-gb-graphics-cards-review-heres-big-navi/14/
NVidia avanti di almeno 1 generazione.
Ma ci sono novità sul DLSS 3.0??
Vedere questi grafici con il DLSS attivo, mette paura... sembra di vedere quelle recensioni dove si prende una VGA di 5 anni fa e la si paragona alle attuali per vedere che evoluzione c'è stata. :fagiano:
Quincy_it
19-11-2020, 08:26
siamo giusto 20 persone ad averla presa al dayone dal sito amd qui sul forum.
io ero al dayone anche sul sito nvidia per la 3080 e 3070, eppure ho visto solo il passaggio da "available soon" a "acquista dai nostri partner".
Se tu e qualcun altro del forum che la voleva siete riusciti a comprarla mentre tutti i siti tech e gli youtuber parlano di difficoltà di approvvigionamento a livello statistico secondo me fanno più fede i secondi..
raga non so voi se avete guardato già questo video...ma il DLSS è fatto veramente bene..anche con la Balanced:) guardate è migliore anche della risoluzione nativa...elimina gli artefatti anche:eek:
https://www.youtube.com/watch?v=L0N91Q_Wc2M
Crysis90
19-11-2020, 08:39
raga non so voi se avete guardato già questo video...ma il DLSS è fatto veramente bene..anche con la Balanced:) guardate è migliore anche della risoluzione nativa...elimina gli artefatti anche:eek:
https://www.youtube.com/watch?v=L0N91Q_Wc2M
DLSS è una killer app.
C'è chi ancora di fronte all'evidenza continua a dire che la qualità dell'immagine è peggiore rispetto alla risoluzione nativa ma già con Death Stranding si era già visto che il DLSS può solo che portare vantaggi.
raga non so voi se avete guardato già questo video...ma il DLSS è fatto veramente bene..anche con la Balanced:) guardate è migliore anche della risoluzione nativa...elimina gli artefatti anche:eek:
https://www.youtube.com/watch?v=L0N91Q_Wc2M
:asd:
1440p dlss off
4k dlss on
apple to apple proprio
cocomeri con cocomeri
se usano sti trucchetti è solo perchè si tratta di una sola, punto. Lo fanno epr le pentole, per i materassi e lo fanno anche in queste cose....
piperprinx
19-11-2020, 08:52
DLSS è una killer app.
C'è chi ancora di fronte all'evidenza continua a dire che la qualità dell'immagine è peggiore rispetto alla risoluzione nativa ma già con Death Stranding si era già visto che il DLSS può solo che portare vantaggi.
Assolutamente d'accordo. Chi ne parla male non l'ha mai provato.
Thunder-74
19-11-2020, 08:53
:asd:
1440p dlss off
4k dlss on
apple to apple proprio
cocomeri con cocomeri
se usano sti trucchetti è solo perchè si tratta di una sola, punto. Lo fanno epr le pentole, per i materassi e lo fanno anche in queste cose....
a parte il video, se mai avessi avuto modo di vederlo in azione sul tuo monitor, ti saresti reso conto della bontà del DLSS 2.0.... qui siamo a livello del lupo e l'uva....
:asd:
1440p dlss off
4k dlss on
apple to apple proprio
cocomeri con cocomeri
se usano sti trucchetti è solo perchè si tratta di una sola, punto. Lo fanno epr le pentole, per i materassi e lo fanno anche in queste cose....
Seriamente ma lo hai provato? Lascia stare il confronto 1440p vs 4k DLSS che è scontato vinca il secondo. Parlo sul tuo monitor, DLSS Quality vs Nativo alla stessa risoluzione?
Che il DLSS1 facesse schifo sono d’accordo a parte forse un caso, ma il 2 è davvero una killer app.
Inviato dal mio iPad utilizzando Tapatalk
piperprinx
19-11-2020, 09:03
Provato il bios da 500W su FTW3 Ultra 3090.
A 500 non l'ho visto arrivare, come ci si lamenta sul forum EVGA, ma a me dà comunque più Watt rispetto al bios originale da 450, mi sta tra 460 e 480.
Senza stare a fare curve, solo un +100 e + 800 mem in Port Royale mi arriva a 14200, in time spy 21000 e rotti, in Superposition 4k optimized 18000 e rotti.
Col mio case non certo ben areato, per la posizione in cui devo tenerlo, potro' limare qualcosina ma senza liquidare sono quasi arrivato. Ventole a 100.
Certo che ad aria 480W diventino ingestibili, ste 3 connettori per essere spinte vanno necessariamente liquidate.
Dalle prime prove mi sembra un po' piu' rumorosa della TUF anche a parita' di Watt, piu' che altro le ventole fannno un rumore piu' acuto, piu' sibilante, mentre la Asus ha un suono piu' pieno e meno fastidioso.
bronzodiriace
19-11-2020, 09:36
Amd ha fatto due gran belle schede. Commenti del genere fanno ridere i polli ;)
Inviato dal mio MAR-LX1A utilizzando Tapatalk
DLSS è una killer app.
C'è chi ancora di fronte all'evidenza continua a dire che la qualità dell'immagine è peggiore rispetto alla risoluzione nativa ma già con Death Stranding si era già visto che il DLSS può solo che portare vantaggi.
Concordo con tutto quello che hai detto..
:asd:
1440p dlss off
4k dlss on
apple to apple proprio
cocomeri con cocomeri
se usano sti trucchetti è solo perchè si tratta di una sola, punto. Lo fanno epr le pentole, per i materassi e lo fanno anche in queste cose....
guarda che il video fa vedere anche il 4k nativo vs 4k DLSS...ah ok tu parli perchè hai una 5700XT :D ho capito tutto..fanboismo
SinapsiTXT
19-11-2020, 10:00
Amd ha fatto due gran belle schede. Commenti del genere fanno ridere i polli ;)
Inviato dal mio MAR-LX1A utilizzando Tapatalk
AMD ha recuperato un gap importante su questo non c'è dubbio ma il discorso è che le due compagnie hanno preso due strade completamente diverse:
1) Nvidia ha puntato tutto su tecnologie innovative come RT e DLSS
2) AMD ha puntato tutto sulla rasterizzazione e ora sta recuperando sul RT
Se uno non gliene frega niente del RT e di risoluzioni uber (4k) AMD è la scelta migliore.
Se uno è interessato al RT e a una tecnologia interessante come DLSS allora punta su Nvidia.
Non possiamo dire "AMD è meglio o Nvidia è meglio", dipende tutto da quello che uno cerca e da come uno si aspetta si muoverà il mercato tra oggi e i prossimi X anni.
Se i titoli RT saranno sempre così pochi allora la scelta di Nvidia è stata fallimentare.
Credo che tutto ruoterà sulle scelte che faranno le software house e anche dai gusti del mercato (ci saranno persone poco interessate al RT e più interessate ad altro, un po' come avviene con i giochi Nintendo rispetto ai giochi Sony/Microsoft).
Thunder-74
19-11-2020, 10:15
AMD ha recuperato un gap importante su questo non c'è dubbio ma il discorso è che le due compagnie hanno preso due strade completamente diverse:
1) Nvidia ha puntato tutto su tecnologie innovative come RT e DLSS
2) AMD ha puntato tutto sulla rasterizzazione e ora sta recuperando sul RT
Se uno non gliene frega niente del RT e di risoluzioni uber (4k) AMD è la scelta migliore.
Se uno è interessato al RT e a una tecnologia interessante come DLSS allora punta su Nvidia.
Non possiamo dire "AMD è meglio o Nvidia è meglio", dipende tutto da quello che uno cerca e da come uno si aspetta si muoverà il mercato tra oggi e i prossimi X anni.
Se i titoli RT saranno sempre così pochi allora la scelta di Nvidia è stata fallimentare.
Credo che tutto ruoterà sulle scelte che faranno le software house e anche dai gusti del mercato (ci saranno persone poco interessate al RT e più interessate ad altro, un po' come avviene con i giochi Nintendo rispetto ai giochi Sony/Microsoft).
il fatto che il RT sia sotto l'attenzione di tutti è reale, altrimenti non lo vedresti implementato nelle console.
Vero che AMD ha recuperato sotto raster, ma se devo giudicare un prodotto e paragonarlo ad un altro, lo devo giudicare sotto ogni punto di vista. nVidia propone un prodotto più bilanciato sotto ogni reparto. Poi ricordiamoci che il DLSS si può trovare attivabile anche senza RT, con un boost importante anche in titoli solo rasterizzati. Sono convinto che nVidia spingerà ancora di più sul DLSS, solo ieri con la scadenza dell'embargo delle 6800, ha annunciato altri 4 titoli... Chi ci guadagna alla fine siamo solo noi acquirenti di una o l'altra casa .... aspettiamo anche intel il prossimo anno ;)
bagnino89
19-11-2020, 10:19
Che se ne dica, oggettivamente e mediamente sta poco dietro pure in raster, sopratutto in 4k dove la 3080 scala meglio.
quindi come punto di forza rimane l'ottimo perf/watt e i 16gb di vram, con un prezzo inferiore di appena 60 euro..
In rt fanno pietà, dlls non pervenuto, una scheda così dovrebbe costare decisamente meno dei 660 euro richiesti.
Questa è la realta dei fatti ad oggi, poi se a te piacciono è un altro discorso, per me sono fallimentari (tolte le ottime perf in raster) schede interesanti a metà, buon primo piatto abbondante e gustoso ma manca il secondo piatto, frutta e dessert.
Però non ci dimentichiamo il consumo e la VRAM...
E' innegabile che Nvidia abbia usato un processo produttivo ridicolo, e con la VRAM doveva mettere 16 GB sulla 3080, anche a costo di usare le GDDR6 normali (e per me anche sulla 3070).
Che l'architettura sia buona non si discute, però a parti invertite queste cose le avreste fatte pesare.
E no, non sono un fanboy, sempre avute Nvidia ed interessato ad una 3070... Ma a prezzi normali.
Sono sicuro che qua dentro in tanti rosicheranno se Giacchetta rilascerà 3080/3070 Ti con più VRAM.
Iceman69
19-11-2020, 10:26
Provato il bios da 500W su FTW3 Ultra 3090.
A 500 non l'ho visto arrivare, come ci si lamenta sul forum EVGA, ma a me dà comunque più Watt rispetto al bios originale da 450, mi sta tra 460 e 480.
Senza stare a fare curve, solo un +100 e + 800 mem in Port Royale mi arriva a 14200, in time spy 21000 e rotti, in Superposition 4k optimized 18000 e rotti.
Col mio case non certo ben areato, per la posizione in cui devo tenerlo, potro' limare qualcosina ma senza liquidare sono quasi arrivato. Ventole a 100.
Certo che ad aria 480W diventino ingestibili, ste 3 connettori per essere spinte vanno necessariamente liquidate.
Dalle prime prove mi sembra un po' piu' rumorosa della TUF anche a parita' di Watt, piu' che altro le ventole fannno un rumore piu' acuto, piu' sibilante, mentre la Asus ha un suono piu' pieno e meno fastidioso.
Sono d'accordo per usufruire dei 450/500 Watt ci vuole il liquido, senza scaldano troppo le 3090 (per fortuna EVAG ha già un kit pronto).
Sul rumore delle ventole io ho la MSI x trio e devo dire che sono silenziose anche a 1600 giri. Tengono la GPU a 70 C° senza problemi, con bios da 380 Watt e undervolt a 0,875, la scheda così arriva a tenere i 1950 abbastanza fissi, anche se ogni tanto entra il Power limit, ma sono casi rari. (punteggi simili ai tuoi)
Le ventole EVGA sono pessime come rumore, avevo la 2070s FTW, che monta le stesse ventole, e anche a 1500 giri un po' le sentivi, a 2000 erano insopportabili. Praticamente le ventole MSI a 2000 giri fanno il rumore delle EVGA a 1600/1700 giri.
bagnino89
19-11-2020, 10:34
L' ho sempre scritto, il pp è un aborto se fossero state stampate con i 7nm tsmc pareleremo di ben altre cose, rapporto perf/watt decisamente migliore, con prestazioni assolute ancora più elevate, ma è andata così.
I 10gb di vram non hanno mai convinto, infatti la 3080 non è la scheda perfetta, ma offre un esperienza a 360 gradi, è un prodotto più bilanciato e potente in ambiti come Rt.
Certo una 3080ti con 20gb a 999$ giusto per sbaragliare la 6900xt ci vuole tutta, ma parliamo di differenza irrisorie tra il 10-15% max rispetto alla 3080, capiaci che a sto giro le schede da prendere sono o 6800xt o 3080...
10% non ti cambia l'esperienza di gioco, attireranno i clienti per il solo fatto dei 10gb aggiuntivi di vram, non tanto per la potenza aggiuntiva
Concordo su tutto, ed infatti Giacchetta avrebbe dovuto mettere più VRAM già nelle 3070/3080 "base" per come la vedo io...
Ma tanto vende lo stesso, che gli frega.
il fatto che il RT sia sotto l'attenzione di tutti è reale, altrimenti non lo vedresti implementato nelle console.
Il fatto che RT sia sotto l' attenzione di tutti è soprattutto frutto del marketing di nVidia ;)
Dal punto di vista dei giochi si è visto pochissimo e solo su pochi titoli, se non ci fosse il giacchetta a ricordarci quant' è buono e quant' è bello RT nessuno ne parlerebbe e a nessuno gliene fregherebbe una mazza.
Thunder-74
19-11-2020, 10:39
Concordo su tutto, ed infatti Giacchetta avrebbe dovuto mettere più VRAM già nelle 3070/3080 "base" per come la vedo io...
Ma tanto vende lo stesso, che gli frega.
io ritengo che i 10gb siano sufficienti per i prossimi 2 anni anche per il 4k.
Non mi aspetto miracoli in campo videoludico dalle nuova console.
Già dovranno faticare a gestire il RT con DRNA2 :D
Difatti attivandolo, devono gestire in modo dinamico la res che quasi mai è in 4k. Per me per il costo che hanno troppo fanno.. su questo non ho dubbi.
Il fatto che RT sia sotto l' attenzione di tutti è soprattutto frutto del marketing di nVidia ;)
Dal punto di vista dei giochi si è visto pochissimo e solo su pochi titoli, se non ci fosse il giacchetta a ricordarci quant' è buono e quant' è bello RT nessuno ne parlerebbe e a nessuno gliene fregherebbe una mazza.
no, JHH ha anticipato tutti con Turing, introducendo nel mondo gaming una tecnica vecchia da anni. Prevedibile avere pochi titoli se solo una marca lo propone. Ora tutti seguono a conferma di quanta influenza abbia nVidia nel mondo videoludico.
AMD non ha rischiato con la precedente generazione, perchè non fa i numeri di nVidia e sarebbe stato un rischio troppo elevato se i competitors non ci avessero creduto.
Se tutte le case hanno investito in R&S nel RT, compresa la MS con le sue DX12 Ultimate, vuol dire che questo sarà il futuro del gaming. Inoltre l'implementazione del RT sempre più massiccia, rappresenta il modo per poter vendere le future schede.
L'idea è quella di arrivare a titoli interamente in RT, ad oggi impensabile da fare. Capisci che tutti hanno interesse a percorrere questa strada.
TigerTank
19-11-2020, 10:40
Concordo su tutto, ed infatti Giacchetta avrebbe dovuto mettere più VRAM già nelle 3070/3080 "base" per come la vedo io...
Ma tanto vende lo stesso, che gli frega.
Ma no, le schede vanno bene così o i prezzi sarebbero andati ancora più alle stelle...
Per i più esigenti su 4K, ma non così tanto per l'esborso da 3090, servirebbe una Ti intermedia.
fraussantin
19-11-2020, 10:49
Ma no, le schede vanno bene così o i prezzi sarebbero andati ancora più alle stelle...
Per i più esigenti su 4K, ma non così tanto per l'esborso da 3090, servirebbe una Ti intermedia.Ci sarebbero stati bene 12 giga e bus pieno , ma evidentemente c'erano troppi scarti .
bagnino89
19-11-2020, 10:50
Il fatto che RT sia sotto l' attenzione di tutti è soprattutto frutto del marketing di nVidia ;)
Dal punto di vista dei giochi si è visto pochissimo e solo su pochi titoli, se non ci fosse il giacchetta a ricordarci quant' è buono e quant' è bello RT nessuno ne parlerebbe e a nessuno gliene fregherebbe una mazza.
Vero. Infatti trovo molto più interessante il DLSS, imho...
Comunque, altro aspetto importante che nessuno evidenzia, è che le AMD, per quanto non stiano dietro alle Nvidia in RT, non hanno unità di calcolo dedicate. Non male come risultato, secondo me...
io ritengo che i 10gb siano sufficienti per i prossimi 2 anni anche per il 4k.
Non mi aspetto miracoli in campo videoludico dalle nuova console.
Già dovranno faticare a gestire il RT con DRNA2 :D
Difatti attivandolo, devono gestire in modo dinamico la res che quasi mai è in 4k. Per me per il costo che hanno troppo fanno.. su questo non ho dubbi.
Non lo so, io ho qualche dubbio già oggi. Lasciando stare l'RT, le nuove console sono molto abbondanti lato RAM complessiva, e la useranno senza dubbio...
Ma no, le schede vanno bene così o i prezzi sarebbero andati ancora più alle stelle...
Per i più esigenti su 4K, ma non così tanto per l'esborso da 3090, servirebbe una Ti intermedia.
Per la 3080, forse, avrebbero potuto usare le GDDR6: meno consumi e meno costi.
TigerTank
19-11-2020, 11:02
Ci sarebbero stati bene 12 giga e bus pieno , ma evidentemente c'erano troppi scarti .
O avevano appunto già previsto una 3080Ti nei loro piani segreti :D
Tanto in passato è già successo di ritrovarsi con delle "sorprese" e gli user possono eventualmente rosicare finchè vogliono per refresh e simili ma la scelta di acquisto resta sempre volontaria, per cui... :D
Circa le amd comunque vedremo con Cyberpunk(se si deciderà ad uscire). Con il DirectX Raytracing la resa dipenderà non da giochini proprietari di parte ma dall'effettiva efficienza dell'hardware.
TigerTank
19-11-2020, 11:18
Opteranno sicuramente per il 320bit e 20gb e lasceranno cadere nel dimenticatoio il 384bit 12gb..
Tanto per far tappare la bocca, visto che la 6900xt ha 16gb.
Eh però resta un bel dilemma perchè come detto stamattina, 20GB di GDDR6X la porterebbero praticamente nel range prezzi della 3090...considerata la situazione di mercato attuale.
Alla fine nvidia può comunque vantare il binomio RT+DLSS che secondo me è di gran lunga superiore ad un 16GB vs 12GB di vram.
TigerTank
19-11-2020, 11:33
Mmm..ovviamente castreranno e rimuoveranno nvlink sulla Ti, altrimenti diventerebbe una simil 3090, con la possibilià di fare 20+20 in sli, quindi 3090 fuori mercato.
Concordo, il binomio rt+dlss è da preferire anche con i soli 10gb della 3080.
Rt e dlss subito sfruttabili e appaganti, mentre per i 16gb, 8 ne usi e altri 8 dormono, in futuro? Boh.. avrò già la prossima gpu, ma magari basteranno ancora 10gb..
Non butto soldi su delle incognite, se 16 non li sfrutto, non è un plus almeno per me.
Concordo...anche perchè comunque non ce n'è.
Se mi buttassero fuori una 3080TI che tra i 20GB e i pochi pezzi a mercato, arriverebbe come niente sui 1300-1400€...mi piglierei comunque una 3080 tra le 800 e le 900.
Cutter90
19-11-2020, 11:40
Provato il bios da 500W su FTW3 Ultra 3090.
A 500 non l'ho visto arrivare, come ci si lamenta sul forum EVGA, ma a me dà comunque più Watt rispetto al bios originale da 450, mi sta tra 460 e 480.
Senza stare a fare curve, solo un +100 e + 800 mem in Port Royale mi arriva a 14200, in time spy 21000 e rotti, in Superposition 4k optimized 18000 e rotti.
Col mio case non certo ben areato, per la posizione in cui devo tenerlo, potro' limare qualcosina ma senza liquidare sono quasi arrivato. Ventole a 100.
Certo che ad aria 480W diventino ingestibili, ste 3 connettori per essere spinte vanno necessariamente liquidate.
Dalle prime prove mi sembra un po' piu' rumorosa della TUF anche a parita' di Watt, piu' che altro le ventole fannno un rumore piu' acuto, piu' sibilante, mentre la Asus ha un suono piu' pieno e meno fastidioso.
Esatto. Gli stessi miei risultati, solo che non ho la ultra. Ma poco male. La storia dei watt anche a me sta tra i 460 e i 480. In valhalla però nemmeno a 420 arriva a momenti. C' molto instabilità. Come punteggi siamo lì. Ma non capisco se faranno qualcosa epr sistemare o meno. Da me ho notato che se aumento il power voltage non cambia nulla a livello di risultati, infatti lo lascio a 0
Predator_1982
19-11-2020, 11:59
Ragazzi...alla fine detto fatto: ieri sono riuscito a prendermi pure la 6800 XT.
Pertanto la attendo per test comparativi sul campo....parto già un po' prevenuto per via delle prestazioni RT
Vediamo
Thunder-74
19-11-2020, 12:01
Esatto. Gli stessi miei risultati, solo che non ho la ultra. Ma poco male. La storia dei watt anche a me sta tra i 460 e i 480. In valhalla però nemmeno a 420 arriva a momenti. C' molto instabilità. Come punteggi siamo lì. Ma non capisco se faranno qualcosa epr sistemare o meno. Da me ho notato che se aumento il power voltage non cambia nulla a livello di risultati, infatti lo lascio a 0
non credo che possono fare nulla via bios, è un "problema" di progettazione. La corrente non viene ripartita in modo corretto, andando a richiedere molto dal pcie. Una volta arrivato al limite dei 66W , ovvero 5,5A come da standard pcie per sicurezza (grazie Mikael per la precisazione fatta ;)), la scheda "smette di richiedere" wattaggio anche dai connettori.
Se usi GPU-Z per monitorare il pcie lo noterai.
Cutter90
19-11-2020, 12:03
non credo che possono fare nulla via bios, è un "problema" di progettazione. La corrente non viene ripartita in modo corretto, andando a richiedere molto dal pcie. Una volta arrivato al limite dei 66W , ovvero 5,5A come da standard pcie per sicurezza (grazie Mikael per la precisazione fatta ;)), la scheda "smette di richiedere" wattaggio anche dai connettori.
Se usi GPU-Z per monitorare il pcie lo noterai.
E come mai allora ad alcuni va tra i 460 e i 480, mentre ad altri nemmeno si è alzato dai 450?
Thunder-74
19-11-2020, 12:11
E come mai allora ad alcuni va tra i 460 e i 480, mentre ad altri nemmeno si è alzato dai 450?
Sarebbe da prendere lo stesso bench e testare nelle medesime condizioni di voltaggio e freq. Io stesso ho visto sulla mia situazioni dove sforavo i 450W e altre dove il PL tagliava a 440w. Uno perchè la misurazione via SW non è precisa e non è puntuale e poi perchè ci sono n variabili.
Se poi in condizioni identiche, le schede hanno differenze di 30W , mi verrebbe da dire che qualcosa a livello PCB non è proprio identico.
Sta di fatto che il Bios della 3090 da 500w , sulla MSI Trio X, arriva a fondo scala...
mikael84
19-11-2020, 12:16
Però non ci dimentichiamo il consumo e la VRAM...
E' innegabile che Nvidia abbia usato un processo produttivo ridicolo, e con la VRAM doveva mettere 16 GB sulla 3080, anche a costo di usare le GDDR6 normali (e per me anche sulla 3070).
Che l'architettura sia buona non si discute, però a parti invertite queste cose le avreste fatte pesare.
E no, non sono un fanboy, sempre avute Nvidia ed interessato ad una 3070... Ma a prezzi normali.
Sono sicuro che qua dentro in tanti rosicheranno se Giacchetta rilascerà 3080/3070 Ti con più VRAM.
La 3070 non si può vedere, meglio trovare una 2080ti con garanzia.
Forse l'unica decente sarà la 3060ti con 10% in meno, ma solo a prezzacci.
Riguardo la 3080 per linea di bus l'unica possibilità sono o 10 o 20.
Purtroppo è legata al pro, e quella si che è bilanciata.
Le la scorporavi, si potevano tranquillamente mettere 2 stack HBM, ed in 20watt, risparmiavi die, mettevi 16gb (2x8) ed avresti avuto la banda della 3090. Non solo, potevi contare pure sulla disponibilità di due partner.
Inoltre potevi raddoppiare la cache, molto importante per RT, e passare da 8 a 5mb.
fraussantin
19-11-2020, 12:23
La 3070 non si può vedere, meglio trovare una 2080ti con garanzia.
Forse l'unica decente sarà la 3060ti con 10% in meno, ma solo a prezzacci.
Riguardo la 3080 per linea di bus l'unica possibilità sono o 10 o 20.
Purtroppo è legata al pro, e quella si che è bilanciata.
Le la scorporavi, si potevano tranquillamente mettere 2 stack HBM, ed in 20watt, risparmiavi die, mettevi 16gb (2x8) ed avresti avuto la banda della 3090. Non solo, potevi contare pure sulla disponibilità di due partner.
Inoltre potevi raddoppiare la cache, molto importante per RT, e passare da 8 a 5mb.
Purtroppo la 3060ti costerà 500+ euro. E perderà anche lei tutto il senso del mondo.
È una 2080 super.. alla fine.
La gente è in scimmia e se ne approfittano.
Per le hbm forse non le hanno messe per i costi complessivi maggiori.
mikael84
19-11-2020, 12:25
Vero. Infatti trovo molto più interessante il DLSS, imho...
Comunque, altro aspetto importante che nessuno evidenzia, è che le AMD, per quanto non stiano dietro alle Nvidia in RT, non hanno unità di calcolo dedicate. Non male come risultato, secondo me...
Per la 3080, forse, avrebbero potuto usare le GDDR6: meno consumi e meno costi.
Si, come detto da Dotto raus, le hanno.
Rispetto ad nvidia cambia però la gestione del BVH, che viene fatto via shader come il denoising.
Nvidia queste operazioni, insieme alle intersezioni le fa tramite hardware nativo.
Hanno unità dedicate. Hanno un ray accellerator per ogni compute units, quindi 72 per la 6800xt e 60 per la 6800.
Esatto, solo che cambiano i valori teorici e mediamente effettivi.:)
Cutter90
19-11-2020, 12:30
Sarebbe da prendere lo stesso bench e testare nelle medesime condizioni di voltaggio e freq. Io stesso ho visto sulla mia situazioni dove sforavo i 450W e altre dove il PL tagliava a 440w. Uno perchè la misurazione via SW non è precisa e non è puntuale e poi perchè ci sono n variabili.
Se poi in condizioni identiche, le schede hanno differenze di 30W , mi verrebbe da dire che qualcosa a livello PCB non è proprio identico.
Sta di fatto che il Bios della 3090 da 500w , sulla MSI Trio X, arriva a fondo scala...
E in ogni modo.... il bios funziona meglio su schede non evga. Cioè, ma che cazz...
mikael84
19-11-2020, 12:37
Purtroppo la 3060ti costerà 500+ euro. E perderà anche lei tutto il senso del mondo.
È una 2080 super.. alla fine.
La gente è in scimmia e se ne approfittano.
Infatti, per me i prezzi reali dovrebbero essere
3060ti: 350-370 (ventus e barbone edition) sino a 450 per belle custom
3070 idem con 100 euro in meno.
Per le hbm forse non le hanno messe per i costi complessivi maggiori.
2 stack HBM più interposer non costano molto, il problema era la VII che ne aveva 4.
Il problema è che nvidia da gli scarti della pro, e quelli ti tieni, e mettere le HBM sulle pro, era impossibile per die e bus, in quanto dovevi metterne 4. ed aumentare la grandezza del die.
Forse poteva usare ancora le ddr6 lisce, considerando la figuraccia sulla quadro, visto che micron non ha la doppia densità sulle g6x.:p
Thunder-74
19-11-2020, 12:39
E in ogni modo.... il bios funziona meglio su schede non evga. Cioè, ma che cazz...
Pensa a quando si troverà il bios della kingpin che se non ho capito male dovrebbe arrivare a 520W.... dai fregatene e goditi la tua bestia ;)
DarkNiko
19-11-2020, 12:40
Sono sinceramente molto combattuto se aspettare i tempi (biblici) di reperibilità di una STRIX OC 3090 oppure ripiegare su altre marche con meno potenza di assorbimento.
L'Asus Strix mi piace in tutto, esteticamente è un capolavoro e anche a livello di circuiteria e di maniacalità di progettazione direi che non ha eguali, ma soprattutto funziona in ogni ambito di utilizzo col suo bios.
EVGA FTW3 Ultra è ugualmente valida ma mi piace meno esteticamente e ha i problemi noti col bios beta, quindi hai una Ferrari ma il motore è limitato (è il caso di dirlo) elettronicamente.
Tuttavia ciò che mi sta facendo riflettere è se valga la pena di avere una scheda che assorbe così tanti Watt (la Strix di Asus arriva a 450W senza problemi) per qualche manciata di fps in più o accontentarsi di una a 2 molex (tipo la Zotac Trinity o la Gigabyte Eagle) dissipando meno.
So che la scelta è molto soggettiva ma non so....
Tra l'altro se devo attendere troppo, potrei pazientare ancora più a lungo e saltare anche questa generazione di VGA (spero che le disponibilità delle prossime siano migliori). :rolleyes:
Cutter90
19-11-2020, 12:45
Sono sinceramente molto combattuto se aspettare i tempi (biblici) di reperibilità di una STRIX OC 3090 oppure ripiegare su altre marche con meno potenza di assorbimento.
L'Asus Strix mi piace in tutto, esteticamente è un capolavoro e anche a livello di circuiteria e di maniacalità di progettazione direi che non ha eguali, ma soprattutto funziona in ogni ambito di utilizzo col suo bios.
EVGA FTW3 Ultra è ugualmente valida ma mi piace meno esteticamente e ha i problemi noti col bios beta, quindi hai una Ferrari ma il motore è limitato (è il caso di dirlo) elettronicamente.
Tuttavia ciò che mi sta facendo riflettere è se valga la pena di avere una scheda che assorbe così tanti Watt (la Strix di Asus arriva a 450W senza problemi) per qualche manciata di fps in più o accontentarsi di una a 2 molex (tipo la Zotac Trinity o la Gigabyte Eagle) dissipando meno.
So che la scelta è molto soggettiva ma non so....
Tra l'altro se devo attendere troppo, potrei pazientare ancora più a lungo e saltare anche questa generazione di VGA (spero che le disponibilità delle prossime siano migliori). :rolleyes:
No beh, non ha nessun problema la ftw3. Con il bios in beta è una delle più veloci e se la gioca con la strix oc. Sono proprio testa a testa. Già così è perfetta. Vediamo se riescono a sisistemare e a farla diventare la prima incontrastata, dopotutto è in beta il 500 watt
Thunder-74
19-11-2020, 12:48
Sono sinceramente molto combattuto se aspettare i tempi (biblici) di reperibilità di una STRIX OC 3090 oppure ripiegare su altre marche con meno potenza di assorbimento.
L'Asus Strix mi piace in tutto, esteticamente è un capolavoro e anche a livello di circuiteria e di maniacalità di progettazione direi che non ha eguali, ma soprattutto funziona in ogni ambito di utilizzo col suo bios.
EVGA FTW3 Ultra è ugualmente valida ma mi piace meno esteticamente e ha i problemi noti col bios beta, quindi hai una Ferrari ma il motore è limitato (è il caso di dirlo) elettronicamente.
Tuttavia ciò che mi sta facendo riflettere è se valga la pena di avere una scheda che assorbe così tanti Watt (la Strix di Asus arriva a 450W senza problemi) per qualche manciata di fps in più o accontentarsi di una a 2 molex (tipo la Zotac Trinity o la Gigabyte Eagle) dissipando meno.
So che la scelta è molto soggettiva ma non so....
Tra l'altro se devo attendere troppo, potrei pazientare ancora più a lungo e saltare anche questa generazione di VGA (spero che le disponibilità delle prossime siano migliori). :rolleyes:
hai detto bene... la scelta è soggettiva.. l'esperienza di gioco non cambierà. Si tratta solamente di una questione del tutto personale...
Io penso che dipende dal prezzo alla quale si trova la scheda. Se la trovi a "poco" (per modo di dire) allora qualsiasi ti farà felice. questo ragionamento andrà bene per la maggior parte delle persone.
se ti piacciono i numerini a video più alti con meno oscillazioni, allora inizia il dilemma... Va valutato quanto puoi attendere e quanto sei disposto a spendere....
Lo Straniero Misterioso
19-11-2020, 12:51
RT non è una moda passeggera: per gli sviluppatori è più semplice (=meno costoso) dire "le luci sono lì, calcola tutto tu" rispetto a fare quello che fanno adesso.
E' qui per restare.
DLSS invece IMHO sarà sempre meno necessaria mano a mano che la potenza di calcolo raster cresce.
Se non trovano altre applicazioni per i tensor core sarà spazio sprecato in futuro... :)
piperprinx
19-11-2020, 12:52
Sono sinceramente molto combattuto se aspettare i tempi (biblici) di reperibilità di una STRIX OC 3090 oppure ripiegare su altre marche con meno potenza di assorbimento.
L'Asus Strix mi piace in tutto, esteticamente è un capolavoro e anche a livello di circuiteria e di maniacalità di progettazione direi che non ha eguali, ma soprattutto funziona in ogni ambito di utilizzo col suo bios.
EVGA FTW3 Ultra è ugualmente valida ma mi piace meno esteticamente e ha i problemi noti col bios beta, quindi hai una Ferrari ma il motore è limitato (è il caso di dirlo) elettronicamente.
Tuttavia ciò che mi sta facendo riflettere è se valga la pena di avere una scheda che assorbe così tanti Watt (la Strix di Asus arriva a 450W senza problemi) per qualche manciata di fps in più o accontentarsi di una a 2 molex (tipo la Zotac Trinity o la Gigabyte Eagle) dissipando meno.
So che la scelta è molto soggettiva ma non so....
Tra l'altro se devo attendere troppo, potrei pazientare ancora più a lungo e saltare anche questa generazione di VGA (spero che le disponibilità delle prossime siano migliori). :rolleyes:
Se resti ad aria imo l soluzione migliore e' la TUF
piperprinx
19-11-2020, 12:53
Interessante dall utente Arcky sul forum EVGA
Here’s my data with just memory OCs in PR, core at 0 offset:
Memory
0: 13445
200: 13472
400: 13489
600: 13544
800: 13557
1000: 13569
1100: 13587
1150: 13590
1175: 13589
1200: 13588
1250: 13580
1300: 13546
1400: 13581
1600: crash
TigerTank
19-11-2020, 12:56
RT non è una moda passeggera: per gli sviluppatori è più semplice (=meno costoso) dire "le luci sono lì, calcola tutto tu" rispetto a fare quello che fanno adesso.
E' qui per restare.
DLSS invece IMHO sarà sempre meno necessaria mano a mano che la potenza di calcolo raster cresce.
Se non trovano altre applicazioni per i tensor core sarà spazio sprecato in futuro... :)
Il DLSS sarà sempre utile, sia come margine soprattutto per le schede non top di gamma, sia perchè quando la 4K sarà più accessibile il gaming inizierà a spostarsi su risoluzioni superiori(dalla 4K ultrawide in su). :)
Già si è detto "3090 8K ready" :asd:
DarkNiko
19-11-2020, 13:13
No beh, non ha nessun problema la ftw3. Con il bios in beta è una delle più veloci e se la gioca con la strix oc. Sono proprio testa a testa. Già così è perfetta. Vediamo se riescono a sisistemare e a farla diventare la prima incontrastata, dopotutto è in beta il 500 watt
Se non fosse per quel beota di operatore di Amazon, la FTW3 Ultra che ero riuscito ad acquistare (venduta e spedita da Amazon), a quest'ora era già nel case e mi sarei divertito. Comunque sì, hai ragione, alla fine è sempre un bios beta e come tale può andare bene o non andare. Questo non preclude le prestazioni di tutto rispetto della scheda così come nasce.
hai detto bene... la scelta è soggettiva.. l'esperienza di gioco non cambierà. Si tratta solamente di una questione del tutto personale...
Io penso che dipende dal prezzo alla quale si trova la scheda. Se la trovi a "poco" (per modo di dire) allora qualsiasi ti farà felice. questo ragionamento andrà bene per la maggior parte delle persone.
se ti piacciono i numerini a video più alti con meno oscillazioni, allora inizia il dilemma... Va valutato quanto puoi attendere e quanto sei disposto a spendere....
Diciamo che sono molto malato di estetica, i numeri a video mi interessano poco, anche perché quando gioco voglio pensare solo al gioco e non ai numeri di MSI Afterburner et similia.
La spesa, dopo anni di sacrifici, non è più di tanto un problema, certo non è che prendo i soldi e li butto dalla finestra, però fino a un tot spendo. :asd:
Se resti ad aria imo l soluzione migliore e' la TUF
Ci stavo pensando, ma anche quella è una mosca bianca ora come ora. :rolleyes:
stessa musica dell altro thread ero fin troppo ottimista a sperare di trovare gente con le 3080/90 che le aveva tirate per bene core e non.
volevo farmi un idea di quanto salissero i vari modelli
Ah.. ecco perché su wd legion vanno bene in rt, ci credo...:D :D
SX 3080 DX 6800xt
https://i.postimg.cc/Z979Qss9/WDL-scaled.jpg (https://postimg.cc/Z979Qss9)
https://wccftech.com/review/amd-radeon-rx-6800-xt-radeon-rx-6800-16-gb-graphics-cards-review-heres-big-navi/14/
Me lo aspettavo, mi autoquoto:
https://www.hwupgrade.it/forum/showpost.php?p=47096966&postcount=4293
Non credo sia voluto o sia doloso da parte di amd, ma alcuni recensori ci sono cascati in pieno, dando il test per buono.
Quindi rimane solo dirt 5 che incredibilmente va molto bene in RT, ma vabbé si sa anche il perché.Era un problema già risaputo, inserito tra i kniwn issues dati da amd stessa.
Domandina domandona:
Best custom price/performance 3080?
Tuf e poi?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
TigerTank
19-11-2020, 13:40
stessa musica dell altro thread ero fin troppo ottimista a sperare di trovare gente con le 3080/90 che le aveva tirate per bene core e non.
volevo farmi un idea di quanto salissero i vari modelli
Queste più che schede da overclock sono schede da curva ottimizzata :)
Black"SLI"jack
19-11-2020, 13:55
Finalmente arrivata
https://uploads.tapatalk-cdn.com/20201119/019518ae71cdc5e6def8aa3b58740d0e.jpghttps://uploads.tapatalk-cdn.com/20201119/8c68c3bed8281bd3a6e1d55727307717.jpg
Inviato dal mio LYA-L09 utilizzando Tapatalk
SinapsiTXT
19-11-2020, 13:57
il fatto che il RT sia sotto l'attenzione di tutti è reale, altrimenti non lo vedresti implementato nelle console.
Vero che AMD ha recuperato sotto raster, ma se devo giudicare un prodotto e paragonarlo ad un altro, lo devo giudicare sotto ogni punto di vista. nVidia propone un prodotto più bilanciato sotto ogni reparto. Poi ricordiamoci che il DLSS si può trovare attivabile anche senza RT, con un boost importante anche in titoli solo rasterizzati. Sono convinto che nVidia spingerà ancora di più sul DLSS, solo ieri con la scadenza dell'embargo delle 6800, ha annunciato altri 4 titoli... Chi ci guadagna alla fine siamo solo noi acquirenti di una o l'altra casa .... aspettiamo anche intel il prossimo anno ;)
Siamo d'accordo nel dire che ad ora non sappiamo neanche come sarà questo RT sulle console e il fatto che entrambe condividano la piattaforma di AMD ci può far pensare che il RT delle console sarà qualcosa di neanche paragonabile al RT su pc?
E possiamo anche dire che il gaming su console sta al pc come il sole sta a plutone?
Io non sto dicendo che il RT non sia una tecnologia stupenda ma dico soltanto che se uno è interessato solo alla rasterizzazione e del RT non se ne fa nulla le schede AMD non hanno nulla da invidiare a quelle Nvidia.
Le schede AMD in RT per dirt per esempio vanno benone magari perchè gli sviluppatori hanno fatto un minimo apporto di RT in dirt mentre su control che il RT è molto più complesso le schede AMD sono piegate a 90°.
Il RT che vedremo sulle console potrebbe avvicinarsi molto di più a quanto fatto su dirt che su Control ma se permetti il RT di Dirt fa ridere perchè la differenza è davvero risibile.
Per me le console restano qualcosa di ridicolo in ambito gaming, pur con tutta l'ottimizzazione lato software hanno un hardware penoso e il RT pesante probabilmente non lo vedranno mai per davvero.
PS
io pur riconoscendo la bontà delle schede AMD per il raster sono sempre indirizzato a prendere una 3080 ma perchè sono interessato anche al RT e al DLSS ma non tutti devono per forza avere le mie stesse esigenze.
fraussantin
19-11-2020, 14:05
esiste un sistema per vedere le temp della vram?
esiste un sistema per vedere le temp della vram?
nelle evga con precision X1 sicuramente, per le altre boh!
Cutter90
19-11-2020, 14:12
100 euro in meno per la 6800 xt che va uguale alla 3080, con rt non pervenuto e dlss assente. Con tutte le incognite lato driver amd. Ora spiegatemi quale persona la preferirebbe alla 3080. Non ha proprio senso
fraussantin
19-11-2020, 14:13
nelle evga con precision X1 sicuramente, per le altre boh!
mi sa che la mia xc3 non ha il sensore perchè non me lo fa vedere
https://i.postimg.cc/0jv46ytr/screenshot-291.jpg
Thunder-74
19-11-2020, 14:24
Siamo d'accordo nel dire che ad ora non sappiamo neanche come sarà questo RT sulle console e il fatto che entrambe condividano la piattaforma di AMD ci può far pensare che il RT delle console sarà qualcosa di neanche paragonabile al RT su pc?
E possiamo anche dire che il gaming su console sta al pc come il sole sta a plutone?
Io non sto dicendo che il RT non sia una tecnologia stupenda ma dico soltanto che se uno è interessato solo alla rasterizzazione e del RT non se ne fa nulla le schede AMD non hanno nulla da invidiare a quelle Nvidia.
Le schede AMD in RT per dirt per esempio vanno benone magari perchè gli sviluppatori hanno fatto un minimo apporto di RT in dirt mentre su control che il RT è molto più complesso le schede AMD sono piegate a 90°.
Il RT che vedremo sulle console potrebbe avvicinarsi molto di più a quanto fatto su dirt che su Control ma se permetti il RT di Dirt fa ridere perchè la differenza è davvero risibile.
Per me le console restano qualcosa di ridicolo in ambito gaming, pur con tutta l'ottimizzazione lato software hanno un hardware penoso e il RT pesante probabilmente non lo vedranno mai per davvero.
PS
io pur riconoscendo la bontà delle schede AMD per il raster sono sempre indirizzato a prendere una 3080 ma perchè sono interessato anche al RT e al DLSS ma non tutti devono per forza avere le mie stesse esigenze.
siamo d'accordo, ma sinceramente, anche ammesso che uno pensi che il RT sia superfluo, se incominciassero a uscire sempre più titoli con RT, credi che non incomincerebbe a sentirsela stretta ?
io credo che si giochi su PC con schede costose, perchè si vuole avere il top anche dalla grafica, altrimenti una PS5/Xbox risolverebbero ampiamente il problema facendo risparmiare tanti dindi. Per di più promettono 60/120 fps..
Discorso che fai calza benissimo per quelli che giocano on line e cercano i 240/360 fps a 1080p, in quel caso AMD sarebbe meglio visto il clock più alto che aiuta a tale res.
mi sa che la mia xc3 non ha il sensore perchè non me lo fa vedere
cut..[/IMG]
credo che a questo giro stiano solo sulle FTW3
fraussantin
19-11-2020, 14:30
siamo d'accordo, ma sinceramente, anche ammesso che uno pensi che il RT sia superfluo, se incominciassero a uscire sempre più titoli con RT, credi che non incomincerebbe a sentirsela stretta ?
io credo che si giochi su PC con schede costose, perchè si vuole avere il top anche dalla grafica, altrimenti una PS5/Xbox risolverebbero ampiamente il problema facendo risparmiare tanti dindi. Per di più promettono 60/120 fps..
Discorso che fai calza benissimo per quelli che giocano on line e cercano i 240/360 fps a 1080p, in quel caso AMD sarebbe meglio visto il clock più alto che aiuta a tale res.
paradossalmente chi gioca competitivo al top non prenderà mai amd, perchè ha bisogno del driver più stabile del mondo e al momento quello amd su navi non ha una buona nomea.
come ho detto di la entrambe le schede hanno 1 limite grosso.
quella amd il raytracyng di fatto inutilizzabile ( non dico di paragonarlo alla 2060 come han fatto Ornstein e Smough dei prodigeek ma senza upscaler non serve a niente)
quella nvidia ha poca ram che anche se basterà prima o poi uno sarà costretto a tagliare qualcosina nei dettagli.
l'unica cosa positiva è che si può scegliere , consapevoli di cosa si va a comprare
ps se poi uno ha soldi da buttare piglia la 3090 e festa finita
mikael84
19-11-2020, 14:36
RT non è una moda passeggera: per gli sviluppatori è più semplice (=meno costoso) dire "le luci sono lì, calcola tutto tu" rispetto a fare quello che fanno adesso.
E' qui per restare.
DLSS invece IMHO sarà sempre meno necessaria mano a mano che la potenza di calcolo raster cresce.
Se non trovano altre applicazioni per i tensor core sarà spazio sprecato in futuro... :)
Assolutamente, il problema è che è una scheda tarata per i pro. Quindi il ER sarà sempre più affinato.
Nvidia ha investito tanti transistor nei tensor, che ad ora i gamers non riescono a sfruttare, in seguito sarà sempre meglio.
AMD ha utilizzato la buona densità dei transistor per bypassare i bus.
Interessante dall utente Arcky sul forum EVGA
Here’s my data with just memory OCs in PR, core at 0 offset:
Memory
0: 13445
200: 13472
400: 13489
600: 13544
800: 13557
1000: 13569
1100: 13587
1150: 13590
1175: 13589
1200: 13588
1250: 13580
1300: 13546
1400: 13581
1600: crash
Ma sono della 3090 o 3080?
C'e' una bella differenza in quanto le ram della 3090 sono downclockate da 21 a 19,5.
Se fossero della 3080, tanta roba prima di incasinare il controller.
Il DLSS sarà sempre utile, sia come margine soprattutto per le schede non top di gamma, sia perchè quando la 4K sarà più accessibile il gaming inizierà a spostarsi su risoluzioni superiori(dalla 4K ultrawide in su). :)
Già si è detto "3090 8K ready" :asd:
Esatto, considerando quanto hanno speso in transistor è il minimo sfruttarli degnamente, ed attualmente dormono parecchio.:p
Ah.. ecco perché su wd legion vanno bene in rt, ci credo...:D :D
SX 3080 DX 6800xt
https://i.postimg.cc/Z979Qss9/WDL-scaled.jpg (https://postimg.cc/Z979Qss9)
https://wccftech.com/review/amd-radeon-rx-6800-xt-radeon-rx-6800-16-gb-graphics-cards-review-heres-big-navi/14/
Me lo aspettavo, mi autoquoto:
https://www.hwupgrade.it/forum/showpost.php?p=47096966&postcount=4293
Non credo sia voluto o sia doloso da parte di amd, ma alcuni recensori ci sono cascati in pieno, dando il test per buono.
Quindi rimane solo dirt 5 che incredibilmente va molto bene in RT, ma vabbé si sa anche il perché.
Infatti, i rapporti sono quelli in combo e lo dimostrano i sintetici.
Meno nel full ray, perchè li nvidia riesce a macinare più ratio.
https://www.hwupgrade.it/forum/showpost.php?p=47109973&postcount=1990
jing1988
19-11-2020, 15:11
Scusate ma come si fa a vedere i volt e watt ? Io non li vedo.
Inviato dal mio iPhone utilizzando Tapatalk
fraussantin
19-11-2020, 15:19
Scusate ma come si fa a vedere i volt e watt ? Io non li vedo.
Inviato dal mio iPhone utilizzando TapatalkHwinfo 64
Li puoi anche mettere in osd con rivatuner insieme a AB
Crysis90
19-11-2020, 15:21
Ora spiegatemi quale persona la preferirebbe alla 3080. Non ha proprio senso
Beh se togliamo RT e DLSS, la 6800 XT è una signora scheda.
Non si può dire di no.
Cutter90
19-11-2020, 15:23
Beh se togliamo RT e DLSS, la 6800 XT è una signora scheda.
Non si può dire di no.
Ah beh, che discorso. Anche la mia auto vale una ferrari se togliamo i cavalli di differenza....
Crysis90
19-11-2020, 15:27
Ah beh, che discorso. Anche la mia auto vale una ferrari se togliamo i cavalli di differenza....
:asd:
Sei proprio crudele.
Io sono sincero, lato raster la 6800 XT è una gran bella scheda.
Mallardo
19-11-2020, 15:37
io credo che si giochi su PC con schede costose, perchè si vuole avere il top anche dalla grafica, altrimenti una PS5/Xbox risolverebbero ampiamente il problema facendo risparmiare tanti dindi.
Ti quoto perché trovo questo argomento molto interessante, anche se leggermente OP.
Il gaming su PC é molto eterogeneo, chi gioca titoli tripla A per avere una resa grafica superiore credo sia un piccola parte di chi usa il pc. Tutti gli amanti del gaming competitivo, degli rts, dei simulatori, dei giochi di ruolo e la miriade di persone che utilizzano il pc anche per lavoro non hanno grande interesse nelle console perché sono troppo limitanti per l'uso che ne fanno e per la scarsità di generi considerati di nicchia (ma che sommati fanno un bel numero). Io ad esempio, che gioco quasi esclusivamente online, di giochi con dlss e rt non ne ho trovato nemmeno uno di mio interesse. Dico questo, non per sminuire le suddette tecnologie, ma per far capire che tantissimi PC gamers non le riescono ancora a sfruttare.
Io trovo che sia un ottimo momento per il PC gaming perché c'é un ottima possibilità di scelta di tutti i componenti per farsi il computer in base alle proprie esigenze....peccato non si riesca a comprar nulla...
Cutter90
19-11-2020, 15:38
:asd:
Sei proprio crudele.
Io sono sincero, lato raster la 6800 XT è una gran bella scheda.
Nessuno lo mette in dubbio. Così come la 3080. E' che mancano quelle cose che nel 2020 sono fondamentali per chi cerca alte prestazioni
Alekos Panagulis
19-11-2020, 15:40
100 euro in meno per la 6800 xt che va uguale alla 3080, con rt non pervenuto e dlss assente. Con tutte le incognite lato driver amd. Ora spiegatemi quale persona la preferirebbe alla 3080. Non ha proprio senso
1) Se, e sottolineo SE, la 6800xt sarà disponibile in quantità è già un motivo sufficiente per comprarla.
2) Se lo street price sarà vicino a quello ufficiale, è un secondo motivo per comprarla (contro una 3080 per cui è necessario spendere da 800 a 1000 euro)
3) 16gb vs 10gb.
Predator_1982
19-11-2020, 15:45
La 3070 non si può vedere, meglio trovare una 2080ti con garanzia.
Forse l'unica decente sarà la 3060ti con 10% in meno, ma solo a prezzacci.
Riguardo la 3080 per linea di bus l'unica possibilità sono o 10 o 20.
Purtroppo è legata al pro, e quella si che è bilanciata.
Le la scorporavi, si potevano tranquillamente mettere 2 stack HBM, ed in 20watt, risparmiavi die, mettevi 16gb (2x8) ed avresti avuto la banda della 3090. Non solo, potevi contare pure sulla disponibilità di due partner.
Inoltre potevi raddoppiare la cache, molto importante per RT, e passare da 8 a 5mb.
Mikael non credo però che in Nvidia le cose non le sappiano o pensino. Evidentemente a loro conveniva così. Ovvio che adesso con una concorrenza bella agguerrita un po’ di pepe al deretano lo hanno. Alla prossima gen non possono permettersi passi falsi, RDNA3 si preannuncia bestiale se queste sono le premesse.
Cutter90
19-11-2020, 15:47
1) Se, e sottolineo SE, la 6800xt sarà disponibile in quantità è già un motivo sufficiente per comprarla.
2) Se lo street price sarà vicino a quello ufficiale, è un secondo motivo per comprarla (contro una 3080 per cui è necessario spendere da 800 a 1000 euro)
3) 16gb vs 10gb.
Ma se lo street price sarà vicino a quello della 3080.... è meglio la 3080, dato che ha features in più abbastanza importanti... o no?
giochi da 10 gb ancora non ne ho visti. Valhalla ne consuma 7 maxato, ad esempio
SinapsiTXT
19-11-2020, 15:48
siamo d'accordo, ma sinceramente, anche ammesso che uno pensi che il RT sia superfluo, se incominciassero a uscire sempre più titoli con RT, credi che non incomincerebbe a sentirsela stretta ?
io credo che si giochi su PC con schede costose, perchè si vuole avere il top anche dalla grafica, altrimenti una PS5/Xbox risolverebbero ampiamente il problema facendo risparmiare tanti dindi. Per di più promettono 60/120 fps..
Discorso che fai calza benissimo per quelli che giocano on line e cercano i 240/360 fps a 1080p, in quel caso AMD sarebbe meglio visto il clock più alto che aiuta a tale res.
credo che a questo giro stiano solo sulle FTW3
Devi anche considerare che ci sono persone che magari vogliono farsi un pc aggiornato ma sono interessati solo a determinati titoli e del titolo AAA che usa il RT magari gliene frega in maniera relativa.
Sono quelle stesse persone che non comprano mai i top di gamma ma prendono la fascia media per giocare roba come gestionali, moba ecc.
Le schede AMD sono una bomba proprio per loro e secondo me la cosa più interessante saranno i prezzi delle schede più basse di AMD.
Diciamo che il giocatore esigente continua a preferire Nvidia per quello che offre ma il giocatore della domenica o quello che il RT non gli interessa potrebbe orientarsi proprio sulle AMD e secondo me neanche sbagliare l'acquisto.
Alcuni mi diranno "vabbè se ti piace il retrogaming ti compri una gpu usata" ma non tutti ragionano così e comunque è interessante vedere come le gpu in rasterizzazione riescano ad arrivare a prestazioni che 4 anni fa ci saremmo sognati.
jing1988
19-11-2020, 15:52
Hwinfo 64
Li puoi anche mettere in osd con rivatuner insieme a AB
Mi dici come si fa? Intanto stasera vedo su hwinfo, che ho già.
Inviato dal mio iPhone utilizzando Tapatalk
fraussantin
19-11-2020, 15:55
Mi dici come si fa? Intanto stasera vedo su hwinfo, che ho già.
Inviato dal mio iPhone utilizzando TapatalkNella finestra con tutti i valori in fila , in basso c'è impostazioni , poi cerchi osd rtss e li scegli cosa vedere , cliccki mostra su osd e scegli la colonna e la fila.
E te lo mostra assieme a quello che hai messo su AB.
Ora sono a lavoro , se non la trovi stasera ti faccio uno screen
I valori che vedi sotto il frame rate sono di hwinfo 64.
https://uploads.tapatalk-cdn.com/20201119/b7471f957b5774341f07a45c7e61133f.jpg
Edit porca zozza mi si sono resettare le.ram .. me ne sono accorto solo adesso da questo screen.
Sono abbastanza sicuro di averle attive da.mobo vuoi capire cosa è successo dopo il fruzz del BIOS
mikael84
19-11-2020, 16:05
Mikael non credo però che in Nvidia le cose non le sappiano o pensino. Evidentemente a loro conveniva così. Ovvio che adesso con una concorrenza bella agguerrita un po’ di pepe al deretano lo hanno. Alla prossima gen non possono permettersi passi falsi, RDNA3 si preannuncia bestiale se queste sono le premesse.
No ma infatti. Nvidia scrive i chip per i pro, pro li adegua.
Se ci pensi. sulla tua scheda, hai vari transistor per fare calcoli pari a 280 tf fp16 via tensor e 557 tops con le int 8 e 1114 tops in 4.
Tu di questa roba usi 10-20tf in fp16 per i tensor.
AMD ad esempio ha investito 6 miliardi di transistor per la cache, ed eliminare i rapporti bus, potendo offrire banda e memoria perfetta.
Un vero collo di bottiglia per nvidia, poi tralasciamo la partnership con micron...
Tra 2 anni si passerà ai 5nm ed MCM, ed nvidia avrà dalla sua, un bel salto sul nodo produttivo.
I 5nm permettono densità max di 173mt per transistor, quindi potremmo aspettarci un botto di prestazioni, in quanto 60mt transistor in MCM possono essere raggiunti e volendo si potrebbero pure doppiare le prestazioni.
AMD ha fatto il botto, però ha aumentato i transistor del 160%, partendo da una simil 2700, nvidia ha fatto un +50% partendo dalla Titan rtx.:)
Ah beh, che discorso. Anche la mia auto vale una ferrari se togliamo i cavalli di differenza....
la ferrari i cavalli li può usare sempre, l'RTX e il DLSS invece..... :stordita:
Predator_1982
19-11-2020, 16:09
AMD ha fatto il botto, però ha aumentato i transistor del 160%, partendo da una simil 2700, nvidia ha fatto un +50% partendo dalla Titan rtx.:)
su questo non ci piove, io per primo non avrei mai creduto.
Hanno fatto un balzo colossale e gettato le fondamenta per un futuro decisamente più competitivo.
Ciò che mi lascia perplesso di BigNavi è l'assenza di unità simil tensor, un eventuale futuro DLSS (simil) ruberebbe un sacco di risorse alla rasterizzazione..
Predator_1982
19-11-2020, 16:09
AMD ha fatto il botto, però ha aumentato i transistor del 160%, partendo da una simil 2700, nvidia ha fatto un +50% partendo dalla Titan rtx.:)
su questo non ci piove, io per primo non avrei mai creduto.
Hanno fatto un balzo colossale e gettato le fondamenta per un futuro decisamente più competitivo.
Ciò che mi lascia perplesso di BigNavi è l'assenza di unità simil tensor, un eventuale futuro DLSS (simil) ruberebbe un sacco di risorse alla rasterizzazione..
jing1988
19-11-2020, 16:22
Nella finestra con tutti i valori in fila , in basso c'è impostazioni , poi cerchi osd rtss e li scegli cosa vedere , cliccki mostra su osd e scegli la colonna e la fila.
E te lo mostra assieme a quello che hai messo su AB.
Ora sono a lavoro , se non la trovi stasera ti faccio uno screen
I valori che vedi sotto il frame rate sono di hwinfo 64.
https://uploads.tapatalk-cdn.com/20201119/b7471f957b5774341f07a45c7e61133f.jpg
Edit porca zozza mi si sono resettare le.ram .. me ne sono accorto solo adesso da questo screen.
Sono abbastanza sicuro di averle attive da.mobo vuoi capire cosa è successo dopo il fruzz del BIOS
Ok sta sera provo. Quindi i watt vicino alla cpu sono i consumi di cpu i n watt, e quelli di gpu della gpu.
Inviato dal mio iPhone utilizzando Tapatalk
mikael84
19-11-2020, 16:26
su questo non ci piove, io per primo non avrei mai creduto.
Hanno fatto un balzo colossale e gettato le fondamenta per un futuro decisamente più competitivo.
Ciò che mi lascia perplesso di BigNavi è l'assenza di unità simil tensor, un eventuale futuro DLSS (simil) ruberebbe un sacco di risorse alla rasterizzazione..
Si perchè hanno lavorato su un PP migliore, ma allo stesso tempo, ci hanno lavorato veramente bene. Diciamo che hanno fatto il pascal di nvidia.
Inoltre considera che la base di sviluppo è RDNA2, quindi possono applicare tutti i trucchetti, come BF5/FC5, dove usano shader intrinsic (che permette di lavorare a basso livello, quasi da console).
Anche con i primi vulkan imbottivano di FP16, dove pascal era sprovvista.
Quindi possono giocarsela meglio qua.
Il DLSS per ora è una vera killer di nvidia, sperando che venga utilizzata più spesso e in modo migliore, in modo che anche le gpu inferiori possano tirare a res più alte.
Su questa modalità, AMD non ha unità native, ma sta lavorando sul fidelity fx new, ma per ora non c'è proprio paragone.
Nemesis8719
19-11-2020, 16:32
su amazon tedesco asus rog strix 3070 a 624 euro ma non spediscono in italia:doh:
Kostanz77
19-11-2020, 16:33
Concordo...anche perchè comunque non ce n'è.
Se mi buttassero fuori una 3080TI che tra i 20GB e i pochi pezzi a mercato, arriverebbe come niente sui 1300-1400€...mi piglierei comunque una 3080 tra le 800 e le 900.
quoto.....
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
fraussantin
19-11-2020, 16:33
Ok sta sera provo. Quindi i watt vicino alla cpu sono i consumi di cpu i n watt, e quelli di gpu della gpu.
Inviato dal mio iPhone utilizzando TapatalkSi ma li puoi impostare come ti pare con l'etichetta personalizzata e scegliere riga e colonna
Mallardo
19-11-2020, 16:34
Il DLSS per ora è una vera killer di nvidia, sperando che venga utilizzata più spesso e in modo migliore, in modo che anche le gpu inferiori possano tirare a res più alte.
Su questa modalità, AMD non ha unità native, ma sta lavorando sul fidelity fx new, ma per ora non c'è proprio paragone.
Vorrei chiedere un chiarimento riguardo al dlss e al fidelity.
Andranno entrambi abilitati e programmati via software o potrebbe esserci la speranza che non debba esserci una programmazione ad oc da parte degli sviluppatori dei giochi? In oltre il fidelity FX sarà presente anche su console?
DJurassic
19-11-2020, 16:48
la ferrari i cavalli li può usare sempre, l'RTX e il DLSS invece..... :stordita:
Se punti al 4K sti benedetti cavalli stanno comunque dietro, anche in raster.
Kostanz77
19-11-2020, 16:48
In Cod Modalità ZOMBIE, tra l'altro monumentale come grafica, l'utilizzo della Vram REALE lo puoi scegliere tu dalle impostazioni avanzate, in questo caso e' dell'80% a default, io l'ho portata al massimo nei prossimi screen che seguono cioè al 90%..
https://i.postimg.cc/PxsNH8RD/vram.jpg (https://postimages.org/)
In questo caso la risoluzione e' di 3440x1440 Texture Ultra e tutto su alto RTX e DLSS qualità l'utilizzo della ram è di 8336
https://i.postimg.cc/WbgVRHP5/vram-3444x1440.png (https://postimages.org/)
https://i.postimg.cc/0ywgzXc3/vram-3444x1440-2.png (https://postimages.org/)
In questo caso la risoluzione e' di 5160x2160 Texture Ultra e tutto su alto RTX e DLSS qualità e l'utilizzo della ram è di 8008
https://i.postimg.cc/d07nXgb1/vram-5160x2160.png (https://postimages.org/)
https://i.postimg.cc/vTNjB59b/vram-5160x2160-2.png (https://postimages.org/)
Quindi con impostazione al 90% della Vram NON arriva a saturare 9GB come ha detto anche D Jurassic... diciamo che e' meglio fidarsi dei proprio occhi e della propria VGA ... :read: ;)
si fa si fa :D
a volte sembra che qualcuno che non è riuscito ad acquistarla per le basse disponibilità e la desiderava tanto questa scheda........si diverta a cercare cavilli o cose per screditarla.
Io invece ti quoto e ti ringrazio per i test che personalmente non ho potuto fare perché ancora non ho preso il nuovo COD.
Ma sui giochi testati e che possiedo, la 3080 è un mostriciattolo che straccia la mia ex 2080Ti
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
DJurassic
19-11-2020, 16:52
Ah.. ecco perché su wd legion vanno bene in rt, ci credo...:D :D
SX 3080 DX 6800xt
https://i.postimg.cc/Z979Qss9/WDL-scaled.jpg (https://postimg.cc/Z979Qss9)
https://wccftech.com/review/amd-radeon-rx-6800-xt-radeon-rx-6800-16-gb-graphics-cards-review-heres-big-navi/14/
Me lo aspettavo, mi autoquoto:
https://www.hwupgrade.it/forum/showpost.php?p=47096966&postcount=4293
Non credo sia voluto o sia doloso da parte di amd, ma alcuni recensori ci sono cascati in pieno, dando il test per buono.
Quindi rimane solo dirt 5 che incredibilmente va molto bene in RT, ma vabbé si sa anche il perché.
Ma perchè Dirt 5 ha il raytracing secondo te? :asd:
a volte sembra che qualcuno che non è riuscito ad acquistarla per le basse disponibilità e la desiderava tanto .......si diverta a cercare cavilli o cose per screditarla.
Io invece ti quoto e ti ringrazio per i test che personalmente bon ho potuto fare perché ancora non ho preso il nuovo COD.
Ma sui giochi testati e che possiedo è un mostriciattolo che straccia la mia ex 2080Ti
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Basta leggere le boiate che scrivono di là i fuoriusciti di questo thread per farsene un idea. I delusi in amore gli fanno una pippa :D
Se punti al 4K sti benedetti cavalli stanno comunque dietro, anche in raster.
sono almeno cinque anni che sento di "puntare al 4k" e che "la prossima serie di vga permetterà di gestirli facilmente"......e ci siamo ridotti a dover usare upscaler :asd:
ci sono arrivate prima le console che il pc :asd:
il 4k oggi è la nicchia della nicchia della nicchia, esiste solo nei forum praticamente
DJurassic
19-11-2020, 16:56
sono almeno cinque anni che sento di "puntare al 4k" e che "la prossima serie di vga permetterà di gestirli facilmente"......e ci siamo ridotti a dover usare upscaler :asd:
ci sono arrivate prima le console che il pc :asd:
il 4k oggi è la nicchia della nicchia della nicchia, esiste solo nei forum praticamente
Finora nessuna console next gen gestisce i 4K nativi a 60fps, quindi se per arrivarci prima intendi scriverlo sulla confezione allora alzo le mani. Sono quasi più veri gli 8K della 3090 :asd:
Lieto di essere la nicchia della nicchia cmq. Tutto quello che mi capita di provare è documentato su queste pagine quindi non è che mi invento nulla.
Nel senso che essendo ormai la più pulciosa delle TV una 4K hai una adozione del 4K infinitamente maggiore nel mondo console di quanto vedo su pc.............basta vedere le statistiche steam............su twitch vedo al massimo dei qhd 144hz.......ma spessissimo semplici fullHD
DJurassic
19-11-2020, 17:17
Nel senso che essendo ormai la più pulciosa delle TV una 4K hai una adozione del 4K infinitamente maggiore nel mondo console di quanto vedo su pc.............basta vedere le statistiche steam............su twitch vedo al massimo dei qhd 144hz.......ma spessissimo semplici fullHD
Se Steam è affidabile per questo genere di stime non lo sò ma chi sono io per dire il contrario. Sarà ma acquistare una di queste schede pensando al fullhd come riferimento fà tristezza dal momento che per soddisfare quel genere di aspettative basta decisamente molto molto meno.
piperprinx
19-11-2020, 18:34
Ma sono della 3090 o 3080?
C'e' una bella differenza in quanto le ram della 3090 sono downclockate da 21 a 19,5.
Se fossero della 3080, tanta roba prima di incasinare il controller.
3090
Io ultimamente comincio ad essere indeciso del mio prossimo acquisto. 6800xt oppure 3080. Il problema è che le vorrei tutte e due, ma mi contengo :D . Ora al di la della attuale disponibilità inesistente delle 3080, qualcuno di voi sa per caso quando potrebbero tornare disponibili, eventualmente penserei ad una custom Eagle per una questione di budget e in alcune review ne parlano bene. Avete qualche informazione?
piperprinx
19-11-2020, 18:50
Nella finestra con tutti i valori in fila , in basso c'è impostazioni , poi cerchi osd rtss e li scegli cosa vedere , cliccki mostra su osd e scegli la colonna e la fila.
E te lo mostra assieme a quello che hai messo su AB.
Ora sono a lavoro , se non la trovi stasera ti faccio uno screen
I valori che vedi sotto il frame rate sono di hwinfo 64.
https://uploads.tapatalk-cdn.com/20201119/b7471f957b5774341f07a45c7e61133f.jpg
non e' che si e' trovato un modo per avere un toggle da tastiera per l'OSD di RTSS?
LOL:sofico: :sofico:
Ma poi quali cavalli? si vede che salendo di risoluzione la 3080 ha qualcosa in piú.
godetevelo tutto minecraft :O ve lo siete meritati :O super mario bros 3 spaccherà in RT :O
fraussantin
19-11-2020, 20:14
non e' che si e' trovato un modo per avere un toggle da tastiera per l'OSD di RTSS?Per rivatuner non saprei.
Per AB ci sarebbe il suo server e relativo client android , avevo impostato il vecchio telefono con piedistallo per l'osd e tutto il resto ...
Poi andava a finire che abbassare l'occhio mentre giocavo era scomodissimo.
Meglio a schermo con i tasti rapidi per attivarlo se necessario.
amon.akira
19-11-2020, 20:50
godetevelo tutto minecraft :O ve lo siete meritati :O super mario bros 3 spaccherà in RT :O
non ti preoccupare arriverà anche per te il giorno in cui vedrai nei giochi tra le varie opzioni grafiche rt qualcosa on off e dirai ma si...mettiamo on :sofico:
Bhe alla soglia dei quaranta un’esperienza nuova potrebbe essere interessante
Nell’ultimo anno mi sto più divertendo con vga pci o agp, fai tu... mi è salita sta scimmia da retrogaming se non fosse che mi son deciso a fare il mio primo impianto a liquido...altrimenti sarei perso negli anni 90 :asd:
Crysis90
19-11-2020, 21:14
ci sono arrivate prima le console che il pc :asd:
Non diciamo minchiate, in 4K le console:
- o fanno 28 FPS AL MASSIMO in 4K nativo
- o usano l'upscaling dinamico (vedi DLSS...) per simulare il 4K
E comunque, in ogni caso con settaggi medio/bassi rispetto alle controparti PC.
:rolleyes: :rolleyes:
DJurassic
19-11-2020, 21:28
Non diciamo minchiate, in 4K le console:
- o fanno 28 FPS AL MASSIMO in 4K nativo
- o usano l'upscaling dinamico (vedi DLSS...) per simulare il 4K
E comunque, in ogni caso con settaggi medio/bassi rispetto alle controparti PC.
:rolleyes: :rolleyes:
Magari fosse come il DLSS quello delle console. Il CB rendering non genera nessun pixel riempitivo in base ad un algoritmo creato appositamente ma è pura e semplice interpolazione, con risultati lontani anni luce.
piperprinx
19-11-2020, 22:58
Ok, rimetto lo sli di 980, tanto il 4k non serve...:doh: :D
https://i.ibb.co/ngVqN4x/20201119-224155.jpg (https://ibb.co/ngVqN4x) https://i.ibb.co/Z1Q6f8w/20201119-223811.jpg (https://ibb.co/Z1Q6f8w) https://i.ibb.co/Hg280v5/20201119-223852.jpg (https://ibb.co/Hg280v5) https://i.ibb.co/pynYd4W/20201119-223925.jpg (https://ibb.co/pynYd4W)
Ecco le foto del PC, finalmente ho avuto il tempo di farle :D
Critiche e suggerimenti ben accetti!
Cerco un bios cucinato per aumentare il power limit. qualcuno sa di un bios testato per le FE?
https://www.reddit.com/r/nvidia/comments/js4ngj/rtx_3070_flashing_bios_to_rtx_3070_ventus_3x_oc/
SinapsiTXT
19-11-2020, 23:48
https://i.ibb.co/ngVqN4x/20201119-224155.jpg (https://ibb.co/ngVqN4x) https://i.ibb.co/Z1Q6f8w/20201119-223811.jpg (https://ibb.co/Z1Q6f8w) https://i.ibb.co/Hg280v5/20201119-223852.jpg (https://ibb.co/Hg280v5) https://i.ibb.co/pynYd4W/20201119-223925.jpg (https://ibb.co/pynYd4W)
Ecco le foto del PC, finalmente ho avuto il tempo di farle :D
Critiche e suggerimenti ben accetti!
Cerco un bios cucinato per aumentare il power limit. qualcuno sa di un bios testato per le FE?
https://www.reddit.com/r/nvidia/comments/js4ngj/rtx_3070_flashing_bios_to_rtx_3070_ventus_3x_oc/
Bella la FE ma è un case mini-ATX vero? Si vede che è un po' sacrificata :D
Come vanno le temperature? Io fossi in te prima di metterci bios moddati proverei a vedere se hai beccato un chip fortunello :D
il case è un mid tower :D E' il dissipatore della CPU a essere enorme
Il core clock è a 2085 mhz con 950mv
Vram a +1200 mhz
Sono letteralmente costantemente a muro dei 235-240W con undervolt già applicato e il core ho visto che arriva in scioltezza a 2160mhz con 1v (ancora non sono arrivato fino in fondo), ma dopo non ho più budget da spendere per alzare il clock delle ram, che in game da più prestazioni. Ovviamente sono settaggi con ventola al 100%, non ho ancora cercato un compromesso.
Mi mancano 36 punti per avere la 3070 più veloce su superposition 4k
Screen per dimostrare che sono clock "veri", che portano prestazioni :D
https://i.ibb.co/2NzDd5T/Superposition-Benchmark-v1-1-12163-1605836628.png (https://ibb.co/ZmQnxN0)
Penso di avere un golden sample soprattutto per le frequenze delle Vram
DJurassic
20-11-2020, 02:18
Ellamadonna 2160mhz con 1v. Potresti provare un Timespy per curiosità?
Alzare le frequenze della Vram ingame non cambia assolutamente nulla. Sposterà si e no 1 o 2 fps. E non sposta quasi nulla nemmeno nei benchmark.
in horizon alzando solo le ram in 4k passo da 53 a 59 fps,
https://www.3dmark.com/3dm/53287039
Risultato 14 865 GPU score con i miei settaggi (ma ho toccato il power limit un po' troppo, c'è da ottimizzare). Domani provo con il core tirato al massimo. 2160 a 975mv vado contro al power limit brutalmente
Nemesis8719
20-11-2020, 03:18
Cosa ne pensate della AORUS 3090 Xtreme? Non riesco a trovare recensioni decenti. Quella gigante con schermino tamarro LCD. Alla pari o peggio di una Strix?
sertopica
20-11-2020, 04:35
Per rivatuner non saprei.
Per AB ci sarebbe il suo server e relativo client android , avevo impostato il vecchio telefono con piedistallo per l'osd e tutto il resto ...
Poi andava a finire che abbassare l'occhio mentre giocavo era scomodissimo.
Meglio a schermo con i tasti rapidi per attivarlo se necessario.
Frauss, come hai fatto ad attivare il grafico del framerate/frametime con afterburner? A me da' solo il numeretto ma vorrei vedere meglio se ci sono sbalzi mentre gioco. Mi sono perso un'opzione per strada.
fraussantin
20-11-2020, 06:09
Frauss, come hai fatto ad attivare il grafico del framerate/frametime con afterburner? A me da' solo il numeretto ma vorrei vedere meglio se ci sono sbalzi mentre gioco. Mi sono perso un'opzione per strada.Si con afterburner , ma non ricordo dove ho trovato l'opzione , oggi a pranzo ti ci guardo
È comodo per vedere lo stutter
piperprinx
20-11-2020, 07:12
Ecco le foto del PC, finalmente ho avuto il tempo di farle :D
Critiche e suggerimenti ben accetti!
Cerco un bios cucinato per aumentare il power limit. qualcuno sa di un bios testato per le FE?
[url]https://www.reddit.com/r/nvidia/comments/js4ngj/rtx_3070_flashing_bios_to_rtx_3070_ventus_3x_oc/ (https://ibb.co/ngVqN4x)
Non esistono alternativi per le FE, al momento che io sappia.
Thunder-74
20-11-2020, 07:24
Cosa ne pensate della AORUS 3090 Xtreme? Non riesco a trovare recensioni decenti. Quella gigante con schermino tamarro LCD. Alla pari o peggio di una Strix?
Purtroppo una rece vera non c'è, sarei curioso di vedere il PCB. Comunque personalmente l'avevo messa tra le VGA che mi interessavano insieme a Strix e FTW3.
Non diciamo minchiate, in 4K le console:
- o fanno 28 FPS AL MASSIMO in 4K nativo
- o usano l'upscaling dinamico (vedi DLSS...) per simulare il 4K
E comunque, in ogni caso con settaggi medio/bassi rispetto alle controparti PC.
:rolleyes: :rolleyes:
:rolleyes: ma siete de coccio, mi vieni a spiegare la differenza fra pc e console? :asd:
"ci sono molte più console attaccate a una TV 4K che un pc a un monitor 4K"
capito ora?
Alekos Panagulis
20-11-2020, 08:44
3080 FTW3 in consegna OGGIIIIIII :sofico: :oink: :ave: :cincin: :happy: :ubriachi: :winner:
jing1988
20-11-2020, 09:14
3080 FTW3 in consegna OGGIIIIIII :sofico: :oink: :ave: :cincin: :happy: :ubriachi: :winner:
Cincin fratello.
Inviato dal mio iPhone utilizzando Tapatalk
Cutter90
20-11-2020, 09:20
Non esistono alternativi per le FE, al momento che io sappia.
Domanda. Ma tu usi Afetrburner o Precision X? Io ho sempre usato AB. Ma magari dato che è un Evga, il suo software lavora meglio?
In ogni caso non capisco perchè in valhalla la scheda non viene sfruttata. Consuma 400 watt appena lavora al massimo al 105% con il pl a 119.... mentre in tutto il resto va e viene sfruttata quasi appieno
Ragazzi, ho visto la AORUS RTX 3090 xtreme della Gigabyte ed è davvero bella esteticamente. Specifiche al top e mi chiedo come mai qui non credo se ne sia parlato. Gigabyte non è considerata una marca affidabile?
Cercavo anche una recensione di questa scheda, ma non c'è niente in rete, a me interessava sapere come si comportava a livello di rumorosità (la cerco moooolto silenziosa) e di consumi/temperature.
Rumpelstiltskin
20-11-2020, 10:22
Ragazzi, ho visto la AORUS RTX 3090 xtreme della Gigabyte ed è davvero bella esteticamente. Specifiche al top e mi chiedo come mai qui non credo se ne sia parlato. Gigabyte non è considerata una marca affidabile?
Cercavo anche una recensione di questa scheda, ma non c'è niente in rete, a me interessava sapere come si comportava a livello di rumorosità (la cerco moooolto silenziosa) e di consumi/temperature.
Come moooolto silenziosa ti consiglio la Asus TUF
Cutter90
20-11-2020, 10:23
Ragazzi, ho visto la AORUS RTX 3090 xtreme della Gigabyte ed è davvero bella esteticamente. Specifiche al top e mi chiedo come mai qui non credo se ne sia parlato. Gigabyte non è considerata una marca affidabile?
Cercavo anche una recensione di questa scheda, ma non c'è niente in rete, a me interessava sapere come si comportava a livello di rumorosità (la cerco moooolto silenziosa) e di consumi/temperature.
La marca è buona. Sembra a livello delle top sulla carta. Ma il problema è la reperibilità, il costo e le recensioni assenti
Thunder-74
20-11-2020, 10:23
recensita la 3080 MSI Suprim. Bios da 430W
stesso PCB della MSI Trio con 4 fasi in più ( 13+3 Vs 16+4)... componenti sempre cheap.
Suprim
https://i.imgur.com/9cMGrhol.jpg
Trio
https://i.imgur.com/zaTL3HDl.jpg
fraussantin
20-11-2020, 10:30
recensita la 3080 MSI Suprim. Bios da 430W
stesso PCB della MSI Trio con 4 fasi in più ( 13+3 Vs 16+4)... componenti sempre cheap.
Suprim
https://i.imgur.com/9cMGrhol.jpg
Trio
https://i.imgur.com/zaTL3HDl.jpgDesign "pulito" del PCB :asd:
Rumpelstiltskin
20-11-2020, 10:31
Trio
https://i.imgur.com/zaTL3HDl.jpg
l'omino addetto al montaggio aveva finito i pezzi e si è arrangiato come poteva?
:banned:
Rumpelstiltskin
20-11-2020, 10:37
Scusate ma in AB la voce "GPU VOLTAGE" è stata tolta?
Crysis90
20-11-2020, 10:48
"ci sono molte più console attaccate a una TV 4K che un pc a un monitor 4K"
capito ora?
Aspetta che te lo rispiego, così forse capisci: ECCHISSENEFREGA!!!!
Siamo su un Thread di componenti PC, chi diamine se le caga quei cessi di scatolette???? :muro: :muro: :muro:
recensita la 3080 MSI Suprim. Bios da 430W
Hai il link alla rece??
Design "pulito" del PCB :asd:
E ti credo, non c'è niente... :asd:
Thunder-74
20-11-2020, 10:56
cut..
Hai il link alla rece??
TpUP (https://www.techpowerup.com/review/msi-geforce-rtx-3080-suprim-x/)
Guru3D (https://www.guru3d.com/articles-pages/msi-geforce-rtx-3080-suprim-x-review,1.html)
EVGA lancia GeForce RTX 3090 KINGPIN HYBRID a 2.000 USD
La scheda grafica sarà disponibile in poche ore esclusivamente per i membri EVGA Elite
LINK (https://videocardz.com/newz/evga-launches-geforce-rtx-3090-kingpin-hybrid-at-2000-usd)
sulla Kingpin hanno adottato la stessa soluzione di ASUS: 60 MLCC
https://i.imgur.com/Kt8cPFu.jpg
Come moooolto silenziosa ti consiglio la Asus TUF
Grazie del consiglio!
La marca è buona. Sembra a livello delle top sulla carta. Ma il problema è la reperibilità, il costo e le recensioni assenti
Sì, ovviamente parlavo tralasciando per un attimo il discorso annoso della reperibilità attuale.
recensita la 3080 MSI Suprim. Bios da 430W
stesso PCB della MSI Trio con 4 fasi in più ( 13+3 Vs 16+4)... componenti sempre cheap.
Scusa l'ignoranza, ma potresti spiegarmi questo discorso dei Watt dei bios? Perché non ci capisco granché. Leggevo per esempio che dicevate la EVGA avrebbe dovuto rilasciare il bios da 500W, ma che vuol dire in pratica?
Crysis90
20-11-2020, 11:21
TpUP (https://www.techpowerup.com/review/msi-geforce-rtx-3080-suprim-x/)
Guru3D (https://www.guru3d.com/articles-pages/msi-geforce-rtx-3080-suprim-x-review,1.html)
Bello schifo.
https://i.imgur.com/osWhf7a.jpg
Schede sempre più enormi, prestazioni dissipanti sempre più mediocri.
:asd: :mc: :mc:
Non mi capacito come una mattonella enorme come quella tenga la GPU quasi a 80 °C.
Thunder-74
20-11-2020, 11:27
Scusa l'ignoranza, ma potresti spiegarmi questo discorso dei Watt dei bios? Perché non ci capisco granché. Leggevo per esempio che dicevate la EVGA avrebbe dovuto rilasciare il bios da 500W, ma che vuol dire in pratica?
in pratica la scheda in base alla complessità della scena, va a richiedere più o meno corrente. Una 3080 come progetto di riferimento, ha 320W massimi che può gestire, oltre il quale, per rientrare in tale assorbimento, vengono tagliati i voltaggi e di conseguenza le freq., dato che esiste una curva che appunto definisce queste due variabili e ne definisce una correlazione. Ogni marca ha adottato approcci differenti. Abbiamo modelli di 3080 con 2 connettori da 8pin che al max arrivano a 375W (la TUF) altri variano tra i 350 e i 370. Modelli con 3 connettori si spingono fino a 450W (FTW3/Strix/Aorus xTreme). Tale power Limit (PL) viene innalzato al limite attraverso software tipo Afterburner , Precision X ecc con l'apposito slide. Ovvio che avere un PL più alto, ti permette di incorrere in minor modo a tagli di freq. per eccesso di assorbimento di corrente. Il bios che hai letto da 500W è per la 3090 FTW3.
in pratica la scheda in base alla complessità della scena, va a richiedere più o meno corrente. Una 3080 come progetto di riferimento, ha 320W massimi che può gestire, oltre il quale, per rientrare in tale assorbimento, vengono tagliati i voltaggi e di conseguenza le freq., dato che esiste una curva che appunto definisce queste due variabili e ne definisce una correlazione. Ogni marca ha adottato approcci differenti. Abbiamo modelli di 3080 con 2 connettori da 8pin che al max arrivano a 375W (la TUF) altri variano tra i 350 e i 370. Modelli con 3 connettori si spingono fino a 450W (FTW3/Strix/Aorus xTreme). Tale power Limit (PL) viene innalzato al limite attraverso software tipo Afterburner , Precision X ecc con l'apposito slide. Ovvio che avere un PL più alto, ti permette di incorrere in minor modo a tagli di freq. per eccesso di assorbimento di corrente. Il bios che hai letto da 500W è per la 3090 FTW3.
Ok, tutto chiaro, ti ringrazio davvero per la spiegazione. Mi viene ora solo da chiedermi: ma con assorbimento da 450/500W (ok, non sempre, ma prendiamolo come caso che in fasi di gioco concitate potrebbe essere la norma) un alimentatore da PC da 750/800W ce la fa a sostenere quella richiesta o necessiterebbe di maggiore potenza?
Crysis90
20-11-2020, 11:54
Se volete farvi 2 risate...
https://www.youtube.com/watch?v=ysjZWYXRA_E
:asd: :asd:
Lo Straniero Misterioso
20-11-2020, 11:59
TpUP (https://www.techpowerup.com/review/msi-geforce-rtx-3080-suprim-x/)
Guru3D (https://www.guru3d.com/articles-pages/msi-geforce-rtx-3080-suprim-x-review,1.html)
EVGA lancia GeForce RTX 3090 KINGPIN HYBRID a 2.000 USD
La scheda grafica sarà disponibile in poche ore esclusivamente per i membri EVGA Elite
LINK (https://videocardz.com/newz/evga-launches-geforce-rtx-3090-kingpin-hybrid-at-2000-usd)
sulla Kingpin hanno adottato la stessa soluzione di ASUS: 60 MLCC
https://i.imgur.com/Kt8cPFu.jpg
Sono sempre oggetti affascinanti... e se la piazzano a 2000 euro non è neanche una cifra così assurda, confrontati coi prezzi gonfiati della lineup "standard".
D'altra parte non sarei in grado di sfruttarla adeguatamente... :|
Thunder-74
20-11-2020, 11:59
Ok, tutto chiaro, ti ringrazio davvero per la spiegazione. Mi viene ora solo da chiedermi: ma con assorbimento da 450/500W (ok, non sempre, ma prendiamolo come caso che in fasi di gioco concitate potrebbe essere la norma) un alimentatore da PC da 750/800W ce la fa a sostenere quella richiesta o necessiterebbe di maggiore potenza?
diciamo che saresti abbastanza al limite. Poi dipende che CPU stai gestendo e se hai OC su di essa. Questa una tabella che si trova sul sito Asus:
https://i.imgur.com/NgYDjeh.png
ma considera che per la Strix sia 3080 che 3090 raccomanda un 850W
Perfetto, grazie, tutto chiaro! ;) Allora se riesco a prendere una 3090, sarò quasi costretto a sostituire il mio fedele Corsair HX 750i
Thunder-74
20-11-2020, 12:14
Perfetto, grazie, tutto chiaro! ;) Allora se riesco a prendere una 3090, sarò quasi costretto a sostituire il mio fedele Corsair HX 750i
l'ottimo sarebbe far lavorare sempre un ALI vicino al 50% del carico massimo, per un discorso di efficienza e stress prolungato. Quindi io prenderei un 1000-1200W almeno gold.
DJurassic
20-11-2020, 12:21
Ma solo a me fà cagare il backplate della Kingpin? :stordita:
piperprinx
20-11-2020, 12:22
Domanda. Ma tu usi Afetrburner o Precision X? Io ho sempre usato AB. Ma magari dato che è un Evga, il suo software lavora meglio?
In ogni caso non capisco perchè in valhalla la scheda non viene sfruttata. Consuma 400 watt appena lavora al massimo al 105% con il pl a 119.... mentre in tutto il resto va e viene sfruttata quasi appieno
Uso AB per l’osd, , quello di precision non mette il carico Watt, anche se precision ha qualche funzione in più, ma ormai conosco AB come le mie tasche, e fin quando sono in “fase di studio” della scheda uso i tool a cui sono abituato in modo da essere sicuro dei riscontri. Poi tra un po’ quando sarò tranquillo su quale scheda tenere e l’avrò liquidata preparerò 2/3 preset, magari con precision e spegnerò l’osd:D.
Tra l’altro ho visto che permette di sincronizzare il colore dei led con la temperatura della scheda, gadget simpatico.
Su Valahalla ho letto in giro polemiche sul fatto che sia il gioco che limiti intenzionalmente il power delle nvidia.
Non ti so dire perché non ce l’ho e per la prima volta credo di non prenderlo a breve, senza Steam e achievements (ebbene sì, non riesco a giocare senza cheevos )
piperprinx
20-11-2020, 12:26
l'omino addetto al montaggio aveva finito i pezzi e si è arrangiato come poteva?
:banned:
Comunque anche le trio pare che con il bios Evga da 500W volino, pcb scrauso o meno.
Iceman69
20-11-2020, 12:37
Comunque anche le trio pare che con il bios Evga da 500W volino, pcb scrauso o meno.
Io sono alla seconda MSI trio (prima la 2080ti e ora la 3090) e la trovo la scheda migliore tra le varie uscite, avevo provato anche le Asus e le EVGA, ma devo dire che mi trovo meglio con MSI, sicuramente la più silenziosa (ai tempi delle 2080ti), nonostante io ami tutto ciò che è Asus strix per l'indubbia qualità.
La 3090 che ho ora Power limit a parte sale benissimo, tiene i +200 sul core e in undervolt è stabile a 0,850v e 1905 Mhz ( che mi sembra sia un default+285, purtroppo in molti giochi scatta il Power limit nei punti più carichi). Silenziosissima fino a 1600 giri con temperature mai sopra i 70 C° (per altro come la 2080ti, ma più silenziosa) con il case che privilegia il silenzio al raffreddamento.
Unica pecca il prezzo, troppo alto per avere solo il 40/50% in più rispetto alla 2080ti, dovrebbe costare un 300 euro in meno (pagata 1.880).
fraussantin
20-11-2020, 12:41
Io sono alla seconda MSI trio (prima la 2080ti e ora la 3090) e la trovo la scheda migliore tra le varie uscite, avevo provato anche le Asus e le EVGA, ma devo dire che mi trovo meglio con MSI, sicuramente la più silenziosa (ai tempi delle 2080ti).
La 3090 che ho ora Power limit a parte sale benissimo, tiene i +200 sul core e in undervolt è stabile a 0,850v e 1905 Mhz (purtroppo in molti giochi scatta il Power limit nei punti più carichi). Silenziosissima fino a 1600 giri con temperature mai sopra i 70 C° (per altro come la 2080ti, ma più silenziosa) con il case che privilegia il silenzio al raffreddamento.
Unica pecca il prezzo, troppo alto per avere solo il 40/50% in più rispetto alla 2080ti, dovrebbe costare un 300 euro in meno (pagata 1.880).Se la paragoni al prezzo della trio 2080ti non è poi cara. Ti danno 24 giga di RAM costosine. Se poi la paragoni alla 3080 vabbè..
È che è proprio msi ad essere cara di suo in generale.
Iceman69
20-11-2020, 12:43
Se la paragoni al prezzo della trio 2080ti non è poi cara. Ti danno 24 giga di RAM costosine. Se poi la paragoni alla 3080 vabbè..
È che è proprio msi ad essere cara di suo in generale.
Hanno pompato, all'uscita stava a 1.620, che poi era il prezzo giusto.
Io la MSI trio 2080ti la avevo pagata 915 euro su eprice un giorno che si erano sbagliati a mettere il prezzo..
https://www.hdblog.it/hardware/articoli/n529813/nvidia-geforce-rtx-3080-ti-20gb-immagini/
Bello schifo.
https://i.imgur.com/osWhf7a.jpg
Schede sempre più enormi, prestazioni dissipanti sempre più mediocri.
:asd: :mc: :mc:
Non mi capacito come una mattonella enorme come quella tenga la GPU quasi a 80 °C.
E' un problema di densità legato ai nuovi processi produttivi. Stiamo sparando un un botto di watt in veramente poco spazio portare via il calore dal die è sempre più difficile. Penso che anche se avessero raddoppiato la superficie dissipante sarebbe cambiato poco. Oltre certi rapporti densita/potenza bisogna andare di raffreddamento a liquido.
Thunder-74
20-11-2020, 13:00
Ma solo a me fà cagare il backplate della Kingpin? :stordita:
stesso pensiero...
Comunque anche le trio pare che con il bios Evga da 500W volino, pcb scrauso o meno.
il problema sembra essere circoscritto alla EVGA
https://www.hdblog.it/hardware/articoli/n529813/nvidia-geforce-rtx-3080-ti-20gb-immagini/
uscirà, ma questo è un fake... quella non è un'aorus ma una Colorful Vulkan
https://tpucdn.com/review/colorful-igame-geforce-rtx-3080-vulcan-oc/images/package1_small.jpg
E' un problema di densità legato ai nuovi processi produttivi. Stiamo sparando un un botto di watt in veramente poco spazio portare via il calore dal die è sempre più difficile. Penso che anche se avessero raddoppiato la superficie dissipante sarebbe cambiato poco. Oltre certi rapporti densita/potenza bisogna andare di raffreddamento a liquido.
comunque sono alte come temp per una custom... già la trio scalda meno
ragazzi.... l'ASUS sulle sua versione di 3070 a liquido ha usato il connettore nVidia da 12 pin....
https://cdn.videocardz.com/1/2020/11/ASUS-GeForce-RTX-3070-8GB-EKWB12.jpg
FONTE (https://videocardz.com/newz/asus-unveils-geforce-rtx-3070-ekwb-with-12-pin-power-connector)
TigerTank
20-11-2020, 13:09
TpUP (https://www.techpowerup.com/review/msi-geforce-rtx-3080-suprim-x/)
Guru3D (https://www.guru3d.com/articles-pages/msi-geforce-rtx-3080-suprim-x-review,1.html)
EVGA lancia GeForce RTX 3090 KINGPIN HYBRID a 2.000 USD
La scheda grafica sarà disponibile in poche ore esclusivamente per i membri EVGA Elite
LINK (https://videocardz.com/newz/evga-launches-geforce-rtx-3090-kingpin-hybrid-at-2000-usd)
sulla Kingpin hanno adottato la stessa soluzione di ASUS: 60 MLCC
https://i.imgur.com/Kt8cPFu.jpg
Ma solo a me fà cagare il backplate della Kingpin? :stordita:
A me sinceramente le Kingpin hanno sempre fatto quell'effetto...ma perchè alla fine sono schede che servono solo agli overclockers estremi per fare punteggio. Per l'user standard sono utili tanto quanto un Iphone tempestato di swarovski :D
L'unico caso in cui si potrebbe dire che sono valsi costo e sfruttamento, è Nurabsa :sofico:
fraussantin
20-11-2020, 13:10
Frauss, come hai fatto ad attivare il grafico del framerate/frametime con afterburner? A me da' solo il numeretto ma vorrei vedere meglio se ci sono sbalzi mentre gioco. Mi sono perso un'opzione per strada.
Si con afterburner , ma non ricordo dove ho trovato l'opzione , oggi a pranzo ti ci guardo
È comodo per vedere lo stutter
https://i.postimg.cc/RFnTcRwp/screenshot-292.jpg
questa qui
Crysis90
20-11-2020, 13:23
E' un problema di densità legato ai nuovi processi produttivi. Stiamo sparando un un botto di watt in veramente poco spazio portare via il calore dal die è sempre più difficile. Penso che anche se avessero raddoppiato la superficie dissipante sarebbe cambiato poco. Oltre certi rapporti densita/potenza bisogna andare di raffreddamento a liquido.
Perdonami ma non è del tutto così.
Le ASUS TUF e STRIX tengono temperature più basse di ben 15°C.
Eppure i chip che dissipano sono gli stessi, la STRIX addirittura ha un BIOS da 480W.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.