View Full Version : [Thread Ufficiale] AMD Radeon RX6000 Series
marbasso
27-11-2020, 11:17
Mettete uno screen di gpuz con i max e vediamo il consumo a 2600mhz e da dove tira di + e di meno.
Connettori e pciex.
Mettete uno screen di gpuz con i max e vediamo il consumo a 2600mhz e da dove tira di + e di meno.
Connettori e pciex.
Vedo solo questo, è la stessa versione che usavo con la 3080, e l'ho pure riscaricata, ma non trovo altro, boh.
http://gpuz.techpowerup.com/20/11/27/9ay.png
non potrà farlo perché all'inizio RT su AMD non sarà supportato.
si ma c'è una schizzoefrenia da primo giorno allucinante....
così come le vga non è che se non ci sono per tutti (milioni di persone) le prime settimane poi non ci saranno per i restanti due ANNI in cui saranno in commercio, uguale CB: non è che se non lo gioco in RT al day 1 poi lo disinstallo e non lo gioco più ...... l'unico effetto è che chi avrà una big navi non acquisterà al day 1 il gioco....peggio per loro. Lo acquisteremo in saldo più avanti e senza millemila bug....
mikael84
27-11-2020, 11:41
Lato RT una cosa mi incuriosice è come reagiscono all'OC/frequenze quei carichi....essendo che amd usa le sp generiche un oc su quelli porta inevitabilmente a maggiori prestazioni in RT cosa che invece se non ricordo male non poteva essere così con Turing, su Ampere è uguale? Detto che overcloccare Ampere è di per sè inutile o quasi, rimane un punto importante.....
Banalmente: una 6800XT a 2700mhz fissi quanto migliorerebbe su un carico ibrido o addirittura full RT rispetto a quando gira a 2200?
Quei risultati in 240W sono fantastici eh so che ormai è passata di moda l'efficienza ma se uno non deve cambiare l'alimenttaore o case bhe è un fattore....
Si aumentano anche loro il valore per clock, ad es, i valori stock di una 2080ti sono 42-45tf, a 2100mhz 51,54tf.
Una 6800xt a 2600 raggiungerebbe oltre 50tf.
Questo spiega, anche la posizione media su bench.
Tuttavia, cambiano alcune esecuzioni, non sono completamente simili, soprattutto tra BVH (via shader AMD) e velocità di intersezioni (migliorato su ampere), ma anche da quanto tempo ci impiegano a svolgere le varie operazioni.
marbasso
27-11-2020, 11:42
Vedo solo questo, è la stessa versione che usavo con la 3080, e l'ho pure riscaricata, ma non trovo altro, boh.
http://gpuz.techpowerup.com/20/11/27/9ay.png
Un picco di 176w@2500mhz, ma non hai altre voci nel sensor di gpuz, io ne avrò almeno una 30ina, per vedere il wattaggio come è ripartito.
Grazie.
Gyammy85
27-11-2020, 11:43
non l'ho rigiocato tutto, ma nel resto a volte la supera e a volte sta sotto. Dipende molto dalle scene.
L'impressione è che laddove ci sia tanta tanta geometria e tessellation un po' le AMD pagano pegno. Ma c'è sempre la variabile RT che, per quanto scarna in questo gioco, un po' fa la sua parte, ma evidentemente qualcosa nell'architettura di bignavi fa da collo di bottiglia (non la cache ovviamente).
Questo l'ho notato anche rispetto a Turing (avevo la 2080 liscia prima), i calcoli RT è come se annullassero il vantaggio in raster. Se spegnete completamente RT allora volano.
Secondo me le nvidia avranno qualche ottimizzazione sulle ombre lontane o fuori inquadratura, per cui su amd il render delle ombre in rt è totale e perde tanti fps in quella scena, c'è ancora molto da ottimizzare lato software
Gyammy85
27-11-2020, 11:48
Edit doppio
ninja750
27-11-2020, 11:50
Mettete uno screen di gpuz con i max e vediamo il consumo a 2600mhz e da dove tira di + e di meno.
Connettori e pciex.
mi pare siano valori letti solo sulle rtx
ma a voi fino a quanto boosta con scheda a default?
Ale55andr0
27-11-2020, 11:59
si, l'ho notato. La sensazione che ho è che le superfici (in termini di resa foto cromatica) siano leggermente migliori su AMD, lo notavo per esempio ieri osservando in Legion la giacca di pelle di una protagonista.
Ma anche in generale con il dettaglio dei volti in primo piano in altri giochi come COD e METRO.
In altri giochi invece come BF V, nelle mappe aperte con molta erba sembra peggiore...quasi tutto un po' più impastato.
Magari è solo una mia sensazione. Gli altri che dicono?
Capito, grazie ;)
No Life King
27-11-2020, 12:12
si ma c'è una schizzoefrenia da primo giorno allucinante....
così come le vga non è che se non ci sono per tutti (milioni di persone) le prime settimane poi non ci saranno per i restanti due ANNI in cui saranno in commercio, uguale CB: non è che se non lo gioco in RT al day 1 poi lo disinstallo e non lo gioco più ...... l'unico effetto è che chi avrà una big navi non acquisterà al day 1 il gioco....peggio per loro. Lo acquisteremo in saldo più avanti e senza millemila bug....
poi ci sono io che me ne sbatto dell'RT, ho intenzione di acquistare una 6800xt (o una 6900xt se entro l'8 non riesco a prendere la 6800) e ho già preordinato CB :asd:
Se volete giocare solo cyberpunk, comprate Nvidia.
È scontato girerà meglio sulle verdi, anche senza RT
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
scelta davvero tosta, ti dirò, me le terrei entrambe sul serio. Allora, faccio una premessa: non sono assolutamente guidato da smanie fanboistiche, menefottesega, a me piace ciò che mi soddisfa.
Ad oggi credo di essere più sbilanciato verso la 3080 perché è evidente che ci sia una maggiore ottimizzazione dei giochi sull'hw Nvidia, il che si traduce in prestazioni di picco che, seppur magari minori, sono più stabili.
Lato RT vabbè, ormai sono una radio rotta, Ampere vince agevolmente. La sua potenza nel puro calcolo del Raytracing è superiore. Sulle Radeon devi proprio ottimizzarlo benissimo il titolo oppure avere una implementazione più blanda. WD Legion è una sopresa, ma oggettivamente se si spara al massimo in certi momenti ha cali paurosi che compromettono quel senso di fluidità che tanto ci piace. Nulla però di tragico, nel senso che con qualche piccolo compromesso si raggiungono comunque livelli apprezzabili.
Su Nvidia abbiamo tecnologie a contorno che, per quanto furbe sotto certi aspetti, fanno la differenza (DLSS per esempio). Se AMD tirasse fuori qualcosa di simile sarebbe tutt'altra cosa, credetemi.
Comunque, tutti i confronti li faccio senza sfruttare il DLSS quindi assolutamente in condizioni comparabili.
Se dovessi dare un peso da 1 a 10, al momento darei 8 ad Nvidia e 7 ad AMD.
La radeon ha dalla sua però una ottimizzazione ancora tutta da costruire e che, col tempo (spero poco), potrà portare ulteriori frutti. Ha un software di gestione bellissimo (ma davvero) ed è assolutamente un prodotto top, nulla da criticare in generale.
Confermo inoltre il più basso consumo della 6800XT, difficilmente l'ho vista superare i 240 W.
Si, il software di AMD adrenalin è fantastico. Hai tutto a portata di mano. Ma Nvidia non ce l'ha?
Si, il software di AMD adrenalin è fantastico. Hai tutto a portata di mano. Ma Nvidia non ce l'ha?Nvidia è rimasta al 1800 con quel pannello, è una roba imbarazzante
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
marbasso
27-11-2020, 12:17
Si, il software di AMD adrenalin è fantastico. Hai tutto a portata di mano. Ma Nvidia non ce l'ha?
Lol invidia ha un pannello di controllo ''nuovo'' di 20 anni......
Un cesso...
Capito, grazie ;)Ma è vera sta roba della differenza dei colori e dettagli, tra nvidia e amd?
Inviato dal mio FIG-LX1 utilizzando Tapatalk
mikael84
27-11-2020, 12:29
Ma è vera sta roba della differenza dei colori e dettagli, tra nvidia e amd?
Inviato dal mio FIG-LX1 utilizzando Tapatalk
Può dipendere prevalentemente dal pannello, soprattutto su TN o VA.
L'ultima prova fatta da tempo con le 290 su AH-IPS, non ho trovato alcuna differenza.
Sui dettagli dipende, può capitare su nvidia che alcuni motori non applichino bene l'AF. Infatti su nvidia va sempre forzato dai driver.
Ovviamente parlo di anni fa, prima avevo AMD a iosa, ora è da tempo.;)
Lol invidia ha un pannello di controllo ''nuovo'' di 20 anni......
Un cesso...
Allora avevo visto giusto. Effettivamente vi do ragione. Mi pare però che c'è Nvidia experience che è un Adrenalin appena abbozzato
Ma è vera sta roba della differenza dei colori e dettagli, tra nvidia e amd?
Inviato dal mio FIG-LX1 utilizzando Tapatalk
No secondo me, credo dipenda semplicemente dalla gestione dei colori, basta calibrare. Se tu hai calibrato sulla base di amd è possibile che noterai delle differenze, ma sono riferibili solo alla calibrazione.
leoneazzurro
27-11-2020, 13:30
https://www.youtube.com/watch?v=MtAjWv27pxE
Gioco ottimizzato con l'aiuto di AMD ma in RT Nvidia è comunque avanti. Il gioco è comunque abbastanza fluido anche a 4K con RT sulle AMD. In rasterizzazione normale non c'è storia (a parti invertite però).
alcune cose poi, a volte, mi lasciano perplesso.
In questa scena di TR, con la 3080 faccio 85 fps, con la 6800XT 54 scarsi...eppure è quasi totalmente geometria e rasterizzazione, non capisco
https://i.imgur.com/9ImlHzO.jpg
Hai preso l'unico gioco che secondo me non e' ottimizzato per AMD.
Predator_1982
27-11-2020, 14:02
Allora avevo visto giusto. Effettivamente vi do ragione. Mi pare però che c'è Nvidia experience che è un Adrenalin appena abbozzato
ma proprio appena appena.
Hai preso l'unico gioco che secondo me non e' ottimizzato per AMD.
Io non riesco neanche a farlo partire con la 6800xt: quando mi arriva nel menu principale, appena premo una qualche voce torna al desktop.
ma proprio appena appena.
Si si ho visto... non è che ci vorrebbe tanto comunque...
Io non riesco neanche a farlo partire con la 6800xt: quando mi arriva nel menu principale, appena premo una qualche voce torna al desktop.
Reinstalla adrenalin e scegli l'opzione per cancellare i driver precedenti.
https://www.youtube.com/watch?v=MtAjWv27pxE
Gioco ottimizzato con l'aiuto di AMD ma in RT Nvidia è comunque avanti. Il gioco è comunque abbastanza fluido anche a 4K con RT sulle AMD. In rasterizzazione normale non c'è storia (a parti invertite però).
Leggendo i bench di Kitguru molto approfonditi, spiegano bene le differenze tra 6800xt e 3080. In 1440p la 6800xt risulta inferiore solo del 2%, nel 4k il distacco pare aumentare sempre in favore della 3080, senza considerare RT e DLSS:
The comparison against the RTX 3080 is particularly important, as both GPUs are similarly priced and AMD has clearly positioned the 6800 XT to go head-to-head with the RTX 3080. We’ll discuss overall value shortly, but in terms of raw performance, the 6800 XT does best against the RTX 3080, relatively speaking, at 1440p. It is still slower on average, but only by 2%. Of the 14 games we tested, it is faster than the RTX 3080 in 5 of them at 1440p.
As for 4K, this increased resolution saw the RTX 3080 pull away. Not by a whole lot – we’re only talking a 6% deficit on average – but in several games, where the RTX 3080 and 6800 XT were neck-and-neck at 1440p, the 6800 XT fell further behind at 4K. It is still a very capable 4K gaming GPU, averaging over 60FPS in 11 of our 14 games tested, but it is stronger at 1440p, relatively speaking.
Still, even accounting for the small average performance loss against the RTX 3080 at 4K, the RX 6800 XT is the better value card. It has a UK MSRP of £599.99, so from a cost per frame perspective, it is the better value GPU when compared to the RTX 3080, at 1080p, 1440p and 4K resolutions. Again, the differences are small – AMD’s GPU is 5% cheaper per frame at 1440p – but it is a win for AMD.
Chiaramente il commento finale ha senso per chi l'ha acquistata a 700, nella realtà non è più così e non lo sarà più.
leoneazzurro
27-11-2020, 14:28
Leggendo i bench di Kitguru molto approfonditi, spiegano bene le differenze tra 6800xt e 3080. In 1440p la 6800xt risulta inferiore solo del 2%, nel 4k il distacco pare aumentare sempre in favore della 3080, senza considerare RT e DLSS:
The comparison against the RTX 3080 is particularly important, as both GPUs are similarly priced and AMD has clearly positioned the 6800 XT to go head-to-head with the RTX 3080. We’ll discuss overall value shortly, but in terms of raw performance, the 6800 XT does best against the RTX 3080, relatively speaking, at 1440p. It is still slower on average, but only by 2%. Of the 14 games we tested, it is faster than the RTX 3080 in 5 of them at 1440p.
As for 4K, this increased resolution saw the RTX 3080 pull away. Not by a whole lot – we’re only talking a 6% deficit on average – but in several games, where the RTX 3080 and 6800 XT were neck-and-neck at 1440p, the 6800 XT fell further behind at 4K. It is still a very capable 4K gaming GPU, averaging over 60FPS in 11 of our 14 games tested, but it is stronger at 1440p, relatively speaking.
Still, even accounting for the small average performance loss against the RTX 3080 at 4K, the RX 6800 XT is the better value card. It has a UK MSRP of £599.99, so from a cost per frame perspective, it is the better value GPU when compared to the RTX 3080, at 1080p, 1440p and 4K resolutions. Again, the differences are small – AMD’s GPU is 5% cheaper per frame at 1440p – but it is a win for AMD.
Chiaramente il commento finale ha senso per chi l'ha acquistata a 700, nella realtà non è più così e non lo sarà più.
Nei giochi più recenti le parti sono invertite, in rasterizzazione pura la 6800XT è avanti a 1440p e grossomodo alla pari (ma anche con un esiguo vantaggio ) a 4K. La differenza si ha sull'RT dove la serie 6800 ha prestazioni da Turing (mediamente). Sul "non lo sarà più" del prezzo credo sia una tua speculazione infondata, lo scalping finirà quando ci sarà disponibilità e forse ti sfugge che anche i prezzi delle 3080 sono ben lungi dall'essere quelli consigliati (e no, i preordini a 4 mesi non sono indicativi).
E per finire, una cosa che ben pochi recensori sottolineano, la quantità di RAM delle schede 3070 e 3080 rappresenterà un grosso problema, già oggi ci sono giochi che a 4K superano abbondantemente gli 8Gbytes effettivi e presto ci saranno giochi che vanno per i 12Gbytes.
Io inizio ad ADORARE il pannello driver :D E' fantastico davvero. L'app per smartphone poi è una bella chicca :oink:
LOL
Io con la misera 580 sono anni che smanetto con l’app per smartphone, ha delle piccole lacune, per questo ho sempre immaginato chissà quali fantasticherie avevano di meglio in mano i possessori di schede nVidia
Solo ora scopro che non hanno nemmeno un pannello driver adeguato ai tempi:stordita:
voglio la 6900xt e sto smattando :muro:
AndyTheAngel
27-11-2020, 14:44
Ma ragazi sto monitorando https://www.amd.com/en/direct-buy/it
ma quando mi arrivano le notifiche passa da:
https://i.ibb.co/vYQGtrJ/a.png (https://ibb.co/vYQGtrJ)
a:
https://i.ibb.co/HnPFhYn/b.png (https://ibb.co/HnPFhYn)
come se stessero facendo qualche cosa ma non siano comprabili...:fagiano:
Solo a me succede?
Stesso per me, ma da giorni... :-(
Predator_1982
27-11-2020, 14:48
Nei giochi più recenti le parti sono invertite, in rasterizzazione pura la 6800XT è avanti a 1440p e grossomodo alla pari (ma anche con un esiguo vantaggio ) a 4K. La differenza si ha sull'RT dove la serie 6800 ha prestazioni da Turing (mediamente). Sul "non lo sarà più" del prezzo credo sia una tua speculazione infondata, lo scalping finirà quando ci sarà disponibilità e forse ti sfugge che anche i prezzi delle 3080 sono ben lungi dall'essere quelli consigliati (e no, i preordini a 4 mesi non sono indicativi).
E per finire, una cosa che ben pochi recensori sottolineano, la quantità di RAM delle schede 3070 e 3080 rappresenterà un grosso problema, già oggi ci sono giochi che a 4K superano abbondantemente gli 8Gbytes effettivi e presto ci saranno giochi che vanno per i 12Gbytes.
ci sarebbero volute almeno 2 unità RA per CU per competere ad armi pari con Ampere. Al prossimo giro vedremo chi vincerà :D
Predator_1982
27-11-2020, 14:49
LOL ��
Io con la misera 580 sono anni che smanetto con l’app per smartphone, ha delle piccole lacune, per questo ho sempre immaginato chissà quali fantasticherie avevano di meglio in mano i possessori di schede nVidia
Solo ora scopro che non hanno nemmeno un pannello driver adeguato ai tempi:stordita:
è evidente non sia minimamente nelle priorità di Nvidia. C'è da dire però che sui drivers veri e propri lavorano abbastanza di fino.
A proposito di drivers, ma a voi COD Cold War crasha all'inizio della missione all'aeroporto? A me si ma sono con la 6800XT.. L'inquadratura inizia con il scendere dall'alto, arriva sul personaggio e...sbam : gioco in errore.
leoneazzurro
27-11-2020, 14:54
ci sarebbero volute almeno 2 unità RA per CU per competere ad armi pari con Ampere. Al prossimo giro vedremo chi vincerà :D
Credo che l'evoluzione andrà in quella direzione, così come un aumento della capacità FP16/32 delle CU per gestire meglio anche il BVH trasversal. Non so se sarà già così in RDNA3. La cache, finché non vengono tirate fuori VRAM più performanti, credo rimarrà, a meno di non andare su HBM e interposer...
Gyammy85
27-11-2020, 15:09
Se volete giocare solo cyberpunk, comprate Nvidia.
È scontato girerà meglio sulle verdi, anche senza RT
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Non ne sarei così sicuro
Se sono motori nativi dx12 e non dx11 con venti patch, amd sicuro non va male, anche perché rdna2 trita tutto
Reinstalla adrenalin e scegli l'opzione per cancellare i driver precedenti.
Avevo pulito tutto con DDU in modalità provvisoria, anche se prima avevo montata una Vega, mi sa che mi tocca aspettare la prossima release di driver.
Gyammy85
27-11-2020, 15:13
https://www.youtube.com/watch?v=MtAjWv27pxE
Gioco ottimizzato con l'aiuto di AMD ma in RT Nvidia è comunque avanti. Il gioco è comunque abbastanza fluido anche a 4K con RT sulle AMD. In rasterizzazione normale non c'è storia (a parti invertite però).
Dipende tutto dall'ottimizzazione dei driver secondo me
Pure su nvidia e il gioco friendly ue4 rtx on fa un terzo dei frame
https://gamegpu.com/action-/-fps-/-tps/ghostrunner-test-gpu-cpu
A me invece un gioco che crasha quasi sempre è Metro Exodus tant'è vero che sto rinunciando a provarlo.
Nei giochi più recenti le parti sono invertite, in rasterizzazione pura la 6800XT è avanti a 1440p e grossomodo alla pari (ma anche con un esiguo vantaggio ) a 4K. La differenza si ha sull'RT dove la serie 6800 ha prestazioni da Turing (mediamente). Sul "non lo sarà più" del prezzo credo sia una tua speculazione infondata, lo scalping finirà quando ci sarà disponibilità e forse ti sfugge che anche i prezzi delle 3080 sono ben lungi dall'essere quelli consigliati (e no, i preordini a 4 mesi non sono indicativi).
E per finire, una cosa che ben pochi recensori sottolineano, la quantità di RAM delle schede 3070 e 3080 rappresenterà un grosso problema, già oggi ci sono giochi che a 4K superano abbondantemente gli 8Gbytes effettivi e presto ci saranno giochi che vanno per i 12Gbytes.
Ok ma io che c'entro, dillo a Kitguru:D :D . No i prezzi non caleranno, finiranno lo scalper, ma non caleranno. Perché? Perché tutto questo ha un vantaggio per qualcuno. I preorder non sono tutti a 4 mesi. Credi che sia una mia speculazione? Ne riparliamo tra 3 mesi e valuteremo insieme se sarà possibile trovare una rx6800xt a 700 E. Io se riuscissi a trovare una 6800xt a prezzi umani la prenderei, ma non è così, e poi è un discorso che ho già fatto e non mi va di ripetere, io confronto le due schede nel complesso e sommo, prestazioni pure + RT visto che sono vendute con implementazione hardware del RT. Facendo la somma io a pari prezzo andrei da chi mi da le migliori prestazioni in toto. Poi se il prezzo è inferiore, allora preferisco di molto la 6800xt. Non mi sembra un discorso tanto campato in aria no?
A me invece un gioco che crasha quasi sempre è Metro Exodus tant'è vero che sto rinunciando a provarlo.
Metro in passato ha dato anche a me questo problema, poi dopo non più, lo sto giocando per la seconda volta. Hai fatto undervolt? PErchè MEtro è un gioco che ha bisogno di diversa spinta in base alle zone. Ho dovuto risalire un po' con il voltaggio per non farlo più crashare
RoUge.boh
27-11-2020, 15:30
Stesso per me, ma da giorni... :-(
Dai almeno non sono l'unico.... :muro: :muro: :muro:
Buon giorno piccolo problema ragazzacci, oggi è arrivata la bimba, la monto e tutto ok, faccio qualche fitestrike, superposition e tutto va bene, appena apro the division, si spegne il pc, apro bf1 va bene, e poi si spegne il pc... Ora di solito è un problema di alimentatore, ma cazzarola ho un lepa 1000maxbron, non il top lo so benissimo, ma manco una ciofeca, a qualche proprietario di 6800xt è accaduto?
ninja750
27-11-2020, 15:47
Buon giorno piccolo problema ragazzacci, oggi è arrivata la bimba, la monto e tutto ok, faccio qualche fitestrike, superposition e tutto va bene, appena apro the division, si spegne il pc, apro bf1 va bene, e poi si spegne il pc... Ora di solito è un problema di alimentatore, ma cazzarola ho un lepa 1000maxbron, non il top lo so benissimo, ma manco una ciofeca, a qualche proprietario di 6800xt è accaduto?
hai collegato i due cavi separati?
Mallardo
27-11-2020, 15:47
Ok ma io che c'entro, dillo a Kitguru:D :D . No i prezzi non caleranno, finiranno lo scalper, ma non caleranno. Perché? Perché tutto questo ha un vantaggio per qualcuno. I preorder non sono tutti a 4 mesi. Credi che sia una mia speculazione? Ne riparliamo tra 3 mesi e valuteremo insieme se sarà possibile trovare una rx6800xt a 700 E. Io se riuscissi a trovare una 6800xt a prezzi umani la prenderei, ma non è così, e poi è un discorso che ho già fatto e non mi va di ripetere, io confronto le due schede nel complesso e sommo, prestazioni pure + RT visto che sono vendute con implementazione hardware del RT. Facendo la somma io a pari prezzo andrei da chi mi da le migliori prestazioni in toto. Poi se il prezzo è inferiore, allora preferisco di molto la 6800xt. Non mi sembra un discorso tanto campato in aria no?
Secondo me ci sono anche altri fattori da considerare nella scelta della VGA. Prima cosa, sappiamo bene quanto i driver AMD siano problematici al lancio, e quanto però si rilevino ottimi sul lungo periodo (basti pensare a cosa sono arrivati a far fare alla 5700xt), inoltre se non si cambia scheda a ogni generazione, i 10gb di ram della 3080 potrebbero risultare limitanti per giocare in 4k. Altri fattori da considerare sono la presenza di rdna2 e zen 2 anche su console che potrebbe portare a un ottimizzazione su pc full AMD notevole rispetto al passato. Ultima, ma non ultima, se si è interessati all'OC pare non ci sia storia, la serie 6000 darà sicuramente più soddisfazioni.
Con questo non voglio dire che la scelta migliore sia prendere una 6000, ma che stavolta, non c'è oggettivamente una scelta migliore, si potrà scegliere in base alle proprie esigenze e gusti.
hai collegato i due cavi separati?
No il singolo con 2 uscite, ci avevo pensato a mettere il secondo, ma non so se lo tengo ancora xD
Metro in passato ha dato anche a me questo problema, poi dopo non più, lo sto giocando per la seconda volta. Hai fatto undervolt? PErchè MEtro è un gioco che ha bisogno di diversa spinta in base alle zone. Ho dovuto risalire un po' con il voltaggio per non farlo più crashare
No, non ho toccato la scheda è stock ancora. Quella è la cosa strana.
leoneazzurro
27-11-2020, 15:59
Ok ma io che c'entro, dillo a Kitguru:D :D . No i prezzi non caleranno, finiranno lo scalper, ma non caleranno. Perché? Perché tutto questo ha un vantaggio per qualcuno. I preorder non sono tutti a 4 mesi. Credi che sia una mia speculazione? Ne riparliamo tra 3 mesi e valuteremo insieme se sarà possibile trovare una rx6800xt a 700 E. Io se riuscissi a trovare una 6800xt a prezzi umani la prenderei, ma non è così, e poi è un discorso che ho già fatto e non mi va di ripetere, io confronto le due schede nel complesso e sommo, prestazioni pure + RT visto che sono vendute con implementazione hardware del RT. Facendo la somma io a pari prezzo andrei da chi mi da le migliori prestazioni in toto. Poi se il prezzo è inferiore, allora preferisco di molto la 6800xt. Non mi sembra un discorso tanto campato in aria no?
Lo dico a te perchè prendi una sola recensione come riferimento, che tralaltro fa una media con applicazioni parecchio vecchie (una cappellata alla Computerbase che fa la tabellina separata per i giochi nuovi e HWupgrade che esclude Dirt5 dalla media..). Poi se i prezzi caleranno o meno lo vedremo nel 2021, perchè fino ad allora se ne vedranno poche sia delle Radeon che delle Geforce - ma c'è da dire che col tempo caleranno anche i costi di produzione (una volta che si libera capacità sul TSMC 7nm e quindi si riduce il costo opportunità), Poi tu parli come se solo il costo delle 6800 sia più alto del normale - mentre lo è anche quello della serie 3000. E prendere come riferimento i prezzi che per ora sono stati comunicato dagli AIB e paragonarlo al prezzo consigliato della 3080 è assolutamente fuorviante, in quanto i modelli presentati dagli AIB sono le custom OC top di gamma, che DA SEMPRE costano molto di più delle versioni cloccate a reference. Quelle schede da 800$ sono l'equivalente di una custom come questa:
https://www.techpowerup.com/review/colorful-igame-geforce-rtx-3080-vulcan-oc/
che ops.. costa 880$ di listino e non è certo a liquido. Senza contare che da una parte abbiamo schede a una settimana/10 giorni scarsi dal lancio delle reference e dall'altra sono passati due mesi abbondanti.
Quindi d'accordo che la situazione prezzi è quella che è ma cerchiamo di inquadrare tutto nella giusta prospettiva e non "alla carlona" paragonando le mele con le pere.
leoneazzurro
27-11-2020, 16:01
No il singolo con 2 uscite, ci avevo pensato a mettere il secondo, ma non so se lo tengo ancora xD
Secondo me superi l'assorbimento sul singolo rail. Ti tocca collegare anche il secondo cavo.
ninja750
27-11-2020, 16:08
No il singolo con 2 uscite, ci avevo pensato a mettere il secondo, ma non so se lo tengo ancora xD
è sicuramente quello il problema.. ste schede consumano molto
è sicuramente quello il problema.. ste schede consumano molto
speriamo bene, mi è sembrato assurdo con 1000watt non riuscire a tenerla
ninja750
27-11-2020, 16:14
speriamo bene, mi è sembrato assurdo con 1000watt non riuscire a tenerla
pensa che capita ad alcuni anche con navi1
Quanto è affidabile il consumo overlay della gpu? Perché a me raramente mi ha superato i 290w. Mentre gioco su per giù già è tanto se arrivo a 500w di consumo.
io ho l'aggeggino per la presa elettrica, potrei vedere con quello, ma ovviamente quello mi conta il totale a presa, comunque ho fatto un firestrike con gpu stock 51k suonati, impressionante, poi ho provato cqualche giochino a cui gioco tipo BDO, in 2k 144 fps su ultra mode, IMPRESSIONANTE.
ninja750
27-11-2020, 16:16
Quanto è affidabile il consumo overlay della gpu? Perché a me raramente mi ha superato i 290w. Mentre gioco su per giù già è tanto se arrivo a 500w di consumo.
quello nell'overlay (a quanto ne so) è della sola gpu quindi non di tutta la scheda, quindi anche fosse preciso è utile fino a un certo punto
290w sono già un bell'andare eh :D io con la mia in undervolt sono a 125w :D
ghiltanas
27-11-2020, 16:18
quello nell'overlay (a quanto ne so) è della sola gpu quindi non di tutta la scheda, quindi anche fosse preciso è utile fino a un certo punto
290w sono già un bell'andare eh :D io con la mia in undervolt sono a 125w :D
c'avrei da farlo anch'io alla mia 580...ma mi sa fatica :stordita:
AkiraFudo
27-11-2020, 16:26
Per me contata tantissimo com'è scritto il software. Vedremo da qui in avanti con tutti e due in campo cosa cambierà, fermo restando che a me dell'RT importa il giusto. Se sai programmare fai delle luci in raster che nemmeno te ne accorgi dai.
eh si! Purtroppo però RT vende, quindi temo avremmo sempre meno impegno da un lato e sempre di più verso l'altro, così ogni sputo di performance in più servirà a giustificare il nuovo prodotto.
Quanto è affidabile il consumo overlay della gpu? Perché a me raramente mi ha superato i 290w. Mentre gioco su per giù già è tanto se arrivo a 500w di consumo.
ho l'impressione che sia "abbastanza" preciso, entro un 3-4% di errore.
speriamo bene, mi è sembrato assurdo con 1000watt non riuscire a tenerla
Non è questione di quanti Watt eroga l'alimentatore, ma di quanti e con quale qualità ne eroga su singola linea, se è single o multi rail e cose di questo tipo.
Con il secondo cavo non avrai problemi.
Predator_1982
27-11-2020, 16:33
è sicuramente quello il problema.. ste schede consumano molto
Mi sembra strano, io con un Corsair i750 uso pure la 3080 su singolo rail. Quanti ampere eroga sulla singola linea da 12 volt?
A me invece un gioco che crasha quasi sempre è Metro Exodus tant'è vero che sto rinunciando a provarlo.
Spero risolva, perchè alla fine Big Navi cacca in RT ma in Metro va veramente bene, e Metro ci va giù pesante con l'RT, sono rimasto sorpreso quando l'ho provato.
Mah ora riprovo... mi unisco comunque sulla bontà del software adrenalin. La nuova versione di solito esce a dicembre. Ma la rage mode per quanto serve, dove si attiva?
Credo di averlo trovato il preset per la rage mode. Come hanno fatto in italiano. a tradurlo come ''Intervallo'' ?:D
@Dottor Raus, ora riprovo anche perchè è un bel vedere e ho giocato i primi due.
DJurassic
27-11-2020, 16:57
Tra l'altro bel risultato con la 3080. Ma ce l'hai a stock o ci hai smanettato con curve e undervolt?
Manco tanto visto che io e Predator abbiamo la stessa FE :p
https://live.staticflickr.com/65535/50646669181_3c10e097c6_b.jpg
Mi sembra strano, io con un Corsair i750 uso pure la 3080 su singolo rail. Quanti ampere eroga sulla singola linea da 12 volt?
il mio mi pare 85amp sulla 12v
DJurassic
27-11-2020, 17:09
yess, sto facendo dei test comparativi con la 3080
Visti tutti. Grande!
Mi sono tolto definitivamente l'idea di prendere una 6800XT :D
Intendiamoci, ottime schede e in raster spingono forte, ma per chi ha una 3080 non vedo nessun vantaggio a fare il change.
Secondo me ci sono anche altri fattori da considerare nella scelta della VGA. Prima cosa, sappiamo bene quanto i driver AMD siano problematici al lancio, e quanto però si rilevino ottimi sul lungo periodo (basti pensare a cosa sono arrivati a far fare alla 5700xt), inoltre se non si cambia scheda a ogni generazione, i 10gb di ram della 3080 potrebbero risultare limitanti per giocare in 4k. Altri fattori da considerare sono la presenza di rdna2 e zen 2 anche su console che potrebbe portare a un ottimizzazione su pc full AMD notevole rispetto al passato. Ultima, ma non ultima, se si è interessati all'OC pare non ci sia storia, la serie 6000 darà sicuramente più soddisfazioni.
Con questo non voglio dire che la scelta migliore sia prendere una 6000, ma che stavolta, non c'è oggettivamente una scelta migliore, si potrà scegliere in base alle proprie esigenze e gusti.
Sono assolutamente d'accordo con te. Infatti a me basta una scheda che vada bene in 4k, non ho bisogno di 70 fps perché il mio monitor oltre i 60 non va. Un 1440p credo che tutte e due le schede vadano alla grande. Poi come tutti sanno ormai su questo forum non mi piace fare OC, al massimo faccio undervolt peer rinfrescare la GPU. Non sono un esperto, sono un giocatore fondamentalmente a cui piace settare la grafica e i filtri a puntino per un'esperienza di gioco migliore per me, ecco perché ho lasciato le console per il PC proprio quest'anno. Ecco, diciamo che non intendo cambiare scheda per i prossimi 2 o 3 anni onestamente e sono ben consapevole che dovrò fare qualche compromesso a fine corsa, ma non me la sento per 16gb di RAM di spendere così tanto e credo che il grossi davvero lo vedremo con RDNA3 quando il RT sarà maturo davvero anche per AMD. Quindi ho ricevuto proprio adesso la notizia che è arrivata in negozio la 3080 che ho ordinato proprio 2 giorni fa e non me lo aspettavo, chiunque non se la farebbe scappare a parità di prezzo con una 6800xt introvabile. Quindi ho proceduto e lunedi verrà spedita. In questo modo posso vendere finalmente la nitro 5700xt al ragazzetto che me l'ha chiesta tanti giorni fa. Resterò comunque in casa AMD con una splendida nitro 580 per il gaming solo in full hd, presa per un'altra persona a casa e permutata in parte con la 5700xt.
Mallardo
27-11-2020, 17:23
cut
Ma hai fatto bene, al momento se si vuole comprare l'unica soluzione è prendere quel che si trova a minor prezzo. E ti dirò di più, anche io propenderei per la 3080 se decidessi di non farmi anche un custom loop (appena iniziato ad informarmi) e provare l'ebbrezza di un po' di OC. Però lascerei fuori il discorso sui prezzi, le AMD sono uscite da 2 giorni vediamo come saranno prezzate tra qualche mese prima di trarre le conclusioni.
Manco tanto visto che io e Predator abbiamo la stessa FE :p
https://live.staticflickr.com/65535/50646669181_3c10e097c6_b.jpg
Complimenti alla signora :D
DJurassic
27-11-2020, 17:27
big navi è alla prima release di driver (che rispetto ai precedenti lanci mi pare essere eoni avanti come qualità driver) , ampere è fuori da due mesi..... può accompagnare solo (cit.)
Si ma non è che escono i nuovi driver e ti ritrovi a fare +30fps :asd:
Poi oh, di driver nvidia ne sono usciti già svariati dedicati ad Ampere ma io di miglioramenti rispetto a quelli day 1 non ne ho visto mezzo. Servono solo a farti scaricare 300-500mb a botta.
Complimenti alla signora :D
Se solo fosse sotto liquido...
LOL ��
Io con la misera 580 sono anni che smanetto con l’app per smartphone, ha delle piccole lacune, per questo ho sempre immaginato chissà quali fantasticherie avevano di meglio in mano i possessori di schede nVidia
Solo ora scopro che non hanno nemmeno un pannello driver adeguato ai tempi:stordita:
Quando sono passato dalle amd alle nvidia la mia rezione alla vista del pannello di controllo è stata questa:
https://i.imgur.com/wKCykcn.jpg
:O
Predator_1982
27-11-2020, 17:38
Manco tanto visto che io e Predator abbiamo la stessa FE :p
https://live.staticflickr.com/65535/50646669181_3c10e097c6_b.jpg
eee ma c'è qualquadra che non mi cosa!! Merito della tua CPU..aspetta che trovi un dannato 5800x
Il Satrapo
27-11-2020, 17:44
Uscita nuova versione di gpuz con supporto rx 6800 series
https://www.techpowerup.com/275269/techpowerup-gpu-z-v2-36-0-released
Video in RT su Tomb Raider:
https://youtu.be/k1FQHlfqffw
Scusate la qualità ma ho registrato con una chiavetta di acquisizione da 10 euro :sofico:
Però guarda quanto è più naturale il colore con il RT:) :) MA oltre che sul menu del titolo ha anche un'opzione RT su pannello AMD?
Si ma non è che escono i nuovi driver e ti ritrovi a fare +30fps :asd:
Poi oh, di driver nvidia ne sono usciti già svariati dedicati ad Ampere ma io di miglioramenti rispetto a quelli day 1 non ne ho visto mezzo. Servono solo a farti scaricare 300-500mb a botta.
Se solo fosse sotto liquido...
Come dimenticare i tempi delle 7870, che tramite driver avevano un boost MOSTRUOSO, cosa che posso dire mai vista du nvidia( e vengo da 3 gen di nvdia come uktime gpu)
Amd ha sempre migliorato nel tempo, e non di poco solo tramite driver, quella più eclatante è stata la serie 7000 che boostava anche del 35% in svariati casi
Quando sono passato dalle amd alle nvidia la mia rezione alla vista del pannello di controllo è stata questa:
https://i.imgur.com/wKCykcn.jpg
:O
Speriamo almeno di capirci qualcosa...:D
StylezZz`
27-11-2020, 18:00
Però guarda quanto è più naturale il colore con il RT:) :)
Non c'entra, quella è la saturazione del colore.
ninja750
27-11-2020, 18:02
Video in RT su Tomb Raider:
https://youtu.be/k1FQHlfqffw
Scusate la qualità ma ho registrato con una chiavetta di acquisizione da 10 euro :sofico:
perchè non usi relive? :stordita:
Non c'entra, quella è la saturazione del colore.
Si, ma non intendevo quello. intendevo proprio che da alla luce un effetto molto più realistico
Mallardo
27-11-2020, 18:14
http://i.imgur.com/lwWzK3w.png (https://imgur.com/lwWzK3w)
Poco da dire, le prestazioni son buone anche con RT. Ci si gioca senza problemi in 1440p.
Gyammy85
27-11-2020, 18:15
http://i.imgur.com/lwWzK3w.png (https://imgur.com/lwWzK3w)
Non lontana da una 3080
mikael84
27-11-2020, 18:21
Non lontana da una 3080
Ray trace High, non ultra.;)
Speriamo almeno di capirci qualcosa...:D
Per capire si capisce... è che quando lo apri è subito Windows XP! :sofico:
mikael84
27-11-2020, 18:26
Quando sono passato dalle amd alle nvidia la mia rezione alla vista del pannello di controllo è stata questa:
:O
Ed ancora la dicitura "preferisci le presetazioni massime":p
Andy1111
27-11-2020, 18:27
quello nell'overlay (a quanto ne so) è della sola gpu quindi non di tutta la scheda, quindi anche fosse preciso è utile fino a un certo punto
290w sono già un bell'andare eh :D io con la mia in undervolt sono a 125w :D
Se funziona come Vega, molto probabile è il consumo di tutta la GPU
Per capire si capisce... è che quando lo apri è subito Windows XP! :sofico:
Eh si ho visto, orribile...:D :D :D
StylezZz`
27-11-2020, 18:42
Si, ma non intendevo quello. intendevo proprio che da alla luce un effetto molto più realistico
Ah ok, comunque provando il benchmark dal vivo rt on/off non noto nessuna differenza, anche perché tomb raider ha solo le ombre in raytracing.
Ah ok, comunque provando il benchmark dal vivo rt on/off non noto nessuna differenza, anche perché tomb raider ha solo le ombre in raytracing.
Boh non saprei, sarà la mia immaginazione...:)
Sisi concordo assolutamente. La scheda spinge che è un piacere. Mi è piaciuta poco la campagna denigratoria che hanno fatto sul tubo in questi giorni su ste schede (lato RT). Peccato che la faziosità sia dilagante :)
Hai notato che mantiene anche in RT? In che risoluzione?
https://i.postimg.cc/76s8c1vs/metro.png (https://postimg.cc/FdLBkLH3)
Rifatto ad extreme.
Scusami non ho capito la domanda :)
MAntiene i frame in RT? In 1440p? E in 4k
AkiraFudo
27-11-2020, 19:05
Boh non saprei, sarà la mia immaginazione...:)
togli pure il "sarà" :P
In tomb raider unicamente le shadows sono inutilmente calcolate in quel modo. Global illumination e reflection sono come al solito, eppure hai avuto l'effetto "wow" credendo che queste ultime fossero RT ma senza distinguerle realmente dalle altre.
Questo ci fa capire quanto il connubio marketing e autosuggestione siano potenti circa questo rt.
ho collegato il secondo cavo, continua a spegnersi, ora magari dico una stupidaggine, ma possibile sia il chipset della mobo, che avendo la vga d'avanti scalda troppo e va in safe?
Predator_1982
27-11-2020, 19:12
Non lontana da una 3080
aspe aspe, calma...con quelli impostazioni la 3080 fa questo
https://i.imgur.com/rccdUQR.jpg
Gyammy85
27-11-2020, 19:14
aspe aspe, calma...con quelli impostazioni la 3080 fa questo
https://i.imgur.com/rccdUQR.jpg
Non è malaccio, +18%, per una VGA che doveva andare come una 3070 in raster è molto
Predator_1982
27-11-2020, 19:15
ho collegato il secondo cavo, continua a spegnersi, ora magari dico una stupidaggine, ma possibile sia il chipset della mobo, che avendo la vga d'avanti scalda troppo e va in safe?
immaginavo, non credo comunque. Se lanci un furmark lo fa uguale? Provato a cambiare anche slot della MB?
ninja750
27-11-2020, 19:23
ho collegato il secondo cavo, continua a spegnersi, ora magari dico una stupidaggine, ma possibile sia il chipset della mobo, che avendo la vga d'avanti scalda troppo e va in safe?
il chipset ingame non dovrebbe lavorare granché che io sappia, a me sembra proprio una questione di alimentazione sempre che non sia la vga non proprio in formissima :fagiano: hai modo di provarla sul pc di un amico?
immaginavo, non credo comunque. Se lanci un furmark lo fa uguale? Provato a cambiare anche slot della MB?
No, furmark non l'ho provato, purtroppo sotto ho l'nvme con un dissi grossetto
mikael84
27-11-2020, 19:25
aspe aspe, calma...con quelli impostazioni la 3080 fa questo
Spegni physx e fallo su ultra, se non ti dispiace.
Predator_1982
27-11-2020, 19:38
Spegni physx e fallo su ultra, se non ti dispiace.
https://i.imgur.com/H1O2ddY.jpg
mikael84
27-11-2020, 19:44
https://i.imgur.com/tRauj9N.jpg
Hai qualche problema
https://www.hwupgrade.it/articoli/5887/metro_exodus_rt-2.png
mikael84
27-11-2020, 19:44
doppio
mikael84
27-11-2020, 19:44
edit
mikael84
27-11-2020, 19:44
scusa server
Predator_1982
27-11-2020, 19:46
scusa server
ho rifatto il test, avevo lo shading rate a 200
https://i.imgur.com/H1O2ddY.jpg
mikael84
27-11-2020, 19:50
ho rifatto il test, avevo lo shading rate a 200
https://i.imgur.com/H1O2ddY.jpg
Ah ecco:)
Per capire si capisce... è che quando lo apri è subito Windows XP! :sofico:
Parente di questo storico easter egg di Windows Xp? :fagiano:
https://neosmart.net/wiki/wp-content/uploads/sites/5/2013/08/unmountable-boot-volume.png
Fatto furmark, e lo ha passato, poi a random in game, si spegne il pc ugualmente....
Predator_1982
27-11-2020, 20:14
Fatto furmark, e lo ha passato, poi a random in game, si spegne il pc ugualmente....
Mi sa che ti conviene allora provarla su un altro PC, altrimenti ti troveresti a cambiare componenti a caso quando magari il problema è proprio della scheda
DJurassic
27-11-2020, 20:35
eee ma c'è qualquadra che non mi cosa!! Merito della tua CPU..aspetta che trovi un dannato 5800x
Quale CPU? Ho un misero 8700K che non vedo l'ora di rimpiazzare con un fiammante Ryzen 5000. Tra l'altro Superposition la CPU non se la fila manco di striscio. Grava tutto sulla gpu quel test.
DJurassic
27-11-2020, 20:39
Ed ancora la dicitura "preferisci le presetazioni massime":p
Pensa che io i primi tempi cercavo su google che cosa fossero le presetazioni salvo poi capire che Nvidia mi stava trollando :asd:
ho collegato il secondo cavo, continua a spegnersi, ora magari dico una stupidaggine, ma possibile sia il chipset della mobo, che avendo la vga d'avanti scalda troppo e va in safe?
Vai su Visualizzazione Eventi di Win10 e vedi che tipo di errore critico riscontri quando il pc si spegne.
Come hai impostato il risparmio energetico?
Qualcuno ha provato a fare undervolt sulla 6800?
Io non sto avendo grandi risultati :mc:
StylezZz`
27-11-2020, 21:39
Visto che siamo in tema Metro:
https://youtu.be/ZY3VF5grzmA
Beh, si vede chiaramente che non è un gioco ottimizzato con le radeon in raytracing, ho fatto la prova a giocare l'inizio con i tuoi stessi settaggi, e in diversi punti mi avvicino molto come fps, e questo con una 2070 Super e un i7 3770k.
Gyammy85
27-11-2020, 21:56
Si ma una 3080 fa al massimo 15 fps in più con quei settaggi, e neanche
https://www.youtube.com/watch?v=cZbAeUGD3Jk&t=3s
Ok sta indietro un pò, ma non inventiamoci che è "due gen dietro" da qua a rdna3, va a finire come vega che "con 4 geo può solo accompagnare"
davide155
27-11-2020, 21:58
ho collegato il secondo cavo, continua a spegnersi, ora magari dico una stupidaggine, ma possibile sia il chipset della mobo, che avendo la vga d'avanti scalda troppo e va in safe?Se si spegne il pc e rimane spento quando lanci un gioco o comunque qualcosa che grava sulla gpu, al 99‰ è l'alimentatore.
O comunque inerente all'alimentazione.
Mi faceva uguale quando montai il 7820x. In overclock appena lanciavo uno stress test si soegneva di botto il pc.
Messo un alimetatore con le palle, problema risolto.
AkiraFudo
27-11-2020, 22:03
Su Control hanno fatto un po' le merdine però. Senza RT ti spengono completamente tutto :sofico:
esatto, mentre su Quake II hanno fatto le merdone...
viene pubblicizzato con il paragone ingannevole:
RTX OFF = il vecchio quake ante guerra;
RTX ON = un gioco ex-novo, con assets completamente sostituiti e costellato da effetti grafici moderni che con RT c'entrano poco o nulla. Così sei spinto a credere che basta un po' di magia RT per fare il miracolo:
●Improved Global Illumination rendering, with three selectable quality presets, includingtwo-bounce GI
●Multiplayer support
●Time of day options that radically change the appearance of some levels
●New weapon models & textures
●New dynamic environments (Stroggos surface, and space)
●Better physically based atmospheric scattering, including settings for Stroggos sky
●Real-time reflectivity of the player and weapon model on water and glass surfaces, andplayer model shadows, for owners of the complete game
●Improved ray tracing denoising technology
●All 3,000+ original game textures have been updated with a mix of Q2XP mod-packtextures and our own enhancements
●Updated effects with new sprites and particle animations
●Dynamic lighting for items such as blinking lights, signs, switches, elevators and movingobjects
●Caustics approximation to improve water lighting effects
●High-quality screenshot mode that makes your screenshots look even better
●Support for the old OpenGL renderer, enabling you to switch between RTX ON and RTXOFF
Per la serie "senza olio di palma"; "naturali" ; "non contiene nitrati"! Automaticamente sei portato a credere che gli altri prodotti non dispongano di tali caratteristiche o peggio che siano per forza nocivi.
Predator_1982
27-11-2020, 22:03
Quale CPU? Ho un misero 8700K che non vedo l'ora di rimpiazzare con un fiammante Ryzen 5000. Tra l'altro Superposition la CPU non se la fila manco di striscio. Grava tutto sulla gpu quel test.
Eh ma non c’è altro motivo, le schede sono identiche e boostano più o meno uguali. Sulla
Leader board I 16k li toccano le 3090, boh
AkiraFudo
27-11-2020, 22:08
Beh, si vede chiaramente che non è un gioco ottimizzato con le radeon in raytracing, ho fatto la prova a giocare l'inizio con i tuoi stessi settaggi, e in diversi punti mi avvicino molto come fps, e questo con una 2070 Super e un i7 3770k.
Qualcosa non torna qui è alla pari di una 2080Ti/3070
Cosiderando che è gioco fatto su nVidia non sembra un risultato troppo scarso.
https://www.hwupgrade.it/articoli/5887/metro_exodus_rt-2.png
Se si spegne il pc e rimane spento quando lanci un gioco o comunque qualcosa che grava sulla gpu, al 99‰ è l'alimentatore.
O comunque inerente all'alimentazione.
Mi faceva uguale quando montai il 7820x. In overclock appena lanciavo uno stress test si soegneva di botto il pc.
Messo un alimetatore con le palle, problema risolto.
lo so', purtroppo ho un semplice lepa da 100watt, un ali di fascia medio bassa, adesso ho trovato un tx850m corsair a buon prezzo ancora sigillato, vediamo se tratta un po'
Qualcuno ha provato a fare undervolt sulla 6800?
Io non sto avendo grandi risultati :mc:
con il tool automatico mi segna 1125mv. non ho provato ad andare a manella.
comunque trovo la ventola tarata per salire fino a 75/80 gradi prima di attivarsi. fino a 70 rimane quasi fanless la scheda, non so se anche la vostra ha questo comportamento.
AkiraFudo
27-11-2020, 22:16
ho collegato il secondo cavo, continua a spegnersi, ora magari dico una stupidaggine, ma possibile sia il chipset della mobo, che avendo la vga d'avanti scalda troppo e va in safe?
eh che temp raggiungerebbe il chipset?
per curiosità hai provato a undervoltare e underclockare?
Sparo una càxxata..: magari furmark una volta partito lo tiene e invece cambi bruschi di carico lo mandano in protezione.
davide155
27-11-2020, 22:19
lo so', purtroppo ho un semplice lepa da 100watt, un ali di fascia medio bassa, adesso ho trovato un tx850m corsair a buon prezzo ancora sigillato, vediamo se tratta un po'Spero tu volessi scrivere 1000 watt.
Comunque i watt non sono sinonimo di qualità, ma di potenza totale.
Bisognerebbe vedere quanti ampere ha sui singoli rail.
Ma comunque già la marca mi fa storcere il naso.
Prendi un buon 850w, con tanti ampere sulla linea dei +12v e sei a posto.
Io ci tengo il pc in firma comprensivo di custom loop e ne sono entusiasta.
E tieni conto chs solo il mio processore in oc consuma la bellezza di quasi 300w.
DJurassic
27-11-2020, 22:29
Eh ma non c’è altro motivo, le schede sono identiche e boostano più o meno uguali. Sulla
Leader board I 16k li toccano le 3090, boh
La mia è molto fortunata. Credo di aver fatto i record in tutti i bench usati nel thread delle 3080. Ovvio che nel gioco non tocco simili frequenze, non ad aria di certo. In ogni caso la mia CPU è ben poca cosa in Superposition. Manco a dire che ho un 10900k poi. :)
Spero tu volessi scrivere 1000 watt.
Comunque i watt non sono sinonimo di qualità, ma di potenza totale.
Bisognerebbe vedere quanti ampere ha sui singoli rail.
Ma comunque già la marca mi fa storcere il naso.
Prendi un buon 850w, con tanti ampere sulla linea dei +12v e sei a posto.
Io ci tengo il pc in firma comprensivo di custom loop e ne sono entusiasta.
E tieni conto chs solo il mio processore in oc consuma la bellezza di quasi 300w.
lo so, ai tempi avevo un budget ristretto ,e presi questo... so che è un ali scrauso, ma non credevo non riuscisse, ha 83amp sulla 12, l'unica cosa che potrei provare è provare entrambe le uscite gpu dell'ali, ma non ho più il secondo cavo, ed uno sono costretto a prenderlo dalla parte non modulare dell'ali.
DJurassic
27-11-2020, 22:43
lo so, ai tempi avevo un budget ristretto ,e presi questo... so che è un ali scrauso, ma non credevo non riuscisse, ha 83amp sulla 12, l'unica cosa che potrei provare è provare entrambe le uscite gpu dell'ali, ma non ho più il secondo cavo, ed uno sono costretto a prenderlo dalla parte non modulare dell'ali.
Hai letto il mio commento nella pagina precedente? Magari può darti un info più specifica.
Hai letto il mio commento nella pagina precedente? Magari può darti un info più specifica.
Si ho letto, ma è chiaramente colpa dell'ali, infstti facendo un po di downclock va benissimo.
davide155
27-11-2020, 22:56
lo so, ai tempi avevo un budget ristretto ,e presi questo... so che è un ali scrauso, ma non credevo non riuscisse, ha 83amp sulla 12, l'unica cosa che potrei provare è provare entrambe le uscite gpu dell'ali, ma non ho più il secondo cavo, ed uno sono costretto a prenderlo dalla parte non modulare dell'ali.Ahhh allora è chiaro.
Stai attingendo corrente da un rail diverso.
Se tu riuscissi a ritrovare il cavo modulare hai risolto.
83 ampere sul +12v non sono affatto male. La corrente sulla linea delle vga ce l'ha, non c'è dubbio.
mikael84
27-11-2020, 23:17
Pensa che io i primi tempi cercavo su google che cosa fossero le presetazioni salvo poi capire che Nvidia mi stava trollando :asd:
Allucinante.:p
Si ma una 3080 fa al massimo 15 fps in più con quei settaggi, e neanche
https://www.youtube.com/watch?v=cZbAeUGD3Jk&t=3s
Ok sta indietro un pò, ma non inventiamoci che è "due gen dietro" da qua a rdna3, va a finire come vega che "con 4 geo può solo accompagnare"
Beh, non proprio 15.
https://www.hwupgrade.it/forum/showpost.php?p=47128527&postcount=3725
https://www.hwupgrade.it/forum/showpost.php?p=47131616&postcount=4068
Sono 23fps x un 53% medio. Leva qualcosa dall'HW.;)
mikael84
27-11-2020, 23:23
Hairworks e PhysX on però. Su amd bisognerebbe toglierli visto che sono api nvidia :)
p.s. il mio è RT High
A ultra quanto ti da, con queste impostazioni, anche per paragonarsi alle review?:)
AkiraFudo
27-11-2020, 23:26
Mechwarrior V:
Grafica bruttissima (sembra un gioco ps2 tra poco), pesantissimo (ho messo tutto a manetta).
Il gioco per quanto mi riguarda è proprio brutto, non è il mio genere probabilmente :sofico:
lel sembra abbiano dato una spolveratina al Mechwarrior che davano in bundle con la mystique nel '95. Fa caccare uguale come all'epoca.
A ultra quanto ti da, con queste impostazioni, anche per paragonarsi alle review?:)
Average Framerate (99th percentile): 47.69
Max. Framerate (99th percentile): 61.73
Min. Framerate (99th percentile): 34.21
mikael84
27-11-2020, 23:40
Davvero, disinstallato subito dopo mezz'ora. Bruttissimo. Per fortuna era nel game pass :D
Ottimo, quindi sei allineato alle review.
Average Framerate (99th percentile): 47.69
Max. Framerate (99th percentile): 61.73
Min. Framerate (99th percentile): 34.21
Aspè, ma tu hai una liscia?:)
Deliver Us The Moon:
http://i.imgur.com/RsFpd4dh.jpg (https://imgur.com/RsFpd4d)
Ho adorato questo gioco con la 1080Ti ed è il primo gioco che provo io dove l'rt si nota parecchio rispetto ad averlo spento.
Purtroppo al caricamento di nuove aree tira delle laggate come potete vedere dallo 0,1% low :D
P.s. Settaggi grafici su Epico (compreso RT). 1440p.
Che gioco è?
Gyammy85
28-11-2020, 07:28
Allucinante.:p
Beh, non proprio 15.
https://www.hwupgrade.it/forum/showpost.php?p=47128527&postcount=3725
https://www.hwupgrade.it/forum/showpost.php?p=47131616&postcount=4068
Sono 23fps x un 53% medio. Leva qualcosa dall'HW.;)
Si sono in grado di leggere una barretta, grazie, io ho postato un video dove fa quasi gli stessi frame del suo video, stop
Gyammy85
28-11-2020, 07:30
Mechwarrior V:
http://i.imgur.com/NE57CMVh.png (https://imgur.com/NE57CMV)
http://i.imgur.com/OYKNfzbh.jpg (https://imgur.com/OYKNfzb)
Grafica bruttissima (sembra un gioco ps2 tra poco), pesantissimo (ho messo tutto a manetta).
Il gioco per quanto mi riguarda è proprio brutto, non è il mio genere probabilmente :sofico:
Come passare da 100+ fps a 4k a queste schifezze, contenti voi
Se si spegne il pc e rimane spento quando lanci un gioco o comunque qualcosa che grava sulla gpu, al 99‰ è l'alimentatore.
O comunque inerente all'alimentazione.
Mi faceva uguale quando montai il 7820x. In overclock appena lanciavo uno stress test si soegneva di botto il pc.
Messo un alimetatore con le palle, problema risolto.
Alla fine ho ripiegato su un evga supernovag2 1000w, con circuito superflower leadex, dovrei stare tranquillissimo con questo, e la 6800xt me ne sarà grata! Hahhaha
Predator_1982
28-11-2020, 09:51
Che gioco è?
delivered us the moon...gioco bellissimo, non c'è nulla da sparare ma ha un non so che di meraviglioso.
Provatelo.
StylezZz`
28-11-2020, 09:58
Qualcosa non torna qui è alla pari di una 2080Ti/3070
Cosiderando che è gioco fatto su nVidia non sembra un risultato troppo scarso.
https://www.hwupgrade.it/articoli/5887/metro_exodus_rt-2.png
Bisogna vedere quel test in quale parte del gioco è eseguito, potrebbe essere anche il benchmark integrato...con la mia 2070 Super (una strix oc che boosta a 2ghz) in alcuni punti mi avvicino molto, in altri siamo sui 15 fps di differenza.
Alla fine ho ripiegato su un evga supernovag2 1000w, con circuito superflower leadex, dovrei stare tranquillissimo con questo, e la 6800xt me ne sarà grata! Hahhaha
G2 sì, g3 no mi raccomando...anche se il g3 di quella potenza non dovrebbe avere problemi.
StylezZz`
28-11-2020, 10:15
Comunque ragazzi in metro Exodus con rt ad alto è tutta un'altra storia. Perfettamente giocabile.
Va be ma come avrai sicuramente notato, la differenza tra RT ON e OFF è irrisoria, e non vale assolutamente quel calo prestazionale, meglio goderselo in raster a frame alti imho.
G2 sì, g3 no mi raccomando...anche se il g3 di quella potenza non dovrebbe avere problemi.
È internamente un superflower leadex, per questo l'ho preso
Comunque ragazzi in metro Exodus con rt ad alto è tutta un'altra storia. Perfettamente giocabile.
Non è male il colpo d'occhio di metro in generale. Ma di preciso a cosa lo hanno applicato l'RT? Non vedo l'ora comunque che arrivi il monitor nuovo perchè ho un VA da ufficio full hd e perde tanto.
SuperCiuk77
28-11-2020, 10:44
...gran scheda,pochi mazzi,adesso comincio a capire le varie utility....mi resta sempre il dubbio ragazzi per la garanzia,i 2 anni sono già attivati e fa fede la mail dell'ordine?;)
Gyammy85
28-11-2020, 10:57
Non è male il colpo d'occhio di metro in generale. Ma di preciso a cosa lo hanno applicato l'RT? Non vedo l'ora comunque che arrivi il monitor nuovo perchè ho un VA da ufficio full hd e perde tanto.
Ambient occlusion, stop
Non è male il colpo d'occhio di metro in generale. Ma di preciso a cosa lo hanno applicato l'RT? Non vedo l'ora comunque che arrivi il monitor nuovo perchè ho un VA da ufficio full hd e perde tanto.
L'RT è applicato all'illuminazione globale ed è tutt'altro che irrisorio, figuriamoci, non sono due ombre del cavolo, per questo il fatto che Big Navi lo gestisca bene (sicuramente meglio di come lo gestiva la 2080ti su cui ho finito il gioco) mi lascia ben sperare per il futuro.
Peraltro Metro non è mai stato patchato con la nuova versione del DLSS, che quindi è meglio disattivato.
Inmotion
28-11-2020, 11:22
Da buon nuovo possessore di rx 6800xt
https://i.postimg.cc/YjVQ7wD2/Whats-App-Image-2020-11-28-at-11-42-42.jpg (https://postimg.cc/YjVQ7wD2)
ho fatto un po di overclock alla piccolina, ci ho giocato solo qualche ora ad horizon zero dawn
https://i.postimg.cc/v4rK9DFm/OC-6800-XT.png (https://postimg.cc/v4rK9DFm)
e fatto un paio di benchmark
con la scheda a stock e in Overclock
https://i.postimg.cc/Wd6w7HNG/Time-Spy-6800xt-OC.png (https://postimg.cc/Wd6w7HNG) https://i.postimg.cc/94mtgY0v/Time-Spy-6800xt-stock.png (https://postimg.cc/94mtgY0v)
https://i.postimg.cc/nsS7R86D/Fire-Strike-Extreme-6800xt-OC.png (https://postimg.cc/nsS7R86D) https://i.postimg.cc/jwWfBgbk/Fire-Strike-Extreme-6800xt-stock.png (https://postimg.cc/jwWfBgbk)
https://i.postimg.cc/0zHsWc24/Shadow-of-the-tomb-rider-6800xt-stock-RT-OFF.png (https://postimg.cc/0zHsWc24) https://i.postimg.cc/Fkm5d6DY/Shadow-of-the-tomb-rider-6800xt-stock-RT-ULTRA.png (https://postimg.cc/Fkm5d6DY)
https://i.postimg.cc/gw4BS50F/Shadow-of-the-tomb-rider-6800xt-OC-RT-OFF.png (https://postimg.cc/gw4BS50F) https://i.postimg.cc/t7Tv4pXL/Shadow-of-the-tomb-rider-6800xt-OC-RT-ULTRA.png (https://postimg.cc/t7Tv4pXL)
https://i.postimg.cc/f31ySMGB/Assassin-s-creed-Valhalla-6800-xt-Stock.png (https://postimg.cc/f31ySMGB) https://i.postimg.cc/BLD6xdss/Assassin-s-creed-Valhalla-6800xt-OC.png (https://postimg.cc/BLD6xdss)
https://i.postimg.cc/fVnFJmPF/Horizon-6800xt-OC.png (https://postimg.cc/fVnFJmPF) https://i.postimg.cc/Ty5Y6ZKm/Horizon-6800xt-Stock.png (https://postimg.cc/Ty5Y6ZKm)
La scheda sembra salire bene di frequenza ma il 3800x in molti casi gia a stock non riesce a farla andare al 100% quindi anche in overclock non c'è quel gran guadagno, tomb rider ad esempio nella parte finale del benchmark l'utilizzo della gpu scende all'80%.
In attesa di poter acquistare un 5900x a prezzo giusto .
Buona giornata
StylezZz`
28-11-2020, 11:54
L'utilizzo della gpu che scende verso la fine del benchmark di tomb raider è un problema noto dovuto al gioco.
Gyammy85
28-11-2020, 12:02
Da buon nuovo possessore di rx 6800xt
https://i.postimg.cc/YjVQ7wD2/Whats-App-Image-2020-11-28-at-11-42-42.jpg (https://postimg.cc/YjVQ7wD2)
ho fatto un po di overclock alla piccolina, ci ho giocato solo qualche ora ad horizon zero dawn
https://i.postimg.cc/v4rK9DFm/OC-6800-XT.png (https://postimg.cc/v4rK9DFm)
e fatto un paio di benchmark
con la scheda a stock e in Overclock
https://i.postimg.cc/Wd6w7HNG/Time-Spy-6800xt-OC.png (https://postimg.cc/Wd6w7HNG) https://i.postimg.cc/94mtgY0v/Time-Spy-6800xt-stock.png (https://postimg.cc/94mtgY0v)
https://i.postimg.cc/nsS7R86D/Fire-Strike-Extreme-6800xt-OC.png (https://postimg.cc/nsS7R86D) https://i.postimg.cc/jwWfBgbk/Fire-Strike-Extreme-6800xt-stock.png (https://postimg.cc/jwWfBgbk)
https://i.postimg.cc/0zHsWc24/Shadow-of-the-tomb-rider-6800xt-stock-RT-OFF.png (https://postimg.cc/0zHsWc24) https://i.postimg.cc/Fkm5d6DY/Shadow-of-the-tomb-rider-6800xt-stock-RT-ULTRA.png (https://postimg.cc/Fkm5d6DY)
https://i.postimg.cc/gw4BS50F/Shadow-of-the-tomb-rider-6800xt-OC-RT-OFF.png (https://postimg.cc/gw4BS50F) https://i.postimg.cc/t7Tv4pXL/Shadow-of-the-tomb-rider-6800xt-OC-RT-ULTRA.png (https://postimg.cc/t7Tv4pXL)
https://i.postimg.cc/f31ySMGB/Assassin-s-creed-Valhalla-6800-xt-Stock.png (https://postimg.cc/f31ySMGB) https://i.postimg.cc/BLD6xdss/Assassin-s-creed-Valhalla-6800xt-OC.png (https://postimg.cc/BLD6xdss)
https://i.postimg.cc/fVnFJmPF/Horizon-6800xt-OC.png (https://postimg.cc/fVnFJmPF) https://i.postimg.cc/Ty5Y6ZKm/Horizon-6800xt-Stock.png (https://postimg.cc/Ty5Y6ZKm)
La scheda sembra salire bene di frequenza ma il 3800x in molti casi gia a stock non riesce a farla andare al 100% quindi anche in overclock non c'è quel gran guadagno, tomb rider ad esempio nella parte finale del benchmark l'utilizzo della gpu scende all'80%.
In attesa di poter acquistare un 5900x a prezzo giusto .
Buona giornata
In rt su tomb raider va particolarmente bene, la 6900xt sarà allineata alla 3080
Per il resto, prestazioni ottime, con ac va fortissimo, sono test a 1440p giusto?
Predator_1982
28-11-2020, 12:15
In rt su tomb raider va particolarmente bene, la 6900xt sarà allineata alla 3080
In tomb raider va bene, confermo. Tra l'altro la sua implementazione dell'RT è del tutto gestibile. Ma come dimostrato con qualche test che ho fatto in alcune parti la 6800XT ha crolli inspiegabili, quando c'è tanta geometria laddove la 3080 macina intorno agli 85 fps la 6800XT arriva a 54 (inspiegabile perchè non parliamo di scene in cui c'è una marea di calcoli RT da fare).
Probabilmente dovranno lavorare parecchio sui drivers. In Metro Exodus dipende, in alcuni momenti quasi sembrano equivalersi, in altri la 3080 stacca molto. Se si setta RT su Ultra invece non c'è storia.
Le 6800 sono ottime schede ma, a mio modestissimo parere e da possessore imparziale di entrambe, non proprio adatte ad oggi (imho) ad un uso intensivo di RT da 1440p in poi (ovviamente se paragonate ad Ampere e in assenza di tecnologia simil DLSS). Ovviamente felicissimo se in futuro con l'ottimizzazione dei titoli e dei drivers riusciranno a spremerle meglio.
E' vero quando dite che comunque vanno meglio in RT di Turing, ma manca il DLSS che proprio in tal caso cambia completamente tutto (motivo in più per AMD per impegnarsi in tal senso). La cosa brutta è quando chi spende comunque 700 euro di scheda (a salire), si trova con gente che con schede decisamente inferiori come la 2070 riesce quasi ad ottenere i medesimi vantaggi prestazionali (usando RT)...questo si, fa girare i maroni.
In rt su tomb raider va particolarmente bene, la 6900xt sarà allineata alla 3080
Per il resto, prestazioni ottime, con ac va fortissimo, sono test a 1440p giusto?C'è anche da dire che l'rt su tomb Raider è molto blando
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mikael84
28-11-2020, 12:32
C'è anche da dire che l'rt su tomb Raider è molto blando
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Si, Tomb raider comincia a spremere l'hardware RT a partire dal 4k.
In 1440p, una 1080ti va quanto una 2080s.
1440p
clicca
https://i.postimg.cc/G8XFV8gF/rt-tomb.png (https://postimg.cc/G8XFV8gF)
4k
https://i.postimg.cc/SXqcK7wL/rt-tomb-2.png (https://postimg.cc/SXqcK7wL)
https://twitter.com/3DCenter_org/status/1332632828949958657?s=19
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gundam1973
28-11-2020, 12:39
Guardando lo screen di gpuz di Inmotion....Ma i sensori di queste reference sono cosi scarni?
Non ci sono temperature vrm e memorie?:mbe:
Ale55andr0
28-11-2020, 13:09
https://twitter.com/3DCenter_org/status/1332632828949958657?s=19
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
=a pari prezzo, se non cambia quest'ultimo calando un po' e/o la situazione prestazionale via driver in RT, la 3080 è più sensata.
Gyammy85
28-11-2020, 13:13
https://twitter.com/3DCenter_org/status/1332632828949958657?s=19
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Se vabbè, la media delle review :doh:
=a pari prezzo, se non cambia quest'ultimo calando un po' e/o la situazione prestazionale via driver in RT, la 3080 è più sensata.
Martedi dovrebbe arrivarmi la 3080 a casa, farò qualche prova e vi dirò un po' le mie impressioni, per quello che contano...
AkiraFudo
28-11-2020, 13:45
Guardando lo screen di gpuz di Inmotion....Ma i sensori di queste reference sono cosi scarni?
Non ci sono temperature vrm e memorie?:mbe:
è più probabile che GPUZ non sia ancora in grado di monitorarli.
http://i.imgur.com/SuMuaHlh.jpg (https://imgur.com/SuMuaHl)
@Predator era qui che notavi le grosse differenze con la 3080?
Mi passi il layout per Afterburner? :sofico:
Ale55andr0
28-11-2020, 14:30
Se vabbè, la media delle review :doh:
giusto, bisogna prendere solo una recensione, quella in cui risulta la migliore ovviamente. E, sempre ovviamente, di quella recensione prendere solo il miglior risultato di picco fra tutta la suite di giochi testati: ecco, quello è il valore assoluto della scheda ed il modo giusto di valutarla
Dimenticavo: :doh:
Mallardo
28-11-2020, 14:32
Mi passi il layout per Afterburner? :sofico:
Lo vogliono tutti! Ci sbavo anche io :D
DJurassic
28-11-2020, 15:14
https://drive.google.com/file/d/1TNesLRjcG8W_NuCq6_g2hMkoggTAAd7F/view?usp=drivesdk
Vedete se vi funziona.
:asd:
Ti sei rovinato con quei settings!
In tomb raider va bene, confermo. Tra l'altro la sua implementazione dell'RT è del tutto gestibile. Ma come dimostrato con qualche test che ho fatto in alcune parti la 6800XT ha crolli inspiegabili, quando c'è tanta geometria laddove la 3080 macina intorno agli 85 fps la 6800XT arriva a 54 (inspiegabile perchè non parliamo di scene in cui c'è una marea di calcoli RT da fare).
Probabilmente dovranno lavorare parecchio sui drivers. In Metro Exodus dipende, in alcuni momenti quasi sembrano equivalersi, in altri la 3080 stacca molto. Se si setta RT su Ultra invece non c'è storia.
Le 6800 sono ottime schede ma, a mio modestissimo parere e da possessore imparziale di entrambe, non proprio adatte ad oggi (imho) ad un uso intensivo di RT da 1440p in poi (ovviamente se paragonate ad Ampere e in assenza di tecnologia simil DLSS). Ovviamente felicissimo se in futuro con l'ottimizzazione dei titoli e dei drivers riusciranno a spremerle meglio.
E' vero quando dite che comunque vanno meglio in RT di Turing, ma manca il DLSS che proprio in tal caso cambia completamente tutto (motivo in più per AMD per impegnarsi in tal senso). La cosa brutta è quando chi spende comunque 700 euro di scheda (a salire), si trova con gente che con schede decisamente inferiori come la 2070 riesce quasi ad ottenere i medesimi vantaggi prestazionali (usando RT)...questo si, fa girare i maroni.
Ma quindi che pensi di fare. La tieni sta 6800XT o la vendi?
(Chiedo solo per curiosità)
Gyammy85
28-11-2020, 15:24
giusto, bisogna prendere solo una recensione, quella in cui risulta la migliore ovviamente. E, sempre ovviamente, di quella recensione prendere solo il miglior risultato di picco fra tutta la suite di giochi testati: ecco, quello è il valore assoluto della scheda ed il modo giusto di valutarla
Dimenticavo: :doh:
No il modo migliore è prendere siti diversi con sistemi diversi che benchano scene diverse e fare la media non pesata
Se vi piace così
Predator_1982
28-11-2020, 15:31
Ma quindi che pensi di fare. La tieni sta 6800XT o la vendi?
(Chiedo solo per curiosità)
la tengo per un po'. Voglio vedere come evolve con i drivers. Ma CP 2077 lo giocherò ovviamente con la 3080
https://drive.google.com/file/d/1TNesLRjcG8W_NuCq6_g2hMkoggTAAd7F/view?usp=drivesdk
Vedete se vi funziona.
Dove va messo?:fagiano:
Predator_1982
28-11-2020, 15:32
http://i.imgur.com/SuMuaHlh.jpg (https://imgur.com/SuMuaHl)
@Predator era qui che notavi le grosse differenze con la 3080?
Si esatto, ma vedo che a te va molto meglio. E' anche vero che non abbiamo la stessa CPU, tu hai il 5600X che sicuramente va meglio in single core ed immagino usi anche SAM.
Predator_1982
28-11-2020, 15:33
Dove va messo?:fagiano:
nel cfg dell'eseguibile...msiafterburner.cfg o qualcosa di simile.
Predator_1982
28-11-2020, 15:38
Sisi SAM attivo
ottimo, io ho un 3700X de mierda...:D :D
Mallardo
28-11-2020, 16:38
https://drive.google.com/file/d/1TNesLRjcG8W_NuCq6_g2hMkoggTAAd7F/view?usp=drivesdk
Vedete se vi funziona.
Funziona, grazie mille! Unica cosa che non son riuscito a cambiare è il nome del gruppo CPU.
ma quanti punti fate su time spy ? io faccio solo 16400 di GS a default, mentre sopra ne vedo anche 2 mila in più di punti.
nel pannello AMD non ho toccato niente e lasciato la modalità game.
comunque sto provando un pò di downvolt. sono arrivato a 1.075mv e sembra stabilissima, con temperature e consumo inferiori.
=a pari prezzo, se non cambia quest'ultimo calando un po' e/o la situazione prestazionale via driver in RT, la 3080 è più sensata.
Ma anche no.
Il Satrapo
28-11-2020, 17:00
Ho reinstallato il SO, che benchmark metto per testare la vga? A che risoluzione, calcolando che ho un 27" 2560x1440 165 hz?:)
la mia config è i7 9700k, 16 gb ddr4 3600, rx 6800, ssd nvme 512 gb 970 etc etc
Gundam1973
28-11-2020, 17:16
Funziona, grazie mille! Unica cosa che non son riuscito a cambiare è il nome del gruppo CPU.
Vai alla voce utilizzo della cpu, sotto trovi sostituisci il nome del gruppo, modifica sulla destra la descrizione dopo \n<S=120>
Ale55andr0
28-11-2020, 17:18
No il modo migliore è prendere siti diversi con sistemi diversi che benchano scene diverse e fare la media non pesata
Se vi piace così
E se lo fai la situazione resta una: simili in raster, inferiori in RT, almeno col parco giochi attuale. OGGI a pari costo quindi, ti piaccia o no la 3080 è migliore. Domani ci penserà chi ci sarà, e dopodomani si ricambia di nuovo e ricomincia il ciclo.
Ale55andr0
28-11-2020, 17:19
ottimo, io ho un 3700X de mierda...:D :D
vorrei averlo io il tuo procio di sterco :asd:
Ma anche no.
ma anche si', e lo dicono i numeri, non i secondo me
Con una performi in raster, con l'altra performi ovunque, questa è la realtà nel mondo materiale il 28/11 2020.
ninja750
28-11-2020, 17:35
E se lo fai la situazione resta una: simili in raster, inferiori in RT, almeno col parco giochi attuale. OGGI a pari costo quindi, ti piaccia o no la 3080 è migliore. Domani ci penserà chi ci sarà, e dopodomani si ricambia di nuovo e ricomincia il ciclo.
più che pari costo bisognerà parlare di pari disponibilità anche perchè qui c'è chi ha preso la 6800XT da AMD e la 3080 da nvidia agli MRSP, francamente mi aspetto che costino uguale ma per chi ha un 5000 amd il gioco del SAM potrebbe valerne la pena a meno di aspettare e vedere come sarà l'implementazione su rtx
per le questioni RT invece c'è poca storia, non si capisce il posizionamento di prezzo di AMD visto l'attuale stacco di prestazioni
tocca aspettare gli street price di questa serie (se mai ci saranno) per poi giudicare, come hanno fatto notare al Q&A di hwunboxed dovrebbero rifare le review con i prezzi veri e non quelli che si sono inventati lisa e jhh
AkiraFudo
28-11-2020, 17:38
vorrei averlo io il tuo procio di sterco :asd:
ma anche si', e lo dicono i numeri, non i secondo me
Con una performi in raster, con l'altra performi ovunque, questa è la realtà nel mondo materiale il 28/11 2020.
ha qualche contro pure:
consumi scandalosi
meno memoria (anche se oggi 10GB sono sufficienti)
zero margine oc
costa di in più (confrontando MSRP.)
ed infine puzza
vorrei averlo io il tuo procio di sterco :asd:
ma anche si', e lo dicono i numeri, non i secondo me
Con una performi in raster, con l'altra performi ovunque, questa è la realtà nel mondo materiale il 28/11 2020.
Io devo dire che a me AMD piace non ci sono cavoli. E' stata la mia scelta sin dall'inizio. A quei tempi potevo prendere una 2060 o una 2070 eppure ho preso una 5700xt. Anche con un certo dispiacere passo a verde, restando comunque in casa AMD con una nitro 580, ma i prezzi cosi come son e come saranno nei prossimi mesi, l'irreperibilità assoluta attuale, e le prestazioni in TOTO, no andando a vedere il particolare di una o dell'altra, mi ha fatto propendere per la 3080. Non nego che se la 6800xt l'avessi presa sul sito AMD al lancio, sarei rimasto con AMD, forse anche a 100 Euro in più. MA così no. Ciò non esclude che io passa rivendere la 3080 e ripassare alla 6800xt nel caso in cui mi convinca a pieno.
E ci mancherebbe anche, nvidia sull'rt ci è arrivata due anni fa e i titoli sviluppati fino a ieri in rt sono sviluppati tenendo conto solamente delle gpu nvidia (giustamente).
C'è davvero qualcuno che si aspettava prestazioni pari o addirittura leggermente superiori ad ampere? Se ci sono sono pochissimi :)
La scheda per quanto mi riguarda è prezzata il giusto, i prezzi dei vari shop sono palesemente drogati dalla scarsità del prodotto (da ambo le parti).
Personale riflessione: per me una non va preferita all'altra in senso oggettivo. Per me sono perfettamente equivalenti e davvero va solo in base alle proprie aspettative ed esigenze personali e basta (e di disponibilità).
E' prezzata il giusto per come l'hai acquistata tu, quello non è il prezzo vero. I prezzi non sono solo gonfiati per i motivi che dici, resteranno all'incirca così non temere. Si abbasseranno certo, ma non ti aspettare 100E. E gli altri utenti devono fare i conti con i prezzi che ci sono in strada, dimenticati i 700, quello era il prezzo giusto e insostenibile per AMD. La realtà è altra
Mallardo
28-11-2020, 18:40
E' prezzata il giusto per come l'hai acquistata tu, quello non è il prezzo vero. I prezzi non sono solo gonfiati per i motivi che dici, resteranno all'incirca così non temere. Si abbasseranno certo, ma non ti aspettare 100E. E gli altri utenti devono fare i conti con i prezzi che ci sono in strada, dimenticati i 700, quello era il prezzo giusto e insostenibile per AMD. La realtà è altra
Quando ci saranno 3080 in quantità decenti vedrai se non si abbasseranno. A pari prezzo e disponibilità non ne venderanno molte.
amon.akira
28-11-2020, 18:44
Ambient occlusion, stop
ma sei cieco? XD global illumination...praticamente la scena è completamente differente come illuminazione.
:asd:
Glorfind3l
28-11-2020, 19:14
A me tra tutte l'unica high end che entra nel case è la 6800xt design reference, need AMD stock XD
DJurassic
28-11-2020, 19:14
Nella directory profiles nella cartella d'installazione
Stupendo, mettendolo ora ho un 5600X e una 6800XT :asd:
Quando ci saranno 3080 in quantità decenti vedrai se non si abbasseranno. A pari prezzo e disponibilità non ne venderanno molte.
Vedremo, sono il primo ad essere curioso. :)
io onestamente non ho preferenze, mi andrebbe bene sia una 3080 che una 6800xt a prezzi pero MSRP, ovvero 719€ o 649€ per le referenze, le custom onestamente interessano solo la tuf 3080 e la pulse 6800xt. il problema ad oggi è che non esistono ne le une ne le altre e spendere 900-1100€ per una 3080 o 800-1000 per una 6800xt non se ne parla proprio. :muro: :muro: :muro: :muro: :muro: :muro:
probabilmente mi tocchera rimanere con la pulse 5700xt ancora a lungo:cry: :cry:
io onestamente non ho preferenze, mi andrebbe bene sia una 3080 che una 6800xt a prezzi pero MSRP, ovvero 719€ o 649€ per le referenze, le custom onestamente interessano solo la tuf 3080 e la pulse 6800xt. il problema ad oggi è che non esistono ne le une ne le altre e spendere 900-1100€ per una 3080 o 800-1000 per una 6800xt non se ne parla proprio. :muro: :muro: :muro: :muro: :muro: :muro:
probabilmente mi tocchera rimanere con la pulse 5700xt ancora a lungo:cry: :cry:
E hai ragione, una vale l'altra
la tengo per un po'. Voglio vedere come evolve con i drivers.
mossa saggia! :O
(tanto anche fra 6 mesi la rivendi guadagnandoci :O )
A me tra tutte l'unica high end che entra nel case è la 6800xt design reference, need AMD stock XD
Per essere una scheda High End è discretamente compatta.
Per essere una scheda High End è discretamente compatta.
Ma le temperature come vanno?
Ale55andr0
28-11-2020, 20:00
ha qualche contro pure:
consumi scandalosi
meno memoria (anche se oggi 10GB sono sufficienti)
zero margine oc
costa di in più (confrontando MSRP.)
ed infine puzza
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:
-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:
-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...
-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.
-e infine puzza: vuol dire che è da uomini :O
per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...
Ale55andr0
28-11-2020, 20:08
Eh però porca miseria alessandro ci hai rotto i cabasisi per settimane con "scarto dello scarto" e poi a pari prezzo ti prenderesti una scheda con 6 gb di vram in meno, su un silicio peggiore e con un consumo maggiore? :sofico:
Si scherza ovviamente :D
Non mi offendo, percula pure, ci sta :D
A me dei consumi non è mai fregato una fava, sennò all'epoca prendevo la 680, non la 7970. I 16gb di meno non contano una mazza perchè sono 16 vs 10 non 16 vs 8 o 6, come detto sopra. Voglio vedere in quale secolo il videogioco tipico per pc richiederà 16gb di videoram nei consigliati se le console con 16gb ci devono far stare pure codice e SO e gli assett li tarano su quelle non su PC per i prossimi 6 anni... saranno passate quante generazioni di schede quando accadrà? Inoltre, e pure mi scordavo, non state considerando la tecnologia I/O che nel merito va appunto a renderlo un non problema...
ninja750
28-11-2020, 20:11
Stupendo, mettendolo ora ho un 5600X e una 6800XT :asd:
che culo :eek: e pure gratis :eek:
Ma le temperature come vanno?
MI sembrano buone. DI solito sta sui 65-67 di media.
Il miglior cooler di amd evah
ninja750
28-11-2020, 20:19
non contano una mazza perchè sono 16 vs 10 non 16 vs 8 o 6, come detto sopra.
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O
davide445
28-11-2020, 20:21
Ho provato a fare un po di ricerche ma mi piaceva dare il mio contributo al megathread.
Per un progetto che dovrebbe partire inizio anno prossimo avevo messo in budget una 2080S (il resto era con 3600XT, 32GB RAM 3200, MSI B550-A Pro, Corsair TX-M 650W, Sharkoon M25-V Midi).
Adesso che sono uscite le 6800 preferirei prendere una 6800 o XT (praticamente mi servono le performance in raster DX11 di una 2x1070Ti, dato devo fare girare contemporaneamente 2 applicativi 3D di cui uno in VR). Domande da 1 Mil: leggo che a volte si possono acquistare da AMD direttamente. Tutte le volte che ho provato mi rimandava dove si possono trovare le terze parti che le vendono (che ovviamente non hanno disponibilità se non per le custom a prezzi maggiori). Posso acquistare da uno dei qualsiasi shop online AMD tedeschi/francesi/spagnoli e me la spediscono in Italia? Qualcuno lo ha fatto?
Seconda domanda: leggo che 80% della produzione chip RDNA2 è allocata alle console (dai dati sembra che tra PS5 e Xbox ne abbiano in preordine un totale sui 3-4Mil) per cui la disponibilità sarà scarsa almeno fino a Q1, c'è qualche modo per mettersi in lista? Sapevo che in altri paesi (credo Giappone) hanno fatto semplicemente una prenotazione in cui ti metti in lista e quando è disponibile te la consegnano.
Terza domanda: da quello che leggevo nelle recensoni le custom non mi sembrano poi cosi tanto meglio rispetto alle reference, contrariamente a tutte le Radeon precedenti che come design con il blower facevano abbastanza schifo. A parte pura passione per le performance all'ultimo 1%, c'è qualche motivo particolare per preferire le custom anche questa volta? Non ci farò niente OC etc
Ale55andr0
28-11-2020, 20:31
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O
wrong: la 3080ti come la 6900xt, è prodotto fuori budget e fa storia a se. Ma la a 3080 resta un chip cazzuto anche post cut, la 6800 liscia invece, è letteralmente stata violentata, ed ha pure meno CU di una fetentissima fury. Tenetevela, specie a 7/800, passo ;)
La 3070ti da 16gb quando la 3080 ne ha 10 esiste solo nella fantasia dell'utenza, e anche dovesse arrivare, si sa che prima o poi cio' che oggi è all'ultimo grido domani è obsoleto, sticazzi non ce li metti? :O Quando tu compri, qualunque cosa sia, è "oggi" non domani. Anche la mia macchina quando l'ho presa mi entusiasmava ma oggi la getterei in un fosso :asd:
Allora non compriamo nulla, si passerà ai 5nm e ai chip "modulari" al prossimo giro, ste schede sono tutte merda fumante, no? :D Ma anche quelle è, TSMC avrà pronti i 3nm prima di fine 22 :asd:
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:
-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:
-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...
-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.
-e infine puzza: vuol dire che è da uomini :O
per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...
Non fa una piega. Poi i consumi reali sono vicinissimi tra le due gpu.
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O
Non ci ho capito nulla, ma apprezzo l'impegno :D
Gyammy85
28-11-2020, 21:17
Quando ci saranno 3080 in quantità decenti vedrai se non si abbasseranno. A pari prezzo e disponibilità non ne venderanno molte.
Si si tutte nelle patatine appena nvidia le scende
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:
-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:
-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...
-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.
-e infine puzza: vuol dire che è da uomini :O
per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...
Allora vedi che nvidia fa bene a metterti 10 giga sulla top? e tu che la criticavi :asd: per il discorso rt, chi si aspetta perf scarse non ha capito bene la situazione, e non ha visto che tutta la roba nuova è tarata su rdna2, non certo sui due techdemo azzoppa amd fatti dalla spinoff su ue4
wrong: la 3080ti come la 6900xt, è prodotto fuori budget e fa storia a se. Ma la a 3080 resta un chip cazzuto anche post cut, la 6800 liscia invece, è letteralmente stata violentata, ed ha pure meno CU di una fetentissima fury. Tenetevela, specie a 7/800, passo ;)
La 3070ti da 16gb quando la 3080 ne ha 10 esiste solo nella fantasia dell'utenza, e anche dovesse arrivare, si sa che prima o poi cio' che oggi è all'ultimo grido domani è obsoleto, sticazzi non ce li metti? :O Quando tu compri, qualunque cosa sia, è "oggi" non domani. Anche la mia macchina quando l'ho presa mi entusiasmava ma oggi la getterei in un fosso :asd:
Allora non compriamo nulla, si passerà ai 5nm e ai chip "modulari" al prossimo giro, ste schede sono tutte merda fumante, no? :D Ma anche quelle è, TSMC avrà pronti i 3nm prima di fine 22 :asd:
Ti sei fissato, guarda quanto va la misera versione da 60 cu (che per inciso era la nvidia killer che andava il 15% in più della 2080ti)
Per il resto, compri una scheda adesso per giocare a control col riflessino di lei sui vetri oggi perché domani spenderai altri 1000 per giocare bene all'oggi (di domani)? fortuna che ci si lamenta sempre dei prezzi in salita
Gyammy85
28-11-2020, 21:20
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O
:asd: nessun problema, si piazza a 900 euro la 10 giga e si preordina la 3080ti da 1200 e con soli 300 euro hai le perf della 3090 da 2000
Ragazzi ho un "problema". Sapete come mai al riavvio non mi applica il settaggio manuale della ventola?
http://i.imgur.com/15iNTSVh.png (https://imgur.com/15iNTSV)
Al riavvio praticamente mi tiene applicato il profilo manuale come da screen ma riporta tutti i settaggi a stock ovvero: il zero-RPM che mi si riattiva e la curva di rotazione delle ventole che mi ritorna stock. Spero di essermi spiegato.
Non capisco dove sta il problema :muro:
I drivers. Però negli ultimi della 5700xt il problema era stato risolto. Infatti adesso a me mantiene il setting. Agli inizi no.
Il Satrapo
28-11-2020, 21:27
https://i.postimg.cc/9Fxf49GL/Fire-Strike-6800.jpg
ma quanti punti fate su time spy ? io faccio solo 16400 di GS a default, mentre sopra ne vedo anche 2 mila in più di punti.
nel pannello AMD non ho toccato niente e lasciato la modalità game.
comunque sto provando un pò di downvolt. sono arrivato a 1.075mv e sembra stabilissima, con temperature e consumo inferiori.
ci riprovo :)
Gyammy85
28-11-2020, 21:46
https://i.postimg.cc/j2sgxpgk/2020-11-28-4.png (https://postimg.cc/2bKFTKf4)[/url]
[url=https://postimg.cc/2qjQYDkQ]https://i.postimg.cc/QM10p8vy/2020-11-28-2.png (https://postimages.org/it/)
Notare i 100 watt in meno
DJurassic
28-11-2020, 21:49
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:
-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:
-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...
-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.
-e infine puzza: vuol dire che è da uomini :O
per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...
Più leggo questo post e più mi convinco che non c'è nulla da aggiungere ne da sottrarre. Si potrebbe fare qualche modifica alla punteggiatura ma a livello di contenuti è inoppugnabile.
Ale55andr0
28-11-2020, 22:07
Allora vedi che nvidia fa bene a metterti 10 giga sulla top? e tu che la criticavi :asd: per il discorso rt, chi si aspetta perf scarse non ha capito bene la situazione, e non ha visto che tutta la roba nuova è tarata su rdna2, non certo sui due techdemo azzoppa amd fatti dalla spinoff su ue4
io ho sempre e solo lamentato gli 8 della 3070 :read:, e lo sa anche l'ultimo degli utenti del thread verde per quante volte credo di averlo ripetuto :asd:. Della 3080 ho sempre detto quello che ho detto sopra, che 10gb sono sufficienti perchè sono quello che avranno più o meno a disposizione le nuove console dei 16 a loro disposizione una volta sottratte le risorse per il SO e per il codice di gioco che comprende audio, ia, fisica ecc.. Certo ho anche detto che con 12 sarebbe stata meglio col bus full 384, ma non mi sono mica lamentato :asd:
Ah e il 3dmark non è una "tech demo che azzoppa amd", sennò non postavi tutto "trionfante" i sintetici della stessa casa quando erano a favore della 6800 o no? cos'è, azzoppano amd o sono veritieri a convenienza tua a sconda del risultato? quello dedicato all'rtx, è fatto dalla medesima software house e non è sponsorizzato nvidia, anzi, nella stessa pagina di presentazione dello stesso hanno fatto un bocchino ad amd dicendo "l'egemonia di nividia in rtx è finita"...solo che poi il risultato prodotto da amd non ha supportato l'assist che le avevano fatto con un risultato sconcertante: va la metà.
La roba nuova tarata su rdna 2 significa che girerà anche su AMD in versione "low setting", non che andrà meglio su PC. Vediamo come evolverà, di certo sarebbe positivo, ma per la miliardesima volta, OGGI, non è cosi.
A ogni modo, spero che un giorno all'altro il tuo per nulla cringe e insensato attaccamento per un'azienda che non sa manco che esisti trovi una spiegazione sensata, no perchè tu parli, parli, parli per difenderli come fossero tuoi parenti e poi non gli compri manco na cpu da che han fatto il primo ryzen che tanto hai vantato e al massimo gli prendi i fermacarte come la 580 ogni papa morto...gli spezzeresti il cuore a lisona se solo sapesse :O
Mi permetto di fare una considerazione dopo aver letto centinaia di post.
Premetto che anche io sono molto indeciso su quale sara' la prossima scheda (andro' a sostituire una evga 1080ti che rulla con 9900K@5000 all core su un Alienware AW3418DW 3440x1440@120mhz), e tuttora le idee sono confuse.
Partiamo dal presupposto che se uscisse una 3080ti 20 GB a 900 euro si taglierebbe la testa al toro ......... :D :D
Ragioniamo sulle due antagoniste 3080 vs 6800xt.....
Oramai si e' eviscerato tutti i pro ed i contro di una e dell' altra.
La realta e' che i prezzi sono stragonfiati se non addirittura irreali.
Pero' nessuno ha fatto notare una cosa... vi e' sfuggito il periodo in cui siamo entrati? Lasciamo perdere sto cazzo di Covid che secondo me centra poco con l' hardware, siamo praticamente alle porte del Natale ...
Ma lasciano perdere la scimmia che e' in noi
cosa ci siamo sempre detti tra smaliziati consumer.... che questo e' il peggior periodo per comprare hardware.... ce lo siamo dimenticati tutti?
Da Novembre a tutto Gennaio il periodo peggiore, poi dopo si comincia pian piano a rientrare nella normalita' e poi fine primavera e' il periodo migliore, intendo sotto profilo del mercato prezzi disponibilita'.
Quindi perche' tanto meravigliarci della situazione attuale, studiata ben bene dai vari marketing aziendali per mettercela in quel :ciapet:
Ora e' chiaro che la 3080 tuf a 739 come i preordini a settembre permettevano (preordini sian ben chiaro) o 6800xt a 685 come alcuni fortunati sono riusciti ad avere sono prezzi accettabili e che la scelta ricade secondo me sulla prima delle due che uno riesce ad avere. La differenza di prezzo ci sta, da una parte RT dall altra piu ram.
Ma tutti gli altri prezzi non sono nemmeno da considerare.. e non parliamo poi dei prezzi di AMD che hanno fatto uscire; ma seriamente pensate di comprare una scheda a quel prezzo?
Big Navi e' sicuramente un ottimo progetto, un ottimo prodotto (se riesco la prendero' pure io) ma deve costare comunque dai 50~100 in meno della 3080 altrimenti siamo fuori
Questo per dirvi ed anche per AUTOCONVICERMI :sofico: aspettiamo aspettiamo e compriamo la prima che viene disponibile al prezzo giusto.
E che la scimmia sia sempre con NOI !!!!!
Fabrizio
Più leggo questo post e più mi convinco che non c'è nulla da aggiungere ne da sottrarre. Si potrebbe fare qualche modifica alla punteggiatura ma a livello di contenuti è inoppugnabile.
Io anche son d'accordo con Ale55andr0, oggettivamente AL MOMENTO la 3080 è una scheda migliore della 6800xt, è più completa sotto quasi tutti i punti di vista.
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni...
Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo
Io anche son d'accordo con Ale55andr0, oggettivamente AL MOMENTO la 3080 è una scheda migliore della 6800xt, è più completa sotto quasi tutti i punti di vista.
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni...
Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo
Sono post su post che lo dico e mi avete ignorato in modo spregevole :D :D :D
Ale55andr0
28-11-2020, 22:27
Big Navi e' sicuramente un ottimo progetto, un ottimo prodotto (se riesco la prendero' pure io) ma deve costare comunque dai 50~100 in meno della 3080 altrimenti siamo fuori
Fabrizio
:mano:
OvErClOck82
28-11-2020, 22:33
Io anche son d'accordo con Ale55andr0, oggettivamente AL MOMENTO la 3080 è una scheda migliore della 6800xt, è più completa sotto quasi tutti i punti di vista.
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni...
Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo
in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.
in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.
Quanto consuma di più?
AkiraFudo
28-11-2020, 22:42
Più leggo questo post e più mi convinco che non c'è nulla da aggiungere ne da sottrarre. Si potrebbe fare qualche modifica alla punteggiatura ma a livello di contenuti è inoppugnabile.
e madò stampatelo.. :D
Che 10GB siano sufficienti l'avevo scritto. Certo se spendi certe cifre avere un serbatoio future proof schifo non fa.
Sui consumi parliamo di 60-70Watt quando ti va bene.. non sono pochi, e in OC con 3080 arriveresti a 400W.. Quindi altro piccolo potenziale vantaggio in performance che comunque va considerato anche se poi a te non interessa.
RT di oggi vale come il 2 di picche. Per te è indispensabile ma per altri attualmente è una mezza crepa.
Sono 70 usd sul prezzo. La 3080 reference a 699 dove sarebbe?? Non esiste, e chi la comprerebbe? Hanno tutte per forza dei dissipatori custom generosi. E la reference di AMD ha un dissipatore di qualità non un blower, puoi considerarla alla pari della "FE". Per me è giusto paragonare 649 a 719 e visto che costano molto, un 10% di sconto schifo non fa.
Sicuramente ci sono molte altre differenze sia a favore e contro di entambe da valutare.
La mia risposta non voleva essere una polemica verde rossa ; rispetto la tua preferenza e quella di alessandro ma è l'affermare: "lo dicono i numeri, non i secondo me" ad essere "intelletualmente disonesto" ed "oppugnabile".
Secondo me la 6800xt è preferibile, sono libero di avere i miei motivi. Tu sei libero di pensare che "secondo te" io sia uno stolto; non mi offendo.
in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.
Io parlo dal punto di vista dell'utilizzatore medio e non di noi "smanettatori seriali", uno che vuole una scheda come la 3080 sicuramente non guarda i consumi, la ram prima che non bastino 10gb secondo me siamo già a rdna4, l'overclock ti do ragione, ma son finezze.
Sottolineo poi il "AL MOMENTO" del mio precedente commento, è possibile che con il tempo la 6800xt si riveli più prestante causa driver/più ram, ma attualmente sta sotto la 3080. Poi ripeto, li ritengo due prodotti assolutamente comparabili, son nella stessa fascia, non è che una sia merda l'altra sia cioccolata.
E riallacciandomi ad un paio di commenti visti in qualche pagina fa, si dice sempre peste e corna del software amd, ma nvidia quando si decide di passare al nuovo millennio?
Ho provato una 2060 per un po', l'interfaccia geforce sembra targata 1998, ma come mai sta cosa?
Io parlo dal punto di vista dell'utilizzatore medio e non di noi "smanettatori seriali", uno che vuole una scheda come la 3080 sicuramente non guarda i consumi, la ram prima che non bastino 10gb secondo me siamo già a rdna4, l'overclock ti do ragione, ma son finezze.
Sottolineo poi il "AL MOMENTO" del mio precedente commento, è possibile che con il tempo la 6800xt si riveli più prestante causa driver/più ram, ma attualmente sta sotto la 3080. Poi ripeto, li ritengo due prodotti assolutamente comparabili, son nella stessa fascia, non è che una sia merda l'altra sia cioccolata.
E riallacciandomi ad un paio di commenti visti in qualche pagina fa, si dice sempre peste e corna del software amd, ma nvidia quando si decide di passare al nuovo millennio?
Ho provato una 2060 per un po', l'interfaccia geforce sembra targata 1998, ma come mai sta cosa?
L'interfaccia AMD è fantastica, mi mancherà:)
E comunque, al di là di analisi e opinioni più o meno tecniche di "amd vs nvidia", tutto ciò è annullato dall'attuale mercato, i prezzi e le disponibilità sono tutte ad cazzum, e non c'è la possibilità di fare considerazioni a bocce ferme, quello che si trova a prezzi umani va preso e bom, sia rosso o sia verde
L'interfaccia AMD è fantastica, mi mancherà:)
Massí, puoi sempre sostituirla con afterburner, non è mai morto nessuno senza
e madò stampatelo.. :D
Che 10GB siano sufficienti l'avevo scritto. Certo se spendi certe cifre avere un serbatoio future proof schifo non fa.
Sui consumi parliamo di 60-70Watt quando ti va bene.. non sono pochi, e in OC con 3080 arriveresti a 400W.. Quindi altro piccolo potenziale vantaggio in performance che comunque va considerato anche se poi a te non interessa.
RT di oggi vale come il 2 di picche. Per te è indispensabile ma per altri attualmente è una mezza crepa.
Sono 70 usd sul prezzo. La 3080 reference a 699 dove sarebbe?? Non esiste, e chi la comprerebbe? Hanno tutte per forza dei dissipatori custom generosi. E la reference di AMD ha un dissipatore di qualità non un blower, puoi considerarla alla pari della "FE". Per me è giusto paragonare 649 a 719 e visto che costano molto, un 10% di sconto schifo non fa.
Sicuramente ci sono molte altre differenze sia a favore e contro di entambe da valutare.
La mia risposta non voleva essere una polemica verde rossa ; rispetto la tua preferenza e quella di alessandro ma è l'affermare: "lo dicono i numeri, non i secondo me" ad essere "intelletualmente disonesto" ed "oppugnabile".
Secondo me la 6800xt è preferibile, sono libero di avere i miei motivi. Tu sei libero di pensare che "secondo te" io sia uno stolto; non mi offendo.
A me pare di ricordare che la differenza di consumo fosse 20/30 W non di più, ma potrei sbagliare 300W vs 320W
A me pare di ricordare che la differenza di consumo fosse 20/30 W non di più, ma potrei sbagliare 300W vs 320W
Non so se sia così anche con Nvidia, ma la mia 6800 non l'ho mai vista superare i 200w, sebbene il tdp sia 250w, quindi immagino che con la XT sia la stessa cosa.
Ale55andr0
28-11-2020, 22:56
in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.
-la 6800xt con sam = chipset e procio obbligati e nemmeno in tutti i giochi scala. Posto che nvidia ha già pronta la risposta e senza legarsi a una piattaforma
-la ram in più se i giochi non la usano sta li a far nulla, 10gb sono quello che usano le console per il frame buffer per gli asset next gen. Non te li rifaranno mai per pc, scordatelo.
-si overclocca di più e le prende uguale in rt. La occhi per far cosa? 150 fame anzichè 125 in raster?
La 6800 oggi non va bene proprio in quella che è la novità a livello di effettistica del momento. Poi a me nemmeno frega più di tanto l'RT, ma la globalità della performance oggi lo include e tutti, spinti dal marketing, si muovono in quella direzione piaccia o no. Quindi la 3080 con i metri di misura attuali "vince". E ora sappiamo perchè in merito all'RT AMD sia stata bella che zitta e muta, e continua a glissare
Non so se sia così anche con Nvidia, ma la mia 6800 non l'ho mai vista superare i 200w, sebbene il tdp sia 250w, quindi immagino che con la XT sia la stessa cosa.
il consumo varia anche in base al gioco
AkiraFudo
28-11-2020, 23:08
Io parlo dal punto di vista dell'utilizzatore medio e non di noi "smanettatori seriali", uno che vuole una scheda come la 3080 sicuramente non guarda i consumi, la ram prima che non bastino 10gb secondo me siamo già a rdna4, l'overclock ti do ragione, ma son finezze.
Sottolineo poi il "AL MOMENTO" del mio precedente commento, è possibile che con il tempo la 6800xt si riveli più prestante causa driver/più ram, ma attualmente sta sotto la 3080. cut
chi non guarda più i consumi o la ram sono spesso gli stessi che gridavano allo scandalo per i 10watt in più di una 5700xt vs 2070s o che deridevano i 4GB hbm di Fiji perché i 6GB erano indispensabili ma allo stesso tempo i 3,5GB erano fantastici.
6800xt consuma già tanto. La 3080 sfiora il ridicolo. Specifico che non ne faccio una questione di costi.. non saranno 5€ in più all'anno a fare la differenza ma rigorosamente "a me" non piace una stufetta nel case. Siamo in inverno per fortuna.
-la 6800xt con sam = chipset e procio obbligati e nemmeno in tutti i giochi scala. Posto che nvidia ha già pronta la risposta e senza legarsi a una piattaforma
e brava nvidia, è corsa ai ripari sparando che lo fa anche lei. Ma dove è però? Abbiamo già tutti abboccato?
Siamo sicuri che avrà il medesimo boost? Ryzen 5000 e RDNA2 sono stati pensati in sinergia. Sicuro che la cache enorme di entrambi non dia vantaggi anche al SAM? Che Intel e geforce abbiano un boost analogo? Io finchè non vedo non esiste.
A me pare di ricordare che la differenza di consumo fosse 20/30 W non di più, ma potrei sbagliare 300W vs 320W
quello forse è il TDP dichiarato. Non l'assorbimento.
DJurassic
28-11-2020, 23:25
e madò stampatelo.. :D
Che 10GB siano sufficienti l'avevo scritto. Certo se spendi certe cifre avere un serbatoio future proof schifo non fa.
Sui consumi parliamo di 60-70Watt quando ti va bene.. non sono pochi, e in OC con 3080 arriveresti a 400W.. Quindi altro piccolo potenziale vantaggio in performance che comunque va considerato anche se poi a te non interessa.
RT di oggi vale come il 2 di picche. Per te è indispensabile ma per altri attualmente è una mezza crepa.
Sono 70 usd sul prezzo. La 3080 reference a 699 dove sarebbe?? Non esiste, e chi la comprerebbe? Hanno tutte per forza dei dissipatori custom generosi. E la reference di AMD ha un dissipatore di qualità non un blower, puoi considerarla alla pari della "FE". Per me è giusto paragonare 649 a 719 e visto che costano molto, un 10% di sconto schifo non fa.
Sicuramente ci sono molte altre differenze sia a favore e contro di entambe da valutare.
La mia risposta non voleva essere una polemica verde rossa ; rispetto la tua preferenza e quella di alessandro ma è l'affermare: "lo dicono i numeri, non i secondo me" ad essere "intelletualmente disonesto" ed "oppugnabile".
Secondo me la 6800xt è preferibile, sono libero di avere i miei motivi. Tu sei libero di pensare che "secondo te" io sia uno stolto; non mi offendo.
Fortuna che sono tra i pochi ad aver preso una 3080 Fe a 719€ che spinge più delle super custom come Strix e compagnia bella. Dei consumi mi importa il giusto e sulle temp mai andato oltre i 65°C. Ma di certo non avrei regalato 900 o 1000€ per una GPU che monta lo stesso chip. Così come non acquisterei mai un Ryzen 5800 o 5900 pagandolo 600 o 1000€ secondo le stime attuali, semplicemente perchè non è quello il suo prezzo.
Che poi AMD abbia tirato fuori delle signore GPU sono il primo a dirlo e l'ultimo a metterlo in dubbio. Ma dire che il RT conta come il 2 di picche mi sembra eccessivo, specie ora che se ne iniziano a vedere sempre più i titoli che lo utilizzano. Un discorso del genere mi stava bene con la serie 2000, che infatti ho saltato completamente, ma ora le carte in tavola non sono le stesse e con la next gen a me sembra che questa tecnologia si sempre più sulla bocca di tutti. Applicata bene o meno bene sta ai devs stabilirlo, ma resta il fatto che è quel qualcosa in più che la controparte stenta ancora a offrire.
In tutto questo ci sarebbe da aggiungere un certo DLSS. Ma ripeto, rispetto qualsiasi scelta e ne capisco perfettamente le ragioni che ne sono alla base.
Il Satrapo
28-11-2020, 23:48
-la 6800xt con sam = chipset e procio obbligati e nemmeno in tutti i giochi scala. Posto che nvidia ha già pronta la risposta e senza legarsi a una piattaforma
-la ram in più se i giochi non la usano sta li a far nulla, 10gb sono quello che usano le console per il frame buffer per gli asset next gen. Non te li rifaranno mai per pc, scordatelo.
-si overclocca di più e le prende uguale in rt. La occhi per far cosa? 150 fame anzichè 125 in raster?
La 6800 oggi non va bene proprio in quella che è la novità a livello di effettistica del momento. Poi a me nemmeno frega più di tanto l'RT, ma la globalità della performance oggi lo include e tutti, spinti dal marketing, si muovono in quella direzione piaccia o no. Quindi la 3080 con i metri di misura attuali "vince". E ora sappiamo perchè in merito all'RT AMD sia stata bella che zitta e muta, e continua a glissare
il consumo varia anche in base al gioco
Vabbè adesso basta però, abbiamo capito che prenderai una 3080, ce li stai a fa a peperini...
Ora, visto che molte più persone hanno acquistato una RX 6800 (xt) il tuo discorso si sta facendo sostanzialmente stucchevole, questo è il thread delle radeon, se vuoi/volete decantare lodi ad nvidia, c'è l'altro thread apposito...GRAZIE!!
davide155
28-11-2020, 23:51
Però ragazzi l'RT visto nei giochi attuali è monotematico nvidia dai. Mi ripeterò al costo di sembrare noioso: Era impossibile per AMD andare forte in RT nei giochi attuali che sono stati scritti tenendo conto solo delle gpu nvidia.
Poi per il discorso del futuro RT non vedo come AMD potrebbe essere in difficoltà avendo praticamente la sua arch. su tutte le nuove console next-gen che saranno il traino per l'RT.
Discorso DLSS anche AMD ha annunciato una tecnologia analoga quindi perché non tenerne conto? Del SAM versione nvidia è bastato un comunicato per praticamente darlo già come disponibile quando al momento non c'è nulla.
A me personalmente dell'RT frega quasi niente (quasi niente perché tutti i giochi con RT me li sono giocati tutti senza con la 1080Ti e me li sono goduti benissimo ugualmente), potrebbe interessarmi di più in futuro ma rimane comunque il fatto che attivando quegli effetti il frame rate crolla di brutto e nessuna delle due (nvidia e amd) riesce a gestirlo in maniera ottimale. Il raster che vogliate o no è la base del 99,9% dei giochi attuali e anche di quelli futuri da qui ad almeno 2/3 anni (sia sony che ms hanno già detto che supporteranno le console old-gen per quel periodo la).
In definitiva tra 3080 e 6800 xt non ce n'è una OBBIETTIVAMENTE migliore. La migliore è quella che tu scegli che lo sia.
Non sono d'accordo.
I test ormai stanno sotto i nasi di tutti, e la 3080 vince a mani basse.
Rt più veloce....col dlss aumenta ancor di più il divario.
In raster sono alla pari.
Per 50€ in più personalmente preferisco la 3080.
Ovviamente tenendo di conto dei prezzi di lancio, e non le ladrate di adesso.
Ale55andr0
29-11-2020, 00:16
Vabbè adesso basta però, abbiamo capito che prenderai una 3080, ce li stai a fa a peperini...
Ora, visto che molte più persone hanno acquistato una RX 6800 (xt) il tuo discorso si sta facendo sostanzialmente stucchevole, questo è il thread delle radeon, se vuoi/volete decantare lodi ad nvidia, c'è l'altro thread apposito...GRAZIE!!
è un thread tecnico, e si parla di come vanno le schede e in che contesto e di fatto, non per sentito dire, o ti sei perso tutti i bench che i possessori hanno pubblicato? Tu piuttosto, che con 22 post all'attivo mi parli come fossi nato e cresciuto qui... sei il clone di?
Vince a mani basse dove? :
te lo ha detto:
"Rt più veloce....col dlss aumenta ancor di più il divario.
In raster sono alla pari."
è un overall, dai bench di hwupgrade: 7 a 6 in raster e 5 a 1 in RT, totale 12 a 7.
davide155
29-11-2020, 00:22
Non mi sembrano proprio equivalenti in rt.
https://www.hwupgrade.it/articoli/5887/variazione_media_rt_su_2080.png
Togliendo dirt5 dal mucchio la situazione è ancora più marcata:
https://www.hwupgrade.it/articoli/5887/variazione_media_rt_su_2080_no_dirt5.png
E tutto questo senza DLSS attivo nei giochi che lo supportano.
Con tutto il rispetto per le nuove amd che sono un ottimo prodotto, ma per 50€ preferisco la 3080.
Mallardo
29-11-2020, 00:23
Io vedo due schede dai valori simili ma non uguali, ognuna ha punti di forza e punti deboli. Sinceramente risulta fastidioso quando si cerca di imporre agli altri la propria soggettiva visione delle cose. Un "secondo me" ci dovrebbe sempre stare quando si danno giudizi così poco tecnici.
bagnino89
29-11-2020, 00:24
A ogni modo, spero che un giorno all'altro il tuo per nulla cringe e insensato attaccamento per un'azienda che non sa manco che esisti trovi una spiegazione sensata, no perchè tu parli, parli, parli per difenderli come fossero tuoi parenti e poi non gli compri manco na cpu da che han fatto il primo ryzen che tanto hai vantato e al massimo gli prendi i fermacarte come la 580 ogni papa morto...gli spezzeresti il cuore a lisona se solo sapesse :O
Ahahah :asd:
Il Satrapo
29-11-2020, 00:29
è un thread tecnico, e si parla di come vanno le schede e in che contesto e di fatto, non per sentito dire, o ti sei perso tutti i bench che i possessori hanno pubblicato? Tu piuttosto, che con 22 post all'attivo mi parli come fossi nato e cresciuto qui... sei il clone di?
te lo ha detto:
"Rt più veloce....col dlss aumenta ancor di più il divario.
In raster sono alla pari."
è un overall: 7 a 6 in raster e 6 a 1 in RT, totale 13 a 7.
E quindi? Vedo che hai oltre 15000 post ma se tanto mi da tanto mi sa che un buon 75 % sono solo lamenti o flame...
Qui l'unico che parla per sentito dire sei tu visto che allo stato attuale non hai Una scheda video, nvidia o amd, mentre io ed altre persone ne parliamo da possessori.
Da settembre sei partito col dire che il tuo budget erano 500 euro, passando per astrusità varie tipo, cut del cut del cut, per arrivare a dire che ora l'rt è la feature più importante del 3° millennio e che acquisterai una 3080 i cui prezzi sono ben al di sopra degli 800 euro...
Bella coerenza.
Ora, delle due l'una, o si parla delle rx 6800 visto che diverse persone ce l'hanno nel case oppure vai a flammare in un altro thread!
Ale55andr0
29-11-2020, 00:33
Da settembre sei partito col dire
ok, confermato il clone (e non venirmi a dire che a settembre seguivi solo leggendo, non sono un idiota)
Ti saluto grid ;)
PS: non ho detto che acquisterò una 3080, ma che valuterò l'evoluzione di performance e prezzi in rt di amd e che per ora sarei sul 55/45 lato scelta che mi pare tutto tranne che aver deciso di comprare "x", ma capisco che è troppo materiale da computare per taluni (che ci spenderei oltre 800 euro poi :rotfl:...)
comunque questo è un thread tecnico sulla 6800xt, non il thread del duello 6800xt vs 3080.
sono 40 post che parlate solo di questo, potete farlo anche in un altro thread e lasciare ai possessori della scheda la possibilità di confrontarsi sul prodotto acquistato invece che inquinare di continuo con la solita faidetta nvidia vs amd.
Andy1111
29-11-2020, 00:35
ok, confermato il clone.
Ti saluto grid ;)
Ale comprati la 3080 e vivi sereno
Il Satrapo
29-11-2020, 00:36
ok, confermato il clone.
Ti saluto grid ;)
ok confermato il flammatore.
P.s. A chi ha comprato un rx 6800 non gliene può fregare di meno di Rt e dlss, adesso è chiaro?
Il Satrapo
29-11-2020, 00:38
comunque questo è un thread tecnico sulla 6800xt, non il thread del duello 6800xt vs 3080.
sono 40 post che parlate solo di questo, potete farlo anche in un altro thread e lasciare ai possessori della scheda la possibilità di confrontarsi sul prodotto acquistato invece che inquinare di continuo con la solita faidetta nvidia vs amd.
ifnfatti hai perfettamente ragione, lasciare spazio ai possessori di radeon PLEASE!
davide155
29-11-2020, 00:40
Infatti parlavo GLOBALMENTE e ho ribadito più e più volte che in RT vince nvidia e per ovvi motivi.
Se tu preferisci la 3080 fai bene a prendere quella ci mancherebbe altro.
Ci mancherebbe, adesso la 3080 per me può ammuffire sugli scaffali ai prezzi che è venduta adesso :asd:
Comunque globalmente non sono uguali :) se teniamo di conto dlss+rt+raster globalmente la 3080 è migliore, e non di poco.
Ovvio, amd è arrivata dopo su tali tecnologie, ma siccome spesso si fa paragoni sui prezzi e disponibilità ad oggi, i quali penalizzano non poco nvidia, allora prendiamo in considerazione anche le prestazioni di oggi.
Ho voluto solo puntualizzare che spesso il dlss va nel dimenticatoio, ma per me è una delle tecnologie più all'avanguardia da 15 anni a questa parte!
Sarà che le reti neurali mi affascinano, e le schede nvidia hanno i Tensor core adibiti solo a tale calcolo, ma per me solo per questo vale i 50€ di differenza ;)
Mallardo
29-11-2020, 00:47
Ci mancherebbe, adesso la 3080 per me può ammuffire sugli scaffali ai prezzi che è venduta adesso :asd:
Comunque globalmente non sono uguali :) se teniamo di conto dlss+rt+raster globalmente la 3080 è migliore, e non di poco.
Ovvio, amd è arrivata dopo su tali tecnologie, ma siccome spesso si fa paragoni sui prezzi e disponibilità ad oggi, i quali penalizzano non poco nvidia, allora prendiamo in considerazione anche le prestazioni di oggi.
Ho voluto solo puntualizzare che spesso il dlss va nel dimenticatoio, ma per me è una delle tecnologie più all'avanguardia da 15 anni a questa parte!
Sarà che le reti neurali mi affascinano, e le schede nvidia hanno i Tensor core adibiti solo a tale calcolo, ma per me solo per questo vale i 50€ di differenza ;)
A me quando sento parlare di DLSS mi viene l'orticaria. La trovo una tecnologie inutile per la sua implementazione attuale. Ma è una mia opinione, le opinioni non spacciamole per verità. Se a qualcuno non interessano ne RT ne DLSS è facile capire che PER LUI la 3080 non sarà globalmente migliore, anzi.
DJurassic
29-11-2020, 02:00
Togliendo dirt5 dal mucchio la situazione è ancora più marcata:
Dirt 5 manco ce l'ha il RT :asd:
https://www.youtube.com/watch?v=xHCAZQDfy6Y
Comunque globalmente non sono uguali :) se teniamo di conto dlss+rt+raster globalmente la 3080 è migliore, e non di poco.
Comunque globalmente non sono uguali :) se teniamo di conto consumi+RAM+SAM+raster, globalmente la 6800 xt è migliore, e non di poco.
Entrambe le frasi potrebbero essere corrette... e invece sono entrambe false, perchè non sono dei paramerti assoluti.
Entrambe le schede sono validissimi prodotti con alcune caratteristiche differenti. Per chi cerca determinate caratteristiche, può risultare migliore l'una o l'altra.
Prendere il RT come parametro fondamentale o "conditio sine qua non", mi fa venire in mente quanto successo qualche anno fa, quando il futuro era Physx e qualcuno si era addirittura comprato la vga di supporto per gestirla.
Il RT non dico che sia su quel livello, anzi la ritengo una tecnologia molto valida... però prima di ragionare per assoluti, bisognerebbe avere un pò di memoria storica ed andarci coi piedi di piombo. ;)
-la ram in più se i giochi non la usano sta li a far nulla, 10gb sono quello che usano le console per il frame buffer per gli asset next gen. Non te li rifaranno mai per pc, scordatelo.Perché, con 4+4 GB puoi giocare a Horizon col setting della PS4-Pro? Scordatelo!
Sminuire l'elemento che nel medio periodo potrebbe dare il risultato migliore a costo zero o quasi (se arrivi, arrivi), non ha senso.
I trascorsi dovrebbero fare storia su quanto si sia rivelata utile una quantità superiore di VRAM, in questo caso superiore ai 10GB che non arrivano al minimo indispensabile, come si può già vedere da qualche gioco più disponibile delle schede in questione...
Gli stereotipi sulla potenza necessaria a giustificare una buona quantità di VRAM hanno fatto anch'essi storia, se non fosse che la memoria vacilla facilmente quando conviene. Se hai VRAM sufficiente, alzare l'asticella relativa alle texture in pratica non pesa nulla, eppure permette di migliorare una delle cose che si notano di più, e che è anche facile da far notare ai profani, tra l'altro.
Se la norma dice che il grosso degli asset non vengono migliorati (o non venngono scalati su console, sarebbe meglio dire), dice anche che su console si dà volentieri una strettarella alle texture di contorno (ma che si vedono, sia chiaro).
Poi non si capisce perché i "favori" dei pacchi texture riservati al PC debbano diventare anomali, come se fossero fastidiosi. Non si capisce parlando chiaro, perché di solito quelli che se li possono permettere li scaricano eccome e se li godono...
Quanti GB riservati al gioco aveva la PS4-Pro? Sai che in quelli c'era anche il necessario al processore? (l'altra è riservata all'OS) Togliendo quest'ultima quanti ne rimanevano al tipico frame buffer da GPU?
Su PC quelli bastavano? Manco per il c...
Questo senza considerare la VRAM necessaria all'aumento della qualità/quantità di alcuni effetti tipici del PC, così come al LOD più ampio.
Quei 50mt in più che potresti vedere su PC sai dove devono stare? Già le console nuove si aggirano dinamicamente sui 1440p, senza asset da next-gen, e quelli da 4K in tutto e per tutto ancora devo vederli...
Aggiungo che è nell'interesse di AMD far fruttare il più possibile quel buffer che può aumentare i dettagli quasi a gratis, e il quadro è in vendita.
Comunque, tra qualche mese vedremo in quanti giochi bisognerà abbassare la stecca con una 3080, così vedremo pure quanti cadranno dal pero di mezzo metro... :)
Ho risposto a te perché la metti sul categorico. Minimizzare in questo modo quel +60% di VRAM ha un ché di nichilistico.
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:
-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:
-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...
-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.
-e infine puzza: vuol dire che è da uomini :O
per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...
Olio su tela [La gioconda de Louvre] :D
Ragazzi ho un "problema". Sapete come mai al riavvio non mi applica il settaggio manuale della ventola?
Al riavvio praticamente mi tiene applicato il profilo manuale come da screen ma riporta tutti i settaggi a stock ovvero: il zero-RPM che mi si riattiva e la curva di rotazione delle ventole che mi ritorna stock. Spero di essermi spiegato.
Non capisco dove sta il problema :muro:
Ben ti stà e' il prezzo da pagare per aver aperto il thered delle 3080 ed essersi preso un 6800 (Avevo un 5700XT prima, scherzo eh! :D )
ce li stai a fa a peperini...
Ora, visto che molte più persone hanno acquistato una RX 6800 (xt) il tuo discorso si sta facendo sostanzialmente stucchevole, questo è il thread delle radeon, se vuoi/volete decantare lodi ad nvidia, c'è l'altro thread apposito...GRAZIE!!
Cossss ?? stucchevole ?? due mesi sul thered delle 3080 di opinioni scritte da chcicchessia cosa sarebbero allora ? e tu, scalci per cosi poco ? Naaaaa :ciapet:
comunque questo è un thread tecnico sulla 6800xt, non il thread del duello 6800xt vs 3080.
sono 40 post che parlate solo di questo, potete farlo anche in un altro thread e lasciare ai possessori della scheda la possibilità di confrontarsi sul prodotto acquistato invece che inquinare di continuo con la solita faidetta nvidia vs amd.
Qualche confronto si può fare, è tecnico, mica stiamo confrontando zucchine e melanzane, ma la scheda protagonista del thred e una concorrente..... direi che ci sta:) :)
Ma poi ragazzi in raster va un pelo meglio la 6800xt (a 1440p da il suo massimo, che è la risoluzione a cui gioco io tra l'altro). Quindi dire che GLOBALMENTE va meglio non è corretto :)
Comunque è l'ultimo post che faccio sull'argomento. Stiamo diventando tutti quanti logorroici :sofico:
Per il prezzo che l'hai pagata tu, è stato una affare irripetibile :) Chiunque a quel prezzo l'avrebbe presa viste le prestazioni:) :)
Personalmente la vedo diversamente. serie 3xxxx o serie 6xxxx potranno essere valutate al 100% solo tra qualche mese con driver piu' maturi e giochi che supporteranno le schede e sto caxxo di RT al 100% per entrambe.
Ma a proposito di RT dopo aver letto che le api VULKAN e DX 12 ULTIMATE per farlo funzionare a dovere faranno in modo di far collaborare la GPU e la CPU ergo i cores serviranno come il pane e forse le prestazioni in tale ambito si liveleranno (parere personale).
Poi secondo me la serie 6xxxx e' stata progettata per lavorare ultrabene in 4k, che poi sono l'obiettivo delle console, e infatti se non erro a questa risoluzione spesso e volentieri sono avanti alla concorrenza (se non ricordo male nei video e grafici visti qualche settimana fa.) anche di 20fps.
Personalmente la vedo diversamente. serie 3xxxx o serie 6xxxx potranno essere valutate al 100% solo tra qualche mese con driver piu' maturi e giochi che supporteranno le schede e sto caxxo di RT al 100% per entrambe.
Ma a proposito di RT dopo aver letto che le api VULKAN e DX 12 ULTIMATE per farlo funzionare a dovere faranno in modo di far collaborare la GPU e la CPU ergo i cores serviranno come il pane e forse le prestazioni in tale ambito si liveleranno (parere personale).
Poi secondo me la serie 6xxxx e' stata progettata per lavorare ultrabene in 4k, che poi sono l'obiettivo delle console, e infatti se non erro a questa risoluzione spesso e volentieri sono avanti alla concorrenza (se non ricordo male nei video e grafici visti qualche settimana fa.) anche di 20fps.
Credo sia il contrario, ma posso sbagliarmi, più ci si avvicina al 4k e più pare che la 3080 abbia leggermente migliori prestazioni. MA nulla di che eh. In RT pare invece che evaporino AMd al momento. Altra cosa, forse faccio un errore , ma io giudico la scheda come acquisto sulla base di un confronto diretto senza intervento di altre componenti, altrimenti dovremmo mettere in conto troppe variabili ( mhz RAM 3000/3200/3600, CPU, SAM ecc...). Se io cmopro una scheda non mi va di essere vincolato dall'intervento di altre parti attive per farla funzionare meglio. Quindi va confrontata a pari armi, senza CPU SAM e altre cose, se la si vuole valutare bene, perchè non è detto che tutti vogliano montare un Ryzen.
Qualche confronto si può fare, è tecnico, mica stiamo confrontando zucchine e melanzane, ma la scheda protagonista del thred e una concorrente..... direi che ci sta:) :)
Qualche confronto? Sono 100 post che vi state scannando se oggettivamente è sostenibile che una delle due è meglio dell’altra, con la metà degli utenti che solitamente postano solo nel thread nvidia che si sentono in dovere di criticare chi ha comprato qualcosa di diverso, dovendo fargli arrivare a dire che ha fatto un cattivo acquisto, qualche giorno fa invece bisogna dire che il lancio amd era peggiore di quello nvidia perché era oggettivo così.
Io per quattro post ho posto domande sul funzionamento della scheda, impostazioni driver e simili e le risposte ottenute sono zero, perché si era troppo occupati a litigare su chi lo aveva più lungo tra amd e nvidia...
Inviato dal mio iPhone utilizzando Tapatalk
Credo sia il contrario, ma posso sbagliarmi, più ci si avvicina al 4k e più pare che la 3080 abbia leggermente migliori prestazioni. MA nulla di che eh. In RT pare invece che evaporino AMd al momento. Altra cosa, forse faccio un errore , ma io giudico la scheda come acquisto sulla base di un confronto diretto senza intervento di altre componenti, altrimenti dovremmo mettere in conto troppe variabili ( mhz RAM 3000/3200/3600, CPU, SAM ecc...). Se io cmopro una scheda non mi va di essere vincolato dall'intervento di altre parti attive per farla funzionare meglio. Quindi va confrontata a pari armi, senza CPU SAM e altre cose, se la si vuole valutare bene, perchè non è detto che tutti vogliano montare un Ryzen.
Ma in 4k molto dipende dal gioco in BF5 una 6800 e' superiore alla 3090 e la 6900xt la stacca anche di 20 fps. poi magari in tomb raider le cose si ribaltano, ma parliamo sempre di giocare in 4k oltre i 100fps che non e' trascurabile credo.
Per il resto come detto se avessi la possibilita' le comprerei entrambe e le proverei anche se gioco in FHD solo per la passione che ho, ma le finanze purtroppo non me lo permettono.
Cmq vedremo, attualmente non posso andare sulla serie 6xxxx troppo costose e sto cercando una 5700xt per sostituire la Rx 580 attualmente sotto.
Sono certo che i test piu' prossimi alla realta' li vedremo alla prossima generazione di giochi quando il supporto di tutte le features dovrebbe, il condizionale e' d'obbligo, essere al 100% per entrambe le case. ;)
Qualche confronto? Sono 100 post che vi state scannando se oggettivamente è sostenibile che una delle due è meglio dell’altra, con la metà degli utenti che solitamente postano solo nel thread nvidia che si sentono in dovere di criticare chi ha comprato qualcosa di diverso, dovendo fargli arrivare a dire che ha fatto un cattivo acquisto, qualche giorno fa invece bisogna dire che il lancio amd era peggiore di quello nvidia perché era oggettivo così.
Io per quattro post ho posto domande sul funzionamento della scheda, impostazioni driver e simili e le risposte ottenute sono zero, perché si era troppo occupati a litigare su chi lo aveva più lungo tra amd e nvidia...
Inviato dal mio iPhone utilizzando Tapatalk
Una cosa che non ho ancora compreso e' il fatto che ci si crucciava tanto del fatto che in 4k le schede non avevano la potenza per poter sostenere in modo dignitoso i giochi.
Ora entrambe le case hanno schede che in 4k ti fanno giocare anche sopra i 100fps, un traguardo secondo me eccellente per chi puo' giocarci.
Invece ora si punta tutto sull' RT che in alcuni giochi attivato/disattivato non fa quasi nulla a livello di grafica, in altri poi magari no ma resta il fatto che al momento i giochi che possono usufruire di un RT degno di nota sono vermanete pochi.
Poi potrei anche sbagliarmi ma penso stiamo un po' esagerando.
alla mia epoca passare da una CGA ad una EGA, per chi se lo ricorda, era gia' qualche cosa di eccezionale ora non so piu' cosa cavolo si aspettano gli utenti ad oigni generazione nuova che esce.
Questa volta le GPU di entrambe le case hanno potenze da capogiro e c'e' solo l'imbarazzo della scelta.
AkiraFudo
29-11-2020, 10:11
Qualche confronto si può fare, è tecnico, mica stiamo confrontando zucchine e melanzane, ma la scheda protagonista del thred e una concorrente..... direi che ci sta:) :)
Blee, tu forse non sei molto avvezzo al forum. La storia si ripete ogni volta. Arriva l'incursore della green army arrogante di turno a piangere che nVidia is better, e che punto, non si discute, i numeri, le prove sotto agli occhi etc..
Se fosse davvero così facciamo un "lockdown" del thread e spostiamoci tutti dillà. E chi la pensa in tal modo ed ha quindi già fatto la sua scelta inderogabile, non aggiunge niente di utile alla discussione anzi rompe solo il c*zzo. Poi probabilmente non vogliono nemmeno convertire te, senza rendersene conto lo fanno per autoconvincersi che la loro scelta sia quella giusta.
"I confronti" che intendi tu, piacciono a tutti e Ringrazio vivamente chi ha postato bench e impressioni sincere, quest'ultime valgono molto più delle review dei professionisti del settore pieni di mazzette.
Ma in 4k molto dipende dal gioco in BF5 una 6800 e' superiore alla 3090 e la 6900xt la stacca anche di 20 fps. poi magari in tomb raider le cose si ribaltano, ma parliamo sempre di giocare in 4k oltre i 100fps che non e' trascurabile credo.
Per il resto come detto se avessi la possibilita' le comprerei entrambe e le proverei anche se gioco in FHD solo per la passione che ho, ma le finanze purtroppo non me lo permettono.
Cmq vedremo, attualmente non posso andare sulla serie 6xxxx troppo costose e sto cercando una 5700xt per sostituire la Rx 580 attualmente sotto.
Sono certo che i test piu' prossimi alla realta' li vedremo alla prossima generazione di giochi quando il supporto di tutte le features dovrebbe, il condizionale e' d'obbligo, essere al 100% per entrambe le case. ;)
Si dipende, ma parlo in generale , non nel caso specifico. Perché magari nello specifico la tua 580 potrebbe andare come la 5700xt:) Quindi parlavo in generale. Quello che ho potuto vedere dalle testate giornalistiche che si occupano di bench, la 3080 fatica in 1080p dove la 6000 ha nettamente la meglio, sono simili su 1440p e sul 4k dipende dal titolo, ma in generale c'è un leggero scarto in favore della 3080. Mentre In RT la 6000 sta quasi su tutto dietro. Io parlo da possessore di AMD che avrebbe voluto acquistare una 6800xt a prezzo di uscita.
Blee, tu forse non sei molto avvezzo al forum. La storia si ripete ogni volta. Arriva l'incursore della green army arrogante di turno a piangere che nVidia is better, e che punto, non si discute, i numeri, le prove sotto agli occhi etc..
Se fosse davvero così facciamo un "lockdown" del thread e spostiamoci tutti dillà. E chi la pensa in tal modo ed ha quindi già fatto la sua scelta inderogabile, non aggiunge niente di utile alla discussione anzi rompe solo il c*zzo. Poi probabilmente non vogliono nemmeno convertire te, senza rendersene conto lo fanno per autoconvincersi che la loro scelta sia quella giusta.
"I confronti" che intendi tu, piacciono a tutti e Ringrazio vivamente chi ha postato bench e impressioni sincere, quest'ultime valgono molto più delle review dei professionisti del settore pieni di mazzette.
MA veramente io no sono quel tipo di persona, ho una 5700xt e ne sono felicissimo. Cerco di essere il più obbiettivo possibile. Io ho ordinato la 3080 per due mitivi: 1) disponibilità 2) prezzo inferiore /prestazioni . Due cose importantissime . Se fosse stata AMD avrei preso AMD, non sono i 2fps in più o in meno che non mi fan dormire la notte, ma i prezzi
Comunque globalmente non sono uguali :) se teniamo di conto consumi+RAM+SAM+raster, globalmente la 6800 xt è migliore, e non di poco.
Entrambe le frasi potrebbero essere corrette... e invece sono entrambe false, perchè non sono dei paramerti assoluti.
Entrambe le schede sono validissimi prodotti con alcune caratteristiche differenti. Per chi cerca determinate caratteristiche, può risultare migliore l'una o l'altra.
Prendere il RT come parametro fondamentale o "conditio sine qua non", mi fa venire in mente quanto successo qualche anno fa, quando il futuro era Physx e qualcuno si era addirittura comprato la vga di supporto per gestirla.
Il RT non dico che sia su quel livello, anzi la ritengo una tecnologia molto valida... però prima di ragionare per assoluti, bisognerebbe avere un pò di memoria storica ed andarci coi piedi di piombo. ;)
Direi che non fa una piega.
Qualche confronto? Sono 100 post che vi state scannando se oggettivamente è sostenibile che una delle due è meglio dell’altra, con la metà degli utenti che solitamente postano solo nel thread nvidia che si sentono in dovere di criticare chi ha comprato qualcosa di diverso, dovendo fargli arrivare a dire che ha fatto un cattivo acquisto, qualche giorno fa invece bisogna dire che il lancio amd era peggiore di quello nvidia perché era oggettivo così.
Io per quattro post ho posto domande sul funzionamento della scheda, impostazioni driver e simili e le risposte ottenute sono zero, perché si era troppo occupati a litigare su chi lo aveva più lungo tra amd e nvidia...
Inviato dal mio iPhone utilizzando Tapatalk
MA non capisco cosa possa entrarci io in tutto questo. Neanche ho Nvidia ancora. comunque non so perché non ti hanno risposto, se io potevo aiutarti ti avrei risposto di certo...figurati.
Io amo e odio tutti, tanto schede non si trovano, bestemmione, perciò qui non è la gara a chi l ha più lungo, ma la gara a chi c'è l ha e basta, bestemmione.
Io amo e odio tutti, tanto schede non si trovano, bestemmione, perciò qui non è la gara a chi l ha più lungo, ma la gara a chi c'è l ha e basta, bestemmione.
:D :D :D :D quoto :D :D :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.