View Full Version : Radeon RX 6900 XT, recensione della top di gamma AMD che sfida GeForce RTX 3090
Redazione di Hardware Upg
08-12-2020, 14:02
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5906/radeon-rx-6900-xt-recensione-della-top-di-gamma-amd-che-sfida-geforce-rtx-3090_index.html
La scheda Radeon RX 6900 XT è la top di gamma della nuova generazione di proposte AMD basate su architettura RDNA 2. La nuova soluzione nasce per giocare in 4K ad alte prestazioni e in tal senso sfida la RTX 3090 di Nvidia. Venduta a un prezzo di poco più di 1000 euro, offre prestazioni superiori alla 6800 XT non giustificate però dalla differenza di prezzo.
Click sul link per visualizzare l'articolo.
Ale55andr0
08-12-2020, 14:25
ne più ne meno quello che ci si aspettava. A ogni modo non vale 999 rispetto i 650 della 6800xt
Una scheda senza dubbio valida con prestazioni che tengono testa alla 3090 che però resta nel complesso superiore.
Il divario tra l'altro si allarga abbastanza in raytracing mettendo AMD in svantaggio.
La scheda è buona ma dovranno giocare sul prezzo per renderla appetibile rispetto alla 3090
Free Gordon
08-12-2020, 14:27
Ma un test consumi 3090 VS 6900 dov'è?
E' diventato magicamente inutile sapere quanto consumano? :rotfl:
Ok che sono schede di fascia alta e dei consumi...chissenefrega... :asd:
Free Gordon
08-12-2020, 14:28
La scheda è buona ma dovranno giocare sul prezzo per renderla appetibile rispetto alla 3090
Costerebbe 500€ in meno... :stordita: (se esistesse :asd: )
Costerebbe 500€ in meno... :stordita: (se esistesse :asd: )
Guarda, se DAVVERO lo steet price finale (che vedremo tra MESI) vedrà questa scheda piazzata a 500 euro meno della 3090 è evidente che sarà un best buy epocale.
Ma voglio vederelo. ;)
OrazioOC
08-12-2020, 14:57
Markettata in stile 3090, 5-6% più performante di una 6800 xt(ovviamente il gap è pure inferiore/nullo se si considera una buona 6800 xt custom), il tutto a 350 euro/dollari in più.
Non è che se ne sentiva il bisogno.:rolleyes:
Se ne riparlerà quando saranno finalmente acquistabili tutte queste belle schede.
6800 XT a 670€ di listino
6900 XT a 1000€ di listino per +7% performance
Non ha alcun senso (ancor meno senso ha la GTX 3090 sia chiaro).
Come street price dovrebbe venire non più di 100€ oltre la 6800 XT imho.
NickNaylor
08-12-2020, 15:25
potevano vendere queste al posto delle 6800xt in modo da mettere sotto pressione nvidia sulle 3080 e fine della storia, ma chi gliele compra a 1050 euro mi chiedo io. mah
Onestamente vedevo pochi motivi validi per acquistare una RTX 3090 rispetto ad una RTX 3080 ed allo stesso modo, vedo pochi motivi validi per acquistare una RX 6900 XT rispetto ad una RX 6800 XT. Poi se le si compra a quei prezzi solo per sfizio è un'altro paio di maniche.
Qualche recensione basata su sistemi amd? Giusto per vedere le performance con lo smart access memory attivo.
Gyammy85
08-12-2020, 15:52
Dirt 5 rt on no eh? :O
nickname88
08-12-2020, 16:24
https://tpucdn.com/review/amd-radeon-rx-6900-xt/images/relative-performance_3840-2160.png
nickname88
08-12-2020, 16:26
Se ne riparlerà quando saranno finalmente acquistabili tutte queste belle schede.
6800 XT a 670€ di listino
6900 XT a 1000€ di listino per +7% performance
Non ha alcun senso (ancor meno senso ha la GTX 3090 sia chiaro).
I prezzi lasciano il tempo che trovano, la 6900XT contribuisce semplicemente a far numero e creare un po' più di disponibilità.
bene la 6900 va un filino meno della 3090 in raster, quel che ci si aspettava.
in rt no comment ma si sapeva.
Dirt 5 rt on no eh? :O
visto che è identico al normale (e fa cagare in entrambi visto che è il gioco di "macchine" piu brutto di tutti) direi di no :asd:
Markettata in stile 3090, 5-6% più performante di una 6800 xt(ovviamente il gap è pure inferiore/nullo se si considera una buona 6800 xt custom), il tutto a 350 euro/dollari in più.
Non è che se ne sentiva il bisogno.:rolleyes:
Se la 6900XT non ha senso, meno ancora ne ha la 3090 che costa il 50% in più... anzi, proprio la presenza della 3090 a quel prezzo giustifica la 6900XT.
Visto il prezzo e lo stacco a singola cifra che ha rispetto alla 6800XT.
Se ci mettiamo anche i "magici" driver AMD diventano ancora meno appetibili.
Ho una RX 480 e non vedo l'ora di cambiarla per una RTX 3080. Finché i prezzi saranno questi sarà probabilmente mai
nickname88
08-12-2020, 17:11
bene la 6900 va un filino meno della 3090 in raster, quel che ci si aspettava.
in rt no comment ma si sapeva.
Più che un filino meno della 3090, va un filino più della 3080 ( 2% appena ) senza DLSS e con RT cagoso a 999$ e senza videogioco in regalo.
Non penso si ci aspettasse ciò.
O meglio, se lo aspettava qualche realista vedendo che la 6800XT era DIETRO e non appaiata.
In pratica una 3080 se la si trova anche appena sotto i mille è pure più conveniente ed ha il gioco in regalo.
Se la 6900XT non ha senso, meno ancora ne ha la 3090 che costa il 50% in più... anzi, proprio la presenza della 3090 a quel prezzo giustifica la 6900XT.
almeno va in raytracing e di piu in 2k
OrazioOC
08-12-2020, 17:15
Se la 6900XT non ha senso, meno ancora ne ha la 3090 che costa il 50% in più... anzi, proprio la presenza della 3090 a quel prezzo giustifica la 6900XT.
La 3090 rispetto alla 3080 oltre alle performance superiori(non di molto ma lo sono, ed è un gap superiore sulla carta rispetto a quello 6800 xt/6900 xt) ha anche 14gb di vram in più, che in gaming sicuramente non si usano, ma lato professionale sono tanta roba(24gb di vram li aveva la titan rtx da 2500 euro, questa ne costa 15000 di listino).
E' una scheda dal rapporto prezzo/prestazioni molto più scarso della 3080, ma anche la 6900 xt non scherza, con la differenza che non ti da' più vram e non ha porta neanche differenze così degne di nota rispetto alla 6800 xt.:rolleyes:
terranux
08-12-2020, 18:12
Non mi convice .scaffale
Gyammy85
08-12-2020, 18:13
La 3090 rispetto alla 3080 oltre alle performance superiori(non di molto ma lo sono, ed è un gap superiore sulla carta rispetto a quello 6800 xt/6900 xt) ha anche 14gb di vram in più, che in gaming sicuramente non si usano, ma lato professionale sono tanta roba(24gb di vram li aveva la titan rtx da 2500 euro, questa ne costa 15000 di listino).
E' una scheda dal rapporto prezzo/prestazioni molto più scarso della 3080, ma anche la 6900 xt non scherza, con la differenza che non ti da' più vram e non ha porta neanche differenze così degne di nota rispetto alla 6800 xt.:rolleyes:
Ma dove sono tutti sti professionisti che si prendono una scheda consumer per benchare cuda? chiedo per un amico
Oh i consumi non li citiamo mai mi raccomando :O
Non mi convice .scaffale
Se consideriamo che in 4k e con ray tracing attivo fanno pena TUTTE le schede, e tenendo ovviamente in conto i prezzi assurdi e i consumi da centrale nucleare, secondo me sono da scaffale tutte le nuove uscite AMD e NVIDIA...
Gyammy85
08-12-2020, 18:29
Se consideriamo che in 4k e con ray tracing attivo fanno pena TUTTE le schede, e tenendo ovviamente in conto i prezzi assurdi e i consumi da centrale nucleare, secondo me sono da scaffale tutte le nuove uscite AMD e NVIDIA...
Secondo me con roba tipo far cry 6 diranno la loro, pretendere prestazioni elevate in dxr 1.0 turing friendly era un pò troppo
OrazioOC
08-12-2020, 18:32
Ma dove sono tutti sti professionisti che si prendono una scheda consumer per benchare cuda? chiedo per un amico
Oh i consumi non li citiamo mai mi raccomando :O
Cosa centrano i consumi?20w di differenza cambiano l'esperienza a questi livelli?:rolleyes:
Cosa centrano i consumi?20w di differenza cambiano l'esperienza a questi livelli?:rolleyes:
lascialo stare ormai sanno tutti che è una causa persa vede solo rosso :O
maglia18
08-12-2020, 19:20
Quindi mi pare che sia per prezzo e sia per prestazioni in Ray Tracing la Best Buy rimane la Rtx 3080...
ninja750
08-12-2020, 19:25
Non mi convice .scaffale
ci fossero a scaffale :asd:
H.D. Lion
08-12-2020, 19:28
Adesso non si chiama più scaffale, ma scalper..
La 3090 rispetto alla 3080 oltre alle performance superiori(non di molto ma lo sono, ed è un gap superiore sulla carta rispetto a quello 6800 xt/6900 xt) ha anche 14gb di vram in più, che in gaming sicuramente non si usano, ma lato professionale sono tanta roba(24gb di vram li aveva la titan rtx da 2500 euro, questa ne costa 15000 di listino).
E' una scheda dal rapporto prezzo/prestazioni molto più scarso della 3080, ma anche la 6900 xt non scherza, con la differenza che non ti da' più vram e non ha porta neanche differenze così degne di nota rispetto alla 6800 xt.:rolleyes:
Stiamo valutando delle schede per il gaming, non è che la memoria conta solo per la 3090 e per le altre nVidia non conta. Prima leggevo che i 16GB della 6800XT e della 6800 erano inutili (rispetto agli 8 e 10 della 3070 e 3080), ed desso diventano tanta roba, quando lato professionale nessuno userebbe una 3090 e si sta discutendo di prestazioni gaming.
La 6900XT in 4K, in questo test, si differenzia di un 1% rispetto ad una 3090, che però costa il 50% in più.
Stiamo dunque dicendo che il solo RT, dove prevale la 3090, giustificherebbe 500 euro in più, rispetto ai 1000 che costa la 6900XT. Addirittura che la 6900XT sarebbe inutile a questi prezzi.
Io concordo che sono prezzi assurdi, ma sicuramente se mi puntassero la pistola alla testa obbligandomi a scegliere tra le due, opterei per la AMD, non pago il 50% in più per avere solo prestazioni migliori in RT. Con il rischio che domani, con i nuovi giochi, nVidia perda molto del suo vantaggio.
OrazioOC
08-12-2020, 20:15
Stiamo valutando delle schede per il gaming, non è che la memoria conta solo per la 3090 e per le altre nVidia non conta. Prima leggevo che i 16GB della 6800XT e della 6800 erano inutili (rispetto agli 8 e 10 della 3070 e 3080), ed desso diventano tanta roba, quando lato professionale nessuno userebbe una 3090 e si sta discutendo di prestazioni gaming.
La 6900XT in 4K, in questo test, si differenzia di un 1% rispetto ad una 3090, che però costa il 50% in più.
Stiamo dunque dicendo che il solo RT, dove prevale la 3090, giustificherebbe 500 euro in più, rispetto ai 1000 che costa la 6900XT. Addirittura che la 6900XT sarebbe inutile a questi prezzi.
Io concordo che sono prezzi assurdi, ma sicuramente se mi puntassero la pistola alla testa obbligandomi a scegliere tra le due, opterei per la AMD, non pago il 50% in più per avere solo prestazioni migliori in RT. Con il rischio che domani, con i nuovi giochi, nVidia perda molto del suo vantaggio.
E' un plus la maggiore vram della 3090, ignorarla o meno costa dei soldi implementarla, e in certi ambiti fa più comodo che in altri.
Inoltre il divario tra 3080 e 3090 lato performance è più alto rispetto a quello delle due radeon top di gamma.
Che poi la 3090 sia peggiore come scheda della 3080 per giocare lo stanno dicendo tipo tutti da settembre, stessa cosa stanno dicendo i reviewer sulla 6900 xt rispetto alla 6800 xt.:rolleyes:
Io andrei (e sono attualmente) comunque su Nvidia, pur se avesse il 10% in meno di prestazioni in game a parità di costo.
CUDA, Tensorflow e NVENC ripagano appieno del 10% in meno.
Hanno un mercato a parte nel casalingo/professionale, AMD ancora questo non l'ha capito, e finchè non cambiano le capocce al marketing non lo capiranno mai.
HwWizzard
08-12-2020, 22:12
Quindi mi pare che sia per prezzo e sia per prestazioni in Ray Tracing la Best Buy rimane la Rtx 3080...
In 4K non upscalato se ti accontenti di giocare a 40-45FPS di media allora si... ma definirlo best buy risulta alquanto difficile.
Invece a 1440p dove gli FPS sono più vicini a qualcosa di giocabile direi che il best buy è la 6800 liscia.
Il tutto se le trovi a prezzi allineati a quelli annunciati.
Questa 6900XT invece mi ha deluso, mi aspettavo come minimo il pareggio sulla 3090... e che cazzo consuma 70W in meno... potevano spingerla un po per arrivare li eh. Così non ha alcun senso di esistere e a questo punto andava chiamata 6800XT e la 6800XT andava chiamata 6800 con le rispettive fasce di prezzo... ecco che mettevi il peperoncino al :ciapet: a nVidia, ma hanno preferito fare cartello.
nickname88
08-12-2020, 22:22
In 4K non upscalato se ti accontenti di giocare a 40-45FPS di media allora si... ma definirlo best buy risulta alquanto difficile.
Invece a 1440p dove gli FPS sono più vicini a qualcosa di giocabile direi che il best buy è la 6800 liscia.
Il tutto se le trovi a prezzi allineati a quelli annunciati.
Questa 6900XT invece mi ha deluso, mi aspettavo come minimo il pareggio sulla 3090... e che cazzo consuma 70W in meno... potevano spingerla un po per arrivare li eh. Così non ha alcun senso di esistere e a questo punto andava chiamata 6800XT e la 6800XT andava chiamata 6800 con le rispettive fasce di prezzo... ecco che mettevi il peperoncino al :ciapet: a nVidia, ma hanno preferito fare cartello.La delusione è frequente fra i fanatici, specie quelli che dicevano che la 6900XT avrebbe BASTONATO la 3090 e che non si sapeva come scalasse l'architettura nonostante fosse presente già la 6800 liscia e fosse già ampiamente noto come scalava anche al salire della frequenza.
Era palese e chiaro e io l'avevo detto, e non che ci voleva molto, bastava levarsi il paraocchi.
Si potevano spingerla di più, poi guardi altre reviews fuori da hwup e scopri che va appena poco meglio della 3080, salvo perdere poi in tutto il resto.
Oh i consumi non li citiamo mai mi raccomando :O
Giusto per completezza citare i consumi ma è pur vero che trattandosi di schede top è un dato che lascia il tempo che trova.. perchè escludo che all'utenza di queste schede freghi più del nulla cosmico.
Tu se vai a comprare un Lamborghini chiedi quanto fa con un litro? :rolleyes:
dai grafici sembra che il SAM sia inutile su questa scheda .....
cmq recensioni che trovano il tempo che trovano dato che le schede sia AMD che Nvidia sono introvabili se non a prezzi da rapina
MiKeLezZ
08-12-2020, 22:48
è già arrivato quello del "vedrete che con i nuovi driver magici diventerà più veloce della 3090 pure in raytracing"? :O
è già arrivato quello del "vedrete che con i nuovi driver magici diventerà più veloce della 3090 pure in raytracing"? :O
Shhh che giammi sarebbe capace di dirlo :O
Ah no l’ha già fatto :D
HwWizzard
09-12-2020, 01:39
La delusione è frequente fra i fanatici, specie quelli che dicevano che la 6900XT avrebbe BASTONATO la 3090 e che non si sapeva come scalasse l'architettura nonostante fosse presente già la 6800 liscia e fosse già ampiamente noto come scalava anche al salire della frequenza.
Era palese e chiaro e io l'avevo detto, e non che ci voleva molto, bastava levarsi il paraocchi.
Si potevano spingerla di più, poi guardi altre reviews fuori da hwup e scopri che va appena poco meglio della 3080, salvo perdere poi in tutto il resto.
Beh guardi una review che posti sempre e che è credibile come te e una moneta da 3€
Ma capisco che riesci al massimo a guardare il grafico riassuntivo... e non ho voglia e tempo di spiegare perché non fa testo.
NickNaylor
09-12-2020, 03:56
Ma dove sono tutti sti professionisti che si prendono una scheda consumer per benchare cuda? chiedo per un amico
Oh i consumi non li citiamo mai mi raccomando :O
qui ne trovi quanti vuoi, ed è solo un forum italiano.
https://www.treddi.com/
Ma dove sono tutti sti professionisti che si prendono una scheda consumer per benchare cuda? chiedo per un amico
Oh i consumi non li citiamo mai mi raccomando :O
Come ti hanno già risposto all'utenza di queste schede i consumi interessano poco. Visto anche il quadro generale dell'assorbimento casalingo e come si posizionano indietro le S.video in rapporto a questo.
Tanti grafici dei consumi sanno di stucchevole spesso, specialmente tra una generazione ed un altra di schede, dove la curiosità di vedere 15 w in meno diventa come pettinare le bambole, specialmente in rapporto al restante 90% degli elettrodomestici casalinghi.
cdimauro
09-12-2020, 06:36
dai grafici sembra che il SAM sia inutile su questa scheda .....
Più che inutile, è dannoso per lo più: sono più i casi in cui crea un crollo prestazionale (anche mostruoso) che quando dà dei vantaggi (che, quando ci sono, si traducono in una manciata di FPS). Dal pezzo:
"La cattiva notizia è che non sempre abbiamo miglioramenti, come si può vedere in due risoluzioni di Hitman 2 e soprattutto Wolfenstein Youngblood, dove abbiamo incontrato un bug che ha ridotto drasticamente le prestazioni. Insomma, SAM rimane un'opzione in più da valutare caso per caso, ma non sempre - almeno nella nostra esperienza - è garanzia di maggiori prestazioni."
è già arrivato quello del "vedrete che con i nuovi driver magici diventerà più veloce della 3090 pure in raytracing"? :O
Al momento i driver "magici" hanno fatto diventare più lente le schede. Dall'articolo:
"Nel caso di Watch Dogs Legion, i nuovi driver AMD hanno rettificato un bug e l'impatto della tecnologia si è fatto più marcato di quanto visto in precedenza, in cambio di un miglioramento della qualità grafica. Di conseguenza in questo gioco le nuove Radeon RX appaiono più staccate dalla GeForce che in passato."
E a questo punto sarebbe interessante se qualcuno facesse dei test qualitativi anche nei vari giochi, per vedere se dovessero saltare fuori problemi simili.
Comunque questa 6900 è sostanzialmente inutile. Come ho già detto in un altro thread, è la miglior pubblicità che AMD avesse potuto fare alla 3800 di nVidia...
E' un plus la maggiore vram della 3090, ignorarla o meno costa dei soldi implementarla, e in certi ambiti fa più comodo che in altri.
Inoltre il divario tra 3080 e 3090 lato performance è più alto rispetto a quello delle due radeon top di gamma.
Che poi la 3090 sia peggiore come scheda della 3080 per giocare lo stanno dicendo tipo tutti da settembre, stessa cosa stanno dicendo i reviewer sulla 6900 xt rispetto alla 6800 xt.:rolleyes:
quindi, se la maggior memoria è un plus, la 3080 a 10GB e la 3070 a 8 GB sono spacciate in confronto a 6800 e 6800 XT?
qui ne trovi quanti vuoi, ed è solo un forum italiano.
https://www.treddi.com/
complimenti!
li hai trovati e contati tutti in un sol colpo e tutti insieme non sembrano superare una discussione in un bar.
La delusione è frequente fra i fanatici, specie quelli che dicevano che la 6900XT avrebbe BASTONATO la 3090 e che non si sapeva come scalasse l'architettura nonostante fosse presente già la 6800 liscia e fosse già ampiamente noto come scalava anche al salire della frequenza.
Era palese e chiaro e io l'avevo detto, e non che ci voleva molto, bastava levarsi il paraocchi.
Si potevano spingerla di più, poi guardi altre reviews fuori da hwup e scopri che va appena poco meglio della 3080, salvo perdere poi in tutto il resto.
hai ragione: https://tpucdn.com/review/amd-radeon-rx-6900-xt/images/relative-performance_3840-2160.png
il 6% per 500 euro è una cosa realmente dura da digerire per un fanatico.
:mc:
cronos1990
09-12-2020, 07:55
Beh, mi pare abbastanza ovvio quello che emerge da questi test.
In raster vanno sostanzialmente uguale, per cui una vale l'altra. La differenza sostanziale è in RT: parliamo di prestazioni di circa un terzo inferiori, va peggio pure della 2080Ti.
Certo, tutti i giochi attualmente sono stati ottimizzati in RT solo per Nvidia, per cui qualcosa andrà a limarsi molto probabilmente... ma il gap mi sembra tale che al momento se interessa il Ray Tracing la scelta è obbligata. Fermo restando che, senza DLSS, in realtà nessuna scheda esistente ancora è abbastanza performante.
Fermo restando che si tratta di costi a mio avviso assurdi, resta da vedere per chi vuole spendere una barca di soldi se quei 500 euro in più (che sono un +50%) valgono per le prestazioni in RT.
Gyammy85
09-12-2020, 08:16
La delusione è frequente fra i fanatici, specie quelli che dicevano che la 6900XT avrebbe BASTONATO la 3090 e che non si sapeva come scalasse l'architettura nonostante fosse presente già la 6800 liscia e fosse già ampiamente noto come scalava anche al salire della frequenza.
Era palese e chiaro e io l'avevo detto, e non che ci voleva molto, bastava levarsi il paraocchi.
Si potevano spingerla di più, poi guardi altre reviews fuori da hwup e scopri che va appena poco meglio della 3080, salvo perdere poi in tutto il resto.
Io ero rimasto che a stento sarebbe arrivata alla 3070
Giusto per completezza citare i consumi ma è pur vero che trattandosi di schede top è un dato che lascia il tempo che trova.. perchè escludo che all'utenza di queste schede freghi più del nulla cosmico.
Tu se vai a comprare un Lamborghini chiedi quanto fa con un litro? :rolleyes:
Su questo forum si sono fatte PER ANNI discussioni sui watt in più che rovinavano alimentatori e schede madri, di cosa stiamo parlando?
Tenetevi la vga che tira 400 watt, se vi piace così (sul super pp fatto apposta per loro, ops)
Poi vabbè la lamborghini, ma siate seri una volta tanto...
Shhh che giammi sarebbe capace di dirlo :O
Ah no l’ha già fatto :D
Secondo me hai scambiato il forum per la chat di facebook
Einhander
09-12-2020, 09:15
incredibilmente i consumi e il frame time nn importano più e sebbene si parli di schede video enthusiast sarebbe utile vedere quanto consumano se nn altro per meglio capire il livello di efficienza raggiunto da un'architettura rispetto ad un'altra.
Ovviamente quando erano le AMD a consumare di più, e parliamo di 60/70 watt allora era LA TRAGEDIA, mentre ora, magicamente, non conta più nulla.
Come la storia ci insegna nel momento in cui le rosse diventano pari e/o paragonabili/superiori alla controparte verde in un determinato aspetto allora quell'aspetto/tecnologia/feature nn ha più importanza.
vedrete che succederà la stessa cosa con il DLSS appena Amd immetterà la sua versione sul mercato.
è già successo per il frame time, per i consumi appunto, per il gpgpu e per la fisica...tutti aspetti che sono stati spinti NEL TEMPO solo per mere questioni marketing.
La cosa scandalosa di questa gen nvidia, in realtà, nn sono ne i costi (volutamente bassi a causa della pressione avvertita a causa di amd) ma che di fatto sono irreali perchè si sono prodotti talmente pochi pezzi che credere o pensare di credere che nvidia immettesse sul mercato delle gpu a quei prezzi con numeri REALMENTE massivi da renderli il prezzo comune è pura follia, e infatti è stata una scelta a tavolino.
Cosa a cui si è accodata anche amd, pena l'impossibilità di prezzare in modo adeguato a livello di concorrenza i suoi chip.
Tuttavia la cosa veramente scandalosa in casa nvidia sono quei miserrimi 10 gb di vram per una soluzione video di fascia alta (750 euro al prezzo ideale).
Persino le nuove console ne hanno a disposizione quantitativi maggiori.
E solo pwr questo le serie 3080/3070 andrebbero lasciate li dove sono.
Contrariamente la 3090 ha un quantitativo di vram estremamente appropriato per l'utenza che si prefigge di soddisfare e il suo costo, in relazione alle versioni con cosí tanta vram precedenti, è addirittura "conveniente".
Io per quanto concerne i rendering avessi la disponibilità finanziaria la prenderei istant.
ha senso eccome, se pensate che una 2080ti proponeva ancora i suoi miserrimi 11 gb a 1200 euro, averne più del doppio per 300 euro in più è assai appetibile per chi fa questo lavoro (e nn siamo pochi, fidatevi).
Contrariamente i 10 gb delle versioni 3080/3070 sono un insulto all'intelligenza.
quando poi la ragione punta verso l'rt come argomento discriminante, in 4k soprattutto, visto che in fullhd e 1440p i titoli sono cmq più che giocabili raggiungiamo l'apoteosi dell'irrazionalità.
Stiamo parlando di una tecnologia adottata poco e male da una piccolissima percentuale di titoli, intorno allo 0, qualcosa e all'interno di questa percentuale va collocata una percentuale ancora più misera di quelli che hanno hardware abbastanza potente da godersi il rt in santa pace a tutte le risoluzioni.
Ë una tecnologia nuova e a mio modo di vedere adesso è solo MARKETING e chi dice il contrario o ne è consapevole oppure non lo è e ne è vittima incosciente.
Quello che è noto è che AMD è tornata e queste schede altro nn sono che la controparte dei ryzen prima/seconda gen.
La prossima generazione, fossi nvidia, qualche leggerissimo dubbio me lo fare venire e forse anche un po di ansia. e considerando l'aumento di prestazioni tra una gen e l'altra (serie 5000/serie 6000) forse me ne farei venire pure tanta di ansia.
In un anno e mezzo siamo passati da un vantaggio estremo di nvidia lato prestazioni, consumi, tecnologie a uno svantaggio in termini di prestazioni e consumi, rimanendo avanti solo in un ambito particolare ovvero l'rt, dove amd è alla sua prima implememtazione peró, ed ha mostrato di avere prestazioni pari alla prima implementazione nvidia, e il DLSS che cmq a breve verrà immesso anche nella versione rossa.
Di questo si, ovvero del ritorno amd dovremmo esserne tutti felici.
Ma preferire una scheda già vecchia per la sua quantitä RIDICOLA di vram ad un altra per degli fps superiori a risoluzioni poco diffuse (il 4k è veramente il nulla in termini share) e su una percentuale di giochi Assolutamente irrisoria mi risulta alquanto irrazionale, a differenza del vram inferiore persino alle scatolette....
Io ero rimasto che a stento sarebbe arrivata alla 3070
Su questo forum si sono fatte PER ANNI discussioni sui watt in più che rovinavano alimentatori e schede madri, di cosa stiamo parlando?
Tenetevi la vga che tira 400 watt, se vi piace così (sul super pp fatto apposta per loro, ops)
Poi vabbè la lamborghini, ma siate seri una volta tanto...
Secondo me hai scambiato il forum per la chat di facebook
visto??? c'è voluto poco :D
daje rosico' :D
cronos1990
09-12-2020, 09:27
visto??? c'è voluto poco :D
daje rosico' :DIndubbiamente è di parte da sempre. Però sul discorso consumi ha ragione, per anni ci si è scagliati contro AMD per i consumi elevati, quale che fosse la fascia prestazionale, e ora che le parti si sono invertite magicamente diventa un parametro superfluo.
incredibilmente i consumi e il frame time nn importano più e sebbene si parli di schede video enthusiast sarebbe utile vedere quanto consumano se nn altro per meglio capire il livello di efficienza raggiunto da un'architettura rispetto ad un'altra.
cutAnche qui però metterei i puntini sulle i. Vero che AMD ha fatto un passo avanti "enorme" (recuperare un gap del genere in così poco tempo è lodevole), oltretutto con schede che consumano molto meno.
Ma è pur vero che da ora in poi giochi in RT saranno sempre di più: ci si dimentica troppo spesso che i giochi sono tarati sulle console, e il RT su quelle nuove è uno degli aspetti più pubblicizzati, e la tecnologia sulla quale in molti punteranno.
E se da un lato ancora non esistono schede in grado di gestire appieno il RT (DLSS e analoga AMD a parte), dall'altro è pur vero che tutti i test finora riportati, e non solo sulla 6900, mostrano chiaramente che Nvidia è nettamente avanti. Al netto, lo ripeto, di un'ottimizzazione dei giochi sotto questo aspetto che per forza di cose era solo per Nvidia.
Ale55andr0
09-12-2020, 09:28
Tuttavia la cosa veramente scandalosa in casa nvidia sono quei miserrimi 10 gb di vram per una soluzione video di fascia alta (750 euro al prezzo ideale).
Fermo restando che effettivamente se avessero fatto la 3080 con 12gb/384bit non avrebbero fatto un soldo di danno ma solo che un prodotto sicuramente più appetibile, le console in quei 16gb devono farci stare anche SO, app in background e codice di gioco...non è tutta memoria video eh :sofico: infatti series x dichiara apertamente 10gb dedicati alla gpu, e delle due console next gen è la più potente...in quest'ottica i 10gb della 3080 sono sufficienti, pur al pelo, biosgnerà vedere che accardà in futuro e quanto sarà futuro questo futuro :D
inoltre con la tecnologia I/O se ho ben capito il problema si riduce ulteriormente
Ale55andr0
09-12-2020, 09:38
Quello che è noto è che AMD è tornata e queste schede altro nn sono che la controparte dei ryzen prima/seconda gen.
Peccato che quelli in proporzione avessero un rapporto qualità prezzo nettamente superiore ai proci intel, mentre ste schede sono prezzate tanto quanto o di più: più della 3070 per lo scarto dello scarto (6800liscia), solo 50 meno della 3080 ma andando, almeno per ora, decisamente meno in RT della 3080 (e non parlo dei titoli ottimizzati, guardate il nuovo 3dmark che è "agnostico"...vanno la metà) per cui quei 50 euro su scheda da +/-700 sono molto poco convincenti per la scelta. Molto più conveniente invece la 6900xt della 3090, verissimo! ma in una fascia di prezzo comunque ridicolmente alta per ambe le due sia in assoluto, sia in relazione al vantaggio lillipuziano che hanno su 6800xt e 3080, e in un segmento di mercato che interessa lo 0.qualcosa % dell'utenza...
In altre parole sono sovraprezzate anche più delle nvidia: la 6900xt doveva essere la risposta alla 3080 e la 6800xt alla 3070 a 650 e 550 rispettivamente, allora vedi come si ribaltava la situazione, mettevi giacchetta a 90 e le prestazioni RT le si considerava decisamente meno visto quanto di più andavano in raster e a quel prezzo...
a differenza del vram inferiore persino alle scatolette....
vedere sopra
majinbu7
09-12-2020, 09:41
Ma il senso di questa 6900XT rispetto alla 6800XT ?:confused:
Ale55andr0
09-12-2020, 09:42
Ma il senso di questa 6900XT rispetto alla 6800XT ?:confused:
nessuno, esattamente come quello della 3090 sula 3080 comunque...(palrando di gaming per entrambe)
Quando parlate di consumi elevati ricordatevi che un conto è avere consumi elevati per avere prestazioni al top, un'altro è avere consumi elevati e non raggiungere le prestazioni delle schede rivali.
Tanto per chiarire la situazione a quei "furboni" che hanno sempre la memoria corta e la bocca larga.
nessuno, esattamente come quello della 3090 sula 3080 comunque...(palrando di gaming per entrambe)
be sembra ci sia un po' piu divario tra la 3090 e la 3080 che dalla 6800xt alla 6900.
io attualmente (avendole entrambe) vado circa un 15-25% in piu a seconda delle situazioni rispetto alla 3080. in alcuni casi ad esempio con il visore in risoluzioni strane 3,5-4k riesco a toccare il 30% di perf in piu e molto meno stuttering.
in generale comunque ha anche fps minimi molto piu alti, non so se magari la 6900 fa la stessa cosa rispetto alla 6800, non avendo test alla mano
Ale55andr0
09-12-2020, 09:51
Quando parlate di consumi elevati ricordatevi che un conto è avere consumi elevati per avere prestazioni al top, un'altro è avere consumi elevati e non raggiungere le prestazioni delle schede rivali.
Tanto per chiarire la situazione a quei "furboni" che hanno sempre la memoria corta e la bocca larga.
e col nodo di vantaggio
Su questo forum si sono fatte PER ANNI discussioni sui watt in più che rovinavano alimentatori e schede madri, di cosa stiamo parlando?
Tenetevi la vga che tira 400 watt, se vi piace così (sul super pp fatto apposta per loro, ops)
Poi vabbè la lamborghini, ma siate seri una volta tanto...
Su questo forum si sono anche dette per anni delle puttanate interstellari sapientemente mischiate alle cose serie ed utili.
Tipo le classiche crociate contro i mulini a vento di alcuni pittoreschi elementi.. vagamente fanboy.
HAI PRESENTE? :rolleyes:
Quindi ripeto. E' UNA SCHEDA TOP DI GAMMA.
Frega cazzi a nessuno se consuma 60 watt in più o in meno dell'altra. Frega solo quanto macina.
Però sul discorso consumi ha ragione, per anni ci si è scagliati contro AMD per i consumi elevati, quale che fosse la fascia prestazionale, e ora che le parti si sono invertite magicamente diventa un parametro superfluo.
Diciamo che spesso e volentieri è stato usato l'argomento consumi come pretesto o comodo appiglio per contestare determionati risultati.
Ora, almeno per quanto mi riguarda, se valuto una scheda o una CPU in primis guardo le prestazioni e subito dopo il prezzo. DOPO guardo anche i consumi per un quadro completo, ma sono comunque una cosa meno importante risptto alle prime due.
Discorso cosumi poi diventa ancor più secondario se si parla di hardware TOP.
Su questo forum si sono anche dette per anni delle puttanate interstellari sapientemente mischiate alle cose serie ed utili.
Tipo le classiche crociate contro i mulini a vento di alcini pittoreschi elementi..
HAI PRESENTE? :rolleyes:
Quindi ripeto. E' UNA SCHEDA TOP DI GAMMA.
Frega cazzi a nessuno se consuma 60 watt in più o in meno dell'altra. Frega solo quanto macina.
* amen :O
HwWizzard
09-12-2020, 10:05
Io ero rimasto che a stento sarebbe arrivata alla 3070
Su questo forum si sono fatte PER ANNI discussioni sui watt in più che rovinavano alimentatori e schede madri, di cosa stiamo parlando?
Tenetevi la vga che tira 400 watt, se vi piace così (sul super pp fatto apposta per loro, ops)
Poi vabbè la lamborghini, ma siate seri una volta tanto...
Secondo me hai scambiato il forum per la chat di facebook
Eh ma le prestazioni in raster valevano solo quando nVidia andava di più, i consumi erano importanti solo quando nVidia consumava di meno, quanto scalda e consuma la CPU valeva solo quando AMD scaldava di più e andava meno rispetto ad intel, poi contavano gli FPS che fa la CPU in game ma anche questo adesso non vale:D , poi per la GPU adesso non vale perchè il PP Samsung fa cagare :doh:
La solita coerenza di certi indidvudui... io ho cannato e pacificamente ammesso le previsioni sulla 6900XT... di un 8-10%... i soliti hanno sbagliato del 40% e si credono furbi:ciapet: MA cosa vuoi, purtroppo l'italiano medio è a questo livello... per questo all'estero spesso ti devi guardare bene dal dire che sei italiano e il paese è al livello che ci ritroviamo.
nickname88
09-12-2020, 10:23
Beh guardi una review che posti sempre e che è credibile come te e una moneta da 3€
Ma capisco che riesci al massimo a guardare il grafico riassuntivo... e non ho voglia e tempo di spiegare perché non fa testo.
Si certo la famigerata storia che Techpowerup non sia credibile, salvo poi scoprire che l'unica review in cui la 6800XT andava uguale alla 3080 era hwupgrade, ed è l'unica che al cambio di piattaforma da 10900K al Zen3 Hitman guadagna 15fps nella stessa review :rolleyes:
https://www.guru3d.com/news-story/review-average-of-17-websites-shows-6800-xt-to-be-7-4-slower-than-geforce-rtx-3080,32.html :read:
Eh già, le storielle di Locusta ( adesso reiscritto con il nome di Angel02 ) fan sempre colpo, specie quando a quelli come te il risultato non piace.
Ma capisco che riesci al massimo a guardare il grafico riassuntivoCerto perchè se guardo i titoli individualmente posso solo notare che prende paga su RDR2, Flight Simulatore, Horizon e fra poco entrerà nel club pure Cyberpunk 2077 ( un titolo da niente, meglio Godfall, quello che doveva mettere in ginocchio Nvidia vero ? )
Decisamente più elegante quindi guardare il riassuntivo e dire che la 6800XT fa il 6% di performance in meno in raster e prende paga nel resto.
bagnino89
09-12-2020, 10:25
dai grafici sembra che il SAM sia inutile su questa scheda .....
AMD fa cascare le braccia quando fa queste robe. Propone 1000 robe, ne funziona sì e no una. Boh.
nickname88
09-12-2020, 10:35
https://tpucdn.com/review/amd-radeon-rx-6900-xt/images/relative-performance_3840-2160.png[/url]
il 6% per 500 euro è una cosa realmente dura da digerire per un fanatico.
:mc:
Il 6% era riferito alla 6800XT contro la 3800 e lì sono 50$ in meno, ma con la 3080 che ti propone almeno il videogioco, mentre dall'altra parte propongono il bundle ma solo per le RX5000.
HwWizzard
09-12-2020, 10:36
be sembra ci sia un po' piu divario tra la 3090 e la 3080 che dalla 6800xt alla 6900.
io attualmente (avendole entrambe) vado circa un 15-25% in piu a seconda delle situazioni rispetto alla 3080. in alcuni casi ad esempio con il visore in risoluzioni strane 3,5-4k riesco a toccare il 30% di perf in piu e molto meno stuttering.
in generale comunque ha anche fps minimi molto piu alti, non so se magari la 6900 fa la stessa cosa rispetto alla 6800, non avendo test alla mano
Eh ti pareva :doh: tutte le recensioni parlano di un 10% ma in realtà sono 30%:doh:
Tutti cretini i recensori.:sofico:
Anche il farlocco TPU dice 10%... :mc:
E lo stesso TPU fa un'analisi dello stuttering e FPS minimi che ti smentisce...
https://www.techpowerup.com/review/zotac-geforce-rtx-3090-trinity/36.html
e se prendete per buono quello che scrive TPU allora dovete prendere tutto per buono e non solo quello che vi fa comodo.
Su HWU 6800XT e 3080 sono pari, e la 3090 va 5% in più della 6900XT
cronos1990
09-12-2020, 10:39
Diciamo che spesso e volentieri è stato usato l'argomento consumi come pretesto o comodo appiglio per contestare determionati risultati.Se non fosse che per anni chi aveva i consumi più elevati erano anche quelli che stavano dietro in prestazioni (AMD). Per cui quello hai detto è illogico.
Ora, almeno per quanto mi riguarda, se valuto una scheda o una CPU in primis guardo le prestazioni e subito dopo il prezzo. DOPO guardo anche i consumi per un quadro completo, ma sono comunque una cosa meno importante risptto alle prime due.
Discorso cosumi poi diventa ancor più secondario se si parla di hardware TOP.A me sinceramente frega poco dei consumi, e sono d'accordo che per schede TOP di fascia è un discorso relativo.
Ma ripeto: per quanto Gyammy85 sia fazioso, e anche io ho avuto modo di replicargli più volte, resta il fatto che su questo specifico aspetto ha ragione. Ci sono anni di topic di gente che, tra le altre cose, si lamentava dei consumi delle GPU AMD, a prescindere che fosse entry-level o high-end, rispetto alle schede Nvidia. E non solo (potrei citare le temperature elevate o la rumorosità, tanto per dire le prime cose che mi vengono in mente).
Se si vuole coerenza, ora queste stesse persone dovrebbero far notare che ci sono quasi 70W in meno a favore di AMD, e che hanno un peso. Tra l'altro è un valore decisamente elevato, parliamo di una differenza di circa un 20%.
Poi ripeto: per me parlare di consumi per schede da 1000-1500 euro lascia il tempo che trova, è l'ultimo dei problemi.
Quindi mi pare che sia per prezzo e sia per prestazioni in Ray Tracing la Best Buy rimane la Rtx 3080...
insomma, sempre quando nel 2021 inoltrato si troveranno, considerare una scheda videoludica da 800/900€ e piu' quando la sostituiranno con la 20GB, un best buy..:doh:
nonostante la ritrovata concorrenza la deriva che hanno preso, dovuta da vari fattori ok, la pandemia che ha fatto saltare tutte le previsioni di produzione, approvvigionamenti, ordini extra per lo smart-working, il mining..
ma la cosa che piu' mi spaventa e' chi accetta passivamente questi prezzi come normali, abbiamo sforato le quattro cifre, ma nonostante cio' e' un vero best buy:(
fortuna che vado piu' di retro gaming, per lo piu' emulatori anni80/90,qualcosa inizio millennio, ma per il modernariato veramente sto pensando di passare alle console, e cloud gaming :stordita:
nickname88
09-12-2020, 10:47
Eh ti pareva :doh: tutte le recensioni parlano di un 10% ma in realtà sono 30%:doh:
Tutti cretini i recensori.:sofico: Non hai nemmeno chiesto i titoli che ha provato. :rolleyes:
e se prendete per buono quello che scrive TPU allora dovete prendere tutto per buono e non solo quello che vi fa comodo.
Il problema è che a qualche fantatico per ogni reviews che gli fa comodo se ne trova molte di più che dan credito all'altro.
Gomblotto ?
:mc:
Eh ti pareva :doh: tutte le recensioni parlano di un 10% ma in realtà sono 30%:doh:
Tutti cretini i recensori.:sofico:
Anche il farlocco TPU dice 10%... :mc:
E lo stesso TPU fa un'analisi dello stuttering e FPS minimi che ti smentisce...
https://www.techpowerup.com/review/zotac-geforce-rtx-3090-trinity/36.html
e se prendete per buono quello che scrive TPU allora dovete prendere tutto per buono e non solo quello che vi fa comodo.
Su HWU 6800XT e 3080 sono pari, e la 3090 va 5% in più della 6900XT
ma sai leggere? ho detto in alcune applicazioni/giochi, cosa che i recensori non hanno fatto. vedi test di no man sky in vr? lo sapro' meglio io che ce l'ho piuttosto che recensori che non le hanno mai fatte e fanno i soliti 4 titoli in croce che si ripetono in tutte le review pure copiate, non credi?
ti devo postare i bench? lo sai che su borderlands faccio quasi un 20% in piu con qualita duro in 4k? metro exodus idem con patate. non c'è problema eh. a differenza tua non son un cieco fanboy e questo vostro atteggiamento è alquanto irritante.
ce l'hai almeno una di queste schede amd o nvidia visto che parli tanto?
HwWizzard
09-12-2020, 10:51
Si certo la famigerata storia che Techpowerup non sia credibile, salvo poi scoprire che l'unica review in cui la 6800XT andava uguale alla 3080 era hwupgrade, ed è l'unica che al cambio di piattaforma da 10900K al Zen3 Hitman guadagna 15fps nella stessa review :rolleyes:
https://www.guru3d.com/news-story/review-average-of-17-websites-shows-6800-xt-to-be-7-4-slower-than-geforce-rtx-3080,32.html :read:
Eh già, le storielle di Locusta fan sempre colpo, specie quando a quelli come te il risultato non piace.
Certo perchè se guardo i titoli individualmente posso solo notare che prende paga su RDR2, Flight Simulatore, Horizon e fra poco entrerà nel club pure Cyberpunk 2077 ( un titolo da niente, meglio Godfall, quello che doveva mettere in ginocchio Nvidia vero ? )
Decisamente più elegante quindi guardare il riassuntivo e dire che la 6800XT fa il 6% di performance in meno in raster e prende paga nel resto.
Tu per il culto a San Giacchetta hai sacrificato sia logica che matematica.
Finchè TPU fa la media delle prestazioni in questo modo:
https://www.techpowerup.com/review/amd-radeon-rx-6900-xt/30.html
Continuerà ad essere credibile come te e la moneta da 3Eur
500 in meno ?
Il 6% era riferito alla 6800XT contro la 3800 e lì sono 50$ in meno, ma con la 3080 che ti propone almeno il videogioco, mentre dall'altra parte propongono il bundle ma solo per le RX5000.
Parli della 6900XT ? Perchè un certo "HWWizard" qualche posta fa se proprio vuoi saperlo ha dichiarato espressamente che la 6900XT avrebbe BASTONATO la 3090 e invece va il 2% meglio della 3080.
Vogliamo parlare di quando scrivevi con i tuoi compagni di merende che AMD al massimo ma proprio ad essere larghi avrebbe raggiunto la 2080Ti?
Tra un po,di questo passo, posterai il delirio di qualcuno dove la 6800XT viene battuta dalla 3060Ti:doh:
HwWizzard
09-12-2020, 11:05
ma sai leggere? ho detto in alcune applicazioni/giochi, cosa che i recensori non hanno fatto. vedi test di no man sky in vr? lo sapro' meglio io che ce l'ho piuttosto che recensori che non le hanno mai fatte e fanno i soliti 4 titoli in croce che si ripetono in tutte le review pure copiate, non credi?
ti devo postare i bench? lo sai che su borderlands faccio quasi un 20% in piu con qualita duro in 4k? non c'è problema eh. a differenza tua non son un cieco fanboy e questo vostro atteggiamento è alquanto irritante.
ce l'hai almeno una di queste schede amd o nvidia visto che parli tanto?
Io so leggere benissimo, sei tu che a furia di deviare la realtà poi ti metti in trappola da solo.
Tu hai scritto che vai in media dal 15% al 25% in più... che cacchio di media è dal 15 al 25 poi lo saprai tu, la media è un numero preciso.
Tanto per precisare la media fatta da TPU è basata su 23 titoli e non 4 come vuoi spacciare tu.
Ah adesso uno deve avere la scheda per poter parlare su dati molto più affidabili di quello che dice qualcuno senza uno straccio di prova? Tranquillo ho altro da fare che prendermi addirittura 2 schede overpriced per giovare. Quando ne avrò voglia me la prendo, probabilmente per le feste visto che starò a casa.
Poi puoi anche smettere di fare il figo con il continuare a ripetere che le hai tutte e 2 (ma poi stai tutto il giorni li a switchare le VGA per fare comparative e analizzare con la lente d'ingrandimento gli effetti RT?:mc: ), alla fine sono al massimo 3000 Eur... più o meno quello che costa lo zaino nel quale porto in giro il notebook. O quello che può costare una cena per 4 persone in un ristorante come si deve. Niente con cui impressionare la gente.
Poi curioso che tu e il tuo amico mi diate del fanatico :doh: :mc: ci sono i post dove dico che la 3080 è preferibile alla 6800XT....
Gyammy85
09-12-2020, 11:07
Quando parlate di consumi elevati ricordatevi che un conto è avere consumi elevati per avere prestazioni al top, un'altro è avere consumi elevati e non raggiungere le prestazioni delle schede rivali.
Tanto per chiarire la situazione a quei "furboni" che hanno sempre la memoria corta e la bocca larga.
e col nodo di vantaggio
Su questo forum si sono anche dette per anni delle puttanate interstellari sapientemente mischiate alle cose serie ed utili.
Tipo le classiche crociate contro i mulini a vento di alcuni pittoreschi elementi.. vagamente fanboy.
HAI PRESENTE? :rolleyes:
Quindi ripeto. E' UNA SCHEDA TOP DI GAMMA.
Frega cazzi a nessuno se consuma 60 watt in più o in meno dell'altra. Frega solo quanto macina.
Diciamo che spesso e volentieri è stato usato l'argomento consumi come pretesto o comodo appiglio per contestare determionati risultati.
Ora, almeno per quanto mi riguarda, se valuto una scheda o una CPU in primis guardo le prestazioni e subito dopo il prezzo. DOPO guardo anche i consumi per un quadro completo, ma sono comunque una cosa meno importante risptto alle prime due.
Discorso cosumi poi diventa ancor più secondario se si parla di hardware TOP.
Si si certo vega blablabla
https://static.techspot.com/articles-info/2160/bench/perfperwatt.png
Eppure praticamente oggi come oggi ha la stessa differenza di perf/watt che c'è fra ampere e rdna2 top, certo la 6800 non la citiamo neanche e facciamo finta che non esista (+15% sulla ex regina fps dream machine ma vabbè)
Ovvio che col parco titoli di tre anni fa ottimizzato sui geo e sulla compressione di pascal non facevi gli stessi risultati, ma è un classico spostare il plot prima sugli "sconfinati open world pieni di erba e sassi sulla cpu e sui geo" e ora sui "riflessi in dxr 1.0 legacy senza supporto alla cache in emulazione"
Liberi di farvi la rig da enthusiast con 1000 watt minimo fra 10900k occato e 400 watt di 3090, anzi no mettiamoci il bios da 600 watt così prendiamo forse la 6900xt il lieve oc ad aria e postiamo il record (forse) sul 3dmark, ops
A 8k non ci gioca più nessuno? ehhhh lo spot della 3090 "puoi giocare a 8k up to 60 fps upscalato da 1440p"
https://www.youtube.com/watch?v=aeTfgY3Hz40
Si lo so faccio sempre cherry picking
Dragon2002
09-12-2020, 11:18
Prestazioni praticamente identiche alla 6800xt, questa scheda è ottima per lo scaffale.
Io so leggere benissimo, sei tu che a furia di deviare la realtà poi ti metti in trappola da solo.
Tu hai scritto che vai in media dal 15% al 25% in più... che cacchio di media è dal 15 al 25 poi lo saprai tu, la media è un numero preciso.
Tanto per precisare la media fatta da TPU è basata su 23 titoli e non 4 come vuoi spacciare tu.
Ah adesso uno deve avere la scheda per poter parlare su dati molto più affidabili di quello che dice qualcuno senza uno straccio di prova? Tranquillo ho altro da fare che prendermi addirittura 2 schede overpriced per giovare. Quando ne avrò voglia me la prendo, probabilmente per le feste visto che starò a casa.
Poi puoi anche smettere di fare il figo con il continuare a ripetere che le hai tutte e 2 (ma poi stai tutto il giorni li a switchare le VGA per fare comparative e analizzare con la lente d'ingrandimento gli effetti RT?:mc: ), alla fine sono al massimo 3000 Eur... più o meno quello che costa lo zaino nel quale porto in giro il notebook. O quello che può costare una cena per 4 persone in un ristorante come si deve. Niente con cui impressionare la gente.
Poi curioso che tu e il tuo amico mi diate del fanatico :doh: :mc: ci sono i post dove dico che la 3080 è preferibile alla 6800XT....
io non mi metto in trappola proprio su niente... so benissimo di cosa sto parlando, non ho niente di cui fare il figo è evidente che non mi conosci quindi evita di sparlare a caso.
solo semplicemente un appassionato e monto computer per me e per altri tutti i santi giorni per lavoro e per passione.
e te stai calmo
HwWizzard
09-12-2020, 11:25
Si si certo vega blablabla
https://static.techspot.com/articles-info/2160/bench/perfperwatt.png
Eppure praticamente oggi come oggi ha la stessa differenza di perf/watt che c'è fra ampere e rdna2 top, certo la 6800 non la citiamo neanche e facciamo finta che non esista (+15% sulla ex regina fps dream machine ma vabbè)
Ovvio che col parco titoli di tre anni fa ottimizzato sui geo e sulla compressione di pascal non facevi gli stessi risultati, ma è un classico spostare il plot prima sugli "sconfinati open world pieni di erba e sassi sulla cpu e sui geo" e ora sui "riflessi in dxr 1.0 legacy senza supporto alla cache in emulazione"
Liberi di farvi la rig da enthusiast con 1000 watt minimo fra 10900k occato e 400 watt di 3090, anzi no mettiamoci il bios da 600 watt così prendiamo forse la 6900xt il lieve oc ad aria e postiamo il record (forse) sul 3dmark, ops
A 8k non ci gioca più nessuno? ehhhh lo spot della 3090 "puoi giocare a 8k up to 60 fps upscalato da 1440p"
https://www.youtube.com/watch?v=aeTfgY3Hz40
Si lo so faccio sempre cherry picking
Comunque in OC scala da schifo la 6900XT.
https://www.guru3d.com/articles_pages/amd_radeon_rx_6900_xt_review,31.html
2% a 2.5Ghz evidentemente il chip è studiato per dare il max a 2.2Ghz contenendo anche i consumi che rispetto alla 3090 consuma 70W in meno.
io non mi metto in trappola proprio su niente... so benissimo di cosa sto parlando, non ho niente di cui fare il figo è evidente che non mi conosci quindi evita di sparlare a caso.
solo semplicemente un appassionato e monto computer per me e per altri tutti i santi giorni per lavoro e per passione.
e te stai calmo
Il fatto di non conoscerti, ma vedendo ciò e come scrivi, è solo un'altra cosa positiva nella mia vita.
E più calmo di così si muore
Comunque in OC scala da schifo la 6900XT.
https://www.guru3d.com/articles_pages/amd_radeon_rx_6900_xt_review,31.html
2% a 2.5Ghz evidentemente il chip è studiato per dare il max a 2.2Ghz contenendo anche i consumi che rispetto alla 3090 consuma 70W in meno.
Il fatto di non conoscerti, ma vedendo ciò e come scrivi, è solo un'altra cosa positiva nella mia vita.
E più calmo di così si muore
"ciò" e come scrivo?
non ti piace quello che scrivo perche va contro le tue idee, sai cosa? non me ne puo' fregare di meno...
la prossima evita di rispondermi cosi almeno hai anche un ulteriore cosa positiva nella tua vita che perdere tempo a scrivermi no? ;)
Einhander
09-12-2020, 11:32
Fermo restando che effettivamente se avessero fatto la 3080 con 12gb/384bit non avrebbero fatto un soldo di danno ma solo che un prodotto sicuramente più appetibile, le console in quei 16gb devono farci stare anche SO, app in background e codice di gioco...non è tutta memoria video eh :sofico: infatti series x dichiara apertamente 10gb dedicati alla gpu, e delle due console next gen è la più potente...in quest'ottica i 10gb della 3080 sono sufficienti, pur al pelo, biosgnerà vedere che accardà in futuro e quanto sarà futuro questo futuro :D
inoltre con la tecnologia I/O se ho ben capito il problema si riduce ulteriormente
E qui ti volevo infatti.
Le nuove nvidia sono al pelo in relazione al dimensionamento della memoria video con le nuove console, anzi con la sola Xbox series X, dato che la ps5 sembra addirittura meno potente.
Tuttavia sappiamo benissimo entrambi che le console godono di un'ottimizzazione lato hardware e software che in generale le loro versioni pc non hanno.
Gia' con alcuni giochi dell'attuale generazione si passano allegramente gli 8 gb andando oltre il fullhd, perche' dovrei pensare che non avvenga lo stesso per quei giochi che su console usano 9-10gb di vram?
Tenendo conto che molto spesso i porting su pc si portano dietro spesso e volentieri texture piu' definite e in generale opzioni video piu' spinte.
Il punto e' che se sei al pelo come dici tu, o addirittura sotto -vedi gpu con 8 giga di vram- non hai un'aspettativa di vita molto lunga.
E sebbene non capisca la scelta per la 3070 e i suoi 8gb -praticamente una condanna a morte- figurati che senso puo' avere averne "solo" 10 sulla 3080, salvo avere in mente di far uscire una bellissima 3080ti con un quantitativo GIUSTO ma un prezzo dalle parti della 6900 o addirittura potenzialmente superiore.
Il punto e' che nvidia e' sempre stata avara in termini di ram, anche perche' questo causa un invecchiamento precoce di alcune sue architetture in funzione dei titoli che nel tempo fanno SEMPRE maggiore uso della memoria video.
Tu che dici tanto male della 6800 liscia, intanto, a mio modo di vedere e' una delle schede video con l'aspettativa di vita piu' lunga, in relazione anche al costo -ovviamente quello vero, non quello attuale- di tutte le nuove gpu presentate.
A fronte di quanto detto e delle esperienze passate nei titoli portati da console a pc si e' sempre avuta una ottimizzazione di gran lunga inferiore la quale ha comportato molto spesso un consumo maggiore anche in termini di memoria video -e non sto tirando fuori robe tipo impostazioni ultra su ombre o 4k NATIVO-.
Per il discorso DLSS e' assolutamente vero che manca ad amd, ma e' anche quello che mi preoccupa meno onestamente...il problema e' che con questi stratagemmi si abitua l'utenza, con la scusa delle prestazioni, ad una qualita' visiva di volta in volta sempre inferiore.
Considerando i casi migliori in cui il DLSS funziona per bene il risultato, PER ME ed i miei occhi, e' sempre e ripeto SEMPRE inaccettabilmente INFERIORE alla risoluzione nativa.
Punto.
Senza contare che e' una implicita affermazione nonche' prova evidente di come la tecnologia RT sia effettivamente ed attualmente, puro marketing.
Einhander
09-12-2020, 11:33
500 in meno ?
Il 6% era riferito alla 6800XT contro la 3800 e lì sono 50$ in meno, ma con la 3080 che ti propone almeno il videogioco, mentre dall'altra parte propongono il bundle ma solo per le RX5000.
Parli della 6900XT ? Perchè un certo "HWWizard" qualche posta fa se proprio vuoi saperlo ha dichiarato espressamente che la 6900XT avrebbe BASTONATO la 3090 e invece va il 2% meglio della 3080.
non so se ricordi che c'era gente che sosteneva che la serie 6000 si sarebbe al massimo scontrata in termini di prestazioni ASSOLUTE con la futura 3070 al massimo :asd:
O che avrebbero consumato o scaldato come una centrale nucleare :rolleyes:
HwWizzard
09-12-2020, 11:35
"ciò" e come scrivo?
non ti piace quello che scrivo perche va contro le tue idee, sai cosa? non me ne puo' fregare di meno...
la prossima evita di rispondermi cosi almeno hai anche un ulteriore cosa positiva nella tua vita che perdere tempo a scrivermi no? ;)
Ecco bravo, tu fai lo stesso e almeno su qualcosa siamo d'accordo :mano:
nickname88
09-12-2020, 11:39
Vogliamo parlare di quando scrivevi con i tuoi compagni di merende che AMD al massimo ma proprio ad essere larghi avrebbe raggiunto la 2080Ti?
Tra un po,di questo passo, posterai il delirio di qualcuno dove la 6800XT viene battuta dalla 3060Ti:doh:AH SI ?
PREGO LINKAMI IL POST. :read:
Sarà ben difficile visto che non l'ho mai detto, adesso cominci ad inventarti le cose per difenderti ? :rolleyes:
Cadi proprio in basso !
https://i.ibb.co/5rHCQ4v/Cattura.jpg
Questo è il TUO, adesso postaci il MIO prego.
C'è pure la str0nzata della 6900XT che avvicina la 3080 nel RT, questa mi era sfuggita.
La 6800XT è spesso dietro anche alla 2080Ti e come avrebbe potuto la 6900XT avvicinarsi con soli 8CU in più e basta lo sai solo tu.
Dopo le tue comiche del .... :
- Il DLSS che non serve ad un tubo ( perchè AMD non ce l'ha più che altro )
- Il DLSS "scarica la grafica da internet", e sto citando testualmente.
- Gli elogi alle performance in RT della RX6800 nel thread di WDL un attimo prima di scoprire la verità.
- Le critiche all'RT nello stesso thread di WDL il giorno dopo l'elogio, dopo aver scoperto che le performance sopra citate erano dovute al minor dettaglio prodotto dalle schede AMD.
- La 6900XT che avrebbe bastonato la 3090
- Non sappiamo come scali l'architettura ( nonostante la presenza di 2 modelli precedentemente presenti )
:rolleyes:
HwWizzard
09-12-2020, 11:40
non so se ricordi che c'era gente che sosteneva che la serie 6000 si sarebbe al massimo scontrata in termini di prestazioni ASSOLUTE con la futura 3070 al massimo :asd:
Beh gli stessi che vedono la 3080 nettamente superiore alla 6800XT e la 3070 praticamente pari alla 6800 :D Ma siamo in democrazia e c'è libertà d'espressione:sofico:
Einhander
09-12-2020, 11:49
AH SI ?
PREGO LINKAMI IL POST. :read:
Sarà ben difficile visto che non l'ho mai detto, adesso cominci ad inventarti le cose per difenderti ? :rolleyes:
Cadi proprio in basso !
Dopo le comiche del .... :
- Il DLSS che non serve ad un tubo
- Gli elogi alle performance in RT della RX6800
- Le critiche all'RT nel thread di WD il giorno dopo l'elogio, dopo aver scoperto che le performance sopra citate erano dovute al minor dettaglio prodotto dalle schede AMD.
- La 6900XT che avrebbe bastonato la 3090
- Non sappiamo come scali l'architettura nonostante la presenza di 2 modelli precedentemente presenti.
:rolleyes:
Le critiche alle capacita' rt di amd lasciano il tempo che trovano in quanto al peggio sono allineate alla gen precedente delle nvidia, non al nulla cosmico.
Considerando le IMMANI vendite delle ultime arrivate -sia per amd che per nvidia- direi che TUTTO il mondo sta provando il ray tracing con prestazioni da precedente gen e non attuale -lato nvidia- e immagino che chi ha una serie 2000 e non intenda passare alla serie 3000 continuera a godersi il miraggio dell'RT con la stessa qualita' con cui lo fanno gli utenti amd.
La differenza e' il DLSS -che per me e' il male, ma vabbeh- e analogo amd -il male pure quello- CHE IO NON ATTIVEREI MAI, troppi artefatti, se poi si sceglie di non vederli allora possiamo anche non vedere differenze di settaggi tra low e ultra :asd:.
Tenendo sempre ben in mente che in fullhd anche in caso di uso pesante dell'RT si gioca tranquillamente a tutto -e il "tutto" attualmente, e' ottimizzato per nvidia, cosa che non succedera' per i nuovi titoli-.
Tutto questo per dire che ovviamente la serie 3000 di nvidia e' obiettivamente avanti lato RT, ma per quanto mi riguarda i suoi vantaggi si esauriscono qui.
Lato efficienza dell'architettura -che era il tallone di achille delle amd da troppi anni- siam passati dallo svantaggio immane rispetto ad nvidia al grande vantaggio di amd.
Idem per il frametiming.
P.s.: le 6800/xt si occano invece non c'e' male, e sono molto buone anche in termini di resa in relazione al downvolt per chi ama smanettare con questi parametri, altro aspetto che segna un punto a favore per l'efficienza della nuova architettura.
Mi vien da pensare a cosa succedera' quando sempre piu' titoli userano la cache della xbox series x in maniera non dissimile all'uso che ne fa rdna2 con la sua inifinity cache -sia per l'rt, lato bhv, sia lato raster per ottimizzare il flusso di dati da e verso la memoria video- :)
Amd attualmente si sta scontrando con un parco giochi, lato RT, ottimizzato esclusivamente per hardware nvidia. Questa cosa non durera' oltre, se non per quei titoli che nvidia foraggera' direttamente per avere un'ottimizzazione particolarmente buona per la sua architettura.
Ma saranno SEMPRE inferiori in termini di numeri rispetto all'ottimizzazione di cui godra' amd proprio per le similitudini architetturali tra le gpu per console e pc.
cronos1990
09-12-2020, 11:54
La differenza e' il DLSS -che per me e' il male, ma vabbeh- e analogo amd -il male pure quello- CHE IO NON ATTIVEREI MAI, troppi artefatti, se poi si sceglie di non vederli allora possiamo anche non vedere differenze di settaggi tra low e ultra :asd:.
Tenendo sempre ben in mente che in fullhd anche in caso di uso pesante dell'RT si gioca tranquillamente a tutto -e il "tutto" attualmente, e' ottimizzato per nvidia, cosa che non succedera' per i nuovi titoli-.Dubbio.
Io ho una 5700XT, per cui non so come funziona di preciso il DLSS; e evito di dire cosa ne penso (cosa che peraltro ho già fatto in altri topic).
Ma a quanto ho letto più volte e da diverse fonti, i problemi degli artefatti era presente con le prime iterazioni del DLSS. Dalla 2.0 questi problemi, a quanto ne so, sono spariti.
L'unico difetto riscontrabile riguarderebbe solo i bordi dello schermo (e presumo si parli di righe di pixel) che non è aggirabile perchè dipende dal modo in cui opera il DLSS.
Einhander
09-12-2020, 11:59
Dubbio.
Io ho una 5700XT, per cui non so come funziona di preciso il DLSS; e evito di dire cosa ne penso (cosa che peraltro ho già fatto in altri topic).
Ma a quanto ho letto più volte e da diverse fonti, i problemi degli artefatti era presente con le prime iterazioni del DLSS. Dalla 2.0 questi problemi, a quanto ne so, sono spariti.
L'unico difetto riscontrabile riguarderebbe solo i bordi dello schermo (e presumo si parli di righe di pixel) che non è aggirabile perchè dipende dal modo in cui opera il DLSS.
Ma nsomma...prendendo ad esempio uno dei casi migliori ovvero death stranding andrebbe detto che ci sono notevoli artefatti ogni volta che si ha a che vedere con elementi molto "fini" o sottili se preferisci in cui l'algoritmo diventa creativo e bella li'.
Per alcuni sono difetti trascurabili, per altri meno.
Per me e' come se fossero fluorescenti :stordita:
In generale e' opinione comune che funzioni molto bene, ma secondo la maggior parte delle persone funziona bene anche FX AA.
E ho detto tutto.
:rolleyes:
AH SI ?
PREGO LINKAMI IL POST. :read:
Sarà ben difficile visto che non l'ho mai detto, adesso cominci ad inventarti le cose per difenderti ? :rolleyes:
Cadi proprio in basso !
https://i.ibb.co/5rHCQ4v/Cattura.jpg
Questo è il TUO, adesso postaci il MIO prego.
C'è pure la str0nzata della 6900XT che avvicina la 3080 nel RT, questa mi era sfuggita.
La 6800XT è spesso dietro anche alla 2080Ti e come avrebbe potuto la 6900XT avvicinarsi con soli 8CU in più e basta lo sai solo tu.
Dopo le tue comiche del .... :
- Il DLSS che non serve ad un tubo ( perchè AMD non ce l'ha più che altro )
- Il DLSS "scarica la grafica da internet", e sto citando testualmente.
- Gli elogi alle performance in RT della RX6800 nel thread di WDL un attimo prima di scoprire la verità.
- Le critiche all'RT nello stesso thread di WDL il giorno dopo l'elogio, dopo aver scoperto che le performance sopra citate erano dovute al minor dettaglio prodotto dalle schede AMD.
- La 6900XT che avrebbe bastonato la 3090
- Non sappiamo come scali l'architettura ( nonostante la presenza di 2 modelli precedentemente presenti )
:rolleyes:
AH MA ERA PROPRIO LUI CHE AVEVA DETTO BASTONERA' LA 3090
e mi riprendeva pure....
:rotfl: :rotfl: :rotfl: :rotfl:
nickname88
09-12-2020, 12:02
Beh gli stessi che vedono la 3080 nettamente superiore alla 6800XT e la 3070 praticamente pari alla 6800 :D Ma siamo in democrazia e c'è libertà d'espressione:sofico:
Sto ancora aspettando il post in cui io avrei detto quelle cose.
Ah adesso va pure bene che la 6800XT è dietro alla 3080 ?
Se non sbaglio le slide di AMD riferiscono ( tempo presente ) una tendenza della 6800XT SOPRA la 3080, e fino a prima del 18 Nov già affermavate che la 6800XT sarebbe andata tendenzialmente DI PIU' nel raster.
Adesso invece scopriamo che vanno simili ma con la AMD tendenzialmente sotto e non più sopra e va bene ?
Sbaglio o qualche post fa hai sostenuto che andavano uguali lasciando intendere che le altre reviews lasciavano a desiderare ?
AceGranger
09-12-2020, 12:03
Gia' con alcuni giochi dell'attuale generazione si passano allegramente gli 8 gb andando oltre il fullhd, perche' dovrei pensare che non avvenga lo stesso per quei giochi che su console usano 9-10gb di vram?
Tenendo conto che molto spesso i porting su pc si portano dietro spesso e volentieri texture piu' definite e in generale opzioni video piu' spinte.
è sempre il solito discorso fra Vram necessaria e di cache....
un po come godfall, che doveva occupare ventordici GB di Vram e mettere in crisi subito le 3080 e poi si scopre ancora una volta cos'è la cache e che va piu forte la 3080 della 6900XT.
https://www.hwupgrade.it/articoli/5906/godfall.png
e puoi notare anche come non solo era tutta cache quella Vram delle news, ma la 3080 va a guadagnare proprio nel 4K dove la 6900XT perde tutto il vantaggio che aveva a 1080p; ergo, le texture in quella Vram ci stanno alla grande ed è molto piu utile la banda passante fra Vram e chip, che la dimensione della Vram....
Il problema della Vram lo puoi avere se il gioco risiede su un sistema di storage di topolino; il PCi-EX 4.0 e SSD servono piu a quello che altro ;); piu saliranno le prestazioni dell'hardware storage e piu te ne potrai fregare della Vram ( in gaming ovviamente );
vedremo nei prossimi anni, ma non credo che vedremo a breve giochi con ram minima 8GB, e con minima intendo proprio quella minima per eseguire il gioco.
nickname88
09-12-2020, 12:04
AH MA ERA PROPRIO LUI CHE AVEVA DETTO BASTONERA' LA 3090
e mi riprendeva pure....
:rotfl: :rotfl: :rotfl: :rotfl:Si ed è lo stesso che credeva che il DLSS consisteva nello "scaricare la grafica da internet", per questo aumentavano i frames, secondo lui in pratica era un servizio in cloud ! :read:
un po come godfall, che doveva occupare ventordici GB di Vram e mettere in crisi subito le 3080 e poi si scopre ancora una volta cos'è la cache e cheva piu forte la 3080 della 6900XT.
https://www.hwupgrade.it/articoli/5906/godfall.png
Questo invece è il gioco in cui AMD doveva dominare in lungo e in largo, e infatti almeno da questo grafico in prima fila son tutte Nvidia, con la "bastonatrice" ( secondo HWWizard ) dietro alla 3080.
Einhander
09-12-2020, 12:12
Il punto e' che non si cura ormai, durante le recensioni, in dettaglio l'aspetto prettamente visivo, a livello di pixel e quant'altro, come si faceva un tempo, per vedere e misurare anche l'efficienza dei vari filtri AA e annessi applicabili ed usati dalle rispettive gpu -nvidia e amd-.
Parimenti mi pare che l'attenzione sia sempre piu' verso la quantita' degli effetti visibili a schermo, ma sempre meno sulla loro qualita'.
In maniera analoga a quanto succede nel cinema, un uso massivo di effetti speciali, nel caso del medium videoludico li chiameremo semplicemente "effetti" dai vari bloom, hdr, motion blur -altro caso di male assoluto- ecc ecc, ci si e' ben guardati negli anni dall'analizzarne l'effettiva qualita'. Parlo del singolo filtro/effetto usato nel gioco e come esso renda su un architettura o su un altra (esempio a caso: il motion blur) -e non mi riferisco ai video comparativi che lasciano il tempo che trovano- attraverso l'uso di software specificatamente concepiti per analizzarne in dettaglio la qualita'.
Ritornando al cinema questo e' il motivo per cui i vfx di avengers fanno pena rispetto ad un qualsiasi film di blomkamp e/o cameron.
Ma nella malebolgia totale delle scene e nel loro saturare completamente o quasi l'estetica della scena ovviamente non ci si fa caso, troppi dettagli, cose in movimento ecc ecc, e a pagarne le conseguenze, in realta, e' proprio la resa finale.
Sto notando come succeda lo stesso nel mondo dei videogame in cui si inseriscono sempre nuove effetti di illuminazione, particellari e quant'altro ma la somma delle parti, purtroppo, genera un risultato che qualitativamente non sempre e' all'altezza delle potenzialita' delle tecnologie usate.
Colori sempre piu' iper-saturi (estetiche sempre piu' vicine alla casetta del mulino bianco), contrasti veramente al limite del decente e poi il tutto condito con affermazioni in merito alla grafica che sfociano nell'uso di parole come "fotorealistico" e a volte, mi vien da pensare, che una delle luce migliori che ho visto, in termini di pulizia mi rimane quella del primo crysis.
:rolleyes:
Seppur tendente al freddo.
Si ed è lo stesso che credeva che il DLSS consisteva nello "scaricare la grafica da internet", per questo aumentavano i frames, secondo lui in pratica era un servizio in cloud ! :read:
Questo invece è il gioco in cui AMD doveva dominare in lungo e in largo, e infatti almeno da questo grafico in prima fila son tutte Nvidia, con la "bastonatrice" ( secondo HWWizard ) dietro alla 3080.
no te prego non ce credo...
dovrebbe cmq esserci un segnetto distintivo nel logo di queste persone cosi uno evita anche di perderci tempo a rispondere... cioe altro che abbassarsi di livello... gli ho pure risposto :cry:
Einhander
09-12-2020, 12:17
è sempre il solito discorso fra Vram necessaria e di cache....
un po come godfall, che doveva occupare ventordici GB di Vram e mettere in crisi subito le 3080 e poi si scopre ancora una volta cos'è la cache e che va piu forte la 3080 della 6900XT.
https://www.hwupgrade.it/articoli/5906/godfall.png
e puoi notare anche come non solo era tutta cache quella Vram delle news, ma la 3080 va a guadagnare proprio nel 4K dove la 6900XT perde tutto il vantaggio che aveva a 1080p; ergo, le texture in quella Vram ci stanno alla grande ed è molto piu utile la banda passante fra Vram e chip, che la dimensione della Vram....
Il problema della Vram lo puoi avere se il gioco risiede su un sistema di storage di topolino; il PCi-EX 4.0 e SSD servono piu a quello che altro ;); piu saliranno le prestazioni dell'hardware storage e piu te ne potrai fregare della Vram ( in gaming ovviamente );
vedremo nei prossimi anni, ma non credo che vedremo a breve giochi con ram minima 8GB, e con minima intendo proprio quella minima per eseguire il gioco.
Dai Ace lo sai meglio di me che non mi riferivo ai giochi appena usciti..
Quando mai si e' visto che i primi giochi di una nuova console usassero a fondo le proprie risorse hardware?
Credo mai.
Ma onestamente non trovo motivo, se non quello che ho detto prima, di montare ancora un quantitativo di vram cosi' basso anche in relazione alla top di gamma della stessa casa produttrice.
Ci mancherebbe che non riuscissero ad avviare il gioco, dai su :rolleyes:
Per quanto riguarda i vari giochi non mi stupirei se quel poco margine che ha per esempio la 3080 rispetto alla 6800xt a risoluzioni superiori al fullhd possa essere colmato tranquillamente lato ottimizzazione software.
Dopo tutto l'inifinity cache e' appena comparsa e dubito che amd abbia potuto ottimizzare i driver a ritroso :p
p.s.: in tutto cio' ovviamente per me la 3090 ha molto piu' senso di quanto altri credano, soprattutto per un uso semi-pro. E infatti se avessi disponibilita' economica la prenderei instant proprio per il quantitativo di vram che mi servirebbe come "il pane" proverbialmente parlando : D
MiKeLezZ
09-12-2020, 13:05
Dai Ace lo sai meglio di me che non mi riferivo ai giochi appena usciti..
Quando mai si e' visto che i primi giochi di una nuova console usassero a fondo le proprie risorse hardware?
Credo mai.
Ma onestamente non trovo motivo, se non quello che ho detto prima, di montare ancora un quantitativo di vram cosi' basso anche in relazione alla top di gamma della stessa casa produttrice.
Ci mancherebbe che non riuscissero ad avviare il gioco, dai su :rolleyes:
Per quanto riguarda i vari giochi non mi stupirei se quel poco margine che ha per esempio la 3080 rispetto alla 6800xt a risoluzioni superiori al fullhd possa essere colmato tranquillamente lato ottimizzazione software.
Dopo tutto l'inifinity cache e' appena comparsa e dubito che amd abbia potuto ottimizzare i driver a ritroso :p
p.s.: in tutto cio' ovviamente per me la 3090 ha molto piu' senso di quanto altri credano, soprattutto per un uso semi-pro. E infatti se avessi disponibilita' economica la prenderei instant proprio per il quantitativo di vram che mi servirebbe come "il pane" proverbialmente parlando : DE' dal 1996 che il quantitativo di VRAM in alcune schede viene inutilmente raddoppiato "per fregare i polli".
Questi sono due test del 2020 che misurano le performance di VGA da 2GB a 8GB con i giochi odierni:
https://www.gamersnexus.net/guides/3468-gtx-960-2gb-vs-960-4gb-2019-benchmark
https://www.techspot.com/review/1114-vram-comparison-test/page5.html
Il risultato è che è obsoleta la scheda video, non il quantitativo di VRAM montato.
In linea di massima
1GB è consigliato per il 1280x720 (0,9MP)
2GB è consigliato per il 1920x1080 (2MP)
4GB è consigliato per il 2560x1440 (3,6MP)
8GB è consigliato per il 3840x2160 (8,2MP)
8GB sono più che sufficienti per 4 anni a venire (anche meno se si gioca in 1080p) - dopo sarà comunque la scheda a non essere più sufficiente, non il quantitativo di VRAM (già ora una RTX1080 risulta così obsoleta che il doppio della VRAM che ha rispetto la 980 non le serve a nulla).
I 24GB di RAM si chiamano "marketing gimmick perché non posso giocare la carta delle prestazioni".
Fermo restando che effettivamente se avessero fatto la 3080 con 12gb/384bit non avrebbero fatto un soldo di danno ma solo che un prodotto sicuramente più appetibile, le console in quei 16gb devono farci stare anche SO, app in background e codice di gioco...non è tutta memoria video eh :sofico: infatti series x dichiara apertamente 10gb dedicati alla gpu, e delle due console next gen è la più potente...in quest'ottica i 10gb della 3080 sono sufficienti, pur al pelo, biosgnerà vedere che accardà in futuro e quanto sarà futuro questo futuro :D
inoltre con la tecnologia I/O se ho ben capito il problema si riduce ulteriormente
la XBOX ha due diramazioni di BUS dal suo BUS principale: uno per i core della CPU, uno per i core della GPU.
sono 10 moduli di memoria GRRD6 a 14Gbps da 56GB/s l'uno, di cui 4 da 1GB e 6 da 2 GB e dichiara 560GB/s per la GPU (ossia l'accesso ad ogni modulo di memoria, per un totale di 16GB di VRAM disponibile) e ridotta a 336GB/s per i soli core CPU, ma sempre sui 16GB di memoria totale.
nessun limite di restrizione se non la memoria riservata all'OS, che è sui 2.5GB.
puoi accedere a 13.5GB per una velocità di 560GB/s per la GPU e puoi accedere a praticamente tutta la RAM per la CPU, se ce ne fosse una utilità, con 336GB/s.
oltretutto le console non vogliono vantare 100fps a 4K in Watch Dog: Legion, quindi, non avendo troppi frame da elaborare, hanno tutto il tempo di ricaricare dati con direct I/O dall'SSD ad una velocità di 5GB/s (bus che si collega, anche questo, al bus centrale e che quindi non ha restrizione di bandwidth) e non gli serve spazio infinito, soprattutto per le texture che adotteranno, che non saranno certo campionate alla stessa qualità del PC.
prima capisci quello di cui parli e poi pronunciati (o si continua a sparlare e fare le solite figure magre che tanti stanno facendo in questi commenti).
NickNaylor
09-12-2020, 13:13
complimenti!
li hai trovati e contati tutti in un sol colpo e tutti insieme non sembrano superare una discussione in un bar.
ma che caxxo stai a dire, 109 mila discussioni con oltre 1 miliardo di risposte... e la gente lì spende molto, ma molto, ma molto più in hw che non tra i gamer.
comunque il discorso è semplice, la 3090 ha un senso di esistere (anche se non è destinata ai gamer) perchè alcuni tool per la computer grafica girano solo su cuda, la 6900xt proprio non la capisco invece.
e col nodo di vantaggio
e con un chip più grande del 25%.
500 in meno ?
Il 6% era riferito alla 6800XT contro la 3800 e lì sono 50$ in meno, ma con la 3080 che ti propone almeno il videogioco, mentre dall'altra parte propongono il bundle ma solo per le RX5000.
Parli della 6900XT ? Perchè un certo "HWWizard" qualche posta fa se proprio vuoi saperlo ha dichiarato espressamente che la 6900XT avrebbe BASTONATO la 3090 e invece va il 2% meglio della 3080.
50$ in meno sono da dimostrare, perchè ad oggi le si trova dai 1000 ai 2000 euro le 3080 ed il gioco in più... dopo che lo ha profumatamente pagato nvidia, ci mancherebbe che non te lo regalassero quando sborsi 2000 euro.
i giochi sono strani: se li ottimizzi per un'architettura non lo puoi fare per l'altra.
se prendi giochi in cui, poi, le GPU sono castrate dalla CPU, alla fine che media otterrai?
cambi giochi, cambi profilo di valutazione.. è sempre stato così.
io non ti dico che sia utile una 6900 XT a 1000 euro, ma ti dico che è totalmente inutile una 3090 anche solo a 1500 euro e se mi trovo una 3080 al MSRP delle 3090 mi sento un tantino preso per i fondelli, quindi non le considero nemmeno.
oltretutto eviterei di parlare di persone che non ti possono rispondere per le rime, perché è da vigliacchi (o pagliacci) e sarebbe auspicabile che il moderatore te lo facesse notare soprattutto dopo che sei andato a piagnucolare per far bannare mentre mandavi messaggi strafottenti in privato (ed in modo che impari la lezione una volta e per tutte, Paul).
bagnino89
09-12-2020, 13:32
Ciao lucusta :asd:
AceGranger
09-12-2020, 13:47
Dai Ace lo sai meglio di me che non mi riferivo ai giochi appena usciti..
Quando mai si e' visto che i primi giochi di una nuova console usassero a fondo le proprie risorse hardware?
Credo mai.
Ma onestamente non trovo motivo, se non quello che ho detto prima, di montare ancora un quantitativo di vram cosi' basso anche in relazione alla top di gamma della stessa casa produttrice.
Ci mancherebbe che non riuscissero ad avviare il gioco, dai su :rolleyes:
si ma, per vedere un gioco veramente new gen, dovrai aspettare minimo 3 anni... e in 3 anni quelli che mirano al 4K avranno gia cambiato almeno 1 GPU :stordita:.
comunque vedremo, secondo me non si avranno particolari problemi, specialmente se inizieranno a mettere come requisiti minimi gli SSD per lo storage dei giochi.
purtroppo la Vram è vincolata dal bus, nViida ha preferito puntare sul BUS, AMD sulla cache; con i prossimi MCM comunque risolveranno entrambe il problema.
nickname88
09-12-2020, 14:17
50$ in meno sono da dimostrare, perchè ad oggi le si trova dai 1000 ai 2000 euro le 3080 ed il gioco in più... dopo che lo ha profumatamente pagato nvidia, ci mancherebbe che non te lo regalassero quando sborsi 2000 euro.
i giochi sono strani: se li ottimizzi per un'architettura non lo puoi fare per l'altra.
se prendi giochi in cui, poi, le GPU sono castrate dalla CPU, alla fine che media otterrai?
cambi giochi, cambi profilo di valutazione.. è sempre stato così.
io non ti dico che sia utile una 6900 XT a 1000 euro, ma ti dico che è totalmente inutile una 3090 anche solo a 1500 euro e se mi trovo una 3080 al MSRP delle 3090 mi sento un tantino preso per i fondelli, quindi non le considero nemmeno.
oltretutto eviterei di parlare di persone che non ti possono rispondere per le rime, perché è un da vigliacchi (o pagliacci) e sarebbe auspicabile che il moderatore te lo facesse notare soprattutto dopo che sei andato a piagnucolare per fallo bannare e gli hai mandato messaggi strafottenti in privato (ed in modo che impari la lezione una volta e per tutte).
Le 3080 si trovano in catalogo per la maggiore da poco più di 800 a 950 a seconda del modello.
Che sono gli stessi prezzi a cui trovi le AMD.
Comunque caro LOCUSTA pensavo che ad avere problemi psicologici fosse solo Adapter, invece non sei da meno, nonostante il BAN non hai nulla di meglio da fare che creare fake user solo per scrivere le tue stupidaggini da stadio ?
Ti consiglio seriamente di farti una vita sociale. :read:
e con un chip più grande del 25%.Nessuno gli ha messo il divieto, se loro più di quello non propongono quello verrà valutato.
AceGranger
09-12-2020, 14:29
Le 3080 si trovano in catalogo per la maggiore da poco più di 800 a 950 a seconda del modello.
Che sono gli stessi prezzi a cui trovi le AMD.
Comunque caro LOCUSTA pensavo che ad avere problemi psicologici fosse solo Adapter, invece non sei da meno, nonostante il BAN non hai nulla di meglio da fare che creare fake user solo per scrivere le tue stupidaggini da stadio ?
Fatti una vita sociale. :read:
Nessuno gli ha messo il divieto, se loro più di quello non propongono quello verrà valutato.
ma lol, mi sono accorto solo ora che lo hanno bannato anche qui :rotfl:
Ale55andr0
09-12-2020, 14:31
Si lo so faccio sempre cherry picking
No, deliri e basta e ti è stato detto più volte ma o hai (ma davvero) problemi di comprensione del testo o fai FINTA di non leggere: un conto è consumare di più, per andare di più, un conto è consumare di più, per andare meno, e avere pure un pp migliore, perchè questa era la situazione :read: ..e qua chiudiamo che si finisce sempre per ripetersi senza concludere nulla. Non capisco un tifo sfrenato per una AZIENDA (e NO, non dirmi che io tifo qualcuno, io ho avuto e continuerò ad avere entrambe a seconda di cosa mi convince di più volta per volta e senza imbrodare nessuna, ne ho SEMPRE avute per entrambe di critiche, e pure PESANTI, tu sei un dannato SENSO UNICO A PRIORI 24/24 7/7 365/635).
Non ti pagano (sino a prova contraria) non sono parenti tuoi e non ti giova a nulla essere cosi NON obiettivo
bagnino89
09-12-2020, 14:37
Non ti pagano (sino a prova contraria) non sono parenti tuoi e non ti giova a nulla essere cosi NON obiettivo
Ma come no, guarda che lui è un nipote di Lisa e si occupa di marketing inverso :asd:
Ale55andr0
09-12-2020, 14:39
E qui ti volevo infatti.
Le nuove nvidia sono al pelo in relazione al dimensionamento della memoria video con le nuove console, anzi con la sola Xbox series X, dato che la ps5 sembra addirittura meno potente.
Tuttavia sappiamo benissimo entrambi che le console godono di un'ottimizzazione lato hardware e software che in generale le loro versioni pc non hanno.
Gia' con alcuni giochi dell'attuale generazione si passano allegramente gli 8 gb andando oltre il fullhd, perche' dovrei pensare che non avvenga lo stesso per quei giochi che su console usano 9-10gb di vram?
Tenendo conto che molto spesso i porting su pc si portano dietro spesso e volentieri texture piu' definite e in generale opzioni video piu' spinte.
Il punto e' che se sei al pelo come dici tu, o addirittura sotto -vedi gpu con 8 giga di vram- non hai un'aspettativa di vita molto lunga.
E sebbene non capisca la scelta per la 3070 e i suoi 8gb -praticamente una condanna a morte- figurati che senso puo' avere averne "solo" 10 sulla 3080, salvo avere in mente di far uscire una bellissima 3080ti con un quantitativo GIUSTO ma un prezzo dalle parti della 6900 o addirittura potenzialmente superiore.
Il punto e' che nvidia e' sempre stata avara in termini di ram, anche perche' questo causa un invecchiamento precoce di alcune sue architetture in funzione dei titoli che nel tempo fanno SEMPRE maggiore uso della memoria video.
Tu che dici tanto male della 6800 liscia, intanto, a mio modo di vedere e' una delle schede video con l'aspettativa di vita piu' lunga, in relazione anche al costo -ovviamente quello vero, non quello attuale- di tutte le nuove gpu presentate.
A fronte di quanto detto e delle esperienze passate nei titoli portati da console a pc si e' sempre avuta una ottimizzazione di gran lunga inferiore la quale ha comportato molto spesso un consumo maggiore anche in termini di memoria video -e non sto tirando fuori robe tipo impostazioni ultra su ombre o 4k NATIVO-.
Per il discorso DLSS e' assolutamente vero che manca ad amd, ma e' anche quello che mi preoccupa meno onestamente...il problema e' che con questi stratagemmi si abitua l'utenza, con la scusa delle prestazioni, ad una qualita' visiva di volta in volta sempre inferiore.
Considerando i casi migliori in cui il DLSS funziona per bene il risultato, PER ME ed i miei occhi, e' sempre e ripeto SEMPRE inaccettabilmente INFERIORE alla risoluzione nativa.
Punto.
Senza contare che e' una implicita affermazione nonche' prova evidente di come la tecnologia RT sia effettivamente ed attualmente, puro marketing.
l'ottimizzazione è la scrittura del codice in funzione della potenza che hai effettivamente, ma è anche fatta di compromessi, ovvero tagli qui e la' ad effetti, profondità visiva ecc. Il peso delle texture quello è e resta, perchè o le riduci o le comprimi, entrambe cose che fai anche su ambiente su PC..quanto alla ram occupata bisogna anzitutto discernere fra la ram richiesta e quella che viene semplicemente allocata...
Sinceramente quando si avrà difficoltà a far girare un titolo su una 3080 da 10 gb, io dico che con la 6800 liscia ci potremo accendere i fuochi per scaldarci nella futura nuova glaciazione tanto sarà utile per quei 16gb :D
50$ in meno sono da dimostrare, perchè ad oggi le si trova dai 1000 ai 2000 euro le 3080 ed il gioco in più... dopo che lo ha profumatamente pagato nvidia, ci mancherebbe che non te lo regalassero quando sborsi 2000 euro.
i giochi sono strani: se li ottimizzi per un'architettura non lo puoi fare per l'altra.
se prendi giochi in cui, poi, le GPU sono castrate dalla CPU, alla fine che media otterrai?
cambi giochi, cambi profilo di valutazione.. è sempre stato così.
io non ti dico che sia utile una 6900 XT a 1000 euro, ma ti dico che è totalmente inutile una 3090 anche solo a 1500 euro e se mi trovo una 3080 al MSRP delle 3090 mi sento un tantino preso per i fondelli, quindi non le considero nemmeno.
oltretutto eviterei di parlare di persone che non ti possono rispondere per le rime, perché è da vigliacchi (o pagliacci) e sarebbe auspicabile che il moderatore te lo facesse notare soprattutto dopo che sei andato a piagnucolare per far bannare mentre mandavi messaggi strafottenti in privato (ed in modo che impari la lezione una volta e per tutte, Paul).
certo che devi avere qualche problema eh... le sospensioni si rispettano.
speriamo ti bannino in modo permanente se non l'han gia fatto
Ale55andr0
09-12-2020, 14:46
la XBOX ha due diramazioni di BUS dal suo BUS principale: uno per i core della CPU, uno per i core della GPU.
sono 10 moduli di memoria GRRD6 a 14Gbps da 56GB/s l'uno, di cui 4 da 1GB e 6 da 2 GB e dichiara 560GB/s per la GPU (ossia l'accesso ad ogni modulo di memoria, per un totale di 16GB di VRAM disponibile) e ridotta a 336GB/s per i soli core CPU, ma sempre sui 16GB di memoria totale.
nessun limite di restrizione se non la memoria riservata all'OS, che è sui 2.5GB.
puoi accedere a 13.5GB per una velocità di 560GB/s per la GPU e puoi accedere a praticamente tutta la RAM per la CPU, se ce ne fosse una utilità, con 336GB/s.
oltretutto le console non vogliono vantare 100fps a 4K in Watch Dog: Legion, quindi, non avendo troppi frame da elaborare, hanno tutto il tempo di ricaricare dati con direct I/O dall'SSD ad una velocità di 5GB/s (bus che si collega, anche questo, al bus centrale e che quindi non ha restrizione di bandwidth) e non gli serve spazio infinito, soprattutto per le texture che adotteranno, che non saranno certo campionate alla stessa qualità del PC.
prima capisci quello di cui parli e poi pronunciati (o si continua a sparlare e fare le solite figure magre che tanti stanno facendo in questi commenti).
1 quello della video ram lo ha detto microsoft, non io, e quindi mi affido a loro, non a te se non ti spiace (e anche se ti spiace fregasega non ce lo metti?)
2 e qui ti saluto, ennesimo clone di...ecco, quello è fare figure magre, per quanto mi riguarda
Gyammy85
09-12-2020, 14:57
No, deliri e basta e ti è stato detto più volte ma o hai (ma davvero) problemi di comprensione del testo o fai FINTA di non leggere: un conto è consumare di più, per andare di più, un conto è consumare di più, per andare meno, e avere pure un pp migliore, perchè questa era la situazione :read: ..e qua chiudiamo che si finisce sempre per ripetersi senza concludere nulla. Non capisco un tifo sfrenato per una AZIENDA (e NO, non dirmi che io tifo qualcuno, io ho avuto e continuerò ad avere entrambe a seconda di cosa mi convince di più volta per volta e senza imbrodare nessuna, ne ho SEMPRE avute per entrambe di critiche, e pure PESANTI, tu sei un dannato SENSO UNICO A PRIORI 24/24 7/7 365/635).
Non ti pagano (sino a prova contraria) non sono parenti tuoi e non ti giova a nulla essere cosi NON obiettivo
Esattamente in che modo il 14 nm gf sarebbe migliore del 16 nm tsmc? per via del numeretto?
ma in sicilia si sta cosi male?
cmq vabè abbiamo capito che la 6900 non è cosi male in raster, un filo sotto alla 3090.
in rt diciamo non è la gen giusta ma si sapeva.
rapporto qualita prezzo disgraziato come la 3090.
potete fa tutti i test che volete ma la sostanza è questa.
tutto sta nella disponibilità e supporto driver/giochi, ergo la sentenza definitiva ai posteri :D
Ale55andr0
09-12-2020, 15:25
Esattamente in che modo il 14 nm gf sarebbe migliore del 16 nm tsmc? per via del numeretto?
massì, bypassiamo le radeon VII, scorse top di gamma a 7 nm...
bagnino89
09-12-2020, 15:44
Qua si ride e si scherza, il problema è che le AMD non si trovano peggio delle Nvidia, e resta il fatto che le 6800 (non le reference, che tanto sono un miraggio, come le FE del resto) costano di più delle 3070. Tanto basta per non renderle appetibili.
6800XT, 6900, 3080 e 3090 iniziano ad essere fasce molto impegnative, e chi è disposto a spendere difficilmente vuole compromessi; pertanto tende a scegliere Nvidia, in quanto in questo momento offre un pacchetto più completo e convincente.
ninja750
09-12-2020, 15:51
6800XT, 6900, 3080 e 3090 iniziano ad essere fasce molto impegnative, e chi è disposto a spendere difficilmente vuole compromessi; pertanto tende a scegliere Nvidia, in quanto in questo momento offre un pacchetto più completo e convincente.
chi è disposto a spendere quelle cifre, adesso, compra quella che trova :asd:
altro che il pacchetto completo :sofico:
bagnino89
09-12-2020, 15:55
chi è disposto a spendere quelle cifre, adesso, compra quella che trova :asd:
altro che il pacchetto completo :sofico:
Sì, la situazione è surreale.
Ma col senno di poi ho capito che tu e Alessandro avevate ragione nel dire che la 6800 doveva costare meno della 3070 per impensierire seriamente Nvidia. Al momento Giacchetta può dormire tranquillo, anche perché sembrava che ci fossero container interi di schede AMD, invece manco quelli.
Gyammy85
09-12-2020, 16:42
massì, bypassiamo le radeon VII, scorse top di gamma a 7 nm...
Che c'entra? consuma un pochino meno e va il 30-35% in più con 4 cu in meno, non si stava parlando di quello, una radeon 7 alle frequenze della vega 64 consuma uno sputino
nickname88
09-12-2020, 17:27
Sì, la situazione è surreale.
Ma col senno di poi ho capito che tu e Alessandro avevate ragione nel dire che la 6800 doveva costare meno della 3070 per impensierire seriamente Nvidia. Al momento Giacchetta può dormire tranquillo, anche perché sembrava che ci fossero container interi di schede AMD, invece manco quelli.
Giacchetta nera almeno ha venduto ai miners e a quanto pare pure le briciole sembrano essere comunque appena più consistenti dell'intero stocking di AMD che per altro dopo averci beffato e preso in giro nel loro sito ieri, è pure uscita dicendo che prima della fine dell'anno non stockeranno più le loro reference, quindi quella di ieri potrebbe essere stata l'ultima possibilità di accaparrarsi una scheda prodotta da AMD per sempre.
Ricordo poi Gyammy che fino a poco prima del 18 Nov diceva che AMD non è come quegli stolti di Nvidia e che a differenza del cosiddetto Paper Launch loro ristockavano ...
Le 3080 si trovano in catalogo per la maggiore da poco più di 800 a 950 a seconda del modello.
Che sono gli stessi prezzi a cui trovi le AMD.
a catalogo possono scrivere anche che te le regalano, ma se non stanno sugli scaffali la gente non le può acquistare.
e poi nemmeno... vai su amazon a vedere i prezzi delle 3080 che sono state disponibili per manciate di minuti e vedrai che partono da 960 a 2000.
Comunque caro LOCUSTA pensavo che ad avere problemi psicologici fosse solo Adapter, invece non sei da meno, nonostante il BAN non hai nulla di meglio da fare che creare fake user solo per scrivere le tue stupidaggini da stadio ?
Fatti una vita sociale. :read:
Nessuno gli ha messo il divieto, se loro più di quello non propongono quello verrà valutato.
quello che necessita di sapienti cure psichiatriche è un certo NICKNIME88 (come vedi tutti sanno storpiare gli alias per poi sostenere che si parlava di altre persone) che è andato a piagniucolare perché le bastonate che gli davano erano troppo forti.
e non è che ci vuole tanto a leggere i messaggi che lasciano i soliti utenti per capire come stanno le cose.
i BAN li dovrebbero affibbiare a voi, che siete quelli che continuano sempre a spalare cacca sugli altri quando non avete nulla per rispondere adeguatamente in tema e sull'argomento (come si legge su tanti messaggi che avete scritto sotto questa news).
e, te lo premetto, seccami ancora ed il BAN te lo facci affibbiare io, perché qui non si lasciano documenti ed io non leggo che il mio alias è Locusta; ciò non toglie che se chiami in causa qualcuno questo avrebbe diritto di risponderti, perché in questo modo è proprio da vigliacchi con le pezze al culo.
quindi zitto e continua per la tua (ridicola) strada, evitando d'intralciare quella degli altri se non vuoi essere schiacciato, pivello.
nickname88
09-12-2020, 17:49
piagniucolare perché le bastonate che gli davano erano troppo forti.
i BAN li dovrebbero affibbiare a voi, che siete quelli che continuano sempre a spalare cacca
e, te lo premetto, seccami ancora ed il BAN te lo facci affibbiare io
perché qui non si lasciano documenti ed io non leggo che il mio alias è Locusta; ciò non toglie che se chiami in causa qualcuno questo avrebbe diritto di risponderti, perché in questo modo è proprio da vigliacchi con le pezze al culo.
quindi zitto e continua per la tua (ridicola) strada, evitando d'intralciare quella degli altri se non vuoi essere schiacciato, pivello.
scrivi ai mod anche che mi stai stolkerando, pivello piagnucoloso.
se devi continuare a stuzzicare gli utenti del forum come fosse la pausa di ricreazione in un superiore di infimo livello, prendi un appuntamento con uno bravo, che non hai proprio capito come funzionano i forum (o fai finta di non capirlo).
al prossimo attacco che fai nei confronti di qualsiasi utente del forum mi metto io a rompere ad un mod per farti eliminare e consiglio tutti di fare altrettanto, così si eliminano utenti che non apportano nulla alle discussioni se non malumore e beccate ingiustificate, così ti facciamo fare un po' di "vita sociale" vera.
sei proprio un pivello!
Meglio che essere un coglione patentato.
Sei inutile.
a te ti cagano solo per purgarti.
Questo invece è per i posteri .... e per i Mod :read:
Giacchetta nera almeno ha venduto ai miners e a quanto pare pure le briciole sembrano essere comunque appena più consistenti dell'intero stocking di AMD che per altro dopo averci beffato e preso in giro nel loro sito ieri, è pure uscita dicendo che prima della fine dell'anno non stockeranno più le loro reference, quindi quella di ieri potrebbe essere stata l'ultima possibilità di accaparrarsi una scheda prodotta da AMD per sempre.
giacchetta nera ha venduto le turing ai miners, se erano turing o addirittura le pascal che ancora stavano in magazzino.
175 milioni di dollari si riferiscono al terzo trimestre 2020, se non addirittura il secondo (visto che le news non lo accennano affatto), quando di Ampere manco si capiva che (scarso) chip era (in relazione al consumo spropositato; e nel mining quello conta, anche solo 70W di differenza, contano).
come avrebbe fatto a fatturare schede entro settembre 2020, presentate a fine settembre i cui chip sarebbero arrivati in mano ai partners solo a metà ottobre?
se hanno venduto ai miners, visto che non c'è stata nessuna conferma da parte di nvidia, hanno venduto fondi di magazzino a prezzo di reso, non certo prodotto nuovo, caro e non ancora presentato.
Ricordo poi Gyammy che fino a poco prima del 18 Nov diceva che AMD non è come quegli stolti di Nvidia e che a differenza del cosiddetto Paper Launch loro ristockavano .... abbiamo visto il teatrino ieri infatti.
hanno venduto, non ti preoccupare; in un modo o nell'altro fanno comunque i propri interessi.
a differenza di nvidia (che ora ha finito anche gli A100 che, guardacaso, vanno su TSMC e non Samsung), se non vendono schede è perché hanno le linee piene di altri prodotti più convenienti per loro, tipo processori o tipo royalty sulle console, che anche a 30$ a chip poi farti da solo i conti per tutte le console new gen vendute fino ad oggi quanto hanno guadagnato senza muovere un solo dito.
da qui alla fine del trimestre faranno dai 150 ai 200 milioni di fatturato per non aver mosso un solo dito (e lo vedremo sempre e comunque nelle prossime trimestrali).
il problema è che nvidia non copre il suo e tu pretenderesti che AMD coprisse il propri e quello di nvidia per farti trovare a scaffale, senza problemi, le schede al prezzo giusto e per poi non comprarle ugualmente?
in questo momento sono gli scalper a farci la scarpetta e solo quando nvidia offrirà un minimo di prodotto i prezzi si potranno aggiustare; mettiti l'anima in pace.
(e poi si deve vedere se i prezzi siano realmente quelli da scalper, perchè in tanti dicono che su 800 euro caricano giusto i 60-70 euro per campare e che è tutto dai passaggi superiori che il costo aumento: distributori e partners, visto che nvidia non le fa più le FE, ma son quasi sicuro che manco nvidia rifiuta di far la scarpetta su prezzi gonfiati).
Amazon ? Lascia perdere, la conoscenza degli shops non è argomento per te.
Questo invece è per i posteri .... e per i Mod :read:
scrivi ai mod anche che mi stai stalkerando, pivello piagnucoloso.
anzi, no, glielo scrivo io, così facciamo prima.
se devi commentare articoli e notizie commenta quelli o rispondi ai commenti in topic degli altri utenti.
se devi continuare a stuzzicare gli utenti del forum come fosse la pausa di ricreazione in un superiore di infimo livello, prendi un appuntamento con uno bravo, che non hai proprio capito come funzionano i forum (o fai finta di non capirlo).
al prossimo attacco che fai nei confronti di qualsiasi utente del forum mi metto io a rompere ad un mod per farti eliminare e consiglio tutti di fare altrettanto, così si eliminano utenti che non apportano nulla alle discussioni se non malumore e beccate ingiustificate, così ti facciamo fare un po' di "vita sociale" vera.
EDIT:https://www.hwupgrade.it/forum/showpost.php?p=47156103&postcount=120
sei proprio un pivello!
Sì, la situazione è surreale.
Ma col senno di poi ho capito che tu e Alessandro avevate ragione nel dire che la 6800 doveva costare meno della 3070 per impensierire seriamente Nvidia. Al momento Giacchetta può dormire tranquillo, anche perché sembrava che ci fossero container interi di schede AMD, invece manco quelli.
sulla carta potevano mettere anche che costasse 400 euro.
se poi non le trovi che cambia?
tanto sono reference e non si fararanno più, perché servono solo per fare reviews alla presentazione del prodotto.
io una 3070 al prezzo di una FE ancora la devo trovare e le 3070, volendo, si trovano.
quindi senza prezzi veri (ossia che un modello custom costa il giusto e costa uguale in ogni store) per confrontare adeguatamente i prodotti, tutto questo parlare è solo aria fritta.
la domanda che l'utente si fa è:
con 500 euro che ci prendo?
1000?
1500?
uno poi cerca i prodotti e li confronta, 3070 rispetto ad un'altra 3070 o una 6800 o qualsiasi altra scheda che costi massimo quella cifra stabilita, prendendo poi quello che gli piace di più.
certo che devi avere qualche problema eh... le sospensioni si rispettano.
speriamo ti bannino in modo permanente se non l'han gia fatto
devo chiedere un ban anche per te per stalking?
che vedi un codice fiscale al posto dell'alias?
non mi sembra di aver lasciato nessun documento d'identificazione per l'iscrizione (e magari cominciassero a chiederli, almeno certa gente, tipo il Paul_pischellotto, ce la saremmo tolta da torno da anni).
io spero invece che tutta sta marmaglia che parlotta come se credesse di stare in una chat di facebook venga convinta a cambiar aria.
sai che pace che ci sarebbe?
quindi sei avvertito anche te: se mi rispondi in tema su argomenti in topic ti rispondo; se mi continui a salkerare come quell'altro mi lamento con i mod per farti bannare (e non sospendere, perché le regole del forum dicono che se fai stalking come lo fate voi c'è direttamente il ban e le regole si fanno per farle rispettare).
lui ha già sfruttato il suo messaggio bonus ed è stato già segnalato; questo è il tuo; al prossimo scrivo direttamente ai mod per far valere i miei diritti di non essere bullizzato da gente come te o Nikkoname_pischellotto_88.
sei in un forum tecnologico, non in una chat di facebook, se hai problemi puoi scrivimi in privato che ti spiego come stanno le cose.
anzi, visto che mi ci trovo, ti segnalo anche se lo fai pure contro altri utenti... le regole valgono per tutti gli utenti e una mano lava l'altra.
https://ibb.co/cw8ChH4
ma stai cercando di farmi stalking, pivello?
per quelli come te c'è una sola soluzione:
:banned:
prego i mod di intervenire.
la segnalazione è stata già fatta e ora c'è anche l'aggravante dei messaggi personali.
se seguite il regolamento questo utente deve essere ben sanzionato, visto che tra l'altro è pure reticente.
HwWizzard
09-12-2020, 21:32
Non rispondi eh ? Hai perso la lingua.
Ah adesso va pure bene che la 6800XT è dietro alla 3080 ?
Se non sbaglio le slide di AMD riferiscono ( tempo presente ) una tendenza della 6800XT SOPRA la 3080, e fino a prima del 18 Nov eravate schierati a far intendere che la 6800XT sarebbe andata DI PIU' nel raster.
Adesso invece scopriamo che vanno simili ma con la AMD tendenzialmente sotto e non più sopra e va bene ?
Sbaglio o qualche post fa hai sostenuto che andavano uguali lasciando intendere che le altre reviews lasciavano a desiderare ?
Se tu non capisci l’italiano e poi deliri non è che ci posso fare molto... avresti dovuto studiare prima di cadere al livello a cui sei... ma oramai è tardi e l’unico divertimento che hai è fare combutta con l’altro che millanta di avere 2 schede che invece probabilmente non ha:doh: a meno che non sia un tuo account clone.
cdimauro
09-12-2020, 22:41
ma lol, mi sono accorto solo ora che lo hanno bannato anche qui :rotfl:
E' successo già da un po', ma ovviamente è tornato con un clone, com'è suo solito fare.
Quoto soltanto alcune cose di un suo commento, per dimostrarlo inequivocabilmente (se ce ne fosse ancora bisogno).
quello che necessita di sapienti cure psichiatriche è un certo NICKNIME88 (come vedi tutti sanno storpiare gli alias per poi sostenere che si parlava di altre persone)
E chi altri poteva sapere che il tuo precedente nick fosse storpiato, se non proprio tu? Infatti nickname ha sbagliato a chiamarti Locusta, perché in realtà eri lucusta.
e, te lo premetto, seccami ancora ed il BAN te lo facci affibbiare io, perché qui non si lasciano documenti ed io non leggo che il mio alias è Locusta;
Non servono documenti per capire che sei il nuovo clone di lucusta: lo si capisce subito da come scrivi, ma soprattutto da quello che scrivi.
ciò non toglie che se chiami in causa qualcuno questo avrebbe diritto di risponderti, perché in questo modo è proprio da vigliacchi con le pezze al culo.
No, tu non hai proprio alcun diritto di rispondere, invece, perché sei stato bannato.
Come non hai alcun diritto per chiedere ban o sospensioni a carico di altri utenti, perché tutto questo casino l'hai generato nuovamente tu.
Dunque è soltanto il tuo account che andrebbe bannato, e i tuoi commenti cancellati, in modo da ripulire il forum.
silvanotrevi
09-12-2020, 22:57
Scheda inutile questa 6900 xt. Costa troppo per quello che offre. La migliore rapporto qualità prezzo è la 6800 liscia: ti porti a casa una scheda che è quasi al livello della rtx 3080 a un prezzo decisamente più basso
Scheda inutile questa 6900 xt. Costa troppo per quello che offre. La migliore rapporto qualità prezzo è la 6800 liscia: ti porti a casa una scheda che è quasi al livello della rtx 3080 a un prezzo decisamente più basso
Perfettamente d'accordo.
cdimauro
10-12-2020, 06:47
c'è comunque da ringraziare amd, senza questa nuova architettura nvidia non avrebbe mai dimezzato i prezzi della sua linea...
Assolutamente sì: la concorrenza fa bene, e si vede. Anche se i prezzi non sono ancora quelli di qualche anno fa, ma è una buona boccata d'ossigeno per chi deve metter mano al portafogli.
incredibilmente i consumi e il frame time nn importano più e sebbene si parli di schede video enthusiast sarebbe utile vedere quanto consumano se nn altro per meglio capire il livello di efficienza raggiunto da un'architettura rispetto ad un'altra.
Ovviamente quando erano le AMD a consumare di più, e parliamo di 60/70 watt allora era LA TRAGEDIA, mentre ora, magicamente, non conta più nulla.
Questo lo dici soltanto tu, con un velo di pietoso vittimismo.
Come la storia ci insegna nel momento in cui le rosse diventano pari e/o paragonabili/superiori alla controparte verde in un determinato aspetto allora quell'aspetto/tecnologia/feature nn ha più importanza.
vedrete che succederà la stessa cosa con il DLSS appena Amd immetterà la sua versione sul mercato.
Ancora vittimismo, condito da speranze: non mi pare che AMD abbia aggiunto qualcosa di simile ai tensor core di nVidia, per implementare una sua versione del DLSS. Dovrà usare per forza di cosa gli attuali shader core, e quindi è possibile che ne risentirà la qualità e/o le prestazioni.
è già successo per il frame time, per i consumi appunto, per il gpgpu e per la fisica...tutti aspetti che sono stati spinti NEL TEMPO solo per mere questioni marketing.
Qui invece abbiamo la solita storiella della volpe e l'uva...
La cosa scandalosa di questa gen nvidia, in realtà, nn sono ne i costi (volutamente bassi a causa della pressione avvertita a causa di amd) ma che di fatto sono irreali perchè si sono prodotti talmente pochi pezzi che credere o pensare di credere che nvidia immettesse sul mercato delle gpu a quei prezzi con numeri REALMENTE massivi da renderli il prezzo comune è pura follia, e infatti è stata una scelta a tavolino.
Cosa a cui si è accodata anche amd, pena l'impossibilità di prezzare in modo adeguato a livello di concorrenza i suoi chip.
Quindi perché lo scandalo è soltanto per nVidia, quando AMD è sostanzialmente nella stessa situazione?
Qui abbiamo il classico due pesi e due misure...
Tuttavia la cosa veramente scandalosa in casa nvidia sono quei miserrimi 10 gb di vram per una soluzione video di fascia alta (750 euro al prezzo ideale).
Persino le nuove console ne hanno a disposizione quantitativi maggiori.
E solo pwr questo le serie 3080/3070 andrebbero lasciate li dove sono.
Qui continui a parlare di cose che non conosci, visto che non sai nemmeno come sono fatte le console e come usano la memoria a disposizione.
Peraltro ignorando completamente la memoria di sistema dei PC: prova a usare una 3900 con soli 4GB di RAM, e vedrai che prestazioni avrai nei giochi...
Contrariamente la 3090 ha un quantitativo di vram estremamente appropriato per l'utenza che si prefigge di soddisfare e il suo costo, in relazione alle versioni con cosí tanta vram precedenti, è addirittura "conveniente".
Non per i videogiocatori, che sono il target principale di questa scheda. 24GB di VRAM sono inutili.
Poi che possano far comodo ai professionisti non v'è dubbio.
Io per quanto concerne i rendering avessi la disponibilità finanziaria la prenderei istant.
ha senso eccome, se pensate che una 2080ti proponeva ancora i suoi miserrimi 11 gb a 1200 euro,
Quanta ne proponeva la concorrenza della 2080ti?
averne più del doppio per 300 euro in più è assai appetibile per chi fa questo lavoro (e nn siamo pochi, fidatevi).
Contrariamente i 10 gb delle versioni 3080/3070 sono un insulto all'intelligenza.
Forse alla tua. Lascia perdere quella degli altri.
quando poi la ragione punta verso l'rt come argomento discriminante, in 4k soprattutto, visto che in fullhd e 1440p i titoli sono cmq più che giocabili raggiungiamo l'apoteosi dell'irrazionalità.
Più che giocabili dipende dalla scheda e dal gioco.
Stiamo parlando di una tecnologia adottata poco e male da una piccolissima percentuale di titoli, intorno allo 0,
Ci sono già diversi titoli AAA che la supportano, e molti di più stanno arrivando.
Ma è chiaro se il tuo target sono i giochi Indie da €0.99 allora dell'RT ne puoi fare anche a meno, eh!
qualcosa e all'interno di questa percentuale va collocata una percentuale ancora più misera di quelli che hanno hardware abbastanza potente da godersi il rt in santa pace a tutte le risoluzioni.
Se compri schede del genere mi aspetto che almeno un PC decente dovresti averlo...
Ë una tecnologia nuova e a mio modo di vedere adesso è solo MARKETING e chi dice il contrario o ne è consapevole oppure non lo è e ne è vittima incosciente.
Ed ecco la sentenza del giudice supremo: quello che ha capito tutto, e annuncia al mondo la sua Verità Suprema.
A me sa nuovamente della volpe e l'uva, invece.
Quello che è noto è che AMD è tornata e queste schede altro nn sono che la controparte dei ryzen prima/seconda gen.
La prossima generazione, fossi nvidia, qualche leggerissimo dubbio me lo fare venire e forse anche un po di ansia. e considerando l'aumento di prestazioni tra una gen e l'altra (serie 5000/serie 6000) forse me ne farei venire pure tanta di ansia.
Addirittura i consigli strategici a nVidia adesso. Non ti fai mancare niente.
Mai lette notizie sulle trimestrali di quest'azienda, immagino...
In un anno e mezzo siamo passati da un vantaggio estremo di nvidia lato prestazioni, consumi, tecnologie a uno svantaggio in termini di prestazioni e consumi, rimanendo avanti solo in un ambito particolare ovvero l'rt, dove amd è alla sua prima implememtazione peró, ed ha mostrato di avere prestazioni pari alla prima implementazione nvidia,
BOOOM! Ma quali recensioni hai letto?!? L'attuale top di gamma di AMD non arriva nemmeno ai livelli della 2080Ti...
e il DLSS che cmq a breve verrà immesso anche nella versione rossa.
Immesso? E come, visto che le manca l'hardware. Dovrà emularlo via software, e voglio vedere i risultati poi...
Di questo si, ovvero del ritorno amd dovremmo esserne tutti felici.
Se fosse stata più competitiva sarebbe stata meglio. Queste di AMD sono schede per chi, ancora una volta, si deve accontentare.
Ma preferire una scheda già vecchia per la sua quantitä RIDICOLA di vram
Come ti è già stato fatto notare, la quantità sarà ridicola, ma contano le prestazioni.
Inoltre le schede migliori di nVidia godono di una banda di memoria superiore, ed quello che serve, soprattutto per il RT.
Ma lo ripeto ancora una volta: anche con meno VRAM, ciò contano sono le prestazioni.
ad un altra per degli fps superiori a risoluzioni poco diffuse (il 4k è veramente il nulla in termini share)
Il 4K è anche quello che richiede più VRAM. Se consigli di usare risoluzioni inferiori, che te ne fai allora della VRAM in più?
Una contraddizione in termini...
e su una percentuale di giochi Assolutamente irrisoria mi risulta alquanto irrazionale, a differenza del vram inferiore persino alle scatolette....
Di cui non hai capito nemmeno come funzionano...
Per il discorso DLSS e' assolutamente vero che manca ad amd, ma e' anche quello che mi preoccupa meno onestamente...il problema e' che con questi stratagemmi si abitua l'utenza, con la scusa delle prestazioni, ad una qualita' visiva di volta in volta sempre inferiore.
Considerando i casi migliori in cui il DLSS funziona per bene il risultato, PER ME ed i miei occhi, e' sempre e ripeto SEMPRE inaccettabilmente INFERIORE alla risoluzione nativa.
Punto.
Meno male che hai fatto bene a specificarlo, finalmente. PER TE. Per l'appunto.
Mi vien da pensare a cosa succedera' quando sempre piu' titoli userano la cache della xbox series x in maniera non dissimile all'uso che ne fa rdna2 con la sua inifinity cache -sia per l'rt, lato bhv, sia lato raster per ottimizzare il flusso di dati da e verso la memoria video- :)
L'infinity cache è una cache, per l'appunto. Sai come funziona? Mi pare proprio di no.
E mi pare che tu non sappia nemmeno come funzioni il RT, che di questa cache non certo fare l'uso che ne fa la grafica raster, invece.
Se magari ti documentassi meglio su come funzioni il RT, invece di continuare a spararle, capiresti perché si tratta di algoritmi affamati di banda. Reale. Verso la memoria. Non quella delle cache...
Il punto e' che non si cura ormai, durante le recensioni, in dettaglio l'aspetto prettamente visivo, a livello di pixel e quant'altro, come si faceva un tempo, per vedere e misurare anche l'efficienza dei vari filtri AA e annessi applicabili ed usati dalle rispettive gpu -nvidia e amd-.
Parimenti mi pare che l'attenzione sia sempre piu' verso la quantita' degli effetti visibili a schermo, ma sempre meno sulla loro qualita'.
In maniera analoga a quanto succede nel cinema, un uso massivo di effetti speciali, nel caso del medium videoludico li chiameremo semplicemente "effetti" dai vari bloom, hdr, motion blur -altro caso di male assoluto- ecc ecc, ci si e' ben guardati negli anni dall'analizzarne l'effettiva qualita'. Parlo del singolo filtro/effetto usato nel gioco e come esso renda su un architettura o su un altra (esempio a caso: il motion blur) -e non mi riferisco ai video comparativi che lasciano il tempo che trovano- attraverso l'uso di software specificatamente concepiti per analizzarne in dettaglio la qualita'.
Ritornando al cinema questo e' il motivo per cui i vfx di avengers fanno pena rispetto ad un qualsiasi film di blomkamp e/o cameron.
Ma nella malebolgia totale delle scene e nel loro saturare completamente o quasi l'estetica della scena ovviamente non ci si fa caso, troppi dettagli, cose in movimento ecc ecc, e a pagarne le conseguenze, in realta, e' proprio la resa finale.
Sto notando come succeda lo stesso nel mondo dei videogame in cui si inseriscono sempre nuove effetti di illuminazione, particellari e quant'altro ma la somma delle parti, purtroppo, genera un risultato che qualitativamente non sempre e' all'altezza delle potenzialita' delle tecnologie usate.
Colori sempre piu' iper-saturi (estetiche sempre piu' vicine alla casetta del mulino bianco), contrasti veramente al limite del decente e poi il tutto condito con affermazioni in merito alla grafica che sfociano nell'uso di parole come "fotorealistico" e a volte, mi vien da pensare, che una delle luce migliori che ho visto, in termini di pulizia mi rimane quella del primo crysis.
:rolleyes:
Seppur tendente al freddo.
Il fatto che alcuni giochi o film facciano un certo uso delle tecnologie, che ritieni sbagliato, NON implica, logica elementare alla mano, che le suddette tecnologie facciano schifo, e che quindi non dovrebbero essere usate.
Per quanto riguarda i vari giochi non mi stupirei se quel poco margine che ha per esempio la 3080 rispetto alla 6800xt a risoluzioni superiori al fullhd possa essere colmato tranquillamente lato ottimizzazione software.
Dopo tutto l'inifinity cache e' appena comparsa e dubito che amd abbia potuto ottimizzare i driver a ritroso :p
E niente, continui a spararle grosse parlando di cose che non conosci.
Mi faresti vedere come la suddetta infinity cache potrebbe aiutare nel RT (rispetto alla grafica raster)? Come si potrebbe sfruttare via software (lato driver e/o lato giochi)?
cronos1990
10-12-2020, 07:54
i BAN li dovrebbero affibbiare a voi, che siete quelli che continuano sempre a spalare cacca sugli altri quando non avete nulla per rispondere adeguatamente in tema e sull'argomento (come si legge su tanti messaggi che avete scritto sotto questa news).
e, te lo premetto, seccami ancora ed il BAN te lo facci affibbiare io, perché qui non si lasciano documenti ed io non leggo che il mio alias è Locusta; ciò non toglie che se chiami in causa qualcuno questo avrebbe diritto di risponderti, perché in questo modo è proprio da vigliacchi con le pezze al culo.OK, è (era) lucusta :D
nickname88
10-12-2020, 09:42
6800 liscia: ti porti a casa una scheda che è quasi al livello della rtx 3080 a un prezzo decisamente più basso
La 6800 liscia quasi a livello della 3080 ? :asd:
Gyammy85
10-12-2020, 09:54
La 6800 liscia quasi a livello della 3080 ? :asd:
Sta comunque sopra la 3070, quindi si, sta quasi come 3080, sta in mezzo
cronos1990
10-12-2020, 10:13
Stando alla recensione di Hardware Upgrade, la 6800 liscia è il 14% più lenta della 3080. Ma è anche pur vero che la 6800 liscia è la rivale della 3070, e gli sta davanti di un 10%. E' la 6800XT che sfida la 3080, e vanno praticamente uguale. Questo, ovviamente, in Raster.
Se facciamo i confronti, facciamoli per bene.
Gyammy85
10-12-2020, 10:15
Stando alla recensione di Hardware Upgrade, la 6800 liscia è il 14% più lenta della 3080. Ma è anche pur vero che la 6800 liscia è la rivale della 3070, e gli sta davanti di un 10%. E' la 6800XT che sfida la 3080, e vanno praticamente uguale. Questo, ovviamente, in Raster.
Se facciamo i confronti, facciamoli per bene.
Infatti ho detto che sta in mezzo
nickname88
10-12-2020, 10:19
Stando alla recensione di Hardware Upgrade, la 6800 liscia è il 14% più lenta della 3080. Ma è anche pur vero che la 6800 liscia è la rivale della 3070, e gli sta davanti di un 10%. E' la 6800XT che sfida la 3080, e vanno praticamente uguale. Questo, ovviamente, in Raster.
Se facciamo i confronti, facciamoli per bene.Si va uguale ma solo su Hwupgrade però. :rolleyes:
Quì una media di varie reviews : https://www.guru3d.com/news-story/review-average-of-17-websites-shows-6800-xt-to-be-7-4-slower-than-geforce-rtx-3080.html :read:
Aggiungici pure GamerNexus visto che non lo vedo in lista : https://www.youtube.com/watch?v=jLVGL7aAYgY&ab_channel=GamersNexus :read:
https://tpucdn.com/review/amd-radeon-rx-6800/images/relative-performance_3840-2160.png
Sta comunque sopra la 3070, quindi si, sta quasi come 3080, sta in mezzoLa 6800XT semmai è quella che che va quasi uguale alla 3080.
HwWizzard
10-12-2020, 10:21
Stando alla recensione di Hardware Upgrade, la 6800 liscia è il 14% più lenta della 3080. Ma è anche pur vero che la 6800 liscia è la rivale della 3070, e gli sta davanti di un 10%. E' la 6800XT che sfida la 3080, e vanno praticamente uguale. Questo, ovviamente, in Raster.
Se facciamo i confronti, facciamoli per bene.
Ma perdi ancora tempo a volergli dimostrare quello che si evince dai grafici. Per i devoti a giacchetta se la 6800XT fa 2% in meno della 3080 le prende di brutto, mentre la 6800 che va 10% più della 3070 non vale un cazzo perchè doveva costare metà della 3070 che essendo nVidia anche se va di meno è meglio. I terrapiattisti sono più credibili di certi fanboy :sofico:
Poi ovviamente ti metterà il solito grafico di TPU credibile come la moneta da 3 Euro per la metodica di come è ricavato e hai di fronte il puro delirio religioso. Di fronte al quale inutile perdere tempo.
AceGranger
10-12-2020, 11:01
Stando alla recensione di Hardware Upgrade, la 6800 liscia è il 14% più lenta della 3080.
normalizzando, in raster:
la 3080 va 1% in piu della 6800XT
la 3080 va il 17,5% in piu della 6800
la 6800 va il 14% in piu della 3070
(in 4K )
Stando alla recensione di Hardware Upgrade, la 6800 liscia è il 14% più lenta della 3080. Ma è anche pur vero che la 6800 liscia è la rivale della 3070, e gli sta davanti di un 10%. E' la 6800XT che sfida la 3080, e vanno praticamente uguale. Questo, ovviamente, in Raster.
Se facciamo i confronti, facciamoli per bene.
6800XT - 649
3080 - 699 +7,7% rispetto alal 6800XT + 20,7% rispetto alla 6800 liscia
6800 - 579 +16% rispetto alla 3070
3070 - 499
la 6800 e 3070 hanno un perf/dollar simile in raster ma la 3070 ha un perf/dollar migliore in RT.
la 6800XT ha un perf/dollar leggermente migliore in raster rispetto alla 3080 ma schifosamente peggiore in RT.
la 6800 ha un perf/dollar leggermente migliore in raster rispetto alla 3080 ma anni luce dietro in RT
preso i prezzi in dollari, perchè attualmente con gli street price è impossibile fare i calcoli; bastera attendere la fine di questo periodo insensato e come è sempre stato si troveranno entrambi i marchi ai loro prezzi corretti ufficiali.
cronos1990
10-12-2020, 12:04
Le percentuali precise dipendono da che grafico prendi da quella recensione, ce ne sono 4 di medie in fondo. Io ho preso il primo, per dire, e date le percentuali non c'è neanche bisogno di fare tanti calcoli in 4K.
Comunque cambia poco, il discorso è che confrontare la 6800 liscia con una 3080 è come confrontare una Panda con una Focus; non ha senso.
Ho limitato il discorso alle mere prestazioni (che poi era l'oggetto del contendere). Chiaro che c'è anche il discorso prezzi sull'acquisto. Fermo restando che al momento i prezzi mi sembrano un poco pazzi.
nickname88
10-12-2020, 12:42
Ma perdi ancora tempo a volergli dimostrare quello che si evince dai grafici. Per i devoti a giacchetta se la 6800XT fa 2% in meno della 3080 le prende di brutto, mentre la 6800 che va 10% più della 3070 non vale un cazzo perchè doveva costare metà della 3070 che essendo nVidia anche se va di meno è meglio. I terrapiattisti sono più credibili di certi fanboy :sofico:
A proposito di credibilità :
https://i.ibb.co/5rHCQ4v/Cattura.jpg
E io ancora aspetto il post in cui secondo te affermavo che la 6800XT sarebbe andata come la 2080Ti .....
Poi ovviamente ti metterà il solito grafico di TPU credibile come la moneta da 3 Euro per la metodica di come è ricavato e hai di fronte il puro delirio religioso. Di fronte al quale inutile perdere tempo.
Eh si, proprio non corrisponde alla realtà ...
La media di 17 reviews posson bastare ? : https://www.guru3d.com/news-story/review-average-of-17-websites-shows-6800-xt-to-be-7-4-slower-than-geforce-rtx-3080.html :read: :read: :read:
Brutto quando le reviews non mostrano ciò che vuoi eh ? :rolleyes:
Vuoi altri grafici possono andar bene ?
Da notare come siano in totale contraddizione con TPU ... :asd:
https://i.ibb.co/k5tm0Bq/Cattura.jpg
https://i.ibb.co/SyCtwL6/Cattura2.jpg
meglio dire "simili" "all'incirca", poi ognuno vede il suo bicchiere mezzo pieno o mezzo vuoto a seconda delle preferenze tecniche, prezzo e di bandiera
termini assoluti, o postare risultati con pochi punti di differenza per comprovare o ribaltare una propria/altrui visione, porta solo a far emergere il bimbo che e' in noi:bimbo:
AceGranger
10-12-2020, 14:07
Le percentuali precise dipendono da che grafico prendi da quella recensione, ce ne sono 4 di medie in fondo. Io ho preso il primo, per dire, e date le percentuali non c'è neanche bisogno di fare tanti calcoli in 4K.
io ho preso questo,
https://www.hwupgrade.it/articoli/5906/media_raster_1.png
ma la cosa non cambia, le % sono sempre quelle; basta solo non invertire le %.
Comunque cambia poco, il discorso è che confrontare la 6800 liscia con una 3080 è come confrontare una Panda con una Focus; non ha senso.
Ho limitato il discorso alle mere prestazioni (che poi era l'oggetto del contendere). Chiaro che c'è anche il discorso prezzi sull'acquisto. Fermo restando che al momento i prezzi mi sembrano un poco pazzi.
si non ha senso, ma non ha nemmeno molto senso paragonare la 6800 alla 3070;
la 6800 è in una fascia a meta strada, sarebbe la concorrente della ipotetica 3070Ti, mentre la 3070 è la concorrente della, presumo, ipotetica 6700XT.
credo sia stata una buona idea quella di AMD di proporre una GPU via di mezzo fra 3070 e 3080, è si meno potente della 3080 ma anche sensibilmente meno costosa.
Da notare come siano in totale contraddizione con TPU ... :asd:
https://i.ibb.co/k5tm0Bq/Cattura.jpg
Io il tedesco non lo capisco, cosa significa? Che la 3090 va solo il 6% meglio della 6900XT, in RT? (e che la 3080 va solo il 6% meglio della 6800XT, sempre in RT)
StylezZz`
10-12-2020, 15:49
Io il tedesco non lo capisco, cosa significa? Che la 3090 va solo il 6% meglio della 6900XT, in RT? (e che la 3080 va solo il 6% meglio della 6800XT, sempre in RT)
RT OFF.
MiKeLezZ
10-12-2020, 16:50
700 euro di solo VGA e poi spengo il raytracing. Che se mi compro una console da 500 euro ce l'ho sempre attivo. Oooooookkk.
HwWizzard
10-12-2020, 17:52
io ho preso questo,
https://www.hwupgrade.it/articoli/5906/media_raster_1.png
ma la cosa non cambia, le % sono sempre quelle; basta solo non invertire le %.
si non ha senso, ma non ha nemmeno molto senso paragonare la 6800 alla 3070;
la 6800 è in una fascia a meta strada, sarebbe la concorrente della ipotetica 3070Ti, mentre la 3070 è la concorrente della, presumo, ipotetica 6700XT.
credo sia stata una buona idea quella di AMD di proporre una GPU via di mezzo fra 3070 e 3080, è si meno potente della 3080 ma anche sensibilmente meno costosa.
Noto con piacere che ci sono anche persone normali e obiettive in questo thread purtroppo rovinato dai devoti a San Giacchetta.
Non sono d’accordo che la 3070 vada paragonata alla 6700, semplicemente AMD avendo lo stesso chip della 6800XT e andando di più in raster e uguale in RT l’ha posizionata correttamente più in alto come prezzo. (Teorici visto che a quei prezzi le vedremo tra 6 mesi)
Idem la 6800XT che sta sotto la 3080 come prezzo perché va meno in RT.
La 6700 andrà a scontrarsi con la 3060Ti e potrebbe essere molto interessante visto che sarà su un chip più piccolo e AMD potrebbe essere molto più aggressiva sul prezzo se ha disponibilità importanti di schede. Anche perché è quella la fascia dove si fanno numeri e viste le prestazioni va bene per tutti quelli che non hanno il 4K... quindi una larga maggioranza dei giocatori.
tuttodigitale
10-12-2020, 18:06
700 euro di solo VGA e poi spengo il raytracing. Che se mi compro una console da 500 euro ce l'ho sempre attivo. Oooooookkk.
considera che l'HW delle console è basato su HW AMD, motivo per cui la potenza a disposizione, anche nel migliore dei casi, sarà nettamente più bassa. Non è detto neppure che questo gap sulla stragrande maggioranza dei titoli DXR resti inalterato con software aggiornato...Piaccia o no, esiste un titolo dove la 6800XT scala meglio delle 3080 con DXR attivo....doppiando le prestazioni che erano al limite del giocabile per la 2080Ti....
Chi compra la RTX 3080 secondo me, dovrà in futuro non troppo lontano (2 anni) scendere a compromessi maggiori rispetto alla 6800xt, alla luce di un quantitativo di vram non adeguato alla potenza del chip, solo in parte espressa dai giochi attuali.
AceGranger
10-12-2020, 19:01
Noto con piacere che ci sono anche persone normali e obiettive in questo thread purtroppo rovinato dai devoti a San Giacchetta.
Non sono d’accordo che la 3070 vada paragonata alla 6700, semplicemente AMD avendo lo stesso chip della 6800XT e andando di più in raster e uguale in RT l’ha posizionata correttamente più in alto come prezzo. (Teorici visto che a quei prezzi le vedremo tra 6 mesi)
Idem la 6800XT che sta sotto la 3080 come prezzo perché va meno in RT.
La 6700 andrà a scontrarsi con la 3060Ti e potrebbe essere molto interessante visto che sarà su un chip più piccolo e AMD potrebbe essere molto più aggressiva sul prezzo se ha disponibilità importanti di schede. Anche perché è quella la fascia dove si fanno numeri e viste le prestazioni va bene per tutti quelli che non hanno il 4K... quindi una larga maggioranza dei giocatori.
io ho fatto il conto che, se la 6700 come scrivi anche tu andra a scontrarsi con la 3060Ti, presumo che la versione piu potente 6700XT ( ipotizzo che esistera ) andra a scontrarsi appunto con la 3070.
se fosse cosi, si "accoppierebbero" tutte; imho credo che arrivera anche questa fantomatica 3080Ti contro la 6900XT a 1100 dollari, lasciando la 3090 con nVlink a 1550 dollari nella sua nicchia di mercato.
Free Gordon
10-12-2020, 20:08
La concorrenza è tornata! :sofico:
Andate in pace... e comprate ciò che più vi aggrada. :ciapet:
ps.
Di performance/watt sacro Graal non ne parla più nessuno? :asd:
DakmorNoland
10-12-2020, 20:46
Sì comunque nemmeno più il consumo mettono... Che poi a me interessa! Ai tempi avevo comprato quello scandalo di GTX 970 solo per i consumi se no avrei preso altro... Anche la GTX 1070 l'ho presa per i consumi ottimi.
Adesso tutti a dire che i consumi non contano una mazza vabbè.
Ma poi mi chiedo ma perchè vedo ancora girare tutti sti amici di mr giacchetta? Poi vabbè anche scalmati sostenitori di AMD che ogni tanto appaiono, non sarebbe il caso di isolare questa gente? Il solito clima tossico. :(
Ma poi non capisco cosa ci sia da tirarsela, che la 2080 Ti si è dimostrata una scheda alquanto scarsa, c'è gente che ci ha lasciato mezzo stipendio e ora va come una 3060 o poco più.
La 3070 prezzo osceno e non mi pare vada tanto meglio della 3060 in 4k, ma in compenso costa un prezzo che sta fuori dal mondo!!
La 3080 hanno cannato completamente la RAM, un po' come successe con la 970 che ho avuto.
AMD sta faticando da anni per tirare fuori prodotti di buon livello, così non vi dovete ipotecare la casa e anzichè ringraziare siete li pronti a tirare fango a tutto spiano.
Che poi tanto il futuro saranno le console e il cloud, non certo il PC gaming a questi prezzi assurdi.
Io più che guardare cosa fa AMD, che mi pare stia lavorando sodo, sarei inviperito con tutti i soldi che vi ha fregato Nvidia con le sue schede farlocche. Vogliamo parlare delle versioni Super poi?
Comunque sono contento che troviate ancora tutta questa energia... Per litigare su due effettini o due frames in più o in meno, ma vi rendete conto che l'esperienza è decisamente migliore su console + OLED 4k? Perchè specie su certe esclusive Sony hanno implementato l'HDR come si deve e i TV OLED si mangiano qualsiasi monitor gaming a colazione?
Veramente mi pare assurdo scannarsi per avere due dettagli in più su monitor che hanno scadenti pannelli IPS con tutti i difetti di questo mondo.
Ma dove sono tutti sti professionisti che si prendono una scheda consumer per benchare cuda? chiedo per un amico
Oh i consumi non li citiamo mai mi raccomando :O
Peccato che mi sa che a sto punto queste GPU uno "scaffale" non lo vedranno mai! :muro:
AceGranger
10-12-2020, 21:58
La concorrenza è tornata! :sofico:
Andate in pace... e comprate ciò che più vi aggrada. :ciapet:
ps.
Di performance/watt sacro Graal non ne parla più nessuno? :asd:
non credo sia differente dal perf/dollar
se guardi il raster consuma meno AMD se guardi il raytracing nVidia recuperera tutto; se fai anche altro consuma meno nVidia
DakmorNoland
10-12-2020, 21:59
non credo sia differente dal perf/dollar
se guardi il raster consuma meno AMD se guardi il raytracing nVidia recuperera tutto; se fai anche altro consuma meno nVidia
Ma anche fosse ben venga, io in passato ho preferito Nvidia per i consumi, ma non metterli a prescindere mi pare una cavolata.
AceGranger
10-12-2020, 22:03
Ma anche fosse ben venga, io in passato ho preferito Nvidia per i consumi, ma non metterli a prescindere mi pare una cavolata.
oltre ai consumi dovrebbero anche tutti mettere l'efficienza, perchè anche i Threadripper consumano tanto ma lavorano come dannati; molte volte i soli consumi sono fuorvianti.
HwWizzard
10-12-2020, 22:16
io ho fatto il conto che, se la 6700 come scrivi anche tu andra a scontrarsi con la 3060Ti, presumo che la versione piu potente 6700XT ( ipotizzo che esistera ) andra a scontrarsi appunto con la 3070.
se fosse cosi, si "accoppierebbero" tutte; imho credo che arrivera anche questa fantomatica 3080Ti contro la 6900XT a 1100 dollari, lasciando la 3090 con nVlink a 1550 dollari nella sua nicchia di mercato.
Per 6700 intendevo la XT ;) Cioe il chip full.
Sulla 3080Ti non so, mi pare ci sia poco spazio per lavorare sul chip, mettere 16GB o 20GB di Vram come visto non cambia le prestazioni. E continuo a non capre i discorsi sul fatto che le nVidia non abbiano abbastanza VRAM... mi sembra chiaramente dimostrato che 8 o 16 cambia zero, e lo scenario non cambierà nei prossimi 5-6 anni. Forse serviranno per l'8K ma le schede di oggi sono comunque impossibilitate a farlo girare anche con 128GB di VRAM
Mentre potrebbe arrivare la 3070Ti ad impattare la 6800, magari con GA102
oltre ai consumi dovrebbero anche tutti mettere l'efficienza, perchè anche i Threadripper consumano tanto ma lavorano come dannati; molte volte i soli consumi sono fuorvianti.
Io i consumi li ho tirati in ballo solo per un discorso diverso. Importa zero di quanto consuma una VGA da 700+ Eur.
Era per capire se AMD poteva tirare di più il collo alle VGA e consumare quanto nVidia, ma dai test in OC che ho visto scalano da schifo quindi suppongo che il range dato da AMD sia quello dove si esprime il massimo potenziale senza far esplodere i consumi.
AceGranger
10-12-2020, 22:22
Per 6700 intendevo la XT ;) Cioe il chip full.
bho spero facciano piu varianti
E' successo già da un po', ma ovviamente è tornato con un clone, com'è suo solito fare.
Quoto soltanto alcune cose di un suo commento, per dimostrarlo inequivocabilmente (se ce ne fosse ancora bisogno).
E chi altri poteva sapere che il tuo precedente nick fosse storpiato, se non proprio tu? Infatti nickname ha sbagliato a chiamarti Locusta, perché in realtà eri lucusta.
Non servono documenti per capire che sei il nuovo clone di lucusta: lo si capisce subito da come scrivi, ma soprattutto da quello che scrivi.
No, tu non hai proprio alcun diritto di rispondere, invece, perché sei stato bannato.
Come non hai alcun diritto per chiedere ban o sospensioni a carico di altri utenti, perché tutto questo casino l'hai generato nuovamente tu.
Dunque è soltanto il tuo account che andrebbe bannato, e i tuoi commenti cancellati, in modo da ripulire il forum.
Quindi, fammi capire bene: tutti quelli che conoscono come si scrive l'alias di un altro utente sono quell'utente?
Quindi sei tu lucusta!
(ho solo applicato il tuo teorema).
Tutti quelli che parlano in un certo modo e trattano certi argomenti sono quindi la stessa persone?
Allora nickname88, al135 e AceGranger sei sempre tu, visto che fate gli stessi discorsi e parlate allo stesso modo.
(ho solo applicato il tuo teorema).
E per il diritto di parola?
Io sono nato in una democrazia, non sotto un regime fascio-nazionalista totalitario e alquanto gretto.
nel posto in cui vivo tutti hanno diritto di parola, mica siamo nel medioevo.
Se tu vuoi applicare effettivamente questa regola, allora il forum si svuoterebbe per i ban dei cloni che certi tizzi hanno aperto negli anni.
O credi che il vecchio PaulGuru ( https://www.hwupgrade.it/forum/member.php?action=getinfo&userid=443279 ), bannato a fine 2016 per il suo comportamento antisociale verso qualsiasi utente, non si sia riciclato con almeno un altro nick name a caso?
O non noti la stranezza che alias vecchi di 15 anni che hanno il 90% dei messaggi nel solo 2020 ed il restante 10% nel mercatino dell'usato sparso nei restanti 15 anni, con medie di post di 1 post al giorno su oltre 5000 giorni in cui già solo gli ultimi 500 messaggi sono stati fatti da agosto ad oggi, con una media di almeno 5 messaggi al giorno non sembrano altrettanto sospetti?
Sarà quello un account usato fino a due o tre anni fa esclusivamente per fare "operazioni commerciali" sul mercatino del forum e poi riciclato sulle news per sostituire quello che in effetti si usava e che magari risultava troppo "sporco" per questo periodo o proprio bannato?
Perché è strano vedere un utente bannato da 15-20 messaggi al giorno che sparisce e vedere comparire, nello stesso periodo, un account che prima faceva si e no 1 post a settimana cominciare ad usare il suo account per scrivere commenti sulle news e nel forum, passando da 1 post a settimana a 15-20 al giorno.
Perché, ad esempio, io sto al135 non me lo ricordo sulle news delle schede video negli ultimi 15 anni...
Il suo primo messaggio sulle news lo trovo sulle prove delle 1080 (guarda un po' proprio quando un altro utente è stato bannato, ma guarda che strano!).
Quindi il tuo "intuito" si ferma solo a cercare di riconoscere, sbagliando, i cloni di lucusta e perciò la tua regola si limita solo a certi utenti?
Utenti che "non hanno più diritto di parola perché bannati", ma che poi il ban ricevuto sia legittimo o meno è tutto un altro paio di maniche?
Allora, se "accidentalmente" vieni bannato con la tua utenza, per il principio di un regime fascio-nazionalista-totalitario tu non dovresti farti più leggere, per tue stesse parole?
Buono a sapersi, almeno abbiamo qualcosa in cui sperare per pulire questo posto da certi interventi di un certo tipo.
Non servono documenti per capire che sei il nuovo clone di lucusta: lo si capisce subito da come scrivi, ma soprattutto da quello che scrivi.
Quindi il tuo problema non è chi lo scrive, ma cosa si scrive, perché probabilmente non ti piace quello che viene scritto?
Servono le prove per sostenere certe tesi e se non le hai sei solo un paranoico logorroico che si crede di essere una persona adulta, ma che in realtà non dimostra la maturità di un adolescente in preda al testosterone.
E anche a te viene semplicemente detto di rompere alla gente con il tuo "senso totalitario", perché da quello che si vede qui, su questi commenti, prendendo il regolamento alla mano, la metà degli utenti dovrebbe essere bannata, compreso tu che ti professi paladino della regola e correttezza.
fai ridere a parlare in questo modo, ma soprattutto fai vedere quanto sei limitato, lucusta, visto che per tua stessa tesi, conoscendo il nome "innominabile" ne sei tu stesso colone.
...e per scrivertelo mi hai dovuto far aprire un nuovo account, giusto per metterti alla berlina, povero illuso.
Fate una cosa buona per voi e per il forum stesso: cominciate a ragionare come adulti e non come bimbominkia piagnucolosi, che qua gli unici che se la ridono sono quelli che vi leggono.
E giusto per fartelo capire bene: non sono chi sostieni, quindi il tuo "intuito" è pari alla tua logica da quattro soldi;
sono solo uno che la pensa come tanti altri e che si è stancato di vedere quattro zoticoni fare letteralmente come gli pare in barba a regole sociali basilari, oltre a considerare quelle del forum sono quando fa comodo a loro.
Non sarete contenti fino a quando non rimarrete solo voi quattro zoticoni a parlare tra di voi, dandovi pacche sulle spalle per le baggianate che scrivete.
Chi sarà il prossimo che bannerai perché non ti piacciono gli argomenti che porta?
Paolo Corsini in persona, se solo ti girà la fantasia?
La concorrenza è tornata! :sofico:
Andate in pace... e comprate ciò che più vi aggrada. :ciapet:
ps.
Di performance/watt sacro Graal non ne parla più nessuno? :asd:
il consumo conta solo per una questione:
se sei a 300W massimo, ti basta l'alimentatore della passata configurazione TOP, se passi oltre i 300 e arrivi anche a 400, ne devi comprare uno nuovo.
la considerazione per avere al massimo quei consumi l'hanno fatta solo in questa ottica, ma logicamente viene messa in disparte per il semplice motivo che non è conveniente parlare del fatto che molti acquirenti nvidia dovranno semplicemente cambiare anche l'alimentatore se vogliono il "top".
sai che ci voleva sparare 400W!
...e poi basterà aspettare le custom per avere power limit più permissivi.
il consumo conta solo per una questione:
se sei a 300W massimo, ti basta l'alimentatore della passata configurazione TOP, se passi oltre i 300 e arrivi anche a 400, ne devi comprare uno nuovo.
la considerazione per avere al massimo quei consumi l'hanno fatta solo in questa ottica, ma logicamente viene messa in disparte per il semplice motivo che non è conveniente parlare del fatto che molti acquirenti nvidia dovranno semplicemente cambiare anche l'alimentatore se vogliono il "top".
sai che ci voleva sparare 400W!
...e poi basterà aspettare le custom per avere power limit più permissivi.
mah.. in generale chi mira a configurazioni top mette in conto consumi di alto livello, ergo anche alimentatori molto potenti. Chiaramente ben superiori al reale consumo massimo del pc in full load.. quindi se già prima aveva un sistema top non sono certo 60 watt extra che cambiano le cose.
Free Gordon
11-12-2020, 00:39
non credo sia differente dal perf/dollar
se guardi il raster consuma meno AMD se guardi il raytracing nVidia recuperera tutto; se fai anche altro consuma meno nVidia
:confused:
Cioè... AMD consuma sempre meno i questa tornata... :D il fatto che non vada come Nvidia nell'RT, è difficilmente giudicabile ad oggi, dato che nessun gioco RT sfrutta la cache di Navi per farlo e nessun gioco RT è stato sviluppato su base AMD.
La 3090 consuma 50W in più della 6900.
PS. "se fai anche altro" cosa vorrebbe dire? :stordita:
cdimauro
11-12-2020, 06:45
Quindi, fammi capire bene: tutti quelli che conoscono come si scrive l'alias di un altro utente sono quell'utente?
Quindi sei tu lucusta!
(ho solo applicato il tuo teorema).
Ti sei dimenticato il contesto: sulla carta dovresti essere un utente fresco di iscrizione, quindi un novello. Invece sei uno che conosce bene sia il forum sia gli utenti, inclusi quell bannati.
Che strana coincidenza...
Tutti quelli che parlano in un certo modo e trattano certi argomenti sono quindi la stessa persone?
Allora nickname88, al135 e AceGranger sei sempre tu, visto che fate gli stessi discorsi e parlate allo stesso modo.
(ho solo applicato il tuo teorema).
Qui dimostri soltanto che la natura sia stata matrigna, visto che non sei in grado di riconoscere che i contenuti E il modo di scrivere di questi 4 utenti è molto diverso.
E per il diritto di parola?
Io sono nato in una democrazia, non sotto un regime fascio-nazionalista totalitario e alquanto gretto.
nel posto in cui vivo tutti hanno diritto di parola, mica siamo nel medioevo.
Primo, un utente bannato NON ha diritto di parola, e il regolamento dovresti conoscerlo bene.
Secondo, questo è un forum PRIVATO, e l'amministrazione può decidere quello che vuole.
L'assoluto diritto di parola, quindi, NON è contemplato qui: ci sono delle regole e ti devi attenere a esse, altrimenti sei fuori.
Se tu vuoi applicare effettivamente questa regola, allora il forum si svuoterebbe per i ban dei cloni che certi tizzi hanno aperto negli anni.
O credi che il vecchio PaulGuru ( https://www.hwupgrade.it/forum/member.php?action=getinfo&userid=443279 ), bannato a fine 2016 per il suo comportamento antisociale verso qualsiasi utente, non si sia riciclato con almeno un altro nick name a caso?
Scusa, ma a me cosa frega? Io mi occupo, e a stento visto che ho poco tempo, dei troll con cui ho avuto a che fare, e quindi sono più "specializzato" a riconoscere loro (specialmente se mi hanno diffamato), e nel caso li segnalo.
Per la storia finisce qui, perché non sono onnisciente e quindi non posso conoscere ogni singolo utente del forum, che sia un clone o no.
O non noti la stranezza che alias vecchi di 15 anni che hanno il 90% dei messaggi nel solo 2020 ed il restante 10% nel mercatino dell'usato sparso nei restanti 15 anni, con medie di post di 1 post al giorno su oltre 5000 giorni in cui già solo gli ultimi 500 messaggi sono stati fatti da agosto ad oggi, con una media di almeno 5 messaggi al giorno non sembrano altrettanto sospetti?
Sarà quello un account usato fino a due o tre anni fa esclusivamente per fare "operazioni commerciali" sul mercatino del forum e poi riciclato sulle news per sostituire quello che in effetti si usava e che magari risultava troppo "sporco" per questo periodo o proprio bannato?
Perché è strano vedere un utente bannato da 15-20 messaggi al giorno che sparisce e vedere comparire, nello stesso periodo, un account che prima faceva si e no 1 post a settimana cominciare ad usare il suo account per scrivere commenti sulle news e nel forum, passando da 1 post a settimana a 15-20 al giorno.
Perché, ad esempio, io sto al135 non me lo ricordo sulle news delle schede video negli ultimi 15 anni...
Il suo primo messaggio sulle news lo trovo sulle prove delle 1080 (guarda un po' proprio quando un altro utente è stato bannato, ma guarda che strano!).
Io invidio davvero, e sono molto franco (come sempre, peraltro), chi abbia tutto questo tempo da spendere nel forum, inclusi i periodi in cui normalmente si dovrebbe lavorare.
Quindi il tuo "intuito" si ferma solo a cercare di riconoscere, sbagliando, i cloni di lucusta e perciò la tua regola si limita solo a certi utenti?
Direi di sì: vedi sopra. Le mie reti neurali, che hanno i loro bei limiti, sono allenate a riconoscere soltanto alcuni utenti.
Specialmente i tuoi cloni, lucusta, e quindi no: non mi sbaglio affatto. E quindi ogni volta segnalerò perché sei stato bannato e tuoi cloni devono esserlo parimenti. Come da regolamento.
Utenti che "non hanno più diritto di parola perché bannati", ma che poi il ban ricevuto sia legittimo o meno è tutto un altro paio di maniche?
Ah, adesso ti metti pure a sindacare sulla legittimità del ban. Ma non saresti un utente appena iscritto? Come fai a sapere di queste cose? Ma, soprattutto, come fai ad affermare che il ban sia legittimo o meno?
Premesso che se avessi letto il regolamento dovresti sapere che i moderatori hanno piena autonomia decisionale nel loro operato (e quindi, sulla carta, possono bannarti anche se si sono svegliati male la mattina), ci sono solidissime ragioni per averti bannato, che ho chiaramente e puntualmente riportato nell'altro thread, e ampiamente verificabili da chiunque andato a leggere tutti i tuoi commenti. Ma anche senza leggerli tutti, è sufficiente quello in cui mi hai diffamato pubblicamente (per l'n-esima volta), e tanto sarebbe bastato per cacciarti definitivamente.
Allora, se "accidentalmente" vieni bannato con la tua utenza, per il principio di un regime fascio-nazionalista-totalitario tu non dovresti farti più leggere, per tue stesse parole?
Certamente. Cosa non t'è chiaro del fatto che c'è un regolamento e lo devi rispettare?
Buono a sapersi, almeno abbiamo qualcosa in cui sperare per pulire questo posto da certi interventi di un certo tipo.
Non è cosa che possa fare un utente bannato e che si sia reiscritto. Detto in altri termini: la richiesta di fare pulizia riguarda gli utenti iscritti regolarmente, e quindi non tu, che non hai ormai alcun diritto in questo forum.
Quindi il tuo problema non è chi lo scrive, ma cosa si scrive, perché probabilmente non ti piace quello che viene scritto?
E niente, o non capisci o non vuoi capire. E non serve nemmeno avere una laurea in filologia.
Servono le prove per sostenere certe tesi e se non le hai sei solo un paranoico logorroico che si crede di essere una persona adulta, ma che in realtà non dimostra la maturità di un adolescente in preda al testosterone.
Insulti liberi: chi l'avrebbe mai detto...
E anche a te viene semplicemente detto di rompere alla gente con il tuo "senso totalitario", perché da quello che si vede qui, su questi commenti, prendendo il regolamento alla mano, la metà degli utenti dovrebbe essere bannata, compreso tu che ti professi paladino della regola e correttezza.
Fortunatamente non sei tu a giudicare, e non lo sarai mai.
Quando ho infranto il regolamento sono stato sospeso. Com'è giusto che sia (a parte la sospensione che mi ha appioppato Raven anni fa su un thread in cui si parlava di Oriana Fallaci, perché ha censurato la mia libertà di opinione che non era contraria né al regolamento né alle leggi), ma non mi sono mai sognato di arrivare al limite del ban.
fai ridere a parlare in questo modo, ma soprattutto fai vedere quanto sei limitato, lucusta, visto che per tua stessa tesi, conoscendo il nome "innominabile" ne sei tu stesso colone.
...e per scrivertelo mi hai dovuto far aprire un nuovo account, giusto per metterti alla berlina, povero illuso.
Fate una cosa buona per voi e per il forum stesso: cominciate a ragionare come adulti e non come bimbominkia piagnucolosi, che qua gli unici che se la ridono sono quelli che vi leggono.
Ancora insulti liberi, in pieno stile lucusta quando è messo alle corde. Chi l'avrebbe mai detto...
E giusto per fartelo capire bene: non sono chi sostieni, quindi il tuo "intuito" è pari alla tua logica da quattro soldi;
sono solo uno che la pensa come tanti altri e che si è stancato di vedere quattro zoticoni fare letteralmente come gli pare in barba a regole sociali basilari, oltre a considerare quelle del forum sono quando fa comodo a loro.
Vedremo se i moderatori saranno d'accordo con te o con me.
Non sarete contenti fino a quando non rimarrete solo voi quattro zoticoni a parlare tra di voi, dandovi pacche sulle spalle per le baggianate che scrivete.
Anche se fosse, quale sarebbe il problema? Tu non ti sfoghi in quella fogna di B&T, coi tuoi allegri compari?
Chi sarà il prossimo che bannerai perché non ti piacciono gli argomenti che porta?
A differenza tua se non sono d'accordo con qualcosa scrivo, argomento, e porto fatti. Tanto basta, ed è bastato finora. Che poi non piaccia quello che scrivo alle orde di troll non me ne può fregar di meno.
Paolo Corsini in persona, se solo ti girà la fantasia?
Come fai a conoscere così bene Corsini? Non dovresti essere un novello del forum?
Comunque tranquillo lucusta: questa è l'ultima volta che replico ai tuoi cloni. L'ho fatto soltanto perché mi hai tirato nuovamente in ballo, e per precisare come stiano realmente le cose.
AceGranger
11-12-2020, 09:22
:confused:
Cioè... AMD consuma sempre meno i questa tornata... :D il fatto che non vada come Nvidia nell'RT, è difficilmente giudicabile ad oggi, dato che nessun gioco RT sfrutta la cache di Navi per farlo e nessun gioco RT è stato sviluppato su base AMD.
La 3090 consuma 50W in più della 6900.
PS. "se fai anche altro" cosa vorrebbe dire? :stordita:
il consumo lo intendevo a parita di lavoro;
"se fai altro", ambito lavorativo; se fai render ad esempio, nVidia avra comuqnue il consumo di picco superiore, ma renderizzerai il doppio piu veloce ( nei software Pro dove usi tutte le nuove FP32 hai un boost vicino al raddoppio rispetto alla 2080Ti ) o addirittura 4 volte superiore se usi anche gli RT core, quindi alla fine saranno piu efficienti; nei giochi RT idem, hai consumi di picco superiori ma fps sensibilmente superiori quindi il consumo reale a parita di computazione sara uguale o inferiore.
nickname88
11-12-2020, 10:22
Primo, un utente bannato NON ha diritto di parola, e il regolamento dovresti conoscerlo bene.
Secondo, questo è un forum PRIVATO, e l'amministrazione può decidere quello che vuole.
L'assoluto diritto di parola, quindi, NON è contemplato quì
Stai parlando con un ( a suo dire ) 60enne, che come puoi vedere non sa fare altro nella vita che sparare stupidaggini e discorsi improntati su un brand commerciale a lui preferito.
Continua infatti ad iscriversi quì probabilmente perchè non ha nessun altro con cui interagire nella vita, e probabilmente ciò che leggi quì dentro sono gli unici argomenti che riesce a trattare nel sociale.
E' probabilmente una persona sola e un fallito nella vita e che fa solo il leone da tastiera.
L'assoluto diritto di parola, quindi, NON è contemplato quìA quanto pare lui non ci arriva, è inutile.
Fa solo ridere quando afferma di avere chissà quali diritti e avanza richieste di ban ( LUI ) nonostante non sia nessuno :asd:
Almeno è sempre bello farsi 4 risate quando avanza certe pretese.
E per il diritto di parola?
Io sono nato in una democrazia, non sotto un regime fascio-nazionalista totalitario e alquanto gretto.
nel posto in cui vivo tutti hanno diritto di parola, mica siamo nel medioevo.
Servono le prove per sostenere certe tesi e se non le hai sei solo un paranoico logorroico che si crede di essere una persona adulta, ma che in realtà non dimostra la maturità di un adolescente in preda al testosterone.
Fate una cosa buona per voi e per il forum stesso: cominciate a ragionare come adulti e non come bimbominkia piagnucolosi, che qua gli unici che se la ridono sono quelli che vi leggono.
Non sarete contenti fino a quando non rimarrete solo voi quattro zoticoni a parlare tra di voi, dandovi pacche sulle spalle per le baggianate che scrivete.
Chi sarà il prossimo che bannerai perché non ti piacciono gli argomenti che porta?
Paolo Corsini in persona, se solo ti girà la fantasia?La frustrazione in certi individui è una brutta bestia. :read:
https://64.media.tumblr.com/39f13f6276e119bd6c68ed7b0193f5f9/tumblr_inline_pjzzmxqGJb1qzhl42_400.gifv
Quindi, fammi capire bene: tutti quelli che conoscono come si scrive l'alias di un altro utente sono quell'utente?No, ma le caxxate di Lucusta sono inconfondibili. :asd:
Questi livelli "di intenso scambio di messaggi d'amore" si raggiungevano solo nel thread ufficiale delle 3DFx Voodoo...:asd:
Che poi scusate, che commentate a fare queste nuove ed inutili schede video...io ho ancora una Voodoo 5 5500 PCI e CI GIRA TUTTO BENISSIMO ! :D
nickname88
11-12-2020, 10:54
:confused:
il fatto che non vada come Nvidia nell'RT, è difficilmente giudicabile ad oggi, dato che nessun gioco RT sfrutta la cache di Navi per farlo e nessun gioco RT è stato sviluppato su base AMD.
Le performance in RT le puoi tranquillamente misurare nel benchmark, che sono realizzati esclusivamente in DXR e pure con i bench integrati nella libreria DX12Ultimate.
Il fatto è che la performance RT di AMD è chiaramente inferiore, aldilà di ottimizzazioni. Non è un caso infatti che titoli da loro sponsorizzati come GodFall, Dirt5 e Shadowlands o in altri in cui va meglio di altri come SOTTR sono tutti titoli usano il RT solo e solamente nella riproduzione delle ombre e niente sull'illuminazione.
nickname88
11-12-2020, 11:15
AMD sta faticando da anni per tirare fuori prodotti di buon livello, così non vi dovete ipotecare la casa e anzichè ringraziare siete li pronti a tirare fango a tutto spiano.
Mi pare tu sia fuori dal giro, AMD in questi 3 modelli non propone cifre molto diverse da Nvidia.
La 6800XT costerebbe ( ipotetico ) solo 50$ in meno della 3080, non esattamente come con la precedente Radeon VII ci aveva abituato, nonostante quest'ultima sia stata criticata per il prezzo già troppo alto all'epoca.
La 6800 va di più della 3070 ma costa di più, mentre la a 6900XT costerebbe mille dollari da listino per andare appena più di una 3080 solo nel raster.
Questo però solo sulla carta, sulla realtà i prezzi attuali presso i rivenditori sono più che allineati fra 3080 e 6800XT, quindi non si capisce dove tu veda queste ipoteche su una e non sull'altra.
Che poi tanto il futuro saranno le console e il cloud, non certo il PC gaming a questi prezzi assurdi.Si certo, per il casual gaming certamente, come no, anzi lo sono già, non è necessario attendere il futuro.
Per il cloud con le giuste condizioni farebbe felice tutti.
Comunque sono contento che troviate ancora tutta questa energia... Per litigare su due effettini o due frames in più o in meno, ma vi rendete conto che l'esperienza è decisamente migliore su console + OLED 4k? Perchè specie su certe esclusive Sony hanno implementato l'HDR come si deve e i TV OLED si mangiano qualsiasi monitor gaming a colazione?
Veramente mi pare assurdo scannarsi per avere due dettagli in più su monitor che hanno scadenti pannelli IPS con tutti i difetti di questo mondo.
L'OLED TV non è esclusiva console, nulla ti vieta di collegarci il PC, cosa che già alcuni fanno e senza nemmeno doversi privare del monitor.
Quindi secondo te quì ci sarebbero persone ( anche youtubers o streamers famosi ) che spendono tanto per avere un maggior impatti visivo e poi per chissà quale assurda ragione ... continuano a preferire un orrendo monitor, che magari costa come un OLED TV o oltre, CHISSA' PERCHE' ?
Tutti stupidi si vede.
O magari sono misteri della fede :rolleyes:
Manifestazioni di masochismo estremo ? Il ballBusting non è sufficiente ? :rolleyes:
Può anche essere per alcuni. :read:
Su un TV ci posso giocare anche molto felicemente da casual gamer a certi titoli con un pad, ma per certe tipologie di gioco sono poco pratici, soprattutto FPS e strategici o semplicemente chi preferisce usare mouse e tastiera anche nel resto dei titoli sia in prima persona che in terza.
majinbu7
11-12-2020, 11:32
Ma perdi ancora tempo a volergli dimostrare quello che si evince dai grafici. Per i devoti a giacchetta se la 6800XT fa 2% in meno della 3080 le prende di brutto, mentre la 6800 che va 10% più della 3070 non vale un cazzo perchè doveva costare metà della 3070 che essendo nVidia anche se va di meno è meglio. I terrapiattisti sono più credibili di certi fanboy :sofico:
Poi ovviamente ti metterà il solito grafico di TPU credibile come la moneta da 3 Euro per la metodica di come è ricavato e hai di fronte il puro delirio religioso. Di fronte al quale inutile perdere tempo.
Magari meglio non tirare in ballo frasi che in questo forum hai scritto solo tu, riferendoti alla 6900XT che avrebbe bastonato la 3090 ;) .
Semplicemente ti stanno facendo notare che la 6800xt va leggermente meno della 3080 in raster e molto meno in RT , postandoti non solo la recensione di Techpowerup ma una raccolta di più di 12 recensioni differenti...forse sarebbe il caso di smetterla di scrivere at c**** e andare avanti...invece di continuarsi a lamentare dando dei fanboy ad altri quando..... :rolleyes:
DakmorNoland
11-12-2020, 11:37
Su un TV ci posso giocare anche molto felicemente da casual gamer a certi titoli con un pad, ma per certe tipologie di gioco sono poco pratici, soprattutto FPS e strategici o semplicemente chi preferisce usare mouse e tastiera anche nel resto dei titoli sia in prima persona che in terza.
E' proprio li che ti voglio, perchè se devi giocare all'FPS online è meglio un 1080p da 25-27" 144hz TN e cerchi di avere più frames al secondo possibili e non ti serve certo una 3080, per molti titoli ti basta una 1070 e ti parlo per esperienza.
Il perchè la gente spenda soldi su monitor da 1000€ è semplicemente per una questione di moda, esattamente come quelli che comprano l'iPhone, comunque se non hai capito come funziona il marketing e come fa ad indurre la gente a comprare roba inutile, ti consiglio di leggere un po' di roba su Edward Bernays, così magari ti fai anche un po' di cultura e la smetti di intasare ogni thread del forum.
Peraltro pure io spendo cifre su prodotti anche Nvidia come vedi dalla mia firma, ma almeno sono consapevole che sono soldi buttati dalla finestra, poi se vogliamo dire che è per passione ok, ma evidentemente tu e molti altri qui non ve ne rendete conto.
Difendere certi prodotti come certi monitor o schede video a prezzi osceni, non mi pare molto sensato, salvo voi abbiate un tornaconto personale ovviamente.
Che poi anche AMD si sia allineata ai prezzi di Nvidia sono d'accordo, ma bisognerà poi vedere lo street price fra qualche mese e tirare le somme. Comunque io non sono qui per fare l'avvocato di AMD, ma solo per dire che se siamo in questa situazione è solo per colpa di gente che compra prodotti sovrapprezzati, tanto mr giacchetta ha capito che la gente con il marketing comprerebbe le sue schede a qualsiasi somma. Idem Asus con i suoi infimi monitor della serie ROG o Acer con la serie Predator. E qui ritorniamo sulle tecniche di marketing, che ci hanno fritto il cervello.
Bisticci sull'fps in più o in meno a parte, a me interessa sapere se ci sono notizie per quanto riguarda l'encoder multimediale hardware. NVENC è ancora la scelta migliore? Come si piazzano le attuali versioni di VCE e QuickSync?
nickname88
11-12-2020, 13:15
E' proprio li che ti voglio, perchè se devi giocare all'FPS online è meglio un 1080p da 25-27" 144hz TN e cerchi di avere più frames al secondo possibili e non ti serve certo una 3080, per molti titoli ti basta una 1070 e ti parlo per esperienza. E dove starebbe scritto ciò ? :asd:
Un 144Hz è meglio ma non che senza non saresti competitivo.
Il fatto che un OLED sia superiore non significa che tutti i monitors siano uguali a livello di resa visiva, persino fra i monitors da gioco.
Il gioco con M+K su TV è poco pratico a prescindere, questa è la realtà.
O pensi che i consolari che decidono di usare il mouse e la tastiera sui pochi titoli supportati lo facciano davanti al TV ?
Inoltre per quale motivo dovrei fermarmi ad un vetusto 1080p ( addirittura da 27" poi ) con TN e per giunta con una 1070 quando in giro c'è di molto meglio ? Sembra semmai un discorso puramente da squattrinati, un po' come dire che la Ferrari in fondo non serve, basta la Panda. :read:
E ti parlo per esperienzaNoi altri l'esperienza invece non ce l'abbiamo vero ? :asd:
esattamente come quelli che comprano l'iPhone, comunque se non hai capito come funziona il marketing e come fa ad indurre la gente a comprare roba inutileQuindi un modello di monitor superiore sarebbe a prescindere inutile ? .... per te sicuramente! Seguendo la tua filosofia pure il TV OLED non è indispensabile, con un TV più economico giocheresti ugualmente.
Peraltro pure io spendo cifre su prodotti anche Nvidia come vedi dalla mia firma, ma almeno sono consapevole che sono soldi buttati dalla finestra, poi se vogliamo dire che è per passione ok, ma evidentemente tu e molti altri qui non ve ne rendete conto
Meno male che te ne rendi conto solo tu e noi tutti imbecilli fessi. :read:
Guarda che nel caso non ti fossi accorto nessuno ha mai messo in discussione che i prezzi proposti non siano spesso allineati con quanto offerto, ed è un fattore legato a molti beni di lusso. La novità quindi non si capisce bene dove sarebbe ...
Sono semplicemente "sfizi", che è comunque un aspetto importante nella vita di chiunque, specie se i soldi ci sono.
Il perchè la gente spenda soldi su monitor da 1000€ è semplicemente per una questione di modaSpero tu stia sempre parlando di monitor da gioco e non di altro tipo.
I 1000€ li spendono perchè vogliono giocare a 144Hz ma a risoluzioni e qualità migliori rispetto a monitor di fascia bassa e le uniche offerte sul mercato costano quelle cifre.
Difendere certi prodotti come certi monitor o schede video a prezzi osceni, non mi pare molto sensato, salvo voi abbiate un tornaconto personale ovviamente.L'alternativa nell'altra sponda è la risoluzione dinamica con dettaglio scalato, vincolo del pad, 30fps e alcuna possibilità di gestione se non le classiche 2 modalità che però non vi è garanzia alcuna sul livello offerto, nè sul fatto che siano presenti.
Ognuno con i proprio soldi poi saprà decidere se vale la pena per lui spendere molto di più per avere maggiore libertà senza te che gli fai i conti in tasca.
Che poi anche AMD si sia allineata ai prezzi di Nvidia sono d'accordo
Meno male che sei d'accordo :
https://i.ibb.co/VMHFw06/Immagine.jpg
DakmorNoland
11-12-2020, 13:27
Meno male che sei d'accordo :
Ma cosa vuol dire? Intanto creano concorrenza anche se i prezzi sono allineati, che poi è ancora tutto da vedere visto che quello che conta alla fine è lo street price. Intanto mi risulta che il prezzo ufficiale della 3090 (di cui si parla in questo thread) sia 1500$ e quello della 6900XT 1000$, cioè non mi pare proprio lo stesso prezzo... :rolleyes:
Per le altre fasce vedremo, ma comunque sia la concorrenza la sta facendo eccome AMD.
Concludo dicendo che con te non si può parlare, non sai argomentare e flammi solo con toni totalmente fuori luogo. Non so se ti rendi conto che stai screditando l'intero forum con questo atteggiamento.
majinbu7
11-12-2020, 13:41
stanno facendo notare che la 6900 XT da 299W di consumo medio in gioco va poco meno di una 3090 FE da 365W di consumo, sempre medio, in game.
se le cose le devi dire le devi dire bene e complete, in modo obbiettivo e competente.
quanto puoi tirare su una 3090?
quanto questa MSI suprim da 435W di consumo medio in gaming per il 3% in più sulla media dei giochi?
https://www.techpowerup.com/review/msi-geforce-rtx-3090-suprim-x/29.html
quanto margine ha una 6900XT portata al medesimo consumo della 3090 suprim, potendo sfruttare 135W in più ?
le prestazioni di questa scheda sono altamente limitate esclusivamente da 2 fattori: dissipazione minimale, tanto che usa praticamente il medesimo dissipatore della sorella più piccola 6800 XT e le temperature del chip salgono, volendola ugualmente silenziosa come l'altra e power limit di 300W per non andare oltre la soglia del ridicolo.
con 20W di consumo in più offerto dal power limit anzi che riesce a fare molto più della 6800 XT, perché la differenza tra queste due schede è solo del 7% in più di consumo, offrendo quindi ancora abbastanza proporzionalmente un aumento comparabili di prestazioni, misurato qui nel 7%.
sblocchi il power limit sicuramente può offrire prestazioni al pari delle migliori custom 3090 in raster (che sono sulla soglia dei 2000 euro, quindi margine per metterci qualsiasi cosa c'è a volontà).
Ho quotato una persona in particolare, per una sparata che ha fatto...cosa c'entri tu...o è un'altro dei tuoi account pure HwWizzard :fagiano:
nickname88
11-12-2020, 13:49
Ma cosa vuol dire? Intanto creano concorrenza anche se i prezzi sono allineatiLa concorrenza per l'utenza serve a far abbassare i prezzi dei prodotti in primis e accelerare l'uscita di nuove soluzioni.
Se AMD allinea i prezzi ad Nvidia come fanno a scendere ? E se non scendono come possono essere incentivate ad anticipare le nuove gamme ?
Infatti dall'uscita della gamma AMD non ci sono stati tagli nemmeno nel prezzo di listino di nessuno dei prodotti del competitor.
che poi è ancora tutto da vedere visto che quello che conta alla fine è lo street price. Intanto mi risulta che il prezzo ufficiale della 3090 (di cui si parla in questo thread) sia 1500$ e quello della 6900XT 1000$, cioè non mi pare proprio lo stesso prezzo... :rolleyes: Parli di street price e poi tiri in ballo i prezzi di listino ?
Scegline uno prima e poi imposta il discorso.
Se però vuoi fare il focus sulla 6900XT ... parliamo di una scheda che va appena meglio di una 3080 nel raster, ma perde pesantemente in RT, non dispone di DLSS e per giunta non supporta CUDA.
E in questo momento ha minore disponibilità della 3090.
Per le altre fasce vedremo, ma comunque sia la concorrenza la sta facendo eccome AMD.Si ma non parlare di prezzi bassi per uno e alti per l'altro. Questo è un discorso che forse potevi fare per generazioni precedenti.
Concludo dicendo che con te non si può parlare, non sai argomentare e flammi solo con toni totalmente fuori luogo. Non so se ti rendi conto che stai screditando l'intero forum con questo atteggiamento.
E' il problema che si viene a creare quando gli stupidi e senza esperienza come noi che osano preferire un monitor e un PC al casual gaming su console incontrano uno come te che pensa di sapere cosa è meglio per gli altri.
nickname88
11-12-2020, 13:51
Ho quotato una persona in particolare, per una sparata che ha fatto...cosa c'entri tu...o è un'altro dei tuoi account pure HwWizzard :fagiano:
HWwizzard è un suo seguace, non un suo clone.
Non è un caso infatti che la storiella legata al fatto che TPU non sarebbe affidabile nasce dal fatto che lo disse quel nabbo di Lucusta perchè non gli piace quanto mostrato nei grafici.
E lui è uguale, gli porti 17 reviews + quella di GamersNexus e lui sà solamente dire che su Hwupgrade invece va uguale.
DakmorNoland
11-12-2020, 17:25
Non per dire ma ho messo nickname88 in ignore list e la discussione si è svuotata, come al solito scrive solo lui... boh
In ogni caso ricapitolando le cose importanti:
1 - I consumi non si sanno, perchè non contano più nulla!
2 - Nvidia ha messo un sacco di Ram nell'unica scheda dove non serviva facendo lievitare il prezzo a 1500$. Geni! :asd: Rendendo la 6900 XT molto più appetibile.
3 - Ray Tracing a favore di Nvidia al momento, d'altronde molti giochi sono ottimizzati Nvidia RTX vedi Cyberpunk, però poco da dire Nvidia si è mossa meglio.
4 - 3080 con 10GB di Ram vergognosa, sfido chiunque a comprarla (per 700-800€) e a fare la fine mia con la 970 3.5 + 0.5 GB, l'ho dovuta rivendere in fretta e fuori all'uscita della 1070.
5 - AMD se non altro ha messo 16GB su tutte le schede, mi pare decisamente più onesto.
6 - I giochi con RTX attivo fanno pochi frames anche sulle ammiraglie Nvidia
7 - DLSS: Ecco la soluzione, facciamo un bell'upscaling in stile console. Ah no ma console schifo brutto. Ah ma Jensen dice che è di moda!! Ah allora sì spettacolo! Finto 4k upscalato a gogo!! :D
Ditemi se ho riassunto bene tutti i punti salienti? :D
Ci rivediamo quando avremo schede disponibili e si potrà valutare lo street price, per ora lancio penoso da entrambe le parti. ;)
OrazioOC
11-12-2020, 17:51
Non per dire ma ho messo nickname88 in ignore list e la discussione si è svuotata, come al solito scrive solo lui... boh
In ogni caso ricapitolando le cose importanti:
1 - I consumi non si sanno, perchè non contano più nulla!
2 - Nvidia ha messo un sacco di Ram nell'unica scheda dove non serviva facendo lievitare il prezzo a 1500$. Geni! :asd: Rendendo la 6900 XT molto più appetibile.
3 - Ray Tracing a favore di Nvidia al momento, d'altronde molti giochi sono ottimizzati Nvidia RTX vedi Cyberpunk, però poco da dire Nvidia si è mossa meglio.
4 - 3080 con 10GB di Ram vergognosa, sfido chiunque a comprarla (per 700-800€) e a fare la fine mia con la 970 3.5 + 0.5 GB, l'ho dovuta rivendere in fretta e fuori all'uscita della 1070.
5 - AMD se non altro ha messo 16GB su tutte le schede, mi pare decisamente più onesto.
6 - I giochi con RTX attivo fanno pochi frames anche sulle ammiraglie Nvidia
7 - DLSS: Ecco la soluzione, facciamo un bell'upscaling in stile console. Ah no ma console schifo brutto. Ah ma Jensen dice che è di moda!! Ah allora sì spettacolo! Finto 4k upscalato a gogo!! :D
Ditemi se ho riassunto bene tutti i punti salienti? :D
Ci rivediamo quando avremo schede disponibili e si potrà valutare lo street price, per ora lancio penoso da entrambe le parti. ;)
1)Non è che se non ci sono in questa recensione allora non esistono più in generale, in quanti grafici di altre review mostrano la stessa cosa?Che 6800/900 xt consumano 20/30w in meno delle controparti nvidia?
Se poi qualcuno questa cosa se l'è legata al dito per le perculate di schede delle generazioni scorse, che consumavano una caterva di più per andare come la controparte(e mi riferisco a r9 290/390 vs 970/980,580 vs 1060 6gb, vega 64 vs 1080, vega 7 vs 2070s/2080/1080ti ecc...) allora meglio che si prendano del malox. :asd:
Ma non è questo il punto, il punto è che una differenza di watt così esigua non ti permette di sancire nulla, tanto hai bisogno di un 650w gold minimo per far andare una 6800 xt, idem la 3080.
2)Ci si scorda che 24gb prima li aveva la titan rtx da 2500 dollari, solo 1000 dollari in più della 3090, che sarà mai. :asd:
3)2 anni in più di sviluppo si sentono, turing gli è stata molto utile come generazione, però bisogna perkularla perchè si.
Ha fatto bene amd a portarsi in gamma le radeon polaris per 4 anni vero?:rolleyes:
4)E che problemi avrebbe la 970?Pensi che schede come la 290 4gb se la stia passando bene con le ultime uscite?:asd:
5)Non a gratis, 6800 costa 70/80 dollari in più della 3070, 6800 xt invece la devono prezzare a meno perchè deve compensare delle evidenti lacune lato software(rt e dlss su tutte).
6)Scopriamo l'acqua calda, ma con che resa visiva?E soprattutto, se fanno 40/50 fps di average in 4k sulle ultime uscite, non sono giocabili?:rolleyes:
7)Qundi lo fanno le console amd tutto ok, ma se lo fa nvidia su pc "è una markettata di Jensen" o robe simili?:asd:
Quando lo metterà amd invece che ci dirai?Che Lisa Lisa ha fatto un'opera pia? :asd: :asd:
nickname88
11-12-2020, 17:57
Non per dire ma ho messo nickname88 in ignore list e la discussione si è svuotata, come al solito scrive solo lui... boh
In ogni caso ricapitolando le cose importanti:
1 - I consumi non si sanno, perchè non contano più nulla!
2 - Nvidia ha messo un sacco di Ram nell'unica scheda dove non serviva facendo lievitare il prezzo a 1500$. Geni! :asd: Rendendo la 6900 XT molto più appetibile.
3 - Ray Tracing a favore di Nvidia al momento, d'altronde molti giochi sono ottimizzati Nvidia RTX vedi Cyberpunk, però poco da dire Nvidia si è mossa meglio.
4 - 3080 con 10GB di Ram vergognosa, sfido chiunque a comprarla
7 - DLSS: Ecco la soluzione, facciamo un bell'upscaling in stile console. Ah no ma console schifo brutto. Ah ma Jensen dice che è di moda!! Ah allora sì spettacolo! Finto 4k upscalato a gogo!! :D
Ditemi se ho riassunto bene tutti i punti salienti? :D
Si il tripudio dell'ignoranza :sofico:
DakmorNoland
11-12-2020, 22:55
1)Non è che se non ci sono in questa recensione allora non esistono più in generale, in quanti grafici di altre review mostrano la stessa cosa?Che 6800/900 xt consumano 20/30w in meno delle controparti nvidia?
Se poi qualcuno questa cosa se l'è legata al dito per le perculate di schede delle generazioni scorse, che consumavano una caterva di più per andare come la controparte(e mi riferisco a r9 290/390 vs 970/980,580 vs 1060 6gb, vega 64 vs 1080, vega 7 vs 2070s/2080/1080ti ecc...) allora meglio che si prendano del malox. :asd:
Ma non è questo il punto, il punto è che una differenza di watt così esigua non ti permette di sancire nulla, tanto hai bisogno di un 650w gold minimo per far andare una 6800 xt, idem la 3080.
2)Ci si scorda che 24gb prima li aveva la titan rtx da 2500 dollari, solo 1000 dollari in più della 3090, che sarà mai. :asd:
3)2 anni in più di sviluppo si sentono, turing gli è stata molto utile come generazione, però bisogna perkularla perchè si.
Ha fatto bene amd a portarsi in gamma le radeon polaris per 4 anni vero?:rolleyes:
4)E che problemi avrebbe la 970?Pensi che schede come la 290 4gb se la stia passando bene con le ultime uscite?:asd:
5)Non a gratis, 6800 costa 70/80 dollari in più della 3070, 6800 xt invece la devono prezzare a meno perchè deve compensare delle evidenti lacune lato software(rt e dlss su tutte).
6)Scopriamo l'acqua calda, ma con che resa visiva?E soprattutto, se fanno 40/50 fps di average in 4k sulle ultime uscite, non sono giocabili?:rolleyes:
7)Qundi lo fanno le console amd tutto ok, ma se lo fa nvidia su pc "è una markettata di Jensen" o robe simili?:asd:
Quando lo metterà amd invece che ci dirai?Che Lisa Lisa ha fatto un'opera pia? :asd: :asd:
1)Beh li han sempre messi i consumi che gli costava, poi io sono utente del forum, potrò lamentarmi? Manco ti avessi insultato...boh
2)Sì ma questa non è una titan, quei 24GB servono a una mazza, avessero messo 16GB alla 3080 piuttosto! Dai ma anche da fan di Nvidia come fai a tollerare 10GB su una scheda come la 3080. Siamo onesti ragazzi...
3)Cioè mi hai contestato pure il punto in cui dicevo che Nvidia si è mossa meglio poco da dire?? :asd: E allora fai polemica tanto per.
4)Dico che la 970 sarebbe stata una scheda migliore con 4GB di memoria effettivi! Ma poi cosa vuoi scusa? Io sono il cliente e mi posso lamentare di quello che voglio o no? Tu manco l'hai comprata la 970 magari e viene a dirmi cosa va bene o meno? Guarda che io l'ho avuta suddetta scheda. :)
5)A me pare che la 6800XT costi meno della 3080 sbaglio? Il prezzo ufficiale credo sia almeno 50 euro/dollari meno. E per me come street price magari la si troverà a meno, si vedrà.
6)Vabbè come vuoi, lanciamo schede con tecnologie proprietarie (RTX) che nemmeno noi (Nvidia) riusciamo a far girare a dovere. Mi ricorda Physix, ti invito a rigiocare Batman Arkham City con Physix attivo. E' uno dei miei titoli preferiti e avendo avuto 970 e 1070 l'ho provato con tutto attivo. Bello schifo di effetto, invecchiato malissimo. Speriamo solo sto RTX invecchi meglio. ;)
7)Guarda che quelli che hanno sempre perculato le console erano proprio i PCisti master race semmai... Io ho sempre giocato sia su PC che su console senza problemi. :)
Ma secondo te me ne frega di Lisa? Sì AMD mi sta simpatica, ma non ho problemi a comprare Nvidia, mi prenderò tranquillamente una 3080 se mi gira, i soldi non mancano fortunatamente, anzi era la mia intenzione, ma con 10GB non si può vedere suvvia onestamente e al di la delle simpatie.
Mi sa che a sto giro si va di 6800 forse... e ovviamnete PS5 prima o poi per le esclusive Sony che danno una pista a qualsiasi titolo su PC, basta vedere i premi visti oggi da The Last of Us Part 2.
HwWizzard
12-12-2020, 05:57
Magari meglio non tirare in ballo frasi che in questo forum hai scritto solo tu, riferendoti alla 6900XT che avrebbe bastonato la 3090 ;) .
Semplicemente ti stanno facendo notare che la 6800xt va leggermente meno della 3080 in raster e molto meno in RT , postandoti non solo la recensione di Techpowerup ma una raccolta di più di 12 recensioni differenti...forse sarebbe il caso di smetterla di scrivere at c**** e andare avanti...invece di continuarsi a lamentare dando dei fanboy ad altri quando..... :rolleyes:
Eccone un altro... ma ero rimasto che andassero in coppia! Ci deve essere stata una mutazione e adesso vanno in 3:asd: :asd:
cdimauro
12-12-2020, 06:39
ma in sicilia si sta cosi male?
Fatta eccezione per la cronica mancanza di lavoro e le infrastrutture non adeguate (entrambe frutto dello sfruttamento coloniale dovuto all'unità d'Italia), non direi proprio. Perché questa domanda? :mbe:
considera che l'HW delle console è basato su HW AMD, motivo per cui la potenza a disposizione, anche nel migliore dei casi, sarà nettamente più bassa. Non è detto neppure che questo gap sulla stragrande maggioranza dei titoli DXR resti inalterato con software aggiornato...Piaccia o no, esiste un titolo dove la 6800XT scala meglio delle 3080 con DXR attivo....doppiando le prestazioni che erano al limite del giocabile per la 2080Ti....
Se è Shadow of the Tomb Raider non mi pare che le prestazioni vengano doppiate. La 2080Ti sta un po' sotto le 6900 XT e 6800 XT, ma non di molto.
Comunque c'è da dire che al momento sembra che nei giochi che facciano uso più massiccio del ray tracing sono quelli in cui le AMD perdono di più, e viceversa abbiano discrete prestazioni laddove l'uso sia più leggero.
SE questo trend fosse confermato dubito fortemente che in futuro che l'attuale gap possa essere colmato grazie al fatto che le console abbiano tutte GPU AMD integrate, ma potrebbe addirittura aumentare.
Chi compra la RTX 3080 secondo me, dovrà in futuro non troppo lontano (2 anni) scendere a compromessi maggiori rispetto alla 6800xt, alla luce di un quantitativo di vram non adeguato alla potenza del chip, solo in parte espressa dai giochi attuali.
E' possibile, ma se il benchmark è rappresentato dalle console, che hanno al massimo 10GB di VRAM utilizzabile, potrebbe non aver problemi per ben più di 2 anni.
Fermo restando che, anche con meno VRAM, bisognerà sempre vedere quali siano le prestazioni sul campo, come già detto. Alla fine i PC possono contare su una memoria di sistema espandibile, per cui si potrebbe sopperire in merito.
Poi se il futuro è lo streaming diretto da SSD/M.2, la quantità di VRAM avrà decisamente meno peso.
oltre ai consumi dovrebbero anche tutti mettere l'efficienza, perchè anche i Threadripper consumano tanto ma lavorano come dannati; molte volte i soli consumi sono fuorvianti.
This. Considerare esclusivamente i consumi non ha senso: bisogna tenere conto di quali prestazioni si ottengano con quei consumi.
Puoi consumare anche meno, ma se fai meno calcoli il minor consumo (assoluto) lascia il tempo che trova...
:confused:
il fatto che non vada come Nvidia nell'RT, è difficilmente giudicabile ad oggi, dato che nessun gioco RT sfrutta la cache di Navi per farlo
Eccone un altro: mi faresti vedere come un gioco potrebbe usare quella cache? :rolleyes:
2)Sì ma questa non è una titan, quei 24GB servono a una mazza, avessero messo 16GB alla 3080 piuttosto! Dai ma anche da fan di Nvidia come fai a tollerare 10GB su una scheda come la 3080. Siamo onesti ragazzi...
Onesti? E' soltanto il TUO punto di vista.
Mi pare che coi suoi 10GB di VRAM la 3080 se la cavi benissimo, anche in 4K.
La domanda che ci si potrebbe anche fare è: ma 16GB di VRAM servono veramente?
4)Dico che la 970 sarebbe stata una scheda migliore con 4GB di memoria effettivi! Ma poi cosa vuoi scusa? Io sono il cliente e mi posso lamentare di quello che voglio o no? Tu manco l'hai comprata la 970 magari e viene a dirmi cosa va bene o meno? Guarda che io l'ho avuta suddetta scheda. :)
I clienti dovrebbero guardare alle prestazioni: la scheda ti andava bene o no, pur con mezzo GB di VRAM azzoppato?
6)Vabbè come vuoi, lanciamo schede con tecnologie proprietarie (RTX) che nemmeno noi (Nvidia) riusciamo a far girare a dovere. Mi ricorda Physix, ti invito a rigiocare Batman Arkham City con Physix attivo. E' uno dei miei titoli preferiti e avendo avuto 970 e 1070 l'ho provato con tutto attivo. Bello schifo di effetto, invecchiato malissimo. Speriamo solo sto RTX invecchi meglio. ;)
Quindi se un gioco è invecchiato male è colpa di Physix?
7)Guarda che quelli che hanno sempre perculato le console erano proprio i PCisti master race semmai... Io ho sempre giocato sia su PC che su console senza problemi. :)
Analizzare la situazione di PC e console e valutarle in base a ciò che sono in grado di offrire non significa perculare le seconde. Significa semplicemente prendere atto della realtà.
Mi sa che a sto giro si va di 6800 forse... e ovviamnete PS5 prima o poi per le esclusive Sony che danno una pista a qualsiasi titolo su PC, basta vedere i premi visti oggi da The Last of Us Part 2.
Seeeee, adesso tiri in ballo pure le esclusive. Che per definizione non si possono provare su piattaforme diverse (nemmeno su XBox serie X).
"Dimenticando" pure che quello delle console è hardware riciclato paro paro proprio dai PC, con qualche personalizzazione...
cdimauro
12-12-2020, 07:04
La situazione è decisamente peggiorata dopo il suo ban: lucusta non solo continua a creare cloni, ma è totalmente fuori controllo nonché pericoloso, come si può vedere dagli ultimi commenti che ha scritto con minacce personali di stampo mafioso.
Ritengo, quindi, che servano misure drastiche per arginarlo, ed espongo le mie proposte.
@Tutti gli utenti:
- se riconoscete che un nuovo utente sia lucusta reiscritto NON replicategli assolutamente; ignoratelo;
- segnalatelo e aspettate che intervengano i moderatori.
@Moderatori:
- a mio avviso si dovrebbero cancellare completamente le nuove utenze, quindi facendo sparire anche tutti i commenti che sono stati scritti. I commenti che rimangono gli danno visibilità nonché gli consentono ancora di scrivere quello che vuole, di fatto rendendo vano il ban della persona;
- poiché la visibilità è l'unica cosa che gli interessi e si sente in diritto di potersi difendere poiché, sebbene bannato, afferma di essere ancora utente di questo forum (il che è vero, da questo punto di vista), dovreste valutare la possibilità di cancellare del tutto anche il suo vecchio account, quindi facendo sparire utenza e annessi commenti;
- in virtù di quanto espresso sopra, potreste anche cancellare i commenti degli altri utenti che gli hanno scritto, o che hanno scritto di lui, in modo da fare completa pulizia nel forum.
@Amministratori:
- potreste inserire nel regolamento che con il ban della persona verranno cancellate completamente le loro nuove utenze? E che si continuano a reiscrivere sarà completamento cancellata anche la loro vecchia utenza?
- potreste inserire nel regolamento che a fronte di diffamazioni a utenti del forum, o a persone / aziende, ci sarà il ban immediato della persona?
Magari riusciamo a far diventare più vivibile e civile il forum, a beneficio di tutti.
Segnalo per correttezza questo mio commento.
OrazioOC
12-12-2020, 07:59
1)Beh li han sempre messi i consumi che gli costava, poi io sono utente del forum, potrò lamentarmi? Manco ti avessi insultato...boh
2)Sì ma questa non è una titan, quei 24GB servono a una mazza, avessero messo 16GB alla 3080 piuttosto! Dai ma anche da fan di Nvidia come fai a tollerare 10GB su una scheda come la 3080. Siamo onesti ragazzi...
3)Cioè mi hai contestato pure il punto in cui dicevo che Nvidia si è mossa meglio poco da dire?? :asd: E allora fai polemica tanto per.
4)Dico che la 970 sarebbe stata una scheda migliore con 4GB di memoria effettivi! Ma poi cosa vuoi scusa? Io sono il cliente e mi posso lamentare di quello che voglio o no? Tu manco l'hai comprata la 970 magari e viene a dirmi cosa va bene o meno? Guarda che io l'ho avuta suddetta scheda. :)
5)A me pare che la 6800XT costi meno della 3080 sbaglio? Il prezzo ufficiale credo sia almeno 50 euro/dollari meno. E per me come street price magari la si troverà a meno, si vedrà.
6)Vabbè come vuoi, lanciamo schede con tecnologie proprietarie (RTX) che nemmeno noi (Nvidia) riusciamo a far girare a dovere. Mi ricorda Physix, ti invito a rigiocare Batman Arkham City con Physix attivo. E' uno dei miei titoli preferiti e avendo avuto 970 e 1070 l'ho provato con tutto attivo. Bello schifo di effetto, invecchiato malissimo. Speriamo solo sto RTX invecchi meglio. ;)
7)Guarda che quelli che hanno sempre perculato le console erano proprio i PCisti master race semmai... Io ho sempre giocato sia su PC che su console senza problemi. :)
Ma secondo te me ne frega di Lisa? Sì AMD mi sta simpatica, ma non ho problemi a comprare Nvidia, mi prenderò tranquillamente una 3080 se mi gira, i soldi non mancano fortunatamente, anzi era la mia intenzione, ma con 10GB non si può vedere suvvia onestamente e al di la delle simpatie.
Mi sa che a sto giro si va di 6800 forse... e ovviamnete PS5 prima o poi per le esclusive Sony che danno una pista a qualsiasi titolo su PC, basta vedere i premi visti oggi da The Last of Us Part 2.
1)Non è che se non ci sono qui allora bisogna gridare ai complotti albionici però, non è che qui lo ha deciso nvidia o amd di non mostrarli.:rolleyes:
2)Se si è onesti si dirà anche che la 3080 ha 2gb di vram in più della scheda che per listino sostituisce(2080/super), mentre la 3090 per vram offerta a quel prezzo non ha eguali(la 2080 ti ne offriva 11 e la titan che ne aveva 24gb costava 1000 dollari in più).:rolleyes:
Le uniche due che rispetto alla gen precedente non ci ha guadagnato niente sono le 3070/60ti, ma hannno avuto un boost di performance talmente elevato rispetto alle schede che sostituiscono(2060/70 super) che non mi sembra che la gente si stia facendo problemi ad acquistarle quando le trova a prezzi ragionevoli(leggasi anche al +30% del prezzo di listino). :asd:
3)E' evidente che non sai come rispondermi, perchè il vantaggio di nvidia nel raytracing nasce sia perchè nvidia ci ha lavorato 2 prima di amd.:rolleyes:
4)Non mi sembra che la 970 sia una scheda che abbia avuto così tanti problemi col suo mezzo gb di vram a banda ridotta, andava meglio sia delle 290/x al lancio, e anche adesso siamo in quella fascia lì.:rolleyes:
5)Cos'ho detto?La 6800 xt costa qualcosa in meno della controparte perchè deve colmare alcune lacune evidenti(leggasi rt, dlss, appetibilità in generale del brand ecc...).
Ma già la 6800 liscia per andare un 10% in più della 3070 ne costa il 15% in più come prezzo di listino.
6)"Dovere" non si intende di certo "maxare i peli del bus del cul del giocone di turno in 4k a 140fps", la soglia della giocabilità sopra i 30 fps c'è, anzi schede come la 3080/90 ma anche la 6800 xt non ci scendono neanche in 4k maxato, se non in rarissime circostanze.
Quindi quelle tecnologie come ray tracing e dlss sono un plus non da poco ad alti livelli, la prima aumenta la resa visiva in condizioni di gioco particolari, la seconda aumenta la giocabilità nel caso in cui si è stretti con i requisiti(e sulla fascia media già si sente) o anche dare quel boost con risoluzioni estreme.
7)Eh beh allora colpa di nvidia se dei fanboy del pcgaming perkulano le console.:rolleyes:
StylezZz`
12-12-2020, 08:18
Magari riusciamo a far diventare più vivibile e civile il forum, a beneficio di tutti
Guarda, la cosa sarebbe molto più semplice se tu e qualche altro la smetteste di continuare a rispondergli (e provocare) perdendo anche tempo inutile con post kilometrici, esiste il tasto ''segnala'' e la cosa finirebbe lì.
cdimauro
12-12-2020, 08:24
Guarda, la cosa sarebbe molto più semplice se tu e qualche altro la smetteste di continuare a rispondergli (e provocare) perdendo anche tempo inutile con post kilometrici, esiste il tasto ''segnala'' e la cosa finirebbe lì.
Mi quoto:
"Comunque tranquillo lucusta: questa è l'ultima volta che replico ai tuoi cloni."
e
"@Tutti gli utenti:
- se riconoscete che un nuovo utente sia lucusta reiscritto NON replicategli assolutamente; ignoratelo;
- segnalatelo e aspettate che intervengano i moderatori."
:read:
majinbu7
12-12-2020, 09:36
Eccone un altro... ma ero rimasto che andassero in coppia! Ci deve essere stata una mutazione e adesso vanno in 3:asd: :asd:
Ridi delle cavolate che scrivi tu cercando di far credere che le abbiano scritte altri...a beh se credi di incantare con le tue sparate tutta la gente che legge caschi male....torna nel tuo mondo dove la 6900XT bastona la 3090 :asd:
Free Gordon
12-12-2020, 10:26
Lucusta = Agente Smith :rotfl: :rotfl: :rotfl:
Le cose che si notano più spesso nei 3d di AMD ultimamente sono:
1) si parla essenzialmente di quanto va' forte Nvidia! :asd:
2) si parla come se ci si sentisse dei Galilei di fronte all'iquisizione... :asd:
Prendete la vita easy, people... :sofico:
StylezZz`
12-12-2020, 11:03
Mi quoto:
"Comunque tranquillo lucusta: questa è l'ultima volta che replico ai tuoi cloni."
e
"@Tutti gli utenti:
- se riconoscete che un nuovo utente sia lucusta reiscritto NON replicategli assolutamente; ignoratelo;
- segnalatelo e aspettate che intervengano i moderatori."
:read:
Della serie "predicare bene e razzolare male" ;)
Buona continuazione.
MiKeLezZ
12-12-2020, 12:14
RTX ON vs RTX OFF
https://www.techpowerup.com/review/cyberpunk-2077-benchmark-test-performance/4.html
Direi che per Cyberpunk la scelta sia una sola, ossia RTX 3080 con 1600p, DLSS e RT. Da 60 a 80 fps assicurati.
Spendere 700 euro di VGA e poi non usare il RT appare sempre più una pessima scelta.
La differenza è ancora più grande di quella che passa da un settaggio "medium" ad "ultra".
La vera next gen è il RT e con le nuove console aspettiamoci di vederla applicata quasi sempre.
nickname88
12-12-2020, 12:32
RTX ON vs RTX OFF
https://www.techpowerup.com/review/cyberpunk-2077-benchmark-test-performance/4.html
Direi che per Cyberpunk la scelta sia una sola, ossia RTX 3080 con 4K, DLSS e RT. Da 60 a 80 fps assicurati.
Spendere 700 euro di VGA e poi non usare il RT appare sempre più una pessima scelta.
La differenza è ancora più grande di quella che passa da un settaggio "medium" ad "ultra".
La vera next gen è il RT e con le nuove console aspettiamoci di vederla applicata quasi sempre.Quelle sono comparative a 2560x1600, non in 4K.
In 4K il RT va disattivato, ma comunque i 60fps su Ultra li dovrebbe tenere col DLSS attivo.
Spendere 700 euro di VGA e poi non usare il RT appare sempre più una pessima scelta.A 700 euro nemmeno le FE ti rifilavano ( senza considerare che la sped nemmeno era gratuita ), comunque è vero che il DLSS in questo titolo è un enorme vantaggio.
Free Gordon
12-12-2020, 19:40
RTX ON vs RTX OFF
https://www.techpowerup.com/review/cyberpunk-2077-benchmark-test-performance/4.html
Praticamente hanno trovato il modo di far pesare in modo assurdo effetti che (con un pò di precisione in meno...ma del tutto ininfluente... :asd: ) esistono da 15 anni!!! :rotfl:
Basta guardare un GTA5 qualunque di eoni fa'.. :asd:
Very compliments per l'evoluzione tecnologica!! :rotfl:
DakmorNoland
12-12-2020, 19:50
Praticamente hanno trovato il modo di far pesare in modo assurdo effetti che (con un pò di precisione in meno...ma del tutto ininfluente... :asd: ) esistono da 15 anni!!! :rotfl:
Basta guardare un GTA5 qualunque di eoni fa'.. :asd:
Very compliments per l'evoluzione tecnologica!! :rotfl:
Vabbè spero che sia uno scherzo perchè mi pare meglio senza RTX :asd:
Comunque è quello che dicevo prima di Physix effetti invecchiati malissimo tipo su Arkham City e mi è stato risposto "se il gioco è invecchiato da schifo non è colpa di Nvidia". Ma in realtà il gioco è invecchiato benissimo, è quando attivi Physix che inizia il film horror!! :asd:
cdimauro
12-12-2020, 20:21
Sì, come no: è tutta colpa di Physix...
Praticamente hanno trovato il modo di far pesare in modo assurdo effetti che (con un pò di precisione in meno...ma del tutto ininfluente... :asd: ) esistono da 15 anni!!! :rotfl:
Basta guardare un GTA5 qualunque di eoni fa'.. :asd:
Very compliments per l'evoluzione tecnologica!! :rotfl:
Forse è proprio perché guardi gli stessi giochi da 15 anni che non riesci a distinguere la differenza...
RTX ON vs RTX OFF
https://www.techpowerup.com/review/cyberpunk-2077-benchmark-test-performance/4.html
Direi che per Cyberpunk la scelta sia una sola, ossia RTX 3080 con 1600p, DLSS e RT. Da 60 a 80 fps assicurati.
Spendere 700 euro di VGA e poi non usare il RT appare sempre più una pessima scelta.
La differenza è ancora più grande di quella che passa da un settaggio "medium" ad "ultra".
La vera next gen è il RT e con le nuove console aspettiamoci di vederla applicata quasi sempre.
Ma è uno scherzo?
Le differenze RT ON vs. RT OFF in certi casi sono esileranti, nel senso che ci sono punti in cui senza RT l'immagine è decisamente migliore, molto meno cupa della versione con l'RT e decisamente più realistica come illuminazione, con l'RT attivo sembra davvero che le luci siano tutte fioche e spente....
Sempre più convinto che per l'RT se ne riparli tra qualche anno, adesso come adesso questi confronti IMHO suggeriscono invece l'esatto contrario, quanto sia inutile l'RT così come è oggi implementato, fondamentalmente perchè è troppo presto, le schede video sono ancora troppo poco potenti (e ci mancherebbe) per elaborare la scena come dovrebbe essere, ci vorranno ancora diverse generazioni perchè venga implementato a dovere.
Bye!
DakmorNoland
12-12-2020, 23:11
Ma è uno scherzo?
Le differenze RT ON vs. RT OFF in certi casi sono esileranti, nel senso che ci sono punti in cui senza RT l'immagine è decisamente migliore, molto meno cupa della versione con l'RT e decisamente più realistica come illuminazione, con l'RT attivo sembra davvero che le luci siano tutte fioche e spente....
Sempre più convinto che per l'RT se ne riparli tra qualche anno, adesso come adesso questi confronti IMHO suggeriscono invece l'esatto contrario, quanto sia inutile l'RT così come è oggi implementato, fondamentalmente perchè è troppo presto, le schede video sono ancora troppo poco potenti (e ci mancherebbe) per elaborare la scena come dovrebbe essere, ci vorranno ancora diverse generazioni perchè venga implementato a dovere.
Bye!
Sì ma io lo dico da anni che questi effetti sponsorizzati Nvidia lasciano il tempo che trovano, eppure ho sempre comprato Nvidia, quindi non si può nemmeno dire che lo dica perchè ho AMD, ma la gente si arrabbia boh. Ma manco fossero azionisti Nvidia, per me è dovere del cliente muovere critiche su quello che compra, soprattutto di prodotti che non sono per nulla regalati.
Infatti anche sta storia della 3080 con 10GB non mi va giù, io non la comprerò già solo per il quantitativo di ram, aspetterò serie 4000 o prenderò una scheda più economica o AMD, perchè non è per niente future proof.
da quello che si vede dai test di TPU, il gioco e' godibile tranquillamente anche senza RT
sara' perche con il raster siamo a livelli molto maturi, anni a ottimizzare simulazioni ha portato a questo, se la gioca con le prime implementazioni hw del RT
pero' dai tempo alle swh e sviluppatori a padroneggiare queste nuove risorse, che poi il simulato sara' lasciato decadere nell'oblio
comunque c'e' molto tempo tranquilli, di certo una swh non ottimizza di certo per un hw che non si trova o a prezzi inarrivabili per i piu',e' loro interesse vendere tante copie
cdimauro
13-12-2020, 05:15
Che il gioco sia godibile anche in raster è un bene, ma a me pare che tanta gente sia talmente abituata vedere una versione fake della realtà, da non solo non riuscire ad apprezzare qualcosa che gli si avvina, ma addirittura da preferire il fake alla versione più realistica...
IMO questa RX 6900 XT si comporta esattamente come ci si aspettava, ovvero competitiva in raster e inferiore in ray tracing rispetto alla RTX 3090, ma costando sensibilmente meno di quest'ultima.
Continuo a pensare che la RTX 3090 non sarebbe esistita senza la 6900 XT all'orizzonte, e avrebbe perfettamente senso da parte di Nvidia per non mettere in discussione il proprio primato, anche solo per una questione di marketing. Il fatto che abbiano cambiato nomeclatura della top gamma proprio nella generazione in cui AMD ha fatto uscire big Navi la dice lunga secondo me, nonostante Nvidia sia riuscita ad arrivare sul mercato prima anticipando i tempi (ancora complimenti al reparto marketing).
Se però guardiamo le dimensioni e i consumi della scheda si capisce che hanno dovuto portare il proprio chip al limite, mentre la 6900 XT è molto più bilanciata da questo punto di vista, quindi probabilmente ha anche più margine.
Per quanto riguarda le memorie, sembra che ci sia carenza di materia prima (forse a causa del covid?) e apparentemente AMD si è accaparrata tutte le GDDR6 da 16Gb, mentre Nvidia si è concentrata su altri tagli. Secondo me entrambe le strategie non sono ideali, mi sarei aspettato un quantitativo di memoria inferiore nella 6800 e invece tutta la gamma AMD ha lo stesso quantitativo di 16Gb. Lato Nvidia è evidente che il gap tra la 3080 (10Gb) e la 3090 (24Gb) sia abbastanza insensato.
Parlando di Cyberpunk... a mio modesto parere non andrebbe preso come esempio di realismo grafico, dai video che ho visto online l'atmosfera è decisamente plasticosa e i riflessi (soprattutto sulla pelle) esagerati sia con RTX che senza. Anche i volti delle persone non sono molto convincenti in quanto a realismo, mi sarei aspettato di meglio dopo tutto questo hype.
Ricordiamoci che il ray tracing al momento è implementato sotto forma di effetti grafici, per avere vero realismo fotografico bisogna aspettare motori grafici completamente in ray tracing.
Detto questo a me sinceramente del realismo fotografico non importa molto, ho come la sensazione che cercando di inseguire la realtà si stia limitando la creatività degli artisti. Forse ci si dimentica che stiamo parlando di videogiochi, il cui scopo dovrebbe essere divertire e per farlo non serve assolutamente il fotorealismo. O forse sto diventando vecchio :stordita:
comunque c'e' molto tempo tranquilli, di certo una swh non ottimizza di certo per un hw che non si trova o a prezzi inarrivabili per i piu',e' loro interesse vendere tante copie
CD Project Red a parte. :asd:
AceGranger
13-12-2020, 13:22
IMO questa RX 6900 XT si comporta esattamente come ci si aspettava, ovvero competitiva in raster e inferiore in ray tracing rispetto alla RTX 3090, ma costando sensibilmente meno di quest'ultima.
Continuo a pensare che la RTX 3090 non sarebbe esistita senza la 6900 XT all'orizzonte, e avrebbe perfettamente senso da parte di Nvidia per non mettere in discussione il proprio primato, anche solo per una questione di marketing. Il fatto che abbiano cambiato nomeclatura della top gamma proprio nella generazione in cui AMD ha fatto uscire big Navi la dice lunga secondo me, nonostante Nvidia sia riuscita ad arrivare sul mercato prima anticipando i tempi (ancora complimenti al reparto marketing).
Se però guardiamo le dimensioni e i consumi della scheda si capisce che hanno dovuto portare il proprio chip al limite, mentre la 6900 XT è molto più bilanciata da questo punto di vista, quindi probabilmente ha anche più margine.
Per quanto riguarda le memorie, sembra che ci sia carenza di materia prima (forse a causa del covid?) e apparentemente AMD si è accaparrata tutte le GDDR6 da 16Gb, mentre Nvidia si è concentrata su altri tagli. Secondo me entrambe le strategie non sono ideali, mi sarei aspettato un quantitativo di memoria inferiore nella 6800 e invece tutta la gamma AMD ha lo stesso quantitativo di 16Gb. Lato Nvidia è evidente che il gap tra la 3080 (10Gb) e la 3090 (24Gb) sia abbastanza insensato.
Parlando di Cyberpunk... a mio modesto parere non andrebbe preso come esempio di realismo grafico, dai video che ho visto online l'atmosfera è decisamente plasticosa e i riflessi (soprattutto sulla pelle) esagerati sia con RTX che senza. Anche i volti delle persone non sono molto convincenti in quanto a realismo, mi sarei aspettato di meglio dopo tutto questo hype.
Ricordiamoci che il ray tracing al momento è implementato sotto forma di effetti grafici, per avere vero realismo fotografico bisogna aspettare motori grafici completamente in ray tracing.
Detto questo a me sinceramente del realismo fotografico non importa molto, ho come la sensazione che cercando di inseguire la realtà si stia limitando la creatività degli artisti. Forse ci si dimentica che stiamo parlando di videogiochi, il cui scopo dovrebbe essere divertire e per farlo non serve assolutamente il fotorealismo. O forse sto diventando vecchio :stordita:
La 3090 sarebbe uscita comunque, esattamente come sono uscite in passato le Titan.
La 3090 è la Titan ( e lo ha pure detto durante la presentazione ); non l'hanno chiamata Titan per il semplice motivo che stanno eliminando tutte le nomenclature, hanno fatto sparire QUADRO, TESLA e TITAN dai nomi propri delle GPU, con Ampere hanno deciso di utilizzare solo codici.
prima Quadro RTX 8000
ora nVidia RTX A6000
prima Tesla V100
ora nVidia A100
e apparentemente AMD si è accaparrata tutte le GDDR6 da 16Gb, mentre Nvidia si è concentrata su altri tagli. Secondo me entrambe le strategie non sono ideali, mi sarei aspettato un quantitativo di memoria inferiore nella 6800 e invece tutta la gamma AMD ha lo stesso quantitativo di 16Gb.
AMD usa le GDDR6, nVidia usa le GDDR6X, si è accaparrate la fornitura iniziale di memorie in esclusiva fino al 2021 e sono prodotte solo da Micron.
i moduli a doppia densita poi non centrano nulla, visto che nVidia potrebbe usare 2 moduli per canale, ( la 3080 ha 10 chip, la 3090 ha 24chip ); la doppia densita ti serve quando vuoi andare oltre il doppio chip e arrivare a 48GB e, fra l'altro, la doppia densita sui chip GDDR6X arrivera nel 2021, attualmente NON esistono ed è il motivo per il quale la A6000 da 48 GB usa le GDDR6 normali e invece la 3090 da 24GB usa le GDDR6X.
non credo che ci sia molta differenza di prezzo fra usare 2 chip o uno solo a doppia densita.
La 3090 sarebbe uscita comunque, esattamente come sono uscite in passato le Titan.
La 3090 è la Titan ( e lo ha pure detto durante la presentazione ); non l'hanno chiamata Titan per il semplice motivo che stanno eliminando tutte le nomenclature, hanno fatto sparire QUADRO, TESLA e TITAN dai nomi propri delle GPU, con Ampere hanno deciso di utilizzare solo codici.
prima Quadro RTX 8000
ora nVidia RTX A6000
prima Tesla V100
ora nVidia A100
Ancora con questa storia della Titan.. che io sappia hanno semplicemente detto che la 3090 ha prestazioni di classe Titan, non che rimpiazza la Titan. Spero che in futuro faranno uscire una vera Titan basata su Ampere.
Basta guardare come Nvidia stessa descrive la 3090 per capire che sia nata come una scheda da gaming (e di conseguenza non una Titan):
https://www.nvidia.com/it-it/geforce...ries/rtx-3090/
Notare le differenze con la rispettiva pagina della Titan RTX:
https://www.nvidia.com/it-it/deep-le...cts/titan-rtx/
Per approfondire l'argomento: https://www.reddit.com/r/nvidia/comments/iovn4f/the_3090_is_not_a_titan_replacement_and_here_is/
AMD usa le GDDR6, nVidia usa le GDDR6X, si è accaparrate la fornitura iniziale di memorie in esclusiva fino al 2021 e sono prodotte solo da Micron.
i moduli a doppia densita poi non centrano nulla, visto che nVidia potrebbe usare 2 moduli per canale, ( la 3080 ha 10 chip, la 3090 ha 24chip ); la doppia densita ti serve quando vuoi andare oltre il doppio chip e arrivare a 48GB e, fra l'altro, la doppia densita sui chip GDDR6X arrivera nel 2021, attualmente NON esistono ed è il motivo per il quale la A6000 da 48 GB usa le GDDR6 normali e invece la 3090 da 24GB usa le GDDR6X.
In effetti mi era sfuggita la X alla fine, grazie per la precisazione, ma non sembra di aver parlato di doppia densità.
Il discorso generale comunque non cambia molto, il gap enorme tra la 3080 e la 3090 rimane comunque poco sensato imo. Probabilmente dovuto a difficoltà di produzione? :confused: Non capisco nemmeno la scelta di AMD di fornire tutte e 3 le schede presentate dello stesso quantitativo di memoria, ma sicuramente ci sarà una ragione, anche non tecnica.
AceGranger
13-12-2020, 14:30
Ancora con questa storia della Titan.. che io sappia hanno semplicemente detto che la 3090 ha prestazioni di classe Titan, non che rimpiazza la Titan. Spero che in futuro faranno uscire una vera Titan basata su Ampere.
Basta guardare come Nvidia stessa descrive la 3090 per capire che sia nata come una scheda da gaming (e di conseguenza non una Titan):
https://www.nvidia.com/it-it/geforce...ries/rtx-3090/
Notare le differenze con la rispettiva pagina della Titan RTX:
https://www.nvidia.com/it-it/deep-le...cts/titan-rtx/
Per approfondire l'argomento: https://www.reddit.com/r/nvidia/comments/iovn4f/the_3090_is_not_a_titan_replacement_and_here_is/
non è che un post a vanvera su reddit cambia la situazione, quello che ha detto nella presentazione è chiaro
dal minuto 34:14 al minuto 34:50
https://www.youtube.com/watch?v=QKx-eMAVK70
la 3090 gigante Ampere sostituisce la Titan come TOP GPU dell'architettura in corso e la indirizza negli stessi ambiti in cui era indirizzata la Titan: Simulazione, Rendering, VR, Real Time, Montaggio video etc. etc.
Le pagine della Titan sul sito nVidia cambiano ciclicamente, inizialmente era stata messa assieme alle GeForce, poi hanno segmentato tutto.Le limitazioni delle Titan ci sono sempre state e variano di generazione in generazione; la Titan XP non aveva nemmeno lei i driver OpenGL e anche la Titan RTX aveva comunque limitazioni OpenGL rispetto alle QUADRO.
Quello che hanno fatto è normalizzare gli ambienti, driver QUADRO ambienti OpenGL, driver STUDIO ambienti DX e derivati e GPGPU.
@AceGranger
Ma nemmeno un post a vanvera su hwupgrade cambia la situazione. Nella presentazione non dice che la 3090 sostituisce la Titan, non so dove l'hai sentito. Dice solamente che dall'esperienza Titan hanno scoperto una nuova nicchia di mercato e la 3090 è la risposta. D'altra parte Nvidia la presenta come scheda gaming, per cui non può avere lo stesso target delle Titan.
nickname88
13-12-2020, 16:43
@AceGranger
Dice solamente che dall'esperienza Titan hanno scoperto una nuova nicchia di mercato e la 3090 è la risposta. D'altra parte Nvidia la presenta come scheda gaming, per cui non può avere lo stesso target delle Titan.Più chiaro di così ?
D'altra parte Nvidia la presenta come scheda gamingNvidia indica la 3080 come soluzione top del gaming.
AceGranger
13-12-2020, 17:35
@AceGranger
Ma nemmeno un post a vanvera su hwupgrade cambia la situazione. Nella presentazione non dice che la 3090 sostituisce la Titan, non so dove l'hai sentito. Dice solamente che dall'esperienza Titan hanno scoperto una nuova nicchia di mercato e la 3090 è la risposta.
stai trollando ? :asd:
dice esattamente che la sostituisce, la 3090 prende il posto della Titan (RTX) perchè non serve piu una linea di nicchia ma una intera fascia strutturata :p, e il tutto ricade nell'ecosistema STUDIO.
@AceGranger
Ma nemmeno un post a vanvera su hwupgrade cambia la situazione. Nella presentazione non dice che la 3090 sostituisce la Titan, non so dove l'hai sentito. Dice solamente che dall'esperienza Titan hanno scoperto una nuova nicchia di mercato e la 3090 è la risposta.
Non so cosa abbia capito tu, no perche pochi secondi prima ti dice, con slide a caratteri cubitali, che la 3080 è la TOP GPU per il GAMER e poi ti presenta la 3090 che presenta PRIMA come scheda creator, POI come scheda per il non plus ultra a 8K/simulatori.
Se sei un creator scaricherai i driver Studio, se sei gamer scaricherai i driver Game Ready.
DakmorNoland
13-12-2020, 17:44
Non so cosa abbia capito tu, no perche pochi secondi prima ti dice, con slide a caratteri cubitali, che la 3080 è la TOP GPU
Ma TOP cosa?? Che tra poco escono le 3080 Ti, è già uscito l'articolo e poi ero io che mi lamentavo ingiustamente dei soli 10GB. Vero? :rolleyes: Pure Nvidia si è accorta di aver fatto una fesseria.
All'uscita delle console next gen è sempre richiesta più ram è una regola ferrea. Dovevano mettere 16GB sulla 3080 punto! E io ci avrei anche fatto un pensierino nei prossimi mesi, insieme alla PS5, ma così per me è scaffale e sto con la 1070.
Tanto vedrete che uscirà la Ti, la Super e chissà quali altre versioni. Compatisco solo chi si è già preso una 3070 o 3080... :doh:
Nvidia indica la 3080 come soluzione top del gaming.
Ma anche no.
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3090/
il tutto per fornirti l'esperienza di gioco definitiva.
@AceGranger
A me sembra che tu stia trollando. Quotami le parole esatte quando dice che la 3090 sostituisce la Titan
nickname88
13-12-2020, 18:07
Ma anche no.
Grazie per la scheda tecnica, ma ne ero già a conoscenza. ;)
https://www.hwupgrade.it/articoli/skvideo/5834/geforce-rtx-3090-in-test-nvidia-ampere-all-ennesima-potenza_index.html
Tratto dalla review :
la 3090 è la migliore scheda video gaming in termini prestazionali, senza se e senza ma, tanto che Nvidia afferma che è possibile giocare persino a risoluzione 8K con il DLSS.
In realtà però, la RTX 3090 non è una "vera scheda video gaming". La stessa azienda non la vede in quel modo: la GeForce RTX 3090 è un prodotto che va a rimpiazzare la Titan RTX.
Si tratta di un prodotto di fascia alta che consente di giocare al massimo, ma allo stesso tempo guarda a tutto quel pubblico che vuole usare la GPU - e soprattutto l'elevata quantità di VRAM a bordo - per velocizzare carichi di lavoro come il rendering.
Ma TOP cosa?? Che tra poco escono le 3080 TiSi vede che non sei stato attento da piccolo quando la maestra ha spiegato la differenza fra il tempo presente e il futuro.
Nessuno è perfetto, però levarsi il paraocchi sicuramente migliora da subito la condizione. ;)
Vabbè ragazzi io ci rinuncio, continuate a credere quello che vi pare, nonostante Nvidia dica che è una scheda gaming (non solo, ma la scheda gaming definitiva) :doh:
Ora potete continuare con le vostre teorie, ma non aspettatevi mie risposte dato che siamo ampiamente OT
AceGranger
13-12-2020, 20:43
Ma TOP cosa??
oh, al momento del lancio quello è stato, 3080 TOP gaming, 3090 GPU Creator, punto.
se poi aggiungono la Ti come TOP gaming, sticaz, non cambia la presentazione e non cambia la 3090 come GPU a se.
Free Gordon
14-12-2020, 19:54
Sì, come no: è tutta colpa di Physix...
Forse è proprio perché guardi gli stessi giochi da 15 anni che non riesci a distinguere la differenza...
Ma ci sarà pure una differenza fra i fake e gli "orginale super-tuooop" :asd: ma è per ora, personalissima opinione, un fatto ininfluente.
A me interessa vedere una bella grafica (il 70% lo fanno gli artisti..) non mi interessa avere la riflessione corretta al millimetro.
Cioè...mi interesserebbe pure ma solo se la corda valesse il sacco. :)
Ora...Nvidia si è imbarcata in questa impresa del Raytracing quando nessuno se lo immaginava proprio perché matematicamente troppo esoso :D e quindi adesso bisogna per forza giustificare l'imprescindibilità di questa scelta nell'evoluzione della grafica videoludica realtime. :read:
Sappiamo benissimo che se lo fa Nvidia va' bene e serve, se lo fa ATI (o AMD) no, dato che il peso commerciale delle due aziende è differente.
E' ovvio che sia così...
Quindi ora ci becchiamo tutta la manfrina (riedizione di vecchie diatribe passate del resto :asd: ) in giochi anche molto belli graficamente come CP77 (belli con e senza super-riflessi) ma per valutare per bene l'evoluzione e l'effettivo vantaggio costi/benefici nell'utilizzo di queste tecniche mi riservo almeno almeno 3 annetti! ;)
Sarebbe bello vedere lo stesso gioco con riflessi fake e con riflessi "uber-original" benchato e valutato dal pdv d'impatto visivo, per avere un buon metro di paragone.... ma so benissimo che questo non avverrà mai!!! :D
D'ora in poi ci sorbiremo giochi con riflessi rasterizzati come 20 anni fa' :asd: che già HL2 faceva di meglio...e poi nello stesso gioco riflessoni uber pesanti come macigni che su Nvidia andranno necessariamente meglio (per ora, dato che AMD è appena entrata in questo settore :) ).
PS:
Che poi le uniche schede attualmente che rendono giocabile l'RT oggi sono le Ampère, le 2080Ti e le RDNA2, roba che non appartiene a fasce di prezzo per poveri mortali ma roba per astronauti... :rotfl:
Che il gioco sia godibile anche in raster è un bene, ma a me pare che tanta gente sia talmente abituata vedere una versione fake della realtà, da non solo non riuscire ad apprezzare qualcosa che gli si avvina, ma addirittura da preferire il fake alla versione più realistica...
E tutto ciò è tremendo... :eek: :rotfl:
Si chiamano videogiochi non per niente eh... :asd:
Preferisco il surrealismo al realismo, se devo godere per forza giocando con qualcosa che mi ricordi la realtà allora forse preferisco mollare il mouse e uscire di casa giocando con l'originale. :D
StylezZz`
14-12-2020, 22:46
PS:
Che poi le uniche schede attualmente che rendono giocabile l'RT oggi sono le Ampère, le 2080Ti e le RDNA2, roba che non appartiene a fasce di prezzo per poveri mortali ma roba per astronauti... :rotfl:
Allo stato attuale eliminerei anche RDNA2, ancora non garantiscono performance soddisfacenti, e i giochi sponsorizzati ''rtx'' non aiutano.
cdimauro
15-12-2020, 06:11
Ma ci sarà pure una differenza fra i fake e gli "orginale super-tuooop" :asd: ma è per ora, personalissima opinione, un fatto ininfluente.
A me interessa vedere una bella grafica (il 70% lo fanno gli artisti..) non mi interessa avere la riflessione corretta al millimetro.
Cioè...mi interesserebbe pure ma solo se la corda valesse il sacco. :)
Ora...Nvidia si è imbarcata in questa impresa del Raytracing quando nessuno se lo immaginava proprio perché matematicamente troppo esoso :D e quindi adesso bisogna per forza giustificare l'imprescindibilità di questa scelta nell'evoluzione della grafica videoludica realtime. :read:
Sappiamo benissimo che se lo fa Nvidia va' bene e serve, se lo fa ATI (o AMD) no, dato che il peso commerciale delle due aziende è differente.
E' ovvio che sia così...
Quindi ora ci becchiamo tutta la manfrina (riedizione di vecchie diatribe passate del resto :asd: ) in giochi anche molto belli graficamente come CP77 (belli con e senza super-riflessi) ma per valutare per bene l'evoluzione e l'effettivo vantaggio costi/benefici nell'utilizzo di queste tecniche mi riservo almeno almeno 3 annetti! ;)
Sarebbe bello vedere lo stesso gioco con riflessi fake e con riflessi "uber-original" benchato e valutato dal pdv d'impatto visivo, per avere un buon metro di paragone.... ma so benissimo che questo non avverrà mai!!! :D
D'ora in poi ci sorbiremo giochi con riflessi rasterizzati come 20 anni fa' :asd: che già HL2 faceva di meglio...e poi nello stesso gioco riflessoni uber pesanti come macigni che su Nvidia andranno necessariamente meglio (per ora, dato che AMD è appena entrata in questo settore :) ).
PS:
Che poi le uniche schede attualmente che rendono giocabile l'RT oggi sono le Ampère, le 2080Ti e le RDNA2, roba che non appartiene a fasce di prezzo per poveri mortali ma roba per astronauti... :rotfl:
E tutto ciò è tremendo... :eek: :rotfl:
Si chiamano videogiochi non per niente eh... :asd:
Preferisco il surrealismo al realismo, se devo godere per forza giocando con qualcosa che mi ricordi la realtà allora forse preferisco mollare il mouse e uscire di casa giocando con l'originale. :D
Se ne fai una questione puramente artistica / stilistica, hai ragione, e non ho assolutamente nulla da dire se un gioco venga realizzato con un engine che non sia fotorealistico, ma che rispetti per l'appunto l'obiettivo prefisso.
Ma qui stiamo parlando di giochi che cercano sempre di più il fotorealismo, e allora quello che hai scritto sopra non ha alcun senso, visto che riflessi, ombre, et similia riprodotti dagli engine raster sono OGGETTIVAMENTE peggiori di quelli che fanno uso dell'RTX.
Ovviamente per chi è in grado di analizzare le scene e valutarle correttamente.
E nVidia non c'entra una mazza: ha proposto un'innovazione tecnologia che è OGGETTIVAMENTE un rivoluzione rispetto alla grafica raster.
Infine, che un gioco possa essere bello in raster come in RT nulla da dire. Ma se mette a disposizione anche il RT... non c'è storia: si va di quello e non di raster. Ovviamente per chi può permetterselo.
L'eleganza dei monopolisti...
https://www.techspot.com/news/87946-ugly-side-nvidia-rollercoaster-ride-shows-when-big.html
AceGranger
15-12-2020, 23:59
L'eleganza dei monopolisti...
https://www.techspot.com/news/87946-ugly-side-nvidia-rollercoaster-ride-shows-when-big.html
hanno imparato da chi rincorre, visto che AMD ha fatto la stessa cosa poco tempo fa :asd:
cdimauro
16-12-2020, 04:45
Ma poi, quali monopolisti? Non sanno più cosa inventarsi per dare addosso a nVidia...
danielsan910
23-12-2020, 12:33
Se ne riparlerà quando saranno finalmente acquistabili tutte queste belle schede.
6800 XT a 670€ di listino
6900 XT a 1000€ di listino per +7% performance
Non ha alcun senso (ancor meno senso ha la GTX 3090 sia chiaro).
Come street price dovrebbe venire non più di 100€ oltre la 6800 XT imho.
Concordo, così come la 3090 che è così sovrapprezzata anche per via della memoria spropositata
Che il gioco sia godibile anche in raster è un bene, ma a me pare che tanta gente sia talmente abituata vedere una versione fake della realtà, da non solo non riuscire ad apprezzare qualcosa che gli si avvina, ma addirittura da preferire il fake alla versione più realistica...Io sono uno di quelli che non hanno problemi se un videogioco non rappresenta esattamente la realtà (o magari sono solo tra quelli che "si accontentano"). Forse sono solo vecchio, e per me il punto l'hai centrato con l'altro post:Forse è proprio perché guardi gli stessi giochi da 15 anni che non riesci a distinguere la differenza...Per me, che sono cresciuto vedendo l'evoluzione dei giochi da metà anni '90 in poi (partendo dal Game Boy e arrivando ora a PC e Xbox One), la vera evoluzione s'è davvero fermata coi giochi della settima generazione (PS3 e Xbox 360, quindi da 15 anni fa in avanti) e tanti titoli di quella generazione li sto ancora utilizzando oggi.
Col passaggio all'ottava (PS4, Xbox One) abbiamo ulteriormente affinato la cosa, ma non è stato un vero e proprio salto generazionale (se non per pochissimi giochi).
Sarà che come dicevo ho visto "crescere" i giochi da metà anni '90 in poi, e qualche anno fa c'erano veri e propri salti... Da qualche anno a questa parte ci sono solo affinamenti (perché, ragionevolmente, immagino che siamo talmente vicini alla realtà che non possiamo più fare i "salti" che facevamo anni fa).
Questi affinamenti, per me, attualmente da soli non valgono il prezzo richiesto per fare un salto generazionale all'hardware.
Per dire, se dovessi mai comprare una PS5 lo farei per il nuovo feedback sul controller per esempio, e non per la grafica più spinta... Ecco.
My 2 cents.
cdimauro
26-12-2020, 07:29
Che si possano notare meno certi progressi / "salti" rispetto al passato è indubbio. Devo dire che la grafica raster ha fatto enormi progressi.
Ma a mio avviso il ray tracing, pur con tutte le limitazioni del caso, sta mostrando una netta differenza col passato: è un altro "salto" in avanti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.