View Full Version : Nvidia GeForce RTX 3080 alla prova, l'era del ray tracing è finalmente iniziata
Redazione di Hardware Upg
16-09-2020, 15:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5827/nvidia-geforce-rtx-3080-alla-prova-l-era-del-ray-tracing-e-finalmente-iniziata_index.html
Recensione della GeForce RTX 3080, nuova scheda video di fascia alta di Nvidia basata su architettura Ampere. La Founders Edition si presenta con un design tutto nuovo per permettere di tenere a bada prestazioni senza precedenti, in grado di aprire la strada al gaming in 4K con ray tracing abilitato.
Click sul link per visualizzare l'articolo.
Beh, direi che le prestazioni sono un pelino più basse rispetto ai rumors. Resta sempre una bella bestia per il prezzo che ha!
Beh, direi che le prestazioni sono un pelino più basse rispetto ai rumors. Resta sempre una bella bestia per il prezzo che ha!
Si anche io mi aspettavo un netto miglioramento e invece è si migliore ma non robe fuori dal comune come dicevano agli inizi.
HyperText
16-09-2020, 15:14
La 3080 ha il doppio dei cores della 2080 Ti, frequenze maggiori e più del doppio dei TFLOPs... In teoria la 3080 dovrebbe avere più del doppio delle prestazioni della 2080 Ti, ma a scanso ha il 50-60%.
Come mai?
nessuno29
16-09-2020, 15:24
Diciamo che il complessivo è sfalsato da f1 2020 che mi pare un caso limite, comunque oramai si è capito che senza il dlss in rt non si va da nessuna parte... il futuro è questo.
bagnino89
16-09-2020, 15:34
Un capolavoro di scheda. Forse consuma un po' troppo, però.
Direi ottimo il design FE, volendo si può anche fare a meno di prendere una custom.
Queste schede non hanno niente di sorprendente, togli il DLSS 2.0 è i 4k a 60 fps per giochi di ORA (Control, Metro) con RTX non li raggiungi, figuriamocis per i prossimi!!!
Sembra che hanno spinto di 100W in più le schede per avere quei 20 fps in più.
Ora si capisce perchè hanno ridotto il prezzo, tra l'altro sembra che ci fanno un regalo a venderla "solamente" a 800 euro.
Per fortuna che gioco a 2k e il mio pensiero va alla 3070 o 3060Ti. Aspetto la Big Navi che cmq a livello prestazioni dovrebbe far male nella stessa fascia di prezzo/performance e poi decido se "it's safe to upgrade".
Gyammy85
16-09-2020, 15:36
Insomma +25-35% consumando di più, come previsto mesi fa da utenti e leakers attendibili, in questa review mi hanno sorpreso di più le perf di navi in alcuni titoli, niente male per una gpu tenuta su con lo sputo e quattro centesimi di marketing
Allora.. le prestazioni indubbiamente CI SONO. Eccome.
Come è abbastanza ovvio sono nel reale meno eclatanti delle promesse fatte da Nvidia durante la presentazione, ma credo ce lo aspettassimo tutti.
Doveroso anche dire che sono schede nuovissime e magari ci va pure qualche mese per avere dei driver fatti per bene che ne tirino fuori davvero la forza con i titoli attuali.
La vera botta al mercato sono i prezzi in proporzione alle prestazioni che le rendono davvero spettacolari.
Chiaramente la coseguenza diretta di questa scossa nel settore è l'istantaneaa trasformazione in piombo delle 2xxx vendute fin ora a peso d'oro. :fagiano:
Attendo con interesse anche un test della 3070 che mi attira parecchio.
Ho letto qualche recensione in rete e le prestazioni ci sono tutte, sia in 1440p, ma soprattutto in 4K.
Il performance/W è un po' migliore delle RTX 2080/Ti (dal 5 al 15% a seconda della recensione e gioco utilizzato), quindi bene anche sotto questo aspetto.
Il dissipatore della FE, fa' bene il suo lavoro nonostante i W da dissipare.
In ogni caso aspetto la RTX 3070, che potrebbe rivelarsi già adeguata per le mie esigenze.
Gyammy85
16-09-2020, 15:40
Allora.. le prestazioni indubbiamente CI SONO. Eccome.
Come è abbastanza ovvio sono nel reale meno eclatanti delle promesse fatte da Nvidia durante la presentazione, ma credo ce lo aspettassimo tutti.
Doveroso anche dire che sono schede nuovissime e magari ci va pure qualche mese per avere dei driver fatti per bene che ne tirino fuori davvero la forza con i titoli attuali.
La vera botta al mercato sono i prezzi in proporzione alle prestazioni che le rendono davvero spettacolari.
Chiaramente la coseguenza diretta di questa scossa nel settore è l'istantaneaa trasformazione in piombo delle 2xxx vendute fin ora a peso d'oro. :fagiano:
Attendo con interesse anche un test della 3070 che mi attira parecchio.
Insomma, si diceva +50% a destra e a manca, per non parlare delle perf in rt di decine di ordini di grandezza superiori, della serie faccio 80 fps ma con rt 500, le perf ci sono ma con 320 watt di tdp, ottima scheda ma non diciamo che la gente non si aspettava di più
La 3080 ha il doppio dei cores della 2080 Ti, frequenze maggiori e più del doppio dei TFLOPs... In teoria la 3080 dovrebbe avere più del doppio delle prestazioni della 2080 Ti, ma a scanso ha il 50-60%.
Come mai?
Perchè tra la scheda tecnica e la reale applicazione delle prestazioni misurate dal vero in un contest reale entrano in gioco tanti altri fattori.
Per la medesima ragione anche un render che su un single core richiede un tempo T non impiega mai T/8 su un octacore.
aldo87mi
16-09-2020, 15:43
Ahahaha e questa sarebbe il mostro di scheda velocissima per cui tanti scemi si sono venduti la 2080ti a 300 eur? Ridicola. Ahahahaha rido e godo. :D
Grazie Nvidia, ora sono veramente fiero e felice di tenermi la mia rtx 2060 super almeno per i prossimi due anni :)
HyperText
16-09-2020, 15:47
Perchè tra la scheda tecnica e la reale applicazione delle prestazioni misurate dal vero in un contest reale entrano in gioco tanti altri fattori.
Per la medesima ragione anche un render che su un single core richiede un tempo T non impiega mai T/8 su un octacore.
È chiaro, ma le GPU scalano eccelsamente con il numero di cores (non stiamo parlando di 2 vs 4 core, ma di 4000 vs 8000 cores).
Insomma, si diceva +50% a destra e a manca, per non parlare delle perf in rt di decine di ordini di grandezza superiori, della serie faccio 80 fps ma con rt 500, le perf ci sono ma con 320 watt di tdp, ottima scheda ma non diciamo che la gente non si aspettava di più
"Si diceva +50% a destra e a manca" si traduce nel mondo reale con "qualche esaltato cazzaro ha sparato cifre che non stanno nè in cielo nè in terra"
Diciamo che devi essere veramente nato ieri per berti una stronzata del genere.
Se sei qui da più di una settimana ti aspetti esattamente un quadro medio reale come quello esposto.
Poi oh.. magari in una determinata situazione di un determinato software in un determinato test davvero c'è un +50% matematico. Ma usarlo come bandiera è da cazzari peggio dei politici..
Per il consumo direi che è ovvio e scontato che una scheda top level abbia anche consumo elevato.
bagnino89
16-09-2020, 15:51
Ahahaha e questa sarebbe il mostro di scheda velocissima per cui tanti scemi si sono venduti la 2080ti a 300 eur? Ridicola. Ahahahaha rido e godo. :D
Grazie Nvidia, ora sono veramente fiero e felice di tenermi la mia rtx 2060 super almeno per i prossimi due anni :)
Hai in raster il 30% medio in più di una 2080 Ti (con driver che probabilmente si possono affinare un po'), però a 700 EUR invece di 1200. E ti pare poco?
300 EUR magari no, ma oggi come oggi una 2080 Ti non la puoi vendere a più di 500 EUR.
Gyammy85
16-09-2020, 15:52
"Si diceva +50% a destra e a manca" si traduce nel mondo reale con "qualche esaltato cazzaro ha sparato cifre che non stanno nè in cielo nè in terra"
Diciamo che devi essere veramente nato ieri per berti una stronzata del genere.
Se sei qui da più di una settimana ti aspetti esattamente un quadro medio reale come quello esposto.
Poi oh.. magari in una determinata situazione di un determinato software in un determinato test davvero c'è un +50% matematico. Ma usarlo come bandiera è da cazzari peggio dei politici..
Per il consumo direi che è ovvio e scontato che una scheda top level abbia anche consumo elevato.
Si guarda sicuro era una mia impressione, nessuno lo ha mai detto a parte qualche fanboy
Vabbè dai, salutoni, pure per quest'anno ce l'abbiamo fatta, ci vediamo fra due anni con hopper :O
Ahahaha e questa sarebbe il mostro di scheda velocissima per cui tanti scemi si sono venduti la 2080ti a 300 eur? Ridicola. Ahahahaha rido e godo. :D
Grazie Nvidia, ora sono veramente fiero e felice di tenermi la mia rtx 2060 super almeno per i prossimi due anni :)
Se esistono dei pazzi che hanno venduto schede pagate 1500 e passa euro a TRECENTO per prendersi la nuova gamma fattacci loro.
Di fatto la 3080 "liscia" da un bello stacco del 20% pulito matematico in tutti i test alla 2080Ti.
Si aggiunga che la 3080 si acquista NUOVA a poco meno di 800 euro mentre la 2080Ti veniva (viene) venduta a 1400 euro.
Non so.. se non è un mostro di scheda questa non so davvero cosa lo sia.
Ma secondo voi è corretto che siamo partiti a paragonarla alla 2080ti ?
Non sarebbe forse meglio vederla vs una 2080 e poi aspettarsi una 3080ti?
Hai in raster il 30% medio in più di una 2080 Ti (con driver che probabilmente si possono affinare un po'), però a 700 EUR invece di 1200. E ti pare poco?
300 EUR magari no, ma oggi come oggi una 2080 Ti non la puoi vendere a più di 500 EUR.
Svendere così tanto non penso abbia molto senso. Alla fine della fiera avresti un 30% in più con un esborso di 1400€ (700 della 3080 più la differenza persa nella vendita). Ma non voglio fare i conti in tasca a nessuno :)
Mah, mi aspettavo molto di più, ma è ovvio che Nvidia se la cantava molto di più di quello che realmente è. Prezzo escluso che finalmente pare tornare nella “norma”, ste schede consumano e scaldano TROPPO, X ME SONO LA REINCARNAZIONE DEL FERMI, x chi lo ricorda. Per il resto non metto in dubbio le potenzialità di raffreddamento del nuovo design ma vedere i VRM ATTACCATI ALLE MEMORIE, che scaldano una cifra, non mi sembra una buona idea. Scenderó a qualche compromesso con la mia 1070 e aspetteró tempi migliori...
Marko#88
16-09-2020, 16:01
Hai in raster il 30% medio in più di una 2080 Ti (con driver che probabilmente si possono affinare un po'), però a 700 EUR invece di 1200. E ti pare poco?
300 EUR magari no, ma oggi come oggi una 2080 Ti non la puoi vendere a più di 500 EUR.
Se la 3070 andrà fra una 2080 e una 2080Ti (realistico?) a circa 500 euro allora una 2080Ti usata io non la comprerei a più di 400. È pur sempre usata, se la vendono a quello che pago per avere perf simili sul nuovo io non la compro.
Ma secondo voi è corretto che siamo partiti a paragonarla alla 2080ti ?
Non sarebbe forse meglio vederla vs una 2080 e poi aspettarsi una 3080ti?
C'è la 3090, non so se faranno una 3080Ti.
bagnino89
16-09-2020, 16:02
Svendere così tanto non penso abbia molto senso. Alla fine della fiera avresti un 30% in più con un esborso di 1400€ (700 della 3080 più la differenza persa nella vendita). Ma non voglio fare i conti in tasca a nessuno :)
Concordo, ma sono sicuro che la maggior parte di quelli che ha una 2080 Ti - fanatici, per lo più, perché un utente standard non spenderebbe mai cifre simili per una GPU - non si farà problemi a venderla per prendere una nuova 3080 (o, addirittura, una 3090).
Se la 3070 andrà fra una 2080 e una 2080Ti (realistico?) a circa 500 euro allora una 2080Ti usata io non la comprerei a più di 400. È pur sempre usata, se la vendono a quello che pago per avere perf simili sul nuovo io non la compro.
Effettivamente sì. Per chi deve fare il cambio, forse conviene affrettarsi ora, prima che esca la 3070 e relativi benchmark.
coschizza
16-09-2020, 16:02
È chiaro, ma le GPU scalano eccelsamente con il numero di cores (non stiamo parlando di 2 vs 4 core, ma di 4000 vs 8000 cores).
se fai un x2 con il numero dei core devi fare un x2 sulla cache l1 la l2 la memoria ecc ecc altrimenti i core cuda sono solo uno dei vari fattori che compongono una scheda.
E tutto dipende da dove li usi perche magari usati come render saranno davvero velocissimi vicino al 2x ma un gioco è un insieme di codice molto piu complesso e ora siamo solo alla prima versione dei driver.
sinceramente pensavo stracciasse le Ti invece il sapiente marketing si basava sulle 2080 liscie, brava nvidia sempre la migliore :D
preso da un'altra recensione :
"questa scheda è venduta, nella versione Founders Edition, a 719 euro, e include (offerta limitata al lancio) il gioco Watch Dogs: Legion, dal valore di 69,99 euro, e 1 anno di accesso Fondatori alla piattaforma Cloud Gaming GeForce Now, del valore di 65 euro"
questa non la sapevo
Concordo, ma sono sicuro che la maggior parte di quelli che ha una 2080 Ti - fanatici, per lo più, perché un utente standard non spenderebbe mai cifre simili per una GPU - non si farà problemi a venderla per prendere una nuova 3080 (o, addirittura, una 3090).
Gli appassionati/fanatici non li faccio entrare nel discorso :D
Loro agiscono mossi da forze a me sconosciute :D
Curioso comunque di vedere le review della 3090, confrontata con questa 3080.
aldo87mi
16-09-2020, 16:10
Al di là delle prestazioni quantitative velocistiche in più, cos'ha questa rtx 3080 in più dal punto di vista qualitativo grafico? Nulla, gli stessi effetti grafici della generazione precedente e su schermo vediamo lo stesso tipo di ray tracing. Ti sei stancata proprio tanto Nvidia eh :sofico:
beh di fatto il RT ora è utilizzabile prima era uno specchietto per le allodole
bagnino89
16-09-2020, 16:11
Al di là delle prestazioni quantitative velocistiche in più, cos'ha questa rtx 3080 in più dal punto di vista qualitativo grafico? Nulla, gli stessi effetti grafici della generazione precedente e su schermo vediamo lo stesso tipo di ray tracing. Ti sei stancata proprio tanto Nvidia eh :)
Quindi da Kepler a Maxwell e da Maxwell a Pascal è stata tutta fuffa?
Ma che dici, su...
coschizza
16-09-2020, 16:12
Al di là delle prestazioni quantitative velocistiche in più, cos'ha questa rtx 3080 in più dal punto di vista qualitativo grafico? Nulla, gli stessi effetti grafici della generazione precedente e su schermo vediamo lo stesso tipo di ray tracing. Ti sei stancata proprio tanto Nvidia eh :)
la concorrenza non ha ne RT ne dlss ecc quindi perche dovrebbe innovare se nessun altro è arrivato a nemmeno le tecnologie ha rilasciato nel 2018? se ci pensi non avrebbe senso
aldo87mi
16-09-2020, 16:13
beh di fatto il RT ora è utilizzabile prima era uno specchietto per le allodole
Era utilizzabile anche prima. Io gioco a oltre 60 fps a 4k + rtx on + DLSS 2.0 a Wolfenstein Youngblood e Death Stranding. Il tutto con una misera rtx 2060 super
bagnino89
16-09-2020, 16:15
Era utilizzabile anche prima. Io gioco a oltre 60 fps a 4k + rtx on + DLSS 2.0 a Wolfenstein Youngblood e Death Stranding. Il tutto con una misera rtx 2060 super
Fallo con giochi tipo Control, però :asd:
https://www.hwupgrade.it/articoli/5827/control_rt.png
Da un altra recensione:
"20GB version of RTX 3080 coming soon: If you do wait, there will be custom-only GeForce RTX 3080 graphics cards that should arrive between now and Big Navi (October 26) that will offer a larger 20GB framebuffer. If you need the additional VRAM, then you might want to wait -- but for 95% of games you're not going to need more than 10GB."
Questa recensione mi ha convinto una volta per tutte a liquidare la mia Radeon VII e tenermela un altro paio di annetti
michele_legnano
16-09-2020, 16:31
onestamente questa 3080 è soltanto più veloce. Nient'altro di nuovo sotto al sole per i giochi, intendo come innovazione. Il salto qualitativo dalle Pascal alle Turing fu notevole: raytracing, DLSS, integer scaling, completamente un altro mondo non accessibile alle Pascal. Invece con queste Ampere, a parte il treno più veloce per la corsa, non mi sembra ci sia nulla per cui un possessore di una 2080/super/ti debba fare l'upgrade. Per qualche manciata di frames in più, mi tengo la mia 2080 e ho comunque raytracing e DLSS per i giochi che usciranno. Per me questa scheda non vale l'acquisto. Ovviamente chi viene da una Pascal ha tutti i buoni motivi per acquistarla
L'unica cosa positiva sono i prezzi, che hanno ridimensionato tutto il parco schede esistenti. Sicuramente nell'usato una 2080ti a 500 euro può avere senso. Sicuramente schede che cmq consentono di giocare a tutto a breve ritorneranno acquistabili a prezzi "umani" e non le prese per il qlo dei 400-500 euro per roba tipo 5700xt o 2070s.
nessuno29
16-09-2020, 16:37
Come può avere senso se per 519 c'è la 3070 che più o meno andrà uguale ma è nuova...
Ale55andr0
16-09-2020, 16:51
come immaginavo, +30 medio, con qualche picco notevole tipo doom dove si arriva al +50%, diciamo che al prezzo di listino di 699 è un ottimo acquisto, ai prezzi che girano ora decisamente no. Solo una considerazione, servono le review ovviamente, ma la 3070 di colpo non la vedo più così convenite sulla 2080ti....laddove la 3080 stacca di un 30% la 2080ti non vedo come possa far chissà cosa la 3070 che quanto a numeri è mooolto deficitaria rispetto la 3080....
Bella bestia, ma:
- i consumi sono troppo elevati.
- il guadagno c'è stato, ma non come la raccontavano i fenomeni di turno!
Di buono vedo il prezzo che torna su cifre sensate per una top di gamma.
Vabè vediamo cosa partorisce AMD.
domandina...
CUT
ogni volta che si diceva che la 5700xt era in zona 2070S si partiva con "nei tuoi sogni, sta un 10% sotto".
da questo recap mi sembra impercettibilmente meglio della 2070s e quasi ad un passo dalla 2080 (che viene presa dalla tanto bistrattata radeon vii)... e non è questo il problema, cioè a me che la 5700xt vada meglio o come la 2070s non mi interessa.... ma un dubbio mi sorge... non è che le 2000 adesso... vanno un pò meno del dovuto per evidenziare il salto con la serie 3000?
Si è sempre più "cattivi" con AMD, tutto qua :)
C'è da dire che AMD aveva il vantaggio del processo produttivo delle 5700 rispetto alle 2000 di nvidia quindi avrebbe potuto / dovuto fare qualcosa in più.
Vediamo ad ottobre che succede..
@Paolo Corsini
è possibile avere un idea di quanti PPD questa scheda è in grado di fare su Folding@home?
Oppure il benchmark in ns/d
Il primo dato richiede di lanciare un paio di WU di test, mentre il secondo di testare tutte le schede.
Grazie
come immaginavo, +30 medio, con qualche picco notevole tipo doom dove si arriva al +50%, diciamo che al prezzo di listino di 699 è un ottimo acquisto, ai prezzi che girano ora decisamente no. Solo una considerazione, servono le review ovviamente, ma la 3070 di colpo non la vedo più così convenite sulla 2080ti....laddove la 3080 stacca di un 30% la 2080ti non vedo come possa far chissà cosa la 3070 che quanto a numeri è mooolto deficitaria rispetto la 3080....
sì, lo è indubbiamente, anche se scalda tanto e consuma troppo.
mi chiedo se si prende una 2080 super (una custom) e si spinge fino ai 325W, 76°C e 45dB, quanto possa essere effettivamente il distacco prestazionale.
di per se rimane un prodotto più appetibile, sempre se il prezzo venga mantenuto tale, anche solo per i 2 anni di garanzia che ti offre da nuova... (l'usato turing si svaluterà comunque tanto).
sulla 3070, come sempre dico, si aspettano i benchmark per valutarla.
PS:
i consumi non sono stati controllati con tutte e tre le funzionalità distinte; non si può quindi sapere se nvidia abbia gestito la scheda in modo diverso rispetto a quanto faceva prima.
PPS:
vedere rilevati i consumi da GPU-Z è una coltellata al cuore... :doh:
Si è sempre più "cattivi" con AMD, tutto qua :)
C'è da dire che AMD aveva il vantaggio del processo produttivo delle 5700 rispetto alle 2000 di nvidia quindi avrebbe potuto / dovuto fare qualcosa in più.
Vediamo ad ottobre che succede..
c'è anche da dire che fa pure processori... i wafer a disposizione sempre quelli rimangono e, non ti preoccupare, non li fanno certo avanzare.
Ragazzi i consumi maggiorati ci sono era evidente e ce lo aspettavamo tutti. Le prestazioni? Nvidia ha sempre parlato di prestazioni RTX e mai di raster perciò si sapeva che fosse quello il proprio cavallo, e tuttosommato un +25 extra ci sta sempre. In RTX spinge come una dannata e per essere una seconda generazione di RTX è giusto che sia così. Infine poco più di 7 cucuzze per una 2080ti ultra mega pompata?! Penso fino a ieri la gente si sarebbe scannata per averne una quel prezzo mentre da domani (in teoria) potremmo averla tutti.
Che ciofeca a questi consumi...15/30% in piu` in base all'applicazione/situazione.
E la gente che si e` venduta le 2080ti aspettandosi di poterla sostituire con una 3080: LOL.
Che ciofeca a questi consumi...15/30% in piu` in base all'applicazione/situazione.
E la gente che si e` venduta le 2080ti aspettandosi di poterla sostituire con una 3080: LOL.
Io l'ho ribadito in vari thread che era prematuro svendere le 2080ti, addirittura restando senza vga. Poi per carità la 3080 è una grande scheda a prezzi quasi umani, però avevo ragione che non bisognava fidarsi troppo delle slide made in nvidia
La 3070 non è certo un'opzione d'upgrade per i possessori di RTX 2080 Super /Ti, ma per chi possiede schede più vecchie e/o in fasce inferiori.
Se anche avesse le prestazioni della prima anzichè della seconda (in fin dei conti le suddette sono separate da un 10-15% di prestazioni), avrebbe sempre dalla sua parte il prezzo.
Chi spenderebbe 100-150 euro in più per una 2080 Super anzichè per una 3070?
Sull'usato si possono fare tutti i ragionamenti che vogliamo, ma alla fine il risparmio deve essere notevole perchè i rischi sono elevati su questi prodotti.
La 3070 non è certo un'opzione d'upgrade per i possessori di RTX 2080 Super /Ti, ma per chi possiede schede più vecchie e/o in fasce inferiori.
Se anche avesse le prestazioni della prima anzichè della seconda (in fin dei conti le suddette sono separate da un 10-15% di prestazioni), avrebbe sempre dalla sua parte il prezzo.
Chi spenderebbe 100-150 euro in più per una 2080 Super anzichè per una 3070?
Sull'usato si possono fare tutti i ragionamenti che vogliamo, ma alla fine il risparmio deve essere notevole perchè i rischi sono elevati su questi prodotti.
IMHO, se il target è una 3070 conviene aspettare e vedere cosa tira fuori AMD. Se il target è una 3080, la vedo più difficile aspettare, sopratutto perchè è disponibile da domani :D
Per fortuna non esistono solo i giochini :)
https://www.guru3d.com/articles_pages/geforce_rtx_3080_founder_review,30.html
https://techgage.com/article/nvidia-geforce-rtx-3080-rendering-performance/
MiKeLezZ
16-09-2020, 17:59
domandina...
https://www.hwupgrade.it/articoli/5827/media_fps-2.png
ogni volta che si diceva che la 5700xt era in zona 2070S si partiva con "nei tuoi sogni, sta un 10% sotto".
da questo recap mi sembra impercettibilmente meglio della 2070s e quasi ad un passo dalla 2080 (che viene presa dalla tanto bistrattata radeon vii)... e non è questo il problema, cioè a me che la 5700xt vada meglio o come la 2070s non mi interessa.... ma un dubbio mi sorge... non è che le 2000 adesso... vanno un pò meno del dovuto per evidenziare il salto con la serie 3000?No, è che di solito i test sono presi alla rinfusa da recensioni vecchie, da grafici con vecchi driver o fuori contesto, quindi i valori sono un po' a casaccio. Poi c'è da dire che non si deve stare a vedere lo zero virgola qualcosa di frame di differenza, fino a 2-3 frame di distacco si può dire siano uguali. Questa è una cosa vera da decenni.
Il salto prestazionale della serie 3000 è innegabile, sopratutto ad alte risoluzioni. Solo il raddoppio dei CUDA cores può sfasciare qualsiasi cosa, basti vedere il GPGPU.
Il problema è che non esistono giochi che sfruttino l'hardware visto che sono le console a trainare le innovazioni nel campo, e le console sappiamo bene sono al palo da un decennio, sul PC ci si accontenta dell'usare risoluzioni più elevate senza effettivamente miglioramenti tangibili nella vera e propria qualità grafica (textures, modelli poligonali, etc).
Grosse risate per chi poi si mette a paragonare la 2080 Ti con la 3080. Chi ha la 2080 Ti non la cambia e se lo fa è un po' fesso, il paragone lo si deve fare con gente che magari ha una 1070 e si guarda in giro per cambiarla, e certo con una qualsiasi della serie 3000, a seconda del suo portagli, fa un salto stratosferico e sopratutto un ottimo investimento per il futuro.
Per chi ha tirato fuori le pessime prestazioni 4k di Control: impara a diminuire due settaggi nelle impostazioni video e vedrai che neppure ti accorgerai della differenza e la vita ti sorriderà. Infatti chi ha un po' di sale in zucca farebbe bene ad aspettare una 3060 a 250 euro.
Che ciofeca a questi consumi...15/30% in piu` in base all'applicazione/situazione.
E la gente che si e` venduta le 2080ti aspettandosi di poterla sostituire con una 3080: LOL.
Beh... In tutte le recensioni è data tra il 20 e il 30 % in tutti i giochi in ogni scenario possibile... E per il 4k significa passare a 60fps costanti se non più (mentre prima c'erano anche cali di fps importanti). Parliamo di tutt altra esperienza (considerando di giocare tutto mancato, senza intervenire su niente), spendendo 600 euro in meno... Cioè che volete ancora? Uno che ha venduto la 2080ti a 600/650 euro e che con 100 euro in più si porta a casa la 3080, uno ha fatto benissimo e ha imitato i danni. Senza che a gennaio implementeranno Nvidia I/O che dovrebbe migliorare ancora le prestazioni e che lato driver siamo al giorno 1... Chi non vuol vedere il salto (enorme) di prestazioni e ancora più enorme di prezzo prestazioni è perché ha le fette di salame sugli occhi. Quello del rapporto prestazioni watt è un non discorso, perché dire sì ma quanto andrebbe una 2080ti se consumasse gli stessi watt della 3080 è come dire quanto correrebbe veloce mio nonno se avesse le ruote; può arrivarci la 2080ti a quei watt? No. e allora è un non discorso
MiKeLezZ
16-09-2020, 18:22
mhmhm, continuo a non essere d'accordo, fino a ieri indicare la 5700xt come simile alla 2070s era motivo di schernimento, oggi non dobbiamo guardare i 2/3fps che addirittura in questa recensione vengono a mancare alla 2070s.
ripeto, non è una questione 5700xt vs 2070s, ma se nvidia ha fatto il giochino "driver zoppo per le 2000 così invece che 20% risulta 30%" bello non è. E' una cosa da investigare, perchè poi sembra che sulle rece amd contiamo la coppia di serraggio delle viti, su quelle nvidia "e va beh... non soffermiamoci sui dettagli".Ma ci sta che il recensore ha semplicemente sbagliato e abbia invertito la 2070S con la 5700XT. O che abbia preso i valori da due recensioni diverse, con una che magari ha nel PC di test una CPU 8 core e l'altra un 10 core, sfalsando leggermente i valori... visto che più di una volta hanno candidamente ammesso di non stare certo a ritestare tutte le VGA ogni volta.
Lo scherno è ovvio che ci sia: la 5700XT va come la 2700 liscia, non come la Super. E la Super va circa il 10% di più della 5700XT e della 2700 liscia. Punto in più o in meno.
Ma figurati se NVIDIA fa i giochini che dici, ha già una scheda che va come un treno e ha ridotti i prezzi, la concorrenza non esiste, venderà come il pane, non gli serve a nulla barare.
alt, non è che ora ce ne usciamo con tarallucci e vino perchè ci sta la 3000. Fino a ieri la 5700xt per qualcuno era -10% sulla 2070s. Oggi risulta che è ad un niente dalla 2080.
O qualcuno che fino a ieri passava per guru sparava balle oppure lo zampino di nvidia nell'evidenziare certi salti...
Beh su altre recensioni c'è differenza tra la 5700XT e la 2070S tipo qui:
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/34.html
Comunque io ho la 480 ed è arrivato il momento di cambiarla, però attendo bignavi e la 3060ti prima di decidere cosa fare :)
Una scheda davvero magica nel rapporto prezzo/prestazioni rispetto alla serie precedente che aveva prezzi assurdi, ma non certo rispetto al mercato GPU gaming degli ultimi 10 anni, dove ricordo top di gamma arrivare massimo a 300 euro.
Delude l'efficienza energetica: va tanto di più ma consuma tanto di più, appena un +10% nel rapporto performance/watt come miglioramento.
Tra i meriti c'è sicuramente quello di sdoganare finalmente il gaming 4k ed il ray tracing e l'inversione di tendenza sui prezzi che avevano preso una piega incontrollabile.
In conclusione non lo so, ho sensazioni contrastanti su questa nuova scheda: molto buona ma meno di quello che si voleva far credere.
Aspetto AMD RX 6000 che ha annunciato un +50% nel rapporto performance/watt rispetto al misero +10-15% di questa per farmi un idea. Anche se sono abbastanza convinto che sulle performance pure Nvidia resterà comunque sopra.
tuttodigitale
16-09-2020, 18:31
Ragazzi i consumi maggiorati ci sono era evidente e ce lo aspettavamo tutti. Le prestazioni? Nvidia ha sempre parlato di prestazioni RTX e mai di raster perciò si sapeva che fosse quello il proprio cavallo, e tuttosommato un +25 extra ci sta sempre. In RTX spinge come una dannata e per essere una seconda generazione di RTX è giusto che sia così. Infine poco più di 7 cucuzze per una 2080ti ultra mega pompata?! Penso fino a ieri la gente si sarebbe scannata per averne una quel prezzo mentre da domani (in teoria) potremmo averla tutti.
insomma. le prestazioni sono aumentate del 56%, ma i consumi del 44% rispetto alla 2080...L'aumento dell'efficienza è stato di appena l'8%, passando dai 12nm di TSMC ai 8nm di Samsung...(PS qualcuno l'aveva anche detto di non vedere AMD che partiva dai 14nm di GloFo.....)....
Se le slide di AMD non mentono, a questo giro saranno le radeon di gran lunga le più efficieni.
con la mia 2080Ti a liquido
me ne sto fermo fermo x un pò
aspetto la 3080ti (forse)
tuttodigitale
16-09-2020, 18:34
Era utilizzabile anche prima. Io gioco a oltre 60 fps a 4k + rtx on + DLSS 2.0 a Wolfenstein Youngblood e Death Stranding. Il tutto con una misera rtx 2060 super
con il dlss attivo la scena viene renderizzata ad una risoluzione inferiore. è una presa per il c. :D :cool:
Una scheda davvero magica nel rapporto prezzo/prestazioni rispetto alla serie precedente che aveva prezzi assurdi, ma non certo rispetto al mercato GPU gaming degli ultimi 10 anni, dove ricordo top di gamma arrivare massimo a 300 euro.
Delude l'efficienza energetica: va tanto di più ma consuma tanto di più, appena un +10% nel rapporto performance/watt come miglioramento.
Tra i meriti c'è sicuramente quello di sdoganare finalmente il gaming 4k ed il ray tracing e l'inversione di tendenza sui prezzi che avevano preso una piega incontrollabile.
In conclusione non lo so, ho sensazioni contrastanti su questa nuova scheda: molto buona ma meno di quello che si voleva far credere.
Aspetto AMD RX 6000 che ha annunciato un +50% nel rapporto performance/watt rispetto al misero +10-15% di questa per farmi un idea. Anche se sono abbastanza convinto che sulle performance pure Nvidia resterà comunque sopra.
concordo pienamente
alla fine aspettiamo navi, anche se non credo daranno da fare alla 3090 e nemmeno alla 3080
si piazzeranno tipo sulla 2080Ti o poco +
concordo pienamente
alla fine aspettiamo navi, anche se non credo daranno da fare alla 3090 e nemmeno alla 3080
si piazzeranno tipo sulla 2080Ti o poco +
Credo anche io a qualcosa del genere. Ma se mi va poco più della 2080Ti e consuma sui 200W e me la fai pagare 300-350€ come l'attuale 5700 XT diventa il best to buy in sostanza.
Pandemio
16-09-2020, 18:58
Va quasi il doppio di una 5700xt, se big navi va il 50% in più di navi siamo ancora sotto del 50%! Speriamo di no ma sono parole di amd...
OrazioOC
16-09-2020, 19:09
Su una cosa mi ha deluso, al momento in ray tracing non guadagna così tanto dalla 2080 ti, questione di ottimizzazione driver e giochi?
Per il resto è come ce la si aspettava, consuma tanto, ma performa anche tanto, in 4k c'è un 30/35% di performance in più rispetto alla 2080 ti, e potrebbero diventare 45/50% con la 3090.
coschizza
16-09-2020, 19:19
con il dlss attivo la scena viene renderizzata ad una risoluzione inferiore. è una presa per il c. :D :cool:
Essendo la qualità finale almeno pari all originale se non meglio è una feature a dir poco fantastica che dasola vale la scheda
ghiltanas
16-09-2020, 19:43
La cosa di sicuro positiva è che i prezzi sono rientrati su valori accettabili. Ora aspetto di vedere la 3070 e la risposta di amd, tanto non c'è fretta
I dati mi sembrano chiari. Rispetto alla RTX 2080 che va a sostituire è un'enorme balzo prestazionale. Rispetto alla RTX 2080 ti il distacco è meno marcato, ma la differenza c'è, anche se non tale da giustificare l'isteria di massa sulla RTX 2080 ti, che rimane un'ottima scheda video come avevo già detto.
In molti casi ho visto la RTX 3080 andare in 4K tanto quanto (se non anche di più) la RTX 2080 va in 1440p ed in certi casi anche in fullHD (ad esempio in Metro:exodus con RTX e DLSS).
I risultati sono secondo me ottimi. Ora si attende la proposta di AMD che questa volta può rispondere a tono, oltre che le RTX 3070 e le RTX 3090.
Bella scheda, ma per i miei gusti consumi eccessivi per la sola VGA. A quando un'inversione nei consumi? A forza di salire, a breve un pc gaming consumerà quanto un forno microonde al massimo (750w)..
Pandemio
16-09-2020, 20:22
In effetti va paragonata alla 2080 e quindi tanta roba, tra qualche mese nvidia se ne uscirà con la 3080ti o super ma penso più ti, affinamento e oc e allora si potrà confrontarla con la 2080ti.
Come mai non è stato utilizzato Microsoft flight simulator 2020 come benchmark?? Potevate utilizzare il volo che avete usato in un altro articolo a new York con la fotogrammetria, oppure una delle sfide così appare standard il volo e nessun rischio di differenza di prestazioni con situazioni diverse
In effetti va paragonata alla 2080 e quindi tanta roba, tra qualche mese nvidia se ne uscirà con la 3080ti o super ma penso più ti, affinamento e oc e allora si potrà confrontarla con la 2080ti.Ci sono pochi margini per una 3080Ti. La 3080 é già GA102 mentre la 2080 usava una variante di gpu inferiore (Tu104, mentre la 102 era la Ti).
mi aspettavo il Pascal 2.0 e non sono deluso.
Lieto di aver skippato Turing a non vedo l'ora di agguantare questa
bonzoxxx
16-09-2020, 21:52
Per fortuna non esistono solo i giochini :)
https://www.guru3d.com/articles_pages/geforce_rtx_3080_founder_review,30.html
https://techgage.com/article/nvidia-geforce-rtx-3080-rendering-performance/
Minchia che animale..
rattopazzo
16-09-2020, 21:55
Le prestazioni e le prestazioni per $ ci sono rispetto alla 2xxx è indubbio, e vorrei anche vedere che non ci fossero state con quelle specifiche tecniche, ma mi pare che i consumi siano enormi, consuma quasi come una stufetta elettrica...il 42% in più rispetto a una 2080, a fronte di un 60% in più di prestazioni, quindi è sicuramente un pò più efficente, ma chi la utilizza non mette certo dei limitatori di FPS, e avrà quindi una scheda che mediamente (in gaming) consuma 100W in più, che non sono pochi.
Anche il prezzo è molto simile alla 2080 e considerando che la top gamma sarà presumibilmente la 3090 e che i prezzi di quest'ultima sono in linea con la 2080 TI non mi pare che ci siano stati tanti progressi anche sotto questo punto di vista...le TOP gamma continueranno a costare e anche tanto.
Insomma, l'asticella non si è alzata ma neanche riabbassata, e prestazioni a parte non mi convince molto sotto tutti gli altri punti di vista.
AceGranger
16-09-2020, 21:59
domandina...
https://www.hwupgrade.it/articoli/5827/media_fps-2.png
ogni volta che si diceva che la 5700xt era in zona 2070S si partiva con "nei tuoi sogni, sta un 10% sotto".
da questo recap mi sembra impercettibilmente meglio della 2070s e quasi ad un passo dalla 2080 (che viene presa dalla tanto bistrattata radeon vii)... e non è questo il problema, cioè a me che la 5700xt vada meglio o come la 2070s non mi interessa.... ma un dubbio mi sorge... non è che le 2000 adesso... vanno un pò meno del dovuto per evidenziare il salto con la serie 3000?
rispostina...
cioè, seriamente a tirare fuori ciclicamente sta minchiata :asd: ?
meno male che c'è il buon 3D center che raggruppa le % delle testate piu importanti.
https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick
100% 3080
75,8% 2080Ti
63,1% 2080S
54,7% 2070S
54,3% Radeon 7
53,2% 1080Ti
50,5% 5700XT
se mettiamo la 5700XT al 100%, la 2070S fa 8,3% in piu e la 3080 il 98% in piu.
se mettiamo la 2080Ti al 100% la 3080 va il 31,9% in piu.
la media delle medie dice questo, possiamo metterci un bel chiodo o dobbiamo spostare i discorso sul complotto mondiale, il terrapiattismo e rettiliani ?
rispostina...
cioè, seriamente a tirare fuori ciclicamente sta minchiata :asd: ?
meno male che c'è il buon 3D center che raggruppa le % delle testate piu importanti.
https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick
100% 3080
75,8% 2080Ti
63,1% 2080S
54,7% 2070S
54,3% Radeon 7
53,2% 1080Ti
50,5% 5700XT
se mettiamo la 5700XT al 100%, la 2070S fa 8,3% in piu e la 3080 il 98% in piu.
se mettiamo la 2080Ti al 100% la 3080 va il 31,9% in piu.
la media delle medie dice questo, possiamo metterci un bel chiodo o dobbiamo spostare i discorso sul complotto mondiale, il terrapiattismo e rettiliani ?
non c'e' nessun complotto mondiale,ma con quella media non ci fai nulla visto che si basano su recensioni al lancio,cioe' con driver un po acerbi
e' normale che ultimamente le radeon sono leggermente migliorate,come purtroppo sara' altrettanto ovvio che le rtx2000 essendo eol,nvidia non ha nessun interesse a migliorarli ancora
certo non sto dicendo che sabota le prestazioni di proposito,cio' che e' dato ti rimane,se ne accorgerebbero tutti visto la mole di test precedenti in circolazione
semplicemente non migliorano piu',forse avevano tenuto in serbo qualcosa
qualche netto miglioramento per RT e DLSS in caso amd usciva troppo in anticipo? non lo sapremo mai
ormai non hanno nessun interesse a rilasciare driver evoluti,si darebbero la zappa sui piedi
AceGranger
16-09-2020, 23:40
non c'e' nessun complotto mondiale,ma con quella media non ci fai nulla visto che si basano su recensioni al lancio,cioe' con driver un po acerbi.
e' normale che ultimamente le radeon sono leggermente migliorate,come purtroppo sara' altrettanto ovvio che le rtx2000 essendo eol,nvidia non ha nessun interesse a migliorarli ancora
ma infatti il mio post era dire che non è cambiato assolutamente nulla;
le 5700XT vanno come prima, le 2000 vanno come prima, e le 3000 potranno eventualmente migliorare.
Va quasi il doppio di una 5700xt, se big navi va il 50% in più di navi siamo ancora sotto del 50%! Speriamo di no ma sono parole di amd...
non so se te lo hanno già consigliato, ma ripassati le percentuali (che non sono una rappresentazione dei numeri intuitiva).
1+50% fa 1.5
il valore per cui il 50% dia 1.5 è 3.
la 5700 XT la indicano al 65% della 3080 FE; se dai 3 alla 3080 FE, il 65% è 1.95, non 1.
puoi dire che la 3080 Fe fa il 50% in più della 5700 XT, e se quello che dice AMD è vero (ma è vero per il rapporto pref/watt, non per le prestazioni pure), 1.95+50% fa 2.928, ossia il 2.5% in meno (che su 60fps di un 4K sarebbero pari a 1.5 frame in meno, 58.5fps...
Lo stavo per postare io il secondo link,praticamente ASFALTA anche la TITAN,
e parliamo di una scheda da poco piu di 700 euro,e ancora c'è gente che si lamenta.
E poi questa scheda va paragonata con la 2080,in quanto è molto provabile che Nvidia se ne uscirà con il modello TI,e sarrà quella la versione corretta da confrontare con la 2080 TI.
sfortunatamente la gente che guarda questi risultati sono si e no il 2% di quelli che invece è interessato solo a giocarci...
sono in pratica totalmente ininfluenti in questo settore, dove c'è gente che accende il PC solo per usarlo come una console.
Essendo la qualità finale almeno pari all originale se non meglio è una feature a dir poco fantastica che dasola vale la scheda
è uguale se non ci fai caso...:mc:
Bella scheda, ma per i miei gusti consumi eccessivi per la sola VGA. A quando un'inversione nei consumi? A forza di salire, a breve un pc gaming consumerà quanto un forno microonde al massimo (750w)..
in effetti il vero danno di questa scheda è che è una "reference" (?) troppo costosa per via del suo sistema di raffreddamento.
queste schede vanno usate solo con il raffredamento a liquido (già oltre i 300W in un case lo dovresti far decollare per tutte le ventole per l'areazione che dovresti usare), e conviene guardare le vere reference che faranno gli AIB (tipo le turbo della susu), per poi trovare il dissipatore full cover da metterci sopra e non avere nessun problema...
prendersi questa ha il vantaggio di avere un prodotto sicuramente meglio ingegnerizzato sul PCB, ma sicuramente costoso sul lato dissipatore, che poi dovresti praticamente buttare.
le full cover a liquido delle reference sono quelle che hanno i prezzi migliori e ti fanno diventare una reference come la migliore custom in circolazione (pagandola anche meno e spesso facendola consumare pure meno)...
se però una usa un tipo di condensatori, una un'altro, a quel punto diventa difficile fare una cover standardizzata ed i costi aumentano...
Come mai non e' stato utilizzato Microsoft flight simulator 2020 come benchmark?? Potevate utilizzare il volo che avete usato in un altro articolo a new York con la fotogrammetria, oppure una delle sfide così appare standard il volo e nessun rischio di differenza di prestazioni con situazioni diverse
Forse ci faranno una recensione dedicata, magari con la 3090... Per ora sembrerebbe che nemmeno la 3080 ce la faccia a raggiungere i 60fps con flight simulator, pero' si attesta su un buon 50 fps di media (ma a 2K) e 26fps di media in 4k:
https://www.forbes.com/sites/antonyleather/2020/09/16/nvidia-rtx-3080-review-just-how-fast-is-it/
Notavo invece come nei benchmark di blender vada fortissimo superando anche la Titan RTX, che ricordiamo costava oltre 2500E.
Probabilmente abbinata al ThreadRipper 3970X, la RTX3080 diventa il nuovo riferimento per una superstazione di rendering, magari con Linux. Poi se si vuole strafare si mette il Threadipper 3990X con la RTX3090...
Della RTX3090 bisognerebbe aggiungere che se i dati sono corretti ossia circa 35.6 TFLOPS in FP32 dichiarati di picco, e se l'FP64 e' 1:32 dell'FP32 come sempre per le schede di questa fascia, vuol dire che si ha a disposizione oltre 1.1TFLOPS per uso HOME, quasi come le schede Kepler K40 di qualche anno fa...o la Titan Z.
Tornando al discorso prezzo, è vero che queste schede svalutano quelle della serie precedente, ma è anche vero che se fossero costate tanto, sempre 400 euro o più avrebbe speso (come differenza tra vendita ed acquisto), chi voleva upgradare.
Il problema è semmai che, upgradando a questi prezzi con il prossimo cambio si avrà tra le mani un oggetto che renderà meno... ma poi nemmeno questo è vero, perché se anche le prossime VGA manterranno questo livello di prezzo, upgradare costerà sempre 400 euro, e se i prezzi leviteranno di nuovo, come aveva perso valore la serie 2000, ne acquisterà la serie 3000. C'è gente che, grazie agli aumenti della serie 2000, ha venduto schede della serie 1000 a peso d'oro.
In buona sostanza sto dicendo che con questo calo di prezzi non ci perderà nessuno.
rispostina...
cioè, seriamente a tirare fuori ciclicamente sta minchiata :asd: ?
meno male che c'è il buon 3D center che raggruppa le % delle testate piu importanti.
https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick
100% 3080
75,8% 2080Ti
63,1% 2080S
54,7% 2070S
54,3% Radeon 7
53,2% 1080Ti
50,5% 5700XT
se mettiamo la 5700XT al 100%, la 2070S fa 8,3% in piu e la 3080 il 98% in piu.
se mettiamo la 2080Ti al 100% la 3080 va il 31,9% in piu.
la media delle medie dice questo, possiamo metterci un bel chiodo o dobbiamo spostare i discorso sul complotto mondiale, il terrapiattismo e rettiliani ?
sono medie delle medie di test fatti in presentazione del prodotto, seguendo i paper nvidia e quindi settaggi e giochi che consiglia nvidia...
valgono come la media delle marchette dei vari siti...
trova un sito obbiettivo e guarda quello o sennò fai un miscuglio 50% tra cioccolata e merda e vedi se al 50% sono come la cioccolata, visto che sono tutti e due marroni.
fa il serio.
Forse ci faranno una recensione dedicata, magari con la 3090... Per ora sembrerebbe che nemmeno la 3080 ce la faccia a raggiungere i 60fps con flight simulator, pero' si attesta su un buon 50 fps di media (ma a 2K) e 26fps di media in 4k:
https://www.forbes.com/sites/antonyleather/2020/09/16/nvidia-rtx-3080-review-just-how-fast-is-it/
Notavo invece come nei benchmark di blender vada fortissimo superando anche la Titan RTX, che ricordiamo costava oltre 2500E.
Probabilmente abbinata al ThreadRipper 3970X, la RTX3080 diventa il nuovo riferimento per una superstazione di rendering, magari con Linux. Poi se si vuole strafare si mette il Threadipper 3990X con la RTX3090...
Della RTX3090 bisognerebbe aggiungere che se i dati sono corretti ossia circa 35.6 TFLOPS in FP32 dichiarati di picco, e se l'FP64 e' 1:32 dell'FP32 come sempre per le schede di questa fascia, vuol dire che si ha a disposizione oltre 1.1TFLOPS per uso HOME, quasi come le schede Kepler K40 di qualche anno fa...o la Titan Z.
se ti servono gli FP64 prendi una Vega 64 V II.. fa 3.5TF; rapporto con FP32 1:4, se prendi la MI50 ha rapporto 1:2 e arriva a 7TF, allo stesso prezzo, anzi, forse meno, di questa 3090.
non giriamoci attorno: sono schede per gaming, non per lavorare....
al massimo le comprano quelli che ci lavoricchiano tra una partita e l'altra... (o gli youtuber), ma il vero target è il gamer.
Tornando al discorso prezzo, è vero che queste schede svalutano quelle della serie precedente, ma è anche vero che se fossero costate tanto, sempre 400 euro o più avrebbe speso (come differenza tra vendita ed acquisto), chi voleva upgradare.
Il problema è semmai che, upgradando a questi prezzi con il prossimo cambio si avrà tra le mani un oggetto che renderà meno... ma poi nemmeno questo è vero, perché se anche le prossime VGA manterranno questo livello di prezzo, upgradare costerà sempre 400 euro, e se i prezzi leviteranno di nuovo, come aveva perso valore la serie 2000, ne acquisterà la serie 3000. C'è gente che, grazie agli aumenti della serie 2000, ha venduto schede della serie 1000 a peso d'oro.
In buona sostanza sto dicendo che con questo calo di prezzi non ci perderà nessuno.
nvidia non punta ai Turing, ma ai fu Pascal e Maxwell...
puntare ai possessori di Turing significa puntare alla stesa gente che dovrebbe comprare Ampere, perchè se tu mi fai una 3070 a 500 euro che va come una 2080 TI, la 2080 Ti la dovrebbero svendere a 300?
non venderebbero quindi la 3060 perchè andrebbe molto meno della 2080 TI e costerebbe magari anche di più.
si mangerebbero il mercato della stessa linea con quella vecchia.
quindi aspettate i test, anche con le schede piùmodeste, perchè solo quelli sono più obbiettivi, non obbiettivi in assoluto, ma solo un po' più obbiettivi delle parole del marketing, che gonfiano a dismisura solo i risultati che interessano loro.
ciolla2005
17-09-2020, 00:36
ma infatti il mio post era dire che non è cambiato assolutamente nulla;
le 5700XT vanno come prima, le 2000 vanno come prima, e le 3000 potranno eventualmente migliorare.
Non è così. La serie di prodotti RDNA oggi è decisamente migliorata dal lancio, ovviamente grazie ai nuovi driver. Non fanno più testo quei benchmark vetusti.
D'ogni modo non è di questo che volevo parlare.
- - -
In realtà questi benchmark di oggi, dicono molto.
Il focus è chiaramente sulla tecnologia DLSS. Sostanzialmente le performance alle alte risoluzioni, si possono ottenere praticamente solo col DLSS attivo.
Il che è "discriminante" per le architetture AMD.
Un aspetto che ha un'importanza fondamentale.
Se guardiamo al 2019, AMD ha "lavorato" per introdurre la tecnologia Fidelity FX CAS, una sorta di antagonista del DLSS, su alcuni titoli (es. Borderlands 3, Control, F1 2019, Death Standing...). I risultati sono evidenti fino a +30% di performance, in particolare sulle RX 5000 series.
In qualunque caso, nel 2020 s'è visto ben poco.
Di titoli comunque importanti numericamente come utenti attivi ce n'è (es. Warzone, Fortnite ecc...) ma nonostante la quantità enorme di documentazione (in riferimento all' Unreal Engine) non ci sono state altre implementazioni.
Eppure son ostate implementate anche altre tecniche come FidelityFX Screen Space Reflections, FidelityFX Ambient Occlusion, FidelityFX HDR Mapper che, in determinati casi, sono paritetici ad alcuni effetti, che diversamente vengono eseguiti col supporto del Ray Tracing. E la cosa avrebbe messo su tutt'altro piano le RX 5000 series.
Obbiettivamente, se dovessi scommettere in questo momento, come performance a livello globale, punterei su Nvidia.
Per quanto possano essere preformanti le RX 6000 series, oggi mancano "accordi" fra AMD e le software house più importanti.
Il ragionamento è valido in questo momento, a medio termine la situazione sicuramente cambierà.
Le console sono basate su architettura RDNA2, e ancora più importante c’è il supporto al Ray Tracing DXR 1.1, presente nelle librerie DX 12 Ultimate di questa primavera.
In svariate occasioni è stata sottolineata la collaborazione fra Microsoft e AMD per sviluppare questa evoluzione del Ray Tracing, ovviamente per motivi commerciali.
Tuttavia non si vedranno tutoli che utilizzeranno questa tecnologia aggiornata ancora per un po'.
Quindi ad oggi non mi sbilancio dicendo che difficilmente le RX 6000 series supereranno le Nvidia di riferimento.
AMD deve continuare a “suportare*” le software house più importanti, quantomeno, strategicamente, i titoli che solitamente vengono usati come metro di paragone per i benchmark.
*€
Insomma, devono, usare la stessa "strategia" di Nvidia...
Comunque già detto da mesi, il problema non è l'hardware, ma il software...
Buona serata
coschizza
17-09-2020, 00:37
è uguale se non ci fai caso...:mc:
Se giochi non puoi farci caso quindi lo scopo è raggiunto pienamente
coschizza
17-09-2020, 00:40
in effetti il vero danno di questa scheda è che è una "reference"
Non è una reference è la custom di nvidia e il dissipatore è super compatto non fa il minimo rumore e mantiene le temperature molto basse e forse il miglior dissipatore mai creato mettendo insieme varie recensioni che ho letto, nessuno ne ha parlato male ma tutti lo hanno elogiato per gli incredibili risultati
2 curiosità:
il consumo della sola GPU è identico alla 2080, quello della scheda completa è superiore di quasi 100W, la differenza è dovuta alle gddr6X che consumano uno sproposito? non credo che abbiano usato componenti per pcb e circuiteria meno efficienti.
Il pp a 8nm farebbe anche il suo lavoro, è il resto che la azzoppa (lato consumi) secondo me.
Adesso la hanno provata su un banchetto aperto, ma dentro un case quel dissi che manda metà aria dentro non alza di brutto le temperature di tutto il pc e quindi anche della scheda? La metà di 320W sono 160w che restano dentro, non sono pochi.... per di più sparati sulla cpu.
coschizza
17-09-2020, 00:50
curiosità:
il consumo della sola GPU è identico alla 2080, quello della scheda completa è superiore di quasi 100W, la differenza è dovuta alle gddr6X che consumano uno sproposito? non credo che abbiano usato componenti per pcb e circuiteria meno efficienti.
Il pp a 8nm farebbe anche il suo lavoro, è il resto che la azzoppa (lato consumi).
Quel valore lo hanno preso via software non è un valore affidabile
Quindi una 3080 non e' il 100% meglio di una 2080 ma il 65% , e quindi solo il 30% meglio di una 2080ti. Per non parlare che sta scheda scala bene solo a 4k perche le differenze a risoluzioni minori sono anche meno. Infatti a 1440p va "solo" il 20% in piu di una 2080ti consumando il 30% in piu. E voi questa scheda la considerate una bomba???:sofico: :sofico: :sofico:
https://i.postimg.cc/14w0T30M/3080.png (https://postimg.cc/14w0T30M)
cdimauro
17-09-2020, 07:13
Schede impressionanti: una line-up spaventosa da parte di nVidia, anche fuori dal gaming.
Ma il dato più importante è che la 3080 è veloce il doppio della 5700XT. Dubito fortemente che BigNavi offrirà prestazioni doppie rispetto a quest'ultima, per cui nVidia potrà continuare dormire sonni tranquilli (come fa da parecchi anni ormai)...
Ale55andr0
17-09-2020, 09:32
Lo scherno è ovvio che ci sia: la 5700XT va come la 2700 liscia
:rotfl:
No.
Ribadisco il fatto che l'rt per il più delle attuali applicazioni è per me relativamente poco interessante ma rimango speranzoso per qualcosa di più concreto. Qualcosa che cambi le carte in tavola come approccio al rendering e che smuova un po' la situazione (sicuramente d'aiuto per gli sviluppatori) creata con il duopolio Direct3D/OpenGL ed i loro standard.
Il dlss però lo trovo davvero interessantissimo. Oltre ad aprire a risoluzioni molto alte lo vedo molto interessante anche per le future console (cloud gaming o meno) o per garantire i 1080p a schede video di fascia bassa o comunque low profile magari pure a slot singolo.
Se finora qualcuno ha avuto il dubbio se prendere un apu amd o una 1030 per risparmiare ma garantendosi qualche gioco ogni tanto.. magari non da questa generazione ma in futuro gli sviluppi in questi termini li vedo interessanti.
fabietto27
17-09-2020, 11:15
Ahahaha e questa sarebbe il mostro di scheda velocissima per cui tanti scemi si sono venduti la 2080ti a 300 eur? Ridicola. Ahahahaha rido e godo. :D
Grazie Nvidia, ora sono veramente fiero e felice di tenermi la mia rtx 2060 super almeno per i prossimi due anni :)Aldo...capisco che VGA possa sembrare il codice fiscale di VaGinA .
ma come vedi anche tu e come ti ho consigliato anche ieri,meglio non dormire la notte per la seconda che non per una scheda video....si evitano delusioni.😊
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
ninja750
17-09-2020, 11:38
ma un dubbio mi sorge... non è che le 2000 adesso... vanno un pò meno del dovuto per evidenziare il salto con la serie 3000?
nvidia non lo farebbe mai :O :asd: ("lagacy" docet)
Bella bestia, ma:
- i consumi sono troppo elevati.
- il guadagno c'è stato, ma non come la raccontavano i fenomeni di turno!
però avevo ragione che non bisognava fidarsi troppo delle slide made in nvidia
che è quello che dicevo i giorni scorsi, i test di digital foundries erano un buon cherry picking per gli inscimmiati. veri eh, ma adesso si è visto che gli incrementi non sono quelli ovunque, e soprattutto calano parecchio scendendo di risoluzione quindi quelli che volevano magari sfruttare i pannelli 240hz in fhd?
vedere rilevati i consumi da GPU-Z è una coltellata al cuore... :doh:
vero :asd:
Che ciofeca a questi consumi...15/30% in piu` in base all'applicazione/situazione.
non proprio così, ma ci avviciniamo quasi a uguale incremento di prestazioni e consumi specie da 1440 in giu :stordita:
mhmhm, continuo a non essere d'accordo, fino a ieri indicare la 5700xt come simile alla 2070s era motivo di schernimento, oggi non dobbiamo guardare i 2/3fps che addirittura in questa recensione vengono a mancare alla 2070s.
tanto anche andasse il 10% in più lo "schernimento" sarebbe la mancanza di RT
Una scheda davvero magica nel rapporto prezzo/prestazioni rispetto alla serie precedente che aveva prezzi assurdi, ma non certo rispetto al mercato GPU gaming degli ultimi 10 anni, dove ricordo top di gamma arrivare massimo a 300 euro.
questo infatti è preoccupante, sono tutti contenti per una top (che poi non è top) a 719€ :sbonk:
Non è così. La serie di prodotti RDNA oggi è decisamente migliorata dal lancio, ovviamente grazie ai nuovi driver. Non fanno più testo quei benchmark vetusti.
concordo. guardare la review AGGIORNATA di hwunboxed fatta apposta per far vedere i miglioramenti
Quindi una 3080 non e' il 100% meglio di una 2080 ma il 65% , e quindi solo il 30% meglio di una 2080ti. Per non parlare che sta scheda scala bene solo a 4k perche le differenze a risoluzioni minori sono anche meno. Infatti a 1440p va "solo" il 20% in piu di una 2080ti consumando il 30% in piu. E voi questa scheda la considerate una bomba???:sofico: :sofico: :sofico:
credo che i più stiano ragionando con stampato in fronte il prezzo, non è una bomba (rispetto alla 2080ti) ma lo è in prezzo/prestazioni
come consumo assoluto siamo su valori allucinanti
ninja750
17-09-2020, 11:40
sinceramente pensavo stracciasse le Ti invece il sapiente marketing si basava sulle 2080 liscie, brava nvidia sempre la migliore :D
e anche hwupgrade è andata dietro a questo trend
se uno voleva paragonare i consumi tra 3080 e 2080ti non può, bisogna guardare altre testate
AceGranger
17-09-2020, 11:52
sono medie delle medie di test fatti in presentazione del prodotto, seguendo i paper nvidia e quindi settaggi e giochi che consiglia nvidia...
valgono come la media delle marchette dei vari siti...
trova un sito obbiettivo e guarda quello o sennò fai un miscuglio 50% tra cioccolata e merda e vedi se al 50% sono come la cioccolata, visto che sono tutti e due marroni.
fa il serio.
per ogni gioco pro nVidia ce ne sta uno Pro AMD e poi ci sono quelli ne uno ne l'altro quella media ve benissimo.
la maggior parte dei nomi di quella media sono testate affidabili, le stesse che, quando fa comodo, vengono prese ad esempio per i test AMD.
le prestazioni sono quelle, ne piu ne meno, il 30%.
Per prima cosa cerca di darti una calmata con i toni che non sono tuo fratello.
Seconda cosa, bastava che dicessi che, secondo te, la recensione di hwupgrade non è buona.
Io ho visto solo questa recensione e su questa ho basato il mio commento, visto che pure a me sembra strano vedere la 5700xt andare quanto una 2080.
non ho detto che non è buona, ho detto che il valore corretto è prendere la media di tutte le recensioni dove vai a livellare i giochi favorevoli a una o all'altra e anche con CPU differenti.
una domanda da dove si trova a 720 euro ?
perchè io a meno di 1000 non riesco a trovare nessuna 3080
quando c'è stato la prevendita su amazon sono durate poche ore e non ho voglia di rischiare fino alla presentazione di amd della nuova serie perchè se presentano una buona scheda il prezzo rimarrà lo stesso ma se deludono un pò lo street price delle 3080 va alle stelle
una domanda da dove si trova a 720 euro ?
perchè io a meno di 1000 non riesco a trovare nessuna 3080
quando c'è stato la prevendita su amazon sono durate poche ore e non ho voglia di rischiare fino alla presentazione di amd della nuova serie perchè se presentano una buona scheda il prezzo rimarrà lo stesso ma se deludono un pò lo street price delle 3080 va alle stelle
Credo qui, dovrebbero sbloccarle a breve
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3080/
ninja750
17-09-2020, 14:26
se deludono un pò lo street price delle 3080 va alle stelle
addirittura? :asd:
se le AMD deludono le prezzeranno più basse (le AMD)
stai tranquillo che se jhh ha prezzato 719€ la 3080 vuol dire che si è messo notte e giorno con calcolatrice + relazioni tecniche delle stime dei suoi ingegneri su quello visto per console e avrà tratto le sue conclusioni, sicuramente non ha tagliato di 600€ qulla fascia perchè è buono e bravo :asd:
dopo le review di ieri abbiamo la certezza che navi2 avrà un perf/prezzo migliore, ragionamento a prescindere dalle prestazioni, quindi se andrà come 3080 costerà 650, se andrà come 2080ti 600. questo detto che non ricordo una vga così costosa prodotta da amd.. (forse giusto la VII?) e i prezzi difficilmente saranno minori sia per la complessità della nuova gpu sia per le memorie (si vocifera hbm sulla top) sia perchè avranno pari tecnologia supportando (l'inutile) RT
se poi contro ogni pronostico jhh rimanesse ""spiazzato"" come all'uscita della 290 (ma dubito) sicuro non taglierà mezzo prezzo ma farà uscire delle ti/super come fatto con turing vs navi1, e a essere arrabbiatini saranno gli scimmiati che stanno comprando ampere al day1
cecofuli2
17-09-2020, 14:43
Per quelli che dicono che non è poi così potente...
guardate i bench utilizzando programmi professionali che fanno uso dei CUDA core (V-Ray, Blender, vai Renderer in GPU... siano nell'onrdine del 100% di incremento (2x)! Pazzesco.
Per quelli che dicono che non è poi così potente...
guardate i bench utilizzando programmi professionali che fanno uso dei CUDA core (V-Ray, Blender, vai Renderer in GPU... siano nell'onrdine del 100% di incremento (2x)! Pazzesco.
il fatto è che la vendono come scheda gaming.
perchè questo grafico non c'è nella recensione?
https://www.hwupgrade.it/articoli/skvideo/5611/consumi.png
Schede con prezzi più alla portata di tutti quando usciranno?
ninja750
17-09-2020, 16:15
perchè questo grafico non c'è nella recensione?
birbantello seminazizzania :read: :O :O
https://memegenerator.net/img/instances/51959998/not-me.jpg
Credo qui, dovrebbero sbloccarle a breve
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3080/
le segna già esaurite .....
sui siti partner next e ak il sito è down resta drako però nel passato non mi sono trovato bene con loro
non le sta comprando proprio nessuno :D :D :D :D
perchè questo grafico non c'è nella recensione?
https://www.hwupgrade.it/articoli/skvideo/5611/consumi.png
Perché in questo grafico la 3080 non c'è :sofico: :sofico:
Gringo [ITF]
17-09-2020, 22:02
Sito nVidia già esaurite a 0,25sec dall'apertura del Mercato al Pubblico oggi alle 15:00 praticamente NON E' ACQUISTABILE altro che 719€
;46983430']Sito nVidia già esaurite a 0,25sec dall'apertura del Mercato al Pubblico oggi alle 15:00 praticamente NON E' ACQUISTABILE altro che 719€
Come sempre, e soprattutto per un prodotto ghiotto ed atteso come questo, è inutile ammazzarsi al day ONE.
Tra qualche mese ci saranno un botto di modelli di mille produttori tra cui scegliere senza fare a botte.
ci sono già un botto di modelli. basta passare nel 3d dell'isterismo dell'acquisto per vedere quanti hanno già ordinato le custom. ma non di sicuro a 720 euro...
bonzoxxx
18-09-2020, 00:12
Imho a sto giro l'affare l'ha fatto chi ha preso, se c'è riuscito, una 2080ti sotto i 500€.
Riguardo chi ha preso al day one, avrei perlomeno atteso le schede amd ma solo per una sicurezza maggiore..
cdimauro
18-09-2020, 06:56
Bisogna vedere per cosa attendere. Se si vuole il top, non serve: dubito fortemente che AMD proporrà qualcosa di superiore. Sarà interessante, invece, vedere cosa proporrà per contrastare la 3700 (e le future 3600, 3700, ecc.).
Karandas
18-09-2020, 07:49
Non capisco perché minimo 750 watt di alimentazione, da quando servono 430w per cpu, mobo e ram su un pc desktop?
bonzoxxx
18-09-2020, 08:15
Bisogna vedere per cosa attendere. Se si vuole il top, non serve: dubito fortemente che AMD proporrà qualcosa di superiore. Sarà interessante, invece, vedere cosa proporrà per contrastare la 3700 (e le future 3600, 3700, ecc.).
Anche io confido poco in una GPU capace di rivaleggiare con la 3080 però fatto 30 avrei fatto 31 e aspettare qualche giorno non cambia molto ma la scimmia si sa, è difficile da tenere a bada... la mia l'ho strangolata anni fa ormai giace cadavere sotto la scrivania :D :D
Non capisco perché minimo 750 watt di alimentazione, da quando servono 430w per cpu, mobo e ram su un pc desktop?
Mah forse si sono tenuti un po larghi, cmq avere un ali un pelo sovradimensionato è buono dato che l'efficienza massima si ha a circa metà del carico:
https://www.legitreviews.com/images/reviews/1992/21.jpg
Karandas
18-09-2020, 08:20
Dipende dall'alim. Nel mio caso un 700W Seasonc classe Titanium non fa alcuna differenza. Credo che anche con un Platinum non ci siano grandi problemi addirittura su un 650W.
Facendo due conti e un paragone, ho una 2080ti su un i7-980x cloccato a 4ghz, un Rampage Extreme 3 e 12Gb di ram.
Questa serie di CPU era molto power hungry e con il sistema tirato al massimo faccio circa 540W...
Se consideri che le CPU moderno assorbono meno....il conto pareggia.
ninja750
18-09-2020, 09:11
;46983430']Sito nVidia già esaurite a 0,25sec dall'apertura del Mercato al Pubblico oggi alle 15:00 praticamente NON E' ACQUISTABILE altro che 719€
719€ per pochi
900€ per tutti
eh ma abbiamo abbassato i prezzi :O
Per fortuna non esistono solo i giochini :)
https://www.guru3d.com/articles_pages/geforce_rtx_3080_founder_review,30.html
https://techgage.com/article/nvidia-geforce-rtx-3080-rendering-performance/
Interessante
Ma per chi fa rendering secondo voi sarà più interessato a una RTX 3080 oad una Quadro?
Tetsuro P12
18-09-2020, 13:24
Consuma 100 watt in più rispetto ad una scheda con un processo produttivo peggiore e vi esaltate per le prestazioni, ma che razza di recensione è?
È chiaro che non c'è quel raddoppio delle prestazioni a parità di condizioni. Ergo è il solito step evolutivo, che stavolta il recensore spaccia per oro.
La 3080 non va comparata con la 2080 perché sono due classi diverse, indipendentemente dal nome.
Ah... e divertitevi a bruciare il mondo con i vostri consumi esasperati per appagare la vostra vanità.
coschizza
18-09-2020, 13:32
Consuma 100 watt in più rispetto ad una scheda con un processo produttivo peggiore e vi esaltate per le prestazioni, ma che razza di recensione è?
È chiaro che non c'è quel raddoppio delle prestazioni a parità di condizioni. Ergo è il solito step evolutivo, che stavolta il recensore spaccia per oro.
La 3080 non va comparata con la 2080 perché sono due classi diverse, indipendentemente dal nome.
Ah... e divertitevi a bruciare il mondo con i vostri consumi esasperati per appagare la vostra vanità.
la 3080 è il top di gamma e va confrontato con il top di gamma precedente la 2080, non è decidi tu quale sia il top di gamma.
E superare una scheda di mediamente 60/70% non il solito step evolutivo.
coschizza
18-09-2020, 13:34
Interessante
Ma per chi fa rendering secondo voi sarà più interessato a una RTX 3080 oad una Quadro?
una 3090 le quadro vanno uguale ma costano 3/4x e la 3080 ha troppa poca memoria per un uso professionale
;46983430']Sito nVidia già esaurite a 0,25sec dall'apertura del Mercato al Pubblico oggi alle 15:00 praticamente NON E' ACQUISTABILE altro che 719€
anch'io speravo di prenderla ieri ma a sto punto aspetto natale e spero che il prezzo non sia salito di tanto rispetto al lancio
cmq su ebay stanno arrivando a prezzi assurdi e su altri siti dichiarano già che ci vorrà almeno un mese per evadere l'ordine
la 3080 è il top di gamma e va confrontato con il top di gamma precedente la 2080, non è decidi tu quale sia il top di gamma.
E superare una scheda di mediamente 60/70% non il solito step evolutivo.
beh, la 2080 era la top di gamma due anni fa quando è uscita, poi sono uscite la super e la Ti, diciamo che l’ultima top di gamma era la Ti.
Mah forse si sono tenuti un po larghi, cmq avere un ali un pelo sovradimensionato è buono dato che l'efficienza massima si ha a circa metà del carico:
https://www.legitreviews.com/images/reviews/1992/21.jpg
dal tuo grafico si vede che la storia dell'efficienza massima a metà carico vale il 2%, abbastanza insignificante. Più probabile che ci siano altri parametri da tenere in conto, magari amperaggi di picco o altro che magari non tutti gli ali dichiarano (onestamente ;) ), per cui è meglio tenersi larghi
meno male che c'è il buon 3D center che raggruppa le % delle testate piu importanti.
54,7% 2070S
50,5% 5700XT
C'è da notare una cosa: per Hardware Upgrade (appare anche questa testata nela lista) le percentuali raccolte sono: 54,4% per la 5700XT e 56,0% per la 2070S.
Noti nulla di strano?
In questa recensione la 2070S (poco meno del 55% in 4k) sta poco indietro la 5700XT (poco più del 55,5% in 4k) mentre nelle percentuali riportate da 3D Center (suppongo più vecchie) sta avanti (56% contro 54,4%, sempre in 4K).
Da notare che in questa review per la 5700XT il 4K è la risoluzione più penalizzante rispetto alla 20270S.
Ora, mi pare eccessivo gridare al complotto o addirittura giustificare la cosa dicendo che "ci sta" che i recensori abbiano invertito le percentuali pur di non accettare che in qualche review la 5700xt possa andare di più come ha fatto MiKeLezZ, la realtà è che le percentuali dipendono molto dai titoli scelti e in parte dai driver del momento.
Però il fatto appena notato parrebbe davvero confermare quanto dice OptimusAl, in questo sito la 2070S stava avanti la 5700XT però guardacaso in questa recensione che deve mostrare il balzo prestazionale della 3080 con la serie precedente la 2070S sta dietro, come se avesse perso smalto.
Ad ogni modo escluderei dei driver azzoppati perchè mi pare (correggetemi se sbaglio) che questa inversione di prestazioni ci sia solo in questa testata che è anche una di quelle in cui la 3080 sembra brillare meno.
Non è una reference è la custom di nvidia e il dissipatore è super compatto non fa il minimo rumore e mantiene le temperature molto basse e forse il miglior dissipatore mai creato mettendo insieme varie recensioni che ho letto, nessuno ne ha parlato male ma tutti lo hanno elogiato per gli incredibili risultati
non ti sto dicendo che è fatto male, ma che è totalmente inutile.
320W non li gestisci con un raffreddamento ad aria in un case chiuso (se non facendo decollare il case).
è conveniente usare un full cover a liquido, ma visto che aggiungi minimo 200 euro al costo, conviene partire da schede che non propongono dissipatori troppo elaborati e quindi costosi, oltre che a partire da disegno più standardizzato che ci sia per il PCB, in quanto, più schede con quel tipo di PCB ci sono, più c'è possibilità per il produttore del WB di venderne e quindi meno costerà il prodotto (semplice economia di scala).
quindi, ti ripeto: peccato che sia una reference così, perchè alla fine potevi prendere questa, farci qualche mesetto e quando raccimolavi un'altro po' di soldi fare il liquido... ma con questa tra WB particolare (ed usato solo dalla FE per cui non si sa nemmeno se continueranno a farle) e costo notevole di un notevole sistema di dissipazione, sono tutti costi in più che sconsigliano l'operazione.
farlo sulle classiche reference con blower (che usciranno, come sempre sono uscite), forse renderà l'operazione più economica, ma è pur vero che lo devi fare subito perchè 320W con una blower sono ingestibili...
era semplicemente questo il raggionamento che facevo.
2 curiosità:
il consumo della sola GPU è identico alla 2080, quello della scheda completa è superiore di quasi 100W, la differenza è dovuta alle gddr6X che consumano uno sproposito? non credo che abbiano usato componenti per pcb e circuiteria meno efficienti.
Il pp a 8nm farebbe anche il suo lavoro, è il resto che la azzoppa (lato consumi) secondo me.
Adesso la hanno provata su un banchetto aperto, ma dentro un case quel dissi che manda metà aria dentro non alza di brutto le temperature di tutto il pc e quindi anche della scheda? La metà di 320W sono 160w che restano dentro, non sono pochi.... per di più sparati sulla cpu.
non esiste che delle memorie consumino così tanto.
quei valori vengono da un software e nessuno li certifica...
se io fossi nvidia andrei da chi fa il software, che tra l'altro è un redattore di una nota testata di HW) e gli consiglerei di fare una scala arbitraria che facesse vedere che quantomeno il nuovo chip consuma uguale a quello vecchio...
dici che non è andata così?
mh...
se ne sono viste di peggio, in questo settore (che rientra squisitamente nel marketing).
Schede impressionanti: una line-up spaventosa da parte di nVidia, anche fuori dal gaming.
Ma il dato più importante è che la 3080 è veloce il doppio della 5700XT. Dubito fortemente che BigNavi offrirà prestazioni doppie rispetto a quest'ultima, per cui nVidia potrà continuare dormire sonni tranquilli (come fa da parecchi anni ormai)...
il dato più importante è che la 5700 XT ora è diventata più veloce della 2080 Ti, su certi giochi.
me l'ha fatto notare un amico: prendi la review della 5700 XT, della 2070 Super e della 3080.
noterai che i settaggi dei (pochi) giochi che hano in comune sono stati ampiamente rivisti e alleggeriti, ma che le Turing continuano a fare le stesse prestazioni (soprattuto la 2080 Ti e soprattutto in 4K, che erano poi i dati che i lettori "distratti" sarebbero andati subito a vedere)....
ah! questi driver da test... proprio non si perde il vizio.
è una review palesemente manipolata, tutta a scapito della povera 2060, che oggi va più piano di qualche mese fa (anche con i settaggi "rivisitati") e a vantaggio della 5700 XT, che, pur avendo avuto notevoli miglioramente, qui va quasi il 20% in più della sua review e di quella dalla 2070 S....
un miracolo...
consiglia agli "amichetti" di prendersi un consulente buono quando fanno questi giochetti, che sono facilmente scopribili...
quelli che volevano magari sfruttare i pannelli 240hz in fhd?
ehm.. ora siamo a quota 360hz... sei rimasto indietro.
tanto anche andasse il 10% in più lo "schernimento" sarebbe la mancanza di RT
tanto sanno che la gente guarda la barretta più lunga e dove l'articolo li fa guardare, e sono sicuri che non vanno a comparare le precedenti review per vedere se queste mantengono una minima coerenza storica...
la 5700 XT va esattamente come prima, te lo assicuro.
ma, tanto, la gente crea i meme al momento e poi verranno ripetutti uguali per sempre, anche se la "verità" che li ha generati era una palese presa per i fondelli.
le reviews (e le schede+driver per reviews) servono solo a questo.
buona la prima... il resto non conta.
e anche hwupgrade è andata dietro a questo trend
se uno voleva paragonare i consumi tra 3080 e 2080ti non può, bisogna guardare altre testate
eh... condizione di mercato.
per ogni gioco pro nVidia ce ne sta uno Pro AMD e poi ci sono quelli ne uno ne l'altro quella media ve benissimo.
la maggior parte dei nomi di quella media sono testate affidabili, le stesse che, quando fa comodo, vengono prese ad esempio per i test AMD.
le prestazioni sono quelle, ne piu ne meno, il 30%.
non ho detto che non è buona, ho detto che il valore corretto è prendere la media di tutte le recensioni dove vai a livellare i giochi favorevoli a una o all'altra e anche con CPU differenti.
se vuoi ti smonto questa review, come tante altre, evidenziandoti le incongruenze e dandoti una spiegazione dettagliata e supportata di come hanno fatto a mostrarti una 3080 al +30% dalla 2080 Ti.
ma devi essere sicuro di volerlo sapere, realmente, perchè si tratta di stracciare letteralmente la credibilità a chi ha fatto la review.
non so se è il caso di affrontare questo discorso.
tu che dici?
te l'ho già scritto, fai il serio... e lasciamo correre...
addirittura? :asd:
se le AMD deludono le prezzeranno più basse (le AMD)
stai tranquillo che se jhh ha prezzato 719€ la 3080 vuol dire che si è messo notte e giorno con calcolatrice + relazioni tecniche delle stime dei suoi ingegneri su quello visto per console e avrà tratto le sue conclusioni, sicuramente non ha tagliato di 600€ qulla fascia perchè è buono e bravo :asd:
dopo le review di ieri abbiamo la certezza che navi2 avrà un perf/prezzo migliore, ragionamento a prescindere dalle prestazioni, quindi se andrà come 3080 costerà 650, se andrà come 2080ti 600. questo detto che non ricordo una vga così costosa prodotta da amd.. (forse giusto la VII?) e i prezzi difficilmente saranno minori sia per la complessità della nuova gpu sia per le memorie (si vocifera hbm sulla top) sia perchè avranno pari tecnologia supportando (l'inutile) RT
se poi contro ogni pronostico jhh rimanesse ""spiazzato"" come all'uscita della 290 (ma dubito) sicuro non taglierà mezzo prezzo ma farà uscire delle ti/super come fatto con turing vs navi1, e a essere arrabbiatini saranno gli scimmiati che stanno comprando ampere al day1
comunque io non ci credo alla bontà d'animo di AMD.
i prezzi saranno allineati a questi di nvidia (parametro prestazioni per costo), per il semplice fatto che ad AMD i soldi non puzzano di certo e li fa anche di più con le CPU.
sa che se pur avesse la forza produttiva di affrontare un mercato da quasi 50 milioni di pezzi all'anno, una guerra dei prezzi eroderebbe il margine di guadagno e anche se non la fa, il guadagno sulle GPU per mm^2 di silicio è nemmeno la metà di quello delle CPU.
se io avessi 20.000 wafer al mese da dover mettere o su un aumento della produzione delle CPU o sulle GPU per iniziare una guerra commerciale con nvidia, li metterei sulle CPU, dove ho un gap del solo 25-30%, che è inferiore
a quello che ho nelle GPU, ma dove c'è un mercato che vale 10 volte di più...
insomma, preferirei, se fossi AMD, un altro 5% sulle vendite di CPU che anche solo il 50% di quelle sulle GPU con una guerra dei prezzi con un canaccio come Huang.
quindi non mi aspetto rivoluzioni.
Per quelli che dicono che non è poi così potente...
guardate i bench utilizzando programmi professionali che fanno uso dei CUDA core (V-Ray, Blender, vai Renderer in GPU... siano nell'onrdine del 100% di incremento (2x)! Pazzesco.
ma tu con blender ci giochi?
perchè ste schede vengono vendute ai gamer, non per blemder, e i gamers sono tipo 100 volte più numerosi di chi le utilizza per altri scopi oltre al gioco...
quindi facessero anche x10 su blender, frega nulla a nessuno.
(smettetela con ste markette da social, non ne vale la pena farsi tagliare le gambe con sto marketing così poco arguto).
la 3080 è il top di gamma e va confrontato con il top di gamma precedente la 2080, non è decidi tu quale sia il top di gamma.
E superare una scheda di mediamente 60/70% non il solito step evolutivo.
e se te la chiamavano pippo con che la confrontavi, che una pippo non c'è nella gamma 2000?
o se te la chiamavano 2070?
un nome è un nome.
al massimo puoi andarla a confrontare con la 2080 Super, visto che usa comunque il chip più grande disponibile, ma tagliato di alcune unità...
si guarda la classe del chip non certo il nome.
giusto per farti notare che a 8nm questa scheda usa un chip quasi il 20% più grande della 2080...
bel progresso tecnologico, andare indietro.
mi sorprende leggere ste sciocchezze da te.
C'è da notare una cosa: per Hardware Upgrade (appare anche questa testata nela lista) le percentuali raccolte sono: 54,4% per la 5700XT e 56,0% per la 2070S.
Noti nulla di strano?
In questa recensione la 2070S (poco meno del 55% in 4k) sta poco indietro la 5700XT (poco più del 55,5% in 4k) mentre nelle percentuali riportate da 3D Center (suppongo più vecchie) sta avanti (56% contro 54,4%, sempre in 4K).
Da notare che in questa review per la 5700XT il 4K è la risoluzione più penalizzante rispetto alla 20270S.
Ora, mi pare eccessivo gridare al complotto o addirittura giustificare la cosa dicendo che "ci sta" che i recensori abbiano invertito le percentuali pur di non accettare che in qualche review la 5700xt possa andare di più come ha fatto MiKeLezZ, la realtà è che le percentuali dipendono molto dai titoli scelti e in parte dai driver del momento.
Però il fatto appena notato parrebbe davvero confermare quanto dice OptimusAl, in questo sito la 2070S stava avanti la 5700XT però guardacaso in questa recensione che deve mostrare il balzo prestazionale della 3080 con la serie precedente la 2070S sta dietro, come se avesse perso smalto.
Ad ogni modo escluderei dei driver azzoppati perchè mi pare (correggetemi se sbaglio) che questa inversione di prestazioni ci sia solo in questa testata che è anche una di quelle in cui la 3080 sembra brillare meno.
sono usciti oggi i nuovi driver nvidia...
quelli della reviews si trovano a scaricarli?
Ma un multiquote fa troppo xxi secolo? 10 messaggi di fila non si possono vedere
Cmq ci si aspettava prestazioni ben superiori rispetto a quelle attualmente sotto mano, ma la pubblicità è truffaldina
la 3080 è il top di gamma e va confrontato con il top di gamma precedente la 2080, non è decidi tu quale sia il top di gamma.
E superare una scheda di mediamente 60/70% non il solito step evolutivo.
calcolando pero' che consuma un 40-50% e oltre in piu',ti rimane a malapena il solito step evolutivo:stordita:
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/power-gaming-peak.png
Ma un multiquote fa troppo xxi secolo? 10 messaggi di fila non si possono vedere
Cmq ci si aspettava prestazioni ben superiori rispetto a quelle attualmente sotto mano, ma la pubblicità è truffaldina
così è ben più comprensibile rispetto ad un multiquote (e poi li ho scritti in momenti diversi).
la 3080 ha esattamente le prestazioni che mi aspettavo, anzi, anche un po' di più (ma è semplice dimostrare il perchè ne mostra di più);
quello che oggi la rende una buona scheda è il prezzo: mi aspettavo tra i 920 e i 1000.
certo, sono prezzi figli di un nuovo assetto di mercato, perchè hanno rivisto le strategie in previsione del prossimo futuro (con console da 12TF per 500 euro vendere a 1500 euro una scheda da gioco significa non volerla vendere... tralasciamo del tutto il fatto della concorrenza diretta di AMD che è una incognita, per ora), ma ad oggi, se si trovasse a quel prezzo, sarebbe un buon prodotto.
evidenzia maggiormente come il prezzo di mercato sia stabilito non in relazione sicuramente al costo di produzione, ma per fattori che esulano del tutto questo.
rendiamoci conto che questa scheda, con una VRAM più costosa, in quantitativo maggiore, migliore PCB, migliore sistema di raffreddamento, con una tecnologia molto più avanzata ed un uso di maggior silicio per il die, costa meno di quanto costasse la 2080 alla presentazione che a malapena superava la 1080 TI.
evidenzia solo quanto la serie Turing sia stata un cattivo prodotto per i propri acquirenti.
lasciamo stare le 2080 o le 2080 Ti dove si può parlare di prodotto all'apice delle prestazioni, ma tutto il resto di Turing mi chiedo chi lo ha acquistato, visto che non c'era manco la scusa della funzionalità RTX, visto che già da 2070 era praticamente inusabile (su quel poco che si poteva usare)...
il mercato è così... non sempre un buon prodotto vende e non sempre un cattivo prodotto viene riconosciuto tale.
così è ben più comprensibile rispetto ad un multiquote (e poi li ho scritti in momenti diversi).
A me sanguinano gli occhi ma ok :asd:
la 3080 ha esattamente le prestazioni che mi aspettavo, anzi, anche un po' di più (ma è semplice dimostrare il perchè ne mostra di più);
quello che oggi la rende una buona scheda è il prezzo: mi aspettavo tra i 920 e i 1000.
Rapportandola ai consumi non è niente di stratosferico, ed essendo partiti da info che la davano un 70% più potente della 2080ti per poi essere magicamente scesi ad un 30%...beh, evviva per il prezzo ma un po' di amaro in bocca resta
evidenzia solo quanto la serie Turing sia stata un cattivo prodotto per i propri acquirenti.
Da incorniciare e appendere alla parete
A me sanguinano gli occhi ma ok :asd:
Rapportandola ai consumi non è niente di stratosferico, ed essendo partiti da info che la davano un 70% più potente della 2080ti per poi essere magicamente scesi ad un 30%...beh, evviva per il prezzo ma un po' di amaro in bocca resta
Da incorniciare e appendere alla parete
non credo che una 2080 messa a consumare 350W riesca a raggiungerla... l'assorbimento di potenza elettrica non è lineare con la potenza grafica (a meno che non si parli di aumento corrispettivo del silicio che si usa; in quella condizione hai decisamente più linearità, visto che giochi sulla dimensione e non più su frequenza, voltaggio e temperatura).
forse la 2080 Ti, ma si dovrebbe testare.
le serie 2000 erano volutamente frenate nel power limit.
cio non toglie che difficilmente avresti avuto, con quelle schede, la stessa prestazione, anche andando oltre i 350W.
quindi parliamo di una scheda che è all'apice delle prestazioni gaming, in questo momento.
per quanto riguarda il consumo, per un PC fisso non è un problema.
lo è la soglia massima di calore che puoi smaltire e, sì, a 350W l'hai già bella che superata e quindi ti tocca congeniare un case adatto a quelle condizioni di smaltimento termico (quindi costi maggiori per un case molto grande, molte ventole e molto rumore o costi ancora maggiori per un custom loop in un case adeguato).
insomma, non sono schede che acquisti e metti dentro al preassemblato, anche cambiandogli alimentatore per adeguarlo al carico...
presa una di queste ci devi costruire un PC attorno se vuoi una cosa fatta bene.
ma queste schede sono per chi generalmente lo fà, quindi dov'è il problema?
magari per gli sciaguarti che compreranno solo alimentatore e scheda video per metterla nel preassemblato?
fatti loro se non sanno minimamente come gestire una configurazione.
la questione è che li stai convincendo con dati falsati.
non fasulli, ma falsati: veri ma solo in quelle condizioni (e le condizioni le creri tu che fai i test).
un comportamento decisamente poco etico, e non serve a nulla scaricarsi la coscienza dicendo che fai quello che ti dice il "padrone" sennò non puoi lavorare (o non ti mandano la prossima scheda in test).
perchè lavorare così non è un buon lavoro...
in molte review ci sono incongruenze rispetto a quelle storiche (poi, vabbè, come dice un mio caro amico, c'è chi se li inventa di sana pianta) e si notano alla prima occhiata.
digieffe
19-09-2020, 03:50
tanto sanno che la gente guarda la barretta più lunga e dove l'articolo li fa guardare, e sono sicuri che non vanno a comparare le precedenti review per vedere se queste mantengono una minima coerenza storica...
la 5700 XT va esattamente come prima, te lo assicuro.
ma, tanto, la gente crea i meme al momento e poi verranno ripetutti uguali per sempre, anche se la "verità" che li ha generati era una palese presa per i fondelli.
le reviews (e le schede+driver per reviews) servono solo a questo.
buona la prima... il resto non conta.
a prescindere dai marchi in ballo, pochi anni fa rilevai cose analoghe, forse accennai a qualcosa forse no...
ma da quel momento diedi una importanza molto relativa alle review a meno di studiarle (cosa che non faccio più, non devo mica fare una peer review :D)
p.s. alle 3.45 carico eccessivo del server :confused:
non credo che una 2080 messa a consumare 350W riesca a raggiungerla... l'assorbimento di potenza elettrica non è lineare con la potenza grafica (a meno che non si parli di aumento corrispettivo del silicio che si usa; in quella condizione hai decisamente più linearità, visto che giochi sulla dimensione e non più su frequenza, voltaggio e temperatura).
forse la 2080 Ti, ma si dovrebbe testare.
le serie 2000 erano volutamente frenate nel power limit.
cio non toglie che difficilmente avresti avuto, con quelle schede, la stessa prestazione, anche andando oltre i 350W.
quindi parliamo di una scheda che è all'apice delle prestazioni gaming, in questo momento.
Non dico che overcloccando a bestia una 2080ti si possa raggiungere la 3080, questo assolutamente no. Dico semplicemente che, ai consumi attuali, avere un miglioramento del 70% sarebbe stato stravolgente, con un 30...sì, ottima scheda al giusto prezzo ma stop. Niente per cui strapparsi le vesti
la questione è che li stai convincendo con dati falsati.
Esattamente, hanno pubblicizzato qualcosa che non è
Poi ripeto, a quel prezzo è un'ottima scheda ma dati alla mano chi ha una 2080ti è meglio che se la tenga, a meno che non voglia l'rtx a tutti i costi
coschizza
19-09-2020, 09:41
Ma un multiquote fa troppo xxi secolo? 10 messaggi di fila non si possono vedere
Cmq ci si aspettava prestazioni ben superiori rispetto a quelle attualmente sotto mano, ma la pubblicità è truffaldina
In che senso truffaldina? Io vedo le slide nvidia del lancio che dicono quello che poi si è visto nei test ne più ne meno
Psychopath
19-09-2020, 09:53
così è ben più comprensibile rispetto ad un multiquote (e poi li ho scritti in momenti diversi).
la 3080 ha esattamente le prestazioni che mi aspettavo, anzi, anche un po' di più (ma è semplice dimostrare il perchè ne mostra di più);
quello che oggi la rende una buona scheda è il prezzo: mi aspettavo tra i 920 e i 1000.
certo, sono prezzi figli di un nuovo assetto di mercato, perchè hanno rivisto le strategie in previsione del prossimo futuro (con console da 12TF per 500 euro vendere a 1500 euro una scheda da gioco significa non volerla vendere... tralasciamo del tutto il fatto della concorrenza diretta di AMD che è una incognita, per ora), ma ad oggi, se si trovasse a quel prezzo, sarebbe un buon prodotto.
evidenzia maggiormente come il prezzo di mercato sia stabilito non in relazione sicuramente al costo di produzione, ma per fattori che esulano del tutto questo.
rendiamoci conto che questa scheda, con una VRAM più costosa, in quantitativo maggiore, migliore PCB, migliore sistema di raffreddamento, con una tecnologia molto più avanzata ed un uso di maggior silicio per il die, costa meno di quanto costasse la 2080 alla presentazione che a malapena superava la 1080 TI.
evidenzia solo quanto la serie Turing sia stata un cattivo prodotto per i propri acquirenti.
lasciamo stare le 2080 o le 2080 Ti dove si può parlare di prodotto all'apice delle prestazioni, ma tutto il resto di Turing mi chiedo chi lo ha acquistato, visto che non c'era manco la scusa della funzionalità RTX, visto che già da 2070 era praticamente inusabile (su quel poco che si poteva usare)...
il mercato è così... non sempre un buon prodotto vende e non sempre un cattivo prodotto viene riconosciuto tale.
La 2080 Ti era un effettivo passo avanti lucù, il problema è che costava un occhio della testa.
Mo i prezzi son buoni, dato che gli 8 nm di samsung sono economici, però se costano meno un motivo ci sarà (stesse frequenze, efficienza non al top). In futuro andranno sicuramente meglio, con la next-gen in vista
La 2080 Ti era un effettivo passo avanti lucù, il problema è che costava un occhio della testa.
Mo i prezzi son buoni, dato che gli 8 nm di samsung sono economici, però se costano meno un motivo ci sarà (stesse frequenze, efficienza non al top). In futuro andranno sicuramente meglio, con la next-gen in vista
Psychopath, la 2080 Ti, per il prezzo a cui veniva offerta, non dava un aumento prestazionale commisurato, ma parliamo pur sempre della scheda che offriva le prestazioni più alte del periodo.
Turing lo hai anche a partire dalla 1650 e quelle prestazioni a quel prezzo sono da generazione precedente... non ha portato non solo nulla di eclatante, ma nemmeno buono (se non l'abbandono di un'architettura ormai realmente antica).
di questa scheda, guardando i dati, si vede che ha un chip più grande, ed immagina che sia più costoso; vede che è un processo sicuramente migliore, e quindi immagina che sia più costoso; vede che ha migliori RAM, e quindi immagina che siano più costose; vede che ha un quantitativo del 25% in più di ram, e quindi pensa ancora che sia più costoso, ma poi confronta i listini con la 2080 e vede che costa addirittura il 10% in meno...
allora si chiede s il prezzo che veniva chiesto prima non fosse notevolmente gonfiato dalla situazione di mercato e poi continua a domandarsi per quale motivo l'azienda oggi è stata più accorta a quotare il prodotto.
in futuro andranno sicuramente meglio, ma le persone oggi acquistano questo, perchè questo è il prodotto che oggi vendono.
p.s. alle 3.45 carico eccessivo del server :confused:
backup del sito... succede tutte le notti alle 3.30 e dura sui 20 minuti.
In che senso truffaldina? Io vedo le slide nvidia del lancio che dicono quello che poi si è visto nei test ne più ne meno
tu vedi le slide di nvidia e vedi poi dei test che riconducono a quanto scritto, ma di quei test ne vedi solo i risultati, e non ti vengono mostrate le condizioni con cui sono stati fatti.
la cosa è assai diversa, coschizza.
è come rilevare la velocità massima di un veicolo: se fai il test in discesa falsi il rilevamento, perchè sarà verificabile esclusivamente su quella discesa e non sarebbe giusto confrontarla ad altri rilevamenti fatti su una strada in pianura.
non è una truffa, se non hai riportato tu un valore che non hai mai consatato dal vero, ma è comunque "truffaldino" se ometti di dire che l'hai fatto in discesa, perchè poi la gente, fidandosi della tua credibilità, lo confronterà con gli altri rilevamenti che hai fatto negli anni e che forse una volta hai fatto in discesa, un'altra volta in salita ed altre volte ancora in pianura.
se poi lo fai confrontando sulla stessa discesa le velocità di diversi veicoli, ma a quello che t'interessa metti benzina avio (o driver che non sono stati rilasciati al pubblico) e agli altri metti la benzina diluita, allora diventa più simile ad una truffa, anche se non stai vendendo il veicolo, perchè la gente crederà che quei rilevamenti siano assoluti e riproducibili sempre, non solo quando stanno su quella discesa e usano le condizioni che hai usato tu.
il problema sorge quando ci sono veicoli su cui non puoi intervenire, magari perchè usano diesel e non hai il diesel meno prestazionale per farle andare (o driver costruiti ad hoc per mitizzare le prestazioni).
quei veicoli si comporteranno al livello delle loro prestazioni e in discesa risulteranno quindi più veloci di quanto in effetti lo sono in pianuta (o in salita, sui vecchi rilevamenti fatti, a seconda di come li hai fatti).
quindi ti trovi nella situazione in cui i vecchi veicoli vanno uguale, pur andando in discesa, perchè usano benzina diluita (il vantaggio della discesa viene bilanciato dall'uso di carburante meno efficacie), i nuovi veicoli che esprimono velocità mai riscontrate prima (ma in discesa...), e altri veicoli che risultano più veloci del solito, perchè comunque stai in discesa ma non hai potuto limitare le loro prestazioni con un carburante diluito.
e il tutto succede perchè non hai detto che stavi in discesa e non hai detto che usavi un carburante diverso che faceva risultare che una 2080 TI arrivava comunque alle stesse preformance di prima.
se le certificazioni funzionassero così staremmo realmente nei guai, ma queste non sono certificazioni ufficiali.
non vogliono esserlo e non dovrebbero essere intese in questo modo... sono solo pubblicità ben confezionata.
non di meno, però, quando fai pubblicità comparativa, dovresti seguire delle regole che garantiscono al pubblico la genuinità di quanto scrivi e mostri, perchè anche questo tipo di pubblicità è regolato dalla legge... (diventerebbe pubblicità ingannevole, alla stessa struegua che vendere un prodotto dicendo che è rosso, ma poi vendendolo solo con colore blu, a scatola chiusa).
non credo che sia il caso di approfondire l'argomento, perchè si aprirebbe un vaso di Pandora.... si fa solo critica costruttiva e si consigliano i vari promoter dei brand, nell'eventualità di voler fare test comparativi come questi, di farli in modo che almeno non si notino troppe incongruenze che solleverebbero spiacevoli domande (come quella fatta da altri utenti in questi giorni).
a prescindere dai marchi in ballo, pochi anni fa rilevai cose analoghe, forse accennai a qualcosa forse no...
ma da quel momento diedi una importanza molto relativa alle review a meno di studiarle (cosa che non faccio più, non devo mica fare una peer review :D)
non fai una peer review, ma ti basi su quanto vedi per decidere un'acquisto o fissare la tua idea di "giusto valore" ad un prodotto.
per me è un'abitudine analizzare dati, associarli e scorgere le incongruenze rilevabili; lo faccio per lavoro (e lo faccio sul lavoro degli altri).
è sufficiente andare a vedere i dati generati sugli stessi giochi con le stesse schede che sono, negli elenchi nelle varie reviews fatte in passato per scorgere incongruenze e cercando giustificazioni plausibili uno si rende conto di quanto succede.
quindi, per tua curiosità, fatti questa peer review, almeno ti fai un'idea.
mostrarle e chiedere chiarimenti potrebbe essere inteso come un attacco diretto alla credibilità di chi li ha generati (ed in un certo senso lo è).
che ti devo dire... speriamo che mi sia sbagliato... o che non succeda più.
di certo spero che qualche troll non usi questi dati, come son soliti fare, per affermare le proprie idee, perchè poi il vaso si scopre e il giocattolo si rompe (e qui c'è gente che ci ha tirato su un'attività su queste cose, che si basa esclusivamente sulla credibilità).
digieffe
19-09-2020, 13:04
non ho letto granché, quando avrò tempo lo farò
ma a livello di PP siamo a +10% di efficienza, esatto?
a livello di integrazione dei transistor quanto è più denso 8nm samsung?
non ho letto granché, quando avrò tempo lo farò
ma a livello di PP siamo a +10% di efficienza, esatto?
a livello di integrazione dei transistor quanto è più denso 8nm samsung?
a livello di integrazione dovremmo essere a x1.05 dal 7N, ma questo fattore dipende molto da che tipo di transistors vai a considerare: transistors usati per caches e buffer hanno una densità molto più alta di quelli usati per una pipeline di calcolo, e la 3080 annovera tanta chaces rispetto ad un navi 10, quindi potrebbe essere, a livello di transistors computazionali, inferiore al 7N.
per quanto riguarda il 12nm nvidia, su quello è un'altro paio di maniche, perchè su quel processo hanno usato librerie proprietarie sul 16nm TMSC che ne ha di molto diminuito la densità sui transistors computazionali, migliorando però le performanche per frequenza e resistenza ohmnica (oltre al fatto di aver generato die di dimensioni notevoli, che aiutano la dissipazione, ma questo è un'altro modo di leggere il dato della densità).
a parità di prestazioni, sì, saremmo più o meno ad un valore compreso tra 5 e 10%, ma il fatto di voler raggiungere prestazioni superiori li ha portati ben lontani dal golden spot dell'attuale stato del processo.
i nuovi processi sembrano concedere molto meno quando ti allontani dal golden spot del processo, quindi più punti in alto con le prestazioni, più la deviazione dalla linearità risulterà elevata ed in modo molto più sensibile di prima (esempio pratico: dare il 10% in più di prestazioni a una 2080 TI ti costa il 20%, con una tipica curva esponenziale; farle il 10% in più con la 3080 ti costa il 30% ed oltre, perchè in effetti il 100% sulla 3080 sarebbe già un 110% sulla 2080 Ti perchè ti sei già spinto oltre il golden spot già di partenza di un 10%, quindi sei su un livello più alto della rampa esponenziale).
ripeto: il prodotto non è male, ma il marketing ha voluto realmente esagerare, in questi mesi, tirando leak al mercato che non sono veritieri (almeno su questi primi prodotti, poi, magari, un'affinamento del PP seguente manterrà le promesse con la stessa architettura).
quello che stona è che hanno condizionato le reviews fatte fare dai vari siti in modi a dir poco "truffaldini" (perchè fare un driver apposito per le reviews la dice lunga su come effettivamente stanno le cose).
che poi i reviewers devono seguire passo passo i "consigli di testing" che gli manda nvidia già si sapeva, sennò non gli danno le successive schede da testare e se le dovrebbero solo acquistare.
d'altra parte si diceva questo del GPP, che avrebbe condizionato la libertà dei partners che si associavano (e visto che si è saputo che per ricevere sampler devi per forza sottostare alla firma di quel contratto...).
alcune incongruenze tra le varie reviews possono essere date anche dal fatto che qualche testata si sente "costretta" da questa posizione dominante di nvidia (che sfrutta la loro credibilità per fare mera pubblicità) e che, "visto che lo devo fare, lo faccio proprio come dicono loro e se ci sono incongruenze me ne frego altamente, almeno scoppia il bordello e si finisce con queste iposizioni autarchiche"!.
forse sarà per questo che questa reviews è leggermente discostata dalle altre?
lo potrebbe confessare solo chi ha fatto le reviews.
coschizza
19-09-2020, 15:50
a livello di integrazione dovremmo essere a x1.05 dal 7N, ma questo fattore dipende molto da che tipo di transistors vai a considerare: transistors usati per caches e buffer hanno una densità molto più alta di quelli usati per una pipeline di calcolo, e la 3080 annovera tanta chaces rispetto ad un navi 10, quindi potrebbe essere, a livello di transistors computazionali, inferiore al 7N.
per quanto riguarda il 12nm nvidia, su quello è un'altro paio di maniche, perchè su quel processo hanno usato librerie proprietarie sul 16nm TMSC che ne ha di molto diminuito la densità sui transistors computazionali, migliorando però le performanche per frequenza e resistenza ohmnica (oltre al fatto di aver generato die di dimensioni notevoli, che aiutano la dissipazione, ma questo è un'altro modo di leggere il dato della densità).
a parità di prestazioni, sì, saremmo più o meno ad un valore compreso tra 5 e 10%, ma il fatto di voler raggiungere prestazioni superiori li ha portati ben lontani dal golden spot del processo.
i nuovi processi sembrano concedere molto meno quando ti allontani dal golden spot del processo, quindi più punti in alto con le prestazioni, più la deviazione dalla linearità risulterà elevata ed in modo molto più sensibile di prima (esempio pratico: dare il 10% in più di prestazioni a una 2080 TI ti costa il 20%, con una tipica curva esponenziale; farle il 10% in più con la 3080 ti costa il 30% ed oltre, perchè in effetti il 100% sulla 3080 sarebbe già un 110% sulla 2080 Ti perchè ti sei già spinto oltre il golden spot già di partenza di un 10%, quindi sei su un livello più alto della rampa esponenziale).
ripeto: il prodotto non è male, ma il marketing ha voluto realmente esagerare, in questi mesi, tirando leak al mercato che non sono veritieri (almeno su questi primi prodotti, poi, magari, un'affinamento del PP seguente manterrà le promesse con la stessa architettura).
quello che stona è che hanno condizionato le reviews fatte fare dai vari siti in modi a dir poco "truffaldini" (perchè fare un driver apposito per le reviews la dice lunga su come effettivamente stanno le cose).
che poi i reviewers devono seguire passo passo i "consigli di testing" che gli manda nvidia già si sapeva, sennò non gli danno le successive schede da testare e se le dovrebbero solo acquistare.
d'altra parte si diceva questo del GPP, che avrebbe condizionato la libertà dei partners che si associavano (e visto che si è saputo che per ricevere sampler devi per forza sottostare alla firma di quel contratto...).
alcune incongruenze tra le varie reviews possono essere date anche dal fatto che qualche testata si sente "costretta" da questa posizione dominante di nvidia (che sfrutta la loro credibilità per fare mera pubblicità) e che, "visto che lo devo fare, lo faccio proprio come dicono loro e se ci sono incongruenze me ne frego altamente, almeno scoppia il bordello e si finisce con queste iposizioni autarchiche"!.
forse sarà per questo che questa reviews è leggermente discostata dalle altre?
lo potrebbe confessare solo chi ha fatto le reviews.
Io conosco un paio di reviews di questa scheda e mi hanno garantito sl 100% che nessuno gli ha mai chiesti di fare i test in un certo modo e loro mai lo farebbero comunque, e su di loro metterei la mano sul fuoco personalmente
Per te invece sembra che tutti sono disonesti a prescindere
l'ultima che hai scritto ^_^
si tratta di business, non di giochetti, ne di passione, ma di soldi.
la differenza con il mio è che qui non rischiano minimamente il penale.
se fossero tutti in buona fede, allora fattelo dire da uno esperto realmente in testing (che lo fa per mestiere): stanno sbagliando dalla prima all'ultima condizione di test, da cui poi si traggono, o si fanno trarre agli altri, conclusioni errate.
comunque è ben noto che sia nvidia che AMD, come pure Intel, mandano un paper review che informa della nuova tecnologia, ma che suggerisce anche i test, e come eseguirli, da fare per verificare queste tecnologie.
è anche noto che alcune testate sono state messe sotto ricatto, da parte di vari brand, che se non si seguono alla lettera quello che loro si aspettano di leggere sulle reviews, o se non lo cambi, o se non lo fai leggere prima a loro per avere l'ok, subirai varie ritorsioni, come l'annullamento di pubblicità veicolata attraverso il tuo sito e la "proposta" di testare nuovi prodotti futuri; e sai bene che se non esci il primo minuto dopo lo scadere dell'NDA fai meno pubblico e quindi meno soldi...
poi credo che manco se fossero tuo fratello te lo direbbero, anche in confidenza, proprio perchè poi lo andresti a scrivere in un forum pubblico.
io mi attengo solamente alle incongruenze che mostrano i dati e le evidenzio...
a te poi farti una tua indipendente idea.
bonzoxxx
19-09-2020, 22:21
Vabbè in definitiva che è riuscito ad accaparrarsi una 2080ti a 450-500€ provenendo da una 1060 ha fatto un affare, no?
@lucusta
Sarebbe più che sufficiente il mischiare condizioni diverse come base comune in una recensione.
Se ammettono candidamente di non ripetere ogni test (neanche nelle stesse condizioni, da quello che sostieni, ma questo non l'ho verificato...), dovrebbero ammettere nella stessa maniera che il confronto non vale.
Le scuse non potrebbero che essere tali. Se mischi condizioni e basi diverse nello stesso grafico, per altro senza specificarlo in caratteri cubitali (e non varrebbe che come attenuante), come meriterebbe una macedonia simile: Non fai che confondere volutamente il grosso; Tenendoti l'attenuante per quei 4 gatti che conoscono le condizioni inopportune suddette.
Quello che fa la massa si sa benissimo, perché lo sniffo per saperlo è diretto al grosso che questa compone. Le mosche bianche non interessano manco alle altre mosche chiare...
In pratica, è come nelle recensioni dei giochi, dove il voto secco è quello ricercato dal gregge (senza offesa). Di conseguenza, lo scritto della recensione cozza spesso col numero ambito.
Ecco, quello scritto è come l'attenuante per i pochi che chiedono i dettagli in questo contesto.
Insomma: Non ha senso, contraddice il manifesto, e nelle attenuanti viene pure minimizzato. Es. "guardi solo il numerello? perché non leggi il testo, ignorante" Mentre la domanda dovrebbe essere: Perché metti un numero che fa a cazzotti con la recensione? A questo punto, domanda retorica...
Il grafico dei consumi complessivi escluso perché conviene a chi...?
Assomiglia al frame time omesso nella rece delle RTX-20xx? Azz, prima era determinante, poi, quando non conveniva alle nuove Nvidia.. che, tra altro, aveva anche fornito il tool quando gli tornava utile...
Il solito discorso (almeno per me) della differenza pesante che fa l'amplificare i pregi e il nascondere i difetti.
Fare l'Emilio Fede non conviene a nessuno; Un minimo di parvenza credibile è necessaria.
Un paragone facile è quello con l'arbitro che fa il fiscale con la squadra sfavorita e il tollerante con l'atra. Non commette errori madornali, ma bisogna spellarsi per vincere una partita se non si è la squadra favorita.
Il non porsi neanche un dubbio sulla rivelazione software della temperatura dimostra quel poco ch'è rimasto. Anzi, si appoggia pure giustificandolo.
Come razzo si fa a far pensare che il resto del consumo possa essere assorbito dall'altro? Semplice: Basta volerlo! :O
terranux
20-09-2020, 09:46
A me sanguinano gli occhi ma ok :asd:
Rapportandola ai consumi non è niente di stratosferico, ed essendo partiti da info che la davano un 70% più potente della 2080ti per poi essere magicamente scesi ad un 30%...beh, evviva per il prezzo ma un po' di amaro in bocca resta
Da incorniciare e appendere alla parete
ma scusa ...ma chi lo ha mai detto che và il 70% in più della ti vecchia? mi metti un link e vediamo...
Sembrerebbe che gli FP64 per SM siano 1:64 degli FP32 e non 1:32 come in passato. Quindi 35 TFlops in FP32 scendono a 550 GFlops in doppia precisione. Qualcuno conferma?
Per la redazione, potreste abbinare nelle prossime review (per esempio per la RTX3090) anche i bench di SiSoft Sandra per i test in doppia precisione (DGEMM, Financial, etc.)? Grazie in anticipo.
nickname88
20-09-2020, 15:19
Mezza delusione.
Prezzo/performance di successo ma tecnicamente parlando, addirittura la GPU efficiente che subisce l'eccessivo consumo del resto del PCB ... mai vista una cosa del genere.
Inoltre un 10% sotto le aspettative, con la speranza che venga colmato con i prossimi giochi e drivers.
E il vantaggio sulle performance in RT semplicemente proporzionale a quelle raster.
Che razza di scherzo sarebbe la storia che il chip consuma uguale a GT104 con il +70% di efficienza ma poi il resto del PCB consuma 100W in più del PCB di Turing a parità di consumo del chip, la cui unica differenza è una "X" sulla sigla delle RAM ? Ridicolo.
https://www.hwupgrade.it/articoli/5827/consumo_gpu_metro.png
https://www.hwupgrade.it/articoli/5827/consumo_scheda_metro.png
150W solamente di PCB, senza la GPU ?
Tanto valeva tenersi allora le GDDR6 e fornire un bus più ampio.
bonzoxxx
20-09-2020, 15:32
Mi sembra MOLTO strano che le memorie consumino 140-150W, molto strano, c'è qualcosa che non torna.
nickname88
20-09-2020, 15:34
Mi sembra MOLTO strano che le memoria consumino 100W, molto strano..Dal risultato in realtà non parla di 100W totali, ma +100W rispetto al PCB della 2080, che montava le GDDR6 ( senza la X ).
Praticamente la scheda da sola, senza il chip consumerebbe ( uso il condizionale ) quanto una GTX 1060 intera.
digieffe
20-09-2020, 15:50
parliamoci chiaro, ormai le recensioni (indipendentemente dai marchi coinvolti) sono marketting e pubblicità mascherate.
Non sto parlando di in modo specifico di questo sito ma di una situazione generalizzata che riguarda anche quelli che dovrebbero essere il riferimento a livello globale (Anand ecc), tutto ciò non mi stupisce.
Invece ciò che mi lascia perplesso è il fatto che (con pochissime eccezioni) tecnici anche ben preparati od utenti "avanzati" continuino a dare troppo credito a recensioni "con incongruenze".
Mi sembra MOLTO strano che le memorie consumino 140-150W, molto strano, c'è qualcosa che non torna.
@ nickname e bonzoxxx
me ne ero già accorto io molti post indietro, mi hanno risposto che sono dati rilevati da GPU-Z quindi via software, non affidabili. Magari essendo nuova gpu-z deve ancora essere tarato..
Il fatto strano invece è che pochi giorni fa hanno fatto un articolo sui nuovi strumenti che nvidia gli ha mandato per testare le gpu (latenze e consumi) e poi non li hanno usati per la recensione. Mah.
https://www.hwupgrade.it/articoli/skvideo/5825/rilevare-latenza-e-consumi-i-kit-nvidia-ldat-e-pcat-in-aiuto-dei-recensori_index.html
il buon Igor sta indagando,pare che le GDDR6X scaldano parecchio,forse e' stato un azzardo a usarle in anticipo
https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/
mi sa che gli unici che hanno fatto un affare e' chi ha trovato la 2080ti a 400€
che cloccata(tanto ormai si puo',i consumi non contano piu':asd:) sembra solo una cut della stessa fascia e generazione
nickname88
20-09-2020, 18:36
parliamoci chiaro, ormai le recensioni (indipendentemente dai marchi coinvolti) sono marketting e pubblicità mascherate.
Non sto parlando di in modo specifico di questo sito ma di una situazione generalizzata che riguarda anche quelli che dovrebbero essere il riferimento a livello globale (Anand ecc), tutto ciò non mi stupisce.
Invece ciò che mi lascia perplesso è il fatto che (con pochissime eccezioni) tecnici anche ben preparati od utenti "avanzati" continuino a dare troppo credito a recensioni "con incongruenze".Le reviews a me per la maggior parte pare restituiscano più o meno gli stessi risultati, non sò a quali incongruenze complottistiche tu fai riferimento, a seconda del parco giochi usato più o meno stanno tutte su un +70% scarso o abbondante a seconda dei siti. Anandtech inoltre la review non è manco uscita in tempo.
Le schede sono anche sotto le previsioni, ma di un 10% mica chissà cosa.
bonzoxxx
20-09-2020, 19:01
il buon Igor sta indagando,pare che le GDDR6X scaldano parecchio,forse e' stato un azzardo a usarle in anticipo
https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/
mi sa che gli unici che hanno fatto un affare e' chi ha trovato la 2080ti a 400€
che cloccata(tanto ormai si puo',i consumi non contano piu':asd:) sembra solo una cut della stessa fascia e generazione
La penso come te, sopra ho scritto 450-500€ non so se qualcuno sia riuscito a prenderne una a 400€, nel caso buon per lui :)
@sbaffo si ho notato anche quello, un articolo intero per presentare la nuova suite per poi usare GPU-Z...
digieffe
20-09-2020, 20:21
Le reviews a me per la maggior parte pare restituiscano più o meno gli stessi risultati, non sò a quali incongruenze complottistiche tu fai riferimento, a seconda del parco giochi usato più o meno stanno tutte su un +70% scarso o abbondante a seconda dei siti. Anandtech inoltre la review non è manco uscita in tempo.
Le schede sono anche sotto le previsioni, ma di un 10% mica chissà cosa.
non parlavo in modo particolare di questa recensione e neanche delle altre relative alla 3080
facevo un riferimento generale al punto in cui lucusta faceva notare le incongruenze che nel tempo ho notato pure io, soprattutto in ambiti non GPU (dato che le seguo in modo blando)
il buon Igor sta indagando,pare che le GDDR6X scaldano parecchio,forse e' stato un azzardo a usarle in anticipo
https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/
mi sa che gli unici che hanno fatto un affare e' chi ha trovato la 2080ti a 400€
che cloccata(tanto ormai si puo',i consumi non contano piu':asd:) sembra solo una cut della stessa fascia e generazione
Assurda sta cosa
bonzoxxx
20-09-2020, 22:31
il buon Igor sta indagando,pare che le GDDR6X scaldano parecchio,forse e' stato un azzardo a usarle in anticipo
https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/
mi sa che gli unici che hanno fatto un affare e' chi ha trovato la 2080ti a 400€
che cloccata(tanto ormai si puo',i consumi non contano piu':asd:) sembra solo una cut della stessa fascia e generazione
E minca mia, 140W tra pcb e ram? Sono tanti è quasi quanto tutta la mia 1070...
Le reviews a me per la maggior parte pare restituiscano più o meno gli stessi risultati, non sò a quali incongruenze complottistiche tu fai riferimento, a seconda del parco giochi usato più o meno stanno tutte su un +70% scarso o abbondante a seconda dei siti. Anandtech inoltre la review non è manco uscita in tempo.
Le schede sono anche sotto le previsioni, ma di un 10% mica chissà cosa.
nelle recensioni degli altri siti ci sono incoerenze ancora più notevoli che fanno sorgere domande ancora più piccanti.
se vuoi le analiziamo assieme, dato per dato...
oggi non ho granchè da fare.
si sta contestando non la veridicità dei numeri, ma le condizioni che li hanno generati, che sembrano assai diverse da quelle di precedenti test.
le schede risultano un 10% sotto, ammettendo però che i test e le condizioni che hanno usato fossero simili a quelle precedenti di altri test; c'è il sospetto che abbiano enfatizzato, con settaggi più blandi, le prestazioni delle 3080 e calmierato artificialmente via driver quelle della serie 2000, di un 10% circa...
quindi quel 10% potrebbe essere anche 20 o 30, o nulla...
il punto è che senza un buon metodo di testing e senza l'assoluta affidabilità di quello che scrivono i recensori, che possono aver riportato numeri veri, ma omesso condizioni favorevoli o sospetti di condizioni particolarmente favorevoli, tutto il sistema di reviews che è stato fatto da anni sia solo una farsetta, manipolata per far pubblicità...
ma, ti ripeto, se vuoi analiziamo dato per dato di qualsiasi sito che tu voglia e verifichiamo se non ci sia nessuna incoerenza e nessun sospetto di manipolazione (da qualsiasi parte venga, anche dagli alieni).
l'importante è capire perchè ci siano delle incongruenze e dare una plausibile giustificazione ai numeri che vediamo.
nickname88
20-09-2020, 23:32
nelle recensioni degli altri siti ci sono incoerenze ancora più notevoli che fanno sorgere domande ancora più piccanti.
se vuoi le analiziamo assieme, dato per dato...
oggi non ho granchè da fare. ( e non solo oggi )
si sta contestando non la veridicità dei numeri, ma le condizioni che li hanno generati, che sembrano assai diverse da quelle di precedenti test.
le schede risultano un 10% sotto, ammettendo però che i test e le condizioni che hanno usato fossero simili a quelle precedenti di altri test; c'è il sospetto che abbiano enfatizzato, con settaggi più blandi, le prestazioni delle 3080 e calmierato artificialmente via driver quelle della serie 2000, di un 10% circa...
quindi quel 10% potrebbe essere anche 20 o 30, o nulla...
il punto è che senza un buon metodo di testing e senza l'assoluta affidabilità di quello che scrivono i recensori, che possono aver riportato numeri veri, ma omesso condizioni favorevoli o sospetti di condizioni particolarmente favorevoli, tutto il sistema di reviews che è stato fatto da anni sia solo una farsetta, manipolata per far pubblicità...
ma, ti ripeto, se vuoi analiziamo dato per dato di qualsiasi sito che tu voglia e verifichiamo se non ci sia nessuna incoerenza e nessun sospetto di manipolazione (da qualsiasi parte venga, anche dagli alieni).
l'importante è capire perchè ci siano delle incongruenze e dare una plausibile giustificazione ai numeri che vediamo.
Certo che tu il vizio delle fantasie Gomblottistiche basate sul nulla cosmico assoluto non lo perdi mai.
I numeri sono più o meno gli stessi, il fatto che il parco giochi o scenari dello steso gioco non sia perfettamente uguali non significa nulla, più o meno la performance quella è, e le altre reviews nel complesso lo han confermato, quindi le incongruenze manipolate ad hoc da analizzare le vedi solo tu.
I dubbi sollevati da me erano altri.
Certo che tu il vizio delle fantasie Gomblottistiche basate sul nulla cosmico assoluto non lo perdi mai.
I numeri sono più o meno gli stessi, il fatto che il parco giochi o scenari dello steso gioco non sia perfettamente uguali non significa nulla, più o meno la performance quella è, e le altre reviews nel complesso lo han confermato, quindi le incongruenze manipolate ad hoc da analizzare le vedi solo tu.
I dubbi sollevati da me erano altri.
prima del dare del complottista a qualcuno dovresti anche sentire che tipo di complotto ti sta proponendo e se ha delle prove a sostegno, diversamente dovresti essere preso per millantatore...
le incongruenze derivano dall'incrocio dei dati delle varie prove.
dimostrata l'incongruenza si deve poi dare una logica spiegazione del perchè i dati siano così simili ai precedenti (perchè derivati da test incongruenti).
che tutti lo confermino non è una prova a sostegno, se non hai la conferma che tutti stiano facendo un buon lavoro; invece sembra che tutti si siano allineati sulla soluzione di omettere i settaggi che usano e che questi sembrano assai più leggeri di precedenti test.
potresti dire che il "complotto" sia pensare che tutti siano d'accordo, ma ti assicuro che basta guardare i dati per farsi un'idea di come siano condizionati chi li produce (ricorda che ci sono ancora diverse schede da testare e che le custom di queste schede risulteranno assai difficili da repereire se non si hanno i canali giusti negli uffici PR giusti, quindi sono tutti sotto lo stesso giogo in finale).
i dubbi sollevati da te sono di facile interpretazione: GPU-Z è redatto da wizzard, di techpowerup, interpretando dei segnali su bus SMB e stimando dei consumi comparandoli ad esemplari che ha a disposizione, sul quale vengono semplicemente letti per vie traverse (tramite lettura del carico sulle connessioni dell'alimentaore e sul PCI e tramite presa amperometrica dell'intero sistema... estrapolazione di misura)... e non credo ne abbia avuti molti in questa prima fase per fare una stima attendibile.
quantomeno non ne ha fatta una credibile.
poi se vai a vedere la recensione della 3080 fe, troverai quella con i dati più incoerenti che ci siano nell'intero parco di questa tornata di recensioni.
anzi, mi è venuta una mezza idea che potrei affidare a qualcuno degno di poterla mettere in atto: chi se la sente di creare e gestire un sito che potrebe diventare un riferimento internazionale imparziale sulla credibilità delle recensioni?
un lavoretto semplice, di database, solo statistico e senza troppo lavoro, se non quello di leggersi le recensioni e riportare dati (che poi è quello che fa un normale appassionato del ramo).
così evitiamo che presunti millantatori diano del presunto cospiratore a chi che sia, senza nemmeno averne sentito le ragioni. :)
digieffe
21-09-2020, 00:39
nickname88, hai mai lavorato/collaborato per una redazione tecnica? hai mai avuto a che fare con i PR delle aziende multinazionali?
com'è possibile che non capisci come funziona il settore?
non è che a me piaccia particolarmente ciò che scrive lucusta, ma quando scrive certe cose dice il vero!
dopo che sarai andato agli eventi ufficiali organizzati dalle case madri (nessuna esclusa) ed avrai letto "i consigli" (le condizioni) su come fare le review potrai affermare con certezza le tue ragioni svelando i complotti!
senza toccare la pubblicità, hai mai sentito parlare di "omaggi" o "lasciare in affido" anche beni di valore ingente.
p.s. non parlo per sentito dire ma ho verificato di persona sia nel campo del motociclismo che in quello della tecnologia
digieffe
21-09-2020, 01:06
le incongruenze derivano dall'incrocio dei dati delle varie prove...
invece sembra che tutti si siano allineati sulla soluzione di omettere i settaggi che usano e che questi sembrano assai più leggeri di precedenti test.
potresti dire che il "complotto" sia pensare che tutti siano d'accordo, ma ti assicuro che basta guardare i dati
le parole chiave sono incrocio dei dati ed omissione
come già detto un lavoro di questo tipo lo fecci sulle cpu anni fa su anand ecc
"casualmente" al lancio dei nuovi prodotti manca sempre una barretta, un grafico, alcune condizioni di test, i test vengono fatti in condizioni diverse dalle precedenti o inusuali, ecc
che poi casualmente mancano sempre i dati più utili e significativi, quelli che ti impediscono di fare un confronto "serio"
anzi, mi è venuta una mezza idea che potrei affidare a qualcuno degno di poterla mettere in atto: chi se la sente di creare e gestire un sito che potrebe diventare un riferimento internazionale imparziale sulla credibilità delle recensioni?
un lavoretto semplice, di database, solo statistico e senza troppo lavoro, se non quello di leggersi le recensioni e riportare dati (che poi è quello che fa un normale appassionato del ramo).
purtroppo come da firma il mio tempo è contingentato :(
il gruppo di bit'n'chips ha portato avanti una campagna simile sul loro sito e sul loro account Tw, credo che qualcuno li abbia seguiti.
Vedi cosa hanno fatto e che risultati hanno ottenuto dopo ti regoli.
p.s. cortesemente tienimi aggiornato
Delle lisciate di pelo ne vogliamo parlare?
La quantità di memoria, secondo Nvidia, è più che sufficiente: non c'è videogioco che possa saturarla al momento e nel prossimo futuro. Per concludere, la RTX 3080 ha un TGP di 320W, un valore elevato ma che secondo Nvidia è comunque non così alto se si tiene conto del salto prestazionale rispetto alla precedente generazione.La recensione serve per conoscere i pareri - sicuramente disinteressati - di Nvidia? :fagiano:
L'affermazione "non c'è videogioco che possa saturarla al momento e nel prossimo futuro" è sempre di Nvidia, o ci hanno messo del loro? Perché non si capisce mica, eh.
Posto che mi risulta che qualche gioco che in condizioni estreme non s'accontenti già ci sia, per il prossimo futuro chi garantisce?
Il prossimo futuro fin quando durerebbe, fino all'uscita della nuova scheda che ne ha di più? A prescindere, prossimo futuro ha un signifaco vago a dir poco.
Che il futuro arriverà prossimamente si sa, ma lasciamo perdere i dettagli...
Qualcuno garantisce di suo qualora quei GB non dovessero bastare? Se mando prove mi ridate i soldi o un modello con più VRAM?
Diversamente, non mi sembra il genere di sito da ospitare indovini... :rolleyes:
Tornando al discorso sul consumo periferico: Forse non si considera il fatto che i test che valgono meno (ad essere buoni), oltre ad essere stati messi dinanzi (sarà un caso?), sono stati presi per oro colato, senza porsi un minimo di dubbio legittimo sull'incongruenza dei risultati e/o il supporto limitato del software al fresco fresco. Tanto da portare a ricamarci attorno come se la cosa fosse prevedibile.
Cioè:
mostrano un livello di consumo che è di fatto identico tra di loro
il consumo aggiuntivo della nuova arrivata è frutto non della GPU quanto di tutto quello che è a contorno di quest'ultima tra memoria e circuiteria di alimentazione
Con tutto il grassetto usato nella recensione...
Boh, se vi pare normale sorvolare una stortura simile in questo modo... :)
nickname88, tu dici che tutti confermano i dati; bene, è un vantaggio per quello che sostengo io, perchè mi basta screditare i test di uno solo per mandare in malora anche tutti quelli degli altri.
quando fai il check sulla verità o è 1 o è 0; se tutti dicono la verità devono essere tutti 1, ma se scopri che uno solo dice il falso, si porta appresso tutti gli altri, come il gioco del domino, che magari sono stati più bravi a dire il falso, tanto da non farsi accorgere... è così che si verifica la robustezza del sistema.
e io ti assicuro che basta prendere i dati di TPU per demolire l'intero sistema (quel sito che tu porti troppo spesso ad esempio usando, tra l'altro, le medie che genera, che hanno un senso pari all'inutilità fatta materia).
p.s. cortesemente tienimi aggiornato
già lanciato l'appello per trovare gente disposta a testare la robustessa del sistema proprio su quel sito.
comunque, digieffe, l'impegno non sarebbe tanto e i risultati (anche economici, visto l'afflusso di lettori che avresti) si vedrebbero in poco tempo.
è che questa volta hanno proprio esagerato.
l'idea è nata proprio leggendo gli attacchi di personaggi (ben noti, tra l'altro ,anche se sotto spognie mimetiche) che sfidavano un utente a fare un video su YT per dimostrare le sue preplessità...
video?...
sta gente pensa che stia parlando con i ragazzini di yt; è questo il problema.
Fos, certe costruzioni delle frasi servono a scaricare le responsabilità di chi scrive l'articolo; per la memoria è la stessa Nvidia che indica quando non sarà più sufficiente: già ci sono i leak delle stesse schede con 2GB per chip (quindi 3070 a 16GB, 3080 a 20GB)...
prendere queste è quasi un controsenso visto che ci sono i leak di AMD che presenta già con 16GB una scheda che probabilmente sta alla pari con la 3070.
è segno evidente che le industrie sanno già come si evolverà la questione ed in quanto tempo.
cronos1990
21-09-2020, 09:10
Numeri interessanti. Unico mio dubbio è se la scheda può essere installata su una slot PCI-Ex 3.0 (presumo di si) ed eventualmente le differenze prestazionali se piazzata in una slot PCI-Ex 4.0. Se la cosa è riportata nell'articolo chiedo venia perchè me la sono persa, ho letto piuttosto di fretta ad un certo punto.
Come immaginavo il DLSS è un elemento quasi fondamentale al momento per usare il RT efficacemente nei giochi che lo implementano, è una tecnologia ancora troppo pesante e Nvidia ha trovato un ottimo sistema per rimediare a questa problematica.
Se AMD non ha qualcosa di analogo...
Ora mi leggo i commenti :D
_sissio_
21-09-2020, 09:26
già lanciato l'appello per trovare gente disposta a testare la robustessa del sistema proprio su quel sito.
comunque, digieffe, l'impegno non sarebbe tanto e i risultati (anche economici, visto l'afflusso di lettori che avresti) si vedrebbero in poco tempo.
è che questa volta hanno proprio esagerato.
l'idea è nata proprio leggendo gli attacchi di personaggi (ben noti, tra l'altro ,anche se sotto spognie mimetiche) che sfidavano un utente a fare un video su YT per dimostrare le sue preplessità...
video?...
sta gente pensa che stia parlando con i ragazzini di yt; è questo il problema.
Fos, certe costruzioni delle frasi servono a scaricare le responsabilità di chi scrive l'articolo; per la memoria è la stessa Nvidia che indica quando non sarà più sufficiente: già ci sono i leak delle stesse schede con 2GB per chip (quindi 3070 a 16GB, 3080 a 20GB)...
prendere queste è quasi un controsenso visto che ci sono i leak di AMD che presenta già con 16GB una scheda che probabilmente sta alla pari con la 3070.
è segno evidente che le industrie sanno già come si evolverà la questione ed in quanto tempo.
ho preso i dati di techPowerUp (2080/2020)
2080/2080Ti (strix e non) Versus 2080/2080Ti (2020), nella recensione della 3080 chiaramente.
Non riscontro quanti dici, addirittura gli fps prodotti nel 2018 prodotti in quel test sono + bassi del test eseguito la settimana scorsa. Probabilmente l'affinamento lato driver spiega il fenomeno.
Quindi di cosa stiamo parlando ?
cronos1990
21-09-2020, 09:26
domandina...
https://www.hwupgrade.it/articoli/5827/media_fps-2.png
ogni volta che si diceva che la 5700xt era in zona 2070S si partiva con "nei tuoi sogni, sta un 10% sotto".
da questo recap mi sembra impercettibilmente meglio della 2070s e quasi ad un passo dalla 2080 (che viene presa dalla tanto bistrattata radeon vii)... e non è questo il problema, cioè a me che la 5700xt vada meglio o come la 2070s non mi interessa.... ma un dubbio mi sorge... non è che le 2000 adesso... vanno un pò meno del dovuto per evidenziare il salto con la serie 3000?Molto più banalmente non c'è mai stato quel 10% sotto.
Ho letto e controllato decine di benchmark e recensioni all'epoca perchè stavo facendo il PC nuovo e ci ho perso molto tempo dietro la GPU. E a conti fatti all'epoca (con driver AMD ancora acerbi e driver Nvidia invece consolidati da 1 anno) la differenza media era di +4,5% in favore della 2070SUPER. Poi ovviamente in base al gioco e alla risoluzione questo valore oscillava (e tendenzialmente scendeva aumentando la risoluzione) e in alcuni casi la 5700XT era superiore. E tutto questo per una cifra di circa 100 euro in meno per la scheda AMD (all'epoca).
Poi se arriva il sedicente adulatore di Nvidia o quello che usa come parametro assoluto il primo numero che gli capita a tiro è un altro discorso.
coschizza
21-09-2020, 09:28
Mezza delusione.
Prezzo/performance di successo ma tecnicamente parlando, addirittura la GPU efficiente che subisce l'eccessivo consumo del resto del PCB ... mai vista una cosa del genere.
Inoltre un 10% sotto le aspettative, con la speranza che venga colmato con i prossimi giochi e drivers.
E il vantaggio sulle performance in RT semplicemente proporzionale a quelle raster.
Che razza di scherzo sarebbe la storia che il chip consuma uguale a GT104 con il +70% di efficienza ma poi il resto del PCB consuma 100W in più del PCB di Turing a parità di consumo del chip, la cui unica differenza è una "X" sulla sigla delle RAM ? Ridicolo.
https://www.hwupgrade.it/articoli/5827/consumo_gpu_metro.png
https://www.hwupgrade.it/articoli/5827/consumo_scheda_metro.png
150W solamente di PCB, senza la GPU ?
Tanto valeva tenersi allora le GDDR6 e fornire un bus più ampio.
Non è uno scherzo micron ha detto che le sue ram x consumano circa il 25% in più di prima a quel livello di performance quindi ci sta tutto che siano loro ad aver aumentato di brutto mio consumo del pcb
_sissio_
21-09-2020, 09:30
ho preso i dati di techPowerUp (2080/2020)
2080/2080Ti (strix e non) Versus 2080/2080Ti (2020), nella recensione della 3080 chiaramente.
Non riscontro quanti dici, addirittura gli fps prodotti nel 2018 prodotti in quel test sono + bassi del test eseguito la settimana scorsa. Probabilmente l'affinamento lato driver spiega il fenomeno.
Quindi di cosa stiamo parlando ?
ecco la fonte :
2018
https://www.techpowerup.com/review/asus-geforce-rtx-2080-ti-strix-oc/
2020
https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/
coschizza
21-09-2020, 09:32
Numeri interessanti. Unico mio dubbio è se la scheda può essere installata su una slot PCI-Ex 3.0 (presumo di si) ed eventualmente le differenze prestazionali se piazzata in una slot PCI-Ex 4.0. Se la cosa è riportata nell'articolo chiedo venia perchè me la sono persa, ho letto piuttosto di fretta ad un certo punto.
Come immaginavo il DLSS è un elemento quasi fondamentale al momento per usare il RT efficacemente nei giochi che lo implementano, è una tecnologia ancora troppo pesante e Nvidia ha trovato un ottimo sistema per rimediare a questa problematica.
Se AMD non ha qualcosa di analogo...
Ora mi leggo i commenti :D
Fra i 2 pci la differenza è quasi irrilevante secondo i test forse cambierà con L rtx io
nickname88
21-09-2020, 10:05
Non è uno scherzo micron ha detto che le sue ram x consumano circa il 25% in più di prima a quel livello di performance quindi ci sta tutto che siano loro ad aver aumentato di brutto mio consumo del pcbIl consumo della scheda è passato da 50W a 150W, quì siamo ad un 300%.
Quindi o Micron nelle sue dichiarazioni ha dimenticato uno 0 ( zero ) nel valore dichiarato o qualcosa non torna.
cronos1990
21-09-2020, 10:16
Fra i 2 pci la differenza è quasi irrilevante secondo i test forse cambierà con L rtx ioBene.
Non ho intenzione di farmi una 30xx, mi tengo stretto la mia 5700XT, ma avendo una MB con PCI-Ex 3.0 l'argomento mi interessa, e continuerà ad interessarmi con le future generazioni di GPU.
Riguardo alle prestazioni, al netto di quanto dice lucusta (non conosco così da vicino questo "campo dell'informatica", ma per come la vedo io non dice nulla di sorprendente, semmai qualcosa di ovvio), siamo mediamente sul+30% che mi aspettavo.
Il che fa della 3080 una buonissima scheda ma non certo una pietra miliare da ricordare ai posteri. Non entro nel merito di chi guardava le primissime indiscrezioni, che erano puro marketing. D'altronde pensare ad un incremento di +50/70% l'ho sempre ritenuto utopistico, anche tenendo conto che stiamo di fronte ad un aggiornamento della tecnologia delle 20xx, non di qualcosa di completamente nuovo.
Sono più "benevolo" lato tecnologie introdotte (cioè: non introdotte). Vero che parliamo di schede semplicemente più potenti della vecchia generazione, ma va anche detto che RT, DLSS e altre cose introdotte con le 20xx erano piuttosto acerbe e giustamente Nvidia si è concentrata per renderle mature.
Poi, e mi ripeto, l'RT in assenza di "trucchi" come il DLSS deve ancora crescere molto. Ma bastava guardare le prestazioni con la 2080Ti: senza DLSS quella scheda aveva (ha) difficoltà a tenere i giochi in FullHD con RT attivo, e questo con un'implementazione nei giochi piuttosto parziale.
Già un anno fa dissi che sarebbero servite un minimo di 2, ma più verosimilmente 3, generazioni future di GPU per la maturazione completa di questa tecnologia. E non perchè sono un veggente, bastava fare una semplice analisi delle prestazioni.
Nvidia è stata molto furba a rendere l'RT già oggi "accessibile" tramite l'uso del DLSS.
Sono d'accordo che il rapporto performance/Watt, pur essendo migliorato di un +10%, è forse il punto più dolente.
nickname88
21-09-2020, 10:18
nickname88, hai mai lavorato/collaborato per una redazione tecnica? hai mai avuto a che fare con i PR delle aziende multinazionali?
com'è possibile che non capisci come funziona il settore?
non è che a me piaccia particolarmente ciò che scrive lucusta, ma quando scrive certe cose dice il vero!
Ciò che scrive Locusta non è mai supportato nemmeno mezza prova che possa definirsi concreta, il che equivale a pura fantasia.
Se gli posti una recensione dice che è un complotto.
Se gliene posti un altra .... è un altro complotto.
Se gli posti un video di un utente dice che è corrotto da Nvidia.
Se gli dici di andare nella sezione VGA di questo forum ti dirà che sbagliano o che i test non sono eseguiti correttamente.
E guardacaso quando questo non accade mai in favore di AMD, quindi tutto ciò che invece è PRO a quest'ultima è automaticamente vero, e di colpo tutte le mancanze non esistono più.
Se la cosa non convince basta seguire un utente o fare le cose di persona, in qualunque forum chi passerà alla 3080 la maggior parte prima aveva una 2080Ti o una 2080 o una 1080Ti e a quanto pare parliamo di parecchi utenti vista la velocità con cui tutto è esaurito. Quindi non si scappa.
AceGranger
21-09-2020, 10:20
Il consumo della scheda è passato da 50W a 150W, quì siamo ad un 300%.
Quindi o Micron nelle sue dichiarazioni ha dimenticato uno 0 ( zero ) nel valore dichiarato o qualcosa non torna.
il confronto lo si avra fra poco, quando usciranno le QUADRO Ampere.
Visto che non esistono GDDR6X con chip da 2GB, la TOP gamma QUADRO con 48GB dovra montare necessariamente le GDDR6 normali;
non è certo lo stesso quantitativo ma si avra un paragone in piu; la QUADRO 24GB probabilmente usera le GDDR6X; nel caso in cui usasse anche lei le normali avremmo un confronto quasi perfetto ( perchè presumo avra il chip full e non cuttato ).
nickname88
21-09-2020, 10:39
Nessuno ha fatto caso al fatto che la Founder espella aria calda perfettamente di fronte alla ventola dei dissipatori a torre ?
digieffe
21-09-2020, 11:48
già lanciato l'appello per trovare gente disposta a testare la robustessa del sistema proprio su quel sito.
comunque, digieffe, l'impegno non sarebbe tanto e i risultati (anche economici, visto l'afflusso di lettori che avresti) si vedrebbero in poco tempo.
ti ringrazio, ma ho interrotto le collaborazioni di questo tipo (forse in cantina ho ancora qualche residuato ^_^) e non ho né il tempo materiale (leggi 1° riga della mia firma) né la voglia, purtroppo mi devo occupare di ben altro per la vita.
chi vuol capire capisca...
Nessuno ha fatto caso al fatto che la Founder espella aria calda perfettamente di fronte alla ventola dei dissipatori a torre ?
Sì, infatti nei benchmark la cpu non ringrazia
ecco la fonte :
2018
https://www.techpowerup.com/review/asus-geforce-rtx-2080-ti-strix-oc/
2020
https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/
bisogna anche sapere cosa guardare.
ora, per una semplice constatazione su come hai ragionato, su che logica hai giostrato, mi spieghi come hai capito che tra la prova della 2080 Ti e della 3080 ausu non ci sono stati nessun cambiamento?
perchè non capisco quale "rivelatore" hai usato per valutarlo, se non la fiducia che poni in chi ha scritto quei dati.
poi ti spiego invece come dovresti guardare e cosa dovresti guardare.
ecco la fonte :
2018
https://www.techpowerup.com/review/asus-geforce-rtx-2080-ti-strix-oc/
2020
https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/
bisogna anche sapere cosa guardare.
ora, per una semplice constatazione su come hai ragionato, su che logica hai giostrato, mi spieghi come hai capito che tra la prova della 2080 Ti e della 3080 ausu non ci sono stati nessun cambiamento?
perchè non capisco quale "rivelatore" hai usato per valutarlo, se non la fiducia che poni in chi ha scritto quei dati.
poi ti spiego invece come dovresti guardare e cosa dovresti guardare.
nickname88
21-09-2020, 12:50
Sì, infatti nei benchmark la cpu non ringraziaIl problema è che non ci sono test a riguardo, da quel che vedo non c'è nulla a riguardo di questo aspetto.
nickname88
21-09-2020, 12:54
bisogna anche sapere cosa guardare.
ora, per una semplice constatazione su come hai ragionato, su che logica hai giostrato, mi spieghi come hai capito che tra la prova della 2080 Ti e della 3080 ausu non ci sono stati nessun cambiamento?
poi ti spiego invece come dovresti guardare e cosa dovresti guardare.Si arrivato l'esperto dei complotti.
Ovviamente con i titoli più vecchi non si rimettono a testare quanto già testato in precedenza, cosa pensi che il frame rate possa cambiare drasticamente col tempo ? Drivers e release del gioco solitamente non influiscono in modo tangibile, se la performance è quella è quella.
Se in un gioco fai 30fps con una scheda, non è che se testi 2 anni dopo nei fai 40, le solita caccia alle streghe.
Inoltre se è per questo dovremmo anche dire che i driver per la 3080 non dovrebbero in teoria disporre di quasi nessun profilo ottimizzato o proprio nessuno sui giochi attuali, specie tutti quelli che non sono usciti di recente.
Ma di che stiamo a parlare ?
Non è uno scherzo micron ha detto che le sue ram x consumano circa il 25% in più di prima a quel livello di performance quindi ci sta tutto che siano loro ad aver aumentato di brutto mio consumo del pcb
questo è quanto dichiara la tecnologia, ossia +25% di consumo, ma per il doppio del transfer rate, quindi un netto calo dei consumi per bit trasferito, come avviene nel PCIe 4.0 a confronto del 3.0.
a vedere quei dati si sarebbe dovuti passare da 45W a 56W, ma passando dai 14Gbps ai 28Gbps.
qui parliamo di un aumento di banda quantificabile in un 35% per un aumento di consumo del +200% e oltre, ossia che consumano 3 volte tanto.
te lo dico con molta sicurezza: se inondi un chip RAM con 14W (140W su 10 chip), semplicemente lo cuoci in pochi istanti.
Si arrivato l'esperto dei complotti.
Ovviamente con i titoli più vecchi non si rimettono a testare quanto già testato in precedenza, cosa pensi che il frame rate possa cambiare drasticamente col tempo ? Drivers e release del gioco solitamente non influiscono in modo tangibile, se la performance è quella è quella.
Se in un gioco fai 30fps con una scheda, non è che se testi 2 anni dopo nei fai 40, inoltre se è per questo dovremmo anche dire che i driver per la 3080 non dispongono di quasi nessun profilo o proprio nessuno sui giochi attuali, specie se non sono usciti di recente.
Ma di che stiamo a parlare ?
tu fagli rispondere alla domanda che gli ho posto, poi io ti darò le giuste prospettive per vedere il problema e cercheremo di capire il perchè.
prima m'interessa conoscere, dalle sue stesse parole, per quale motivo è confidente nell'assoluta verità di quei dati.
comunque se in un gioco fai 30fps, due anni dopo non ti aspetti che ne faccia 40, ma che ne faccia sempre e comunque almeno 30, sennò c'è stato un cambiamento.
purtroppo qui si nota che un gioco che 2 anni prima esprimeva 100, 2 anni dopo dà quasi 150, il che, come tu stesso hai evidenziato, sembra assai strano.
nickname88
21-09-2020, 12:58
tu fagli rispondere alla domanda che gli ho posto, poi io ti darò le giuste prospettive per vedere il problema e cercheremo di capire il perchè.
prima m'interessa conoscere, dalle sue stesse parole, per quale motivo è confidente nell'assoluta verità di quei dati.
Io non devo capire nulla, è già tutto chiaro.
L'unico che non vuole vedere sei tu.
ti ringrazio, ma ho interrotto le collaborazioni di questo tipo (forse in cantina ho ancora qualche residuato ^_^) e non ho né il tempo materiale (leggi 1° riga della mia firma) né la voglia, purtroppo mi devo occupare di ben altro per la vita.
chi vuol capire capisca...
purtroppo, come te, non ho tempo da dedicare ad una impresa del genere...
visto che comunque l'idea non è malvagia e che, se uno ci sa fare, riuscirebbe anche a lucrarci sopra grazie a google adds, spero che qualche ragazzo capace e di buona volontà voglia farsi consigliare ed istruire sul cosa fare e poi semplicemente continuare a farlo da solo.
ho puntato sulla questione squisitamente economica per esortare i volenterosi, lasciandogli idee e guadagni.
Io non devo capire nulla, è già tutto chiaro.
L'unico che non vuole vedere sei tu.
basta che gli dai il tempo di rispondere.
_sissio_
21-09-2020, 13:12
bisogna anche sapere cosa guardare.
ora, per una semplice constatazione su come hai ragionato, su che logica hai giostrato, mi spieghi come hai capito che tra la prova della 2080 Ti e della 3080 ausu non ci sono stati nessun cambiamento?
perchè non capisco quale "rivelatore" hai usato per valutarlo, se non la fiducia che poni in chi ha scritto quei dati.
poi ti spiego invece come dovresti guardare e cosa dovresti guardare.
I benchmarks dicon che la 3080 va in raster/rt circa il 20/30% (correggetemi se sbaglio) meglio della 2080TI.
Ho quindi ipotizzato che per "validare" i bench si deve verificare quanto segue :
1) i "parametri" e le modalità dei test eseguiti non devono esser cambiati nel tempo (ovvio non a parità di driver).
2) la "scala" dei valori delle GPU, nel tempo non deve cambiare.
sul punto 1) non abbiamo dati su cui ragionare, non so se tu li hai.
sul punto 2)fino alla 2080TI nei test del 2018, tutte le gpu facevano "x" fps, oggi nel test 2020 ne fanno tutte "x + x%" probabilmente grazie ai driver nuovi.
quindi se i valori di tutte le gpu testate nel 2018 sono più o meno identici a quelli misurati nel 2020, allora abbiamo un dato certo: la scala è corretta.
Quindi credo che il 20/30% che la 3080 ha guadagnato sulla 2080TI è un dato reale, sempre che le condizioni del test rispettino la legittimità della prova.
la domanda è: come fai a definire illegittima la prova se non sai esattamente come sono stati eseguiti i test ?
Se hai dati reali illuminaci, se non hai dati stiamo parlando di congetture e illazioni...
Mi in anticipo per eventuali errori, per grammatica/forma e sostanza del mio post :)
_sissio_
21-09-2020, 13:12
bisogna anche sapere cosa guardare.
ora, per una semplice constatazione su come hai ragionato, su che logica hai giostrato, mi spieghi come hai capito che tra la prova della 2080 Ti e della 3080 ausu non ci sono stati nessun cambiamento?
perchè non capisco quale "rivelatore" hai usato per valutarlo, se non la fiducia che poni in chi ha scritto quei dati.
poi ti spiego invece come dovresti guardare e cosa dovresti guardare.
I benchmarks dicon che la 3080 va in raster/rt circa il 20/30% (correggetemi se sbaglio) meglio della 2080TI.
Ho quindi ipotizzato che per "validare" i bench si deve verificare quanto segue :
1) i "parametri" e le modalità dei test eseguiti non devono esser cambiati nel tempo (ovvio non a parità di driver).
2) la "scala" dei valori delle GPU, nel tempo non deve cambiare.
sul punto 1) non abbiamo dati su cui ragionare, non so se tu li hai.
sul punto 2)fino alla 2080TI nei test del 2018, tutte le gpu facevano "x" fps, oggi nel test 2020 ne fanno tutte "x + x%" probabilmente grazie ai driver nuovi.
quindi se i valori di tutte le gpu testate nel 2018 sono più o meno identici a quelli misurati nel 2020, allora abbiamo un dato certo: la scala è corretta.
Quindi credo che il 20/30% che la 3080 ha guadagnato sulla 2080TI è un dato reale, sempre che le condizioni del test rispettino la legittimità della prova.
la domanda è: come fai a definire illegittima la prova se non sai esattamente come sono stati eseguiti i test ?
Se hai dati reali illuminaci, se non hai dati stiamo parlando di congetture e illazioni...
Mi in anticipo per eventuali errori, per grammatica/forma e sostanza del mio post :)
Il problema è che non ci sono test a riguardo, da quel che vedo non c'è nulla a riguardo di questo aspetto.
Neanch'io, la cosa viene riferita ma non ho trovato alcun dato a riguardo
cronos1990
21-09-2020, 13:26
la domanda è: come fai a definire illegittima la prova se non sai esattamente come sono stati eseguiti i test ?
Se hai dati reali illuminaci, se non hai dati stiamo parlando di congetture e illazioni...
Mi in anticipo per eventuali errori, per grammatica/forma e sostanza del mio post :)Se dovessi ragionare con mentalità scientifica/analitica, il fatto di non sapere come sono stati eseguiti i test sono di per se motivazione sufficiente per definirli illegittimi.
Qualunque tipo di test, per essere considerato attendibile, deve essere fatto conoscendo tutti i parametri di lavoro, in modo tale che poi possano essere replicati. Le condizioni DEVONO essere note.
Se tu mi fornisci un test reale e condotto a regola d'arte, ma non mi dici COME l'hai condotto, quel test non ha valore per me e chiunque altro che lo legge, ma anche per la stessa persona che l'ha eseguito perchè non ha una controprova del suo lavoro.
_sissio_
21-09-2020, 13:33
Se dovessi ragionare con mentalità scientifica/analitica, il fatto di non sapere come sono stati eseguiti i test sono di per se motivazione sufficiente per definirli illegittimi.
Qualunque tipo di test, per essere considerato attendibile, deve essere fatto conoscendo tutti i parametri di lavoro, in modo tale che poi possano essere replicati. Le condizioni DEVONO essere note.
Se tu mi fornisci un test reale e condotto a regola d'arte, ma non mi dici COME l'hai condotto, quel test non ha valore per me e chiunque altro che lo legge, ma anche per la stessa persona che l'ha eseguito perchè non ha una controprova del suo lavoro.
TechpowerUp lo spiega come fa i test :
https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/4.html
Tutti i giochi e le schede vengono testati con i driver sopra elencati: nessun risultato sulle prestazioni è stato riciclato tra i sistemi di test. Viene utilizzato solo questo sistema esatto con esattamente la stessa configurazione.
Tutte le schede grafiche vengono testate utilizzando la stessa versione del gioco.
Tutti i giochi sono impostati sulla massima qualità se non diversamente indicato.
AA e AF vengono applicati tramite le impostazioni di gioco, non tramite il pannello di controllo del conducente.
Prima di iniziare le misurazioni, riscaldiamo la scheda per ogni test per garantire che venga testato uno stato stazionario. Ciò garantisce che la carta non aumenti a clock irrealisticamente alti solo per pochi secondi fino a quando non si riscalda, poiché ciò non rappresenta un gameplay prolungato.
Ogni gioco viene testato a queste risoluzioni dello schermo:
1920x1080: la risoluzione del monitor più popolare.
2560x1440: risoluzione intermedia tra Full HD e 4K, con requisiti di prestazioni ragionevoli.
3840x2160: risoluzione 4K Ultra HD, disponibile sui più recenti monitor di fascia alta.
cronos1990
21-09-2020, 13:42
TechpowerUp lo spiega come fa i test :
https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/4.html
Tutti i giochi e le schede vengono testati con i driver sopra elencati: nessun risultato sulle prestazioni è stato riciclato tra i sistemi di test. Viene utilizzato solo questo sistema esatto con esattamente la stessa configurazione.
Tutte le schede grafiche vengono testate utilizzando la stessa versione del gioco.
Tutti i giochi sono impostati sulla massima qualità se non diversamente indicato.
AA e AF vengono applicati tramite le impostazioni di gioco, non tramite il pannello di controllo del conducente.
Prima di iniziare le misurazioni, riscaldiamo la scheda per ogni test per garantire che venga testato uno stato stazionario. Ciò garantisce che la carta non aumenti a clock irrealisticamente alti solo per pochi secondi fino a quando non si riscalda, poiché ciò non rappresenta un gameplay prolungato.
Ogni gioco viene testato a queste risoluzioni dello schermo:
1920x1080: la risoluzione del monitor più popolare.
2560x1440: risoluzione intermedia tra Full HD e 4K, con requisiti di prestazioni ragionevoli.
3840x2160: risoluzione 4K Ultra HD, disponibile sui più recenti monitor di fascia alta.Ecco, questa è una metodologia corretta. Si potrebbe al limite discutere se fare delle modifiche a questo sistema, ma quello è un altro discorso.
StylezZz`
21-09-2020, 15:42
Vabbè in definitiva che è riuscito ad accaparrarsi una 2080ti a 450-500€ provenendo da una 1060 ha fatto un affare, no?
Dipende anche dalle nuove Radeon, se a quel prezzo mi mettono un ipotetica RX 6800 con 12Gb che va quanto una 3070, allora no, non ha fatto un affare.
bonzoxxx
21-09-2020, 15:50
Dipende anche dalle nuove Radeon, se a quel prezzo mi mettono un ipotetica RX 6800 con 12Gb che va quanto una 3070, allora no, non ha fatto un affare.
Vero, ci sta.
I benchmarks dicon che la 3080 va in raster/rt circa il 20/30% (correggetemi se sbaglio) meglio della 2080TI.
Ho quindi ipotizzato che per "validare" i bench si deve verificare quanto segue :
1) i "parametri" e le modalità dei test eseguiti non devono esser cambiati nel tempo (ovvio non a parità di driver).
2) la "scala" dei valori delle GPU, nel tempo non deve cambiare.
sul punto 1) non abbiamo dati su cui ragionare, non so se tu li hai.
sul punto 2)fino alla 2080TI nei test del 2018, tutte le gpu facevano "x" fps, oggi nel test 2020 ne fanno tutte "x + x%" probabilmente grazie ai driver nuovi.
quindi se i valori di tutte le gpu testate nel 2018 sono più o meno identici a quelli misurati nel 2020, allora abbiamo un dato certo: la scala è corretta.
Quindi credo che il 20/30% che la 3080 ha guadagnato sulla 2080TI è un dato reale, sempre che le condizioni del test rispettino la legittimità della prova.
la domanda è: come fai a definire illegittima la prova se non sai esattamente come sono stati eseguiti i test ?
Se hai dati reali illuminaci, se non hai dati stiamo parlando di congetture e illazioni...
Mi in anticipo per eventuali errori, per grammatica/forma e sostanza del mio post :)
ok.
questo è il ragionamento che un normale appassionato potrebbe fare guardando questi dati.
premetto: non ti voglio dare lezioni di come si guardano queste cose, ne tantomeno insegnarti a farlo, ma ti voglio illustrare come si determina una scala di riferimento.
il punto dolente è proprio in primo.
tu cerchi riferimenti della scala da utilizzare sullo stesso campione che vedi analizzare.
non funziona bene, così.
devi avere un riferimento obbiettivo; una cosa che ti faccia dare una buona stima della misura.
qui stiamo cercando di capire se ci sia stato uno scostamento di un 10% dai dati che già abbiamo visto nelle precedenti prove (ed è un valore assai piccolo), quindi dovremmo trovare il metodo per capire se la scala ha lo stesso riferimento assoluto, ossia se non sono stati modificati i settaggi dei giochi e le variazioni dipendono solo dai driver e dalle prestazioni delle schede, o se invece si è cercato di portare a quei risultati.
in questo caso l'unico riferimento che hai in quei test è solamente la 5700 XT, in quanto, anche se ha avuto cambiamenti sui driver, le sue prestazioni non possono ricevere boost troppo elevati.
in questo confronto possiamo prendere solo i giochi in cui compaiono sia in una prova che nell'altra.
ad esempio AC da una parte è la versione odyssey, nell'altra Origins, quindi inconfrontabili.
il primo gioco che compare in entrambe le reviews è Far Cry 5, e su entrambe non viene specificato che settaggi abbiano usato.
2080 TI FE in FHD passa da 135.7 a 145.8, con un avanzamento del 7%;
in 1440p passa da 130 a 136.9, miglioramento del 5%, con però la questione che il framerate a 1440p è simile a quello a 1440p; la scheda in FHS è semplicemente in bottleneck CPU.
in 4K passiamo da 79.4 a 81.6, con un miglioramento del 3%.
essendo in bottleneck è meglio guardare schede che non presentino questa problematica su questo gioco, pur usando gli stessi driver.
per farlo andiamo sulla scheda che fa di meno e ne controlliamo il guadagno di framerat passando da 1440p a 1080p; tutte le schede che presenteranno un rapporto di guadagno simile, non saranno in bottleneck (solitamente si ha una certa uniformità in questo ambito, a scanso di problemi accessori, come per esempio dovuti alla scarsità di VRAM ad alta risoluzione).
la 980 va da 60.6 a 60.6, guadagno 1.326.
la 1070 presenta un guadagno addirittura più alto, con 1.374.
la 1070 Ti presenta 1.344.
la vega 56 presenta 1.354.
gtx 1080 1.326.
vega 64 1.290.
la 1080 Ti già comincia ad avere un calo , ottenendo solo 1.228, segno che la CPU è in bottleneck in FHD.
la 2080 presenta 1.203: bottleneck.
la 2080 Ti (prendiamo solo la FE, che della stirx, essendo custom, non c'importa granchè, visto che non devrebbe essere ritestata in seguito) 1.038; palese bottleneck che potrebbe presentarsi anche alla risoluzione più alta.
di solito il bottleneck della CPU si presenta grossomodo allo stesso frametime e possiamo dire che già sui valori della vega 64 siamo in situazione in cui la CPU spesso arriva al limite, abbassando quindi la media e quindi il rapporto tra le due risoluzioni; significa che già quando sei su una media di 120FPS , per il benchmark che stiamo valutando, la CPU andra sempre più spesso al limite e la media si alzerà solamente perchè hai minimi, dati dalla potenza bruta della GPU, più alti, perchè disponi di più potenza grafica.
sembra comunque che in 4K nessuna scheda potrebbe manifestare bottleneck da CPU, e si può verificare facendo il rapporto prestazionale sulle risoluzioni 1440p e 4K; se dalla scheda meno potente a quella più potente abbiamo sempre un valore simile, non sei in bottleneck.
la 980 presenta un 1.848
1070 1.883
1070 TI 1.874
vega 56 1.813
1080 1.857
vega 64 1.810
1080 Ti 1.776
2080 1.776
2080 Ti 1.637
come vedi anche qui hai che dalla vega 64 in poi il guadagno sulla risoluzione comincia a calare, segno che in questo benchmark ci sono comunque scene molto leggere che fanno schizzare il framerate e che la CPU raggiunge il suo limite, causando un leggero bottleneck della CPU.
man mano che le potenze delle GPU si alzano, questo viene accentuato, perchè il rapporto tra minimi e massimi si attenua, avendo il framerate massimo sempre più tagliato per l'esubero di potenza grafica.
le medie salgono perchè salgono solo i minimi perchè hai più potenza grafica, ma non salgono come sulle schede meno prestanti perchè non riesci a raggiungere i massimi che dovresti fare a causa della CPU.
questo serve ad analizzare il benchmark e a capire la deviazione che dovresti osservare sui numeri che vengono generati;
serve però anche per ottenere il reference che ci serve, sperando di trovarlo anche nelle altre prove.
ma, come già ti ho detto, nelle prove della 3080 trovi solo la 5700 XT da usare come riferimento diretto.
non avendola nella prova della 2080 ti lo dovrai usare indirettamente.
apri la prova della 5700 XT e confronti i risultati della 5700 xt con quelli della vega 64 (o 56).
andiamo sulla prova della 5700 xt ( https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/16.html ) e troviamo questa scala:
5700 XT 127, 106, 58.6
vega 64 119.1, 90.3, 50.1
vega 56 110.7, 81.5, 45.0
andiamo nella prova della 2080 Ti strix e troviamo questi dati:
vega 64 117.9, 91.4, 50.6
vega 56 111.7, 82.5, 45.5
controlliamo i rapporti prestazionali di 56 e 64 su entrambe le prove.
prova 5700 xt
1.076, 1.108, 1.113
prova 2080 ti strix
1.055, 1.108, 1.112
quindi, guardando questi numeri, possiamo dire che dalla prova della strix alla prova della 5700 xt vega 64 e vega 56 non hanno sostanzialmente cambiato le loro prestazioni (tra i valori assoluti abbiamo si e no l'1% di variazione), e che comunque rispondono alla stessa maniera all'aumento di risoluzione.
ora lo stesso lavoro si deve fare sulla 5700 XT sia sulla prova che la interessa direttamente che sulla prova che interessa la 3080, dove otteneva :
5700 XT sulla sua prova: 127, 106, 58.6
5700 XT sulla prova della 3080: 133.2, 108.8, 59.1
1.0488, 1.026, 1.008
questa scheda ha avuto un buon guadagno in FHD, meno in 1440p e 4K.
questo guadagno è dovuto ai driver?
non sembra, perchè le vega non hanno giovato dello stesso guadagno, pur essendo una scheda diversa, con una diversa architettura, avrebbe giovato comunque anche su questa.
abbiamo anche altre schede da poter confrontare, come la 2080.
la 2080 ha avuto questa progressione:
133.3, 110.8, 62.4 nella prova della strix
137.4, 112.5, 63.9 nella prova della 5700 XT
141.3, 113.4, 64.4 nella prova della 3080
137.4 rispetto a 141.3 nel giro di pochi mesi, con un guadagno del 2.8%...
driver?
non credo.
questo avanzamento di prestazioni tra la prova della 5700 e quella della 3080 lo trovi in tutte le schede che compaiono in entrambe le prove.
(prima la prova della 3080 poi la prova della 5700 XT):
2070: 124.7/123.6= 1.009
5700 XT: 133.2/127.0= 1.0489
2070 super: 136.6/132.2= 1.033
1080 ti 139/138.1 = 1.007
2080 141.3/137.4= 1.028
2080 TI 145.5/142= 1.0246
è uno scostamento generale più o meno accentuato, ma che viene riservato a tutte le schede, con l'eccezione della 5700 XT che ha guadagnato molto di più delle altre.
si spiega con il fatto che probabilmente c'è stato un miglioramento dei driver, ma anche che la CPU ha dato di più, e se vai a guardare le configurazioni trovi che son cambiate le memorie.
sulla 2080 strix si usavano le G.SKILL 16 GB Trident-Z DDR4 3867 MHz 18-19-19-39, sulla prova della 3080 il processore è rimasto lo stesso, ma le memorie sono state aggiornate con delle Thermaltake TOUGHRAM, 16 GB DDR4 4000 MHz 19-23-23-42.
questi pochi mhz in più sulle memorie sono riusciti a dare quel piccolo boost in più, quantificabile in un 2-3% e che poi vedere guardando la 2080 Ti a 4k confrontando la prima prova con la strix, dove faceva 79.4 e l'ultima con la 3080, dove otteneva 81.8, ossia proprio il 3% di boost.
sono piccole variazioni, siamo d'accordo, ma non è questo il gioco che ci interessava effetivamente analizzare, perchè, in finale, in questo gioco la 3080 ha dimostrato il suo +27% dalla 2080 Ti in 4K.
qui si parla con gente che la da a +55% dalla 2080 Ti...
inutile guardare a risoluzioni inferiori perchè ci si trova in palese bottleneck della CPU.
abbiamo appurato quindi che c'è stato un cambiamento per via dell'aggiornamento delle memorie.
un 3% medio, ma che fa il suo, non tanto in riferimento alle vecchie schede che trovi nella stessa prova, ma come valore assoluto: serviva un minimo boost prestazionale per far vedere che in alcuni giochi arrivasse a 60fps a 4K.
poi, trovare gente che spende più per 16GB di ram che per la GPU, ancora me la devono presentare... è quindi solo una questione di pubblicità per far vedere che arriva a 4K@60fps.
ora passiamo agli altri giochi su cui possiamo andare a ragionare cercando di sviare l'altro problema di queste recensioni: il cambio dei riferimenti che hai, ossia cambiare la maggior parte dei giochi, in modo da non potere avere un confronto con il passato.
capisco che non avrebbe senso testare queste schede con giochi vecchi, ma lo ha in quest'ottica, ossia vedere effettivamente il progresso che hanno dato, non come vanno su quelo o l'altro gioco.
non ha senso poi rimettere in lista "Anno 1800", e togliere un Rice of the tomb raider che scala ancora molto bene con le prestazioni.
questo era il metodo per capire se ci siano state variazioni, di driver, di settaggi o di configurazione nel tempo, che sono effetti che si sommano tra di loro.
interessante sarà andare a guardare giochi in cui è la GPU a fare da tappo alle prestazioni.
prendiamo l'unico altro gioco che compare nella vecchia prova ed in quella nuova:
puoi fare la stessa triangolazione con civilization IV, magari inserendo anche la vega VII nel confronto, e vedere che in quel gioco i settaggi siano stati decisamente alleggeriti, e che sia impossibile che ci sia stato un boost dato dalle memorie o dai driver.
il resto dei giochi puoi controllarlo con la 5700 XT, che usa la stessa suite di giochi.
noterai, ad esempio, che la 5700 XT in metro exodus è pasata da 37.7fps a 47.2fps in 4K; parliamo di un miglioramento sui driver del 25.2%?
è un pochino esagerato, se permetti, ed anche il boost delle memorie da 3867 a 4000 su un gioco del genere, che è GPU limited e non CPU limited, è assai trascurabile.
ecco, in quel caso ti accorgerai che oltre ai driver, oltre alle memorie, sono intevenuti anche in altri parametri e senza accennarlo, come non è stato esplicitamente accennato che hanno cambiato le RAM di sistema (rendendo, di fatto, non direttamente confrontabili i riferimenti).
ora ho da fare, ma ti prometto che ti faccio anche l'analisi di civilizzatione e degli altri giochi che compaiono tra la prova della 3080 e la prova della 5700 xt...
mi preme capire se hai compreso il metodo di analisi incrociata, perchè quello è importante capire per poi vedere se ci sono state o meno sofisticazioni sui settaggi (o se hanno usato driver che abbassano il potenziale delle 2000 in certe situazioni); come vedi già solo questo ha portato via tutto il tempo che avevo a disposizione oggi :/
Ecco, questa è una metodologia corretta. Si potrebbe al limite discutere se fare delle modifiche a questo sistema, ma quello è un altro discorso.
si, questo è sufficientemente corretto.
nulla di tutto quello sopra però ti assicura che lo facciano realmente.
è qui che c'è il "contratto virtuale" tra lettore e recensore, dove s'instaura la fiducia.
stiamo valutando appunto la fiducia che riponiamo in queste persone, o meglio la nostra cedulità.
il confronto lo si avra fra poco, quando usciranno le QUADRO Ampere.
Visto che non esistono GDDR6X con chip da 2GB, la TOP gamma QUADRO con 48GB dovra montare necessariamente le GDDR6 normali;
non è certo lo stesso quantitativo ma si avra un paragone in piu; la QUADRO 24GB probabilmente usera le GDDR6X; nel caso in cui usasse anche lei le normali avremmo un confronto quasi perfetto ( perchè presumo avra il chip full e non cuttato ).
oggi ti sei svegliato male... ti ci vuole un caffè.
le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;
le quadro, che potrebbero avere 48GB, dovrebbero usare chip da 4GB...
in dubbio sono questi, ma lo sono comunque anche per le GDDR6 normali...
cronos1990
21-09-2020, 18:16
si, questo è sufficientemente corretto.
nulla di tutto quello sopra però ti assicura che lo facciano realmente.
è qui che c'è il "contratto virtuale" tra lettore e recensore, dove s'instaura la fiducia.
stiamo valutando appunto la fiducia che riponiamo in queste persone, o meglio la nostra cedulità.Si, chiaro. Stavo anche per scriverlo nel commento precedente, ma credo sia una cosa lapalissiana.
D'altronde parliamo pur sempre di test effettuati da testate più o meno indipendenti che non hanno certo la necessità (nè la volontà di averli molto probabilmente) controlli incrociati o certificazioni varie per dare una valenza di certezza.
Prima il guadagno, l'attendibilità viene dopo.
_sissio_
21-09-2020, 18:21
ok.
questo è il ragionamento che un normale appassionato potrebbe fare guardando questi dati.
premetto: non ti voglio dare lezioni di come si guardano queste cose, ne tantomeno insegnarti a farlo, ma ti voglio illustrare come si determina una scala di riferimento.
il punto dolente è proprio in primo.
tu cerchi riferimenti della scala da utilizzare sullo stesso campione che vedi analizzare.
non funziona bene, così.
devi avere un riferimento obbiettivo; una cosa che ti faccia dare una buona stima della misura.
qui stiamo cercando di capire se ci sia stato uno scostamento di un 10% dai dati che già abbiamo visto nelle precedenti prove (ed è un valore assai piccolo), quindi dovremmo trovare il metodo per capire se la scala ha lo stesso riferimento assoluto, ossia se non sono stati modificati i settaggi dei giochi e le variazioni dipendono solo dai driver e dalle prestazioni delle schede, o se invece si è cercato di portare a quei risultati.
in questo caso l'unico riferimento che hai in quei test è solamente la 5700 XT, in quanto, anche se ha avuto cambiamenti sui driver, le sue prestazioni non possono ricevere boost troppo elevati.
in questo confronto possiamo prendere solo i giochi in cui compaiono sia in una prova che nell'altra.
ad esempio AC da una parte è la versione odyssey, nell'altra Origins, quindi inconfrontabili.
il primo gioco che compare in entrambe le reviews è Far Cry 5, e su entrambe non viene specificato che settaggi abbiano usato.
2080 TI FE in FHD passa da 135.7 a 145.8, con un avanzamento del 7%;
in 1440p passa da 130 a 136.9, miglioramento del 5%, con però la questione che il framerate a 1440p è simile a quello a 1440p; la scheda in FHS è semplicemente in bottleneck CPU.
in 4K passiamo da 79.4 a 81.6, con un miglioramento del 3%.
essendo in bottleneck è meglio guardare schede che non presentino questa problematica su questo gioco, pur usando gli stessi driver.
per farlo andiamo sulla scheda che fa di meno e ne controlliamo il guadagno di framerat passando da 1440p a 1080p; tutte le schede che presenteranno un rapporto di guadagno simile, non saranno in bottleneck (solitamente si ha una certa uniformità in questo ambito, a scanso di problemi accessori, come per esempio dovuti alla scarsità di VRAM ad alta risoluzione).
la 980 va da 60.6 a 60.6, guadagno 1.326.
la 1070 presenta un guadagno addirittura più alto, con 1.374.
la 1070 Ti presenta 1.344.
la vega 56 presenta 1.354.
gtx 1080 1.326.
vega 64 1.290.
la 1080 Ti già comincia ad avere un calo , ottenendo solo 1.228, segno che la CPU è in bottleneck in FHD.
la 2080 presenta 1.203: bottleneck.
la 2080 Ti (prendiamo solo la FE, che della stirx, essendo custom, non c'importa granchè, visto che non devrebbe essere ritestata in seguito) 1.038; palese bottleneck che potrebbe presentarsi anche alla risoluzione più alta.
di solito il bottleneck della CPU si presenta grossomodo allo stesso frametime e possiamo dire che già sui valori della vega 64 siamo in situazione in cui la CPU spesso arriva al limite, abbassando quindi la media e quindi il rapporto tra le due risoluzioni; significa che già quando sei su una media di 120FPS , per il benchmark che stiamo valutando, la CPU andra sempre più spesso al limite e la media si alzerà solamente perchè hai minimi, dati dalla potenza bruta della GPU, più alti, perchè disponi di più potenza grafica.
sembra comunque che in 4K nessuna scheda potrebbe manifestare bottleneck da CPU, e si può verificare facendo il rapporto prestazionale sulle risoluzioni 1440p e 4K; se dalla scheda meno potente a quella più potente abbiamo sempre un valore simile, non sei in bottleneck.
la 980 presenta un 1.848
1070 1.883
1070 TI 1.874
vega 56 1.813
1080 1.857
vega 64 1.810
1080 Ti 1.776
2080 1.776
2080 Ti 1.637
come vedi anche qui hai che dalla vega 64 in poi il guadagno sulla risoluzione comincia a calare, segno che in questo benchmark ci sono comunque scene molto leggere che fanno schizzare il framerate e che la CPU raggiunge il suo limite, causando un leggero bottleneck della CPU.
man mano che le potenze delle GPU si alzano, questo viene accentuato, perchè il rapporto tra minimi e massimi si attenua, avendo il framerate massimo sempre più tagliato per l'esubero di potenza grafica.
le medie salgono perchè salgono solo i minimi perchè hai più potenza grafica, ma non salgono come sulle schede meno prestanti perchè non riesci a raggiungere i massimi che dovresti fare a causa della CPU.
questo serve ad analizzare il benchmark e a capire la deviazione che dovresti osservare sui numeri che vengono generati;
serve però anche per ottenere il reference che ci serve, sperando di trovarlo anche nelle altre prove.
ma, come già ti ho detto, nelle prove della 3080 trovi solo la 5700 XT da usare come riferimento diretto.
non avendola nella prova della 2080 ti lo dovrai usare indirettamente.
apri la prova della 5700 XT e confronti i risultati della 5700 xt con quelli della vega 64 (o 56).
andiamo sulla prova della 5700 xt ( https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/16.html ) e troviamo questa scala:
5700 XT 127, 106, 58.6
vega 64 119.1, 90.3, 50.1
vega 56 110.7, 81.5, 45.0
andiamo nella prova della 2080 Ti strix e troviamo questi dati:
vega 64 117.9, 91.4, 50.6
vega 56 111.7, 82.5, 45.5
controlliamo i rapporti prestazionali di 56 e 64 su entrambe le prove.
prova 5700 xt
1.076, 1.108, 1.113
prova 2080 ti strix
1.055, 1.108, 1.112
quindi, guardando questi numeri, possiamo dire che dalla prova della strix alla prova della 5700 xt vega 64 e vega 56 non hanno sostanzialmente cambiato le loro prestazioni (tra i valori assoluti abbiamo si e no l'1% di variazione), e che comunque rispondono alla stessa maniera all'aumento di risoluzione.
ora lo stesso lavoro si deve fare sulla 5700 XT sia sulla prova che la interessa direttamente che sulla prova che interessa la 3080, dove otteneva :
5700 XT sulla sua prova: 127, 106, 58.6
5700 XT sulla prova della 3080: 133.2, 108.8, 59.1
1.0488, 1.026, 1.008
questa scheda ha avuto un buon guadagno in FHD, meno in 1440p e 4K.
questo guadagno è dovuto ai driver?
non sembra, perchè le vega non hanno giovato dello stesso guadagno, pur essendo una scheda diversa, con una diversa architettura, avrebbe giovato comunque anche su questa.
abbiamo anche altre schede da poter confrontare, come la 2080.
la 2080 ha avuto questa progressione:
133.3, 110.8, 62.4 nella prova della strix
137.4, 112.5, 63.9 nella prova della 5700 XT
141.3, 113.4, 64.4 nella prova della 3080
137.4 rispetto a 141.3 nel giro di pochi mesi, con un guadagno del 2.8%...
driver?
non credo.
questo avanzamento di prestazioni tra la prova della 5700 e quella della 3080 lo trovi in tutte le schede che compaiono in entrambe le prove.
(prima la prova della 3080 poi la prova della 5700 XT):
2070: 124.7/123.6= 1.009
5700 XT: 133.2/127.0= 1.0489
2070 super: 136.6/132.2= 1.033
1080 ti 139/138.1 = 1.007
2080 141.3/137.4= 1.028
2080 TI 145.5/142= 1.0246
è uno scostamento generale più o meno accentuato, ma che viene riservato a tutte le schede, con l'eccezione della 5700 XT che ha guadagnato molto di più delle altre.
si spiega con il fatto che probabilmente c'è stato un miglioramento dei driver, ma anche che la CPU ha dato di più, e se vai a guardare le configurazioni trovi che son cambiate le memorie.
sulla 2080 strix si usavano le G.SKILL 16 GB Trident-Z DDR4 3867 MHz 18-19-19-39, sulla prova della 3080 il processore è rimasto lo stesso, ma le memorie sono state aggiornate con delle Thermaltake TOUGHRAM, 16 GB DDR4 4000 MHz 19-23-23-42.
questi pochi mhz in più sulle memorie sono riusciti a dare quel piccolo boost in più, quantificabile in un 2-3% e che poi vedere guardando la 2080 Ti a 4k confrontando la prima prova con la strix, dove faceva 79.4 e l'ultima con la 3080, dove otteneva 81.8, ossia proprio il 3% di boost.
sono piccole variazioni, siamo d'accordo, ma non è questo il gioco che ci interessava effetivamente analizzare, perchè, in finale, in questo gioco la 3080 ha dimostrato il suo +27% dalla 2080 Ti in 4K.
qui si parla con gente che la da a +55% dalla 2080 Ti...
inutile guardare a risoluzioni inferiori perchè ci si trova in palese bottleneck della CPU.
abbiamo appurato quindi che c'è stato un cambiamento per via dell'aggiornamento delle memorie.
un 3% medio, ma che fa il suo, non tanto in riferimento alle vecchie schede che trovi nella stessa prova, ma come valore assoluto: serviva un minimo boost prestazionale per far vedere che in alcuni giochi arrivasse a 60fps a 4K.
poi, trovare gente che spende più per 16GB di ram che per la GPU, ancora me la devono presentare... è quindi solo una questione di pubblicità per far vedere che arriva a 4K@60fps.
ora passiamo agli altri giochi su cui possiamo andare a ragionare cercando di sviare l'altro problema di queste recensioni: il cambio dei riferimenti che hai, ossia cambiare la maggior parte dei giochi, in modo da non potere avere un confronto con il passato.
capisco che non avrebbe senso testare queste schede con giochi vecchi, ma lo ha in quest'ottica, ossia vedere effettivamente il progresso che hanno dato, non come vanno su quelo o l'altro gioco.
non ha senso poi rimettere in lista "Anno 1800", e togliere un Rice of the tomb raider che scala ancora molto bene con le prestazioni.
questo era il metodo per capire se ci siano state variazioni, di driver, di settaggi o di configurazione nel tempo, che sono effetti che si sommano tra di loro.
interessante sarà andare a guardare giochi in cui è la GPU a fare da tappo alle prestazioni.
prendiamo l'unico altro gioco che compare nella vecchia prova ed in quella nuova:
puoi fare la stessa triangolazione con civilization IV, magari inserendo anche la vega VII nel confronto, e vedere che in quel gioco i settaggi siano stati decisamente alleggeriti, e che sia impossibile che ci sia stato un boost dato dalle memorie o dai driver.
il resto dei giochi puoi controllarlo con la 5700 XT, che usa la stessa suite di giochi.
noterai, ad esempio, che la 5700 XT in metro exodus è pasata da 37.7fps a 47.2fps in 4K; parliamo di un miglioramento sui driver del 25.2%?
è un pochino esagerato, se permetti, ed anche il boost delle memorie da 3867 a 4000 su un gioco del genere, che è GPU limited e non CPU limited, è assai trascurabile.
ecco, in quel caso ti accorgerai che oltre ai driver, oltre alle memorie, sono intevenuti anche in altri parametri e senza accennarlo, come non è stato esplicitamente accennato che hanno cambiato le RAM di sistema (rendendo, di fatto, non direttamente confrontabili i riferimenti).
ora ho da fare, ma ti prometto che ti faccio anche l'analisi di civilizzatione e degli altri giochi che compaiono tra la prova della 3080 e la prova della 5700 xt...
mi preme capire se hai compreso il metodo di analisi incrociata, perchè quello è importante capire per poi vedere se ci sono state o meno sofisticazioni sui settaggi (o se hanno usato driver che abbassano il potenziale delle 2000 in certe situazioni); come vedi già solo questo ha portato via tutto il tempo che avevo a disposizione oggi :/Ho capito, grazie. Devo cmq rileggere con calma. Quello che ho appurato è che a volte anche la cpu è differente ad esempio nella nuova rece hanno usato un i9 9900k...
A questo punto quando mi arriverà la 3080 valuterò i risultati empiricamente con la scheda che ho in firma è qui si, a parità di condizioni.
Ottima analisi la tua...
Inviato dal mio HTC One utilizzando Tapatalk
MiKeLezZ
21-09-2020, 18:48
Si, chiaro. Stavo anche per scriverlo nel commento precedente, ma credo sia una cosa lapalissiana.
D'altronde parliamo pur sempre di test effettuati da testate più o meno indipendenti che non hanno certo la necessità (nè la volontà di averli molto probabilmente) controlli incrociati o certificazioni varie per dare una valenza di certezza.
Prima il guadagno, l'attendibilità viene dopo.L'ho già detto e l'hanno detto più volte che spesso riutilizzano i dati di vecchi test, sia da una parte perché non hanno possibilità di avere sempre tutte le VGA a disposizione, sia perché comunque il sistema di test è unico e col tempo lo aggiornano, sia perché semplicemente non hanno voglia di spendere ogni volta 10 giorni per rifare tutti i test da zero.
Le testate che usano test confrontabili sono pochissime.
Per questo bisogna andare di spannometria. Anche perché tanto, quando poi la VGA la usate a casa, basta un settaggio leggermente diverso (i fantasiosi miglioramenti dei driver non esistono, se non nei giochi appena usciti) e vi perdere pure 5 o 10 fps, e allora che vi fate a fare le pippe per 1 o 2 fps di differenza.........?
digieffe
21-09-2020, 19:43
non ho letto l'ultima 20na di post, lo farò stasera
nel frattempo (prima che ve le suoniate di santa ragione :D) date un'occhiata alle condizioni di test qui -> https://www.bitsandchips.it/english-reviews/are-the-hardware-reviews-realized-according-a-scientific-method <-
è solo il primo link che ho trovato,
ovviamente se avete un reale interesse seguite i link all'interno per approfondire
L'ho già detto e l'hanno detto più volte che spesso riutilizzano i dati di vecchi test, sia da una parte perché non hanno possibilità di avere sempre tutte le VGA a disposizione, sia perché comunque il sistema di test è unico e col tempo lo aggiornano, sia perché semplicemente non hanno voglia di spendere ogni volta 10 giorni per rifare tutti i test da zero.
Le testate che usano test confrontabili sono pochissime.
Per questo bisogna andare di spannometria. Anche perché tanto, quando poi la VGA la usate a casa, basta un settaggio leggermente diverso (i fantasiosi miglioramenti dei driver non esistono, se non nei giochi appena usciti) e vi perdere pure 5 o 10 fps, e allora che vi fate a fare le pippe per 1 o 2 fps di differenza.........?
secondo le loro stesse ammissioni non lo fanno.
se lo facessero sbaglierebbero, perchè confronterebbero fischi con fiaschi...
qui non ci facciamo le pippe per 1 o 2 fps, ma analiziamo i dati per capire se ci fanno fessi.
1 o 2 fps non sono nulla, se non hai 1 o 2 fps di massimo e poi ti risultano 3 o 4.. in quel caso hai ottenuto dal 50% al 400% di guadagno e, come dici tu, i fantastici driver che ti fanno guadagnare così tanto non esistono se non nei giochi appena usciti e con la patch day...
a questi signori si contesta il fatto che si cambiano ogni volta le carte in tavola per sostenere il prodotto che viene pubblicizzato di più.
non mi puoi cambiare tutti i riferimenti di una suite da un test all'altro, perchè oggi ti gira così; non è professionale e loro sostengono di essere professionisti della materia.
quindi, ti ripeto, non prendo proprio in considerazione i dati, per capire se A è meglio di B, prendo in considerazione i dati per capire se chi li ha prodotti ha le credenziali per dirmi che A è meglio di B, perchè se le ha, non c'è manco bisogno di fare i test: mi fido a prescindere.
non ho letto l'ultima 20na di post, lo farò stasera
nel frattempo (prima che ve le suoniate di santa ragione :D) date un'occhiata alle condizioni di test qui -> https://www.bitsandchips.it/english-reviews/are-the-hardware-reviews-realized-according-a-scientific-method <-
è solo il primo link che ho trovato,
ovviamente se avete un reale interesse seguite i link all'interno per approfondire
me la sono persa questa discussione! chissa perchè...
Ho capito, grazie. Devo cmq rileggere con calma. Quello che ho appurato è che a volte anche la cpu è differente ad esempio nella nuova rece hanno usato un i9 9900k...
A questo punto quando mi arriverà la 3080 valuterò i risultati empiricamente con la scheda che ho in firma è qui si, a parità di condizioni.
Ottima analisi la tua...
Inviato dal mio HTC One utilizzando Tapatalk
lo ribadisco: non voglio dare lezioni a nessuno, ho insegnare metodologie di peer review.
ho solo abbastanza esperienza e vorrei metterla a disposizione della comunità per aiutare le persone a definire se un test è fatto bene o male.
dopo, se ti va, analizzo il resto dei giochi per vedere se espongolo altre incongruenze tali da aver reso i test poco indicativi.
nel mio lavoro un'incongruenza significa o metodologia errata (ma è ben difficile, perchè procedure e metodologie seguono un iter ispettivo di circa un anno per poi essere ufficializzate e stampate sulle farmacopee), o un errore di chi esegue l'analisi, che ha scritto semplicemente un numero per un'altro (ma è facilmente ricostruibile ricontrollando grafici e calcoli), o una sofisticazione in malafede.
queste revisioni vengono fatte su ogni singola analisi su uno o due step di verifica, poi c'è chi, come me, ne delinea anche i trend generali per scorgere deviazioni di processi o derive per trovarne le cause sistematiche o estemporanee per eliminarle e ricondurre il trend su linea piatta.
lo scopo di un QA/QC è quello di certificare la qualità ed assicurare la massima qualità di produzione seguendo i metodi prescritti, non quello di pubblicizzare prodotti consumer al pubblico... quella è roba da ufficio marketing.
AceGranger
21-09-2020, 22:03
oggi ti sei svegliato male... ti ci vuole un caffè.
le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;
le quadro, che potrebbero avere 48GB, dovrebbero usare chip da 4GB...
in dubbio sono questi, ma lo sono comunque anche per le GDDR6 normali...
una nuova perla :asd:?
https://www.overclock3d.net/news/software/micron_officially_reveals_its_gddr6x_memory_and_their_future_plans/1
Right now, Micron's GDDR6X memory chips are only available in 8Gb densities, translating to 1GB of capacity. In 2021, Micron plans to offer 16Gb (2GB) GDDR6X memory chips, which will allow for the creation of Ampere graphics cards with larger memory densities.
This means that Nvidia's RTX 3090 graphics card will use 24 8Gb GDDR6X memory chips at launch, a factor which explains why the graphics cards costs as much as it does.
3080 10 chip da 1Gb 1 lato
3090 24 chip da 1Gb 2 lati
Quadro 24 Chip da 2Gb 2 lati, GDDR6 se le fanno uscire ora GDDR6X se le faranno uscire nel 2021.
circola un leak di una Ampere da 48Gb, quindi o è una Quadro con GDDR6 in procinto di uscire o un leak di Quadro con GDDR6X uscito troppo in anticipo.
chip da 4Gb non esistono manco GDDR6 figuriamoci GDDR6X :asd:
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
nickname88
21-09-2020, 23:36
Adesso ha trovato un altro pelo nell'uovo sul fatto che abbiano usato le 9900K ora anzichè AMD :asd:
In una risoluzione di 4K ovviamente è storicamente risaputo che i casi di CPU limited siano presenti in maniera rilevante. :rolleyes:
continuiamo quest'analisi sulle reviews di TPU.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/7.html
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-founders-edition/
ANNO 1800:
gioco graficamente pesante, ma molto dominato dalla CPU.
tutte le GPU in FHD sono in bottleneck CPU (lo si evince dallo scarso risultato che ottiene la 3080, a poco più di 60 e praticamente coincidente con quanto si ottiene a 1440p).
la 5700 XT conferma che anche in questo gioco le memorie a 4000mhz hanno portato i loro vantaggi, con un aumento del 4.1% su questa scheda, ma possiamo anche dire che pure la vega 56 è spesso e volentieri con la CPU al limite, facendo 52fps...
senza grafici di occupazione della CPU (per singolo core), ed occupazione della GPU, queste cose non sono evidenti; con i grafici si sarebbe riconosciuto immediatamente per quanto tempo la GPU aspettava i comodi della CPU.
questa è una grave mancanza delle reviews che le declassa parecchio ai miei occhi.
lo stesso miglioramento della 5700 XT lo troviamo grossomodo con la 2070 super:
67.1/64.4=1.042 per la 2070 super
67.1/65.5=1.024 per la 5700 XT
ma se andiamo a 4K otteniamo
38.0/35.3=1.070
32.6/32.5=0.997
questo indica semplicemente che la 5700 XT stressa la CPU in modo maggiore rispetto alle nvidia, quindi causa un bottleneck più spesso, perchè meno potenza residua alla CPU rimane a disposizione.
il merito è sicuramente delle memorie.
il fatto è che un gioco che a 60 sta in bottleneck e che ha un carico grafico che una 3080 a 4k arriva a malapena a 60fps, non è un buon gioco per fare benchmark e stabilire i valori relativi delle schede.
semplicemente non ce lo avrei proprio messo.se qualcuno fosse interessato a sapere che tipo di gioco sia per il proprio HW, si cerca i valori su altri siti...
comunque non si riesce ad osservare se hanno cambiato settaggi o se i driver abbiano attenuato le prestazioni, proprio per via del bottleneck e della pesantezza del gioco all'aumento della risoluzione.
Assassin's Creed Odyssey
in questo gioco vediamo un'inversione di tendenza:
mentre la 5700 XT sembra esprimenre mediamente un +4.1%
le 2000 danno un risultato inferiore dalla prova della 3080 rispetto a quella della 5700 XT.
quantifichiamo
le coppie sono (prima e dopo):
2060 super: 65.1/50.1/30.3 - 65.0/49.9/29.2 rapporto 0.998/0.996/0.964
1080 TI: 73.7/54.1/30.3 - 69.5/53.9/29.5 rapporto 0.946/0.996/0.974
2070: 72.4/51.7/30.9 - 69.9/51.5/30.4 rapporto 0.964/0.996/0.984
2070 Super: 74.8/58.1/34.4 - 74.6/57.9/34.4 rapporto 0.997/1.003/1.000
5700 XT: 72.5/51.9/29.2 - 75.3/55.4/30.4 rapporto 1.039/1.067/1.041
2080: 77.7/61.7/37.2 - 80.1/63/36.8 rapporto 1.031/1.021/0.989
2080 TI: 95.4/78.4/47.3 - 96.8/74.1/47 rapporto 1.015/0.945/0.994
quindi vediamo che mediamente le nvidia hanno dato gli stessi risultati, che tutte riconfermano le prestazioni a 1440p, tranne la 5700 XT con un 6.7 in più e una 2080 TI con un 5.8 in meno.
sulla risoluzione 4K vediamo che tutte le nvidia perdono un 2-4%, tranne la 2070 Super, che rimane costante, mentre la 5700 XT guadagna il 4.1%.
significa che c'è stato uno scostamento del 6% circa sul setting.
togliendo le deviazioni di 2080 TI e 2070 super, si vede che a media risoluzione si riconfermano i valori delle nvidia, ma AMD ottiene il 6% in più, mente a 4K si vede che le nvidia perdono il 2% e AMD conquista comunque un 6% su di esse, migliorando del 4%.
in FHD le schede nvidia partono da un -5.4% (escludendo la 2060 super), e arrivano ad un +2-3% con la 2080 e 2080 Ti, AMD si porta a casa un 4%, quindi le stacca da un 9% ad un 2%, a seconda della scala...
è una cosa un po' strana.
i risultati devianti si hanno sulle nvidia che dispongono di una buona banda RAM rispetto ai cuda che hanno, e sono le super ad avere questo vantaggio, con la 2080 TI che le segue.
naturalmente la 3080 dispone di un bel po' di banda ram.
qui quindi ci sono incongruenze e coincidenze un po' troppo marcate, che possono portare a pensare che si sia usato un driver per mitigare le prestazioni sulla VRAM e un settaggio appena un po' più leggero nelle impostazioni del gioco.
la 5700 XT risponde con un 6% di differenza e le altre a seconda di come risponde il driver rispetto a questo alleggerimento del 6% sul settaggio.
le ram differenti possono aver influito?
non sembrerebbe, visto che i miglioramenti maggiori si hanno avuti solo a risoluzione intermedia- se ci fossero stati miglioramenti si sarebbe comunque visto un andamento lineare decrescente e quindio la 5700 XT sarebbe dovuta essere molto più prestante più a risoluzione FHD che a 1440p.
il dubbio che abbiano fatto questo tipo di giochetto c'è...
Battelfield V
Borderlands 3
civilization IV
Control
Death Stradding
Detroit become human
Devil may cry 5
Diviniti original sin II
Doom eternal
F1 2020
Far cry 5 - fatto
gears 5
hitman 2
metro exodus
project car 3
Red dead redempion 2
Sekiro: Shadows Die Twice
Shadow of the Tomb Raider
Star Wars: Jedi Fallen Order
Strange Brigade
The Witcher 3: Wild Hunt
ne fanno talmente tanti che dovresti avere un'esercito per fare tutti i test, ma pian piano li vediamo tutti... i più succosi vengono dopo.
una nuova perla :asd:?
https://www.overclock3d.net/news/software/micron_officially_reveals_its_gddr6x_memory_and_their_future_plans/1
Right now, Micron's GDDR6X memory chips are only available in 8Gb densities, translating to 1GB of capacity. In 2021, Micron plans to offer 16Gb (2GB) GDDR6X memory chips, which will allow for the creation of Ampere graphics cards with larger memory densities.
This means that Nvidia's RTX 3090 graphics card will use 24 8Gb GDDR6X memory chips at launch, a factor which explains why the graphics cards costs as much as it does.
3080 10 chip da 1Gb 1 lato
3090 24 chip da 1Gb 2 lati
Quadro 24 Chip da 2Gb 2 lati, GDDR6 se le fanno uscire ora GDDR6X se le faranno uscire nel 2021.
circola un leak di una Ampere da 48Gb, quindi o è una Quadro con GDDR6 in procinto di uscire o un leak di Quadro con GDDR6X uscito troppo in anticipo.
chip da 4Gb non esistono manco GDDR6 figuriamoci GDDR6X :asd:
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
chip da 4GB non esistono, è vero, ma non esistevano nemmeno chip da 2GB, fino a qualche tempo fa...
potrebbe essere un'ipotesi usare 2 chip collegati allo stesso IMC, ma gli IMC rimangono 12 e per collegare 2 chip o si ha un sistema di switch dei segnali nel chip, o devi usare un'ulteriore altro chip... oltretutto dovresti usare quasi il doppio dei layer nel PCB...
semplicemente conviene fare chip da 4GB; è la soluzione più razionale (in realtà la soluzione più razionale è usare le HBM2).
occhio a chiamarle "perle" perchè poi possono essere delle verità e diventa difficile farci una collana...
forse è meglio che prendi un bel caffè, sperando che ti diventi la mente più lucida quel tanto da evitare di alzare inutili flame attaccando in questo modo gli altri...
Adesso ha trovato un altro pelo nell'uovo sul fatto che abbiano usato le 9900K ora anzichè AMD :asd:
In una risoluzione di 4K ovviamente è storicamente risaputo che i casi di CPU limited siano presenti in maniera rilevante. :rolleyes:
è appunto questo che frena la tua capacità di analisi di questi sistemi: semplicemente per la poca esperienza che hai probabilmente non immagini quale sia la varietà del carico di computo su CPU e GPU (anche in modo indipendente) che c'è in questi benchmark, specificatamente in ogni sequenza di benchmark.
il limite della CPU lo puoi riscontrare anche in un gioco che arriva a 200fps già a 50fps, basta che quella scena sia inusualmente corposa per la CPU.
sono la somma di tutti i tempi di geerazione dei frame che poi ti daranno la media.
sarebbe sufficiente mettere il frametime in relazione al numero di volte che si conta, per le occorrenze, per vedere come viene realmente costruito il valor medio che poi utilizzi nelle tue discussioni... magari riusciresti a vedere qualcosa d'interessante se qualcuno te lo fornisse.
la prima cosa da fare prima di effettuare un test è di verificare come risponde lo specifico benchmark, misurare i suoi limiti.
ad esempio, nella suite di TPU, Anno 1800 è un gioco totalmente inutile, in quanto il suo benchmark all'aumentare della risoluzione aumenta il carico grafico in modo esagerato, ma è comunque talmente congestionato che manda la CPU in massima elaborazione già sotto i 60 fps.
da una parte ha una retta molto inclinata per quanto riguarda le richieste della GPU, dall'altra la rende inosservabile perchè traumatizzata dall'uso eccessivo della CPU.
è solo un gioco da usare o a 30 o a 60 fps, a seconda della scheda che hai, giostrando appunto sui settaggi, non da benchmark.
questi picchi mitigati a causa del bottleneck CPU li puoi osservare anche su AC, anche a 4K.
impegnati a guardare il comportamento della CPU e dell'uso della GPU quando giochi, magari noti anche quali siano i giochi fati bene e quelli invece decisamente fatti male e ti sto parlando squisitamente della sequenza di benchmarking e di come questa viene scelta dal lo sviluppatore del gioco.
Fos, certe costruzioni delle frasi servono a scaricare le responsabilità di chi scrive l'articolo; per la memoria è la stessa Nvidia che indica quando non sarà più sufficiente: già ci sono i leak delle stesse schede con 2GB per chip (quindi 3070 a 16GB, 3080 a 20GB)...
prendere queste è quasi un controsenso visto che ci sono i leak di AMD che presenta già con 16GB una scheda che probabilmente sta alla pari con la 3070.
è segno evidente che le industrie sanno già come si evolverà la questione ed in quanto tempo.Per me servono più a confondere, che ad altro.
Dire che non serviranno nel prossimo futuro: Ad indovinare!
Avevo già sentito della maggior quantità di VRAM montata sulle schede future.
Per quello mi portavo avanti dicendo se la cosa sarebbe rimasta la stessa...
bonzoxxx
22-09-2020, 07:09
https://www.notebookcheck.net/Big-Navi-VRAM-specs-leak-16GB-Navi-21-and-12GB-Navi-22-go-head-to-head-with-GeForce-RTX-3080-and-RTX-3090.494835.0.html
nickname88
22-09-2020, 10:45
è appunto questo che frena la tua capacità di analisi di questi sistemi: semplicemente per la poca esperienza che hai probabilmente non immagini quale sia la varietà del carico di computo su CPU e GPU (anche in modo indipendente) che c'è in questi benchmark, specificatamente in ogni sequenza di benchmark.
Penso di avere molta più esperienza di te nel capire un CPU limited, e quantomeno abbastanza da sapere che non è di certo nella media degli FPS che si vede, e i picchi fi FPS incidono quasi zero, specie se parliamo di alte risoluzioni e CPU High End.
Stai tirando su un polverone per minuscole percentuali che per giunta non necessariamente derivano da un cambio di HW.
E giusto per la cronaca non tutti quei giochi hanno il benchmark, ma i test vengono rilevati in game in specifici scenari, questo è il motivo per cui uno stesso gioco può variare leggermente.
questi picchi mitigati a causa del bottleneck CPU li puoi osservare anche su AC, anche a 4K.Io Origins e Odyssey li ho giocati e testati entrambi, e il primo di questi già alla misera risoluzione di 1440p nel suo benchmark con una 1080Ti cambiava poco a nulla fra il mio 1700X dell'epoca e chi possedeva Intel e lo stesso pure nel secondo con invece il 3800X.
Poi in game la differenza si vedeva solo in specifiche location ma a livello di fps medio o bench il CPU limited non lo vedi se non col microscopio, quindi pensa addirittura in 4K.
Tu piuttosto .... li possiedi questi 2 titoli di cui parli ?
Penso di avere molta più esperienza di te nel capire un CPU limited, e quantomeno abbastanza da sapere che non è di certo nella media degli FPS che si vede, e i picchi fi FPS incidono quasi zero, specie se parliamo di alte risoluzioni e CPU High End.
Stai tirando su un polverone per minuscole percentuali che per giunta non necessariamente derivano da un cambio di HW.
E giusto per la cronaca non tutti quei giochi hanno il benchmark, ma i test vengono rilevati in game in specifici scenari, questo è il motivo per cui uno stesso gioco può variare leggermente.
Io Origins e Odyssey li ho giocati e testati entrambi, e il primo di questi già alla misera risoluzione di 1440p nel suo benchmark con una 1080Ti cambiava poco a nulla fra il mio 1700X dell'epoca e chi possedeva Intel e lo stesso pure nel secondo con invece il 3800X.
Poi in game la differenza si vedeva solo in specifiche location ma a livello di fps medio o bench il CPU limited non lo vedi se non col microscopio, quindi pensa addirittura in 4K.
Tu piuttosto .... li possiedi questi 2 titoli di cui parli ?
continua a pensarlo, ma se hai queste idee dimostri solo di non avere nemmeno il sentore di quello di cui parli.
basta che cerchi un grafico sul frametime per occorrenza o anche un semplice plot del frametime per capire come evolve la sequenza di benchmark di quel gioco.
oltretutto la 1080 Ti non è una scheda che possa essere posta nel problema: non ha la possibilità di farti vedere accentuati bottelneck della CPU tali sconvolgerti la media, ma ci sono picchi che la deviano.
comunque basta che cerchi quei giochi su gamegpu per vedere l'aumento di frame al cambio della CPU; se si alza con una CPU migliore, significa che quella precedente faceva da bottleneck in alcune situazioni...
nickname88
22-09-2020, 14:43
continua a pensarlo, ma se hai queste idee dimostri solo di non avere nemmeno il sentore di quello di cui parli.Disse colui che affermava che le DIMM consumavano 60W a testa perchè le ha misurate col tester e che Vega era in realtà superiore a Pascal.
oltretutto la 1080 Ti non è una scheda che possa essere posta nel problemaIl CPU limited non è vincolato dal modello della VGA, ma dalla combinazione di VGA, gioco in questione e impostazioni video, quindi ogni modello di scheda può esserne afflitto, mica solo Ampere e Turing.
E meno male che solo tu sai di cosa si parla vero ? :rolleyes:
Disse colui che affermava che le DIMM consumavano 60W a testa perchè le ha misurate col tester e che Vega era in realtà superiore a Pascal.
vedi, la tua poca conoscenza su queste questione e la tua scarsa consapevolezza di come funzionano le questioni ti fa fare questi sfrafalcioni.
le DIMM o qualsiasi altro chip possono consumare da nulla al massio che si può dissipare in un chippetto del genere, proprio come fattore forma, mantenendo le temperature adeguate per non creare problemi.
che oggi ci siano chip che consumino massimo 6-7W significa soltanto che ieri c'erano anche al tempo chip che consumavano 6-7W.
quello è il massimo che si riesce a dissipare con un chip di quelle dimensioni senza una dissipazione attiva e a quel livello spesso arrivano per spremere il massimo delle prestazioni, di progresso in progresso tecnologico.
come 20 anni fa avevi CPU da 125W, oggi hai CPU che consumano 125W, perchè quella è la potenza massima che puoi raffreddare in modo pratico con un dissipatore ad aria...
poi, che ci siano altri produttori che letteralmente sparano il consumo a 250W per ottenere prestazioni incredibili, lo fanno solo a scapito di un più complesso sistema di raffreddamento che aumenta costi e disagi...
ma un chip ram non lo raffreddi con un AIO da 120mm... è a dissipazione passiva, al massimo cercando di togliere un po' di calore con dei pad termici che toccano il dissipatore per la GPU e quindi quello è il limite effettivo di calore che puoi sottrare... e ci siamo da decenni a quei livelli.
è per questo che continui a scrivere sciocchezze: non guardi la semplicità delle cose.
le RAM di una 3080 non possono dissipare 140W perchè è materialmente impossibile farlo con quelle dimensioni fisiche.... li manderesti a oltre 300°C.
vega è nettamente superiore a pascal, perchè è una GPU completa e non serve un driver che scheduli il suo lavoro su software che siano scritti appositamente per non farla sembrare una scarpa vecchia.
se vuoi conoscere la sua vera capacità di calcolo, lo puoi vedere sul mining:
mentre una vega va bene sul mining come sui giochi, le pascal vanno benissimo sui giochi, ma quando incontrano una tipologia di codice non costruita espressamente per le loro caratteristiche, perde miseramente rendimento di calcolo e diventa la scarpa vecchia che è sempre stata.
è nata semplicemente vecchia.
lo status dei giochi sta cambiando e sta cambiando il modo di farli (e le proprietà degli studios): nel prossimo futuro non ci saranno più software house che necessitano dei soldi di nvidia per finanziarsi e quindi dover aggiungere le IP nvidia; si useranno tecnologie neutre che non renderanno le AMD un trattore.
d'altra parte i tempi sono ormai cambiati, visto che nvidia ha dovuto passare oltre a quel tipo di architettura lanciato con maxwell e continuato con pascal, facendo finalmente un'architettura più moderna, DX12, con turing...
ma rimane la questione che Pascal, come maxwell, senza la collaborazione delle software house nel fare i giochi scritti per queste architetture, con tecnologie datate e che non consentono di far esprimere alle CPU il loro reale potenziale, frenando lo sviluppo dei giochi, sono e rimangono delle vecchie ciabatte ben pubblicizzate.
Il CPU limited non è vincolato dal modello della VGA, ma dalla combinazione di VGA, gioco in questione e impostazioni video, quindi ogni modello di scheda può esserne afflitto, mica solo Ampere e Turing.
E meno male che solo tu sai di cosa si parla vero ? :rolleyes:
ma infatti chi ha detto che riguarda turing o ampere?
si tratta di quanta potenza grafica ha a disposizione la GPU.
visto che però AMD per ora ha offerto solo la gamma media, questo problema la tange solo marginalmente.
il problema del limite della CPU si presenta con 2080, 2080 Ti, 3080 e sicuramente 3090... potenze dai 10-12TF in poi, perchè non hai la CPU per sostenere il lavoro.
altra questione che evidenzia la tua ristretta mentalità, codificato solo sul fatto "nvidia VS AMD".. mentalità da fanboys infantile.
CPU limited significa questo:
https://ibb.co/s2Cgbjz
https://ibb.co/wgW0WWh
quando vedi che una 2080 TI con un 9900K fa 85/105, ma che con un 8700K arriva a 76/96, significa che la GPU non lavora al massimo con l'8700k, ma non ti assicura che con il 9900k sia al massimo della sua espressione, perchè non vedi qual'è l'occupazione massima delle GPU nello svolgere il benchmark.
non sai se la GPU ha sempre lavorato, frame per frame, alla sua massima possibilità, come invece vedi sull'immagine della 1080 Ti, dove il fatto che ci siano almeno 5 CPU di prestazioni differenti con lo stesso valore ti conferma che la GPU è stata utilizzata per il massimo delle possibilità (ma non ti elimina il fatto che in certe situazioni del benchmark sarebbe stato necessaria una CPU il doppio più potente di quanto avevi a disposizione... e se ti serve il doppio della potenza, le differenze prestazionali di quelle cinque CPU si minimizzano e possono anche non influire sul valor medio.. dipende dall'occorrenza di quei particolari momenti in cui la CPU schizza al 100% di uso, frenando l'esecuzione della GPU che magari potrebbe darti ancora un 10% di prestazione).
poi, collegandosi al discosro di prima, questa situazione è figlia proprio di Pascal;
giochi fatti con tecnologie vecchie e scitti pensando appositamente ad nvidia, con largo uso dei suoi tools che lavorano principalmente per manipolare le prestazioni dell'HW:
https://ibb.co/fvjGvNm
è evidente da questa immagine, in cui ti fa vedere un 9900K usato in modo massiccio su tutti i 16 threads, mentre un ryzen è sfruttato massicciamente solo su uno dei core SMT, quindi con solo 9 threads usati massivamente.
questo gioco utilizza physx; su Intel sfrutta le AVX sulle 16 pipeline, su AMD usa le FPU e le usa esclusivamente su 8 core dei 16 thread che potrebbe offrire.
è una chiara manipolazione del modo di computare il codice, pur possedendo entrambe le CPU le medesime capacità computazionali, le medesime SIMD.
sicuramente con questa nuova era delle SH queste cose succederanon sempre di meno, perchè nelle console hai AMD e perchè MS si sta acquistando i maggiori Studios del settore, e non ha certo interesse nel mitigare le possibilità delle sue console per avvantaggiare nvidia, come non ha bisogno di farsi dare quattor spicci da nvidia per implementare i suoi tools che condizionano l'esecuzione (anche a posteriori, visto che la compilazione avviene al momento del rilascio del gioco, ma l'esecuzione avviene con i driver che rilascia nvidia, e se lei decide che cuda non lo devi usare su quell'HW ma su quell'altro... usi la partizione di codice compilato al tempo).
hai capito ora che cosa significa studiare le dinamiche di un semplice gioco?
significa riuscire a capire tutti i magheggi che ci fanno dietro.
quindi colui che non sa di cosa parla credo che in questo caso sia proprio uno come te, che si riduce a guardare chi ha la stanghett apiù lunga per dire chi è il migliore...
è la manipolazione che c'è dietro a quella barretta che ti fa capire effettivamente lo stato delle cose.
PS:
ed è anche per questo motivo che non vedi reviews fatte per come si dovrebbero fare; troppe informazioni non riescono più a nascondere amare verità.
continuiamo con l'analisi.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/9.html
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/10.html
BF V
per renderlo meglio leggibile ho fatto una semplice tabellina:
https://ibb.co/NrB58YP
in colonna B,F,J si trovano i dati mostrati dal benchmark rispettivamente in FHD, 1440p, 4k della prova della 3080; in L, N, P quelli nella prova della 5700 xt
le colonne C e G mostrano il rapporto dei valori delle risoluzioni tra FHD e 1440p e tra 1440p e 4K; stessa cosa in colonna M e O per la prova della 5700 xt.
servono a vedere se il benchmark manda o meno la CPU in bottleneck (si guarda generalmente sulla risoluzione inferiore).
vediamo che generalmente le schede rispondono tutte più o meno uguali, con eccezione della 5700 XT, che sembra brillare un po' meno all'aumento delle risoluzioni e la 3080 che è palesemente in bottleneck, arrivando alla soglia dei 200fps; lo scostamento della 5700 XT a valori superiori dalla media, per questo indice, mostra solo che a mano a mano che la risoluzione aumenta perde più prestazioni delle altre.
anche in 1440p la 3080 mostra che ha meno supporto da parte della CPU delle altre.
andando a vedere le colonne M e O sulla prova della 5700 XT vediamo che anche qui la 5700 XT ha lo stesso comportamento.
le colonne D e I mostrano invece la percentuale di discostamento tra i rapporti di risoluzione delle 2 prove.
lo scostamento da 0 indica che i due sistemi non rispondono al medesimo modo, quindi che c'è stato un intervento da parte di driver, cambiamoto dei sistemi di prova (e ricordiamoci che hanno usato RAM a 4000mhz invece che ram a 3867mhz) o diversificazione dei settaggi.
il fato che lo scostamento non sia uniforme per tutte le schede fa pensare che le modifiche al sistema non abbiano influito più di tanto, perchè avrebbero avvantaggiato tutte le schede, così come la non uniformità per architettura di schede indica che non c'è stato un miglioramento dei driver, perchè avrebbe inciso uniformemente per tute le schede della stessa architettura.
vediamo che ci sono stati cambiamenti e che hanno inciso sulla 2060 Super a risoluzioni 4K, negativamente per la 1080 TI, che dovrebbe avere driver oltremodo maturi su questo e altri giochi (in effetti la 1080 TI non dovrebbe cambiare di una virgola, mai, a meno di usare un processore nettamente inferiore), che la 2070 Super risponde peggio di prima a bassa risoluzione ma meglio ad alta risoluzione, il chè è un comportamento assai strano per un "miglioramento dei driver", e che la 5700 XTe le vega VII hanno ricevuto un boost abbastanza sensibile, comprensibile per la 5700 XT, ma non per un'architettura come vega che gira da 4 anni.
la 2080 Ti non ha subito variazioni.
le colonne E ed I danno la percentuale di scostamento tra i valori alle varie risoluzioni della prima e della seconda prova.
un valore positivo indica un aumento di frame rate, uno negativo che invece si è perso qualcosa.
mediamente tutte le schede hanno migliorato di un 1% a 4K, cosa che potrebbe essere attribuita al cambio di memoria, , ma si riscontrano valori assai strani per le AMD a basse risoluzioni.
c'è un 5% di differenza rispetto a prima, adirittura un 6.7% per la vega VII in FHD e questo sembra semplicemente esagerato.
Borderlands 3
gioco introdotto da poco nella suite e che quindi non è confrontabile.
l'aggiungere, togliere, o sostituire giochi fa cadere un'altro postulato di questo sito: le medie sui giochi.
quelle medie che spesso giovani appassionati postano per avvalorare le loro ragioni ma che non servono a nulla.
o mi fai la media di tutti i giochi disponibili, o non serve a nulla un valor medio di campioni che scegli te di tua fantasia...
si sostiene che sono i giochi più usati?
falso... i giochi più usati sono di ben altro genere e lo sappiamo tutti.
tra l'altro cosa potrai mai confrontare se ad ogni prova i giochi cambiano e quindi la media risponde ad un elenco diverso di giochi?
quello della media degli FPS del test è prettamente una presa per i fondelli e spero di non vederlo più sbandierato per sostenere argomentazioni, perchè ne farebbero direttamente cadere la ragione, essendo un sistema totalmente inutile di valutazione.
Civilization VI
Control
Death Stradding
Detroit become human
Devil may cry 5
Diviniti original sin II
Doom eternal
F1 2020
Far cry 5 - fatto
gears 5
hitman 2
metro exodus
project car 3
Red dead redempion 2
Sekiro: Shadows Die Twice
Shadow of the Tomb Raider
Star Wars: Jedi Fallen Order
Strange Brigade
The Witcher 3: Wild Hunt
continuiamo domani... tanto basta cambiare i valori nella tabellina e vedere che dati escono.
PS:
questo noioso lavoro lo sto facendo per quelle persone che continuano a postare i test di questo sito, per fargli rendere conto di cosa usano per sostenere le proprie argomentazioni.
se il sito non usa una procedura solida e la modifica ogni volta, ogni volta si sovrebbe fare un'analisi sui suoi risultati, perchè è inaffidabile, in quanto ogni volta si dovrebbero inserire le variabili che possono deviare i risultati (qui ha usato memorie diverse, su questa reviews un processore diverso, qui non si sa come ha fatto a far fare questo punteggio a questa scheda...).
è vero che tu non avrai mai iil medesimo sistema che hanno loro (ed è vero anche che usano sempre sistemi con HW mai standard, overclockati o customizzati, proprio per non rendere i test riproducibili da tutti), ma un sistema simile dovrebbe comunque offrire le stesse differenze che si evidenziano sul loro a seconda della scheda video che si vuole comprare... se ho una 1080 e voglio la 3080, vedrò più o meno li guadagni che otterrò...
e invece no, perchè ogni sistema offre piccoli cambiamenti, che, se sommati, sono rilevanti.... una scheda come la 3080 su un 9900K non overclockato e con normali ram a 3000mhz mostrerebbe la 3080 molto più vicina alla 2080 Ti per il semplice fatto che andrebbe spesso in bottleneck per la CPU, anche a 4k.. non in continuazione, ma sempre più di quanto faccia con la CPU a 5.3ghz.
diventa assai difficile discutere dovendo considerare 1000 inutili variazioni solo perchè loro non sanno fare un giusto lavoro di testing, ma solo di reviewing (o di marketing, come si vol mettere la questione).
nickname88
23-09-2020, 10:51
Dicci quanto hai finito di raccontartela :rolleyes:
AceGranger
23-09-2020, 12:41
chip da 4GB non esistono, è vero, ma non esistevano nemmeno chip da 2GB, fino a qualche tempo fa...
potrebbe essere un'ipotesi usare 2 chip collegati allo stesso IMC, ma gli IMC rimangono 12 e per collegare 2 chip o si ha un sistema di switch dei segnali nel chip, o devi usare un'ulteriore altro chip... oltretutto dovresti usare quasi il doppio dei layer nel PCB...
semplicemente conviene fare chip da 4GB; è la soluzione più razionale (in realtà la soluzione più razionale è usare le HBM2).
occhio a chiamarle "perle" perchè poi possono essere delle verità e diventa difficile farci una collana...
forse è meglio che prendi un bel caffè, sperando che ti diventi la mente più lucida quel tanto da evitare di alzare inutili flame attaccando in questo modo gli altri...
no tranquillo, le tue perle rimangono tali e di collane ne potremmo gia fare svariate :asd:
cit "le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;"
quello al quale servirebbe la mente ludica direi che sei tu, perchè il mio post era chiarissimo e con i piedi per terra, non una vaneggiata ( fra l'altro baggianata scritta in modo incomprensibile ) come al solito.
e cosi, per la cronaca:
https://videocardz.com/newz/nvidia-quadro-rtx-a6000-pictured-and-detailed
come volevasi dimostrare, chip da 2GB GDDR6.
basta che attendi e vedrai di cosa si parla.
Dicci quanto hai finito di raccontartela :rolleyes:
non ti peroccupare; vedrai la fine.
anche perchè questo lavoro è proprio per te, che tante volte usi i dati di TPU per avvalorare le tue sciocche argomentazioni.
come hai scritto tu, mediamente le recensioni sono tutte alineate.
bene, se ti faccio saltare TPU dimostrandoti che ha sofisiticato i test, salteranno di conseguenza anche le altre e sarà finalmente evidente a tutti che questi test sono solo cartaccia che serve ad nvidia per buttare fumo neglio occhi agli utenti.
quantomeno la smetterai di inondare il forum di post con i dati di TPU.
_sissio_
26-09-2020, 20:03
non ti peroccupare; vedrai la fine.
anche perchè questo lavoro è proprio per te, che tante volte usi i dati di TPU per avvalorare le tue sciocche argomentazioni.
come hai scritto tu, mediamente le recensioni sono tutte alineate.
bene, se ti faccio saltare TPU dimostrandoti che ha sofisiticato i test, salteranno di conseguenza anche le altre e sarà finalmente evidente a tutti che questi test sono solo cartaccia che serve ad nvidia per buttare fumo neglio occhi agli utenti.
quantomeno la smetterai di inondare il forum di post con i dati di TPU.Dopo questo lancio fake e i crash certificati (vedasi altro thread, un nostro utente ha tuf...) la tua analisi va letta sotto nuova luce:
1) qualcosa non torna
2) le recensioni NON sono limpide
2) Nvidia non è stata trasparente .
Adesso il lancio anticipato e la mostruosa penuria di schede negli shop è di facile interpretazione.
IMHO siamo a limite di cosa è lecito e cosa non lo è.Non è truffa sicuramente ma stanno giocando sporco. Molto sporco...
In before, ragazze ponpon, fanboy, bimbiminkia, etc ...è solo un mio punto di vista. Il punto di vista di chi a ha sempre usato Nvidia...
Peace
Inviato dal mio HTC One utilizzando Tapatalk
bonzoxxx
26-09-2020, 20:16
Sta a vedere che nVidia si è scapicollata a lanciare ste 3000 per colpa di AMD :D :D :D
MiKeLezZ
26-09-2020, 21:28
https://www.notebookcheck.net/Big-Navi-VRAM-specs-leak-16GB-Navi-21-and-12GB-Navi-22-go-head-to-head-with-GeForce-RTX-3080-and-RTX-3090.494835.0.htmlSono ormai più di 10 anni che a ogni uscita della nuova VGA NVIDIA escono "rumor" su fantomatiche ed imminenti VGA AMD che viaggiano come dei razzi missili. Mai successo.
Dicci quanto hai finito di raccontartela :rolleyes:Ma chi può leggere tutto quel wall test? Ma poi veramente vi siete a fare i problemi per 2-3 fps di differenza? A ogni nuova VGA lanciata i primi giorni ci sono sempre stati bug nei driver.
bonzoxxx
26-09-2020, 21:30
Sono ormai più di 10 anni che a ogni uscita della nuova VGA NVIDIA escono "rumor" su fantomatiche ed imminenti VGA AMD che viaggiano come dei razzi missili. Mai successo.
Ero sarcastico con tanto di tripla faccina.. dai su cribbio..
Sono ormai più di 10 anni che a ogni uscita della nuova VGA NVIDIA escono "rumor" su fantomatiche ed imminenti VGA AMD che viaggiano come dei razzi missili. Mai successo.
Ma chi può leggere tutto quel wall test? Ma poi veramente vi siete a fare i problemi per 2-3 fps di differenza? A ogni nuova VGA lanciata i primi giorni ci sono sempre stati bug nei driver.
si tratta del fatto che ad ogni nuova generazione i dati non coincidono più con quelli storici...
è vero, possono essere anche 2 o 3 fps, ma se sono su 30 sono comunque un 10% di prestazioni non ottenute, ed un driver non mette aposto un 10%.
semplicemente, ad ogni presentazione di nuove schede nvidia, c'è sempre qualcosa che non torna ed è diventato non solo stancante e noioso, ma anche ridicolo non parlarne.
ritoccare i driver ad oggi, nel 2020, per far sembrare meglio il prodotto che si sta lanciando è semplicemente ridicolo.
quindi puoi leggere se interessato, puoi non leggere se non lo sei, ma di sicuro, dopo questa semplice analisi, quello che ne esce messo peggio è proprio la metodologia di review di TPU e la leggerezza delle redazioni di tutto il circus nel dare "così tanta fiducia" ad nvidia, non testando le vecchie schede con i vecchi driver, insieme ai beta non scaricabili dagli utenti.
prova, conferma e controconferma.
si fanno così le cose fatte bene, perchè sennò diventa tutta una farsetta e poi non si devono lamentare se li si prende in giro, come non si devono lamentare quelli che sfruttano quei dati quando anche loro vengono presi per i fondelli....
comunque questa ipercriticità nei confronti di nvidia l'hanno fatta nascere proprio i fanboys sfegatati nvidia ed Intel, che per 1 fps o 20W son stati capaci di etichettare degli ottimi prodotti come delle schifezze immonde...
ora che loro hanno alzato il livello, si deve far finta di nulla solo perchè è nvidia che ha da perdere?
mi dispiace, ma l'obbiettività non funziona così.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.