View Full Version : Gigabyte GeForce RTX 2080 Gaming OC 8G: Turing in salsa custom
Redazione di Hardware Upg
19-09-2018, 16:48
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5260/gigabyte-geforce-rtx-2080-gaming-oc-8g-turing-in-salsa-custom_index.html
E' marchiata Gigabyte la prima scheda video GeForce RTX 2080 basata su design custom a giungere in redazione, caratterizzata da un sistema di raffreddamento a tripla ventola molto efficiente e da un lieve overclock di serie. Poco cambia, dal punto di vista prestazionale, rispetto a quanto di buono ci ha mostrato la scheda Founder's Edition con la stessa GPU ma consumi e temperature, oltre a rumorosità, sono più contenuti
Click sul link per visualizzare l'articolo.
si vabè, bello, ma quando la aorus 2080ti ?
Il confronto dei consumi dalla 980 in poi è impietoso. Nvidia e amd hanno alzato si le prestazioni, ma alzando drasticamente i consumi.
Boh, se il prox anno amd con vega2 riuscisse a pareggiare almeno una 2070, ma con consumi decisamente inferiori, potrei decidere di pensionare la mia gtx970.
"In overclock la scheda Gigabyte permette di ottenere un interessante aumento delle prestazioni, ma come già evidenziato in occasione della nostra analisi delle schede GeForce RTX Founder's Edition il guadagno è complessivamente contenuto e non tale da cambiare in misura significativa il giudizio complessivo."
4 fps su 84 in qhd, e 0 (zero) in 4k
interessantissimo si
QUINDI:
l'OC sulla VGA non serve a niente
E
tra prezzi e consumi le VGA hanno perso la ragione.
I consumi praticamente sono quasi alla pari con la vega 64.
Ora bisogna vedere il discorso prezzo/prestazioni tra 2080/Vega64
Perche' se la prima costa 1300 euro e fa 200 FPS e la seconda costa 500 E e ne fa 180 FPS non so sinceramente dove sta tutta sta convenienza.
Tanto il Ray Tracing non sara' supportato nei giochi se non tra qualche anno quando oramai la 2080 sara' vecchia e stravecchia.
L'Acquisto migliore ad oggi rimane una 1080 o 1080Ti secondo me, senza disdegnare una Vega 64/56 questo e' l'ordine delle schede che prenderei in considerazione in base alla dispopnibilita' finanziarie.
I prezzi stanno diventando osceni nel tempo, e il gaming su pc, oltre che essere
nel suo stato peggiore di sempre, assumerà forme di nicchia, diminuendo
investimenti ancora più di ora.
I prezzi se le lasci a stagionare sugli scaffali vedrai che calano, rese o non rese....certo se la gggggente ingoia ogni cosa a qualsiasi prezzo..... poi non ci si deve lamentare
illidan2000
20-09-2018, 08:38
nessuna review sulla gaming 2080ti ?
I prezzi se le lasci a stagionare sugli scaffali vedrai che calano, rese o non rese....certo se la gggggente ingoia ogni cosa a qualsiasi prezzo..... poi non ci si deve lamentare
il prezzo è dato anche dal fatto che in fascia alta non hanno concorrenza. Spero che Intel si dia una mossa ad entrare in questo mercato come terzo incomodo con schede discrete.
oltre che cmq è passato un periodo lungo dall'uscita delle ultime top (1080ti)
uno da 8 pin affiancato da uno a 6 pin, per un totale di 375 Watt che possono essere forniti alla scheda video come massimo
Perchè 375W?
Sono 75W dal 6pin, 150W dall' 8pin e 75W dallo slot, totale 300W.
No?
ronthalas
20-09-2018, 11:41
OK bella scheda bella a vedersi e tutto il resto.
MA un paragone diretto con la precedente 1080TI, e le Vega? Non vedo nulla che possa farmi capire velocemente SE ne vale la pena o meno
CUT
I test sono nell'articolo di ieri:
NVIDIA GeForce RTX 2080 e RTX 2080Ti Founder's Edition: test e prestazioni
https://www.hwupgrade.it/articoli/skvideo/5259/nvidia-geforce-rtx-2080-e-rtx-2080ti-founder-s-edition-test-e-prestazioni_index.html
Poi se cerchi un po' ne trovi quanti ne vuoi.
Perchè 375W?
Sono 75W dal 6pin, 150W dall' 8pin e 75W dallo slot, totale 300W.
No?
Credo ci sia un errore nell'articolo, anche io mi ritrovo con gli stessi tuoi calcoli.
375w li ottieni con 2x8pin + connettore pci-e...
Nessun "rumors" ancora sulla possibile uscita di una Titan RTX con il TU100?
AceGranger
24-09-2018, 14:37
Il confronto dei consumi dalla 980 in poi è impietoso. Nvidia e amd hanno alzato si le prestazioni, ma alzando drasticamente i consumi.
Boh, se il prox anno amd con vega2 riuscisse a pareggiare almeno una 2070, ma con consumi decisamente inferiori, potrei decidere di pensionare la mia gtx970.
quello che conta è l'efficienza.
I consumi praticamente sono quasi alla pari con la vega 64.
si guarda l'efficienza è, mi ca il valore assoluto :rolleyes:
la 2080Ti consuma in valore assoluto come VEGA, peccato che servano 2 VEGA per fare gli fps di una 2080Ti, quindi in realta VEGA consuma il doppio.
https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/images/performance-per-watt_3840-2160.png
non essendoci stato un vero salto di pp, è gia tanto aver avuto quello scalino di efficienza.
illidan2000
25-09-2018, 13:08
quello che conta è l'efficienza.
si guarda l'efficienza è, mi ca il valore assoluto :rolleyes:
Ci riflettevo proprio stamattina su questo. Ma questi valori, siamo sicuri che siano calcolati utilizzando anche i tensor code?
Secondo me con tutto attivo, la scheda consuma di più (avendo l'efficienza di una Pascal)
AceGranger
25-09-2018, 13:18
Ci riflettevo proprio stamattina su questo. Ma questi valori, siamo sicuri che siano calcolati utilizzando anche i tensor code?
Secondo me con tutto attivo, la scheda consuma di più (avendo l'efficienza di una Pascal)
il limite è sempre il TDP; se si attivano i Tensor Core per il DLSS, boostera di meno la parte CUDA ma al contempo avrai piu FPS, quindi anche andasse a consumare un po di piu in valore assoluto ti aumenterebbe comunque anche l'efficienza per via dei maggiori fps.
illidan2000
25-09-2018, 13:50
il limite è sempre il TDP; se si attivano i Tensor Core per il DLSS, boostera di meno la parte CUDA ma al contempo avrai piu FPS, quindi anche andasse a consumare un po di piu in valore assoluto ti aumenterebbe comunque anche l'efficienza per via dei maggiori fps.
sarebbe penalizzante in questo caso se ci sta il tdp a fare da freno...
bisognerebbe fare dei test sul quanto beneficio diano i tensor core.
Secondo me, in termini di fps non lo possiamo fare. Daranno semplicemente gli stessi fps (o addirittura meno!) attivando funzionalità aggiuntive (ray tracing o dlss)
AceGranger
25-09-2018, 14:53
sarebbe penalizzante in questo caso se ci sta il tdp a fare da freno...
bisognerebbe fare dei test sul quanto beneficio diano i tensor core.
Secondo me, in termini di fps non lo possiamo fare. Daranno semplicemente gli stessi fps (o addirittura meno!) attivando funzionalità aggiuntive (ray tracing o dlss)
il TDP è sempre li a fare da freno... i boost funzionano in base a quello.
lo scopo principale del DLSS è quello di dare pari resa grafica partendo da immagini a risoluzioni inferiori e quindi ottenere maggiori FPS;
nel momento in cui usi il DLSS ( che è indipendente dal RT ) hai automaticamente un aumento degli FPS e quindi di efficienza.
nel caso del RT, l'anello debole della catena sono i RT core, quindi dubito fortemente che in caso di uso di RT, i CUDA core normali lavorino a pieno regime come in Fulll Raster; la stessa nVidia da un'efficienza dei CUDA core pari all'80% del loro massimo teorico.
Dalla prima recensione:
...emerge la cura che NVIDIA ha riposto nel design complessivo, con valori a pieno carico che non sono lontani da quanto si può ottenere con design custom dei partner AIB basati su sistemi di raffreddamento appositamente sviluppati.Non sono lontani per modo di dire... ma poi, che fate corsi di informatica indovina? :asd:
(agnosticismo, occulto, esoterismo, e altre razzate che non c'entrano un piffero con gli indovini e il loro nulla)
Andando praticamente uguale alla FE (la papalina): Consuma 35 Watt in meno, resta 15 gradi sotto e fa meno casino (e scaldando/consumando meno, permette di tirare meno anche le ventole nel case).
https://www.hwupgrade.it/articoli/5260/temperatura_gpu.png
C'è un margine medio di circa 10 gradi centigradi in meno rispetto ai già molto validi valori della scheda Founder's EditionUn margine medio dopo 2 minuti? Ci manca un pelo per i 15 gradi di differenza, e gli ultimi picchi fanno sospettare una differenza superiore dopo qualche altro minuto. (che avrebbe triplicato facilmente la durata del test...)
Perché sopra manca l'indicazione dei secondi?
Nell'altra prova c'è:
https://www.hwupgrade.it/articoli/skvideo/5259/temperatura_gpu.png
Due minuti di un benchmark integrato vi sembrano sufficienti? (retorica, ma manco tanto)
La media inizi a farla prima che la scheda accenda i motori?
Dobbiamo proporre un sondaggio per fare una media delle sessioni di un videogiocatore?
Come fa ad avere senso una cosa simile? :mbe:
Riassumo quelle che potrebbero sembrare (?) lisciate di pelo:
emerge la cura che NVIDIA ha riposto nel design complessivo
C'è un margine medio di circa 10 gradi centigradi in meno rispetto ai già molto validi valori della scheda Founder's Edition
Se quelli sono molto validi, quelli della scheda Gigabyte sono miracolosi (eravamo in tema... come parto chiudo)!
Ma considerando la flessibilità dei famosi contratti Nvidia, non mi sorprendo...
Mah... :rolleyes:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.