Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
Abbiamo visto ancora una volta la Formula E da vicino, ospiti di Jaguar TCS Racing. In questa occasione però curve e rettilinei erano quelli di un circuito permanente, molto diverso dagli stretti passaggi delle strade di Roma
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming
Lenovo ha puntato forte sul gaming negli ultimi anni e lo testimoniano i marchi LEGION e LOQ, il primo per gli amanti delle massime prestazioni e dell'assenza di compromessi, il secondo per chi desidera soluzioni dal buon rapporto tra prestazioni e prezzo. Abbiamo provato due esponenti dell'offerta, così da capire l'effettiva differenza prestazionale.
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione
Nothing propone sul mercato non uno ma ben due auricolari nuovi: Ear di terza generazione e Ear (a) ossia un nuovo modello a basso costo pronto a ritagliarsi una fetta di mercato. Entrambi rimangono fedeli al marchio per il design ancora trasparente ma fanno un balzo in avanti notevole per qualità e soppressione del rumore.  
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 19-09-2018, 16:48   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75175
Link all'Articolo: https://www.hwupgrade.it/articoli/sk...tom_index.html

E' marchiata Gigabyte la prima scheda video GeForce RTX 2080 basata su design custom a giungere in redazione, caratterizzata da un sistema di raffreddamento a tripla ventola molto efficiente e da un lieve overclock di serie. Poco cambia, dal punto di vista prestazionale, rispetto a quanto di buono ci ha mostrato la scheda Founder's Edition con la stessa GPU ma consumi e temperature, oltre a rumorosità, sono più contenuti

Click sul link per visualizzare l'articolo.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2018, 18:01   #2
al135
Senior Member
 
L'Avatar di al135
 
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 7909
si vabè, bello, ma quando la aorus 2080ti ?
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ
27GR95QE
, Headset AR/VR Meta Quest Pro
al135 è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2018, 19:22   #3
ciocia
Senior Member
 
L'Avatar di ciocia
 
Iscritto dal: Sep 1999
Città: Calcara (Bologna) Nascita: 1974
Messaggi: 12719
Il confronto dei consumi dalla 980 in poi è impietoso. Nvidia e amd hanno alzato si le prestazioni, ma alzando drasticamente i consumi.
Boh, se il prox anno amd con vega2 riuscisse a pareggiare almeno una 2070, ma con consumi decisamente inferiori, potrei decidere di pensionare la mia gtx970.
ciocia è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2018, 21:42   #4
FroZen
Bannato
 
Iscritto dal: Aug 2001
Città: Bergamooo...
Messaggi: 20089
"In overclock la scheda Gigabyte permette di ottenere un interessante aumento delle prestazioni, ma come già evidenziato in occasione della nostra analisi delle schede GeForce RTX Founder's Edition il guadagno è complessivamente contenuto e non tale da cambiare in misura significativa il giudizio complessivo."

4 fps su 84 in qhd, e 0 (zero) in 4k

interessantissimo si
FroZen è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 02:03   #5
3000
Senior Member
 
Iscritto dal: Apr 2008
Messaggi: 957
QUINDI:
l'OC sulla VGA non serve a niente
E
tra prezzi e consumi le VGA hanno perso la ragione.
3000 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:03   #6
Alekx
Senior Member
 
L'Avatar di Alekx
 
Iscritto dal: Mar 2007
Messaggi: 4699
I consumi praticamente sono quasi alla pari con la vega 64.

Ora bisogna vedere il discorso prezzo/prestazioni tra 2080/Vega64

Perche' se la prima costa 1300 euro e fa 200 FPS e la seconda costa 500 E e ne fa 180 FPS non so sinceramente dove sta tutta sta convenienza.

Tanto il Ray Tracing non sara' supportato nei giochi se non tra qualche anno quando oramai la 2080 sara' vecchia e stravecchia.

L'Acquisto migliore ad oggi rimane una 1080 o 1080Ti secondo me, senza disdegnare una Vega 64/56 questo e' l'ordine delle schede che prenderei in considerazione in base alla dispopnibilita' finanziarie.
__________________
Case: Stacker STC-T01 MOD - ASUS ROG STRIX B450-F Gaming - Ryzen 5800X3D - Noctua NH-D14 - 16Gb A-DATA SPECTRIX D41 RGB 3600Mhz - Seasonic Prime 750W Gold - RED DEVIL RX6700XT - M2 512Gb - SSD 250/512GB
Alekx è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:07   #7
futu|2e
Senior Member
 
L'Avatar di futu|2e
 
Iscritto dal: Sep 2007
Messaggi: 5195
I prezzi stanno diventando osceni nel tempo, e il gaming su pc, oltre che essere
nel suo stato peggiore di sempre, assumerà forme di nicchia, diminuendo
investimenti ancora più di ora.
__________________
Matthewx
futu|2e è online   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:20   #8
FroZen
Bannato
 
Iscritto dal: Aug 2001
Città: Bergamooo...
Messaggi: 20089
I prezzi se le lasci a stagionare sugli scaffali vedrai che calano, rese o non rese....certo se la gggggente ingoia ogni cosa a qualsiasi prezzo..... poi non ci si deve lamentare
FroZen è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:38   #9
illidan2000
Senior Member
 
L'Avatar di illidan2000
 
Iscritto dal: Dec 2004
Città: Roma
Messaggi: 27163
nessuna review sulla gaming 2080ti ?
Quote:
Originariamente inviato da FroZen Guarda i messaggi
I prezzi se le lasci a stagionare sugli scaffali vedrai che calano, rese o non rese....certo se la gggggente ingoia ogni cosa a qualsiasi prezzo..... poi non ci si deve lamentare
il prezzo è dato anche dal fatto che in fascia alta non hanno concorrenza. Spero che Intel si dia una mossa ad entrare in questo mercato come terzo incomodo con schede discrete.

oltre che cmq è passato un periodo lungo dall'uscita delle ultime top (1080ti)
__________________
MetallicGear Qube,Asus Strix z690 d4,i7 13700k+Arctic 360rgb,2x32gb Patriot Viper Rgb 3600mhz,ssd:980pro 2TB-970evo 1tb-970evo 2tb-sm941 2tb-kingston 3dUltra 2tb,4090 phantom+Samsung 34 g8 OLED,Corsair 1000w,Xonar U7mk2 USB,sua 1500i,Asus Scope TKL-g13-g35-g903
vecchi bench 780/970
illidan2000 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:41   #10
Cloud76
Senior Member
 
L'Avatar di Cloud76
 
Iscritto dal: May 2004
Messaggi: 8265
Quote:
uno da 8 pin affiancato da uno a 6 pin, per un totale di 375 Watt che possono essere forniti alla scheda video come massimo
Perchè 375W?
Sono 75W dal 6pin, 150W dall' 8pin e 75W dallo slot, totale 300W.
No?
Cloud76 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 11:41   #11
ronthalas
Senior Member
 
L'Avatar di ronthalas
 
Iscritto dal: Nov 2001
Città: Pavia
Messaggi: 1208
OK bella scheda bella a vedersi e tutto il resto.
MA un paragone diretto con la precedente 1080TI, e le Vega? Non vedo nulla che possa farmi capire velocemente SE ne vale la pena o meno
ronthalas è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 11:59   #12
Cloud76
Senior Member
 
L'Avatar di Cloud76
 
Iscritto dal: May 2004
Messaggi: 8265
Quote:
Originariamente inviato da ronthalas Guarda i messaggi
CUT
I test sono nell'articolo di ieri:
NVIDIA GeForce RTX 2080 e RTX 2080Ti Founder's Edition: test e prestazioni
https://www.hwupgrade.it/articoli/sk...oni_index.html
Poi se cerchi un po' ne trovi quanti ne vuoi.
Cloud76 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 17:09   #13
spedake
Senior Member
 
L'Avatar di spedake
 
Iscritto dal: Dec 2000
Messaggi: 1303
Quote:
Originariamente inviato da Cloud76 Guarda i messaggi
Perchè 375W?
Sono 75W dal 6pin, 150W dall' 8pin e 75W dallo slot, totale 300W.
No?
Credo ci sia un errore nell'articolo, anche io mi ritrovo con gli stessi tuoi calcoli.
375w li ottieni con 2x8pin + connettore pci-e...
__________________
Psu CM RS-850-ESBA, Asus Prime-Pro X370 (bios 5606), Ryzen 5 3800x @stock (Wraith Prism cooler), 2x8Gb Ddr4 Vengeance Lpx 3200 CL16, Zotac Gtx 1070 Amp! Core Edition, Ssd Samsung 970 Evo Plus + 2x850 evo, Hdd WD Blue 2TB, DvdRw Lg Gh22ns30, Lcd Samsung T260HD (1200p@60hz) | Win10 Pro

i7 3570k@stock, Asrock z77 Pro3 (bios 2.00), 2x2Gb G.skill Ripjaws Ddr3 1600, Sapphire R7 250 1Gb, Ssd Samsung 830, Hdd 300Gb, Win10 Pro

- Ho concluso con: Iron 10, ciufoligo, Nicola[3vil5], iSux
spedake è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2018, 09:14   #14
pierpox
Senior Member
 
Iscritto dal: Feb 2007
Città: Cosenza
Messaggi: 396
Titan

Nessun "rumors" ancora sulla possibile uscita di una Titan RTX con il TU100?
pierpox è offline   Rispondi citando il messaggio o parte di esso
Old 24-09-2018, 14:37   #15
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da ciocia Guarda i messaggi
Il confronto dei consumi dalla 980 in poi è impietoso. Nvidia e amd hanno alzato si le prestazioni, ma alzando drasticamente i consumi.
Boh, se il prox anno amd con vega2 riuscisse a pareggiare almeno una 2070, ma con consumi decisamente inferiori, potrei decidere di pensionare la mia gtx970.
quello che conta è l'efficienza.


Quote:
Originariamente inviato da Alekx Guarda i messaggi
I consumi praticamente sono quasi alla pari con la vega 64.
si guarda l'efficienza è, mi ca il valore assoluto

la 2080Ti consuma in valore assoluto come VEGA, peccato che servano 2 VEGA per fare gli fps di una 2080Ti, quindi in realta VEGA consuma il doppio.





non essendoci stato un vero salto di pp, è gia tanto aver avuto quello scalino di efficienza.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 24-09-2018 alle 14:43.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2018, 13:08   #16
illidan2000
Senior Member
 
L'Avatar di illidan2000
 
Iscritto dal: Dec 2004
Città: Roma
Messaggi: 27163
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
quello che conta è l'efficienza.
si guarda l'efficienza è, mi ca il valore assoluto
Ci riflettevo proprio stamattina su questo. Ma questi valori, siamo sicuri che siano calcolati utilizzando anche i tensor code?
Secondo me con tutto attivo, la scheda consuma di più (avendo l'efficienza di una Pascal)
__________________
MetallicGear Qube,Asus Strix z690 d4,i7 13700k+Arctic 360rgb,2x32gb Patriot Viper Rgb 3600mhz,ssd:980pro 2TB-970evo 1tb-970evo 2tb-sm941 2tb-kingston 3dUltra 2tb,4090 phantom+Samsung 34 g8 OLED,Corsair 1000w,Xonar U7mk2 USB,sua 1500i,Asus Scope TKL-g13-g35-g903
vecchi bench 780/970
illidan2000 è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2018, 13:18   #17
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da illidan2000 Guarda i messaggi
Ci riflettevo proprio stamattina su questo. Ma questi valori, siamo sicuri che siano calcolati utilizzando anche i tensor code?
Secondo me con tutto attivo, la scheda consuma di più (avendo l'efficienza di una Pascal)
il limite è sempre il TDP; se si attivano i Tensor Core per il DLSS, boostera di meno la parte CUDA ma al contempo avrai piu FPS, quindi anche andasse a consumare un po di piu in valore assoluto ti aumenterebbe comunque anche l'efficienza per via dei maggiori fps.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 25-09-2018 alle 13:21.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2018, 13:50   #18
illidan2000
Senior Member
 
L'Avatar di illidan2000
 
Iscritto dal: Dec 2004
Città: Roma
Messaggi: 27163
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
il limite è sempre il TDP; se si attivano i Tensor Core per il DLSS, boostera di meno la parte CUDA ma al contempo avrai piu FPS, quindi anche andasse a consumare un po di piu in valore assoluto ti aumenterebbe comunque anche l'efficienza per via dei maggiori fps.
sarebbe penalizzante in questo caso se ci sta il tdp a fare da freno...
bisognerebbe fare dei test sul quanto beneficio diano i tensor core.
Secondo me, in termini di fps non lo possiamo fare. Daranno semplicemente gli stessi fps (o addirittura meno!) attivando funzionalità aggiuntive (ray tracing o dlss)
__________________
MetallicGear Qube,Asus Strix z690 d4,i7 13700k+Arctic 360rgb,2x32gb Patriot Viper Rgb 3600mhz,ssd:980pro 2TB-970evo 1tb-970evo 2tb-sm941 2tb-kingston 3dUltra 2tb,4090 phantom+Samsung 34 g8 OLED,Corsair 1000w,Xonar U7mk2 USB,sua 1500i,Asus Scope TKL-g13-g35-g903
vecchi bench 780/970
illidan2000 è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2018, 14:53   #19
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da illidan2000 Guarda i messaggi
sarebbe penalizzante in questo caso se ci sta il tdp a fare da freno...
bisognerebbe fare dei test sul quanto beneficio diano i tensor core.
Secondo me, in termini di fps non lo possiamo fare. Daranno semplicemente gli stessi fps (o addirittura meno!) attivando funzionalità aggiuntive (ray tracing o dlss)
il TDP è sempre li a fare da freno... i boost funzionano in base a quello.

lo scopo principale del DLSS è quello di dare pari resa grafica partendo da immagini a risoluzioni inferiori e quindi ottenere maggiori FPS;
nel momento in cui usi il DLSS ( che è indipendente dal RT ) hai automaticamente un aumento degli FPS e quindi di efficienza.

nel caso del RT, l'anello debole della catena sono i RT core, quindi dubito fortemente che in caso di uso di RT, i CUDA core normali lavorino a pieno regime come in Fulll Raster; la stessa nVidia da un'efficienza dei CUDA core pari all'80% del loro massimo teorico.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 25-09-2018 alle 14:56.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-09-2018, 23:52   #20
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1850
Dalla prima recensione:
Quote:
...emerge la cura che NVIDIA ha riposto nel design complessivo, con valori a pieno carico che non sono lontani da quanto si può ottenere con design custom dei partner AIB basati su sistemi di raffreddamento appositamente sviluppati.
Non sono lontani per modo di dire... ma poi, che fate corsi di informatica indovina?
(agnosticismo, occulto, esoterismo, e altre razzate che non c'entrano un piffero con gli indovini e il loro nulla)

Andando praticamente uguale alla FE (la papalina): Consuma 35 Watt in meno, resta 15 gradi sotto e fa meno casino (e scaldando/consumando meno, permette di tirare meno anche le ventole nel case).


Quote:
C'è un margine medio di circa 10 gradi centigradi in meno rispetto ai già molto validi valori della scheda Founder's Edition
Un margine medio dopo 2 minuti? Ci manca un pelo per i 15 gradi di differenza, e gli ultimi picchi fanno sospettare una differenza superiore dopo qualche altro minuto. (che avrebbe triplicato facilmente la durata del test...)

Perché sopra manca l'indicazione dei secondi?

Nell'altra prova c'è:



Due minuti di un benchmark integrato vi sembrano sufficienti? (retorica, ma manco tanto)

La media inizi a farla prima che la scheda accenda i motori?

Dobbiamo proporre un sondaggio per fare una media delle sessioni di un videogiocatore?

Come fa ad avere senso una cosa simile?

Riassumo quelle che potrebbero sembrare (?) lisciate di pelo:
Quote:
emerge la cura che NVIDIA ha riposto nel design complessivo
Quote:
C'è un margine medio di circa 10 gradi centigradi in meno rispetto ai già molto validi valori della scheda Founder's Edition
Se quelli sono molto validi, quelli della scheda Gigabyte sono miracolosi (eravamo in tema... come parto chiudo)!

Ma considerando la flessibilità dei famosi contratti Nvidia, non mi sorprendo...

Mah...
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K

Ultima modifica di Fos : 28-09-2018 alle 00:03.
Fos è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione Nothing Ear e Ear (a): gli auricolari per tutti ...
Sony FE 16-25mm F2.8 G: meno zoom, più luce Sony FE 16-25mm F2.8 G: meno zoom, più lu...
Motorola edge 50 Pro: design e display al top, meno il prezzo! Recensione Motorola edge 50 Pro: design e display al top, m...
Le foto vincitrici del World Press Photo...
Aperti gli ordini per Alfa Romeo Junior,...
''Sei nell'anima'': arriva su Netflix il...
Netflix aumenta ancora i suoi abbonati e...
La Gioconda che rappa grazie a Microsoft...
Kingdom Come Deliverance II: il seguito ...
Logitech M750 Signature AI Edition: il p...
Cisco presenta Hypershield, una soluzion...
Arriva Mastercard For Fintechs, il perco...
TSMC avverte il mondo: i chip fabbricati...
Auricolari economici CMF by Nothing Buds...
Fallout, la serie TV: la Stagione 2 &egr...
L'assistente virtuale Meta AI diventa pi...
iPhone 15 Pro 1 TB è sceso a 1.442€. Il ...
LastPass, campagna di phishing ai danni ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:59.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www3v
1