View Full Version : MSI RTX 3080 GAMING X TRIO 10G, Nvidia Ampere in formato maxi
Redazione di Hardware Upg
17-09-2020, 15:05
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5830/msi-rtx-3080-gaming-x-trio-10g-nvidia-ampere-in-formato-maxi_index.html
A tu per tu con la prima scheda video GeForce RTX 3080 "custom" giunta in redazione: ecco la nuova MSI RTX 3080 Gaming X Trio 10G. La scheda si presenta con dimensioni superiori alla Founders Edition, in virtù di un sistema di raffreddamento a tre ventole. Alimentata da tre connettori a 8 pin, non si fa mancare l'overclock di fabbrica.
Click sul link per visualizzare l'articolo.
ninja750
17-09-2020, 16:17
non viene specificato ma dal grafico con la lente di ingrandimento si vede un consumo di picco di circa 365w :mc:
150€ in più per 100Mhz e qualche dB in meno non credo valgano la pena.
Non capisco la necessità dei 3 pin visto che il consumo mi sembra sia identico o poco superiore.
ma il Dilitio dove si carica? i klingon saranno terrorizzati da questo nuovo Disgregatore.
Ciumbia che sberla di scheda !:help:
aldo87mi
17-09-2020, 17:30
a breve dovrebbero arrivare le 3080 custom con 20GB di Vram. Quelle avrebbero più senso come acquisto. Si parla di fine ottobre, cosa costa aspettare un altro mese? la versione 10GB non credo durerà più di un annetto con giochi spinti in 4k+rtx on+ultra settings. Anche se credo le custom da 20GB faranno lievitare di molto il prezzo, sicuramente da 700eur della founders andremo sui 900 eur della custom 20GB, ma a mio avviso ne vale molto la pena come investimento per il futuro
vorrei vedere l'utilizzo della RAM, io in 2k non vedo più di 4 Gb su 8 utilizzati.
a breve dovrebbero arrivare le 3080 custom con 20GB di Vram. Quelle avrebbero più senso come acquisto. Si parla di fine ottobre, cosa costa aspettare un altro mese? la versione 10GB non credo durerà più di un annetto con giochi spinti in 4k+rtx on+ultra settings. Anche se credo le custom da 20GB faranno lievitare di molto il prezzo, sicuramente da 700eur della founders andremo sui 900 eur della custom 20GB, ma a mio avviso ne vale molto la pena come investimento per il futuro
Pensa che avevo letto la stessa cosa per le 2080ti... Eh sì... Sono state proprio un bell investimento...
Ampere..... la vga con il pc intorno :mc: :mc: :mc:
Il paper launch più epico della storia :sofico: :sofico: :sofico:
supertigrotto
17-09-2020, 23:01
Da possessore di 5700 devo dire che Nvidia è il top ma non la vedo così distaccata da gridare al miracolo,specialmente valutando attentamente i consumi.
Se posso paragonare l'elettronica alla meccanica o alla elettrotecnica,ovvio che un motore termico o elettrico vada di più se lo infarcisco di energia,prima di dare un reale giudizio,aspetto la risposta di AMD,che anche questo giro probabilmente,la top gamma sarà sotto alla 3090,probabilmente dovremmo aspettare un anno o due per ritrovarci una scheda amd in grado di superare nvidia (penso sia una cosa ciclica come è accaduto sulle cpu).
Poi diciamoci la verità,i soldi si fanno con le utilitarie,non con le supersportive,ovvero,anche intel con le future XE punta la mercato più redditizio,ovvero il mercato basso e medio,quello dove vendi 10.000 schede non 1.000.
Vero che la top gamma serve per l'immagine ma i soldi si fanno con il popolino che non può permettersi di spendere 3/4 di stipendio o più di sola scheda video.
Anche se non ho tanta simpatia per Nvidia per i suoi standard chiusi,a livello di prodotti è ineccepibile,anche se è un po' gonfiata dal marketing come Apple,poi ogniuno spende i soldi come vuole,con i marchi che vuole e con i prodotti che vuole.
Attualmente chi vuole cambiare scheda video,se acquista Nvidia certamente non sbaglia,vedremo a ottobre con le big navi e nel 2021 con intel XE,allora si che ci sarà da valutare attentamente i costi fra prestazioni e prezzo.
Presumo che tra il 2021 e il 2023 avremmo tre competitor che cercheranno di suonarsele di santa ragione,quindi anche sui prezzi,meglio per noi consumatori.
L'unica cosa che spero è la scomparsa totale di Gsync,ho acquistato amd per il fatto che ho acquistato un monitor freesync samsung 3440x1440,standard sottoscritto e abbracciato anche da intel qualche anno fa,quindi in teoria compatibile con le future XE,il fatto di acquistare un monitor Gsync,pagarlo di più ed essere in un certo modo legato a vita (Vita del monitor) ad Nvidia non mi piaceva affatto,questo è uno dei punti per cui decisi di acquistare una 5700 e non una 2070,cosa che è successa di nuovo anche con i 12 pin di alimentazione,anche se Nvidia ha dichiarato che se AMD e Intel vorranno utilizzarlo,non ci saranno problemi di royalty.
Detto questo mi sa che a natale,con le tredicesime in mano,più di qualcuno andrà in crisi per il fatto che si ritroverà sul mercato dei validi Ryzen 3,degli intel molto veloci e delle schede video con un prezzo quasi decente,quindi,preparatevi a spalmare pasta termica,montare nuove ram e a scegliere la vostra scheda video preferita!!!!!!!!!!
StylezZz`
17-09-2020, 23:39
L'unica cosa che spero è la scomparsa totale di Gsync,ho acquistato amd per il fatto che ho acquistato un monitor freesync samsung 3440x1440,standard sottoscritto e abbracciato anche da intel qualche anno fa,quindi in teoria compatibile con le future XE,il fatto di acquistare un monitor Gsync,pagarlo di più ed essere in un certo modo legato a vita (Vita del monitor) ad Nvidia non mi piaceva affatto,questo è uno dei punti per cui decisi di acquistare una 5700 e non una 2070,cosa che è successa di nuovo anche con i 12 pin di alimentazione,anche se Nvidia ha dichiarato che se AMD e Intel vorranno utilizzarlo,non ci saranno problemi di royalty.
Non è necessario acquistare un monitor gsync, la serie 10X0 e 20X0 è compatibile con freesync.
terranux
17-09-2020, 23:57
col fatto che vanno tutte uguali vanno bene quelle da meno .punto . poi se fà un pò di rumore e non ha le luci pace. la meglio è la tuf
DakmorNoland
18-09-2020, 05:47
Pensa che avevo letto la stessa cosa per le 2080ti... Eh sì... Sono state proprio un bell investimento...
Sì veramente tra 4k e RTX hanno trovato un sacco di scuse per spennare i polli. Io gioco a tutto con una 1070... non ho capito a cosa servano queste schede, ultimamente innovazione zero proprio.
a breve dovrebbero arrivare le 3080 custom con 20GB di Vram.
Ma è ironico vero? 20GB su una scheda video?? :asd: Se è vero siamo alla frutta, presto spariranno dalla circolazione, tra Cloud e Console che insidiano il PC tradizionale, questi anzichè ottimizzare stanno sparando sempre più in alto. Io fossi in loro metterei direttamente 100GB per stare sicuri, si sa mai... Poveri noi. :rolleyes: D'altronde quando si innova zero, questi sono i risultati.
sertopica
18-09-2020, 06:13
a breve dovrebbero arrivare le 3080 custom con 20GB di Vram. Quelle avrebbero più senso come acquisto. Si parla di fine ottobre, cosa costa aspettare un altro mese? la versione 10GB non credo durerà più di un annetto con giochi spinti in 4k+rtx on+ultra settings. Anche se credo le custom da 20GB faranno lievitare di molto il prezzo, sicuramente da 700eur della founders andremo sui 900 eur della custom 20GB, ma a mio avviso ne vale molto la pena come investimento per il futuro
Aldo poi tienici aggiornati sugli ultimi test di gamegpu.ru!
Sicuramente saltera' fuori che la 1080ti asfalta la 3080.
bagnino89
18-09-2020, 12:47
Col prezzo che ha, non vale la pena rispetto alla FE, secondo me.
Non ho capito questa affermazione, però:
La soluzione "di riferimento" di Nvidia nasce più come oggetto per appassionati del design delle Founders e collezionisti, tanto che a un certo punto non sarà più acquistabile, lasciando il campo alle proposte dei partner
Perché non saranno più acquistabili? Non mi pare che con le 2xxx abbiamo chiuso le vendite delle FE, ad un certo punto. Oppure no?
Aldo poi tienici aggiornati sugli ultimi test di gamegpu.ru!
Sicuramente saltera' fuori che la 1080ti asfalta la 3080.
Eh ma lui con la 2060 gioca a 4k 120 FPS :asd:
si sospetta che la FE sara' a tiratura molto limitata,serve solo per le recensioni del day1 per far credere che hanno calmierato i prezzi,ma tanto non si troveranno,vedila piu' come "provami a trovare a prezzo di listino,se ci riesci hai vinto":D
Ampere lato oc e consumi è da stendere un velo pietoso..
Non ho capito questa affermazione, però:
Perché non saranno più acquistabili? Non mi pare che con le 2xxx abbiamo chiuso le vendite delle FE, ad un certo punto. Oppure no?
perchè servivano solo per fare i test delle reviews.
A me pare molto strano che queste ultime RTX. Vorrei capire a parità di Watt come va rispetto alle altre schede. Non è che 12 nm TSMC sono meglio degli 8 nm Samsung?
coschizza
19-09-2020, 08:49
Sì veramente tra 4k e RTX hanno trovato un sacco di scuse per spennare i polli. Io gioco a tutto con una 1070... non ho capito a cosa servano queste schede, ultimamente innovazione zero proprio.
Ma è ironico vero? 20GB su una scheda video?? :asd: Se è vero siamo alla frutta, presto spariranno dalla circolazione, tra Cloud e Console che insidiano il PC tradizionale, questi anzichè ottimizzare stanno sparando sempre più in alto. Io fossi in loro metterei direttamente 100GB per stare sicuri, si sa mai... Poveri noi. :rolleyes: D'altronde quando si innova zero, questi sono i risultati.
Innova zero? Ma ci prendi in giro?
Il prossimo anno Microsoft rilascerà Direct Storage per Windows 10.
RTX IO di Nvidia e l'equivalente tecnologia di AMD (che trovate su PS5).
Avranno bisogno di grandi quantità di memoria direttamente sulla scheda video per poter funzionare a dovere.
CarmackDocet
19-09-2020, 21:17
Non capisco chi si lamenta delle performance... ci sono giochi dove la 3080 va il 60% in più della 2080 Ti.
E comunque il vero raffronto è da farsi con schede della generazione precedente che costavano come costa ora la 3080 (cioè la 2080)... e non 1300 euro.
Ma cosa vi aspettavate?
La 3080 in 4k trita la 2080... punto.
Ci sono stati cambi di generazione dove davvero il gain era ridicolo... ma non è questo il caso.
Poi ok, se uno si vuole lamentare a prescindere... fate pure
tuttodigitale
20-09-2020, 19:37
Non capisco chi si lamenta delle performance... ci sono giochi dove la 3080 va il 60% in più della 2080 Ti.
E comunque il vero raffronto è da farsi con schede della generazione precedente che costavano come costa ora la 3080 (cioè la 2080)... e non 1300 euro.
Ma cosa vi aspettavate?
La 3080 in 4k trita la 2080... punto.
Ci sono stati cambi di generazione dove davvero il gain era ridicolo... ma non è questo il caso.
Poi ok, se uno si vuole lamentare a prescindere... fate pure
Non esageriamo con i numeri, poco più del 60% è la differenza che passa a 4k tra la 2080 e la 3080. Mediamente la differenza, sempre a 4k ovviamente, tra la leggermente meno costosa (mi riferisco al listino) 2080 SUPER è "solo" del 56%.
Rispetto al (fuori prezzato) vecchio modello di fascia alta l'aumento non è eclatante, ma appunto visto il costo mi riesce anche difficile considerarlo. La 2080TI non è mai esistita davvero. Secondo me sia chiaro.
Allora, quello che abbiamo assistito è stato un paper launch, inutile girarci intorno. Probabilmente qui in Italia le schede non arriveranno prima della seconda settima di Ottobre se non in quantità ridicole, e i prezzi saranno più simili a 900 euro che non a 700.
Se c'è qualche lamentela, secondo me, la VRAM non è adeguata alla potenza di calcolo. rappresenterà il maggior limite di questa soluzione. Ci sono già giochi che allocano tutta la VRAM. D'altra parte per "soli" 700 e rotti euro, visti i precedenti, sarebbe anche assurdo pretendere di più
Ma stiamo scherzando? Il guadagno su 2080 (reale predecessora) in alcuni titoli sfiora il 100%, spesso è superiore al 70% e mi tocca sentire che non è nulla di eclatante? È un aumento mosturoso, probabilmente il più grande mai registrato nelle storia delle GeForce, certo arriva ad un notevole prezzo in termini di efficienza, il.problema delle temperature. E la 2080ti era acquistabilissima, tutto stava nel voler spendere oltre 1100 euro per la sola scheda.
coschizza
20-09-2020, 19:58
Se c'è qualche lamentela, secondo me, la VRAM non è adeguata alla potenza di calcolo. rappresenterà il maggior limite di questa soluzione. Ci sono già giochi che allocano tutta la VRAM. D'altra parte per "soli" 700 e rotti euro, visti i precedenti, sarebbe anche assurdo pretendere di più
allocare o usare sono cose diverse, nessun gioco usa una vram che praticamente no ha quasi nessuno al mondo
coschizza
20-09-2020, 20:00
Ma stiamo scherzando? Il guadagno su 2080 (reale predecessora) in alcuni titoli sfiora il 100%, spesso è superiore al 70% e mi tocca sentire che non è nulla di eclatante? È un aumento mosturoso, probabilmente il più grande mai registrato nelle storia delle GeForce, certo arriva ad un notevole prezzo in termini di efficienza, il.problema delle temperature. E la 2080ti era acquistabilissima, tutto stava nel voler spendere oltre 1100 euro per la sola scheda.
aggiungo che in molti render come arnold blender e vray il milgioramento supera addirittura il 200%
allocare o usare sono cose diverse, nessun gioco usa una vram che praticamente no ha quasi nessuno al mondoÈ anche vero che non sempre la VRAM viene allocata per dispetto. Può servire per evitare di ricaricare/scaricare la stessa roba, cosa che dovrebbe accorciare eventuali caricamenti, evitare probabili stuttering ecc...
Quante volte il gioco si grippa di netto su una scheda con meno VRAM di quella necessaria? Bisogna dargli a strozzarla proprio, altrimenti verrà scaricata/ricaricata in continuazione, cosa che oltre allo stuttering di sopra, a volte genera dei veri e propri mini-blocchi. Eppure, se guardi l'occupazione, spesso non supera neanche il 90%. In quei casi, invece, viene lasciata una zona per non far grippare il gioco del tutto.
Come è vero che l'opzione maxata relativa alle texture non è obbligatoria, che a 4K senza il DLSS il discorso può cambiare...
Se non basta vedere l'allocazione, non basta manco ignorarla e/o considerare l'uso ottimale.
Anche ignorando quello di sopra (abbozzando sul più probabile stuttering): L'imminente arrivo delle nuove console permetterebbe di dormire sonni tranquilli? Non credo proprio. :)
Sostenere che i 10GB della 3080 siano sufficienti anche nel prossimo futuro, come è stato fatto nella recensione... (non c'è videogioco che possa saturarla al momento e nel prossimo futuro) Non è quantomeno un azzardo? Dovesse uscire quella con più RAM, Nvidia continuerebbe a dire che basta e basterà?
Non credo proprio-2. :)
coschizza
21-09-2020, 08:03
Il prossimo anno Microsoft rilascerà Direct Storage per Windows 10.
RTX IO di Nvidia e l'equivalente tecnologia di AMD (che trovate su PS5).
Avranno bisogno di grandi quantità di memoria direttamente sulla scheda video per poter funzionare a dovere.
È L esatto opposto serve per avere bisogno di avere meno ram sulla gpu e caricare solo quello che serve quando serve
Ma stiamo scherzando? Il guadagno su 2080 (reale predecessora) in alcuni titoli sfiora il 100%, spesso è superiore al 70% e mi tocca sentire che non è nulla di eclatante? È un aumento mosturoso, probabilmente il più grande mai registrato nelle storia delle GeForce, certo arriva ad un notevole prezzo in termini di efficienza, il.problema delle temperature. E la 2080ti era acquistabilissima, tutto stava nel voler spendere oltre 1100 euro per la sola scheda.
Il bump con la 2080 e` netto.
Pero' a che consumi...E in piu` mi sembra overclockino molto poco.
CarmackDocet
21-09-2020, 10:55
1. Partiamo dal presupposto che nVidia, come qualsiasi altra azienda, non è un ente benefico. Non poteva cannibalizzare totalmente la vecchia generazione (a mio avviso ha già fatto molto) e doveva necessariamente trovare un equilibrio tra:
- far gridare al miracolo a chi non aveva la serie 20
- non far incazzare troppo a chi la serie 20 la possedeva
2. Ora io non so che lavoro fate voi (mi ci metto in mezzo anche io) ma è lecito pensare che in nVidia (così come in AMD) ci lavorino tra i migliori ingegneri del mondo ed i migliori esperti di marketing del mondo. Quindi la prima cosa che mi viene da pensare all'uscita di un nuovo prodotto non è "hanno fatto una cazzata!", ma "hanno fatto il possibile per ottenere il massimo con quello che avevano".
Detto questo, sul discorso "quantitativo di VRAM" al momento nemmeno Flight Simulator 2020 necessita di oltre 10 GB di VRAM in 4k e qualità Ultra. Ne richiede oltre 16 GB (e fino a 24 GB) in 8k. Ma non sarà la serie 30 la generazione dell'8k.
Inoltre mi risulta che la serie 30 utilizzi un algoritmo di memory compression che le permette di immagazzinare nella VRAM un 20-30% in più di spazio.
Quindi perchè cacciare fuori solo sk con 20-22 GB di ram a +200€? Si esce col prodotto più competitivo che può incontrare i favori della maggior parte degli utenti.
Anche sul discorso consumi direi che la situazione non è così male come potrebbe sembrare:
- 2080 = 215 watt @ 13,6 mld @ 12nm
- 3080 = 320 watt @ 28 mld @ 8nm
Facendo i conti della serva (che gli esperti di eletronica del forum mi perdonino)
Se portassi i transistor della 2080 a 28 mld, avrei un consumo (a 12nm) di 442,6 watt, che ridotto di 1/3 per il passaggio agli 8nm, si tradurrebbero in 332 watt.
Direi che a 320 watt hanno anche ottimizzato! :-)
Ora cacciate sti soldi che non avete scuse! :P
Io aspetto i primi Laptop con CPU Ryzen e RTX 3060... I love FullHD.
ciolla2005
21-09-2020, 22:12
È L esatto opposto serve per avere bisogno di avere meno ram sulla gpu e caricare solo quello che serve quando serve
Sicuramente evita un passaggio dal processore (decompressione)
L'accesso diretto alla Ram avveniva già con l'AGP, 20 anni fa.
Dipende da come lavora il sistema. Prima o poi pubblicheranno le specifiche.
Padre Maronno
22-09-2020, 01:02
Secondo voi appena uscite le prime 30X0, di quanto crollerà di prezzo la precedente versione sia nel mercato del nuovo ed anche dell'usato ????
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.