NVIDIA GeForce, schede serie 80 a confronto: dalla GTX 780 alla RTX 4080

NVIDIA GeForce, schede serie 80 a confronto: dalla GTX 780 alla RTX 4080

L'arrivo della GeForce RTX 4080 ci ha stuzzicato l'idea di fare una veloce retrospettiva sulle prestazioni delle schede GeForce della serie 80 uscite negli ultimi dieci anni. Abbiamo messo sullo stesso banchetto di prova i modelli dalla GeForce GTX 780 all'ultima nata basata su architettura Ada Lovelace per vedere come sono cambiate le prestazioni in rasterizzazione.

di pubblicato il nel canale Schede Video
schede video top di gammagaming hardwareNVIDIAGeForceAmpereLovelaceTuring
 

Come si è evoluta la serie 80 delle schede video NVIDIA GeForce negli ultimi 10 anni? Complice il freschissimo arrivo sul mercato del modello GeForce RTX 4080 abbiamo deciso di fare una retrospettiva, prendendo le schede dalla serie GeForce GTX 700 all'attuale RTX 4000 per comprendere l'effettivo miglioramento prestazionale nel corso di sei generazioni.

Stessa piattaforma di ultima generazione, medesima suite di test e prove a varie risoluzioni per mettere in fila le GPU dalla GeForce GTX 780 alla RTX 4080. L'obiettivo è chiaramente quello di vedere l'effettivo miglioramento prestazionale delle GPU, ben sapendo che mettere una GeForce GTX 780 su una piattaforma AMD AM5 è fuori dal tempo e non consigliabile.

Le prove sono state svolte senza ray tracing abilitato, in quanto la tecnologia fino alla serie GeForce RTX 2000 non era disponibile né fruibile: le GPU precedenti quanto ad architettura erano prive delle unità hardware dedicate alla gestione di calcoli tanto complessi. NVIDIA aprì alla gestione del ray tracing via software sulle ultime GeForce GTX, ma si trattò di una mossa di marketing per mettere in mostra le capacità delle nuove RTX: le prestazioni delle vecchie soluzioni con la nuova tecnologia grafica lasciavano al quanto a desiderare.

Prima di passare ai benchmark, parliamo delle schede video protagoniste in questo articolo partendo dalle soluzioni GeForce GTX 780 e 780 Ti. Entrambe le schede si basano su una GPU Kepler chiamata GK110, prodotta a 28 nanometri e dotata di 7,08 miliardi di transistor in un'area di 561 mm2. La GeForce GTX 780 offre 2304 CUDA core, 192 TMU e 48 ROPs, affiancati da 3 GB di memoria GDDR5 su bus a 384 bit. La GTX 780 Ti, invece, mette a disposizione 2880 CUDA core, 240 TMU e 48 ROPs.

Le schede GeForce GTX 980 e GeForce GTX 980 Ti, invece, si basano su quella che all'epoca fu ribattezzata architettura Maxwell 2.0. La prima adotta una GPU chiamata GM204, realizzata a 28 nanometri e dotata di 5,2 miliardi di transistor su un die da 398 mm2. Il chip prevede 2048 CUDA core, 128 TMU e 64 ROPs, affiancati da 4 GB di memoria GDDR5 su bus a 256 bit.

La GeForce GTX 980 Ti, invece, si basa su una GPU denominata GM200 con 8 miliardi di transistor in un die da 601 mm2. La GTX 980 Ti conta 2816 CUDA core, 176 TMU, 96 ROPs e 6 GB di memoria GDDR5 su bus a 384 bit.

Con la serie GeForce GTX 1000, NVIDIA fece un passo avanti sul fronte del processo produttivo, avanzando dai 28 ai 16 nanometri di TSMC (o ai 14 nm di Samsung per alcune soluzioni). La scheda GeForce GTX 1080 vede al centro una GPU chiamata GP104 (16 nm - 7,2 miliardi di transistor - 314 mm2). La GTX 1080 conta 2560 CUDA core, 160 TMU e 64 ROPs affiancati da 8 GB di memoria GDDR5X su bus a 256 bit.

La GTX 1080 Ti, da par suo, monta una GPU GP102 (16 nm - 11,8 miliardi di transistor - 471 mm2) con oltre 1000 CUDA core in più rispetto alla GTX 1080: al suo interno ha 3584 CUDA core, 224 TMU e 88 ROPs, affiancati da 11 GB di memoria GDDR5X su bus a 352 bit.

Con la gamma RTX 2000 si è aperta l'era del ray tracing e del DLSS, nell'ultima parte del 2018: oltre alle tradizionali unità, i modelli figurano gli RT core e i Tensor core. In questo articolo contiamo tre modelli chiamati GeForce RTX 2080, RTX 2080 Super e RTX 2080 Ti, giunti sul mercato in momenti differenti e tutti basati sull'architettura Turing e sul processo produttivo a 12 nanometri.

  GPU CUDA core Bus Memoria TBP
GeForce GTX 780 GK110 2304 384 bit 3 GB GDDR5 6 Gbps 250W
GeForce GTX 780 Ti GK110 2880 384 bit 3 GB GDDR5 7 Gbps 250W
GeForce GTX 980 GM204 2048 256 bit 4 GB GDDR5 7 Gbps 165W
GeForce GTX 980 Ti GM200 2816 384 bit 6 GB GDDR5 7 Gbps 250W
GeForce GTX 1080 GP104 2560 256 bit 8 GB GDDR5X 10 Gbps 180W
GeForce GTX 1080 Ti GP102 3584 352 bit 11 GB GDDR5X 11 Gbps 250W
GeForce RTX 2080 TU104 2944 256 bit 8 GB GDDR6 14 Gbps 215W
GeForce RTX 2080 SUPER TU104 3072 256 bit 8 GB GDDR6 15,5 Gbps 250W
GeForce RTX 2080 Ti TU102 4352 352 bit 11 GB GDDR6 14 Gbps 250W
GeForce RTX 3080 10 GB GA102 8704 320 bit 10 GB GDDR6X 19 Gbps 320W
GeForce RTX 3080 Ti GA102 10240 384 bit 12 GB GDDR6X 19 Gbps

350W

GeForce RTX 4080 AD103 9728 256 bit 16 GB GDDR6X 22,4 Gbps 320W

RTX 2080 e RTX 2080 Super sono basate sulla GPU TU104, una soluzione da 545 mm2 con 13,6 miliardi di transistor. La scheda GeForce RTX 2080 integra 2944 CUDA core, 184 TMU 64 ROPs, 368 Tensor core e 46 RT core, oltre a 8 GB di memoria GDDR6 su bus a 256 bit. La RTX 2080 SUPER si basa sulla forma completa della GPU TU104: 3072 CUDA core, 192 TMU, 64 ROPs, 384 Tensor core e 48 RT core. Stesso quantitativo di memoria per la RTX 2080 Super.

La RTX 2080 Ti rappresenta l'unico modello basato sulla GPU TU102 e figura ben 4352 CUDA core, 272 TMU, 88 ROPs, 544 Tensor Core e 68 RT core. Il chip grafico occupa un'area di 754 mm2 e conta 18,6 miliardi di transistor. Sulla scheda trovano posto 11 GB di memoria GDDR6 su bus a 352 bit.

La serie GeForce RTX 3000 prevede tre soluzioni della serie 80, ma ne avevamo solo due a disposizione, la 3080 10 GB e la 3080 Ti 12 GB. In commercio è anche arrivata una 3080 12 GB, di cui ci siamo occupati in questo articolo comparativo se siete interessati alle differenze sia tecniche che prestazionali.

Tutte le soluzioni sono basate sulla GPU di punta della scorsa generazione di NVIDIA, chiamata GA102: si tratta di un chip che, in un'area di 628 mm2, ospita 28,3 miliardi di transistor. A produrla è Samsung con il processo 8N. La RTX 3080 10 GB prevede 8704 CUDA core, 272 TMU e 96 ROPs, mentre Tensor core e RT core sono pari rispettivamente a 272 e 68 unità. La scheda ha 10 GB di memoria GDDR6X su bus a 320 bit.

La RTX 3080 Ti vede al centro un GA102 con un maggior numero di unità attive: 10240 CUDA core, 320 TMU e 112 ROPs, mentre Tensor core e RT core sono pari rispettivamente a 320 e 80 unità. La scheda ha 12 GB di memoria GDDR6X su bus a 384 bit.

Infine, arriviamo alla nuova GeForce RTX 4080. La scheda è basata su una GPU AD103 prodotta da TSMC con processo 4N. Al suo interno 45,9 miliardi di transistor in un'area di 378,6 mm2. Il chip grafico è dotato di 9728 CUDA core, 304 TMU e 112 ROPs, mentre Tensor core e RT core sono pari rispettivamente a 304 e 76 unità. La scheda ha 16 GB di memoria GDDR6X su bus a 256 bit.

Consumi

Prima di procedere nell'analisi prestazionale, abbiamo deciso di dare un'occhiata ai consumi in-game delle diverse soluzioni. Abbiamo generato due grafici, uno sui consumi in Full HD e uno per quelli 4K: da quest'ultimo sono state escluse le soluzioni che per limiti d'età non consentono di giocare a un frame rate nemmeno vagamente sufficiente a tale risoluzione. Per il test abbiamo scelto una run del benchmark integrato in Hitman 3 (senza RT e DLSS) e una rappresentante per ogni serie, la top di gamma di quella famiglia:

Come avete visto nella tabella riepilogativa delle specifiche tecniche, un gran numero di schede ha un TGP di 250W, mentre la RTX 3080 Ti si spinge fino a 350W e la RTX 4080 si ferma invece a 320W. Dai grafici potete vedere come la RTX 3080 Ti si comporti particolarmente male con Hitman 3, mentre la RTX 4080 risulti la meno affamata di energia in Full HD e non troppo esigente nemmeno in 4K.

Questa situazione ci dà modo di approfondire un attimo cosa significa TGP. Secondo NVIDIA, si tratta del limite massimo di potenza legato al GPU Boost. In scenari di grande carico per la scheda video, la potenza richiesta dalla GPU potrebbe raggiungere il limite massimo indicato dal TGP, con la frequenza di GPU Boost che cambia entro i limiti di potenza e termici. Tuttavia, nei casi in cui la GPU è frenata dalla CPU o la GPU sta svolgendo dei carichi di lavoro leggeri, il consumo energetico della GPU potrebbe essere molto inferiore a quello del TGP.

In quei casi la frequenza GPU Boost potrebbe raggiungere il dato di clock massimo, portando quindi l'efficienza della GPU al livello migliore. Nella maggior parte delle condizioni operative, inclusi molti carichi di lavoro gaming, ciò consente alle GPU di ultima generazione di consumare meno energia rispetto al TGP.

Con l'ultima architettura Ada Lovelace, le novità implementate da NVIDIA consentono alle schede di consumare meno del TGP in diversi casi, in quanto il progetto è molto più efficiente dal punto di vista energetico, permettendo agli algoritmi di GPU Boost di continuare ad aumentare il clock finché non viene raggiunto un limite.

Con la precedente architettura Ampere, invece, quel limite era tipicamente il tetto della potenza. Dal momento che Ada richiede meno energia in generale, si raggiungono prima altri limiti, ad esempio clock/voltaggio massimi, ed è possibile ridurre il livello di potenza complessivo per risparmiare energia. Ogni gioco, infine, richiede diversi livelli di potenza della GPU e il consumo varia a seconda delle impostazioni grafiche e delle risoluzioni impostate.

Prezzi, l'evoluzione

Il prezzo della GeForce RTX 4080 - per comodità parliamo del listino in dollari - è sicuramente molto elevato, non c'è assolutamente dubbio. Si può discutere all'infinito se quanto stabilito da NVIDIA sia o no corretto, se doveva essere più basso di 100-200 dollari o se invece è giusto in base alle caratteristiche complessive del prodotto. La nostra opinione, che concordiate o no, la trovate nella recensione. Questa retrospettiva ci dà modo però di vedere a quale prezzo sono arrivare nei negozi le varie proposte della serie 80 degli ultimi dieci anni:

 Modello e anno Prezzo all'uscita ($)
GeForce GTX 780 (2013) 649$
GeForce GTX 780 Ti (2013) 699$
GeForce GTX 980 (2014) 549$
GeForce GTX 980 Ti (2015) 649$
GeForce GTX 1080 (2016) 599$
GeForce GTX 1080 Ti (2016) 699$
GeForce RTX 2080 (2018) 699$
GeForce RTX 2080 SUPER (2019) 699$
GeForce RTX 2080 Ti (2018) 999$
GeForce RTX 3080 10 GB (2020) 699$
GeForce RTX 3080 Ti (2021) 1199$
GeForce RTX 4080 (2022) 1199$

Per gran parte del decennio la serie 80 non ha sforato il tetto dei 699 dollari, ma dall'avvento delle proposte GeForce RTX, che hanno segnato l'avvento di ray tracing e DLSS, si è dapprima saliti a 999 dollari e poi agli attuali 1199 dollari.

Cos'è cambiato? Letteralmente il mondo intero, a cui si aggiunge l'attuale contesto economico con costi molto elevati rispetto anche solo a uno o due anni fa. Sono molteplici le notizie sugli aumenti dei prezzi produttivi praticati da TSMC e altre fonderie.

In tal senso, se uno valuta la GeForce RTX 4080 con la migliore espressione della serie 80 della famiglia RTX 3000, avrebbe poco di che lamentarsi. Certo, è una magra consolazione. Tutti vorremmo una RTX 4080 a 700-800 dollari, ma al momento non sembra essere possibile per molteplici fattori, tra cui ovviamente rientra anche una decisione di business di NVIDIA.

Il mercato drogato da miner e scalper degli anni scorsi ha certamente testato i nuovi limiti di spesa degli appassionati. Questo sicuramente non è passato inosservato a NVIDIA, la quale si è sentita abbastanza tranquilla nel fissare prezzi elevati senza il timore di non vendere le schede. Un po' la politica di Apple, che nel corso degli anni ha alzato i listini e frammentato l'offerta, senza riscontrare vere e proprie battute d'arresto nella propensione all'acquisto dei suoi prodotti da parte dei consumatori. Forse l'arrivo della concorrenza indurrà NVIDIA a un ritocco del listino? Staremo a vedere.

Prestazioni

Arriviamo alle prestazioni, sicuramente l'aspetto più atteso di questo articolo. Dobbiamo premettere che in alcuni test non vedrete le GeForce GTX 780 e 780 Ti in quanto, a causa di crash legati anche a driver estremamente datati, non sempre le schede ci hanno permesso di effettuare i benchmark. Un'altra premessa riguarda i test alle differenti risoluzioni, con i modelli delle famiglie GTX 700 e 900 testati solo in Full HD perché altrimenti sarebbero stati quasi sempre sovrastati dal carico. Detto questo, passiamo al primo titolo, Borderlands 3:

Il salto dalla GTX 780 alla RTX 4080 in questo gioco, in Full HD, è superiore al 900%. Dalla GTX 980 alla 4080, sempre alla stessa risoluzione, il balzo è del 500%. Se facciamo un balzo alla RTX 2080 Ti, il gap con la RTX 4080 è "solo" del 95%. Passando alla risoluzione 4K, osserviamo come dalla GTX 1080 Ti alla nuova arrivata vi sia un gap del 170% circa.

In 4K il titolo di CD Projekt RED si dimostra un bel carico anche per la RTX 4080. In Full HD, invece, si osserva come la 3080 Ti e la 4080 siano appaiate, come se il gioco non scalasse correttamente con la nuova architettura.

Dai 17 fps della GTX 780 ai 162 fps della RTX 4080 c'è un balzo dell'850% circa. Alla stessa risoluzione, il miglioramento è del 170% se prendiamo la GTX 1080. Tornando al 4K, vediamo che dalla regina della serie RTX 2000 a questa nuova proposta Ada Lovelace c'è un progresso del 100%.

Di seguito il resto dei benchmark: in alcuni si può notare come il gap tra la 4080 e la generazione precedente non sia sempre così ampio in Full HD, confermando l'anima 4K dei questa nuova soluzione.

Flight Simulator mostra l'anima CPU limited del titolo. A tal proposito vi suggeriamo di dare un'occhiata alla recensione della RTX 4080 per vedere come il DLSS 3 aiuti proprio in quei casi, molto più del DLSS 2.

Per quanto riguarda Hitman 3, dobbiamo specificare che a causa delle impostazioni del benchmark, le GPU della serie 700 sono state provate con qualità texture su Standard anziché Extra. Non un cambiamento decisivo, come potete vedere dai numeri.

Conclusioni

Fermo restando che le schede video di NVIDIA odierne possono fare molto, ma molto di più rispetto a una GPU dell'era pre-RTX, e non solo in termini di ray tracing e DLSS ma anche per quanto concerne altre funzionalità legate all'intelligenza artificiale, in questa fotografia sull'evoluzione della serie 80 non potevamo far altro che concentrarci sull'unico terreno di sfida possibile, il gaming tradizionale, o detta più tecnicamente il rendering basato sulla rasterizzazione.

Nel grafico sintetico che vedete qui sopra, legato alla sola risoluzione Full HD e da cui abbiamo escluso i titoli in cui le GTX 700 e 900 non funzionano, possiamo vedere come una decina d'anni circa ha portato a un incremento spropositato delle prestazioni. Pesa molto il benchmark The Rifbreaker, ma anche rimuovendolo la RTX 4080 si dimostra il 740% più veloce della GTX 780.

Passando invece alla altre risoluzione e prendendo come riferimento la scheda GeForce GTX 1080, osserviamo come la risoluzione pesi molti, con il modello GeForce RTX 4080 che stacca la concorrenza in modo sempre più netto passando prima al WQHD e poi al 4K.

Andando a focalizzarci invece sul salto prestazionale da una famiglia all'altra, e prendendo solo gli esponenti "non Ti", vediamo quanto segue:

  • La GeForce GTX 980 garantisce prestazioni il 51% migliori in Full HD rispetto alla GTX 780
  • Il balzo in avanti dalla GTX 980 alla GTX 1080 in Full HD è decisamente più sensibile: +143%.
  • Il miglioramento dalla GTX 1080 alla RTX 2080 è intorno al 51-55% a seconda della risoluzione.
  • Passando dalla RTX 2080 alla RTX 3080 osserviamo un balzo del 50% in Full HD, del 64% in WQHD e del 69% in 4K.
  • Infine, dalla RTX 3080 10 GB alla RTX 4080 l'aumento delle prestazioni segue questa progressione: +21% in Full HD, +37% in WQHD e +49% in 4K.

La GeForce RTX 4080 si conferma quindi una scheda proiettata, così come la sorella maggiore RTX 4090 che è decisamente più potente, alla risoluzione 4K: in Full HD le sue ali sono evidentemente tarpate.

La nuova arrivata non segna il miglioramento più marcato nel confronto tra GPU della serie 80, ma la nostra è una visione parziale perché il settore grafico si sta evolvendo e sempre di più. NVIDIA, AMD e Intel punteranno nel miglioramento delle prestazioni con carichi come il ray tracing più che la rasterizzazione, comunque importante.

A questo quadro si devono necessariamente aggiungere le tecnologie come il DLSS, ormai una realtà di cui tenere conto in pianta stabile. Siamo quindi in un settore in grande fermento, dove l'impatto di processi produttivi costosi e la costante ricerca e sviluppo stanno però portando i prezzi a salire. A nostro giudizio per ora sono su un filo di "sottile decenza", ma oltre non si può e non si deve andare. Arriveranno tempi migliori, lo speriamo.

55 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7719 Dicembre 2022, 15:23 #1
In primis: 10 e lode per l'articolo.
Adoro questo tipo di comparative che rendono davvero bene il quadro evolutivo nel tempo.

Scontato dirlo: la tabella che fa più impressione è quella dei prezzi al lancio.
bonzoxxx19 Dicembre 2022, 15:43 #2
90 minuti di applausi, questi sono gli articoli che adoro leggere.

Bravo!
Zappz19 Dicembre 2022, 15:58 #3
Originariamente inviato da: demon77
In primis: 10 e lode per l'articolo.
Adoro questo tipo di comparative che rendono davvero bene il quadro evolutivo nel tempo.

Scontato dirlo: la tabella che fa più impressione è quella dei prezzi al lancio.


Se si esclude la 4080 e le versioni ti, tutte la xx80 hanno sempre mantenuto un prezzo simile.

È la 4080 ad essere completamente fuori prezzo.
bonzoxxx19 Dicembre 2022, 16:08 #4
A 699€ avrebbe letteralmente demolito tutto, sia le GPU nvidia che AMD, anche la TOP di gamma 4090.

Vediamo se cala di prezzo ma qualcosa mi dice che rimarrà li ancora per un po
fukka7519 Dicembre 2022, 16:11 #5
La mia 970 si difende ancora bene [SPOILER]con i giochi del 2010 [/SPOILER]
giugas19 Dicembre 2022, 16:26 #6
Articolo interessantissimo. Complimenti!
ninja75019 Dicembre 2022, 16:29 #7
Originariamente inviato da: bonzoxxx

Vediamo se cala di prezzo po


Link ad immagine (click per visualizzarla)
bonzoxxx19 Dicembre 2022, 16:36 #8
Originariamente inviato da: ninja750


Alodesign19 Dicembre 2022, 16:43 #9
500$ in più nel giro di 12 mesi non ha scusanti ne parole.

Anzi ne ha solo una: "Speculazione".

Imbarazzanti.
thelittlesniper19 Dicembre 2022, 16:58 #10
Complimenti per l'articolo, davvero ben fatto ed esaustivo ma senza perdersi in dettagli inutili!!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^