RTX Titan Ada, prototipo testato da der8auer: 18432 core, 48 GB di memoria e due connettori a 16 pin

RTX Titan Ada, prototipo testato da der8auer: 18432 core, 48 GB di memoria e due connettori a 16 pin

Un prototipo quasi definitivo della RTX Titan Ada è stato testato dal noto overclocker der8auer. Dotata di 48 GB di VRAM e GPU AD102 completamente attiva, supera la RTX 4090 in efficienza e prestazioni. Nonostante l'avanzato sviluppo, NVIDIA ha scelto di non commercializzarla, probabilmente per motivi strategici.

di pubblicata il , alle 08:32 nel canale Schede Video
NVIDIATitanGeForceRTXLovelace
 

Un prototipo inedito e quasi definitivo della RTX Titan Ada è stato testato dal noto overclocker e youtuber Roman Hartung, meglio conosciuto come der8auer. Si tratta di una scheda grafica mai ufficialmente rilasciata da NVIDIA, equipaggiata con una GPU AD102 completamente abilitata e ben 48 GB di memoria GDDR6X. La sua esistenza, fino ad ora oggetto di speculazioni, è stata confermata dai test effettuati sul modello ricevuto da una fonte ignota.

La scheda presenta un design imponente a quattro slot, con un PCB disposto trasversalmente e due connettori di alimentazione 12VHPWR/12V-2x6. Il power limit è fissato a 450 W, ma la presenza dei due connettori suggerisce la possibilità di un assorbimento massimo ben superiore, fino a 1200 Watt. Dal punto di vista estetico e costruttivo, il prototipo è coerente con il design della serie GeForce RTX 4000, a fronte una colorazione dorata. Sono presenti tre uscite DisplayPort 1.4 e una HDMI 2.1.

Dal punto di vista tecnico, la RTX Titan Ada si distingue per la completa attivazione del chip AD102, con 144 Streaming Multiprocessor (SM), equivalenti a 18.432 CUDA core. Si tratta di un incremento del 12,5% rispetto alla RTX 4090 e due SM attivi in più rispetto alla scheda professionale RTX 6000 Ada. La bandwidth di memoria resta invariata (circa 1 TB/s), grazie a un'interfaccia a 384 bit e a una velocità di memoria di 21 Gbps.

I benchmark preliminari, realizzati con driver non aggiornati a causa della natura prototipale della scheda, indicano che la RTX Titan Ada supera la RTX 4090 del 22% in Cyberpunk 2077, con un aumento del consumo del 17%. Anche nel test sintetico Time Spy Extreme si osservano risultati simili, con un gap dalla RTX 5090 ridotto a -11%. In generale, la RTX Titan Ada si è dimostrata più efficiente delle controparti ufficiali, nonostante l'elevata potenza richiesta. Il sistema di raffreddamento è stato giudicato efficiente e silenzioso, in linea con quanto già osservato nella RTX 4090 Founders Edition, nonostante l'incremento di potenza.

Non è chiaro perché NVIDIA abbia deciso di non immettere sul mercato questa scheda, nonostante lo stadio avanzato del prototipo. Una possibile spiegazione potrebbe risiedere nella volontà di non oscurare il successivo lancio delle GPU basate sull'architettura Blackwell. La RTX Titan Ada, con prestazioni intermedie tra la RTX 4090 e la 5090, avrebbe potuto ridurre sensibilmente l'impatto della nuova generazione, soprattutto considerando i 48 GB di VRAM, superiori ai 32 GB offerti dalla RTX 5090.

In attesa di eventuali ulteriori dettagli, il prototipo della RTX Titan Ada resta una testimonianza concreta di una strada intrapresa e poi abbandonata da NVIDIA, probabilmente per motivi strategici legati al posizionamento di mercato delle GPU di fascia enthusiast.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Marco7112 Maggio 2025, 08:53 #1

Un mondo quello umano ormai allo sbando completo

Anche e soprattutto in ambito tecnologico con "oggetti" del genere in grado di assorbire potenze mostruose in Watt dalla rete elettrica.
Con un rapporto nel rapporto potenza di calcolo/Watt ridicolo.
Ed andiamo avanti cosi'.

Marco71
WarDuck12 Maggio 2025, 09:26 #2
Originariamente inviato da: Marco71
Anche e soprattutto in ambito tecnologico con "oggetti" del genere in grado di assorbire potenze mostruose in Watt dalla rete elettrica.
Con un rapporto nel rapporto potenza di calcolo/Watt ridicolo.
Ed andiamo avanti cosi'.

Marco71


Beh non credo che a livello di efficienza FLOPS/Watt queste schede siano messe così male, chiaramente se vuoi tanti FLOPS devi tenere in conto di assorbire tanti Watt.

Del resto sono schede pensate per il calcolo e ad oggi è difficile fare meglio di una GPU per determinati tipi di calcolo. Anche l'uso di FPGA non è più così conveniente (senza considerare poi tempi di sviluppo e costi).

Sperabilmente le generazioni successive faranno meglio.

Il problema più che altro è cosa ci viene fatto con queste schede.

In ogni caso 4 slot occupati (così come 3) sono una follia.
UtenteHD12 Maggio 2025, 10:00 #3
A me avevano insegnato che l'ottimo rapporto tra watt e potenza di calcolo si ha con le entry level, poi piu' si sale in necesseta' di prestazioni e piu' il rapporto cambia andando sul non proporzionale, perche' anche se aumentano i consumi drasticamente, la potenza ottenuta aumenta ma e' inferiore al consumo richiesto, ottenendo cosi' una sproporzione tra consumi e potenza ottenuta, anche per questo la Tecnologia si evolve e migliora andando a dare piu' potenza con minor consumi.
Ad esempio lo nota benissimo chi gioca in UNDERclock, basta limitare un po' la freq GPU (no la VRAM ovviamente) per avere degli ottimi risparmi energetici con dei leggeri cali di prestazioni facilmente fixabili ingame.
AceGranger12 Maggio 2025, 11:34 #4
Originariamente inviato da: Marco71
Anche e soprattutto in ambito tecnologico con "oggetti" del genere in grado di assorbire potenze mostruose in Watt dalla rete elettrica.
Con un rapporto nel rapporto potenza di calcolo/Watt ridicolo.
Ed andiamo avanti cosi'.

Marco71


il rapporto potenza di calcolo/watt è ottimo.

al massimo sono determinati TIPI di calcolo ( aka videogiochi ) che scalano male, ma i chip in se sono sempre piu efficienti di generazione in generazione.

Originariamente inviato da: UtenteHD
A me avevano insegnato che l'ottimo rapporto tra watt e potenza di calcolo si ha con le entry level, poi piu' si sale in necesseta' di prestazioni e piu' il rapporto cambia andando sul non proporzionale, perche' anche se aumentano i consumi drasticamente, la potenza ottenuta aumenta ma e' inferiore al consumo richiesto, ottenendo cosi' una sproporzione tra consumi e potenza ottenuta, anche per questo la Tecnologia si evolve e migliora andando a dare piu' potenza con minor consumi.
Ad esempio lo nota benissimo chi gioca in UNDERclock, basta limitare un po' la freq GPU (no la VRAM ovviamente) per avere degli ottimi risparmi energetici con dei leggeri cali di prestazioni facilmente fixabili ingame.


eh mi sa che ti hanno insegnato veramente male
Link ad immagine (click per visualizzarla)

entry lvl, fascia media, o top vuol dire tutto e niente, dipende da come tagliano i chip e da quanto vuoi spendere per avere tot prestazioni; in passato non ricordo ma sono un botto di generazioni che la fascia alta è sempre piu efficiente delle altre.

l'underclock lo fai anche sulle TOP gamma...

contando poi che i giochi notoriamente tendono a scalare pure male, con software di calcolo altamente scalabili come render quel grafico sarebbe ancora piu a favore delle GPU TOP gamma.
Gringo [ITF]12 Maggio 2025, 12:16 #5
Sarei curioso di vedere come "gira" Cyberpunk su Intel Pontevecchio....
paolo.oliva212 Maggio 2025, 14:21 #6
Originariamente inviato da: UtenteHD
A me avevano insegnato che l'ottimo rapporto tra watt e potenza di calcolo si ha con le entry level, poi piu' si sale in necesseta' di prestazioni e piu' il rapporto cambia andando sul non proporzionale, perche' anche se aumentano i consumi drasticamente, la potenza ottenuta aumenta ma e' inferiore al consumo richiesto, ottenendo cosi' una sproporzione tra consumi e potenza ottenuta, anche per questo la Tecnologia si evolve e migliora andando a dare piu' potenza con minor consumi.
Ad esempio lo nota benissimo chi gioca in UNDERclock, basta limitare un po' la freq GPU (no la VRAM ovviamente) per avere degli ottimi risparmi energetici con dei leggeri cali di prestazioni facilmente fixabili ingame.


Il tuo discorso sarebbe corretto a parità di caratteristiche... per esempio una CPU X8, dove la migliore selezione del modello top sarebbe comunque persa per ottenere una prestazione maggiore, fuori curva silicio ottimale, dove ovviamente la percentuale del consumo sarebbe superiore rispetto alla percentuale in prestazioni... ma ovviamente sempre assolutamente meglio da ciò che si otterrebbe dal die meno selezionato.

Però qui si parla anche di aumento dei core, ram e quant'altro, quindi l'aumento prestazionale lo si ottiene per un aumento dell'hardware, il tutto fatto lavorare a frequenze inferiori e quindi in una curva silicio più efficiente.
niky8912 Maggio 2025, 17:12 #7
Cioè scusate fate un articolo su un video fatto da altri? Non testate voi i prodotti?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^