GeForce Beyond, dove e quando vedere l'evento di presentazione delle nuove GPU NVIDIA
Mancano solo poche ore all'annuncio delle prime GeForce RTX 4000, le nuove schede video gaming di NVIDIA. Vediamo insieme quando ci sarà l'evento, dove seguirlo e cosa aspettarsi in base alle indiscrezioni trapelate sinora.
di Manolo De Agostini pubblicata il 20 Settembre 2022, alle 10:01 nel canale Schede VideoNVIDIAGeForceLovelaceRTXschede video top di gammagaming hardware
Oggi 20 settembre è il giorno delle GeForce RTX 4000, le nuove schede video di NVIDIA. Dopo tante chiacchiere e anticipazioni più o meno azzeccate, conosceremo finalmente tutta la verità sulla lineup di lancio delle schede basate su architettura Ada Lovelace.

Il sito Videocardz ha pubblicato l'immagine della RTX 4090 FE mostrata da Jensen durante l'evento
All'evento GeForce Beyond, nell'ambito della GTC 2022, il CEO Jensen Huang mostrerà per la prima volta le schede in versione Founders Edition, illustrandone i principali miglioramenti tecnici e i conseguenti progressi prestazionali. Sapremo anche la data di arrivo sul mercato e, probabilmente, anche i prezzi.
L'evento prenderà il via alle 17:00 ora italiana e potrete seguirlo su YouTube o su Twitch. Dopo l'evento, NVIDIA consiglia di visitare GeForce.com per ulteriori informazioni.
Cosa aspettarsi? Le indiscrezioni prima del lancio
NVIDIA dovrebbe presentare tre modelli GeForce RTX 4090, RTX 4080 e RTX 4070. La top di gamma dovrebbe essere la prima ad arrivare sul mercato, nel corso di ottobre, mentre le altre proposte sbarcheranno successivamente ma, stando alle voci, sempre entro l'anno.
L'architettura Ada Lovelace dovrebbe rappresentare un importante salto in avanti rispetto ad Ampere, ad esempio sappiamo che ci sarà un grande incremento della cache L2 in modo da mantenere più dati vicino alle unità di calcolo. Auspicabili, inoltre, passi avanti decisi sul fronte della gestione del ray tracing grazie a rinnovati RT core e Tensor core.

In base alle ultime indiscrezioni, la GeForce RTX 4090 dovrebbe avere una GPU AD102 con 16384 CUDA core attivi. La memoria, 24 GB di tipo GDDR6X, sarebbe impostata a 21 Gbps per una bandwidth pari a circa 1 TB/s per mezzo del bus a 384 bit. Per quanto concerne il TGP, quello di default sarebbe pari a 450W, come quello della RTX 3090 Ti.
La GeForce RTX 4080, invece, potrebbe arrivare in due versioni. Il modello più potente avrebbe una GPU AD103 con 9728 CUDA core e 16 GB di memoria GDDR6X a 23 Gbps su bus a 256 bit, per una bandwidth di 736 GB/s. Il TGP, invece, sarebbe impostato a 340W.
L'altra GeForce RTX 4080 dovrebbe invece avere 12 GB di memoria GDDR6X a 21 Gbps, con un bus a 192 bit che porterebbe la bandwidth a 504 GB/s. In passato una tale quantità di memoria era stata addebitata alla RTX 4070 Ti o alla RTX 4070, ma a quanto pare NVIDIA avrebbe deciso di proporre una coppia di RTX 4080.
I due modelli di RTX 4080 dovrebbero arrivare sul mercato nelle prime due settimane di novembre. La GPU a bordo della seconda RTX 4080 dovrebbe prendere il nome di AD104 e offrire 7680 CUDA core. Quanto al TGP, il valore di default sarebbe 285W.
Se così dovesse andare, la presunta GeForce RTX 4070 potrebbe basarsi sempre su una GPU AD104 ma con soli 7168 CUDA core, affiancati da 10 GB di memoria GDDR6X a 21 Gbps su bus a 160 bit. La scheda potrebbe essere accompagnata da un TGP di 250W e arrivare tra fine novembre e inizio dicembre. Tutte queste specifiche, chiaramente, non sono da ritenersi ufficiali e sono da prendere con le pinze, la verità la scopriremo dalle 17:00 in poi.
| |










Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Le novità ASUS per il 2026 nel settore dei PC desktop
NVIDIA ed Eli Lilly: un laboratorio AI congiunto per accelerare la scoperta dei farmaci
Un PC da gaming costa troppo? Con questa UEFI, anche avviarlo diventa un gioco impegnativo
Non solo iPhone: è questa la vera macchina da soldi di Apple
Rigenerazione territoriale: Huawei trasforma la Certosa di Padula in un hub di innovazione
Batteria e-bike a rischio incendio? L'ingenua soluzione di un utente (e i rimedi reali in vendita)
Assetto Corsa Evo: i dintorni del Nordschleife mostrati in video. La mappa arriverà nel 2026
HP pronta a introdurre memorie cinesi in Europa per combattere la crisi della DRAM?
Apple supera Samsung e conquista la leadership del mercato smartphone nel 2025 grazie agli iPhone 17
L'UE vuole il nostro feedback sull'open source: l'obiettivo è ridurre il legame con le tecnologie non europee
Polestar chiude in crescita il 2025, nuovo record di vendite annuali
Stranger Things sbarca sui device Samsung Galaxy: il nuovo tema esclusivo è a tempo
Grok finisce sotto indagine nel Regno Unito per la generazione di contenuti pornografici
Arriva in Italia il nuovo marchio iCAUR, SUV e fuoristrada dell'universo Omoda-Jaecoo
Obiettivo raggiunto: mille tablet OPPO consegnati con il supporto dell'UNESCO









8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAnche nei consumi !
Basta solo che troviate il Coreano che vi prende a schiaffi nella metro.
Non mi sembra che vi sia stata gente che si è suicidata quando è 3090Ti è stata proposta. AMD consuma 50W in meno (su 450) e prestazioni leggermente inferiori, eh, non è che consuma la metà andando il doppio. Ed è su un PP migliore di quello Samsung usato da Nvidia, per cui vediamo chi fa il balzo più grande.
Comunque già si sa che uscirà la 4090Ti con un TBP enorme (e prestazioni super, e consideriamo che i consumi dichiarati includono già quelli della memoria e si parla di 48GB a velocità pazzesche per questa scheda) e tutti diranno "Nvidia consuma come una stufa" facendo cadere le caratteristiche della top gamma anche sulle altre.
E' quello che succede sempre a chi si fa trascinare dai discorsi come pecore. Tipo Alder Lake.. consuma come una stufa, consuma il doppio di Zen3... e poi invece ti accorgi che lo fa solo il 12900K che ha meno core del 5950X ed è tirato per raggiungere le stesse prestazioni, poveretto (lui e chi lo compra per avere le prestazioni del 5950X).
Nessuno sembra essersi accorto che il 12600K dà la biada al 5800X e consuma uguale (e il 5800X quando è sotto stress non consuma certo i 105W dichiarati da AMD).
Tutti guardano solo il top e fanno cadere pregi e difetti su tutte le altre categorie.
Come i caproni che devono necessariamente belare, altrimenti non si sentono qualcuno nella vita e vengono a loro mancare le sicurezza su cui hanno costruito la loro realtà (relativa) e si devono sentire confortati in qualche maniera dicendo quello che dicono tutti gli altri.. d'altronde se lo dicono in tanti dovrà pur essere giusto, no?
Come i caproni che devono necessariamente belare, altrimenti non si sentono qualcuno nella vita e vengono a loro mancare le sicurezza su cui hanno costruito la loro realtà (relativa) e si devono sentire confortati in qualche maniera dicendo quello che dicono tutti gli altri.. d'altronde se lo dicono in tanti dovrà pur essere giusto, no?
Mi ricorda la barzelletta del pastore che ogni tanto, nella solitudine, sfogava
i suoi istinti bestiali violentando qualche capra.
All'inizio la capra belava da pazzi, per paura...
Bheeeeeeeeeee! Bheeeeeeeeeee! Bheeeeeeeeeee! Bheeeeeeeeeee!
poi man mano ci prendeva gusto e allora ...
Bhe!
Ma dai che si scherza... e poi è solo tutta i_Nvidia
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".