View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
amon.akira
01-05-2022, 01:33
io spero sempre nel cut ad102 anche per controbattere rdna3
certo poi se fosse ad103 vorrei almeno 2.5ghz
io spero sempre nel cut ad102 anche per controbattere rdna3
certo poi se fosse ad103 vorrei almeno 2.5ghz
Quello lo avrai comunque in qualunque salsa che lo chiamino 3080/ti/90 e titan poco importa...
L'unica cosa che può far storcere il naso è solo l'assenza di AD103 per desktop, il che creerebbe un vuoto troppo grosso...
Personalmente se la 4060ti la ricavano da AD104 sarà il chip per il quale opterò, dovrebbe allinearsi a 3080 e avere 12GB di vram, AD106 l'hanno fatto a 128bit e non mi va proprio giù con quegli 8GB anche se poi all'atto pratico si va ad allineare alle 2080/3060ti e simili quindi rimarrebbe bilanciato, da vedere come si comporterà nei test...
mikael84
01-05-2022, 11:35
io spero sempre nel cut ad102 anche per controbattere rdna3
certo poi se fosse ad103 vorrei almeno 2.5ghz
A me fa storcere il naso l'idea di continuare con il monolitico, quando è palese che siamo arrivati ai limiti.
Non a caso, ci sarà un chippone d'elite e gli altri chippetti mid-medio bassi.
A sto punto spero che JHH abbia realmente tratto vantaggio dalla cache e che dia un decente contributo, perchè è di dimensioni notevoli.
Su ampere doveva essere il primo punto IPC e si pensava ai 12/24mb, invece per via del nodo non si fece più nulla.
96mb di cache a 8nm risulterebbero più grandi e densi di tutto GA102.
Un GPC dovrebbe essere da 52mm2, quel tanto di spazio è pari a 14 GPC (21504 cuda):)
https://i.postimg.cc/63HsPmGH/cache.png
Aggiungo, hanno riportato questo, proprio ora.
Beh, se fosse così, gli aumenti sui consumi ci stanno.
https://i.postimg.cc/xCwzHn0H/clock.png
https://wccftech.com/amd-radeon-rx-7900-xt-rdna-3-navi-31-gpu-graphics-card-100-tflops-3-ghz-rumor/
mikael84
01-05-2022, 11:46
Quello lo avrai comunque in qualunque salsa che lo chiamino 3080/ti/90 e titan poco importa...
L'unica cosa che può far storcere il naso è solo l'assenza di AD103 per desktop, il che creerebbe un vuoto troppo grosso...
Personalmente se la 4060ti la ricavano da AD104 sarà il chip per il quale opterò, dovrebbe allinearsi a 3080 e avere 12GB di vram, AD106 l'hanno fatto a 128bit e non mi va proprio giù con quegli 8GB anche se poi all'atto pratico si va ad allineare alle 2080/3060ti e simili quindi rimarrebbe bilanciato, da vedere come si comporterà nei test...
Si con AD103 dovrebbero riabilitare le TI.
Un chip come AD102 avrà sicuramente partizioni di cache fallata. Per dire gli HPC, sono due anni che anche i chip più puri nascono fallati in cache.
Quella potrebbe essere la 4080ti, magari arriverà in seguito.:)
A sto punto è logico aspettarsi la 4060ti (cut di ad104), magari a 6144cc ed un cut di AD103 (4070ti).
In un modo o nell'altro, avremmo downgrade in certe fasce, ma una situazione allineata con AMD:
AD102:navi31
ad103: navi32
ad104: navi 33
ad106: navi 34
amon.akira
01-05-2022, 22:47
A me fa storcere il naso l'idea di continuare con il monolitico, quando è palese che siamo arrivati ai limiti.
be si ampere doveva essere l ultimo monolitico nvidia, poi hanno rinviato a lovelace, forse (non so ipotizzo) hanno avuto difficoltà sulle latenze.
mikael84
02-05-2022, 00:44
be si ampere doveva essere l ultimo monolitico nvidia, poi hanno rinviato a lovelace, forse (non so ipotizzo) hanno avuto difficoltà sulle latenze.
Si latenze soprattutto, io è da tempo che seguo il progetto, ma JHH pare in alto mare. E' da 5/6 anni che se ne discute.
Praticamente AD102, avrà 144 SM da 18432, con accesso L0/L1/l2 condiviso.
Con il profilo MCM, dovresti creare almeno 4 mini die da 36 SM e 4608 cc, chiamati GPM, capaci di condividere tutto internamente, ma non a livello di l2/bw, che rimangono separati. Di conseguenza l'accesso tra i vari GPM crea varie latenze, con il risultato che è sempre più complesso mantenere un'alta parallelizzazione dati, già complessa con il monolitico.
Ampere infatti, al contrario di Pascal-Maxwell sfrutta meno le unità di calcolo, per troppi stadi in idle.
Nel 2020 ci ha riprovato in ambito HPC per calcoli TOPS, ma il risultato è che non abbiamo ancora visto questi chip.
Una interfaccia da 4 GPM comandava 8 core (ognuno integrava 16 unità), entrambi collegati a 8 canali nvlink ed un core risk (warp). Molto più semplice per via delle gerarchie di cache.:)
Thunder-74
02-05-2022, 13:08
dagli ultimi rumors, sembra che le AMD RDNA 3 saranno meno potenti di quanto inizialmente si parlasse. Del tipo che la top di gamma passerebbe da 15360 a 12288 stream processors , da 92 a 73 TFLOPS.
LINK (https://videocardz.com/newz/amd-rdna3-gpus-get-new-toned-down-specifications-navi-31-with-up-to-12288-stream-processors)
Se confermano prima del lancio di nVidia, mi aspetto una segmentazione differente dei propri processori da parte dei "verdi"...
Ecco perché le nVidia, rispetto alle prime voci, sembrano castrate, le Amd sono meno potenti del previsto e nVidia ha ricalibraro al ribasso.
Ma quando dovrebbero uscire queste prossime gpu?
Ci si aspetta un altra generazione fetecchia con guadagni marginali in prestazioni ma incrementi di prezzi elevati?
Si presume 4 trimestre di quest'anno.
A me non sembra che Ampere abbia potato pochi miglioramenti prestazionali, se consideri che già una 3070 equivale ad una 2080TI :)
mikael84
02-05-2022, 14:38
dagli ultimi rumors, sembra che le AMD RDNA 3 saranno meno potenti di quanto inizialmente si parlasse. Del tipo che la top di gamma passerebbe da 15360 a 12288 stream processors , da 92 a 73 TFLOPS.
LINK (https://videocardz.com/newz/amd-rdna3-gpus-get-new-toned-down-specifications-navi-31-with-up-to-12288-stream-processors)
Se confermano prima del lancio di nVidia, mi aspetto una segmentazione differente dei propri processori da parte dei "verdi"...
Se confermato, JHH ci ha visto giusto ancora, non a caso facevo sempre il confronto tra le 2, in quanto le taglia in base al rivale solitamente, e lo ha sempre anticipato.
Infatti AD104, 4070, andrebbe quanto la 7700xt.
Non aveva senso lanciare una 4070 con AD103, anche per questo motivo.:)
Ragazzi ma non crederete mica alla libera concorrenza ? L'ha fatto intendere pure JHH in un'intervista tempo fa, Nvidia, AMD, Intel si siedono allo stesso tavolo per discutere roadmap e prodotti da mettere sul mercato aggiustando poi il tiro a seconda della forbice prestazionale....
https://www.fonow.com/view/295788.html
Soprattutto in un periodo dove l'offerta non sta dietro alla domanda, c'e' da mangiare per tutti, inutile fare la torta 2.0 quando possiamo darvela poi e nel frattempo ingrassarci con la torta 1.5 :)
mattxx88
02-05-2022, 15:00
Ragazzi ma non crederete mica alla libera concorrenza ? L'ha fatto intendere pure JHH in un'intervista tempo fa, Nvidia, AMD, Intel si siedono allo stesso tavolo per discutere roadmap e prodotti da mettere sul mercato aggiustando poi il tiro a seconda della forbice prestazionale....
https://www.fonow.com/view/295788.html
Soprattutto in un periodo dove l'offerta non sta dietro alla domanda, c'e' da mangiare per tutti, inutile fare la torta 2.0 quando possiamo darvela poi e nel frattempo ingrassarci con la torta 1.5 :)
gomblotto!1!!11
gomblotto!1!!11
Ahah no tesoro in questo caso semplici leggi base di mercato, non esiste competizione quando i player sono 2/3, al contrario di quanto pensino i tifosetti da forum... Ogni tanto meglio ricordarlo ;)
mattxx88
02-05-2022, 15:08
Ahah no tesoro in questo caso semplici leggi base di mercato, non esiste competizione quando i player sono 2/3, al contrario di quanto pensino i tifosetti da forum... Ogni tanto meglio ricordarlo ;)
purtroppo lavorando a stretto contatto coi carburanti ne sono ben consapevole :muro:
sarei ipocrita se negherei che lo farei pure io però :fagiano: :stordita: :banned:
mikael84
02-05-2022, 15:09
Ragazzi ma non crederete mica alla libera concorrenza ? L'ha fatto intendere pure JHH in un'intervista tempo fa, Nvidia, AMD, Intel si siedono allo stesso tavolo per discutere roadmap e prodotti da mettere sul mercato aggiustando poi il tiro a seconda della forbice prestazionale....
https://www.fonow.com/view/295788.html
Soprattutto in un periodo dove l'offerta non sta dietro alla domanda, c'e' da mangiare per tutti, inutile fare la torta 2.0 quando possiamo darvela poi e nel frattempo ingrassarci con la torta 1.5 :)
E' così, anche prima della dichiarazione, JHH ha sempre anticipato tutto sul rivale, facendolo ben intuire.
Poi se vogliamo ancora credere che uno è bravo, una è una onlus o viceversa...:)
purtroppo lavorando a stretto contatto coi carburanti ne sono ben consapevole :muro:
sarei ipocrita se negherei che lo farei pure io però :fagiano: :stordita: :banned:
Magari dovresti smettere di bere benzina... :gluglu:
E' così, anche prima della dichiarazione, JHH ha sempre anticipato tutto sul rivale, facendolo ben intuire.
Poi se vogliamo ancora credere che uno è bravo, una è una onlus o viceversa...:)
Non mi stupirei se giacchetta e C, a loro tempo, avessero condiviso info tecniche sulle GPU ad Intel per avere Wafer di ritorno in futuro... Ma insomma senza scendere nei gombloddi, tutto piuttosto normale in questo sistema economico.
mikael84
02-05-2022, 15:18
Non mi stupirei se giacchetta e C, a loro tempo, avessero condiviso info tecniche sulle GPU ad Intel per avere Wafer di ritorno in futuro... Ma insomma tutto piuttosto normale in questo sistema economico.
blackwell, la nuova GPU del 2024, JHH se la farà fare da Intel con i promettenti 20A, dovrebbe firmare l'anno prossimo.:p
https://338855-1043895-2-raikfcquaxqncofqfm.stackpathdns.com/wp-content/uploads/2022/04/dd512691-d970-4ce7-81d3-40ed4e2d5d88-1024x576.jpg
Si presume 4 trimestre di quest'anno.
A me non sembra che Ampere abbia potato pochi miglioramenti prestazionali, se consideri che già una 3070 equivale ad una 2080TI :)
Ampere è stato un pò smorzato dagli 8nm di samsung, che oltre a non avere rese cosi eccezionali ha limitato anche i boost clock che rimangono allineati a quelli di Pascal e Turing, inoltre anche le GDDR6X non hanno aiutato lato consumi e l'assenza della doppia densità si è fatta sentire su alcuni chip.
Infatti gran parte dei chip full li hanno riservati principalmente al mobile, e GA107 e GA103s non sono neanche mai arrivati sui desktop.
Però l'architettura in sè resta valida, vedremo con le prossime GPU come si posizioneranno ma già il passaggio al nuovo pp di TSMC è tanta roba.
scorpion73
02-05-2022, 19:56
Ecco spiegato perché da AD102 la 4080 è passata ad AD103...
Giacchetta ci farà 70 versioni di schede con lo stesso chip tirando avanti a scarti del 5% per i prossimi due anni e passa...
Che qualcosa era saltato si capiva dalla mostruosa differenza di cuda tra una ipotetica 4080 e una 4090. Va bene diversificare ma qua mi sembra troppo.
mikael84
02-05-2022, 20:31
Ecco spiegato perché da AD102 la 4080 è passata ad AD103...
Giacchetta ci farà 70 versioni di schede con lo stesso chip tirando avanti a scarti del 5% per i prossimi due anni e passa...
Bisogna dire che se i clock sono quelli riportati ultimamente, il salto ci sarà cmq. Considerando anche l'enorme cache e la ram bilanciata. AD102 cut devastato, lo userà sicuramente la 4080ti.
Al lancio ci sarà sicuramente un chip fallato di AD102, oltre alla 4090.
e io ho il sospetto che noi dovremo aspettare la 4070 Ti...
thunderforce83
02-05-2022, 21:47
Ho la sensazione che questa generazione sara' molto piu' costosa della passata gen...Secondo me per la 4090, con questi consumi ipotetici, enormita' del chip e costi elevati di PP sotto i 2000 la 4090 te la scordi, e di conseguenza a catena tireranno su i prezzi di tutte le altre fasce a scendere, correggetemi se la mia sensazione e' sbagliata.
Ho la sensazione che questa generazione sara' molto piu' costosa della passata gen...Secondo me per la 4090, con questi consumi ipotetici, enormita' del chip e costi elevati di PP sotto i 2000 la 4090 te la scordi, e di conseguenza a catena tireranno su i prezzi di tutte le altre fasce a scendere, correggetemi se la mia sensazione e' sbagliata.
Non credo, da profano credo sia un limite per ogni cosa anche per la scimmia, quando la gente capirà che risoluzione 8k non vale assolutamente la spesa e vista la situazione economica mondiale, poi magari mi sbaglio.
mikael84
03-05-2022, 01:07
Ho la sensazione che questa generazione sara' molto piu' costosa della passata gen...Secondo me per la 4090, con questi consumi ipotetici, enormita' del chip e costi elevati di PP sotto i 2000 la 4090 te la scordi, e di conseguenza a catena tireranno su i prezzi di tutte le altre fasce a scendere, correggetemi se la mia sensazione e' sbagliata.
I costi di produzione saliranno ovviamente, ma non potranno neppure tirare troppo la corda. Stiamo vedendo i risultati della 3090ti...:)
e io ho il sospetto che noi dovremo aspettare la 4070 Ti...
Bisogna vedere se debutterà subito. Cmq anche la 4070 sarà bella equilibrata.
Sempre che poi non facciano 4070 AD104 con piccolo cut e 4070ti AD104 full, magari G6X.
AD103 è bello cuttabile, ma dovrà sfornare tutti i chip top per i note.:)
amon.akira
03-05-2022, 01:43
Non credo, da profano credo sia un limite per ogni cosa anche per la scimmia, quando la gente capirà che risoluzione 8k non vale assolutamente la spesa e vista la situazione economica mondiale, poi magari mi sbaglio.
assolutamente il beneficio/costo in risorse è troppo sproporzionato, già il 4k sarebbe off-limits se non si usassero tecniche come il dlss.
scorpion73
03-05-2022, 10:13
Bisogna vedere se debutterà subito. Cmq anche la 4070 sarà bella equilibrata.
Sempre che poi non facciano 4070 AD104 con piccolo cut e 4070ti AD104 full, magari G6X.
AD103 è bello cuttabile, ma dovrà sfornare tutti i chip top per i note.:)
Se la 4080 la fanno su AD103 non credo si metteranno anche a cuttarlo per quella scheda, altrimenti esce fuori un incremento si e no del 10% sulla precedente Gen.
Sarebbe una cosa da meh.... non lo so, prima ero più ottimista sul salto di prestazione, dopo il rumor sul 103 sinceramente non lo so se converrà fare il salto.
Sono in uscita i nuovi Eve Spectrum, magari nel 2023 saranno anche acquistabili in Europa (purtroppo sono poco affidabili per il preorder diretto), finalmente avremo il glossy in un monitor gaming serio, altro che 8k.
davide155
03-05-2022, 11:32
I costi di produzione saliranno ovviamente, ma non potranno neppure tirare troppo la corda. Stiamo vedendo i risultati della 3090ti...:)
Mmmm mica tanto.
Oggi da drako erano arrivate le 3090ti in promo. Finite all'istante. Sono rimasto allibito.
Ps: hanno pure fresche fresche le msi trio 3080 10gb lhr a 999euro, molto più appetibili per chi non si fidava delle manli.
mikael84
03-05-2022, 11:37
Se la 4080 la fanno su AD103 non credo si metteranno anche a cuttarlo per quella scheda, altrimenti esce fuori un incremento si e no del 10% sulla precedente Gen.
Sarebbe una cosa da meh.... non lo so, prima ero più ottimista sul salto di prestazione, dopo il rumor sul 103 sinceramente non lo so se converrà fare il salto.
No aspè. non 4080 cut, il cut AD103 era riferito all'eventuale 4070ti.
Anche AMD pare abbia in programma diversi cut x chip.
Mmmm mica tanto.
Oggi da drako erano arrivate le 3090ti in promo. Finite all'istante. Sono rimasto allibito.
Ps: hanno pure fresche fresche le msi trio 3080 10gb lhr a 999euro, molto più appetibili per chi non si fidava delle manli.
Ricordavo che non se le filava nessuno ai drop...Cmq non potranno neppure salire troppo oltre a livello di MSRP, altrimenti entriamo in piena fascia pro (con quelle che erano le quadro).
thunderforce83
03-05-2022, 13:52
Non credo, da profano credo sia un limite per ogni cosa anche per la scimmia, quando la gente capirà che risoluzione 8k non vale assolutamente la spesa e vista la situazione economica mondiale, poi magari mi sbaglio.
secondo me non e' tanto la risoluzione ma l rtx ed effetti che verranno che faranno gola a molti
I costi di produzione saliranno ovviamente, ma non potranno neppure tirare troppo la corda. Stiamo vedendo i risultati della 3090ti...:)
la 3090ti e' uscita tardissimo, ad un prezzo spropositato, che poi se vediamo le differenze di prestazioni tra 3080/3090/3090ti stiamo parlando di percentuali ridicole rapportate al prezzo...un conto e' la 3090ti a 2200euro per un +3% rispetto alla 3090...un conto sara' una spaventosa/ipotetica 4090 che prezzata come questa inutile 3090ti fara' molto di piu'...secondo me ci dobbiamo preparare a scucire minimo 1000$ per la 4080...a salire in base al modello, arrivando a 2000$ e rotti per la bestia full...4090/4080ti o cosa uscira' per la fascia top.
Ma state parlando di msrp o di altro? Perche' aumentare piu' di 50/100$ il msrp e' un suicidio a livello PR e dubito accadra'.
Non che abbia senso parlare di prezzi adesso cmq, c'e' anche da vedere se terranno davvero la doppia produzione con le 3000.
In breve fanno apposta tagli qua e la' per venderci cmq la X80 a quella fascia di prezzo.
La pagherai uguale o poco di piu' (sempre relativo ai msrp) ma andra' relativamente meno a quanto sarebbe successo mettendogli il chippone, ottimo anche poi per segmentizzare, refreshare l'offerta nei successivi due anni e salire salire i nuovo di prezzo con le varie TI/Super.
Prima di farvi pagare il pacco di pasta il 20% di piu' inizieranno a mettere 50grammi di pasta in meno generalmente.
davide155
03-05-2022, 15:22
secondo me ci dobbiamo preparare a scucire minimo 1000$ per la 4080...a salire in base al modello, arrivando a 2000$ e rotti per la bestia full...4090/4080ti o cosa uscira' per la fascia top.
Già ora scuciamo più di 1000euro per una 3080 a ben 2 anni dall'uscita.
Non vedo dove sarà la novità per la 4080.
Non tiriamo in ballo le founders perché sono pochissime e per prenderle devi avere un buco di culo spropositato, senza contare che non escono da 2 mesi su ldlc italia. Stesso discorso per il prezzo msrp. Le vga custom sono sempre costate di più da almeno 8 anni a questa parte.
mikael84
03-05-2022, 15:43
secondo me non e' tanto la risoluzione ma l rtx ed effetti che verranno che faranno gola a molti
la 3090ti e' uscita tardissimo, ad un prezzo spropositato, che poi se vediamo le differenze di prestazioni tra 3080/3090/3090ti stiamo parlando di percentuali ridicole rapportate al prezzo...un conto e' la 3090ti a 2200euro per un +3% rispetto alla 3090...un conto sara' una spaventosa/ipotetica 4090 che prezzata come questa inutile 3090ti fara' molto di piu'...secondo me ci dobbiamo preparare a scucire minimo 1000$ per la 4080...a salire in base al modello, arrivando a 2000$ e rotti per la bestia full...4090/4080ti o cosa uscira' per la fascia top.
Troppo presto per parlare di prezzi.
Considera che le 3090 prendono il posto della Titan turing che ne costava 2500$, questo perchè permettono 49gb via nvlink. Parliamo di roba pro, venduta ai gamer.
Con Lovelace e la doppia densità di micron, si potrà creare pure una 4090ti da 49gb per i pro (98gb nvlink). Pensa che la RTX8000 costava 10000$ contro i 6000 della RTX6000 per quel quantitativo di ram.
Qua per quel che mi riguarda possono fare quello che vogliono.
La 4080 sarà un chippetto (si stima da 370mm2) e dovrà vedersela con il mid chip di AMD, quello che prenderà il posto della 6800xt.
scorpion73
03-05-2022, 16:09
La 4080 sarà un chippetto (si stima da 370mm2) e dovrà vedersela con il mid chip di AMD, quello che prenderà il posto della 6800xt.
Può darsi che sia un chippetto, ma lo vedo l'unico forse un pò più abbordabile, sia come range di prezzo che come consumi/calore, senza doversi poi anche svenare per un alimentatore nuovo, ma restando con gli attuali 1000W e al limite un adattatore. Non usando il PCI Ex 5, non dovrebbero sussistere nemmeno le questioni dei picchi di cui si vociferava nei giorni scorsi e che potevi gestire bene solo con un ATX 3.0, sbaglio?
Certo, come salto prestazionale permettimi di rimanere molto scettico, ma vedremo...
Dalla 4080ti in su ci sarà sia il problema dell'alimentatore, che quello del calore dovuto ai consumi: per dissipare 600W ci vorrà un dissipatore ancora più grosso della 3090ti (se non addirittura il liquido) e toccherà per forza munirsi di almeno un 1200W, che costeranno un botto, visto che già oggi costano un botto quelli attuali. Il problema dei picchi non dovrebbero averlo nemmeno loro, ma rimangono comunque fornetti scaldapane...
Ma l'MSRP bene o male rimarrà quello, discorso diverso per i prezzi di mercato che seguono "domanda e offerta", quindi è impossibile fare pronostici.
Per le prestazioni ci sono tutte, bisogna capire come vorranno giocarsela a questo giro, già AD103 dovrebbe offrire un notevole boost soprattutto se si confermano veritieri quei 2.8ghz in boost, il che alla prima sfornata potrebbe vedere solo AD103 e AD104 e solo successivamente AD102.
ultimate trip
03-05-2022, 17:12
Intanto intel stima lo shortage fino al 2024, ci sarà sicuramente da sudare per portare a casa lovolace
https://www.cnbc.com/2022/04/29/semiconductor-shortage-intel-ceo-says-chip-crunch-to-last-into-2024.html
mikael84
03-05-2022, 17:23
Può darsi che sia un chippetto, ma lo vedo l'unico forse un pò più abbordabile, sia come range di prezzo che come consumi/calore, senza doversi poi anche svenare per un alimentatore nuovo, ma restando con gli attuali 1000W e al limite un adattatore. Non usando il PCI Ex 5, non dovrebbero sussistere nemmeno le questioni dei picchi di cui si vociferava nei giorni scorsi e che potevi gestire bene solo con un ATX 3.0, sbaglio?
Certo, come salto prestazionale permettimi di rimanere molto scettico, ma vedremo...
Dalla 4080ti in su ci sarà sia il problema dell'alimentatore, che quello del calore dovuto ai consumi: per dissipare 600W ci vorrà un dissipatore ancora più grosso della 3090ti (se non addirittura il liquido) e toccherà per forza munirsi di almeno un 1200W, che costeranno un botto, visto che già oggi costano un botto quelli attuali. Il problema dei picchi non dovrebbero averlo nemmeno loro, ma rimangono comunque fornetti scaldapane...
Quella è una marchetta per vendere i nuovi alimentatori con cavo nativo. In quanto secondo loro sarà rinforzato con condensatori migliori (beh ci credo è un singolo cavo da 600 non separato). Ora di colpo il sistema a cavi da 6 ed 8 pin, sia ad Intel che alla PCI SIG, non andrebbe bene e non si sono opposti ai cavi per la 3090ti, in quanto non c'erano ALI nativi.
Ora quello che sbandierano non sta ne in cielo ne in terra, qualsiasi alimentatore di buona fascia può gestire 3 o 4 cavi da 8 pin (SLI), anche con micro e macrocarichi di microsecondi, altrimenti avremmo visto partire alimentatori a iosa.
Anzi, vogliamo essere davvero pignoli.
Igor ha provato uno di quei cavi ed a poco più di 700watt non ha retto al calore (dopo 10 minuti non ha retto), un cavo nativo 8 pin AWG16 a soli 8 ampere per linea potrebbe erogare tranquillamente 288w (1152watt).
Un AWG18 a 6 ampere 216w (864w)
L'eps della mobo è da 6 ampere (288watt AWG18). Cambia che ha 4 linee e non 3.
Chiaro che i consumi sono sproporzionati su AD102, e chi ha un 750/850 forse farebbe bene a prendersi direttamente un nativo.:)
Chiudo OT.
Ma l'MSRP bene o male rimarrà quello, discorso diverso per i prezzi di mercato che seguono "domanda e offerta", quindi è impossibile fare pronostici.
Per le prestazioni ci sono tutte, bisogna capire come vorranno giocarsela a questo giro, già AD103 dovrebbe offrire un notevole boost soprattutto se si confermano veritieri quei 2.8ghz in boost, il che alla prima sfornata potrebbe vedere solo AD103 e AD104 e solo successivamente AD102.
Da quello che si sa attualmente, si inizierà con AD102.
davide155
03-05-2022, 18:01
Per le prestazioni ci sono tutte, bisogna capire come vorranno giocarsela a questo giro, già AD103 dovrebbe offrire un notevole boost soprattutto se si confermano veritieri quei 2.8ghz in boost, il che alla prima sfornata potrebbe vedere solo AD103 e AD104 e solo successivamente AD102.
Semmai il contrario no?
Puntano al chippone pieno, se poi non gli viene allora cuttano e via di AD103 AD104.
Intanto intel stima lo shortage fino al 2024, ci sarà sicuramente da sudare per portare a casa lovolace
https://www.cnbc.com/2022/04/29/semiconductor-shortage-intel-ceo-says-chip-crunch-to-last-into-2024.html
Ma era sottointeso ragazzi.
Uno shortage mondiale che si protrae da 2 anni, con ordini ancora in attesa di evasione della merce più disparata. Avoglia ad aspettare.
Ci sono ancora intere catene di montaggio di auto, frigoriferi, tv, smartphone, con lunghissimi ordini ancora inevasi.
Questa storia si risolverà in svariati anni. C'è poco da fare.
Per quanto riguarda Lovelace c'è poco da fare. Come già detto in precedenza secondo le ultime stime sarà un bagno di sangue.
La 4090 secondo me sarà presa d'assalto dai minatori e da chi lavora con programmi che ne sfruttano la piena potenza. 100+ tflops non si vedono tutti i giorni in una singola scheda.
Mmmm mica tanto.
Oggi da drako erano arrivate le 3090ti in promo. Finite all'istante. Sono rimasto allibito.
Beh io ragiono all'livello aziendale, da drako quante schede erano arrivate? di sicuro un numero che per azienda nvidia sono ridicole, qui si parla di milioni perchè la cosa abbia un senso.
secondo me non e' tanto la risoluzione ma l rtx ed effetti che verranno che faranno gola a molti
Ma anche qui, alla fine tutto deve essere visto da un monitor come risultato finale, quanti giochi sono usciti con un rtx che faccia gridare al miracolo?
E parlo da possessore di un 3080ti.
mikael84
03-05-2022, 20:38
Per quanto riguarda Lovelace c'è poco da fare. Come già detto in precedenza secondo le ultime stime sarà un bagno di sangue.
La 4090 secondo me sarà presa d'assalto dai minatori e da chi lavora con programmi che ne sfruttano la piena potenza. 100+ tflops non si vedono tutti i giorni in una singola scheda.
Alcuni programmi pro, totalmente FP32 riuscirebbero ad utilizzare tutto quel picco a differenza dei giochi, che hanno un datapath da condividere con gli INT.
Riguardo il mining, sono totalmente ignorante, vedendo i valori rispetto a turing, mi viene da pensare che dipendano soprattutto da INT8 e banda non decompressa.
In questo caso sarà un bagno di sangue con Lovelace, perchè arriverebbero a picchi di 4x non 2x.
Ripeto però, qua sono ignorante.:p
Semmai il contrario no?
Puntano al chippone pieno, se poi non gli viene allora cuttano e via di AD103 AD104.
AD103 e AD104 sono stampati a parte non sono cut di AD102, in passato almeno fino a Pascal venivano sfornati prima i chip di fascia medio alta e solo successivamente arrivava il chippone.
Se inizieranno da AD102 sicuramente ci sarà un bel cut consistente, dubito che le prime sfornate abbiano grandissime rese.
amon.akira
03-05-2022, 22:06
Alcuni programmi pro, totalmente FP32 riuscirebbero ad utilizzare tutto quel picco a differenza dei giochi, che hanno un datapath da condividere con gli INT.
Riguardo il mining, sono totalmente ignorante, vedendo i valori rispetto a turing, mi viene da pensare che dipendano soprattutto da INT8 e banda non decompressa.
In questo caso sarà un bagno di sangue con Lovelace, perchè arriverebbero a picchi di 4x non 2x.
Ripeto però, qua sono ignorante.:p
in ogni caso spero li cappino dal dayone, altrimenti reinizia la tiritera
mikael84
04-05-2022, 02:00
in ogni caso spero li cappino dal dayone, altrimenti reinizia la tiritera
Se riguarda le INT8, Ampere ha abilitato lo sparsity, un modo per raddoppiare il ratio sia a livello di FP che di INT. Basta bloccare quello ed ecco il LHR, o torna come turing.:)
Tutta roba che riguarda l'HPC.
Cmq ho calcolato male io, dimenticando che gli SM di Hopper sono da 128 e non da 64, di conseguenza, non arriviamo al 4x, ma vicini al 3x, alla base del chippone (da vedere però l'impatto delle cache sulle 64 ops(2x sparsity).
Su quel livello però siamo piuttosto superiori anche a GA100, che rulla molto in questo ambito, avendo 128 ops/256 sparsity a basso clock, ma soprattutto una banda maestosa
I consumi però potrebbero far indietreggiare un pochino, soprattutto se di base non attivi lo sparsity. Se lo attivi, te lo aggirano.:fagiano:
È una mia ipotesi, tenendo sempre presente che I TC vengono sfruttati al max al 20%. Quindi il ratio sarebbe di 1:5.
Casualmente a pari schede il LHR riduce esattamente della metà il ratio.
fraussantin
04-05-2022, 15:50
ma quella 3080ti FE a ''prendere polvere'' su ldlc , veramente sta cambiando tutto :asd:
Sono rimaste quelle con i prezzi più alti un po come su amd ieri che era rimasta la 6900xt tutto il giorno
FrancoBit
04-05-2022, 16:05
Sono rimaste quelle con i prezzi più alti un po come su amd ieri che era rimasta la 6900xt tutto il giorno
Che è li ancora oggi. Non so se sperare che agli uni e agli altri gli rimangano sul groppone o meno....
E meno male che ho dato retta al mio istinto e sono riuscito a pigliarmi a 1300 euri una 3080 Ti su Amazon, avevo un mezzo sentore ed infatti....cmq sul sito nvidia su pronte in stock c'è la MSI a 1494 ma se ci clicchi sopra ti porta su AKinf. e costa 1.998,99 :asd: fanstastico...
davide155
04-05-2022, 18:43
Sono rimaste quelle con i prezzi più alti un po come su amd ieri che era rimasta la 6900xt tutto il giornoLe altre founders non hanno droppato.
Solo 3080ti e 3090.
Peccato, se non avevo già la 3090, per la 3080ti FE ci facevo un pensierino.
scorpion73
05-05-2022, 11:47
https://i.ibb.co/KhJL3yK/rtx-4080.png (https://ibb.co/54PnfcK)
Saranno veritiere queste specifiche?
Un cut di 1000 shaders rispetto al massimo sinceramente non me lo aspetto, su un AD103 già povero di suo.
Va bé che da giacchetta c'è da aspettarsi di tutto, ma se fossero queste le specifiche (prese da techpowerup) ho come l'impressione che il salto prestazionale sia non più del solito 15%..... mi sbaglio?
davide155
05-05-2022, 12:05
https://i.ibb.co/KhJL3yK/rtx-4080.png (https://ibb.co/54PnfcK)
Saranno veritiere queste specifiche?
Un cut di 1000 shaders rispetto al massimo sinceramente non me lo aspetto, su un AD103 già povero di suo.
Va bé che da giacchetta c'è da aspettarsi di tutto, ma se fossero queste le specifiche (prese da techpowerup) ho come l'impressione che il salto prestazionale sia non più del solito 15%..... mi sbaglio?Non mi meraviglierebbe.
Un salto di 2x 3x 4x come stanno leakando in questi ultimi giorni mi sembrano una esagerazione per un chip praticamente uguale al precedente sotto il punto di vista tecnico.
Se fossero vere le info di techpower, le Ampere rimarrebbero le migliori in rapporto prezzo/prestazioni.
Da qui a giugno sapremo sicuramente tante informazioni.
https://i.ibb.co/KhJL3yK/rtx-4080.png (https://ibb.co/54PnfcK)
Saranno veritiere queste specifiche?
Un cut di 1000 shaders rispetto al massimo sinceramente non me lo aspetto, su un AD103 già povero di suo.
Va bé che da giacchetta c'è da aspettarsi di tutto, ma se fossero queste le specifiche (prese da techpowerup) ho come l'impressione che il salto prestazionale sia non più del solito 15%..... mi sbaglio?
Mi sembrano decisamente specifiche più plausibili ed in linea con quello che pensavo, poi così sul AD103 Full ci sta la 4080Ti e idem sul AD102 la 3090 CUT e la 3090Ti full.
Che poi è quello che succede sempre.
Inutile dire che alla fine se andrà bene avremo incrementi del 30% modello su modello che poi sarebbe anche meglio di quanto fatto tra 2080Ti e 3080TI dove per avere un 30% netto in più ci voleva la 3090.
Mi sembrano decisamente specifiche più plausibili ed in linea con quello che pensavo, poi così sul AD103 Full ci sta la 4080Ti e idem sul AD102 la 3090 CUT e la 3090Ti full.
Che poi è quello che succede sempre.
Inutile dire che alla fine se andrà bene avremo incrementi del 30% modello su modello che poi sarebbe anche meglio di quanto fatto tra 2080Ti e 3080TI dove per avere un 30% netto in più ci voleva la 3090.
Guarda che il 30% di media c'è tra la 2080Ti e la 3080 liscia in 4K
Guarda che il 30% di media c'è tra la 2080Ti e la 3080 liscia in 4K
Ma nemmeno con il binocolo, e te lo dico per esperienza diretta ho tutte le schede dalla 2080Ti alla 3090.
scorpion73
05-05-2022, 13:55
Inutile dire che alla fine se andrà bene avremo incrementi del 30% modello su modello che poi sarebbe anche meglio di quanto fatto tra 2080Ti e 3080TI dove per avere un 30% netto in più ci voleva la 3090.
Abbi pazienza, ma se il 30% lo fa la 3090 lo fa pure la 3080ti, sono praticamente identiche e non è la RAM in più ad incidere né i pochi cuda che li separano... ci sono al massimo 5 frames di scarto fra le due, ma proprio al massimo... te lo dico avendole entrambe...
Per me, una 4080 con un AD103 cuttato è un mezzo fail, non avrebbe senso l'upgrade da 3080ti, nemmeno passando a una 4080ti su AD103 full, a meno che non tirino fuori un chip che sovrasti imperiosamente ampere.
Vedremo.
Abbi pazienza, ma se il 30% lo fa la 3090 lo fa pure la 3080ti, sono praticamente identiche e non è la RAM in più ad incidere né i pochi cuda che li separano... ci sono al massimo 5 frames di scarto fra le due, ma proprio al massimo... te lo dico avendole entrambe...
Per me, una 4080 con un AD103 cuttato è un mezzo fail, non avrebbe senso l'upgrade da 3080ti, nemmeno passando a una 4080ti su AD103 full, a meno che non tirino fuori un chip che sovrasti imperiosamente ampere.
Vedremo.
Ah beh si diciamo la stessa cosa :), e concordo con te dalla 3080Ti alla 4080Ti avremo forse un 30% più probabile un 27-28% come sempre. La mia soglia minima per triggerare l'upgrade è il +30%. Quindi avendo una 3090 probabilmente la 4090/Ti oppure si salta a piè pari, ma non credo.
ray_hunter
05-05-2022, 14:39
Abbi pazienza, ma se il 30% lo fa la 3090 lo fa pure la 3080ti, sono praticamente identiche e non è la RAM in più ad incidere né i pochi cuda che li separano... ci sono al massimo 5 frames di scarto fra le due, ma proprio al massimo... te lo dico avendole entrambe...
Per me, una 4080 con un AD103 cuttato è un mezzo fail, non avrebbe senso l'upgrade da 3080ti, nemmeno passando a una 4080ti su AD103 full, a meno che non tirino fuori un chip che sovrasti imperiosamente ampere.
Vedremo.
Ancora con questa storia degli "n" fps in più?
25fps vs 20fps sono il 25% in più, mentre 505 fps vs 500 fps è l'1%.
Ad ogni modo, guardano su computerbase, una 3080 TI founders vs un 3090 strix hanno mediamente il 5% che in un metro exodus EE vuol dire ~67fps vs ~70fps in 4K. Probabilmente due strix avranno il 3% di differenza, ossia ~2fps di differenza.
Ancora con questa storia degli "n" fps in più?
25fps vs 20fps sono il 25% in più, mentre 505 fps vs 500 fps è l'1%.
Ad ogni modo, guardano su computerbase, una 3080 TI founders vs un 3090 strix hanno mediamente il 5% che in un metro exodus EE vuol dire ~67fps vs ~70fps in 4K. Probabilmente due strix avranno il 3% di differenza, ossia ~2fps di differenza.
Si ma certo, infatti io parlo di percentuali (e so di non essere sano di mente nel farlo), se guardassimo agli fps prodotti come minimo si dovrebbe aggiornare una gen si e una no. Fai conto che allo stato attuale io gioco in 4k con la 3090 di media sono tra i 60/120 fps dipende dal gioco, per fare una cosa sensata dovrei aggiornare quando una nuova gpu riesce a garantirmi tra i 100/160 fps sugli stessi titoli, non prima. Il che comunque vorrebbe poi dire avere nuovamente dai 60 ai 120, o magari poco più, sui titoli che escono con le nuove gpu.
Ma si hai ragionissima.
mikael84
05-05-2022, 14:57
Saranno veritiere queste specifiche?
Un cut di 1000 shaders rispetto al massimo sinceramente non me lo aspetto, su un AD103 già povero di suo.
Va bé che da giacchetta c'è da aspettarsi di tutto, ma se fossero queste le specifiche (prese da techpowerup) ho come l'impressione che il salto prestazionale sia non più del solito 15%..... mi sbaglio?
Non c'è ancora nessun dato concreto, bisognerà vedere le rese, ma 4 TPC disabilitati su un 370mm2 signifca avere rese drammatiche.
I dati riportati sotto sono quasi tutti sbagliati, come le ram da 36 gb/s.:p
Mi sembrano decisamente specifiche più plausibili ed in linea con quello che pensavo, poi così sul AD103 Full ci sta la 4080Ti e idem sul AD102 la 3090 CUT e la 3090Ti full.
Che poi è quello che succede sempre.
Inutile dire che alla fine se andrà bene avremo incrementi del 30% modello su modello che poi sarebbe anche meglio di quanto fatto tra 2080Ti e 3080TI dove per avere un 30% netto in più ci voleva la 3090.
La 4080ti sarà AD102 cut (14-15 k cuda con cache fallata).:)
Non mi meraviglierebbe.
Un salto di 2x 3x 4x come stanno leakando in questi ultimi giorni mi sembrano una esagerazione per un chip praticamente uguale al precedente sotto il punto di vista tecnico.
Se fossero vere le info di techpower, le Ampere rimarrebbero le migliori in rapporto prezzo/prestazioni.
Da qui a giugno sapremo sicuramente tante informazioni.
I leak ci stanno, sono fughe di notizie accurate.
Il problema però è uno, a parer mio pure pessimo se confermato.
1) ci sarà un super chip AD102
2) tutto sotto sarà quasi un refresh di ampere a nodo nuovo, declassando le fasce.
Questa potrebbe essere anche reale (tranne le rop's che scenderebbero a 16 in meno).
https://i.postimg.cc/JzSknv5P/4090.png
amon.akira
05-05-2022, 15:51
la fregatura è che la 3080ti nn ci sarà al dayone
davide155
05-05-2022, 17:07
Non c'è ancora nessun dato concreto, bisognerà vedere le rese, ma 4 TPC disabilitati su un 370mm2 signifca avere rese drammatiche.
I dati riportati sotto sono quasi tutti sbagliati, come le ram da 36 gb/s.:p
La 4080ti sarà AD102 cut (14-15 k cuda con cache fallata).:)
I leak ci stanno, sono fughe di notizie accurate.
Il problema però è uno, a parer mio pure pessimo se confermato.
1) ci sarà un super chip AD102
2) tutto sotto sarà quasi un refresh di ampere a nodo nuovo, declassando le fasce.
Questa potrebbe essere anche reale (tranne le rop's che scenderebbero a 16 in meno).
https://i.postimg.cc/JzSknv5P/4090.png
Questo vuol dire forse una 4090 con prezzo astronomico? forse il ritorno della Titan?
Mentre le altre esisteranno per contenere i costi di vendita, e saranno dei mega cuttoni del chippone....?
Questo taglio delle specifiche sia di Ada che delle nuove Amd mi ha fatto storcere parecchio il naso sulla nuova gen.
Sempre più convinto di aver fatto benissimo ad aver preso una 3090 founders (col vecchio listino tra l'altro).
amon.akira
05-05-2022, 17:14
Questo vuol dire forse una 4090 con prezzo astronomico? forse il ritorno della Titan?
Mentre le altre esisteranno per contenere i costi di vendita, e saranno dei mega cuttoni del chippone....?
Questo taglio delle specifiche sia di Ada che delle nuove Amd mi ha fatto storcere parecchio il naso sulla nuova gen.
Sempre più convinto di aver fatto benissimo ad aver preso una 3090 founders (col vecchio listino tra l'altro).
idem, siamo stati gli ultimi con il vecchio listino :D
ciò non toglie che prenderò la 4080 anche il +30% mi va benissimo è sempre meglio di niente :P
davide155
05-05-2022, 17:18
idem, siamo stati gli ultimi con il vecchio listino :D
ciò non toglie che prenderò la 4080 anche il +30% mi va benissimo è sempre meglio di niente :PDavvero.... Presa nello stesso millisecondo :D
Comunque io semmai cambierò, sarà solo per il mega chippone. Altrimenti nada.
Kostanz77
05-05-2022, 17:45
idem, siamo stati gli ultimi con il vecchio listino :D
ciò non toglie che prenderò la 4080 anche il +30% mi va benissimo è sempre meglio di niente :P
Se hai una 3080Ti o 3090 io fossi in te cambierei al massimo solo per la
4080Ti/4090
Inviato dal mio iPad utilizzando Tapatalk Pro
mikael84
05-05-2022, 18:04
la fregatura è che la 3080ti nn ci sarà al dayone
A questo punto è un bordello. I chip ci sono, ma le fasce sono sballate.
Ad esempio: Prendiamo la x70
Maxwell : 3072cc- 1664 +84% ALU
Pascal: 3840-1920 + 100% ALU
Turing: 4608-2304 + 100% ALU
Ampere: 10752 - 5880 + 82% ALU.
La x70 è sempre stata mediamente la metà delle ALU del chippone, qualche volta anche meno.
Con Lovelace la 4080 avrebbe valori da x70 (90% ALU di AD102).
Visto così a me sembra una sorta di shrink sino alla x80 ed un chippone indipendente.
La 4080 base doveva essere questa.
https://i.postimg.cc/RZxHQCdr/4080ti.png
In linea di massima una serie x70 prenderà i prezzi della x80.
Questo vuol dire forse una 4090 con prezzo astronomico? forse il ritorno della Titan?
Mentre le altre esisteranno per contenere i costi di vendita, e saranno dei mega cuttoni del chippone....?
Questo taglio delle specifiche sia di Ada che delle nuove Amd mi ha fatto storcere parecchio il naso sulla nuova gen.
Sempre più convinto di aver fatto benissimo ad aver preso una 3090 founders (col vecchio listino tra l'altro).
No aspè, Titan, Tesla e quadro sono stati rimossi. La Titan è la serie x90 con nvilink abilitato.
La 4090 è una Titan
Con la doppia densità a sto giro, possono pure creare un chip full con 48gb in clamshell.
Riguardo lovelace, le rese sembrano pessime.
AMD dovrebbe tirare questi chip
7900-4090/TI
N31 XTX 48WGP/96 CU/12288FP32
N31 XT 42WGP/84CU/10752FP32
N31 XL 36WGP/72CU/9216FP32
7800--------
N32 XTX 32WGP/64CU/8192FP32
N32 XT 28WGP/56CU/7168FP32
N32 XL 24WGP/48CU/6144FP32
7700xt-4070
N33 XT 16WGP/32CU/4096FP32
N33 XL 14WGP/28CU/3584FP32
Andy1111
05-05-2022, 18:20
Nuovo rumor
https://www.hardwaretimes.com/nvidia-to-double-sm-thread-counts-and-tensor-cores-with-next-gen-rtx-4080-4090-gpus-biggest-overhaul-since-gtx-900-series-report/
mikael84
05-05-2022, 18:40
Nuovo rumor
https://www.hardwaretimes.com/nvidia-to-double-sm-thread-counts-and-tensor-cores-with-next-gen-rtx-4080-4090-gpus-biggest-overhaul-since-gtx-900-series-report/
Beh, diciamo che sono progetti molto differenti.
Questo schema raddoppia i tensor (e relativi programmi INT), come probabile mining
In calcolo raddoppia le istruzioni da 512 a 1024.
https://i.postimg.cc/nVGdjztW/ipc2.png
Questo raddoppierebbe i tensor, 128 OPS (come AMPERE hpc), ma sarebbe un'aumento sconvolgente di potenza in quanto gli interi sarebbero separati come Turing.
Per dire una 3090ti ha circa 6800 FP32, scorporate le INT (27TF a 2ghz).
Questo cambierebbe diametralmente tutto.:p
https://i.postimg.cc/4ygSCHR6/ipc.png
Questo è da confermare, perchè sarebbe troppo potente per essere vero, infatti, io pensavo ad un'architettura così, ma più piccola.
Nel primo caso cambia nulla, nel secondo il mondo.
FrancoBit
05-05-2022, 19:18
Davvero.... Presa nello stesso millisecondo :D
Comunque io semmai cambierò, sarà solo per il mega chippone. Altrimenti nada.Altrimenti Ada ti correggo.
Inviato dal mio M2101K9G utilizzando Tapatalk
amon.akira
05-05-2022, 23:04
Se hai una 3080Ti o 3090 io fossi in te cambierei al massimo solo per la
4080Ti/4090
Inviato dal mio iPad utilizzando Tapatalk Pro
ma difficilmente manterrano gli stessi prezzi, già ha fatto il re-price di quelle odierne da 1550 a 1650 quasi a fine vita..ipotizzo una 4090 da 1799 msrp
la 4080Ti non ce la farei ad aspettare 6-8mesi mi conosco
mikael84
06-05-2022, 00:47
ma difficilmente manterrano gli stessi prezzi, già ha fatto il re-price di quelle odierne da 1550 a 1650 quasi a fine vita..ipotizzo una 4090 da 1799 msrp
la 4080Ti non ce la farei ad aspettare 6-8mesi mi conosco
Considera che se le rese previste sono traumatiche, i modelli a cache fallata, dovranno venderli in qualche modo. La 4080ti prevista è un modello a livelli di scarti inediti. :)
Ora, in piena speculazione, viene pure il dubbio che abbiano scorporato gli interi, se così fosse, una 4080, anche AD103 devastata sarebbe un buon chip.
Per fare un esempio, la 2080ti aveva 4352cc a interi separati.
Sui prezzi, un 610mm2 costerà non poco.
amon.akira
06-05-2022, 01:39
Considera che se le rese previste sono traumatiche, i modelli a cache fallata, dovranno venderli in qualche modo. La 4080ti prevista è un modello a livelli di scarti inediti. :)
Ora, in piena speculazione, viene pure il dubbio che abbiano scorporato gli interi, se così fosse, una 4080, anche AD103 devastata sarebbe un buon chip.
Per fare un esempio, la 2080ti aveva 4352cc a interi separati.
Sui prezzi, un 610mm2 costerà non poco.
magari :D
cmq sia in un caso sia nell altro jjh non ci regalerà troppo...specialmente se amd non dovesse spingere molto
mikael84
06-05-2022, 02:14
magari :D
cmq sia in un caso sia nell altro jjh non ci regalerà troppo...specialmente se amd non dovesse spingere molto
Ci puoi contare, il PP fatto per me costa, poi ci metterò del mio.:sofico:
https://www.hwupgrade.it/articoli/skvideo/4322/intro2.jpg
AMD ha l'incognita MCM, a shader sarà devastante, come la stessa nvidia, i tagli lasciano a desiderare, sempre che non abbiano scorporato veramente gli interi.
JHH è troppo enigmatico a sto giro.:sofico:
amon.akira
06-05-2022, 02:19
nvidia-hopper-h100-gpu-pictured-worlds-first-4nm-hbm3-chip-for-datacenters/ (https://wccftech.com/nvidia-hopper-h100-gpu-pictured-worlds-first-4nm-hbm3-chip-for-datacenters/)
Bloodline Limit
06-05-2022, 09:30
se questi saranno i numeri... stanno mettendo in crisi il mio recente acquisto di una 3070ti tuf a 650€
:help: :help:
e la scimmia è tornata...
Kaheleha
06-05-2022, 09:44
se questi saranno i numeri... stanno mettendo in crisi il mio recente acquisto di una 3070ti tuf a 650€
:help: :help:
e la scimmia è tornata...
Io con una 3070ti nel case starei buono buono senza spendere una lira in più...poi fai tu :)
Io con una 3070ti nel case starei buono buono senza spendere una lira in più...poi fai tu :)
beh dipende quanto ci smena a rivenderla
Bloodline Limit
06-05-2022, 10:48
penso che rivendendola non andrei a perderci granchè, è stato un acquisto fortunello tutto sommato
Ale55andr0
06-05-2022, 10:50
Io con una 3070ti nel case starei buono buono senza spendere una lira in più...poi fai tu :)
da possessore di 3070, io OGGI non avrei MAI speso quella somma per una gpu con 8 MISERABILI gb (e già a Gennaio 2021, quando la presi, lo feci perchè ero senza alcuna gpu e la situazione del mercato era tragica...ma già allora mi stavano sul culo gli 8gb). Me ne stavo buono aspettano le prossime
da possessore di 3070, io OGGI non avrei MAI speso quella somma per una gpu con 8 MISERABILI gb (e già a Gennaio 2021, quando la presi, lo feci perchè ero senza alcuna gpu e la situazione del mercato era tragica...ma già allora mi stavano sul culo gli 8gb). Me ne stavo buono aspettano le prossime
Rimane sempre un chip di fascia media, comunque anche nella prossima gen in quel target di prestazioni ci saranno 8GB, AD106 sarà a 128bit.
Bloodline Limit
06-05-2022, 11:02
Mi fece gola più che altro per il prezzo, considerando che è una TUF al prezzo della founders.
L'unica cosa che mi ferma nel darla via è il fattore prezzo delle rtx 4000.
Non so cosa si riuscirà a prendere con 6/700€ visto l'andazzo
killeragosta90
06-05-2022, 11:04
Per l'appunto, scusate la domanda senza rileggere pagine e pagine di thread, ma ad oggi, teoricamente una futura 4070 quali prestazioni (paragonabile a una 30xx?) e quanti GB di Vram dovrebbe avere?
Per l'appunto, scusate la domanda senza rileggere pagine e pagine di thread, ma ad oggi, teoricamente una futura 4070 quali prestazioni (paragonabile a una 30xx?) e quanti GB di Vram dovrebbe avere?
In teoria AD104 dovrebbe giocarsela con la 3080ti, non so se faranno una 4070 full chip, comunque anche l'eventuale cut con 4060ti dovrebbe bene o male eguagliare 3080 liscia.
Essendo a 192bit avrà 12GB di vram, non so se opteranno per GDDR6 o GDDR6X, potrebbero anche fare 4070 con GDDR6X e 4060ti con GDDR6.
Ale55andr0
06-05-2022, 16:50
Rimane sempre un chip di fascia media, comunque anche nella prossima gen in quel target di prestazioni ci saranno 8GB, AD106 sarà a 128bit.
una scheda che pre-disastro era comunque 500 di msrp non la considero fascia media :rolleyes: La x070 non è mai stata fascia media ma medioalta (le ti escono sempre moolto dopo, ergo è il modello subito sotto la top per almeno un annetto...). E gli 8gb restano una presa per il :ciapet: e basta, ancor più nella fetentissima versione versione 14gps della liscia, roba vergognosa. Prodotto tarato in modo infame.
...E ancora sto aspettando di vedere quel "faster than 2080ti" sciorinato da giacchetta
Vabbè "media" è giusto un nomignolo tanto per...
Per fascia alta intendo il chippone.
Il problema è stato questo mercato pazzo, perchè in tempi normali le schede venivano scontate anche a prezzi al di sotto dell'MSRP, senza contare i warehouse o il classico usato.
Fondamentalmente nei bench che ho visto non ci sono particolari vantaggi per la 2080ti con i suoi 11GB rispetto 3070, anzi in molti giochi la 3070 tende a stare sopra, poi ovviamente dipende dai giochi e dalla complessità delle texture oltre alla risoluzione, e soprattutto se si prevede anche di importare texture mod più corposi, come le mod di skyrim con texture in 8k :sofico:
Poi vabbè con un bus a 256bit non è che potevi fare diversamente per la 3070, i 16GB oltre a non essere disponibili sarebbero stati uber, e regredire il chip a 192bit per metterne 12 non so se sarebbe stato vantaggioso senza una cache dignitosa, allo stesso tempo stampare il chip a 320/384bit aggiungendo una notevole complessità, consumi e collegamenti inutili non credo che sarebbe stata la scelta più adeguata, ci voleva GA103 desktop eventualmente facendo delle varianti Super e approfittando della doppia densità...
Comunque, anche al prossimo giro nel target di prestazioni di 3060ti-3070ti si avranno 8GB con AD106, e li penso possiamo dire che si tratti di fascia media... :fagiano:
Per me il chip più interessante sarà la 4060ti se ricavata da AD104, almeno per le mie esigenze budget/prestazioni, tagliata nel modo giusto dovrebbe giocarsela con 3080 liscia e avere 12GB di vram presumibilmente GDDR6, il che dovrebbe portare anche qualche vantaggio sui consumi rispetto le GDDR6X.
mikael84
07-05-2022, 00:16
una scheda che pre-disastro era comunque 500 di msrp non la considero fascia media :rolleyes: La x070 non è mai stata fascia media ma medioalta (le ti escono sempre moolto dopo, ergo è il modello subito sotto la top per almeno un annetto...). E gli 8gb restano una presa per il :ciapet: e basta, ancor più nella fetentissima versione versione 14gps della liscia, roba vergognosa. Prodotto tarato in modo infame.
Nvidia ha l'accordo con Micron, non poteva mettere 16gb in una mid, e 10 nell'enthusiast. 16gb su una 3070 non hanno neppure senso.
Riguardo la BW, abbiamo visto che con le gddr6x non cambia praticamente nulla.
Fai una prova, tramite GPU-Z, metti in average il memory controller load e guarda quanto ti segna:) Se questo valore è basso, i warp sono sottosfruttati. Per migliorare il tutto servirebbe una cache a metà latenza, non una BW un pelo più veloce.:)
...E ancora sto aspettando di vedere quel "faster than 2080ti" sciorinato da giacchetta
Vi insegno un trucchetto::)
-Turing full (titan rtx) 18.6 mtransistor
-GA104 (compresa la 3070ti) 17.4 mtransistor.
Ci sono calcoli in cui la 3070 è più potente ovviamente, come alcuni programmi pro.:)
Per me il chip più interessante sarà la 4060ti se ricavata da AD104, almeno per le mie esigenze budget/prestazioni, tagliata nel modo giusto dovrebbe giocarsela con 3080 liscia e avere 12GB di vram presumibilmente GDDR6, il che dovrebbe portare anche qualche vantaggio sui consumi rispetto le GDDR6X.
Chissà su che base, stanno prendendo questi dati.
https://www.techpowerup.com/gpu-specs/geforce-rtx-4060.c3891
killeragosta90
07-05-2022, 01:41
In teoria AD104 dovrebbe giocarsela con la 3080ti, non so se faranno una 4070 full chip, comunque anche l'eventuale cut con 4060ti dovrebbe bene o male eguagliare 3080 liscia.
Essendo a 192bit avrà 12GB di vram, non so se opteranno per GDDR6 o GDDR6X, potrebbero anche fare 4070 con GDDR6X e 4060ti con GDDR6.
Grazie :)
Chissà su che base, stanno prendendo questi dati.
https://www.techpowerup.com/gpu-specs/geforce-rtx-4060.c3891
Penso siano solo speculazioni, infatti ha gli stessi cc della 3070, la 4060 liscia credo sia quasi dato per certo che venga ricavata da AD106 a meno che non abbiano tanti scarti e vogliano mantenere i 12gb di marketing come 3060, però poi AD106 per cosa lo useresti?
Però vedremo...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Intanto multona a Nvidia, che corrisponde a un caffè e cornetto XD
https://www.hwupgrade.it/news/skvideo/nvidia-ha-fatto-soldi-con-il-cryptomining-e-non-l-ha-detto-multata-per-5-5-milioni-di-dollari-dalla-sec_106966.html
davide155
07-05-2022, 14:56
Intanto multona a Nvidia, che corrisponde a un caffè e cornetto XD
https://www.hwupgrade.it/news/skvideo/nvidia-ha-fatto-soldi-con-il-cryptomining-e-non-l-ha-detto-multata-per-5-5-milioni-di-dollari-dalla-sec_106966.html
Anche meno di un caffè e cornetto se fai le proporzioni con i nostri stipendi e gli aumenti dei bar :sofico:
mikael84
07-05-2022, 15:06
Penso siano solo speculazioni, infatti ha gli stessi cc della 3070, la 4060 liscia credo sia quasi dato per certo che venga ricavata da AD106 a meno che non abbiano tanti scarti e vogliano mantenere i 12gb di marketing come 3060, però poi AD106 per cosa lo useresti?
Però vedremo...
Inviato dal mio M2012K11AG utilizzando Tapatalk
X50 da 8gb. Bisogna vedere le rese che hanno, attualmente si ha un mezzo indizio di AD102 ed è disastroso.
Da accertare che l'architettura rimanga uguale, perchè in caso di scorporo int, cambia tutto.
Intanto multona a Nvidia, che corrisponde a un caffè e cornetto XD
https://www.hwupgrade.it/news/skvideo/nvidia-ha-fatto-soldi-con-il-cryptomining-e-non-l-ha-detto-multata-per-5-5-milioni-di-dollari-dalla-sec_106966.html
Anche meno di un caffè e cornetto se fai le proporzioni con i nostri stipendi e gli aumenti dei bar :sofico:
Ridicoli.
X50 da 8gb. Bisogna vedere le rese che hanno, attualmente si ha un mezzo indizio di AD102 ed è disastroso.
Da accertare che l'architettura rimanga uguale, perchè in caso di scorporo int, cambia tutto.
E però a meno di cut massivo, in stile 3050 desktop, mi sembra troppo un AD106 per le x50.
Comunque tutto è possibile, molto dipende da come vogliono "diluire" i chip e dalle rese che hanno, potrebbe anche non esserci una 4060ti e potrebbero fare 4060 e 4070 direttamente.
fraussantin
07-05-2022, 15:52
Intanto multona a Nvidia, che corrisponde a un caffè e cornetto XD
https://www.hwupgrade.it/news/skvideo/nvidia-ha-fatto-soldi-con-il-cryptomining-e-non-l-ha-detto-multata-per-5-5-milioni-di-dollari-dalla-sec_106966.htmlAl di là delle multe ridicole che fanno, ormai risaputo e anche "motivato", almeno si è ufficializzato che il mining era una causa importante del problema di carenza delle GPU.
OrazioOC
07-05-2022, 16:03
E però a meno di cut massivo, in stile 3050 desktop, mi sembra troppo un AD106 per le x50.
Comunque tutto è possibile, molto dipende da come vogliono "diluire" i chip e dalle rese che hanno, potrebbe anche non esserci una 4060ti e potrebbero fare 4060 e 4070 direttamente.
Già oggi nvidia ha fatto salire la serie x50 nella fascia media(la 3050 con 8gb di vram è tutto meno che una gpu entry level a differenza della vecchia gtx 1650 o rx 6500 xt) e infatti ci ha messo sopra ga106(talmente cut che si avvicenda nella produzione con ga107 ma tantè...).
mikael84
07-05-2022, 16:19
E però a meno di cut massivo, in stile 3050 desktop, mi sembra troppo un AD106 per le x50.
Comunque tutto è possibile, molto dipende da come vogliono "diluire" i chip e dalle rese che hanno, potrebbe anche non esserci una 4060ti e potrebbero fare 4060 e 4070 direttamente.
AD107 sarà notebook quasi sicuramente, chip full da 3072cc.
AD106 potrebbe ospitare le 3050/Ti desktop, parliamo di un chip di appena 200mm2. Se poi dovesse essere pure cuttato come GA106, bello schifo.:p
Sicuramente ci sarà una x60 con AD104.
Già oggi nvidia ha fatto salire la serie x50 nella fascia media(la 3050 con 8gb di vram è tutto meno che una gpu entry level a differenza della vecchia gtx 1650 o rx 6500 xt) e infatti ci ha messo sopra ga106(talmente cut che si avvicenda nella produzione con ga107 ma tantè...).
Infatti ha fatto salire la 3050 su GA106 per destinare completamente AD107 sui note.
amon.akira
07-05-2022, 17:18
nvidia-geforce-rtx-30-lite-hash-rate-lhr-has-been-fully-unlocked (https://videocardz.com/newz/nvidia-geforce-rtx-30-lite-hash-rate-lhr-has-been-fully-unlocked)
restano solo le 3050 e le 3080 12gb
Già oggi nvidia ha fatto salire la serie x50 nella fascia media(la 3050 con 8gb di vram è tutto meno che una gpu entry level a differenza della vecchia gtx 1650 o rx 6500 xt) e infatti ci ha messo sopra ga106(talmente cut che si avvicenda nella produzione con ga107 ma tantè...).
Si ma il fatto che sia stata prodotta su GA106 non è per migliorare le performance, anzi su un GA107 avrebbe consumato anche meno performando allo stesso modo, ma la scelta è solo per lasciare quest'ultimo esclusivamente ai notebook.
AD107 sarà notebook quasi sicuramente, chip full da 3072cc.
AD106 potrebbe ospitare le 3050/Ti desktop, parliamo di un chip di appena 200mm2. Se poi dovesse essere pure cuttato come GA106, bello schifo.:p
Sicuramente ci sarà una x60 con AD104.
Quindi sei dell'idea che potrebbero fare come Ampere, e quindi riservare i chip buoni per i notebook ed eventualmente riciclare i chip fallati per le x50 desktop?
Sicuramente è un opzione, non bellissima ma vabbè, al peggio non c'è fondo XD
Comunque lato prestazionale AD106 dovrebbe contare ben 4608cc, vero che soffre decisamente molto rispetto ai fratelli maggiori ma nella sua versione full non dovrebbe aver problemi a rivaleggiare con 3070...
Tra l'altro ho visto che techpower ha inserito anche le specs della 4050 ricavata da AD106 con 3840cc:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4050.c3892
Infatti ha fatto salire la 3050 su GA106 per destinare completamente AD107 sui note.
Esatto...
mikael84
08-05-2022, 00:19
Quindi sei dell'idea che potrebbero fare come Ampere, e quindi riservare i chip buoni per i notebook ed eventualmente riciclare i chip fallati per le x50 desktop?
Sicuramente è un opzione, non bellissima ma vabbè, al peggio non c'è fondo XD
Comunque lato prestazionale AD106 dovrebbe contare ben 4608cc, vero che soffre decisamente molto rispetto ai fratelli maggiori ma nella sua versione full non dovrebbe aver problemi a rivaleggiare con 3070...
Tra l'altro ho visto che techpower ha inserito anche le specs della 4050 ricavata da AD106 con 3840cc:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4050.c3892
Esatto...
Si AD107 potrebbe essere destinata ai note. AD106 dipenderà anche dalle rese, ma sarebbe un downgrade importante per tale fascia, alla fine la 3060 rispetta la regola delle 1/3 ALU.
4608 è 1/4, valori da x50 nettissimi, se poi sarà pure decurtata...
Da JHH c'è da aspettarsi di tutto, ormai è tutto fuori logica, già la 4080 declassata a x70...
Riguardo la 4050 di tpu, non so su che basi vengano stimate, ma sarebbe drammatico trovarsi un chip da 200mm2 con 3 TPC disattivati, significa che con tali rese, inutile puntare anche al MCM.
TPU è potente, gestisce gran parte dei siti minori, ma gli stessi hanno prelevato le stime dell'hack dai classici Kopite-locuza.:)
Viene anche da dire, come fanno a sapere i cut, se i primi lavori EVT/dtv cominciano 2/3 mesi prima.
Per dire, nello specifico, solo 2/3 mesi prima potremmo sapere i vari cut di AD102 con precisione, figuriamoci di un chip previsto nel q1 2023:)
OrazioOC
08-05-2022, 09:21
Quindi nvidia nel 2023 ancora con turing e pascal nella fascia sub 250 dollari?Come lasciare un segmento di mercato alla concorrenza.:rolleyes:
Quindi nvidia nel 2023 ancora con turing e pascal nella fascia sub 250 dollari?Come lasciare un segmento di mercato alla concorrenza.:rolleyes:
I chip di fascia medio-bassa sono sempre arrivati dopo, quindi si, se ne parla nel 2023.
Ma considerando che entrerà anche Intel in quel range di prestazioni a breve, i prodotti non mancano... da vedere i prezzi.
Andy1111
08-05-2022, 15:12
https://www.anandtech.com/show/17123/tsmc-unveils-n4x-node-high-voltages-for-high-clocks
Questo è il nodo che usa Nvidia per le prossime VGA, farà alzare le frequenze sicuramente ma i consumi ancora di più ....
N4X promises to combine transistor density and design rules of TSMC's N5-family nodes with the ability to drive chips at extra high voltages for higher frequencies
mikael84
08-05-2022, 16:17
https://www.anandtech.com/show/17123/tsmc-unveils-n4x-node-high-voltages-for-high-clocks
Questo è il nodo che usa Nvidia per le prossime VGA, farà alzare le frequenze sicuramente ma i consumi ancora di più ....
N4X promises to combine transistor density and design rules of TSMC's N5-family nodes with the ability to drive chips at extra high voltages for higher frequencies
Non userà quello, neppure previsto per quest'anno ma un n5 personalizzato, come fu il 12nm di TSMC turing, chiamato n4.
Fa pure schifo, 98mt xmm2 sul HPC.
SinapsiTXT
09-05-2022, 22:50
Buonasera vi chiedo un consiglio ponderato su un dilemma:
1) vedo che la 3080ti FE è finalmente acquistabile senza troppi sbattimenti al prezzo di listino (prezzo parecchio caro rispetto alla 3080)
2) so bene che tra 4 mesi circa uscirà la nuova serie
3) ho una 3070 sul pc principale ma mi piacerebbe prendere un'altra gpu per metterla sul pc secondario e se prendessi al 3080ti mi basterebbe ruotare la 3070 sul pc secondario e sarei a posto per gli anni a venire
Sto quindi considerando che è uno spreco di soldi comprare una 3080ti FE quando tra 4 mesi uscirà la serie nuova PERO' temo che la serie nuova la fascia media/alta sarà inavvicinabile e magari non si troveranno più i modelli FE della serie 3000 ergo secondo voi una 3070 da rivendere a fine anno potrebbe svalutarsi tanto in caso volessi passare alla serie 4000 e recuperare parte della spesa? Comprare una ipotetica 4070 potrebbe costare anche meno e andare come prestazioni in maniera simile (non so bene se sono uscite delle indiscrezioni sui futuri prezzi)?
Ci sto pensando da almeno un mese a questa parte e finora ho tenuto a bada la scimmia però continuo a temere uno shortage per la serie 4000 e una gpu per il pc secondario mi servirà quasi sicuramente entro la fine di quest'anno :fagiano:
fraussantin
09-05-2022, 22:54
Buonasera vi chiedo un consiglio ponderato su un dilemma:
1) vedo che la 3080ti FE è finalmente acquistabile senza troppi sbattimenti al prezzo di listino (prezzo parecchio caro rispetto alla 3080)
2) so bene che tra 4 mesi circa uscirà la nuova serie
3) ho una 3070 sul pc principale ma mi piacerebbe prendere un'altra gpu per metterla sul pc secondario e se prendessi al 3080ti mi basterebbe ruotare la 3070 sul pc secondario e sarei a posto per gli anni a venire
Sto quindi considerando che è uno spreco di soldi comprare una 3080ti FE quando tra 4 mesi uscirà la serie nuova PERO' temo che la serie nuova la fascia media/alta sarà inavvicinabile e magari non si troveranno più i modelli FE della serie 3000 ergo secondo voi una 3070 da rivendere a fine anno potrebbe svalutarsi tanto in caso volessi passare alla serie 4000 e recuperare parte della spesa? Comprare una ipotetica 4070 potrebbe costare anche meno e andare come prestazioni in maniera simile (non so bene se sono uscite delle indiscrezioni sui futuri prezzi)?
Ci sto pensando da almeno un mese a questa parte e finora ho tenuto a bada la scimmia però continuo a temere uno shortage per la serie 4000 e una gpu per il pc secondario mi servirà quasi sicuramente entro la fine di quest'anno :fagiano:
a prezzo msrp nvidia con la prossima serie ti dara sicuramente una scheda con prestazioni maggiori della 3080ti ad un prezzo piu basso ( la 4080 , ma prob anche la 4070) e tanta ram in piu .
il dilemma è se si troveranno a quel prezzo o saranno perennemente out of stock.
se le crypto continueranno a sprofondare come stanno facendo ci sono delle possibilità .
Thunder-74
10-05-2022, 11:07
Buonasera vi chiedo un consiglio ponderato su un dilemma:
1) vedo che la 3080ti FE è finalmente acquistabile senza troppi sbattimenti al prezzo di listino (prezzo parecchio caro rispetto alla 3080)
2) so bene che tra 4 mesi circa uscirà la nuova serie
3) ho una 3070 sul pc principale ma mi piacerebbe prendere un'altra gpu per metterla sul pc secondario e se prendessi al 3080ti mi basterebbe ruotare la 3070 sul pc secondario e sarei a posto per gli anni a venire
Sto quindi considerando che è uno spreco di soldi comprare una 3080ti FE quando tra 4 mesi uscirà la serie nuova PERO' temo che la serie nuova la fascia media/alta sarà inavvicinabile e magari non si troveranno più i modelli FE della serie 3000 ergo secondo voi una 3070 da rivendere a fine anno potrebbe svalutarsi tanto in caso volessi passare alla serie 4000 e recuperare parte della spesa? Comprare una ipotetica 4070 potrebbe costare anche meno e andare come prestazioni in maniera simile (non so bene se sono uscite delle indiscrezioni sui futuri prezzi)?
Ci sto pensando da almeno un mese a questa parte e finora ho tenuto a bada la scimmia però continuo a temere uno shortage per la serie 4000 e una gpu per il pc secondario mi servirà quasi sicuramente entro la fine di quest'anno :fagiano:
Io aspetterei
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
11-05-2022, 13:12
Si dice che ...
RTX 4090, PG137/139-SKU330, AD102-300, 21 Gbps //24Gb GDDR6X, 600 W
RTX 4070, PG141-SKU341, AD104-400, 18 Gbps // 12Gb GDDR6, 300 W
link (https://wccftech.com/nvidia-geforce-rtx-4090-24-gb-21-gbps-600w-rtx-4070-12-gb-18-gbps-300w-graphics-cards-rumor/)
fraussantin
11-05-2022, 13:37
Si dice che ...
RTX 4090, PG137/139-SKU330, AD102-300, 21 Gbps //24Gb GDDR6X, 600 W
RTX 4070, PG141-SKU341, AD104-400, 18 Gbps // 12Gb GDDR6, 300 W
link (https://wccftech.com/nvidia-geforce-rtx-4090-24-gb-21-gbps-600w-rtx-4070-12-gb-18-gbps-300w-graphics-cards-rumor/)La 4070 a 300w sul 104 mi sembra veramente tanto.
Certo considerato 600 sul 102 .. è possibile.
mikael84
11-05-2022, 15:01
La 4070 a 300w sul 104 mi sembra veramente tanto.
Certo considerato 600 sul 102 .. è possibile.
300 è possibile.
Paragonato ad AD102, dovrebbero essere circa 190 solo di GPU, a cui andrà aggiunto tutto il resto, tra cui PCB, fan, perdite, ram etc. In più rispetto ad AD102, manterrà clock più elevati a def, di conseguenza il core sarà più tirato.
Alla fine già ora con la 3070ti siamo li.
thunderforce83
11-05-2022, 15:29
cavoli che assorbimenti...credo che con la serie 4xxx se voglio prendere la full che stock consuma 600w il mio corsair ax860 potrebbe non bastare...
Purtroppo 300W mi sembrano realistici per la 4070 ed è il limite che accetto per il mio sistema. E' la potenza che è ancora da verificare.
mikael84
11-05-2022, 17:18
Purtroppo 300W mi sembrano realistici per la 4070 ed è il limite che accetto per il mio sistema. E' la potenza che è ancora da verificare.
In tutti gli stadi moltiplicatori, compresi i flops, questo chip eguaglierebbe la 3080 12gb(1900 fissi, neppure da review) a soli 2250. Ovviamente ci aspettiamo clock ben superiori.
Rimane la banda inferiore, ma andrà valutata la cache.
Da verificare anche il ruolo degli Int, se accoppiati o distaccati, come turing.
Ampere, insieme a turing, ha un collo di bottiglia, sullo sfruttamento delle ALU, che riguarda il warp stall.
mircocatta
11-05-2022, 17:49
cavoli che assorbimenti...credo che con la serie 4xxx se voglio prendere la full che stock consuma 600w il mio corsair ax860 potrebbe non bastare...
togli pure il potrebbe :asd:
pensa che mi è stato suggerito di cestinarlo anche solo per una 3080ti :stordita:
fraussantin
11-05-2022, 20:02
Purtroppo 300W mi sembrano realistici per la 4070 ed è il limite che accetto per il mio sistema. E' la potenza che è ancora da verificare.Si ma parliamo di FE ... Per come gira il mondo le custom potrebbero tranquillamente alzare del 10,20% i consumi.
Boh se devo prendere una 4070 che si va un po' più della 3080 (ma quanto?) , ma consuma uguale che senso ha?
Boh se devo prendere una 4070 che si va un po' più della 3080 (ma quanto?) , ma consuma uguale che senso ha?
A parità di prezzo, nessuno, conviene aspettare la 4070ti.
Andy1111
11-05-2022, 22:27
una brutta notizia per tutti
Taiwan’s TSMC to hike chip prices by 6% in 2023
https://www.taiwannews.com.tw/en/news/4534608
thunderforce83
11-05-2022, 23:41
togli pure il potrebbe :asd:
pensa che mi è stato suggerito di cestinarlo anche solo per una 3080ti :stordita:
cavoli...vedremo cosa uscira' a livello di consumo allora:D
una brutta notizia per tutti
Taiwan’s TSMC to hike chip prices by 6% in 2023
https://www.taiwannews.com.tw/en/news/4534608
Io lo sapevo...secondo me la 4090 arrivera' tranquillamente intorno ai 2000 buffettoni!
mikael84
12-05-2022, 00:10
togli pure il potrebbe :asd:
pensa che mi è stato suggerito di cestinarlo anche solo per una 3080ti :stordita:
Certo che dagli SLI sembra passata un'era. 350/400watt li raggiungevi con 2 schedine mid.
Cmq l'alimentatore non è solo watt puri. La qualità, spesso anche più dei watt, dipende dai condensatori secondari, che gestiscono le fluttuazioni, e dal chip che controlla i picchi più bassi.
Se prendi un 1200, magari vecchia gen, e questo non rileva un picco brevissimo molto basso, la mobo spegne tutto per sicurezza.
Non a caso i primi flextronics, come gli Axi, avevano frequenze di commutazione più basse, creando problemi a iosa.
Si ma parliamo di FE ... Per come gira il mondo le custom potrebbero tranquillamente alzare del 10,20% i consumi.
Boh se devo prendere una 4070 che si va un po' più della 3080 (ma quanto?) , ma consuma uguale che senso ha?
Sopra i 600 watt, devi utilizzare 2x16pin, ovvero 2 doppi adattatori da 4x8. Secondo me, ci stanno pure marciando con il picco del cavo.
Riguardo i consumi, ormai si ha poco margine, se non a livello di densità, guarda pure la 3070ti o la 6750xt, consumano praticamante a stock più della 2080ti, la differenza però sta nel die decisamente più piccolo.
Con Lovelace, nvidia potrebbe garantirti una 3090/ti con soli 300mm2.
La vera differenza dovrebbe stare nel prezzo, ma di questi tempi lascia il tempo che trova.:p
scorpion73
12-05-2022, 05:16
Se prendi un 1200, magari vecchia gen, e questo non rileva un picco brevissimo molto basso, la mobo spegne tutto per sicurezza.
Non a caso i primi flextronics, come gli Axi, avevano frequenze di commutazione più basse, creando problemi a iosa.
Si ma vecchi quanto?
Il problema sta tutto lì.
Io che sul mio PC ho un Seasonic Prime Gold 1300w de 2019, ma non un one seasonic, bensì quello della gen prima che avevano ancora i condensatori sui cavi, posso dire di appartenere a quella gen in vista delle nuove gpu oppure con un adattatore potrei andare bene?
Perché la situazione nella gestione dei micropicchi è tutta lì.
Attualmente quella psu gestisce benissimo la mia 3090 che sinceramente dubito non abbia micropicchi de genere.
Inviato dal mio iPhone utilizzando Tapatalk
mircocatta
12-05-2022, 06:35
Certo che dagli SLI sembra passata un'era. 350/400watt li raggiungevi con 2 schedine mid.
Cmq l'alimentatore non è solo watt puri. La qualità, spesso anche più dei watt, dipende dai condensatori secondari, che gestiscono le fluttuazioni, e dal chip che controlla i picchi più bassi.
Se prendi un 1200, magari vecchia gen, e questo non rileva un picco brevissimo molto basso, la mobo spegne tutto per sicurezza.
Non a caso i primi flextronics, come gli Axi, avevano frequenze di commutazione più basse, creando problemi a iosa.
Sopra i 600 watt, devi utilizzare 2x16pin, ovvero 2 doppi adattatori da 4x8. Secondo me, ci stanno pure marciando con il picco del cavo.
Riguardo i consumi, ormai si ha poco margine, se non a livello di densità, guarda pure la 3070ti o la 6750xt, consumano praticamante a stock più della 2080ti, la differenza però sta nel die decisamente più piccolo.
Con Lovelace, nvidia potrebbe garantirti una 3090/ti con soli 300mm2.
La vera differenza dovrebbe stare nel prezzo, ma di questi tempi lascia il tempo che trova.:p
è proprio questo il punto, non sarà il prezzo a diminuire, ma sarà il costo ad abbassarsi drasticamente, invariando o probabilmente aumentando il prezzo :asd: risultato? + profitto (per loro)
Io la 3070 per passare alla 4070, ammesso vada come una 3080, non la cambio nemmeno sotto tortura.
Per un 20% in più mi tengo una scheda da 60 gradi in game e nemmeno 220w di consumo
Vediamo cosa saranno queste 4000, ma più passa e più penso di restare con ampere.
fraussantin
12-05-2022, 07:41
Io la 3070 per passare alla 4070, ammesso vada come una 3080, non la cambio nemmeno sotto tortura.
Per un 20% in più mi tengo una scheda da 60 gradi in game e nemmeno 220w di consumo
Vediamo cosa saranno queste 4000, ma più passa e più penso di restare con ampere.Sui gradi in game è relativo , dipende più che altro da come viene dissipata ( e da dove mettono il termometro :asd:)il problema è il consumo eccessivo e il calore emesso.
Il mio PC inizia già a fare troppo caldo per i miei gusti , e siamo solo a maggio.
Certo che dagli SLI sembra passata un'era. 350/400watt li raggiungevi con 2 schedine mid.
Cmq l'alimentatore non è solo watt puri. La qualità, spesso anche più dei watt, dipende dai condensatori secondari, che gestiscono le fluttuazioni, e dal chip che controlla i picchi più bassi.
Se prendi un 1200, magari vecchia gen, e questo non rileva un picco brevissimo molto basso, la mobo spegne tutto per sicurezza.
Non a caso i primi flextronics, come gli Axi, avevano frequenze di commutazione più basse, creando problemi a iosa.
Sopra i 600 watt, devi utilizzare 2x16pin, ovvero 2 doppi adattatori da 4x8. Secondo me, ci stanno pure marciando con il picco del cavo.
Riguardo i consumi, ormai si ha poco margine, se non a livello di densità, guarda pure la 3070ti o la 6750xt, consumano praticamante a stock più della 2080ti, la differenza però sta nel die decisamente più piccolo.
Con Lovelace, nvidia potrebbe garantirti una 3090/ti con soli 300mm2.
La vera differenza dovrebbe stare nel prezzo, ma di questi tempi lascia il tempo che trova.:p
I prezzi non possono che salire , ma a causa dell'esagerata inflazione a livello mondiale. Al netto di speculazioni varie ed eventuali .
Edit:
Oltretutto che gioconi devono uscire per il lancio delle schede?
Stalker 2 è l'unico che mi viene a mente sempre se lo faranno uscire.
Tw4 uscirà fra 3 gen :asd:
Kaheleha
12-05-2022, 07:48
Io la 3070 per passare alla 4070, ammesso vada come una 3080, non la cambio nemmeno sotto tortura.
Per un 20% in più mi tengo una scheda da 60 gradi in game e nemmeno 220w di consumo
Vediamo cosa saranno queste 4000, ma più passa e più penso di restare con ampere.
Concordo su tutto anch'io sono molto perplesso dalla serie 4xxx al di là del fatto che costeranno una fucilata secondo me, ma poi i consumi sono da fuori di testa ragazzi, io resterò con la mia 2080ti a vedere l'evolversi della situazione.
Ma la cosa sicura è che non sgancio nemmeno un euro in più del prezzo mrsp.
Belle queste autosuggestioni per convincersi di non comprare schede che ancora devono uscire e di cui non si sanno le spec :sofico:
Che monetariamente non convenga cambiare scheda ogni mezza gen e' risaputo, ma tanto poi vi bussa la scimmia e sappiamo gia' che andrete a lucidare il giacchettino di JHH.
Io son con una Titan X Pascal ancora, figuriamoci se condivido il vostro pensiero, ma state parlando del nulla al momento, io voglio un +100% quindi mi servira' qualcosa sopra la 3080ti indicativamente, se la 4080 fara' ridere o avra' margine di revision, aspettero' le TI e pazienza, per le cagate di giochi che ci sono poi :)
Belle queste autosuggestioni per convincersi di non comprare schede che ancora devono uscire e di cui non si sanno le spec :sofico:
Che monetariamente non convenga cambiare scheda ogni mezza gen e' risaputo (e sara' sempre peggio), ma tanto poi vi bussa la scimmia e sappiamo gia' che andrete a lucidare il giacchettino di JHH.
Io son con una Titan X Pascal ancora, figuriamoci se non condivido il vostro pensiero, ma state parlando del nulla al momento, io voglio un +100% quindi mi servira' qualcosa sopra la 3080ti indicativamente, se la 4080 fara' ridere o avra' margine di revision, aspettero' le TI e pazienza, per le cagate di giochi che ci sono poi :)
mikael84
12-05-2022, 12:26
Si ma vecchi quanto?
Il problema sta tutto lì.
Io che sul mio PC ho un Seasonic Prime Gold 1300w de 2019, ma non un one seasonic, bensì quello della gen prima che avevano ancora i condensatori sui cavi, posso dire di appartenere a quella gen in vista delle nuove gpu oppure con un adattatore potrei andare bene?
Perché la situazione nella gestione dei micropicchi è tutta lì.
Attualmente quella psu gestisce benissimo la mia 3090 che sinceramente dubito non abbia micropicchi de genere.
Inviato dal mio iPhone utilizzando Tapatalk
Il tuo ali probabilmente te ne può reggere 2 tranquillamente.
Io su un 850 neppure modulare ci ho messo per anni cross, tra cui anche uno SLI di 780.
Ciò che intendevo dire io, che spesso non sono solo i watt da tenere in considerazioni. In passato alcune dual GPU esose, hanno spento dei 1200 e non 850watt, in quanto la circuiteria non rilevava micropicchi troppo bassi a differenza del 850.
Chiaro che un ALI una volta superato il 70%, man mano che perde efficienza, i condensatori secondari fanno più fatica a gestire i picchi bassi.
Cmq non farti troppe paranoie su questa questione.:)
Chiudo OT.
è proprio questo il punto, non sarà il prezzo a diminuire, ma sarà il costo ad abbassarsi drasticamente, invariando o probabilmente aumentando il prezzo :asd: risultato? + profitto (per loro)
Beh, non è che se viaggia come una 3090, una x70 costerà come quest'ultima:) . Di certo per vari aspetti, non ci saranno più le 970 da 300 euro. Consideriamo che parliamo di un chippino da 300mm2, siamo quasi soglia x60. Certo che vedere le 6750xt come le apprezzate AMD, non fa sperare molto bene, però ci metterei la firma a trovarle reperibile a quei costi.:)
Io la 3070 per passare alla 4070, ammesso vada come una 3080, non la cambio nemmeno sotto tortura.
Per un 20% in più mi tengo una scheda da 60 gradi in game e nemmeno 220w di consumo
Vediamo cosa saranno queste 4000, ma più passa e più penso di restare con ampere.
Sarà di più di un 20%. La 3080 la prende in scioltezza.
Probabilmente la 4060 avrà i cuda della 3070, ma decisamente più clockati, qualcuno specula pure di raggiungere i 2700.
I prezzi non possono che salire , ma a causa dell'esagerata inflazione a livello mondiale. Al netto di speculazioni varie ed eventuali .
Questo si, l'abbiamo visto con AMD, che ha messo la 6750xt ad oltre 600 euro, però la differenza la farà la reperibilità. Se le x70 venissero prezzate uguale, ma con reperibilità, la cosa sarebbe ben diversa.:)
Oltretutto che gioconi devono uscire per il lancio delle schede?
Stalker 2 è l'unico che mi viene a mente sempre se lo faranno uscire.
Tw4 uscirà fra 3 gen :asd:
Sinceramente non ne ho idea, ormai tutti vogliono il superchip, ma il software scarseggia.:p
FrancoBit
12-05-2022, 13:35
Sinceramente non ne ho idea, ormai tutti vogliono il superchip, ma il software scarseggia.:p
Hanno giusto rinviato Starfield al 2023 :cry: Non che abbia problemi a giocare in sto periodo, però ero abbastanza inscimmiato.... amen
mikael84
12-05-2022, 15:17
Belle queste autosuggestioni per convincersi di non comprare schede che ancora devono uscire e di cui non si sanno le spec :sofico:
Che monetariamente non convenga cambiare scheda ogni mezza gen e' risaputo, ma tanto poi vi bussa la scimmia e sappiamo gia' che andrete a lucidare il giacchettino di JHH.
Io son con una Titan X Pascal ancora, figuriamoci se condivido il vostro pensiero, ma state parlando del nulla al momento, io voglio un +100% quindi mi servira' qualcosa sopra la 3080ti indicativamente, se la 4080 fara' ridere o avra' margine di revision, aspettero' le TI e pazienza, per le cagate di giochi che ci sono poi :)
Del nulla no, le spec. sono confermate a livello di chip dopo l'hack di qualche mese fa, così come la cache, il connettore etc....:)
Certo, ci sono ancora fattori microarchitetturali da chiarire (int slegate o meno), clock e derivati, ma già dal mese prossimo cominceranno le fasi conclusive.
L'EVT/DVT dovrebbe partire già questo mese, almeno su AD102.
Con Lovelace, speriamo di fare il salto entrambi, perchè pure io sono piuttosto indietro, per fortuna ho il DLSS.:)
Teoricamente dovrei cambiare tutto, compresa la CPU.:p
Hanno giusto rinviato Starfield al 2023 :cry: Non che abbia problemi a giocare in sto periodo, però ero abbastanza inscimmiato.... amen
Si a livello software c'è davvero poca roba per ora, i pochi gli hanno rinviati (vedi anche stalker). Addirittura indie come Outlast, sono da anni che devono uscire.
Speriamo anche sugli unreal 5, basta crossgen ps4.:)
Del nulla no, le spec. sono confermate a livello di chip dopo l'hack di qualche mese fa, così come la cache, il connettore etc....:)
Certo, ci sono ancora fattori microarchitetturali da chiarire (int slegate o meno), clock e derivati, ma già dal mese prossimo cominceranno le fasi conclusive.
L'EVT/DVT dovrebbe partire già questo mese, almeno su AD102.
Con Lovelace, speriamo di fare il salto entrambi, perchè pure io sono piuttosto indietro, per fortuna ho il DLSS.:)
Teoricamente dovrei cambiare tutto, compresa la CPU.:p
Sicuramente (anche se dei leak mi fido sempre poco), ma farne un discorso di costo-prestazioni-consumi mi sembra prematuro, sopratutto il prezzo sara' la variabile determinate visto il periodo :)
Una 3080 usata al giusto prezzo potrebbe diventare appettibile come scheda da semi transizione ad esempio, vediamo.
mikael84
12-05-2022, 15:47
Sicuramente, ma farne un discorso di costo-prestazioni-consumi mi sembra prematuro, sopratutto il prezzo sara' la variabile determinate visto il periodo :)
Una 3080 usata al giusto prezzo potrebbe diventare appettibile come scheda da semi transizione ad esempio, vediamo.
Ovviamente, i prezzi li sapremmo alla presentazione agosto/settembre, non prima. Infatti non ne parlo mai, in quanto non ci sono proprio le basi. Io però sono dell'idea personale che a livello MSRP non ci saranno delle grosse variazioni.
Ampere rimarrà sempre un chip valido usato, dipende anche dalle esigenze che uno ha. L'unica pecca che si porterà dietro è la singola densità, che in futuro potrebbe essere limitante.:)
Non a tutti servirà la 4090, o la sfrutteranno appieno, compreso nvlink per usi professionali.
Ale55andr0
12-05-2022, 16:17
Si a livello software c'è davvero poca roba per ora, i pochi gli hanno rinviati (vedi anche stalker). Addirittura indie come Outlast, sono da anni che devono uscire.
Speriamo anche sugli unreal 5, basta crossgen ps4.:)
stalker...non sappiamo nemmeno come stanno davvero messi gli sviluppatori...posto che ormai rinviano anche banalità come le remaster (tw3). Il vuoto cosmico il 2022 lato gaming
29Leonardo
12-05-2022, 19:59
Il vuoto cosmico il 2022 lato gaming
L'unica cosa che non mi fa pesare non aver potuto cambiare gpu, avrei comunque giocato ad una ceppadiminchia :D
Ale55andr0
12-05-2022, 20:08
L'unica cosa che non mi fa pesare non aver potuto cambiare gpu, avrei comunque giocato ad una ceppadiminchia :D
ma almeno avresti potuto maxarla in 4k + RT :O
devAngnew
12-05-2022, 20:17
Sui gradi in game è relativo , dipende più che altro da come viene dissipata ( e da dove mettono il termometro :asd:)il problema è il consumo eccessivo e il calore emesso.
Il mio PC inizia già a fare troppo caldo per i miei gusti , e siamo solo a maggio.
I prezzi non possono che salire , ma a causa dell'esagerata inflazione a livello mondiale. Al netto di speculazioni varie ed eventuali .
Edit:
Oltretutto che gioconi devono uscire per il lancio delle schede?
Stalker 2 è l'unico che mi viene a mente sempre se lo faranno uscire.
Tw4 uscirà fra 3 gen :asd:
Si, quella è causata prevalentemente dalla "diatriba" tra yankee, cinesi e ussi... e calo esagerato dell'offerta world wide :muro: si lavora poco e gli stipendi sono stagnanti
scorpion73
13-05-2022, 19:58
https://videocardz.com/newz/nvidia-announces-may-23-computex-2022-keynote-the-company-will-present-the-latest-products-for-gamers
"NVIDIA today announced it will hold a keynote on Computex 2022.
The company’s keynote will include 6 speakers, which suggests a number of topics will be covered. However, gamers should take notice that Jeff Fisher, who is the Senior VP for GeForce at NVIDIA, will also take part.
Jeff appeared at CES 2022 conference, where he announced NVIDIA’s flagship GeForce RTX 3090 Ti graphics card. It took many weeks for the card to come out, but Mr. Fisher always has something interesting to say about new GeForce products.
The keynote description mentions that NVIDIA will “present how AI is powering the enterprise data center and the latest products and technologies for gamers and creators“. The second part of this sentence may not necessarily mean NEW products, though."
Thunder-74
14-05-2022, 10:57
NVIDIA Ada Lovelace 'GeForce RTX 40' dettagliata: raddoppio dei ROP, enorme cache L2 e 50% in più di unità FP32 rispetto ad Ampere, tensore di quarta generazione e core RT di terza generazione
https://i.imgur.com/Kdliymm.png
https://i.imgur.com/L7mmTgr.png
La GPU NVIDIA Ada Lovelace AD102 includerà fino a 12 GPC (Graphics Processing Clusters). Si tratta di un aumento del 70% rispetto a GA102 che presenta solo 7 GPC. Ogni GPU sarà composta da 6 TPC e 2 SM che è la stessa configurazione del chip esistente. Ogni SM (Streaming Multiprocessor) ospiterà quattro sub-core che è anche lo stesso della GPU GA102. Ciò che è cambiato è la configurazione principale di FP32 e INT32. Ogni sub-core includerà 128 unità FP32 ma le unità FP32+INT32 combinate saliranno a 192. Questo perché le unità FP32 non condividono lo stesso sub-core delle unità IN32. I 128 core FP32 sono separati dai 64 core INT32.
Quindi, in totale, ogni sub-core sarà composto da 128 unità FP32 più 64 unità INT32 per un totale di 192 unità. Ogni SM avrà un totale di 512 unità FP32 più 256 unità INT32 per un totale di 768 unità. E poiché ci sono un totale di 24 unità SM (2 per GPC), stiamo guardando a 12.288 unità FP32 e 6.144 unità INT32 per un totale di 18.432 core. Ogni SM includerà anche due Wrap Schedule (32 thread/CLK) per 64 wrap per SM. Si tratta di un aumento del 50% sui core (FP32+INT32) e del 33% in Wraps/Threads rispetto alla GPU GA102.
Passando alla cache, questo è un altro segmento in cui NVIDIA ha dato un grande impulso rispetto alle GPU Ampere esistenti. Le GPU Ada Lovelace impacchettano 192 KB di cache L1 per SM, con un aumento del 50% rispetto ad Ampere. Si tratta di un totale di 4,5 MB di cache L1 sulla GPU AD102 superiore. La cache L2 verrà aumentata a 96 MB come menzionato nelle perdite. Si tratta di un aumento di 16 volte rispetto alla GPU Ampere che ospita solo 6 MB di cache L2. La cache verrà condivisa attraverso la GPU.
Infine, abbiamo i ROP, anch'essi aumentati a 32 per GPC, un aumento di 2 volte rispetto ad Ampere. Stai guardando fino a 384 ROP sull'ammiraglia di nuova generazione rispetto a soli 112 sulla GPU Ampere più veloce, l'RTX 3090 Ti. Ci saranno anche gli ultimi core Tensor di 4a generazione e RT (Raytracing) di 3a generazione infusi nelle GPU Ada Lovelace che aiuteranno a migliorare le prestazioni DLSS e Raytracing al livello successivo. Nel complesso, la GPU Ada Lovelace AD102 offrirà:
2x GPC (contro Ampere)
50% di core in più (rispetto ad Ampere)
50% in più di cache L1 (rispetto ad Ampere)
16 volte più cache L2 (rispetto ad Ampere)
Raddoppia i ROP (contro Ampere)
Tensor di quarta generazione e core RT di terza generazione
Si noti che le velocità di clock, che si dice siano comprese tra 2-3 GHz, non sono incluse nell'equazione, quindi svolgeranno anche un ruolo importante nel migliorare le prestazioni per core rispetto ad Ampere
in sintesi...
https://i.imgur.com/kPsNKnE.png
FONTE (https://wccftech.com/nvidia-ada-lovelace-geforce-rtx-40-gaming-gpu-detailed-double-the-rops-huge-l2-cache-50-more-fp32-units-than-ampere-4th-gen-tensor-3rd-gen-rt-cores/)
Se è davvero così la 4070 la prenderò all'istante!
Si sa nulla dei consumi della fascia media/alta?
Se è davvero così la 4070 la prenderò all'istante!
Si sa nulla dei consumi della fascia media/alta?
AD104 dipende da quanto lo pompano, ma non dovrebbe superare i 250-300w considerando i 2.8ghz di boost e le eventuali GDDR6X da 21gbps.
Andy1111
14-05-2022, 16:29
AD104 dipende da quanto lo pompano, ma non dovrebbe superare i 250-300w considerando i 2.8ghz di boost e le eventuali GDDR6X da 21gbps.
la 4070 starà sui 300/350W parlando di FE con GDDR6 a 18gbps
RTX 4080 will use AD103 chips, build with 16G GDDR6X, have a similar TGP to GA102.
RTX 4070 will use AD104 chips, build with 12G GDDR6, 300W.
Both of them haven't started testing yet, but soon do them.
https://twitter.com/kopite7kimi/status/1519164336035745792?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1523881148732313600%7Ctwgr%5E%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fwww.tomshw.it%2Fhardware%2Fla-rtx-4090-potrebbe-avere-24gb-di-ram-gddr6x-a-21gb-s%2F
Si vociferava anche della RTX 4060 ricavata da AD104 con 5888cc:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4060.c3891
Thunder-74
14-05-2022, 18:32
Ragazzi ma solo io ho la scimmia in modalità ON? :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
14-05-2022, 21:07
Cerco di rispondere passo passo, ricordo che sono speculazioni di Kopite.
La GPU NVIDIA Ada Lovelace AD102 includerà fino a 12 GPC (Graphics Processing Clusters). Si tratta di un aumento del 70% rispetto a GA102 che presenta solo 7 GPC. Ogni GPU sarà composta da 6 TPC e 2 SM che è la stessa configurazione del chip esistente.
Fin qui ci siamo.
Ogni SM (Streaming Multiprocessor) ospiterà quattro sub-core che è anche lo stesso della GPU GA102. Ciò che è cambiato è la configurazione principale di FP32 e INT32. Ogni sub-core includerà 128 unità FP32 ma le unità FP32+INT32 combinate saliranno a 192. Questo perché le unità FP32 non condividono lo stesso sub-core delle unità IN32. I 128 core FP32 sono separati dai 64 core INT32.
Lo scorporo delle INT, significa poter utilizzare tutti i cuda per FP e gli interi a parte, come avveniva con turing.
Così' facendo, basterebbero 4353cc con più clock per demolire una 3070/2080ti e soli 5376cc circa per demolire una 3080.
Il chip della 4090 sarebbe praticamente 3x la 3090ti, più clock.
Il risultato di ampere scorporato sarebbe questo:
https://i.postimg.cc/VsJKc2R8/vray.png
Quindi, in totale, ogni sub-core sarà composto da 128 unità FP32 più 64 unità INT32 per un totale di 192 unità. Ogni SM avrà un totale di 512 unità FP32 più 256 unità INT32 per un totale di 768 unità.
Qua sta dando i numeri, 512 cuda gli ottieni con 4 SM, due TPC.
24 SM, sono 3072 cuda
Se i GPC sono 12, gli SM interni saranno 144, quindi 12 x GPC.
E poiché ci sono un totale di 24 unità SM (2 per GPC), stiamo guardando a 12.288 unità FP32 e 6.144 unità INT32 per un totale di 18.432 core.
http://memecrunch.com/meme/AFWBG/cosa-avra-voluto-dire/image.jpg
Quello è il rapporto alla ampere, non con gli int separati.:p :p
Passando alla cache, questo è un altro segmento in cui NVIDIA ha dato un grande impulso rispetto alle GPU Ampere esistenti. Le GPU Ada Lovelace impacchettano 192 KB di cache L1 per SM, con un aumento del 50% rispetto ad Ampere. Si tratta di un totale di 4,5 MB di cache L1 sulla GPU AD102 superiore. La cache L2 verrà aumentata a 96 MB come menzionato nelle perdite. Si tratta di un aumento di 16 volte rispetto alla GPU Ampere che ospita solo 6 MB di cache L2. La cache verrà condivisa attraverso la GPU.
Ok.
Infine, abbiamo i ROP, anch'essi aumentati a 32 per GPC, un aumento di 2 volte rispetto ad Ampere. Stai guardando fino a 384 ROP sull'ammiraglia di nuova generazione rispetto a soli 112 sulla GPU Ampere più veloce, l'RTX 3090 Ti.
Salvo una soluzione completamente nuova, non è possibile. Per rasterizzare a 32 pixel, sono necessari 16SM ed 8 TPC, uno schema alla hopper/Ampere HPC.
Sono 4 pixel per TPC, i pixel sono calcolati tramite SFU.
Ragazzi ma solo io ho la scimmia in modalità ON? :fagiano:
Io ho lo scetticismo a 1000.
StylezZz`
14-05-2022, 22:18
Ragazzi ma solo io ho la scimmia in modalità ON? :fagiano:
Con quei consumi la scimmia muore ancor prima di nascere :cry:
Thunder-74
14-05-2022, 22:41
Bravissimi ragazzi, lasciate a scaffale :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
amon.akira
14-05-2022, 23:41
Bravissimi ragazzi, lasciate a scaffale :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
esatto :D
Black"SLI"jack
15-05-2022, 00:05
Bravissimi ragazzi, lasciate a scaffale :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
tranquillo thunder sono con te :D
Magistercris
15-05-2022, 06:58
Ragazzi ma solo io ho la scimmia in modalità ON? :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Seee....io c'ho King Kong :)
mi spaventa solo lo sbattimento che ci sarà per prenderne una....vedremo
davide155
15-05-2022, 09:28
Seee....io c'ho King Kong :)
mi spaventa solo lo sbattimento che ci sarà per prenderne una....vedremoSbattimento secondo me sarà sinonimo di "cacciare diversi soldi in più" rispetto ad Ampere.
Poi spero assolutamente di no, ma dopo tutte queste sviolinate che stanno dando su ad102 ho la netta sensazione che ci vorrà 2 baiocchi all'uscita per portarsela a casa.
Discorso diverso per le altre.
Thunder-74
15-05-2022, 09:31
Sbattimento secondo me sarà sinonimo di "cacciare diversi soldi in più" rispetto ad Ampere.
Poi spero assolutamente di no, ma dopo tutte queste sviolinate che stanno dando su ad102 ho la netta sensazione che ci vorrà 2 baiocchi all'uscita per portarsela a casa.
Discorso diverso per le altre.
io mi auguro non troppo sopra il millino per una 4080, il chippone lo lascio agli impavidi del portafogli :D
Oltretutto devo anche aggiornate mobo/ram/CPU :fagiano:
davide155
15-05-2022, 09:54
io mi auguro non troppo sopra il millino per una 4080, il chippone lo lascio agli impavidi del portafogli :D
Oltretutto devo anche aggiornate mobo/ram/CPU :fagiano:Io se cambio, cambio solo per ad102.
Ma la mia paura appunto è che andrà sopra i due mila di msrp (basta vedere la 3090ti). E li alzo le mani.
Piuttosto aggiorno la cpu a rocket lake a fine anno che con 2-300 euro me la dovrei cavare vendendo il 12900k.
Tanto come già ampiamente detto, giochi validi per sfruttare tali schede non ce ne sarà nemmeno mezzo da qui a luglio 2023, mentre per quelli usciti fin'ora la 3090 mi stra basta ed stra avanza.
fraussantin
15-05-2022, 10:13
io mi auguro non troppo sopra il millino per una 4080, il chippone lo lascio agli impavidi del portafogli :D
Oltretutto devo anche aggiornate mobo/ram/CPU :fagiano:Non penso che la 4080 di msrp sia oltre i 999.
Bisogna vedere se le fe saranno comprabili. Sia come disponibilità che come dissipazione
Thunder-74
15-05-2022, 10:52
Non penso che la 4080 di msrp sia oltre i 999.
Bisogna vedere se le fe saranno comprabili. Sia come disponibilità che come dissipazione
Io proverò a farmi venire il callo da f5 . Tanto poi si liquida. Mi piacerebbe prendere direttamente un modello con wb montato, come feci con la 2080 della Aorus, zero sbattimenti pad, zero sbattimenti garanzia, solo che vuol dire attendere di più perché escono sempre in un secondo momento e se i prezzi dovessero subire incrementi per eccesso di rialzo della domanda di 4080, la strapagherei.
Sicuramente a questo giro non mi infogno con la ricerca spasmodica del modello con pl più alto in assoluto.
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
15-05-2022, 11:37
Io proverò a farmi venire il callo da f5 . Tanto poi si liquida. Mi piacerebbe prendere direttamente un modello con wb montato, come feci con la 2080 della Aorus, zero sbattimenti pad, zero sbattimenti garanzia, solo che vuol dire attendere di più perché escono sempre in un secondo momento e se i prezzi dovessero subire incrementi per eccesso di rialzo della domanda di 4080, la strapagherei.
Sicuramente a questo giro non mi infogno con la ricerca spasmodica del modello con pl più alto in assoluto.
Inviato dal mio iPhone X utilizzando TapatalkEh sì non penso che ci sarà bisogno di più watt :asd:
mikael84
15-05-2022, 11:38
io mi auguro non troppo sopra il millino per una 4080, il chippone lo lascio agli impavidi del portafogli :D
Oltretutto devo anche aggiornate mobo/ram/CPU :fagiano:
Sempre che sia ufficiale la 4080 su AD103, a sto giro JHH gioca ancora più sporco.
La 4080 prenderebbe il posto della x70, e la x70 della x60.
Praticamente con AD103 ti venderà un chip da x70 per x80.
Ha diviso in 2 le categorie, chippone e chippetti che partono da quasi la metà delle spec, in modo da convincere gli enthusiast a passare su AD102.
fraussantin
15-05-2022, 11:41
Sempre che sia ufficiale la 4080 su AD103, a sto giro JHH gioca ancora più sporco.
La 4080 prenderebbe il posto della x70, e la x70 della x60.
Praticamente con AD103 ti venderà un chip da x70 per x80.
Ha diviso in 2 le categorie, chippone e chippetti che partono da quasi la metà delle spec, in modo da convincere gli enthusiast a passare su AD102.Non è neanche la prima volta che lo fa.
Vedi per esempio la 2070 che era di fatto un tu106 da 2060. Poi arrivo la vera 2070 con la ti e il cut del 104
OrazioOC
15-05-2022, 11:48
Sempre che sia ufficiale la 4080 su AD103, a sto giro JHH gioca ancora più sporco.
La 4080 prenderebbe il posto della x70, e la x70 della x60.
Praticamente con AD103 ti venderà un chip da x70 per x80.
Ha diviso in 2 le categorie, chippone e chippetti che partono da quasi la metà delle spec, in modo da convincere gli enthusiast a passare su AD102.
Non mi sorprende più di tanto, è da kepler con la gtx 680 che nvidia in certe generazioni complice l'enorme salto di nodo o architettura, riesce a piazzare chip di fascia inferiore nelle sostitute delle gpu di precedente generazione.
Quello che mi incuriosisce è complice il declino del mining, tutte queste rtx 3000 o rx 6000 a chi le rifileranno nei prossimi 6 mesi.
Di sicuro a metà 2022 una 3080 oltre i 1000 euro non è accettabile.:rolleyes:
mikael84
15-05-2022, 11:58
Non è neanche la prima volta che lo fa.
Vedi per esempio la 2070 che era di fatto un tu106 da 2060. Poi arrivo la vera 2070 con la ti e il cut del 104
Li cambiò nomenclatura, però sostanzialmente il chip era tarato giusto, ovvero metà dei cuda.
4608/2304. Esempio pascal 3840/1920.
La x60 è praticamente sempre stata 1/3 dei cuda, esempio pascal 3840/1280, maxwell 3072/1024. Paradossalmente quella 2060 era quasi una x70 (la vera x60 era la 1660).
A sto giro, ti vende la x80, con praticamente la metà dei cuda, come fosse appunto una classica x70.
In rapporto a turing sarebbe:
AD102: 18432 cc
AD104: 12288 cc
AD106: 9216 cc (la 4080 si colloca qua praticamente, con qualche cuda in più).
mikael84
15-05-2022, 12:09
Non mi sorprende più di tanto, è da kepler con la gtx 680 che nvidia in certe generazioni complice l'enorme salto di nodo o architettura, riesce a piazzare chip di fascia inferiore nelle sostitute delle gpu di precedente generazione.
Quello che mi incuriosisce è complice il declino del mining, tutte queste rtx 3000 o rx 6000 a chi le rifileranno nei prossimi 6 mesi.
Di sicuro a metà 2022 una 3080 oltre i 1000 euro non è accettabile.:rolleyes:
Si con Kepler ci fu l'inizio del salto di fascia, per vari motivi che non sto a ripetere.
Con le nuove schede, bisognerà vedere prezzi e soprattutto disponibilità. Dovessimo avere una situazione come quella attuale, le ampere e le 6000 morirebbero male sull'usato.
Non si deve ripetere una situazione simil 2021.
scorpion73
15-05-2022, 12:21
Li cambiò nomenclatura, però sostanzialmente il chip era tarato giusto, ovvero metà dei cuda.
4608/2304. Esempio pascal 3840/1920.
La x60 è praticamente sempre stata 1/3 dei cuda, esempio pascal 3840/1280, maxwell 3072/1024. Paradossalmente quella 2060 era quasi una x70 (la vera x60 era la 1660).
A sto giro, ti vende la x80, con praticamente la metà dei cuda, come fosse appunto una classica x70.
In rapporto a turing sarebbe:
AD102: 18432 cc
AD104: 12288 cc
AD106: 9216 cc (la 4080 si colloca qua praticamente, con qualche cuda in più).
E che gli frega a lui, lui il confronto lo fa in prestazioni, mica col nome del chip.
Lo ha già fatto in passato, lo rifarà ancora, specie se le AMD vanno meno di quel che si pensava, altrimenti avrebbe tarato la 4080 su cut di 102, come inizialmente si era pensato.
A me sinceramente la 4080 su 103 non mi stuzzica la scimmia per niente, peggio ancora se sarà pure cuttato come da anticipazioni di techpowerup, almeno fino a che non vedrò le recensioni, hype molto basso perché temo che sia il solito 15% a dire tanto in più.
Mi stuzzica di più a questo punto un cut da 12k/13k di AD102, che potrebbe essere una 4080ti, ma devo sempre vedere consumi e soprattutto raffreddamento perché con tutti quei watt almeno un 4 slot ci metteranno sopra e tutto sto spazio sul case francamente lo devo vedere avendo anche una sound blaster che non voglio lasciare attaccata alle ventole della GPU (non ho custom loop e non lo voglio fare e non ho spazio per un altro AIO nel case, visto che montarlo davanti non mi piace per niente e dubito che sia più piccolo di un 240).
Quindi, in sostanza, vedremo che schede ci saranno, costi, reali prestazioni e che tipo di raffreddamento adotteranno e poi tireremo le somme....
mikael84
15-05-2022, 13:01
E che gli frega a lui, lui il confronto lo fa in prestazioni, mica col nome del chip.
Lo ha già fatto in passato, lo rifarà ancora, specie se le AMD vanno meno di quel che si pensava, altrimenti avrebbe tarato la 4080 su cut di 102, come inizialmente si era pensato.
A me sinceramente la 4080 su 103 non mi stuzzica la scimmia per niente, peggio ancora se sarà pure cuttato come da anticipazioni di techpowerup, almeno fino a che non vedrò le recensioni, hype molto basso perché temo che sia il solito 15% a dire tanto in più.
Mi stuzzica di più a questo punto un cut da 12k/13k di AD102, che potrebbe essere una 4080ti, ma devo sempre vedere consumi e soprattutto raffreddamento perché con tutti quei watt almeno un 4 slot ci metteranno sopra e tutto sto spazio sul case francamente lo devo vedere avendo anche una sound blaster che non voglio lasciare attaccata alle ventole della GPU (non ho custom loop e non lo voglio fare e non ho spazio per un altro AIO nel case, visto che montarlo davanti non mi piace per niente e dubito che sia più piccolo di un 240).
Quindi, in sostanza, vedremo che schede ci saranno, costi, reali prestazioni e che tipo di raffreddamento adotteranno e poi tireremo le somme....
Una x80 non l'ha mai tagliata così in basso, sempre 2/3 ALU, o come kepler e Ampere cut dei chipponi.
La x80 non ti stuzzica in quanto appunto x70:
RTX 3070: 5888 cc vs 10752cc (chip full) 82,61% cuda in meno
Ora prendiamo il cut secondo TPU (tutto da dimostrare)
RTX 4080: 9728 cc vs 18432 cc (full) 89, 47% dei cuda in meno.
In rapporto è meno della 3070.
La 4080ti, avrà una o due partizioni di cache fallata, ed anche a livello di GPC ci sarà un macello. 2 barra 3 GPC possono saltare tranquillamente, soprattutto se venduta inizialmente.
Sicuramente si presterà a svariati refresh.
fraussantin
15-05-2022, 13:12
Dai siamo ottimisti , magari lo ha fatto per poterla prezzare poco :asd:
Ale55andr0
15-05-2022, 13:55
Di sicuro a metà 2022 una 3080 oltre i 1000 euro non è accettabile.:rolleyes:
è accettabilissima invece, perchè se a oggi nvidia e amd possono prezzare le schede in modo folle, avere definitivamente distrutto le fasce facendo divenire il pc gaming una roba da elite è grazie al fatto che tanto chiedono, tanto gli diamo, senza batter ciglio, o magari battendolo mentre si mette comunque la mano nel portafoglio e si tira fuori la mastercard...
Si con Kepler ci fu l'inizio del salto di fascia, per vari motivi che non sto a ripetere.
Con le nuove schede, bisognerà vedere prezzi e soprattutto disponibilità. Dovessimo avere una situazione come quella attuale, le ampere e le 6000 morirebbero male sull'usato.
Non si deve ripetere una situazione simil 2021.
coff coff GTX 690 coff :sofico:
Una x80 non l'ha mai tagliata così in basso, sempre 2/3 ALU, o come kepler e Ampere cut dei chipponi.
La x80 non ti stuzzica in quanto appunto x70:
RTX 3070: 5888 cc vs 10752cc (chip full) 82,61% cuda in meno
Ora prendiamo il cut secondo TPU (tutto da dimostrare)
RTX 4080: 9728 cc vs 18432 cc (full) 89, 47% dei cuda in meno.
In rapporto è meno della 3070.
La 4080ti, avrà una o due partizioni di cache fallata, ed anche a livello di GPC ci sarà un macello. 2 barra 3 GPC possono saltare tranquillamente, soprattutto se venduta inizialmente.
Sicuramente si presterà a svariati refresh.
Ma bisogna anche vedere come taglieranno AD102, francamente dubito riescano chip perfettissimi, potrebbero tranquillamente fare un cut massivo per la 4080ti sui 13824cc, e qualche chip meglio riuscito lasciato per la 4090 per poi chiudere in bellezza a fine ciclo con il full chip AD102 4090ti/Titan.
Altra cosa i clocks, una densità cosi elevata mi lascia molti dubbi sull'effettivo boost clock raggiungibile ad aria.
EDIT:
Infatti anche su techpowerup sono già speculate le specifiche di 4080ti e 4090 una con 14080cc e l'altra con 17408:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080-ti.c3887
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Iceman69
15-05-2022, 15:25
Pensiero personale il salto prestazionale sarà sempre il solito del +20/30% per fascia, mi ricordo discussioni simili 2 anni fa in cui si ipotizzavano chissà quali salti prestazionali e quale mega svalutazione avrebbero avuto le vecchie schede e alla fine si atterra sempre lì e se uno ha l'usato la spesa per la permuta è sempre più o meno la stessa.
In più a questo giro c'è il problema dei consumi, ma non tanto per i consumi, quanto per il calore prodotto. Già ora abbiamo dissipatori enormi che pesano una tonnellata, più di cosi non è possibile, quindi o si passa tutti al liquido o le nuove 4xxx saranno schede inutilizzabili se non a voltaggi e frequenze bassissimi e a questo punto il 20/30% diventa anche meno.
Vedremo a settembre, ma a questo giro mi sa che salto o aspetto un refresh che risolva i problemi con i consumi e le temperature.
mikael84
15-05-2022, 16:17
Dai siamo ottimisti , magari lo ha fatto per poterla prezzare poco :asd:
Si l'obbiettivo è quello. RTX4080 a 499$:sofico: :sofico:
coff coff GTX 690 coff :sofico:
L'ultima dual gpu seria.:)
Ma bisogna anche vedere come taglieranno AD102, francamente dubito riescano chip perfettissimi, potrebbero tranquillamente fare un cut massivo per la 4080ti sui 13824cc, e qualche chip meglio riuscito lasciato per la 4090 per poi chiudere in bellezza a fine ciclo con il full chip AD102 4090ti/Titan.
Altra cosa i clocks, una densità cosi elevata mi lascia molti dubbi sull'effettivo boost clock raggiungibile ad aria.
EDIT:
Infatti anche su techpowerup sono già speculate le specifiche di 4080ti e 4090 una con 14080cc e l'altra con 17408:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080-ti.c3887
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Sono speculazioni del sito però, altrimenti avrebbero aggiornato anche tutti gli altri parametri. Loro si basano sui classici tweeter, tipo Kopite.
Queste sono spec affidabili?:p
https://i.postimg.cc/yWCVW1Ld/tpu.png
Non si può conoscere con certezza un cut massivo di un AD104 parecchi mesi prima.
Di AD102, sappiamo per certo che ci saranno cache fallate, che porteranno ad una inevitabile devastazione GPC, infatti si speculano 14/15k cc, che venivano assegnati alla 4080 liscia inizialmente.
14080 cc, sono 3 GPC disabilitati, con uno acceso solo per un TPC.
Sulla 4090 sappiamo che manterrà il bus per nvlink, ma come rese qualcosa perderà. il mega chip, potrebbe essere quello con 49gb, ma più avanti.:)
Sui clock, bisogna anche vedere la scorporazione effettiva delle INT
Pensiero personale il salto prestazionale sarà sempre il solito del +20/30% per fascia, mi ricordo discussioni simili 2 anni fa in cui si ipotizzavano chissà quali salti prestazionali e quale mega svalutazione avrebbero avuto le vecchie schede e alla fine si atterra sempre lì e se uno ha l'usato la spesa per la permuta è sempre più o meno la stessa.
In più a questo giro c'è il problema dei consumi, ma non tanto per i consumi, quanto per il calore prodotto. Già ora abbiamo dissipatori enormi che pesano una tonnellata, più di cosi non è possibile, quindi o si passa tutti al liquido o le nuove 4xxx saranno schede inutilizzabili se non a voltaggi e frequenze bassissimi e a questo punto il 20/30% diventa anche meno.
Vedremo a settembre, ma a questo giro mi sa che salto o aspetto un refresh che risolva i problemi con i consumi e le temperature.
Ma dove sarebbe questo solito 25/30% per fascia?
Non mi pare che la 3080 batta la 2080 del 20/30%.;)
2 anni fa, si parlava di svalutazioni, in quanto JHH aveva prezzato la 3080 a 699$, ignari di quello che sarebbe successo dopo.
Cmq, come dissi qualche post fa, ora come ora, l'ultima cosa è parlare di prezzi, solo JHH li comunicherà al lancio.
Sui consumi, sappiamo con certezza del cavetto da 600 watt, ed almeno sulla 4090 potrebbe essere proprio impostato a livello di TDP.
Purtroppo siamo ad un punto in cui, abbiamo molta densità, ma non relativa efficienza.
OrazioOC
15-05-2022, 17:23
https://videocardz.com/newz/nvidia-geforce-rtx-40-series-now-rumored-to-launch-in-early-q3
Riporto questo rumor per sport, ma onestamente mi fanno ridere questi leaker.
Cioè è presto secondo voi un lancio a settembre, quindi a due anni esatti dal lancio di ampere? :asd:
StrixyRoG
15-05-2022, 18:02
https://videocardz.com/newz/nvidia-geforce-rtx-40-series-now-rumored-to-launch-in-early-q3
Riporto questo rumor per sport, ma onestamente mi fanno ridere questi leaker.
Cioè è presto secondo voi un lancio a settembre, quindi a due anni esatti dal lancio di ampere? :asd:
E perché? Le varie generazioni sono sempre uscite ogni due anni.
2016 serie 10, 2018 serie 20, 2020 serie 30.
Thunder-74
15-05-2022, 19:14
Si l'obbiettivo è quello. RTX4080 a 499$:sofico: :sofico:
L'ultima dual gpu seria.:)
Sono speculazioni del sito però, altrimenti avrebbero aggiornato anche tutti gli altri parametri. Loro si basano sui classici tweeter, tipo Kopite.
Queste sono spec affidabili?:p
https://i.postimg.cc/yWCVW1Ld/tpu.png
Non si può conoscere con certezza un cut massivo di un AD104 parecchi mesi prima.
Di AD102, sappiamo per certo che ci saranno cache fallate, che porteranno ad una inevitabile devastazione GPC, infatti si speculano 14/15k cc, che venivano assegnati alla 4080 liscia inizialmente.
14080 cc, sono 3 GPC disabilitati, con uno acceso solo per un TPC.
Sulla 4090 sappiamo che manterrà il bus per nvlink, ma come rese qualcosa perderà. il mega chip, potrebbe essere quello con 49gb, ma più avanti.:)
Sui clock, bisogna anche vedere la scorporazione effettiva delle INT
Ma dove sarebbe questo solito 25/30% per fascia?
Non mi pare che la 3080 batta la 2080 del 20/30%.;)
2 anni fa, si parlava di svalutazioni, in quanto JHH aveva prezzato la 3080 a 699$, ignari di quello che sarebbe successo dopo.
Cmq, come dissi qualche post fa, ora come ora, l'ultima cosa è parlare di prezzi, solo JHH li comunicherà al lancio.
Sui consumi, sappiamo con certezza del cavetto da 600 watt, ed almeno sulla 4090 potrebbe essere proprio impostato a livello di TDP.
Purtroppo siamo ad un punto in cui, abbiamo molta densità, ma non relativa efficienza.
Infatti. Dico solo che passando da 2080 a 3080, su bfv a 3440x1440 sono passato ad avere da 110fps a 170fps . A volte si dicono le cose a sentimento.
Il salto fu più contenuto da Pascal a Turing , ma ci sta visto il chip stravolto tra RT core ecc.
https://uploads.tapatalk-cdn.com/20220515/6f7570715bace74b84866b5840ff891f.jpg
Inviato dal mio iPad utilizzando Tapatalk
mikael84
15-05-2022, 19:53
Infatti. Dico solo che passando da 2080 a 3080, su bfv a 3440x1440 sono passato ad avere da 110fps a 170fps . A volte si dicono le cose a sentimento.
Il salto fu più contenuto da Pascal a Turing , ma ci sta visto il chip stravolto tra RT core ecc.
Inviato dal mio iPad utilizzando Tapatalk
Si con turing c'è stato il problema del nodo, sarebbe stato ottimo anche il PP di ampere per tale chip, in modo da miniaturizzare TU102.
Riguardo la 3080, spesso legna anche del 30/40% la 3070 che fondamentalmente è una 2080ti.:)
scorpion73
15-05-2022, 19:56
coff coff GTX 690 coff :sofico:
Ma bisogna anche vedere come taglieranno AD102, francamente dubito riescano chip perfettissimi, potrebbero tranquillamente fare un cut massivo per la 4080ti sui 13824cc, e qualche chip meglio riuscito lasciato per la 4090 per poi chiudere in bellezza a fine ciclo con il full chip AD102 4090ti/Titan.
Altra cosa i clocks, una densità cosi elevata mi lascia molti dubbi sull'effettivo boost clock raggiungibile ad aria.
EDIT:
Infatti anche su techpowerup sono già speculate le specifiche di 4080ti e 4090 una con 14080cc e l'altra con 17408:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080-ti.c3887
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Io ho capito, ma fare una x80 con 9700 e rotti core e una ti con 14000 e rotti core ci stanno in mezzo 5000 core, senza parlare del bus, addirittura a 256 bit, manco 320.
Dai su è una x70 spacciata per x80 bella e buona, una presa per il culo piena, e scusate il francesismo.
Almeno la 4080 deve avere 12000 core per essere tale, altrimenti io una scheda a 256 bit sinceramente ci penso bene prima di prenderla, piuttosto aspetto e mi piglio quando posso una 4080ti, che è fatta sul chip giusto per questa fascia.
Almeno io la penso così, poi per carità, a recensioni uscite si dirà l'ultima parola.
Comunque, non so se avete letto qualche mio post fa, ma qualcosa Nvidia dirà a Maggio sul gaming: non è detto che siano le nuove schede, ma non è manco escluso...
Andy1111
15-05-2022, 20:12
Si con turing c'è stato il problema del nodo, sarebbe stato ottimo anche il PP di ampere per tale chip, in modo da miniaturizzare TU102.
Riguardo la 3080, spesso legna anche del 30/40% la 3070 che fondamentalmente è una 2080ti.:)
Non dimentichiamo che la 3080 ha usato GA102 mentre la 2080 usava TU104, se per la 3080 avesse usato 103 o 104 sarebbe stato un mezzo flop lato prestazioni
mikael84
15-05-2022, 20:21
Non dimentichiamo che la 3080 ha usato GA102 mentre la 2080 usava TU104, se per la 3080 avesse usato 103 o 104 sarebbe stato un mezzo flop lato prestazioni
Indubbiamente, la formula nvidia era TPC x GPC, quindi la 3080 doveva utilizzare GA103 con 7680cc e 10gb/320bit. La differenza rispetto alla 2080 sarebbe stata cmq notevole. Sarebbero stati 18TF vs 20 scorporando le INT. Una sorta di 6800 liscia più che xt, paragonata ad AMD.
Thunder-74
15-05-2022, 21:26
Io ho capito, ma fare una x80 con 9700 e rotti core e una ti con 14000 e rotti core ci stanno in mezzo 5000 core, senza parlare del bus, addirittura a 256 bit, manco 320.
Dai su è una x70 spacciata per x80 bella e buona, una presa per il culo piena, e scusate il francesismo.
Almeno la 4080 deve avere 12000 core per essere tale, altrimenti io una scheda a 256 bit sinceramente ci penso bene prima di prenderla, piuttosto aspetto e mi piglio quando posso una 4080ti, che è fatta sul chip giusto per questa fascia.
Almeno io la penso così, poi per carità, a recensioni uscite si dirà l'ultima parola.
Comunque, non so se avete letto qualche mio post fa, ma qualcosa Nvidia dirà a Maggio sul gaming: non è detto che siano le nuove schede, ma non è manco escluso...
Si sta cosa fa storcere , infatti la mia speranza è che difatti la 4080 sia basata su un AD102 cuttato. Ma alla fine se apporterà un aumento decente alle performance rispetto alla 3080 , amen.
Si il 23 maggio sarà presente Jeff Fisher , capoccia della sezione GeForce che presentò ad esempio la 3090ti .
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
15-05-2022, 23:57
Io ho capito, ma fare una x80 con 9700 e rotti core e una ti con 14000 e rotti core ci stanno in mezzo 5000 core, senza parlare del bus, addirittura a 256 bit, manco 320.
Dai su è una x70 spacciata per x80 bella e buona, una presa per il culo piena, e scusate il francesismo.
Almeno la 4080 deve avere 12000 core per essere tale, altrimenti io una scheda a 256 bit sinceramente ci penso bene prima di prenderla, piuttosto aspetto e mi piglio quando posso una 4080ti, che è fatta sul chip giusto per questa fascia.
Almeno io la penso così, poi per carità, a recensioni uscite si dirà l'ultima parola.
Comunque, non so se avete letto qualche mio post fa, ma qualcosa Nvidia dirà a Maggio sul gaming: non è detto che siano le nuove schede, ma non è manco escluso...
Si letto, non l'ho commentato in quanto non verrà presentata alcuna GPU. Al massimo si parlerà di IA.
Le GPU gaming/pro le presenterà JHH a settembre (se si rispettano i tempi).
amon.akira
16-05-2022, 01:11
da 2080 a 3080 se prendi un vulkan tipo doom o un rt serio arrivi anche a 2x :D
Intanto: https://www.hwupgrade.it/news/skvideo/nvidia-i-driver-linux-per-le-schede-video-diventano-open-source_107096.html
Thunder-74
16-05-2022, 12:31
Si letto, non l'ho commentato in quanto non verrà presentata alcuna GPU. Al massimo si parlerà di IA.
Le GPU gaming/pro le presenterà JHH a settembre (se si rispettano i tempi).
Mike qualcosa in ambito gaming sarà detto, perché altrimenti Jeff Fisher non sarebbe presente
Inviato dal mio iPhone X utilizzando Tapatalk
amon.akira
16-05-2022, 13:00
nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090 (https://videocardz.com/newz/nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090)
albero77
16-05-2022, 13:04
nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090 (https://videocardz.com/newz/nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090)
La famosa estate calda, con quel tdp meglio Gennaio/Febbraio:doh:
mikael84
16-05-2022, 13:06
Mike qualcosa in ambito gaming sarà detto, perché altrimenti Jeff Fisher non sarebbe presente
Inviato dal mio iPhone X utilizzando Tapatalk
https://www.nvidia.com/en-us/events/computex/
Il 23
"AI on the NVIDIA accelerated computing platform is revolutionizing everything from gaming to data centers to robotics. NVIDIA will present how AI is powering the enterprise data center and the latest products and technologies for gamers and creators."
Il 25
"Richard Kerris will share the enormous opportunities simulation brings to 3D workflows and the next evolution of AI. He will also touch on how enterprises can get a headstart with the NVIDIA Omniverse platform that enables real-time 3D simulation, design collaboration, and the creation of virtual worlds in the 3D evolution of the internet."
Se il lancio fosse luglio-agosto, significherebbe avere i bios il mese prossimo.
Lo stesso igor non sa ancora nulla.
mikael84
16-05-2022, 13:19
nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090 (https://videocardz.com/newz/nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090)
Quindi avevo ragione nel dire che i 600watt erano per il cavetto.:sofico:
900watt per la 4090ti, 400watt per la 4070.:sofico:
L'esperimento 3090ti alla fine si rivelerà corretto.
Cmq se confermato, le rese saranno pessime, e la 4080ti sarà devastata all'inverosimile.
fraussantin
16-05-2022, 14:14
Io non ho ancora capito se il cavetto è uguale a quello delle 3080fe , se sara esclusiva delle fe anche stavolta o se diventerà lo standard.
amon.akira
16-05-2022, 14:20
Quindi avevo ragione nel dire che i 600watt erano per il cavetto.:sofico:
900watt per la 4090ti, 400watt per la 4070.:sofico:
L'esperimento 3090ti alla fine si rivelerà corretto.
Cmq se confermato, le rese saranno pessime, e la 4080ti sarà devastata all'inverosimile.
si ma realisticamente 450w siamo ai limiti anche con dissipatori da 2kg, ed anche commercialmente nn avrebbe senso andare oltre, tranne x chi liquida ma già siamo nella supernicchia.
scorpion73
16-05-2022, 14:22
si ma realisticamente 450w siamo ai limiti anche con dissipatori da 2kg, ed anche commercialmente nn avrebbe senso andare oltre, tranne x chi liquida ma già siamo nella supernicchia.
Infatti secondo me è capace che la futura 4080ti avrà 400W di TDP, forse anche meno.
Già la 3090ti ha dissipatori monstre, io sinceramente non lo so come faranno a dissipare 450W della 4090 ad aria.
Vendetemela ignuda, solo col PCB per diana, nemmeno la scatola voglio :sofico:
FrancoBit
16-05-2022, 14:37
Vendetemela ignuda, solo col PCB per diana, nemmeno la scatola voglio :sofico:
Utopia purtroppo, ma sarebbe una manna. Oltretutto con un prezzo inferiore visto che non c'è tutto lo studiohh e il materialehh per il cooler monstre...
Utopia purtroppo, ma sarebbe una manna. Oltretutto con un prezzo inferiore visto che non c'è tutto lo studiohh e il materialehh per il cooler monstre...
Dopo che han tolto i charger dagli smartphone magari arriviamo pure a questo, bulk edition a -100/150 Euro, "dreaming my dreams with you" :fiufiu:
Dopo le Cpu bulk,vogliamo anche le Gpu bulk :sofico:
Anche se però il mercato dell'usato si ristringe drasticamente
29Leonardo
16-05-2022, 15:05
Io mi accontenterei se uscissero di fabbrica con un dissipatore ignudo standard con gli alloggiamenti per le ventole classiche aftermarket, cosi ci piazzi quello che ti pare, completamente nuda lo vedo impossibile dato che toglierebbe di mezzo il 99% dell'utenza, a liquido sono in pochi ad usarle.
mikael84
16-05-2022, 15:12
Io non ho ancora capito se il cavetto è uguale a quello delle 3080fe , se sara esclusiva delle fe anche stavolta o se diventerà lo standard.
E' uguale per i 12 pin, ma il nuovo integra altri 4 pin (S1/S4), che consentono di poter garantire tutta la capacità del cavetto, ovvero 600watt, altrimenti ti fermi a 450, come le 3090ti.
Vedi i 4pin sotto (S1/S4)
Il vecchio connettore lo puoi utilizzare sulle nuove, ma non viceversa, però è ovviamente allo stesso modo impossibile, in quanto il nuovo è un 3x8pin.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/images/power.jpg
Riguardo, l'utilizzo, non è detto che tutte lo utilizzino, però sino ad ora, tutte le 3090ti, di tutti i brand lo hanno utilizzato.
si ma realisticamente 450w siamo ai limiti anche con dissipatori da 2kg, ed anche commercialmente nn avrebbe senso andare oltre, tranne x chi liquida ma già siamo nella supernicchia.
Eh, lo so, questa è per ora la situazione. La LC ha un'AIO da 240,
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/noise-normalized-temperature.png
Si prevedono anche dissi da 4 slot, come noctua.
fraussantin
16-05-2022, 15:29
E' uguale per i 12 pin, ma il nuovo integra altri 4 pin (S1/S4), che consentono di poter garantire tutta la capacità del cavetto, ovvero 600watt, altrimenti ti fermi a 450, come le 3090ti.
Vedi i 4pin sotto (S1/S4)
Il vecchio connettore lo puoi utilizzare sulle nuove, ma non viceversa, però è ovviamente allo stesso modo impossibile, in quanto il nuovo è un 3x8pin.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/images/power.jpg
Riguardo, l'utilizzo, non è detto che tutte lo utilizzino, però sino ad ora, tutte le 3090ti, di tutti i brand lo hanno utilizzato.
.
Secondo me qualcuno finirà per fare casino soprattutto per i cavi gia presenti in commercio per i vari alimentatori , originali e non.
scorpion73
16-05-2022, 15:37
Riguardo, l'utilizzo, non è detto che tutte lo utilizzino, però sino ad ora, tutte le 3090ti, di tutti i brand lo hanno utilizzato.
Però fornivano adattatori, e secondo me li forniranno anche con la serie 4000.
Comunque, se è vero quanto riportato da videocardz, a luglio escono 4090, 4080 e 4070.
Non uscirà quindi subito la 4080ti e mi permetto di fare le considerazioni seguenti.
La 4080 con quelle specifiche è una chiara 4070 rimarchiata, per cui a mio avviso è una presa in giro per spillare soldi e non conviene prenderla. Non perché prestazionalmente non valga, in quanto sicuramente sarà superiore alle attuali 3080ti, ma perché ha un chip che non è nella fascia a cui quella scheda deve appartenere, e non ha un numero di cores a mio avviso adeguato a quella fascia.
Non solo, ma si presta in modo direi più che evidente allo stesso gioco delle 3080 12GB, ergo ad anno nuovo con la 4080ti uscirà a mio avviso un refresh su AD102 supercuttato della 4080, con conseguente ipersvalutazione della 4080 originale. Dopo solo sei mesi, come da tradizione.
E ci sarebbe spazio addirittura anche per una seconda scheda intermedia prima della Ti.
Se la 4080 sarà sta ciofeca di scheda (anche se va di più resta una ciofeca, perché è una furbata e come tale va commentata), la vera scheda da attendere è la 4080ti, che a questo punto uscirà a inizio 2023, con un numero di cuda intorno secondo me ai 13k/14k, probabilmente sempre 16gb di ram (o 20gb, dipende).
Per avere una idea di costi e consumi basterà porsi in mezzo a quanto verrà dichiarato realmente per la 4080 e 4090.
E ve lo dice uno che aveva puntato la 4080 come scheda di riferimento per Lovelace, per connubio fra costo e saccoccia (sempre di non essere smentito da costi assurdi anche per la 4080 base ovviamente), ma con quelle specifiche no, proprio non la digerisco.
Quindi, chi ha una scheda ampere dalla 3080 in su, sempre ovviamente che le specifiche della 4080 siano quelle, secondo me farebbe bene ad attendere sei mesi e prendersi a quel punto la ti.
Che sarà sicuramente super devastata come chip, per dirla alla mikael, ma sarà basata sul vero chip top di gamma e avrà prestazioni a mio avviso enormemente superiori alla 4080.
Anche perché se la 4090 va 2x la 3090 liscia, una 4080 in quel modo si e no andrà un 15%-20% in più..... Secondo me... e non ci sono tripla A che con le 3080/3080ti per i prossimi sei mesi non possano essere giocati, anche al max.
Poi oh, se uno ha modo di prendersi la 4090, beh, lì alzo le mani. Per chi ha una 3070 invece può andare senza indugiare perché il balzo sarà comunque da subito enorme.
Scusate se mi sono dilungato, ovviamente il tutto IMHO e da rivedere se le specifiche reali non saranno quelle dei rumor.
FrancoBit
16-05-2022, 15:40
Io mi accontenterei se uscissero di fabbrica con un dissipatore ignudo standard con gli alloggiamenti per le ventole classiche aftermarket, cosi ci piazzi quello che ti pare, completamente nuda lo vedo impossibile dato che toglierebbe di mezzo il 99% dell'utenza, a liquido sono in pochi ad usarle.
Si vero, si fantasticava comunque. Oltretutto non sarebbe un gran casino, in quanto per l'assemblatore si tratterebbe di mettere sul mercato una scheda che richiede qualche processo in meno, appunto l'installazione del sistema di raffreddamento. e potenzialmente potrebbe avere più mercato dei modelli che hanno già un waterblock da integrare in un loop, alla fine il target è simile..
Ad ogni modo son curioso di vedere quante Lovelace ci saranno al lancio, che prezzi avranno e se sarà un'altra gen costellata di rotture di balle per poterne avere una....
bonzoxxx
16-05-2022, 16:03
https://noctua.at/en/asus-and-noctua-announce-asus-geforce-rtx-3080-noctua-edition-graphics-card
Iceman69
16-05-2022, 17:31
Non mi pare che la 3080 batta la 2080 del 20/30%.;)
2 anni fa, si parlava di svalutazioni, in quanto JHH aveva prezzato la 3080 a 699$, ignari di quello che sarebbe successo dopo.
Cmq, come dissi qualche post fa, ora come ora, l'ultima cosa è parlare di prezzi, solo JHH li comunicherà al lancio.
Sui consumi, sappiamo con certezza del cavetto da 600 watt, ed almeno sulla 4090 potrebbe essere proprio impostato a livello di TDP.
Purtroppo siamo ad un punto in cui, abbiamo molta densità, ma non relativa efficienza.
Per la 2080 ti (la mia fascia di interesse) a me sembra proprio un 30% scarso il passaggio alla 3080 ti ...
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/28.html
Però potrei sbagliare a leggere e...
mikael84
16-05-2022, 17:52
Secondo me qualcuno finirà per fare casino soprattutto per i cavi gia presenti in commercio per i vari alimentatori , originali e non.
tutto può essere, vedo veterani, ancora che hanno problemi a collegare un 2x8 pin classico. Cmq per uno mezzo navigato non ci sarà da sbagliare.
Chi si ritrova ali troppo vecchi, o di piccolo taglio, conviene direttamente un ali nativo, e non sbaglia.
Per le fasce inferiori, probabilmente verrà utilizzato il vecchio 12pin a 2x8pin.
Però fornivano adattatori, e secondo me li forniranno anche con la serie 4000.
Si certo, non ci sarà alcun problema per quello.
Comunque, se è vero quanto riportato da videocardz, a luglio escono 4090, 4080 e 4070.
Non uscirà quindi subito la 4080ti e mi permetto di fare le considerazioni seguenti.
Sinceramente sono piuttosto scettico a riguardo. Debuttare a luglio, significherebbe essere a 2 settimane, max 1 mese dalla fase bios. Quindi schede pronte. Di conseguenza sarebbero in fase di validazione, con i campioni già pronti, o in fase EMI (pre finale).
In tal caso vediamo la gamescon, che per ora è rivolta a tutt'altro.
La 4080 con quelle specifiche è una chiara 4070 rimarchiata, per cui a mio avviso è una presa in giro per spillare soldi e non conviene prenderla. Non perché prestazionalmente non valga, in quanto sicuramente sarà superiore alle attuali 3080ti, ma perché ha un chip che non è nella fascia a cui quella scheda deve appartenere, e non ha un numero di cores a mio avviso adeguato a quella fascia.
Non solo, ma si presta in modo direi più che evidente allo stesso gioco delle 3080 12GB, ergo ad anno nuovo con la 4080ti uscirà a mio avviso un refresh su AD102 supercuttato della 4080, con conseguente ipersvalutazione della 4080 originale. Dopo solo sei mesi, come da tradizione.
E ci sarebbe spazio addirittura anche per una seconda scheda intermedia prima della Ti.
Se la 4080 sarà sta ciofeca di scheda (anche se va di più resta una ciofeca, perché è una furbata e come tale va commentata), la vera scheda da attendere è la 4080ti, che a questo punto uscirà a inizio 2023, con un numero di cuda intorno secondo me ai 13k/14k, probabilmente sempre 16gb di ram (o 20gb, dipende).
Per avere una idea di costi e consumi basterà porsi in mezzo a quanto verrà dichiarato realmente per la 4080 e 4090.
E ve lo dice uno che aveva puntato la 4080 come scheda di riferimento per Lovelace, per connubio fra costo e saccoccia (sempre di non essere smentito da costi assurdi anche per la 4080 base ovviamente), ma con quelle specifiche no, proprio non la digerisco. Quindi, chi ha una scheda ampere dalla 3080 in su, sempre ovviamente che le specifiche della 4080 siano quelle, secondo me farebbe bene ad attendere sei mesi e prendersi a quel punto la ti.
Che sarà sicuramente super devastata come chip, per dirla alla mikael, ma sarà basata sul vero chip top di gamma e avrà prestazioni a mio avviso enormemente superiori alla 4080.
Si come dicevo ieri, bisogna tenere presente che la 4080 è una x70 a tutti gli effetti, che farà il salto di fascia in prezzi (pure rima).
Le perf, ci saranno, il salto nodo è netto.
Il problema sarà a livello commerciale, non so quando verrà introdotta la TI, che di fatto eclisserebbe la 4080 liscia (pardon x70 liscia), e la 4090 parte già devastato, con i chip migliori lasciati per la pro (ex quadro).
E'un chip che si presta a vari refresh.
La 4090 perderebbe attualmente 1 GPC e mezzo, praticamente il cut della 3080.
La 4080ti sarà basata su modelli a cache fallata. Se una partizione è fallata, scendi a 88mb l2 e 22gb, se ne hai 2, scendi ad 80mb l2 e 20gb. Chiaramente per scendere a 256bit ne devi avere 4, li non siamo nella devastazione, ma a livelli di jack lo squartatore. :sofico:
Con ben 3 GPC disabilitati scendi sino a 13,8k cc
Oltre non penso, a sto punto sarebbe stato meglio scrivere un chip più piccolo da 12k, full 8gpc (quello che sarebbe dovuta essere la 4080 vera)
Anche perché se la 4090 va 2x la 3090 liscia, una 4080 in quel modo si e no andrà un 15%-20% in più..... Secondo me... e non ci sono tripla A che con le 3080/3080ti per i prossimi sei mesi non possano essere giocati, anche al max.
Sulle perf, bisogna valutare vari aspetti, tra cui il clock, il warp stall (l'impatto della l2 e soprattutto la possibile scorporazione INT.
Scorporando quelle, è come se la 3090ti avesse 6600 cuda medi vs 10000 della 4080. Anche se mi pare troppo complesso da effettuare.
mikael84
16-05-2022, 18:07
Per la 2080 ti (la mia fascia di interesse) a me sembra proprio un 30% scarso il passaggio alla 3080 ti ...
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/28.html
Però potrei sbagliare a leggere e...
Sono 35,5% a 1440p base, ma è del tutto naturale, queste schede alle basse res, vengono sfruttate malissimo.
Se guardi il 1080p te ne fai un'idea ancora migliore.
In 4k siamo vicini al 50%.
Questo è con RT. 60%.
https://i.postimg.cc/9XBpKZp4/rt.png
Se hai intenzione di prendere una 4090, devi calcolare anche queste cose ovviamente.;)
In base al nodo, al chip, ci può anche stare che tra varie fasce ci sia poca differenza (vedi 2080ti vs 1080ti)
Iceman69
16-05-2022, 18:39
Sono 35,5% a 1440p base, ma è del tutto naturale, queste schede alle basse res, vengono sfruttate malissimo.
Se guardi il 1080p te ne fai un'idea ancora migliore.
In 4k siamo vicini al 50%.
Questo è con RT. 60%.
https://i.postimg.cc/9XBpKZp4/rt.png
Se hai intenzione di prendere una 4090, devi calcolare anche queste cose ovviamente.;)
In base al nodo, al chip, ci può anche stare che tra varie fasce ci sia poca differenza (vedi 2080ti vs 1080ti)
Sì infatti, ma mettermi un fornelletto nel case solo per il 30%, ma anche 40% in più di performance non mi aggrada molto, mi piaceva di più qualche generazione fa quando al crescere delle prestazioni miglioravano anche i consumi e la rumorosità/calore.
Vedremo, ora in effetti è troppo presto per sparare sentenze.
Thunder-74
16-05-2022, 18:53
Sì infatti, ma mettermi un fornelletto nel case solo per il 30%, ma anche 40% in più di performance non mi aggrada molto, mi piaceva di più qualche generazione fa quando al crescere delle prestazioni miglioravano anche i consumi e la rumorosità/calore.
Vedremo, ora in effetti è troppo presto per sparare sentenze.
E quando nei case mettevamo le 480 con la piastra dissipante a vista dove ci cucinavi le uova? Che tempi, forse ci si torna :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
Dopo che han tolto i charger dagli smartphone magari arriviamo pure a questo, bulk edition a -100/150 Euro, "dreaming my dreams with you" :fiufiu:
seh... gli smartphone hanno perso il caricatore e li paghi = o + di prima!
Il mercato "bulk", poi, c'era eh, negli anni 90/primi 2000... ma poi è scomparso...
La 3090 invece rinfresca :sofico:
fraussantin
16-05-2022, 19:58
seh... gli smartphone hanno perso il caricatore e li paghi = o + di prima!
Il mercato "bulk", poi, c'era eh, negli anni 90/primi 2000... ma poi è scomparso...Eh ma lo hanno fatto per l'ecologia .....:doh:
Poi ci sono i cinesoni da 150 euro che ti danno caricatore , cuffie e cover ...
Sì infatti, ma mettermi un fornelletto nel case solo per il 30%, ma anche 40% in più di performance non mi aggrada molto, mi piaceva di più qualche generazione fa quando al crescere delle prestazioni miglioravano anche i consumi e la rumorosità/calore.
Vedremo, ora in effetti è troppo presto per sparare sentenze.
Beh è quello che succederà... le performance della 3090 le prendi con un AD104 consumando e scaldando decisamente meno.
AD102 con la 4090 si parla di quasi un 2x dalla 3090 con consumi simili e probabilmente molti nuovi engine beneficeranno della mega cache rispetto le precedenti Ampere/Turing.
Ovvio che dipende tutto anche dagli engine e come scalano.
Personalmente se la 4060 la ricavano da AD104 e i rumors di techpower si rivelano veritieri è già un chip che tallona la 3080 e per le mie esigenze andrebbe più che bene.
mikael84
16-05-2022, 20:55
Sì infatti, ma mettermi un fornelletto nel case solo per il 30%, ma anche 40% in più di performance non mi aggrada molto, mi piaceva di più qualche generazione fa quando al crescere delle prestazioni miglioravano anche i consumi e la rumorosità/calore.
Vedremo, ora in effetti è troppo presto per sparare sentenze.
Purtroppo i transistor stanno arrivando ad un punto dove offrono tanta densità, ma pochissima efficienza. Non ci si può far nulla sotto questo aspetto. Cmq la 4090 sarà ben più veloce della 3090 (potrebbe essere pure meglio di pascal vs maxwell, salvo i consumi).
Il resto spetta agli ingegneri, cercare di migliorare l'architettura.
Speriamo anche di eliminare il monolitico dalla prossima gen.
E quando nei case mettevamo le 480 con la piastra dissipante a vista dove ci cucinavi le uova? Che tempi, forse ci si torna :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
Sempre detto, sembra passato un secolo dagli SLI. Quelle schede con i costi che avevano le mettevano anche a 3 vie.:sofico:
La 3090 invece rinfresca :sofico:
In effetti.:sofico:
Iceman69
16-05-2022, 22:39
E quando nei case mettevamo le 480 con la piastra dissipante a vista dove ci cucinavi le uova? Che tempi, forse ci si torna :fagiano:
Inviato dal mio iPad utilizzando Tapatalk
Bei tempi, ero molto più giovane, comunque a me piaceva perchè mi ricordava un motore con i collettori di aspirazione/scarico a vista... (ma in realtà erano heat pipe)
mikael84
17-05-2022, 00:37
Personalmente se la 4060 la ricavano da AD104 e i rumors di techpower si rivelano veritieri è già un chip che tallona la 3080 e per le mie esigenze andrebbe più che bene.
TPU segue quello che dicono i vari tweeter.:sofico:
Notizia di oggi.
https://www.techpowerup.com/294910/nvidia-geforce-rtx-4090-twice-as-fast-as-rtx-3090-features-16128-cuda-cores-and-450w-tdp
Quello che riportava.
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Non date peso a questo.
Le cose, le sapranno veramente, quando gli arriveranno i PDF, per le review, o quando via bios si saprà realmente tutto. :)
Attualmente sono solo speculazioni.
Già boost clock 1900, lo stesso boost della 3090ti di samsung 8nm.:p
Ci manca che pure con il 4n si lavori al max a 2ghz e siamo apposto, AMD con l'euv a 6nm è vicina ai 3ghz. :p
caccapupu91
17-05-2022, 07:09
Quindi cose da tenere in conto per la serie 4xxx imho
case orizzontale con la gpu che tiene la mobo e non viceversa :asd:
inutile inseguire una flagship, 4060 e il resto sul fotovoltaico
e possibile termosifone in custom loop per l'inverno
TPU segue quello che dicono i vari tweeter.:sofico:
Notizia di oggi.
https://www.techpowerup.com/294910/nvidia-geforce-rtx-4090-twice-as-fast-as-rtx-3090-features-16128-cuda-cores-and-450w-tdp
Quello che riportava.
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Non date peso a questo.
Le cose, le sapranno veramente, quando gli arriveranno i PDF, per le review, o quando via bios si saprà realmente tutto. :)
Attualmente sono solo speculazioni.
Già boost clock 1900, lo stesso boost della 3090ti di samsung 8nm.:p
Ci manca che pure con il 4n si lavori al max a 2ghz e siamo apposto, AMD con l'euv a 6nm è vicina ai 3ghz. :p
Sisi, però sicuramente ricaveranno un cut da AD104 che la chiamino 4060 o 4060ti importa poco :fagiano:
Infatti lato clock, se realmente avesse i clock riportati da techpower la 3080 non la vedrebbe neanche dal binocolo XD
Comunque precedenti rumors riportavano clock in boost fino a 2.8ghz, non so se siano veritieri però a vedere le attuali gpu di amd non sono per nulla impossibili, AD102 sicuramente sarà invece più conservativo nei clock restando ad aria considerando la densità che ha...
davide155
17-05-2022, 18:55
4090ti all'uscita? :ops:
Ci vorranno "sedicenti euro" per portarla a casa
https://www.hwupgrade.it/news/skvideo/geforce-rtx-4000-founders-edition-spuntano-presunte-foto-del-dissipatore-di-una-top-di-gamma_107257.html
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-1-17-05-2022.jpg
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-2-17-05-2022.jpg
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-3-17-05-2022.jpg
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-4-17-05-2022.jpg
fraussantin
17-05-2022, 20:04
4090ti all'uscita? :ops:
Ci vorranno "sedicenti euro" per portarla a casa
https://www.hwupgrade.it/news/skvideo/geforce-rtx-4000-founders-edition-spuntano-presunte-foto-del-dissipatore-di-una-top-di-gamma_107257.html
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-1-17-05-2022.jpg
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-2-17-05-2022.jpg
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-3-17-05-2022.jpg
https://www.hwupgrade.it/immagini/gf-rtx-4000-fe-dissipatore-4-17-05-2022.jpgCome per le cucine , servirà un case in muratura per sorreggerla :asd:
mikael84
17-05-2022, 20:11
Sisi, però sicuramente ricaveranno un cut da AD104 che la chiamino 4060 o 4060ti importa poco :fagiano:
Infatti lato clock, se realmente avesse i clock riportati da techpower la 3080 non la vedrebbe neanche dal binocolo XD
Comunque precedenti rumors riportavano clock in boost fino a 2.8ghz, non so se siano veritieri però a vedere le attuali gpu di amd non sono per nulla impossibili, AD102 sicuramente sarà invece più conservativo nei clock restando ad aria considerando la densità che ha...
Vengono tutt'ora riportati, ma ci andrei cauto. Certo che se anche in OC, dovesse avvicinarsi a quei valori, con i 7nmp Ampere poteva clockare a 2,4 tranquillamente.:)
https://wccftech.com/amd-rdna-3-navi-31-gpu-plum-bonito-fish-codename-gemini-board-rdna-4-gfx1200-rumor/
4090ti all'uscita? :ops:
Ci vorranno "sedicenti euro" per portarla a casa
https://www.hwupgrade.it/news/skvideo/geforce-rtx-4000-founders-edition-spuntano-presunte-foto-del-dissipatore-di-una-top-di-gamma_107257.html
Chiphell ha oscurato la pagina delle info prese. Cmq lanciare subito un chip del genere, vuol dire che hanno chip full a sufficienza già da subito.
Con la doppia densità di micron, potrebbero mettere anche 49gb e potrebbe anche starci il full 600w.
Di certo partendo dalla serie x90 che sarebbe la Titan, non la vedo come una cosa positiva.
la 4090ti se avrà 49gb, costerà molto per forza, in quanto i pro possono creare un nvlink da 98gb. l'unica a poterlo permettere era la quadro RTX8000 che costava 4000$ in più, solo per questo aspetto.:p
Ale55andr0
17-05-2022, 20:20
Quindi cose da tenere in conto per la serie 4xxx imho
case orizzontale con la gpu che tiene la mobo e non viceversa :asd:
inutile inseguire una flagship, 4060 e il resto sul fotovoltaico
e possibile termosifone in custom loop per l'inverno
lo sweetspot parrebbe la 4070 a stio giro: 300w out of the box che potrebbero limarsi con un buon undervolt. E si è ai livelli di una +3090.
La 70 è sempre stata lo sweet spot in tutte le generazioni.
La 80 la fascia alta che per definizione perde su prezzo/prestazioni/consumi ecc ecc
La 90 enthusiast
davide155
17-05-2022, 20:56
Chiphell ha oscurato la pagina delle info prese. Cmq lanciare subito un chip del genere, vuol dire che hanno chip full a sufficienza già da subito.
Con la doppia densità di micron, potrebbero mettere anche 49gb e potrebbe anche starci il full 600w.
Di certo partendo dalla serie x90 che sarebbe la Titan, non la vedo come una cosa positiva.
la 4090ti se avrà 49gb, costerà molto per forza, in quanto i pro possono creare un nvlink da 98gb. l'unica a poterlo permettere era la quadro RTX8000 che costava 4000$ in più, solo per questo aspetto.:p
Se hanno oscurato la pagina allora c'è buone probabilità che siano reali quelle foto.
Per quanto riguarda la doppia densità non ci scommetterei.
Ok rimpiazzare le Titan con le Ti, ma per quale motivo?
Cioè, le titan le acquistavano solo ed esclusivamente i pro, o quasi.
Le Ti invece le prenderebbero sia i pro che i gamers enthusiast.
Che sia proprio per questo motivo che hanno accorpato i nomi? In modo da vendere anche ai "fessi" enthusiast, dei chip full che in precedenza erano destinati solo ai pro, solo cambiando una nomenclatura? :stordita:
Anche se la 3090Ti non è che abbia riscosso tutto sto successo nonostante non si chiami Titan.
OrazioOC
17-05-2022, 21:10
https://videocardz.com/newz/nvidia-preparing-geforce-gtx-1630-graphics-card-its-first-gtx-x30-model
La vera nextgen. :O
Scherzi a parte, era una scheda che se fosse uscita 2 anni fa sarebbe stata utile, ora non credo.
mikael84
17-05-2022, 21:13
Se hanno oscurato la pagina allora c'è buone probabilità che siano reali quelle foto.
Per quanto riguarda la doppia densità non ci scommetterei.
Ok rimpiazzare le Titan con le Ti, ma per quale motivo?
Cioè, le titan le acquistavano solo ed esclusivamente i pro, o quasi.
Le Ti invece le prenderebbero sia i pro che i gamers enthusiast.
Che sia proprio per questo motivo che hanno accorpato i nomi? In modo da vendere anche ai "fessi" enthusiast, dei chip full che in precedenza erano destinati solo ai pro, solo cambiando una nomenclatura? :stordita:
Anche se la 3090Ti non è che abbia riscosso tutto sto successo nonostante non si chiami Titan.
Praticamente dalla scorsa gen, hanno levato tutte le sigle, ovvero Tesla-Titan e quadro.
La Titan è stata rebrandata in x90.
Sia 4090 che 4090ti saranno delle Titan praticamente, lo scopo è proprio l'ambito pro per la questione nvlink. Nvidia praticamente le scrive pensando in primis a loro.
Con la doppia densità, si può creare una soluzione clamshell da 49gb. Con Ampere non era inizialmente possibile farlo, non avendo la doppia densità, ovvero 2gb a canale.:)
Potrebbe esserci questa situazione:
-4090TI 49gb
-4090 24gb
-4080TI 20-22gb (no nvlink).
Anche per questo costano tantissimo, con turing ad esempio, la Titan nvlink da 24gb costava 2500$.
Partire dalle x90 significa partire dalle titan.:)
La 3090ti è uscita a fine gen, naturale avere poco appeal. Inoltre non apporta nulla, su Lovelace, la 4090 sarà la 3080 di ampere a livello di cut.
https://videocardz.com/newz/nvidia-preparing-geforce-gtx-1630-graphics-card-its-first-gtx-x30-model
La vera nextgen. :O
Scherzi a parte, era una scheda che se fosse uscita 2 anni fa sarebbe stata utile, ora non credo.
Concordo, soprattutto considerando gli enormi passi avanti fatti dalle IGP.
Ma vabbè parliamo di schedine entry level, si vede che le 710/730 stanno iniziando a finire :sofico:
La 70 è sempre stata lo sweet spot in tutte le generazioni.
Qualche volta anche la x60.
scorpion73
17-05-2022, 23:44
Praticamente dalla scorsa gen, hanno levato tutte le sigle, ovvero Tesla-Titan e quadro.
La Titan è stata rebrandata in x90.
Sia 4090 che 4090ti saranno delle Titan praticamente, lo scopo è proprio l'ambito pro per la questione nvlink. Nvidia praticamente le scrive pensando in primis a loro.
Con la doppia densità, si può creare una soluzione clamshell da 49gb. Con Ampere non era inizialmente possibile farlo, non avendo la doppia densità, ovvero 2gb a canale.:)
Potrebbe esserci questa situazione:
-4090TI 49gb
-4090 24gb
-4080TI 20-22gb (no nvlink).
Anche per questo costano tantissimo, con turing ad esempio, la Titan nvlink da 24gb costava 2500$.
Partire dalle x90 significa partire dalle titan.:)
La 3090ti è uscita a fine gen, naturale avere poco appeal. Inoltre non apporta nulla, su Lovelace, la 4090 sarà la 3080 di ampere a livello di cut.
La x80ti però non è titan, è sempre stata gaming. Abbiamo sempre avuto un chip top di gamma sulle gaming.
Solo che almeno dalle info quello che si capisce è che la x80ti a sto giro esce dopo, come fu con Ampere. Solo che la x80 liscia non è su chip top di gamma, essendo una x70 de facto.
mikael84
18-05-2022, 00:30
La x80ti però non è titan, è sempre stata gaming. Abbiamo sempre avuto un chip top di gamma sulle gaming.
Solo che almeno dalle info quello che si capisce è che la x80ti a sto giro esce dopo, come fu con Ampere. Solo che la x80 liscia non è su chip top di gamma, essendo una x70 de facto.
No la x80ti non rientra in gamma titan, però molto dipende dalle rese, e dalla concorrenza con AMD. Potrebbe rientrare anche come scheda pro a tutti gli effetti, ma nvidia gli disabiliterà il nvlink.
Probabilmente verrà tagliata in base alla 7800xt di AMD.
Cmq pro o gaming, alla fine poco importa, la differenza la farà il prezzo. Alla fine ha fatto tombola chi ha preso la 3080 a prezzo MSRP o poco sopra, ma non ha sbagliato neppure chi ha preso la 3090 a MSRP alla fine, visto l'andazzo.
Quello che preoccupa è il lancio immediato di AD102 Titan e la collocazione.
La x80 liscia, è declassata a x70, ora come ora, però non vuol dire che sia malvagia, rimangono da valutare i clock e lo scorporo INT. Questo ovviamente non in quella schifezza presentata da Kopite, senza doppia dispatch e scheduler tale e quale a Turing/Ampere.:p
davide155
18-05-2022, 08:54
Praticamente dalla scorsa gen, hanno levato tutte le sigle, ovvero Tesla-Titan e quadro.
La Titan è stata rebrandata in x90.
Sia 4090 che 4090ti saranno delle Titan praticamente, lo scopo è proprio l'ambito pro per la questione nvlink. Nvidia praticamente le scrive pensando in primis a loro.
Con la doppia densità, si può creare una soluzione clamshell da 49gb. Con Ampere non era inizialmente possibile farlo, non avendo la doppia densità, ovvero 2gb a canale.:)
Potrebbe esserci questa situazione:
-4090TI 49gb
-4090 24gb
-4080TI 20-22gb (no nvlink).
Anche per questo costano tantissimo, con turing ad esempio, la Titan nvlink da 24gb costava 2500$.
Partire dalle x90 significa partire dalle titan.:)
La 3090ti è uscita a fine gen, naturale avere poco appeal. Inoltre non apporta nulla, su Lovelace, la 4090 sarà la 3080 di ampere a livello di cut.
No la x80ti non rientra in gamma titan, però molto dipende dalle rese, e dalla concorrenza con AMD. Potrebbe rientrare anche come scheda pro a tutti gli effetti, ma nvidia gli disabiliterà il nvlink.
Probabilmente verrà tagliata in base alla 7800xt di AMD.
Cmq pro o gaming, alla fine poco importa, la differenza la farà il prezzo. Alla fine ha fatto tombola chi ha preso la 3080 a prezzo MSRP o poco sopra, ma non ha sbagliato neppure chi ha preso la 3090 a MSRP alla fine, visto l'andazzo.
Quello che preoccupa è il lancio immediato di AD102 Titan e la collocazione.
La x80 liscia, è declassata a x70, ora come ora, però non vuol dire che sia malvagia, rimangono da valutare i clock e lo scorporo INT. Questo ovviamente non in quella schifezza presentata da Kopite, senza doppia dispatch e scheduler tale e quale a Turing/Ampere.:p
Infatti io ogni giorno che passa sono sempre più convinto della scelta che ho fatto a gennaio di vendere la 3080 suprimX no LHR per la 3090 FE.
Visto l'andazzo qua si prospettano prezzi folli per il chippone.
Gli altri cut non mi entusiasmano venendo già da una 3090 e 24gb di memoria.
Per me il cambio non varrà i soldi in più, tranne appunto per il chippone che però costerà una fucilata. Ci scommetto la palla destra :O
thunderforce83
18-05-2022, 10:33
Non so voi ma io non vedo l'ora di mettere le mani su una 4080 bella spinta...effettivamente sara' anche una pseudo 4070, ma secondo me con il miglioramento notevole a livello di nanometri e l'architettura nuova spingeranno parecchio:oink:
StrixyRoG
18-05-2022, 10:47
Non so voi ma io non vedo l'ora di mettere le mani su una 4080 bella spinta...effettivamente sara' anche una pseudo 4070, ma secondo me con il miglioramento notevole a livello di nanometri e l'architettura nuova spingeranno parecchio:oink:
Spingerai il carrettino se non usciranno giochi degni di nota, e per ora non vedo nulla all'orizzonte :D
thunderforce83
18-05-2022, 13:32
Spingerai il carrettino se non usciranno giochi degni di nota, e per ora non vedo nulla all'orizzonte :D
Sono' d'accordo con te, ma nel giro dei prossimi due anni ci sono parecchi titoli interessanti che usciranno, senza togliere che 20fps in piu' mi permetterebbero di fare il secondo giro a control o metro exodus, che sono due veri mattoni e che con la prossima scheda si potrebbe giocare alla massima fluidita' tutto maxato (forse) :sofico:
fraussantin
18-05-2022, 13:41
Sono' d'accordo con te, ma nel giro dei prossimi due anni ci sono parecchi titoli :
Tipo?
------------------------------------------------------------------------------------
Su ldlc ci sono 3070 e 3060 fe a prendere polvere ..
Su vede che siamo in fondo ...
Tipo?
------------------------------------------------------------------------------------
Su ldlc ci sono 3070 e 3060 fe a prendere polvere ..
Su vede che siamo in fondo ...
Con le nuove schede alle porte, il costo attuale dell'elettricità ed il valore di BTC/ETH, nessuno si azzarda a comprarle ai prezzi odierni o MSRP.:stordita:
mikael84
18-05-2022, 15:16
Infatti io ogni giorno che passa sono sempre più convinto della scelta che ho fatto a gennaio di vendere la 3080 suprimX no LHR per la 3090 FE.
Visto l'andazzo qua si prospettano prezzi folli per il chippone.
Gli altri cut non mi entusiasmano venendo già da una 3090 e 24gb di memoria.
Per me il cambio non varrà i soldi in più, tranne appunto per il chippone che però costerà una fucilata. Ci scommetto la palla destra :O
Sui prezzi non mi pronuncio, alla fine il problema di nvidia e AMD è il contorno che ha fatto schizzare tutto.
Oggi non si prendono schede a MSRP, quando solo l'anno scorso si prendevano 1650 a 500 e passa euro.
Infatti, fa riflettere che JHH ora ti vende la x60 e x70 come x70/x80. Segno che ci vuole speculare in questo modo.
Vedremmo con l'ingresso diretto delle Titan (x90) l'andazzo.:)
Cmq vada il mercato, tu con la 3090, stai bello tranquillo.:)
Non so voi ma io non vedo l'ora di mettere le mani su una 4080 bella spinta...effettivamente sara' anche una pseudo 4070, ma secondo me con il miglioramento notevole a livello di nanometri e l'architettura nuova spingeranno parecchio:oink:
Togli quel pseudo, è una 4070 chiamata 4080.:)
Come la 4070 è una buona 4060.
A livello di performance sicuramente non sarà male.
GA102 sarà facilmente prendibile anche da una 4060 (ribattezzata 4070 da JHH)
Praticamente dalla scorsa gen, hanno levato tutte le sigle, ovvero Tesla-Titan e quadro.
La Titan è stata rebrandata in x90.
Sia 4090 che 4090ti saranno delle Titan praticamente, lo scopo è proprio l'ambito pro per la questione nvlink. Nvidia praticamente le scrive pensando in primis a loro.
Con la doppia densità, si può creare una soluzione clamshell da 49gb. Con Ampere non era inizialmente possibile farlo, non avendo la doppia densità, ovvero 2gb a canale.:)
Potrebbe esserci questa situazione:
-4090TI 49gb
-4090 24gb
-4080TI 20-22gb (no nvlink).
Anche per questo costano tantissimo, con turing ad esempio, la Titan nvlink da 24gb costava 2500$.
Partire dalle x90 significa partire dalle titan.:)
La 3090ti è uscita a fine gen, naturale avere poco appeal. Inoltre non apporta nulla, su Lovelace, la 4090 sarà la 3080 di ampere a livello di cut.
perché 49gb, dovrebbe essere 48 no?
mikael84
18-05-2022, 15:50
perché 49gb, dovrebbe essere 48 no?
Semplice, sono 2048mb a chip x12 moduli = 24576mb, x2 clamshell = 49152, quindi possiamo usare direttamente 49gb.:)
Semplice, sono 2048mb a chip x12 moduli = 24576mb, x2 clamshell = 49152, quindi possiamo usare direttamente 49gb.:)
a in quel senso, sono sempre 48 però, altrimenti anche nelle ram normali si potrebbe dire 65GB o 131GB anzichè 64 e 128:D
mikael84
18-05-2022, 16:28
a in quel senso, sono sempre 48 però, altrimenti anche nelle ram normali si potrebbe dire 65GB o 131GB anzichè 64 e 128:D
Si diciamo così in quanto più comodo, ma fisicamente ne hai 49. Sono stato pignolo dai.:p :D
thunderforce83
18-05-2022, 16:57
Togli quel pseudo, è una 4070 chiamata 4080.:)
Come la 4070 è una buona 4060.
A livello di performance sicuramente non sarà male.
GA102 sarà facilmente prendibile anche da una 4060 (ribattezzata 4070 da JHH)
sono molto curioso lato prezzi e consumi...
non nego che se la differenza non e' troppa, ad esempio:900 per la 4080, 1500 per la 4090 allora si...ma se la differenza e' tipo 1000 la 4080 e 2000 4090 allora no...ieri con il mio amico facevamo questo paragone, all'epoca della 980/980ti o della 290x cacciare 300/400 euro significava mettere nel case la scheda piu' potente, con la 980ti si iniziava a fare la pazzia visto che si era alzato il tiro addirittura a 600/700euro! adesso e' assurdo che per avere un cippetto pseudo 4080 travestito, ma di fondo una 4070, bisogna a cuor leggero prepararsi a scucire 1000 baiocchi:D come cambiano i tempi...sta diventando una passione costosa:p
Alla fine progettare questi chip sta diventando complesso e molto costoso ed un po' e' comprensibile, poi mettici la pandemia/guerra e tutti i casini annessi sull'aumento assurda della richiesta di chip...
pero' di una cosa sono contento, quello schifo di bitcoin sta' colando a picco:)
cosi' i miners la finiranno di inquinare,consumare corrente e rompere le b...lle ai giocatori prendendo le schede video a chili, eppoi i bagarini se le tireranno in faccia le schede, e non come e' successo due anni fa', che per una 3080 mi sono dovuto raccomandarmi a jeff bezos:D :D :D
Thunder-74
19-05-2022, 07:00
sono molto curioso lato prezzi e consumi...
non nego che se la differenza non e' troppa, ad esempio:900 per la 4080, 1500 per la 4090 allora si...ma se la differenza e' tipo 1000 la 4080 e 2000 4090 allora no...ieri con il mio amico facevamo questo paragone, all'epoca della 980/980ti o della 290x cacciare 300/400 euro significava mettere nel case la scheda piu' potente, con la 980ti si iniziava a fare la pazzia visto che si era alzato il tiro addirittura a 600/700euro! adesso e' assurdo che per avere un cippetto pseudo 4080 travestito, ma di fondo una 4070, bisogna a cuor leggero prepararsi a scucire 1000 baiocchi:D come cambiano i tempi...sta diventando una passione costosa:p
Alla fine progettare questi chip sta diventando complesso e molto costoso ed un po' e' comprensibile, poi mettici la pandemia/guerra e tutti i casini annessi sull'aumento assurda della richiesta di chip...
pero' di una cosa sono contento, quello schifo di bitcoin sta' colando a picco:)
cosi' i miners la finiranno di inquinare,consumare corrente e rompere le b...lle ai giocatori prendendo le schede video a chili, eppoi i bagarini se le tireranno in faccia le schede, e non come e' successo due anni fa', che per una 3080 mi sono dovuto raccomandarmi a jeff bezos:D :D :D
Alla fine dipenderà dalle prestazioni offerte, perché è quello che si compra. Che la 4080 sia basata su un chippino o un chippone poco cambia, anzi se il delta prestazioni fosse consistente rispetto alla 3080, il chippino potrebbe far risparmiare qualche centone.
Supponendo i prezzi da te citati di 900 e 1500 di una 4080 e una 4090, potrei farci un pensierino alla 4090, ma minimo deve correrci un 35x100 in più, no un misero 15 come con Ampere.
https://uploads.tapatalk-cdn.com/20220519/9ccf77224a48bb1e90bc6af54453745a.jpg
Sicuramente con Lovelace lo stacco sarà più marcato se la 4080 è su AD103.
Mi auguro che tale manovra sia per poter offrire una scheda di fascia alta ad un prezzo non troppo eccessivo in stile 6800xt di AMD e quindi per competere con la futura 7800 su tale fascia di prezzo. Del resto le strategie di mercato si fanno anche basandosi sulle politiche dei prezzi dei propri competitors .
Vedremo dai, siamo qui alla finestra :)
Inviato dal mio iPhone X utilizzando Tapatalk
Seguiranno la stessa gerarchia vista con Turing francamente non ci vedo nulla di scandaloso...
Alla fine anche la 2080ti sulla carta dovrebbe spingere molto più di 2080s a vederne la densità, ma alla fine lo scaling é misero c'è lo stesso divario che c'è tra 3060ti e 3070, e dubito che AD102 con la sua densità possa permettersi chissà che boost clock ad aria rispetto i chip inferiori.
La 3080 la si dovrebbe prendere anche con un ad104 cuttato con l'eventuale 4060/4060ti o come vorranno chiamarla.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Francamente secondo me se la 4070 avrà prestazioni simili ad una 3090 la lineup potrebbe tranquillamente aggiungersi, con uno streetprice per la 4070 che inizierà la dove la 3090 finiva e poi a salire, e cetrioli per tutti.:O
amon.akira
19-05-2022, 09:58
Francamente secondo me se la 4070 avrà prestazioni simili ad una 3090 la lineup potrebbe tranquillamente aggiungersi, con uno streetprice per la 4070 che inizierà la dove la 3090 finiva e poi a salire, e cetrioli per tutti.:O
dici che nvidia passerà da 549$ a 1650$ da 3070 a 4070 solo perchè raggiunge le performance vecchie con la metà del silicio?
l aumento ci può essere ma sarà max 100dollari su una x70 se proprio ci vuole guadagnare.
Thunder-74
19-05-2022, 10:20
Francamente secondo me se la 4070 avrà prestazioni simili ad una 3090 la lineup potrebbe tranquillamente aggiungersi, con uno streetprice per la 4070 che inizierà la dove la 3090 finiva e poi a salire, e cetrioli per tutti.:O
Ma scherzi! Una 4070 a 1500 euro.
Poi tutti a comprare AMD .
Io mi aspetto un divario marcato di prezzo tra schede con ad103 e ad102.
Se poi si avvera quello che dici tu, cambio hobby, perché sarebbe una presa per i fondelli troppo grossa.
Inviato dal mio iPhone X utilizzando Tapatalk
paolodekki
19-05-2022, 10:43
Seguo.
Intanto, interessato alla fascia media, mi domando come saranno le prestazioni della 4060!
Ale55andr0
19-05-2022, 10:49
Ma scherzi! Una 4070 a 1500 euro.
Poi tutti a comprare AMD .
la stessa che ti propone la 6750xt a 600+ e ha tolto la 6800? :asd: la stessa AMD dei ryzen 5000 prezzati "a la intel" e piazzandoti come octacore al lancio solo il 5800 a quasi 500? :asd:
Intanto, interessato alla fascia media, mi domando come saranno le prestazioni della 4060!
Io sono pessimista sulla 4070 figuriamoci la 60.
ninja750
19-05-2022, 11:31
la stessa che ti propone la 6750xt a 600+
549$ :O
e ha tolto la 6800?
troppo sovrapposta alla 6750XT ed inoltre hanno troppi pochi scarti da declassare
comunque un altro balzo di fascia è inevitabile, hanno lanciato il trend e l'aumento delle materie prime può accompagnare solo
le 4070 costeranno come le 3080 e le 4060 come le 3070(ti)
mikael84
19-05-2022, 11:57
Alla fine dipenderà dalle prestazioni offerte, perché è quello che si compra. Che la 4080 sia basata su un chippino o un chippone poco cambia, anzi se il delta prestazioni fosse consistente rispetto alla 3080, il chippino potrebbe far risparmiare qualche centone.
Supponendo i prezzi da te citati di 900 e 1500 di una 4080 e una 4090, potrei farci un pensierino alla 4090, ma minimo deve correrci un 35x100 in più, no un misero 15 come con Ampere.
Ricordo che AD102 classico è stato declassato da 18,4k a 16k, quindi il vero salto del chippone lo farà il chip full (4090ti).
Sicuramente con Lovelace lo stacco sarà più marcato se la 4080 è su AD103.
Mi auguro che tale manovra sia per poter offrire una scheda di fascia alta ad un prezzo non troppo eccessivo in stile 6800xt di AMD e quindi per competere con la futura 7800 su tale fascia di prezzo. Del resto le strategie di mercato si fanno anche basandosi sulle politiche dei prezzi dei propri competitors .
Vedremo dai, siamo qui alla finestra :)
Inviato dal mio iPhone X utilizzando Tapatalk
Beh, non aspettiamoci chissà quale salto. Anche se la 4080 è una x70, tra GA102 e GA104, non c'è questo abisso. Basta fare le stesse proporzioni per numero di cuda con Ampere.:)
Ricordo che AD102 è stato declassato da 18,4 a 16k, la vera differenza la farà la 4090ti.
Francamente secondo me se la 4070 avrà prestazioni simili ad una 3090 la lineup potrebbe tranquillamente aggiungersi, con uno streetprice per la 4070 che inizierà la dove la 3090 finiva e poi a salire, e cetrioli per tutti.:O
dici che nvidia passerà da 549$ a 1650$ da 3070 a 4070 solo perchè raggiunge le performance vecchie con la metà del silicio?
l aumento ci può essere ma sarà max 100dollari su una x70 se proprio ci vuole guadagnare.
Ci manca pure di pagare un 300mm2 come una Titan nvlink e siamo apposto. :D
La penso come Amon, probabilmente ci sarà un aumentino, ma non così eclatante. Considerando che però JHH, se avrà scarse rese, la 4070 diventa del tutto una x60.
A conti fatti quegli ipotetici 599$ sono per la fascia x60, chiamata x70.
Alla fine anche la 2080ti sulla carta dovrebbe spingere molto più di 2080s a vederne la densità, ma alla fine lo scaling é misero c'è lo stesso divario che c'è tra 3060ti e 3070, e dubito che AD102 con la sua densità possa permettersi chissà che boost clock ad aria rispetto i chip inferiori.
La 3080 la si dovrebbe prendere anche con un ad104 cuttato con l'eventuale 4060/4060ti o come vorranno chiamarla.
Inviato dal mio M2012K11AG utilizzando Tapatalk
2080s vs 2080ti ci ballano 3TF a stock, ovvero il 25%, è naturale sia poco il divario. Sono 20% di perf, ogni 30/33% flops. circa.
Mallardo
19-05-2022, 11:57
549$ :O
troppo sovrapposta alla 6750XT ed inoltre hanno troppi pochi scarti da declassare
comunque un altro balzo di fascia è inevitabile, hanno lanciato il trend e l'aumento delle materie prime può accompagnare solo
le 4070 costeranno come le 3080 e le 4060 come le 3070(ti)
Di fatto la 4080 è paragonabile alla 3070 come taglio del chip (se ho ben capito leggendovi qui sul forum), quindi un aumento del prezzo è già palese, si spera non ce ne siano ulteriori.
A me sembra assurdo che dopo due anni, si due, le 3070 e 3080 siano ancora ai prezzi di lancio (peggio, considerando l'ultimo rincaro).
Se la gen precedente è ancora a 750e per una 3080, la 4070 non potrà costare meno di 800euro per pari prestazioni alla 80, si spera.
Per avere prezzi sensati (e comunque parliamo di 500/700euro per una scheda, che diamine!) le 3000 dovevano costare decisamente meno ora
mikael84
19-05-2022, 12:39
Non sarebbe neppure male, se fossero veri.
4090ti: 1999$
4090: 1499$
https://i.postimg.cc/7hH3wNMK/prezzi.png
Link
https://wccftech.com/roundup/nvidia-geforce-rtx-4090-ti-rtx-4090/
amon.akira
19-05-2022, 13:45
infatti 1499 sarebbe il sostituto della 3090 a msrp, quindi 1650€ dallo shop nvidia
mikael84
19-05-2022, 14:58
infatti 1499 sarebbe il sostituto della 3090 a msrp, quindi 1650€ dallo shop nvidia
Vero, di seguito le varie fasce.
Se davvero ci avvicineremmo a clock del genere il 90%/2x è praticamente fattibile (e parlo a pari architettura, non immagino con la gestione INT ed l1).
La stessa AMD passa da 5120 st a 12440 st (con aumenti clock e semplificazione dei WGP), i balzi saranno entrambi notevoli.
Questo se confermato, fa ben capire cosa poteva essere ampere su TSMC7nmp.:fagiano:
Se il cambio euro dollaro continua con questo trend, assumendo che i prezzi riportati siano veri aspettiamoci quasi 2000 euro per una 4090 e 2500 per la ti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.