View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Crysis90
06-08-2020, 17:14
https://64.media.tumblr.com/5f1c7fcdaf697ae1b19f68e7faaa17d0/tumblr_n6dqdjdsTf1qz6z2wo2_500.gifv
In effetti...
Su questa mi trovi perfettamente d'accordo.
TigerTank
06-08-2020, 18:31
https://64.media.tumblr.com/5f1c7fcdaf697ae1b19f68e7faaa17d0/tumblr_n6dqdjdsTf1qz6z2wo2_500.gifv
Eeeeh vabbè Frozen, ma con il monitor che ti sei fatto, ora devi cacciarli per una nuova vga :sofico:
Mi chiedo come ancora non abbiate capito che quotare e dare spago ai troll, ai cloni ecc sia una cosa inutile e deleteria.. oltre che aumentare lo schifo da dover togliere dal forum.. :rolleyes:
limitatevi a segnalare e stop..
>bYeZ<
AceGranger
06-08-2020, 20:14
Il problema turing vs ampere, è che si gioca su 2 fronti, raster ed RT/dlss.
272 tensor vs 272 tensor (2080ti vs 3080)
Una produce 50tf stock, l'altra 306/612 tf sparsity (a metà ratio sono 153/306).:)
ma i nuovi calcoli TF32 potranno essere usati anche nei giochi ? visto che ora alcuni giochi fanno uso di calcoli FP16, magari potranno fare uso di questa "via di mezzo"
TigerTank
06-08-2020, 21:19
Tu Tiger a cosa passi? 3080? o fai il grande salto con la 3080ti?:D
Boh, si vedrà una volta chiari i vari fattori (prestazioni, prezzo, modelli, bontà effettiva dei nuovi giochi, ecc...). :)
mikael84
06-08-2020, 23:24
ma i nuovi calcoli TF32 potranno essere usati anche nei giochi ? visto che ora alcuni giochi fanno uso di calcoli FP16, magari potranno fare uso di questa "via di mezzo"
Difficile anche perchè AMD non può farli con RDNA2.
Alla fine parliamo di un mix a mantissa da fp16, ed esponente da fp32, che in calcolo si perde metà ratio.
Penso che i Tensor float come i bfloat 16, verranno utilizzati solo per certi contesti IA.:)
fireradeon
07-08-2020, 01:24
Boh, si vedrà una volta chiari i vari fattori (prestazioni, prezzo, modelli, bontà effettiva dei nuovi giochi, ecc...). :)
Avanti che hai già la bavetta per la 3080ti. Altrimenti cyberpunk 2077 come lo spingi? :D
Ma alla fine questa 3090 esiste o erano solo fake?
Saetta_McQueen
07-08-2020, 06:26
Mi sta salendo la scimmia per la 3070 :D
Sono curioso di vedere la differenza di prezzo/prestazioni tra eventuale 3070/TI @3080.. anche per vedere sul campo BigNavi come si piazza..
Inviato dal mio RNE-L21 utilizzando Tapatalk
oZonoRobotics
07-08-2020, 08:22
io sono curioso di vedere se posso tenermi uno dei due reni per la 3080ti o se mi tocca venderli entrambi :P
comunque anche a me non è chiaro se esistono sia 3080ti che 3090
Giovamas
07-08-2020, 08:27
io sono curioso di vedere se posso tenermi uno dei due reni per la 3080ti o se mi tocca venderli entrambi :P
vediamo i prezzi e si decide.. magari si aspetta qualche beta tester (io con la 'rottura' ho già dato :D e poi mi è arrivata la nuova con le samsung e vola). poi abbiamo l'usato da piazzare mica si parte da zero :) io con ogni probabilità rimango in Ti ma vediamo. L'unico motivo che mi blocca la scimmia oltre al prezzo sarà questa storia dell'alimentazione. Ma se Mike dice che prob è un fake .. beh io credo più a lui che ai tanti youtuber e cacciatori di click
Avanti che hai già la bavetta per la 3080ti. Altrimenti cyberpunk 2077 come lo spingi? :D
Ma alla fine questa 3090 esiste o erano solo fake?
Dai rumors compare sempre, ma non si capisce come si posiziona.
Dubito che la 3090 sostituirà il marchio titan quindi è da vedere se ci sarà e se ci sarà quanto valga la pena rispetto la 3080ti che economica non sarà di certo.
oZonoRobotics
07-08-2020, 08:46
vediamo i prezzi e si decide.. magari si aspetta qualche beta tester (io con la 'rottura' ho già dato :D e poi mi è arrivata la nuova con le samsung e vola). poi abbiamo l'usato da piazzare mica si parte da zero :) io con ogni probabilità rimango in Ti ma vediamo. L'unico motivo che mi blocca la scimmia oltre al prezzo sarà questa storia dell'alimentazione. Ma se Mike dice che prob è un fake .. beh io credo più a lui che ai tanti youtuber e cacciatori di click
si, è che dopo tanta attesa son disposto a spendere cifre che fino al 2017 non mi sarei mai sognato di spendere, consapevole del fatto che quando uscirà la 4070, la 3080ti avrà valore pari a zero, poi per me il problema resta il reference design (orrendo) che se confermato mi farebbe pesare l'acquisto, quindi dovrei prendere una strix che ad occhio e croce visto l'andazzo meno di 1700/2000 euro non costerà... decisamente pesante
MrBrillio
07-08-2020, 09:41
si, è che dopo tanta attesa son disposto a spendere cifre che fino al 2017 non mi sarei mai sognato di spendere, consapevole del fatto che quando uscirà la 4070, la 3080ti avrà valore pari a zero, poi per me il problema resta il reference design (orrendo) che se confermato mi farebbe pesare l'acquisto, quindi dovrei prendere una strix che ad occhio e croce visto l'andazzo meno di 1700/2000 euro non costerà... decisamente pesante
Reference,liquidi e passa la paura :D
Nel custom loop son tutte bellissime le VGA.
oZonoRobotics
07-08-2020, 09:52
Reference,liquidi e passa la paura :D
Nel custom loop son tutte bellissime le VGA.
https://i.postimg.cc/wtR9Z5TV/giuseppe-conte-1314080-tn.jpg (https://postimg.cc/wtR9Z5TV)
:P
scherzi a parte il costo di una reference liquidata è uguale ad una custom con tutto il fatto che dovrei prendere una seconda pompa/vaschetta e radiatore, il 9900 scalda come un vulcano ora che è estate e non potrei usare lo stesso loop neanche per sogno... cosa che invece avevo fatto con 780ti e 6700k...
Giovamas
07-08-2020, 10:51
https://i.postimg.cc/wtR9Z5TV/giuseppe-conte-1314080-tn.jpg (https://postimg.cc/wtR9Z5TV)
:P
scherzi a parte il costo di una reference liquidata è uguale ad una custom con tutto il fatto che dovrei prendere una seconda pompa/vaschetta e radiatore, il 9900 scalda come un vulcano ora che è estate e non potrei usare lo stesso loop neanche per sogno... cosa che invece avevo fatto con 780ti e 6700k...
no io rimango rigorosamente ad aria. sono estremista in tal senso :D l'unica incertezza che ho sarà MSI o ASUS (forse questa volta vado di MSI) sempre PCB custom
MrBrillio
07-08-2020, 10:56
cut[/url]
:P
scherzi a parte il costo di una reference liquidata è uguale ad una custom con tutto il fatto che dovrei prendere una seconda pompa/vaschetta e radiatore, il 9900 scalda come un vulcano ora che è estate e non potrei usare lo stesso loop neanche per sogno... cosa che invece avevo fatto con 780ti e 6700k...
Motivo in più per potenziare anche il loop e godere di frequenze e silenziosità che non avresti con una custom ahahahah
Sai che io non so se tornerei mai più ad aria...potrei ancora ancora comprare una soluzione ibrida, ma ad aria completa boh. Ormai son troppo abituato alla silenziosità del loop :D
oZonoRobotics
07-08-2020, 11:14
della silenziosità poco importa visto che gioco sempre con le cuffie, se lo dovessi fare lo farei solo per estetica e perchè costerebbe uguale ad una custom... il punto è che aprire il case e inserire una vga ad aria è molto più facile :P io non son pratico a montare pc quindi sarebbe una rogna in più anche quando devo ricambiare vga...
mikael84
07-08-2020, 11:41
no io rimango rigorosamente ad aria. sono estremista in tal senso :D l'unica incertezza che ho sarà MSI o ASUS (forse questa volta vado di MSI) sempre PCB custom
Custom davvero sopra le righe, la galaxy HOF.:)
Con quella ti diverti. La 2080ti HOF faceva paura.
fireradeon
07-08-2020, 12:14
Dai rumors compare sempre, ma non si capisce come si posiziona.
Dubito che la 3090 sostituirà il marchio titan quindi è da vedere se ci sarà e se ci sarà quanto valga la pena rispetto la 3080ti che economica non sarà di certo.
Se costa poco non la voglio. :fagiano:
fireradeon
07-08-2020, 12:15
Doppio post sorry
fireradeon
07-08-2020, 12:24
della silenziosità poco importa visto che gioco sempre con le cuffie, se lo dovessi fare lo farei solo per estetica e perchè costerebbe uguale ad una custom... il punto è che aprire il case e inserire una vga ad aria è molto più facile :P io non son pratico a montare pc quindi sarebbe una rogna in più anche quando devo ricambiare vga...
Se vuoi liquidare vai di AIO. Lascia perdere il liquido che quando devi mettere mani per smontare sono solo santi che cadono. Pure io sono tornato ad aria e via. A liquido ho solo il vecchio PC ormai
thunderforce83
07-08-2020, 12:24
intanto le turing stanno sparendo dalla circolazione...fonti ufficiose dicono che praticamente la produzione e' stata fermata da un bel po', credo proprio che siamo vicini per lo meno al lancio ufficiale, eppoi magari a settembre la relativa commercializzazione...
OrazioOC
07-08-2020, 12:41
intanto le turing stanno sparendo dalla circolazione...fonti ufficiose dicono che praticamente la produzione e' stata fermata da un bel po', credo proprio che siamo vicini per lo meno al lancio ufficiale, eppoi magari a settembre la relativa commercializzazione...
Le tempistiche ormai sono decisamente mature, chi voleva una rtx 2000 ha avuto due anni per prendersela, ora con quella ci acchiappi giusto qualche disperato, ma chi è un minimo informato aspetta le nuove già da un pezzo.:D
Se poi nvidia comprerà Arm, allora da qualche parte dovrà rientrarci delle spese, e ovviamente verranno a chiedere soldi con le nuove gpu desktop gaming/pro.:D
Thunder-74
07-08-2020, 12:48
Se vuoi liquidare vai di AIO. Lascia perdere il liquido che quando devi mettere mani per smontare sono solo santi che cadono. Pure io sono tornato ad aria e via. A liquido ho solo il vecchio PC ormai
dipende come studi il loop.. Con un rubinetto posto in basso, svuoti facile, il residuo del liquido lo soffi con un tubo collegato sulla vaschetta. Se poi sei uno che cambia spesso VGA, metti gli sganci rapidi e passa la paura, unica cosa è che due coppie di sganci rapidi, sono restrittivi come un WB, quindi valutare la portata del liquido in base al proprio loop/tipo di pompa ;).
Chiudo OT
OrazioOC
07-08-2020, 13:08
Non è proprio così, io ho avuto tantissime proposte per la 2080ti, la gente ha paura di andare sopra i 1000 euro con ampere, tutti quelli che mi hanno contattato non si aspettano performance da Ti con prezzi inferiori a 1000 euro, magari sbagliano, poichè una 3080 andrà di più, ma a che prezzo? 900? siamo sicuri? Mah...
Cercano tantissime 2070s usate sulle 400-450 euro, ad un gamer se togli la gpu facile che si venda la madre pur di avercela in tempi brevi.
Non tutti se ne fott@no e aspettano, a me sbatte nulla e vendo sempre prima, ma non sono un gamer, gioco si e no 2-3 titoli l'anno, la maggior parte sono gamer incalliti e vogliono la gpu subito!
Si ma un conto è fargli spendere 1200/1300 euro per una buona 2080 ti nuova, un altro 8/900 euro per una 2080 ti buona con ancora qualche mese di garanzia residua, c'è sempre qualche centone in meno che ne agevola l'acquisto.
Anche perchè se uno ha una gpu pascal, è un signor upgrade, o anche certe turing di fascia media.
Ma sul nuovo la storia penso sia differente, anche nel thread ufficiale girano sempre i soliti a scambiarsi le info, chi vuole una top nuova giustamente sta aspettando Ampere.
Giovamas
07-08-2020, 13:32
intanto le turing stanno sparendo dalla circolazione...fonti ufficiose dicono che praticamente la produzione e' stata fermata da un bel po', credo proprio che siamo vicini per lo meno al lancio ufficiale, eppoi magari a settembre la relativa commercializzazione...
ci sta.. se ricordo bene nel 2018 ci fu un teaser verso ferragosto che annunciava la presentazione appunto a fine agosto. forse si va un po' più in là ma non manca molto
Quindi due settimane ed è fatta :D
Almeno per la curiosità che è più forte dell'acquisto stesso...
Si,lo so,per il ritardo del Covid
mikael84
07-08-2020, 15:02
Detto questo, l'overclock era divertente sino a gk110 con le mod, vi ricordate i bios skynet? e successive mod? ecco, con le 780/780ti ci si divertiva, aveva senso avere una kingpin o una classi, ora delle supercustom se ne può tranquillamente fare a meno, solo sotto ln2 e nelle mani giuste hanno senso.
Il bello era l'overvolt, che con Kepler morì quasi del tutto, come l'evbot.
Da li i primi blocchi a binario, 00 sul 4208 custom e sulle TI.
Ora il bello è il downvolt.
Come cambiano le cose.
Thunder-74
07-08-2020, 15:33
Il bello era l'overvolt, che con Kepler morì quasi del tutto, come l'evbot.
Da li i primi blocchi a binario, 00 sul 4208 custom e sulle TI.
Ora il bello è il downvolt.
Come cambiano le cose.
Un cambio che personalmente mette tristezza... nel mio piccolo, con bios da 350w su una 2080 liscia e raffreddamento a liquido, dove è difficile arrivare a tale assorbimento e aumentare i volt sulla GPU, generano fattivamente pochi gradi in più, il downvolt di per sé non avrebbe molto senso.
La cosa che ho notato è che anche dando 1,093v e scucendo quei 50/75 mhz in più, le prestazioni sono quelle... cambia di pochissimo e quindi risulta inutile fare overvolt.
come dici tu, era bello l'overvolt di un tempo :fagiano:
Questo perchè le nuove schede sono già belle tirate di fabbrica...
mikael84
07-08-2020, 18:01
Un cambio che personalmente mette tristezza... nel mio piccolo, con bios da 350w su una 2080 liscia e raffreddamento a liquido, dove è difficile arrivare a tale assorbimento e aumentare i volt sulla GPU, generano fattivamente pochi gradi in più, il downvolt di per sé non avrebbe molto senso.
La cosa che ho notato è che anche dando 1,093v e scucendo quei 50/75 mhz in più, le prestazioni sono quelle... cambia di pochissimo e quindi risulta inutile fare overvolt.
come dici tu, era bello l'overvolt di un tempo :fagiano:
Esatto, purtroppo tra PP e blocchi, ormai non se ne cava piede. Quel poco concesso, a molti da più instabilità che altro, o non noti nulla. Per non parlare degli odiosi tagli temp.
Ad 1,2v i 2200 non erano un miraggio nel tuo caso. Ad aria no.
Dopo 1,3v azoto ovviamente.
Questo perchè le nuove schede sono già belle tirate di fabbrica...
Anche, ma già da tempo, con Kepler, nvidia ha bloccato i vrm in binario, e le resistenze da caduta, non danno proprio margine per salire. Dopo una certa tensione vai incontro ad instabilità.
La tensione migliore per questi transistor è 0,9/0,95v.:)
mikael84
07-08-2020, 18:02
doppio problemi con il sito.
mikael84
07-08-2020, 18:03
scusate problemi.
Anche, ma già da tempo, con Kepler, nvidia ha bloccato i vrm in binario, e le resistenze da caduta, non danno proprio margine per salire. Dopo una certa tensione vai incontro ad instabilità.
La tensione migliore per questi transistor è 0,9/0,95v.:)
Si,da Kepler,infatti.
Mossa voluta da Nvidia o tipologia transistor obbligati?
mikael84
07-08-2020, 19:06
Si,da Kepler,infatti.
Mossa voluta da Nvidia o tipologia transistor obbligati?
In parte dai transistor che non permettono overvolt senza far impazzare i consumi, ma in gran parte anche voluta da nvidia, piombandoli con 3 resistenze sul core ed il VRM a binario.
I migliori 2 ad azoto hanno fatto 2600/2700, ma subito sotto si sono fermati a 2400/2500.
https://www.tweaktown.com/news/74274/amds-next-gen-rdna-3-revolutionary-chiplet-design-could-crush-nvidia/index.html
40-50% da 2080ti, se fosse vero, credo proprio che a sto giro la concorrenza ci sia, cosi la finiscono di piazzare la top a 1279 euro LOL
Rdna2 top Vs 3080ti
Rdna2 cut Vs 3080
Troppo bello per essere vero, magari la top rossa starà nel mezzo tra 3080ti e 3080, comunque a sto giro secondo me la 3080 la acchiappano.
Beh il bello del salto nodo completo, nvidia è indietro. Già con turing si è andati al limite, ed un 10nm sarebbe servito li.
Per prendere la 2080ti ad AMD serve un 50/60% (nei casi con molti giochi sfavorevoli).
La 2080ti è un cut spompato. TU102 full a 18,6mtransistor a clock decenti va oltre quelle percentuali.
Sinceramente parlando non ho mai visto la 2080ti com eun chip spompo, ho provato anche una Titan Rtx e andava meglio circa del 10% a parità di clock, più o meno i rapporti sono gli stessi di quelli visti tra 1080ti e titan X full (3840cc) pascal.
Chip incredibile quello su Titan, prendeva quasi 100mhz a parità di voltaggio rispetto alla mia, tirato a 2100-2150 comincia a stare a +20% dalla 2080ti stock.Per la modica cifra di 2mila eurozzi :sofico:
Giovamas
08-08-2020, 07:27
Custom davvero sopra le righe, la galaxy HOF.:)
Con quella ti diverti. La 2080ti HOF faceva paura.
ciao Mike. oh beh sai che con turing ci avevo pensato? ma era introvabile. mai avuta la galaxy e sinceramente potrebbe essere la volta buona. la asus è valida ma devi prendere la OC per non avere sorprese e parlo per esperienza diretta. di contro di msi ho avuto la 980ti che se ti ricordi volava (è ancora nella tua classifica) e l'utente a cui l'ho venduta ne è tuttora felicissimo :) . tanto quando escono ti chiedo ;)
Jeetkundo
08-08-2020, 10:08
9 settembre, sembra essere questa la data più votata per la presentazione.
3080 ti 1199 MSRP:D Aka 1500 euro:D
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-series-to-be-announced-on-september-9thMsrp della 2080ti quale era? Brutta storia comunque.
Inviato dal mio LYA-L09 utilizzando Tapatalk
mircocatta
08-08-2020, 10:08
Msrp della 2080ti quale era? Brutta storia comunque.
Inviato dal mio LYA-L09 utilizzando Tapatalk
a memoria 999
amon.akira
08-08-2020, 10:15
a memoria 999
1199 founder, non A 999
mikael84
08-08-2020, 11:59
Sinceramente parlando non ho mai visto la 2080ti com eun chip spompo, ho provato anche una Titan Rtx e andava meglio circa del 10% a parità di clock, più o meno i rapporti sono gli stessi di quelli visti tra 1080ti e titan X full (3840cc) pascal.
Chip incredibile quello su Titan, prendeva quasi 100mhz a parità di voltaggio rispetto alla mia, tirato a 2100-2150 comincia a stare a +20% dalla 2080ti stock.
Nel senso che la titan ha il max bin di base, ed utilizza il suo full chip.
TU102 affidandosi ai transistor non è la 2080ti, ma la Titan.
AMD per dire, con circa 20,6/21mtransistor su big navi (senza tensor), potrebbe realmente infastidire nvidia con ampere.
Ale55andr0
08-08-2020, 12:14
https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-cards-9th-september-announcement-rtx-3080-ti-rtx-3080/
https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-cards-9th-september-announcement-rtx-3080-ti-rtx-3080/
Hanno i braccini veramente corti con la ram...
devAngnew
08-08-2020, 12:35
Hanno i braccini veramente corti con la ram...
Se la 3070 ha 8GB vram :doh: speriamo in tecnologie simil HBCC.
Per la 3070 mi aspetto 10gb di vram visto che sarà una gpu in grado di gestire il 4k come una 2080ti oggi e in questo caso forse 8gb sono un pochino poochi secondo me.
Inviato dal mio ELE-L29 utilizzando Tapatalk
mikael84
08-08-2020, 12:42
La 3070 con un 256 bit, monta 8Gb. Per 10Gb serve un 320 bit. Quello della 3080.
Si, è un punto debole, visto che la concorrenza tirerà fuori tagli da 12 gb per la fascia alta e 16gb per l'ammiraglia.
Anche i 10gb della 3080 suonano male, siamo quasi nel 2021, e abbiamo capienze vram di schede del 2017 (1080ti):muro:
Resta da vedere le prestazioni, ma forse a sto giro ci sarà la vera concorrenza (latitante dal 2013 con le 290-290x) speriamo solo che non facciano cartello, ma Amd non ce la vedo a piazzare prodotti a 1300 euro LOL.
p.s 3070 IMHo sarà sotto 2080ti in raster, con 8gb di vram fa un pò ridere, questo è vero.
Si ma siamo anche in una fase di transizione, 10GB suonano male e 20GB sono troppi per una 3080 XD
Nvidia poi è molto limitata dai collegamenti obbligati con il bus, per avere 16GB sui chipponi devi tirare fuori un 512bit... che in doppia densità diventano 32GB.
Probabilmente con i 5nm e l'architettura MCM ci sarà più margine su questo aspetto.
Si, è un punto debole, visto che la concorrenza tirerà fuori tagli da 12 gb per la fascia alta e 16gb per l'ammiraglia.
Anche i 10gb della 3080 suonano male, siamo quasi nel 2021, e abbiamo capienze vram di schede del 2017 (1080ti):muro:
Resta da vedere le prestazioni, ma forse a sto giro ci sarà la vera concorrenza (latitante dal 2013 con le 290-290x) speriamo solo che non facciano cartello, ma Amd non ce la vedo a piazzare prodotti a 1300 euro LOL.
p.s 3070 IMHo starà sotto 2080ti in raster, 3080 e 3080ti più vicine come performance rispetto al passato e 3080 che stacca di netto 3070, detto questo la 3070 con 8gb di vram fa un pò ridere, questo è vero.Teoricamente la 3070 è sotto un 5% alla 2080ti quindi basta prendere una versione custom con frequenze leggermente più alte per andare uguale.
Inviato dal mio ELE-L29 utilizzando Tapatalk
La 3070 con un 256 bit, monta 8Gb. Per 10Gb serve un 320 bit. Quello della 3080.Allora forse per i 10gb di Vdram bisogna puntare alla 3070ti che forse condivide la stessa piattaforma della 3080
Inviato dal mio ELE-L29 utilizzando Tapatalk
Per la 3070 mi aspetto 10gb di vram visto che sarà una gpu in grado di gestire il 4k come una 2080ti oggi...k
Invece io non ce la vedo per il 4k. Se uno gioca in 4k deve prendere la 3080 liscia o Ti.
Nope, la 3070Ti a 3072cc sarà sempre su GA104, il chip full, per fare un semplice rapporto è la 2080 super (tu104 full) di oggi, mentre la 3070 è la 2080 liscia a 2944cc.
Quindi sempre 256bit e 8gb di vram.
Per questo dicevo, che a sto giro la 3080 staccherà la 3070, c'è troppa differenza di specifiche, finti i tempi gtx 670/680 su gk104 appaiate, ma anche 970 e 980 su gm204 erano abbastanza vicine, dove il rapporto perf/price assolutamente a favore delle x70.
p.s la 3070ti se piazzate bene con i prezzi, potrebbe essere una scheda interessante anche se limitata a 8gb di vram, scavalcherebbe la 2080ti in raster ed in Rt credo proprio la stacchi alla grande.
Devi sempre tenere conto anche delle latenze interne e dei clock.
Per dirti ai tempi di maxwell molte 970/980 arrivavano anche a 1600mhz, con le 980ti era un clock decisamente fuori scala, chip ottimi arrivavano sui 1500mhz ma la media dei chip era sotto, molte compresa quella di mikael :fagiano: già a 1400mhz imploravano pietà.
Anche perchè la 3080 si porta dietro un casino di roba a differenza della 3070ti/3070 chip molto più snelli ed efficienti non guardare solo le specifiche dei cuda core totali.
razor820
08-08-2020, 13:37
Prima che vedremo nuovi titoli che sfrutteranno appieno le potenzialità delle nuove consolle e di conseguenza che avranno più necessità di memoria video passeranno 1-2 anni.
Non credo che la nuova serie 3xxx andrà oltre i 15gb, almeno parlando della ti top di gamma, mentre per la liscia si potrebbe aspettare anche un taglio da 10-12gb.
Che poi ad ora, quanti giochi abbiamo visto raggiungere effettivamente e non virtualmente gli 8gb di una liscia?? 1 forse 2??
Per non parlare dei titoli più venduti o ricercati, come per fare esempio un ac odissey e company, che qualcuno qua ha definito FOTOREALISTICI, hanno un uso della memoria che oscilla dai 4 ai 6....
Nope, la 3070Ti a 3072cc sarà sempre su GA104, il chip full, per fare un semplice rapporto è la 2080 super (tu104 full) di oggi, mentre la 3070 è la 2080 liscia a 2944cc.
Quindi sempre 256bit e 8gb di vram.
Per questo dicevo, che a sto giro la 3080 staccherà la 3070, c'è troppa differenza di specifiche, finti i tempi gtx 670/680 su gk104 appaiate, ma anche 970 e 980 su gm204 erano abbastanza vicine, dove il rapporto perf/price assolutamente a favore delle x70.
p.s la 3070ti se piazzata bene con i prezzi, potrebbe essere una scheda interessante anche se limitata a 8gb di vram, scavalcherebbe la 2080ti in raster ed in Rt credo proprio la stacchi alla grande.
Poi magari fanno ulteriore spezzatino di Ga102 e ti lasciano i 10gb, ma la vedo dura.È un peccato che quei tempi siano finiti si potevano risparmiare parecchio soldi con prestazioni tra serie 70 e serie 80 paragonabili.
Ma la 3080 quanto teoricamente andrà di più di una 2080ti? Un 20%?
Inviato dal mio ELE-L29 utilizzando Tapatalk
Si infatti è sempre un discorso relativo, per lo più andrebbe guardata la media dei chip.
A questo giro dobbiamo attendere le review, la 3080 si basa sul chippone e bisogna capire come salgono questi chip e se ci sono strozzature sul PL e quant'altro, considerando anche i limiti degli 8nm...
Però oggettivamente a livello di specifiche la 3080 dovrebbe avere il 40% in più di unità, tenendo conto delle maggiori latenze e lo scaling non proprio linearissimo, direi che nel pratico clock to clock siamo sul 35% di prestazioni a favore della x80 nei bench.
Poi in gaming la differenza potrebbe essere meno marcata attestandosi sul 30% medio sempre ragionando clock to clock.
È un peccato che quei tempi siano finiti si potevano risparmiare parecchio soldi con prestazioni tra serie 70 e serie 80 paragonabili.
Ma la 3080 quanto teoricamente andrà di più di una 2080ti? Un 20%?
Inviato dal mio ELE-L29 utilizzando Tapatalk
Se la 3070ti va un -5% da 2080ti, almeno in teoria dovremmo essere sul 25-30% in più per la 3080.
Il problema è che a sto giro la concorrenza esce con 12/16gb di vram...
Se le performance delle rosse saranno a livello, con 10/12gb sulle top ci fai una figura del caxxo, anche se basteranno, discorso diverso se le ampere asfalteranno le rdna2, a quel punto i 12/16gb di vram se li possono attaccare dove non batte il sole.
il bus e quello 256bit 8gb; 320 bit 10gb; 384 bit 12gb non si sfugge, puoi solo raddoppiare con memorie a doppia densità.
Infatti AMD dalla sua ha il PP e la possibilità di presentarsi con chip da 16GB di vram, i numeri ci sono per essere competitiva su più livelli, penso che l'unica variabile, che è quella su cui Nvidia punta, sia il RT che se implementato come si deve nei prossimi titoli potrebbe fare la differenza.
Poi c'è anche da dire che nvidia si trova con circa 3-4 mesi di anticipo sul mercato, il che è un punto a suo favore per chi deve acquistare in questo periodo, AMD per ora non si sa se entro il periodo natalizio presenterà qualcosa.
Si infatti è sempre un discorso relativo, per lo più andrebbe guardata la media dei chip.
A questo giro dobbiamo attendere le review, la 3080 si basa sul chippone e bisogna capire come salgono questi chip e se ci sono strozzature sul PL e quant'altro, considerando anche i limiti degli 8nm...
Però oggettivamente a livello di specifiche la 3080 dovrebbe avere il 40% in più di unità, tenendo conto delle maggiori latenze e lo scaling non proprio linearissimo, direi che nel pratico clock to clock siamo sul 35% di prestazioni a favore della x80 nei bench.
Poi in gaming la differenza potrebbe essere meno marcata attestandosi sul 30% medio sempre ragionando clock to clock.
Se la 3070ti va un -5% da 2080ti, almeno in teoria dovremmo essere sul 25-30% in più per la 3080.Teoricamente già la 3070 va un 5% in meno della 2080ti quindi la 3070ti può essere che vada un 5%-10% di più
Inviato dal mio ELE-L29 utilizzando Tapatalk
Teoricamente già la 3070 va un 5% in meno della 2080ti quindi la 3070ti può essere che vada un 5%-10% di più
Inviato dal mio ELE-L29 utilizzando Tapatalk
Dobbiamo attendere i benchmark sono chip che alla fine in raster andranno a braccetto, quindi ci sarà sempre un scarto a favore dell'una o dell'altra, dipende anche dallo stesso motore di gioco, presumo che i motori aggiornati daranno il loro meglio su Ampere.
Diciamo che una 2080ti in OC considerando che è più muscle puo mostrarsi competitiva poi con il passare del tempo la 3070 potrebbe recuperare un ulteriore margine dati i driver.
mikael84
08-08-2020, 14:31
Invece io non ce la vedo per il 4k. Se uno gioca in 4k deve prendere la 3080 liscia o Ti.
In linea di massima la 3070/ga104 sarà ottima per pannelli 1440 o 21:9 1440p. Anche se in 4k può dire la sua, alla fine in raster sarà più o meno una 2080ti con più RT.
Con i potentissimi tensor, in dlss potrebbe essere la vera volta.:)
ciao Mike. oh beh sai che con turing ci avevo pensato? ma era introvabile. mai avuta la galaxy e sinceramente potrebbe essere la volta buona. la asus è valida ma devi prendere la OC per non avere sorprese e parlo per esperienza diretta. di contro di msi ho avuto la 980ti che se ti ricordi volava (è ancora nella tua classifica) e l'utente a cui l'ho venduta ne è tuttora felicissimo :) . tanto quando escono ti chiedo ;)
Il vero problema è quello, perchè con le HOF ormai sei veramente al top.
Da anni, oltre a chip esemplari, vincono tutto anche via azoto.
I record sono tutti via HOF, con rsannino (utente hwu) che ha toccato i 2730mhz, il secondo svedese, si è avvicinato, un titolato come madtse (lo storico rivale anch'esso si è avvicinato).
Sotto abbiamo una strix, che si è avvicinata ai 2500, mentre KP a 2400.
Con la strix sei al top, ma le HOF fanno veramente paura, chip selezionatissimi.:)
Teoricamente la 3070 è sotto un 5% alla 2080ti quindi basta prendere una versione custom con frequenze leggermente più alte per andare uguale.
Inviato dal mio ELE-L29 utilizzando Tapatalk
TU102 è molto muscle, ma non scala benissimo, è un chip più votato al calcolo, con troppe unità per GPC.
Con ampere bisogna cercare di migliorare quest'aspetto, con le cache maggiorate e la doppia bw l1.
GA104 parte da una base di 2080s, più IPC x clock, insomma in molti contesti può davvero fare bene.
Allora forse per i 10gb di Vdram bisogna puntare alla 3070ti che forse condivide la stessa piattaforma della 3080
Inviato dal mio ELE-L29 utilizzando Tapatalk
Purtroppo con condividono lo stesso chip.
Nvidia ha costruito un'ottima micro architettura, il chip TU104 è scritto per 6 canali, ovvero 384bit e 12gb, ma ha il problem che i collegamenti sono troppo pesanti, quindi deve scendere a compromessi.
Come per TU104, GA104 sarà collegato con 4 canali e 256 bit.
GA102, parte da 6 canali e 384bit, ma per rese, verranno disabilitati due partizioni cache, di conseguenza il bus scende a 320 bit, e di conseguenza 10gb.
Per dire, GA102, dovrebbe adottare 7 GPC, che corrispondono a 448bit x 14gb, ma, per non pesare troppo sul die, un GPC l'hanno lasciato scollegato.
MCM si parla del 2022, ormai il monolitico è alla deriva, amd con rdna3 va di chiplet, quindi credo che queste siano le ultime testone.
Un design a 512 bit nvidia non te lo da manco morto XD, ormai è tradizione rientrare nei 384 bit max per le top, non spenderebbe mai cosi tanto in collegamenti, un contro certo, non tanto per lo sgravo della bandwidth (che comunque con il DC compression migliorato ad ogni serie riesce ad avere alte perfomance) ma per i limiti massimi di chip fisici memoria installabili, quindi la 3080 più di 10 chip da 1gb cad. non avrà, inutile fasciarsi la testa.
Con MCM si dovrebbero oltrepassare i problemi di bus, che riguardano il monolitico.
4 stack da 128bit o HBM, con magari 4 stack di flashbolt, considerando che per massimizzare la parallelizzazione servirà molta BW.
Thunder-74
08-08-2020, 17:20
https://videocardz.com/newz/nvidia-might-also-launch-geforce-rtx-ampere-graphics-card-with-20gb-of-memory
Siamo vicini:D :D a quanto pare vogliono raddoppiare la vram, e ci credo bene, altrimenti sai che figura di merd@ presentarsi con schede da 10/12gb.
Bisogna stare attenti, aspettare e non buttarsi a comprare subito, se dopo un mese lanciano queste con quantitativo doppio di vram, ci sarà da mangiarsi le mani.
Esatto..buona cosa sarà aspettare anche che AMD faccia uscire le sue, magari non cambia nulla, ma possibile che JHH debba fare il gradasso e rispondere con qualche variante (modelli S o più Vram, o altro) per schiacciare qualche politica commerciale dei "Rossi", tipo ... "con 16gb noi di AMD ti assicuriamo un'esperienza gaming migliore in 4k" e poi JHH raddoppia la ram... giochini di questo tipo come dici tu...
mikael84
08-08-2020, 17:20
https://videocardz.com/newz/nvidia-might-also-launch-geforce-rtx-ampere-graphics-card-with-20gb-of-memory
Siamo vicini:D :D a quanto pare vogliono raddoppiare la vram, e ci credo bene, altrimenti sai che figura di merd@ presentarsi con schede da 10/12gb.
Bisogna stare attenti, aspettare e non buttarsi a comprare subito, se dopo un mese lanciano queste con quantitativo doppio di vram, ci sarà da mangiarsi le mani.
:sofico:
Quello che dico sempre, a sto giro è bene aspettare che tutte le schede siano uscite.
Altrimenti JHH è in grado di farlo benissimo.
Una 11gb sarebbe quasi anomalia non farla uscire ormai.
Esatto..buona cosa sarà aspettare anche che AMD faccia uscire le sue, magari non cambia nulla, ma possibile che JHH debba fare il gradasso e rispondere con qualche variante (modelli S o più Vram, o altro) per schiacciare qualche politica commerciale dei "Rossi", tipo ... "con 16gb noi di AMD ti assicuriamo un'esperienza gaming migliore in 4k" e poi JHH raddoppia la ram... giochini di questo tipo come dici tu...
Per AMD è facile salire di bus, per nvidia è un bel problema, immagina che l'ultimo GPC non è neppure chiuso, altrimenti dovrebbe avere 14gb e 112 rop's, e di conseguenza 12 la 3080.
La doppia densità è il rimedio a bus piccoli, però anch'esso gioca sui consumi e su livelli ram sproporzionati. :)
razor820
08-08-2020, 17:30
Dopo 4 anni e passa di taglio di 11-12gb non credo che una nuova top di gamma possa uscire con la stessa quantità.. sicuramente le versioni più economiche già sarà un bene se usciranno con 10-11gb.
Che io ricordo L ultima volta che ci fu quasi un raddoppio della memoria fu quando si passo dall 980ti a 6gb alla 1080ti 11gb
OrazioOC
08-08-2020, 17:47
https://informaticacero.com/exclusivo-la-rtx-3090-reemplazaria-a-la-rtx-2080ti-y-llegaria-con-24gb-de-vram-gddr6/
Addirittura citano la 3060 ti con 8gb per sostituire la 2060, se fosse così allora mi aspetto una gpu striminzita per davvero come 3060 :asd:.
mikael84
08-08-2020, 17:58
Dopo 4 anni e passa di taglio di 11-12gb non credo che una nuova top di gamma possa uscire con la stessa quantità.. sicuramente le versioni più economiche già sarà un bene se usciranno con 10-11gb.
Che io ricordo L ultima volta che ci fu quasi un raddoppio della memoria fu quando si passo dall 980ti a 6gb alla 1080ti 11gb
La scorsa gen ho odiato la politica ram, però alla fine, c'era poco da fare con Micron che non l'aveva.
Ha usato le uniche samsung sulle quadro.
Questa volta, tutti i brand hanno la doppia, ed anche a 16 gb/s.
Pensavo non ci fosse limite al peggio, dopo l'incul@t@ con la sabbia che ha dato ai possessori di 2070 e 2080 con le versioni super (la 2070 su tu106 è qualcosa di imbarazzante) ora è li pronto a svelare manco la metà delle sue carte.
Questa volta non basterà guardare se un chip è full o meno per capire se il bastardone avrà margine di manovra per eventuale rimpiazzo, ora se ne esce con la vram a doppia densità:cry: :cry:
Cala l'asso JHH:D :D :D
Ho molta paura, questo qui è capace veramente di tirare fuori una 11/22gb LOL chiamandola 3080 super LOL
JHH è così, sempre detto, basta vedere che fece con Kepler, andò in crisi. Per contrastare la 5500 di AMD, ha tirato fuori 10 varianti di TU116.
Appena va nel panico è pronto a tutto.
Per fortuna debuttano quasi vicine.:)
https://informaticacero.com/exclusivo-la-rtx-3090-reemplazaria-a-la-rtx-2080ti-y-llegaria-con-24gb-de-vram-gddr6/
Addirittura citano la 3060 ti con 8gb per sostituire la 2060, se fosse così allora mi aspetto una gpu striminzita per davvero come 3060 :asd:.
Una situazione bellissima, 3070 a 16gb e 3080 a 10gb.:D
Cmq la 3060ti con 8gb, sarà il cut di GA104 (sicuramente 2560cc).
La densità, se adottata farà aumentare inevitabilmente i prezzi.
Se AMD fa cartello con la 3080/s a 999$, GA104 doppia densità sale a 699$
Thunder-74
08-08-2020, 18:03
:sofico:
Quello che dico sempre, a sto giro è bene aspettare che tutte le schede siano uscite.
Altrimenti JHH è in grado di farlo benissimo.
Una 11gb sarebbe quasi anomalia non farla uscire ormai.
Per AMD è facile salire di bus, per nvidia è un bel problema, immagina che l'ultimo GPC non è neppure chiuso, altrimenti dovrebbe avere 14gb e 112 rop's, e di conseguenza 12 la 3080.
La doppia densità è il rimedio a bus piccoli, però anch'esso gioca sui consumi e su livelli ram sproporzionati. :)
Vedremo Mike. Però ricordo che si diceva che è stato aggiunto un nuovo sistema di compressione della memoria per evitare l’integrazione di più memoria ...
https://i.imgur.com/F0vGoOOl.png
mikael84
08-08-2020, 18:09
Vedremo Mike. Però ricordo che si diceva che è stato aggiunto un nuovo sistema di compressione della memoria per evitare l’integrazione di più memoria ...
https://i.imgur.com/F0vGoOOl.png
Sono sempre speculazioni. Sinceramente la doppia densità, non la vedo bene, penso più ad una soluzione alla igor, con una probabile, se necessaria 11gb. Se prendi una 3080 al d1, aspettati di tutto.
Per il resto, anche il doppio tensor, non dovrebbe esserci, in quanto utilizzeranno la tecnologia di ampere, che cmq è pesante come 2 tensor, ma a numeri è sempre 1.
Per raddoppiarli dovrebbero utilizzare quelli di volta.
AIAIAI e non sarebbe uno scenario utopistico, uno shift di prezzi verso l'alto, 3070 is the new x80 come fascia prezzo :sofico: :sofico: :sofico:
Io spero proprio che non tirino fuori 3080 a 10 gb e 3080ti a 12gb, fanno proprio ridere come già detto:D
LOL la 3060 con 16gb di vram e la 3080 a 10gb, ahahahaah IMHO vanno in crisi mistica, è tutto questo perchè big Navi senza sforzo ha bus da 384/512bit:DLa 3070 secondo me costerà come la 2070s oggi sui 500/550€
Ma forse se amd tira fuori delle ottime gpu con prezzo aggressivo forse costerà anche qualcosina in meno.
Inviato dal mio ELE-L29 utilizzando Tapatalk
Uno scenario piuttosto complesso si vedrà se la 3070 16GB avrà lo stesso costo di una 3080 10GB :sofico:
mikael84
08-08-2020, 20:14
AIAIAI e non sarebbe uno scenario utopistico, uno shift di prezzi verso l'alto, 3070 is the new x80 come fascia prezzo :sofico: :sofico: :sofico:
Io spero proprio che non tirino fuori 3080 a 10 gb e 3080ti a 12gb, fanno proprio ridere come già detto:D
Io sinceramente la doppia densità non la vedo, teoricamente anche il TDP da 350 è previsto per la Titan o chip full da 24gb.
Se non la metti alle 3080, non la metti neppure sotto (magari sotto giocano con i clock ram).
20GB per una 3080 sarebbero eccessivi, inoltre nvidia perderebbe la fascia da 2400 euro.
Più probabile una sorta di HBCC.
Non dimentichiamo che nascono come quadro, più probabile vedere una RTX 5000 ampere con 20GB.
Se la mettono ad una GPU la mettono a tutte, vabbè che nvidia spesso si fa concorrenza da sola, però così...:p
LOL la 3060 con 16gb di vram e la 3080 a 10gb, ahahahaah IMHO vanno in crisi mistica, è tutto questo perchè big Navi senza sforzo ha bus da 384/512bit:D
Questo è un grossissimo vantaggio, puoi utilizzare sempre la single, trasportare tanta ram (certo qua entra in ballo la compressione), oppure crearli asincroni senza molte spese sul die.
Nvidia invece spende alcune volte più in collegamenti che in calcolo, tanto che non ha chiuso neppure il settimo GPC.
Ovviamente, anche essere indietro un nodo incide, sopratutto quando devi spendere varia area per tensor etc.
Boh, quasi quasi io aspetto AMD :D anche se mi fa strano avere una rossa dentro il case, manco se lo vedo ci credo LOL.
Non mi piace per nulla sta tirchieria sulla vram:OSe hanno progettato un algoritmo di comprensione sulla vdram e funzionerà bene non ci vedo grossi problemi ovvio che ti rimane un pochino l'amaro in bocca perché forse si poteva fare di più.
Detto questo io giocando ancora in full HD 144hz il discorso Vdram mi tocca ben poco.
Inviato dal mio ELE-L29 utilizzando Tapatalk
mikael84
08-08-2020, 23:36
Boh, quasi quasi io aspetto AMD :D anche se mi fa strano avere una rossa dentro il case, manco se lo vedo ci credo LOL.
Non mi piace per nulla sta tirchieria sulla vram:O
AMD è giusta, ma se prendi una TI da 22/24gb di ram a che ti serve?:)
Dal rapporto 2080ti vs lisce, si è notato, che le TI consumano 20watt in media in più, per memoria non sempre utilizzata.
A sto punto meglio sfruttare le risorse, considerando che la ram nvidia non la regala.
Se pensi che la RTX 8000 costa quasi 4000$ in più della RTX 6000 (6k vs 10k) per 24 gb di ram. :p
Considera che nvidia punta principalmente ai pro, non a caso le gaming sono scarti delle quadro. Se a questi gli metti 24/20gb, che in nvlink diventano 48/40gb è proprio la fine.
I pro ne comprano a iosa e JHH, altro che 699.
è tempo di dare e non di spillare solo soldi, io una 3080ti 12 gb a 1300 euro a questo giro non penso di comprarla, ma neanche una 3080 con 10gb, ma questa è una mia riflessione personale:O
Neanche io sinceramente ma qualcosa mi dice che sarà quello il target del prezzo.
E non è una questione di non potersela permettere ma di principio.
Proprenderei verso una 3080 con 20-25% di margine in più dalla 2080TI intorno alle 850-900 euro max.
AceGranger
09-08-2020, 09:55
Boh, personalmente continua a non convincermi, spendere 1000 euro per 10 gb o 1300/1400 per avere 12gb, è da pazzi.
Poi le quadro hanno memorie ECC con driver specifici, quindi non si fanno concorrenza con le Geforce.
è tempo di dare e non di spillare solo soldi, io una 3080ti 12 gb a 1300 euro a questo giro non penso di comprarla, ma neanche una 3080 con 10gb, ma questa è una mia riflessione personale:O
si bè, le ECC le cercano in ben pochi e i driver GeForce ora sono certificati in molti software pro ad esclusione degli OpenGL ( che numericamente sono pochi e meno diffusi ); in sostanza, a tutti quelli che usano la GPU per Grafica 3D, Grafica 2D , Animazione e GPGPU conviene prendere le Geforce, motivo per il quale ti ritrovi la 2080TI a 1200 euro e la Titan RTX a 2400 ed è l ostesso motivo per il quale c'è stata l'esplosione dei portatili Creator o Studio che dir si voglia, con le GeForce.
https://www.nvidia.com/it-it/studio/software/
Poi sinceramente, per chi non lavora, tutta questa pippa mentale sulla Vram non l'ho mai capita... la 1080TI ha 11GB la 2080S 8 GB e non mi pare proprio che la 2080S vada meno o abbia problemi anzi, al salire della risolizione il divario fra 1080Ti e 2080S sale...
https://www.techpowerup.com/review/palit-geforce-rtx-2080-super-gaming-pro-oc/27.html.
se vuoi ti do la mia VEGA FE da 16GB, cosi nel caso deciderai di passare ad AMD avrai un assaggio del tuo futuro, tanta Vram e driver demmerda :asd:
Se mi dai un prodotto valido che performi di brutto, io ne investo pure 2.000 per una gpu, ma se mi dai dei prodotti che rasentano la sufficienza con specifiche appena mediocri, allora passo.
Questo discorso per me è validissimo in generale,molto meno sulla Gpu top di gamma Nvidia che fino a due anni la portavi a casa intorno alle 750 euro (1080Ti)
slide1965
09-08-2020, 10:46
Perchè ancora 8gb sono sufficienti in game, ecco il perchè, se ti ritrovi a corto di memoria, il risultato non è perdere 1-2% di frame, ma stuttering e crolli del frame in maniera netta, con 600ms di latenze LOL.
La mia riflessione sta più nel fatto che pagare 1.300 euro di scheda per 12 gb di vram, non mi sta bene, sono schede che devono tirare sino al 2022, e almeno per me la vram è poca, che basti o non basti non è una giustificazione secondo me, sta di fatto che mi fa proprio storcere il naso, sono dal 2017 che ho quel quantitativo di vram (1080ti) che ho sopportato pure sulla 2080ti (e va bene) ma metti il caso che io acquisti una 3080 da 10gb, sarebbe una beffa:p e anche se acquistassi la 3080ti non cambierebbe, con 12gb non ci fa proprio una bella figura.
Tutto dipende dai prezzi poi, ma io una top con 12gb a 1000 euro non ce la vedo proprio, io temo che i prezzi siano addirittura più alti di quelli visti con Turing o al limite allineati, per una scheda che farà +40% in raster rispetto a 2080ti? A me sembra troppo poco, a ssto giro non hanno rivoluzionato nulla, DLss3.0 ok! e poi? più potenza rt core? Ok, fisiologico progresso, nulla da far gridare al miracolo.
Il fatto è che secondo me in raster non farà nemmeno un +40%,
sono più propenso a immaginare un bel +30% e chi se visto se visto :stordita:
slide1965
09-08-2020, 11:14
Non dirmi così, almeno il +40% lo esigo.
Sto già piangendo oggi è una giornata triste, stasera devo smontare la 2080ti domani mattina passa il corriere :cry: :cry: :cry: :cry: un pezzo di vita se ne va, sono diventato schiavo dello spietato e sadico marketing di JHH :muro: :muro:
E auguriamoci che la favola dei connettori ed eventuale cambio ali sia un fake:D
Jeetkundo
09-08-2020, 11:18
La vga da 20gb di Vram costerà uno sproposito, nel mio caso siamo davvero fuori budget... Con i soldi della precedente vendita punto alla 3080 o alla Ti. 12gb di Vram dovrebbero bastare dai. Potrei aspettare amd ma si fa lunga la storia...
Inviato dal mio LYA-L09 utilizzando Tapatalk
Il fatto è che secondo me in raster non farà nemmeno un +40%,
sono più propenso a immaginare un bel +30% e chi se visto se visto :stordita:
Se la 3080ti andasse solo il 30% in più di una 2080ti tanto valeva prendere turing e farlo a 8nm...
mikael84
09-08-2020, 12:16
Boh, personalmente continua a non convincermi, spendere 1000 euro per 10 gb o 1300/1400 per avere 12gb, è da pazzi.
Poi le quadro hanno memorie ECC con driver specifici, quindi non si fanno concorrenza con le Geforce.
è tempo di dare e non di spillare solo soldi, io una 3080ti 12 gb a 1300 euro a questo giro non penso di comprarla, ma neanche una 3080 con 10gb, ma questa è una mia riflessione personale:O
Non è questione di quadro, nvidia sopratutto con la fascia high, pensa molto ai pro (da cui derivano i chip gaming). Se tu ci metti 20/24gb, quelle schede te le fa pagare non poco.
Se vedi sotto ACE, che non gioca, ma le usa in ambiti pro, ne ha 2 in nvlink.
Con nvlink, schede da 20/24gb, diventano 40/48gb.
Tu pensi che un pro, si farebbe scrupoli a spendere 1500 euro per una 3080 da 20gb?
Per un gamer perso, trova un pro che ne compra 2.
La Titan RTX costa 2400 euro per i 24gb non perchè è full.
JHH sa il suo, e può pure mettere la doppia densità, ma se la farà pagare.
Più che altro il DC compression sgrava un pò di bandwidth, dove a risoluzioni alte da una mano, l'utilizzo della BW lo puoi monitorare con un semplice programma tipo gpu-z, la voce è Memory controller load.
Un 256 bit di gm204 era quasi paragonabile ai 384 bit Kepler, fu uno dei principali cavalli di Maxwell, infatti il gm200 con 384 bit era perfetto ne avevi sempre in quantità/esubero, amd ai tempi utilizzava ancora i 512bit con le 290/290x (4gb e qualche modello 8gb tipo le vapor x) e 390/390x (8gb), che pur senza una compressione come quella di maxwell, era decisamente superiore in bandwidth rispetto al gm204, non a caso hawaii a risoluzioni superiori scalava decisamente meglio, amd faceva bene, poi ha messo le inutili hbm e ciao, ora ritorna con un design tradizionale 512bit e delle veloci gddr6x, penso che a sto giro faccia bene.
Kepler è AMD a livello di memoria effettiva (non teorica) erano avanti per via dei bus più grossi, ma in compressione maxwell le batteva.
Per superare maxwell, la 780ti doveva avere un 512bit.
https://techreport.com/r.x/geforce-gtx-980ti/b3d-bandwidth.gif
Poi sinceramente, per chi non lavora, tutta questa pippa mentale sulla Vram non l'ho mai capita... la 1080TI ha 11GB la 2080S 8 GB e non mi pare proprio che la 2080S vada meno o abbia problemi anzi, al salire della risolizione il divario fra 1080Ti e 2080S sale...
https://www.techpowerup.com/review/palit-geforce-rtx-2080-super-gaming-pro-oc/27.html.
Esatto, grazie alla sistemazioni dei warp, turing ha raddoppiato la potenza delle rop's in blending.:)
se vuoi ti do la mia VEGA FE da 16GB, cosi nel caso deciderai di passare ad AMD avrai un assaggio del tuo futuro, tanta Vram e driver demmerda :asd:
Ti ha traumatizzato del tutto.:asd:
E dovevi vedere le 7970 inizialmente, sopratutto in cross.
Io dei driver posso scrivere libri sino alle 290, dopo non mi esprimo, ma quello che leggo in giro...
Il fatto è che secondo me in raster non farà nemmeno un +40%,
sono più propenso a immaginare un bel +30% e chi se visto se visto :stordita:
L'ottimismo è il profumo della vita cit.:D
+ 20% potrebbe farlo già ora turing volendo, con Ampere vai di più.
Se fai +30, significa che la 3080 va un 10% circa la 2080ti, che fondamentalmente sono lo stesso chip.
Ora tralascio tutta la parte di IPC, ma ti faccio vedere un grafico.
clicca
https://i.postimg.cc/K3vd4Nmf/3080.png (https://postimg.cc/K3vd4Nmf)
Questo è un 10% preso dando + 150 alla 2080ti.
La 2080ti del test gira a 1740 medi, quindi in OC sale a 1890 medi, + ram, che cmq con la 3080 sono già superiori.
Solo un 8% di clock è impensabile con gli 8nm.
A questo andrà aggiunto l'IPC.:)
Se la 3080ti andasse solo il 30% in più di una 2080ti tanto valeva prendere turing e farlo a 8nm...
Infatti, TU102 full a rese buone, con TDP un pò più alti, può già dare un 20% se tirato ad almeno 2ghz e 16 gb/s.
Un pò come ha fatto AMD con la 5700xt.
Figuriamoci ad 8nm.
mikael84
09-08-2020, 14:53
Comunque, sino a 6 mesi fa queste amperè dovevano andare chissà quanto (2x - 1.7x), ora si è tutto ridimensionato:D :D :D
Pascal ha fatto quei salti grazie al PP, dobbiamo dimenticarci incrementi generazionali così importanti (60-70% per fascia) almeno in raster.
Saranno sulla falsariga di turing, con la x80 più vicina alla x80ti, ma più lontana dalla x70.
Mi aspetto la 3080ti a +40% anche se spero in un +50%.
Mantenendo quelle proporzioni, da 3080 a 2080 ci dovrebbe passare parecchio, tipo il 50%, ma tanto c'è la 2080 super a rompere le uova nel paniere, 3080 alla fine va a sostituire 2080s e quindi stiamo sempre sul 40%.
Pascal e Maxwell è una perfetta fase tick (ambito intel) con il solo cambio di nodo, ed ovviamente il classico TPC x GPC.
Chip solo raster, in cui c'è stato un salto nodo importante.
Per dire, se prendiamo i chip in condizione da review stock, la 1080ti, ha l'84% sulla virgola mobile.
Significherebbe per una 3080ti avere un ratio stabile in downclock di 2580mhz.
Oppure a salto nodo come AMD, un 6144cc con soli 2250mhz.:p
Con l'IPC bastava anche molto meno, senza considerare che la FE del caso è anche più clockata.
E allora lancerà la solita Titan con 24gb a cifre esorbitanti, tipo l'attuale, la x80 da 8gb passa a 10gb e ci può stare, la x70 rimane ancorata a 8gb e qui già non mi sembra un grande capolavoro.
Ovviamente certo! la titan posizionata a quel prezzo è una strategia di marketing, nel senso che è un prodotto destinato ai pro data la sua enorme quantità di memoria, allo stesso tempo è per tutti quelli che non hanno bisogno del supporto delle quadro (memorie ECC ecc..) una via di mezzo insomma, poichè dal punto di vista di costi hardware dotarla di 11 o 24gb cambia ben poco per loro e di certo non ci ballano 1300 euro a listino solo per la vram montata.
Per carità tutto può essere, ed in parte darebbe un senso ai TDP assurdi, ma già le specs parlano di 350w per il chip a 24gb e 320 per la single.
Con NVcache utilizzi meglio la memoria.
Il vero problema di nvidia è il nodo e il sistema dei bus.
Mettere 20gb su un chip da 699$ (perchè è quella attualmente la fascia della x80) con nvlink maggiorato, mi pare ottimistico, considerando anche la fascia di competenza pro.
Mi viene difficile che ai pro, dia la possibilità di farsi un nvlink da 40gb a 1400/1500 euro, quando ieri per 22gb dovevi spendere 2600 euro.:p
Se pensi, come detto ieri, che la RTX8000 costa 10000$ e la RTX 6000 6200$ (mi pare) per 24gb di ram ( 300$ di ram), che con nvlink diventano 96 vs 48.
Inoltre, considerando i chip MCM, se ora ti danno 20/24gb, dovrebbero partire da 8/16/24/36, auguri se per max parallelizzazioni usano HBM.:p
la x70 rimane ancorata a 8gb e qui già non mi sembra un grande capolavoro.
E io cmq preferisco una 3070 con 8GB a 500€ piuttosto che una con 16GB a 700.
Diverso il discorso delle xx80 che devono gestire bene il 4k.
E io cmq preferisco una 3070 con 8GB a 500 piuttosto che una con 16GB a 700.
Diverso il discorso delle xx80 che devono gestire bene il 4k.Su questo concordo ma anche una 3070 secondo me garantirà un 4k abbastanza godibile.
Ovviamente è una gpu più indicata per un 1440p 144hz
Inviato dal mio ELE-L29 utilizzando Tapatalk
Ma il Dlss 3.0 verrà implementato sulla nuova serie?
Vorrei capire quali sono le differenze grafiche rispetto al 4K nativo...
_sissio_
09-08-2020, 18:51
3080 e 3080ti saranno cpu limited in 1440p, già la 2080ti in qhd (anche avendo cpu/ram tirate) non scala al massimo delle sue potenzialità, ci vuole il 4k per farla scalare bene, figuriamoci schede ancora più veloci, tolti i 2-3 mattonazzi con Rtx ON, per il 1440p se dovessi consigliare anch'io mi fermerei ad una 3070, tanto starà poco sotto 2080ti.
Invece l'attuale 2080 super scala benissimo in 1440p, a patto di avere una piattaforma prestante e tirata in oc.:DIo ho appena preso una 2080s per il fhd a prezzo eccezionale ma i vostri post mi hanno messo il dubbio ...faccio in tempo a fare il reso
Inviato dal mio SM-A520F utilizzando Tapatalk
Io ho appena preso una 2080s per il fhd a prezzo eccezionale ma i vostri post mi hanno messo il dubbio ...faccio in tempo a fare il reso
Inviato dal mio SM-A520F utilizzando TapatalkPenso che lui si riferisse alla CPU, ed effettivamente in FHD ci sono forti strozzature ma già a 2560x1440 o 3440x1440 grossi problemi non ci sono con CPU moderne.
Poi se uno ha un vecchio Sandy o Ivy penso sia normalissimo che sia sottodimensionato.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Ale55andr0
09-08-2020, 22:33
E io cmq preferisco una 3070 con 8GB a 500€ piuttosto che una con 16GB a 700.
Diverso il discorso delle xx80 che devono gestire bene il 4k.
meglio una 3070 da 10gb a 550 allora
TigerTank
09-08-2020, 23:00
meglio una 3070 da 10gb a 550 allora
Il quantitativo di ram dipende dal bus :)
Si, intendevo lato cpu ovviamente.
Con una scheda che sta a +40/50% dalla 2080ti, la 3080ti in 1440p dovrebbe avere un comportamento (a spanne) simile alla 2080ti in FHD, come ben sappiamo con una scheda del genere è facile trovarsi limited in FHD.
Più o meno a livello di computo (escludendo cpu limit ecc..) ci passa un 50% di frame scalando da 1440p a 1080p, ovviamente scenario gpu bound per entrambe le risolzioni.;)Si però con una 2080ti arrivi ad un 1440p 144hz in tutti i giochi cosa che non credo sia fattibile con una 2080s almeno sui titoli più pesanti.
Se la 3070 andrà praticamente come una 2080ti il 4k sarà cmq godibile come è godibile oggi con una 2080ti
Inviato dal mio ELE-L29 utilizzando Tapatalk
AceGranger
09-08-2020, 23:41
Perchè ancora 8gb sono sufficienti in game, ecco il perchè, se ti ritrovi a corto di memoria, il risultato non è perdere 1-2% di frame, ma stuttering e crolli del frame in maniera netta, con 600ms di latenze LOL.
ah perchè vuoi venirmi a dire che ti ritroverai a corto con 10 GB di vram ? dai su... se arriverai a stare stretto con quel quantitativo di Vram è perchè la GPU ti stara rilasciando fps da epilettici, scenderai di qualita e il problema della Vram sara l'ultima cosa da guardare.
se il game engine e il caricamento/scaricamento degli asset fa il suo lavoro, non stutteri.
Ti ha traumatizzato del tutto.:asd:
E dovevi vedere le 7970 inizialmente, sopratutto in cross.
Io dei driver posso scrivere libri sino alle 290, dopo non mi esprimo, ma quello che leggo in giro...
non mi ha traumatizzato, mi ha fatto girare le palle, che è peggio; spendere 1200 euro per trovarsi bug e schermate nere che non vengono corrette nemmeno dopo 1 anno su una GPU da lavoro è senza senso.
troppi paragoni ottimistici.
Lasciate perdere gli anni del big max 2.0 non torneranno.
Quando ti ricapita un pp che dura un eterità? Di conseguenza il divario gp102 gm200 è stato un unicum.
Qualcuno confonde anche avere molti frame con -a prescindere dal numero- avere frame sincronizzati.
Prima di acquistare milleepassaeuro di scheda imparate a sincronizzare 10fps. Significa studiarsi il proprio pannello.
AceGranger
10-08-2020, 09:12
Vabbè ora però sembra che vuoi fare il crociato pro Nvidia, pronto a giustificare ogni mossa di Nvidia come se fosse la dea scesa in terra, pensavo di essere in cima alla vetta dei fanboy verdi, mi sbagliavo, a quanto pare c'è gente che mi spodesta :D :D ovviamente sto scherzando, ma sembra che tu stia mettendo le mani avanti e sia sempre li pronta a fare da avvocato, capisco il trauma con AMD:D :D ma anche nvidia fa le sue porcate:muro:
giustificare cosa ? io ti ho semplicemente fatto notare che il quantitativo di vram, oltre certi livelli, è una pippa mentale, indipendentemente dal fatto che nVidia ne mettera 10 GB o 20 Gb, visto che non si sa quanti ne mettera, perchè un giorno una news dice una cosa e il giorno dopo ne dicono un'altra.
non è che se ne mettera 20GB allora il discorso cambiera :asd:, per giocare saranno comunque inutili.
la Vram è sempre stata l'esca come ai tempi dell'ATI 9600 pro con 256 MB.
ntitativo di vram quando arrivi al limite non ti faccia crollare i frame è una fesseria:
Minuto 1.49 su GtaV, per non parlare di WD a 3.40 circa.
https://www.youtube.com/watch?v=VW0jUqZYcLI
Come vedi crolla, questo è il tipico comportamento di quando sei al limite del buffer, cerca di scaricare e comprimere, ma in quel lasso di tempo perdi prestazioni.
cioè, seriamente basi i tuoi discorsi su un video da 2GB vs 4GB :asd:
c'è giusto una piccola differenza fra GB minimi che ti fanno veramente calare i frame e i GB di cache ( che molti giochi nemmeno vanno ad usare anche se li hai disponibili ).... e voglio proprio vederlo il gioco che nei prossimi 5 anni ti fara perdere frame perchè avrai "solo" 10GB.
Features che si aggiunge alla Nvcache, quindi, fin quando non esce l'architettura e si vedano i primi test è tutto grasso che cola, io ho solo criticato il fatto che dal punto di vista del marketing e numericamente parlando quel quantitativo fa storcere il naso, poi se nvidia ha adottato tecniche per lo sgravo della vram ben venga, io sono come San Tommaso, finchè non vedo non credo.
ed esattamente quello che ti sto dicendo io, è solo una pippa mentale perchè nella realta gaming quantitativi elevati non servono a nulla.
di quello che dice JHH sinceramente me ne batto è...
E se non lo fa? Non mi sembra che hai programmatori importi molto se la gpu e la cpu vengono sfruttati male.
mi sono espresso male in quella frase, ho chiarito meglio nel post qui sopra;
non stutteri se fai il carico e scarico degli asset nella Vram cache, rischi lo stutter se lo fai di quegli asset che fanno parte della Vram "minima" usati in quel momento; io non mi occupo di debug del codice dei giochi, ma se stutteri il problema è da ricercare da altre parti e non nella cache Vram.
AceGranger
10-08-2020, 09:48
No... non hai capito, era solo per fare l'esempio di quando sei al limite con la vram, ovviamente schede da 2gb sono obsolete e non hai margini di manovra in tal senso, comunque tra mod e risoluzioni alte gli 8gb di vram ad oggi li saturi (su certi giochi).
Per il resto ti quoto, è marketing, mi aspetto una slide, 12gb vram ampere = 16gb vram turing:O :O
ribadisco, confondi i GB di cache con GB "minimi", quello che ti fa stutterare non è il carico e scarico dei GB di cache, perchè seno stuttereresti sempre, anche con 30GB di Vram, visto che il gioco non viene caricato nella sua interezza in Vram ( anche se ne avesse la possibilita, perchè se i giochi avessero un caricamento veramente dinamico andrebbero a riempire sempre la VRam fino a quasi al limite, cosa che non avviene) e per avere problemi con 10, ma anche 8, ne passera di acqua sotto i ponti...
il quantitativo di Vram è sempre bilanciato ai TFLops del chip, puoi anche avere quantitativi elevati ma tanto incorreresti prima in problemi di TFlops che in problemi di Vram; ( questo nei giochi in campo pro è un discorso differente )
Poi per carita, averne di piu è sempre meglio che averne di meno, ma visto che poi la paghi a peso d'oro...
io sarei felice piu di voi ad avere 3080 con 20GB e 3080TI a 22Gb ma ci credo poco, o melgio, voi poi sareste molto incazzati perchè le paghereste una fucilata, che io sarei disposto a spendere, ma per lavoro...
AMD ha sempre dato piu Vram perchè l'ha sempre usata come esca, avendo sempre avuto chip inferiori a pari fascia, e non è mai stato un problema di Vram il "decadimento" di alcune serie di GPU nVidia.
Diciamo che Kepler é proprio un esempio pessimo.
Tra 780ti e Titan ad oggi non cambia una mazza per come é fatta l'architettura, i 6gb della titan non aiutano più di tanto soprattutto su titoli moderni anzi in molte condizioni la Titan é persino sotto una 1050ti o 1060 3gb.
Fecero a fine serie anche le 780 da 6gb ma furono del tutto inutili e finite nel dimenticatoio.
Poi dipende da innumerevoli fattori, personalmente anche sulle APU la prima cosa che sparo al massimo sono le texture visto che sono quelle che gravano meno sul frame rispetto agli altri dettagli ma allo stesso tempo su molti titoli sono anche quelle che fanno la differenza.
Comunque per quanto concerne nvidia e per come ha strutturato i chip non ci sono mezze misure sulla vram, quindi o incrementa il bus o va di doppia densità, ovviamente la seconda é più economica come scelta.
Poi se i 16gb di AMD faranno marketing potrebbero fare anche varianti custom che potrebbero essere ufficiali di nvidia o versioni personalizzate dei produttori.
Ma sull'effettiva utilità di tutta questa vram in game c'è da attendere le review sui titoli di nuova generazione quindi se ne parla tra almeno un annetto...
Anche cyberpunk non credo sia molto esoso come vram test anzi... Forse l'unico gioco oggi vram killer é Skyrim con texture in 8k, ricordo che al tempo infilai più 72-73gb di texture 😂
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
gpu con tutta la vram a bordo satura in grado di dare il massimo delle prestazioni in gioco non ne esistono .
La mia da il meglio di se tra 4 e 5gb. A 6 diventa lentissima perde frame in 4k
Nvidia non è scema 16 gb su una 3070 sarebbero ingestibili fino a saturazione
Su questo concordo ma anche una 3070 secondo me garantirà un 4k abbastanza godibile.
Ovviamente è una gpu più indicata per un 1440p 144hz
3080 e 3080ti saranno cpu limited in 1440p
Invece l'attuale 2080 super scala benissimo in 1440p, a patto di avere una piattaforma prestante e tirata in oc.:D
Eh il fatto è che io giocherò a 3840x1600, una risoluzione che sta nel mezzo tra wqhd e 4k, più vicino a quest'ultimo.
Dovrò fare una media dei bench a 1440p e a 4k, già il widescreen aumenta un po' la potenza di calcolo richiesta.
Andy1111
10-08-2020, 12:14
https://youtu.be/iMz02nH5fJE?t=160
https://youtu.be/ucaYv8N4q9k?t=1690
https://youtu.be/RV32lrHuM-4?t=115
secondo me in 4k 12gb vram è minimo sindacale per ora e in futuro forse non basteranno più con i giochi delle nuove console
mikael84
10-08-2020, 12:24
No... non hai capito, era solo per fare l'esempio di quando sei al limite con la vram, ovviamente schede da 2gb sono obsolete e non hai margini di manovra in tal senso, comunque tra mod e risoluzioni alte gli 8gb di vram ad oggi li saturi (su certi giochi).
Per il resto ti quoto, è marketing, mi aspetto una slide, 12gb vram ampere = 16gb vram turing:O :O
AMD ha il vantaggio sui collegamenti dei bus, nvidia è in alto mare, solo lo standard MCM la può salvare. Poi l' aver adottato un PP no sense...
Nel HPC a 7nm in HBM ci ha messo fisicamente un 6144bit (768bit in ddr).
Cmq JHH può anche mettere la doppia e single, non c'è certezza, anzi una c'è ed è dolorosa.:p
https://youtu.be/iMz02nH5fJE?t=160
https://youtu.be/ucaYv8N4q9k?t=1690
https://youtu.be/RV32lrHuM-4?t=115
secondo me in 4k 12gb vram è minimo sindacale per ora e in futuro forse non basteranno più con i giochi delle nuove console
In 4K si, con i prossimi titoli considerato anche l'HW delle console se si punta a texture in 4K/8K, c'è la possibilità di saturazione, per ora tutti i titoli attuali al massimo allocano gran parte della vram senza portarla concretamente al limite, però già con i soliti 1440p (16:9/21:9) è difficile...
Poi bisogna vedere come lavora la nuova cache che dovrebbe migliorare di netto le performance a pari vram disponibile.
gpu con tutta la vram a bordo satura in grado di dare il massimo delle prestazioni in gioco non ne esistono .
La mia da il meglio di se tra 4 e 5gb. A 6 diventa lentissima perde frame in 4k
Nvidia non è scema 16 gb su una 3070 sarebbero ingestibili fino a saturazione
In 4K su una 980ti il problema non sono solo i 6GB di vram...Ma proprio il chip ad essere sottodimensionato.
AceGranger
10-08-2020, 13:19
https://youtu.be/iMz02nH5fJE?t=160
https://youtu.be/ucaYv8N4q9k?t=1690
https://youtu.be/RV32lrHuM-4?t=115
secondo me in 4k 12gb vram è minimo sindacale per ora e in futuro forse non basteranno più con i giochi delle nuove console
e qui va uguale in 4K con 8GB della 2080 Super
https://www.youtube.com/watch?v=kgv83HxTJ5o
dagli 8 agli 11 è solo cache; se ci fosse una 2080Ti 8Gb andrebbe uguale.
prima di incontare problemi di Vram incontrerai sempre problemi di TFlops ;); dovreste preoccuparvi di piu della potenza dei chip che del quantitativo di Vram.
stefano192
10-08-2020, 14:04
https://twitter.com/NVIDIAGeForce/status/1292808003897311232
:O :O :O :O :O
domenico88
10-08-2020, 14:51
Cazzarola non c'era tutto questo hype dalla serie 10. Queste ampere promettono davvero bene. Mi sa che il prossimo pc è in cantiere ragazzuoli :cool: :D
Ton90maz
10-08-2020, 14:53
cut
Screen archiviato, vedremo nei prossimi 5 anni cosa succederà.
Io dico solo che in full hd o in qhd i principali giochi di 7 anni fa era già tanto se si avvicinavano a 2 GB (con supercazzole sul caching incluse). Ricordo benissimo i vari "guardate che un GB basta e avanza per giocare, non avrete mai problemi".
Oggi si eccedono gli 8-10 GB. Anche se con supercazzore incluse, siamo già uno step più avanti sulla saturazione, rispetto a 7 anni fa.
Con le nuove console lo standard passerà da 5 a 13.5 GB riservati ai giochi, e con degli stratagemmi sull'io che non credo siano replicabili sui dispositivi attuali. Io non sarei così tranquillo sulla vram.
Sempre in hype per le nuove generazioni, anche se non cambierò :D
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mikael84
10-08-2020, 15:00
Ahahahah esatto Mike! vuole fare esperimenti con il nostro deretano :D :D
Ma cosa ne pensi del tensor memory compression? In caso sia cosi, tutto il discorso sul quantitativo della vram crollerebbe, mi farebbe piacere vedere un implementazione del genere, significherebbe che ci hanno lavorato di fino, a quel punto niente più piagnistei sulla vram Xd
Ma infatti, io sono per utilizzare meglio le risorse, che pompare di ram in ambiti condivisi dai pro.
Tensor memory compression è una buna idea, comprimere e decomprimere i dati nel frame buffer senza perdita visiva.
Ci sono vari metodi di compressione, alcuni meno. ed altri più efficaci che possono ridurre il peso delle texture oltre il 15%. Dipende da come verrà implementato. In parte può fare anche quello che faceva la fury, utilizzando ciò che realmente serve. ed eliminando o comprimendo l'esubero di allocazione.
Credo che a quella risoluzione, una 3080 liscia (se le specifiche saranno confermate) andrebbe a nozze, hai pure un ottima cpu che sale a 5.2 (come la mia) e ottime ram, in pratica è come se avessimo un 10700k fortunello tra le mani, a voglia di sparare frame XD
Lo penso anch'io, per essere safe. Fretta non ne ho, perché intendo cambiare insieme monitor e vga, quindi aspetto i bench e forsanche un eventuale refreshino o price cut.
Il procio mi dovrà durare 5 anni (il primo è passato).
p.s Se è tuo, complimenti per il gatto XD
Mio da 5 anni. Gandalf apprezza sempre i complimenti e ringrazia :D
AceGranger
10-08-2020, 16:07
Screen archiviato, vedremo nei prossimi 5 anni cosa succederà.
Io dico solo che in full hd o in qhd i principali giochi di 7 anni fa era già tanto se si avvicinavano a 2 GB (con supercazzole sul caching incluse). Ricordo benissimo i vari "guardate che un GB basta e avanza per giocare, non avrete mai problemi".
Allora segnati pure questo:
Marzo 2015 - Titan X ( Maxwell ) 12 GB - 7 TFlops
Giugno 2015 - 980TI ( Maxwell ) 6GB - 6 TFlops
Ottobre 2019 - 1660 con 6GB - 5 TFlops
test a 1080 e 1440p
https://www.youtube.com/watch?v=FchuDedn56Y
https://www.youtube.com/watch?v=zQ8SK5jA4AE
non serve a un bene amato cazz di niente avere tanta Vram se poi il chip non ti stara mai dietro; nei giochi che usciranno fra 5 anni avrai problemi ben peggiori con la potenza del chip piuttosto che con la Vram on-board;
In campo gaming, la differenza che ci sara fra 10 e 20 GB fra 5 anni ( sull'ipotetico chip della 3080 ) sara esattamente quella fra i 6Gb della 980Ti e i 12Gb della TitanX, ovvero un caz.
La differenza tra Vram cache e Vram veramente indispensabile esiste e non è una supercazzola ma evidentemente per molti è una leggenda difficile da scardinare ;); e con questo non ti sto dicendo che 10Gb andranno sempre bene o che ne bastano sempre e solo 4, ma che ogni chip ha il suo quantitativo di Vram corretto, e pompare a dismisura la Vram per il gaming è solo marketing.
Oggi si eccedono gli 8-10 GB. Anche se con supercazzore incluse, siamo già uno step più avanti sulla saturazione, rispetto a 7 anni fa.
Con le nuove console lo standard passerà da 5 a 13.5 GB riservati ai giochi, e con degli stratagemmi sull'io che non credo siano replicabili sui dispositivi attuali. Io non sarei così tranquillo sulla vram.
i tuoi giochi da 8 fantomatici GB funzionano tranquillamente anche su una vetusta 780Ti 3Gb di 7 anni fa, perchè sono tutta cache...
https://www.youtube.com/watch?v=p3V-7GGEKp8
se esistesse una 780Ti da 6Gb non cambierebbe nulla, perchè il collo di bottiglia sarebbe sempre e comunque il chip.
poi ognuno è libero di credere a quello che vuole e spendere i soldi come meglio crede ;)
anche perchè, ma qui mikael84 potra confermare o meno la mia ipotesi, potrebbe pure essere controproducente per il gaming, perchè 20Gb a conchiglia credo siano chip piu lenti rispetto a quelli a singolo blocco.
fraussantin
10-08-2020, 17:39
e qui va uguale in 4K con 8GB della 2080 Super
https://www.youtube.com/watch?v=kgv83HxTJ5o
dagli 8 agli 11 è solo cache; se ci fosse una 2080Ti 8Gb andrebbe uguale.
prima di incontare problemi di Vram incontrerai sempre problemi di TFlops ;); dovreste preoccuparvi di piu della potenza dei chip che del quantitativo di Vram.
Per i prossimi 2 anni è palese che la RAM basterà.
Alla prossima gen \ refrash se aumenteranno i quantitativi saranno da buttare.
PS Horizon 0 dawn mi occupa 7850mb in 2k.
Il fatto è che non parliamo di una GPU da 300 euro coma la 2060 , e li si può tollerare anche la mancanza di vram , qui si parla di 1000 euro di GPU e se permetti per 1000 euro io pretendo una GPU completa.
AceGranger
10-08-2020, 17:55
Per i prossimi 2 anni è palese che la RAM basterà.
Alla prossima gen \ refrash se aumenteranno i quantitativi saranno da buttare.
PS Horizon 0 dawn mi occupa 7850mb in 2k.
questa è l'ultima volta che lo scrivo dopo di che chi vuole capire capira.
quei 7850MB sono per la maggiore di cache, ne piu ne meno, e serve come tampone nel caso in cui tu avessi un sistema di storage/CPU demmerda, ne piu ne meno; il gioco effettivo occupera uno sputo di quella Vram.
se la tua GPU avesse 6 Gb di Vram ( ipoteticamente parlando ovviamente con stessa banda ) faresti gli stessi fps, a patto ovviamente di non avere il resto del sistema lento
Il fatto è che non parliamo di una GPU da 300 euro coma la 2060 , e li si può tollerare anche la mancanza di vram , qui si parla di 1000 euro di GPU e se permetti per 1000 euro io pretendo una GPU completa.
io ero rimasto che si parlava della 3080, e ad oggi GPU da 1000 euro sono 8 Gb e GPU da 1300 sono da 11 Gb,
per le prossime si parla di 10GB e 12GB e un 40% di prestazioni in piu per fascia, quindi un aumento in linea a quello avvenuto negli scorsi anni, anzi pure migliore di quello avvenuto con questa gen.
Il fatto è che non parliamo di una GPU da 300 euro coma la 2060 , e li si può tollerare anche la mancanza di vram , qui si parla di 1000 euro di GPU e se permetti per 1000 euro io pretendo una GPU completa.
ah con 20GB è tutto da vedere se te la daranno per 1000 euro :sofico:
Thunder-74
10-08-2020, 18:08
Lo penso anch'io, per essere safe. Fretta non ne ho, perché intendo cambiare insieme monitor e vga, quindi aspetto i bench e forsanche un eventuale refreshino o price cut.
Il procio mi dovrà durare 5 anni (il primo è passato).
Mio da 5 anni. Gandalf apprezza sempre i complimenti e ringrazia :D
Niente.... Thor mi ha detto di salutare Gandalf
https://i.imgur.com/a3JuZPbl.jpg
Scusate l'ot, ma sti gatti fanno quello che vogliono :fagiano:
fraussantin
10-08-2020, 18:16
questa è l'ultima volta che lo scrivo dopo di che chi vuole capire capira.
quei 7850MB sono per la maggiore di cache, ne piu ne meno, e serve come tampone nel caso in cui tu avessi un sistema di storage/CPU demmerda, ne piu ne meno; il gioco effettivo occupera uno sputo di quella Vram.
se la tua GPU avesse 6 Gb di Vram ( ipoteticamente parlando ovviamente con stessa banda ) faresti gli stessi fps, a patto ovviamente di non avere il resto del sistema lento
Si non devi spiegare a me la differenza tra memoria alloca e e effettivamente necessaria , ma non è sempre così in ff15 per esempio con le texture HD si riempiva e iniziava la sagra dello stutter.
In Horizon c'è anche un uso massiccio delle pcie ( 8x toglie il 20% degli fps rispetto a 16x) e questo mi fa pensare che tenga tanta roba necessaria in DRAM.
Poi non è nulla di grave ,alla peggio basta calare uno step di texture e spesso non te ne accorgi neppure ( con le texture moderne più che la dimensione conta come vengono disegnate ) e in ogni caso finchè saranno i prodotti di punta non ci saranno problemi.
Ma ripeto stiamo parlando di GPU costose io pretenderei il top senza compromessi.
PS visto che le console avranno tanta RAM ..
razor820
10-08-2020, 19:19
Comunque horizon zero dawn sarà fatto con i piedi... o i vari riva tuner e company non sono sono realistici in questo gioco...
Dai 24gb di ram??? Ridicolo
mikael84
10-08-2020, 19:35
anche perchè, ma qui mikael84 potra confermare o meno la mia ipotesi, potrebbe pure essere controproducente per il gaming, perchè 20Gb a conchiglia credo siano chip piu lenti rispetto a quelli a singolo blocco.
In doppia, a conchiglia vai a 40gb praticamente.:)
Per il resto si, confermo. Ho scelto un'ambiente di non compressione, ma anche li il valore scende. Però rende meglio l'idea sull'impatto.
Clicca
https://i.postimg.cc/bDD5bpv5/rame.png (https://postimg.cc/bDD5bpv5)
Non è per cattiveria, è la prima scheda che ho trovato.:p
AceGranger
10-08-2020, 19:41
In doppia, a conchiglia vai a 40gb praticamente.:)
Per il resto si, confermo. Ho scelto un'ambiente di non compressione, ma anche li il valore scende. Però rende meglio l'idea sull'impatto.
Clicca
https://i.postimg.cc/bDD5bpv5/rame.png (https://postimg.cc/bDD5bpv5)
Non è per cattiveria, è la prima scheda che ho trovato.:p
no no è cattiveria :p
Capisco che 10GB OGGI siano sufficienti, però mi rode non poco.
Abbiamo la stessa quantità di VRAM dalle 1080ti e siamo giunti alla terza generazione. Le console ne avranno 16... (ok, in parte é sistema, ma almeno hanno un canale preferenziale con gli SSD)
Quello che mi lascia perplesso è il fatto he la RAM dev'essere rapportata alla potenza della GPU e invece siamo rimasti fermi, troppo.
Tra l'altro si parlava di New Gen come la rivoluzione, tra RT mirabolante, assets high poly e texture ad altissima risoluzione...beh, queste ultime possiamo scordarcele.
devAngnew
10-08-2020, 20:03
Capisco che 10GB OGGI siano sufficienti, però mi rode non poco.
Abbiamo la stessa quantità di VRAM dalle 1080ti e siamo giunti alla terza generazione. Le console ne avranno 16... (ok, in parte é sistema, ma almeno hanno un canale preferenziale con gli SSD)
Quello che mi lascia perplesso è il fatto he la RAM dev'essere rapportata alla potenza della GPU e invece siamo rimasti fermi, troppo.
Tra l'altro si parlava di New Gen come la rivoluzione, tra RT mirabolante, assets high poly e texture ad altissima risoluzione...beh, queste ultime possiamo scordarcele.
Vero, ma poi quante Vram avranno a disposizione le console 14 GB (a spanne) allora le gpu x80 con 12GB sono onestamente sottodimensionate viste le ipotesi di potenza FP e visto che per RT c'è bisogno di molta memoria video o vogliamo rimanere con un solo effetto RT ? :D
Giovamas
10-08-2020, 20:27
mass effect style
https://twitter.com/NVIDIAGeForce/status/1292808003897311232
mikael84
10-08-2020, 20:45
no no è cattiveria :p
:D
Capisco che 10GB OGGI siano sufficienti, però mi rode non poco.
Abbiamo la stessa quantità di VRAM dalle 1080ti e siamo giunti alla terza generazione. Le console ne avranno 16... (ok, in parte é sistema, ma almeno hanno un canale preferenziale con gli SSD)
Quello che mi lascia perplesso è il fatto he la RAM dev'essere rapportata alla potenza della GPU e invece siamo rimasti fermi, troppo.
Tra l'altro si parlava di New Gen come la rivoluzione, tra RT mirabolante, assets high poly e texture ad altissima risoluzione...beh, queste ultime possiamo scordarcele.
Cmq non è detto del tutto. non è come le ddr5x, volendo possono farle entrambe.
Il problema di nvidia sono quei bus non collegati per potenza espressa.
La 3080ti dovrebbe avere 14gb in single e 12 la 3080, invece un canale non è collegato.
Lo schema di TU102 e GA104 prevede 12gb, ben due canali non chiusi.
Rimane solo da sparare un botto di ram, o ottimizzarla.:)
Cmq non è detto del tutto. non è come le ddr5x, volendo possono farle entrambe.
Il problema di nvidia sono quei bus non collegati per potenza espressa.
La 3080ti dovrebbe avere 14gb in single e 12 la 3080, invece un canale non è collegato.
Lo schema di TU102 e GA104 prevede 12gb, ben due canali non chiusi.
Rimane solo da sparare un botto di ram, o ottimizzarla.:)
Con 12-14GB già si inizierebbe a ragionare, anche se l'ideale secondo me sarebbe averne 16. Però capisco anche i limiti architetturali, e 20-22GB sono davvero tanti.
Lo Straniero Misterioso
10-08-2020, 21:42
Ma tanto le schede le cambiamo come se fossero mutande, chissenefrega se non basta domani la VRAM... :)
Secondo me le nuove scatolette non hanno mostrato niente di che io penso che almeno i possessori di 2080/super/ti possano stare tranquilli almeno fino ad hopper, se si cambia è solo per la scimmia
mikael84
10-08-2020, 23:44
Con 12-14GB già si inizierebbe a ragionare, anche se l'ideale secondo me sarebbe averne 16. Però capisco anche i limiti architetturali, e 20-22GB sono davvero tanti.
Il MCM dovrebbe finalmente abbattere i problemi di bus.
4 stack da 128bit o HBM.
Una 4070 da 4608cc e 12gb con ottima parallelizzazione ed una 4080ti da 6144cc e 16/32gb.
Se a 5nm di TSMC, diverrebbero stack davvero molto piccoli.
Il MCM dovrebbe finalmente abbattere i problemi di bus.
4 stack da 128bit o HBM.
Una 4070 da 4608cc e 12gb con ottima parallelizzazione ed una 4080ti da 6144cc e 16/32gb.
Se a 5nm di TSMC, diverrebbero stack davvero molto piccoli.
Sarebbe una soluzione interessante, anche se faccio fatica a collocare una 4080 li in mezzo :D
A quanto pare anche RDNA3 dovrebbe seguire l'approccio MCM, finalmente qualcosa di diverso anche in ambito GPU.
mikael84
11-08-2020, 01:08
Sarebbe una soluzione interessante, anche se faccio fatica a collocare una 4080 li in mezzo :D
A quanto pare anche RDNA3 dovrebbe seguire l'approccio MCM, finalmente qualcosa di diverso anche in ambito GPU.
Si trova, si trova. Puoi cuttare l'ultimo stack, aggiungere TPC per GPM (stack molto piccoli), creare più collegamenti.
Il progetto di Intel prevede sino a 16k shader x 500 watt HPC a basso clock.:)
mircocatta
11-08-2020, 06:57
Sarebbe una soluzione interessante, anche se faccio fatica a collocare una 4080 li in mezzo :D
A quanto pare anche RDNA3 dovrebbe seguire l'approccio MCM, finalmente qualcosa di diverso anche in ambito GPU.
No, AMD forse passa direttamente al chiplet
https://www.tweaktown.com/images/news/7/4/74274_07_amds-next-gen-rdna-3-revolutionary-chiplet-design-could-crush-nvidia_full.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-30-custom-graphics-card-to-launch-in-september
Ottimo:D :D stessa situazione e politica alla maxwell, custom e reference lanciate insieme, queste schede sono pronte da mesi
Dovrebbe essere un bene per disponibilità e prezzi a sto punto, lo shortage come ben sappiamo fa lievitare esponenzialmente i prezzi.
Ottimo, si va di Gigabyte come al solito.
oZonoRobotics
11-08-2020, 09:05
dopo tanta attesa non mi sembra vero che siamo ad un mese dal lancio! sempre più curioso di vedere cosa ne esce e a che prezzi!!! :D questa delle custom lanciate insieme alle reference è un'ottima notizia perchè così uno può scegliere con tutte le carte già sul tavolo, e non penso che quando usciranno le amd nvidia abbasserà i prezzi...
supersalam
11-08-2020, 09:06
Salve ragazzi, si conoscono già il processo produttivo, il wattaggio ed un ipotetico TDP? A questo giro speravo di farmi un ITX.
oZonoRobotics
11-08-2020, 09:21
Se le sparano alte, se le possono tenere certe custom..
Inutile dire che oggi una 2080ti strix oc (1400 euro e passa al d1) la piazzi a meno di 900 euro (se te la comprano) che è lo stesso prezzo che ho ottenuto vendendo la mia FE di quasi 2 anni.:D
Ho visto lightning z di 4 mesi andare via per 850 euro nei mercatini, schede ''scontrinate'' 1650 euro, No SENSE AT ALL.
la strix su amazon costava 1700 euro al lancio!
comunque con la 2080ti tutte le TI si svaluteranno totalmente, basta che esca la "nuova" xx70 e la xx80ti della precedente generazione vale meno della nuova xx70 usata... quindi niente... una volta le fasce di prezzo erano meno ampie e quindi sta cosa si sentiva meno, ma uno dei motivi per i quali non ho preso la 2080ti era proprio questo, pagare 1700 la vga per poi venderla a 300 euro quando esce la nuova generazione per me era inconcepibile... ora invece lo accetto... come cambiano le opinioni!!! :P
OrazioOC
11-08-2020, 09:24
Se le sparano alte, se le possono tenere certe custom..
Inutile dire che oggi una 2080ti strix oc (1400 euro e passa al d1) la piazzi a meno di 900 euro (se te la comprano) che è lo stesso prezzo che ho ottenuto vendendo la mia FE di quasi 2 anni.:D
Ho visto lightning z di 4 mesi andare via per 850 euro nei mercatini, schede ''scontrinate'' 1650 euro, No SENSE AT ALL.
Se non ci vuoi rimettere tanto allora è meglio puntare sulle fasce più "basse" vedo 2070 super e 2080 super che rispetto al prezzo da nuove ti fanno risparmiare giusto un 15/20%.
Anche perchè le top di gamma della nuova generazione sono sempre le prime ad arrivare, mentre le medio gamma tardano sempre di qualche mese, rendendo le vecchie più facili da piazzare.
Thunder-74
11-08-2020, 09:26
Qui si rasenta la follia....
VRAM Nvidia RTX 3080 ha' blocco software 'fino al lancio di RDNA 2
Si dice che Nvidia applichi un cosiddetto "blocco software" alla RAM del suo imminente RTX 3080. Il produttore vorrebbe aspettare fino a dopo il lancio di RDNA 2 per vedere come si comporta quella GPU. RDNA 2 è la seconda serie di GPU Navi che sarà conosciuta come "Navi 2X". Nvidia vorrebbe quindi `` bloccare software '' la sua GeForce RTX 3080 con probabilmente 12 GB di vram su un bus di memoria a 384 bit a soli 10 GB di vram su un bus a 320 bit.
Fino al rilascio di RDNA, le prime GPU basate su Navi, Nvidia non aveva quasi nulla da temere dal campo rosso. Si dice che RDNA 2 fornisca prestazioni fino al 50% migliori per watt, probabilmente perché AMD si è posta il nobile obiettivo di raddoppiare le prestazioni ogni generazione.
"Software di blocco" significa che l'hardware è effettivamente più potente di quanto viene fornito "pronto per l'uso". Nvidia lampeggia la scheda con il firmware per rallentarla intenzionalmente. Quando RDNA 2 viene rilasciato, Nvidia "sblocca" la scheda per aumentare immediatamente le sue prestazioni. L'ultima volta che sappiamo che è successo è stata AMD con la sua RX 5600 XT, fornita con gddr6 vram a 14 Gbps, ma scesa a 12 Gbps. All'ultimo minuto, AMD ha cambiato idea in modo che i produttori di schede video abbiano rilasciato rapidamente nuovi aggiornamenti del BIOS il giorno del lancio.
LINK (https://nl.hardware.info/nieuws/72896/vram-nvidia-rtx-3080-heeft-software-lock-tot-lancering-rdna-2)
OrazioOC
11-08-2020, 09:35
Parola d'ordine: ASPETTARE RDNA2:D :D
Nvidia ha intenzione di stare sopra con le prestazioni anche con 3080, o almeno pareggiare in prestazioni con la top amd (secondo me la 3080ti andrà sola senza concorrenza) e venderla al prezzo giusto, insomma vuole primeggiare in fascia semi-top e top con le performance assolute.
Si vabbe', sto film lo abbiamo visto tutti negli ultimi 5 anni, e stiamo ancora qua a comprare nvidia.:rolleyes:
TigerTank
11-08-2020, 09:45
Qui si rasenta la follia....
VRAM Nvidia RTX 3080 ha' blocco software 'fino al lancio di RDNA 2
Si dice che Nvidia applichi un cosiddetto "blocco software" alla RAM del suo imminente RTX 3080. Il produttore vorrebbe aspettare fino a dopo il lancio di RDNA 2 per vedere come si comporta quella GPU. RDNA 2 è la seconda serie di GPU Navi che sarà conosciuta come "Navi 2X". Nvidia vorrebbe quindi `` bloccare software '' la sua GeForce RTX 3080 con probabilmente 12 GB di vram su un bus di memoria a 384 bit a soli 10 GB di vram su un bus a 320 bit.
Fino al rilascio di RDNA, le prime GPU basate su Navi, Nvidia non aveva quasi nulla da temere dal campo rosso. Si dice che RDNA 2 fornisca prestazioni fino al 50% migliori per watt, probabilmente perché AMD si è posta il nobile obiettivo di raddoppiare le prestazioni ogni generazione.
"Software di blocco" significa che l'hardware è effettivamente più potente di quanto viene fornito "pronto per l'uso". Nvidia lampeggia la scheda con il firmware per rallentarla intenzionalmente. Quando RDNA 2 viene rilasciato, Nvidia "sblocca" la scheda per aumentare immediatamente le sue prestazioni. L'ultima volta che sappiamo che è successo è stata AMD con la sua RX 5600 XT, fornita con gddr6 vram a 14 Gbps, ma scesa a 12 Gbps. All'ultimo minuto, AMD ha cambiato idea in modo che i produttori di schede video abbiano rilasciato rapidamente nuovi aggiornamenti del BIOS il giorno del lancio.
LINK (https://nl.hardware.info/nieuws/72896/vram-nvidia-rtx-3080-heeft-software-lock-tot-lancering-rdna-2)
Ok che da sempre l'hardware è più potente di quanto settato via software, specialmente nelle ultime generazioni con protezioni tramite PL e tagli da temperatura, con la scusa di evitare RMA di massa causa bimbiminkia che le bruciavano con furmark. E infatti noi le spremiamo da sempre tramite biosmod(in passato), con eventuali flash di bios maggiorati e compatibili, liquidando, maxando il PL e overcloccando, ecc...
Però questa sarebbe proprio una presa per i fondelli colossale. Pagare fiori di quattrini per delle vga volutamente cappate via firmware non più per questione di modelli cheap o di "sicurezza" ma tenendo un margine bloccato per motivi concorrenziali sarebbe davvero assurdo.
Sarebbe come comprare un'auto cappata a 100Km/h e poi il produttore ti dicesse che in caso te la sbloccherebbero a 150 per motivi concorrenziali. :asd:
Di sicuro prima di prendere una serie 3000 questa cosa vorrei diventasse chiara e trasparente.
Thunder-74
11-08-2020, 09:50
Ok che da sempre l'hardware è più potente di quanto settato via software, specialmente nelle ultime generazioni con protezioni tramite PL e tagli da temperatura, con la scusa di evitare RMA di massa causa bimbiminkia che le bruciavano con furmark. E infatti noi le spremiamo da sempre tramite biosmod(in passato), con eventuali flash di bios maggiorati e compatibili, liquidando, maxando il PL e overcloccando, ecc...
Però questa sarebbe proprio una presa per i fondelli colossale. Pagare fiori di quattrini per delle vga volutamente cappate via firmware tenendo un margine bloccato per motivi concorrenziali sarebbe davvero assurdo.
Sarebbe come comprare unìauto cappata a 100Km/h e poi il produttore ti dice che in caso te la sbloccano a 150 per motivi concorrenziali. :asd:
Di sicuro prima di prendere una serie 3000 questa cosa vorrei diventasse chiara e trasparente.
Assolutamente... io lascerò passare qualche mese... fino a dicembre me ne starò buono.
devAngnew
11-08-2020, 09:50
Qui si rasenta la follia....
VRAM Nvidia RTX 3080 ha' blocco software 'fino al lancio di RDNA 2
Si dice che Nvidia applichi un cosiddetto "blocco software" alla RAM del suo imminente RTX 3080. Il produttore vorrebbe aspettare fino a dopo il lancio di RDNA 2 per vedere come si comporta quella GPU. RDNA 2 è la seconda serie di GPU Navi che sarà conosciuta come "Navi 2X". Nvidia vorrebbe quindi `` bloccare software '' la sua GeForce RTX 3080 con probabilmente 12 GB di vram su un bus di memoria a 384 bit a soli 10 GB di vram su un bus a 320 bit.
Fino al rilascio di RDNA, le prime GPU basate su Navi, Nvidia non aveva quasi nulla da temere dal campo rosso. Si dice che RDNA 2 fornisca prestazioni fino al 50% migliori per watt, probabilmente perché AMD si è posta il nobile obiettivo di raddoppiare le prestazioni ogni generazione.
"Software di blocco" significa che l'hardware è effettivamente più potente di quanto viene fornito "pronto per l'uso". Nvidia lampeggia la scheda con il firmware per rallentarla intenzionalmente. Quando RDNA 2 viene rilasciato, Nvidia "sblocca" la scheda per aumentare immediatamente le sue prestazioni. L'ultima volta che sappiamo che è successo è stata AMD con la sua RX 5600 XT, fornita con gddr6 vram a 14 Gbps, ma scesa a 12 Gbps. All'ultimo minuto, AMD ha cambiato idea in modo che i produttori di schede video abbiano rilasciato rapidamente nuovi aggiornamenti del BIOS il giorno del lancio.
LINK (https://nl.hardware.info/nieuws/72896/vram-nvidia-rtx-3080-heeft-software-lock-tot-lancering-rdna-2)
Se vero stavolta RDNA2 sta creando qualche preoccupazione reale a NVIDIA... :sofico:
Ok che da sempre l'hardware è più potente di quanto settato via software, specialmente nelle ultime generazioni con protezioni tramite PL e tagli da temperatura, con la scusa di evitare RMA di massa causa bimbiminkia che le bruciavano con furmark. E infatti noi le spremiamo da sempre tramite biosmod(in passato), con eventuali flash di bios maggiorati e compatibili, liquidando, maxando il PL e overcloccando, ecc...
Però questa sarebbe proprio una presa per i fondelli colossale. Pagare fiori di quattrini per delle vga volutamente cappate via firmware tenendo un margine bloccato per motivi concorrenziali sarebbe davvero assurdo.
Di sicuro prima di prendere una serie 3000 questa cosa vorrei diventasse chiara e trasparente.
Pienamente d’accordo sulla presa per i fondelli. Ma nessuno si ricorda le 6950 amd che si fleshavano a 6970 solo mettendoci il BIOS della sorella maggiore? Ne avevo due in cross all’epoca perfettamente funzionanti sbloccate a 6970.
Probabilmente in raster RDNA2 sarà a livello della 3080 a questo punto? O è solo questione di immagine con i 16gb vs 10?
Comunque questa cosa del pcb differente delle FE mi preoccupa un filo. Non vorrei che poi i WB o i vari Eiswolf ecc li facciano per un design classico e non per quello corto delle FE.
Inviato dal mio iPad utilizzando Tapatalk
devAngnew
11-08-2020, 09:56
Pienamente d’accordo sulla presa per i fondelli. Ma nessuno si ricorda le 6950 amd che si fleshavano a 6970 solo mettendoci il BIOS della sorella maggiore? Ne avevo due in cross all’epoca perfettamente funzionanti sbloccate a 6970.
Probabilmente in raster RDNA2 sarà a livello della 3080 a questo punto? O è solo questione di immagine con i 16gb vs 10?
Comunque questa cosa del pcb differente delle FE mi preoccupa un filo. Non vorrei che poi i WB o i vari Eiswolf ecc li facciano per un design classico e non per quello corto delle FE.
Inviato dal mio iPad utilizzando Tapatalk
Ehm ma quello era un vantaggio compravi a meno per avere di più :D
Pienamente d’accordo sulla presa per i fondelli. Ma nessuno si ricorda le 6950 amd che si fleshavano a 6970 solo mettendoci il BIOS della sorella maggiore? Ne avevo due in cross all’epoca perfettamente funzionanti sbloccate a 6970.
Probabilmente in raster RDNA2 sarà a livello della 3080 a questo punto? O è solo questione di immagine con i 16gb vs 10?
Comunque questa cosa del pcb differente delle FE mi preoccupa un filo. Non vorrei che poi i WB o i vari Eiswolf ecc li facciano per un design classico e non per quello corto delle FE.
Inviato dal mio iPad utilizzando Tapatalk
Non volevo essere lapidario e bollarla come c...ata in maniera istantanea, ma direi che si siamo molto vicini xD
Ormai i gombloddi sono ovunque
Inviato dal mio iPad utilizzando Tapatalk
sertopica
11-08-2020, 10:01
Qui si rasenta la follia....
VRAM Nvidia RTX 3080 ha' blocco software 'fino al lancio di RDNA 2
Si dice che Nvidia applichi un cosiddetto "blocco software" alla RAM del suo imminente RTX 3080. Il produttore vorrebbe aspettare fino a dopo il lancio di RDNA 2 per vedere come si comporta quella GPU. RDNA 2 è la seconda serie di GPU Navi che sarà conosciuta come "Navi 2X". Nvidia vorrebbe quindi `` bloccare software '' la sua GeForce RTX 3080 con probabilmente 12 GB di vram su un bus di memoria a 384 bit a soli 10 GB di vram su un bus a 320 bit.
Fino al rilascio di RDNA, le prime GPU basate su Navi, Nvidia non aveva quasi nulla da temere dal campo rosso. Si dice che RDNA 2 fornisca prestazioni fino al 50% migliori per watt, probabilmente perché AMD si è posta il nobile obiettivo di raddoppiare le prestazioni ogni generazione.
"Software di blocco" significa che l'hardware è effettivamente più potente di quanto viene fornito "pronto per l'uso". Nvidia lampeggia la scheda con il firmware per rallentarla intenzionalmente. Quando RDNA 2 viene rilasciato, Nvidia "sblocca" la scheda per aumentare immediatamente le sue prestazioni. L'ultima volta che sappiamo che è successo è stata AMD con la sua RX 5600 XT, fornita con gddr6 vram a 14 Gbps, ma scesa a 12 Gbps. All'ultimo minuto, AMD ha cambiato idea in modo che i produttori di schede video abbiano rilasciato rapidamente nuovi aggiornamenti del BIOS il giorno del lancio.
LINK (https://nl.hardware.info/nieuws/72896/vram-nvidia-rtx-3080-heeft-software-lock-tot-lancering-rdna-2)
Ci manca solo che sblocchino la potenza in stile DLC a pagamento... :asd:
GPU as a service.
Senza andare cosi lontano: 290 che diventavano 290x con flash bios, 390 - 390x idem, fiji con le fury stessa minestra..
Nulla di nuovo, ma è un altro discorso quello, che si lega al bin dei chip, infatti alcune non potevano essere flashate poichè laserate proprio.
Ma secondo me è una balla colossale click bait, voi ci vedete nvidia a mettere 12 gb di vram e dichiararne 10 sulle specifiche?? LOL ma quando mai.
Poi è facilmente smascherabile la situazione, basta sollevare il dissi e contare i chip, se sono 12 e il bios segna 10gb, ok, hanno fatto la porcata:D :D e sai che risate dalle review? mi fermerò al paragrafo "Disassembly" se cosi fosse.
E perchè la presa per il culo delle 970 con "4"gb di ram non se la ricorda nessuno?
Per non parlare di intel che vendeva i coupon per "aumentare" le prestazioni dei suoi processori se non ricordo male.
Ho la sensazione ( spero di sbagliarmi al 100%) che Rdna 2x di Amd possa al max competere con Nvidia 3080 e ci ritroveremo una 3080Ti sul podio con prezzi intorno ai 1400-1500 euro.
Corso e ricorsi storici.... :rolleyes:
Comunque è ridicolo da parte di Nvidia limitare via software aspettando la concorrenza...
OrazioOC
11-08-2020, 10:23
Però il blocco via software comunque giocherebbe a nostro favore, se la scheda fisicamente è a posto si potrebbe tentare un flash bios e sbloccare ciò che gli manca rispetto alla TI, potrebbe non essere un difetto alla fine.
Li sono stati costretti, non potevano mettere 3gb:D :D hanno usato il 256 bit farlocco per ficcare 4gb, con BW che scendeva a 192gb/s sui 3.5gb (quelli veloci LOL) per le ovvie limitazioni (cache/rop's, mc ecc..)
Se l'avessero fatta a 192 bit e 3gb vram, peggio ancora, dovevi tagliare ancora più cc, hanno fatto una scheda furba.
Qui la cosa è ben diversa non c'è il limite architetturale della 970, si sta facendo passare una scheda completa con full bus e 12gb di vram (il max supportabile senza doppia densità) bloccato via firmware/bios a 10/352bit
La critica non è rivolta ai limiti architetturali, ma alle modalità con cui è stata venduta/pubblicizzata la scheda. Tanto è vero che poi in america(e non solo) dopo le class action son stati costretti a mettere gli adesivi sulle scatole "3.5gb". Il punto è che se si va a guardare indietro nessun produttore è esente da queste pratiche dettate esclusivamente dal profitto.
Sempre se ce ne sia la possibilità perchè Nvidia è attenta a tutto.
Mi sembra che l’unico errore che Nvidia fece molti anni fa fu relativo ad una scheda,di cui mi sfugge il modello,in cui era possibile sbloccarla ( la percentuale di sblocco parziale/totale variava in base all’esemplare) tanto da poter spendere poco ed avere le prestazioni vicine a schede di fascia superiore :D
Thunder-74
11-08-2020, 10:31
Ci manca solo che sblocchino la potenza in stile DLC a pagamento... :asd:
GPU as a service.
Stile Tesla :D :D :D
Se fosse vera sarebbe pessima lato consumatore.
Lato aziendale li posso capire, probabilmente amd è ancora lontana dal commercializzare RDNA2 e nvidia non è certa di come sarà, altrimenti una mossa del genere non avrebbe senso.
IMHO
https://videocardz.com/newz/nvidia-geforce-rtx-30-custom-graphics-card-to-launch-in-september
Ottimo:D :D stessa situazione e politica alla maxwell, custom e reference lanciate insieme, queste schede sono pronte da mesi.
Ottima notizia! :cool:
Sempre se ce ne sia la possibilità perchè Nvidia è attenta a tutto.
Mi sembra che l’unico errore che Nvidia fece molti anni fa fu relativo ad una scheda,di cui mi sfugge il modello,in cui era possibile sbloccarla ( la percentuale di sblocco parziale/totale variava in base all’esemplare) tanto da poter spendere poco ed avere le prestazioni vicine a schede di fascia superiore :D
6800le, si poteva sbloccare con rivatuner. Prima ancora la ati 9500 diventava una 9700, bei tempi.
6800le, si poteva sbloccare con rivatuner. Prima ancora la ati 9500 diventava una 9700, bei tempi.Poi si sono fatti furbi...
Poi si sono fatti furbi...
Erano furbi anche prima, non è che non lo sapessero, mosse del genere hanno fatto vendere vagonate di schede. Diciamo anche che al tempo c'era vera competizione ed era un mercato di nicchia, si usavano solo per gioco su pc. Numeri totalmente diversi da quelli di oggi dove le gpu le usano un po' per tutto.
IMHO
supersalam
11-08-2020, 11:13
Andando a riguardare il periodo di uscita di PS4 e volendo fare un termine di paragone, in quello stesso mese usciva nei negozi la GTX 780 Ti, una scheda che ancora oggi riesce a togliere qualche soddisfazione:
https://www.youtube.com/watch?v=RgxsSzcFdws
Nel paragone nei giochi multipiattaforma, una 780 Ti è sempre più prestazionale di PS4, in alcuni casi anche di una PS4 Pro.
Portandosi più in dietro, nel periodo PS3, i paragoni sono più difficili poiché l'architettura delle console era ancora custom e non basata sulle architetture simil PC come le console attuali, questo si traduceva in un gap tra PC e PS3/X360 più marcato, con multipiattaforma che sulla top di gamma del periodo (GTX 8800 Ultra) non è che andassero tanto meglio della controparte console, anzi, in alcuni casi le performance erano deludenti, nei titoli di fine generazione (Final Fantasy XIII o GTA V) i 768Mb di ram iniziavano ad essere parecchio stretti.
Dove voglio andare a parare con questo post?
Bisogna fare attenzione a quello che verrà presentato perché ci si potrebbe ritrovare nella situazione dell'era PS3/x360, dove le console (per una cifra di molto inferiore) offrivano una rapporto qualità prezzo decisamente più conveniente. Questo principalmente dovuto alle proprietà SSD Centriche delle nuove console che al momento sono un incognita per i titoli multipiattaforma.
Acquistare una 3080Ti/Navi al lancio è un passo che farei solo se si è sicuri di voler giocare i titoli attuali maxati a 4k 60Fps, ma con l'incognita di quelli futuri.
6800le, si poteva sbloccare con rivatuner. Prima ancora la ati 9500 diventava una 9700, bei tempi.
Non era una mossa commerciale ma proprio una questione di binning, come in amd.
Con la mia cara 6800le potevo sbloccare solo 3(o 2?) su 4 pipelines (oltre ai 2 vertex), le altre unitá erano fallate e mi mandavano in instant crash il sistema
Non era una mossa commerciale ma proprio una questione di binning, come in amd.
Con la mia cara 6800le potevo sbloccare solo 3(o 2?) su 4 pipelines (oltre ai 2 vertex), le altre unitá erano fallate e mi mandavano in instant crash il sistema
La mia era totalmente sbloccabile e stabilissima, comunque sì, andava a culo.
6800le, si poteva sbloccare con rivatuner. Prima ancora la ati 9500 diventava una 9700, bei tempi.
Si esatto,bel tempi :D
Avevo la 6800 Gt all’epoca...
mikael84
11-08-2020, 12:32
Qui si rasenta la follia....
VRAM Nvidia RTX 3080 ha' blocco software 'fino al lancio di RDNA 2
Si dice che Nvidia applichi un cosiddetto "blocco software" alla RAM del suo imminente RTX 3080. Il produttore vorrebbe aspettare fino a dopo il lancio di RDNA 2 per vedere come si comporta quella GPU. RDNA 2 è la seconda serie di GPU Navi che sarà conosciuta come "Navi 2X". Nvidia vorrebbe quindi `` bloccare software '' la sua GeForce RTX 3080 con probabilmente 12 GB di vram su un bus di memoria a 384 bit a soli 10 GB di vram su un bus a 320 bit.
Fino al rilascio di RDNA, le prime GPU basate su Navi, Nvidia non aveva quasi nulla da temere dal campo rosso. Si dice che RDNA 2 fornisca prestazioni fino al 50% migliori per watt, probabilmente perché AMD si è posta il nobile obiettivo di raddoppiare le prestazioni ogni generazione.
"Software di blocco" significa che l'hardware è effettivamente più potente di quanto viene fornito "pronto per l'uso". Nvidia lampeggia la scheda con il firmware per rallentarla intenzionalmente. Quando RDNA 2 viene rilasciato, Nvidia "sblocca" la scheda per aumentare immediatamente le sue prestazioni. L'ultima volta che sappiamo che è successo è stata AMD con la sua RX 5600 XT, fornita con gddr6 vram a 14 Gbps, ma scesa a 12 Gbps. All'ultimo minuto, AMD ha cambiato idea in modo che i produttori di schede video abbiano rilasciato rapidamente nuovi aggiornamenti del BIOS il giorno del lancio.
LINK (https://nl.hardware.info/nieuws/72896/vram-nvidia-rtx-3080-heeft-software-lock-tot-lancering-rdna-2)
Ah quindi, se AMD floppa lui da la scheda bloccata software, andiamo bene.
JHH che le blocca via software...solitamente le cache le strappa lui a morsi, pur di evitare questo, o si inventa strani aggeggi come la 970.
Questo qui alla fine, se messo alle strette si cercherà qualche slot da TSMC e si farà shrinkare il GA102 chip a 7nm, fregando al massimo gli acquirenti dei chipponi,
E'una soluzione che ho scartato per tutte le fasce, ma non mi sento di escluderla a priori sul big chip, qualora toppasse contro AMD.
Thunder-74
11-08-2020, 12:52
Siamo ad una partita a scacchi...
Rumor: GPU RDNA 2 Pro a settembre, AMD attende Nvidia per determinare le dimensioni della VRAM
LINK (https://nl.hardware.info/nieuws/72899/gerucht-rdna-2-pro-gpus-in-september-amd-wacht-op-nvidia-voor-bepalen-vram-groottes)
Che poi oggi era uscita questa notizia su TpUP
AMD RDNA 2 "Big Navi" con configurazioni VRAM da 12 GB e 16 GB
Mentre ci avviciniamo al lancio delle GPU basate su RDNA 2, che dovrebbero arrivare a settembre di quest'anno, il numero di voci sta iniziando ad aumentare. Oggi, una nuova voce proveniente dal forum cinese Chiphell sta arrivando sulla nostra strada. Un utente chiamato "wjm47196" noto per aver fornito voci e ogni tipo di informazione ha specificato che la GPU "Big Navi" basata su RDNA 2 di AMD sarà disponibile in due configurazioni: 12 GB e 16 GB di VRAM. Essendo quello il chip Navi 21, che rappresenta la GPU di fascia alta, è logico che AMD abbia messo una quantità maggiore di VRAM come 12 GB e 16 GB. È possibile che AMD possa separare le due varianti come NVIDIA realizzata con GeForce RTX 2080 Ti e Titan RTX, quindi la variante da 16 GB è un po 'più veloce, forse con un numero maggiore di processori di streaming.
LINK (https://www.techpowerup.com/270859/amd-rdna-2-big-navi-to-feature-12-gb-and-16-gb-vram-configurations)
Qualcosa si muove nel pentolone.
Spero che Amd arrivi a toccare le prestazioni della 3080Ti.
Mikael84,qualche pronostico in merito? :D
In 4K su una 980ti il problema non sono solo i 6GB di vram...Ma proprio il chip ad essere sottodimensionato.
dipende su un motore vecchio riesce anche a muoversi come c2 su maldo.
Poi su c3 se satura fino a sei peggiora. Parliamo sempre di 4k 25fps
E perchè la presa per il culo delle 970 con "4"gb di ram non se la ricorda nessuno?
Per non parlare di intel che vendeva i coupon per "aumentare" le prestazioni dei suoi processori se non ricordo male.
è stato l affare del secolo 400€ rimborsati puliti puliti per la g1 messi sulla king
Speriamo lo rifaccia :sofico:
Ale55andr0
11-08-2020, 13:32
mio cugino (per alcuni mio cuGGGino :asd: ) dice che le nuove verdi dovrebbero adottare una nomenclatura "21x0" per via dei 21 anni compiuti del brand "ge-gorce"
Forum Rift
11-08-2020, 13:35
Portandosi più in dietro, nel periodo PS3, i paragoni sono più difficili poiché l'architettura delle console era ancora custom e non basata sulle architetture simil PC come le console attuali, questo si traduceva in un gap tra PC e PS3/X360 più marcato, con multipiattaforma che sulla top di gamma del periodo (GTX 8800 Ultra) non è che andassero tanto meglio della controparte console, anzi, in alcuni casi le performance erano deludenti, nei titoli di fine generazione (Final Fantasy XIII o GTA V) i 768Mb di ram iniziavano ad essere parecchio stretti.
Ricordi male.
dentro ps3 fù messa in fretta e furia un derivato di NV47 che era la stessa architettura di una 7800 GTX ma rispetto a quest'ultima aveva il bus a 128bit, che la rendeva poco prestazionale per il modo in cui funzionava all'epoca il rendering e la loro correlazione alle rops.
la cosa più brutta fù che in quel periodo nvidia stava facendo uscire le 8800gtx che furono le prime gpu con g80e shader unificati.
se la ps3 fosse uscita con un derivato di g80 sarebbe finita la concorrenza per sempre.
Ale55andr0
11-08-2020, 13:36
Siamo ad una partita a scacchi...
Rumor: GPU RDNA 2 Pro a settembre, AMD attende Nvidia per determinare le dimensioni della VRAM
LINK (https://nl.hardware.info/nieuws/72899/gerucht-rdna-2-pro-gpus-in-september-amd-wacht-op-nvidia-voor-bepalen-vram-groottes)
Che poi oggi era uscita questa notizia su TpUP
AMD RDNA 2 "Big Navi" con configurazioni VRAM da 12 GB e 16 GB
Mentre ci avviciniamo al lancio delle GPU basate su RDNA 2, che dovrebbero arrivare a settembre di quest'anno, il numero di voci sta iniziando ad aumentare. Oggi, una nuova voce proveniente dal forum cinese Chiphell sta arrivando sulla nostra strada. Un utente chiamato "wjm47196" noto per aver fornito voci e ogni tipo di informazione ha specificato che la GPU "Big Navi" basata su RDNA 2 di AMD sarà disponibile in due configurazioni: 12 GB e 16 GB di VRAM. Essendo quello il chip Navi 21, che rappresenta la GPU di fascia alta, è logico che AMD abbia messo una quantità maggiore di VRAM come 12 GB e 16 GB. È possibile che AMD possa separare le due varianti come NVIDIA realizzata con GeForce RTX 2080 Ti e Titan RTX, quindi la variante da 16 GB è un po 'più veloce, forse con un numero maggiore di processori di streaming.
LINK (https://www.techpowerup.com/270859/amd-rdna-2-big-navi-to-feature-12-gb-and-16-gb-vram-configurations)
mi pare improbabile che amd tari la ram delle sue vga su nvidia a pochi mesi di distanza visto che ci stanno di mezzo sia questioni tecniche (bus, pcb ecc) che economiche. Cioè, non è che una scheda prevista per 8 possa diventare da 16 come nulla, e anche l'utilizzo di tagli intermedi richiederebbe mischioni tipo chiP a singola/doppia densità e particolari tagli di bus ai quali amd non ci ha mai abituato :fagiano: poi vabè, c'è una prima volta per tutto :)
Ale55andr0
11-08-2020, 14:13
Anche secondo ammiocugginooooooooo:D :D :D più palese di così si muore:D
https://i.postimg.cc/jwqfmjtP/ds.jpg (https://postimg.cc/jwqfmjtP)
nzomma, palese, non si fa altro che chiamarle 3000 series :D
ultimate trip
11-08-2020, 14:13
Ricordi male.
dentro ps3 fù messa in fretta e furia un derivato di NV47 che era la stessa architettura di una 7800 GTX ma rispetto a quest'ultima aveva il bus a 128bit, che la rendeva poco prestazionale per il modo in cui funzionava all'epoca il rendering e la loro correlazione alle rops.
la cosa più brutta fù che in quel periodo nvidia stava facendo uscire le 8800gtx che furono le prime gpu con g80e shader unificati.
se la ps3 fosse uscita con un derivato di g80 sarebbe finita la concorrenza per sempre.
e sarebbe costata 999 al lancio e sony sarebbe fallita :)
stefano192
11-08-2020, 14:22
Ottimo, si va di Gigabyte come al solito.
Solo io mi son trovato malissimo con Gigabyte? Ho una 1060 che ha sto difetto: https://www.youtube.com/watch?v=pqjSWD_o8iA&t=11s Praticamente se le ventole arrivano al 65/70% di utilizzo, inizia a fare quel rumore lì. Sotto invece nessun problema. Sopra tipo verso il 90% mi pare nulla, quindi molto strana come cosa, però MOLTO ma MOLTO fastidiosa, soprattutto ora d'estate che scalda di più e per forza di cose devo tenere una velocità sostenuta delle ventole.
E da quanto ho letto in giro, molte altre schede tipo 2060, 2070 ecc hanno sto problema. Quindi non è legato ad un solo modello ma a svariati modelli. Poi non so se è solo la serie Windforce, però sinceramente dopo questa notizia, Gigabyte è proprio l'ultima che prenderei in considerazione per una custom. EVGA invece mi ispira parecchia fiducia visto che dicono che l'assistenza sia il massimo. Oppure le solite ASUS o MSI anche se costicchiano.
https://www.nvidia.com/en-gb/geforce/news/nvidia-geforce-ultimatecountdown/
1 settembre presentazione
Passare da una Custom ad un altra possono anche “ballarci 150-200 euro sulla fascia elevata.
Evga ed Asus sono quelle che danno maggiore assistenza ma andhe quelle più care e non di poco rispetto agli altri marchi.
mikael84
11-08-2020, 14:29
Siamo ad una partita a scacchi...
Rumor: GPU RDNA 2 Pro a settembre, AMD attende Nvidia per determinare le dimensioni della VRAM
LINK (https://nl.hardware.info/nieuws/72899/gerucht-rdna-2-pro-gpus-in-september-amd-wacht-op-nvidia-voor-bepalen-vram-groottes)
Che poi oggi era uscita questa notizia su TpUP
AMD RDNA 2 "Big Navi" con configurazioni VRAM da 12 GB e 16 GB
Mentre ci avviciniamo al lancio delle GPU basate su RDNA 2, che dovrebbero arrivare a settembre di quest'anno, il numero di voci sta iniziando ad aumentare. Oggi, una nuova voce proveniente dal forum cinese Chiphell sta arrivando sulla nostra strada. Un utente chiamato "wjm47196" noto per aver fornito voci e ogni tipo di informazione ha specificato che la GPU "Big Navi" basata su RDNA 2 di AMD sarà disponibile in due configurazioni: 12 GB e 16 GB di VRAM. Essendo quello il chip Navi 21, che rappresenta la GPU di fascia alta, è logico che AMD abbia messo una quantità maggiore di VRAM come 12 GB e 16 GB. È possibile che AMD possa separare le due varianti come NVIDIA realizzata con GeForce RTX 2080 Ti e Titan RTX, quindi la variante da 16 GB è un po 'più veloce, forse con un numero maggiore di processori di streaming.
LINK (https://www.techpowerup.com/270859/amd-rdna-2-big-navi-to-feature-12-gb-and-16-gb-vram-configurations)
AMD non deve tarare, raddoppiando il chip, il bus va a 512bit che in singola densità va a 16gb e 12 nel 384bit.:)
Qualcosa si muove nel pentolone.
Spero che Amd arrivi a toccare le prestazioni della 3080Ti.
Mikael84,qualche pronostico in merito? :D
AMD è avanti un nodo. Dichiara perf/watt 50%, per lavori elettrici di commutazione, di efficienza dovuti al PP migliore, ed un 7% di clock dato dai transistor, che via elettrica può salire meglio.
Secondo le stime di AMD, con i lavori fatti può arrivare a dare un 2x 5700xt a 290/300watt (quindi un +100% e +50% su 2080ti).
Se monolitico dovrebbe avere circa 20,6/21mtransistor il 10% in più di TU102 (Titan).
Dagli ultimi rumors non è chiaro l'IPC, il controller SIMD perde efficienza e le rop's pare non vengano raddoppiate, quindi, è tutto da vedere.:)
Ma infatti è così, la pratica fu scorretta, ma 4gb acchiappavano meglio i consumatori, sai che tristezza scrivere sulla scatola 3.5gb+0.5gb, oppure 3.5gb? sa di prodotto monco (e alla fine lo era) magari scrivere anche 56 rop's (anzichè 64) e 224bit di bus (anzichè 256bit):D :D
Che poi le rop's effettive della 970 erano 44. Oltre al canale della partizione l2, ogni GPC aveva un SM disattivato, quindi per raster, erano 12 pixel non 16.:p
AMD non deve tarare, raddoppiando il chip, il bus Dagli ultimi rumors non è chiaro l'IPC, il controller SIMD perde efficienza e le rop's pare non vengano raddoppiate, quindi, è tutto da vedere.:)
Ma vorrei capire le intenzioni di Amd,se competere sulla fascia medio/alta oppure con Rdna 2x vuole sfidare direttamente la 3080Ti ma non può per limiti ingegneristici...
Free Gordon
11-08-2020, 15:19
AMD è avanti un nodo. Dichiara perf/watt 50%, per lavori elettrici di commutazione, di efficienza dovuti al PP migliore, ed un 7% di clock dato dai transistor, che via elettrica può salire meglio.
Secondo le stime di AMD, con i lavori fatti può arrivare a dare un 2x 5700xt a 290/300watt (quindi un +100% e +50% su 2080ti).
Se monolitico dovrebbe avere circa 20,6/21mtransistor il 10% in più di TU102 (Titan)
Elllappeppaa... un nodo addirittura?? :sofico: :sofico: :sofico:
Non scherzare dai........... ;)
Dagli ultimi rumors non è chiaro l'IPC, il controller SIMD perde efficienza e le rop's pare non vengano raddoppiate, quindi, è tutto da vedere.:)
Per quale ragione dovrebbe perdere efficienza?
mattxx88
11-08-2020, 15:27
AMD è avanti un nodo. Dichiara perf/watt 50%, per lavori elettrici di commutazione, di efficienza dovuti al PP migliore, ed un 7% di clock dato dai transistor, che via elettrica può salire meglio.
Secondo le stime di AMD, con i lavori fatti può arrivare a dare un 2x 5700xt a 290/300watt (quindi un +100% e +50% su 2080ti).
Se monolitico dovrebbe avere circa 20,6/21mtransistor il 10% in più di TU102 (Titan).
Secondo me Giammy si sta ancora toccando dopo queste tue parole :vicini: :vicini:
stefano192
11-08-2020, 15:39
Passare da una Custom ad un altra possono anche “ballarci 150-200 euro sulla fascia elevata.
Evga ed Asus sono quelle che danno maggiore assistenza ma andhe quelle più care e non di poco rispetto agli altri marchi.
Eh lo so che son belle care, però ripeto dopo la pessima esperienza con Gigabyte per quanto si siano offerti di controllare/sistemare la scheda, per la serie 3000 non la prendo proprio in considerazione.
mikael84
11-08-2020, 15:42
Giusto, intendevo sulla carta, con la 980 c'è una bella differenza:
https://i.postimg.cc/wtJ337d8/addas.jpg (https://postimg.cc/wtJ337d8)
Chi ne esce veramente male è kepler con i raster a 8.:p
Ma vorrei capire le intenzioni di Amd,se competere sulla fascia medio/alta oppure con Rdna 2x vuole sfidare direttamente la 3080Ti ma non può per limiti ingegneristici...
Di AMD ho visto le ultime slide, dove i rumors indicano un raddoppio dei raster e DCU, quindi, con un PP (quasi) praticamente di vantaggio, secondo le slide, dovrebbe giocarsela col chippone 3080ti, a meno che non toppi alla grande.;)
AMD promette un 50% di performance per watt (potrebbe dare un'equivalente della 2080ti a 225/230watt).
Sempre per slide, le uniche cose ufficiali che ci sono di AMD.
Io facendo due calcoli, se si parla di un 505mm2, a livello di transistor sarà realmente superiore ad una Titan RTX.
Secondo me Giammy si sta ancora toccando dopo queste tue parole :vicini: :vicini:
Ma tanto non gli compra niente lo stesso.:p
MrBrillio
11-08-2020, 18:55
E adesso che si fa?! 2180Ti Reference o Custom?! Devo liquidareeeeeeeeee subbbbbito!!! :D
oZonoRobotics
11-08-2020, 19:18
E adesso che si fa?! 2180Ti Reference o Custom?! Devo liquidareeeeeeeeee subbbbbito!!! :D
king kong per tutti!!!
Rumpelstiltskin
11-08-2020, 19:30
king kong per tutti!!!
non per me, io mi fermo per sempre alla 2080ti. stop, basta.
oZonoRobotics
11-08-2020, 19:54
non per me, io mi fermo per sempre alla 2080ti. stop, basta.
king kong per tanti ma non per tutti!!! :P
pure io presa questa non tocco più nulla fino a data da destinarsi...
https://i.postimg.cc/Z98nP8fJ/a4e.jpg (https://postimg.cc/Z98nP8fJ)
fafathebest
11-08-2020, 20:30
Ciao a tutti il mio sistema è ryzen 1600 tirato a circa 3.8ghz, attualmente uso una 1070 strix. C'è il rischio di essere CPU limited acquistando un'eventuale rtx 3080 per la risoluzione 1440p? So che sono ancora speculazioni ma magari un'idea me la potete già dare. Attualmente nessun gioco mi arriva al 100% sulla CPU, nemmeno i più esosi.
Per una volta vorrei prendere una "top di gamma", ma non vorrei cambiare l intero sistema :)
Grazie a tutti e buona attesa!
Inviato dal mio GM1900 utilizzando Tapatalk
MrBrillio
11-08-2020, 20:54
Per chi viene da 1080ti, basta e avanza 3080 per sentire un boost notevole, non ha senso svenarsi:O
Se tipo ballano 400 euro di differenza per un +15%, a sto giro mi piglio la 3080 liscia:D
NOOOoooooOOOOoooOOOOO
VOGLIO IL TOOOOOP! Devo solo sperare che la Titan abbia un prezzo fuori di testa, o stavolta faccio la stupidata :D :D :D
https://tenor.com/IXa4.gif
Ciao a tutti il mio sistema è ryzen 1600 tirato a circa 3.8ghz, attualmente uso una 1070 strix. C'è il rischio di essere CPU limited acquistando un'eventuale rtx 3080 per la risoluzione 1440p? So che sono ancora speculazioni ma magari un'idea me la potete già dare. Attualmente nessun gioco mi arriva al 100% sulla CPU, nemmeno i più esosi.
Per una volta vorrei prendere una "top di gamma", ma non vorrei cambiare l intero sistema :)
Grazie a tutti e buona attesa!
Inviato dal mio GM1900 utilizzando Tapatalk
Più che altro dipende dalla frequenza del monitor e dal tipo di giochi che usi.
È un 6/12 quindi sono pochi i giochi che riescono a mandarlo in crisi, però la frequenza potrebbe essere limitante in alcuni scenari.
Al massimo, con relativamente poco dovresti riuscire a montarci un 3600/4600, ma prima farei due prove con il tuo.
mikael84
11-08-2020, 23:16
E adesso che si fa?! 2180Ti Reference o Custom?! Devo liquidareeeeeeeeee subbbbbito!!! :D
2180TI?
Clickbait neppure ne sto guardando, ma è sicuro, o è tipo la 1180ti.:D
Per chi viene da 1080ti, basta e avanza 3080 per sentire un boost notevole, non ha senso svenarsi:O
Se tipo ballano 400 euro di differenza per un +15%, a sto giro mi piglio la 3080 liscia:D
Dal link di ieri, si diceva che la 3080 potesse anche avere la full ram/BW, in questo caso le differenze diminuirebbero al 20% ALU , in game il 10%.
Chiaro clickbait che io non sto più seguendo, e vedendo JHH, si strapperebbe la cache a morsi.
Io ho sempre detto di no, ad un'eventuale ipotesi a 7nm, e ci credo, non farà mai tutta la linea refresh con Hopper ormai prossimo, ma può fare lo scherzetto di shrinkare il GA102 a 7nm, o il full chip per garantirsi il top, considerando il quasi nodo di svantaggio attuale. :)
Elllappeppaa... un nodo addirittura?? :sofico: :sofico: :sofico:
Non scherzare dai........... ;)
Beh se vuoi paragonare un 10nm samsung (8 per 10% consumi), ad un 7nm+ di TSMC fai pure.:p
Per quale ragione dovrebbe perdere efficienza?
Il controller simd si occupa della distribuzione delle istruzioni non eseguite ai thread successivi.
In RDNA il controller wave è a 20 x4 SIMD nelle DCU, in RDNA2 i leak parlando di 16x4.
Su GCN erano la metà grazie ai CU singoli.:)
Bisogna capire quanto spendi e quanto ottieni, la 2080ti con tutto il bene che ti voglio non era certo il top riguardo il rapporto prezzo prestazioni soprattutto rispetto alla liscia, io venendo da questa potrei ottenere il boost che desidero solo passando alla 3080ti (che secondo me si chiamerà 3090)
oZonoRobotics
12-08-2020, 00:01
https://www.youtube.com/watch?v=7nQPIrLNNXk&t=4s
alla fine ha senso chiamarle 2100 anche se in italiano suona male!
poi "21 21" sarebbe troppo una coincidenza....
Giovamas
12-08-2020, 07:16
non per me, io mi fermo per sempre alla 2080ti. stop, basta.
beh per me la 3080(ti?) o 2180ti o quel che è, sarà il mio ultimo upgrade :) finirò col botto :sofico: . spero davvero non ci siano sorprese sull'alimentazione
comunque si va al primo settembre. per chi non liquida come me e giocoforza attende le custom si va più in là di sicuro
https://videocardz.com/newz/nvidia-announces-geforce-special-event-on-september-1st
edit anzi no forse custom subito disponibili
https://www.guru3d.com/news-story/both-custom-and-founder-graphics-geforce-3000-cards-launch-simultaneously.html
domenico88
12-08-2020, 08:16
Scusate ma la 3080 a che fascia di prezzo andrebbe collocata... sempre sui 7-800€ ?
nessuno29
12-08-2020, 09:01
Quella cpu è una baracca altrochè! sia per frequenza che per IPC oltre alle latenze che si porta dietro, inoltre avrai ram a 3000 max, non salgono nulla hanno un imc pessimo, io non metterei mai una scheda come la 3080 (più veloce della 2080ti)
In QHD con la 3080 (+20% 2080ti) saresti limitato un botto, è come se oggi mettessi una 2080 super in FHD, in certi titoli rischieresti di fare i frame di una 2060/2060s.
I ryzen decenti sono solo i 3000, dico decenti... perchè se vuoi limitare al massimo il collo di bottiglia devi andare di intel e farti una piattaforma con i controcaxxi e con ram veloci, l'ideale è portare tutto in oc massimo, tipo 52x 50 cache e ram sopra i 4000 cl16, poi più ti elevi in oc più ottieni.
Questo in gaming, detto questo, per non spendere un patrimonio fai upgrade di sola cpu con un 3600/3700x.
Ad oggi la migliore cpu per gioco è 10700k (ex 9900K) sui 350/370 non c'è nulla di meglio, 10900k ottimo ma fuori fascia, basta e avanza un 10700k che da le piste a qualunque Ryzen ambito gaming.
P.s che al cpu non arrivi al 100% non vuol dire nulla, significherebbe occupare tutti i 12thread al 100%, devi guardare la resa della gpu, se sei gpu limited o cpu limited.
Con da le piste intendi 15 fps in più in full hd su 160+ fps con una 2080ti?
fafathebest
12-08-2020, 09:40
Quella cpu è una baracca altrochè! sia per frequenza che per IPC oltre alle latenze che si porta dietro, inoltre avrai ram a 3000 max, non salgono nulla hanno un imc pessimo, io non metterei mai una scheda come la 3080 (più veloce della 2080ti)
In QHD con la 3080 (+20% 2080ti) saresti limitato un botto, è come se oggi mettessi una 2080 super in FHD, in certi titoli rischieresti di fare i frame di una 2060/2060s.
I ryzen decenti sono solo i 3000, dico decenti... perchè se vuoi limitare al massimo il collo di bottiglia devi andare di intel e farti una piattaforma con i controcaxxi e con ram veloci, l'ideale è portare tutto in oc massimo, tipo 52x 50 cache e ram sopra i 4000 cl16, poi più ti elevi in oc più ottieni.
Questo in gaming, detto questo, per non spendere un patrimonio fai upgrade di sola cpu con un 3600/3700x.
Ad oggi la migliore cpu per gioco è 10700k (ex 9900K) sui 350/370 non c'è nulla di meglio, 10900k ottimo ma fuori fascia, basta e avanza un 10700k che da le piste a qualunque Ryzen ambito gaming.
P.s che al cpu non arrivi al 100% non vuol dire nulla, significherebbe occupare tutti i 12thread al 100%, devi guardare la resa della gpu, se sei gpu limited o cpu limited.
Grazie per il giudizio sincero. Ad ogni modo cosa intendi per guardare la resa della GPU? Se la GPU va al 100%? Nel caso si, con praticamente tutti i giochi più recenti.
Avevo pensato anch'io di upgradare a R5 3600, ma visto che comunque a breve (mesi?) usciranno i Ryzen 4000, penso valga la pena attendere quelli e nel frattempo munirmi comunque di scheda video serie 3xxx.
Ad oggi la migliore cpu per gioco è 10700k (ex 9900K) sui 350/370
[OT] che differenza c'è realmente tra i due ?? cercavo un 9900K usato...per conservare la stessa mboard, mi chiedevo se valesse la pena passare alla serie 10700k appunto.. ;)
stefano192
12-08-2020, 10:50
Con da le piste intendi 15 fps in più in full hd su 160+ fps con una 2080ti?
Ma infatti, che poi sul 1440p si assottigliano ancora di più ste differenze :sofico:
amon.akira
12-08-2020, 11:13
Ma infatti, che poi sul 1440p si assottigliano ancora di più ste differenze :sofico:
magari ha un 1440p 60hz e state discutendo sul nulla
ahahahhahaha, cmq 3070ti che siano ga104 ci credo poco e nulla, 3080 e 3070 saranno entrambe ga104.
Lo Straniero Misterioso
12-08-2020, 12:16
Grazie per il giudizio sincero. Ad ogni modo cosa intendi per guardare la resa della GPU? Se la GPU va al 100%? Nel caso si, con praticamente tutti i giochi più recenti.
Avevo pensato anch'io di upgradare a R5 3600, ma visto che comunque a breve (mesi?) usciranno i Ryzen 4000, penso valga la pena attendere quelli e nel frattempo munirmi comunque di scheda video serie 3xxx.
Ad occhio nudo non noterai *nessuna* differenza in 2k.
Tutto il resto, è passione.
Con da le piste intendi 15 fps in più in full hd su 160+ fps con una 2080ti?
no
non partono proprio i giochi
esce "il gioco necessita di un accelleratore grafico" diciamo almeno una voodoo 1, una riva 128, TNT2.....
Al di là del cazzeggio concordo almeno su una cosa..... le build andrebbero equilibrate un minimo, con un 3600 a pochi spicci lo fai rivivere e dai maggior senso a 800€ di gpu.....
un pc da gioco è meglio sbilanciarlo lato gpu che cpu ma se stiamo parlando di fullhd 60Hz la cpu conta si e no......non ha senso un molto senso un 1600 con una 3080ti ma non ha senso nemmeno un 10900k con una 750Ti......
ps. forse qualcuno non lo sa ma si possono occare e ottimizzare per gaming anche i ryzen!!11!!!!!!!!111!
domenico88
12-08-2020, 12:19
La 2080 FE al lancio veniva venduta a 869 euro sul sito ufficiale, partiva in America a 699 MSRP, ma erano le scrause blower con chip non A, della serie devi spendere per un dissi o passare a liquido, e ti rimane sempre un chip inferiore, anche NO! tanto vale prendersi una custom entry (ma buona) con chip A.
Le prime custom in italia tipo asus strix stavano abbondantemente sopra i 1000 euro, fascia prezzo 1000-1100, c'erano alcune EVGA tipo le black al prezzo della FE o poco sopra, oppure, nel caso della XC Ultra (949 ricordo)
700 al lancio scordateli pure, a 700 neanche te la faranno vedere..:D :D felice di sbagliarmi ovviamente.
2080 era su TU104 chip di fascia medio alta/alta (castrato) 3080 è su GA102 quindi chip top padellone, temo per i prezzi per questo motivo, inoltre 3080 sarà più vicina alle prestazioni di 3080ti (essendo un cut di quest'ultima) rispetto a quanto visto tra 2080 e 2080ti (chip differenti)
Felice di sbagliarmi ovviamente
Presumo quindi che la il prezzo di lancio sarà sui 800€ di base per la FE e custom a salire :O
Presumo quindi che la il prezzo di lancio sarà sui 800€ di base per la FE e custom a salire :O
è da pascal che ci sono quei prezzi, per me possono solo aumentare :stordita:
razor820
12-08-2020, 13:59
Comunque fino a quando non vengono confermati i prezzi queste sono tutte fantasie..
In ogni caso il prezzo in dollari della vendita di schede video o elettronica in generale è sempre più basso rispetto ai prezzi in Italia in euro..
In questo caso prendendo esempio dalla 2080ti venduta nello store invidia italiano è data a 1280 euro contro i 1200 dollari americani che convertiti in euro sono 1020.. oltre 250 euro di differenza :D
mikael84
12-08-2020, 14:30
Quindi la fascia x80 da 699$ a 999$ stic@zzi:D :D :D :O :O :O
Stavolta solo amd ci salverà, con l'equivalente della top nvidia a 699$, in bundle anche una pratica boccetta con all'interno il succo v@ginale 3 di Lisa, mentre per gli user Nvidia, solo sabbia e un calco stampato in 3d del pene di Jensen :O :O :O :O
Seriamente:
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-ga102-series-rumored-to-launch-in-24gb-20gb-and-10gb-variants
Bruttissima situazione...
Spazzatura clickbait.
Non trovano traccia del modello a 16gb su GA102 su 320bit, e ci credo...pari a quelli che cercavano gli RT core sui chip HPC.
Una 3080ti con 320 bit non si può proprio vedere. Un full con due canali non attivi praticamente.
Inoltre ancora con le gddr6x, ma due domande non se le fanno.
Micron le ha aggiornate da 1 mese, samsung ha solo le HC16, messe in downclock sulle 2080s e su varie 2070s. La rambus a 18 non se la fileranno.:p
beh per me la 3080(ti?) o 2180ti o quel che è, sarà il mio ultimo upgrade :) finirò col botto :sofico: . spero davvero non ci siano sorprese sull'alimentazione
comunque si va al primo settembre. per chi non liquida come me e giocoforza attende le custom si va più in là di sicuro
https://videocardz.com/newz/nvidia-announces-geforce-special-event-on-september-1st
edit anzi no forse custom subito disponibili
https://www.guru3d.com/news-story/both-custom-and-founder-graphics-geforce-3000-cards-launch-simultaneously.html
Di tutti i rumors possibili, ancora non hanno mostrato il PCB.
Vorrei vedere anche il lavoro elettrico sulle fasi. :)
Spero solamente non si venga a creare un’altra fascia di prezzo... :rolleyes:
mikael84
12-08-2020, 15:04
Non si sono visti nè pcb nè Die, di solito spuntano qualche settimana prima.
Ma infatti, il PCB di turing era uscito addirittura 2 mesi prima.
Qua c'è un connettore, che non esiste in specifica, tanto che seasonic ed Evga lo ignorano appositamente nei modelli top :p
LOL a 320 bit fa ridere si, in pratica non usi due collegamenti, solo perchè ti gira:D :D
320bit su una TI è davvero assurdo. Sempre più diretti verso il 4k, con meno rop's.:sofico:
Io ho paura che successivamente facciano 352bit con 11gb, forse quella carta sarà utile per fare i refresh (super)
Che sarebbe già folle.
Se i chip vengono confermati, ti ritroveresti 7 GPC, di cui uno non collegato, quindi levare una partizione cache è davvero follia. Al massimo ti ritroverai qualche scarto con qualche TPC da disabilitare.
Tra 3080 e 3080ti ci passerebbe solo il 10% andando bene.
Spero solamente non si venga a creare un’altra fascia di prezzo... :rolleyes:
Se si crea con AMD come avversario, vuol dire che quest'ultima è ben poca cosa in generale, oltre al raster.
AMD non penso si metta a sparare 1300/1500 euro per un top chip custom, dove dovrebbe conquistarsi gli enthusiast (per anni solo nvidia).
DJurassic
12-08-2020, 15:31
Sapere per caso se la 3080Ti uscirà in contemporanea alle 3080 come per la serie 20xx? Ormai la 1080Ti è tempo di pensionarla, seppure le gioie che mi ha regalato questa GPU dubito possano ripetersi.
AMD non penso si metta a sparare 1300/1500 euro per un top chip custom, dove dovrebbe conquistarsi gli enthusiast (per anni solo nvidia).
Vero, ma se non riuscisse a competere con la top di gamma Nvidia sarebbe un motivo in più per quest’ultima di aumentare ulteriormente l’asticella del prezzo.
A quanto pare Rdna 2x sarà annunciata a Ottobre e sarebbe un bello smacco ad Nvidia competere ad armi pari con prezzo molto più aggressivo.
Andy1111
12-08-2020, 17:36
Quelle saranno le 3070.
La 3080 non sara` GA102.
La 3080 è l'ultima fatta con GA102 quindi come ha detto anche mikael84 lo scarto dello scarto.
La 3070 o anche 3070 TI se ci sarà è GA104
https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-super-and-rtx-3070-rumored-to-feature-ga104-gpu
mikael84
12-08-2020, 18:44
Quelle saranno le 3070.
La 3080 non sara` GA102.
La 3080 è l'ultima fatta con GA102 quindi come ha detto anche mikael84 lo scarto dello scarto.
La 3070 o anche 3070 TI se ci sarà è GA104
https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-super-and-rtx-3070-rumored-to-feature-ga104-gpu
Quoto Andy.
Teoricamente nvidia ha quasi sempre adottato la formula perfettamente scalabile dei TPC x GPC ad ogni cambio gen (salvo maxwell in cui hanno rifatto il trucco a quel collabrodo di kepler, ma anch'esso dai chip minori era così).
La 2080s o TU104, era un chip a 6 GPC x 4 TPC (3072cc), quindi doveva passare a 5 TPC x GPC, ovvero ogni GPC passava da 512 cuda a 640 x 6 / 3840cc
Il chip doveva essere questo
https://i.postimg.cc/zVhhyPtq/ampere.png (https://postimg.cc/zVhhyPtq)
Quindi circa il 18-20% oltre TU104, a cui andava aggiunto il clock (che si aspettava fosse bello alto visto il presunto passaggio ai 7nm+), ed un collegamento ram.
Ma tutto è saltato.
La 3080 sarà cut del GA102, e di conseguenza non può essere neppure GA104, in quanto è lo stesso chip di base della 2080.
Vero, ma se non riuscisse a competere con la top di gamma Nvidia sarebbe un motivo in più per quest’ultima di aumentare ulteriormente l’asticella del prezzo.
A quanto pare Rdna 2x sarà annunciata a Ottobre e sarebbe un bello smacco ad Nvidia competere ad armi pari con prezzo molto più aggressivo.
Dipende come verranno tarate le schede, e dove precisamente si posizionerà AMD. Non è neppure escluso che nvidia faccia 3 GPU, se AMD ci si mette nel mezzo, qualcosa JHH si inventerà dopo il debutto di AMD.
Attualmente la 2080s è tarata a 699$, la liscia è stata tarata a 699/799 FE. Ci sono tanti fattori a sto giro, come la doppia densità, la provenienza dal bigchip etc.
AMD oltre i 999$ penso sia difficile che possa andare.
https://multiplayer.it/notizie/nvidia-ufficiale-levento-di-presentazione-l1-settembre-si-parla-di-rtx-3000.html
Inviato dal mio RNE-L21 utilizzando Tapatalk
stefano192
13-08-2020, 00:45
https://multiplayer.it/notizie/nvidia-ufficiale-levento-di-presentazione-l1-settembre-si-parla-di-rtx-3000.html
Inviato dal mio RNE-L21 utilizzando Tapatalk
E? Cioè non dice nulla di nuovo sta news, oltre al fatto che il titolo è imbarazzante visto che"si parla di RTX 3000?" Eh veda un po' lei :sofico: È da settimane/mesi che si parla di settembre come periodo di presentazione delle nuove schede, poi più palese del sito non so cosa ci sia :sofico:
no
non partono proprio i giochi
esce "il gioco necessita di un accelleratore grafico" diciamo almeno una voodoo 1, una riva 128, TNT2.....
Al di là del cazzeggio concordo almeno su una cosa..... le build andrebbero equilibrate un minimo, con un 3600 a pochi spicci lo fai rivivere e dai maggior senso a 800€ di gpu.....
un pc da gioco è meglio sbilanciarlo lato gpu che cpu ma se stiamo parlando di fullhd 60Hz la cpu conta si e no......non ha senso un molto senso un 1600 con una 3080ti ma non ha senso nemmeno un 10900k con una 750Ti......
ps. forse qualcuno non lo sa ma si possono occare e ottimizzare per gaming anche i ryzen!!11!!!!!!!!111!
maestro :ave:
peggio ancora se parliamo di 4k va bene anche un 486dx.
Il futuro è in mano alle gpu che saranno sempre piu potenti ritagliando per la cpu ruoli sempre piu da non protagonista.
Bhè,fino ad un certo punto :p
Convinto che un vecchio I7 920 fosse idoneo con 1080Ti in 4K ma la perdita di fps rispetto ad un 9700K era imbarazzante :D
A parte questo,anche a me sembra strano che a due settimane dalla presentazione della nuova Ampere non ci siano foto del Pcb...
si spy il 486dx era un battuta geriatrica :p
si spy il 486dx era un battuta geriatrica :p
Sisi avevo capito :D
redbaron
13-08-2020, 08:31
https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-card-rtx-3080-ti-rtx-3080-launching-in-24-gb-20-gb-10-gb-variants/
Un riassunto ma non ci sono news....
Giovamas
13-08-2020, 08:47
si spy il 486dx era un battuta geriatrica :p
io avevo il dx2 :sofico:
qui un po' di rumor sulle memorie
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-ga102-series-rumored-to-launch-in-24gb-20gb-and-10gb-variants
io avevo il dx2 :sofico:
qui un po' di rumor sulle memorie
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-ga102-series-rumored-to-launch-in-24gb-20gb-and-10gb-variants
mostro! beato te potevi giocare a woodruff
io avevo un 80286 con vga 256 senza sound card, potevo giocare solo a the secret of monkey o lechuck revenge ma l audio era simile all autocompattatore dei rifiuti :D
per il reparto geriatria segua il corridoio sempre dritto :sofico:
OrazioOC
13-08-2020, 09:53
https://videocardz.com/newz/nvidia-geforce-rtx-30-ga102-series-pcb-to-feature-over-20-chokes
le induttanze sono abc di un pcb serio.
Loro hanno richieste energetiche superiori a partire da turing.
Delusione per chi diceva che a partire da pascal il futuro era low power.
Maxwell non assorbe chissachè la mia ha tensioni da pascal sotto 1,10 mv @1430 quindi molto spinta rispetto allo stock.
Con le vga è inevitabile l assorbimento su alte prestazioni.
Tra l altro piu fasi gestiscono piu corrente con minore tensioni perche piu pulita rispetto a poche fasi costrette a fare il lavoro di molte.
:asd: :asd:
Con pascal prendi 2100 a 1.093, giusto 700 mhz di differenza...sarà binnata la tua, ma è pur sempre su 28nm anche se è la king cambia poco, prenderai 50-70 mhz (a parità di voltaggio) in più rispetto ad una normale 980ti no bin.
Prezzate in base all'asic dallo store Evga, detto tutto.
Comunque 1.10 1430 è ottimo lo stesso per la 980ti.
Infatti è sempre un batusto 28nm (fine serie e straottimizzato dopo l'era eterna dei 28nm ma sempre 28 sono)... La mia per 1430mhz vuole minimo 1.12v ma non è cambi molto...
Francamente preferisco tenerla a tensione stock e quando necessario abilitare il profilo OC con la combo di tasti di MSI AB a 1500mhz, ma sono solo una manciata di frame ad essere oggettivi, è una scheda da FHD, massimo 1440p su qualche titolo più vecchio o poco esoso di risorse.
Infatti con ampere dovrà vedersela con le 3050/3050ti schedine nell'intorno dei 75-100w e probabilmente con tanto di RT :fagiano:
:asd: :asd:
Con pascal prendi 2100 a 1.093, giusto 700 mhz di differenza...sarà binnata la tua, ma è pur sempre su 28nm anche se è la king cambia poco, prenderai 70-100 mhz (a parità di voltaggio) in più rispetto ad una normale 980ti no bin.
Prezzate in base all'asic dallo store Evga, detto tutto.
Comunque 1.10 1430 è ottimo lo stesso per la 980ti.
eh ma il paragone non va fatto con con le 16 bensi con le 28.
Per un gm200 non è normale lavorare @1.09 a +300 dal valore stock.
Però fa capire che a parità di pp un pcb con piu fasi non ha bisogno pi pompare volt come un pazzo.
è chiaro che pascal allo stesso valore di tensione prende +500 sul core.delfino curioso :p
eh ma il paragone non va fatto con con le 16 bensi con le 28.
Per un gm200 non è normale lavorare @1.09 a +300 dal valore stock.
Però fa capire che a parità di pp un pcb con piu fasi non ha bisogno pi pompare volt come un pazzo.
è chiaro che pascal allo stesso valore di tensione prende +500 sul core.delfino curioso :p
Dipende in primis dal silicio, ogni chip è a se, e mikael può confermare quanto sia stato sfigato il suo GM200 e non c'erano fasi o liquido a salvarlo :fagiano:
La mia pure non è che sia tutto questo chè ci sono molte G1 o anche WINDFORCE base, meno pompate lato fasi e che salgono di più e con meno tensione...
Poi dipende, ci sono chip che si undervoltano bene ma si overcloccano male e viceversa... Non a caso sopratutto sui notebook viene fatta un accurata selezione sui chip che meglio lavorano a basse tensioni.
mikael84
13-08-2020, 11:18
https://videocardz.com/newz/nvidia-geforce-rtx-30-ga102-series-pcb-to-feature-over-20-chokes
Si, però fatelo vedere questo PCB, che voglio vedere il connettore e le gddr6x a 21gb/s (magari micron).:sofico:
E qui casca l'asino, 20 choke non le mettono tanto per, avranno una sezione vrm, mostruosa già da reference, ste schede consumeranno veramente tanto, le voci erano vere a questo punto.
Mi chiedo con un pcb corto, tutto quell'affollamento produrrà un calore immenso, può quel dissipatore essere all'altezza? chissà...
Per averla in costante TT limit a 85 gradi meglio non avercela.
17+3 ram a neppure 20watt a fase.
Ormai le custom, giusto per la dissipazione valgono qualcosa.
Io ancora non ho capito cosa siano queste GDDR6X non leggo nulla a riguardo.
Di solito la X fa intendere un chip di memoria rivisto e con piedinatura diversa, ma da quello che vedo esistono sono le GDDR6 a oggi...
Personalmente credo che al massimo avremo 16gbps sui chip meno pregiati e 18gbps sugli altri...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
mikael84
13-08-2020, 11:39
eh ma il paragone non va fatto con con le 16 bensi con le 28.
Per un gm200 non è normale lavorare @1.09 a +300 dal valore stock.
Però fa capire che a parità di pp un pcb con piu fasi non ha bisogno pi pompare volt come un pazzo.
è chiaro che pascal allo stesso valore di tensione prende +500 sul core.delfino curioso :p
Pascal ha sforato i 2200 a quella tensione con un bios, ma non è la norma.:)
Diciamo che la 1080ti rispetto alle review, aumenta di molto le prestazioni con un buon OC, visto che nelle review ha medie di 1650mhz.
E' un chip da 300watt base, non 250.
Guarda qui, clicca.
https://i.postimg.cc/sQGsDjbV/1080ti.png (https://postimg.cc/sQGsDjbV)
Io ancora non ho capito cosa siano queste GDDR6X non leggo nulla a riguardo.
Di solito la X fa intendere un chip di memoria rivisto e con piedinatura diversa, ma da quello che vedo esistono sono le GDDR6 a oggi...
Personalmente credo che al massimo avremo 16gbps sui chip meno pregiati e 18gbps sugli altri...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Infatti non esistono queste memorie, attualmente ci sono solo le 16 gb/s, sia di samsung che di Micron. La rambus ha le 18, ma non risulta a contratto. Anche hynix è fuori dai giochi.
Con le 2080/s e varie 2070 super, hanno usato solo le samsung HC-16, per giunta downclockate, in quanto micron le ha aggiornate solo un mesetto fa.
Al debutto della 1080, Micron le aveva già ufficializzate da tempo, tanto che sbandierava risultati straordinari, per poi fermarsi a 13:p e cambiare strategia con le gddr6.
Allo stesso tempo, con turing le 14 erano già ufficializzate.
Dipende in primis dal silicio, ogni chip è a se, e mikael può confermare quanto sia stato sfigato il suo GM200 e non c'erano fasi o liquido a salvarlo :fagiano:
La mia pure non è che sia tutto questo chè ci sono molte G1 o anche WINDFORCE base, meno pompate lato fasi e che salgono di più e con meno tensione...
Poi dipende, ci sono chip che si undervoltano bene ma si overcloccano male e viceversa... Non a caso sopratutto sui notebook viene fatta un accurata selezione sui chip che meglio lavorano a basse tensioni.
Purtroppo si, uno dei pochissimi chip sfortunati.:p
chiudo OT
Thunder-74
13-08-2020, 11:45
Dipende in primis dal silicio, ogni chip è a se, e mikael può confermare quanto sia stato sfigato il suo GM200 e non c'erano fasi o liquido a salvarlo :fagiano:
La mia pure non è che sia tutto questo chè ci sono molte G1 o anche WINDFORCE base, meno pompate lato fasi e che salgono di più e con meno tensione...
Poi dipende, ci sono chip che si undervoltano bene ma si overcloccano male e viceversa... Non a caso sopratutto sui notebook viene fatta un accurata selezione sui chip che meglio lavorano a basse tensioni.
Concordo.. tutta questione di Asic. Le mie 980ti strix erano delle custom ben fatte lato VRM, ma per sfondare il muro dei 1500mhz, ho dovuto mondare il bios e dare 1,267v. Altrimenti con voltaggio a 1,22v stavano sui 1450/1480. Il tutto a liquido.. del resto asic da 69 ...
Inviato dal mio iPad utilizzando Tapatalk
Dipende in primis dal silicio, ogni chip è a se, e mikael può confermare quanto sia stato sfigato il suo GM200 e non c'erano fasi o liquido a salvarlo :fagiano:
La mia pure non è che sia tutto questo chè ci sono molte G1 o anche WINDFORCE base, meno pompate lato fasi e che salgono di più e con meno tensione...
Poi dipende, ci sono chip che si undervoltano bene ma si overcloccano male e viceversa... Non a caso sopratutto sui notebook viene fatta un accurata selezione sui chip che meglio lavorano a basse tensioni.
si ubro ma se al piu sfigato dei chip gm200 dai corrente ben filtrata andra meglio e scaldera meno dello stesso montato su reference -ai tempi-
In generale ci puo stare nel dettaglio ma non usano tutti gli stessi choke capacitor etc.
Da qui ne cale il prezzo e le specifiche.
Es. le fasi delle king sono testate fino @45A 110°le altre no.
mikael84
13-08-2020, 14:53
Maxwell ha fatto la gioia delle custom, Pascal andava chiuso a 300w (50w x 6 gpc).
Senza considerare che GP102, è in parte tirato alla vega, con 1,2mtransistor in più.
Cmq, piccolo OT, che alla fine riguarda un'aspetto comparativo.
Intel pare che finalmente lanci i suoi chip per gaming in MCM l'anno prox.
Chip full HPC (16k shader)
https://i.postimg.cc/xXL2s1Vb/intel-hpc-2.png (https://postimg.cc/xXL2s1Vb)
Chip che penso sia adattato al gaming
https://i.postimg.cc/6T41V1X8/intel-hpc.png (https://postimg.cc/6T41V1X8)
Ogni raster avrà 1024 shader. Ovviamente in gddr6 no HBM in gaming.
1 Tiled 4 raster.
1 Tiled teoricamente potrebbe performare quando una 3070.
Rsterizzazione avanzata da 32 pixel
Insomma pare che Ampere sia di passaggio, dopo Intel lo standard MCM, dovrebbe riguardare tutte e 3 le case.
maxmix65
13-08-2020, 20:20
Concordo.. tutta questione di Asic. Le mie 980ti strix erano delle custom ben fatte lato VRM, ma per sfondare il muro dei 1500mhz, ho dovuto mondare il bios e dare 1,267v. Altrimenti con voltaggio a 1,22v stavano sui 1450/1480. Il tutto a liquido.. del resto asic da 69 ...
Inviato dal mio iPad utilizzando Tapatalk
Qua sul forum ci stava solo un altro che con la Palit andava a 1650-1660 se non ricordo male la mia faceva 1620mhz se non erro
Anche adesso ho ripreso Palit per tamponare l'arrivo delle 3000 e va alla grande 2160mhz ad aria in benchmark pesante
mikael84
13-08-2020, 20:29
Qua sul forum ci stava solo un altro che con la Palit andava a 1650-1660 se non ricordo male la mia faceva 1620mhz se non erro
Anche adesso ho ripreso Palit per tamponare l'arrivo delle 3000 e va alla grande 2160mhz ad aria in benchmark pesante
Edoram. Il migliore overclocker del forum a liquido. Non cito Rsannino perché estremo.
TigerTank
13-08-2020, 21:19
E qui casca l'asino, 20 choke non le mettono tanto per, avranno una sezione vrm, mostruosa già da reference, ste schede consumeranno veramente tanto, le voci erano vere a questo punto.
Mi chiedo con un pcb corto, tutto quell'affollamento produrrà un calore immenso, può quel dissipatore essere all'altezza? chissà...
Per averla in costante TT limit a 85 gradi meglio non avercela.
In tal caso da valutare le custom, che molto probabilmente useranno le solite sezioni di alimentazione già maggiorate di loro :)
Leopardo da Vinci
13-08-2020, 21:23
ma ha senso acquistare big navi quando il dlss di nvidia funziona cosi bene?
Thunder-74
13-08-2020, 21:29
Qua sul forum ci stava solo un altro che con la Palit andava a 1650-1660 se non ricordo male la mia faceva 1620mhz se non erro
Anche adesso ho ripreso Palit per tamponare l'arrivo delle 3000 e va alla grande 2160mhz ad aria in benchmark pesante
Se vuoi testare davvero la stabilità delle RTX, l unico modo è usare un titolo Ray tracing . Nello specifico uno su tutti ad oggi, control ;)
Inviato dal mio iPad utilizzando Tapatalk
ma ha senso acquistare big navi quando il dlss di nvidia funziona cosi bene?
La seconda versione del DLSS fa miracoli, ma ad oggi è usata pochissimo a causa dell'immenso lavoro da fare.
La prima fa abbastanza pietà, al pari di quello AMD, con compromessi grafici evidenti.
Thunder-74
14-08-2020, 08:14
Presunto pcb 3090...
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-PCB.jpg
Una foto della prossima scheda grafica Ampere è stata pubblicata sui social media. La scheda grafica sembra avere 11 moduli di memoria (probabilmente GDDR6X) attorno alla GPU. Vale anche la pena notare quanto sia stretta la memoria. Questo è forse il motivo per cui alcuni leaker hanno definito il design compatto e complesso.
Questo modello è molto probabilmente un design personalizzato con un dissipatore di calore molto più grande che si estende sulla scheda. Questa scheda grafica sembra essere dotata di tre connettori di alimentazione a 8 pin, il che suggerisce che stiamo guardando un marchio personalizzato di fascia alta, come MSI Lightning, AORUS Xtreme, Colorful Vulcan.
Il nome del modello - GeForce RTX 3090 - non è stato ancora confermato, ma è stato ipotizzato molto prima. Questo modello dovrebbe presentare una GPU GA102-300 con 5248 core CUDA. La scheda utilizza l'interfaccia PCI-Express 4.0 e la più recente tecnologia di memoria GDDR6X.
La serie NVIDIA GeForce RTX 30 sarà annunciata il 1 settembre durante un evento speciale ospitato dal CEO dell'azienda Jensen Huang.
https://videocardz.com/newz/alleged-nvidia-geforce-rtx-3090-pcb-pictured
Inviato dal mio iPhone X utilizzando Tapatalk
Maxwell ha fatto la gioia delle custom, Pascal andava chiuso a 300w (50w x 6 gpc).
Senza considerare che GP102, è in parte tirato alla vega, con 1,2mtransistor in più.
cut
Ogni raster avrà 1024 shader. Ovviamente in gddr6 no HBM in gaming.
1 Tiled 4 raster.
1 Tiled teoricamente potrebbe performare quando una 3070.
Rsterizzazione avanzata da 32 pixel
Insomma pare che Ampere sia di passaggio, dopo Intel lo standard MCM, dovrebbe riguardare tutte e 3 le case.
e fu cosi che la king mi duro 7 anni.
Potrebbero fare un film sette anni in copper :D
redbaron
14-08-2020, 09:10
Forse si capisce la sigla delle ram?
https://i.postimg.cc/FK4nbXRR/C9-B108-B0-F78-C-4797-BC2-B-8340129-E3-CB9.jpg
Thunder-74
14-08-2020, 09:23
Non è il presunto, probabilmente al 99% è un pcb reale di qualche custom..
Ora mancano solo i Die, GA102 dovrebbe stare sopra i 600mm2.
Si l ho riportato, possibile custom...
Inviato dal mio iPad utilizzando Tapatalk
maxmix65
14-08-2020, 09:33
Forse si capisce la sigla delle ram?
https://i.postimg.cc/FK4nbXRR/C9-B108-B0-F78-C-4797-BC2-B-8340129-E3-CB9.jpg
Micron di sicuro
Thunder-74
14-08-2020, 09:47
Micron di sicuro
Si il logo è quello...
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
14-08-2020, 09:56
Presunto pcb 3090...
Una foto della prossima scheda grafica Ampere è stata pubblicata sui social media. La scheda grafica sembra avere 11 moduli di memoria (probabilmente GDDR6X) attorno alla GPU. Vale anche la pena notare quanto sia stretta la memoria. Questo è forse il motivo per cui alcuni leaker hanno definito il design compatto e complesso.
Questo modello è molto probabilmente un design personalizzato con un dissipatore di calore molto più grande che si estende sulla scheda. Questa scheda grafica sembra essere dotata di tre connettori di alimentazione a 8 pin, il che suggerisce che stiamo guardando un marchio personalizzato di fascia alta, come MSI Lightning, AORUS Xtreme, Colorful Vulcan.
Il nome del modello - GeForce RTX 3090 - non è stato ancora confermato, ma è stato ipotizzato molto prima. Questo modello dovrebbe presentare una GPU GA102-300 con 5248 core CUDA. La scheda utilizza l'interfaccia PCI-Express 4.0 e la più recente tecnologia di memoria GDDR6X.
La serie NVIDIA GeForce RTX 30 sarà annunciata il 1 settembre durante un evento speciale ospitato dal CEO dell'azienda Jensen Huang.
https://videocardz.com/newz/alleged-nvidia-geforce-rtx-3090-pcb-pictured
Inviato dal mio iPhone X utilizzando Tapatalk
se nel retro ne ha 11 vuol dire che davanti ne avra altrettanti e quindi 22GB; mmmm vuol dire che allora 24GB li terranno per la Titan.
384 bit Titan 24GB
352 bit 3090 22GB
352 bit 3080Ti 11GB
320 bit 3080 10Gb
oppure
320 bit 3080Ti 20GB
320 bit 3080 10GB
bha, vedremo un po come faranno.
amon.akira
14-08-2020, 11:07
ma quello sul retro cos'è, coprocessore?
sembra appoggiato :asd:
ma quello sul retro cos'è, coprocessore?
sembra appoggiato :asd:
Si, un innovativo coprocessore intel! Le CPU hanno la gpu integrata e ora le GPU hanno a loro volta una cpu integrata! :asd:
Ovviamente l’hanno messo li per coprire il retro del chip...sono sotto nda comunque.
Inviato dal mio iPad utilizzando Tapatalk
amon.akira
14-08-2020, 11:13
Si, un innovativo coprocessore intel! Le CPU hanno la gpu integrata e ora le GPU hanno a loro volta una cpu integrata! :asd:
Ovviamente serve per coprire il retro del chip...sono sotto nda comunque.
Inviato dal mio iPad utilizzando Tapatalk
:ciapet:
mattxx88
14-08-2020, 11:18
ma quello sul retro cos'è, coprocessore?
sembra appoggiato :asd:
è palesemente una cpu intel, secondo me la hanno appoggiata per nascondere il chip grafico
Andy1111
14-08-2020, 11:26
se nel retro ne ha 11 vuol dire che davanti ne avra altrettanti e quindi 22GB; mmmm vuol dire che allora 24GB li terranno per la Titan.
384 bit Titan 24GB
352 bit 3090 22GB
352 bit 3080Ti 11GB
320 bit 3080 10Gb
oppure
320 bit 3080Ti 20GB
320 bit 3080 10GB
bha, vedremo un po come faranno.
oppure declassano la 3080 TI e ti creano un altra fascia 3090 a 1399/1499$
Thunder-74
14-08-2020, 11:27
Aggiornamento: secondo la fonte corretta che è Yuki Anjou-YuuKi_AnS (BiliBili) , il PCB fa parte della scheda grafica GeForce RTX 3090. Alcuni nuovi dettagli suggeriscono che uno dei die di memoria è stato offuscato, il che indica un layout di memoria GDDR6X da 24 GB con 12 chip DRAM sulla parte anteriore e 12 sul retro.
C'è anche un chip secondario che sembra essere presente proprio sotto la GPU stessa. Il leaker ha posizionato una CPU Intel sopra il chip in modo che non venga esposto, ma sembra che NVIDIA possa offrire un chip secondario che non fa parte del die della GPU stesso che può gestire una serie di carichi di lavoro specifici che sono ancora da dettagliare
presunta immagine della scheda grafica da gioco ZOTAC GeForce RTX 3080 Ampere trapelata su Reddit:
https://cdn.wccftech.com/wp-content/uploads/2020/08/ZOTAC-GeForce-RTX-3080-Graphics-Card-1030x725.png
FONTE (https://wccftech.com/nvidia-geforce-rtx-3090-ampere-gaming-graphics-card-pcb-pictured/)
amon.akira
14-08-2020, 11:33
A
[B]C'è anche un chip secondario che sembra essere presente proprio sotto la GPU stessa. Il leaker ha posizionato una CPU Intel sopra il chip in modo che non venga esposto, ma sembra che NVIDIA possa offrire un chip secondario che non fa parte del die della GPU stesso che può gestire una serie di carichi di lavoro specifici che sono ancora da dettagliare
potrebbe essere
e fu cosi che la king mi duro 7 anni.
Potrebbero fare un film sette anni in copper :D
un record! :D
Aggiornamento: secondo la fonte corretta che è Yuki Anjou-YuuKi_AnS (BiliBili) , il PCB fa parte della scheda grafica GeForce RTX 3090. Alcuni nuovi dettagli suggeriscono che uno dei die di memoria è stato offuscato, il che indica un layout di memoria GDDR6X da 24 GB con 12 chip DRAM sulla parte anteriore e 12 sul retro.
C'è anche un chip secondario che sembra essere presente proprio sotto la GPU stessa. Il leaker ha posizionato una CPU Intel sopra il chip in modo che non venga esposto, ma sembra che NVIDIA possa offrire un chip secondario che non fa parte del die della GPU stesso che può gestire una serie di carichi di lavoro specifici che sono ancora da dettagliare
presunta immagine della scheda grafica da gioco ZOTAC GeForce RTX 3080 Ampere trapelata su Reddit:
https://cdn.wccftech.com/wp-content/uploads/2020/08/ZOTAC-GeForce-RTX-3080-Graphics-Card-1030x725.png
FONTE (https://wccftech.com/nvidia-geforce-rtx-3090-ampere-gaming-graphics-card-pcb-pictured/)
Ok ora le cose tornano. Una 3090/3080ti con 11 chip di ram portava a speculazioni poco incoraggianti visto la declinazione del bus.
Interessante anche il famoso coprocessore. Mi preoccupa tanto il prezzo a questo punto....1499 non sono tanto lontani. Ma è follia....
Inviato dal mio iPad utilizzando Tapatalk
amon.akira
14-08-2020, 11:37
quindi se esiste la 6x, saranno veri i 21gbps?
Thunder-74
14-08-2020, 11:40
NVlink differente..
https://www.techpowerup.com/img/1BABNI9kaRHA3D6e.jpg
Ma la questione Pci-ex 4.0 come la si affronta con le attuali mobo?:D
Thunder-74
14-08-2020, 12:04
Ma la questione Pci-ex 4.0 come la si affronta con le attuali mobo?:D
la tua domanda ad oggi ha una sola risposta... ma non credo che sarà così fondamentale.
mikael84
14-08-2020, 12:12
Presunto pcb 3090...
Inviato dal mio iPhone X utilizzando Tapatalk
Ma le memorie a conchiglia a singola densità? Che senso hanno sulle ddr6...mah
Non è il presunto, probabilmente al 99% è un pcb reale di qualche custom..
Ora mancano solo i Die, GA102 dovrebbe stare sopra i 600mm2.
Si dice 627, circa 880mm2 turing.
Forse si capisce la sigla delle ram?
Micron di sicuro
Si Micron, sarebbe bello riuscire a leggere la sigla.
potrebbe essere
C'era una voce iniziale, e ne avevo parlato qua.
Un piccolo coprocessore, sviluppato l'anno scorso da nvidia su base a 16nm, ora l'avranno scalato.
Offre praticamente il valore tensor di 2 2080ti o del chip a doppio tensor Volta V100.
l'avevo analizzato qui
https://www.hwupgrade.it/forum/showpost.php?p=46841783&postcount=47669
Ma la questione Pci-ex 4.0 come la si affronta con le attuali mobo?:D
Come le AMD 5700 sui chip a 3.0 :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.