View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
FrancoBit
23-06-2022, 14:25
Not technically "uncle" but still related: NVIDIA's Jensen Huang
Technically, it is safe to say that Lisa Su's own grandfather is actually Jen-Hsun Huang's uncle. Although they aren't really niece and uncles, they are very close relatives. Jen-Hsun Huang (otherwise known as Jensen) owns a degree in electrical engineering and was a co-founder of NVIDIA back in 1993 during his 30th birthday. He still remains both the CEO and President up until today.
https://www.techtimes.com/articles/253736/20201030/fact-check-nvidia-ceo-uncle-amds-dr-lisa-su.htm
Non che bisogni essere parenti per fare cartello eh ;)
Secondo me se tiri con decisione i capelli di Lisa c'è sotto Jen-Hsun invece :read:
Secondo me se tiri con decisione i capelli di Lisa c'è sotto Jen-Hsun invece :read:
Tipo Mrs Doubtfire :fagiano:
Secondo me se tiri con decisione i capelli di Lisa c'è sotto Jen-Hsun invece :read:
LMAO
guarda, il capellone ha appena fatto sta settimana un esaustivo video sul tubo che ti raccomando vivamente di guardare (anzi raccomando a tutti)
....
già sulle 3000 i transient sono roba allucinante tipo 660w per la 3090 figurati le 4000 dove ipotizza roba poco sotto il kw (!!)
se già hai in mente la 4080, vai direttamente di 1000w
Grazie! si ogni tanto il capellone yankee lo incrocio. Giá ieri avevo deciso per il 1000w :D, quindi tanto meglio.
mikael84
23-06-2022, 15:02
Io per il momento mi limito a dire che finchè ci sto dentro a livello di giochi che devo giocare, la 3080 attuale andrà benone...anche perchè compie un anno a luglio :asd: per cui mi sa che andrò di nuovo con calma finchè troverò l'occasione giusta come fatto con l'attuale.
Tenete anche in considerazione che fiondarsi sulle prime schede in uscita può essere un piccolo salto nel buio, perchè con le 2000 e 3000 abbiamo visto qualche magagna di troppo, dalle schede fallate alle questioni chip e anche qualche revisione postuma di pcb e componentistica. In pratica...aspettiamo l'arrosto anche se già il fumo fosse delizioso :D
Dai Tiger prendi la 4090 al d1, così troviamo una sistemazione alla tua 3080:read: , visto come ha massacrato la 4060..scusa volevo dire 4070.
il problema della 4080ti sarà che uscirà molto dopo, altrimenti potrebbe essere veramente lei l acquisto da fare, che sarà un cut di ad102 secondo me non ci sono dubbi, altrimenti il buco tra 4080 e 4090 è troppo ampio.
quindi 4080 o 4090 :P
Si probabilmente la 4080ti è quasi certa su AD102, dico quasi perchè AD103 è cuttato e con le g6lisce, in futuro le schede verranno rebrandate con le nuove g6x da 24gb/s, quindi l'ipotesi simil 3070/3070ti non è da scartare a priori.:p
Ormai mi aspetto di tutto.
Si ma il 25% era per dire eh... Non ci penso manco ad upgradare a quelle percentuali adesso che sto con una ampere.
Almeno deve fare un 40% in più sennò non vale la pena rispetto alla spesa.
La 4080 a pari microarchitettura Ampere (questo è da specificare ancora) se dovesse toccare valori di 2,8, avrebbe valori di clock oltre il 40% la 3080ti, visto che ne condivide i cc.
Per chi viene da GA102 x80 sarà sicuramente valido, da verificare la microarchitettura ed il rapporto bus/cache:)
A volte ho il sospetto che siano la stessa persona :mbe:
Su di loro se ne dicono tante, chi dice che siano mezzo parenti, chi smentisce categoricamente, in ogni caso se la suonano e se la cantano come vogliono da qualche anno.:)
Ale55andr0
23-06-2022, 15:05
Not technically "uncle" but still related: NVIDIA's Jensen Huang
Technically, it is safe to say that Lisa Su's own grandfather is actually Jen-Hsun Huang's uncle. Although they aren't really niece and uncles, they are very close relatives. Jen-Hsun Huang (otherwise known as Jensen) owns a degree in electrical engineering and was a co-founder of NVIDIA back in 1993 during his 30th birthday. He still remains both the CEO and President up until today.
https://www.techtimes.com/articles/253736/20201030/fact-check-nvidia-ceo-uncle-amds-dr-lisa-su.htm
Non che bisogni essere parenti per fare cartello eh ;)
continuo a dubitare....
Vabbè che questo ogni tot giorni trova delle specifiche diverse, però il chippetto da 300mm2, devastato di bus è pazzesco.:p
Cmq, la 4080 in quel caso, non avrà delle TI in quel chip.
In proporzione è la 3070 di Ampere:
84/46 SM= 80%
144/80 SM= 80%
Si soprattutto in 4k sarà più muscle, inoltre ormai anche Lisa vaneggia e gli abbasserà pure il pci e.
La 6900 può prenderla, considera che l'EUV sta già lavorando a 2900, e l'architettura sarà semplificata e più efficiente.
Sulla 4070 da 10gb, JHH si sta superando. Si è lasciato pure due slot per la 4070ti.
Ora voglio vedere che combina con le x60.:p
JHH riesce sempre a stupirci, già l'ha tagliata come x60, poi non basta mi stronchi anche il bus. Spero che più di 499$ non lo venda sto aborto.
Per carità, per chi guarda solo le prestazioni è ok, ma se la guardiamo anche sul piano tecnico fa rabbrividire.
Cmq riguardo la 4080 così tagliata, risulta la 3070 di ampere
84/46 SM= 80%
144/80 SM= 80%
Se vogliamo trovarci qualcosa di positivo, è appunto che la 4080ti sarà per forza di cose tagliata su AD102, ma ci vorrà del tempo al debutto.
Io te l'ho detto di andare di 3080 e sei a posto saltando la 4000 😂
mikael84
23-06-2022, 15:15
Io te l'ho detto di andare di 3080 e sei a posto saltando la 4000 😂
Sempre in tempo per farlo, tanto in molti se ne sbarazzano a breve:D
Cmq vediamo i prezzi della 4080, se non impazzisce, magari prendo quella, o vado da Lisa, vediamo. Le proposte ci sono alla fine.:)
Sempre in tempo per farlo, tanto in molti se ne sbarazzano a breve:D
Cmq vediamo i prezzi della 4080, se non impazzisce, magari prendo quella, o vado da Lisa, vediamo. Le proposte ci sono alla fine.:)
Gioco online con due persone che hanno Radeon, uno dei due e' anche in grado di usarlo il pc, ho perso il conto delle volte che hanno Direct X Error o crash del driver GPU, sara' un caso per carita', ma fra la mia esperienza con rx 580 e simili su muletto quel che leggo online e quel che vedo... Non sono ancora capaci a fare driver e software a corredo funzionante in maniera consistente (perche' qualche versione la indovinano).
Tieni d'occhio i eventuali drop Nvidia se ti interessa, l'alltro ieri una 3080 FE andava via a 760€
Ma le custom costano ancora parecchio mi sembra...vorrei una asus per le 5 uscite (con due hdmi 2.1).
Io sono ancora con la 1080ti e devo cambiare, ma ormai aspetto le specifiche ufficiali...nella speranza che le 3000 a quel punto scendano ulteriormente.
Per come la vedo io, ste 3080 devono scendere di 100/200 euro dal msrp per aver senso, in estate a fine serie, con la ram di topolino, a quel punto mi pesa meno prendere una 3070 anche se per come la vedo io e' poco piu' di un sidegrade rispetto alla 1080ti, se non altro si svalutera' meno.
Tutte ste camionate di VGA minate poi dovranno arrivare sul second hand market in qualche modo, il crollo vero prezzi deve ancora arrivare, non facciamoci inchiappettare.
Messaggio valido per autoconvincimento.
Gioco online con due persone che hanno Radeon, uno dei due e' anche in grado di usarlo il pc, ho perso il conto delle volte che hanno Direct X Error o crash del driver GPU, sara' un caso per carita', ma fra la mia esperienza con rx 580 e simili su muletto quel che leggo online e quel che vedo... Non sono ancora capaci a fare driver e software a corredo funzionante in maniera consistente (perche' qualche versione la indovinano).
Quand'ero ragazzino le prendevo anche le Radeon...la tenera etá a volte porta a fare queste sciocchezze.
Almeno questi errori ora non li commetto piú :D
OvErClOck82
23-06-2022, 15:39
jesus, siamo seriamente di nuovo al "amd non sa fare i driver" ? nel 2022 ? :asd:
Cutter90
23-06-2022, 15:43
jesus, siamo seriamente di nuovo al "amd non sa fare i driver" ? nel 2022 ? :asd:
Se non li saprà fare anche nel 2080 il discorso tornerà fuori anche in quell'anno :D
jesus, siamo seriamente di nuovo al "amd non sa fare i driver" ? nel 2022 ? :asd:
Pensa te, rimaniamo fiduciosi per la prossima decade cmq.
OvErClOck82
23-06-2022, 15:56
no, è che fondamentalmente son cagate che resistono da anni (quando effettivamente facevano schifo), ma siamo su un forum di tecnologia, teoricamente...
no, è che fondamentalmente son cagate che resistono da anni (quando effettivamente facevano schifo), ma siamo su un forum di tecnologia, teoricamente...
Primo articolo trovato del 2022: https://www.tomshardware.com/news/amd-confirms-its-gpu-drivers-are-overclocking-cpus-without-asking
Cmq torniamo IT dai, inutile inferire :)
ninja750
23-06-2022, 16:07
jesus, siamo seriamente di nuovo al "amd non sa fare i driver" ? nel 2022 ? :asd:
e scaldano pure
Quoto, infatti secondo me la scelta migliore è aspettare la 4080ti.
Non necessariamente, la 4080 FE se prezzata bene al day1 potrebbe durare un paio d'anni.
Nell'attesa potrebbe ritornare in auge il mining e addio msrp.
mikael84
23-06-2022, 16:13
Gioco online con due persone che hanno Radeon, uno dei due e' anche in grado di usarlo il pc, ho perso il conto delle volte che hanno Direct X Error o crash del driver GPU, sara' un caso per carita', ma fra la mia esperienza con rx 580 e simili su muletto quel che leggo online e quel che vedo... Non sono ancora capaci a fare driver e software a corredo funzionante in maniera consistente (perche' qualche versione la indovinano).
Infatti possibilmente la prenderei su amazon e la testerei per bene. Le ultime radeon avute erano le 290, per poco però. avevano alcune incompatibilità con la p67. Dopo sono rimasto perenne con nvidia. Non ho più provato di persona una radeon. Con g-sync poi, pace dei sensi completa.:)
Di AMD ora ho solo la CPU, certo ci sono voluti un bel pò di bios, ma vabbè. :p
Per come la vedo io, ste 3080 devono scendere di 100/200 euro dal msrp per aver senso, in estate a fine serie, con la ram di topolino, a quel punto mi pesa meno prendere una 3070 anche se per come la vedo io e' poco piu' di un sidegrade rispetto alla 1080ti, se non altro si svalutera' meno.
Tutte ste camionate di VGA minate poi dovranno arrivare sul second hand market in qualche modo, il crollo vero prezzi deve ancora arrivare, non facciamoci inchiappettare.
Messaggio valido per autoconvincimento.
Ci penseranno le nuove a ridimensionarle, anche se smembrate.
2/3 settimane prima del debutto, ci sarà l'annuncio di JHH e relativi prezzi, immagina come finirà per le ampere, soprattutto quelle di fascia altissima.
Una 4080 liscia demolirà le 3090.
ninja750
23-06-2022, 16:27
Ci penseranno le nuove a ridimensionarle, anche se smembrate.
2/3 settimane prima del debutto, ci sarà l'annuncio di JHH e relativi prezzi, immagina come finirà per le ampere, soprattutto quelle di fascia altissima.
Una 4080 liscia demolirà le 3090.
alla presentazione di ampere 699$ la gente è corsa a vendere le 2080ti a 500€, il resto è storia eh
mi auguro che questa discesa delle crypto contribuirà a non ripetere quella roba
alla presentazione di ampere 699$ la gente è corsa a vendere le 2080ti a 500€, il resto è storia eh
mi auguro che questa discesa delle crypto contribuirà a non ripetere quella roba
Si ma c'è da dire che eravamo agli esordi della pandemia con relativo lockdown, esplosione delle crypto, gente che lavorava da casa e non aveva spese extra quali ristoranti, auto o e hobby vari...
Senza contare gli aggiornamenti compulsivi di pc, notebook, tablet... considerando che in tanti si sono resi conto di avere cagotti preistorici che non reggevano neanche una riunione XD
Per l'hardware è stato un periodo nero in termini di richiesta.
Ora bisogna vedere, siamo di fronte a un crollo delle crypto, rincari dell'energia e relativi rincari di beni di prima necessità, dubito fortemente che la domanda sia come ai tempi pandemici...
Anzi ho la sensazione che ci ritroveremo immersi di GPU soprattutto nell'usato, sia da parte di un'utenza che si era fatta il PC e che ora per inutilizzo e causa svalutazione rivende tutto e sia da parte dell'utenza crypto casalinga che dismette tutto XD
scorpion73
23-06-2022, 17:06
Ci penseranno le nuove a ridimensionarle, anche se smembrate.
2/3 settimane prima del debutto, ci sarà l'annuncio di JHH e relativi prezzi, immagina come finirà per le ampere, soprattutto quelle di fascia altissima.
Una 4080 liscia demolirà le 3090.
Dipende da quanto costano le nuove sai.
Se le 4090 andranno sui 2500€ dubito che di questi tempi ci sia moltissima gente con queste cifre da spendere....
E lo stesso vale per la 4080, contando che pur se sarà performante resta comunque una scheda di fascia media venduta a prezzo di fascia alta.
Quello che voglio dire è che non è detto che, con prezzi alti e consumi da cannuccia, tutti potranno permettersi o vorranno vendere le ampere per comprarsi le nuove... Anche perché ci sarà un delta abbastanza alto da colmare e un conto è colmare un gap a 1500€, un altro conto a 2500€...
Appena letto della 4070 a 160bit e10 giga. Pensavo seriamente che per le nuove schede 16 giga sarebbero stati il minimo ma a quanto pare la realtà spesso riserva sorprese. Puntando al 4k a sto punto bisognerebbe andare almeno di 4080, che costerà vicino ai 1000 euro e consumerà 400w.
Grazie nvidia.
Ci penseranno le nuove a ridimensionarle, anche se smembrate.
2/3 settimane prima del debutto, ci sarà l'annuncio di JHH e relativi prezzi, immagina come finirà per le ampere, soprattutto quelle di fascia altissima.
Una 4080 liscia demolirà le 3090.
"Demolire" mi sembra un po' eccessivo come termine. :D
La 4080 andrà un +30% rispetto alla 3090 considerando che quest'ultima andrà circa come la 4070: hanno sempre fatto così da quando mi ricordo nella "taratura" della line-up tra una generazione e l'altra. Poi se invece di essere un +30% diventerà un +35% non è che poi il concetto cambia più di tanto.
Con quello che è uscito quest'anno o che è previsto in uscita nel 2023, per chi ha una 3080/90 con monitor WQHD sarebbe meglio saltare questa generazione di schede. Per chi usa monitor 4K dipenderà molto dal gioco e dalla presenza di tecnologie di upscaling accessorie (che sui titoli tripla A o di richiamo comunque saranno quasi sicuramente presenti).
Sonpazzo
23-06-2022, 17:49
"Demolire" mi sembra un po' eccessivo come termine. :D
La 4080 andrà un +30% rispetto alla 3090 considerando che quest'ultima andrà circa come la 4070: hanno sempre fatto così da quando mi ricordo nella "taratura" della line-up tra una generazione e l'altra. Poi se invece di essere un +30% diventerà un +35% non è che poi il concetto cambia più di tanto.
Con quello che è uscito quest'anno o che è previsto in uscita nel 2023, per chi ha una 3080/90 con monitor WQHD sarebbe meglio saltare questa generazione di schede. Per chi usa monitor 4K dipenderà molto dal gioco e dalla presenza di tecnologie di upscaling accessorie (che sui titoli tripla A o di richiamo comunque saranno quasi sicuramente presenti).
Tra la 2080 e la 3080 non c'era un aumento di pltre il 50%?
Tra la 2080 e la 3080 non c'era un aumento di pltre il 50%?
"La RTX 3080 è risultata mediamente il 15-20% più prestante della 2080 Ti e il 30% più prestante della 2080, in entrambi i casi stiamo parlando di differenze molto grandi considerando che la 3080 viene venduta a un prezzo di lancio inferiore rispetto ad entrambe le altre due schede video". (cit.)
Sonpazzo
23-06-2022, 17:53
Thx
Puntando al 4k a sto punto bisognerebbe andare almeno di 4080, che costerà vicino ai 1000 euro e consumerà 400w.
Grazie nvidia.
La dovremo undervoltare. Almeno 16 giga li ha e il msrp dovrebbe essere 7-800.
mikael84
23-06-2022, 18:24
Dipende da quanto costano le nuove sai.
Se le 4090 andranno sui 2500€ dubito che di questi tempi ci sia moltissima gente con queste cifre da spendere....
E lo stesso vale per la 4080, contando che pur se sarà performante resta comunque una scheda di fascia media venduta a prezzo di fascia alta.
Quello che voglio dire è che non è detto che, con prezzi alti e consumi da cannuccia, tutti potranno permettersi o vorranno vendere le ampere per comprarsi le nuove... Anche perché ci sarà un delta abbastanza alto da colmare e un conto è colmare un gap a 1500€, un altro conto a 2500€...
Sinceramente per la testa, ora come ora, abbiamo come riferimento questi 2 anni bui, ma non è detto che la situazione non si sgonfi completamente.
Ora probabile che inizialmente ci sia poca disponibilità, siamo tutti sui 5nm di TSMC, però nel breve periodo non so quanto possano permettersi simili prezzi, come 2500 euro, o 4080 da 1500/1800 euro.
Non è un caso che JHH abbia scalato di una fascia le sue schede. Secondo me una 4080 di listino non differirà troppo da una 3080...
"Demolire" mi sembra un po' eccessivo come termine. :D
La 4080 andrà un +30% rispetto alla 3090 considerando che quest'ultima andrà circa come la 4070: hanno sempre fatto così da quando mi ricordo nella "taratura" della line-up tra una generazione e l'altra. Poi se invece di essere un +30% diventerà un +35% non è che poi il concetto cambia più di tanto.
Con quello che è uscito quest'anno o che è previsto in uscita nel 2023, per chi ha una 3080/90 con monitor WQHD sarebbe meglio saltare questa generazione di schede. Per chi usa monitor 4K dipenderà molto dal gioco e dalla presenza di tecnologie di upscaling accessorie (che sui titoli tripla A o di richiamo comunque saranno quasi sicuramente presenti).
Beh 30-35%, è un netto passo avanti.:) Significa non vederla proprio.
"La RTX 3080 è risultata mediamente il 15-20% più prestante della 2080 Ti e il 30% più prestante della 2080, in entrambi i casi stiamo parlando di differenze molto grandi considerando che la 3080 viene venduta a un prezzo di lancio inferiore rispetto ad entrambe le altre due schede video". (cit.)
Non so che medie hai visto, ma la 3080 al debutto, stava a +67% dalla 2080 liscia ed il 32% sopra la 2080ti, in massimo scaling.
Sulle tare dei chip, considera anche che siamo due gen, senza aumenti di clock, per via del PP.
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/relative-performance_3840-2160.png
TigerTank
23-06-2022, 18:28
Dai Tiger prendi la 4090 al d1, così troviamo una sistemazione alla tua 3080:read: , visto come ha massacrato la 4060..scusa volevo dire 4070.
:D :D :D
Sarà interessante vedere le dissipazioni.
Dai che arriviamo ai 5 slot + contrafforti di sostegno in bundle...ovviamente argb :sofico:
amon.akira
23-06-2022, 18:31
Pensa te, rimaniamo fiduciosi per la prossima decade cmq.
nn le provo dalla fury in poi ma sono rimasto abbastanza scottato in passato da maturare l idea che anche a perf maggiori e costo inferiore conviene nvidia.
che poi prima almeno offriva quello ora se la tira anche sul prezzo
mikael84
23-06-2022, 18:41
:D :D :D
Sarà interessante vedere le dissipazioni.
Dai che arriviamo ai 5 slot + contrafforti di sostegno in bundle...ovviamente argb :sofico:
Liquida tutto e via.:sofico:
Cmq, probabile siano piuttosto sparate, però saranno anche facilmente undervoltabili. Il PP è valido.:)
TigerTank
23-06-2022, 19:10
Liquida tutto e via.:sofico:
Cmq, probabile siano piuttosto sparate, però saranno anche facilmente undervoltabili. Il PP è valido.:)
Stica Mike, considerato che probabilmente pure i wubbi saranno ancora più cari(ormai è l'andazzo), per farsi una vga di fascia alta liquidata bisogna accendere un mutuo :asd:
No no...io ormai me la prendo comoda, non sono più quello che prendeva le vga al day one...o che cambiava una 780Ti per una 980 e qualche mese dopo per una 980Ti Classified.
Erano altri tempi...e altri prezzi :D
Non so che medie hai visto, ma la 3080 al debutto, stava a +67% dalla 2080 liscia ed il 32% sopra la 2080ti, in massimo scaling.
Guardavo qui dove si sono presi la briga di testare una valanga di giochi:
https://www.gpucheck.com/it-eur/compare/nvidia-geforce-rtx-2080-ti-vs-nvidia-geforce-rtx-3080/
E qui sta parecchio sotto al 67%
OPS: visto ora guardavo il grafico sbagliato. Sorry
nn le provo dalla fury in poi ma sono rimasto abbastanza scottato in passato da maturare l idea che anche a perf maggiori e costo inferiore conviene nvidia.
che poi prima almeno offriva quello ora se la tira anche sul prezzo
Vabbè le Fury erano dei colabrodi XD
Maxwell al tempo fu decisamente più bilanciato, anche se pure maxwell ha avuto i suoi NI, come la 960 sui 128bit e il ponticello ambiguo sulla 970 per avere i 3.5+0.5GB...
Però al tempo di Maxwell/Pascal le differenze tra x70 e x80 erano più risicate.
Ora la x70 è stata enormemente degradata, infatti se si confermano veritiere quelle specifiche è assurdo il vuoto tra 4070 e 4080, se fosse vero, credo che Nvidia si conserverà i full chip AD104 per il mobile, ed eventualmente tira fuori la 4070ti dagli scarti delle 4080.
Non è stata degradata, è la killer product della serie 4000
Costerà tanto, ma non ti soddisferà, così sarai costretto ad andare sulla 80 per spendere di più ma almeno esser soddisfatto.
Io non so come saranno, come tutti, e mikael avrà una ragione per bus dimezzato etc, ma una scheda così proprio no. A meno di andare con la 80, che sicuramente non costerà 700euro, e di questo ne sono stra convinto
Ale55andr0
24-06-2022, 08:14
vabè ma a quel punto si vedrà anche che butta fuori AMD...poi se è uno ha proprio l'idiosincrasia perchè ne 1998 ha avuto problemi coi driver ati etc a quel punto scelte sue. Le 4070 per come stam venendo supposte sono mexda fumante, persino più idiote delle attuali 3070
Eh insomma il degrado è importante passando a 160bit, perdi sia vram che cache.
Per un chip di punta sarebbe stato decisamente più bilanciato lasciare i 192bit, ed eventualmente fare un cut a 160bit su 4060ti che invece ne rappresenta gli scarti.
E' anche una mossa piuttosto in contro tendenza per nvidia, con la 2070 fecero l'opposto, strutturalmente era fatto per un 192bit ma lo hanno persino ampliato a 256bit rendendolo più complesso e costoso XD
Ovviamente per le prestazioni tocca attendere le review, ma non credo deluderà su quell'aspetto, però ci ritroveremo un chip che probabilmente va anche un pelo in più di 3080ti in alcuni engine ma con 10GB di vram, replicando un pò ciò che si è visto con 3070 - 8GB vs 2080ti - 11GB.
Per fare una mossa del genere credo sia dovuto soprattutto alla concorrenza, la 7700xt sarà stampata a 128bit e probabilmente non prenderà la 4070 in tutti gli scenari nonostante il cut e come dice mikael possiamo aspettarci anche qualche cut sul pci-e che non sarà x16, e sicuramente ci saranno review con Pcie x8 nei vari standard 3.0, 4.0, 5.0, tanto per spingere sulle nuove mobo e cpu...
Però è altamente probabile che AMD faccia sia le varianti lisce che con vram in clamshell.
vabè ma a quel punto si vedrà anche che butta fuori AMD...poi se è uno ha proprio l'idiosincrasia perchè ne 1998 ha avuto problemi coi driver ati etc a quel punto scelte sue. Le 4070 per come stam venendo supposte sono mexda fumante, persino più idiote delle attuali 3070
Permettimi di dire che hai le idee un po' confuse. La 3070 è la miglior scheda almeno degli ultimi 5 anni considerando prezzo/prestazioni/features
Sono leak (e più son vicini più son veritieri) e come tali vanno presi, però definire la 3070 idiota mi sembra assurdo. Non credo nvidia abbia mai fatto una scheda simile e tanto più amd (avevo amd ed ho una cpu amd)
Eh insomma il degrado è importante passando a 160bit, perdi sia vram che cache.
Per un chip di punta sarebbe stato decisamente più bilanciato lasciare i 192bit, ed eventualmente fare un cut a 160bit su 4060ti che invece ne rappresenta gli scarti.
E' anche una mossa piuttosto in contro tendenza per nvidia, con la 2070 fecero l'opposto, strutturalmente era fatto per un 192bit ma lo hanno persino ampliato a 256bit rendendolo più complesso e costoso XD
Ovviamente per le prestazioni tocca attendere le review, ma non credo deluderà su quell'aspetto, però ci ritroveremo un chip che probabilmente va anche un pelo in più di 3080ti in alcuni engine ma con 10GB di vram, replicando un pò ciò che si è visto con 3070 - 8GB vs 2080ti - 11GB.
Per fare una mossa del genere credo sia dovuto soprattutto alla concorrenza, la 7700xt sarà stampata a 128bit e probabilmente non prenderà la 4070 in tutti gli scenari nonostante il cut e come dice mikael possiamo aspettarci anche qualche cut sul pci-e che non sarà x16, e sicuramente ci saranno review con Pcie x8 nei vari standard 3.0, 4.0, 5.0, tanto per spingere sulle nuove mobo e cpu...
Però è altamente probabile che AMD faccia sia le varianti lisce che con vram in clamshell.
Si, ma ni.
ho dei dubbi che la 4070 possa andare come la 3080ti e comunque considerando il bus avrà una forte limitazione in 2K e tanto peggio in 4K. Non che mi interessi del 4K, ma oggi con la 3070 se scendi a compromessi ci sei, potrebbe paradossalmente in 4K andare uguale alla 3070 e sarebbe un po' un paradosso.
Aspettiamo, ormai manca poco, ma la serie 4000 non mi piaceva dall'inizio e mi piace sempre meno. Il problema è che avendo visto nvidia (e amd) quanto gli utenti son disposti a spendere per una vga dubito fortemente che facciano marcia indietro come fecero con la serie 3000 vs 2000, e dubito anche che le 3000 calino all'uscita delle 4000.
Anche perchè, l'architettura è pressochè quella e ridurre così tanto il bus (ok le 6x) inevitabilmente ha ripercussioni importanti
Considera che in teoria già un cut di AD104 con 6144cc e 160bit prenderebbe la 3080 liscia e forse andrebbe anche meglio a seconda di quanto pompano il clock.
La 4070 dai recenti rumors sembra sarà tagliata a 7168cc, quindi sicuramente sarà vicina alla 3080ti, un pò strozzata dal bus ma non c'è da aspettarsi miracoli anche tra 3080 10GB e 3080 12GB non cambia molto sulle prestazioni in sè.
Ma un full AD104 con 192bit probabilmente ti butta giù anche la recente 3090ti tirata per il collo :sofico:
OrazioOC
24-06-2022, 08:50
Considera che in teoria già un cut di AD104 con 6144cc e 160bit prenderebbe la 3080 liscia e forse andrebbe anche meglio a seconda di quanto pompano il clock.
La 4070 dai recenti rumors sembra sarà tagliata a 7168cc, quindi sicuramente sarà vicina alla 3080ti, un pò strozzata dal bus ma non c'è da aspettarsi miracoli anche tra 3080 10GB e 3080 12GB non cambia molto sulle prestazioni in sè.
Ma un full AD104 con 192bit probabilmente ti butta giù anche la recente 3090ti tirata per il collo :sofico:
Si ma ad104 full se la terranno per la 4070 ti come hanno fatto con ga104 full, ma non cambia il discorso che questa 4070 messa così è una "nuova" 3060 ti al posto della vecchia 3070.:rolleyes:
Onestamente non mi fa impazzire, perchè prevedo in giro verso agosto/settembre delle 3080/ti a prezzi davvero ribassati.
ninja750
24-06-2022, 09:04
questa 4070 messa così è una "nuova" 3060 ti al posto della vecchia 3070.:rolleyes:
la prezzerà come la 3060ti allora? :cool:
Si ma ad104 full se la terranno per la 4070 ti come hanno fatto con ga104 full, ma non cambia il discorso che questa 4070 messa così è una "nuova" 3060 ti al posto della vecchia 3070.:rolleyes:
Onestamente non mi fa impazzire, perchè prevedo in giro verso agosto/settembre delle 3080/ti a prezzi davvero ribassati.
Non credo perchè se la 4080 è full chip, tutti gli scarti dovranno riciclarli...
Ho la sensazione che vedremo un AD103 devastato per la 4070ti, e tutti i die perfetti di AD104 ed eventualmente con 192bit arriveranno solo sul mobile.
la prezzerà come la 3060ti allora? :cool:
Se siamo fortunatissimi forse a metà strada tra l'MSRP di 3060ti e 3070, tipo 479$, ma ho i miei dubbi XD
Se siamo fortunatissimi forse a metà strada tra l'MSRP di 3060ti e 3070, tipo 479$, ma ho i miei dubbi XD
una 4070 a 479$?
ti piacerebbe he :sofico:
una 4070 a 479$?
ti piacerebbe he :sofico:
Uno spera, soprattutto quando vede chip devastatissimi XD
Comunque sia 2070 che 3070 erano fissate a 499$, non penso si allontanano molto da questo range, ovviamente sempre ragionando sugli MSRP, poi per i prezzi di mercato sarà da vedere.
alla presentazione di ampere 699$ la gente è corsa a vendere le 2080ti a 500€, il resto è storia eh
mi auguro che questa discesa delle crypto contribuirà a non ripetere quella roba
col culo di questi ultimi anni, risaliranno nel momento dell'uscita :doh:
l'unica cosa che a questo gira frenerà molto di più il discorso shortage per mining credo/spero siano i consumi che non promettono bene per dare una buona profittabilità
Col cambio attuale, 500 dollari corrisponderebbero a circa 580 euro Iva inclusa in Italia. Nei mesi scorsi c'erano stati dei rumor riguardo possibili aumenti dei prezzi di un 10 o 20% rispetto ad Ampere...nel peggiore dei casi si rischierebbe di avere la 4070 a 700euro. C'è da sperare che questi tagli servano almeno a mantenere i prezzi in linea con la generazione precedente.
Thunder-74
24-06-2022, 11:04
avvistata prima 4090 :D
https://www.gpu-rumors.com/wp-content/uploads/2021/09/rtx-4090-april-fool-1024x615.jpg
OrazioOC
24-06-2022, 11:07
Non credo perchè se la 4080 è full chip, tutti gli scarti dovranno riciclarli...
Ho la sensazione che vedremo un AD103 devastato per la 4070ti, e tutti i die perfetti di AD104 ed eventualmente con 192bit arriveranno solo sul mobile.
AD103 è un chip molto più complesso e costoso, però ha senso una versione molto devastata per fare una 4070 ti con 12gb(quasi a livello di ad104 full) un po' come il ga106-150 della 3050 che ha la configurazione che avrebbe ga107 full.
Se siamo fortunatissimi forse a metà strada tra l'MSRP di 3060ti e 3070, tipo 479$, ma ho i miei dubbi XD
Ma va là, per me siamo a 549/599 dollari, alzeranno addirittura rispetto all'msrp(fasullo) della 3070 lanciata a settembre 2020.:rolleyes:
TigerTank
24-06-2022, 11:11
avvistata prima 4090 :D
Ahahahah quel video è davvero spendido :asd:
Comunque cira i discorsi sui prezzi, con l'arrivo delle 3080FE ricordo bene tutti gli sfottò che esplosero in rete circa i possessori delle 2080Ti, rivendute anche a 500€...ma poi le cose cambiarono drasticamente e chi le aveva ancora se la tenne stretta ad oltranza o la rivendette a ben altre cifre.
Può essere che le cose siano pure peggiori circa le 3090 in primis, magari pagate pure 2000€ o più....ma poi anche qui bisognerà vedere l'effettiva realtà dei fatti circa disponibilità e prezzi di tutti i vari modelli :D
Ale55andr0
24-06-2022, 11:32
Permettimi di dire che hai le idee un po' confuse. La 3070 è la miglior scheda almeno degli ultimi 5 anni considerando prezzo/prestazioni/features
Permettimi di dire che a me sta sulle balle e la dropperei alla prima occasione se non fosse che ci perderei troppi soldi visto che ormai sono scese di prezzo. A quel prezzo 8gb/14gps sono e restano una merxa. That's it.
Permettimi di dire che a me sta sulle balle e la dropperei alla prima occasione se non fosse che ci perderei troppi soldi visto che ormai sono scese di prezzo. A quel prezzo 8gb/14gps sono e restano una merxa. That's it.
Nel tuo sistema la prima cosa che dovresti droppare è quella cpu, anche con un 5600x avresti netti miglioramenti :fagiano:
AD103 è un chip molto più complesso e costoso, però ha senso una versione molto devastata per fare una 4070 ti con 12gb(quasi a livello di ad104 full) un po' come il ga106-150 della 3050 che ha la configurazione che avrebbe ga107 full.
Ma neanche tanto in realtà i chip di nvidia sono molto ben scalati tra le varie fasce, un eventuale cut in stile 2060 liscia quindi bus ridotto a 192bit e chip laserato intorno ai 8704cc e hai fatto la 4070ti :sofico:
Comunque a questo giro l'ulteriore cut di AD104 quindi l'eventuale 4060ti potrebbe essere il vero best per prezzo/prestazioni.
Ale55andr0
24-06-2022, 12:16
Nel tuo sistema la prima cosa che dovresti droppare è quella cpu, anche con un 5600x avresti netti miglioramenti :fagiano:
.
e 2: altro discorso. Sto parlando di CPU? No, sto parlando di GPU.
Permettimi di dire che a me sta sulle balle e la dropperei alla prima occasione se non fosse che ci perderei troppi soldi visto che ormai sono scese di prezzo. A quel prezzo 8gb/14gps sono e restano una merxa. That's it.
la 3070 non è una scheda da 4K e in 2K 8gb avanzano, come memoria utilizzata, in ogni gioco
se poi attivi il dlss la risoluzione scende ancora e la situazione migliora ancora.
a me danno decisamente più fastidio i 10gb della 3080 che gli 8 della 3070, anche perchè dove non te ne bastano 8, 10 affondano lo stesso.
Su con la vita ragazzi vi vedo troppo pessimisti, fatele uscire prima di farvi il sangue marcio, nel frattempo compratevi CPU adatte :sofico:
Per quando ci saranno giochi degni tanto saranno gia' uscite le 4080TI
mikael84
24-06-2022, 12:48
Riguardo la complessità dei chip, analizzati sono:
AD104 300mm2 vs GA106 276mm2
AD103 379mm2 vs GA104 393mm2
Stica Mike, considerato che probabilmente pure i wubbi saranno ancora più cari(ormai è l'andazzo), per farsi una vga di fascia alta liquidata bisogna accendere un mutuo :asd:
No no...io ormai me la prendo comoda, non sono più quello che prendeva le vga al day one...o che cambiava una 780Ti per una 980 e qualche mese dopo per una 980Ti Classified.
Erano altri tempi...e altri prezzi :D
Tiger, si giocava di più e si spendeva mooooolto meno, 10 anni si sentono:)
Oggi con 5/600 euro, puoi cambiare una 3060 con una 3060ti da shoppissimo, eshop che oggi c'è domani non si sa.:)
la 3070 non è una scheda da 4K e in 2K 8gb avanzano, come memoria utilizzata, in ogni gioco
se poi attivi il dlss la risoluzione scende ancora e la situazione migliora ancora.
a me danno decisamente più fastidio i 10gb della 3080 che gli 8 della 3070, anche perchè dove non te ne bastano 8, 10 affondano lo stesso.
Alla 3080 hanno fatto la stessa operazione chirurgica che faranno alla 4070.
Per produzione, una partizione cache è fallata, verrà disabilitata, portandosi con se 32 bit e relativa memoria.
Ovviamente cercano sempre di rientrare nei 4 TPC, disabilitandone 2, per garantire le rop's e la massima resa al motore geometrico via polymorph engine.:)
Permettimi di dire che hai le idee un po' confuse. La 3070 è la miglior scheda almeno degli ultimi 5 anni considerando prezzo/prestazioni/features
Non sono daccordo per niente. Non costituiva un upgrade importante sulla 2070, pertanto era piuttosto inutile.
Su con la vita ragazzi vi vedo troppo pessimisti, fatele uscire prima di farvi il sangue marcio, nel frattempo compratevi CPU adatte :sofico:
Ma le CPU buone non sono ancora uscite :D Se ne parla nel '23/24.
zanflank
24-06-2022, 14:27
Permettimi di dire che hai le idee un po' confuse. La 3070 è la miglior scheda almeno degli ultimi 5 anni considerando prezzo/prestazioni/features
Per quel che mi riguarda è la x70 peggiore mai uscita. Non ha un solo punto a suo favore se non una founders ben ottimizzata.
Stesso pensiero per la sua versione "Ti", peggiore in toto fra le tre ultime serie
Per non farmi dare del fanboy anticipo la mia serie di gpu ("recenti"): 780/970/1070/2070
Ale55andr0
24-06-2022, 14:56
la 3070 non è una scheda da 4K e in 2K 8gb avanzano, come memoria utilizzata, in ogni gioco
se poi attivi il dlss la risoluzione scende ancora e la situazione migliora ancora.
a me danno decisamente più fastidio i 10gb della 3080 che gli 8 della 3070, anche perchè dove non te ne bastano 8, 10 affondano lo stesso.
6700XT/12gb, non mi pare punti al 4k. 4070 10gb (dicono) non mi pare punti al 4k...
inoltre con più ram puoi goderti qualsivoglia texture pack senza noie o avere maggior headroom in quei titoli più famelici di videoram, cosa che prolunga la longevità del prodotto. E comunque come detto in passato non è una questione di risoluzione, potete ripeterlo all'infinito: è una quesitone di principio, tu a quel prezzo mi prendi per il :ciapet: con quel quantitativo e tipo di memoria
Non sono daccordo per niente. Non costituiva un upgrade importante sulla 2070, pertanto era piuttosto inutile.
Per quel che mi riguarda è la x70 peggiore mai uscita. Non ha un solo punto a suo favore se non una founders ben ottimizzata.
Stesso pensiero per la sua versione "Ti", peggiore in toto fra le tre ultime serie
Per non farmi dare del fanboy anticipo la mia serie di gpu ("recenti"): 780/970/1070/2070
+1
Per la vram mi sa che devi rassegnarti...
Però non è che gli 11GB di 2080ti facciano miracoli rispetto gli 8GB di 3070, o almeno non ho visto nessun titolo che effettivamente ne beneficia per ora.
Dal lato rosso avremo persino una 7700xt sui 128bit, scheda che in performance va come Navi 21... se siamo fortunati AMD fa le varianti in clamshell altrimenti ti ritrovi una 6800XT con 8GB, il che è forse peggio di 4070 10GB :sofico:
Comunque, chiunque ha un Ampere di buon livello può starsene tranquillo fino alle 5000...
Ale55andr0
24-06-2022, 16:14
Per la vram mi sa che devi rassegnarti...
..quindi non mi cresceranno altri 4 gb sul pcb dici? :cry:
Comunque, chiunque ha un Ampere di buon livello può starsene tranquillo fino alle 5000...
dalla 3080 in su
mikael84
24-06-2022, 17:17
Io sinceramente non la vedo così brutta la 3070, se parliamo di ram contata (ma è una fascia media) e prezzi si, ma per essere scritta su un PP indegno, prende la 2080ti con 220watt, migliorando anche i rapporti in giochi shader intensivi.
Se la 2080ti era una scheda da sogno a 1300 euro, non vedo perchè dovrebbe essere un fail una equivalente di fascia media.:)
Il vero fail è stato il prezzo quello si, ma riguarda tutte.
La 2070 la 1080ti non la prendeva, inizialmente era più una 1080, e sempre con 8gb di ram (con collegamento a vuoto, neppure intero).
La 1070 in rapporto è stata la migliore, in quanto prendeva la 980ti con addirittura più ram, però dopo due anni si è ritrovata una scheda tecnicamente obsoleta, no DLSS, no FP16, che in alcuni vulkan contano tanto. Incompleta in dx12. :)
Io sinceramente non la vedo così brutta la 3070, se parliamo di ram contata (ma è una fascia media) e prezzi si, ma per essere scritta su un PP indegno, prende la 2080ti con 220watt, migliorando anche i rapporti in giochi shader intensivi.
Se la 2080ti era una scheda da sogno a 1300 euro, non vedo perchè dovrebbe essere un fail una equivalente di fascia media.:)
Il vero fail è stato il prezzo quello si, ma riguarda tutte.
La 2070 la 1080ti non la prendeva, inizialmente era più una 1080, e sempre con 8gb di ram (con collegamento a vuoto, neppure intero).
La 1070 in rapporto è stata la migliore, in quanto prendeva la 980ti con addirittura più ram, però dopo due anni si è ritrovata una scheda tecnicamente obsoleta, no DLSS, no FP16, che in alcuni vulkan contano tanto. Incompleta in dx12. :)
Come sempre d'accordo, la 2070 non S faceva piuttosto ridere, la 3070 ha solo il problema di costare 100/150 euro di troppo (hai detto scanzati)
FrancoBit
24-06-2022, 17:49
Come sempre d'accordo, la 2070 non S faceva piuttosto ridere, la 3070 ha solo il problema di costare 100/150 euro di troppo (hai detto scanzati)
Solo a msrp ha un perchè secondo me. Cioè giusto nell'ultimo mese in cui si è iniziato a vederle al prezzo quasi giusto. Ad esempio io l'ho presa per il pc2 perchè ero riuscito a piazzare la vecchia 5700xt, 3 mesi fa. Oggi, pur contando lo "sgravo" della vendita della radeon, l'avrei pagata meno. Quindi, mi sta sul c@zzo, ma non è un giudizio particolarmente oggettivo. Certo, c'è da dire che le ampere son piuttosto stitiche di vram, tolte le 3090
fraussantin
24-06-2022, 18:45
Io sinceramente non la vedo così brutta la 3070, se parliamo di ram contata (ma è una fascia media) e prezzi si, ma per essere scritta su un PP indegno, prende la 2080ti con 220watt, migliorando anche i rapporti in giochi shader intensivi.
Se la 2080ti era una scheda da sogno a 1300 euro, non vedo perchè dovrebbe essere un fail una equivalente di fascia media.:)
Il vero fail è stato il prezzo quello si, ma riguarda tutte.
La 2070 la 1080ti non la prendeva, inizialmente era più una 1080, e sempre con 8gb di ram (con collegamento a vuoto, neppure intero).
La 1070 in rapporto è stata la migliore, in quanto prendeva la 980ti con addirittura più ram, però dopo due anni si è ritrovata una scheda tecnicamente obsoleta, no DLSS, no FP16, che in alcuni vulkan contano tanto. Incompleta in dx12. :)La 1070 aveva anche un prezzo bomba finche si è trovata . Poi venne fuori la moda del mining e anche furono dolori.
La 2070 liscia a 499( 520 italiani ) ci poteva stare , oggi sembra un affarone , digerivi tutti i difetti e cmq io l'ho avuta scaldava pochissimo e a 2000 e piu di frequenza teneva botta al tdp ( 220w) . ai prezzi delle custom anche no.
A confronto la 3080 sembra g3 ferrari :asd:
Per certi versi mi pento di averla venduta , in estate era comoda .
mikael84
24-06-2022, 20:19
Come sempre d'accordo, la 2070 non S faceva piuttosto ridere, la 3070 ha solo il problema di costare 100/150 euro di troppo (hai detto scanzati)
La 2070 super è la perfezione modestamente.:read: :p scherzo
La 3070 per come era prezzata, era un gioiellino, una 2080ti a 515. il problema è che per più di un anno costava quasi quanto la 2080ti.:D
La 1070 aveva anche un prezzo bomba finche si è trovata . Poi venne fuori la moda del mining e anche furono dolori.
La 2070 liscia a 499( 520 italiani ) ci poteva stare , oggi sembra un affarone , digerivi tutti i difetti e cmq io l'ho avuta scaldava pochissimo e a 2000 e piu di frequenza teneva botta al tdp ( 220w) . ai prezzi delle custom anche no.
A confronto la 3080 sembra g3 ferrari :asd:
Per certi versi mi pento di averla venduta , in estate era comoda .
Ecco il problema vero è questo, logico che chi ha pagato una 3070 1000 euro, oggi la vede una mezza ciofeca.
A livello tecnico e di prezzo previsto, sarebbe stata una buonissima scheda, come le altre, se non per certi versi meglio.:)
Tra le turing migliori, c'è sicuramente la mia, perf da 2080 quasi, e binnatissima, 2100 ad aria dopo 3 tagli.:sofico:
Io sinceramente con la 3070 mi sono trovato e mi trovo benissimo, tanto che la voglia di cambiarla non c'è. Anche gli 8 giga non mi hanno mai limitato solo un gioco mi ha costretto ad uno step di texture inferiore, Far cry 6.
Per 710 euro non potevo chiedere di meglio, per di più Vision, che adoro come linea.
Ale55andr0
24-06-2022, 20:37
Io sinceramente non la vedo così brutta la 3070, se parliamo di ram contata (ma è una fascia media) e prezzi si, ma per essere scritta su un PP indegno, prende la 2080ti con 220watt, migliorando anche i rapporti in giochi shader intensivi.
ce la ho sul per il gargarozzo da quando l'ho presa sta sola a forma di scheda video, ma o quella o NULLA e mo' mi attacco, cacchio, mai na volta che il :ciapet: tocchi a me.* E mo' quel magnacarte a tradimento di jjcosolà ci riprova con bus e ram ancor più ridicoli (in relazione al salto di gen e all'epoca tecnologica)?
Ma gli possono marcire sugli scaffali, e francamente vorrei vedere un po' gente STUFA di farsi prendere per i fondelli e dar soldi a queste aziende presi da scimmie che poi di fatto non hanno senso (giochiamo a conversioni da scatolette, graficamente tarate per le scatolette, e ottimizzate coi piedi)
*madaveroh oh, e prima 8 core, "così sono future proof", "mai visti prima su destkop a 300 carte stiamo apposto per 5 anni con la piattaforma" e che succede? mi guadagnano settordicilioni di ipicì e frequenze in un paio di gen che è diventato un FERMACARTE immondo quando per ANNI eravamo bloccati a +100mhz e 4 core "fitent inside" :doh:. Poi prendo la gpu... e scoppia il casino dei casini e pago 700 una dannata 3070 calibrata a fetecchia con la ram di una 5700xt di due anni prima quando volevo una 3080 o una 6800xt INTROVABILI sull'intero globo terracqueo. Ma che vita demerd va' :muro:
Vabbè i ryzen di prima generazione sono sempre stati una ciofeca fin dal loro esordio, a meno di non doverci lavorare dove effettivamente erano comunque degli 8 core con un IPC a cavallo tra sandy e ivy, cose che al tempo richiedevano come minimo un HEDT con ben altri costi.
Ancora oggi il multicore non è sfruttato benissimo, e anche quando sfruttato avere ipc e clock più altri da sempre una marcia in più soprattutto se abbinati a quantitativi di cache belli ampi, e c'è da dire che AM4 da ampi spazi di upgrade, persino B350/x370 sono ora compatibili con i 5000, chi prese al tempo z170/z270 non ha tutto questo margine di aggiornamento.
Per il resto concordo con gli altri la 3070 è tecnicamente un ottimo chip, ma lo sono anche 3060ti e 3080 al prezzo MSRP, se le situazione non fosse esplosa nel periodo della pandemia nessuno si sarebbe lamentato, ma i prezzi le hanno affossate.
Ma lo stesso vale anche per AMD, con la serie 6000 ha fatto un netto balzo avanti e per chi cercava soprattutto prestazioni raster e vram a gogò erano i chip da prendere.
mikael84
24-06-2022, 21:39
Io sinceramente con la 3070 mi sono trovato e mi trovo benissimo, tanto che la voglia di cambiarla non c'è. Anche gli 8 giga non mi hanno mai limitato solo un gioco mi ha costretto ad uno step di texture inferiore, Far cry 6.
Per 710 euro non potevo chiedere di meglio, per di più Vision, che adoro come linea.
Purtroppo la vera pecca è stato, ed in parte lo è ancora il prezzo.
ce la ho sul per il gargarozzo da quando l'ho presa sta sola a forma di scheda video, ma o quella o NULLA e mo' mi attacco, cacchio, mai na volta che il :ciapet: tocchi a me.* E mo' quel magnacarte a tradimento di jjcosolà ci riprova con bus e ram ancor più ridicoli (in relazione al salto di gen e all'epoca tecnologica)?
Ma gli possono marcire sugli scaffali, e francamente vorrei vedere un po' gente STUFA di farsi prendere per i fondelli e dar soldi a queste aziende presi da scimmie che poi di fatto non hanno senso (giochiamo a conversioni da scatolette, graficamente tarate per le scatolette, e ottimizzate coi piedi)
Purtroppo sei rimasto a piedi nel momento peggiore. Ora chiaramente, sapendo quanto hai speso, non ti va di accettare alcuni compromessi, è comprensibile.
*madaveroh oh, e prima 8 core, "così sono future proof", "mai visti prima su destkop a 300 carte stiamo apposto per 5 anni con la piattaforma" e che succede? mi guadagnano settordicilioni di ipicì e frequenze in un paio di gen che è diventato un FERMACARTE immondo quando per ANNI eravamo bloccati a +100mhz e 4 core "fitent inside" :doh:. Poi prendo la gpu... e scoppia il casino dei casini e pago 700 una dannata 3070 calibrata a fetecchia con la ram di una 5700xt di due anni prima quando volevo una 3080 o una 6800xt INTROVABILI sull'intero globo terracqueo. Ma che vita demerd va' :muro:
Nascono come CPU da MT, in gaming erano pessime, poi soprattutto il tuo a cache cannate e con un PP ridicolo.
Cmq hai dalla tua parte la compatibilità della piattaforma, mettici un 5600/5700x e campi felice.
Thunder-74
25-06-2022, 10:11
Comunque ragazzi, io aspetterei a fasciarmi la testa. Di rumors ne sono usciti andando a cambiare le carte in tavola varie volte. Oltretutto sempre dalla solita fonte. Alla fine nulla ancora è deciso.
Anche vedere una 4080 su GDDR6 lisce da 18Gbps mi fa un po' strano. Quando mai da una gen all'altra su pari fascia, si è andato a peggiorare in questo modo?
OK che Lovelace punta su una cache più grossa e magari la banda della VRAM diventa meno importante, ma andare ad adottare delle GDDR6, mi sembra molto strano. Già si passa dai 320bit di bus a 256, vorrebbe dire passare da una banda di 760 GB/s a 576 GB/s quasi 200GB/s in meno ... boh
Probabile che l'uso delle gddr6 sia dato anche per ridurre i consumi del chip, non é che le GDDR6X siano tutto questo oro e non é neanche detto che servano su AD103 potendo sfruttare la cache più ampia.
Sulla 3070ti si sono dimostrate del tutto inutili e hanno solo aumentato i consumi per uno scarto minimo di prestazioni in più.
A me l'unica cosa che mi lascia un po' titubante sono quei 160bit sulla 4070 che potevano risparmiarsi... Mi andavano benissimo per una 4060ti ma per una 4070 é abbastanza brutale come mossa, ma non è che AMD con la 7700xt sia da meno dato che sarà stampata su un 128bit, però potrebbe comunque andare di clamshell e quindi rilasciare i chip in variante 8/16gb.
Inviato dal mio M2012K11AG utilizzando Tapatalk
craesilo
25-06-2022, 11:24
per me la serie 1000 è la migliore di sempre in rapporto prezzo/prestazioni (per dire ho preso prima 1080 custom nuova e poi 1080ti usata, entrambe a circa 500 €)...tutt'ora la 1070 fa il suo sporco lavoro a 1080p o 1440p con roba recente
la 2000 è quella che ha stravolto le fasce di prezzo introducing la nuova categoria di gamers, cioè i polli, fregandosene del prezzo perchè GIOCARE è la vita (complimenti a nvidia ovviamente)
amon.akira
25-06-2022, 12:45
per me la serie 1000 è la migliore di sempre in rapporto prezzo/prestazioni (per dire ho preso prima 1080 custom nuova e poi 1080ti usata, entrambe a circa 500 €)...tutt'ora la 1070 fa il suo sporco lavoro a 1080p o 1440p con roba recente
la 2000 è quella che ha stravolto le fasce di prezzo introducing la nuova categoria di gamers, cioè i polli, fregandosene del prezzo perchè GIOCARE è la vita (complimenti a nvidia ovviamente)
be dai 100dollari di differenza in 6anni
1080 599$ 315mm²
2080 699$ 545mm²
3080 699$ 628mm²
tutt'ora la 1070 fa il suo sporco lavoro a 1080p o 1440p con roba recente
Quanto costava la 1070?
mikael84
25-06-2022, 13:15
Comunque ragazzi, io aspetterei a fasciarmi la testa. Di rumors ne sono usciti andando a cambiare le carte in tavola varie volte. Oltretutto sempre dalla solita fonte. Alla fine nulla ancora è deciso.
Anche vedere una 4080 su GDDR6 lisce da 18Gbps mi fa un po' strano. Quando mai da una gen all'altra su pari fascia, si è andato a peggiorare in questo modo?
OK che Lovelace punta su una cache più grossa e magari la banda della VRAM diventa meno importante, ma andare ad adottare delle GDDR6, mi sembra molto strano. Già si passa dai 320bit di bus a 256, vorrebbe dire passare da una banda di 760 GB/s a 576 GB/s quasi 200GB/s in meno ... boh
I rumor thunder vanno sempre presi con le pinze, gli commentiamo, ma tutto può sempre essere.
Tra l'altro pure nvidia sta ultimando i test.
L'unica cosa che attualmente sappiamo è il taglio dei chip in se.
Purtroppo chi fornisce i leak non sa scendere tecnicamente nei dettagli della microarchitettura, ed è pure difficile fare stime accurate, in quanto la micro proposta da lui, sarebbe un turing 2.0.
Cmq il non utilizzo di G6X sulla 4080 potrebbe anche significare un refresh più avanti con il full chip, vedi 3070ti.
Ad oggi possiamo stimare grossi valori, anche sulla base di AMD, dove viene dichiarato il +50% perf-watt (che in realtà è un pò meno).
Se a 230 watt ti da la 7700xt(6900x) con 4096 shader, a circa 350 watt, potrebbe darti il +50% vs 6900xt (magari la 7800xt) ed a 450 circa il 2x (7900xt):)
per me la serie 1000 è la migliore di sempre in rapporto prezzo/prestazioni (per dire ho preso prima 1080 custom nuova e poi 1080ti usata, entrambe a circa 500 €)...tutt'ora la 1070 fa il suo sporco lavoro a 1080p o 1440p con roba recente
la 2000 è quella che ha stravolto le fasce di prezzo introducing la nuova categoria di gamers, cioè i polli, fregandosene del prezzo perchè GIOCARE è la vita (complimenti a nvidia ovviamente)
La 1070 in rapporto prezzo/prestazioni era valida, ma era 3/4 di un chip da 314mm2, quelli che oggi sono costruiti per la x60 o quasi.
La 2070 aveva un die paragonabile a quello della Titan Pascal, che era uno shring di maxwell, spoglio di tutto.
Quindi se andiamo a vedere il vero lucro l'ha fatto su Pascal.:)
be dai 100dollari di differenza in 6anni
1080 599$ 315mm²
2080 699$ 545mm²
3080 699$ 628mm²
Amen.
Se pensiamo che la 1660 aveva un die quasi analogo alla 1080.:p
Escludendo gli ultimi 2 anni pandemici, di norma tra una generazione e l'altra ci sono sempre state riduzioni dei costi a pari performance.
Anche la 2060, scheda che andava come 1080 ma con possibilità di RT e DLSS, era venduta al day one a 320-350€, quando la 1080 costava almeno 500-550€...
Poi se andiamo nel tecnico con Pascal nvidia ha lucrato alla grande, ha letteralmente campato di rendita approfittando dell'enorme salto di nodo 28 vs 16nm e dalla scarsa concorrenza che era ferma alle polaris.
In condizioni normali oggi dovresti trovare nel range dei 350€ le 3060ti nuove di pacca, non certo la 3050 che va pure meno della 2060 :D
Thunder-74
25-06-2022, 13:26
Si Mike , possibile che nvidia si lasci una porta aperta per refresh. Della 4080ti si parló sia di una versione da 10752 cuda se non erro (full ad103) che 14800 cuda circa basato su ad102. Si sanno su cosa più di stanno orientando i rumors ? Perché nell ipotesi del full chip ecco spiegato l uso della gddr6 liscia sulla 4080.
Inviato dal mio iPhone X utilizzando Tapatalk
Si Mike , possibile che nvidia si lasci una porta aperta per refresh. Della 4080ti si parló sia di una versione da 10752 cuda se non erro (full ad103) che 14800 cuda circa basato su ad102. Si sanno su cosa più di stanno orientando i rumors ? Perché nell ipotesi del full chip ecco spiegato l uso della gddr6 liscia sulla 4080.
Inviato dal mio iPhone X utilizzando Tapatalk
Nvidia potrebbe anche tenere i full chip esclusivamente per il mobile.
Ma dipende anche dalle rese che ha, se sono buone alla seconda sfornata un refresh è possibile, altrimenti penso si limiterà a rilasciare i chip intermedi per smaltire gli scarti rimasti XD
Poi c'è da capire anche AMD come gestirà i chip intermedi, tra Navi 33 e Navi 32 c'è un bello stacco e non a caso anche nvidia si è lasciata un portone aperto tra 4070 e 4080.
mikael84
25-06-2022, 13:45
Si Mike , possibile che nvidia si lasci una porta aperta per refresh. Della 4080ti si parló sia di una versione da 10752 cuda se non erro (full ad103) che 14800 cuda circa basato su ad102. Si sanno su cosa più di stanno orientando i rumors ? Perché nell ipotesi del full chip ecco spiegato l uso della gddr6 liscia sulla 4080.
Inviato dal mio iPhone X utilizzando Tapatalk
I primissimi rumors davano la 4080 liscia con 14/15k cc, ma delle TI generalmente non se n'è mai parlato.
Dopo l'hack si sono delineate le fasce, spostando la 4080 su AD103.
Sappiamo che per rese, difficilmente ci saremmo potuti aspettare un chip full dall'inizio.
Kopite infatti riportava la 4080 ti, su base AD103 full.
Micron ha pure certificato per la nuova gen, le 24 gb/s, e magari potrebbero essere introdotte proprio per le full chip come la 4090ti/4080ti
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
Attualmente, non abbiamo delle certezze su un AD102 demolito per la 4080ti. Sicuramente JHH è capace di tutto e di più.
Dipenderà anche da AMD.
Immaginiamo che AMD lanci:
7900xt/4090 12,2k shader.
7900xt cut 10k shader
7800xt/4080
Ecco che in questo caso servirebbe un AD102 ultra cut.
Thunder-74
25-06-2022, 17:33
Nvidia potrebbe anche tenere i full chip esclusivamente per il mobile.
Ma dipende anche dalle rese che ha, se sono buone alla seconda sfornata un refresh è possibile, altrimenti penso si limiterà a rilasciare i chip intermedi per smaltire gli scarti rimasti XD
Poi c'è da capire anche AMD come gestirà i chip intermedi, tra Navi 33 e Navi 32 c'è un bello stacco e non a caso anche nvidia si è lasciata un portone aperto tra 4070 e 4080.
I primissimi rumors davano la 4080 liscia con 14/15k cc, ma delle TI generalmente non se n'è mai parlato.
Dopo l'hack si sono delineate le fasce, spostando la 4080 su AD103.
Sappiamo che per rese, difficilmente ci saremmo potuti aspettare un chip full dall'inizio.
Kopite infatti riportava la 4080 ti, su base AD103 full.
Micron ha pure certificato per la nuova gen, le 24 gb/s, e magari potrebbero essere introdotte proprio per le full chip come la 4090ti/4080ti
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
Attualmente, non abbiamo delle certezze su un AD102 demolito per la 4080ti. Sicuramente JHH è capace di tutto e di più.
Dipenderà anche da AMD.
Immaginiamo che AMD lanci:
7900xt/4090 12,2k shader.
7900xt cut 10k shader
7800xt/4080
Ecco che in questo caso servirebbe un AD102 ultra cut.
Lisa e JJ si siedono al tavolo e decidono ste cosette..
Sinceramente la 4080ti potrebbe benissimo trovarsi nel mezzo tra la 4080 e la 4090 basandosi sul AD102 "devastato", un po' perchè c'è veramente tanto spazio, un po' per recuperare i chip fallati di produzione.
Sarebbe bello che JJ in fase di presentazione di Ada snocciolasse anche le specifiche della 4080ti, ma non credo che lo farà.
scorpion73
25-06-2022, 19:45
Sarebbe bello che JJ in fase di presentazione di Ada snocciolasse anche le specifiche della 4080ti, ma non credo che lo farà.
Se lo facesse toglierebbe appeal alla 4080 e in molti potrebbero valutare l'attesa, specie considerando che ampere dalla 3080 in su non è che abbia differenze stratosferiche in prestazioni e vanno tutte bene.
Sarebbe come farsi harakiri....
Se lo facesse toglierebbe appeal alla 4080 e in molti potrebbero valutare l'attesa, specie considerando che ampere dalla 3080 in su non è che abbia differenze stratosferiche in prestazioni e vanno tutte bene.
Sarebbe come farsi harakiri....
Oddio...complice il pl ma da un 3080 a 3090ti ce ne passa
Prezzo escluso ovviamente
amon.akira
25-06-2022, 20:15
Oddio...complice il pl ma da un 3080 a 3090ti ce ne passa
Prezzo escluso ovviamente
io da una 3080 350watt a una 3090 400w ci ho preso un +13%
un amico da una 3080suprim da 430w a una 3090 400w ci ha preso un +8%
io da una 3080 350watt a una 3090 400w ci ho preso un +13%
un amico da una 3080suprim da 430w a una 3090 400w ci ha preso un +8%
Il 13% alla 3090, alla 3090ti saranno altri 7pp e arriviamo a 20% non è proprio male, in un mondo con budget illimitato
Ovvio, spendere il 300% per il 20% non ha senso, ma parlando solo di prestazioni il salto c'è
mikael84
25-06-2022, 20:23
Lisa e JJ si siedono al tavolo e decidono ste cosette..
Sinceramente la 4080ti potrebbe benissimo trovarsi nel mezzo tra la 4080 e la 4090 basandosi sul AD102 "devastato", un po' perchè c'è veramente tanto spazio, un po' per recuperare i chip fallati di produzione.
Sarebbe bello che JJ in fase di presentazione di Ada snocciolasse anche le specifiche della 4080ti, ma non credo che lo farà.
Scarti ne avrà tanti in un chip di quel calibro, molti però gli utilizzerà per le quadro (ormai ex).
In più si aggiunge un fattore, ovvero il chip da inserire sui 1200$ ed onestamente non voglio credere che ci arrivi con AD103.
Lanciarli nell'immediato sarebbe un suicidio per le x90.
Consideriamo che la 4090 è già abbastanza anomala in quanto perde 1 GPC e mezzo.
Vediamo anche che dice Lisa.
Ad esempio la 3080 l'ha tagliata in linea alla 6800xt, qua farà la stessa cosa con la 7800xt.
Attualmente AD102 al debutto sarà solo linea titan pro (x90)- quadro (si parla di EPS da 375watt).
davide155
25-06-2022, 22:36
io da una 3080 350watt a una 3090 400w ci ho preso un +13%
un amico da una 3080suprim da 430w a una 3090 400w ci ha preso un +8%Confermo, io venivo da una 3080 suprimx da 430w di PL e la differenza si attesta sull'8 massimo 10%.
C'è da dire che la 3080suprimX occata abbestia surclassava di poco la 3090fe a default. Infatti appena montai la 3090 quasi mi pentii. Poi iniziai a giocare di downvolt ed oc e la situazione è tornata ad un distacco intorno al'8-10%.
craesilo
25-06-2022, 23:00
be dai 100dollari di differenza in 6anni
1080 599$ 315mm²
2080 699$ 545mm²
3080 699$ 628mm²
peccato che fosse così patetica (mi ricordo ancora benissimo i milioni di commenti di scherno al lancio) che doveva essere lanciata allo stesso prezzo di 2 anni e mezzo prima...hanno sacrificato prestazioni in raster per la novità del RT, che immagino tutti avranno utilizzato alla grandissima (anche se nei forums non pareva :asd:)....poi hanno fatto uscire le super per rimediare un po' alla figuraccia, troppo tardi cmq
Anche la 2060, scheda che andava come 1080 ma con possibilità di RT e DLSS, era venduta al day one a 320-350€, quando la 1080 costava almeno 500-550€...
uscita con mega ritardo (addirittura nel 2019) a poco meno di 400 €, da vantarsi proprio :asd:
ah si, 5 minuti dopo uscì la 2060 super (per veri super gamers :asd:)
Se lo facesse toglierebbe appeal alla 4080 e in molti potrebbero valutare l'attesa, specie considerando che ampere dalla 3080 in su non è che abbia differenze stratosferiche in prestazioni e vanno tutte bene.
Sarebbe come farsi harakiri....
Ma l'appeal dipende esclusivamente dai prezzi, cioè dubito fortemente che 4080 abbia prezzi vicini a 4080ti su AD102, quest'ultimo considerando la densità che ha per quanto cuttato possa essere non possono di certo deprezzarlo.
Inoltre guardando le specifiche di 4080, lo stacco prestazioni ci sarebbe e neanche cosi risicato, ipotizzando un cut brutale in stile 3080, la 4080ti avrebbe circa 14976cc e bus a 320bit, il che la porterebbe a un +35/40% in game.
Confermo, io venivo da una 3080 suprimx da 430w di PL e la differenza si attesta sull'8 massimo 10%.
C'è da dire che la 3080suprimX occata abbestia surclassava di poco la 3090fe a default. Infatti appena montai la 3090 quasi mi pentii. Poi iniziai a giocare di downvolt ed oc e la situazione è tornata ad un distacco intorno al'8-10%.
Si però li va tenuto conto che la 3080 aveva un GA102 sotto, fondamentalmente la stessa sorte attenderà anche l'ipotetica 4080ti su AD102 paragonata a 4090 o il full chip con 4090ti.
Di solito lo scarto è sempre piuttosto misero a meno di portare i chip allo stremo.
peccato che fosse così patetica (mi ricordo ancora benissimo i milioni di commenti di scherno al lancio) che doveva essere lanciata allo stesso prezzo di 2 anni e mezzo prima...hanno sacrificato prestazioni in raster per la novità del RT, che immagino tutti avranno utilizzato alla grandissima (anche se nei forums non pareva :asd:)....poi hanno fatto uscire le super per rimediare un po' alla figuraccia, troppo tardi cmq
In realtà Nvidia ha lucrato su Pascal, ti ha dato un chippetto come 1080ti da 471mmq spacciandolo per chippone :sofico:
Se voleva poteva tranquillamente darti il chippone da 600mmq già con Pascal e fare il passaggio diretto ad Ampere senza Turing di mezzo, ma ha preferito diluire i chip e gettare le prime basi software per RT e DLSS, infatti il vero upgrade come rapporto "costi/benefici" lo ha fatto chi ha saltato Pascal ed è passato direttamente da Maxwell a Turing.
E credo che Nvidia probabilmente dalla sua roadmap non si aspettava neanche con Ampere di dover fare i conti con gli 8nm di samsung, se avesse potuto contare sulla capacità produttiva di TSMC con i 7nm i chip sarebbero stati decisamente più interessanti sia in termini di clock che consumi.
Infatti quel poco di capacità produttiva dei 7nm l'ha utilizzato esclusivamente per GA100 visto che è una piastrella da 800mmq
uscita con mega ritardo (addirittura nel 2019) a poco meno di 400 €, da vantarsi proprio :asd:
ah si, 5 minuti dopo uscì la 2060 super (per veri super gamers :asd:)
Mega ritardo non direi assolutamente, i chip più piccoli arrivano sempre dopo, uscii a Gennaio 2019 a distanza di 3 mesi da 2080ti/2080 che uscirono a fine settembre e circa 2 mesi da 2070 che invece uscii a metà ottobre...
L'arrivo delle super ha portato un refresh per tutti i chip spostando leggermente in alto il rapporto prestazioni/costi.
Ad esempio la 1660ti costava sui 280€ e la 1660s la trovavi sui 220-230, la 2060s che si atteneva in media sui 400€ ha portato sia a un deprezzamento sui 300€ della 2060, che alla scomparsa della 2070 che come prezzo prestazioni non era più cosi interessante, considerando che 2070s era solo di poco più costosa e 2060s era invece più accessibile.
Bene o male anche la 4060 arriverà a gennaio 2023, con i soliti 2-3 mesi dai chip più grossi.
La vera incognita sarà quando arriveranno i chip intermedi come 4060ti e 4070ti.
craesilo
26-06-2022, 11:57
infatti il vero upgrade come rapporto "costi/benefici" lo ha fatto chi ha saltato Pascal ed è passato direttamente da Maxwell a Turing.
sta difesa è peggio di quella dei russi sulla guerra :asd:
mi spiace ma nell'immaginario collettivo le 2000 erano solo costi enormi con pochi benefici, altro che pascal....solo la 2080ti (al di la del prezzo) valeva il salto, riguardo pascal la 70 prendeva o superava la 80ti max, 80 e 80ti erano bestioni usciti relativamente presto e a prezzi ancora umani che rendevano senza senso prendere una 2080, ripeto turing derisa da tutti, evidentemente sei tra i pochi difensori di quella sfornata inutile
sulle 4000 non me ne frega niente, vedremo quando escono, spero solo non facciano schifo come turing
mikael84
26-06-2022, 12:23
sta difesa è peggio di quella dei russi sulla guerra :asd:
mi spiace ma nell'immaginario collettivo le 2000 erano solo costi enormi con pochi benefici, altro che pascal....solo la 2080ti (al di la del prezzo) valeva il salto, riguardo pascal la 70 prendeva o superava la 80ti max, 80 e 80ti erano bestioni usciti relativamente presto e a prezzi ancora umani che rendevano senza senso prendere una 2080, ripeto turing derisa da tutti, evidentemente sei tra i pochi difensori di quella sfornata inutile
sulle 4000 non me ne frega niente, vedremo quando escono, spero solo non facciano schifo come turing
Il problema di turing era il processo produttivo non il chip in se.
Un chip a pari nanometria di Pascal, creato soprattutto per ambiti pro ed adattato al gaming.
Pascal ha fatto un salto epocale in termini di PP, passando dai 28nm ai 16nm, guadagnando 1,9x la densità x mm2 ed oltre il 40% di clock.
Gli stadi RT/tensor occupano il 10% dell'area, pochissimo, quindi non è una questione di chip RT in se, ma del PP utilizzato.;)
craesilo
26-06-2022, 12:36
Il problema di turing era il processo produttivo non il chip in se.
Un chip a pari nanometria di Pascal, creato soprattutto per ambiti pro ed adattato al gaming.
Pascal ha fatto un salto epocale in termini di PP, passando dai 28nm ai 16nm, guadagnando 1,9x la densità x mm2 ed oltre il 40% di clock.
Gli stadi RT/tensor occupano il 10% dell'area, pochissimo, quindi non è una questione di chip RT in se, ma del PP utilizzato.;)
ma il problema poteva essere la spalla, la gamba, i reni, cosa dovrebbe cambiarmi? alla fine io (come tutti) guardo le recensioni del d1 e le performance rispetto alla serie precedente (con la serie precedente ancora), era abbastanza un disastro il raffronto, e pure le recensioni lo facevano notare....qualcuno se l'è presa perchè ho scritto turing= polli, ma era l'immaginario collettivo scusate eh....mi pare che lo scrissi pure, erano le super quelle che sarebbero dovute uscire subito nell'autunno 18, che poi onestamente c'è qualcuno che non ha trovato tremendamente ridicolo l'appellativo -super-?
non per niente, quando sono state annunciate 3070 e 3080, si esultava come pazzi per il nuovo cambio di rotta alla pascal (a parte qualche piccola lamentela sulla poca memoria)
In realtà Nvidia ha lucrato su Pascal, ti ha dato un chippetto come 1080ti da 471mmq spacciandolo per chippone :sofico:
peccato che il chippetto andava come il chippettone 2079.99 (più giusto di 2080 onestamente) uscito 18 mesi dopo (se vuoi la dico in giorni per fare più figo), che costava di più :fagiano:
l'unica controtendenza fatta da nvidia di cui qualcuno non se ne è accorto :asd:
amon.akira
26-06-2022, 12:55
rimango sempre del parere che se uno non trova soddisfacente la nuova gen da un punto di vista prestazionale, è un ottima scusa per risparmiare e rimanere altri 2anni con la medesima...infatti molti rimasero con pascal e poi jhh con ampere disse che finalmente potevano aggiornare anche loro.
a me invece piacque, tant'è che presi la 2080ti che mi assicurò un bel boost anche in raster (venivo dalla 1080), a 4k la potenza non è mai troppa.
con i suoi 754mm mi sa che rimarrà il monolitico piu grande che ho avuto nel case XD
craesilo
26-06-2022, 12:58
rimango sempre del parere che se uno non trova soddisfacente la nuova gen da un punto di vista prestazionale, è un ottima scusa per risparmiare e rimanere altri 2anni con la medesima...infatti molti rimasero con pascal e poi jhh con ampere disse che finalmente potevano aggiornare anche loro.
a me invece piacque, tant'è che presi la 2080ti che mi assicurò un bel boost anche in raster (venivo dalla 1080), a 4k la potenza non è mai troppa.
con i suoi 754mm mi sa che rimarrà il monolitico piu grande che ho avuto nel case XD
è vero non ricordavo, cioè pure presi per il culo diciamo (ovviamente intendo chi è passato subito a turing medio-alta) :asd:
ti dirò ho letto più persone (tra le poche) che hanno preso la 80ti ben oltre il millino, che non 70 o 80, fatto inusuale perchè sarebbe dovuto essere il contrario
amon.akira
26-06-2022, 13:05
è vero non ricordavo, cioè pure presi per il culo diciamo :asd:
ti dirò ho letto più persone (tra le poche) che hanno preso la 80ti ben oltre il millino, che non 70 o 80, fatto inusuale perchè sarebbe dovuto essere il contrario
be dai per 100euro e l introduzione di nuove tecnologie come il dlss e il raytracing non era male come boost anche in raster...certo non era lo stesso da 980 a 1080 oppure da 2080 a 3080
https://www.youtube.com/watch?v=tsbYtbXx4yk
mikael84
26-06-2022, 15:17
ma il problema poteva essere la spalla, la gamba, i reni, cosa dovrebbe cambiarmi? alla fine io (come tutti) guardo le recensioni del d1 e le performance rispetto alla serie precedente (con la serie precedente ancora), era abbastanza un disastro il raffronto, e pure le recensioni lo facevano notare....qualcuno se l'è presa perchè ho scritto turing= polli, ma era l'immaginario collettivo scusate eh....mi pare che lo scrissi pure, erano le super quelle che sarebbero dovute uscire subito nell'autunno 18, che poi onestamente c'è qualcuno che non ha trovato tremendamente ridicolo l'appellativo -super-?
non per niente, quando sono state annunciate 3070 e 3080, si esultava come pazzi per il nuovo cambio di rotta alla pascal (a parte qualche piccola lamentela sulla poca memoria)
Ok, tutti guardiamo le recensioni e chiaramente ci interessano le prestazioni, però bisogna pure approfondire il discorso.
Nvidia ha creato turing con in mente i pro in primis ed i giocatori, a cui però da gli scarti di produzione.
Non aveva PP avanzati ed ha utilizzato un PP mod (sempre 16nm rimane) dove ha creato una microarchitettura innovativa con dei limiti, tra cui i costi per dei padelloni.
Nel quote di sotto dici, hanno sacrificato le prestazioni raster per il RT, niente di più falso.:p
Con Turing e quel PP, hanno rivisto la microarchitettura anche per il raster, visto che con molti meno cuda puoi eseguire contemporaneamente gli interi e guadagni efficienza, visto che Pascal è morto con soli 471mm2.
Se non hai PP nuovi cosa fai:
1)aspetti un nuovo PP altri 2 anni e non lanci nulla (per la gioia degli azionisti).
2)crei dei nuovi Pascal più grandi, dove per raggiungere la 2080ti avresti dovuto utilizzare chip tra i 4-450watt stock e 5/600watt con le custom, e fare dei refresh verso il basso. Ritrovandoti allo stesso tempo, con i pro a secco, chip dai consumi sproporzionati, ed una microarchitettura da buttare, senza FP16, senza DLSS, monca in dx12 e vulkan.
3) Aggiorni la microarchitettura per un raster di buona qualità e decisamente più efficiente, in più aggiungi feature come DLSS/RT/migliorie vulkan/dx12.
Solo il DLSS fa andare la 2070s come la 2080ti senza.
Se poi quello proposto non piace, c'è sempre lo scaffale. :)
peccato che fosse così patetica (mi ricordo ancora benissimo i milioni di commenti di scherno al lancio) che doveva essere lanciata allo stesso prezzo di 2 anni e mezzo prima...hanno sacrificato prestazioni in raster per la novità del RT, che immagino tutti avranno utilizzato alla grandissima (anche se nei forums non pareva :asd:)....poi hanno fatto uscire le super per rimediare un po' alla figuraccia, troppo tardi cmq
Considerando l'introduzione del dlss in realtà lo stacco era molto più ampio a favore di Turing, Pascal si é forse ripreso grazie AMD che ha esteso il supporto all'FSR anche alle vecchie GTX 🤣
Il fatto in sé é che lui cerca di trovare un senso per aggiornare a ogni generazione quando in realtà da sempre se vuoi avere passi grossi e per grosso intendo minimo un 2x, almeno una generazione la devi saltare.
Passare da Maxwell a Turing é un salto enorme, passare da Pascal ad Ampere idem.
Ma già da Turing ad ampere ci passa un dipende, forse l'unico salto interessante poteva essere appunto 2080 a 3080 ma solo perché é basata su GA102 e se non fosse stato per la pandemia e i rincari di oltre il 2xMSRP, le 3080ti e 3090 non se le sarebbe filati quasi nessuno...
Con Lovelace ci troviamo davanti a un salto di nodo importante quasi al pari dei 28->16nm, con la differenza che a questo giro Nvidia non si é limitata a un chippetto come la 1080ti da 471mmq che si allinea in proporzione ad AD103 ma sfornerà anche AD102 da 600mmq, quindi é una generazione che potrebbe sicuramente valere il cambio prestazionalmente ma non economicamente per chi ha già schede come 3080 e 3090 per il quale personalmente me ne starei buono fino alle 5000, che saranno anche le prime mcm di Nvidia.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Il fatto in sé é che lui cerca di trovare un senso per aggiornare a ogni generazione quando in realtà da sempre se vuoi avere passi grossi e per grosso intendo minimo un 2x, almeno una generazione la devi saltare.
Esatto!
craesilo
26-06-2022, 16:13
be dai per 100euro e l introduzione di nuove tecnologie come il dlss e il raytracing non era male come boost anche in raster...certo non era lo stesso da 980 a 1080 oppure da 2080 a 3080
appunto, non solo non era lo stesso, ma
1 l'arco temporale tra p e t è stato quello più grande
2 c'è stato il primo vero incremento di prezzo (evidentemente i milioni di commenti di ''sdegno'' me li sono immaginati :asd:)
3 il rt all'inizio rasentava l'inutilità e il dlss non mi sembra fosse per tutti i giochi
Il fatto in sé é che lui cerca di trovare un senso per aggiornare a ogni generazione
manco per sogno, difatti con 2070 e 80 mi ci pulivo il sedere, mentre la ti costava un rene e non mi serviva
ciò detto da m a p il salto era enorme
https://www.techpowerup.com/review/nvidia-geforce-gtx-1080/26.html...ti dimentichi magari anche la vram raddoppiata
poi per carità, resta delle tue opinioni molto contrastanti rispetto a quello che si diceva
Thunder-74
26-06-2022, 16:13
Considerando l'introduzione del dlss in realtà lo stacco era molto più ampio a favore di Turing, Pascal si é forse ripreso grazie AMD che ha esteso il supporto all'FSR anche alle vecchie GTX 🤣
Il fatto in sé é che lui cerca di trovare un senso per aggiornare a ogni generazione quando in realtà da sempre se vuoi avere passi grossi e per grosso intendo minimo un 2x, almeno una generazione la devi saltare.
Passare da Maxwell a Turing é un salto enorme, passare da Pascal ad Ampere idem.
Ma già da Turing ad ampere ci passa un dipende, forse l'unico salto interessante poteva essere appunto 2080 a 3080 ma solo perché é basata su GA102 e se non fosse stato per la pandemia e i rincari di oltre il 2xMSRP, le 3080ti e 3090 non se le sarebbe filati quasi nessuno...
Con Lovelace ci troviamo davanti a un salto di nodo importante quasi al pari dei 28->16nm, con la differenza che a questo giro Nvidia non si é limitata a un chippetto come la 1080ti da 471mmq che si allinea in proporzione ad AD103 ma sfornerà anche AD102 da 600mmq, quindi é una generazione che potrebbe sicuramente valere il cambio prestazionalmente ma non economicamente per chi ha già schede come 3080 e 3090 per il quale personalmente me ne starei buono fino alle 5000, che saranno anche le prime mcm di Nvidia.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Quoto tutto quello che hai scritto. La Turing ha j tradotto un chip stravolto con caratteristiche nuove e non è corretto paragonarlo con chip del passato o fare un paragone di Delta prestazionali con essi. Si è dovuto perdere in raster per poter avere il Raytracing in HW. Io il salto dalla 2080 alla 3080 l ho sentito e parecchio. Mediamente sopra al 60x100. Per dirne una sono passato in BFV da 110 a 170 fps.
Discorso 4000, hai ragione per chi viene da una 3000, potrebbe non essere necessario. Bisogna vedere se con se si porta qualche feature interessante di cui si potrà sapere al lancio, che so un dlss 3.0 o qualche altra cosetta e sopratutto se a pari fascia si riesce ad avere un Delta abbastanza interessante (30/40x100).
Diciamo che si potrebbe attendere gli eventi e decidere con calma post lancio, anche perché di titoli tripla A meritevoli neanche l ombra.
Poi c è discorso di rivendere il vecchio per prendere del nuovo e sarà anche questo da valutare la convenienza. Io ho già chi mi chiede di vendergli la mia Strix con tutto il WB.
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
26-06-2022, 16:33
Quoto tutto quello che hai scritto. La Turing ha j tradotto un chip stravolto con caratteristiche nuove e non è corretto paragonarlo con chip del passato o fare un paragone di Delta prestazionali con essi. Si è dovuto perdere in raster per poter avere il Raytracing in HW. Io il salto dalla 2080 alla 3080 l ho sentito e parecchio. Mediamente sopra al 60x100. Per dirne una sono passato in BFV da 110 a 170 fps.
Discorso 4000, hai ragione per chi viene da una 3000, potrebbe non essere necessario. Bisogna vedere se con se si porta qualche feature interessante di cui si potrà sapere al lancio, che so un dlss 3.0 o qualche altra cosetta e sopratutto se a pari fascia si riesce ad avere un Delta abbastanza interessante (30/40x100).
Diciamo che si potrebbe attendere gli eventi e decidere con calma post lancio, anche perché di titoli tripla A meritevoli neanche l ombra.
Poi c è discorso di rivendere il vecchio per prendere del nuovo e sarà anche questo da valutare la convenienza. Io ho già chi mi chiede di vendergli la mia Strix con tutto il WB.
Inviato dal mio iPhone X utilizzando Tapatalk
e due.:p
In raster non hai perso nulla, hanno aggiunto solo il 10% d'area per RT/tensor (quel 10% scende non poco però, in quanto erano obbligatorie le FP16 che pesano metà dei tensor). Ora come ora, tra fp16 e DLSS ci hai guadagnato non poco.
Lato raster, non potevi andare oltre per dei limiti di PP e di microarchitettura.:)
Lo schema a 7 TPC è pessimo, buono solo per calcolo ridondante. Il migliore è a 4
Mettere un GPC in più alla 2080ti, avrebbe voluto dire sforare gli 800mm2 ed in parte creare problemi ad Ampere.
800mm2 senza specificare i pro, entriamo a livello di padelle tesla per soli giocatori.:)
Purtroppo turing fa una grande innovazione senza un nodo dedicato.
Thunder-74
26-06-2022, 17:05
e due.:p
In raster non hai perso nulla, hanno aggiunto solo il 10% d'area per RT/tensor (quel 10% scende non poco però, in quanto erano obbligatorie le FP16 che pesano metà dei tensor). Ora come ora, tra fp16 e DLSS ci hai guadagnato non poco.
Lato raster, non potevi andare oltre per dei limiti di PP e di microarchitettura.:)
Lo schema a 7 TPC è pessimo, buono solo per calcolo ridondante. Il migliore è a 4
Mettere un GPC in più alla 2080ti, avrebbe voluto dire sforare gli 800mm2 ed in parte creare problemi ad Ampere.
800mm2 senza specificare i pro, entriamo a livello di padelle tesla per soli giocatori.:)
Purtroppo turing fa una grande innovazione senza un nodo dedicato.
Il mio discorso era, se non avessero implementato Tensor Core e RT Core, a parità di chip, avrebbero potuto spingere più sul raster. Nel senso che con il vecchio concetto di chip visto fino ad Pascal, si sarebbe potuto avere un margine maggiore con Turing in raster.
Con il termine "perdere" intendevo, che si è fatta una scelta differente :)
mikael84
26-06-2022, 17:10
Considerando l'introduzione del dlss in realtà lo stacco era molto più ampio a favore di Turing, Pascal si é forse ripreso grazie AMD che ha esteso il supporto all'FSR anche alle vecchie GTX
Il fatto in sé é che lui cerca di trovare un senso per aggiornare a ogni generazione quando in realtà da sempre se vuoi avere passi grossi e per grosso intendo minimo un 2x, almeno una generazione la devi saltare.
Passare da Maxwell a Turing é un salto enorme, passare da Pascal ad Ampere idem.
Ma già da Turing ad ampere ci passa un dipende, forse l'unico salto interessante poteva essere appunto 2080 a 3080 ma solo perché é basata su GA102 e se non fosse stato per la pandemia e i rincari di oltre il 2xMSRP, le 3080ti e 3090 non se le sarebbe filati quasi nessuno...
Con Lovelace ci troviamo davanti a un salto di nodo importante quasi al pari dei 28->16nm, con la differenza che a questo giro Nvidia non si é limitata a un chippetto come la 1080ti da 471mmq che si allinea in proporzione ad AD103 ma sfornerà anche AD102 da 600mmq, quindi é una generazione che potrebbe sicuramente valere il cambio prestazionalmente ma non economicamente per chi ha già schede come 3080 e 3090 per il quale personalmente me ne starei buono fino alle 5000, che saranno anche le prime mcm di Nvidia.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Ti sei dimenticato i pro però, che sono la loro priorità di base.:)
https://www.guru3d.com/articles_pages/geforce_rtx_3090_founder_review,30.html
Cmq sull'upgrade ogni 4 anni, scorporando i pro, e tutto il sistema HPC, datacenter, quadro, dipende sempre dalle esigenze.
Se sono un'enthusiast meglio quel 50% ogni 2 anni che 2x ogni 4. Non c'è una scelta giusta o sbagliata, ma del tutto personale.
Siamo praticamente a ragionamenti quasi da console.:)
mikael84
26-06-2022, 17:25
Il mio discorso era, se non avessero implementato Tensor Core e RT Core, a parità di chip, avrebbero potuto spingere più sul raster. Nel senso che con il vecchio concetto di chip visto fino ad Pascal, si sarebbe potuto avere un margine maggiore con Turing in raster.
Con il termine "perdere" intendevo, che si è fatta una scelta differente :)
No thunder, l'ho spiegato proprio su. :)
Pascal, chip stupendo, venduto a lucro (1080 con die da x60 o poco più), è morto con soli 471mm2, quella microarchitettura andava al più presto rivista, perchè il chip sopra, ovvero da 628mm2, ti avrebbe portato a consumi da Lovelace con +30% vs la 1080ti e costi elevatissimi (spoglia però di tutto).
Sarebbe stato un fallimento epocale.
Turing ha fatto una grandissima innovazione lato raster, con gli int nativi (36% perf, a pari cc), fp16 per vulkan, dx12 migliorate, ma si è ritrovato un nodo troppo stretto, ovvero quello di pascal moddato.
Esempio, turing sul PP di Ampere, poteva essere scritto su un die da soli 420mm2, ed occupare la fascia x70 o anche x80. Ecco così si che sarebbe stato un vero salto..:)
Ti sei dimenticato i pro però, che sono la loro priorità di base.:)
https://www.guru3d.com/articles_pages/geforce_rtx_3090_founder_review,30.html
Cmq sull'upgrade ogni 4 anni, scorporando i pro, e tutto il sistema HPC, datacenter, quadro, dipende sempre dalle esigenze.
Se sono un'enthusiast meglio quel 50% ogni 2 anni che 2x ogni 4. Non c'è una scelta giusta o sbagliata, ma del tutto personale.
Siamo praticamente a ragionamenti quasi da console.:)
Ma infatti non è un ragionamento che generalizzerei a tutti, cioè ognuno valuta i propri pro e contro in base alle proprie aspettative e se una generazione di chip non ti porta gli incrementi che vorresti la salti e aspetti la prossima.
Senza contare che non è detto che il cambio lo si faccia per puntare alla scheda top di gamma, uno può anche aspettare la nuova generazione per avere chip meno energivori a pari prestazioni o reperire qualche scheda usata a prezzi più convenienti, e la scelta in gran parte si lega anche ai titoli in uscita e quanta potenza occorre per i propri canoni per goderne.
Thunder-74
27-06-2022, 09:20
No thunder, l'ho spiegato proprio su. :)
Pascal, chip stupendo, venduto a lucro (1080 con die da x60 o poco più), è morto con soli 471mm2, quella microarchitettura andava al più presto rivista, perchè il chip sopra, ovvero da 628mm2, ti avrebbe portato a consumi da Lovelace con +30% vs la 1080ti e costi elevatissimi (spoglia però di tutto).
Sarebbe stato un fallimento epocale.
Turing ha fatto una grandissima innovazione lato raster, con gli int nativi (36% perf, a pari cc), fp16 per vulkan, dx12 migliorate, ma si è ritrovato un nodo troppo stretto, ovvero quello di pascal moddato.
Esempio, turing sul PP di Ampere, poteva essere scritto su un die da soli 420mm2, ed occupare la fascia x70 o anche x80. Ecco così si che sarebbe stato un vero salto..:)
Ok grazie, ricordavo che all uscita di Turing si parlasse di come nVidia avesse deciso di penalizzare un aumento di cuda in favore del RT.
Comunque ho capito il tuo discorso.
Inviato dal mio iPhone X utilizzando Tapatalk
29Leonardo
27-06-2022, 09:44
Ovviamente ognuno avrà il suo metro di giudizio ma personalmente ho sempre comprato le gpu in base alle prestazioni in game e non in base al boost prestazionale rispetto la gen precedente.
In base a questa affermazione è chiaro che non sia un enthusiast e uno a cui interessa stare al passo con la novità, del tipo se un gta V me lo gioco ad anni di distanza rispetto a quando è uscito non è un problema.
Faccio un esempio tra la gtx 970 e la 2070 ci sarà quanto, un boost del 100%? Che me frega se poi comunque nel gioco X faccio un framerate che non mi soddisfa?
Tipo rdr2 con la 970 in 1440p dettagli high/ultra è ingiocabile, con la 2070 stai sui 50 di media con picchi di 30-40 sul 0,1 low.
E' chiaro che pur essendoci un'abisso tra le due la nuova non la comprerò ugualmente pur sulla carta vantando un +100%, poi ci sono anche altre ragioni in mezzo, se sto su un sistema micro o mini atx relativamente fresco non voglio comprare schede grosse quanto un titanic che scaldano peggio di una stufa, oltre a consumare un botto.
mikael84
27-06-2022, 12:48
Ok grazie, ricordavo che all uscita di Turing si parlasse di come nVidia avesse deciso di penalizzare un aumento di cuda in favore del RT.
Comunque ho capito il tuo discorso.
Inviato dal mio iPhone X utilizzando Tapatalk
Si Thunder dici bene su questo, si pensava che JHH portasse lo schema di Volta, da cui nacque anche una disastrosa Titan Volta, ma per fortuna non lo fece, in quanto i primi chip a 6 (2070 liscia) e 2080ti scalavano male.
Infatti con Ampere ha dovuto metterci una pezza, aumentando la l1, ma soprattutto la banda x evitare gli stalli troppo elevati.
Quello veramente riuscito bene di Turing è il chip a 4 (la 2080 e 2070 super), capace di sfruttare al meglio sia il reparto geometrico che quello rop's, infatti ogni TPC tramite le SFU elabora 4 rop's (anche lo sfruttamento era migliore).
E' vero che scorporare il comparto RT, avrebbe permesso di risparmiare il 10% d'area, ma tale 10% sarebbe scemato in buona parte, per via delle unità FP16 che occupano metà tensor.
128 cc invece un tensor completo, quindi, saremmo tornati punto e a capo
A conti fatti è stata l'unica soluzione percorribile. :)
Faccio un esempio tra la gtx 970 e la 2070 ci sarà quanto, un boost del 100%? Che me frega se poi comunque nel gioco X faccio un framerate che non mi soddisfa?
Si, ed è proprio il passaggio che avevo fatto io. Tutti a dare addosso ad ampere, invece va benissimo e non mi pento per niente.
Si, ed è proprio il passaggio che avevo fatto io. Tutti a dare addosso ad ampere, invece va benissimo e non mi pento per niente.
Tutto e' relativo, vanno tutte benissimo, non e' che le schede si ingolfino, ma se confrontate con la precedente gen erano piuttosto scarse visto il prezzo, le varie Super hanno corretto il tiro e la 2080ti e' sempre stata una scheda top (anche di prezzo) che ancora ne bastona parecchie.
Anche l'RT era praticamente inusabile, serie 3000 pure risiamo piombati dal pp pessimo, non ci resta che attendere le 4000 sminuzzate/tagliate/denudate al dettaglio.
fraussantin
27-06-2022, 13:53
Si, ed è proprio il passaggio che avevo fatto io. Tutti a dare addosso ad ampere, invece va benissimo e non mi pento per niente.
Penso intendessi turing.
Cmq si anche io ho fatto quel passaggio ed è stato mostruoso senza andare a consumare l'ira di watt come con ampere.
In questo periodo la rimpiango un po la 2070
https://www.eteknix.com/source-claims-nvidia-end-3080-production/
terranux
27-06-2022, 19:37
Si Thunder dici bene su questo, si pensava che JHH portasse lo schema di Volta, da cui nacque anche una disastrosa Titan Volta, ma per fortuna non lo fece, in quanto i primi chip a 6 (2070 liscia) e 2080ti scalavano male.
Infatti con Ampere ha dovuto metterci una pezza, aumentando la l1, ma soprattutto la banda x evitare gli stalli troppo elevati.
Quello veramente riuscito bene di Turing è il chip a 4 (la 2080 e 2070 super), capace di sfruttare al meglio sia il reparto geometrico che quello rop's, infatti ogni TPC tramite le SFU elabora 4 rop's (anche lo sfruttamento era migliore).
E' vero che scorporare il comparto RT, avrebbe permesso di risparmiare il 10% d'area, ma tale 10% sarebbe scemato in buona parte, per via delle unità FP16 che occupano metà tensor.
128 cc invece un tensor completo, quindi, saremmo tornati punto e a capo
A conti fatti è stata l'unica soluzione percorribile. :)
bisognerebbe tu scrivessi un manuale di tutti i vari accessori che sviluppano il 3d di una gpu. :D
davide155
27-06-2022, 19:42
bisognerebbe tu scrivessi un manuale di tutti i vari accessori che sviluppano il 3d di una gpu. :DMikael secondo me avrebbe le capacità per fondare una nvidia italiana e fare il culo agli americani con delle super gpu a prezzi popolari :D
terranux
27-06-2022, 20:51
Mikael secondo me avrebbe le capacità per fondare una nvidia italiana e fare il culo agli americani con delle super gpu a prezzi popolari :D
DAVVERO. è UN MOSTRO
devAngnew
28-06-2022, 11:41
Finchè non risolvono (e gia ci sono diversi paper che parlano di soluzioni) questo :
Functions such as BVH building and refitting are
handled by the driver, and ray generation and shading is managed by the application through new types of shaders. (cit.)
E migliorano il warp stall (cosa che nvidia a sue parole lo fa da sempre) non andremo molto lontani nell'RT. :D
https://videocardz.com/newz/nvidia-reportedly-wants-to-cut-tsmc-orders-for-next-gen-rtx-40-gpus-5nm-wafers-amid-lower-demand
Le risate
Anche se meglio si concentrino su rumors e gossip piuttosto che analisti di mercato e stock price, perche' il calo delle azioni non ha niente a che vedere col mercato delle GPU, dove fino a ieri hanno venduto piu' di quanto producessero.
fraussantin
01-07-2022, 14:09
https://videocardz.com/newz/nvidia-reportedly-wants-to-cut-tsmc-orders-for-next-gen-rtx-40-gpus-5nm-wafers-amid-lower-demand
Le risateEeeeeee , ma il mining non c'entra niente
Ps il valore delle azioni dipende piu dalla fiducia dei mercati che dal fatturato in se.
FrancoBit
01-07-2022, 14:46
In questo momento tutto il mercato ha preso mazzate sulle gambe x le varie cause quali guerra, inflazione e c@zzi vari, tanto da essere entrati in una sorta di recessione, ahinoi. Poi si sono le "aspettative" ad essere calate sensibilemnte, vuoi per mining colato a picco, pèer aumento dei costi delle materie eccetera. Va considerato anche che fino a gennaio tutto il mercato era bello grassoccio, dopo la ripresa (finanziaria" post covid di marzo 2020. In ogni caso così si allunga un po' anche la "vita" delle ampere in qualche maniera. E hop il sospetto che con meno Lovelace in giro, potranno prezzarle a msrp piuttosot alti.... vedremo
ninja750
01-07-2022, 15:57
Eeeeeee , ma il mining non c'entra niente
mannaggia! proprio adesso che devono uscire le schede, il btc seguito dalle altre crypto sta scendendo :(
mikael84
01-07-2022, 20:31
DAVVERO. è UN MOSTRO
Semplice appassionato:)
Mikael secondo me avrebbe le capacità per fondare una nvidia italiana e fare il culo agli americani con delle super gpu a prezzi popolari :D
Sicuramente farei meglio di Koduri (che disastri):asd:
Scherzo ovviamente.:)
https://videocardz.com/newz/nvidia-reportedly-wants-to-cut-tsmc-orders-for-next-gen-rtx-40-gpus-5nm-wafers-amid-lower-demand
Le risate
Anche se meglio si concentrino su rumors e gossip piuttosto che analisti di mercato e stock price, perche' il calo delle azioni non ha niente a che vedere col mercato delle GPU, dove fino a ieri hanno venduto piu' di quanto producessero.
Eeeeeee , ma il mining non c'entra niente
Ps il valore delle azioni dipende piu dalla fiducia dei mercati che dal fatturato in se.
Tutto inevitabile e ben pronosticabile, JHH ora la tranvata se la prende nei denti.
Vuole liberarsi delle Ampere e nel mentre vendere qualche lovelace a prezzi da scorso anno, ma ha fatto i conti senza l'oste.
L'altra ipotesi è del tutto nulla.
Inoltre 2 anni fa, ha fatto un paper launch per anticipare AMD, ora gli lascia terreno, ma quando mai...:p
in ogni caso lui se l'è già studiata bene, declassando i chip, e iniziando le vendite a partire dalle Titan (x90). Le fasce mid-high, per ovvie ragioni partiranno dopo.
Per me posticiperanno il lancio di mezz'anno.
Staremo a vedere....
SinapsiTXT
01-07-2022, 21:37
Considerando che ad oggi parliamo sempre di rumor il modello che potrebbe sostituire la 3070 (a parità di prestazioni) potrebbe essere il 4060 o non ci sono dati per ipotizzarlo?
E i modelli verranno lanciati insieme al resto del top di gamma (4090-4080-4070) oppure i lanci verranno scaglionati così com'è avvenuto con la serie 3000?
Lo chiedo perchè mi piacerebbe prendere una 4080 per sostituirla con la 3070 o con la 3060ti (in pratica slittare una gpu sul pc secondario e rivendere quella in avanzo) però vorrei capire il salto in termine di prestazioni prima di farlo :fagiano: (sicuro che non vendo nulla prima di avere la nuova gpu montata nel pc :D ).
amon.akira
01-07-2022, 22:12
Considerando che ad oggi parliamo sempre di rumor il modello che potrebbe sostituire la 3070 (a parità di prestazioni) potrebbe essere il 4060 o non ci sono dati per ipotizzarlo?
E i modelli verranno lanciati insieme al resto del top di gamma (4090-4080-4070) oppure i lanci verranno scaglionati così com'è avvenuto con la serie 3000?
Lo chiedo perchè mi piacerebbe prendere una 4080 per sostituirla con la 3070 o con la 3060ti (in pratica slittare una gpu sul pc secondario e rivendere quella in avanzo) però vorrei capire il salto in termine di prestazioni prima di farlo :fagiano: (sicuro che non vendo nulla prima di avere la nuova gpu montata nel pc :D ).
4090 labbra tonanti (https://www.youtube.com/watch?v=Epchq7U346A)
4080 > 3090
4070 > 3080
4060 > 3070
mikael84
02-07-2022, 00:30
Per me posticiperanno il lancio di mezz'anno.
Staremo a vedere....
TSMC non è molto contenta, anzi...
Io invece la vedo diametralmente opposta. TSMC fornirà un'elevato numero di chip (in caso di altre problematiche non è TSMC visti gli accordi).
JHH vorrebbe prendere tempo per smaltire Ampere, ma non può dare 6 mesi di tempo al rivale. Senza considerare che una Ampere, una volta uscite le 7800/7900x di AMD non avranno più senso a MSRP.
Come prendere una 3080, quando hai una 4080 rivale.
Inoltre JHH ha già preventivato tutto, vendendo per prima le x90 ad alto margine, e dopo le fasce sotto. E da tempo che si aspettava questa situazione.:)
fraussantin
02-07-2022, 07:21
Se nvidia ha sufficente liquidità puo decidere di tenersi i chip in magazzino e far cmq salire il prezzo.
Tutto dipende da amd quando e con cosa sarà pronta.
4090 labbra tonanti (https://www.youtube.com/watch?v=Epchq7U346A)
4080 > 3090
4070 > 3080
4060 > 3070
Oddio bisogna vedere di quanto però.
Che la 4080 vada piu della 3090 mi pare logico visto che non è che ci sia troppo dalla 3080.
Se la 4070 monco Edition ha performance da 3080ti, per come é stata tagliata e considerando che la 4080 é praticamente un full chip ci passa un buon 35-40% tra i due.
Per prendere la 3080 basterebbe un AD104 da 6144cc, GA102 verrà completamente killato da AD104.
Infatti proprio per questo motivo che Nvidia non può permettersi di far slittare le GPU oltre le date preventivate.
Ad AMD basterebbe tirare fuori la 7700xt per far colare a picco il mercato di ampere, considerando che dovrebbe tallonare la 6900xt.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Ale55andr0
02-07-2022, 08:02
Ad AMD basterebbe tirare fuori la 7700xt per far colare a picco il mercato di ampere, considerando che dovrebbe tallonare la 6900xt.
Inviato dal mio M2012K11AG utilizzando Tapatalk
non se sarà un roito da 8gb stile 3070. Ormai in tutti i forum parlano della dotazione di ram delle future schede come requisito imprescindibile. Una 7700 da 8gb dopo una 6700 da 12 è pura idiozia
non se sarà un roito da 8gb stile 3070. Ormai in tutti i forum parlano della dotazione di ram delle future schede come requisito imprescindibile. Una 7700 da 8gb dopo una 6700 da 12 è pura idioziaEh... Se siamo fortunati AMD farà anche varianti clamshell quindi la 7700xt potrebbe avere 8/16gb.
Questo genere di mossa AMD l'ha attuata spesso in passato.
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
02-07-2022, 08:17
non se sarà un roito da 8gb stile 3070. Ormai in tutti i forum parlano della dotazione di ram delle future schede come requisito imprescindibile. Una 7700 da 8gb dopo una 6700 da 12 è pura idioziaNon vedo perche debba uscire da 8 giga.
Ale55andr0
02-07-2022, 08:46
Non vedo perche debba uscire da 8 giga.
perchè questo han riportato i leak, quindi se sono veri quando ci dicono che va come la 6900xt (anche se dubito che in 4k col bus striminzito sarà così...) lo sono anche per la dotazione di ram, se no sono tutte idiozie e basta, non è che facciamo cherry picking delle notizie che abbiamo ad oggi, prendiamo l'intero pacchetto
Non vedo perche debba uscire da 8 giga.Perché é su 128bit la 7700xt quindi solo 8gb o 16gb in clamshell.
perchè questo han riportato i leak, quindi se sono veri quando ci dicono che va come la 6900xt (anche se dubito che in 4k col bus striminzito sarà così...) lo sono anche per la dotazione di ram, se no sono tutte idiozie e basta, non è che facciamo cherry picking delle notizie che abbiamo ad oggi, prendiamo l'intero pacchetto
Ma non è una GPU pensata per il 4k, considerando anche i nuovi titoli in arrivo sarà adeguata per i 1440p o massimo 3440x1440.
Per il bus a 128bit la bw non è che sia un problema, AMD ha puntato molto sulla cache, rispetto alla 6900xt vero che hai un bus dimezzato ma la cache é praticamente raddoppiata, passi da 128mb di L3 a ben 256mb per la 7700xt, però é probabile che essendo la 6900xt più muscle in alcuni titoli possa rendere meglio, da vedere anche i test in RT per le nuove AMD.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Ma è sicuro abbiano le 6x? Se avranno le 6x e usciranno con 16gb mi immagino i prezzi...le 6x costano uno scatafascio tra tutto.
E considerando anche i bus castrati mi sembra d'obbligo avere le 6x ma a quel punto i prezzi voleranno
Pensassero a vendere le schede video a minimo 150-200€ in meno per fascia dagli attuali street price e se ne "libererebbero" più velocemente e ad un prezzo consono, visto che sono uscite 2 anni fa e tra poco sono in EOL... :doh:
mikael84
02-07-2022, 11:34
non se sarà un roito da 8gb stile 3070. Ormai in tutti i forum parlano della dotazione di ram delle future schede come requisito imprescindibile. Una 7700 da 8gb dopo una 6700 da 12 è pura idiozia
Oltre alla ram avrà un bus decisamente problematico per tale scheda, soprattutto avendo capacità RT migliorate (ancora ignote).
Diciamo che Lisa ultimamente oltre ai pregi, sta ereditando anche il peggio di JHH.
Dai bus devastati, ai bus senza logica (6500), ora anche una massiccia declassificazione delle fasce.
12288/4096st 1/3 delle ALU.
Ampere 10750/3584 (3060) 1/3 ALU
Turing 4608/1536 (1660ti) 1/3 ALU
Maxwell 3840/1280 (1060) 1/3 ALU.
Ti ricorda qualcosa...
Anzi queste ultime avevano il 192bit.
Certo le perf, ci saranno, ma non cambia a livello tecnico e commerciale.
mikael84
02-07-2022, 12:56
Eh... Se siamo fortunati AMD farà anche varianti clamshell quindi la 7700xt potrebbe avere 8/16gb.
Questo genere di mossa AMD l'ha attuata spesso in passato.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Difficile vedere il clamshell su schede di media fascia, ci ha già pensato JHH ad allinearsi con 10gb e magari taglia pure una 4060ti da 8.:)
Perché é su 128bit la 7700xt quindi solo 8gb o 16gb in clamshell.
Ma non è una GPU pensata per il 4k, considerando anche i nuovi titoli in arrivo sarà adeguata per i 1440p o massimo 3440x1440.
Per il bus a 128bit la bw non è che sia un problema, AMD ha puntato molto sulla cache, rispetto alla 6900xt vero che hai un bus dimezzato ma la cache é praticamente raddoppiata, passi da 128mb di L3 a ben 256mb per la 7700xt, però é probabile che essendo la 6900xt più muscle in alcuni titoli possa rendere meglio, da vedere anche i test in RT per le nuove AMD.
Inviato dal mio M2012K11AG utilizzando Tapatalk
La cache di AMD a livello teorico è eccellente, ma sul campo, almeno in raster non serve praticamente a nulla, in vari casi è pure deleteria per via di cache miss.:)
https://www.youtube.com/watch?v=ZIDi_PI8R8o&ab_channel=HardwareUnboxed
Quella di nvidia è ad altissima banda (3x), ma rispetto ad AMD ha accessi in ram molto più lenti, ecco che la situazione potrebbe essere diversa.
Ma è sicuro abbiano le 6x? Se avranno le 6x e usciranno con 16gb mi immagino i prezzi...le 6x costano uno scatafascio tra tutto.
E considerando anche i bus castrati mi sembra d'obbligo avere le 6x ma a quel punto i prezzi voleranno
Le g6x sono per nvidia, tramite accordi. Vedi anche le g5x. Il salto grossissimo saranno le g7.
Le g6x sono per nvidia, tramite accordi. Vedi anche le g5x. Il salto grossissimo saranno le g7.
Quindi le 7000 avranno sicuramente le g6?
Bene...
La vedo dura allora. O vanno di bus enormi, cosa che dubito fortemente o come memorie e banda non ci sarà storia. Certo al netto di non avere davvero 4070 a 160bit, che è al limite della decenza per la fascia media, ma potrebbe starci anche dando g6x da 21gbps
Io comunque in 2k con RT al massimo e tutto non ho mai visto più di 6gb allocati di memoria (non utilizzati).
Così come gli 8gb della 3070 erano sufficienti i 10gb della 3080 avanzano.
quello che mi preoccupa sono i core, dubito arrivino a 3ghz o quantomeno con consumi normali.
Io passando da 1935 a 1980 con la 3080 prendo qualcosa come 50w. Sicuramente il processo produttivo aiuta, ma contando anche come scala l'architettura ho forti dubbi che ci siano vantaggi tangibili ad avere core a 3ghz
mikael84
02-07-2022, 15:35
Quindi le 7000 avranno sicuramente le g6?
Bene...
La vedo dura allora. O vanno di bus enormi, cosa che dubito fortemente o come memorie e banda non ci sarà storia. Certo al netto di non avere davvero 4070 a 160bit, che è al limite della decenza per la fascia media, ma potrebbe starci anche dando g6x da 21gbps
Il bus, salvo revisioni sarà 128bit, come lo sarà anche per la 4060 e da vedere anche la 4060ti.
Riguardo le ram, si AMD mettere le g6lisce.
Le g6x come le g5x, sono state una pezza per aumentare temporaneamente la BW, in assenza di alternative. Il primo è passato a g6 QDR, mentre entrambe passeranno alle g7 prossimamente.
Bisogna dire però che Samsung è passata al d1a/b 10nm 4° revisione della nanometria e riuscirà a garantire sino a 24gb/s, come micron. Infatti AMD debutterà con le 20 probabilmente, nvidia si parla di 18.
Il problema è un altro però, i bus piccoli hanno il problema della ram, se le g6 hanno portato la doppia densità, per tali bus ci vorrebbe la quadrupla, ovvero 4gb a canale.
Io comunque in 2k con RT al massimo e tutto non ho mai visto più di 6gb allocati di memoria (non utilizzati).
Con 8gb si sta ancora dentro, ma ci sono titoli che oggettivamente necessitano di vram maggiori, vedi FC6, deathloop, ghostwire e altri. Il problema qua è ben diverso però, una GPU del calibro di una 3080ti/3090 con 8gb dovrà coprire dal 2022 al 2024/5.
Infatti, un taglio calibrato, come la 4070 doveva essere 12gb.
quello che mi preoccupa sono i core, dubito arrivino a 3ghz o quantomeno con consumi normali.
Io passando da 1935 a 1980 con la 3080 prendo qualcosa come 50w. Sicuramente il processo produttivo aiuta, ma contando anche come scala l'architettura ho forti dubbi che ci siano vantaggi tangibili ad avere core a 3ghz
Sulla velocità di clock, il salto nodo è davvero elevato, samsung 8nm ampere, ha dei clock applicati a circuito uguali, spesso pure peggio ai 16/12nm di TSMC.
AMD rivedendo le dispersioni è riuscita a boostare a 2,9 con i 6nm EUV.
In ogni caso, è difficile valutare un clock reale, sia per rese, sia per l'efficienza della microarchitettura, sia per la ricerca del clock via pipe.
nessuno29
02-07-2022, 15:54
Quindi le 7000 avranno sicuramente le g6?
Bene...
La vedo dura allora. O vanno di bus enormi, cosa che dubito fortemente o come memorie e banda non ci sarà storia. Certo al netto di non avere davvero 4070 a 160bit, che è al limite della decenza per la fascia media, ma potrebbe starci anche dando g6x da 21gbps
Io comunque in 2k con RT al massimo e tutto non ho mai visto più di 6gb allocati di memoria (non utilizzati).
Così come gli 8gb della 3070 erano sufficienti i 10gb della 3080 avanzano.
quello che mi preoccupa sono i core, dubito arrivino a 3ghz o quantomeno con consumi normali.
Io passando da 1935 a 1980 con la 3080 prendo qualcosa come 50w. Sicuramente il processo produttivo aiuta, ma contando anche come scala l'architettura ho forti dubbi che ci siano vantaggi tangibili ad avere core a 3ghz
In RT quindi con dlss attivo?
mikael84
02-07-2022, 18:27
Non c'entra con Lovelace, però ultimamente si stanno superando i limiti di decenza in fascia per chi non ha integrate.
Prima Lisa non collega il bus alla 6500, creando un fail clamoroso
Dopo Koduri con Intel, fa un fail di proporzioni bibliche
Ora JHH, accanto al suo cammino, ha preso la scheda peggiore TU117, l'ha smontata a metà.
Sempre disegnetto paintizzato in 2 secondi.:p
https://i.postimg.cc/w7Z17SVs/1630-2.png (https://postimg.cc/w7Z17SVs)
Prestazioni da 750 liscia a 150$, quando nel 2016 tale scheda costava 109$.
Ci manca che le serie x30 raggiungano le 200 euro, l'ex fascia delle x60 e siamo apposto.
Certo che intel doveva fare guerra in certe fasce, ma il suo fail ha dato vita al peggio di lisa e JHH.
Eh ma Intel che gli frega, fra mercati asiatici e in via di sviluppo, piu' tutti gli assemblati del globo, non credo gliene rimanga molte sul groppone no ?
Tornando a Nvidia pensare che schedine erano le 1050ti....
mikael84
02-07-2022, 18:43
Eh ma Intel che gli frega, fra mercati asiatici e in via di sviluppo, piu' tutti gli assemblati del globo, non credo gliene rimanga molte sul groppone no ?
Tornando a Nvidia pensare che schedine erano le 1050ti....
No, ma tutti aspettavamo l'entrata di Intel per smobilitare la situazione, soprattutto nel picco dei prezzi alti, invece è riuscita a far partorire le peggiori GPU a lisa e JHH.:p
No, ma tutti aspettavamo l'entrata di Intel per smobilitare la situazione, soprattutto nel picco dei prezzi alti, invece è riuscita a far partorire le peggiori GPU a lisa e JHH.:p
Ah ok, io la prima gen l'avevo gia' data per spacciata anzitempo :sofico:
Speriamo nelle prossime ma non ho seguito la roadmap onestamente :)
OrazioOC
02-07-2022, 21:59
Non c'entra con Lovelace, però ultimamente si stanno superando i limiti di decenza in fascia per chi non ha integrate.
Prima Lisa non collega il bus alla 6500, creando un fail clamoroso
Dopo Koduri con Intel, fa un fail di proporzioni bibliche
Ora JHH, accanto al suo cammino, ha preso la scheda peggiore TU117, l'ha smontata a metà.
Sempre disegnetto paintizzato in 2 secondi.:p
https://i.postimg.cc/w7Z17SVs/1630-2.png (https://postimg.cc/w7Z17SVs)
Prestazioni da 750 liscia a 150$, quando nel 2016 tale scheda costava 109$.
Ci manca che le serie x30 raggiungano le 200 euro, l'ex fascia delle x60 e siamo apposto.
Certo che intel doveva fare guerra in certe fasce, ma il suo fail ha dato vita al peggio di lisa e JHH.
A parte il fud più o meno giusto sulla 6500 xt, al momento in quella fascia è proprio la scheda messa meglio, alla fine su un pcie 4 è a livello di una 1650 super o 5500 xt, quindi leggermente sopra le vecchie rx 580 o 1060.
Ma il punto non è questo il punto è che non ci tengono più ad offrire schede dedicate con un rapporto prezzo/prestazioni dignitoso, bastava fare una 3050 con 4gb di vram con qualche cc spenta, una operazione in stile 1060 6gb->3gb, invece manco quello e siamo a ridosso di ada.:rolleyes:
Good luck ormai a farsi un pc da gioco anche entry level a 7/800 euro, quando di sola scheda video se ne vanno 350/400 euro per gpu un attimo decenti(rx 6600 o 3060).:rolleyes:
mikael84
03-07-2022, 00:27
Ah ok, io la prima gen l'avevo gia' data per spacciata anzitempo :sofico:
Speriamo nelle prossime ma non ho seguito la roadmap onestamente :)
Beh una micro di base più potente per alcuni stadi moltiplicatori della 3080/6800xt, che parte dalla 3070, copiando il chip di JHH è già un fallimento. Se poi vanno la metà delle attese, siamo al colmo. Per ora inizio catastrofico, considerando che userà slot TSMC 6nm euv da oltre 400mm2.:p
Per il resto, punta in grande scala al HPC in stile Tesla, datacenter, ma ha già annunciato di voler competere anche sulla fascia alta gaming, tanto che insieme ad Apple si è garantita i primi 3nm, dove produrrà le battlemage e l'IGPU meteor, dove si spingerà dai 4096shader a 20480 shader.
C'è anche un thread dedicato.:)
https://www.hwupgrade.it/forum/showthread.php?t=2933029&page=11
JHH invece, dopo aver trattato con samsung, ha aperto ad Intel per i Ribbonfet 20/18A della prossima gen blackwell:)
A parte il fud più o meno giusto sulla 6500 xt, al momento in quella fascia è proprio la scheda messa meglio, alla fine su un pcie 4 è a livello di una 1650 super o 5500 xt, quindi leggermente sopra le vecchie rx 580 o 1060.
Ma il punto non è questo il punto è che non ci tengono più ad offrire schede dedicate con un rapporto prezzo/prestazioni dignitoso, bastava fare una 3050 con 4gb di vram con qualche cc spenta, una operazione in stile 1060 6gb->3gb, invece manco quello e siamo a ridosso di ada.:rolleyes:
Good luck ormai a farsi un pc da gioco anche entry level a 7/800 euro, quando di sola scheda video se ne vanno 350/400 euro per gpu un attimo decenti(rx 6600 o 3060).:rolleyes:
Messa meglio si, ma ad un prezzo superiore. Il flop sta nel fatto di aver completamente rovinato una GPU per non mettergli un misero bus, a pari flops sarebbe stata mediamente una 3050(1660ti).
https://www.guru3d.com/articles_pages/palit_geforce_gtx_1630_4gb_dual_review,13.html
Sulla 1630 ci sta pure, ma è una scheda da 70 euro.:p
Solitamente le x30 venivano fatte su chip x08 con un GPC e 64bit, a costi praticamente irrisori.
No, ma tutti aspettavamo l'entrata di Intel per smobilitare la situazione, soprattutto nel picco dei prezzi alti, invece è riuscita a far partorire le peggiori GPU a lisa e JHH.:p
Intel flop senza nessuna possibilità di recupero secondo te Mikael ? Neanche tramite forti revisioni dei driver ? Mi chiedo se usciranno mai le Arc al di fuori dell'Asia.
Certo che chi si libera di Koduri fa l'affare della vita, è veramente un incapace.
nessuno29
03-07-2022, 08:42
Ma koduri è quello delle Vega?
Ma koduri è quello delle Vega?
Esatto, proprio lui.
https://www.tomshardware.com/news/nvidia-geforce-rtx-40-lineup-details-leak
Ma che è sta cafonata? Ditemi che sono un errore le g5 della 4070...e anche se fossero g6...
Praticamente la 4070 (come la 3060) l'hanno fatta per far spendere di più e prendersi la successiva e li hai due strade
4080 subito o aspettare mesi e mesi per una 4070ti, che se nemmeno dovesse esserci tutta la disponibilità arriverebbe quasi un anno dopo.
Sul marketing non gli si può dire nulla, eccezionali, ma sul resto...non parlo da possessore, ma dubito fortemente che chi ha una 3080/3070 farà il passaggio
fraussantin
03-07-2022, 09:07
Ma koduri è quello delle Vega?https://i.postimg.cc/2ysLwP2J/thCSaDS.gif (https://postimages.org/)
...ricordi ....
:asd:
Thunder-74
03-07-2022, 10:19
https://www.tomshardware.com/news/nvidia-geforce-rtx-40-lineup-details-leak
Ma che è sta cafonata? Ditemi che sono un errore le g5 della 4070...e anche se fossero g6...
Praticamente la 4070 (come la 3060) l'hanno fatta per far spendere di più e prendersi la successiva e li hai due strade
4080 subito o aspettare mesi e mesi per una 4070ti, che se nemmeno dovesse esserci tutta la disponibilità arriverebbe quasi un anno dopo.
Sul marketing non gli si può dire nulla, eccezionali, ma sul resto...non parlo da possessore, ma dubito fortemente che chi ha una 3080/3070 farà il passaggio
Tutto può essere ma sto kopite7kimi ne ha dette di cose che alla fine una delle tante sarà vera . Io aspetto info ufficiali e lascio perdere le chiacchiere di questo.
Inviato dal mio iPhone X utilizzando Tapatalk
https://www.tomshardware.com/news/nvidia-geforce-rtx-40-lineup-details-leak
Ma che è sta cafonata? Ditemi che sono un errore le g5 della 4070...e anche se fossero g6...
Praticamente la 4070 (come la 3060) l'hanno fatta per far spendere di più e prendersi la successiva e li hai due strade
4080 subito o aspettare mesi e mesi per una 4070ti, che se nemmeno dovesse esserci tutta la disponibilità arriverebbe quasi un anno dopo.
Sul marketing non gli si può dire nulla, eccezionali, ma sul resto...non parlo da possessore, ma dubito fortemente che chi ha una 3080/3070 farà il passaggio
E' palese sia una svista, non si sono mai viste delle GDDR5 da 18GT/s manco le velocità teoriche delle GDDR5X arrivavano a quei valori :sofico:
mikael84
03-07-2022, 11:40
Intel flop senza nessuna possibilità di recupero secondo te Mikael ? Neanche tramite forti revisioni dei driver ? Mi chiedo se usciranno mai le Arc al di fuori dell'Asia.
Certo che chi si libera di Koduri fa l'affare della vita, è veramente un incapace.
Al momento è difficile valutare chi ha le colpe maggiori, la microarchitettura andrebbe analizzata a puntino, per vedere le rese.
Pensa che le vecchie fury/vega, emulando le LDS e le SFU perdevano da 1/4 sino ad 1/2 delle ALU. La 980 per dire aveva metà della potenza computazionale e clicca per vedere che succede.
https://i.postimg.cc/pmx1xsSb/fury.png (https://postimg.cc/pmx1xsSb)
https://i.postimg.cc/8FzKfjDZ/fury-2.png (https://postimg.cc/8FzKfjDZ)
Autentici colabrodo, ci sarebbe da scrivere libri.:)
Non che JHH con Kepler abbia fatto grandi cose.:p
https://www.tomshardware.com/news/nvidia-geforce-rtx-40-lineup-details-leak
Ma che è sta cafonata? Ditemi che sono un errore le g5 della 4070...e anche se fossero g6...
Praticamente la 4070 (come la 3060) l'hanno fatta per far spendere di più e prendersi la successiva e li hai due strade
4080 subito o aspettare mesi e mesi per una 4070ti, che se nemmeno dovesse esserci tutta la disponibilità arriverebbe quasi un anno dopo.
Sul marketing non gli si può dire nulla, eccezionali, ma sul resto...non parlo da possessore, ma dubito fortemente che chi ha una 3080/3070 farà il passaggio
Sono i rumors di Kopite, già analizzati la scorsa settimana, riportati.
Cmq sulle G5 c'è un'errore di battitura, basta leggere affianco, 18 GT/S (giga transfers). in G5 sarebbero 9
...ricordi ....
:asd:
:asd:
Tutto può essere ma sto kopite7kimi ne ha dette di cose che alla fine una delle tante sarà vera . Io aspetto info ufficiali e lascio perdere le chiacchiere di questo.
Inviato dal mio iPhone X utilizzando Tapatalk
Ogni rumor va preso con le pinze, ma non mi stupirei affatto del taglio di bus.
Al momento sappiamo dei chip, ed anche la microarchitettura sua non torna.
Nell'analisi (non sua) viene riportato un 10% di grandezza SM in più, ma in parte dovrebbe riguardare la l1,L0 tensor ed RT maggiorati.
Ogni rumor va preso con le pinze, ma non mi stupirei affatto del taglio di bus.
Al momento sappiamo dei chip, ed anche la microarchitettura sua non torna.
Nell'analisi (non sua) viene riportato un 10% di grandezza SM in più, ma in parte dovrebbe riguardare la l1,L0 tensor ed RT maggiorati.
Io mi stupirei se un'architettura vicina alle 3000 e di una generazione successiva con 160bit eguagliasse una 3080 con g6x e 320bit
Pensavo compensassero il taglio di bus con memorie spinte, ma nemmeno quello.
mikael84
03-07-2022, 12:32
Io mi stupirei se un'architettura vicina alle 3000 e di una generazione successiva con 160bit eguagliasse una 3080 con g6x e 320bit
Pensavo compensassero il taglio di bus con memorie spinte, ma nemmeno quello.
Partiamo da un principio, quella non è una 4070, ma una 4060 mozzata di bus, x70 è il nome commerciale.
A livello di calcolo puro sarà di gran lunga superiore.
Basti considerare la 3070ti quanto gli è vicina, ed ha 6144cc e pari clock.
Il problema della banda c'è ed evidente, in rapporto alle potenzialità di calcolo, e sicuramente alle alte res, potrebbe pesare non poco.
Bisogna vedere l'aiuto della cache ad alta banda ed anche eventuali lavori di compressione.
La situazione sarà questa:
Ampere: warp - l0- 128kbl1/shared - 5mb l2 - BW
Lovelace: warp -l0- 192kbl1/shared -40mbl2 - BW
360 GB/S lovelace non saranno 360 GB/S ampere a livello di efficienza, bisognerà vederla sul campo.
Thunder-74
03-07-2022, 12:38
Partiamo da un principio, quella non è una 4070, ma una 4060 mozzata di bus, x70 è il nome commerciale.
A livello di calcolo puro sarà di gran lunga superiore.
Basti considerare la 3070ti quanto gli è vicina, ed ha 6144cc e pari clock.
Il problema della banda c'è ed evidente, in rapporto alle potenzialità di calcolo, e sicuramente alle alte res, potrebbe pesare non poco.
Bisogna vedere l'aiuto della cache ad alta banda ed anche eventuali lavori di compressione.
La situazione sarà questa:
Ampere: warp - l0- 128kbl1/shared - 5mb l2 - BW
Lovelace: warp -l0- 192kbl1/shared -40mbl2 - BW
360 GB/S lovelace non saranno 360 GB/S ampere a livello di efficienza, bisognerà vederla sul campo.
Sicuramente le cache di Lovelace giocheranno un bel ruolo. Staremo a vedere gli incrementi prestazionali rispetto alle precedenti. Alla fine quello conta e il prezzo da sborsare, ovviamente
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
03-07-2022, 13:21
Sicuramente le cache di Lovelace giocheranno un bel ruolo. Staremo a vedere gli incrementi prestazionali rispetto alle precedenti. Alla fine quello conta e il prezzo da sborsare, ovviamente
Inviato dal mio iPhone X utilizzando Tapatalk
Si a conti fatti contano l prestazioni finali.
A partire da turing gli stalli sono aumentati, significa che il warp è in attesa di dati dalla cache o dalla VRAM (limite di latenza).
Con Ampere per via del PP, non hanno potuto mettere mano alla cache l2, ma hanno rivisto la l1, aumentandola e raddoppiandone la banda, in più Ampere offre anche una cache istruzioni più grandi e una latenza di esecuzione inferiore.
Quando tu lanci un test o un gioco, guarda l'utilizzo medio della BW, se vedi che sta sempre sotto al 60%, significa che l'utilizzo warp è inefficiente e la gpu è sottoutilizzata. Faccio sempre l'esempio di un task manager lato GPU.
Visto che hai una 3080, controlla il memory controller load su AVG/max.
Quindi, avendo la banda a 10km, cerco di mettere una cache ad alta banda a metà strada, dove vanno a finire quantità di dati che sarebbero finiti in banda.
Questo è un parametro importante, soprattutto in RT.
Si a conti fatti contano l prestazioni finali.
A partire da turing gli stalli sono aumentati, significa che il warp è in attesa di dati dalla cache o dalla VRAM (limite di latenza).
Con Ampere per via del PP, non hanno potuto mettere mano alla cache l2, ma hanno rivisto la l1, aumentandola e raddoppiandone la banda, in più Ampere offre anche una cache istruzioni più grandi e una latenza di esecuzione inferiore.
Quando tu lanci un test o un gioco, guarda l'utilizzo medio della BW, se vedi che sta sempre sotto al 60%, significa che l'utilizzo warp è inefficiente e la gpu è sottoutilizzata. Faccio sempre l'esempio di un task manager lato GPU.
Visto che hai una 3080, controlla il memory controller load su AVG/max.
Quindi, avendo la banda a 10km, cerco di mettere una cache ad alta banda a metà strada, dove vanno a finire quantità di dati che sarebbero finiti in banda.
Questo è un parametro importante, soprattutto in RT.
Non stimolarmi troppo che ritorno alla 3070
Battute a parte, è sicuramente un ottimo test per capire. Ma se la gpu fosse sottoutilizzata, non si dovrebbe riflettere anche sulla % di utilizzo?
Thunder-74
03-07-2022, 13:44
Non stimolarmi troppo che ritorno alla 3070
Battute a parte, è sicuramente un ottimo test per capire. Ma se la gpu fosse sottoutilizzata, non si dovrebbe riflettere anche sulla % di utilizzo?
Semplifico molto. con la percentuale di utilizzo puoi valutare se la gpu nel suo insieme sta utilizzando tutti i cuda , ma non puoi valutare il come li sta utilizzando.
Ti faccio anche un altro esempio per farti capire come quel valore non debba essere preso come spia di sfruttamento della gpu inteso nel suo massimo. Lancio BFV , gpu al 100x100 consumo 300w. Eseguo metro con RT attivo, gpu al 100x100 430w. Questo è un esempio, ma ti sarà sicuramente capitato vedere titoli che consumano di più o di meno, a parti freq e impegno gpu. Questo indica appunto che quello che viene osservato è l interessamento della gpu (parte cuda, perché altrimenti nei titoli non RT sarebbe dovuto rimanere una percentuale inutilizzata), e non quanto viene spremuta. Come dire un titolo usa tutti gli 8 core di una cpu, quindi la usa tutta secondo info a video, ma non per questo tutti gli 8 core sono spremuti al 100x100.
Inviato dal mio iPad utilizzando Tapatalk
mikael84
03-07-2022, 15:49
Non stimolarmi troppo che ritorno alla 3070
Battute a parte, è sicuramente un ottimo test per capire. Ma se la gpu fosse sottoutilizzata, non si dovrebbe riflettere anche sulla % di utilizzo?
Semplifico molto. con la percentuale di utilizzo puoi valutare se la gpu nel suo insieme sta utilizzando tutti i cuda , ma non puoi valutare il come li sta utilizzando.
Ti faccio anche un altro esempio per farti capire come quel valore non debba essere preso come spia di sfruttamento della gpu inteso nel suo massimo. Lancio BFV , gpu al 100x100 consumo 300w. Eseguo metro con RT attivo, gpu al 100x100 430w. Questo è un esempio, ma ti sarà sicuramente capitato vedere titoli che consumano di più o di meno, a parti freq e impegno gpu. Questo indica appunto che quello che viene osservato è l interessamento della gpu (parte cuda, perché altrimenti nei titoli non RT sarebbe dovuto rimanere una percentuale inutilizzata), e non quanto viene spremuta. Come dire un titolo usa tutti gli 8 core di una cpu, quindi la usa tutta secondo info a video, ma non per questo tutti gli 8 core sono spremuti al 100x100.
Inviato dal mio iPad utilizzando Tapatalk
In parte è così, vedi gli AC/FC o ubisoft vari.
Tecnicamente è molto più complesso, anche per chi programma.
Il grande gigathread engine, si occupa di assegnare tutti i thread agli SM ed hai relativi warp.
Ogni SM ha 4 warp con 32 ALU in 2 datapath.
Se prendiamo una 3090, più che 10496cc totali, abbiamo 328 warp scheduler.
Questi effettivamente lavorano, ma non si può sapere applicazione per applicazione il tempo di occupazione, il tempo che sono attivi e l'utilizzo effettivo.
Ipotizzando di avere l'80% medio dei warp attivi, in base all'applicazione potresti ritrovarti con un'usage del 30-60%.
Questo perchè ogni warp ha delle attese, degli errori, delle code, viene bloccato (questo succede spesso, e più di uno alla volta), per cache miss, per selezione (una sorta di semaforo a precedenza), per code su warp in errore (spesso succede che le code del warp in errore vengano annullate e riallocate) etc.
Ecco che per rimediare a vari di questi problemi, aiutano le cache ed i tempi di attesa.
Avere una l1 più grande, aiuta a correggere e spedire prima il warp, una l2 più grande va a sgravarmi enormemente la banda, in quanto buona parte dei thread vanno da lui e non in banda.
Ovviamente è molto, ma molto più complesso, però è facile intuire che non è possibile avere un'usage costante.
In più lo scheduler del warp deve decidere quale micro cluster SFU utilizzare per l'elaborazione dei pixel (rop's), esso per farlo necessità di 4 cicli:)
Questo ovviamente succede anche se hai un 12900k@5,5ghz ed una 1630, in quanto è il lavoro interno che non può di certo essere visto da MSI ab.
E questo spiegherebbe l'aumento della l2 dato che con quel bus ridicolo e le g6 la banda sarà cmq poca.
Sicuramente la banda della 4080 sarà minore alla 3080 e per compensare subentra la l2 maggiorata.
Se però la l1 è stata maggiorata già con Ampere, il divario tanto più dovrebbe assottigliarsi tra la 3000 e 4000, mi sfugge qualcosa?
Io più leggo i tuoi post più continuo a credere che schede come le 3000 non le avremo più
mikael84
03-07-2022, 18:14
E questo spiegherebbe l'aumento della l2 dato che con quel bus ridicolo e le g6 la banda sarà cmq poca.
Sicuramente la banda della 4080 sarà minore alla 3080 e per compensare subentra la l2 maggiorata.
Se però la l1 è stata maggiorata già con Ampere, il divario tanto più dovrebbe assottigliarsi tra la 3000 e 4000, mi sfugge qualcosa?
Io più leggo i tuoi post più continuo a credere che schede come le 3000 non le avremo più
Non è solo una questione relativa ai bus piccoli o molto piccoli.
Pensa la 4090 che avrà la stessa banda della 3090ti, con 2,5 volte la potenza teorica.
Se collegassimo tutti i GPC alla memoria, dovremmo costruire un 768bit.
Riguardo la l1/shared (la l1 viene condivisa con la cache texture) su turing era a soli 96kb con 116 gb/s.
Su ampere passa a 128kb ma a ben 219 gb/s.
Su Lovelace dovremmo vedere 192kb a banda ancora maggiorata, ovvero un 2x turing con il 3x della banda almeno.:)
Piccolo rumor sui possibili clock, si parla di ben 2750mhz in boost in game per la 4090:
https://videocardz.com/newz/nvidia-geforce-rtx-4090-to-feature-2520-mhz-boost-clock-almost-50-higher-than-rtx-3090
Ale55andr0
04-07-2022, 09:51
Piccolo rumor sui possibili clock, si parla di ben 2750mhz in boost in game per la 4090:
https://videocardz.com/newz/nvidia-geforce-rtx-4090-to-feature-2520-mhz-boost-clock-almost-50-higher-than-rtx-3090
peccato confermino il resto delle ignominie, come i 160bit della 4070.
Speriamo siano fregnacce, del resto le vere specs delle 3000 hanno smentito tutti o quasi...
TigerTank
04-07-2022, 10:08
Piccolo rumor sui possibili clock, si parla di ben 2750mhz in boost in game per la 4090:
https://videocardz.com/newz/nvidia-geforce-rtx-4090-to-feature-2520-mhz-boost-clock-almost-50-higher-than-rtx-3090
Da vedere poi come si comporteranno nei test seri, a livello di sistemi di tagli automatici in base temperatura e potenza. Il fatto che siano energivore e calorose mi fa pensare che possano essere anche parecchio "blindate" in tal senso.
scorpion73
04-07-2022, 14:54
Da vedere poi come si comporteranno nei test seri, a livello di sistemi di tagli automatici in base temperatura e potenza. Il fatto che siano energivore e calorose mi fa pensare che possano essere anche parecchio "blindate" in tal senso.
Comunque con quelle specifiche sembra veramente una bestia epocale la 4090, sulla carta è in grado di eclissare qualsiasi cosa, inclusa la 4080 che la segue a ruota.
Peccato che ho forti sospetti sia in grado di eclissare anche il portafogli :cry: :cry:
ninja750
04-07-2022, 14:59
peccato confermino il resto delle ignominie, come i 160bit della 4070.
non la compreresti una 4070 160bit 200w a 250€ ? hai comprato ben di peggio :O
dipende sempre tutto da prezzo e consumi..
mikael84
04-07-2022, 15:11
Piccolo rumor sui possibili clock, si parla di ben 2750mhz in boost in game per la 4090:
https://videocardz.com/newz/nvidia-geforce-rtx-4090-to-feature-2520-mhz-boost-clock-almost-50-higher-than-rtx-3090
Certo che da samsung, fosse confermato è un bel balzo.
La 4070 a 2750 fissi avrebbe il ratio teorico di una 3090 a 1900 fissi a pari microarchitettura.
La prima avrebbe shader più efficienti per via della l1/l2, mentre la seconda un bus decisamente gigante.
per la 4080 stesso discorso, una 3080ti a cuda più efficienti ma a 2,75 (45% clock).
La grossa incognita saranno le TI.
https://i.postimg.cc/R0TH1J30/vd.png
Al momento è difficile valutare chi ha le colpe maggiori, la microarchitettura andrebbe analizzata a puntino, per vedere le rese.
Pensa che le vecchie fury/vega, emulando le LDS e le SFU perdevano da 1/4 sino ad 1/2 delle ALU. La 980 per dire aveva metà della potenza computazionale e clicca per vedere che succede.
https://i.postimg.cc/pmx1xsSb/fury.png (https://postimg.cc/pmx1xsSb)
https://i.postimg.cc/8FzKfjDZ/fury-2.png (https://postimg.cc/8FzKfjDZ)
Autentici colabrodo, ci sarebbe da scrivere libri.:)
In fase di progettazione e simulazione i progettisti è possibile che non riescono a prevedere queste problematiche prestazionali ? Le accettano per via di cause maggiori (costi, tempo) oppure non emergono in modo concreto sino a progetto ultimato e quindi difficilmente rimaneggiabile ? :confused:
Insomma, Raja, tra un ballo ed un sigaro, avrò capito che la sua gpu era un aborto oppure no ? :mbe:
mikael84
04-07-2022, 15:41
In fase di progettazione e simulazione i progettisti è possibile che non riescono a prevedere queste problematiche prestazionali ? Le accettano per via di cause maggiori (costi, tempo) oppure non emergono in modo concreto sino a progetto ultimato e quindi difficilmente rimaneggiabile ? :confused:
Insomma, Raja, tra un ballo ed un sigaro, avrò capito che la sua gpu era un aborto oppure no ? :mbe:
Si che lo vedono, quello è il risultato di GCN, che aveva limiti enormi di scaling. Una GPU messa li per contrastare la 980ti, ma aveva troppi limiti, tanto che è stata la prima GPU ad integrare le HBM. Sino a RDNA sono andati avanti così, mettendoci giusto qualche pezza (vega era una fury rattoppata).
Per certi versi era un vantaggio mantenere un'architettura identica, per altri scomoda.
Kepler di nvidia era un colabrodo (anche se finchè supportato era validissimo), ma tutto fu aggiustato con maxwell, questo però al contrario di GCN la portò a morire presto per via dei suoi limiti, soprattutto a dipendenze software.
Sono scelte pianificate che si fanno.
Una microarchitettura la puoi pezzare quanto vuoi, ma quando i limiti sono troppo evidenti, meglio rivedere tutto.
Da vedere poi come si comporteranno nei test seri, a livello di sistemi di tagli automatici in base temperatura e potenza. Il fatto che siano energivore e calorose mi fa pensare che possano essere anche parecchio "blindate" in tal senso.
Si troveranno buoni compromessi stanne certo. Se già in BBase superi i 2500 a 0,85/7v.:)
TigerTank
04-07-2022, 15:52
Si troveranno buoni compromessi stanne certo. Se già in BBase superi i 2500 a 0,85/7v.:)
Vedremo un pò Mike....ipotizzando che quelle sopra siano le specifiche da founders, da 3080 a 4080 correrebbero 100W. E chissà i modelli custom :D
Le attuali anche con l'undervolt ad aria scaldicchiano comunque sotto stress intenso.
Di sicuro mi aspetterei dissipazioni più efficaci su tutta la linea...altrimenti verrebbe dire grande potenziale d'architettura ma blindature sul PL, specialmente sui modelli standard. Imho ovviamente.
mikael84
04-07-2022, 16:15
Vedremo un pò Mike....ipotizzando che quelle sopra siano le specifiche da founders, da 3080 a 4080 correrebbero 100W. E chissà i modelli custom :D
Le attuali anche con l'undervolt ad aria scaldicchiano comunque sotto stress intenso.
Di sicuro mi aspetterei dissipazioni più efficaci su tutta la linea...altrimenti verrebbe dire grande potenziale d'architettura ma blindature sul PL, specialmente sui modelli standard. Imho ovviamente.
Sui valori TDP è ancora da chiarire, ma è piuttosto probabile che la 4090 e la 4080 FE abbiano il connettore della 3090ti a 3x8 (16pin nativo).
Potrebbero esserci anche partner con i classici connettori normali, sempre a 3x8.
Roba che abbiamo già visto con le custom GA102, come la tua alla fine.:)
Per il dissipatore, il DVT dovrebbe finire a metà luglio, quindi possiamo aspettarci di vedere qualcosa in questo mese.
I tempi si stanno avvicinando, tanto che il mese prossimo, ci sarà la fase finale bios.
Ale55andr0
04-07-2022, 16:55
non la compreresti una 4070 160bit 200w a 250€ ? hai comprato ben di peggio :O
dipende sempre tutto da prezzo e consumi..
non vedo come 160 possano essere peggio di 256
mikael84
04-07-2022, 19:11
non vedo come 160 possano essere peggio di 256
Sostanzialmente vuole dare qualche chance alle Ampere rimaste.
Considerando i consumi quasi da pari fascia e salvo stravolgimenti lato RT, le 3080 12/3080ti ad un certo prezzo, le preferirei, considerando che ad oggi non cambiamo GPU come ai vecchi tempi.
L'unica veramente schiacciata sarà la 3080 da 10, però considerando il MSRP medio di 599$ (ipotizzo), e magari con pochi esemplari al lancio, si rischia di ritrovarsele a prezzi altini inizialmente.
Certo che da samsung, fosse confermato è un bel balzo.
La 4070 a 2750 fissi avrebbe il ratio teorico di una 3090 a 1900 fissi a pari microarchitettura.
La prima avrebbe shader più efficienti per via della l1/l2, mentre la seconda un bus decisamente gigante.
per la 4080 stesso discorso, una 3080ti a cuda più efficienti ma a 2,75 (45% clock).
La grossa incognita saranno le TI.
Per come hanno tagliato la 4070 credo che le TI le vedremo tardi.
E' altamente probabile che tra un annetto refreshano tutti i chip con le Super, ricalibrando meglio tutto, infatti basterebbe levare di mezzo la 4070 in favore di una 4060s con qualche unità laserata e scontata e fare una 4070s dagli scarti di AD103, un pò come successo con turing con 2060s e 2070s.
Poichè il vuoto che hanno lasciato tra 4070 e 4080 è troppo consistente, la stessa 4070 senza i 192bit di bus e quindi i 12GB di Vram commercialmente fa vendere ancora benino le precedenti Ampere.
Non a caso mi pare che la produzione di 3080 10GB sia terminata, quindi a parte rimanenze di magazzino la 4070 si dovrebbe scontrare con 3080 12GB e 3080ti ponendo le basi per una sorta di vram war dei poveri (poveri perchè sono 2GB miseri differenza XD).
Analogamente pure amd si trova in una situazione simile se non decisamente peggiore, poichè la 7700XT avrebbe soli 8GB rispetto a 6800XT e 6900XT con ben 16GB, una strada percorribile potrebbe essere il clamshell e quindi doppia variante 8/16GB però è da vedere se sarà fattibile su questa fascia.
fraussantin
04-07-2022, 20:22
Penso che la 4070 la vogliano prezzare poco. Intorno ai 500.
E si sono lasciati piu corda per una 4070ti rispetto ad ampere dove non era premeditata imho .
Vabbè con ampere ciò che ha pesato è stata l'assenza di un GA103 desktop e le pessime rese degli 8nm di samsung.
La 3080 stampata su GA102 ha reso insensati chip come la 3080ti che nella teoria avrebbero il 50% in più di prezzo...
Se non fosse stata per la situazione colore cioccolato di questi due anni non credo che neanche avrebbero concepito chip come 3070ti o 3080ti.
TigerTank
04-07-2022, 20:30
Sostanzialmente vuole dare qualche chance alle Ampere rimaste.
Considerando i consumi quasi da pari fascia e salvo stravolgimenti lato RT, le 3080 12/3080ti ad un certo prezzo, le preferirei, considerando che ad oggi non cambiamo GPU come ai vecchi tempi.
L'unica veramente schiacciata sarà la 3080 da 10, però considerando il MSRP medio di 599$ (ipotizzo), e magari con pochi esemplari al lancio, si rischia di ritrovarsele a prezzi altini inizialmente.
Magari è anche per questo che stando ai rumors, bloccherebbero la produzione della 3080 12GB. E non solo perchè fa "autoconcorrenza" rispetto alle scorte di 3080 10GB e alle 3080Ti da piazzare a cifre più alte :)
Poi beh secondo me, prima inizieranno ad alimentare l'hype concreto e prima significherà che avranno raggiunto le quote prefissate di 3090Ti che volevano/vorrebbero vendere :D
Per me se la 3080 si scontra con la 4070 significa che nvidia ha fatto un ottimo lavoro.
Detto questo dubito fortemente che ci sia un ulteriore calo vs. fascia precedente. L'hanno fatta dalla 3000 alla 2000 dove erano oggettivamente socraprezzate
Il miracolo della 3070 non penso tornerà con la serie 4000. La 4080 non è male, ma non penso proprio costi 700euro
Ale55andr0
04-07-2022, 21:08
Il miracolo della 3070 non penso tornerà con la serie 4000
di quale miracolo parli?
Per me se la 3080 si scontra con la 4070 significa che nvidia ha fatto un ottimo lavoro.
Detto questo dubito fortemente che ci sia un ulteriore calo vs. fascia precedente. L'hanno fatta dalla 3000 alla 2000 dove erano oggettivamente socraprezzate
Il miracolo della 3070 non penso tornerà con la serie 4000. La 4080 non è male, ma non penso proprio costi 700euro
In realtà l'ambiguità della 4070 sta nel fatto che dovrebbe prendere la 3090 ma con il quantitativo di vram di 3080, sarebbe stata perfetta con 192bit...
Per andare come 3080 basterebbero 6144cc, considerati i 2.7-2.8ghz di boost e con un taglio del genere i 160bit avrebbero pure avuto senso, avresti avuto un chip 1 a 1 con 3080, ma meno energivoro e più efficiente.
La 3070 in sè pure a prezzo di listino non era tutto questo che, forse i chip migliori per prezzo prestazioni erano proprio la 3060ti a 399$ e la 3080 a 699$, o ripiegare su una 2080ti usata XD
Ma l'esplosione del mercato aveva piani ben diversi, ancora oggi a distanza di quasi 2 anni i prezzi sono tutto tranne che a listino...
di quale miracolo parli?
Di fatto andava come la 80ti della serie precedere a meno della metà.
Andando un po' meno della controparte 80 costando 1/3 in meno. Vedi te
In realtà l'ambiguità della 4070 sta nel fatto che dovrebbe prendere la 3090 ma con il quantitativo di vram di 3080, sarebbe stata perfetta con 192bit...
Per andare come 3080 basterebbero 6144cc, considerati i 2.7-2.8ghz di boost e con un taglio del genere i 160bit avrebbero pure avuto senso, avresti avuto un chip 1 a 1 con 3080, ma meno energivoro e più efficiente.
La 3070 in sè pure a prezzo di listino non era tutto questo che, forse i chip migliori per prezzo prestazioni erano proprio la 3060ti a 399$ e la 3080 a 699$, o ripiegare su una 2080ti usata XD
Ma l'esplosione del mercato aveva piani ben diversi, ancora oggi a distanza di quasi 2 anni i prezzi sono tutto tranne che a listino...
Io continuo a non credere che possa arrivare alla 3080ti o peggio la 3090.
Ok Ia frequenza, ok i cuda, ma quest'architettura non scala così bene e infatti la frequenza del core al salire della frequenza consumi a parte non da quanto atteso o dovrebbe.
Ps: le founder sono aumentate di listino nei 2 anni...mannaggia a loro
mikael84
05-07-2022, 00:07
Per come hanno tagliato la 4070 credo che le TI le vedremo tardi.
E' altamente probabile che tra un annetto refreshano tutti i chip con le Super, ricalibrando meglio tutto, infatti basterebbe levare di mezzo la 4070 in favore di una 4060s con qualche unità laserata e scontata e fare una 4070s dagli scarti di AD103, un pò come successo con turing con 2060s e 2070s.
Poichè il vuoto che hanno lasciato tra 4070 e 4080 è troppo consistente, la stessa 4070 senza i 192bit di bus e quindi i 12GB di Vram commercialmente fa vendere ancora benino le precedenti Ampere.
Non a caso mi pare che la produzione di 3080 10GB sia terminata, quindi a parte rimanenze di magazzino la 4070 si dovrebbe scontrare con 3080 12GB e 3080ti ponendo le basi per una sorta di vram war dei poveri (poveri perchè sono 2GB miseri differenza XD).
Analogamente pure amd si trova in una situazione simile se non decisamente peggiore, poichè la 7700XT avrebbe soli 8GB rispetto a 6800XT e 6900XT con ben 16GB, una strada percorribile potrebbe essere il clamshell e quindi doppia variante 8/16GB però è da vedere se sarà fattibile su questa fascia.
Sicuramente, oltre ai full chip, ci saranno diverse varianti, anche in base a cosa tirerà fuori AMD.
Con il principale partner Micron che ha a listino le 24 gb/s, penso che vari chip le adottino in vari rebrand.
Anche la 3080 12 è terminata, ma avranno svariate giacenze sicuramente, è anche un taglio pensato. A garanzia piena mi inscimmia più una di queste che una 4070.:)
AMD è anche peggio, ram improponibile nel 2022 pre UE5, ma il paradosso è che potrebbe integrare matrici (come i tensor)m e non solo avrà un miglioramento sicuramente deciso sul RT.
Penso che la 4070 la vogliano prezzare poco. Intorno ai 500.
E si sono lasciati piu corda per una 4070ti rispetto ad ampere dove non era premeditata imho .
Si spera, ma c'è un 3x die di costi, pcb, ram, rispetto la 3070, ed inizialmente potrebbe non esserci un mercato pieno per lucrarci, non per volere di TSMC.
TSMC pare bella carica.
Magari è anche per questo che stando ai rumors, bloccherebbero la produzione della 3080 12GB. E non solo perchè fa "autoconcorrenza" rispetto alle scorte di 3080 10GB e alle 3080Ti da piazzare a cifre più alte :)
Poi beh secondo me, prima inizieranno ad alimentare l'hype concreto e prima significherà che avranno raggiunto le quote prefissate di 3090Ti che volevano/vorrebbero vendere :D
Alcuni rumor, sembrano scoprire anche l'acqua calda.
JHH era già pronto per questa situazione, ha tagliato le schede declassandole notevolmente, tramite anche accordi con Lisa (il famoso tavolo, da lui stesso ribadito), in più si vende le schede ad alto margine inizialmente come le Titan (x90).
TSMC è pronta e lo sarà anche JHH, che mai cederà le fasce a Lisa.
Tutta roba pianificata, di certo, previa taglio di prezzi, i fondi di magazzino come le 12/ti, se le taglia, potrebbero essere ottime soluzioni, in virtù del taglio che ha fatto alla x70.:)
mikael84
05-07-2022, 00:24
Io continuo a non credere che possa arrivare alla 3080ti o peggio la 3090.
Ok Ia frequenza, ok i cuda, ma quest'architettura non scala così bene e infatti la frequenza del core al salire della frequenza consumi a parte non da quanto atteso o dovrebbe.
Ps: le founder sono aumentate di listino nei 2 anni...mannaggia a loro
E' matematica.
RTX 3080ti@1900 x 10240 x2 /38,9tf
RTX 4070@2750 x 7168 x2 /39,4tf
Tramite il discorso di ieri, abbiamo visto che la 4070 sarà superiore per l1/l2.
Discorso scaling, come ieri, mi ritrovo meno stalli, e quelli che lavorano viaggiano a quasi 1ghz sopra, quindi l'efficienza è dalla parte della 4070.
Pixel:
112 x1900 = 212gpx
80x2750 = 220 gpx
TMU: come i flops
Geometria:
Vince la 4070 come i pixel.
RT:
3080ti: 80 RT core x 1900 = 76 tf. REV2
4070: 56 core x 2750 = 77TF REV 3
Il vero problema della 4070, sarà in condizioni disperate, dove la 3080ti potrebbe avere vantaggi sul bus, come il 4k no DLSS, dove la x70 potrebbe incorrere in latenze da saturazione, ma in certe condizioni saranno due schede non all'altezza..:)
Si però c'è da dire che ne 3080ti e ne 4070 sono schede da 4k maxato, soprattutto con i prossimi titoli in arrivo.
Per me sono ottime schede che anche per 3 anni non dovrebbero avere problemi a 1440p o massimo 3440x1440, soprattutto sfruttando il dlss.
Diciamo che per la 4070 sono quei 160bit che sono difficili da digerire, il fatto ironico é che probabilmente la 4070 mobile avrà i 192bit pieni e full chip 🤣
Inviato dal mio M2012K11AG utilizzando Tapatalk
E' matematica.
RTX 3080ti@1900 x 10240 x2 /38,9tf
RTX 4070@2750 x 7168 x2 /39,4tf
Tramite il discorso di ieri, abbiamo visto che la 4070 sarà superiore per l1/l2.
Discorso scaling, come ieri, mi ritrovo meno stalli, e quelli che lavorano viaggiano a quasi 1ghz sopra, quindi l'efficienza è dalla parte della 4070.
Pixel:
112 x1900 = 212gpx
80x2750 = 220 gpx
TMU: come i flops
Geometria:
Vince la 4070 come i pixel.
RT:
3080ti: 80 RT core x 1900 = 76 tf. REV2
4070: 56 core x 2750 = 77TF REV 3
Il vero problema della 4070, sarà in condizioni disperate, dove la 3080ti potrebbe avere vantaggi sul bus, come il 4k no DLSS, dove la x70 potrebbe incorrere in latenze da saturazione, ma in certe condizioni saranno due schede non all'altezza..:)
Però mikael una cosa sono i conti e la potenza bruta sulla carta, dove anche storicamente, amd è sempre stata superiore, poi si è visto com'è andata a finire a ogni giro.
I tf che abbiamo sulla carta non necessariamente risultano allineati alle performance tanto più con architetture differenti
Però mikael una cosa sono i conti e la potenza bruta sulla carta, dove anche storicamente, amd è sempre stata superiore, poi si è visto com'è andata a finire a ogni giro.
I tf che abbiamo sulla carta non necessariamente risultano allineati alle performance tanto più con architetture differenti
Appunto, ci si aspetterebbe anche migliorie architetturali e software oltre alla potenza bruta matematica, quindi ulteriori vantaggi per le nuove gpu anche laddove i numeri siano simili.
Cutter90
05-07-2022, 10:26
Si però c'è da dire che ne 3080ti e ne 4070 sono schede da 4k maxato, soprattutto con i prossimi titoli in arrivo.
Per me sono ottime schede che anche per 3 anni non dovrebbero avere problemi a 1440p o massimo 3440x1440, soprattutto sfruttando il dlss.
Diciamo che per la 4070 sono quei 160bit che sono difficili da digerire, il fatto ironico é che probabilmente la 4070 mobile avrà i 192bit pieni e full chip 🤣
Inviato dal mio M2012K11AG utilizzando Tapatalk
Beh oddio. Che la 3080 ti non vada bene per il 4k maxato parliamone.... cioè, a meno di volere il 4k maxato a 120 fps fissi, la 3080 ti maxa tranquillamente tutto sopra i 60 fps. E oltre con il dlss, quindi...
TigerTank
05-07-2022, 10:52
Chiaro che ad ogni generazione bisognerà vedere se le schede saranno effettivamente "4K maxato a refresh maggiorato"(tralasciando la questione DLSS) perchè comunque anche i nuovi giochi diventano via via più pesanti(intendendo in senso buono e non perchè male ottimizzati :D ), includendo un ray tracing più complesso e articolato.
Thunder-74
05-07-2022, 10:59
Da sempre si fa due passi avanti e uno indietro . Due avanti grazie alla tecnologia che avanza e uno indietro per titoli più esosi .
Comunque Dono, i conti di Mike (che non sono di Mike, perché sono quelli che si fanno), servono a darti la misura del fatto che le due schede, solo paragonandole per cuda , freq. ecc , ti danno circa i medesimi teraflops . Poi che tali Tf non siano sufficienti per giocare in 4K maxato, è un altro discorso.
Inviato dal mio iPhone X utilizzando Tapatalk
Beh oddio. Che la 3080 ti non vada bene per il 4k maxato parliamone.... cioè, a meno di volere il 4k maxato a 120 fps fissi, la 3080 ti maxa tranquillamente tutto sopra i 60 fps. E oltre con il dlss, quindi...
Dipende dai giochi, già molti AAA attuali maxati in 4K stanno sui 50-60 fps con i soliti altarini a seconda delle zone, e in un ciclo di vita di 3 anni qualche compromesso dovrai farlo per forza in 4K con i nuovi giochi in arrivo.
Ovvio che con il DLSS metti le pezze un pò ovunque e di sicuro aiuta a spremere di più la GPU, ma per chi non aggiorna spesso non andrei oltre i 3440x1440 per una 4070 soprattutto considerati i 10GB di vram.
Decisamente più interessante la 4080 per quella risoluzione, è quasi un full chip e con bus pieno a 256bit quindi ben 16GB di vram, in teoria già dovrebbe andare un +40% da 4070.
mikael84
05-07-2022, 11:29
Però mikael una cosa sono i conti e la potenza bruta sulla carta, dove anche storicamente, amd è sempre stata superiore, poi si è visto com'è andata a finire a ogni giro.
I tf che abbiamo sulla carta non necessariamente risultano allineati alle performance tanto più con architetture differenti
Si però lovelace non è che sarà una nuova architettura fatta da Koduri:D , ma è mediamente la stessa più affinata, dove va ad migliorare le aree di stallo viste in precedenza.
A parità di numeri teorici, in Lovelace un thread, sarà sempre più velocemente pronto per l'esecuzione rispetto ad Ampere.
Ciò che contraddistingue le due è il bus decisamente diverso, che potrebbe fare la differenza in certi contesti come il 4k. Infatti quando sei vicino alla saturazione di BW o la saturi del tutto (es devo accedere a 600 gb/s), ti ritroverai latenze elevatissime facendoti perdere terreno.
ovviamente è un'ipotesi, se osservi da 3070 a 3070ti non cambia nulla, la 3070 in 4k non perde nulla o quasi, al massimo le fasce superiori guadagnano per lo scaling migliore.
Questo perchè siamo di fronte ad un salto nodo elevatissimo in quasi stile Pascal, ma con delle schede declassate di fascia, in più nel caso della x70 pure storpiate.:)
ma nessuno si scandalizza per i consumi abnormi che si prevedono ? :confused:
Cutter90
05-07-2022, 14:23
ma nessuno si scandalizza per i consumi abnormi che si prevedono ? :confused:
vedremo. Io sarei stupito se fossero molto più alti delle 3000. Cioè, la 3090 invece che 450 ne avrà 500, parlo dei partener top di gamma
mikael84
05-07-2022, 15:16
Diciamo che per la 4070 sono quei 160bit che sono difficili da digerire, il fatto ironico é che probabilmente la 4070 mobile avrà i 192bit pieni e full chip 🤣
Inviato dal mio M2012K11AG utilizzando Tapatalk
Dipende dalla strategia, probabile la situazione Ampere, quindi 4070 scarto corposo e 4080 full AD104. La 3070 mobile, l'ha tagliata vicina alla 3060ti.:)
ma nessuno si scandalizza per i consumi abnormi che si prevedono ? :confused:
Sono elevati senza dubbio, nvidia, come farà pure AMD cercheranno di ricavarci il possibile da questi PP costosi, spremendoli all'osso.
Nvidia poi avrebbe la possibilità di rivedere la microarchitettura, ma è legata agli ambiti pro, e le gaming ne sono derivate.
ma nessuno si scandalizza per i consumi abnormi che si prevedono ? :confused:
Vabbè nel passaggio dagli 8nm di Samsung ai 5nm di TSMC c'è quasi un +50% di efficienza energetica, infatti potremmo avere schede con performance da 3080 con consumi sui 200-220w (l'eventuale 4060ti).
Ma è ovvio che se spremi il silicio quasi ai limiti visto che si parla per la 4090 di 2750mhz, i consumi sono la prima cosa a salire, senza contare che potrebbe essere anche più alto il clock per i chip inferiori, ma con un buon undervolt sicuramente si riesce a trovare un bilanciamento migliore di quello di fabbrica.
Pure in passato era lo stesso ma al tempo non c'era bisogno di spremere ogni goccia dal silicio, ad esempio la mia 980ti è una custom e di fabbrica è impostata a 1430/7200 con 1.187 e si mantiene intorno ai 260-270w, se gli dai 1.21v e la porti a 1500mhz schizza a 300w, con 1.25v e 1550 sale persino a soglie oltre i 380w, quasi +120w per un misero +5/10% scarso...
Dipende dalla strategia, probabile la situazione Ampere, quindi 4070 scarto corposo e 4080 full AD104. La 3070 mobile, l'ha tagliata vicina alla 3060ti.:)
Bisogna capire come vogliono gestire il tutto, in precedenza la vecchia 3080M oltre a essere full chip GA104 aveva anche la variante 16GB con memoria a doppia densità, ma con AD104 full non potrebbero eguagliare la vram della precedente 3080M con i 192bit, c'è la possibilità che la 4080M sia ricavata dal cut di AD103 e poi la 4080TIM dal full AD103.
ma nessuno si scandalizza per i consumi abnormi che si prevedono ? :confused:
io ho già dato e se prendo la 4080 la undervolterò.
mikael84
05-07-2022, 18:23
Bisogna capire come vogliono gestire il tutto, in precedenza la vecchia 3080M oltre a essere full chip GA104 aveva anche la variante 16GB con memoria a doppia densità, ma con AD104 full non potrebbero eguagliare la vram della precedente 3080M con i 192bit, c'è la possibilità che la 4080M sia ricavata dal cut di AD103 e poi la 4080TIM dal full AD103.
JHH non se ne fa tanti di problemi, anche la 3060 ha 12gb e la 4070 10.:)
Cmq ci può anche stare.
Pare che i valori di AD102 siano abbastanza contenuti per TDP.
Pare che almeno con le custom a TDP maggiorato, i 3ghz siano fattibili.
Premesso che vanno sempre presi con le pinze, ma se i chip possono raggiungere certi valori, probabilmente le schede come la 4080 e 4070 siano già a certe specifiche.
https://i.postimg.cc/C1yncJmw/3-05.png
Vero, però nel mobile sono stati decisamente più coerenti, anche la 3060M era da soli 6gb.
Sul desktop si sono viste cose assurde tra cut e chip ambigui come 3070ti...hanno letteralmente venduto e stampato qualunque cosa vendesse, soprattutto GA102 é stato la fiera del riciclo, seguito da GA106 dove ci hanno persino ricavato la 3050 🤣
Inviato dal mio M2012K11AG utilizzando Tapatalk
Da sempre si fa due passi avanti e uno indietro . Due avanti grazie alla tecnologia che avanza e uno indietro per titoli più esosi .
Comunque Dono, i conti di Mike (che non sono di Mike, perché sono quelli che si fanno), servono a darti la misura del fatto che le due schede, solo paragonandole per cuda , freq. ecc , ti danno circa i medesimi teraflops . Poi che tali Tf non siano sufficienti per giocare in 4K maxato, è un altro discorso.
Inviato dal mio iPhone X utilizzando Tapatalk
Si, ma anche a pari architettura i TF non sono validi come paragone. Il mio discorso non è se la scheda vale per il 4K (per me giocabile è oltre i 100fps, motivo per cui ho una 3080 su un 2K con DLSS), il punto è che paragonare i 35TF della 4070 ai 35TF della 3080 non credo significhi che le due schede vadano uguali.
l'abbiamo visto con Ampere, dove passare da una 3060ti a 3070 cambia poco e da 3070 a 3080 (le ho avute tutte 3) nonostante il 50% di core in più non arrivi nemmeno al 30% in più di perf. Quindi eguagliare i TF e auspicare che le schede vadano uguali è a mio avviso errato.
Non sto dicendo che la 4070 non andrà, ma se eguaglierà la 3080 (cosa che continuo a dubitare, ma vedremo) lo farà per altri motivi (e magari pure qualche taglio driver per Ampere...ma qui andiamo sul complottismo)
Si però lovelace non è che sarà una nuova architettura fatta da Koduri:D , ma è mediamente la stessa più affinata, dove va ad migliorare le aree di stallo viste in precedenza.
A parità di numeri teorici, in Lovelace un thread, sarà sempre più velocemente pronto per l'esecuzione rispetto ad Ampere.
Ciò che contraddistingue le due è il bus decisamente diverso, che potrebbe fare la differenza in certi contesti come il 4k. Infatti quando sei vicino alla saturazione di BW o la saturi del tutto (es devo accedere a 600 gb/s), ti ritroverai latenze elevatissime facendoti perdere terreno.
ovviamente è un'ipotesi, se osservi da 3070 a 3070ti non cambia nulla, la 3070 in 4k non perde nulla o quasi, al massimo le fasce superiori guadagnano per lo scaling migliore.
Questo perchè siamo di fronte ad un salto nodo elevatissimo in quasi stile Pascal, ma con delle schede declassate di fascia, in più nel caso della x70 pure storpiate.:)
al netto del 4K abilitando texture e con filtri pesanti, pure nel 2K la banda aiuta. Se poi alla 4070 segano anche il consumo portandolo dai 370W della 3080 ai 300 dichiarati (da rumor) della 4070 addio. Si ritroverebbe a vincere sulla 3080 solo sulle frequenze, e sappiamo tutti questa architettura quanto scali male in oc.
Se poi ci sommi:
frequenze maggiori
numero di core minori
bus ridotto
siamo a cavallo. Lo capisco che questo permette ad nvidia di risparmiare sui costi del dissi, componentistica (450W devi anche reggerli come circuiteria e dissi) etc, ma o il pp fa il miracolo (e in tal caso costerà cmq uno sproposito) o la 3080 per me non la prende. La insegue e sarà di poco sotto, ma non la raggiunge
mikael84
05-07-2022, 21:42
Si, ma anche a pari architettura i TF non sono validi come paragone.
Non sono tutto, ma un valido metro comparativo tra 2 microarchitetture simili. Con bonus e malus da una parte e dall'altra.
Il mio discorso non è se la scheda vale per il 4K (per me giocabile è oltre i 100fps, motivo per cui ho una 3080 su un 2K con DLSS), il punto è che paragonare i 35TF della 4070 ai 35TF della 3080 non credo significhi che le due schede vadano uguali.
l'abbiamo visto con Ampere, dove passare da una 3060ti a 3070 cambia poco e da 3070 a 3080 (le ho avute tutte 3) nonostante il 50% di core in più non arrivi nemmeno al 30% in più di perf. Quindi eguagliare i TF e auspicare che le schede vadano uguali è a mio avviso errato.
Tra flops teorico e pratico si può considerare un 20% effettivo ogni 30/33% teorico.
Basta fare un'esempio con turing
rtx 2080 s/3060ti sono simili, variazione + o -
rtx 2080s = 3072 cc@2000 x2 = 12,28TF.
La 3060ti (2432cc + 2432cc /36% int) ha un ratio a 36 INT di 3064fp x2000 x 2 = 12,2TF
La 2080ti@1900 4353 x2 16,5TF
3070 va uguale, perchè:
5888fp32 /36% INT = 3763fp @1950@ 14,6tf
Sono simili, la 3070 ha una l1 a banda doppia ed un design semplificato, ma siamo li.
3070ti: 6144fp /36% INT = 3926 fp medi @1950 x2 = 15,3tf
---------------------
Ora qua ti voglio, hai visto come una 3070 passa una TI pur con meno risorse, anche se di poco?
Considera che alcuni giochi, salgono anche a 38INT, facendo calare il ratio.
Quindi a pari TF, abbiamo valori simili, ma più efficienti da una parte.
Non sto dicendo che la 4070 non andrà, ma se eguaglierà la 3080 (cosa che continuo a dubitare, ma vedremo) lo farà per altri motivi (e magari pure qualche taglio driver per Ampere...ma qui andiamo sul complottismo)
30% da prendere con 7168cc (3070 ne ha 5888) e con un +40/50% sul clock, non mi pare una cosa irrealizzabile, levando di mezzo le formule.:)
La 3070ti su un grosso globale sta al 15% dalla 3080 in 1440p, e ne ha 6144.
https://tpucdn.com/review/gainward-geforce-gtx-1630-ghost/images/relative-performance_2560-1440.png
al netto del 4K abilitando texture e con filtri pesanti, pure nel 2K la banda aiuta. Se poi alla 4070 segano anche il consumo portandolo dai 370W della 3080 ai 300 dichiarati (da rumor) della 4070 addio. Si ritroverebbe a vincere sulla 3080 solo sulle frequenze, e sappiamo tutti questa architettura quanto scali male in oc.
Ma se la banda aiuta tantissimo, perchè tra 3070 e 3070ti non c'è differenza?
In certi contesti, doveva lasciarla dietro, ma non lo fa, segno che la banda non è un problema.
Lo capisco che questo permette ad nvidia di risparmiare sui costi del dissi, componentistica (450W devi anche reggerli come circuiteria e dissi) etc, ma o il pp fa il miracolo (e in tal caso costerà cmq uno sproposito) o la 3080 per me non la prende. La insegue e sarà di poco sotto, ma non la raggiunge
Ora, i clock prendiamoli con le pinze, ma il PP costa 2,5 volte in più, e stiamo passando ad un nodo molto ma molto più avanzato.
Questi sono dati stimati dalle fab, ma il tutto dipende dal circuito, logica e dispersione.
Samsung ha dimostrato di essere a livello dei 12/16nm TSMC.
Per dire io i 2100 li tengo stabili, tu non ci arrivi.:)
https://fuse.wikichip.org/wp-content/uploads/2019/07/wikichip_tsmc_logic_node_q2_2019.png
30% da prendere con 7168cc (3070 ne ha 5888) e con un +40/50% sul clock, non mi pare una cosa irrealizzabile, levando di mezzo le formule.:)
La 3070ti su un grosso globale sta al 15% dalla 3080 in 1440p, e ne ha 6144.
Ma se la banda aiuta tantissimo, perchè tra 3070 e 3070ti non c'è differenza?
In certi contesti, doveva lasciarla dietro, ma non lo fa, segno che la banda non è un problema.
Ora, i clock prendiamoli con le pinze, ma il PP costa 2,5 volte in più, e stiamo passando ad un nodo molto ma molto più avanzato.
Questi sono dati stimati dalle fab, ma il tutto dipende dal circuito, logica e dispersione.
Samsung ha dimostrato di essere a livello dei 12/16nm TSMC.
Per dire io i 2100 li tengo stabili, tu non ci arrivi.:)
https://fuse.wikichip.org/wp-content/uploads/2019/07/wikichip_tsmc_logic_node_q2_2019.png
Sui numeri tecnici non commento, richiedono basi che non ho.
Ma su questo continua a stonarmi, mannaggia a me :muro:
la 4070 ha il 22% dei core in più rispetto la 3070. Mettiamolo da parte un attimo.
Prendendo le frequenze:
Sempre parlando di rumor, si vocifera un 2500 (clock effettivo, base 2200) per le 4090. Quindi la 4070 arriva a quanto, 2400 essendo ottimisti? (tolto solo il 4%, 100MHz di boost).
ergo che a questo punto il gap di clock tra 3070 e 4070 sarebbe di circa 1920 vs. 2400 arriviamo al 25%
Ora, assumendo +25% sulle frequenze e +22% dei cuda, contando quanto scala male l'oc/clock spinto e il limite dei 300w, avrebbe a dir tantissimo un 15% si e no dato dagli scarti dei salti non lineari tra clock e numero core (a spanne, sia chiaro)
La 3070ti ha il 42% di core in meno rispetto la 3080 eppure si distanziano di circa un 20%.
mikael84
05-07-2022, 23:56
Sui numeri tecnici non commento, richiedono basi che non ho.
Ma su questo continua a stonarmi, mannaggia a me :muro:
la 4070 ha il 22% dei core in più rispetto la 3070. Mettiamolo da parte un attimo.
Ecco una base di partenza, è lo stesso divario tra 3060ti e 3070, quindi il divario si accorcia, le hai provate tu stesso.:)
Prendendo le frequenze:
Sempre parlando di rumor, si vocifera un 2500 (clock effettivo, base 2200) per le 4090. Quindi la 4070 arriva a quanto, 2400 essendo ottimisti? (tolto solo il 4%, 100MHz di boost).
ergo che a questo punto il gap di clock tra 3070 e 4070 sarebbe di circa 1920 vs. 2400 arriviamo al 25%
Ora, assumendo +25% sulle frequenze e +22% dei cuda, contando quanto scala male l'oc/clock spinto e il limite dei 300w, avrebbe a dir tantissimo un 15% si e no dato dagli scarti dei salti non lineari tra clock e numero core (a spanne, sia chiaro)
La 3070ti ha il 42% di core in meno rispetto la 3080 eppure si distanziano di circa un 20%.
Ho capito, dove hai dubbi.
2520 è il base boost non il clock effettivo per tensione, come 1710 è quello della 3080 e 1665 della 3080ti.
Il clock effettivo pare oscillare per TDP tra 2,75/3ghz.
Certo a 2,4 ci tiri fuori un 15/20% nei casi limiti, ma è quasi il clock base per tali schede.
Ecco una base di partenza, è lo stesso divario tra 3060ti e 3070, quindi il divario si accorcia, le hai provate tu stesso.:)
Ho capito, dove hai dubbi.
2520 è il base boost non il clock effettivo per tensione, come 1710 è quello della 3080 e 1665 della 3080ti.
Il clock effettivo pare oscillare per TDP tra 2,75/3ghz.
Certo a 2,4 ci tiri fuori un 15/20% nei casi limiti, ma è quasi il clock base per tali schede.
Continua a non tornarmi Mikael :D
Se con il 40% in più di clock tiri fuori il 30% di perf in più è un'architettura che scala quasi linearmente, cosa che ampere sicuramente non fa, alle freq intorno a 2GHz figuriamoci a oltre 2500 e dubito la 4000
O hanno cambiato l'architettura dal profondo, ma dubito, o il 30% non lo prendi
Hai il 22% dei core in più. Che anche loro l'abbiamo visto, non scalano minimamente in modo linare, sommati al 40% di vantaggio in freq, che scala ancora meno, come prendi il 30%?
Il tutto senza contare bus ridotto e un consumo cappato a 300w, con tutti i contro che si portano dietro
Mikael se dici così mi fido, ma avendo avuto 3 ampere e avendo fatto più test in oc che game (la 3080 ancora devo usarla in game...) ti assicuro che lo scaling è pessimo
mikael84
06-07-2022, 12:06
Continua a non tornarmi Mikael :D
Se con il 40% in più di clock tiri fuori il 30% di perf in più è un'architettura che scala quasi linearmente, cosa che ampere sicuramente non fa, alle freq intorno a 2GHz figuriamoci a oltre 2500 e dubito la 4000
O hanno cambiato l'architettura dal profondo, ma dubito, o il 30% non lo prendi
Hai il 22% dei core in più. Che anche loro l'abbiamo visto, non scalano minimamente in modo linare, sommati al 40% di vantaggio in freq, che scala ancora meno, come prendi il 30%?
Il tutto senza contare bus ridotto e un consumo cappato a 300w, con tutti i contro che si portano dietro
Mikael se dici così mi fido, ma avendo avuto 3 ampere e avendo fatto più test in oc che game (la 3080 ancora devo usarla in game...) ti assicuro che lo scaling è pessimo
Ma scusami, la 1070 come l'ha presa la 980ti? :p
1070: 1920 cuda x 1800 x2= 6,9TF
980ti: 2816 cuda x 1200 x2= 6,8TF
Puoi fare lo stesso calcolo tra 1060 e 980.
Riguardo Ampere/turing l'ho fatto ieri.
Se una 3080ti@1900 (che è già tanto per certi dissi) fa 38,9tf (parliamo di soli fp32, in gaming devi levare il 36% medio di interi)
3080ti:10240 x 1900 x2 = 38,9tf
4070: 7168 x 2750 x 2= 39,4tf (ma più efficienti).
Anche AMD è ormai allo stesso livello, e ti porto un altro esempio:
Qua dobbiamo scorporare gli interi:
RX 6800xt: 4608 shader x 2250 x 2 = 20,7TF
RTX 3080: 8704/36 = 5483 cuda medi x 1900 x 2 = 20,8TF
Queste due schede sono mediamente simili in raster, in RT ci sono altri rapporti.
Basta un semplice calcolo davvero sempliciotto, perchè per la 4070 dovrebbe essere diverso? e secondo te non prendere neppure una 3080 liscia.
RTX 3080: 5483 cuda medi x 1900 x2= 20,8TF.
RTX 4070: (7168/36= 4515 cc) 4515 x2750 x 2 = 25 TF
25 TF vs 20, perchè non dovrebbe batterla?:)
Tutti i calcoli tornano, tranne questo.
Discorso bus, è da vedere caso per caso, difficile sia un ostacolo in 1440p con la cache, quando non lo è la 3070 in 4k, e neppure la 6900xt che con 512 gb/s (a compressione decisamente ridotta) se la gioca con la 3090.
Ma scusami, la 1070 come l'ha presa la 980ti? :p
1070: 1920 cuda x 1800 x2= 6,9TF
980ti: 2816 cuda x 1200 x2= 6,8TF
Puoi fare lo stesso calcolo tra 1060 e 980.
Riguardo Ampere/turing l'ho fatto ieri.
Se una 3080ti@1900 (che è già tanto per certi dissi) fa 38,9tf (parliamo di soli fp32, in gaming devi levare il 36% medio di interi)
3080ti:10240 x 1900 x2 = 38,9tf
4070: 7168 x 2750 x 2= 39,4tf (ma più efficienti).
Anche AMD è ormai allo stesso livello, e ti porto un altro esempio:
Qua dobbiamo scorporare gli interi:
RX 6800xt: 4608 shader x 2250 x 2 = 20,7TF
RTX 3080: 8704/36 = 5483 cuda medi x 1900 x 2 = 20,8TF
Queste due schede sono mediamente simili in raster, in RT ci sono altri rapporti.
Basta un semplice calcolo davvero sempliciotto, perchè per la 4070 dovrebbe essere diverso? e secondo te non prendere neppure una 3080 liscia.
RTX 3080: 5483 cuda medi x 1900 x2= 20,8TF.
RTX 4070: (7168/36= 4515 cc) 4515 x2750 x 2 = 25 TF
25 TF vs 20, perchè non dovrebbe batterla?:)
Tutti i calcoli tornano, tranne questo.
Discorso bus, è da vedere caso per caso, difficile sia un ostacolo in 1440p con la cache, quando non lo è la 3070 in 4k, e neppure la 6900xt che con 512 gb/s (a compressione decisamente ridotta) se la gioca con la 3090.
vero, shiftando la gen è esattamente la questione 1070 vs. 980ti dove oltretutto a pari prezzo andava pure un po' di più.
Da aggiungere però che le memorie erano mooolto più performanti della serie 10 e hanno largamente compensato lo scarso bus. qui invece abbiamo memorie peggiori e bus minore.
La 1070 non aveva castrazioni importanti come oggi dovrebbe avere la 4070
Però internamente Pascal è 1 a 1 con Maxwell non aveva ampliamenti della cache o altre migliorie interne se non una miglior compressione, li nvidia ha veramente lucrato alla grande praticamente si appoggiò al solo pp e non ha neanche presentato un chip da 600mmq XD
Ricordo che si fecero anche dei test con GTX 980 e 1070 entrambe a 1550mhz e bene o male facevano gli stessi FPS :fagiano:
https://www.youtube.com/watch?v=ykRWsiwPuzs
Tra Lovelace e Ampere la cache è stata totalmente rivista non è solo una questione di clock, non mi meraviglierebbe che a pari core e clock performino comunque leggermente meglio, l'unica incognita nel caso specifico della 4070 e se si palesano situazioni limite per via dei 160bit dove nonostante la mega-cache non si riesce a sopperire.
Personalmente non credo che ci siano strozzature, l'unica possono essere i 10GB dato che già molti titoli attuali tendono ad allocare già 8-10GB, il che per una 4070 sarebbe stato decisamente più bilanciato un 192bit ed eventualmente lasciare i 160bit per la 4060ti, però come balbuzie c'è da dire che tra 2080ti e 3070 non è che ci siano miracoli o casi in cui gli 11GB della TI si facciano notare.
I 10gb avanzano come memoria utilizzata
A me spaventa solo il bus e avendo messo 7k cuda anche il prezzo... sul bus sorvolo proprio.
Ho comprato la 3080 proprio perché avrei saltato la 4000
Oltretutto non ha nemmeno le g6x
fraussantin
06-07-2022, 21:52
Diciamo che 10 giga ce li possiamo far bastare per almeno altri 2 anni settando alcuni parametri potenzialmente superflui.
A meno di offerte particolari o colpi di scena al d1 manco io la cambio la 3080
mikael84
07-07-2022, 00:17
Sulla questione bus non è 360 gb/s vs 760 della 3080.
La 4070 avrà una grossa cache l2 di 40mb, capace di archiviare in memoria dati 8x una 3080.
I dati al suo interno, avranno una banda abissalmente più ampia di quella delle g6.
Se gran parte dei dati andranno in cache a metà latenza ed a banda 5/6x, la BW sarà molto sgravata.
Se io devo accedere a 300 gb/s, ma metà vengono intercettati dalla cache, significa che in BW accedo con 150 gb/s.
AD104 ha un die di 300mm2 e JHH ha investito 45mm2 di die solo per la l2.
mikael84
07-07-2022, 01:06
Però internamente Pascal è 1 a 1 con Maxwell non aveva ampliamenti della cache o altre migliorie interne se non una miglior compressione, li nvidia ha veramente lucrato alla grande praticamente si appoggiò al solo pp e non ha neanche presentato un chip da 600mmq XD
Ricordo che si fecero anche dei test con GTX 980 e 1070 entrambe a 1550mhz e bene o male facevano gli stessi FPS :fagiano:
https://www.youtube.com/watch?v=ykRWsiwPuzs
Tra Lovelace e Ampere la cache è stata totalmente rivista non è solo una questione di clock, non mi meraviglierebbe che a pari core e clock performino comunque leggermente meglio, l'unica incognita nel caso specifico della 4070 e se si palesano situazioni limite per via dei 160bit dove nonostante la mega-cache non si riesce a sopperire.
Personalmente non credo che ci siano strozzature, l'unica possono essere i 10GB dato che già molti titoli attuali tendono ad allocare già 8-10GB, il che per una 4070 sarebbe stato decisamente più bilanciato un 192bit ed eventualmente lasciare i 160bit per la 4060ti, però come balbuzie c'è da dire che tra 2080ti e 3070 non è che ci siano miracoli o casi in cui gli 11GB della TI si facciano notare.
Vero.
Alla fine basta vedere 3070 vs 3070ti, non c'è alcuna strozzatura.
Basta anche andare al retrò, la 970 che con una bw 2x inferiore alle Kepler, aveva ratio maggiori in BW, solo per la compressione 4/2:1.:)
Inoltre, paradossalmente si guarda solo i bus piccoli, ma la 4090 con 2,5 volte la potenza teorica della 3090ti, avrà la stessa banda, questo deve far riflettere sul progetto cache lovelace.
RTX 3090ti 40tf fp32 /1tb/s, sarebbero 40GF/1 Gb/s di BW
RTX 4090 100tf fp32/1tb/s sarebbero 100 GF/ 1 GB/S
Possiamo entrare anche più nel dettaglio castrando di 1/3, ovvero:
100tf/3 =33TF (una 3080@1,9)
1 tb/s/3= 333 gb/s.
Ora dividendo per 3 avremmo un rapporto su Lovelace di una 3080 con 333 gb/s.:)
Questo dato fa riflettere abbastanza, sul come le cache soppianteranno i bus.
Ovviamente, tu ben sai che per rapporto simmetrico, senza cache, 1 GPC va collegato a 64bit e che spesso sono stati usati canali a vuoto (1070/2070).
Bene 12 GPC a livello simmetrico necessiterebbero di un 768bit:sofico: :sofico:
Bel casino collegarli tutti.
davide155
07-07-2022, 11:25
Vabbè nel passaggio dagli 8nm di Samsung ai 5nm di TSMC c'è quasi un +50% di efficienza energetica, infatti potremmo avere schede con performance da 3080 con consumi sui 200-220w (l'eventuale 4060ti).
Aspè aspè
Ma non era la 70 che nella gen successiva raggiungeva le prestazioni della 80 della passata gen? (vedere la 3070 e la 2080Ti, o la 2070 e la 1080ti)
Mo anche la 60ti fa quanto una 80? :mbe:
Mi son perso qualcosa? :stordita:
Ale55andr0
07-07-2022, 12:15
https://www.youtube.com/watch?v=77ZWtAYFhAg&ab_channel=Prodigeek
davide155
07-07-2022, 12:23
https://www.youtube.com/watch?v=77ZWtAYFhAg&ab_channel=Prodigeek
Si l'avevo visto, ed hanno pienamente ragione.
Sempre più convinto che una 3000 oggi a msrp è un best buy. Le 4000 le faranno pagare un rene, anche per via degli ordini tagliati a tsmc, ce ne saranno ancora meno, e quindi quelle poche che ci saranno costeranno per forza di cose tanto.
Quindi via di nuovo ai bagarini e scalper.
Lode alla 3090fe ed a ldlc :O
Come no, ne compro 3 di 3080 a fine serie.
Sicuramente la le 4000 saranno incomprabili, perche' del resto meno vendono e piu' vendono giusto ? la famosa legge di mercato: Antani dell'offerta e della domanda.
Non e' che Nvidia cerca di incularvi e svuotare le rimanenti 3000 prima di proporvi le nuove, non lo farebbero mai :sofico:
Ripigliatevi.
Come no, ne compro 3 di 3080 a fine serie.
Sicuramente la le 4000 saranno incomprabili, perche' del resto meno vendono e piu' vendono giusto ? la famosa legge di mercato: Antani dell'offerta e della domanda.
Non e' che Nvidia cerca di incularvi e svuotare le rimanenti 3000 prima di proporvi le nuove, non lo farebbero mai :sofico:
Ripigliatevi.
Beh, e' esattamente cio' che e' successo nelle gen precedenti.
Tutti a vendere le proprie gpu per quelle nuove, poi si scopre che quelle nuove sono introvabili e un salasso.
E' esattamente successa la stessa cosa per tutte le ultime gen Nvidia dalla 900 in poi.
Le 980ti si vendevano anche a 200/250 euro su questo forum pre annuncio di Pascal, poi si scopri' che un affare simile (una gpu da quel prezzo e prestazioni) non si sarebbe mai vista per tanti anni.
Le 2070 e 2080 veniva vendute in grandi offerte sul mercatino. Poi dopo l'annuncio i prezzi sono risaliti di 150/200 euro nell'usato.
Il momento migliore per comprare una gpu e' sempre piu o meno al lancio delle gen successive ammesso che le scorte siano ancora decenti.
Beh, e' esattamente cio' che e' successo nelle gen precedenti.
Tutti a vendere le proprie gpu per quelle nuove, poi si scopre che quelle nuove sono introvabili e un salasso.
E' esattamente successa la stessa cosa per tutte le ultime gen Nvidia dalla 900 in poi.
Le 980ti si vendevano anche a 200/250 euro su questo forum pre annuncio di Pascal, poi si scopri' che un affare simile (una gpu da quel prezzo e prestazioni) non si sarebbe mai vista per tanti anni.
Le 2070 e 2080 veniva vendute in grandi offerte sul mercatino. Poi dopo l'annuncio i prezzi sono risaliti di 150/200 euro nell'usato.
Il momento migliore per comprare una gpu e' sempre piu o meno al lancio delle gen successive ammesso che le scorte siano ancora decenti.
Stai facendo un minestrone, non conviene MAI comprare sul nuovo a fine serie, al massimo si prendono usate, specie adesso che la nuova gen distruggera' la 3000 su tutta la linea, poi certo se vuoi perdere meta' del valore in 3 mesi puoi benissimo farlo, non e' che le schede smettano di funzionare con la nuova gen.
Questa' e' stata la prima volta di gpu quasi introvabile all'uscita, perche' figlia di fattori macroeconomici mai visti prima, pandemia, scarsita' materie prime, mining alle stelle e guerre.
Tralasciando che poi tutti i nuovi titoli sono spostati a 2023 inoltrato...
Comprare sll nuovo adesso vuol dire farsi inchiappettare due volte, non per niente i prezzi sono in picchiata da mesi e continuano a scendere, ma i gusti sono gusti, se vi piace non saro' certo io a condannarvi ne' a farvi la morale, solo cerchiamo dio non stravolgere la realta' facendola passare anche come "scelta saggia e oculata", perche' e' l'esatto opposto :)
Poi vabbe' su sto forum si stravolgono le leggi della fisica, dell'economia e del buon senso, quindi nessun problema.
fraussantin
07-07-2022, 13:35
Come no, ne compro 3 di 3080 a fine serie.
Sicuramente la le 4000 saranno incomprabili, perche' del resto meno vendono e piu' vendono giusto ? la famosa legge di mercato: Antani dell'offerta e della domanda.
Non e' che Nvidia cerca di incularvi e svuotare le rimanenti 3000 prima di proporvi le nuove, non lo farebbero mai :sofico:
Ripigliatevi.Indubbiamente è una grossa incognita .
Per 3 volte al lancio o poco dopo ( pascal) ci sono state difficoltà a reperire schede.
Per pascal e ampere la colpa è stata il mining , ma per turing? Passati i primi mesi sono salite di prezzo per poi essere sostituite dalle ufficialmente più care super
Una 3080 a 750 euro non è un brutto affare soprattutto visto che la fe è una scheda piu che buona.
Poi se le 4000 saranno li a vagonate a prendere polvere , ti dico tanto meglio.
Ma è un po azzardato come pronostico.
Ma stiamo parlando di GPU non di pane, quando usciranno faremo le valutazioni del caso ed eventualmente si aspettano le varie TI, comprare adesso per paura che senso ha quando una 4070 (distrutta) ti andra' a prendere una 3080ti passeggiando ?
Il difetto di fondo e' pensare di dover prendere una scheda nuova a tutti i costi senza averne la necessita', in particolare a fine serie, che la 3080 sia una buona scheda non ci piove.
Va bene che nVidia deve svuotare i magazzini dalle 3000 ma voglio proprio vedere a chi le vende una volta uscite le nuove Amd, gioco forza le 4000 saranno subito della partita.
fraussantin
07-07-2022, 14:01
Va bene che nVidia deve svuotare i magazzini dalle 3000 ma voglio proprio vedere a chi le vende una volta uscite le nuove Amd, gioco forza le 4000 saranno subito della partita.A meno che amd , che non ha grandi scorte , anzi penso pochissime , non esca in contemporanea nvidia potrebbe benissimo tenersi in disparte le scorte e vendere per qualche mese le 3000 con un lancio fake.
Lo ha rifatto in passato.
Cmq si se avete in casa un buona scheda ha senso aspettare , ma se avete un muletto da diversi anni e state bramando un upgrade da tempo a prezzi umani la 3080 secondo me non è malvagia a quel prezzo.
Siciramente meglio di una usata che probabilmente ha minato per mesi.
Ale55andr0
07-07-2022, 14:11
Si l'avevo visto, ed hanno pienamente ragione.
Sempre più convinto che una 3000 oggi a msrp è un best buy. Le 4000 le faranno pagare un rene, anche per via degli ordini tagliati a tsmc, ce ne saranno ancora meno, e quindi quelle poche che ci saranno costeranno per forza di cose tanto.
Quindi via di nuovo ai bagarini e scalper.
Lode alla 3090fe ed a ldlc :O
dalla 3080 in su. Sotto le considero mongolate di schede (e io ne ho una..)
mikael84
07-07-2022, 15:00
https://www.youtube.com/watch?v=77ZWtAYFhAg&ab_channel=Prodigeek
Chi mi ritorna i 10 minuti buttati a guardare questo video?:p
"Il futuro è di AMD che andrà di MCM, mentre nvidia nel 2021 ha scelto il monolitico per le massime prestazioni"
Tralasciando che AMD sarà MCM solo nelle cache non nel die GPU, nvidia non ha cambiato le carte in tavola nel 2021, ha semplicemente seguito la strada pianificata creata da tempo. I codici vengono scritti da 2/4 anni prima.
Nvidia ha problemi con il MCM, non l'ha adottato neppure sullo scontato Hopper, ed AMD segue a ruota.
La collaborazione con Intel gli farà bene.
Non e' che Nvidia cerca di incularvi e svuotare le rimanenti 3000 prima di proporvi le nuove, non lo farebbero mai :sofico:
Ripigliatevi.
Sei un complottista, ma secondo te farei cose simili.
io sono una povera vittima.:sofico:
https://www.hwupgrade.it/articoli/skvideo/4322/intro2.jpg
davide155
07-07-2022, 15:09
dalla 3080 in su. Sotto le considero mongolate di schede (e io ne ho una..)
:asd:
Come no, ne compro 3 di 3080 a fine serie.
Sicuramente la le 4000 saranno incomprabili, perche' del resto meno vendono e piu' vendono giusto ? la famosa legge di mercato: Antani dell'offerta e della domanda.
Non e' che Nvidia cerca di incularvi e svuotare le rimanenti 3000 prima di proporvi le nuove, non lo farebbero mai :sofico:
Ripigliatevi.
Cavallo vedi che non parlavo solo di nuovo. E' ovvio che non esiste solo schede nuove, ma se fai un giro sui vari mercatini e siti di usato, vendono le ampere usate a più del nuovo, perchè le hanno pagate uno stonfo. E c'è poco da fare, adesso volente o nolente una ampere è più conveniente nuova con 2 anni di garanzia, che usata da chissà chi e con meno di 1 anno di garanzia. Vedendo come sono delicate ste schede ed i componenti sempre più numerosi che montano, la probabilità di trovare un difetto da qui a fine vita della scheda è alta.
E soprattutto stai tralasciando un fatto importante, non tutti comprano al day1 come noi malati di mente. C'è molta gente che ancora sta temporeggiando (2 anni di 3080 a 2000€ sono tanti) e vedendo che i prezzi sono scesi anche sotto all'msrp, parecchi giocatori della domenica stanno cercando di acquistare adesso. Il mio consiglio era rivolto soprattutto a loro.
Perchè inutile girarci attorno, il 90% di chi ha una 3080ti o 3090, prenderà sicuramente una 4000, qualunque prezzo esse avranno e da qualsiasi stanza della casa di giacchetta verranno presentate. E lo scorso biennio ne è stata l'ennesima riprova, hanno fatto soldi letteralmente a PALATE alla Nvidia.
Quindi inutile scandalizzarsi tanto se uno prende una 3080 a 700€ adesso, perchè è pur sempre una gpu con i contro coglioni che restituisce una altissima giocabilità in qualsiasi gioco. E giochi con le palle all'orizzonte non se ne vedono nemmeno a pregare in cinese, se non i soliti (ottimi e per fortuna esistenti) porting delle console.
Quindi si, è più che sensato comprare una ampere nuova adesso.
Indubbiamente è una grossa incognita .
Per 3 volte al lancio o poco dopo ( pascal) ci sono state difficoltà a reperire schede.
Per pascal e ampere la colpa è stata il mining , ma per turing? Passati i primi mesi sono salite di prezzo per poi essere sostituite dalle ufficialmente più care super
Una 3080 a 750 euro non è un brutto affare soprattutto visto che la fe è una scheda piu che buona.
Poi se le 4000 saranno li a vagonate a prendere polvere , ti dico tanto meglio.
Ma è un po azzardato come pronostico.
Esattamente
Chi mi ritorna i 10 minuti buttati a guardare questo video?:p
Sei un complottista, ma secondo te farei cose simili.
io sono una povera vittima.:sofico:
https://www.hwupgrade.it/articoli/skvideo/4322/intro2.jpg
Muoro :sofico: Si vede che sta soffrendo, spolveriamo sti magazzini che senno' mi va in depressione!
Fortunatamente evitando ogni youtuber specie quei poveracci italiani, non ho aperto il link :D
davide155
07-07-2022, 15:14
Va bene che nVidia deve svuotare i magazzini dalle 3000 ma voglio proprio vedere a chi le vende una volta uscite le nuove Amd, gioco forza le 4000 saranno subito della partita.
C'è un problema.....le amd usciranno dopo le nvidia, e non proprio di pochissimo :p
2-3 mesi vogliono dire tantissimo in ambito enthusiast.
mikael84
07-07-2022, 15:34
Muoro :sofico: Si vede che sta soffrendo, spolveriamo sti magazzini che senno' mi va in depressione!
Fortunatamente evitando ogni youtuber specie quei poveracci italiani, non ho aperto il link :D
E' la seconda volta che lo apro, ma sono masochista. Dopo aver ascoltato che se la 4070 soppianterà le 3080ti/3090, lo farà per forza andando a posizionarsi sopra.:p
Io cmq, parlando di cambio fascia, quando ancora potevo stare sulla fascia enthusiast, mi ricordo di aver preso certe tranvate sui denti (come tanti).
780ti custom da 6-800 euro, prezzate da un giorno all'altro a 300 euro, per via della 970, lo SLI poi è una brutta conseguenza.
980ti 7-1000 euro, escono le Pascal e da un giorno all'altro trovaprezzi impazzava di 980ti asus dc2 a 330 euro (delirio più totale sul mercatino).
Dopo il mercato tra mining e aumento costi, è un pò cambiato in negativo.
E' la seconda volta che lo apro, ma sono masochista. Dopo aver ascoltato che se la 4070 soppianterà le 3080ti/3090, lo farà per forza andando a posizionarsi sopra.:p
Io cmq, parlando di cambio fascia, quando ancora potevo stare sulla fascia enthusiast, mi ricordo di aver preso certe tranvate sui denti (come tanti).
780ti custom da 6-800 euro, prezzate da un giorno all'altro a 300 euro, per via della 970, lo SLI poi è una brutta conseguenza.
980ti 7-1000 euro, escono le Pascal e da un giorno all'altro trovaprezzi impazzava di 980ti asus dc2 a 330 euro (delirio più totale sul mercatino).
Dopo il mercato tra mining e aumento costi, è un pò cambiato in negativo.
E perche' 2080ti vs 3070 ? Son sempre state sassate in faccia, per questo rimango letteralmente allibito davanti a certi commenti...
Ok il periodo tragico, ma ci dev'essere un limite nel mettersi a 90.
C'è un problema.....le amd usciranno dopo le nvidia, e non proprio di pochissimo :p
2-3 mesi vogliono dire tantissimo in ambito enthusiast.
Non si parla di un generico ultimo trimestre 2022 per le AMD ? :confused:
Lato nVidia forse esce prima solo la 4090, perchè 4080 e 4070 usciranno ad un mese di distanza ognuna, o sbaglio?
Aspè aspè
Ma non era la 70 che nella gen successiva raggiungeva le prestazioni della 80 della passata gen? (vedere la 3070 e la 2080Ti, o la 2070 e la 1080ti)
Mo anche la 60ti fa quanto una 80? :mbe:
Mi son perso qualcosa? :stordita:
Di solito la x70 prende la x80ti, e a seconda delle generazioni la x80 viene presa o dalla x60 o da x60ti.
Anche con ampere ci siamo trovati nella situazione in cui 3060ti era li con 2080/2080s.
Con Lovelace dato il grosso salto di nodo dai 8nm di samsung ai 5nm di TSMC, AD104 nonostante sia un chip da 300mmq (dimensioni che di solito sono da x60) rivaleggerà con GA102 da 628mmq.
Già un cut brutale di AD104 sui 6144cc è in grado di competere con 3080, tenendo in considerazione anche il notevole clock in boost (2750mhz) che potrebbe anche arrivare a 3ghz per alcune custom.
A meno che amd , che non ha grandi scorte , anzi penso pochissime , non esca in contemporanea nvidia potrebbe benissimo tenersi in disparte le scorte e vendere per qualche mese le 3000 con un lancio fake.
Lo ha rifatto in passato.
Cmq si se avete in casa un buona scheda ha senso aspettare , ma se avete un muletto da diversi anni e state bramando un upgrade da tempo a prezzi umani la 3080 secondo me non è malvagia a quel prezzo.
Siciramente meglio di una usata che probabilmente ha minato per mesi.
Con un buon cut la 3080 a mio avviso rimane una bombetta di scheda, la prenderei senza problemi non avessi già un Ampere :)
mikael84
07-07-2022, 15:51
Va bene che nVidia deve svuotare i magazzini dalle 3000 ma voglio proprio vedere a chi le vende una volta uscite le nuove Amd, gioco forza le 4000 saranno subito della partita.
AMD i wafer 5nm li tiene, ma pare in ritardo con i progetti GPU più costosi, infatti ha allentato la richiesta di 6nm dove debutterà presumibilmente con la 7700xt a novembre circa.
JHH ora pare nel panico, ma guarda caso era partito già prevenuto, ha declassato le fasce ed ha programmato il debutto di Lovelace inserendo le Titan (x90), con le altre a fine anno.
E perche' 2080ti vs 3070 ? Son sempre state sassate in faccia, per questo rimango letteralmente allibito davanti a certi commenti...
infatti, li ha giocato tutto il casino venuto fuori, altrimenti sarebbe stata una mazzata epocale, ed in parte lo è stato inizialmente, con le 2080ti vendute a 4/500 euro, ma senza casini, quella era la fine.
JHH poi quel PP di samsung l'aveva preso al "mercato nero" a saldo, riprodurre una 2080ti con quel PP era una fesseria in costi.:)
amon.akira
08-07-2022, 01:37
ipotizzando una 4090 16k cuda a 2.75ghz con 450w avremmo 16k*2*2.75=90tf
una 4080 magari custom con lo stesso esborso energetico con 10k cuda a quanti mhz in piu potrebbe spingersi? con ampere abbiamo piu o meno una media di +100mhz a pari watt che sono il +5% clock dalla 3090 che ha il +20%cuda
la 4090 avrebbe +60% cuda, quindi la 4080 potrebbe andare un po piu su del 5% clock a pari watt?
mikael? :D
Dipende da quanto scalda e com'è tarato il bios.
Personalmente cercherei più che altro di undervoltare e ottimizzare al massimo i clock senza spremere il silicio ai limiti.
amon.akira
08-07-2022, 11:38
Dipende da quanto scalda e com'è tarato il bios.
Personalmente cercherei più che altro di undervoltare e ottimizzare al massimo i clock senza spremere il silicio ai limiti.
anche ipotizzando 3ghz vs 2.75 o cmq in proporzione a scalare ovviamente rimarrebbe una bella differenza sul raw power
10k*2*3k=61tf un distanziamento di quasi il 50% a fronte del 60%cuda e con una piccola perdita in scaling oserei dire che non si scenderebbe sotto il 40% di performance overall
mikael84
08-07-2022, 11:46
ipotizzando una 4090 16k cuda a 2.75ghz con 450w avremmo 16k*2*2.75=90tf
una 4080 magari custom con lo stesso esborso energetico con 10k cuda a quanti mhz in piu potrebbe spingersi? con ampere abbiamo piu o meno una media di +100mhz a pari watt che sono il +5% clock dalla 3090 che ha il +20%cuda
la 4090 avrebbe +60% cuda, quindi la 4080 potrebbe andare un po piu su del 5% clock a pari watt?
mikael? :D
Questo te lo possono confermare solo i progettisti per ora:D
Cmq pare che AD102 sia abbastanza conservativo, e che si possano superare pure i 3ghz a patto di ripercussioni sui consumi ovviamente.
anche ipotizzando 3ghz vs 2.75 o cmq in proporzione a scalare ovviamente rimarrebbe una bella differenza sul raw power
10k*2*3k=61tf un distanziamento di quasi il 50% a fronte del 60%cuda e con una piccola perdita in scaling oserei dire che non si scenderebbe sotto il 40% di performance overall
61TF 3ghz vs 90TF 2,75, sono il 48% perf. 30-33% toerico vs 20% effettivo mediamente, direi che si dovrebbe stare sui 30% (variazione + o -)
A pari condizioni sarebbe 61 vs 98, e qua siamo sopra il 35%, con circa il 40% in base allo scaling.
Cmq in gaming sarebbero 22,1 TOPS e 39TF average su circa 6550 cuda. 61 solo in programmi full fp32.
La 4080 dovrebbe andare a 3ghz il 30/35% sopra la 3090ti a 1900/1950.
amon.akira
08-07-2022, 12:22
61TF 3ghz vs 90TF 2,75, sono il 48% perf. 30-33% toerico vs 20% effettivo mediamente, direi che si dovrebbe stare sui 30% (variazione + o -)
A pari condizioni sarebbe 61 vs 98, e qua siamo sopra il 35%, con circa il 40% in base allo scaling.
Cmq in gaming sarebbero 22,1 TOPS e 39TF average su circa 6550 cuda. 61 solo in programmi full fp32.
addirittura 35% max 40% a pari condizioni di clock
qui per esempio tralasciando i +50watt a pari clock 1950mhz ho +18% su +20%cuda
port royal (https://www.3dmark.com/compare/pr/1401700/pr/1394658#)
mikael84
08-07-2022, 12:39
addirittura 35% max 40% a pari condizioni di clock
qui per esempio tralasciando i +50watt a pari clock 1950mhz ho +18% su +20%cuda
port royal (https://www.3dmark.com/compare/pr/1401700/pr/1394658#)
Si ci sta, dipende dallo scaling e da come l'applicazione usa i cuda, ma non sarà sempre così in base ai giochi. Calcolando le varie tolleranze viene fuori un rapporto di 20% effettivo vs 1,5/1,6 teorico.
Fondamentalmente la 4080, per come la conosciamo sarà una 3080ti con le cache e clock tra i 2,75/3ghz.
Tra 3090 a 1950 e 4080 a 3ghz dovresti avere 41 vs 61tf= 48%
Mediamente avrai un'average di 30-35%.
Nel port royal ad esempio avresti uno scaling di 43 su 48, ben oltre.
A questi rapporti andranno valutate le cache
Chiaro ci sarà sempre l'applicazione che scalerà meglio e quella peggio, da cui si fa una media.:)
amon.akira
08-07-2022, 12:52
Si ci sta, dipende dallo scaling e da come l'applicazione usa i cuda, ma non sarà sempre così in base ai giochi. Calcolando le varie tolleranze viene fuori un rapporto di 20% effettivo vs 1,5/1,6 teorico.
Fondamentalmente la 4080, per come la conosciamo sarà una 3080ti con le cache e clock tra i 2,75/3ghz.
Tra 3090 a 1950 e 4080 a 3ghz dovresti avere 41 vs 61tf= 48%
Mediamente avrai un'average di 30-35%.
Chiaro ci sarà sempre l'applicazione che scalerà meglio e quella peggio, da cui si fa una media.:)
se fosse cosi +20% effettivo vs 60% teorico andrei di 4080 anche perchè SICURAMENTE la 4080 qualcosina in clock lo recupera a pari consumo, quindi si andrebbe anche meno o al limite si resterebbe in quel range.
secondo me siamo un po restrittivi, in fondo in game con ampere ho un +10% effettivo vs un +20% teorico
mi sa che andrà a finire con un +25% su strada a pari watt e con qualche mhz in piu per l x80
FrancoBit
08-07-2022, 13:26
Raga sui prezzi non è uscito niente? Ho visto un video chiacchiera oggi di JayzTwocents che ipotizzava prezzi molto alti per 4090
https://www.youtube.com/watch?v=CbgryNNFrAI
mikael84
08-07-2022, 13:42
se fosse cosi +20% effettivo vs 60% teorico andrei di 4080 anche perchè SICURAMENTE la 4080 qualcosina in clock lo recupera a pari consumo, quindi si andrebbe anche meno o al limite si resterebbe in quel range.
secondo me siamo un po restrittivi, in fondo in game con ampere ho un +10% effettivo vs un +20% teorico
mi sa che andrà a finire con un +25% su strada a pari watt e con qualche mhz in piu per l x80
Si teoricamente è difficile calcolare il perf/watt su ipotesi, ma su quei 400/420watt ci dovrebbero stare circa 3ghz.
A 350w, una 3090 senza mod, downclocka sino a 1750, come da test.
Avendo gli stadi moltiplicatori uguali in tutto alla 3080ti, sarebbe più giusto inquadrare una 4080 come una 3080ti con +53% di clock a 3ghz.
Ipotizzando uno scaling di 1,5 tra gli stadi(/tf/int/rop's/primitive) teorici, un effettivo di 35% è ipotizzabile su una varia media.
A questo andrà aggiunto lo scaling migliore interno via l1 per la gestione code, ed il rapporto cache/bus.
Se dimezzassimo le performance avremmo:
61/2=30,5 = 3080@ 1750 circa da review (60% perf su 1,5)
Raga sui prezzi non è uscito niente? Ho visto un video chiacchiera oggi di JayzTwocents che ipotizzava prezzi molto alti per 4090
https://www.youtube.com/watch?v=CbgryNNFrAI
Considera circa 450 euro di solo die (ok è uno scarto), ma i costi ci saranno.
24gb di gddr6x (oltre 300$).
Raga sui prezzi non è uscito niente? Ho visto un video chiacchiera oggi di JayzTwocents che ipotizzava prezzi molto alti per 4090
https://www.youtube.com/watch?v=CbgryNNFrAI
No ma MSRP 3090 1500 USD, non ci vuole pirla 2 centesimi a dirci che la flagship costera' un organo :D
Come ripetuto poi sul thread, i costi del wafer sono in salita, condiscici insieme l'iperinflazione e tutto il resto e inizia a prenotare l'anestesista.
Poi c'e' sempre il solito fatto pre release dove si spargono voci di superprezzi cosi' poi te la piazzano cmq a un prezzo oltraggioso ma un pelo meno di quanto tu pensassi e allora sei contento di comprarla.
In piu' hai l'effetto vorrei ma non posso, di quelli che impauriti dalle voci, gli comprano la serie 3000 a fine serie spolverando gli scaffali, per poi buttarsi da una rupe 3 mesi dopo.
FrancoBit
08-07-2022, 13:50
Si immaginavo cose del genere, sincermante non avendo ancora sentito nessuno sparare cifre chiedevo se qualcuno avesse idee più chiare delle mie. Dai povero pirla 2 centesimi alla fine è meno peggio di tanti altri :fagiano:
Si immaginavo cose del genere, sincermante non avendo ancora sentito nessuno sparare cifre chiedevo se qualcuno avesse idee più chiare delle mie. Dai povero pirla 2 centesimi alla fine è meno peggio di tanti altri :fagiano:
Fanno il loro lavoro, generare click per la massa, non sono il loro target per lo stesso motivo per cui non guardo canale 5 o la tv in generale, sport escluso, niente di personale ma me ne tengo alla larga, 40 minuti di video per dire l'acqua e' bagnata.
Su 50 video di faccine, problematiche non esistenti, pippe mentali e discussioni basate sul niente, sicuramente qualcosa di interessante ogni tanto esce fuori da quei 3/4 canali, ricordo ad esempio un video di Linus in visita alle fab Intel che mi era piaicuto.
Immagino manchino ALMENO 2 mesi per avere info affidabili sui prezzi.
TigerTank
08-07-2022, 14:07
No ma MSRP 3090 1500 USD, non ci vuole pirla 2 centesimi a dirci che la flagship costera' un organo :D
Come ripetuto poi sul thread, i costi del wafer sono in salita, condiscici insieme l'iperinflazione e tutto il resto e inizia a prenotare l'anestesista.
Poi c'e' sempre il solito fatto pre release dove si spargono voci di superprezzi cosi' poi te la piazzano cmq a un prezzo oltraggioso ma un pelo meno di quanto tu pensassi e allora sei contento di comprarla.
In piu' hai l'effetto vorrei ma non posso, di quelli che impauriti dalle voci, gli comprano la serie 3000 a fine serie spolverando gli scaffali, per poi buttarsi da una rupe 3 mesi dopo.
Quando senti che inizia pure ad essere difficilmente reperibile la C02 per fare le bibite gassate(un fatto che potrebbe essere comico a sentirsi, ma non lo è), capisci che il futuro sarà parecchio nebuloso circa molti aspetti...per cui mi verrebbe solo da dire che ancor più che in passato bisognerà valutare e ponderare man mano che si snoccioleranno gli scenari. Tra inflazioni, crisi ed il fatto che si parla comunque di videogiocare e non di pane. Imho.
Dicono che ci saranno molte meno vga...ma secondo me può anche essere che ci sarà anche molta meno gente che darà priorità a cose come quelle di cui si parla qui. Che poi un interrogativo a cui penso spesso ultimamente è come saranno certi mercati di distribuzione del nuovo hardware in relazione alle situazioni geopolitiche.
fraussantin
08-07-2022, 14:08
Fanno il loro lavoro, generare click per la massa, non sono il loro target per lo stesso motivo per cui non guardo canale 5 o la tv in generale, sport escluso, niente di personale ma me ne tengo alla larga, 40 minuti di video per dire l'acqua e' bagnata.
Su 50 video di faccine, problematiche non esistenti, pippe mentali e discussioni basate sul niente, sicuramente qualcosa di interessante ogni tanto esce fuori da quei 3/4 canali, ricordo ad esempio un video di Linus in visita alle fab Intel che mi era piaicuto.
Immagino manchino ALMENO 2 mesi per avere info affidabili sui prezzi.E cmq questi "leak" servono anche per "sondare" il terreno imho.
Non possono darti la 4090 a 1600euro/dollari a mio avviso, chi ha una 3090 non passerà mai a LL.
Sara qualcosa come:
4070 - 700$
4080 900$
4090 - 1200/1300$ (a farla sporca)
Le g6x costano uno sproposito e il chip colpa di questo 5nm ha prezzi folli. Avremo più perf, ma scordiamoci proprio gli msrp delle 3000 (a oggi gonfiati per tempo e per inflazione di circa il 6% on top messo da nvidia mesi fa)
Io continuo a non capire come un 40% della frequenza dei core possa dare un aumento del 30% delle perf, su questa architettura che scala veramente male, ma vedremo
Quando senti che inizia pure ad essere difficilmente reperibile la C02 per fare le bibite gassate(un fatto che potrebbe essere divertente ma non lo è), capisci che il futuro sarà parecchio nebuloso circa molti aspetti...per cui mi verrebbe solo da dire che ancor più che in passato bisognerà valutare e ponderare man mano che si snoccioleranno gli scenari. Tra inflazioni, crisi ed il fatto che si parla comunque di videogiocare e non di pane. Imho.
Dicono che ci saranno molte meno vga...ma secondo me può anche essere che ci sarà anche molta meno gente che darà priorità a cose come quelle dicui si parla qui. Che poi un interrogativo a cui penso spesso ultimamente è come saranno certi mercati di distribuzione del nuovo hardware in relazione alle situazioni geopolitiche.
THIS
E cmq questi "leak" servono anche per "sondare" il terreno imho.
Assolutamente, da qualche anno mio malgrado lavoro su analisi dati marketing, ed e' assolutamente quello che succede per tastare il polso del mercato.
Questo non vuol dire che faranno il prezzo direttamente in base a quello che noi scimpanze' valutiamo coerente, ma grazie anche allo storico degli acquirenti, sanno piu' o meno che il target enthusiast prendera' la flagship anche se costera' 3k, quelli della fascia alta pagano volentieri fino a 800USD etc e cosi' via.
Poi il discorso deve essere localizzato, per un italiano ste schede costano quasi uno stipendio, per un americano sono la paga di una settimana al netto di tasse e quant altro, che poi e' il motivo per cui in EU e specie da noi schede ne stanno arrivando poche.
Poi vabbe' qua siamo in un finto mercato aperto, sappiamo che la realta' e' ben diversa, quindi sanno che avranno sempre il coltello dalla parte del manico, e le fette eventuali perse saranno per scenari macroeconomici (vedi sopra discorso di Tiger) piu' che un problema di prezzo/fascia/tagli/consumi e cagate del genere.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.