View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
SinapsiTXT
19-05-2022, 15:43
Con le nuove schede alle porte, il costo attuale dell'elettricità ed il valore di BTC/ETH, nessuno si azzarda a comprarle ai prezzi odierni o MSRP.:stordita:
Non capisco per quale motivo uno dovrebbe dire che una 3060ti o una 3070ti a prezzo di listino aggiornato (MSRP) quindi rispettivamente 439 € e 649€ non dovrebbero essere un buon affare anche se siamo alle porte della serie 4000 considerando che:
1. dagli ultimi rumor si parla di anticipare l'uscita a luglio e questo fa presagire volumi bassi per guadagnare tempo mettendoci l'estate di mezzo
2. se consideriamo le previsioni abbastanza veritiere questa serie 4000 sarà un balzo avanti notevole quasi sicuramente Nvidia ritoccherà sensibilmente i prezzi
Quindi tenuto conto di tutto questo è così azzardato pensare che almeno per i primi mesi non vedremo nemmeno un prodotto di fascia media e la fascia alta salirà di almeno un gradino quindi ritornando alla considerazione iniziale perchè una 3060ti o una 3070ti dovrebbero essere lasciate sullo scaffale se vengono proposte ai prezzi MSRP?
Non capisco per quale motivo uno dovrebbe dire che una 3060ti o una 3070ti a prezzo di listino aggiornato (MSRP) quindi rispettivamente 439 € e 649€ non dovrebbero essere un buon affare anche se siamo alle porte della serie 4000 considerando che:
1. dagli ultimi rumor si parla di anticipare l'uscita a luglio e questo fa presagire volumi bassi per guadagnare tempo mettendoci l'estate di mezzo
2. se consideriamo le previsioni abbastanza veritiere questa serie 4000 sarà un balzo avanti notevole quasi sicuramente Nvidia ritoccherà sensibilmente i prezzi
Quindi tenuto conto di tutto questo è così azzardato pensare che almeno per i primi mesi non vedremo nemmeno un prodotto di fascia media e la fascia alta salirà di almeno un gradino quindi ritornando alla considerazione iniziale perchè una 3060ti o una 3070ti dovrebbero essere lasciate sullo scaffale se vengono proposte ai prezzi MSRP?
Perché la domanda adesso è più bassa dell'offerta ed in una situazione del genere i prezzi si abbassano. Se includiamo che c'è la nuova serie 4xxx alle porte e quelli con la scimmia si sposteranno su quelle e venderanno le 3xxx, la domanda per le 3xxx si abbasserà ancora di più.
Thunder-74
19-05-2022, 16:03
Scusate , trascinando quello che è accaduto per pandemia, ma nVidia con la serie 3000 non ha alzato a dismisura i prezzi , lo fece con la serie 2000., dove il chip è stato stravolto. Perché fare il discorso del prezzo in base alle prestazioni , quando la 3080 è stata lanciata a 719, scheda 40x100 più veloce di una 2080ti che ne costava 1259. Poi è stato quello che è stato e ci siamo trovati con un mercato malato, ma questo è un altro discorso .
https://uploads.tapatalk-cdn.com/20220519/009a3308af718388efac7b61ce9fb1b3.jpg
Inviato dal mio iPhone X utilizzando Tapatalk
ninja750
19-05-2022, 16:11
ci siamo trovati con un mercato malato, ma questo è un altro discorso
no, ci siamo trovati con MSRP irrealizzabili da parte degli AIB per la prima volta nella storia
le uniche vendute a quei prezzi sono state le prime FE, con turing potevi prenderti una custom per meno del MSRP
Thunder-74
19-05-2022, 16:33
no, ci siamo trovati con MSRP irrealizzabili da parte degli AIB per la prima volta nella storia
le uniche vendute a quei prezzi sono state le prime FE, con turing potevi prenderti una custom per meno del MSRP
Errato, ci sono state Tuf a prezzo più basso delle fe e comunque lanciate a 719. La Strix fu lanciata a 850 prezzo listino asus , io presa a fine 2020 con aumento di 100 euro. Se non ci fosse stata la pandemia avremmo avuto 3080 ballare tra i 700 e i 900 per i modelli super custom .
Inviato dal mio iPhone X utilizzando Tapatalk
SinapsiTXT
19-05-2022, 16:43
Perché la domanda adesso è più bassa dell'offerta ed in una situazione del genere i prezzi si abbassano. Se includiamo che c'è la nuova serie 4xxx alle porte e quelli con la scimmia si sposteranno su quelle e venderanno le 3xxx, la domanda per le 3xxx si abbasserà ancora di più.
La domanda è calata, definirla bassa mi sembra un'esagerazione, se consideri che i prodotti su amazon e negli store sono disponibili comunque in misura ridotta (1-2 pezzi per modello e a volte alcuni modelli sono in attesa di 1 settimana).
Ora rispetto agli scaffali vuoti è sicuramente grasso che cola ma definire la domanda bassa e l'offerta normale mi sembra azzardato (siamo ancora lontani da un mercato normale).
Poi concordo con te che il trend dei prezzi è destinato a calare ma sai bene anche tu che i prezzi delle FE sono fissati da Nvidia e quindi al massimo sono i prezzi delle custom a scendere (e questi partono sempre almeno ad un 20% in + del prezzo di listino di Nvidia).
Non mi ha risposto sulla questione 4000 e sulla mancanza di una fascia media :D se una fantomatica 4060 dovesse costare 700€ come si può parlare di fascia media? Ovviamente ad oggi non sappiamo nulla sui modelli che lanceranno ma resta il fatto che mi riesce difficile credere che una 3060ti FE comprata a prezzo di listino non sia comunque un buon affare perchè a quella cifra non si troverà nulla della serie 4000 (se dovessi venir smentito tanto meglio ma temo che vedremo solo schede uber a prezzi uber e con disponibilità inesistenti).
@ Thunder-74
Stai parlando dei primi giorni di uscita e comunque di pochissime schede. Io cercai di comprare una 3080 dal Day 1 e non sono mai riuscito a mettere le mani ne sulle FE ne sulle TUF (alla fine me la sono dovuta andare a comprare in germania per metterci sopra le mani). Non si può citare pochi fortunati su migliaia di persone che invece non hanno trovato nulla.
Non mi ha risposto sulla questione 4000 e sulla mancanza di una fascia media :D se una fantomatica 4060 dovesse costare 700€ come si può parlare di fascia media? Ovviamente ad oggi non sappiamo nulla sui modelli che lanceranno ma resta il fatto che mi riesce difficile credere che una 3060ti FE comprata a prezzo di listino non sia comunque un buon affare perchè a quella cifra non si troverà nulla della serie 4000 (se dovessi venir smentito tanto meglio ma temo che vedremo solo schede uber a prezzi uber e con disponibilità inesistenti).
Io non ho commentato i prezzi che si vociferano in questo 3d perché mi sembrano assurdi e spero non siano realtà. Cerco di non costruire castelli basandoli su informazioni che potrebbero non essere veritiere. :stordita:
Non capisco per quale motivo uno dovrebbe dire che una 3060ti o una 3070ti a prezzo di listino aggiornato (MSRP) quindi rispettivamente 439 € e 649€ non dovrebbero essere un buon affare anche se siamo alle porte della serie 4000 considerando che:
1. dagli ultimi rumor si parla di anticipare l'uscita a luglio e questo fa presagire volumi bassi per guadagnare tempo mettendoci l'estate di mezzo
2. se consideriamo le previsioni abbastanza veritiere questa serie 4000 sarà un balzo avanti notevole quasi sicuramente Nvidia ritoccherà sensibilmente i prezzi
Quindi tenuto conto di tutto questo è così azzardato pensare che almeno per i primi mesi non vedremo nemmeno un prodotto di fascia media e la fascia alta salirà di almeno un gradino quindi ritornando alla considerazione iniziale perchè una 3060ti o una 3070ti dovrebbero essere lasciate sullo scaffale se vengono proposte ai prezzi MSRP?
Può essere, ma può anche essere che al lancio della serie 4000 si riesca a comprare con 100 euro in più una scheda che va il 50% più veloce.
Personalmente a meno che non ci sia il bisogno urgente di una scheda video ritengo che aspettare sia la scelta migliore.
amon.akira
19-05-2022, 17:50
Errato, ci sono state Tuf a prezzo più basso delle fe e comunque lanciate a 719. La Strix fu lanciata a 850 prezzo listino asus , io presa a fine 2020 con aumento di 100 euro. Se non ci fosse stata la pandemia avremmo avuto 3080 ballare tra i 700 e i 900 per i modelli super custom .
Inviato dal mio iPhone X utilizzando Tapatalk
eccola qua (https://i.imgur.com/5CP9njw.png), spero di replicare con la 4000 che sia x80 o x90 :D
mikael84
19-05-2022, 18:20
Scusate , trascinando quello che è accaduto per pandemia, ma nVidia con la serie 3000 non ha alzato a dismisura i prezzi , lo fece con la serie 2000., dove il chip è stato stravolto. Perché fare il discorso del prezzo in base alle prestazioni , quando la 3080 è stata lanciata a 719, scheda 40x100 più veloce di una 2080ti che ne costava 1259. Poi è stato quello che è stato e ci siamo trovati con un mercato malato, ma questo è un altro discorso .
Inviato dal mio iPhone X utilizzando Tapatalk
Vero, infatti doveva essere il punto di svolta, in quanto dopo anni tornava anche AMD.
Se guardiamo i chippini il lucro peggiore JHH l'ha fatto con Pascal, visti i costi di un 16nm con un misero 314mm2. Anche la x80ti malgrado molto potente aveva un die da x70 attuale.:)
Riguardo lovelace ed i 5nm, ok il lucro e tutto quanto, ma bisogna anche dire che i costi di produzione aumentano non poco. Quasi 3x a wafer rispetto ai 10nm. Tecnologia EUV, aumento ram, tra cui le gddr6x che sono molto costose. Senza considerare tutti gli altri costi come ricerca e sviluppo.
Thunder-74
19-05-2022, 18:20
cut..
@ Thunder-74
Stai parlando dei primi giorni di uscita e comunque di pochissime schede. Io cercai di comprare una 3080 dal Day 1 e non sono mai riuscito a mettere le mani ne sulle FE ne sulle TUF (alla fine me la sono dovuta andare a comprare in germania per metterci sopra le mani). Non si può citare pochi fortunati su migliaia di persone che invece non hanno trovato nulla.
vedi il mio ragionamento è un altro...
nVidia ha presentato una scheda a 719 euro pur essendo il 40% più potente della 2080ti, questo per rispondere a chi dice che il prezzo nvidia lo fa in base alla potenza, non è mai stato così. Nel tempo abbiamo sempre visto classi inferiori superare la classe superiore della gen precedente ad un costo più basso.
Il fatto che le prime schede vendute degli AIB ebbero il pezzo di lancio vicino al msrp, è indice che quel prezzo era sostenibile per le case.
Questo perchè se il prezzo di un nuovo prodotto deve essere alto, lo è all'inizio del suo ciclo di vita. Esiste il così detto prezzo di scrematura, prezzo volutamente alto, applicato per quelle persone disposte a spendere di più per avere subito un nuovo prodotto. Mediamente prezzo che dopo 2 mesi scende. Lo vediamo spesso sulle CPU.
Il problema è che la Cina era in crisi pandemica già alla fine del 2019. Quando si è iniziato a produrre VGA le fabbriche producevano meno del previsto. Quando le schede sono state lanciate, hanno creato un enorme hype, tutti a gridare 499 / 699. La quantità prodotta era già scarsa per il lancio, a tal punto che sono finite al volo. i primi restock sono andati al prezzo previsto di listino, poche per la domanda che c'era. Poi il prezzo è andato ad aumentare esponenzialmente ad ogni restock.
Ovvio che se tu un prodotto lo produci in quantità limitate per via della pandemia, avendo così una domanda molto più alta dell'offerta, a tal punto che hai le code di richieste di acquisto prima di avere i chip per fare le schede, i prezzi crescono a vista d'occhio.
Poi mettiamoci che tutti si sono riversati sul modo informatico per via dei lockdown, il mining, ecco fatto che le schede lanciate sono diventate un miraggio e ancor più trovarle al prezzo di lancio delle varie case.
Ma ripeto, fossimo stati senza covid/mining, avremmo visto il solito andamento dei prezzi come è stato con fermi/kepler/maxwell/pascal (fino al mining). Ad analizzare bene nVidia, ci sarebbe da dire che turing fu un fulmine a cel sereno, dato che i prezzi di lancio erano alti. Una 2080ti al costo della Titan precedente fece storcere il naso, senza avere un gran salto in raster rispetto alla 1080ti, parliamo di un 28% (non vi metto lo screen di TpUp, ma questo mostra). Ma turing ha stravolto il progetto di nVidia , proponendo un chippone con parecchie features, ci stava...
Tutti pensavamo che avrebbe dettato il nuovo prezzo di Ampere e per questo al lancio delle 3000 rimanemmo basiti dai prezzi.
Ora non mi aspetto che Lovelace sia allineata con i prezzi msrp di Ampere, ma non mi aspetto di certo una 4080, che potrebbe avere un 35/40% in più di una 3090, essere lanciata da nVidia a più di 899$ . Sinceramente spero 799$. Poi quello che sarà sul mercato è un altro par di maniche. Se continueranno i problemi di produzione, ovvio che dei prezzi di lancio ne potranno beneficiare solo i primissimi fortunati.
Quindi ricapitolando, un conto era il progetto iniziale di nvidia di vendere una scheda ad un determinato prezzo (ipotizzo concordato anche con gli AIB) , un conto la realtà dei fatti, viziata dalla legge di un mercato influenzato dalla pandemia. Se si deve ragionare sui prezzi futuri di una nuova tecnologia, credo sia corretto ragionare su quelli di listino ed eventualmente tenere in considerazione le aggravanti dovute agli N fattori nefasti che hanno caratterizzato il 2021/2022. Speriamo che questi siano sempre meno e sempre meno determinanti.
davide155
19-05-2022, 19:06
Ora non mi aspetto che Lovelace sia allineata con i prezzi msrp di Ampere, ma non mi aspetto di certo una 4080, che potrebbe avere un 35/40% in più di una 3090, essere lanciata da nVidia a più di 899$ . Sinceramente spero 799$.
Thunder sei troppo ottimista.
O comunque, potrebbe esserci una base di fondamento vero nel tuo discorso se, come ha ripetuto più volte Mikael, giacchetta scalerà di un gradino tutti i chip tranne il chippone. Quindi avremo una 4080 col chip di una 4070, ed una 4070 che avrebbe dovuto chiamarsi 4060, e così via.
Allora a quella maniera può permettersi di vendere la 4080 super mega cuttata a 799€. Perchè avrà comunque vinto, dato che sarebbe dovuta essere una 4070.
Per me due sono le cose:
1- i chip avranno una potenza mostruosa, e quindi il giacchetta può permettersi di cuttarle quanto vuole, tanto faranno comunque 2x e le faranno pagare un occhio della testa (4080 con street price di partenza 1200€).
2- non saranno tanto veloci quanto leakato fino ad ora (30-35% max), perchè appunto saranno dei mega cut ribrandizzati al rialzo e quindi consumeranno poco (grazie ai 4/5nm ed al chip con meno cuda cores rispetto a quello che sarebbero dovuti essere) e quindi potranno costare quanto ampere (poche decine di € in più max).
scorpion73
19-05-2022, 19:23
Thunder sei troppo ottimista.
O comunque, potrebbe esserci una base di fondamento vero nel tuo discorso se, come ha ripetuto più volte Mikael, giacchetta scalerà di un gradino tutti i chip tranne il chippone. Quindi avremo una 4080 col chip di una 4070, ed una 4070 che avrebbe dovuto chiamarsi 4060, e così via.
Allora a quella maniera può permettersi di vendere la 4080 super mega cuttata a 799€. Perchè avrà comunque vinto, dato che sarebbe dovuta essere una 4070.
Per me due sono le cose:
1- i chip avranno una potenza mostruosa, e quindi il giacchetta può permettersi di cuttarle quanto vuole, tanto faranno comunque 2x e le faranno pagare un occhio della testa (4080 con street price di partenza 1200€).
2- non saranno tanto veloci quanto leakato fino ad ora (30-35% max), perchè appunto saranno dei mega cut ribrandizzati al rialzo e quindi consumeranno poco (grazie ai 4/5nm ed al chip con meno cuda cores rispetto a quello che sarebbero dovuti essere) e quindi potranno costare quanto ampere (poche decine di € in più max).
Basta aspettare che esca la 4080ti invece di fiondarsi subito sulla 4080 liscia e sei a posto.
Tanto non credo che come esce Lovelace ampere diventi buono solo per giocare al solitario, no?
Oppure se hai i soldi, ti prendi una 4090 e vivi sereno per due anni almeno.
Inviato dal mio iPhone utilizzando Tapatalk
davide155
19-05-2022, 19:47
Basta aspettare che esca la 4080ti invece di fiondarsi subito sulla 4080 liscia e sei a posto.
Tanto non credo che come esce Lovelace ampere diventi buono solo per giocare al solitario, no?
Oppure se hai i soldi, ti prendi una 4090 e vivi sereno per due anni almeno.
Inviato dal mio iPhone utilizzando TapatalkFrancamente mi da noia al cervelletto che il giacchetta se ne approfitti di noi clienti "ingannandoci" coi chip. Poi comunque noi enthusiast ci frega poco.
Il problema è chi compra una 4080 tutto contento credendo di aver fatto un affarone a 799 ed invece si ritrova una 4070 a tutti gli effetti.
Poi ovviamente si sta parlando del nulla perché ci basiamo solo su speculazioni più o meno fondate ma son sempre speculazioni.
amon.akira
19-05-2022, 20:02
Thunder sei troppo ottimista.
O comunque, potrebbe esserci una base di fondamento vero nel tuo discorso se, come ha ripetuto più volte Mikael, giacchetta scalerà di un gradino tutti i chip tranne il chippone. Quindi avremo una 4080 col chip di una 4070, ed una 4070 che avrebbe dovuto chiamarsi 4060, e così via.
Allora a quella maniera può permettersi di vendere la 4080 super mega cuttata a 799€. Perchè avrà comunque vinto, dato che sarebbe dovuta essere una 4070.
Per me due sono le cose:
1- i chip avranno una potenza mostruosa, e quindi il giacchetta può permettersi di cuttarle quanto vuole, tanto faranno comunque 2x e le faranno pagare un occhio della testa (4080 con street price di partenza 1200€).
2- non saranno tanto veloci quanto leakato fino ad ora (30-35% max), perchè appunto saranno dei mega cut ribrandizzati al rialzo e quindi consumeranno poco (grazie ai 4/5nm ed al chip con meno cuda cores rispetto a quello che sarebbero dovuti essere) e quindi potranno costare quanto ampere (poche decine di € in più max).
a sto punto pure la 2080 era una x70 tu104, la 1080 era una x70 gp104 la 980 gm204
l importante sono le performance già a 2600 sono +30%clock senza tirare in ballo altro.
i prezzi vedremo, io sono fiducioso
thunderforce83
19-05-2022, 20:46
Alla fine se la 4080 pseudo 4070 fara' molto meglio dell'attuale 3090 e' sempre vantaggioso per noi, sperando che non si vada oltre i mille euro.
In effetti nvidia ha sempre fatto cosi', quindi e' inutile lamentarsi, tanto sappiamo benissimo che non abbiamo molta scelta... intel uscira' con delle schede che al massimo potevano competere con la serie 3xxx ma con questa, la vedo dura, amd piu' schifo che mai, ormai e' morta e sepolta dalla 290x (preistoria) quindi in soldoni, se la 4080 fara' un 20/30x100 in piu' rispetto alla mia 3080 attuale e costera' sotto i 1000 e se per assurdo la prendero' al lancio, beh saro' contento, se poi giacca di pelle umana nera mi prezza la 4090 tra i 1400/1500 e riesco a prenderla al day one saro' ancora piu' contento:D :sofico: :sofico: :sofico: :sofico:
mikael84
19-05-2022, 20:46
a sto punto pure la 2080 era una x70 tu104, la 1080 era una x70 gp104 la 980 gm204
l importante sono le performance già a 2600 sono +30%clock senza tirare in ballo altro.
i prezzi vedremo, io sono fiducioso
No:)
La x80 no cut del chippone, è sempre stata 2/3 le ALU del chippone.
Nel caso di turing la 2080 è sempre 2/3 del chippone, ovvero 3076/4608.
La x70 invece nella peggiore delle ipotesi, è sempre stata 1/2 della ALU.
Es:
Maxwell : 1664/3072cc =84% del chippone.
Pascal: 1920/3840 = 1/2
Turing : 2304/4608= 1/2
Ampere: 5880/10752 = 82,82% del chippone.
Lovelace : Nella migliore delle ipotesi sta al 72%, ma avrà un cut, si parla di 2/4 TPC. Con 2 TPC in meno avrebbe i valori di ampere x70 precisi.
La x70 è poco più di 1/3 delle ALU di x60, ma è scritta nel chip della x60 (bus a 192bit).
mikael84
19-05-2022, 21:02
Alla fine se la 4080 pseudo 4070 fara' molto meglio dell'attuale 3090 e' sempre vantaggioso per noi, sperando che non si vada oltre i mille euro.
In effetti nvidia ha sempre fatto cosi', quindi e' inutile lamentarsi, tanto sappiamo benissimo che non abbiamo molta scelta... intel uscira' con delle schede che al massimo potevano competere con la serie 3xxx ma con questa, la vedo dura, amd piu' schifo che mai, ormai e' morta e sepolta dalla 290x (preistoria) quindi in soldoni, se la 4080 fara' un 20/30x100 in piu' rispetto alla mia 3080 attuale e costera' sotto i 1000 e se per assurdo la prendero' al lancio, beh saro' contento, se poi giacca di pelle umana nera mi prezza la 4090 tra i 1400/1500 e riesco a prenderla al day one saro' ancora piu' contento:D :sofico: :sofico: :sofico: :sofico:
Si le perf non mancheranno anche li. Soprattutto se veritieri almeno in parte quei clock e le modifiche microarchitetturali, soprattutto relative a INT e rop's.:)
AMD non è morta, ha un buon progetto, deve migliorare il RT, anzi promette bene, almeno raster.
Intel, seguo il progetto da anni, ma ormai ho smesso. Parliamo del nulla cosmico.:) :D
Mallardo
19-05-2022, 21:10
Alla fine se la 4080 pseudo 4070 fara' molto meglio dell'attuale 3090 e' sempre vantaggioso per noi, sperando che non si vada oltre i mille euro.
Per un motivo o per un altro ad ogni uscita delle nuove generazioni di VGA i prezzi sono aumentati sempre di più, e non parlo solo di Nvidia. Che le prestazioni migliorino mi pare scontato...non riesco proprio a capire come tutto ciò possa essere considerato vantaggioso per noi.
davide155
19-05-2022, 21:14
No:)
La x80 no cut del chippone, è sempre stata 2/3 le ALU del chippone.
Nel caso di turing la 2080 è sempre 2/3 del chippone, ovvero 3076/4608.
La x70 invece nella peggiore delle ipotesi, è sempre stata 1/2 della ALU.
Es:
Maxwell : 1664/3072cc =84% del chippone.
Pascal: 1920/3840 = 1/2
Turing : 2304/4608= 1/2
Ampere: 5880/10752 = 82,82% del chippone.
Lovelace : Nella migliore delle ipotesi sta al 72%, ma avrà un cut, si parla di 2/4 TPC. Con 2 TPC in meno avrebbe i valori di ampere x70 precisi.
La x70 è poco più di 1/3 delle ALU di x60, ma è scritta nel chip della x60 (bus a 192bit).
Proprio a questo mi riferivo. Grazie mikael per i dati sempre impeccabili.
In pratica nvidia venderebbe una 4070 pompata con sopra scritto 4080.
Ok che la crescita di performance sarà in proporzione la medesima delle precedenti generazioni (ancora tutto da confermare), ma ci venderà un pezzo di silicio più "scarso" allo stesso prezzo di un chip più "complesso" della precedente generazione.
Boh forse sarò strano io, o troppo purista, ma questa cosa mi da noia non poco.
amon.akira
19-05-2022, 21:20
No:)
La x80 no cut del chippone, è sempre stata 2/3 le ALU del chippone.
Nel caso di turing la 2080 è sempre 2/3 del chippone, ovvero 3076/4608.
La x70 invece nella peggiore delle ipotesi, è sempre stata 1/2 della ALU.
Es:
Maxwell : 1664/3072cc =84% del chippone.
Pascal: 1920/3840 = 1/2
Turing : 2304/4608= 1/2
Ampere: 5880/10752 = 82,82% del chippone.
Lovelace : Nella migliore delle ipotesi sta al 72%, ma avrà un cut, si parla di 2/4 TPC. Con 2 TPC in meno avrebbe i valori di ampere x70 precisi.
La x70 è poco più di 1/3 delle ALU di x60, ma è scritta nel chip della x60 (bus a 192bit).
dici meno di 10752? in ottica 10k cuda con 450w e 16k cuda 450w che differenza di clock potrebbe esserci?
non considero oltre i 450w per una questione realistica di raffreddamento, non so cosa si inventeranno con i 600w della full 18k
la differenza è che il full sarà veramente offlimit, quindi per me varrebbe il paragone 16k vs 10k anzichè il 18k
Mallardo
19-05-2022, 21:21
cut
È solo questione di marketing, conoscendo quel che compri poi ignorare la cosa...del nome della scheda alla fine che te ne frega?
davide155
19-05-2022, 21:21
Alla fine se la 4080 pseudo 4070 fara' molto meglio dell'attuale 3090 e' sempre vantaggioso per noi, sperando che non si vada oltre i mille euro.
In effetti nvidia ha sempre fatto cosi', quindi e' inutile lamentarsi, tanto sappiamo benissimo che non abbiamo molta scelta... intel uscira' con delle schede che al massimo potevano competere con la serie 3xxx ma con questa, la vedo dura, amd piu' schifo che mai, ormai e' morta e sepolta dalla 290x (preistoria) quindi in soldoni, se la 4080 fara' un 20/30x100 in piu' rispetto alla mia 3080 attuale e costera' sotto i 1000 e se per assurdo la prendero' al lancio, beh saro' contento, se poi giacca di pelle umana nera mi prezza la 4090 tra i 1400/1500 e riesco a prenderla al day one saro' ancora piu' contento:D :sofico: :sofico: :sofico: :sofico:Io la scelta ce l'ho eccome, tenermi strettissima la 3090 :)
Dal mio punto di vista nvidia a sto giro vuole fare troppo la furba.
Poi ovviamente se prezzerà la 4090 allo stesso prezzo della 3090 allora la scimmia anche nel mio caso vacillerà, ma ho i miei fortissimi dubbi. Come ho detto più volte per me sarà un bagno di sangue con street price da oltre i mille per la 4080 e quasi 2mila per la 4090, e ripeto street price, non msrp.
La 4090ti non la prendo manco in considerazione visto l'andazzo infimo della 3090ti.
amon.akira
19-05-2022, 21:26
Io la scelta ce l'ho eccome, tenermi strettissima la 3090 :)
Dal mio punto di vista nvidia a sto giro vuole fare troppo la furba.
Poi ovviamente se prezzerà la 4090 allo stesso prezzo della 3090 allora la scimmia anche nel mio caso vacillerà, ma ho i miei fortissimi dubbi. Come ho detto più volte per me sarà un bagno di sangue con street price da oltre i mille per la 4080 e quasi 2mila per la 4090, e ripeto street price, non msrp.
La 4090ti non la prendo manco in considerazione visto l'andazzo infimo della 3090ti.
a noi interessa l msrp, se siamo riusciti a prendere la 3090 a 1550 quando si vendevano le 3080 a 2000, ora che migliora la situazione che dici non ci si riesce? :P
No:)
La x80 no cut del chippone, è sempre stata 2/3 le ALU del chippone.
Nel caso di turing la 2080 è sempre 2/3 del chippone, ovvero 3076/4608.
La x70 invece nella peggiore delle ipotesi, è sempre stata 1/2 della ALU.
Es:
Maxwell : 1664/3072cc =84% del chippone.
Pascal: 1920/3840 = 1/2
Turing : 2304/4608= 1/2
Ampere: 5880/10752 = 82,82% del chippone.
Lovelace : Nella migliore delle ipotesi sta al 72%, ma avrà un cut, si parla di 2/4 TPC. Con 2 TPC in meno avrebbe i valori di ampere x70 precisi.
La x70 è poco più di 1/3 delle ALU di x60, ma è scritta nel chip della x60 (bus a 192bit).
Si ma va tenuto conto anche delle rese, AD102 credo avrà un bel pò di chip fallati, e ancora non si sa che brutale cut avrà la 4080ti considerando le specifiche trapelate della 4090 e potrebbe tranquillamente regredire a 320bit e 20GB di vram e avere nell'intorno dei 14000cc se non meno.
In passato la x80ti aveva uno scarto minimo dal full chip, ora i chip perfetti costano, e sicuramente tutti gli scarti delle 4090 si inseriranno perfettamente a cavallo tra 4080 e 4090...
Nella passata gen l'assenza di un GA103 desktop si è sentito tutto, tra 3070 e 3080 c'è un vuoto che è rimasto incolmato.
Per un motivo o per un altro ad ogni uscita delle nuove generazioni di VGA i prezzi sono aumentati sempre di più, e non parlo solo di Nvidia.
Purtroppo i rincari non hanno riguardato solo le vga (se escludiamo la serie 3000)
davide155
19-05-2022, 21:41
a noi interessa l msrp, se siamo riusciti a prendere la 3090 a 1550 quando si vendevano le 3080 a 2000, ora che migliora la situazione che dici non ci si riesce? :PLa situazione migliora? A firenze si dice ma indoe? :D
A me pare esattamente la stessa situazione di un anno fa, con il calo della domanda fisiologico relativo all'estate. Poi sappiamo bene com'è andata in inverno scorso, peggio anche dell'inverno 2020.
La scarsità di chip permarrà ancora per tutto il 2023 hanno detto.
I lockdown in asia sono sempre più grossi, non perché il virus ha aumentato forza ma perché (ha detta loro) è l'unico sistema che hanno per contrastare l'epidemia.
Tutto questo si traduce in un continuo blocco delle catene produttive.
I container poi sono sempre con prezzi alle stelle con conseguente prezzo altissimo per le spedizioni di grosse quantità di merce.
Per ora non vedo una situazione rosea nel breve termine.
Senza contare i miner (professionisti) che sicuramente vorranno fare il cambio dell'hardware alle nuove vga appena usciranno.
E poi comunque chi voleva una nuova vga l'ha già ampiamente presa da tempo, e chi la vorrebbe aspetta le nuove. Questo si traduce nella classica quiete prima della tempesta.
Insomma, noi abbiamo avuto un culo spanato a prendere la 3090fe al vecchio prezzo, ma non è detto che nevichi due volte consecutive ad agosto :D
amon.akira
19-05-2022, 21:42
Si ma va tenuto conto anche delle rese, AD102 credo avrà un bel pò di chip fallati
concordo, secondo me il 18kcuda è molto idilliaco e sicuramente i consumi nn aiutano.
thunderforce83
20-05-2022, 00:08
Si le perf non mancheranno anche li. Soprattutto se veritieri almeno in parte quei clock e le modifiche microarchitetturali, soprattutto relative a INT e rop's.:)
AMD non è morta, ha un buon progetto, deve migliorare il RT, anzi promette bene, almeno raster.
Intel, seguo il progetto da anni, ma ormai ho smesso. Parliamo del nulla cosmico.:) :D
Io credo che intel invece sul lungo termine possa diventare veramente la seconda scelta rispetto ad amd, ultimamente se penso alle performance/prezzo delle schede amd mi viene da ridere. Per carita' forse a qualcuno puo' interessare il fatto che in raster vadino meglio, ma oggi la sfida e' sull' rtx, comunque vedremo... cosi' parliamo del forse/kissa' ed in pratica del nulla assoluto. Sono curioso di vedere le varie fasce amd confrontate con quelle nvidia con prestazioni e confronti su ogni gioco o applicazione 3d.
Per un motivo o per un altro ad ogni uscita delle nuove generazioni di VGA i prezzi sono aumentati sempre di più, e non parlo solo di Nvidia. Che le prestazioni migliorino mi pare scontato...non riesco proprio a capire come tutto ciò possa essere considerato vantaggioso per noi.
Vantaggioso per noi perche' e' l'unica che ogni due anni ti da un salto prestazionale e feature tipo rtx che fanno la differenza.
Vantaggioso perche' per chi vuole sfruttare gli ultimi titoli al top non e' che hai molta scelta se vediamo in giro...
Io la scelta ce l'ho eccome, tenermi strettissima la 3090 :)
Dal mio punto di vista nvidia a sto giro vuole fare troppo la furba.
Poi ovviamente se prezzerà la 4090 allo stesso prezzo della 3090 allora la scimmia anche nel mio caso vacillerà, ma ho i miei fortissimi dubbi. Come ho detto più volte per me sarà un bagno di sangue con street price da oltre i mille per la 4080 e quasi 2mila per la 4090, e ripeto street price, non msrp.
La 4090ti non la prendo manco in considerazione visto l'andazzo infimo della 3090ti.
Purtroppo mi conosco bene, ad ogni uscita so gia' che conviene prendere l'ultima nata nvidia e farci due anni a cuor leggero. E' dalla 980ti che funziona cosi'...allo stato dell'arte sappiamo tutti che ogni generazione ti da' quei vantaggi a cui e' difficile rinunciare. Ovviamente nvidia non e' una onlus e si sa che pensa a far soldi, basta vedere la multa che ha preso ultimamente, che dichiarava il falso sulle vendite ai miners...
mikael84
20-05-2022, 00:18
Proprio a questo mi riferivo. Grazie mikael per i dati sempre impeccabili.
In pratica nvidia venderebbe una 4070 pompata con sopra scritto 4080.
Ok che la crescita di performance sarà in proporzione la medesima delle precedenti generazioni (ancora tutto da confermare), ma ci venderà un pezzo di silicio più "scarso" allo stesso prezzo di un chip più "complesso" della precedente generazione.
Boh forse sarò strano io, o troppo purista, ma questa cosa mi da noia non poco.
Esatto, per le perf, parliamo chiaramente di un gran salto di nodo, non Ampere che ha goduto quasi solo della densità.:)
Sul purista, forse sono io troppo pignolo, ma la realtà è quella.:p In un forum tecnico bisogna pur parlare anche di queste cose.:)
dici meno di 10752? in ottica 10k cuda con 450w e 16k cuda 450w che differenza di clock potrebbe esserci?
non considero oltre i 450w per una questione realistica di raffreddamento, non so cosa si inventeranno con i 600w della full 18k
la differenza è che il full sarà veramente offlimit, quindi per me varrebbe il paragone 16k vs 10k anzichè il 18k
Si probabile che ci sia un cut inizialmente, le rese non sono ottimali, si parla di 76/80SM su 84, in pratica sarebbe la x70 di ampere.
Sui clock bisogna vedere, il salto nodo è importante, ampere viene da un nodo disastroso in efficienza. Probabilmente la 4090ti avrà un clock sostenibile da un elevatissimo TDP, ma non è detto che non possa essere sostenuto anche da varie custom x90 lisce.
Questo nodo cmq, l'abbiamo visto sulle HPC ed ha un'efficienza elevatissima giocando tra clock e volt.
Sui consumi AD103 è quasi la metà di AD102, bisogna vedere come sarà calibrato di base, probabile 350, ma anche qua si potrà ben ottimizzare.
La 4090, alla fine potrà fare la gioia degli overclockers, stesso cavetto e bios mod.:)
Si ma va tenuto conto anche delle rese, AD102 credo avrà un bel pò di chip fallati, e ancora non si sa che brutale cut avrà la 4080ti considerando le specifiche trapelate della 4090 e potrebbe tranquillamente regredire a 320bit e 20GB di vram e avere nell'intorno dei 14000cc se non meno.
Ecco quindi non stiamo parlando di un chip x80ti, ma lo vendi come x80ti. Non è che 4 anni fa quando l'ha scritto ha pensato di levare 3 GPC e 2 partizioni cache, fattore gravissimo.
Usa questo metodo per venderti una Titan devastata.:)
Cmq è ancora da valutare la TI.
In passato la x80ti aveva uno scarto minimo dal full chip, ora i chip perfetti costano, e sicuramente tutti gli scarti delle 4090 si inseriranno perfettamente a cavallo tra 4080 e 4090...
La 4090 è già un grave scarto (lo stesso di ampere con la 3080), cambia la probabile attivazione del nvlink per ambiti pro (questo non è per rese, ma è voluto). Questo però non giustifica la declassazione della x80 e x70.
Se AD102 avrà chip ancora più devastati, non è che mi devi scrivere la x70 su base x60, o la x80 su base x70.
Nella passata gen l'assenza di un GA103 desktop si è sentito tutto, tra 3070 e 3080 c'è un vuoto che è rimasto incolmato.
La formula TPC x GPC, classica di nvidia, prevedeva il GA104 come il GA103, poi quel PP è stato un disastro. GA104 infatti doveva essere 7680cc/2,4/2,5ghz.
La 3080 GA102, è stato un classico allineamento alla 6800xt.:)
concordo, secondo me il 18kcuda è molto idilliaco e sicuramente i consumi nn aiutano.
E'una sorta di 3090ti con clock sparati, basta trovare qualche bios, ed anche la 4090 salirà a bestia.:)
mikael84
20-05-2022, 00:42
Io credo che intel invece sul lungo termine possa diventare veramente la seconda scelta rispetto ad amd, ultimamente se penso alle performance/prezzo delle schede amd mi viene da ridere. Per carita' forse a qualcuno puo' interessare il fatto che in raster vadino meglio, ma oggi la sfida e' sull' rtx, comunque vedremo... cosi' parliamo del forse/kissa' ed in pratica del nulla assoluto. Sono curioso di vedere le varie fasce amd confrontate con quelle nvidia con prestazioni e confronti su ogni gioco o applicazione 3d.
Intel le armi le ha, il progetto Battlemage, dovrebbe contare ben 20000 shader, e secondo Intel dovrebbe competere con Lovelace ed RDNA3, ma ancora non abbiamo la vaga idea di come possa andare la attuale da 4096/128 rop's.
Nvidia ed AMD si sono arresi al MCM GPU, la prima che potrebbe trarne vantaggio è proprio Intel, ma pare ancora letteralmente incasinata dai driver. Probabilmente una volta assestata può dire la sua.
Su AMD bisogna vedere, su base raster è buona. Chiaro che attualmente, nessuna AMD può minimamente paragonarsi ad una 3090, in quanto pensata per ambiti pro, nvlink. Le nvidia vengono pensate principalmente per i pro, gli scarti ai gamers.:sofico:
Thunder-74
20-05-2022, 09:09
Thunder sei troppo ottimista.
O comunque, potrebbe esserci una base di fondamento vero nel tuo discorso se, come ha ripetuto più volte Mikael, giacchetta scalerà di un gradino tutti i chip tranne il chippone. Quindi avremo una 4080 col chip di una 4070, ed una 4070 che avrebbe dovuto chiamarsi 4060, e così via.
Allora a quella maniera può permettersi di vendere la 4080 super mega cuttata a 799€. Perchè avrà comunque vinto, dato che sarebbe dovuta essere una 4070.
Per me due sono le cose:
1- i chip avranno una potenza mostruosa, e quindi il giacchetta può permettersi di cuttarle quanto vuole, tanto faranno comunque 2x e le faranno pagare un occhio della testa (4080 con street price di partenza 1200€).
2- non saranno tanto veloci quanto leakato fino ad ora (30-35% max), perchè appunto saranno dei mega cut ribrandizzati al rialzo e quindi consumeranno poco (grazie ai 4/5nm ed al chip con meno cuda cores rispetto a quello che sarebbero dovuti essere) e quindi potranno costare quanto ampere (poche decine di € in più max).
Sono un inguaribile sognatore :)
Se la 4090 venisse prezzata a 1500 potrebbe essere anche la mia prossima scelta, ma deve esserci sostanza rispetto alla 4080. Sulla base dei leak ci dovrebbe essere, più di quanto c è tra 3080 e 3090; troppo poco per il solo gaming
Inviato dal mio iPhone X utilizzando Tapatalk
Ecco quindi non stiamo parlando di un chip x80ti, ma lo vendi come x80ti. Non è che 4 anni fa quando l'ha scritto ha pensato di levare 3 GPC e 2 partizioni cache, fattore gravissimo.
Usa questo metodo per venderti una Titan devastata.:)
Cmq è ancora da valutare la TI.
La 4090 è già un grave scarto (lo stesso di ampere con la 3080), cambia la probabile attivazione del nvlink per ambiti pro (questo non è per rese, ma è voluto). Questo però non giustifica la declassazione della x80 e x70.
Se AD102 avrà chip ancora più devastati, non è che mi devi scrivere la x70 su base x60, o la x80 su base x70.
Si ma il fatto che con Ampere la x80 sia stata ottenuta dal chippone è quasi un'anomalia che non si vedeva dalla generazione kepler.
Con Maxwell e Pascal x70 e x80 condividevano il medesimo chip, e solo con Turing si è vista una x80 stampata su un chip tutto suo.
Con Ampere hanno fatto il meglio che potevano sia per riciclare le pessime rese di GA102 che offrire un prodotto competitivo rispetto AMD, inoltre tutti i chip meglio riusciti li hanno relegati al mobile, infatti anche le 3060 full chip si sono limitate a quel segmento, non mi sorprenderebbe se da AD103 full ci ricavino solo le 4080ti mobile.
Il fatto che in questa gen riprendano la gerarchia vista con Turing non mi sembra assurdo considerando l'enorme salto di nodo, inoltre AD102 è un chip estremamente denso anche in fase di progettazione hanno sicuramente tenuto conto anche dell'aspetto rese e anzi proprio per questo aspetto che probabilmente non si sono risparmiati nel fare un chip più piccolo in stile GP102.
Sono un inguaribile sognatore :)
Se la 4090 venisse prezzata a 1500 potrebbe essere anche la mia prossima scelta, ma deve esserci sostanza rispetto alla 4080. Sulla base dei leak ci dovrebbe essere, più di quanto c è tra 3080 e 3090; troppo poco per il solo gaming
Inviato dal mio iPhone X utilizzando Tapatalk
Sicuro il salto sarà più ponderoso di quello tra 3080 e 3090, per quanto pessime possano essere le rese di AD102 è comunque un chip molto più denso di AD103...
La 3080 è stata anche fin troppo uber come chip nel suo segmento, infatti se non fosse stato per un mercato totalmente pazzo con prezzi assurdi, non credo che in molti si sarebbero filati 3080ti o 3090 a quasi il doppio del prezzo MSRP per uno scarto misero di prestazioni.
mikael84
20-05-2022, 11:36
Si ma il fatto che con Ampere la x80 sia stata ottenuta dal chippone è quasi un'anomalia che non si vedeva dalla generazione kepler.
Con Maxwell e Pascal x70 e x80 condividevano il medesimo chip, e solo con Turing si è vista una x80 stampata su un chip tutto suo.
Con Ampere hanno fatto il meglio che potevano sia per riciclare le pessime rese di GA102 che offrire un prodotto competitivo rispetto AMD, inoltre tutti i chip meglio riusciti li hanno relegati al mobile, infatti anche le 3060 full chip si sono limitate a quel segmento.
Il fatto che in questa gen riprendano la gerarchia vista con Turing non mi sembra assurdo considerando l'enorme salto di nodo, inoltre AD102 è un chip estremamente denso anche in fase di progettazione hanno sicuramente tenuto conto anche dell'aspetto rese e anzi proprio per questo aspetto che probabilmente non si sono risparmiati nel fare un chip più piccolo in stile GP102.
Ma non è quello il punto, l'ho spiegato più volte.;)
I chip separati ci stanno, come ci sono quasi sempre stati. Con turing la x80 era 2/3 delle ALU, come sempre (la AD103 sarebbe circa la 2070 super).
La x70 non è mai stata sui 192bit è quasi ad 1/3 delle ALU.
Per paragonarlo a turing, LA X70 lovelace sarebbe:
1920cc, 192bit-48rop's (quella che veniva chiamata la x60) con MSRP da 499 a 349/299.
Se in più avrà qualche cut (magari per destinare i chip puri ai note), quella 2060 diventerebbe quasi la 1660ti.
Tutto questo ora viene chiamato x70, magari a 599-649$.
La x80 andava chiusa invece ad 8 GPC, indipendentemente dai cut del chippone.
mikael84
20-05-2022, 11:50
@Ubro, poi non mi devo imbestialire a leggere ste cose.:sofico:
Pare che la 4080TI sia fatta su AD103 (divenendo la x70 super)
Mentre la 4080, pare avere un intero GPC disattivato, diventando la più becera x70.
Quindi con la scusa, portano la x70 (4080) a probabili 699$ e la x70ti (4080ti) a 1199$
https://i.postimg.cc/DZqYKQ2c/prezzi.png
Link
https://wccftech.com/roundup/nvidia-geforce-rtx-4080/
Mentre la 4080, pare avere un intero GPC disattivato, diventando la più becera x70.
Quindi con la scusa, portano la x70 (4080) a probabili 699$ e la x70ti (4080ti) a 1199$
Se queste spec si dimostreranno vere io sarò costretto a prendere la 4080 e amen (e probabilmente anche tu visto che sei sulla stessa barca).
Aspetto cmq info sulla 4070ti.
Thunder-74
20-05-2022, 12:10
@Ubro, poi non mi devo imbestialire a leggere ste cose.:sofico:
Pare che la 4080TI sia fatta su AD103 (divenendo la x70 super)
Mentre la 4080, pare avere un intero GPC disattivato, diventando la più becera x70.
Quindi con la scusa, portano la x70 (4080) a probabili 699$ e la x70ti (4080ti) a 1199$
https://i.postimg.cc/DZqYKQ2c/prezzi.png
Link
https://wccftech.com/roundup/nvidia-geforce-rtx-4080/
se così fosse, mi aspetto il solito 8% tra le due...
Mallardo
20-05-2022, 12:31
Speriamo se lo possano permettere grazie alle fantastiche prestazioni e non a causa della penuria di schede....
Ragazzi mi state facendo venire l'ansia leggendo i prezzi delle nuove schede. :stordita:
Mi sa che la 3080 nel serverino durerà fino al 2024 se la 4xxx non da almeno un +50% a parità di corrente consumata.
amon.akira
20-05-2022, 12:36
non mi sembra realistico, almeno per quanto riguarda la 4080ti, vorrebbe dire avere solo un ad102 da 18k e 16k e stop.
e poi magari bisognerebbe aspettare anche tot mesi per la 4080ti per un +10% scarso
Thunder-74
20-05-2022, 12:39
non mi sembra realistico, almeno per quanto riguarda la 4080ti, vorrebbe dire avere solo un ad102 da 18k e 16k e stop.
e poi magari bisognerebbe aspettare anche tot mesi per la 4080ti per un +10% scarso
Se paragoniamo i Tflops delle schede secondo i rumors, AD 102 tutta la vita, solo che veramente sarà un salasso...
https://i.imgur.com/4N4tcLZ.png
mikael84
20-05-2022, 12:52
Se queste spec si dimostreranno vere io sarò costretto a prendere la 4080 e amen (e probabilmente anche tu visto che sei sulla stessa barca).
Aspetto cmq info sulla 4070ti.
Si la 4070...pardon 4080 è la più logica, ma dipende dai prezzi, per come gioco io (ormai veramente poco), 1000 euro per quel chippetto non li spendo. A prezzo MSRP o li vicino la prenderei.
Riguardo la TI, bisogna vedere se i cut sono giusti, altrimenti potrebbe essere fatta con AD104.
se così fosse, mi aspetto il solito 8% tra le due...
Si, sarebbero vicinissime.
non mi sembra realistico, almeno per quanto riguarda la 4080ti, vorrebbe dire avere solo un ad102 da 18k e 16k e stop.
e poi magari bisognerebbe aspettare anche tot mesi per la 4080ti per un +10% scarso
Dipende anche da quanto JHH si aspetta da AMD.
Alla fine AMD dovrebbe proporre questo:
Navi 31 big chip 12200shader + cut a 10000 (che nvidia coprirebbe con le pro Titan )
Navi 32: 8192 shader (di cui bisogna vedere le rese). 6144st (che nvidia coprirebbe con AD103).
Non a caso la 4080 a microarchitettura identica, avrebbe 6144 cuda + int.
Se paragoniamo i Tflops delle schede secondo i rumors, AD 102 tutta la vita, solo che veramente sarà un salasso...
I TF però lasciano il tempo che trovano, se la microarchitettura viene aggiornata. I TF di una 3080 stock, scorporate le INT, sono circa 20,5 su base clock review.:)
È come la 3070 che va quanto la 2080ti, in quanto performanti circa 15 tf, una però ha gli int separati, e gli bastano molti meno cuda.
cmq vedo i prezzi stanno tornando normali, ieri una 3060 OC stava a 500€. bene.
scorpion73
20-05-2022, 13:14
non mi sembra realistico, almeno per quanto riguarda la 4080ti, vorrebbe dire avere solo un ad102 da 18k e 16k e stop.
e poi magari bisognerebbe aspettare anche tot mesi per la 4080ti per un +10% scarso
Ti stai dimenticando il refresh "super".
Quello sarà basato sulle versioni cuttate di AD102.
Un po' come fecero con kepler... chi si ricorda la GTX680 e la GTX780?
Se le cose stanno così, 4090 e basta... oppure si tiene ampere. Io non gli regalo a giacchetta i soldi per una 4080 che l'anno prossimo sarà sorpassata dal refresh super su AD102.
Cioè la portata in giro mi pare bella evidente e nemmeno provano a nasconderla...
Piuttosto se non posso permettermi la 4090 aspetto il refresh "super".
Anche perché la 4080 andrà il solito 10%-15% in più della 3090ti stando a quei confronti. O almeno così capisco io.
Avendo una 3090 nel case saluto la 4080 e vado di 4090 se posso permettermelo, else saluto giacchetta...
Comunque io vedo quella 4080ti più come una 4080 super da refresh, poi mi sbaglierò..
amon.akira
20-05-2022, 13:20
I TF però lasciano il tempo che trovano, se la microarchitettura viene aggiornata. I TF di una 3080 stock, scorporate le INT, sono circa 20,5 su base clock review.:)
È come la 3070 che va quanto la 2080ti, in quanto performanti circa 15 tf, una però ha gli int separati, e gli bastano molti meno cuda.
si ok le int scorporate tanta roba, ma 10752 lo posso accettare dalla 4080, 9k no a quel punto andrei di 4090 e stop altrimenti la differenza sarebbe troppo marcata, ma non credo sarà la seconda ipotesi.
la prima ci sta e forse è anche giusta.
Ti stai dimenticando il refresh "super".
Quello sarà basato sulle versioni cuttate di AD102.
Un po' come fecero con kepler... chi si ricorda la GTX680 e la GTX780?
Se le cose stanno così, 4090 e basta... oppure si tiene ampere. Io non gli regalo a giacchetta i soldi per una 4080 che l'anno prossimo sarà sorpassata dal refresh super su AD102.
Cioè la portata in giro mi pare bella evidente e nemmeno provano a nasconderla...
Piuttosto se non posso permettermi la 4090 aspetto il refresh "super".
Anche perché la 4080 andrà il solito 10%-15% in più della 3090ti stando a quei confronti. O almeno così capisco io.
Avendo una 3090 nel case saluto la 4080 e vado di 4090 se posso permettermelo, else saluto giacchetta...
se mi fai la 4080 a 9.1k e 4080ti a 10.7k la super la devi mettere nel mezzo...e lasci solo la 4090 16k e la 4090ti 18k...lasci un vuoto enorme, non penso sarà cosi...penso che la 4080 sarà 10.7k e poi ci sarà spazio per la 4080super e la 4080ti in quel vuoto.
oppure la 4080super sarà la 10752 e la 4080ti il super cut di ad102 (aka simil x80 ampere)
cosi è piu realistico ma non mi andrebbe bene :P
scorpion73
20-05-2022, 13:29
si ok le int scorporate tanta roba, ma 10752 lo posso accettare dalla 4080, 9k no a quel punto andrei di 4090 e stop altrimenti la differenza sarebbe troppo marcata, ma non credo sarà la seconda ipotesi.
la prima ci sta e forse è anche giusta.
se mi fai la 4080 a 9.1k e 4080ti a 10.7k la super la devi mettere nel mezzo...e lasci solo la 4090 16k e la 4090ti 18k...lasci un vuoto enorme, non penso sarà cosi...penso che la 4080 sarà 10.7k e poi ci sarà spazio per la 4080super e la 4080ti in quel vuoto.
oppure la 4080super sarà la 10752 e la 4080ti il super cut di ad102 (aka simil x80 ampere)
cosi è piu realistico ma non mi andrebbe bene :P
Condivido il tuo discorso ma da giacchetta puoi aspettarti di tutto di più...
Comunque anche io penso che full AD103 sarà per la 4080 super e non per la ti.
In ogni caso la 4080, almeno io, su quel chip non la prendo, o vado di 4090 se posso o aspetto. La 4080 a 9k cuda non mi sfagiola e non spendo soldi in ciò che non mi sfagiola. Anche se superasse la 3090ti di un 15%. Sono abbastanza stanco delle furbate del giacchetta.
@Ubro, poi non mi devo imbestialire a leggere ste cose.:sofico:
Pare che la 4080TI sia fatta su AD103 (divenendo la x70 super)
Mentre la 4080, pare avere un intero GPC disattivato, diventando la più becera x70.
Quindi con la scusa, portano la x70 (4080) a probabili 699$ e la x70ti (4080ti) a 1199$
Link
https://wccftech.com/roundup/nvidia-geforce-rtx-4080/
Per placare gli animi potrebbe anche essere un riferimento alla 4080ti mobile, ricalcando l'attuale 3080ti mobile su GA103.
Non ci metterei la mano sul fuoco che si tratti del chip desktop, anzi come dicevo prima è possibile che tutti i chip full meglio riusciti li lascino al mobile.
In ogni caso la 4080, almeno io, su quel chip non la prendo, o vado di 4090 se posso o aspetto.
Per me già la 4080 consuma troppo. Fino a 750 la prendo, altrimenti aspetto ti, super e compagnia bella.
Thunder-74
20-05-2022, 14:11
Per me già la 4080 consuma troppo. Fino a 750 la prendo, altrimenti aspetto ti, super e compagnia bella.
Un po di undervolt e passa la paura. 100w li limi facile ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Un po di undervolt e passa la paura. 100w li limi facile ;)
Ho seri dubbi. Con le 30xx si poteva fare?
fraussantin
20-05-2022, 14:19
Ho seri dubbi. Con le 30xx si poteva fare?Sulla 3080 30 50 w li limi tranquilli senza perdere prestazioni . Puntando a meno prestazioni ,( 5 fps è ) anche di piu
E perche si puo lavorare solo sulla gpu.
Si potesse limare anche le ram sarebbe favoloso
Thunder-74
20-05-2022, 14:29
Ho seri dubbi. Con le 30xx si poteva fare?
Per dirtene una . Ho scaricato oggi borderlands 3 gratis da epic. Per sfizio ho fatto il bench tutto maxato alla res di 3840x1600 (21:9), prima in oc a 2100mhz con 1.1v e picchi di 430w , facendo 83fps medi , poi ho applicato la curva in UV 1905mhz con voltaggio 0.900v , ho fatto 78fps con 100w in meno. Alla fine come giochi con 83 giochi con 78.
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
20-05-2022, 14:59
Ti stai dimenticando il refresh "super".
Quello sarà basato sulle versioni cuttate di AD102.
Un po' come fecero con kepler... chi si ricorda la GTX680 e la GTX780?
Se le cose stanno così, 4090 e basta... oppure si tiene ampere. Io non gli regalo a giacchetta i soldi per una 4080 che l'anno prossimo sarà sorpassata dal refresh super su AD102.
Cioè la portata in giro mi pare bella evidente e nemmeno provano a nasconderla...
Piuttosto se non posso permettermi la 4090 aspetto il refresh "super".
Anche perché la 4080 andrà il solito 10%-15% in più della 3090ti stando a quei confronti. O almeno così capisco io.
Avendo una 3090 nel case saluto la 4080 e vado di 4090 se posso permettermelo, else saluto giacchetta...
Comunque io vedo quella 4080ti più come una 4080 super da refresh, poi mi sbaglierò..
Su Ampere la serie super è stata levata, hanno giusto rebrandato la 3080 con il bus full.
si ok le int scorporate tanta roba, ma 10752 lo posso accettare dalla 4080, 9k no a quel punto andrei di 4090 e stop altrimenti la differenza sarebbe troppo marcata, ma non credo sarà la seconda ipotesi.
la prima ci sta e forse è anche giusta.
La 4080ti con quelle spec, può anche essere un chip strategico anti AMD x navi32, entrambe con 16gb.
Già la 4090 è un cut bello pesante, cuttarlo ancora si andrebbe verso i 3 GPC in meno, un vero massacro.
Ci potrebbe stare benissimo, in base ad AMD una 4080ti così, che per l'appunto sarebbe una x70ti (questo è inconcepibile).
Cmq vediamo, nulla è confermato al 100%.
In ogni caso AD103, sarà quasi sicuramente cuttato, difficilmente avrai tutti i cuda a disposizione dall'inizio.:)
Essendo un chip molto costoso AD102 è probabile che venga destinato momentaneamente alle sole titan x90
Un po di undervolt e passa la paura. 100w li limi facile ;)
Inviato dal mio iPhone X utilizzando Tapatalk
TSMC ha un'ottima efficienza lavorando tra volt e clock. Dipende dalla tara del VRM se 1,05v/1,2v. In linea di massima a 0,9v potrebbe essere eccelso.:)
Per placare gli animi potrebbe anche essere un riferimento alla 4080ti mobile, ricalcando l'attuale 3080ti mobile su GA103.
Non ci metterei la mano sul fuoco che si tratti del chip desktop, anzi come dicevo prima è possibile che tutti i chip full meglio riusciti li lascino al mobile.
Sicuramente la 4080ti mobile sarà basata su AD103, ma non è detto che ciò non debba accadere anche nel desk.
Micron ha da poco rilasciato le g6x a 24gb/s e potrebbe lanciarle appunto sui due chip di punta AD103 ed AD102.
Se ci pensi AMD lancerà un chip da 12,2k st ed uno da 8196st (una 7800xt ed una 7800 liscia), potrebbe proprio andare a scontrarsi con questo.
Ad AMD hanno pure aggiornato i bus, magari nvidia non lo vede granchè potente, oppure lo risponderà a tempo debito, refreshando qualche chip.
Sui note, GA103 è decurtato non full, ad esempio ha partizioni di cache disabilitate, e declassato da 320 a 256bit, nonchè di TPC.
Sicuramente la 4080ti note sarà scritta con le g6 lisce.
Inoltre il chippone sui note, non è detto arrivi subito, prima si butteranno sulla high/mid.:)
thunderforce83
20-05-2022, 23:38
Certo che e' curioso, siamo a due eccessi tra la serie 3xxx e questa che sta per uscire.
La 3080 praticamente era pari prestazioni con la 3090, infatti se la disponibilita' era buona sarebbe stata la miglior scheda in assoluto per il rapporto costo/potenza, la 3090 per piu' del doppio non valeva proprio la pena, per quel 10x100 in piu', magari per i pro, ma oltre quello no...
Adesso invece ci troviamo con una 4080 che per carita' andra' sicuramente meglio della passata generazione, io credo un 30x100piu' della 3080 e di conseguenza 20x100 piu' di 3090, ma la cosa assurda e' che tra 4080 e 4090 ci sara' un divario spaventoso...nell ordine del 70x100in piu' di potenza:eek:
Cioe' ok, capisco che questa volta se vuoi il top nvidia punta ad ingolosire l'utente premium a prendere la 4090, ma comunque si parla di un divario fortissimo che verra' colmato solo dalla 4080ti...
Thunder-74
21-05-2022, 06:42
Certo che e' curioso, siamo a due eccessi tra la serie 3xxx e questa che sta per uscire.
La 3080 praticamente era pari prestazioni con la 3090, infatti se la disponibilita' era buona sarebbe stata la miglior scheda in assoluto per il rapporto costo/potenza, la 3090 per piu' del doppio non valeva proprio la pena, per quel 10x100 in piu', magari per i pro, ma oltre quello no...
Adesso invece ci troviamo con una 4080 che per carita' andra' sicuramente meglio della passata generazione, io credo un 30x100piu' della 3080 e di conseguenza 20x100 piu' di 3090, ma la cosa assurda e' che tra 4080 e 4090 ci sara' un divario spaventoso...nell ordine del 70x100in piu' di potenza:eek:
Cioe' ok, capisco che questa volta se vuoi il top nvidia punta ad ingolosire l'utente premium a prendere la 4090, ma comunque si parla di un divario fortissimo che verra' colmato solo dalla 4080ti...
Nemmeno, se vedi i leak della 4080ti non arriverà a un più 10x100 dalla liscia. Difatti il divario tra 4080/4080ti e 4090 è tanto . Sicuramente se l intento di nVidia è quello di ingolosire l utente, con me c è riuscita :fagiano: vedremo che proporranno in termini di costi
Inviato dal mio iPhone X utilizzando Tapatalk
Non capisco il ragionamento dietro al comprare una 3090 a 2000 euro e fare poi le pulci se poi convenga comprare la 4080, cioe' se ne fate un discorso di convenenza e' chiaro che state buttando via soldi no ? Ma gia' li avete buttati quando avete preso la 3090, sulla flagship discorsi performance/$ non hanno davvero un filo logico tantomeno se si vuole la newgen andando in downgrade di fascia. E' cosi' da sempre eh, anche prima dei casini globali noti.
Nhirlathothep
21-05-2022, 11:50
È come la 3070 che va quanto la 2080ti, in quanto performanti circa 15 tf, una però ha gli int separati, e gli bastano molti meno cuda.
oh questo volevo sapere quando dicevo che la serie 20 e 30 mi sembravano uguali (con aggiunti solo + ccore)
mikael84
21-05-2022, 12:07
oh questo volevo sapere quando dicevo che la serie 20 e 30 mi sembravano uguali (con aggiunti solo + ccore)
I core FP32 li usa tutti in certi programmi pro.
La differenza sta che ampere ha 2 datapath.
Se prendiamo la 2080ti ha 4352 cc + gli interi separati
La 3070 ha 5888 cc racchiusi in 2 datapath.
Quindi, avendone 2, la dividiamo in 2, ovvero 2944 cc + 2944cc.
Uno fa solo FP32, l'altro suddivide gli INT con le FP. Praticamente è come se avesse una media di 3700fp
3700 x 2000 x2 = 14,8 TF (valori da 2080ti stock).
Dalla sua ha anche il pregio di avere più rop's, una cache l1/shared più grande a doppia banda.;)
Ampere però si è rivelata molto potente con i giochi shader intensive come i vulkan, in quanto utilizzando meno INT, riesce ad avere un picco di FP superiore.
thunderforce83
21-05-2022, 13:45
Nemmeno, se vedi i leak della 4080ti non arriverà a un più 10x100 dalla liscia. Difatti il divario tra 4080/4080ti e 4090 è tanto . Sicuramente se l intento di nVidia è quello di ingolosire l utente, con me c è riuscita :fagiano: vedremo che proporranno in termini di costi
Inviato dal mio iPhone X utilizzando Tapatalk
Bene allora anche tu come me fai parte di quelli che dicono: no costa troppo... sono pazzi, non la prendero' per principio... per poi ordinare appena disponibile la 4090 piu' prestante e potente, a costo di andare oltre i 2000 baiocchi :D :D :D Sono felice di vedere che non sono il solo... :sofico: :sofico: :sofico:
scorpion73
21-05-2022, 14:29
Bene allora anche tu come me fai parte di quelli che dicono: no costa troppo... sono pazzi, non la prendero' per principio... per poi ordinare appena disponibile la 4090 piu' prestante e potente, a costo di andare oltre i 2000 baiocchi :D :D :D Sono felice di vedere che non sono il solo... :sofico: :sofico: :sofico:
Il punto è che a sto giro secondo me la 4080 non è da prendere proprio per la questione di principio di cui parli e perché al primo refresh, che sarà su ad102 sicuramente, ti ritrovi con la scheda ipersvalutata.
Vediamo se la 4080ti sarà su ad102 piuttosto, qualora la 4090 fosse, come penso, inaccessibile per prezzo.
Secondo me il full ad103 sarà per la 4080 super o refresh come si voglia chiamare..
thunderforce83
21-05-2022, 14:52
Il punto è che a sto giro secondo me la 4080 non è da prendere proprio per la questione di principio di cui parli e perché al primo refresh, che sarà su ad102 sicuramente, ti ritrovi con la scheda ipersvalutata.
Vediamo se la 4080ti sarà su ad102 piuttosto, qualora la 4090 fosse, come penso, inaccessibile per prezzo.
Secondo me il full ad103 sarà per la 4080 super o refresh come si voglia chiamare..
Ci sono troppe variabili in gioco a questo giro per dire se le 3080/3090 saranno ipersvalutate, puo' essere che venderemo sull'usato queste schede ancora a buon prezzo, ma ci sono troppi fattori in gioco tra cui il mining che secondo me a breve colera' a picco.
Purtroppo sono certo che la 4080 non sara' sulla base del chip full come ampiamente anticipato da mikael, ed e' anche ovvio visto che nvidia passata gen ha fatto la gioia dei giocatori con la 3080, ma adesso se vuoi il massimo devi prendere la 4090. Aspettare varie ed eventuali 4080ti lo vedo sconveniente perche' passera' almeno un anno da sopra e ti godresti la scheda solo un anno.
Io ancora non vedo niente, test, rumor reali sulle differenze e sulle prestazioni delle prossime schede quindi qui e' tutto un suppore.
Dico semplicemente vedremo...
per esperienza, dopo il casino successo con le 3xxx potrebbe essere difficile prenderle subito, e magari bisognera' prendere quello che troviamo in base alle prestazioni,disponibilita' e tutto il resto.
Thunder-74
21-05-2022, 16:15
Bene allora anche tu come me fai parte di quelli che dicono: no costa troppo... sono pazzi, non la prendero' per principio... per poi ordinare appena disponibile la 4090 piu' prestante e potente, a costo di andare oltre i 2000 baiocchi :D :D :D Sono felice di vedere che non sono il solo... :sofico: :sofico: :sofico:
Condividiamo parte del nick :sofico: però 2 pippi non li spenderò mai per una scheda. Come idea o sotto il millino per la 4080 o al max 1500 per la 4090 se veramente tra le due ci dovesse essere un abisso. Eticamente più di 1500 mi prenderebbe male, oltretutto vorrei cambiare piattaforma con il futuro 13900k :fagiano:
scorpion73
21-05-2022, 20:28
Aspettare varie ed eventuali 4080ti lo vedo sconveniente perche' passera' almeno un anno da sopra e ti godresti la scheda solo un anno.
Dipende perché se poi aspetti la 5080ti te la godi per lo stesso tempo che ti godi la 4080. Quindi è tutto relativo.
Premesso che con gli attuali giochi e gli attuali motori e le attuali prospettive con la 3080 ci tiri avanti altri due anni...
A meno che con Unreal Engine 5 spremuto al massimo non tirino fuori mattoni che oggi non immaginiamo (e unreal gira sulle PS5...)
albero77
21-05-2022, 22:15
Dipende perché se poi aspetti la 5080ti te la godi per lo stesso tempo che ti godi la 4080. Quindi è tutto relativo.
Premesso che con gli attuali giochi e gli attuali motori e le attuali prospettive con la 3080 ci tiri avanti altri due anni...
A meno che con Unreal Engine 5 spremuto al massimo non tirino fuori mattoni che oggi non immaginiamo (e unreal gira sulle PS5...)
Mai sentito parlare di obsolescenza programmata?! L'ottimizzazione su pc spesso e (mal)volentieri e inesistente e il fatto che giri su ps5 non significa un bel niente, se è per questo su pc stiamo ancora aspettando che qualcuno si decida a darci un primo assaggio del direct storage. Sono curioso di vedere come gireranno i primi titoli con ue5 su ampere...Mi sembra tanto di vedere un film già visto.
fraussantin
21-05-2022, 23:25
Mai sentito parlare di obsolescenza programmata?! L'ottimizzazione su pc spesso e (mal)volentieri e inesistente e il fatto che giri su ps5 non significa un bel niente, se è per questo su pc stiamo ancora aspettando che qualcuno si decida a darci un primo assaggio del direct storage. Sono curioso di vedere come gireranno i primi titoli con ue5 su ampere...Mi sembra tanto di vedere un film già visto.Bisogna capire se escono prima dei giochi belli ue5 o le 5000:asd:
Ma tanto i giochi sono sempre scalabili, non é che devi mettere obbligatoriamente tutto a palla soprattutto utilizzando il dlss o fsr...
É risaputo che ci sono effetti che ammazzano inutilmente il frame senza offrire concretamente un plus grafico.
E tanto per dire ci sono giochi UE5 previsti anche per Nintendo Switch 🤣
Al massimo il problema potrebbe essere la vram su alcuni chip, se le texture aumentano di netto la loro complessità.
Inviato dal mio M2012K11AG utilizzando Tapatalk
scorpion73
22-05-2022, 08:05
Mai sentito parlare di obsolescenza programmata?! L'ottimizzazione su pc spesso e (mal)volentieri e inesistente e il fatto che giri su ps5 non significa un bel niente, se è per questo su pc stiamo ancora aspettando che qualcuno si decida a darci un primo assaggio del direct storage. Sono curioso di vedere come gireranno i primi titoli con ue5 su ampere...Mi sembra tanto di vedere un film già visto.
Obsolescenza programmata con ampere prima che escano le serie 5000?
Mi pare un tantino esagerato dai.. chi ha Turing che dovrebbe dire allora.
Ancora oggi si gioca anche con le 1080ti.
Posso capire per le serie dietro ma parlare di obsolescenza programmata per ampere da qui a uno o due anni mi sembra un tantino esagerato su.
Ricordiamoci che i giochi li fanno per le console più che per il PC. Poi sul pc ci mettono gli effetti in più e va bene ma il target sono le console, per ovvi motivi: quindi fino a che girano li siamo sicuri di giocare anche bene con una ampere.
E comunque il mio discorso era relativo al fatto che se aspetti la 4080ti e poi te la tieni fino alla 5080ti te la godi lo stesso tempo che comprando la 4090 subito e cambiandola con la 5090.
Comunque vedremo dati alla mano. Solo con quelli si potranno fare commenti certi.
Inviato dal mio iPhone utilizzando Tapatalk
terranux
22-05-2022, 08:30
insomma più giorni passano e più la 4080 và meno e consuma idem. ma davvero? e se fosse per il minning?
fraussantin
22-05-2022, 09:31
Ma tanto i giochi sono sempre scalabili, non é che devi mettere obbligatoriamente tutto a palla soprattutto utilizzando il dlss o fsr...
É risaputo che ci sono effetti che ammazzano inutilmente il frame senza offrire concretamente un plus grafico.
E tanto per dire ci sono giochi UE5 previsti anche per Nintendo Switch 🤣
Al massimo il problema potrebbe essere la vram su alcuni chip, se le texture aumentano di netto la loro complessità.
Inviato dal mio M2012K11AG utilizzando TapatalkLe texture sono anch'esse scalabili , i requisiti minimi non penso andranno oltre i 6 giga di vram.
Poi il dlss aiutera.
Insomma come sempre il cambio ad ogni gen è sfizio
Bisogna capire se escono prima dei giochi belli ue5 o le 5000:asd:
the witcher 4 e il prossimo elder scrolls. Quindi direi prima le 5000 :D
Obsolescenza programmata con ampere prima che escano le serie 5000?
Mi pare un tantino esagerato dai.. chi ha Turing che dovrebbe dire allora.
Ancora oggi si gioca anche con le 1080ti. [cut]
Confermo, nella quasi totalita' dei titoli multiplayer e in quelli dx 11, la mia Titan X ancora le suona alla 2070s se escludiamo le feautres extra, le ho entrambe occate chiaramente.
Confermo, nella quasi totalita' dei titoli multiplayer e in quelli dx 11, la mia Titan X ancora le suona alla 2070s se escludiamo le feautres extra, le ho entrambe occate chiaramente.
Grazie ad AMD ha guadagnato anche l'FSR, come potenza bruta Pascal è sempre stato molto valido, la Titan XP prende anche la 2080.
In genere i cambi non conviene quasi mai farli a ogni gen, prima che una GPU top gamma sia alla frutta passano anni e anni.
mikael84
22-05-2022, 16:14
Obsolescenza programmata con ampere prima che escano le serie 5000?
Mi pare un tantino esagerato dai.. chi ha Turing che dovrebbe dire allora.
Ancora oggi si gioca anche con le 1080ti.
Posso capire per le serie dietro ma parlare di obsolescenza programmata per ampere da qui a uno o due anni mi sembra un tantino esagerato su.
Ricordiamoci che i giochi li fanno per le console più che per il PC. Poi sul pc ci mettono gli effetti in più e va bene ma il target sono le console, per ovvi motivi: quindi fino a che girano li siamo sicuri di giocare anche bene con una ampere.
E comunque il mio discorso era relativo al fatto che se aspetti la 4080ti e poi te la tieni fino alla 5080ti te la godi lo stesso tempo che comprando la 4090 subito e cambiandola con la 5090.
Comunque vedremo dati alla mano. Solo con quelli si potranno fare commenti certi.
Inviato dal mio iPhone utilizzando Tapatalk
Questo fattore venne messo in atto da Kepler, in quanto aveva dipendenze via software, rop's pessime (raster da 8) ed una BW effettiva ridicola. Man mano che ci si è spostati a programmare per maxwell molti motori hanno letteralmente messo a nudo kepler, solo i vari unreal engine la mantenevano viva.
Maxwell la stravolse anche via rop's ed l2, ma ad oggi, via vulkan e dx12 è piuttosto obsoleta, ma parliamo quasi del nulla, una GPU che anche con tutti gli aggiornamenti sarebbe fuori uso.
Se verranno raddoppiate le SFU, i pixel (raster a 32 x12 GPC) è probabile che i nuovi unreal engine 5, possano letteralmente trarre vantaggio da rop's ed l2 gigante.
Confermo, nella quasi totalita' dei titoli multiplayer e in quelli dx 11, la mia Titan X ancora le suona alla 2070s se escludiamo le feautres extra, le ho entrambe occate chiaramente.
Si la Titan x si difende ancora bene in base ai giochi. Non è per nulla morta, probabilmente lo diventerà con gli unreal 5, per via delle rop's ben più scadenti delle attuali turing /ampere (queste dimezzando le SFU, hanno dimezzato i cicli, è come se le 92 pascal fossero 46 turing/ampere).
Ha un teorico che raggiunge in OC picchi da 3070/ti/2080ti stock ed è meno incline al warp stall, con i soli 112 warp.
Turing e Ampere hanno degli stalli più lunghi, molti più warp da gestire, ma colmano grazie alle migliorie architetturali, INT, rop's più efficienti, indipendent thread scheduler e FP16 native.:)
Se prendi un doom/wolfenstein imbottito di FP16, Pascal viene sotterrato ovviamente, ma non per programmazione, ma in quanto spoglia di unità fp16.:)
Il vero vantaggio da turing/ampere è il DLSS.
Grazie ad AMD ha guadagnato anche l'FSR, come potenza bruta Pascal è sempre stato molto valido, la Titan XP prende anche la 2080.
Si, spesso la supera pure, dipende dai titoli, dal warp stall e da miriadi di parametri.
La Titan xp a 2ghz, raggiunge ratio teorici pari a quelli di una 3070ti. Chiaro che questa con i vantaggi che ha la seppellisce.
La vera morte di pascal può avvenire con gli unreal engine 5 per un livello rop's che potrebbe ricalcare Kepler.
Va detto che per tali quella scheda avrà 6/7 anni. Quindi...:)
Pascal comincia ad essere penalizzata dove regnano le FP16 (certi vulkan), alcuni dx12 per la gestione del thread via warp e non via cuda, e dove si farà massiccio uso di rop's.
In genere i cambi non conviene quasi mai farli a ogni gen
Infatti, per cui mi tocca farlo a questa :D
mikael84
22-05-2022, 18:06
Infatti, per cui mi tocca farlo a questa :D
Siamo sulla stessa barca, mi rode il declassamento della x70 a x60 e 192bit-12gb. Le perf. ci saranno e saranno elevate, ma a sto punto spero nella x80.
Siam nella stessa barca, io se non mi convince la X80 (per prezzo o altro) vado sereno di 3080 usata e aspetto i vari refresh, per quel che devo farci...
Tra 3080 e 4080 ci sarà un 20%-25% massimo
È tanto, ma dove non giochi con una non giochi con l'altra
A me solo per il fatto che la 70 abbia il bus castrato e la 80 è svantaggiata dal rapporto prezzo/prestazioni la 4000 la salterò a piedi uniti
mikael84
23-05-2022, 00:13
pensare che quando lo dico io mi si dice sempre che contano solo i risultati e non mi devo fissare coi numeretti :D
Per cui ripropongo: gli 8gb e i 14gbps della 3070 son una presa per il culo :O , qualunque sia stato il motivo: economico, logistico, tecnico (cambiavano quel che dovevano in origine per farla diversa, fine :O) o vattellapesca :O :read:
...per oggi ho dato, meglio che mi fermo qui che sono già incaxxato a morte per la gara della Ferrari di oggi :mad:
Ok, ma è diverso, nvidia ha stipulato un accordo con micron, che non gli ha garantito la doppia densità, tanto che il progetto principale (ex quadro), lo ha dovuto fare con le g6 lisce, lasciando le ram più costose al gaming (paradosso).
Chiaro che non puoi fare una x80 da 10 ed una x70 da 16 a livello commerciale.
Ci sono stati vari errori, tra cui il GA103 scritto con 320bit (pensato per la x80), non utilizzato per quasi due anni, per poi inserirlo sui notebook a 256bit.
Il problema non sono i 12gb o il bus in se, ma la declassazione di una fascia.;)
Per dire, a pari prezzo, avresti preferito una 3060 liscia da 12gb (magari un pelo più potente) o la x70 da 8gb?:)
I 12GB di ram della 4070 piacciono poco anche a me...
fraussantin
23-05-2022, 05:50
Ok, ma è diverso, nvidia ha stipulato un accordo con micron, che non gli ha garantito la doppia densità, tanto che il progetto principale (ex quadro), lo ha dovuto fare con le g6 lisce, lasciando le ram più costose al gaming (paradosso).
Chiaro che non puoi fare una x80 da 10 ed una x70 da 16 a livello commerciale.
Ci sono stati vari errori, tra cui il GA103 scritto con 320bit (pensato per la x80), non utilizzato per quasi due anni, per poi inserirlo sui notebook a 256bit.
Il problema non sono i 12gb o il bus in se, ma la declassazione di una fascia.;)
Per dire, a pari prezzo, avresti preferito una 3060 liscia da 12gb (magari un pelo più potente) o la x70 da 8gb?:)Nvidia ha avuto solo fortuna con le 3000. Perche ha sbagliato tutto. Fortuna per il mining che ha alzato la domanda spaventosamente , e fortuna che tsmc e amd hanno prodotto appena la meta delle schede necessarie al mercato gaming.
Diversamente ci sarebbe stato minimo un refrash super con memorie doppie su tutta la gamma imho.
Non ho seguito troppo il discorso lovelace , perche prob non cambieró niente . Non sono interessato a schede piu calde della gia troppo calda 3080.
Ma mi par di aver capito che ha toppato anche stavolta .
scorpion73
23-05-2022, 09:05
Chissà cosa vedremo oggi al Computex Nvidia Keynote.
Io mi aspetto una nuova versione DLSS in risposta a FSR 2.0.
Non mi aspetto annunci su Lovelace ovviamente, ma magari qualche indicazione potrebbe pure venire fuori. Vedremo..
I 12GB di ram della 4070 piacciono poco anche a me...
Ma bene a male manterranno gli stessi quantitativi di vram/prestazioni.
AD106 con 8GB andrà bene o male come le attuali 3060ti/3070ti, AD104 ne avrà 12GB e rivaleggerebbe con 3080-3080ti anche se prestazionalmente dovrebbe prendere anche 3090-3090ti.
Le uniche schede che offrono maggior vram sono proprio quelle che portano le performance a un livello più alto con AD103 con 16GB e AD102 con 20-24GB.
Quella che vedo male è AMD che con questa gen se non va di clamshell potrebbe offrire quantitativi di vram inferiori a pari performance della passata gen.
nessuno29
23-05-2022, 11:35
Quella che vedo male è AMD che con questa gen se non va di clamshell potrebbe offrire quantitativi di vram inferiori a pari performance della passata gen.
Vabbè una ipotetica 7600 che va come la 6700xt anche se ha 8gb che importa...idem una ipotetica 7700xt con prestazioni da 6900 ma con veno vram, il problema è se è a parità di fascia allora fail.
mikael84
23-05-2022, 12:15
Nvidia ha avuto solo fortuna con le 3000. Perche ha sbagliato tutto. Fortuna per il mining che ha alzato la domanda spaventosamente , e fortuna che tsmc e amd hanno prodotto appena la meta delle schede necessarie al mercato gaming.
Diversamente ci sarebbe stato minimo un refrash super con memorie doppie su tutta la gamma imho.
Non ho seguito troppo il discorso lovelace , perche prob non cambieró niente . Non sono interessato a schede piu calde della gia troppo calda 3080.
Ma mi par di aver capito che ha toppato anche stavolta .
Lovelace si preannuncia un chip grandioso, un vero salto, come lo sarà AMD con le RDNA3.
Si parla di un 2x rop's, quindi penso che intervengano sulle SFU, e questo potrebbe fare la differenza con motori come l'unreal engine 5, clock molto elevati, reparto geometrico davvero potente, cache e ram a doppia densità.
A conti fatti la vera next gen.
Il problema però, stando agli ultimi rumors, è che il chip che dovrebbe fare la differenza, sarà composto da solo 2 "Titan", o meglio x90 e x90ti, tutto il resto pare declassato a fasce ben minori.
La x80 potrebbe avere 9200cc su 18,4k del big chip completo, ed addirittura potrebbe esserci una 4080ti con 10,7k cc vs 18,4k del chippone (praticamente la 3070ti di ampere).
Idem verso la x70.
Sia chiaro, una 4080 sarà più veloce di un 3090ti, le perf ci saranno, però centellinate.
Va detto che questo PP sarà molto costoso, 3 x il wafer, ed anche questo inciderà non poco.
Mik per quanto riguarda le 3000 su Samsung 8nm, ricordo un rumor che paventava la doppia linea produttiva anche dopo l'uscita di Lovelace ?
Perche' pure quello potrebbe incidere parecchio sui prezzi... Ma a meno che le rese saranno davvero basse non so quanto abbia senso.
mikael84
23-05-2022, 12:32
Mik per quanto riguarda le 3000 su Samsung 8nm, ricordo un rumor che paventava la doppia linea produttiva anche dopo l'uscita di Lovelace ?
Perche' pure quello potrebbe incidere parecchio sui prezzi... Ma a meno che le rese saranno davvero basse non so quanto abbia senso.
Dici continuare a produrre le ampere in contemporanea a Lovelace? Non mi risulta o almeno non avrebbe senso.
Vari rumors davano la doppia linea produttiva inizialmente per un eventuale refresh utilizzando il 7nm di TSMC, ma anche questa era un no sense, già ingolfata di suo, senza considerare il rifare le maschere e tutti i derivati.:)
Se JHH riuscirà a produrre un numero di x70 e x80 Lovelace sufficiente ed a prezzi consoni, avremmo si una doppia linea, ma sul mercatino di Ampere.:p
Dici continuare a produrre le ampere in contemporanea a Lovelace? Non mi risulta o almeno non avrebbe senso.
Vari rumors davano la doppia linea produttiva inizialmente per un eventuale refresh utilizzando il 7nm di TSMC, ma anche questa era un no sense, già ingolfata di suo, senza considerare il rifare le maschere e tutti i derivati.:)
Se JHH riuscirà a produrre un numero di x70 e x80 Lovelace sufficiente ed a prezzi consoni, avremmo si una doppia linea, ma sul mercatino di Ampere.:p
Eheheh esatto :sofico:
Ma quindi cosa si è visto?
Ma quindi cosa si è visto?
un CAXXO.
magic carpet
24-05-2022, 07:09
Ma quindi cosa si è visto?Giochi, laptop e un monitor G-Sync 500Hz.
Niente Lovelace.
monitor G-Sync 500Hz.
:sofico:
mikael84
24-05-2022, 12:12
Le schede le presenterà JHH in un evento speciale. Con Ampere l'ha fatto 15 giorni prima del lancio, ovvero il 1 settembre.
Il computex era dedicato in particolar modo all'AI e data center e altre cosette.
OrazioOC
24-05-2022, 13:41
Le schede le presenterà JHH in un evento speciale. Con Ampere l'ha fatto 15 giorni prima del lancio, ovvero il 1 settembre.
Il computex era dedicato in particolar modo all'AI e data center e altre cosette.
Si sono tenuti nel taschino anche la temutissima gtx 1630. :O
ninja750
24-05-2022, 14:21
Le schede le presenterà JHH in un evento speciale. Con Ampere l'ha fatto 15 giorni prima del lancio, ovvero il 1 settembre.
Il computex era dedicato in particolar modo all'AI e data center e altre cosette.
farà di nuovo la gag del forno :O
e ovviamente RTX4080 starting from 699$ :O
OrazioOC
24-05-2022, 14:23
farà di nuovo la gag del forno :O
e ovviamente RTX4080 starting from 699$ :O
Con i tdp che si vociferano, sta volta è il forno a stare dentro ad un altro forno.:rolleyes:
Però le tempistiche sono quelle, se ne parla per settembre(anche se alcuni danno per certa anche la fine di luglio).
fraussantin
24-05-2022, 14:26
farà di nuovo la gag del forno :O
e ovviamente RTX4080 starting from 699$ :OAutoalimentato stavolta :asd:
mikael84
24-05-2022, 15:16
Si sono tenuti nel taschino anche la temutissima gtx 1630. :O
Con GA107 tutto riservato ai note, l'unica cosa che poteva fare, era maltrattare TU117.
Quella praticamente era la x08 stampata a parte da 70 euro.
farà di nuovo la gag del forno :O
e ovviamente RTX4080 starting from 699$ :O
A sto giro non serve, un forno dentro un forno..., soprattutto se presenta direttamente la 4090ti.
OrazioOC
24-05-2022, 15:18
Con GA107 tutto riservato ai note, l'unica cosa che poteva fare, era maltrattare TU117.
Quella praticamente era la x08 stampata a parte da 70 euro.
Però GA107 sta pian piano sostituendo sulle rtx 3050 GA106-150, non è che niente niente a breve ci ritroviamo almeno una rtx 3050 4gb a sostituire le varie gtx 1650/super/1660?
mikael84
24-05-2022, 15:42
Però GA107 sta pian piano sostituendo sulle rtx 3050 GA106-150, non è che niente niente a breve ci ritroviamo almeno una rtx 3050 4gb a sostituire le varie gtx 1650/super/1660?
Dipenderà molto da Intel, volendo potrebbe farlo, considerando che questa fascia verrà sostituita dopo molto tempo.
Cmq dalla 3050 GA106 a 107 non cambia nulla ai fini pratici.
Probabilmente se ne uscirà anche con una versione da 1GPC (1280-1536cc) x30.
Dipenderà molto da Intel, volendo potrebbe farlo, considerando che questa fascia verrà sostituita dopo molto tempo.
Cmq dalla 3050 GA106 a 107 non cambia nulla ai fini pratici.
Probabilmente se ne uscirà anche con una versione da 1GPC (1280-1536cc) x30.
L'unica cosa che cambia sarà solo l'efficienza del chip, quindi minori consumi e temperature, più facili da smaltire anche con un dissipatore single fan.
Ma è qualcosa che su un chip del genere è difficile da notare in ambito desktop, diverso il discorso sui notebook che hanno spesso design più compatti e sottili, addirittura c'è l'ASUS Z13 Flow che monta la 3050ti...
mikael84
25-05-2022, 00:03
L'unica cosa che cambia sarà solo l'efficienza del chip, quindi minori consumi e temperature, più facili da smaltire anche con un dissipatore single fan.
Ma è qualcosa che su un chip del genere è difficile da notare in ambito desktop, diverso il discorso sui notebook che hanno spesso design più compatti e sottili, addirittura c'è l'ASUS Z13 Flow che monta la 3050ti...
Ed infatti è una schifezza 4k al GS, -55% rispetto alla 3050 desktop di pari valori (2560 cc).:)
Cmq dipende tutto dai TDP impostati.
Ed infatti è una schifezza 4k al GS, -55% rispetto alla 3050 desktop di pari valori (2560 cc).:)
Cmq dipende tutto dai TDP impostati.Lo Z13 se non sbaglio é tarato sui 40-50w ma essendo un tablet mi sembra normale.
E c'è decisamente molta differenza tra il test a batteria e a corrente.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Thunder-74
25-05-2022, 09:45
EVGA is currently selling GeForce RTX 3090 Ti under MSRP
https://videocardz.com/newz/evga-is-currently-selling-geforce-rtx-3090-ti-under-msrp
Che possa essere di buon auspicio per le 4000
Inviato dal mio iPhone X utilizzando Tapatalk
devAngnew
25-05-2022, 10:27
Raga, non ho seguito tutto ma se ho capito leggendo alcuni post avremo:
AD103 : portatile- x80 (questo è da vedere)
AD102 : x80Ti-x90 (x80 forse)
AD104 : x70
AD106 : x60
etc.
EVGA is currently selling GeForce RTX 3090 Ti under MSRP
Secondo me ci sarà un price cut delle 3000, e sarebbe anche ora.
Secondo me ci sarà un price cut delle 3000, e sarebbe anche ora.
Alleluja direi, se non lo fanno adesso....
Se le tengano pure cmq :)
mikael84
25-05-2022, 11:25
Lo Z13 se non sbaglio é tarato sui 40-50w ma essendo un tablet mi sembra normale.
E c'è decisamente molta differenza tra il test a batteria e a corrente.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Un piccolo notebook da 13".
EVGA is currently selling GeForce RTX 3090 Ti under MSRP
https://videocardz.com/newz/evga-is-currently-selling-geforce-rtx-3090-ti-under-msrp
Che possa essere di buon auspicio per le 4000
Inviato dal mio iPhone X utilizzando Tapatalk
Tanto a breve verranno spazzate via.:fagiano:
Raga, non ho seguito tutto ma se ho capito leggendo alcuni post avremo:
AD103 : portatile- x80 (questo è da vedere)
AD102 : x80Ti-x90 (x80 forse)
AD104 : x70
AD106 : x60
etc.
AD102: 4090 da 16,1k cuda e 4090ti (24-48gb) full
AD103: 4080 cut e possibile 4080ti full (16gb)
AD104: 4070 (12gb)
Sulla x60 non si sa ancora nulla.
devAngnew
25-05-2022, 12:04
cut
AD102: 4090 da 16,1k cuda e 4090ti (24-48gb) full
AD103: 4080 cut e possibile 4080ti full (16gb)
AD104: 4070 (12gb)
Sulla x60 non si sa ancora nulla.
Thanks :D , ma rimangono cmq ipotesi ?
mikael84
25-05-2022, 12:12
Thanks :D , ma rimangono cmq ipotesi ?
C'è ancora qualcosa da chiarire, come la posizione della 4080ti, o del relativo cut della 4080 liscia (AD103 parte da 10,7k cc).
Per il resto i chip sono quelli, già certificati, poi ci può stare qualche minima variazione di cut, ma più o meno siamo li.:)
Da quello che si sa, nvidia dovrebbe partire con le Titan, alias x90.
amon.akira
25-05-2022, 12:57
io lascerei l ad103full alla 4080super e un ulteriore cut di ad102 per la 4080ti
StylezZz`
25-05-2022, 14:01
Secondo me ci sarà un price cut delle 3000, e sarebbe anche ora.
Comunque si cominciano a vedere le prime 3080 sotto i 900 euro...e pensare che fino a pochi mesi fa a quel prezzo ci prendevi una 3060 Ti, o se eri fortunato una 3070.
Comunque si cominciano a vedere le prime 3080 sotto i 900 euro...e pensare che fino a pochi mesi fa a quel prezzo ci prendevi una 3060 Ti, o se eri fortunato una 3070.
Beh siamo ancora sopra il msrp dopo 2 anni, e' praticamente estate dove c'e' la flessione dei prezzi da sempre, e dopodomani esce la nuova serie.
Non mi pare tutta sta pacchia, dovrebbero costare la meta' ormai.
StylezZz`
25-05-2022, 14:13
Beh siamo ancora sopra il msrp dopo 2 anni, e' praticamente estate dove c'e' la flessione dei prezzi da sempre, e dopodomani esce la nuova serie.
Non mi pare tutta sta pacchia, dovrebbero costare la meta' ormai.
Senza dubbio, ma sembra promettere bene dai, mi aspetto un ulteriore discesa nei prossimi mesi.
Senza dubbio, ma sembra promettere bene dai, mi aspetto un ulteriore discesa nei prossimi mesi.
Ma dai!
EVGA is currently selling GeForce RTX 3090 Ti under MSRP
https://videocardz.com/newz/evga-is-currently-selling-geforce-rtx-3090-ti-under-msrp
Che possa essere di buon auspicio per le 4000
Inviato dal mio iPhone X utilizzando Tapatalk
Ma no, saranno appannaggio dei miners per un paio di anni se vanno bene a livello di hashrate.
mikael84
25-05-2022, 15:30
io lascerei l ad103full alla 4080super e un ulteriore cut di ad102 per la 4080ti
Bisogna vedere anche come intende rispondere ad AMD. Fa riflettere che già la 4090 di suo abbia un cut piuttosto aggressivo (1 GPC e mezzo).
Lo capiremmo meglio quando avremmo specifiche effettive sulla 4080. Se questa avrà 2/3 TPC di cut, difficilmente vedremmo una TI li, altrimenti si.:)
Dai rumors attuali, tenendo presente solo il ratio flops e i clock proposti (senza eventuali 2x rop's, scorporo INT e la cache) .
Sempre con la classica formuletta flops teorici con effettivi, attualmente la situazione è questa:
4090ti (2,8) 3090ti: 90-95%
4090 (2,6) 3090: 75-80%
4080 (2,6) 3080: 40% su cut, su full 48-50%.
scorpion73
25-05-2022, 16:15
Bisogna vedere anche come intende rispondere ad AMD. Fa riflettere che già la 4090 di suo abbia un cut piuttosto aggressivo (1 GPC e mezzo).
Lo capiremmo meglio quando avremmo specifiche effettive sulla 4080. Se questa avrà 2/3 TPC di cut, difficilmente vedremmo una TI li, altrimenti si.:)
Dai rumors attuali, tenendo presente solo il ratio flops e i clock proposti (senza eventuali 2x rop's, scorporo INT e la cache) .
Sempre con la classica formuletta flops teorici con effettivi, attualmente la situazione è questa:
4090ti (2,8) 3090ti: 90-95%
4090 (2,6) 3090: 75-80%
4080 (2,6) 3080: 40% su cut, su full 45%.
Un divario del 40% fra la 4080 e la 4090 ci può stare solo se metti nel mezzo una ti con un 15%-20% di divario dalla 4090.
Se la fai su AD103 il divario rimarrebbe comunque importante e rispetto alla 4080 avrebbe un 5% di scarto che mi sembra veramente poco.
Ragion per cui sono portato a pensare a una 4080ti su AD102 cuttato alla morte, in modo che si posizioni esattamente nel mezzo.
ma c'è stato un drop di Nvidia? :mad:
mikael84
25-05-2022, 16:43
Un divario del 40% fra la 4080 e la 4090 ci può stare solo se metti nel mezzo una ti con un 15%-20% di divario dalla 4090.
Se la fai su AD103 il divario rimarrebbe comunque importante e rispetto alla 4080 avrebbe un 5% di scarto che mi sembra veramente poco.
Ragion per cui sono portato a pensare a una 4080ti su AD102 cuttato alla morte, in modo che si posizioni esattamente nel mezzo.
Si perchè ipotizzando il cut della x80, avresti - 75% delle ALU, le stesse che passano tra 3090ti/3070ti (ed attenzione parliamo della 4090, con il chip full sarebbe esattamente la metà).
Cmq sulla 4080ti sul chippino ho sintetizzato, diciamo che un 8% ci sta pure, facciamo pure 10% se come da rumors avrà le nuove 24 gb/s ed un clock un pelo più alto a stock. Non di più.
L'unico modo per scongiurare una TI AD103 è che da spec, finali, la 4080 abbia massimo 2/3 TPC disabilitati. Con un GPC intero, c'è possibilità di vedere questo scenario.
E' surreale anche con i prezzi, ma già con ampere per quel 10% di listino ha sparato gli stessi prezzi (699/1199). In questa gen, se ci sono disponibilità sarebbe però un fail clamoroso.
amon.akira
25-05-2022, 18:33
ma tra 9.1k 4080 e 10.7k 4080ti la 4080super come la piazzerebbero in questo scenario? :O
Ma no, saranno appannaggio dei miners per un paio di anni se vanno bene a livello di hashrate.
Solo se risalgono le crypto. Adesso le miniere sono ferme.
Iceman69
25-05-2022, 19:13
Bisogna vedere anche come intende rispondere ad AMD. Fa riflettere che già la 4090 di suo abbia un cut piuttosto aggressivo (1 GPC e mezzo).
Lo capiremmo meglio quando avremmo specifiche effettive sulla 4080. Se questa avrà 2/3 TPC di cut, difficilmente vedremmo una TI li, altrimenti si.:)
Dai rumors attuali, tenendo presente solo il ratio flops e i clock proposti (senza eventuali 2x rop's, scorporo INT e la cache) .
Sempre con la classica formuletta flops teorici con effettivi, attualmente la situazione è questa:
4090ti (2,8) 3090ti: 90-95%
4090 (2,6) 3090: 75-80%
4080 (2,6) 3080: 40% su cut, su full 48-50%.
Sperando che sia come dici tu a me sembra veramente poco probabile 80% in più perla 4090, salvo che non costi molto di più dell'attuale 3090, ma saremmo su livelli di prezzo che pochi si possono permettere...
Solo se risalgono le crypto. Adesso le miniere sono ferme.
In italietta forse, ma gia' da prima quelle schede no arrivavano qua... Per il mondo, dove si fanno i grandi numeri, si continua a minare ferocemente (Cina, Russia, Muriga etc).
Finche' Eth continua a ritardare il Proof of Stake mineranno come porci e non e' detto che dopo smettano.
amon.akira
25-05-2022, 19:50
In italietta forse, ma gia' da prima quelle schede no arrivavano qua... Per il mondo, dove si fanno i grandi numeri, si continua a minare ferocemente (Cina, Russia, Muriga etc).
Finche' Eth continua a ritardare il Proof of Stake mineranno come porci e non e' detto che dopo smettano.
quindi conviene ancora? sta a 1800 tornato indietro di 2anni e ben lontano dai 4k, la corrente non costa di piu?
quindi conviene ancora? sta a 1800 tornato indietro di 2anni e ben lontano dai 4k, la corrente non costa di piu?
Al momento e' una questione di se e quanto paghi la corrente.
Cmq chi mina veramente se ne frega del valore Eth/Btc attuale vs fiat, guarda il lungo periodo e sa che come investimento avra' (dovrebbe avere) un deciso ritorno.
Nel thread ci sono sicuramente minatori incalliniti che ne sanno piu' di me :p
mikael84
25-05-2022, 20:11
ma tra 9.1k 4080 e 10.7k 4080ti la 4080super come la piazzerebbero in questo scenario? :O
La super non è detto che debutti, con Ampere non c'è stata. l'hanno introdotta solo con Turing, per andare contro le navi di AMD.
Anche la 3080 12gb non l'hanno chiamata super.
Di certo se la 4080 avrà 1 GPC disabilitato c'è da aspettarsi un chip sopra, se saranno solo 2/3 TCP rimarrà così, magari con un aggiornamento più avanti.:)
Sperando che sia come dici tu a me sembra veramente poco probabile 80% in più perla 4090, salvo che non costi molto di più dell'attuale 3090, ma saremmo su livelli di prezzo che pochi si possono permettere...
A sto giro considera che c'è un salto nodo importante, Turing non l'ha avuto, ed Ampere è un piccolo passo.
Pascal ha avuto un vero salto nodo, però li si sono fermati a 471mm2 non sono andati oltre i 600mm2, altrimenti avresti preso altri 30% sopra la 1080ti su 400 watt.
Il mio calcolo è il classico flops teorici, flops effettivi, con la classica variabile.
Se ti va seguimi.
Sappiamo che la 4090 avrà 16128 cc (il chip completo ne avra 18,4kcc, questi sono dati accertati tramite l'hack) a 2,6 totalizza 84 TF (preciso il clock potrebbe essere più basso, come più alto, si parla anche di 2,8).
La 3090 liscia (in base boost) raggiunge 36 TF, la 4090 starà sugli 84 (quindi il 133% sopra).
Ora, ti faccio un esempio reale. Prendiamo la 3090ti che ha 40TF e la 3070 che ne ha 20 (siamo al 100%, meno del 133%).
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_3840-2160.png
Abbiamo 69 3070... 110 3090ti.
Risultato 60%
Flops teorico 30/33% = calcolo effettivo 20% (mediamente è quasi sempre così). In alcuni è anche più lineare, non sempre così drastico.
Ora in base a questo, possiamo aggiungere il 33% che resta, ed abbiamo totalizzato quel 70-80%.
Chiaro, in situazioni di massimo scaling, non in 1080p/1440p. Dopo vanno aggiunte vari variabili, come cache, rop's e INT slegate etc, dipendenza dalla banda e scaling motori grafici.
in alcuni giochi ti può andare 50 come a 70, come un 2x su un motore nuovo.
amon.akira
25-05-2022, 20:19
La super non è detto che debutti, con Ampere non c'è stata. l'hanno introdotta solo con Turing, per andare contro le navi di AMD.
Anche la 3080 12gb non l'hanno chiamata super.
effettivamente nn ci avevo badato, davo per scontato la 3080 12gb come super...nn che cambi molto, ma fa capire la non continuità di nvidia su questo.
Iceman69
25-05-2022, 20:34
Abbiamo 69 3070... 110 3090ti.
Risultato 60%
Flops teorico 30/33% = calcolo effettivo 20% (mediamente è quasi sempre così). In alcuni è anche più lineare, non sempre così drastico.
Ora in base a questo, possiamo aggiungere il 33% che resta, ed abbiamo totalizzato quel 70-80%.
Chiaro, in situazioni di massimo scaling, non in 1080p/1440p. Dopo vanno aggiunte vari variabili, come cache, rop's e INT slegate etc, dipendenza dalla banda e scaling motori grafici.
in alcuni giochi ti può andare 50 come a 70, come un 2x su un motore nuovo.
Vedrai che troveranno un modo per non far fare un salto così netto alle prestazioni, ma di restare sul 30/40% a parità di modello, salvo che AMD non tiri fuori qualcosa di veramente performante, allora il discorso cambia.
Il mio ovviamente non è un ragionamento tecnico, ma commerciale, nvidia non ha interesse a far fare un salto così ampio, magari se lo tiene per una futura revisione "super".
mikael84
25-05-2022, 20:37
effettivamente nn ci avevo badato, davo per scontato la 3080 12gb come super...nn che cambi molto, ma fa capire la non continuità di nvidia su questo.
Alla fine è quello, gira e rigira.:p
E' come la 4080, una 4070, poi può dargli i nomi che vuole.:p
Più che altro, penso che i veri picchi delle GPU si raggiungeranno in RT 4k, con lo sheduler software ci vorrà una CPU mastodontica per farle esprimere al massimo, sotto tali res o certi motori.
Questo non sarà da sottovalutare per niente.:)
mikael84
25-05-2022, 21:11
Vedrai che troveranno un modo per non far fare un salto così netto alle prestazioni, ma di restare sul 30/40% a parità di modello, salvo che AMD non tiri fuori qualcosa di veramente performante, allora il discorso cambia.
Il mio ovviamente non è un ragionamento tecnico, ma commerciale, nvidia non ha interesse a far fare un salto così ampio, magari se lo tiene per una futura revisione "super".
Si AMD ha un buon progetto. Il più piccolo da 4096ST, dovrebbe allinearsi mediamente a navi 21, dopo un chip da 8k e l'uber da 12k. 3 volte più grande.
Cmq Pascal fu un vero salto, e guarda quanto stacco tra 1080ti e 980ti medio. Con PL attivo fa quasi 2x.
Il tutto con un chip da 471mm2, che è un chip di fascia media x70/x80 liscio.
https://i.postimg.cc/DyttGfsp/PP.png
Chiaro che levando le medie, entrano in ballo vari fattori come lo scaling, dalla res.
Ci sta che prendi un tuo gioco e noti poca differenza. Sono chip che purtroppo per scalare bene ed alle massime condizioni, richiedono di essere messe alla frusta, sia con alte res, giochi RT complessi, dove la tua ha registrato un 60% netto, come ti feci vedere l'altra volta.:)
Occhio cmq, che la 4090 pare essere piuttosto potente, come la 4090ti, sotto non tanto.
Cmq ci sono ancora vari aspetti da verificare, è solo un piccolo calcolo generico, giusto per fare un piccolo punto sui dati attuali. Niente di ufficiale. Se per te tra 4090 e 3090 ci passerà il 30% non ha sbagliato nessuno, non avendo review.
Andy1111
26-05-2022, 21:14
kopite7kimi
@kopite7kimi
AD104 is close to starting the test.
Altra novità :
https://twitter.com/BullsLab/status/1529633553239412736
https://www.notebookcheck.it/Altre-specifiche-di-Nvidia-Lovelace-RTX-4090-RTX-4080-e-RTX-4070-trapelano-anche-RTX-4060-si-fa-notare-ma-con-4-GB-di-VRAM-in-meno-rispetto-a-RTX-3060.622764.0.html
https://www.notebookcheck.it/fileadmin/_processed_/a/8/csm_rtx_4090_ad102_1_32a2b94886.jpg
https://www.notebookcheck.it/fileadmin/_processed_/f/2/csm_rtx_4090_ad102_2_1fe7541486.jpg
Thunder-74
27-05-2022, 18:34
kopite7kimi
@kopite7kimi
AD104 is close to starting the test.
Altra novità :
https://twitter.com/BullsLab/status/1529633553239412736
https://www.notebookcheck.it/Altre-specifiche-di-Nvidia-Lovelace-RTX-4090-RTX-4080-e-RTX-4070-trapelano-anche-RTX-4060-si-fa-notare-ma-con-4-GB-di-VRAM-in-meno-rispetto-a-RTX-3060.622764.0.html
https://www.notebookcheck.it/fileadmin/_processed_/a/8/csm_rtx_4090_ad102_1_32a2b94886.jpg
https://www.notebookcheck.it/fileadmin/_processed_/f/2/csm_rtx_4090_ad102_2_1fe7541486.jpg
se questi sono i delta prestazione su Ampere, la 4080 la lascio perdere...
OrazioOC
27-05-2022, 19:00
Bellina la rtx 4060, praticamente torna ad essere una xx80 shrinkata in stile 960/1060 invece di essere una xx70 tagliuzzata in stile rtx 2060.
Comunque c'è un salterello di fascia, per avere un uplfit dignitoso dalla 3060 ti bisognerebbe pensare alla 4070 piuttosto che alla 4060, idem passando da una 3080 ti serve una 4090 per aver un boost veramente tangibile.:rolleyes:
Andy1111
27-05-2022, 19:48
Qua dicono che le 4070 hanno GDDR6X ma in un tweet di kopite7kimi si parlava di GDDR6 a 18 Gbps per 4070 e 4060 vedremo
8 Gb con bus 192 bit ? Mi fido piu' del menu del ristorante cinese sottocasa.
fraussantin
27-05-2022, 19:58
8 Gb con bus 192 bit ? Mi fido piu' del menu del ristorante cinese sottocasa.Vabbe quando fai cut paste , ci sta che ti scordi di editare qualcosa. :asd:
nessuno29
27-05-2022, 20:01
Se fosse vero la 4060 andrebbe quanto una 3060ti, ennesimo aborto in stile 3060\2060 super
mikael84
27-05-2022, 20:16
Ma chi gli ha fatti questi calcoli.:asd: :asd: :asd:
La 3090ti va il 25% sopra la 3080, e la 4080 con gli stessi CC va meno.:asd:
8 Gb con bus 192 bit ? Mi fido piu' del menu del ristorante cinese sottocasa.
:asd:
mikael84
27-05-2022, 20:52
Qua dicono che le 4070 hanno GDDR6X ma in un tweet di kopite7kimi si parlava di GDDR6 a 18 Gbps per 4070 e 4060 vedremo
Se fosse vero la 4060 andrebbe quanto una 3060ti, ennesimo aborto in stile 3060\2060 super
Ragionateci su:
Prendo una classica media.
La 3060ti fa circa il 32% sulla 3060 liscia.
La 4060 ha mediamente gli stessi CC.
Per quei valori, dovrebbe avere lo stesso IPC, ma soprattutto il clock a 1,8 a 5nm in boost effettivo, ed andrebbe ancora un pelo peggio.
https://tpucdn.com/review/asus-geforce-rtx-3080-noctua-oc/images/relative-performance_2560-1440.png
Thunder-74
27-05-2022, 21:08
Ma chi gli ha fatti questi calcoli.:asd: :asd: :asd:
La 3090ti va il 25% sopra la 3080, e la 4080 con gli stessi CC va meno.:asd:
:asd:
Hai ragione , non può essere
Inviato dal mio iPhone X utilizzando Tapatalk
Andy1111
27-05-2022, 21:39
Ma chi gli ha fatti questi calcoli.:asd: :asd: :asd:
La 3090ti va il 25% sopra la 3080, e la 4080 con gli stessi CC va meno.:asd:
:asd:
lol a quella scaletta non ci avevo manco fatto caso, dico la posizione delle nuove e vecchie , in effetti non ha proprio senso, la 4080 facilmente starà sopra alla 3090
scorpion73
27-05-2022, 23:39
Ma chi gli ha fatti questi calcoli.:asd: :asd: :asd:
La 3090ti va il 25% sopra la 3080, e la 4080 con gli stessi CC va meno.:asd:
:asd:
Possibile sia il bus a limitarla? Abbiamo un 256bit vs 384bit e mi ricordo della 1660 super che con gli stessi cuda della 1660 liscia andava come la Ti semplicemente perché gli avevano aumentato la banda...
mikael84
28-05-2022, 00:15
Possibile sia il bus a limitarla? Abbiamo un 256bit vs 384bit e mi ricordo della 1660 super che con gli stessi cuda della 1660 liscia andava come la Ti semplicemente perché gli avevano aumentato la banda...
Quindi sarebbe limitata anche la 4090, che ha pure 96mb di l2?:)
Nessuno, ora come ora può avere perf esatte. Sono ancora in prima fase di test. AD106 per dire debutterà l'anno prossimo e forse solo note.
Riguardo la 4080 avrà una banda di 672 (768 a 24) gb/s, ma una cache l1 da 1,5x ed una l2 da 64mb. La 6900xt di AMD ha solo 512 gb/s, non mi pare così pessima (salvo rt, ma li è per altro).
Il freno a mano di ampere è proprio la latenza della ram.
Dalla 3070 alla 3070ti, vedi stravolgimenti lato BW? No.
La 1660 super, potrebbe essere uno scenario diverso. Fai una cosa, prendi la tua scheda, metti il memory controller load su average e guarda la BW che necessita una scheda come la tua.:)
Schede con troppa poca BW, senza una minima cache, andranno in collo di bottiglia in certe situazioni, ma è naturale questo.
Ampere, come turing, hanno un serio problema di latenza, e warp stall, se tu usi 2/300 gb/s di BW su 1tb/s, hai la scheda sottoutilizzata, di conseguenza sarebbe meglio per i warp, avere memoria più veloce, anzichè 2tb/s. di banda se ne usi sempre 2/300 gb/s (controlla pure tu e guarda).:)
Hai ragione , non può essere
Inviato dal mio iPhone X utilizzando Tapatalk
Infatti, salvo non boostare a pari clock, ma ne dubito con un PP simile.:sofico:
lol a quella scaletta non ci avevo manco fatto caso, dico la posizione delle nuove e vecchie , in effetti non ha proprio senso, la 4080 facilmente starà sopra alla 3090
Ci mancherebbe. Quei calcoli ci potrebbero pure stare a pari IPC e pari clock.:)
Thunder-74
28-05-2022, 07:40
Quindi sarebbe limitata anche la 4090, che ha pure 96mb di l2?:)
Nessuno, ora come ora può avere perf esatte. Sono ancora in prima fase di test. AD106 per dire debutterà l'anno prossimo e forse solo note.
Riguardo la 4080 avrà una banda di 672 (768 a 24) gb/s, ma una cache l1 da 1,5x ed una l2 da 64mb. La 6900xt di AMD ha solo 512 gb/s, non mi pare così pessima (salvo rt, ma li è per altro).
Il freno a mano di ampere è proprio la latenza della ram.
Dalla 3070 alla 3070ti, vedi stravolgimenti lato BW? No.
La 1660 super, potrebbe essere uno scenario diverso. Fai una cosa, prendi la tua scheda, metti il memory controller load su average e guarda la BW che necessita una scheda come la tua.:)
Schede con troppa poca BW, senza una minima cache, andranno in collo di bottiglia in certe situazioni, ma è naturale questo.
Ampere, come turing, hanno un serio problema di latenza, e warp stall, se tu usi 2/300 gb/s di BW su 1tb/s, hai la scheda sottoutilizzata, di conseguenza sarebbe meglio per i warp, avere memoria più veloce, anzichè 2tb/s. di banda se ne usi sempre 2/300 gb/s (controlla pure tu e guarda).:)
Infatti, salvo non boostare a pari clock, ma ne dubito con un PP simile.:sofico:
Ci mancherebbe. Quei calcoli ci potrebbero pure stare a pari IPC e pari clock.:)
Possible che quei margini li abbiano ipotizzati solamente sulla base del numero cuda sottraendo qualcosa per la banda della vram, ma veramente calcolo empirico fatto male. Io mi aspetto un più 35 tra 3080 e 4080.
Vedremo
Inviato dal mio iPhone X utilizzando Tapatalk
ultimate trip
28-05-2022, 08:27
Possible che quei margini li abbiano ipotizzati solamente sulla base del numero cuda sottraendo qualcosa per la banda della vram, ma veramente calcolo empirico fatto male. Io mi aspetto un più 35 tra 3080 e 4080.
Vedremo
Inviato dal mio iPhone X utilizzando Tapatalk
certo che 2080-3080 era un 2x, un 35% sarebbe un po' pochino
Thunder-74
28-05-2022, 09:02
certo che 2080-3080 era un 2x, un 35% sarebbe un po' pochino
rettifico .. 35% come minimo...
io dalla 2080 alla 3080 il 3x non l'ho visto, ho riscontrato un più 60% medio.
Bissasse questo valore con il passaggio alla 4080, ne sarei felicissimo. Certo che la 4090 volerebbe letteralmente basandosi sui leak e non so se "giacchetta" sia cosi generoso.
DarkNiko
28-05-2022, 09:59
Mi riesce sinceramente difficile pensare che una 4090 renda 3080/3090 dei fermacarte e la storia insegna che tra una generazione e l'altra non si è mai visto il raddoppio delle prestazioni, poi felice di essere smentito. :)
Mi riesce sinceramente difficile pensare che una 4090 renda 3080/3090 dei fermacarte e la storia insegna che tra una generazione e l'altra non si è mai visto il raddoppio delle prestazioni, poi felice di essere smentito. :)
Dipende dai salti di nodo, con pascal si è passati a quasi un +60/70% da 980ti a 1080ti tenendo in considerazione che parliamo di 601mmq VS 471mmq, se volevano anche con Pascal potevano puntare a un 2x con un chip di dimensioni analoghe a GM200.
Anche qui abbiamo un salto di nodo importante, e a differenza di Pascal Nvidia non si è risparmiata sulle dimensioni con AD102, il 2x con la 4090 è più che probabile.
Poi da vedere come taglieranno la 4080ti, probabilmente, rispetto 3080ti saremo sotto il 2x e forse proprio sul +70% come Pascal.
scorpion73
28-05-2022, 11:20
Poi da vedere come taglieranno la 4080ti, probabilmente, rispetto 3080ti saremo sotto il 2x e forse proprio sul +70% come Pascal.
Sarebbe comunque tanta roba.
mikael84
28-05-2022, 11:34
Possible che quei margini li abbiano ipotizzati solamente sulla base del numero cuda sottraendo qualcosa per la banda della vram, ma veramente calcolo empirico fatto male. Io mi aspetto un più 35 tra 3080 e 4080.
Vedremo
Inviato dal mio iPhone X utilizzando Tapatalk
Si, mediamente ha fatto un rapporto di cuda, senza tenere conto ne delle ottimizzazioni ne tanto meno dei clock.:)
certo che 2080-3080 era un 2x, un 35% sarebbe un po' pochino
La 4080 a questo giro sarà valida, ma non a quei livelli, parte di base da una situazione da x70/x70ti (nei migliori dei casi). La 3080 era un cut del chippone.:) In rapporto la 3080 era la 4090 attuale, e la 4080 la 3070/ti di ampere.
rettifico .. 35% come minimo...
io dalla 2080 alla 3080 il 3x non l'ho visto, ho riscontrato un più 60% medio.
Bissasse questo valore con il passaggio alla 4080, ne sarei felicissimo. Certo che la 4090 volerebbe letteralmente basandosi sui leak e non so se "giacchetta" sia cosi generoso.
2 x flops, a regoletta mia 30/33% flops teorico/20 effettivi, fa appunto 60%.:p
Cmq non sappiamo se la 4080 sarà cut o full, ma se dovesse avere la base in CC della 3090ti, già clockandola ben più in alto le prestazioni aumenteranno non poco. Per dire, a 2,5, ottiene il 30% di clock in più.:)
Mi riesce sinceramente difficile pensare che una 4090 renda 3080/3090 dei fermacarte e la storia insegna che tra una generazione e l'altra non si è mai visto il raddoppio delle prestazioni, poi felice di essere smentito. :)
Con un 471mm2, quindi chip di fascia media e PL attivo in passato si sono raggiunte ottime perf.
Dipende dal salto di nodo, dalla dimensione e da vari fattori, chiaro che il 2x puro non è semplice da raggiungere, ma buone percentuali si possono ottenere su un buon nodo.:)
https://i.postimg.cc/DyttGfsp/PP.png
Dipende dai salti di nodo, con pascal si è passati a quasi un +60/70% da 980ti a 1080ti tenendo in considerazione che parliamo di 601mmq VS 471mmq, se volevano anche con Pascal potevano puntare a un 2x con un chip di dimensioni analoghe a GM200.
Anche qui abbiamo un salto di nodo importante, e a differenza di Pascal Nvidia non si è risparmiata sulle dimensioni con AD102, il 2x con la 4090 è più che probabile.
Poi da vedere come taglieranno la 4080ti, probabilmente, rispetto 3080ti saremo sotto il 2x e forse proprio sul +70% come Pascal.
Quelle due generazioni non sono paragonabili.
Maxwell usciva di fabbrica underclockato ma saliva quasi 50% (a volte anche piu) di frequenze.
Pascal avendo meno core usciva clockato molto piu aggressivo e saliva poco. Inoltre erano stati saltati numerosi processi produttivi intermedi e i 28 nm sono durati un eternità (6 anni).
Aumenti di 60/80% si sono visti eccome comunque in passato.
Quel passato però non esiste piu da piu di un decennio ed è inutile rimuginarci. Gli incrementi di processi produttivi sono ben diversi da quelli di 10/15/20 anni fa, molto piu contenuti, costosi e limitati. C'è anche molta meno concorrenza di quanta ce ne fosse un tempo e le gpu si vendono a prescindere a causa delle criptovalute. Solo il network ethereum, senza contare le altre centinaia di valute ha un hashrate che richiede a conti fatti circa dai 5 ai 20 milioni di gpu.
Comunque tranquilli le 3090 non andranno piu' piano perche' ci sono le 4090, certo che se pensate che un top gamma possa restare tale per piu' di due anni beh... Ben venga il progresso, a prescindere da quanto verranno limitate le nuove (fra tagli e TDP) onestamente quel Samsung 8nm non si poteva vedere.
Quelle due generazioni non sono paragonabili.
Maxwell usciva di fabbrica underclockato ma saliva quasi 50% (a volte anche piu) di frequenze.
Pascal usciva clockato molto piu aggressivo e saliva poco. Inoltre erano stati saltati numerosi processi produttivi intermedi e i 28 nm sono durati un eternità (6 anni).
Aumenti di 60/80% si sono visti eccome comunque in passato.
Quel passato però non esiste piu da piu di un decennio ed è inutile rimuginarci. Gli incrementi di processi produttivi sono ben diversi da quelli di 10/15/20 anni fa, molto piu contenuti, costosi e limitati. C'è anche molta meno concorrenza di quanta ce ne fosse un tempo e le gpu si vendono a prescindere a causa delle criptovalute. Solo il network ethereum, senza contare le altre centinaia di valute ha un hashrate che richiede a conti fatti circa dai 5 ai 20 milioni di gpu.
Maxwell murava intorno ai 1500mhz, anzi molti GM200 di prima sfornata avevano problemi anche a 1400mhz.
Di base la reference stava sui 1150-1200mhz quindi nel migliore dei casi parliamo di un +30-35% di clock....
Pascal anch'esso saliva bene visto che prendeva i 2050-2100mhz.
mikael84
28-05-2022, 11:59
Ad avercela la 3090.:p
Sinceramente salvo qualche titolo, non saprei neppure come sfruttarla al massimo.
Schede come la 4090 sotto un 4k ad alto refresh, neppure la prenderei in considerazione per via dello scaling.
Maxwell murava intorno ai 1500mhz, anzi molti GM200 di prima sfornata avevano problemi anche a 1400mhz.
Di base la reference stava sui 1150-1200mhz quindi nel migliore dei casi parliamo di un +30-35% di clock....
Pascal anch'esso saliva bene visto che prendeva i 2050-2100mhz.
Si pascal è stato micidiale lato clock, praticamente i 2ghz di oggi, verrebbero 3 ghz in rapporto. Tuttavia, era un chippetto con solo il 25% delle ALU, no FP16 ed un supportino alle dx12.
Sui 628mm2, avrebbe potuto collegare 8 GPC giusti per 400watt.
Con Lovelace non arriveremmo a tali clock, anche se i rumors parlano di 2,6/2,8 di base boost, ma le ALU passano al 71%.:)
Ad avercela la 3090.:p
Sinceramente salvo qualche titolo, non saprei neppure come sfruttarla al massimo.
Schede come la 4090 sotto un 4k ad alto refresh, neppure la prenderei in considerazione per via dello scaling.
A me basterebbe un AD104 cuttato al giusto prezzo e sono felice, cosi pensiono finalmente la 980ti :sofico:
mikael84
28-05-2022, 12:09
A me basterebbe un AD104 cuttato al giusto prezzo e sono felice, cosi pensiono finalmente la 980ti :sofico:
Tu qualsiasi chip prendi, fai un balzo gigantesco, ma pure per me un AD104, magari full, potrebbe fare un 2x dalla mia (che in 1440p G-sync salvo qualche titolo RT) si difende ancora bene.:sofico:
4080, liquidata dal day 1, shunt moddata dopo 30 secondi di utilizzo, 3ghz di clock e via :sofico:
più news arrivano e più mi viene voglia di aspettare le Ti.
killeragosta90
28-05-2022, 15:01
Mi riesce sinceramente difficile pensare che una 4090 renda 3080/3090 dei fermacarte e la storia insegna che tra una generazione e l'altra non si è mai visto il raddoppio delle prestazioni, poi felice di essere smentito. :)
Per precisione, con un +50% non si ha un raddoppio delle prestazioni, con 100% si avrebbe il raddoppio.
Quindi si, se non erro è ancora successo che capitasse un 50% in più rispetto a una precedente generazione al pari di fascia (sarebbe comunque tanta robbbba, troppa forse viste le premesse)
EDIT: Forse ho compreso male io il post?
mikael84
28-05-2022, 16:20
4080, liquidata dal day 1, shunt moddata dopo 30 secondi di utilizzo, 3ghz di clock e via :sofico:
Se il VRM lo tareranno ad 1,2v ci sarà da divertirsi in OC, con shunt, liquido.:)
più news arrivano e più mi viene voglia di aspettare le Ti.
Ecco qua, qualche info. Insomma potrebbe essere AD104 full.
Il cut della 4070 però è sbagliato sarà da 7168.
https://i.postimg.cc/hGNDLqTC/rtx-4070.png
Questo è solo teorico, ma rappresenta mediamente la situazione.
Le prestazioni saranno mediamente quelle.
4070 GA102
I TF sono calcolati a 2,5 di base boost, tranne la 4090ti a 2,8 x 600watt. Fosse confermato, questi chip, in barba ovviamente all'efficienza potrebbero salire bene con bios mod.
https://i.postimg.cc/nh70F4TC/4070-2.png
Io non mi preoccuperei delle prestazioni ma dei prezzi :(
DarkNiko
28-05-2022, 16:55
Per precisione, con un +50% non si ha un raddoppio delle prestazioni, con 100% si avrebbe il raddoppio.
Quindi si, se non erro è ancora successo che capitasse un 50% in più rispetto a una precedente generazione al pari di fascia (sarebbe comunque tanta robbbba, troppa forse viste le premesse)
EDIT: Forse ho compreso male io il post?
Intendo dire che tra rumors e speculazioni di vario tipo, si vuol far apparire Lovelace come in grado di generare uno stacco molto marcato con l'attuale architettura Ampére, quando la storia dovrebbe portare in primis a maggior prudenza e soprattutto a ritenere più attendibile un 50% come massimo divario (che sarebbe notevole comunque). Ecco perché ho esordito dicendo che appare poco probabile che le attuali schede possano, di colpo, non valere più niente.
Se il VRM lo tareranno ad 1,2v ci sarà da divertirsi in OC, con shunt liquido.
:oink:
Io non mi preoccuperei delle prestazioni ma dei prezzi :(
Io non mi preoccuperei ne' delle prestazioni, ne' dei prezzi, ma della disponibilita' :sofico:
Prezzo prestazioni dipende sempre dal tuo portafogli e la scheda che hai sotto, da li' decidi se comprare o meno, ci saranno anche le serie 3 a prezzi decenti e usate, la scelta non manchera'.
Se invece vuoi comprare ma le schede non ci sono... Rosichi.
mikael84
28-05-2022, 17:06
Intendo dire che tra rumors e speculazioni di vario tipo, si vuol far apparire Lovelace come in grado di generare uno stacco molto marcato con l'attuale architettura Ampére, quando la storia dovrebbe portare in primis a maggior prudenza e soprattutto a ritenere più attendibile un 50% come massimo divario (che sarebbe notevole comunque). Ecco perché ho esordito dicendo che appare poco probabile che le attuali schede possano, di colpo, non valere più niente.
Guarda a sto giro, nvidia ha fatto un mezzo scempio, ti vende la 4060 come 4070 e la 4070 come 4080. Ciò che pare essere molto potente è la fascia AD102, dove per ora sono previste solo 2 Titan x90.
Non aspettiamoci miracoli, sempre piedi per terra, però dall'hack, i chip sono emersi, ed il chip più grosso avrà 18432 cc,
Alla fine, salvo AD102 non ci saranno miracoli sulle altre fasce, considerando l'importante salto nodo, che praticamente manca da 2 gen. Quello di Ampere ha giusto portato un pò di densità.
:oink:
Io non mi preoccuperei ne' delle prestazioni, ne' dei prezzi, ma della disponibilita' :sofico:
Prezzo prestazioni dipende sempre dal tuo portafogli e la scheda che hai sotto, da li' decidi se comprare o meno, ci saranno anche le serie 3 a prezzi decenti e usate, la scelta non manchera'.
Se invece vuoi comprare ma le schede non ci sono... Rosichi.
Amen:)
Se c'è quella, anche a costo di prezzi mediamente più alti, il mercato subirà una scossa, anche nell'usato.
Thunder-74
28-05-2022, 17:20
Dai leak sinceramente la 3080 ti la trovo poco attraente. Non credo che possa portare quali aumenti prestazionali rispetto alla liscia.
Tralasciando la 4090ti, se come fecero con ampere , dovessero presentare la 4080 e la 4090, sin da subito si avrebbe una chiara idea su quale scheda proiettarsi . La 4090, se confermate le specifiche trapelate , sarebbe tanta roba, anche troppo per un 2022/2023 scarso di nuovi titoli :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
28-05-2022, 17:34
Io non riesco ad "eccitarmi".
Ma solo perché sono straconvinto che non si troveranno e che avranno prezzi già di base altissimi.
Se poi ci mettete anche che di giochi da giocare c'è il deserto....
È sempre il solito discorso: tanta voglia di sporcarsi le mani con nuovo HW , più della reale necessità . Almeno per me
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
28-05-2022, 17:51
Dai leak sinceramente la 3080 ti la trovo poco attraente. Non credo che possa portare quali aumenti prestazionali rispetto alla liscia.
Tralasciando la 4090ti, se come fecero con ampere , dovessero presentare la 4080 e la 4090, sin da subito si avrebbe una chiara idea su quale scheda proiettarsi . La 4090, se confermate le specifiche trapelate , sarebbe tanta roba, anche troppo per un 2022/2023 scarso di nuovi titoli :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
I valori sono in base boost, non conosciamo il boost effettivo, ma senza considerare tutte le migliorie, come le cache o le presunte rop's 2x. Una 4090 @2,6, realizzerebbe un 2x esatto teorico, rispetto le 3090@ 2ghz. Questo porterebbe al 60%.
Chiaramente potrebbe clockare anche di più e beneficiare di un IPC superiore.
La 4080 fatta con il classico 2/3 ALU, doveva stare a 60Tf, ben diverso. I possessori di GA102, devono praticamente virare al chippone .
fraussantin
28-05-2022, 18:13
:oink:
Io non mi preoccuperei ne' delle prestazioni, ne' dei prezzi, ma della disponibilita' :sofico:
Prezzo prestazioni dipende sempre dal tuo portafogli e la scheda che hai sotto, da li' decidi se comprare o meno, ci saranno anche le serie 3 a prezzi decenti e usate, la scelta non manchera'.
Se invece vuoi comprare ma le schede non ci sono... Rosichi.Boh se c'è poca di disponibilità ma con una botta di culo, sulla quale ho sempre fiducia , si piglia una fe , ci sta anche di fare il cambio senza troppi rimorsi ... Ed esborsi ...xD
Con schede a scaffale a quintali , sicuramente si risparmia , ma la 3080 fe mi tocca svenderla e in ogni caso sborsare troppi soldi per quel che mi offre il cambio .
Quindi boh non spero niente e mi accodo ai poco inscimmiati .
Ps anche perché sto in 2k e ci sto anche molto bene , quindi non è che abbia chissà che esigenza
Thunder-74
28-05-2022, 19:05
I valori sono in base boost, non conosciamo il boost effettivo, ma senza considerare tutte le migliorie, come le cache o le presunte rop's 2x. Una 4090 @2,6, realizzerebbe un 2x esatto teorico, rispetto le 3090@ 2ghz. Questo porterebbe al 60%.
Chiaramente potrebbe clockare anche di più e beneficiare di un IPC superiore.
La 4080 fatta con il classico 2/3 ALU, doveva stare a 60Tf, ben diverso. I possessori di GA102, devono praticamente virare al chippone .
Questo il brutto di scegliere la top di gamma, si deve o stare sempre sulla medesima fascia costosa, oppure stare fermi un giro. Se i prezzi del AD102 saranno esosi, penso che parecchi possessori di 3090 aspetteranno le 5000.
Mike secondo te , con le future PlayStation 5 pro e rivisitazione della Xbox, che hanno l obiettivo del 8k (vabbè), vedremo un balzo avanti lato pc ? Lo dico perché temo che potrebbero far invecchiare più precocemente tutte le schede video sotto i 16gb, quando in realtà si stava tranquilli fino a PS6 ecc.
Penso al UE5 alle possibili texture da 4K .
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
28-05-2022, 19:31
interessante articolo...
NVIDIA ha suonato il campanello d'allarme per l'imminente crollo dei prezzi delle GPU?
LINK (https://wccftech.com/has-nvidia-rung-the-warning-bells-for-upcoming-gpu-price-crash/)
mikael84
28-05-2022, 20:38
Questo il brutto di scegliere la top di gamma, si deve o stare sempre sulla medesima fascia costosa, oppure stare fermi un giro. Se i prezzi del AD102 saranno esosi, penso che parecchi possessori di 3090 aspetteranno le 5000.
Mike secondo te , con le future PlayStation 5 pro e rivisitazione della Xbox, che hanno l obiettivo del 8k (vabbè), vedremo un balzo avanti lato pc ? Lo dico perché temo che potrebbero far invecchiare più precocemente tutte le schede video sotto i 16gb, quando in realtà si stava tranquilli fino a PS6 ecc.
Penso al UE5 alle possibili texture da 4K .
Inviato dal mio iPhone X utilizzando Tapatalk
Si infatti, avendo a che fare con un salto nodo decente, si è ben guardato da declassare le x70 e x80 per puntare tutto ad AD102. Infatti glielo contesto appieno dal primo giorno.
Sulle console, non penso ci sia troppa differenza lato ram, i bus saranno mediamente piccoli. Saranno derivati da RDNA4 e salvo le g7 non adottino la quadrupla densità, non ci sarà uno stravolgimento. Sicuramente se si vuole puntare ad alte res, con RT attivo, servirà più che altro potenza computazionale che ram.
Su Lovelace, fa discutere il presunto raddoppio sulle rop's, che renderebbe queste utili proprio per res elevatissime. Un 2x rop's potrebbe anche sbilanciare i nuovi motori su queste.
interessante articolo...
NVIDIA ha suonato il campanello d'allarme per l'imminente crollo dei prezzi delle GPU?
LINK (https://wccftech.com/has-nvidia-rung-the-warning-bells-for-upcoming-gpu-price-crash/)
Modello Maxwell-kepler, finita la pacchia.
https://www.nexthardware.com/news/nvidia-taglia-i-prezzi-delle-gtx-980-ti-gtx-980-e-gtx-970-7590/
Iceman69
28-05-2022, 20:58
Modello Maxwell-kepler, finita la pacchia.
https://www.nexthardware.com/news/nvidia-taglia-i-prezzi-delle-gtx-980-ti-gtx-980-e-gtx-970-7590/
Che tenerezza quando 125 dollari erano considerati una consistente variazione di prezzo, con i prezzi che ci sono oggi sarebbe una normale fluttuazione all'interno della stessa giornata dello street price ...
OrazioOC
29-05-2022, 08:54
Modello Maxwell-kepler, finita la pacchia.
https://www.nexthardware.com/news/nvidia-taglia-i-prezzi-delle-gtx-980-ti-gtx-980-e-gtx-970-7590/
E' la naturale conclusione della fine del boom del mining.
La fortuna di nvidia(e amd) è che molta gente a causa proprio di questo boom non ha potuto mettere mano alle serie 3000, ma questo non significa che sia il momento buono ora.
Per dire anche su vari siti di allert tipo questo(http://hwfinder.it/ vedo prezzi ancora fuori dalla realtà.
A metà 2022 non posso giustificare 600 e rotti euro per una 3060 ti, idem 500 per una 3060 liscia, queste sono schede che devono oscillare tra i 300 e 400 per essere un minimo appetibili anche a ridosso di ada...
Per non parlare di come più si scenda in basso con le fasce più è grottesca la situazione, pieno di gtx 1650 a 250 euro, una scheda che veniva considerata uno scarto sovraprezzato già 3 anni fa quando la trovavi a 150 spedita. :rolleyes:
Quando torneranno con i piedi per terra allora ste schede potrebbero avere senso...
Ma penso che con l'uscita di Lovelace, ci saranno i mercatini pieni di Turing/Ampere 🤣
Già ora qualcosa di interessante si becca.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Quando torneranno con i piedi per terra allora ste schede potrebbero avere senso...
5 minuti di applausi
Ma infatti parlare dell'inventario di ste schede nell'estate 2022 non ha molto senso... che poi nel mercato asiatico e americano a parte post lancio le schede si sono sempre trovate, idem per gli Uk anche a ottimi prezzi.
Che adesso Nvidia ci dica che l'inventario migliora, grazie al ca, estate del 2022 a un passo dalle nuove schede, vorrei ben vedere.
In tutto questo in Italia ci vuole ancora il millino per la 3080 quindi saremo cmq gli ultimi a vedere benefici.
ultimate trip
29-05-2022, 13:56
sicuramente questa volta si starà più attenti a vendere prima ma si aspetterà di vedere come sarà la disponibilità e i prezzi
ultimate trip
29-05-2022, 14:00
....Sulle console, non penso ci sia troppa differenza lato ram, i bus saranno mediamente piccoli. Saranno derivati da RDNA4 e salvo le g7 non adottino la quadrupla densità, non ci sarà uno stravolgimento. Sicuramente se si vuole puntare ad alte res, con RT attivo, servirà più che altro potenza computazionale che ram.
.....[/url]
si parlerebbe ancora di rdna 3, prestazioni simili alla futura Radeon RX 7700 XT con rendering in 4K a 60 / 120 fps
https://gaming.hwupgrade.it/news/videogames/ps5-pro-e-nuove-xbox-c-e-chi-le-aspetta-tra-il-2023-e-il-2024-con-queste-caratteristiche_107555.html
nessuno29
29-05-2022, 14:11
si parlerebbe ancora di rdna 3, prestazioni simili alla futura Radeon RX 7700 XT con rendering in 4K a 60 / 120 fps
https://gaming.hwupgrade.it/news/videogames/ps5-pro-e-nuove-xbox-c-e-chi-le-aspetta-tra-il-2023-e-il-2024-con-queste-caratteristiche_107555.html
Mi pare un tantinello esagerato, praticamente un salto in prestazioni astronomico, praticamente una ps6.
Mi pare un tantinello esagerato, praticamente un salto in prestazioni astronomico, praticamente una ps6.
Non so, nel passaggio alle precedenti console si è passati da una pseudo 7850 a una R9 290x quindi potrebbe starci, considerando che la 7700XT è un chip di fascia medio-alta e nel 2024 sarà fascia media passando alla prossima gen di chip.
mikael84
29-05-2022, 15:26
Che tenerezza quando 125 dollari erano considerati una consistente variazione di prezzo, con i prezzi che ci sono oggi sarebbe una normale fluttuazione all'interno della stessa giornata dello street price ...
Vero
E' la naturale conclusione della fine del boom del mining.
La fortuna di nvidia(e amd) è che molta gente a causa proprio di questo boom non ha potuto mettere mano alle serie 3000, ma questo non significa che sia il momento buono ora.
Per dire anche su vari siti di allert tipo questo(http://hwfinder.it/ vedo prezzi ancora fuori dalla realtà.
A metà 2022 non posso giustificare 600 e rotti euro per una 3060 ti, idem 500 per una 3060 liscia, queste sono schede che devono oscillare tra i 300 e 400 per essere un minimo appetibili anche a ridosso di ada...
Per non parlare di come più si scenda in basso con le fasce più è grottesca la situazione, pieno di gtx 1650 a 250 euro, una scheda che veniva considerata uno scarto sovraprezzato già 3 anni fa quando la trovavi a 150 spedita. :rolleyes:
Quando torneranno con i piedi per terra allora ste schede potrebbero avere senso...
Io lo dissi da sempre, prima o poi scoppiava tutto, non mi sono prestato al loro lucro e ne sono felice. Sapevo che saremmo arrivati a questa situazione.
Come da alert i prezzi sono ancora alti, ma vedere certe schede ancora li parcheggiate su amazon, qualcosa significa.
La situazione è ben chiara dai chip che ha fatto JHH, declassando la x70 a x60 e la x80 a x70.
Ma infatti parlare dell'inventario di ste schede nell'estate 2022 non ha molto senso... che poi nel mercato asiatico e americano a parte post lancio le schede si sono sempre trovate, idem per gli Uk anche a ottimi prezzi.
Che adesso Nvidia ci dica che l'inventario migliora, grazie al ca, estate del 2022 a un passo dalle nuove schede, vorrei ben vedere.
In tutto questo in Italia ci vuole ancora il millino per la 3080 quindi saremo cmq gli ultimi a vedere benefici.
Concordo, siamo gli ultimi a vedere ancora certi prezzi, già da tempo ci sono stati pesanti tagli in altri stati, oltre che maggior reperibilità.
Crollerà anche la 3080 sul millino, già vedere sul mercatino ottime custom 3090 a 1200 senza nessuno che se la fili, fa ben capire l'andazzo futuro.
Il fatto che JHH abbia declassato x70 e x80 è un'altra prova.
Della serie, chiamo la x70-x80 e cerco di piazzarla ad un prezzo più alto.:p
si parlerebbe ancora di rdna 3, prestazioni simili alla futura Radeon RX 7700 XT con rendering in 4K a 60 / 120 fps
https://gaming.hwupgrade.it/news/videogames/ps5-pro-e-nuove-xbox-c-e-chi-le-aspetta-tra-il-2023-e-il-2024-con-queste-caratteristiche_107555.html
Si ho letto, scheda di fascia medio bassa (per l'attuale RDNA3), scritta con soli 128bit e di conseguenza 16gb in clamshell.
Una scheda che prestazionalmente, a massimi clock, dovrebbe allinearsi con AD104/cut, ma quel bus è davvero osceno per una scheda prevista per certe res ed RT.
Incredibile come AMD si stia completamente perdendo nei suoi ex punti di forza.
StylezZz`
29-05-2022, 17:51
Io lo dissi da sempre, prima o poi scoppiava tutto, non mi sono prestato al loro lucro e ne sono felice. Sapevo che saremmo arrivati a questa situazione.
Come da alert i prezzi sono ancora alti, ma vedere certe schede ancora li parcheggiate su amazon, qualcosa significa. La situazione è ben chiara dai chip che ha fatto JHH, declassando la x70 a x60 e la x80 a x70.
Siamo in due, vorrei solo che fossimo molti di più a pensarla così...probabilmente non si sarebbe arrivati a questo, e purtroppo andrà peggio con la prossima gen, ormai nvidia/amd si sono fatti un idea ben chiara di quanto possono tirare la corda, e non solo aumenteranno sempre di più i prezzi, ma avremo anche prodotti inferiori.
OrazioOC
29-05-2022, 18:09
Siamo in due, vorrei solo che fossimo molti di più a pensarla così...probabilmente non si sarebbe arrivati a questo, e purtroppo andrà peggio con la prossima gen, ormai nvidia/amd si sono fatti un idea ben chiara di quanto possono tirare la corda, e non solo aumenteranno sempre di più i prezzi, ma avremo anche prodotti inferiori.
Non possono tirare troppo la corda senza una forte domanda sul mercato, che i pc gamer ci siano ancora e che siano mediamente affamati è vero, ma in quanti sono disposti a spendere 500 euro per una presunta 4060 con 8gb e 128 bit di bus?:rolleyes:
Ma anche 800 euro per quella 4070 che con quelle specifiche stenta a giocarsela con la 3080 di due anni fa, non è uno scenario incoraggiante per i giocatori, ergo per le vendite delle schede stesse.
StylezZz`
29-05-2022, 18:40
Non possono tirare troppo la corda senza una forte domanda sul mercato, che i pc gamer ci siano ancora e che siano mediamente affamati è vero, ma in quanti sono disposti a spendere 500 euro per una presunta 4060 con 8gb e 128 bit di bus?:rolleyes:
Ma anche 800 euro per quella 4070 che con quelle specifiche stenta a giocarsela con la 3080 di due anni fa, non è uno scenario incoraggiante per i giocatori, ergo per le vendite delle schede stesse.
Dopo aver visto le 3060 acquistate anche a 700 euro, oppure quello scarto di 6500 XT che nonostante tutto vende, non mi stupisco più di nulla...che poi parliamoci chiaro, quanti siamo a guardare se la scheda ha un bus a 128 o 192, o altre specifiche simili? La maggioranza non si sofferma mica su queste cose, guarda il contatore fps, fa più frame della precedente gen? Ti permette di giocare il tuo giochino preferito a dettagli alti a 60fps? Si. Bene, hai venduto comunque la scheda.
OrazioOC
29-05-2022, 18:55
Dopo aver visto le 3060 acquistate anche a 700 euro, oppure quello scarto di 6500 XT che nonostante tutto vende, non mi stupisco più di nulla...che poi parliamoci chiaro, quanti siamo a guardare se la scheda ha un bus a 128 o 192, o altre specifiche simili? La maggioranza non si sofferma mica su queste cose, guarda il contatore fps, fa più frame della precedente gen? Ti permette di giocare il tuo giochino preferito a dettagli alti a 60fps? Si. Bene, hai venduto comunque la scheda.
Si ma questo sotto mining, dove vi sono utenze risultano dosposte a pagare cifre molto superiori di quanto un gamer è disposto a spendere, ma di gamer veramente pronti con la mazzetta a strapagare non ne sto vedendo.
Onestamente ada lovelance deve fornire un uplfit a 360° rispetto ad ampere, ergo il rapporto prezzo/prestazioni dovrà migliorare per forza.
Dopo aver visto le 3060 acquistate anche a 700 euro, oppure quello scarto di 6500 XT che nonostante tutto vende, non mi stupisco più di nulla...che poi parliamoci chiaro, quanti siamo a guardare se la scheda ha un bus a 128 o 192, o altre specifiche simili? La maggioranza non si sofferma mica su queste cose, guarda il contatore fps, fa più frame della precedente gen? Ti permette di giocare il tuo giochino preferito a dettagli alti a 60fps? Si. Bene, hai venduto comunque la scheda.
Beh penso sia la cosa primaria da guardare... Alla fine ciò che conta sono le review su come rende il chip e relativo prezzo.
E ancora non si sa come taglieranno tutti i chip nello specifico, soprattutto se parliamo dei chip cuttati, anche la 4060 si vocifera che possa essere ricavata da AD104 e mantenere quindi i 192bit e 12GB.
Il discorso bus andrebbe limitato esclusivamente alla questione vram, ma anche li non è che tra 2080ti e 3070 ci siano particolari vantaggi dati dagli 11gb della TI, almeno per i giochi attuali.
Personalmente non lo ritengo un ragionamento insensato guardare esclusivamente il rapporto performance/price, fregandosene di cosa c'è sotto.
Anche perchè si sta puntando molto sulla cache, e in se per sè non è detto che un bus più piccolo sia cosi limitante se non appunto per il quantitativo di vram.
Thunder-74
29-05-2022, 20:16
Beh penso sia la cosa primaria da guardare... Alla fine ciò che conta sono le review su come rende il chip e relativo prezzo.
E ancora non si sa come taglieranno tutti i chip nello specifico, soprattutto se parliamo dei chip cuttati, anche la 4060 si vocifera che possa essere ricavata da AD104 e mantenere quindi i 192bit e 12GB.
Il discorso bus andrebbe limitato esclusivamente alla questione vram, ma anche li non è che tra 2080ti e 3070 ci siano particolari vantaggi dati dagli 11gb della TI, almeno per i giochi attuali.
Personalmente non lo ritengo un ragionamento insensato guardare esclusivamente il rapporto performance/price, fregandosene di cosa c'è sotto.
Anche perchè si sta puntando molto sulla cache, e in se per sè non è detto che un bus più piccolo sia cosi limitante se non appunto per il quantitativo di vram.
concordo ,alla fine se devo spendere, guardo il guadagno rispetto alla VGA che ho nel case, se poi è ricavato da un "francobollo" o da un "foglio A4", mi cambia poco. Quello che mi fa essere indeciso è vedere un salto enorme tra 4080 e 4090, ma probabilmente perchè mi sono abituato male nel vedere il poco salto che c'è tra la 3080 e la 3090, dove non ho preso in considerazione nemmeno per un secondo, per il gaming, la seconda.
mikael84
29-05-2022, 20:17
Siamo in due, vorrei solo che fossimo molti di più a pensarla così...probabilmente non si sarebbe arrivati a questo, e purtroppo andrà peggio con la prossima gen, ormai nvidia/amd si sono fatti un idea ben chiara di quanto possono tirare la corda, e non solo aumenteranno sempre di più i prezzi, ma avremo anche prodotti inferiori.
Questa gen, è stata particolare, se ci sarà un minimo di disponibilità e meno discorso mining, la situazione tenderà per forza a migliorare. Chiaro, difficilmente vedremmo i prezzi di maxwell-pascal, i PP costano molto di più, con tutto il resto, però una scossa ci sarà, che a parer mio a lungo andare sarà sempre più marcata (salvo di nuovo mining).
Non possono tirare troppo la corda senza una forte domanda sul mercato, che i pc gamer ci siano ancora e che siano mediamente affamati è vero, ma in quanti sono disposti a spendere 500 euro per una presunta 4060 con 8gb e 128 bit di bus?:rolleyes:
Ecco, se chiamano x60 quella cosa, è proprio l'emblema.
La x50 è quasi sempre stata 1/4 delle ALU del chippone a 128 bit, come quel chip. Se poi ti vendono a 500 quel chip, risulta che ti stanno vendendo la 4050 a 500 euro. Anche se poi farà più fps della 3060.
Ma anche 800 euro per quella 4070 che con quelle specifiche stenta a giocarsela con la 3080 di due anni fa, non è uno scenario incoraggiante per i giocatori, ergo per le vendite delle schede stesse.
Ecco, anche qua, la fregatura delle fasce.
Prendo turing: Chippone 4608... 1660ti 1536cc a 192bit. Risultato 1/3 delle ALU a 192bit.
La 4070 non TI è praticamente la stessa scheda con un pugnetto di cuda in più. Magari paghi 800 euro, una new 1660ti.:)
Beh penso sia la cosa primaria da guardare... Alla fine ciò che conta sono le review su come rende il chip e relativo prezzo.
E ancora non si sa come taglieranno tutti i chip nello specifico, soprattutto se parliamo dei chip cuttati, anche la 4060 si vocifera che possa essere ricavata da AD104 e mantenere quindi i 192bit e 12GB.
Il discorso bus andrebbe limitato esclusivamente alla questione vram, ma anche li non è che tra 2080ti e 3070 ci siano particolari vantaggi dati dagli 11gb della TI, almeno per i giochi attuali.
Personalmente non lo ritengo un ragionamento insensato guardare esclusivamente il rapporto performance/price, fregandosene di cosa c'è sotto.
Anche perchè si sta puntando molto sulla cache, e in se per sè non è detto che un bus più piccolo sia cosi limitante se non appunto per il quantitativo di vram.
Il problema non è il bus in se, ma tutto l'altro. La banda è l'ultimo dei problemi.:p
OrazioOC
29-05-2022, 20:32
Ecco, se chiamano x60 quella cosa, è proprio l'emblema.
La x50 è quasi sempre stata 1/4 delle ALU del chippone a 128 bit, come quel chip. Se poi ti vendono a 500 quel chip, risulta che ti stanno vendendo la 4050 a 500 euro. Anche se poi farà più fps della 3060.
Ecco, anche qua, la fregatura delle fasce.
Prendo turing: Chippone 4608... 1660ti 1536cc a 192bit. Risultato 1/3 delle ALU a 192bit.
La 4070 non TI è praticamente la stessa scheda con un pugnetto di cuda in più. Magari paghi 800 euro, una new 1660ti.:)
Sante parole Mike. :O
Si purtroppo il rischio di trovarsi gpu con specifiche leggerine è abbastanza reale anche su schede dichiaratamente di fascia medio/alta come la 4070.
Quella 4070 è abbastanza inquietante se confermata, sarebbe una sostituta della 3060 ti promossa a fascia alta, uno smacco.
Per non parlare poi dei tdp, una xx70 con un tdp di 300w quando mai l'abbiamo vista(eccezion fatta per la 3070 ti ma per colpa delle gddr6x e clock volutamente alti per far passare il chip di fascia media come adatto ad una high end)?
Bah, due son le cose, o i leak sono cannati(speriamo) oppure jsensen si è abituato bene...
thunderforce83
29-05-2022, 21:42
Incredibile come AMD si stia completamente perdendo nei suoi ex punti di forza.
Esattamente...
se sulle cpu c'e' stata concorrenza a causa di intel che ha proprio dormito, sulle gpu non c'e' storia che tiene, amd non serve proprio da anni, e sopra tutto caccia fuori schede che ritenerle competitive e' un'offesa proprio alle leggi di mercato...purtroppo sulle schede video non c'e' concorrenza, e se per assurdo non trovavo al volo questa 3080 che ho in firma, e c'erano le schede video amd anche a meta' prezzo, non le avrei prese neanche in considerazione(figurati a prezzo pieno), ciofeche totali:doh: , quindi il problema e' che possiamo basarci solo sulle gpu nvidia, e forse un giorno intel...
fraussantin
29-05-2022, 22:04
Esattamente...
se sulle cpu c'e' stata concorrenza a causa di intel che ha proprio dormito, sulle gpu non c'e' storia che tiene, amd non serve proprio da anni, e sopra tutto caccia fuori schede che ritenerle competitive e' un'offesa proprio alle leggi di mercato...purtroppo sulle schede video non c'e' concorrenza, e se per assurdo non trovavo al volo questa 3080 che ho in firma, e c'erano le schede video amd anche a meta' prezzo, non le avrei prese neanche in considerazione(figurati a prezzo pieno), ciofeche totali:doh: , quindi il problema e' che possiamo basarci solo sulle gpu nvidia, e forse un giorno intel...Ciofeghe mi sembra esagerato .
Hanno dei limiti , ma in raster viaggiano.
Poi io non l'avrei presa lo stesso
StylezZz`
29-05-2022, 22:30
Esattamente...
se sulle cpu c'e' stata concorrenza a causa di intel che ha proprio dormito, sulle gpu non c'e' storia che tiene, amd non serve proprio da anni, e sopra tutto caccia fuori schede che ritenerle competitive e' un'offesa proprio alle leggi di mercato...purtroppo sulle schede video non c'e' concorrenza, e se per assurdo non trovavo al volo questa 3080 che ho in firma, e c'erano le schede video amd anche a meta' prezzo, non le avrei prese neanche in considerazione(figurati a prezzo pieno), ciofeche totali:doh: , quindi il problema e' che possiamo basarci solo sulle gpu nvidia, e forse un giorno intel...
Esagerato, mi sa che sei rimasto indietro ai tempi di Vega.
Personalmente se non fosse per il vantaggio DLSS+RT migliore, avrei già snobbato le RTX da un pezzo, e avrei preso una 6800 XT senza pensarci...se i consumi di lovelace saranno confermati e se le RX 7000 saranno molto più efficienti, allora mi sa che snobbo completamente JH e la sua prossima ''4070 a 499 che va quanto una 3080 Ti'' :asd:
mikael84
30-05-2022, 00:12
concordo ,alla fine se devo spendere, guardo il guadagno rispetto alla VGA che ho nel case, se poi è ricavato da un "francobollo" o da un "foglio A4", mi cambia poco. Quello che mi fa essere indeciso è vedere un salto enorme tra 4080 e 4090, ma probabilmente perchè mi sono abituato male nel vedere il poco salto che c'è tra la 3080 e la 3090, dove non ho preso in considerazione nemmeno per un secondo, per il gaming, la seconda.
Quindi, ricapitolando, nvidia ha basato la 4080 sulla x70/ti e naturalmente potrebbe non soddisfarti, quindi sarai costretto a prendere una 4090.:sofico:
Se invece ci fosse stata una 4080 almeno la classica 2/3, potevi prendere quella, invece ti toccherà spendere il doppio.
JHH wins.:sofico:
Sante parole Mike. :O
Si purtroppo il rischio di trovarsi gpu con specifiche leggerine è abbastanza reale anche su schede dichiaratamente di fascia medio/alta come la 4070.
Quella 4070 è abbastanza inquietante se confermata, sarebbe una sostituta della 3060 ti promossa a fascia alta, uno smacco.
Anche peggio 3060 liscia leggermente pompata.:)
3060 1/3 delle ALU, 192bit
4070 poco più di 1/3 192 bit.
In confronto per ottenere gli stessi valori la 4060ti dovrebbe essere:
8400 cc /256bit /16gb, che sarebbe quasi la 4080.:)
Per non parlare poi dei tdp, una xx70 con un tdp di 300w quando mai l'abbiamo vista(eccezion fatta per la 3070 ti ma per colpa delle gddr6x e clock volutamente alti per far passare il chip di fascia media come adatto ad una high end)?
Bah, due son le cose, o i leak sono cannati(speriamo) oppure jsensen si è abituato bene...
Dipende molto anche dal TDP impostato, pcb (che è quello decurtato della 3080) ed altri fattori.
Bisognerebbe fare un'attenta analisi con hwinfo.
Avessi le schede le avrei analizzate a fondo.:)
Esattamente...
se sulle cpu c'e' stata concorrenza a causa di intel che ha proprio dormito, sulle gpu non c'e' storia che tiene, amd non serve proprio da anni, e sopra tutto caccia fuori schede che ritenerle competitive e' un'offesa proprio alle leggi di mercato...purtroppo sulle schede video non c'e' concorrenza, e se per assurdo non trovavo al volo questa 3080 che ho in firma, e c'erano le schede video amd anche a meta' prezzo, non le avrei prese neanche in considerazione(figurati a prezzo pieno), ciofeche totali:doh: , quindi il problema e' che possiamo basarci solo sulle gpu nvidia, e forse un giorno intel...
Io parlavo della ram su tale scheda però, non delle schede in se.:)
fraussantin
30-05-2022, 06:51
Cmq pensavo al fatturato nvidia , senza il mining , ipotizzando che il crollo continui, sarà dura tenere testa a quello dello scorso anno ed evitare un calo in borsa.
Thunder-74
30-05-2022, 08:03
Quindi, ricapitolando, nvidia ha basato la 4080 sulla x70/ti e naturalmente potrebbe non soddisfarti, quindi sarai costretto a prendere una 4090.:sofico:
Se invece ci fosse stata una 4080 almeno la classica 2/3, potevi prendere quella, invece ti toccherà spendere il doppio.
JHH wins.:sofico:
Anche peggio 3060 liscia leggermente pompata.:)
3060 1/3 delle ALU, 192bit
4070 poco più di 1/3 192 bit.
In confronto per ottenere gli stessi valori la 4060ti dovrebbe essere:
8400 cc /256bit /16gb, che sarebbe quasi la 4080.:)
Dipende molto anche dal TDP impostato, pcb (che è quello decurtato della 3080) ed altri fattori.
Bisognerebbe fare un'attenta analisi con hwinfo.
Avessi le schede le avrei analizzate a fondo.:)
Io parlavo della ram su tale scheda però, non delle schede in se.:)
Caro Mike che JHH abbia già vinto è fuori discussione indipendentemente da quello che prenderò :) . Diciamo che molto dipenderai dai prezzi. Una 4080 che possa andare un 50x100 in più rispetto alla 3080, mi appagherebbe. Vedendo però le specifiche uscite, non ti nego che la 4090 stuzzica parecchio.
Sono alla finestra :)
Inviato dal mio iPhone X utilizzando Tapatalk
scorpion73
30-05-2022, 08:10
Si, la 4090 stuzzica anche me, e non poco, ma dipenderà dal prezzo ovviamente.
La 4080, al contrario, non mi stuzzica per niente, almeno in quella configurazione sin qui ipotizzata, e se andrà un 20% in più della mia attuale 3080ti, è praticamente certo che non la prenderò.
Se la 4090 sarà inaccessibile, aspetterò di vedere come tareranno la 4080ti fra sei mesi, considerando anche che con la mia attuale scheda sono veramente in una botte di ferro e non ho necessità impellenti, almeno nell'immediato con gli attuali engine.
Staremo a vedere.
fraussantin
30-05-2022, 08:48
Visto pero che nvidia vuol tenere ben distanti i prezzi fra le 90\80ti e le 70\80 sembra anche logica la scelta.
Una 3090 che costava il doppio di una 3080 per quella poca differenza era appetibile solo per la ram.. se qui la ram sara abbondante su tutte credo sia naturale anche una scelta simile.
E forse con 899 vedremo a listino la 4080.
Andy1111
30-05-2022, 09:11
https://videocardz.com/newz/nvidia-geforce-rtx-4090-expected-to-launch-first-followed-by-rtx-4080-and-rtx-4070
Pronti per farvi spennare :D
Prima escono le 4090, annuncio a luglio , ma sugli scaffali loro dicono agosto sempre se non sarà un paper lanch e le schede ci saranno veramente a settembre , non è chiaro se la 4080 ad102 o 104
300W per la 4070 di TDP? Ma sono scemi? E' ben oltre il doppio della 1070 o 970 e quasi il 50% in piu della 3070 che era a 220.
Next gen che si fa, 500W per la 5060?
300W per la 4070 di TDP? Ma sono scemi? E' ben oltre il doppio della 1070 o 970 e quasi il 50% in piu della 3070 che era a 220.
Next gen che si fa, 500W per la 5060?
Succede questo quando ai miner non frega niente degli FPS, ma solo di quanti MH/s la scheda fa con una buon rapporto performance/w usati IMHO :stordita:
fraussantin
30-05-2022, 10:05
300W per la 4070 di TDP? Ma sono scemi? E' ben oltre il doppio della 1070 o 970 e quasi il 50% in piu della 3070 che era a 220.
Next gen che si fa, 500W per la 5060?
secondo me anche a sto giro hanno amd col fiato sul collo e hanno tirato al massimo i clock e le schede .
percheè non penso che il silicio di tsmc faccia così cagare da dover spingere a caso con i voltaggi.
son curioso di vedere come saranno raffreddate , visti i 7nm gia complicati su quel fatto.
nel caso son convinto che calando di poco le performance si potra ottenere tanto in riduzione di temperature.
ultimate trip
30-05-2022, 10:13
Visto pero che nvidia vuol tenere ben distanti i prezzi fra le 90\80ti e le 70\80 sembra anche logica la scelta.
Una 3090 che costava il doppio di una 3080 per quella poca differenza era appetibile solo per la ram.. se qui la ram sara abbondante su tutte credo sia naturale anche una scelta simile.
E forse con 899 vedremo a listino la 4080.
magari a sto giro jensen piazza la 4090 a 1199 così diremo che è conveniente e tutti quelli con la 3080 aggiorneranno.
secondo me anche a sto giro hanno amd col fiato sul collo e hanno tirato al massimo i clock e le schede .
percheè non penso che il silicio di tsmc faccia così cagare da dover spingere a caso con i voltaggi.
son curioso di vedere come saranno raffreddate , visti i 7nm gia complicati su quel fatto.
nel caso son convinto che calando di poco le performance si potra ottenere tanto in riduzione di temperature.No infatti, soprattutto considerando che si passa dai precedenti 8nm di Samsung che erano penosi...
Fondamentalmente la 4070 ricalca gli stessi consumi dell'attuale 3070/3070ti ma dovrebbe performare come 3090 che consuma un bel po' in più...
Anche nel mobile il pp di Samsung ha dato enormi problemi, di recente Qualcomm ha annunciato un refresh dell' 8gen 1+ sui 4nm di tsmc invece dei precedenti 4nm di Samsung, guadagnando il 10% di clock e il 30% di consumi in meno...
Se Ampere fosse stato stampato sui 7nm di tsmc sarebbe stata tutt'altra cosa...
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
30-05-2022, 10:19
magari a sto giro jensen piazza la 4090 a 1199 così diremo che è conveniente e tutti quelli con la 3080 aggiorneranno.
see ..
le top avranno prezzi fuori di testa , sicuramente non inferiori alle attuali.
per invogliare il cambio farà leva sulla vram in 4k
see ..
le top avranno prezzi fuori di testa , sicuramente non inferiori alle attuali.
per invogliare il cambio farà leva sulla vram in 4kSi ma é sempre stato così, le x90 sono le new titan, e anche quelle sono sempre costate un patrimonio.
Anche al tempo di Kepler se la 780ti la trovavi sui 600-650€, la titan andava per il millino...
Sicuramente avranno anche nvlink attivo e non sarebbe assurdo se optino per il clamshell.
Comunque vedremo come posizioneranno la 4080ti ...
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
30-05-2022, 10:35
Si ma é sempre stato così, le x90 sono le new titan, e anche quelle sono sempre costate un patrimonio.
Anche al tempo di Kepler se la 780ti la trovavi sui 600-650€, la titan andava per il millino...
Sicuramente avranno anche nvlink attivo e non sarebbe assurdo se optino per il clamshell.
Comunque vedremo come posizioneranno la 4080ti ...
Inviato dal mio M2012K11AG utilizzando Tapatalk
ormai è chiaro che sarà la piu interessante di questa gen
see ..
le top avranno prezzi fuori di testa , sicuramente non inferiori alle attuali.
per invogliare il cambio farà leva sulla vram in 4k
Se fosse così ne venderebbero davvero pochissime visto che ormai tutti gli shop online hanno i magazzini pieni di schede anche a prezzi tutto sommato convenienti.
Io non mi aspetto prezzi folli, poi chissà...
fraussantin
30-05-2022, 11:59
Se fosse così ne venderebbero davvero pochissime visto che ormai tutti gli shop online hanno i magazzini pieni di schede anche a prezzi tutto sommato convenienti.
Io non mi aspetto prezzi folli, poi chissà...Quelle schede la cmq a qualcuno andranno Vendute.
Al di la dei prezzi alti o bassi.
È probabile che come sempre, nvidia abbia una risicata disponibiltà al lancio in modo da far vendere il vecchio ai partner ( e anche le sue scorte) in tempo.
mikael84
30-05-2022, 12:01
Si, la 4090 stuzzica anche me, e non poco, ma dipenderà dal prezzo ovviamente.
La 4080, al contrario, non mi stuzzica per niente, almeno in quella configurazione sin qui ipotizzata, e se andrà un 20% in più della mia attuale 3080ti, è praticamente certo che non la prenderò.
Se la 4090 sarà inaccessibile, aspetterò di vedere come tareranno la 4080ti fra sei mesi, considerando anche che con la mia attuale scheda sono veramente in una botte di ferro e non ho necessità impellenti, almeno nell'immediato con gli attuali engine.
Staremo a vedere.
Per conoscere la 4080ti, bisognerà aspettare le specifiche finali della 4080. Se sarà full AD103, o con 2/3 TPC disabilitati, la 4080ti sarà su AD102, se avrà un'intero GPC disabilitato, le cose si complicano.
JHH probabilmente cercherà di far passare gli enthusiast alle x90.
Il debutto delle 24 gb/s, darà luogo a vari refresh.
secondo me anche a sto giro hanno amd col fiato sul collo e hanno tirato al massimo i clock e le schede .
percheè non penso che il silicio di tsmc faccia così cagare da dover spingere a caso con i voltaggi.
son curioso di vedere come saranno raffreddate , visti i 7nm gia complicati su quel fatto.
nel caso son convinto che calando di poco le performance si potra ottenere tanto in riduzione di temperature.
Si assolutamente. I consumi sono dati soprattutto dal clock e dalla tensione effettiva imposta sul VRM. Ci sarà sempre il classico sweet spot.:)
Quando cambi il PP, non tutto va sempre secondo i dati teorici della casa, bisogna tenere conto della progettazione, ovvero di come verranno collocati i transistor a bassa ed alta dispersione nelle varie aree (solo questo ti può dare un 10/15% di clock e meno consumi in generale, più di quanto ti dia il PP stesso).
La stessa dispersione in aree non utilizzate (clock gating) è un altro fattore.
Oppure l'eccessivo accesso alla banda.
In base al circuito, ed alla microarchitettura per ottenere certi clock sei costretto a compromessi se questa è poco efficiente.
Attualmente si parla di clock molto elevati, però passiamo da un 10nm samsung (8 solo per una leggero aumento di densità teorica) di samsung ad n4 mod di TSMC.:)
mikael84
30-05-2022, 12:12
Caro Mike che JHH abbia già vinto è fuori discussione indipendentemente da quello che prenderò :) . Diciamo che molto dipenderai dai prezzi. Una 4080 che possa andare un 50x100 in più rispetto alla 3080, mi appagherebbe. Vedendo però le specifiche uscite, non ti nego che la 4090 stuzzica parecchio.
Sono alla finestra :)
Inviato dal mio iPhone X utilizzando Tapatalk
Magari ci sorprende tutti e scorpora gli interi come Turing. Per intenderci una 3080 scorporata è come se fosse da 5376cc e 20,5tf. La 4080 ne avrebbe così 50 effettivi.:sofico:
Sinceramente ne dubito, è stato intravisto il 10% di area GPC in più, ma dovrebbe riguardare soprattutto la l1 più grande e la cache tensor.
Anche sulle rop's ho qualche dubbio, sapendo come vengono elaborate ed essendo integrate ora sul GPC.
Lanciare la 4090 prima delle altre non e' un gran segnale...
Mi sa che vedremo poche schede prima del Q4, sperando che sia una questione di disponibilita' e non di prestazioni della 4080.
Faccio uscire la enthusiast dove ho molto margine di guadagno per farla comprare a piu' inscimmiati possibile (anche se hanno gia' 3090,3080 ti etc), sicuro che comunque ne vendero' a pacchi per qualche mese.
Non avrei comunque disponibilita' per riempire il mercato di 4080 cosa che posso fare in un secondo momento tanto me le canto e me le suono da sola.
Disquisendo invece sulle performance, vedo due scenari, magari come paventato la 4080 anche azzoppata straccia le vecchie flagship e non vogliono che gli enthusiast scendano di fascia per l'upgrade, oppure la castrano talmente tanto che non vogliono uscire con una scheda che non giustifica l'esborso vs le varie 3080ti/90 facendosi cattiva PR e perdendosi i grossi margini degli enthusiast, ma ci credo poco visto la differenza abissale nel pp.
Immagino che le performance c'entrino zero, il pp dovra' maturare, si esce subito con la bomba a prezzo pieno per far contenti gli inscimmiati nel periodo cmq piu' basso di richiesta GPU, poi con calma anche valutando le prestazioni di AMD si segmenta il mercato con tagli e limitazioni a livello VRM/TDP.
Da parte di un'azienda che deve far uscire un nuovo prodotto il ragionamento e' sempre lo stesso, come posso massimizzare il mio profitto, tenendo conto del prezzo di mercato e della disopnibilita' che ho di soddisfare la richiesta.
amon.akira
30-05-2022, 13:44
300W per la 4070 di TDP? Ma sono scemi? E' ben oltre il doppio della 1070 o 970 e quasi il 50% in piu della 3070 che era a 220.
Next gen che si fa, 500W per la 5060?
vedila cosi, prendi la scheda in base ai watt e non al nome, ma a parità di watt avrai l incremento percentuale dato dal nodo e dall architettura...
esempio ora a 220w ci sarà la 4060? prendi quella
StylezZz`
30-05-2022, 14:12
vedila cosi, prendi la scheda in base ai watt e non al nome, ma a parità di watt avrai l incremento percentuale dato dal nodo e dall architettura...
esempio ora a 220w ci sarà la 4060? prendi quella
Ma anche no! Può andare pure quanto una 3090, ma questi consumi dovrebbero restare in fascia top per gli enthusiast che non gli frega nulla di energia e costi.
vedila cosi, prendi la scheda in base ai watt e non al nome, ma a parità di watt avrai l incremento percentuale dato dal nodo e dall architettura...
esempio ora a 220w ci sarà la 4060? prendi quella
Boh io avrei voluto una scheda da 150W max che prendesse il posto della mia 1060, non ho alcuna voglia di prendere un altro alimentatore e case per gestire questi consumi, ma mi sa che ormai sogno :D
amon.akira
30-05-2022, 14:28
Ma anche no! Può andare pure quanto una 3090, ma questi consumi dovrebbero restare in fascia top per gli enthusiast che non gli frega nulla di energia e costi.
uno compra in base a certe preferenze
performance, prezzo, consumi (in ottica calore tipo in case itx o silenziosi) ma metterei in ultimo in base al nome
quindi a seconda delle preferenze uno vede
ho nel case una gpu che mi sta bene consumi max 200w di 2anni fa, oggi se compro un equivalente 200w quante prestazioni ottengo in piu? e quanto ci devo rimettere come soldi tra il nuovo e la vendita dell usato? e cosi capisco se mi conviene cambiare o aspettare la prossima generazione per avere un salto piu marcato
Boh io avrei voluto una scheda da 150W max che prendesse il posto della mia 1060, non ho alcuna voglia di prendere un altro alimentatore e case per gestire questi consumi, ma mi sa che ormai sogno :D
perchè ragioni in base al nome, mettiamo caso in futuro non faranno piu x60 sotto i 250w, che fai non aggiorni mai piu anche se arriva un integrata da 15watt che fa meglio della tua da 150w solo perchè non è un x60? a te dovrebbe importare solo di prezzo prestazioni e consumi (nel tuo caso)
StylezZz`
30-05-2022, 15:14
uno compra in base a certe preferenze
performance, prezzo, consumi (in ottica calore tipo in case itx o silenziosi) ma metterei in ultimo in base al nome
quindi a seconda delle preferenze uno vede
ho nel case una gpu che mi sta bene consumi max 200w di 2anni fa, oggi se compro un equivalente 200w quante prestazioni ottengo in piu? e quanto ci devo rimettere come soldi tra il nuovo e la vendita dell usato? e cosi capisco se mi conviene cambiare o aspettare la prossima generazione per avere un salto piu marcato
'60 è sempre stata fascia media, e come tale ci si aspetta anche dei consumi adeguati, oggi invece per avere consumi simili dovrei prendere una '50 (fascia bassa) e pagarla anche di più! La scusa delle performance migliori rispetto la gen precedente non attacca, la vera innovazione sta nell'aumentare le performance mantenendo i consumi (o ancora meglio, abbassarli!) per ogni fascia.
Poi figuriamoci, con i tempi che corrono e i problemi energetici, queste schede per me sono già morte ancora prima di uscire.
perchè ragioni in base al nome, mettiamo caso in futuro non faranno piu x60 sotto i 250w, che fai non aggiorni mai piu anche se arriva un integrata da 15watt che fa meglio della tua da 150w solo perchè non è un x60? a te dovrebbe importare solo di prezzo prestazioni e consumi (nel tuo caso)
Senza contare che la 1060 è un chip da 200mmq, praticamente equiparabile alla 3050 stampata su GA107...
Sono ragionamenti di 5/10 anni fa, non si raddoppiano piu' le performance con la meta' del consumo e calore generato ne' si puo' pensare pagare una fascia medio/bassa 200/300 euro.
fraussantin
30-05-2022, 15:35
Cmq va anche detto che sti teraflipper del cavolo vengono usati a cazzum.
Se si trovasse il verso di sfruttarli a dovere...
Ma ormai è chiaro che ottimizzare costa invece vendere gpu rende..
StylezZz`
30-05-2022, 15:50
Sono ragionamenti di 5/10 anni fa, non si raddoppiano piu' le performance con la meta' del consumo e calore generato
Eppure mi risulta che AMD ci riesca a mantenere i consumi, quindi non sono ragionamenti di ''10 anni fa'', ma semplicemente nvidia ha cannato con ampere, e molto probabilmente anche con lovelace. Mi sembra di rivedere Fermi.
ne' si puo' pensare pagare una fascia medio/bassa 200/300 euro.
Questo lo pensa chi non sa aspettare e apre il portafoglio con facilità ad ogni nuova serie, è chiaro che nvidia/amd non abbasseranno mai i prezzi se voi continuerete a eccitarvi e fare anche le file.
Io ho una Pascal quindi con me cascano male.
Le poche AMD che ho avuto consumavano quanto un Nvidia e mezzo veramente.
L'ultima serie mi sembrava equivalente il discorso nonostante i verdi usassero un pp alla zuava, sulle nuove vedremo quando sono fuori ma il trend questo e', basta vedere anche cosa succede sulle CPU.
Dobbiamo sottostare alle leggi della fisica e del silicio, fini tanto che lo useremo.
Il progresso avanza, la vita cambia, ci si puo' lamentare, adattare o cambiare hobby/sport, tutto lecito, nessuno e' obbligato a comprare.
Sperare in qualcosa di diverso dalla realta' pero' rimane nell'ambito onirico della fantasia.
mikael84
30-05-2022, 16:30
Senza contare che la 1060 è un chip da 200mmq, praticamente equiparabile alla 3050 stampata su GA107...
Su Ampere sarebbe stato un chip da 100mm2, così facendo JHH poteva pure migliorare qualcosina sui prezzi, visto che poteva ridurre un tantino i consumi e PCB. Sui 5nm ammettendo 88mt xmm2 diverrebbe da 50mm2 con il costo per wafer 4x.
ora già un 200mm2 è piuttosto facile da capire che non può più costare quanto costava la 1060 sul 16nm.
Sono ragionamenti di 5/10 anni fa, non si raddoppiano piu' le performance con la meta' del consumo e calore generato ne' si puo' pensare pagare una fascia medio/bassa 200/300 euro.
E' un pò come quando mi assillavano sulla 8800gtx, che costava meno della 2080ti, una stampata quasi 20anni fa su un 484mm2 a 90nm l'altra a 754 sui 16.
Già da 16nm a 5nm abbiamo un costo del 4x sul wafer.
Con 88mt x mm2 potrebbe farti la 1080ti con soli 118mm2, ed a lui converrebbe per le rese maggiori, clock o consumi decisamente migliori, ma salendo già a 200mm2 gli costerebbe di più e non gli converrebbe più. Quindi già quel 200mm2 ha un suo costo a 5nm e fa capire quanto ci lucrava con le vecchie, malgrado prezzi più bassi.
AD102 avrà un die da 600mm2.
Ora figuriamoci a fare paragoni con 1060/1070.:p
Senza considerare i costi di ricerca e sviluppo e tutti gli altri derivati.
Cmq va anche detto che sti teraflipper del cavolo vengono usati a cazzum.
Se si trovasse il verso di sfruttarli a dovere...
Ma ormai è chiaro che ottimizzare costa invece vendere gpu rende..
Il warp stall, argomento complesso, soprattutto per tutti gli ordini in cui avvengono. purtroppo sono limiti difficili da bypassare.
Una 3090 ad esempio ha 336 warp da far lavorare, un warp è equivalente ad un thread CPU.
Se potessi aprire un task manager e monitorare i warp, ti faresti due risate, magari mentre esegui i toli ubisoft.:p
Ampere e turing soffrono di poco sfruttamento, troppo poco accesso in banda ed a latenze altissime che causano stalli, errori, cache miss. Ampere rispetto a turing, cerca di migliorare il tutto con la l1 interna.
La grossa l2 interna di lovelace, dovrebbe migliorare proprio quest'aspetto.:)
mikael84
30-05-2022, 16:42
Eppure mi risulta che AMD ci riesca a mantenere i consumi, quindi non sono ragionamenti di ''10 anni fa'', ma semplicemente nvidia ha cannato con ampere, e molto probabilmente anche con lovelace. Mi sembra di rivedere Fermi.
Bisogna vedere cosa avrebbe tirato fuori con gli 8nm di samsung. AMD usa un 7nmp, e la classe x60 addirittura con il 6EUV, entrambi quasi a livelli teorici di un 5nm base.
44mm2 x mt contro gli oltre 50mm2 x mm2, questo gli ha permesso di giocare con le cache, con samsung non poteva usare una densità così elevata. Non a caso Ampere HPC l'ha fatto sui 7nm perchè serviva più densità.
Queste cose in ambito tecnico, vanno prese in considerazione.:)
Bisogna analizzare anche queste cose.
StylezZz`
30-05-2022, 17:19
Bisogna vedere cosa avrebbe tirato fuori con gli 8nm di samsung. AMD usa un 7nmp, e la classe x60 addirittura con il 6EUV, entrambi quasi a livelli teorici di un 5nm base.
44mm2 x mt contro gli oltre 50mm2 x mm2, questo gli ha permesso di giocare con le cache, con samsung non poteva usare una densità così elevata. Non a caso Ampere HPC l'ha fatto sui 7nm perchè serviva più densità.
Queste cose in ambito tecnico, vanno prese in considerazione.:)
Bisogna analizzare anche queste cose.
Certo ma siamo d'accordissimo su questo, la mia era una risposta al ''sono ragionamenti di 10 anni fa'', come se oggi non fosse più possibile sfornare schede con consumi ridotti...a questo giro il vantaggio è di AMD.
SinapsiTXT
30-05-2022, 17:37
Certo ma siamo d'accordissimo su questo, la mia era una risposta al ''sono ragionamenti di 10 anni fa'', come se oggi non fosse più possibile sfornare schede con consumi ridotti...a questo giro il vantaggio è di AMD.
Probabilmente se uno cerca schede con consumi ridotti deve cercare soluzioni per HTPC o similari.
StylezZz`
30-05-2022, 18:05
Probabilmente se uno cerca schede con consumi ridotti deve cercare soluzioni per HTPC o similari.
Ridotti nel senso di non superare i 250W in fascia '70 :rolleyes: , già una 3070 la trovo eccessiva, anche se si riesce comunque a mantenerla buona facendo undervolt, con una 4070 la vedo dura, ma vedremo...
mikael84
30-05-2022, 18:17
Certo ma siamo d'accordissimo su questo, la mia era una risposta al ''sono ragionamenti di 10 anni fa'', come se oggi non fosse più possibile sfornare schede con consumi ridotti...a questo giro il vantaggio è di AMD.
Si puoi, ma è una coperta corta, l'efficienza dei PP è minima al contrario della densità. Qua sta anche alla bravura degli ingegneri cercare la massima efficienza.
Il 5nm di TSMC è quasi 2 volte più denso, ma permette circa un +15 perf teoriche, o circa +25% perf in eLVT (bassissima dispersione) ed un -20-30 sui consumi su un 7nm liscio.
Come vedi hai ben poca manovra.
Se Ampere la 3090ti fosse scritta sui 7nm, potevo avere il 20/30% in meno dei consumi o tenermi i consumi aumentando i clock, augurandomi che i progettisti abbiano fatto un buon lavoro sulla dispersione delle aree (tra logica-cache), altrimenti neppure quelli vedi.:)
I consumi finali cmq non si sanno, la 4070 è meno della metà della 4090 da 450w, con metà ram ed una circuiteria che sarà ben minore con annesse perdite.
OrazioOC
30-05-2022, 18:29
Senza contare che la 1060 è un chip da 200mmq, praticamente equiparabile alla 3050 stampata su GA107...
Altri tempi, altri chip, ma la linea pascal era tanta roba e la 1060 una delle schede meglio riuscite di sempre(senza togliere nulla alla 480/580 eh).
Purtroppo o per fortuna, turing prima e ampere poi hanno tracciato la via per chip molto più complessi e potenti anche in altri ambiti.
Oggi in linea teorica la sostituta della 1060 è davvero la 3050, il che è tutto dire.:rolleyes:
Diciamo che rispetto la precedente GTX 960 il passaggio a 1060 é stato ponderoso, e con Pascal si é passati dai 28 ai 16nm.
Se volevano potevano anche fare un chip da 600mmq, ma oggettivamente non é che ne valesse la pena a quel tempo, e credo che Nvidia abbia già tenuto in considerazione il successivo step a Turing e non é che la concorrenza abbia offerto chissà che...
Oggi un po' tutti i chip sono stati ricalibrati, anche la 3050 ha avuto un bel boost rispetto la 1650, e oggettivamente a 1080p ci gira qualunque cosa, senza contare il supporto al dlss.
Ciò che ha lasciato l'amaro in bocca sono stati esclusivamente i prezzi, la 3050 per quanto ottima costa comunque più della 2060 liscia al suo esordio e performa meno ma c'è da dire che lato msrp dovrebbe costare 249$ contro i 349$ di 2060, in condizioni normali ora dovremmo essere sommersi di promo con prezzi anche al di sotto dell'msrp ma l'influenza di questi due anni é ancora bella presente seppur decisamente più gestibile.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Diciamo che rispetto la precedente GTX 960 il passaggio a 1060 é stato ponderoso, e con Pascal si é passati dai 28 ai 16nm.
970 -> 2070 -> ???
Quest'anno è un grosso punto interrogativo per me.
Io sono con 980ti, sicuramente opto per il cut di AD104, per me già sarebbe un salto gigantesco quasi un 3x di performance + dlss
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
31-05-2022, 00:15
Altri tempi, altri chip, ma la linea pascal era tanta roba e la 1060 una delle schede meglio riuscite di sempre(senza togliere nulla alla 480/580 eh).
Purtroppo o per fortuna, turing prima e ampere poi hanno tracciato la via per chip molto più complessi e potenti anche in altri ambiti.
Oggi in linea teorica la sostituta della 1060 è davvero la 3050, il che è tutto dire.:rolleyes:
La x50 rimane x50, il problema sono i costi che lievitano notevolmente per una fascia da 200 euro.
Ora AD106 avrà un die da 200mm2, ma rispetto a Pascal il die costa 4 volte in più, ed i consumi più elevati costringono a PCB ben più complessi (questi hanno un'influenza sui consumi finali .:)
La 1060 con una base di 88mt x mm2 a 5nm sarebbe un chip da 50mm2(l'integrata di Meteor lake avrà un die da 38mm2). Ovvero neppure un GPC di Lovelace.
Paradossalmente lucrava più con Pascal che con i nuovi chip (salvo i prezzi del mercato pazzo mining)
Il die della 1080 lo pagava 50 euro andando bene e pcb con 5 induttori in croce.:)
https://tpucdn.com/review/nvidia-geforce-gtx-1080/images/front_small.jpg
Sono ragionamenti di 5/10 anni fa, non si raddoppiano piu' le performance con la meta' del consumo e calore generato ne' si puo' pensare pagare una fascia medio/bassa 200/300 euro.
E perche' mai? Cosa previene nvidia e amd dal fare chip da 200 mm2 o meno sui nuovi nodi?
mikael84
31-05-2022, 15:22
NVIDIA GeForce RTX 4090 Graphics Card - August 2022 Launch
NVIDIA GeForce RTX 4080 Graphics Card - September 2022 Launch
NVIDIA GeForce RTX 4070 Graphics Card - October 2022 Launch
Interessante questo pezzo, che mi auguro veramente:
"Greymon55 is also expecting that the GeForce RTX 40 series will be available at MSRP and won't have inflated prices like the existing lineup".
https://wccftech.com/nvidia-geforce-rtx-4090-in-august-rtx-4080-in-september-rtx-4070-graphics-card-in-october-launch-rumor/
E perche' mai? Cosa previene nvidia e amd dal fare chip da 200 mm2 o meno sui nuovi nodi?
Si ci sarà una scheda da 200mm2, la AD106, però probabilmente debutterà più tardi.
amon.akira
31-05-2022, 16:09
se sarà 10752cc la x80 a un buon msrp potrebbe essere veramente interessante se proporzionale con la differenza di prezzo dalla x90
spero sia cosi e nn il 103cut
E perche' mai? Cosa previene nvidia e amd dal fare chip da 200 mm2 o meno sui nuovi nodi?I chip più piccoli arrivano sempre dopo, a volte anche a distanza di un anno.
Per ora hanno annunciato solo 4070 - 4080 e 4090, quest'ultima attesa per agosto a le altre due entro l'autunno.
La 4060 non si sa sarà ricavata da AD104, comunque per AD106 credo se ne parli per fine anno o Q1 2023.
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
31-05-2022, 16:52
se sarà 10752cc la x80 a un buon msrp potrebbe essere veramente interessante se proporzionale con la differenza di prezzo dalla x90
spero sia cosi e nn il 103cut
Si dice che dovrebbe presentare un evento per luglio. La 4080 a buon MSRP mi interesserebbe non poco.
Su tale chip bisogna avere conferme ufficiali, se full, ci sarà una 4080ti AD102, se è leggermente cuttato per rese, stessa cosa, al massimo ci faranno un refresh con le micron 24 gb/s, se gli manca un GPC, la situazione diventa problematica.
4080 full vorrebbe dire anche 4070ti su tale chip, e già la cosa si fa interessante.
Sono curioso di vedere i grafici 4080 vs 3080, che si inventa, perchè o l'ha scorporata, oppure avrà qualche asso come il RT, soprattutto se il chip non dovesse essere full.
Thunder-74
31-05-2022, 17:56
Però strano che partano con la 4090, o hanno già buone rese, o saranno con il contagocce, oltretutto, anche per questo motivo
Inviato dal mio iPhone X utilizzando Tapatalk
Però strano che partano con la 4090, o hanno già buone rese, o saranno con il contagocce, oltretutto, anche per questo motivo
Inviato dal mio iPhone X utilizzando Tapatalk
IMHO:
1. Avrà prezzi assurdi
2. Vogliono fare fuori le 3xxx che hanno ancora prezzi molto alti
3. Appena i prezzi calerano e/o AMD farà la sua mossa, allora usciranno le altre.
mikael84
31-05-2022, 18:23
Però strano che partano con la 4090, o hanno già buone rese, o saranno con il contagocce, oltretutto, anche per questo motivo
Inviato dal mio iPhone X utilizzando Tapatalk
La 4090 è piuttosto devastata 16k cc su 18,4k cc, ci può stare un debutto anticipato, anche per smaltire le ampere. In ogni caso la 4080 dovrebbe debuttare un mese dopo:)
OrazioOC
31-05-2022, 18:33
La 4090 è piuttosto devastata 16k cc su 18,4k cc, ci può stare un debutto anticipato, anche per smaltire le ampere. In ogni caso la 4080 dovrebbe debuttare un mese dopo:)
Possibile che vengano svelate entrambe a luglio con il lancio della seconda a distanza di un mese?Significherebbe avere già in mano le specifiche di AD102 e AD103...
I transistor, ad esempio
Le schede di oggi sono decisamente più complesse del passato. Da qui i costi superiori
fraussantin
31-05-2022, 18:40
IMHO:
1. Avrà prezzi assurdi
2. Vogliono fare fuori le 3xxx che hanno ancora prezzi molto alti
3. Appena i prezzi calerano e/o AMD farà la sua mossa, allora usciranno le altre.Ovvio che finche non avranno fatto fuori le 3000 non cacceranno schede di pari potenza o poco superiori.
devAngnew
31-05-2022, 19:29
La 4090 è piuttosto devastata 16k cc su 18,4k cc, ci può stare un debutto anticipato, anche per smaltire le ampere. In ogni caso la 4080 dovrebbe debuttare un mese dopo:)
Non esageriamo sono solo 2000 cuda in meno su 18000 :oink:
I transistor, ad esempio
Le schede di oggi sono decisamente più complesse del passato. Da qui i costi superiori
È sempre stato cosi ad ogni produzione delle nuove gpu (nuovi processi, gpu complesse) però oggi abbiamo nuovi software che assistono nella progettazione e AI quindi è più semplice e non viceversa.
Però strano che partano con la 4090, o hanno già buone rese, o saranno con il contagocce, oltretutto, anche per questo motivo
Inviato dal mio iPhone X utilizzando Tapatalk
Strano si, centra la concorrenza ? Vedremo. :D
Ovvio che finché non avranno fatto fuori le 3000 non cacceranno schede di pari potenza o poco superiori.
Aspetta e spera, le dovranno svendere, i prezzi sono troppo alti, siamo a fine gen., a proposito perchè in cina sono sotto il market share, i miners si son stancati eppure il tempo è denaro :sofico:
mikael84
31-05-2022, 20:09
Possibile che vengano svelate entrambe a luglio con il lancio della seconda a distanza di un mese?Significherebbe avere già in mano le specifiche di AD102 e AD103...
Le schede le lancerà un mese dopo l'altro (almeno così dicono), ma avrà gà tutto pronto, o sta ultimando a livello di bios. per il resto parlerà di architettura, RT core, AI ed altre cosette.
Anche Lisa ha presentato la 6900 insieme alle altre, ma questa è uscita un mese dopo.:)
Non esageriamo sono solo 2000 cuda in meno su 18000 :oink:
Quasi 2 GPC non sono per niente pochi per una gamma Titan, anzi.
Non è che se ne hai 50k, ne puoi levare 10 ed è ok, tanto su 50...:p
devAngnew
01-06-2022, 10:46
cut
Quasi 2 GPC non sono per niente pochi per una gamma Titan, anzi.
Non è che se ne hai 50k, ne puoi levare 10 ed è ok, tanto su 50...:p
Il problema è che stai/state pensando alla vecchia titan non la nuova; il divario tra x90 x90ti sarà di pochi punti percentuali. ;)
albero77
01-06-2022, 11:32
Possibile che vengano svelate entrambe a luglio con il lancio della seconda a distanza di un mese?Significherebbe avere già in mano le specifiche di AD102 e AD103...
Per me il lancio della 4090 ad agosto è un pò meh...Gia mi vedo la gente in spiaggia a refreshare sui vari siti. Curioso di sapere come agirà il tizio che prese la 3080 fe sulla tazza:asd:
Ale55andr0
01-06-2022, 11:37
Per me il lancio della 4090 ad agosto è un pò meh...Gia mi vedo la gente in spiaggia a refreshare sui vari siti. Curioso di sapere come agirà il tizio che prese la 3080 fe sulla tazza:asd:
Tanto meglio, meno richiesta, meno cresta, lasciamole nello scaffale e vediamo che fanno dopo due anni di prese in giro e schede date ai miners....:rolleyes:
Cmq la cosa della tazza a me fa pensare solo al perchè lancio fulmini contro chi posa lo smartphone sul tavolo della cucina.
mikael84
01-06-2022, 11:42
Il problema è che stai/state pensando alla vecchia titan non la nuova; il divario tra x90 x90ti sarà di pochi punti percentuali. ;)
Non sto pensando ad alcuna vecchia Titan, ho semplicemente detto che per rese, parte già devastata. In proporzione non è molto, ma sono sempre quasi 2 GPC disabilitati. Quindi al debutto ci può stare benissimo.
Se debutti con la 4090ti allora si può dire che hai già ottime rese.;)
ninja750
01-06-2022, 14:20
Per ora hanno annunciato solo 4070 - 4080 e 4090, quest'ultima attesa per agosto a le altre due entro l'autunno.
a me sembra che non hanno annunciato niente e si parla solo sempre di leak. sbaglio?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.