View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
fraussantin
31-07-2023, 22:23
Faccio anche io la spesa almeno due volte alla settimana in catene tipo Esselunga, Tigros, Iper (non hard discount) e confermo in pieno i numeri che hai riportato, +20/30%, 100% è una sparata fuori dal mondo, onestamente non capisco il senso di fare disinformazione a questo livello.
https://ilsalvagente.it/2023/07/07/discount-dove-finita-la-convenienza/
qui un articolo leggermente dettagliato , ma non completo. ( non fermatevi alla prima slide chè è solo una media che include anche articoli costosi)
come detto prima l'aumento del prezzo base è stato notevole sui prodotti che costavano poco , per quelli venduti a peso d'oro è stato poco , e piuttosto hanno ridotto gli sconti a volantino o peggio ancora han fatto un downsizing.
in sostanza per chi comprava senza guardare al prezzo o alle offerte ,l'aumento è stato relativamente contenuto , ma per il cliente attento , che poi è quello che si trova anche più in difficoltà, l'aumento è stato notevole.
di certo non il 100% , ma mediamente piu del 30%
di certo il paniere dell'istat andrebbe rivisto
mikael84
31-07-2023, 22:39
Possiamo parlare quanto vogliamo dei rincari, ma nelle GPU è tutta speculazione. I costi di tanti componenti (salvo le mobo che cmq sono molto più complesse) sono ai minimi. Le ram non costano più nulla.
Lo disse Lisa di AMD il gioco che fa lei e suo cugino.
fraussantin
31-07-2023, 22:45
Possiamo parlare quanto vogliamo dei rincari, ma nelle GPU è tutta speculazione. I costi di tanti componenti (salvo le mobo che cmq sono molto più complesse) sono ai minimi. Le ram non costano più nulla.
Lo disse Lisa di AMD il gioco che fa lei e suo cugino.Ma certamente.
E Sicuramente buona parte è speculazione anche nei rincari dei supermercati.
Era solo per puntualizzare che il prezzo medio ha poco senso.
OrazioOC
01-08-2023, 07:53
Possiamo parlare quanto vogliamo dei rincari, ma nelle GPU è tutta speculazione. I costi di tanti componenti (salvo le mobo che cmq sono molto più complesse) sono ai minimi. Le ram non costano più nulla.
Lo disse Lisa di AMD il gioco che fa lei e suo cugino.
Dipende ancora per quanto tempo riescono a rifilare le gpu ad altri target che non siano i reali clienti finali, i pc gamer. :D
Negli ultimi 2/3 anni gli è andata grassa per il mining, ora c'è l'IA, ma dopo? Io ci starei attento a proporre chip che non sono grossi neanche 200 mm^2 a 450 euro, sia mai che qualcosa vada storto e che non rimangano solo i gamer come clienti finali. :stordita:
mikael84
01-08-2023, 12:13
Ma certamente.
E Sicuramente buona parte è speculazione anche nei rincari dei supermercati.
Era solo per puntualizzare che il prezzo medio ha poco senso.
Dipende ancora per quanto tempo riescono a rifilare le gpu ad altri target che non siano i reali clienti finali, i pc gamer. :D
Negli ultimi 2/3 anni gli è andata grassa per il mining, ora c'è l'IA, ma dopo? Io ci starei attento a proporre chip che non sono grossi neanche 200 mm^2 a 450 euro, sia mai che qualcosa vada storto e che non rimangano solo i gamer come clienti finali. :stordita:
l'IA sarà sempre più redditizia, ed nvidia ci investirà sempre di più.
Sulle GPU, i prezzi impazzano perchè c'è un monopolista, leader in tutto, ed una concorrenza nulla che sfrutta la sua onda.
La concorrenza ci sarebbe anche in questo campo, ma i concorrenti non sono in grado di tenere testa minimamente.
Per vedere una piccola "guerriglia", servirebbe affrontare il monopolista con un nodo di vantaggio, come nel campo CPU o con un'architettura migliore.
Pensate come sarebbe Intel se AMD dovesse giocarsela a pari nodo, con la serie 5, o come stava facendo AMD con la serie 5 senza Intel.
Con la serie 6 GPU, AMD si è trovata un nodo strepitoso il 7nm HP (quasi un 5nm senza la sua densità), ed ha costretto JHH a tirare fuori una 3080 a 699, una 3060ti a 399, una simil 2080ti a 499. Dopo è successo quello che sappiamo...
Anche AMD quando ha potuto, ha fatto tremare JHH. Resto dell'idea che se lisa avesse le carte giuste se la sarebbe giocata, idem intel, se potesse andrebbe a prendersi quote.:)
mikael84
01-08-2023, 16:58
Interessante la roadmap di Micron.
G7 ancora lontane, ma in esse viene mostrato 16-24 gb, questo sta a significare che la Micron e le g7 in generale a differenza delle samsung serie W, avranno la tripli densità, ovvero 3gb per canale.
Un 384bit può essere configurato in 24 o 32gb, idem sulla fascia bassa, i 128bit possono essere configurati a 12.
https://i.postimg.cc/N0PvZKbV/micron.png
ColdWarGuy
01-08-2023, 18:40
in sostanza per chi comprava senza guardare al prezzo o alle offerte ,l'aumento è stato relativamente contenuto , ma per il cliente attento , che poi è quello che si trova anche più in difficoltà, l'aumento è stato notevole.
di certo non il 100% , ma mediamente piu del 30%
di certo il paniere dell'istat andrebbe rivisto
Che è esattamente quello che ho detto io e qualcun'altro, 100% è una "boutade" , ergo il 2X prezzo delle GPU è un fenomeno a sè stante, fuori dal mondo.
Interessante la roadmap di Micron.
G7 ancora lontane, ma in esse viene mostrato 16-24 gb, questo sta a significare che la Micron e le g7 in generale a differenza delle samsung serie W, avranno la tripli densità, ovvero 3gb per canale.
Un 384bit può essere configurato in 24 o 32gb, idem sulla fascia bassa, i 128bit possono essere configurati a 12.
https://i.postimg.cc/N0PvZKbV/micron.png
Se le g7 sono lontane e le g6x sono esclusive nvidia, voglio vedere che farà amd con le 8000.
Hbm? Ci aveva provato, ma non mi sembrava fosse andata granché bene
mikael84
01-08-2023, 21:34
Se le g7 sono lontane e le g6x sono esclusive nvidia, voglio vedere che farà amd con le 8000.
Hbm? Ci aveva provato, ma non mi sembrava fosse andata granché bene
lo standard g7 andrà a sostituire le g6, quindi potrà utilizzare quelle samsung- o variante hynix tranquillamente. Non è vincolata da Micron.:)
fraussantin
01-08-2023, 21:38
Se le g7 sono lontane e le g6x sono esclusive nvidia, voglio vedere che farà amd con le 8000.
Hbm? Ci aveva provato, ma non mi sembrava fosse andata granché beneOddio coi prezzi che fanno potrebbero anche usare hbm , ma la serie 8000 non esce fra un anno?
Potrebbero usare tranquillamente g7
Anzi sarebbe almeno una giustificazione valida per eventuali ritardi :asd:
mikael84
01-08-2023, 21:52
Oddio coi prezzi che fanno potrebbero anche usare hbm , ma la serie 8000 non esce fra un anno?
Potrebbero usare tranquillamente g7
Anzi sarebbe almeno una giustificazione valida per eventuali ritardi :asd:
Le HBM al tempo (quelle usate da Vega) stavano a circa 150$ + 25 di interposer. 175$, le g5 costavano meno della metà, ed erano più semplici da instradare. Tuttavia, le HBM portavano un vantaggio drastico sul die. Per arrivare alla banda delle hbm ti serviva un bus da 512bit, mentre le HBM erano equivalenti ad un 128bit, e non consumavano quasi nulla.
Quindi non era poi così malvagia come idea, anzi, direi bravo Koduri.
Sulle fury è stato un flop, in quanto non c'erano i chip da 2gb.
Ora come ora, con le HBM3, usando le basic di Hopper, puoi impilare 2 chip da 16gb (32gb) x 1,3tb/s di banda. Ed il bus, risulterebbe l'equivalente di un 128bit, ovvero quello della 4060.:)
ColdWarGuy
02-08-2023, 08:22
"It looks like we might see another crypto-like GPU shortage of gaming GPUs, only this time it will be caused by the growing demand for AI. The shortage of AI GPUs in China has resulted in companies setting their sight on gaming GPUs, and things can take a turn here."
AI Startups & Companies See Gaming GPUs As An Alternative To Dwindling Chip Supply (https://wccftech.com/ai-startups-companies-see-gaming-gpus-as-an-alternative-to-dwindling-chip-supply/)
Nammo bene ...
caccapupu91
02-08-2023, 22:06
evviva evviva l'eurospin :asd:
Ragassuoli ci saranno delle TI o Super nel Q3?
ColdWarGuy
02-08-2023, 22:49
Le HBM al tempo (quelle usate da Vega) stavano a circa 150$ + 25 di interposer. 175$, le g5 costavano meno della metà, ed erano più semplici da instradare. Tuttavia, le HBM portavano un vantaggio drastico sul die. Per arrivare alla banda delle hbm ti serviva un bus da 512bit, mentre le HBM erano equivalenti ad un 128bit, e non consumavano quasi nulla.
Quindi non era poi così malvagia come idea, anzi, direi bravo Koduri.
Sulle fury è stato un flop, in quanto non c'erano i chip da 2gb.
Ora come ora, con le HBM3, usando le basic di Hopper, puoi impilare 2 chip da 16gb (32gb) x 1,3tb/s di banda. Ed il bus, risulterebbe l'equivalente di un 128bit, ovvero quello della 4060.:)
HBM3 Memory To Dominate In Next-Gen AI GPUs From NVIDIA & AMD (https://wccftech.com/hbm3-memory-to-dominate-in-next-gen-ai-gpus-from-nvidia-amd/)
No riguarda le GPU gaming ma è comunque di pertinenza.
mikael84
03-08-2023, 00:23
HBM3 Memory To Dominate In Next-Gen AI GPUs From NVIDIA & AMD (https://wccftech.com/hbm3-memory-to-dominate-in-next-gen-ai-gpus-from-nvidia-amd/)
No riguarda le GPU gaming ma è comunque di pertinenza.
Si naturale, il vantaggio delle HBM è abissale. I chip HPC sono costretti ad utilizzarle, la differenza è troppo elevata. I costi eventuali in quei chip non sono un problema.
Pensa che le HBM3 entro quest'anno potranno permettere in un bus analogo ai 128bit (2048bit hbm) 48gb (due modulini da 24) a quasi 1,7 tb/s.:)
Sonpazzo
03-08-2023, 06:56
Tanta robba ste hbm3
Anche come dissipazione e spazio sul PCB le HBM riducono enormemente gli ingombri.
In futuro penso non sia cosi assurdo vedere qualche APU bella grossa con HBM, anzi qualcosa si era già visto con l'i7-8809G che impilava 4GB di HBM2.
ColdWarGuy
03-08-2023, 11:52
Si naturale, il vantaggio delle HBM è abissale. I chip HPC sono costretti ad utilizzarle, la differenza è troppo elevata. I costi eventuali in quei chip non sono un problema.
Pensa che le HBM3 entro quest'anno potranno permettere in un bus analogo ai 128bit (2048bit hbm) 48gb (due modulini da 24) a quasi 1,7 tb/s.:)
Sembra tecnologia ricavata dal reverse engineering degli UFO :D
https://i.postimg.cc/VLg9T4dF/hbm.png
mikael84
03-08-2023, 12:01
Pensate che Hopper il chip HPC, con l'equivalente dei 320bit (5120 hbm), usando le HBM3 prima sfornata (16gb e 4,8), ottiene 80gb e 3 tb/s.
Con le g6x, bisognerebbe fare un clamshell per arrivare a 40gb e 840 gb/s.
Le g7 full ratio arriverebbero a 60gb e 1,28 tb/s
Niente che si avvicini minimamente. E parliamo delle prime HBM3, praticamente delle 2E
Ale55andr0
03-08-2023, 12:54
Pensate che Hopper il chip HPC, con l'equivalente dei 320bit (5120 hbm), usando le HBM3 prima sfornata (16gb e 4,8), ottiene 80gb e 3 tb/s.
Con le g6x, bisognerebbe fare un clamshell per arrivare a 40gb e 840 gb/s.
Le g7 full ratio arriverebbero a 60gb e 1,28 tb/s
Niente che si avvicini minimamente. E parliamo delle prime HBM3, praticamente delle 2E
ma Samsung non diceva di avere le G7 a 32 e 36 Gbps? :confused: con queste ultime e con classico 256bit teoricamente si farebbero già 1.15Tb/s, mentre con 384bit 1.72Tb/s e 2.3Tb/s con 512, no?
mikael84
03-08-2023, 13:09
ma Samsung non diceva di avere le G7 a 32 e 36 Gbps? :confused: con queste ultime e con classico 256bit teoricamente si farebbero già 1.15Tb/s, mentre con 384bit 1.72Tb/s e 2.3Tb/s con 512, no?
Quei valori sono da intendere come ratio massimo speculato. I 36 gb/s, probabilmente li raggiungeranno a fine ciclo o con una gen successiva( e non riguarda al momento micron).
Se guardi la roadmap micron (partner nvidia), ha un picco prefissato da raggiungere di 32 gb/s, come le g6x i 24 gb/s, che al momento li monta solo la 4080 (in DC a 22,4 neppure full).
Quindi niente 36 al momento, almeno con nvidia.
Nvidia avrebbe bloccato temporaneamente la produzione delle 4000 per dedicarsi alla AI (https://multiplayer.it/notizie/nvidia-rtx-40-la-produzione-e-stata-bloccata-secondo-alcuni-leak.html)
Ci mancava solo questa...
OrazioOC
03-08-2023, 17:20
Nvidia avrebbe bloccato temporaneamente la produzione delle 4000 per dedicarsi alla AI (https://multiplayer.it/notizie/nvidia-rtx-40-la-produzione-e-stata-bloccata-secondo-alcuni-leak.html)
Ci mancava solo questa...
https://i.redd.it/eesyo1mjgo461.jpg
nessuno29
03-08-2023, 17:44
Nvidia avrebbe bloccato temporaneamente la produzione delle 4000 per dedicarsi alla AI (https://multiplayer.it/notizie/nvidia-rtx-40-la-produzione-e-stata-bloccata-secondo-alcuni-leak.html)
Ci mancava solo questa...
Buon per AMD
Sonpazzo
03-08-2023, 18:01
Fonte? Teoll di turno? Oppure da un semplice calo di produzione estiva si urla allo scandalo :asd:
Ale55andr0
03-08-2023, 18:12
Buon per AMD
moorelawisdead = cazzata al 99%. Ma fosse vero vediamo come AMD saprà NON sfruttare la cosa :asd:
amon.akira
03-08-2023, 23:30
moorelawisdead = cazzata al 99%. Ma fosse vero vediamo come AMD saprà NON sfruttare la cosa :asd:
già abbiamo visto come ha sfruttato il rename di nvidia :asd:
mikael84
04-08-2023, 00:34
Quel tipo è l'amico di questo.
https://i.postimg.cc/3RdpRGzG/bl103.png
https://www.youtube.com/watch?v=KvDmpgDRyQU&t=963s&ab_channel=RedGamingTech
G7 a 36 con micron è impossibile.
Senza considerare il full chip a 17 GPC.:p
Questo (https://multiplayer.it/notizie/amd-niente-schede-video-di-fascia-alta-con-architettura-rdna-4.html) è per chi ancora crede nella concorrenza di AMD. Ci aspettano tempi molto più difficili di quelli attuali se la notizia si rivelasse vera.
Questo (https://multiplayer.it/notizie/amd-niente-schede-video-di-fascia-alta-con-architettura-rdna-4.html) è per chi ancora crede nella concorrenza di AMD. Ci aspettano tempi molto più difficili di quelli attuali se la notizia si rivelasse vera.
Vabbè è abbastanza presto per parlarne ma non sarebbe cosi strano, già attualmente non rivaleggia con la 4090 e anche la 4080 non la prende in tutti i contesti.
Con le 6000 aveva un vantaggio di nodo 7nm TSMC vs 8nm Samsung, ma a pari nanometria credo che anche con Ampere avrebbe avuto problemi.
Comunque vedremo.
ColdWarGuy
05-08-2023, 16:03
Altre carriole piene di soldi per giacchetta, altro che serie 4000 per nerdoni :
CoreWeave came ‘out of nowhere.’ Now it’s poised to make billions off AI with its GPU cloud (https://venturebeat.com/ai/coreweave-came-out-of-nowhere-now-its-poised-to-make-billions-off-of-ai-with-its-gpu-cloud/)
CoreWeave Accquires $2.3 Billion Debt By Putting NVIDIA H100 GPUs as “Collateral” (https://wccftech.com/coreweave-accquires-2-3-billion-debt-by-putting-nvidia-h100-gpus-as-collateral/)
Ale55andr0
06-08-2023, 09:43
"Affare: oggi al minimo storico PNY GeForce RTX 3090 24GB XLR8 Gaming UPRISING EPIC-X RGB: solo 1.140,60€!"
https://www.youtube.com/watch?v=lhckuhUxcgA
OrazioOC
06-08-2023, 09:46
"Affare: oggi al minimo storico PNY GeForce RTX 3090 24GB XLR8 Gaming UPRISING EPIC-X RGB: solo 1.140,60€!"
https://www.youtube.com/watch?v=lhckuhUxcgA
Vabbe' manco si commenta, tipici ads generati alla buona grazie al monitoraggio di keepa. :asd:
Ale55andr0
06-08-2023, 10:19
Vabbe' manco si commenta, tipici ads generati alla buona grazie al monitoraggio di keepa. :asd:
ma quale ads generato alla buona, è in evidenza nelle news di oggi qui su hwp :asd:
https://www.hwupgrade.it/news/skvideo/affare-oggi-al-minimo-storico-pny-geforce-rtx-3090-24gb-xlr8-gaming-uprising-epic-x-rgb-solo-1140-60_119012.html
fraussantin
06-08-2023, 14:37
Cmq leggevo alcuni giorni fa che le prossime radeon non saranno in fascia alta , ma solo media e bassa dite che sia probabile?
Che poi alla fine se devono scegliere meglio la fascia dove si fanno i numeri che schede da 1500 euro .
mikael84
06-08-2023, 21:03
Cmq leggevo alcuni giorni fa che le prossime radeon non saranno in fascia alta , ma solo media e bassa dite che sia probabile?
Che poi alla fine se devono scegliere meglio la fascia dove si fanno i numeri che schede da 1500 euro .
I problemi possono essere dati dai costi troppo elevati per competere in fascia alta, in base anche al loro progetto, o dall'utilizzo dei 3nm che pare colpire anche JHH.
OrazioOC
06-08-2023, 21:09
I problemi possono essere dati dai costi troppo elevati per competere in fascia alta, in base anche al loro progetto, o dall'utilizzo dei 3nm che pare colpire anche JHH.
Forse il loro chippone su rdna4 non sarebbe neanche competitivo contro gb103?Perchè inizio a pensare che sia stato tagliato in corso d'opera causa rese prestazionali "deboli" rispetto alle gpu high end blackwell(lasciando anche stare il mostro sacro BW102).
Comunque prospettive molto brutte, alla peggio si può anche shrinkare navi 31 sui 3nm per competere almeno con le prossime 5070/ti, ma così con navi 43(che sarebbe una nuova 6600/7600 xt) punti a fare concorrenza ad intel con battlemage e alla medio/bassa di nvidia, non oltre. :rolleyes:
Si ripeterebbe il copione del 2019/20, con amd con una lineup equiparabile alla medio/alta di nvidia<499 dollari.
I problemi possono essere dati dai costi troppo elevati per competere in fascia alta, in base anche al loro progetto, o dall'utilizzo dei 3nm che pare colpire anche JHH.
Può essere, però non riesco a capire come AMD dopo tanti anni non riesca ad avere un know how sulle gpu: alterna una serie con prodotti di fascia alta ad una o due serie di meri refresh con poche innovazioni e stop alla fascia alta.
Eppure ora coi Ryzen sulle CPU si è tirata decisamente su rispetto ad alcuni anni fa, non possono investire parte dei profitti derivanti dal settore CPU nel comparto grafico per colmare le lacune architetturali? O alla fine il loro scopo è integrare gpu più che discrete nelle CPU? Boh, qui se non si sveglia qualcuno la prossima generazione la RTX 5060 costerà 700€ con bus a 128 bit e prestazioni da 4060Ti... :muro:
mikael84
06-08-2023, 21:44
Forse il loro chippone su rdna4 non sarebbe neanche competitivo contro gb103?Perchè inizio a pensare che sia stato tagliato in corso d'opera causa rese prestazionali "deboli" rispetto alle gpu high end blackwell(lasciando anche stare il mostro sacro BW102).
Comunque prospettive molto brutte, alla peggio si può anche shrinkare navi 31 sui 3nm per competere almeno con le prossime 5070/ti, ma così con navi 43(che sarebbe una nuova 6600/7600 xt) punti a fare concorrenza ad intel con battlemage e alla medio/bassa di nvidia, non oltre. :rolleyes:
Si ripeterebbe il copione del 2019/20, con amd con una lineup equiparabile alla medio/alta di nvidia<499 dollari.
Bisogna sempre vedere il discorso dei costi e la possibilità di utilizzare il 3nm in tempi brevi.
Anche JHH non è detto che con la 5080 se la cavi con un 370mm2, si ritroverà in stile RDNA2 vs 3. Salto PP in efficienza non di certo così eclatante.
E' probabile che la prossima gen, si sposti soprattutto sui 4nm, nanometria che utilizzeranno parecchio anche con le CPU. Se AMD potesse tirare fuori anche un mid da 5070ti, andrebbe in linea 4090 raster (non andrebbero neppure fatti questi paragoni però)
Già con questa gen, le schede sono ibride 5-6nm, la 7600 addirittura full 6nm.
Con RDNA4 si parlava pure di integrare unità BVH per il RT, quindi non penso in un puro shrink:)
Può essere, però non riesco a capire come AMD dopo tanti anni non riesca ad avere un know how sulle gpu: alterna una serie con prodotti di fascia alta ad una o due serie di meri refresh con poche innovazioni e stop alla fascia alta.
Eppure ora coi Ryzen sulle CPU si è tirata decisamente su rispetto ad alcuni anni fa, non possono investire parte dei profitti derivanti dal settore CPU nel comparto grafico per colmare le lacune architetturali? O alla fine il loro scopo è integrare gpu più che discrete nelle CPU? Boh, qui se non si sveglia qualcuno la prossima generazione la RTX 5060 costerà 700€ con bus a 128 bit e prestazioni da 4060Ti... :muro:
AMD ha fatto il botto con la serie 6000, in quanto si è trovata un nodo strepitoso, e per di più, tralasciando del tutto matrici, o quasi del tutto RT core.
Per dire il progetto Intel, se pur ancora completamente da affinare, è decisamente avanti lato RT e tensor core.
AMD ha provato a mettere degli AI accellerator, è sono una barzelletta. Per non parlare del dual issue.
Sulla 5060 128bit a 700 euro, bah, secondo me, pur senza AMD non sarebbe cambiato nulla, anzi, AMD gli ha servito un assist, che lui ha colto.
L'unico modo per far tornare AMD competitiva, è utilizzare un nodo di vantaggio e sfruttarlo con buone architetture.
JHH oltre a costruire padelloni, si porta dietro tutta la roba del reparto HCP. I tensor core, per dire, sono quelli di Hopper che ne costa 33000k$ (ok a metà ratio mah...).:)
OrazioOC
06-08-2023, 21:58
Bisogna sempre vedere il discorso dei costi e la possibilità di utilizzare il 3nm in tempi brevi.
Anche JHH non è detto che con la 5080 se la cavi con un 370mm2, si ritroverà in stile RDNA2 vs 3. Salto PP in efficienza non di certo così eclatante.
E' probabile che la prossima gen, si sposti soprattutto sui 4nm, nanometria che utilizzeranno parecchio anche con le CPU. Se AMD potesse tirare fuori anche un mid da 5070ti, andrebbe in linea 4090 raster (non andrebbero neppure fatti questi paragoni però)
Già con questa gen, le schede sono ibride 5-6nm, la 7600 addirittura full 6nm.
Con RDNA4 si parlava pure di integrare unità BVH per il RT, quindi non penso in un puro shrink:)
Sui costi dei 3nm(e soprattutto dei 3nm by TSMC) esorbitanti e decisamente problematici da ammortare sono d'accordo, però i 4nm sono un salto magro rispetto al pp che hanno per le mani ora.
Non ce li vedo, piuttosto vedo bene i 3nm di Samsung, 15,5k a wafer sono un prezzo già meno pauroso dei 20k chiesti da TSMC.
Nel caso di amd comunque, il chippone non può essere stato scartato solo per motivi di costi, evidentemente non ci avrebbero trovato un ritorno. :rolleyes:
mikael84
06-08-2023, 22:20
Sui costi dei 3nm(e soprattutto dei 3nm by TSMC) esorbitanti e decisamente problematici da ammortare sono d'accordo, però i 4nm sono un salto magro rispetto al pp che hanno per le mani ora.
Non ce li vedo, piuttosto vedo bene i 3nm di Samsung, 15,5k a wafer sono un prezzo già meno pauroso dei 20k chiesti da TSMC.
Nel caso di amd comunque, il chippone non può essere stato scartato solo per motivi di costi, evidentemente non ci avrebbero trovato un ritorno. :rolleyes:
Samsung al momento pare meno costoso, però non ha la stessa qualità. :D certo con i GAAFET, migliorano abbastanza.
I 4np sono quasi dei 3nm, ma senza la densità dei 3. Sicuramente li userà per la fascia bassa x60. Per il mid chip, JHH ritarda, quindi penso che anche AMD segua. Non può tirare una simil 5070ti, a 600 euro, con la 4090 top.:D
Io continuo a sperare in una 5070ti/80 che prende la 4090, su pp samsung
nessuno29
07-08-2023, 05:56
Io continuo a sperare in una 5070ti/80 che prende la 4090, su pp samsung
Secondo me su questo non c'è dubbio, magari mancherà un pò di efficienza ma le prestazioni ci saranno (e secondo me anche i giusti chip per fascia di prezzo).
OrazioOC
07-08-2023, 08:10
Samsung al momento pare meno costoso, però non ha la stessa qualità. :D certo con i GAAFET, migliorano abbastanza.
I 4np sono quasi dei 3nm, ma senza la densità dei 3. Sicuramente li userà per la fascia bassa x60. Per il mid chip, JHH ritarda, quindi penso che anche AMD segua. Non può tirare una simil 5070ti, a 600 euro, con la 4090 top.:D
Infatti gpu del genere andrebbero pianificate sul GAAFET piuttosto che sull'attuale 3nm che propongono ora.
E già sarebbe un salto considerevole dai 5nm odierni, senza aver a che fare con costi per wafer al limite della sostenibilità(almeno per prodotti consumer, se ci devono fare solamente bw102 e bw100 andrebbe quasi bene così). :D
Comunque penso anche io per la bassa(da bw106 in giù) vadano sui 4nm, altrimenti rischi un aumento di prezzo per gpu drammatico, e già la gente si lamenta ora, figuriamoci se un chip di meno di 200 mm^2 finisce su gpu da 499 dollari. :rolleyes:
Non sarebbe la prima volta che utilizzino due pp diversi a seconda della fascia.
Pure con le Pascal utilizzarono sia il pp di TSMC che Samsung.
mikael84
07-08-2023, 11:22
Infatti gpu del genere andrebbero pianificate sul GAAFET piuttosto che sull'attuale 3nm che propongono ora.
E già sarebbe un salto considerevole dai 5nm odierni, senza aver a che fare con costi per wafer al limite della sostenibilità(almeno per prodotti consumer, se ci devono fare solamente bw102 e bw100 andrebbe quasi bene così). :D
Comunque penso anche io per la bassa(da bw106 in giù) vadano sui 4nm, altrimenti rischi un aumento di prezzo per gpu drammatico, e già la gente si lamenta ora, figuriamoci se un chip di meno di 200 mm^2 finisce su gpu da 499 dollari. :rolleyes:
No no, io intendevo AMD, come la 7600, magari la 8600 sarà in 4nmP, nodo che usa e userà in ambito CPU.:)
Nvidia ha lavorato solo su Pascal con 2 linee produttive, ed era per la x50. Ovviamente non è detto che non risucceda.
Se intel si inserisce sui 3nm di TSMC, bisognerà optare anche da samsung.:)
I GAAFET, hanno due famiglia, la prima non fa, poca densità, la seconda arriva a 190mt x mm2 max, ed arriva a valori di picco a 0,75v di +30% perf/-50 power, i 3nm di TSMC non GAAFET, arrivano a +18 perf/-32% power.
Quindi Samsung 2° gen 3 nm farà un gran bel salto, ma lo farà sulla base degli scadenti 4nm LPP, che sono mediamente simili ai 7nm di tsmc (salvo la densità).
Una serie 5000 basata su Samsung (attuale tsmc) sarebbe ciò che tutti vorremmo.
Sti cavoli delle perf/watt migliori della serie 4000, se serve a contenere i prezzi ben venga!
mikael84
07-08-2023, 12:48
Una serie 5000 basata su Samsung (attuale tsmc) sarebbe ciò che tutti vorremmo.
Sti cavoli delle perf/watt migliori della serie 4000, se serve a contenere i prezzi ben venga!
Sui costi può impattare, ma non sempre. La 4080 con un die inferiore a quello della 3070, non costa certo 700$ in più (parliamo di qualche decina di $).:)
Un pò diverso sulla fascia bassa, dove i costi impattano per forza, quindi, può darti giusto il contentino, soprattutto se i die sono grandi.
Se optano per die grossi in stile turing i miglioramenti devono esserci soprattutto lato architettura e densità, il pp di samsung potrebbe anche non garantire gli stessi clock delle attuali 4000.
Comunque considerando che hanno translato le fasce e ciò che una volta era una x50 è diventata x60ti, non è assurdo che optino per una generazione ibrida con soluzioni di fascia media basate sul pp di samsung e quelle dalla 5070 in su con TSMC.
mikael84
07-08-2023, 13:14
Se optano per die grossi in stile turing i miglioramenti devono esserci soprattutto lato architettura e densità, il pp di samsung potrebbe anche non garantire gli stessi clock delle attuali 4000.
Comunque considerando che hanno translato le fasce e ciò che una volta era una x50 è diventata x60ti, non è assurdo che optino per una generazione ibrida con soluzioni di fascia media basate sul pp di samsung e quelle dalla 5070 in su con TSMC.
turing, aveva i die giganti, in quanto era basato sullo stesso PP di Pascal, quindi stessa densità.
Turing purtroppo, come Maxwell/fury, necessitavano di un PP migliore.
Se prendiamo i GAAFET di samsung è circa il 37% più denso.
Sui 3nm di samsung, beh, ci sarà un drastico miglioramento rispetto al 4nmLPP , si parla del 30% a basse tensioni. Il 4nmLPP potrebbe lavorare a 2,3/2,5 (quanto i 7nm tsmc), certo è ben distante dai 2,7-3ghz attuali, ma con i GAAFET ci sarà un bel salto.
mikael84
08-08-2023, 12:49
Mi è comparso sulla home, a furia di postarlo qua, ma questo merita.
https://www.youtube.com/watch?v=5KZ-jY_OqUA&ab_channel=HardwareUnboxed
ColdWarGuy
08-08-2023, 13:44
Mi è comparso sulla home, a furia di postarlo qua, ma questo merita.
https://www.youtube.com/watch?v=5KZ-jY_OqUA&ab_channel=HardwareUnboxed
Eh ma c'è il DLSS 3 spento :D
OrazioOC
08-08-2023, 16:59
Mi è comparso sulla home, a furia di postarlo qua, ma questo merita.
https://www.youtube.com/watch?v=5KZ-jY_OqUA&ab_channel=HardwareUnboxed
Mi domando perchè non l'abbiano fatto prima, vista la campagna di hating continuo verso nvidia. :D
Che poi sia chiaro, la 4060 ti 16gb non doveva esistere, e la versione da 8gb era una gpu da 350 euro e non 450, però sto confronto è da ufficio inchieste. :rolleyes:
mikael84
08-08-2023, 17:37
Mi sfugge il senso del confronto, sarebbe stato meglio che confrontassero con una 6750xt visto il prezzo favorevole, si sa che la 4060ti è un mezzo aborto, in versione 16gb ancora peggio visto il tremendo value price/perf, si sa anche che la 6800xt è molto più potente di un altra fascia completamente, a livelli della 3080 in raster.
4060ti 16gb equivale a buttare soldi nel cesso, a quel punto per 100 euro in più la 6800xt ha un altro passo.
Ci sarebbe la 4070 che è ancora meglio, ma bisogna sborsare ancora di più.
Boh, non so se ci avrei fatto un video per spiegare che l'acqua è bagnata. Noia? assenza di novità? piattume? o rimarcare la simpatia per amd?:D
Comunque le tentano tutte per mettere in buona luce amd e screditare nvidia e intel:D
Mi domando perchè non l'abbiano fatto prima, vista la campagna di hating continuo verso nvidia. :D
Che poi sia chiaro, la 4060 ti 16gb non doveva esistere, e la versione da 8gb era una gpu da 350 euro e non 450, però sto confronto è da ufficio inchieste. :rolleyes:
Tempo fa pensavo ad una 6800 vs 4060ti, ma 6800xt vs 4060ti 16gb... :p
Nel nostro piccolo orticello, trovi tra i 5-600 euro, 2 6800xt, 2 3080, ma che riferimento sono... Caseking ha 2 6800 lisce a 600.
Tra un mese esce la 7800xt e questo testa una scheda eol di 3 anni fa.
Come dico da sempre, la 4060ti, ridicolizzala tecnicamente, ma non con comparative eol, che fanno letteralmente ridere.
OrazioOC
08-08-2023, 17:48
Tempo fa pensavo ad una 6800 vs 4060ti, ma 6800xt vs 4060ti 16gb... :p
Nel nostro piccolo orticello, trovi tra i 5-600 euro, 2 6800xt, 2 3080, ma che riferimento sono... Caseking ha 2 6800 lisce a 600.
Tra un mese esce la 7800xt e questo testa una scheda eol di 3 anni fa.
Come dico da sempre, la 4060ti, ridicolizzala tecnicamente, ma non con comparative eol, che fanno letteralmente ridere.
Infatti ho dato un'occhiata anche alla situa nel bel paese, fatto salvo le xfx 6800 xt dell'importatore di cui non sempre ne parlano bene, per trovarne una disponibile tocca tirar fuori almeno 650 euro, ma a sta cifra si scontra a muso duro con la 4070, e tolta la vram non ha chissà quali frecce nel proprio arco. :rolleyes:
Anche la 6800 vanilla è una scheda che sotto i 500 euro non si trova, segno che sono schede che ormai hanno detto la loro.
La 3080 di conseguenza manco le considero.
Morale della favora, o si aspettano le 7700/800 xt, oppure in quella fascia domina la 4070...
Questo sarà uno dei motivi dello spostamento delle 5000 di Nvidia al 2025?
Next-Gen NVIDIA GH200 Grace Hopper Platform with HBM3e Announced (https://www.guru3d.com/news-story/next-gen-nvidia-gh200-grace-hopper-platform-with-hbm3e-announced.html)
Fino a qualche giorno fa la 6800 liscia si trovava ancora su amazon nell'intorno dei 450€, ma è palese che parliamo di rimanenze, AMD dovrebbe presentare tutta la gamma 7000 e per ora si è limitata solo alla 7600 che di suo non è niente di che paragonata alla 6700/6700xt.
Nvidia con tutte le critiche di questo mondo ha comunque presentato tutta la lineup desktop/mobile, manca solo la 4050 desktop che alla fine sarà una 4060 cuttata a 2560cc/96bit.
Nella fascia media è veramente un delirio a sto giro...
Tra l'altro ancora nessuna news sull'FSR3, si sta procedendo molto a rilento.
mikael84
09-08-2023, 01:05
Certo che AD102, sui chip work (ex quadro), ne ha smontato tutto. Un riciclo devastante.
https://i.postimg.cc/X76LXB4Y/work.png
Infatti ho dato un'occhiata anche alla situa nel bel paese, fatto salvo le xfx 6800 xt dell'importatore di cui non sempre ne parlano bene, per trovarne una disponibile tocca tirar fuori almeno 650 euro, ma a sta cifra si scontra a muso duro con la 4070, e tolta la vram non ha chissà quali frecce nel proprio arco. :rolleyes:
Anche la 6800 vanilla è una scheda che sotto i 500 euro non si trova, segno che sono schede che ormai hanno detto la loro.
La 3080 di conseguenza manco le considero.
Morale della favora, o si aspettano le 7700/800 xt, oppure in quella fascia domina la 4070...
Infatti, ci vuole coraggio a fare quel test, con una scheda di 3 anni in esubero su qualche shop dubbio, che verrà aggiornata tra un mese.
Inoltre, non un cenno di DLSS3, dopo si lamentano se nvidia non gli manda più sample.
La 4060ti, la puoi distruggere in tutti i modi possibili, come del resto ho fatto io con i costi. Anzi, direi che quella scheda l'hanno partorita praticamente loro, con la guerra alla sola ram.:p
Questo sarà uno dei motivi dello spostamento delle 5000 di Nvidia al 2025?
Next-Gen NVIDIA GH200 Grace Hopper Platform with HBM3e Announced (https://www.guru3d.com/news-story/next-gen-nvidia-gh200-grace-hopper-platform-with-hbm3e-announced.html)
Quella era già in progetto da tempo. Al momento non ci sono variazioni per il chip HPC new gen.:)
https://i.postimg.cc/pX3sx57C/gh102.png
Ale55andr0
09-08-2023, 08:58
Mi domando perchè non l'abbiano fatto prima, vista la campagna di hating continuo verso nvidia. :D
:
non è hating, è campagna di sensibilizzazione vs il farabutto :o: "ATTENZIONE, BORSEGGIATORI, PICKPOCKEEEET"
StylezZz`
09-08-2023, 09:15
Inoltre, non un cenno di DLSS3, dopo si lamentano se nvidia non gli manda più sample
Va be, ma alla fine a cosa serve in una 4050 Ti? Solo per giocare decentemente CP77+RT a 1080p? È solo uno specchietto per le allodole in una scheda del genere e non offre un reale vantaggio.
non è hating, è campagna di sensibilizzazione vs il farabutto :o: "ATTENZIONE, BORSEGGIATORI, PICKPOCKEEEET"
E promuovere così l'altra che fa finta di competere con più VRAM, non si salva nessuno/a.
davide155
09-08-2023, 09:20
Va be, ma alla fine a cosa serve in una 4050 Ti? Solo per giocare decentemente CP77+RT a 1080p? È solo uno specchietto per le allodole in una scheda del genere e non offre un reale vantaggio.
E promuovere così l'altra che fa finta di competere con più VRAM, non si salva nessuno/a.No è l'esatto opposto.
Il dlss3 a che serve su una gpu come la 4090 che sforna centinaia di fps a qualsiasi res?
Serve soprattutto sulle gpu che faticano ad avere potenza di renderizzazione e che tramite l'iA riescono ad avere il doppio di fps con un click.
Fa molta più differenza passare da 30 a 60, che da 100 a 200.
devil_mcry
09-08-2023, 09:22
No è l'esatto opposto.
Il dlss3 a che serve su una gpu come la 4090 che sforna centinaia di fps a qualsiasi res?
Serve soprattutto sulle gpu che faticano ad avere potenza di renderizzazione e che tramite l'iA riescono ad avere il doppio di fps con un click.
Fa molta più differenza passare da 30 a 60, che da 100 a 200.
il problema è che meno fps originali generi più si vedono gli artefatti del dlss3
sulla 4090 ha il suo perché visto che molti probabilmente giocano a 120+fps e fai presto a essere CPU limited
davide155
09-08-2023, 09:28
il problema è che meno fps originali generi più si vedono gli artefatti del dlss3
sulla 4090 ha il suo perché visto che molti probabilmente giocano a 120+fps e fai presto a essere CPU limitedTecnicamente è vero, il dlss3 per lavorare al top deve avere quanti più frame base possibili, ma da possessore di 4090 anche a bassi fps, la resa visiva finale è molto meglio su dlss3 a 60fps che senza a 30fps.
StylezZz`
09-08-2023, 09:29
No è l'esatto opposto.
Il dlss3 a che serve su una gpu come la 4090 che sforna centinaia di fps a qualsiasi res?
Serve soprattutto sulle gpu che faticano ad avere potenza di renderizzazione e che tramite l'iA riescono ad avere il doppio di fps con un click.
Fa molta più differenza passare da 30 a 60, che da 100 a 200.
Si e con gli artefatti e la latenza come la mettiamo? Almeno 60fps li devi fare.
A gpu come la 4090 può servire se vuoi maxare tutto + path tracing, al momento c'è solo CP77 ma ne usciranno altri. Oppure giochi come Witcher 3 next gen, che hanno cali di frame in alcuni punti del gioco, e ti serve per forza il DLSS3 se vuoi giocarlo maxato in 4k+RT con un framerate decente.
DLSS3 su gpu sotto la 4070 è solo marketing (e qualcuno pui potrebbe anche correggermi dicendo che è marketing su tutte).
davide155
09-08-2023, 09:37
Si e con gli artefatti e la latenza come la mettiamo? Almeno 60fps li devi fare.
A gpu come la 4090 può servire se vuoi maxare tutto + path tracing, al momento c'è solo CP77 ma ne usciranno altri. Oppure giochi come Witcher 3 next gen, che hanno cali di frame in alcuni punti del gioco, e ti serve per forza il DLSS3 se vuoi giocarlo maxato in 4k+RT con un framerate decente.
DLSS3 su gpu sotto la 4070 è solo marketing (e qualcuno pui potrebbe anche correggermi dicendo che è marketing su tutte).Come dicevo all'altro utente gioco spesso a cyberpunk e con dlss3 qualità in 4k a stento sta sui 60fps, eppure è godibilissimo e non noto nessun artefatto. Di gran lunga meglio che giocare senza dlss3 a 25fps. Poco ma sicuro.
Ecco, estendi questo risultato su praticamente tutti i nuovi giochi tripla A e vedrai che il dlss3 farà molto più comodo a schede come la 4050, dove pure con fortnite traballerà in 1080, che alla 4090.
StylezZz`
09-08-2023, 10:00
Come dicevo all'altro utente gioco spesso a cyberpunk e con dlss3 qualità in 4k a stento sta sui 60fps, eppure è godibilissimo e non noto nessun artefatto. Di gran lunga meglio che giocare senza dlss3 a 25fps. Poco ma sicuro.
Ecco, estendi questo risultato su praticamente tutti i nuovi giochi tripla A e vedrai che il dlss3 farà molto più comodo a schede come la 4050, dove pure con fortnite traballerà in 1080, che alla 4090.
In giochi come fortnite sarebbe uno strazio, ma alla fine ognuno ha una percezione diversa, c'è chi per esempio non nota differenze tra 60hz e 144hz.
nessuno29
09-08-2023, 10:11
Come dicevo all'altro utente gioco spesso a cyberpunk e con dlss3 qualità in 4k a stento sta sui 60fps, eppure è godibilissimo e non noto nessun artefatto. Di gran lunga meglio che giocare senza dlss3 a 25fps. Poco ma sicuro.
Ecco, estendi questo risultato su praticamente tutti i nuovi giochi tripla A e vedrai che il dlss3 farà molto più comodo a schede come la 4050, dove pure con fortnite traballerà in 1080, che alla 4090.
Piuttosto che giocare un gioco competitivo col dlss3 partendo da bassi frame preferisco cambiare gioco. Il numeretto degli fps serve a poco se poi la qualità di gioco fa schifo.
mikael84
09-08-2023, 11:28
Va be, ma alla fine a cosa serve in una 4050 Ti? Solo per giocare decentemente CP77+RT a 1080p? È solo uno specchietto per le allodole in una scheda del genere e non offre un reale vantaggio.
E promuovere così l'altra che fa finta di competere con più VRAM, non si salva nessuno/a.
Per giocare tutti i giochi che lo integrano ad alti frame. la 4060ti è poco meno di una 4090 in 4k.
Se non serve alla 4060ti, non serve neppure alla 4090, eppure questi ultimi sono estremamente soddisfatti. Segno che non è proprio tutta fuffa.:)
In quanto testata (grossa testata), dovresti approfondire anche questo.
StylezZz`
09-08-2023, 12:35
Per giocare tutti i giochi che lo integrano ad alti frame. la 4060ti è poco meno di una 4090 in 4k
La 4050 Ti è una scheda adatta per giocare a 1080p che però ti costa 500€ se vuoi 16GB. A parità di prezzo per giocare ad alti frame a quella risoluzione, uno si prende la 6800 XT che li garantisce nativamente (oltre FSR), ed è sicuramente una gpu migliore che permette di spingersi anche in 4k...oppure si punta direttamente la ''4070''.
Costasse quanto dovrebbe costare una '50, allora se ne potrebbe parlare.
Se non serve alla 4060ti, non serve neppure alla 4090, eppure questi ultimi sono estremamente soddisfatti. Segno che non è proprio tutta fuffa.:)
Aspetta, la 4090 ha come target il 4k (e si può spingere anche oltre con DLDSR), se vuoi spremerla al massimo con raytracing e pathtracing e vuoi stare sopra i 100fps il DLSS3 ti serve eccome, ma di base ti garantisce già un framerate accettabile, cosa che la 4050 Ti nei giochi più pesanti+rt non fa, quindi rimane una feature inutile se uno è sensibile alla latenza o gli artefatti.
In quanto testata (grossa testata), dovresti approfondire anche questo.
Probabilmente avrebbe dovuto aggiungerlo nei test, ma alla fine con quello che costa e considerando le specifiche della gpu, forse non vale nemmeno la pena considerarlo...serve più a nvidia per riempire le barette colorate per poi farti vedere che va più di una 3060 Ti :stordita:
mikael84
09-08-2023, 12:50
La 4050 Ti è una scheda adatta per giocare a 1080p che però ti costa 500€ se vuoi 16GB. A parità di prezzo per giocare ad alti frame a quella risoluzione, uno si prende la 6800 XT che li garantisce nativamente (oltre FSR), ed è sicuramente una gpu migliore che permette di spingersi anche in 4k...oppure si punta direttamente la ''4070''.
Costasse quanto dovrebbe costare una '50, allora se ne potrebbe parlare.
Aspetta, la 4090 ha come target il 4k (e si può spingere anche oltre con DLDSR), se vuoi spremerla al massimo con raytracing e pathtracing e vuoi stare sopra i 100fps il DLSS3 ti serve eccome, ma di base ti garantisce già un framerate accettabile, cosa che la 4050 Ti nei giochi più pesanti+rt non fa, quindi rimane una feature inutile se uno è sensibile alla latenza o gli artefatti.
Probabilmente avrebbe dovuto aggiungerlo nei test, ma alla fine con quello che costa e considerando le specifiche della gpu, forse non vale nemmeno la pena considerarlo...serve più a nvidia per riempire le barette colorate per poi farti vedere che va più di una 3060 Ti :stordita:
Ma è proprio di quello che si discute, una 6800xt eol non dovresti confrontarla con quell'aborto fuori prezzo, o meglio, lo puoi fare tra un mese, quando AMD presenterà la nuova serie.
Tuttavia il confronto va fatto pure in RT, e mediamente sono simili, ma una ha il DLSS3, che tu, devi almeno approfondire.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/34.html
Riguardo la 4090, è una scheda potentissima, capace già di una giocabilità sublime, ma la 4060ti, in 1080p fa quasi lo stesso frame della prima, quindi se in una è buono, lo sarà anche per l'altra a res diverse.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/31.html
Anzi il DLSS3 ti aiuta con la CPU che non sta dietro.
Poi parlane male, malissimo ma dovresti parlarne in maniera trasparente, essendo una testata.
davide155
09-08-2023, 13:50
Piuttosto che giocare un gioco competitivo col dlss3 partendo da bassi frame preferisco cambiare gioco. Il numeretto degli fps serve a poco se poi la qualità di gioco fa schifo.Ma ragazzi chi gioca competitivo secondo voi si prende una 4050ti? Dai su. Si sta paragonando il culo con le 40 ore come si dice a Firenze.
Il dlss3 serve su tutta la linea, indipendentemente dalla potenza della gpu perché con un click raddoppi i frame. Poi gli artefatti e lag che millantate, sono tutti da vedere sul come e dove avvengono, ma chi vuole risparmiare ed avere comunque un buon risultato, state pur certi che attiverebbe il dlss3 anche su una 4050ti se fosse disponibile.
ColdWarGuy
09-08-2023, 14:32
I problemi possono essere dati dai costi troppo elevati per competere in fascia alta, in base anche al loro progetto, o dall'utilizzo dei 3nm che pare colpire anche JHH.
A proposito dei 3nm ... :
Apple Now Rumored To Have Secured TSMC’s Entire 3nm Supply For A Whole Year, Cutting Out The Competition (https://wccftech.com/apple-secured-100-percent-of-tsmc-3nm-support/)
è possibile una cosa del genere ? :wtf:
ultimate trip
09-08-2023, 14:46
Va a finire che se Jensen usa samsung per le 5000 ce le troveremo che scaldano di più e vanno come le 4000 :D
OrazioOC
09-08-2023, 14:53
Va a finire che se Jensen usa samsung per le 5000 ce le troveremo che scaldano di più e vanno come le 4000 :D
Se non ci si vuole ritrovare con chip grossi manco 200 mm^3 a 499 dollari direi che samsung può essere un'ottima alternativa.
E comunque in proporzione a ciò che ha fatto samsung con gli 8nm rispetto ai 7nm di tsmc, a sto giro il gap tra le due soluzioni sarà molto meno marcato. :D
ultimate trip
09-08-2023, 15:01
si certo, i costi di questa gen sono assurdi.
mi pareva cmq si dicesse che i wafer samsung costassero 15k vs 20k di tsmc. può essere?
OrazioOC
09-08-2023, 15:05
si certo, i costi di questa gen sono assurdi.
mi pareva cmq si dicesse che i wafer samsung costassero 15k vs 20k di tsmc. può essere?
Vero, ne ha anche discusso Mike a più riprese, è un bel problema ammortare 20k di wafer su gpu consumer, e più la fascia si abbassa più la cosa è drammatica.
Per questo si pensava ai 3nm di samsung oppure ai 4nm(che sarebbero dei 5nm con rese migliorate ma senza importanti aumenti nella densità dei chip).
Però è oggettivamente impensabile che i costi ricadano ancora sui consumatori, già ci siamo ritrovati una nuova 3060 a 450 euro, o anche una nuova 3050 a 350 euro.
E infatti le ripercussioni sulle vendite sono ben visibili. :rolleyes:
StylezZz`
09-08-2023, 15:11
Ma è proprio di quello che si discute, una 6800xt eol non dovresti confrontarla con quell'aborto fuori prezzo, o meglio, lo puoi fare tra un mese, quando AMD presenterà la nuova serie.
Tuttavia il confronto va fatto pure in RT, e mediamente sono simili, ma una ha il DLSS3, che tu, devi almeno approfondire.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/34.html
Riguardo la 4090, è una scheda potentissima, capace già di una giocabilità sublime, ma la 4060ti, in 1080p fa quasi lo stesso frame della prima, quindi se in una è buono, lo sarà anche per l'altra a res diverse.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/31.html
Anzi il DLSS3 ti aiuta con la CPU che non sta dietro.
Poi parlane male, malissimo ma dovresti parlarne in maniera trasparente, essendo una testata.
Il punto principale del confronto è il prezzo e la quantità di VRAM (quali altri schede da 16GB abbiamo in questa fascia di prezzo?), e ti fa notare che la 4050 Ti 16GB è un in:ciapet:ta pazzesca (non che la 8GB sia migliore), quindi con la stessa cifra meglio prendersi la 6800 XT che offre un miglior rapporto prezzo/prestazioni.
Ok non ha aggiunto il DLSS3 nei test, ma ne ha parlato dal minuto 17:13 e dice:
''And of course there's also DLSS frame generation, and depending on your use case this can be a key feature, though it's not gonna make up for the kind of performance deficit we see between the 4060 Ti 16GB and 6800 XT. Also how useful frame generation is for single player games will depend on the gamer, a lot of you have told us that you don't like it, while many of you said you love it, and Tim's feedback (si riferisce ai test condotti dal suo collega) is that's only useful under specific conditions in certain single player games, so opinions are gonna vary on that one, but for those of you playing multiplayer games it really is worse than useless, so keep that in mind if you mostly play multiplayer titles''
e su questo punto mi pare che sia stato abbastanza trasparente, a differenza di altri video come il famoso ''3070 vs 6800'' dove ha testato tutto con titoli non patchati e senza menzionare minimamente il DLSS che sgrava anche la VRAM.
ultimate trip
09-08-2023, 15:14
Vero, ne ha anche discusso Mike a più riprese, è un bel problema ammortare 20k di wafer su gpu consumer, e più la fascia si abbassa più la cosa è drammatica.
Per questo si pensava ai 3nm di samsung oppure ai 4nm(che sarebbero dei 5nm con rese migliorate ma senza importanti aumenti nella densità dei chip).
Però è oggettivamente impensabile che i costi ricadano ancora sui consumatori, già ci siamo ritrovati una nuova 3060 a 450 euro, o anche una nuova 3050 a 350 euro.
E infatti le ripercussioni sulle vendite sono ben visibili. :rolleyes:
vediamo se ad agosto amd tira fuori qualcosa di interessante e come funziona questo fsr 3. sappiamo già che sarà inferiore al dlss però se lo abilitano anche sulle 3000 nvidia magari aumenta un po' la longevità di queste schede.
La mia 3080 ha faticato a tenere Returnal in 4k con dlss performance (gran gioco cmq)
mikael84
09-08-2023, 17:24
A proposito dei 3nm ... :
Apple Now Rumored To Have Secured TSMC’s Entire 3nm Supply For A Whole Year, Cutting Out The Competition (https://wccftech.com/apple-secured-100-percent-of-tsmc-3nm-support/)
è possibile una cosa del genere ? :wtf:
Aspè, non è molto chiaro. La Apple ha bloccato la fornitura dei 3nm per un anno (almeno così dice), ma Apple usa gli N3 lisci (chiamati B/E), quindi danneggerebbe i suoi avversari, Nvidia non usa quelli ma gli N3P (HP).:)
Il punto principale del confronto è il prezzo e la quantità di VRAM (quali altri schede da 16GB abbiamo in questa fascia di prezzo?), e ti fa notare che la 4050 Ti 16GB è un in:ciapet:ta pazzesca (non che la 8GB sia migliore), quindi con la stessa cifra meglio prendersi la 6800 XT che offre un miglior rapporto prezzo/prestazioni.
Ok non ha aggiunto il DLSS3 nei test, ma ne ha parlato dal minuto 17:13 e dice:
e su questo punto mi pare che sia stato abbastanza trasparente, a differenza di altri video come il famoso ''3070 vs 6800'' dove ha testato tutto con titoli non patchati e senza menzionare minimamente il DLSS che sgrava anche la VRAM.
Ma la critica che gli ho/abbiamo rivolto, è che non ha senso fare un confronto con una scheda eol che tra un mesetto viene pure accantonata. Chi è che compra una scheda così ora, è un pò come comprare una 3080 a quei prezzi, ed ogni tanto se ne trovano.:p Caseking per dire, ha due 6800 lisce a 600.
Tra un mese, vedi i posizionamenti delle due navi32, se la 7800xt costerà 500 euro, allora il video ci sta tutto, altrimenti lo fai con la 7700.
Anzi il DLSS3 ti aiuta con la CPU che non sta dietro.
Poi parlane male, malissimo ma dovresti parlarne in maniera trasparente, essendo una testata.Del DLSS-3 ne ha parlato pure troppo. Il perché dell'esclusione è chiaro.
Non è lo stesso frame rate di quello senza, ed è il motivo per cui aiuta la CPU.
La trasparenza cercala meglio nella maggior parte delle testate che mischiano il DLSS-3 col frame rate vero.
Continua a cercarla dove non vengono neanche sottolineati i contro.
Dopodiché possiamo fare la tara dell'utilità di un sito che non segue alla lettera gli inviti Nvidia. Per me aumenta pure il peso specifico...
Ma ragazzi chi gioca competitivo secondo voi si prende una 4050ti? Dai su. Si sta paragonando il culo con le 40 ore come si dice a Firenze.
Il dlss3 serve su tutta la linea, indipendentemente dalla potenza della gpu perché con un click raddoppi i frame. Poi gli artefatti e lag che millantate, sono tutti da vedere sul come e dove avvengono, ma chi vuole risparmiare ed avere comunque un buon risultato, state pur certi che attiverebbe il dlss3 anche su una 4050ti se fosse disponibile.Sì, il DLSS-3 servirà sempre, e gli altri millantano i fatti che tu non vedi, o fai finta di...
Scommetto che le migliorie del RT e del DLSS le vedono pure i sassi, eh, l'intelligenza dell'utenza tarata sull'AI di e per Nvidia.
Se non noti la storture del DLSS-3 verso i 60fps, puoi anche giocare a low a 30fps e basta, più di quello non ti serve.
Il DLSS-3 ha senso comodamente sopra i 60fps puri, lì sicuramente dagli 80 ai 120fps tutti noteranno le differenze.
Quando serve i sensi degli utenti si arrapano, eh, questa è la coerenza che mostrate.
Il doppio con un click con solo il DLSS-3 non esiste, soprattutto quando non sei cpu limited.
Direi che non ci vuole molto a capire chi millanta cosa...
e su questo punto mi pare che sia stato abbastanza trasparente, a differenza di altri video come il famoso ''3070 vs 6800'' dove ha testato tutto con titoli non patchati e senza menzionare minimamente il DLSS che sgrava anche la VRAM.Al tempo della prova con la 3070 non c'erano patch sufficienti, la 4060 Ti con 16GB guadagna anche con l'ultima, provata da loro stessi.
Quello era un test che cercava quel problema anche considerando la prevedibile crescita nel tempo, e TLOU non era l'unico gioco che zoppicava vistosamente.
Quello faceva la parte della rampa utile a cercare i pretesti per criticare HWU.
Io cerco il pragmatismo, fossero pro AMD non basterebbero ad alzare la marea di un pelo, e comunque rimarrebbero meno sgamabili di chi mischia i grafici col DLSS-3 come se niente fosse, magari facendo il test sulla latenza limitato, buono solo a metterlo come pro.
Non serve uscire dal giardino:
https://gaming.hwupgrade.it/news/videogames/redfall-test-tecniche-di-upscaling-e-latenze_116512.html
Zoomate per il DLSS, ma niente ricerca di artefatti nel 3, test della latenza rigorosamente senza farlo dove serve, senza nemmeno nominare di striscio il discorso.
È abbondantemente ridicolo un articolo come quello. In confronto le obiezioni verso HW Unboxed fanno ridere i polli spennati (o spennabili).
Finché non vedrò un trattamento critico minimamente rapportato, il resto saranno solo pretesti partigiani.
La coerenza è la sostanza, il resto son dettagli senza dettagli....
Ale55andr0
09-08-2023, 17:35
Va a finire che se Jensen usa samsung per le 5000 ce le troveremo che scaldano di più e vanno come le 4000 :D
se col pp samsung le 5000 fossero solo un +25% più potenti per ogni fascia rispetto le corrispettive 4000 ma più competitive nel rapporto prezzo-prestazioni invece che col pp TSMC ad un +50% più potenti a +50% del costo penso che i più sceglierebbero la soluzione con Samsung, ed esulterebbero pure...
vediamo se ad agosto amd tira fuori qualcosa di interessante
Siamo ad agosto, e al massimo in AMD tirano fuori ombrellone e dito medio essendo profondamente impegnati a non fare niente
si certo, i costi di questa gen sono assurdi.
mi pareva cmq si dicesse che i wafer samsung costassero 15k vs 20k di tsmc. può essere?
Io avevo letto 30k per i wafer TSMC :sofico:
E se ci arrivassero per quanto mi riguarda possono pure invaderli i Cinesi agli altri Cinesi :asd:
Del DLSS-3 ne ha parlato pure troppo. Il perché dell'esclusione è chiaro.
cit CUT
Azz, e tu saresti imparziale?
Mamma mia :D :D :D
Mi sembra proprio che non hai le fette di prosciutto sugli occhi ma hai proprio i prosciutti interi :D :D :D
Ale55andr0
09-08-2023, 17:41
Azz, e tu saresti imparziale?
Mamma mia :D :D :D
Mi sembra proprio che non hai le fette di prosciutto sugli occhi ma hai proprio i prosciutti interi :D :D :D
Ha argomentato, ed ha una 4070 in firma, tu a parte citare un salume che hai fatto? :O
mikael84
09-08-2023, 17:46
Io avevo letto 30k per i wafer TSMC :sofico:
E se ci arrivassero per quanto mi riguarda possono pure invaderli i Cinesi agli altri Cinesi :asd:
Le prime speculazioni 2021 lo davano a 30k$, mentre ora pare confermato a 20k, 25k invece i 2nm.
Con la serie 6, probabilmente ad 1,8nm, ci si arriverà vicino ai 30.
Ha argomentato, ed ha una 4070 in firma, tu a parte citare un salume che hai fatto? :OParadossalmente e involontariamente: mi ha dato ragione! :)
OrazioOC
09-08-2023, 18:18
Le prime speculazioni 2021 lo davano a 30k$, mentre ora pare confermato a 20k, 25k invece i 2nm.
Con la serie 6, probabilmente ad 1,8nm, ci si arriverà vicino ai 30.
Li si che servirà il libretto degli assegni per la top di gamma, altro che la 4090 odierna...
ultimate trip
09-08-2023, 18:24
Siamo ad agosto, e al massimo in AMD tirano fuori ombrellone e dito medio essendo profondamente impegnati a non fare niente
.......
non dovevano far uscire le 7800? :p
Ha argomentato, ed ha una 4070 in firma, tu a parte citare un salume che hai fatto? :O
Ho solo detto che a mio parere le argomentazioni che ha portato non hanno nessun fondamento, poi difendere ancora AMD in questo momento mi sembra proprio fuori luogo.
Non vi è mai passato nemmeno per l'anticamera del cervello che se ci troviamo in questa situazione per la fascia media (che per fortuna a me non interessa per nulla) è principalmente per colpa di AMD che ha sfornato prodotti superati e senza alcuna attrattiva per i videogiocatori PC che ormai hanno fatto capire a tutti che ciò che interessa è l'innovazione e su questo Lisona è indietro anni luce.
Per giunta poi si è adeguata anche sui prezzi.....
Come ho già detto, secondo me per i videogiocatori sarebbe meglio che le GPU AMD non esistessro proprio visto che servono solo per rovinare completamente la quasi totalità dei giochi che sponsorizza, a riguardo già tremo per Starfield......
StylezZz`
09-08-2023, 18:53
Ma la critica che gli ho/abbiamo rivolto, è che non ha senso fare un confronto con una scheda eol che tra un mesetto viene pure accantonata. Chi è che compra una scheda così ora, è un pò come comprare una 3080 a quei prezzi, ed ogni tanto se ne trovano.:p Caseking per dire, ha due 6800 lisce a 600.
Tra un mese, vedi i posizionamenti delle due navi32, se la 7800xt costerà 500 euro, allora il video ci sta tutto, altrimenti lo fai con la 7700.
Sarà anche eol, ma ormai si sa che le 7800 non offriranno chissà quali migliorie rispetto le 6800, e dubito fortemente che al lancio costeranno meno, quindi una 6800 XT sui 500€ (su trovaprezzi ne trovi diverse) non è poi così male soprattutto per chi non guarda le prestazioni rt e gli va bene fsr.
Al tempo della prova con la 3070 non c'erano patch sufficienti, la 4060 Ti con 16GB guadagna anche con l'ultima, provata da loro stessi.
Quello era un test che cercava quel problema anche considerando la prevedibile crescita nel tempo, e TLOU non era l'unico gioco che zoppicava vistosamente.
Quello faceva la parte della rampa utile a cercare i pretesti per criticare HWU
Quello era un test limite, sarebbe bastato attivare DLSS e magari scalare le texture da Ultra a High (senza perdere nulla visivamente), queste cose sono state precisate? No. Fa passare un messaggio distorto che da un lato informa perchè fa vedere cosa può succedere quando si satura di brutto la VRAM, ma dall'altro disinforma e fa sembrare la 3070 inutilizzabile con i giochi nuovi e quelli che verranno a causa degli 8GB, spingendo qualche sprovveduto a vendersela per prendersi una nuova con più memoria (nvidia ma soprattutto amd ringraziano, il portafoglio meno).
Ho solo detto che a mio parere le argomentazioni che ha portato non hanno nessun fondamento, poi difendere ancora AMD in questo momento mi sembra proprio fuori luogo. Beh, se per te è fuoriluogo la situazione cambia. Potevi dirlo prima, adesso il DLSS-3 è diventato buono per induzione...
Il tuo parere senza il perché conta parecchio, l'importante è dar contro ad AMD.
Cosa non ha fondamento? Specifica, se no continui a darmi ragione, tuo malgrado.
Quello era un test limite, sarebbe bastato attivare DLSS e magari scalare le texture da Ultra a High (senza perdere nulla visivamente), queste cose sono state precisate? No. Fa passare un messaggio distorto che da un lato informa perchè fa vedere cosa può succedere quando si satura di brutto la VRAM, ma dall'altro disinforma e fa sembrare la 3070 inutilizzabile con i giochi nuovi e quelli che verranno a causa degli 8GB, spingendo qualche sprovveduto a vendersela per prendersi una nuova con più memoria (nvidia ma soprattutto amd ringraziano, il portafoglio meno).Quel test ha fatto quello che doveva fare. Lo scopo era quello, ed era dichiarato.
In pratica stai dicendo che doveva fare del tutto per minimizzare quello che voleva amplificare? Non ha senso.
Non ricominciamo con le texture Ultra = Ultra inutili.
Potevano specificarlo per chi avrebbe potuto fraintendere? Forse, magari dovevano pure dire che ad Ultra non cambia mai una cippa, mettevano il DLSS in test done non era richiesto, e via discorrendo.
In una rece generica quanti incroci dovrebbero aggiungere? Mica serve solo quello che piace a te, eh...
Il discorso torna sempre lì: In certi casi si sente la necessità di dettagli, invero essenziali per i niubbi (ehhh...), in altri non servono.
Eppure nel confronto 4060 TI vs 6800XT sembri comprenderlo il valore del contesto, no?
Nel contesto frame rate impastato col DLSS-3, messo insieme al normale, l'errore è già stato commesso, figuriamoci non mettere i contro nemmeno tra le righe.
Ancora devo leggere l'indignazione su l'impressione che può dare il DLSS-3 messo tra l'altro, ma vabbè, questa coerenza manca di rado...
Col 90% di test che ignorano i contro, l'utenza non si sbaglia di sicuro = Nvidiaaaa!!!
Ale55andr0
09-08-2023, 20:38
poi difendere ancora AMD in questo momento mi sembra proprio fuori luogo
Difendere chi prego?
secondo me per i videogiocatori sarebbe meglio che le GPU AMD non esistessro proprio visto che servono solo per rovinare completamente la quasi totalità dei giochi che sponsorizza, a riguardo già tremo per Starfield......
da parte di chi "non ha prosciutti negli occhi" :asd:. Perchè senza AMD i prezzi sarebbero più bassi e il mercato migliore, e i giochi tecnicamente ineccepibili, perchè Cyberbug, entrato nella storia dei game per il disastroso lancio dal punto di vista tecnico e divenuto vero e proprio meme (e monito) in merito e patchato per due anni per renderlo dignitoso era un gioco sponsorizzato AMD... Posto che poi, associare i bug/problemi tecnici di un gioco alla sponsorizzazione (CP2077 incluso, sia chiaro) è abbastanza ridicolo e insensato.
A leggerne di altri di sti commenti per nulla di parte e "prosciutt-less" :D
PS: Bethesda è famosa per "i pochi bug" dei suoi giochi, nel caso sarà colpa di AMD, ovviamente :asd:
StylezZz`
09-08-2023, 20:59
Quel test ha fatto quello che doveva fare. Lo scopo era quello, ed era dichiarato.
In pratica stai dicendo che doveva fare del tutto per minimizzare quello che voleva amplificare? Non ha senso
No, semplicemente doveva essere più chiaro invece di far vedere solo le situazioni limite e poi concludere dicendo ''definitive proof that 8GB of VRAM is no longer sufficient for high-end gaming'', e il DLSS lo abbiamo dimenticato? La maggioranza dei giochi testati sono stati giocati e finiti dal sottoscritto a 1440p+DLSS Quality con una 3070 senza problemi, e meno male che non era più sufficiente!
Non ricominciamo con le texture Ultra = Ultra inutili
Beato te se riesci a notare differenze mentre giochi, io con 10/10 di vista a circa 70cm dal monitor non ne vedo.
Potevano specificarlo per chi avrebbe potuto fraintendere? Forse, magari dovevano pure dire che ad Ultra non cambia mai una cippa, mettevano il DLSS in test done non era richiesto, e via discorrendo.
In una rece generica quanti incroci dovrebbero aggiungere? Mica serve solo quello che piace a te, eh...
È come se io facessi un video confronto 3070 vs 6800 concentrandomi sul raytracing e prendendo situazioni limite come CP77, e poi concludo: ''questa è la prova definitiva che la 6800 non è più sufficiente per l'high-end gaming, e sarà sempre peggio con i titoli rt in aumento''.
Che te ne pare? Tu dici che qualcuno potrebbe fraintendere? Ma mica posso considerare ogni dettaglio in una rece generica per fare piacere ai possessori AMD, eh...d'altronde sono solo un piccolo canale con quasi 1 milione di iscritti :rolleyes:
Il discorso torna sempre lì: In certi casi si sente la necessità di dettagli, invero essenziali per i niubbi (ehhh...), in altri non servono.
Eppure nel confronto 4060 TI vs 6800XT sembri comprenderlo il valore del contesto, no?
Lo comprendo e credo sia anche comprensibile per il resto, dato che viene poi specificato il perchè non è stato usato DLSS3 nei test.
Situazione diversa con il confronto 6800vs3070 dove hanno maxato tutto in nativa prendendo giochi che sono usciti male (diversi sponsorizzati AMD), e poi uscirsene superficialmente con ''8GB non vanno più bene'' :nonsifa:
No, semplicemente doveva essere più chiaro invece di far vedere solo le situazioni limite e poi concludere dicendo ''definitive proof that 8GB of VRAM is no longer sufficient for high-end gaming'', e il DLSS lo abbiamo dimenticato?Non dimentichiamo nemmeno il rasoio di Occam.
Non dicono che senza DLSS e texture Ultra non si gioca, o si gioca malissimo.
I compromessi non erano indicati(vi) nella situazione ricercata.
Beato te se riesci a notare differenze mentre giochi, io con 10/10 di vista a circa 70cm dal monitor non ne vedo.
L'articolo non voleva sottolineare le esigue differenze tra High e Ultra.
Quante cose si vedono poco in rapporto al peso, e quante di queste pesano solo sulla quantità di VRAM?
È come se io facessi un video confronto 3070 vs 6800 concentrandomi sul raytracing e prendendo situazioni limite come CP77, e poi concludo: ''questa è la prova definitiva che la 6800 non è più sufficiente per l'high-end gaming, e sarà sempre peggio con i titoli rt in aumento''.No, è come se in un test che cerca le differenze in RT, si dovesse specificare ogni 2x3 che senza RT le AMD crescono di più.
Che te ne pare? Tu dici che qualcuno potrebbe fraintendere? Ma mica posso considerare ogni dettaglio in una rece generica per fare piacere ai possessori AMD, eh...d'altronde sono solo un piccolo canale con quasi 1 milione di iscritti :rolleyes: Qualcuno potrebbe pensare che le AMD senza RT vanno poco uguale, no? Sì, ma prima dovrebbe imparare a circoscrivere il contesto.
Lo comprendo e credo sia anche comprensibile per il resto, dato che viene poi specificato il perchè non è stato usato DLSS3 nei test.Si parla di high-end e si cerca lo scenario tipico da mostrare quando la VRAM si satura. Obiettivo raggiunto.
Semper caret il bisogno di chiarezza profonda della norma che esclude i dettagli scomodi del DLSS-3, quelli, sì, utili a prescindere, o ho perso un paragrafo?
Diventerò indovino, me lo sento... :O
StylezZz`
09-08-2023, 23:47
Diventerò indovino, me lo sento... :O
No, diventerai collaboratore di HUnboxed visto che ci tieni così tanto a difenderli anche quando cannano :rolleyes:
ColdWarGuy
10-08-2023, 02:05
Aspè, non è molto chiaro. La Apple ha bloccato la fornitura dei 3nm per un anno (almeno così dice), ma Apple usa gli N3 lisci (chiamati B/E), quindi danneggerebbe i suoi avversari, Nvidia non usa quelli ma gli N3P (HP).:)
Attualmente sia per la serie M2 che per i Bionic A14/15 stanno usando N5P, immagino che i 3nm siano per gli M3, io sono comunque dell'idea che un vincolo di quel tipo a livello strategico avrebbe ripercussioni decisamente negative per TSMC, rimango quindi parecchio scettico anche se visti i super margini di Apple sono prontissimo a credere che stiano tentando la mossa.
Oggi ho buttato lo sguardo sui prezzi dei MAC mini, costano una pazzia, per dire il modello con M2 liscio (150mm2), 16GB RAM e 1TBB SSD costa 1419 euro :cool:
Al confronto giacchetta è un benefattore :D
ColdWarGuy
10-08-2023, 13:34
China’s internet giants order $5bn of Nvidia chips to power AI ambitions (https://www.ft.com/content/9dfee156-4870-4ca4-b67d-bb5a285d855c)
ordine per 100.000 A800 per un totale di 5000.000.000 USD, non male per delle schede con chip di 800mm2 :D
Non c'è quindi da meravigliarsi che stoppino la produzione delle 4000, immagino che i relativi slot presso TSMC siano stati convertiti per produrre queste galline dalle uova d'oro.
A questo punto ha ancora senso puntare su Nvidia per delle GPU gaming a prezzo sensato ?
Temo di nò.
China’s internet giants order $5bn of Nvidia chips to power AI ambitions (https://www.ft.com/content/9dfee156-4870-4ca4-b67d-bb5a285d855c)
ordine per 100.000 A800 per un totale di 5000.000.000 USD, non male per delle schede con chip di 800mm2 :D
Non c'è quindi da meravigliarsi che stoppino la produzione delle 4000, immagino che i relativi slot presso TSMC siano stati convertiti per produrre queste galline dalle uova d'oro.
A questo punto ha ancora senso puntare su Nvidia per delle GPU gaming a prezzo sensato ?
Temo di nò.
Edit Doppio
China’s internet giants order $5bn of Nvidia chips to power AI ambitions (https://www.ft.com/content/9dfee156-4870-4ca4-b67d-bb5a285d855c)
ordine per 100.000 A800 per un totale di 5000.000.000 USD, non male per delle schede con chip di 800mm2 :D
Non c'è quindi da meravigliarsi che stoppino la produzione delle 4000, immagino che i relativi slot presso TSMC siano stati convertiti per produrre queste galline dalle uova d'oro.
A questo punto ha ancora senso puntare su Nvidia per delle GPU gaming a prezzo sensato ?
Temo di nò.
È quello che ho detto tempo fa, è già da prima del mining che per Nvidia il settore gaming non è più il core buisness, lo è stato fino al 2015 quindo lanciarono Maxwell e avevano in canna Pascal, già da Turing le introduzioni di RT e tensor core fecero capire dove voleva andare a parare l'azienda.
Ricordo ancora un'intervista a JHH del 2016 o 2017 dove affermava che il futuro delle gpu sarebbe stato basato sull'AI, che da una piccola porzione di informazioni sarebbe riuscita a ricostruire intere immagini dettagliatamente.
quindi secondo voi è prevedibile un aumento dei prezzi delle 4000 da settembre? :mad:
ultimate trip
10-08-2023, 15:56
quindi secondo voi è prevedibile un aumento dei prezzi delle 4000 da settembre? :mad:
non credo che ci sia così tanta richiesta di 4000, praticamente sono disponibili ovunque
mikael84
10-08-2023, 16:10
Attualmente sia per la serie M2 che per i Bionic A14/15 stanno usando N5P, immagino che i 3nm siano per gli M3, io sono comunque dell'idea che un vincolo di quel tipo a livello strategico avrebbe ripercussioni decisamente negative per TSMC, rimango quindi parecchio scettico anche se visti i super margini di Apple sono prontissimo a credere che stiano tentando la mossa.
Oggi ho buttato lo sguardo sui prezzi dei MAC mini, costano una pazzia, per dire il modello con M2 liscio (150mm2), 16GB RAM e 1TBB SSD costa 1419 euro :cool:
Al confronto giacchetta è un benefattore :D
Si quasi tutti sono sui 5nm HP (solo nvidia ne ha una versione moddata, ma analoga), sono ben rodati da tempo, ma Apple per quest'anno dovrebbe utilizzare solo i B (come gli altri concorrenti che rimangono al palo, per i quali è stata creata anche un'altra variante E), che sono sostanzialmente dei lisci. I 3nmP sono previsti per l'anno prossimo.:)
La prima a debuttare con quel PP, è la HPC blackwell. Un chip che amplierà le fortune di JHH.:)
È quello che ho detto tempo fa, è già da prima del mining che per Nvidia il settore gaming non è più il core buisness, lo è stato fino al 2015 quindo lanciarono Maxwell e avevano in canna Pascal, già da Turing le introduzioni di RT e tensor core fecero capire dove voleva andare a parare l'azienda.
Ricordo ancora un'intervista a JHH del 2016 o 2017 dove affermava che il futuro delle gpu sarebbe stato basato sull'AI, che da una piccola porzione di informazioni sarebbe riuscita a ricostruire intere immagini dettagliatamente.
Turing, oltre al RT, cambiò quello che era diventato il solo standard gaming. Inoltre, non avendo un PP avanzato, almeno più denso, portò dei chip in ambito gaming con die simil tesla.
Con Pascal non è che fece tanto meglio, ricordiamo le 1080 vendute a salassi per un buon periodo, e parliamo di un chip da 314mm2 a 16nm.:p
Turing, oltre al RT, cambiò quello che era diventato il solo standard gaming. Inoltre, non avendo un PP avanzato, almeno più denso, portò dei chip in ambito gaming con die simil tesla.
Con Pascal non è che fece tanto meglio, ricordiamo le 1080 vendute a salassi per un buon periodo, e parliamo di un chip da 314mm2 a 16nm.:p
Me le ricordo bene le 1080 a 600 e più euro e le 1070 a 500, però col salto nodo e il raddoppio della vram fecero il botto, io all'epoca avevo la gtx 980 ed il paragone con la 1080 era impietoso, per non parlare di quando uscì la 1080Ti, l'avessi presa D1 credo avrei saltato Turing e forse pure la serie 3000.
mikael84
10-08-2023, 16:39
Me le ricordo bene le 1080 a 600 e più euro e le 1070 a 500, però col salto nodo e il raddoppio della vram fecero il botto, io all'epoca avevo la gtx 980 ed il paragone con la 1080 era impietoso, per non parlare di quando uscì la 1080Ti, l'avessi presa D1 credo avrei saltato Turing e forse pure la serie 3000.
Esattamente, anche quello è stato un dei salti più grandi di sempre, insieme a Kepler. G80 non era per nodo, ma per rivoluzione e die a pari nanometria.
Anche la 1080 era un 1:1 diretto con Maxwell.
Rispetto la 980, fu davvero un bel salto in tutto a 360°, ma pagava troppo ormai la microarchitettura elementare.:)
A voglia che serve il dlss3 sulla 4090, quando mi capita di giocare in 4k DLSSQ (1440p) qualche gioco che bottlenecka capita, alcune volte mi sono visto la gpu all'85% con conseguente perdita di frame, attivando DLSS3 gpu in full load al 100% e frame rate alto, è una manna da cielo per le attuali piattaforme, visto che non sono capaci di maxare tali schede e qualcosa mi dice che se non prendono piede queste tech, anche arrow lake con le 5000 di nvidia starà mezzo impiccato.
Con la 4080 in 1440p DLSSQ ancora peggio, è la peggior situazione dove una cpu possa incappare, visto che si è ancora più cpu limited in rapporto al primo caso con la 4090 in 4k.
Ahi ahi ahi, attento che ti fucilano, su questo forum è assolutamente proibito parlare bene del DLSS3, su questo forum è la sciagura assoluta, fa cagare perchè fa gli "artefatti" :D :D :D :D
No, diventerai collaboratore di HUnboxed visto che ci tieni così tanto a difenderli anche quando cannano :rolleyes:Cerca di essere onesto, ricordandoti che ho detto più di una volta che, anche fossero sbilanciati verso AMD, non sarebbe sufficiente a livellare.
Nel mentre lo si è denigrato xx volte, adducendo scuse demenziali quando lisciava il pelo a Nvidia.
La gente lo ha capito quindi si deve livellare... ogni tanto devono far finta di dar ragione a Nvidia, et cetera, et cetera...
Rimago indovino, visto che la ricerca "indenne" di onestà in chi parla di DLSS-3 come se fosse il frame rate puro, ancora non si vede.
Se ho capito bene, sul DLSS-3 mi sembri ragionevole, eppure la trasparenza non la cerchi, lì nessuno si può impapocchiare, si direbbe.
La cosa porta Nvidia a non regolarsi con le GPU mediocri, e la conseguenza non pesa solo sui polli senza colpa, ma anche sugli scafati che legittimamente vogliono solo Nvidia.
Desumo che lì se non lo capisci la colpa ricade sul pollame, sfrutto le appena apprese capacità indovinatrici senza matrici...
Difendo HWU e sono come loro, ho comprato la 4070 per sembrare obiettivo mentre sono un fanatico AMD, lo ammetto.
M'è capitata a 480€ nuova fiammante, domani la vendo per prendermi la 6800 XT, così divento coerente pure io... :O
Ma forse la tengo, daltronde posso sembrare coerente lo stesso, ho sempre apprezzato il DLSS e il DL-DSR, spero che gli AMDiani (una vita da AMDiano... :p ) possano capirmi... :D
mikael84
10-08-2023, 18:28
Il DLAA è davvero pazzesco. Irrinunciabile per me, salvo dove faccio pochi frame.
mikael84
10-08-2023, 20:59
Il DLAA non pesa quasi nulla, certo devi avere una scheda che regga un pò più che la nativa.
MSAA ormai è andato.
Cmq, situazione iniziale.
Basta poco ad affossare una GPU.
https://tpucdn.com/review/remnant-2-benchmark-test-performance-analysis/images/performance-3840-2160.png
Ora.
https://i.postimg.cc/mhxrJNrK/remnant.png
https://www.youtube.com/watch?v=iRWoBWDGQnE&ab_channel=TestingGames
Ale55andr0
10-08-2023, 21:47
e ci sono riusciti con una grafica di palta...
mikael84
10-08-2023, 22:25
A me su Ratchet tra DLAA ON e nativo AA OFF, passa da 185 a 167, qualcosa pesa -9% di perf circa, poco più di un TAA, siamo molto lontani dal peso macigno di MSAA 4x|8X
Ricordavo fosse più impattante comunque, vabbè, meglio così.
Remnant sembra andare bene sulle amd, potrebbe essere per il numero elevato di rop's delle 7000? probabile il gioco ne faccia un uso massiccio?
Bisognerebbe vedere le AMD i benefici che hanno avuto. Con la nuova patch vedo (in base al video) +50% di perf su una 4090.
Spesso non è solo questione di potenza bruta.
Cmq si il DLAA bene o male, leva quel tanto. Inezie in confronto al MSAA 4X, o ad una res fake con DLDSR.
A me su Ratchet tra DLAA ON e nativo AA OFF, passa da 185 a 167, qualcosa pesa -9% di perf circa, poco più di un TAA, siamo molto lontani dal peso macigno di MSAA 4x|8X
Ricordavo fosse più impattante comunque, vabbè, meglio così.
Ti segnalo che Nvidia ha rilasciato un driver hotfix della nuova serie 537 proprio per Ratchet and Clank, lo trovi QUI (https://nvidia.custhelp.com/app/answers/detail/a_id/5475/~/geforce-hotfix-driver-version-537.09)
A me su Ratchet tra DLAA ON e nativo AA OFF, passa da 185 a 167, qualcosa pesa -9% di perf circa, poco più di un TAA, siamo molto lontani dal peso macigno di MSAA 4x|8X
Ricordavo fosse più impattante comunque, vabbè, meglio così.
Remnant sembra andare bene sulle amd, potrebbe essere per il numero elevato di rop's delle 7000? probabile il gioco ne faccia un uso massiccio?
Da quello che ho visto su Ratchet la grafica è notevolmente migliore utilizzando l'accoppiata DLAA+Risoluzione dinamica, che il classico DLSS quality.
OrazioOC
11-08-2023, 09:30
Il DLAA non pesa quasi nulla, certo devi avere una scheda che regga un pò più che la nativa.
MSAA ormai è andato.
Cmq, situazione iniziale.
Basta poco ad affossare una GPU.
https://tpucdn.com/review/remnant-2-benchmark-test-performance-analysis/images/performance-3840-2160.png
Ora.
[/url]
Quel grafico di TUP veniva già spacciato come la presunta rivalsa delle radeon sulle RTX in qualche thread. :asd:
Comunque imbarazzante che sempre più titoli arrivino al d1 con rese in termini di fps ridicole, per poi ottenere dopo 7/10 giorni patch che ribaltano completamente la situazione. :rolleyes:
Quel grafico di TUP veniva già spacciato come la presunta rivalsa delle radeon sulle RTX in qualche thread. :asd:
Comunque imbarazzante che sempre più titoli arrivino al d1 con rese in termini di fps ridicole, per poi ottenere dopo 7/10 giorni patch che ribaltano completamente la situazione. :rolleyes:
Oramai il trend è quello, ma già da anni.
Conviene giocarsi i titoli dopo un annetto dall'uscita, scontati e patchati per bene XD
mikael84
11-08-2023, 11:49
Ma remnant 2 non è un problema, l'ho provato avendo il DLSS3 vola anche quello e se in nativa le amd hanno ottime performance, attivando il FG fa ciao ciao pure li.
Comunque non riesco a trovare bench aggiornati di remnant, sarei curioso, ma vedo che dal video che hai postato le migliorie in termini prestazionali ci sono tutte.
Comunque RT in Ratchet, inutile dire la botta che prendono le amd, guarda la 7900xt a confronto della 4070ti 68\49, 4080 e 4090 sono di un altro pianeta.
Vergognoso non tiene i 60 medi in QHD, forse sarebbe stato meglio che tramite patch\driver non attivassero RT almeno non dopo aver provato a sistemare.
https://i.ibb.co/Nj2YcyZ/vfdg.jpg (https://ibb.co/Nj2YcyZ)
Beh, AMD se spingi per bene crolla. Nel RT vero, è 2 gen indietro, paragonabile a turing. Ancora riesce a fare qualcosa negli ibridi, ma più spingi più crollano. Se non mettono il BVH in hardware non ne escono.
Cmq io devo ancora capire i bassi fps che riportano le testate, a me con tutto al max, 10raggi, DLAA, sta sempre tra i 70-110fps.:p
Quel grafico di TUP veniva già spacciato come la presunta rivalsa delle radeon sulle RTX in qualche thread. :asd:
Comunque imbarazzante che sempre più titoli arrivino al d1 con rese in termini di fps ridicole, per poi ottenere dopo 7/10 giorni patch che ribaltano completamente la situazione. :rolleyes:
A sto punto spero lo ritestino, vorrei vedere la situazione post patch.
Beh vedere che una GPU con una patch, prende il 50%...:p
Beh ad ogni gen c'è sempre stato il gioco X dove amd arava nvidia per poi spacciarlo come MANTRA e verità assoluta.
Ricordate AOTS con async compute periodo pascal-maxwell, per non parlare di strange brigade inizialmente, battlefield, ed i cod che notevolmente vanno di più su hardware amd etc...
Idem sulle cpu, su SOTTR amd ara intel e quindi è giusto dire che ''in media'' le differenze siano quelle, mi pare logico.:mc:
A questo punto prendo cb2077 e portal in PT e dico che le medie tra nvidia e amd sono così differenti.:D
Per non parlare (ai tempi) di bench tipo heaven evitati come la peste, visto che le amd avevano un pixel fill inferiore:D
Heaven era basato su backfaceculling, l'incubo delle prime GCN.
Nei vulkan, inizialmente, quando c'era Pascal, bombardavano di FP16, visto che AMD aveva le unità splittabili, lo sapeva gestire. Inoltre andava già di suo meglio. All'arrivo di turing, che ha colmato il gap, ed anche superato, sono praticamente spariti i vulkan fp16.:p
Cmq nel caso di pascal-maxwell, non condannerei AMD (ok loro lo facevano con la geometria di tw3), ma le microarchitetture inadeguate.
Chiaramente AMD nei giochi, ha il vantaggio che i giochi vengono pensati per il suo hardware, nvidia si deve adeguare. Ed anche l'hw scheduler hardware, non è un problema di AMD, ma di nvidia.
ColdWarGuy
11-08-2023, 12:06
A voglia che serve il dlss3 sulla 4090, quando mi capita di giocare in 4k DLSSQ (1440p) qualche gioco che bottlenecka capita, alcune volte mi sono visto la gpu all'85% con conseguente perdita di frame, attivando DLSS3 gpu in full load al 100% e frame rate alto, è una manna da cielo per le attuali piattaforme, visto che non sono capaci di maxare tali schede e qualcosa mi dice che se non prendono piede queste tech, anche arrow lake con le 5000 di nvidia starà mezzo impiccato.
Con la 4080 in 1440p DLSSQ ancora peggio, è la peggior situazione dove una cpu possa incappare, visto che si è ancora più cpu limited in rapporto al primo caso con la 4090 in 4k.
Completamente inaccettabile, un vero cesso di schede queste 4080 / 4090 :D
mikael84
11-08-2023, 12:44
Ma soprattutto:
Prendendo la diretta rivale (almeno sulla carta) della 7900xtx ossia la 4080:
Con 0.95\2820-2805 giro con tutto a palla FG attivo (1440p RT super 10 raggi +DLAA) a 185-200w e frame rate 170-200 con massimi che vanno ben oltre i 200, 53 gradi massimi con fan al 55%.
https://i.ibb.co/3FGwFJc/Rift-Apart-2023-08-11-13-11-19-713.jpg (https://ibb.co/3FGwFJc)
Poi vedi questa in 4k FSr2 sfondare i 480w:
https://www.youtube.com/watch?v=XvMo9nK4-AY
ehhh la concorrenzaaaaa
p.s comunque secondo gamegpu dovrei fare 114 medi con FG attivo, ne faccio molti di più utilizzando pure il DLAA
Quasi 500 watt in R e C sono davvero tanti. Con nvidia sto gioco non consuma nulla, a me ha toccato 225 in RT+DLAA come picco massimo, su 3-320 max.
Leggo anche di 3060ti/3070 che stanno appena sopra i 100 watt.
Cmq, i fps che si fanno sono molto superiori rispetto alle medie registrate sulle review.
Infatti in sto gioco vorrei provare il DLSS3, ma con Ampere pare non esserci speranza.
ColdWarGuy
11-08-2023, 13:06
Quasi 500 watt in R e C sono davvero tanti. Con nvidia sto gioco non consuma nulla, a me ha toccato 225 in RT+DLAA come picco massimo, su 3-320 max.
Leggo anche di 3060ti/3070 che stanno appena sopra i 100 watt.
Cmq, i fps che si fanno sono molto superiori rispetto alle medie registrate sulle review.
Infatti in sto gioco vorrei provare il DLSS3, ma con Ampere pare non esserci speranza.
Riassumo :
AMD non ce la fà o non ha più voglia (tanto vende bene le CPU e le APU per gli scatolotti), Intel è arrivata tardi e non ha nulla che arrivi neanche a sfiorare lontanamente una 3070, giacchetta forte delle vendite AI se ne fotte delle vendite delle GPU da gioco e sospende la produzione delle 4000 per le quali i nerds reclamano vendetta per i prezzi per redirigere i relativi slot TSMC su A800 per billare quei mesti 5 miliardi di dollari alla Cina che è, ironia della sorte, il nemico numero 1 degli USA.
A questo punto fossi in lui alzerei ulteriormente i listini, tanto i fessi che comprano overpriced non mancano manco per il piffero.
mikael84
11-08-2023, 13:22
Riassumo :
AMD non ce la fà o non ha più voglia (tanto vende bene le CPU e le APU per gli scatolotti), Intel è arrivata tardi e non ha nulla che arrivi neanche a sfiorare lontanamente una 3070, giacchetta forte delle vendite AI se ne fotte delle vendite delle GPU da gioco e sospende la produzione delle 4000 per le quali i nerds reclamano vendetta per i prezzi per redirigere i relativi slot TSMC su A800 per billare quei mesti 5 miliardi di dollari alla Cina che è, ironia della sorte, il nemico numero 1 degli USA.
A questo punto fossi in lui alzerei ulteriormente i listini, tanto i fessi che comprano overpriced non mancano manco per il piffero.
Oltre all'AI, i prezzi sono alti per il livello di concorrenza. Quando c'è stata JHH ha calato le braghe.
Alla fine per quale motivo, dovrebbe calare il listino delle sue GPU? Si dividono il mercato e via. Quando saranno costretti caleranno entrambi.:)
Ho sempre fatto l'esempio delle CPU. Se AMD avesse i 3nm, e tirasse fuori una 8900xtx a 999$, con un +40/50% di perf. vai tranquillo che JHH le GPU le faceva crollare a picco. :)
Intel, stessa cosa, uscirà l'anno prossimo (se va bene) ma con un 4nm, e quindi non potrà fare tanto. Purtroppo nvidia andrebbe anticipata sulla nanometria, almeno di un anno. Se non puoi competere architetturalmente, devi farlo via nanometria.
Hai ragione ho provato a stock, solo con le ventole al 55%, sta sui 240-250w e gira a 1.070, le temp si elevano di 3 gradi circa ma non va nemmeno vicino ai 300w, se faccio girare metro in Rt maxato in 4k arriva quasi a 320w di cap LOL
Alla fine con l'undervolt scendi di 50-60w in questo gioco (almeno nel mio caso) in altri casi è decisamente più efficace a 0.95v.
La 3080 ti consuma davvero poco, voltaggio?
0,9v x 1920. Sopra con samsung non è una buona idea per i picchi ed il guadagno.
In raster, scende anche a 195-205w.
Con l'ultima patch la 3060ti arriva fino a 150w massimi rispetto ai precedenti 110-120w, però è anche nettamente migliorato il framerate, non ci sono più fluttuazioni e si tiene molto più stabile, settando tutto su max ad esclusione delle texture su medio, XeGTAO e con DLAA+risoluzione dinamica a 3440x1440 si tiene sui 55-65fps, poi dipende dalle zone, prima addirittura crollava sui 35-42fps.
Altra cosa riducendo le texture da max a medio guadagna quasi +15fps, la cosa strana è che settandole a Super comunque l'occupazione di vram resta quasi inalterata si tiene sui 7.2GB cosi come la ram di sistema, solo il frame rate ne risente, molti lo attribuiscono a qualcosa relativo al direct storage.
Comunque il gioco ha prestazioni molto variabili in base all'HW, però l'engine è decisamente scalabile basta settarlo nel modo corretto.
StylezZz`
11-08-2023, 14:24
Con l'ultima patch la 3060ti arriva fino a 150w massimi rispetto ai precedenti 110-120w
Anche la mia 3070 ha gli stessi consumi.
Altra cosa riducendo le texture da max a medio guadagna quasi +15fps, la cosa strana è che settandole a Super comunque l'occupazione di vram resta quasi inalterata si tiene sui 7.2GB cosi come la ram di sistema, solo il frame rate ne risente, molti lo attribuiscono a qualcosa relativo al direct storage
15fps sono tanti, la mia perde solo 3fps passando da med a max...ma forse perchè sto usando i settaggi ottimizzati di DF con rt attivo solo sui riflessi, quindi l'impatto sulla memoria è minore :boh:
EDIT ho visto adesso che giochi anche a 3440x1440.
mikael84
11-08-2023, 15:11
Con l'ultima patch la 3060ti arriva fino a 150w massimi rispetto ai precedenti 110-120w, però è anche nettamente migliorato il framerate, non ci sono più fluttuazioni e si tiene molto più stabile, settando tutto su max ad esclusione delle texture su medio, XeGTAO e con DLAA+risoluzione dinamica a 3440x1440 si tiene sui 55-65fps, poi dipende dalle zone, prima addirittura crollava sui 35-42fps.
Altra cosa riducendo le texture da max a medio guadagna quasi +15fps, la cosa strana è che settandole a Super comunque l'occupazione di vram resta quasi inalterata si tiene sui 7.2GB cosi come la ram di sistema, solo il frame rate ne risente, molti lo attribuiscono a qualcosa relativo al direct storage.
Comunque il gioco ha prestazioni molto variabili in base all'HW, però l'engine è decisamente scalabile basta settarlo nel modo corretto.
Devi cercare i compromessi, è troppo pesante quel pannello per la tua scheda.
Per la ram, normale amministrazione, non sempre ti segna il massimo. Per dire, se io metto le texture su basso, arriva cmq a 8,1gb (già oltre i tuoi standard) ed inchioda a 9,4 a max.
ColdWarGuy
11-08-2023, 16:08
Oltre all'AI, i prezzi sono alti per il livello di concorrenza. Quando c'è stata JHH ha calato le braghe.
-snip
E' quello che ho detto, AMD / Intel entrambi fuori gioco anche se per motivi differenti, da quello che possiamo vedere ora non c'è speranza che nel prossimo futuro possano cambiare le carte in tavola (a meno che non mettano la 7900XT a 500 euro :D ), aggiungi la richiestona per l'AI e fai la tempesta perfetta.
Se vogliamo vedere va anche peggio del previsto, i test sulla 7900 GRE sono a dir poco delusional e fanno presagire una 7800 XT sotto le più caute previsioni, ergo Nvidia avrà la strada spianata per parecchio tempo ancora ...
mikael84
11-08-2023, 16:41
E' quello che ho detto, AMD / Intel entrambi fuori gioco anche se per motivi differenti, da quello che possiamo vedere ora non c'è speranza che nel prossimo futuro possano cambiare le carte in tavola (a meno che non mettano la 7900XT a 500 euro :D ), aggiungi la richiestona per l'AI e fai la tempesta perfetta.
Se vogliamo vedere va anche peggio del previsto, i test sulla 7900 GRE sono a dir poco delusional e fanno presagire una 7800 XT sotto le più caute previsioni, ergo Nvidia avrà la strada spianata per parecchio tempo ancora ...
Si vista ora la GRE e ho fatto una piccola analisi.
https://www.hwupgrade.it/forum/showpost.php?p=48269615&postcount=79880
Da considerare però che la Gre, è si più muscle, ma sta boostando medio a 2151, e prendendo sempre cpbase la 7600xt boosta a 2645 mid (+23%).
Ipotizzando gli stessi clock su navi32, avremmo la 7800 a 20,3tf, vs i 22 della Gre.
In linea di massimo, andrà probabilmente meno di quella.:)
--
Sulla concorrenza, come detto su, solo la nanometria superiore può mettere in condizioni JHH di arretrare.
Esempio Battlemage a 3nm, poteva scombussolare il mercato.
Se AMD fosse a pari nanometria in campo CPU, e le CPU erano le 5xxx, pensi che intel faceva tutta questa concorrenza?:p
Devi cercare i compromessi, è troppo pesante quel pannello per la tua scheda.
Per la ram, normale amministrazione, non sempre ti segna il massimo. Per dire, se io metto le texture su basso, arriva cmq a 8,1gb (già oltre i tuoi standard) ed inchioda a 9,4 a max.
Sicuramente però dipende molto dai titoli, in genere appoggiandoti al DLSS Quality la complessità di una risoluzione 3440x1440 si allinea a quello di un pannello FHD (2293x960), la strozzatura maggiore nel mio caso è la cpu che a seconda dell'engine non sempre tiene botta infatti ha la priorità come upgrade.
Per racket ho notato che sia come frame che qualità generale conviene impostare il DLAA + risoluzione dinamica, la qualità complessiva risulta migliore rispetto al classico DLSS quality e alla fine anche il frame è simile.
OrazioOC
12-08-2023, 11:05
https://videocardz.com/newz/nvidia-next-gen-geforce-rtx-50-gb20x-gpu-lineup-to-feature-gb205-gpu-but-no-x04-part
mikael84
12-08-2023, 11:44
Sicuramente però dipende molto dai titoli, in genere appoggiandoti al DLSS Quality la complessità di una risoluzione 3440x1440 si allinea a quello di un pannello FHD (2293x960), la strozzatura maggiore nel mio caso è la cpu che a seconda dell'engine non sempre tiene botta infatti ha la priorità come upgrade.
Per racket ho notato che sia come frame che qualità generale conviene impostare il DLAA + risoluzione dinamica, la qualità complessiva risulta migliore rispetto al classico DLSS quality e alla fine anche il frame è simile.
Dovresti seriamente rivedere il comparto CPU. Quella CPU la ricordo come top per crysis 3, dove mangiava in testa i quad core. Già il 5700x lo vedo obsoleto per le mie esigenze a 360°, soprattutto in RT.
https://videocardz.com/newz/nvidia-next-gen-geforce-rtx-50-gb20x-gpu-lineup-to-feature-gb205-gpu-but-no-x04-part
Senza conoscere i chip, mi pare una roadmap basata su: chippone, mid/high chip (x80), accontentino per la fascia medio e bassa.
Considerando che BL05, dovrebbe ospitare le x70/ti non è beneagurante
OrazioOC
12-08-2023, 11:51
Senza conoscere i chip, mi pare una roadmap basata su: chippone, mid chip (x80), accontentino per la fascia medio e bassa.
Considerando che BL05, dovrebbe ospitare le x70/ti non è beneagurante
Si sono allineati alla concorrenza, perchè la mancanza di un chip 104, il reale chip di fascia medio/alta di nvidia da 12 anni a questa parte, sancisce che il primo competitor si è defilato(almeno per quella generazione).
Punteranno su GB105 per tenere a bada navi 43 e battlemage, che immagino saranno roba sulla falsa riga di rtx 4070(alla buona la TI, ma ne dubito molto, navi 43 è un chip rdna 4 sostituto di navi 33/32, ergo copre le fasce delle rx 8600/8700 xt).
E' gnara, molto più di quello che ci si aspettava e che sta succedendo oggi con le rtx 4000 vs rx 7000...
OrazioOC
12-08-2023, 11:55
E non è neanche da escludere che GB103 finisca sulla 5090 da 2k e GB102 finisca sulla titan a 5k, i costi dei wafer di tsmc e la mancanza di competizione fanno in modo che nvidia possa avere il :ciapet: parate dal prezzare a cifre ridicole chip che qualche anno fa li ritrovavi su gpu da 5/600 euro. :rolleyes:
mikael84
12-08-2023, 12:56
Si sono allineati alla concorrenza, perchè la mancanza di un chip 104, il reale chip di fascia medio/alta di nvidia da 12 anni a questa parte, sancisce che il primo competitor si è defilato(almeno per quella generazione).
Punteranno su GB105 per tenere a bada navi 43 e battlemage, che immagino saranno roba sulla falsa riga di rtx 4070(alla buona la TI, ma ne dubito molto, navi 43 è un chip rdna 4 sostituto di navi 33/32, ergo copre le fasce delle rx 8600/8700 xt).
E' gnara, molto più di quello che ci si aspettava e che sta succedendo oggi con le rtx 4000 vs rx 7000...
Bisogna vedere se realmente AMD competerà anche con BL103, ovvero la sua enthusiast, perchè con la mid x70, ha fatto, prendendo cpbase, +31% vs la 5700xt, e con la 7700 (ora chiamata 7800, ma il chip è quello) circa 38/40% (paragonandola alla 6800xt).
Ora con le classiche percentuale, navi42, potrebbe allinearsi alla 7900xt, che potrebbe essere la prossima x70 liscia nvidia (e 8700-8800 amd) .:p
E non è neanche da escludere che GB103 finisca sulla 5090 da 2k e GB102 finisca sulla titan a 5k, i costi dei wafer di tsmc e la mancanza di competizione fanno in modo che nvidia possa avere il :ciapet: parate dal prezzare a cifre ridicole chip che qualche anno fa li ritrovavi su gpu da 5/600 euro. :rolleyes:
Non penso, credo che BL103 sia un chip piccolo, massimo sui 400. Tuttavia BL102, soprattutto con i 3nm di tsmc ed il probabile 512bit/32gb, farà senz'altro aumentare il prezzo finale, in quanto i costi di produzione aumenteranno non poco. Temo che la prossima 5090 possa realmente toccare i 1999$, e spero di sbagliarmi.
Non ce lo vedo JHH a fare meno margine.:p
OrazioOC
12-08-2023, 13:03
Bisogna vedere se realmente AMD competerà anche con BL103, ovvero la sua enthusiast, perchè con la mid x70, ha fatto, prendendo cpbase, +31% vs la 5700xt, e con la 7700 (ora chiamata 7800, ma il chip è quello) circa 38/40% (paragonandola alla 6800xt).
Ora con le classiche percentuale, navi42, potrebbe allinearsi alla 7900xt, che potrebbe essere la prossima x70 liscia nvidia (e 8700-8800 amd) .:p
Ti darei ragione, se amd stesse realmente sviluppando navi 42, ma si parla solo di navi 43 e navi 44. :mad:
Immagino che navi 43 sia roba con 48 cu, 128 bit di bus e 16gb gddr7 da piazzare a 399/499 dollari, ergo sarebbe una nuova 6600 xt, neanche una nuova 6700 xt(come lo sarebbe navi 42).
Performance grossomodo da 6800/7800 xt in un chip di circa 200 mm^2 4nm.
Roba da console insomma...
Ecco perchè nvidia ha cestinato GB204, perchè sarebbe un chip fuori portata per la concorrenza. :rolleyes:
Mi chiedo però se nvidia possa andare oltre gli 8gb di vram agevolmente su GB205 e GB206.
Magari avranno anche loro le gddr7? Oppure ci sarà un bus 256 bit per GB205?
O magari clamshell 128 bit come sulla 4060 ti e buonanotte al secchio?
Onestamente dopo oggi nvidia ha mandato in vacca parecchi castelli di carte per la serie 5000...
mikael84
12-08-2023, 13:40
Ti darei ragione, se amd stesse realmente sviluppando navi 42, ma si parla solo di navi 43 e navi 44. :mad:
Immagino che navi 43 sia roba con 48 cu, 128 bit di bus e 16gb gddr7 da piazzare a 399/499 dollari, ergo sarebbe una nuova 6600 xt, neanche una nuova 6700 xt(come lo sarebbe navi 42).
Performance grossomodo da 6800/7800 xt in un chip di circa 200 mm^2 4nm.
Roba da console insomma...
Ecco perchè nvidia ha cestinato GB204, perchè sarebbe un chip fuori portata per la concorrenza. :rolleyes:
Mi chiedo però se nvidia possa andare oltre gli 8gb di vram agevolmente su GB205 e GB206.
Magari avranno anche loro le gddr7? Oppure ci sarà un bus 256 bit per GB205?
O magari clamshell 128 bit come sulla 4060 ti e buonanotte al secchio?
Onestamente dopo oggi nvidia ha mandato in vacca parecchi castelli di carte per la serie 5000...
Sui chip AMD, non credo rilascino solo il 43, quei leak vanno presi con le pinze, al massimo fa una soluzione simil rdna1, che sarebbe n42. Il che calzerebbe pure con questo BL05.
Immagino che potrebbero esserci 2 buchi di chip enormi a sto giro. Almeno quel leak fa ipotizzare quello.
Riguardo le ram, non si sà ancora, se i chip avranno le g7, infatti si ipotizza un 512bit per ovviare alla banda.
Le g7 di micron sono date per il 2025, e sono molto in ritardo, e la loro caratteristica sta nella tripla densità, ovvero 3gb a chip.
Quindi anche un 128 bit andrebbe a 12gb.
Potremmo inquadrare la x70 con un 256 bit/16gb o 192bit/16gb g7.
Idem la x80 che dovrebbe diventare da 384bit, e quindi appetibile anche ai pro.
marbasso
12-08-2023, 15:54
Quindi Ratchet.&.Clank che impostazioni consigliate? Pref very high, DLAA poi....dynamic resolution scaling 60?
Se qualcuno può fare uno screen alle impostazioni ne sarei grato.
Thx
OrazioOC
12-08-2023, 18:10
Sui chip AMD, non credo rilascino solo il 43, quei leak vanno presi con le pinze, al massimo fa una soluzione simil rdna1, che sarebbe n42. Il che calzerebbe pure con questo BL05.
Immagino che potrebbero esserci 2 buchi di chip enormi a sto giro. Almeno quel leak fa ipotizzare quello.
Riguardo le ram, non si sà ancora, se i chip avranno le g7, infatti si ipotizza un 512bit per ovviare alla banda.
Le g7 di micron sono date per il 2025, e sono molto in ritardo, e la loro caratteristica sta nella tripla densità, ovvero 3gb a chip.
Quindi anche un 128 bit andrebbe a 12gb.
Potremmo inquadrare la x70 con un 256 bit/16gb o 192bit/16gb g7.
Idem la x80 che dovrebbe diventare da 384bit, e quindi appetibile anche ai pro.
Ok con la tripla densità delle gddr7, allora è lecito aspettarsi gli stessi bus che abbiamo ora per fascia.
Il fatto è che navi 23(6600 xt/6650 xt) era già un chip che stava a mezzo tra ga106 e ga104 per performance pure(più performance di una 3060 ga106, meno di un cut ga104 come la 3060 ti).
L'anomalia oggi è navi 33 che è quasi un rebrand di quel chip(7600 navi 33 full va' in media il 5% in più della 6650 xt, atroce...) con però la scusante di non avere sotto un silicio più raffinato per avere più cu e frequenze.
Sui 5nm sarebbe stato tranquillamente un chip con 40 cu più pompato nelle frequenze e magari con tagli di vram superiori, una sorta di ad106 in salsa amd.
Il rumor di oggi in cui nvidia non prevedere in lineup un chip 104 invece confuta la tesi del leak che non prevede gpu high end/enthusiast di amd su rdna4. E' praticamente come fare 2+2. :)
Per me si ripeterà il copione del 2019, amd sarà competitiva fino alla 5070, il problema è che noi ci beccheremo una 5070 finta, che in realtà sarebbe una 5060(ti). :D
mistero1982
13-08-2023, 00:14
Che tenerezza, questo thread sembra fatto apposta per autocompiacervi di quanteffiga Nvidia.
Pagine su pagine a lodare chi vi ha spolpato il portafogli sacrificandolo sull'altare del DLSS 3, supportato a malapena dal 3/4% dei titoli.
Molti AAA, per fortuna, neanche lo adottano ne lo adotteranno.
Però consumano poco eh! E ci mancherebbe!!! È il peggior salto gen to gen a livello di potenza bruta. Basta vedere la vmem adottata, i bus ridicoli, l'incremento dei cuda core. Addirittura la 4070 ha lo stesso numero di CUDA della 3070, però supporta il dlss 3.
Che bello! spendiamo soldi a palate per una tecnologia di upscaling, frame generator, la scheda ormai è di contorno...
Solo le 4080/90 hanno qualcosa da dire, non fosse per la fascia di prezzo fuori da ogni grazia umana.
Non che AMD abbia fatto bene col collocamento di prezzo, tutt altro, ma è solo per dirvi occhio a lodare politiche di prezzo e modus di fare le gpu abominevole.
Solo Intel si salva, vuoi perché è entrata sul mercato e ha bisogno di visibilità, vuoi perché uscita con prezzi decenti. Il lavoro sull xess è lodevole ma rimane un Plus come deve essere non il core business di un intera gen.
mikael84
13-08-2023, 00:48
Che tenerezza, questo thread sembra fatto apposta per autocompiacervi di quanteffiga Nvidia.
Pagine su pagine a lodare chi vi ha spolpato il portafogli sacrificandolo sull'altare del DLSS 3, supportato a malapena dal 3/4% dei titoli.
Molti AAA, per fortuna, neanche lo adottano ne lo adotteranno.
Però consumano poco eh! E ci mancherebbe!!! È il peggior salto gen to gen a livello di potenza bruta. Basta vedere la vmem adottata, i bus ridicoli, l'incremento dei cuda core. Addirittura la 4070 ha lo stesso numero di CUDA della 3070, però supporta il dlss 3.
Che bello! spendiamo soldi a palate per una tecnologia di upscaling, frame generator, la scheda ormai è di contorno...
Solo le 4080/90 hanno qualcosa da dire, non fosse per la fascia di prezzo fuori da ogni grazia umana.
Si ma con il 45% di clock.
Ha fatto come la 6700xt vs 5700xt, entrambe a 2560 shader, ma una con clock maggiore.
La 7800xt debutterà con 3840 shader vs i 4680 della 6800xt (downgrade)
La 7900xt, ha 256 shader vs la 6900xt e clock quasi identici.
Sul peggior salto gen, no, è paradossalmente tra i migliori, se non il migliore, ma pecca della non concorrenza, di una che purtroppo ha fatto molto peggio di lui.
In un mercato dove la concorrenza fa peggio del monopolista, si può capire l'andazzo.
Non che AMD abbia fatto bene col collocamento di prezzo, tutt altro, ma è solo per dirvi occhio a lodare politiche di prezzo e modus di fare le gpu abominevole.
Solo Intel si salva, vuoi perché è entrata sul mercato e ha bisogno di visibilità, vuoi perché uscita con prezzi decenti. Il lavoro sull xess è lodevole ma rimane un Plus come deve essere non il core business di un intera gen.
No ha fatto un vero schifo, ha rebrandato una 6600xt, spacciandola per nuova, e le nuove dopo un anno, avranno spec inferiori alle vecchie.
Nvidia e AMD collaborano parola di jensen.;)
mikael84
13-08-2023, 01:01
Ok con la tripla densità delle gddr7, allora è lecito aspettarsi gli stessi bus che abbiamo ora per fascia.
Il fatto è che navi 23(6600 xt/6650 xt) era già un chip che stava a mezzo tra ga106 e ga104 per performance pure(più performance di una 3060 ga106, meno di un cut ga104 come la 3060 ti).
L'anomalia oggi è navi 33 che è quasi un rebrand di quel chip(7600 navi 33 full va' in media il 5% in più della 6650 xt, atroce...) con però la scusante di non avere sotto un silicio più raffinato per avere più cu e frequenze.
Sui 5nm sarebbe stato tranquillamente un chip con 40 cu più pompato nelle frequenze e magari con tagli di vram superiori, una sorta di ad106 in salsa amd.
Il rumor di oggi in cui nvidia non prevedere in lineup un chip 104 invece confuta la tesi del leak che non prevede gpu high end/enthusiast di amd su rdna4. E' praticamente come fare 2+2. :)
Per me si ripeterà il copione del 2019, amd sarà competitiva fino alla 5070, il problema è che noi ci beccheremo una 5070 finta, che in realtà sarebbe una 5060(ti). :D
Sulle g7, bisogna vedere se debutteranno in tempo, nvidia ha accordi con micron, e quindi pende da lei. Non dimentichiamoci pure che le g6x, sono uscite inizialmente senza doppia densità.
Insomma sembra un bis della situazione avuta con la 280gtx, dove le g3 costrinsero ad adottare il bus a 512bit.:)
Per la lineup, bisogna vedere le intenzioni di BL105, soprattutto se la 5070ti dovesse nascere da BL103, che potrebbe avere un 384bit.
Navi10 era sparata ad 1,2v per cercare di passare la 2070 liscia, poi col tempo si è insediata in zona 2070 super.
Riguardo navi33, a 5nm sarebbero stato un chip sui 100mm2, ecco che anch'esso doveva essere un chip taglia x50. Con il navi43, faranno un chip a 4nm sicuramente.:)
mistero1982
13-08-2023, 06:43
Si ma con il 45% di clock.
E ci mancherebbe!!! sono passati 3 anni!!! Altrimenti sarebbe stata una 3070. :D
[B]
Sul peggior salto gen, no, è paradossalmente tra i migliori
È il peggiore, fidati del nonno che ha visto le Voodoo nascere :D in ogni salto generazionale come si deve, anche quello passaro, la 3070 va almeno come la 2080ti superando almeno di una fascia la potenza della gen precedente. Altrimenti sei di memoria corta. Stesso la 2070 andava come la 1080ti e così via...
Amd voglio vedere quando uscirà la 7700.o.7800. E a parte il nome, che a me non frega nulla, è la fascia di prezzo che fa.una scheda. Salto Nvidia gen to gen permettendo, ovviamente schifoso, se i prezzi fossero stati del 40% in meno sarebbe stato favoloso..
E invece no che fa Nvidia?. Peggior salto generazionale e prezzi folli battendo sul marketing dlss3 supportato si e no da una minoranza di AAA e neanche tutti quelli futuri.
Tagliando fuori la serie 3000 della vecchia utenza.
Amd ha fatto schifo perché con uno scenario di questo tipo, poteva sbeffeggiare Nvidia. Fare uscire subito l.FSR3 e calare l.asso con dei prezzi migliori... invece è riuscita a fare quasi peggio con il collocamento delle fasce di prezzo (almeno all uscita).
Generazione disastrosa, solo Intel brilla per prezzo e tecnologie essendo entrata sul mercato da poco ha fatto molto.
Se continua questa storia spero che Intel dia una svegliata alla concorrenza continuando sulla strada giusta e magari facendo uscire schede di fascia enthusiast. Ora vedremo Battlemage cosa farà... Soprattutto in che fascia di prezzo sarà collocato.
E ci mancherebbe!!! sono passati 3 anni!!! Altrimenti sarebbe stata una 3070. :D
È il peggiore, fidati del nonno che ha visto le Voodoo nascere :D in ogni salto generazionale come si deve, anche quello passaro, la 3070 va almeno come la 2080ti superando almeno di una fascia la potenza della gen precedente. Altrimenti sei di memoria corta. Stesso la 2070 andava come la 1080ti e così via...
Amd voglio vedere quando uscirà la 7700.o.7800. E a parte il nome, che a me non frega nulla, è la fascia di prezzo che fa.una scheda. Salto Nvidia gen to gen permettendo, ovviamente schifoso, se i prezzi fossero stati del 40% in meno sarebbe stato favoloso..
E invece no che fa Nvidia?. Peggior salto generazionale e prezzi folli battendo sul marketing dlss3 supportato si e no da una minoranza di AAA e neanche tutti quelli futuri.
Tagliando fuori la serie 3000 della vecchia utenza.
Amd ha fatto schifo perché con uno scenario di questo tipo, poteva sbeffeggiare Nvidia. Fare uscire subito l.FSR3 e calare l.asso con dei prezzi migliori... invece è riuscita a fare quasi peggio con il collocamento delle fasce di prezzo (almeno all uscita).
Generazione disastrosa, solo Intel brilla per prezzo e tecnologie essendo entrata sul mercato da poco ha fatto molto.
Se continua questa storia spero che Intel dia una svegliata alla concorrenza continuando sulla strada giusta e magari facendo uscire schede di fascia enthusiast. Ora vedremo Battlemage cosa farà... Soprattutto in che fascia di prezzo sarà collocato.
Allora se tu sei nonno io che sono? trisavolo? :D :D :D :D
In ogni caso fidati, Mikael ha ragionissima, il salto di nodo tra le 3000 e le 4000 è di gran lunga il più devastante della storia delle VGA, a mio parere una VGA come la 4090 non c'è mai stata nella storia e c'è da considerare che è ben distante dal chip full.... figurati se mettessero in campo pure quello, sarebbero in vantaggio non più di cinque anni ma del doppio....
Mai visto una cosa del genere nella mia lunghissima (rispetto alla media del forum) vita.
E ci mancherebbe!!! sono passati 3 anni!!! Altrimenti sarebbe stata una 3070. :D
È il peggiore, fidati del nonno che ha visto le Voodoo nascere :D in ogni salto generazionale come si deve, anche quello passaro, la 3070 va almeno come la 2080ti superando almeno di una fascia la potenza della gen precedente. Altrimenti sei di memoria corta. Stesso la 2070 andava come la 1080ti e così via...
Amd voglio vedere quando uscirà la 7700.o.7800. E a parte il nome, che a me non frega nulla, è la fascia di prezzo che fa.una scheda. Salto Nvidia gen to gen permettendo, ovviamente schifoso, se i prezzi fossero stati del 40% in meno sarebbe stato favoloso..
E invece no che fa Nvidia?. Peggior salto generazionale e prezzi folli battendo sul marketing dlss3 supportato si e no da una minoranza di AAA e neanche tutti quelli futuri.
Tagliando fuori la serie 3000 della vecchia utenza.
Amd ha fatto schifo perché con uno scenario di questo tipo, poteva sbeffeggiare Nvidia. Fare uscire subito l.FSR3 e calare l.asso con dei prezzi migliori... invece è riuscita a fare quasi peggio con il collocamento delle fasce di prezzo (almeno all uscita).
Generazione disastrosa, solo Intel brilla per prezzo e tecnologie essendo entrata sul mercato da poco ha fatto molto.
Se continua questa storia spero che Intel dia una svegliata alla concorrenza continuando sulla strada giusta e magari facendo uscire schede di fascia enthusiast. Ora vedremo Battlemage cosa farà... Soprattutto in che fascia di prezzo sarà collocato.
Si ma forse non ti è chiaro che l'attuale 4070ti è un chippino da 294mm2 poco più grosso di GA106 montato sulla 3060 (276mm2) e spinge come un GA102 full.
Anche le 3060ti/3070 da 392mm2 vengono prese da chippini mezzi monchi da 159/188mm2.
Non c'è mai stato un salto di nodo cosi gigantesco, tant'è che la stessa nomenclatura usata per i vari chip è discutibile.
La cosa più vicina è stato il salto da Maxwell a Pascal, quindi dai 28nm a 16nm e anche li avevamo le 1060 da 200mm2 che rivaleggiavano con la 980 da 398mm2.
Solo che con Pascal il chippone si limitava a 471mm2 rispetto ai 601mm2 di GM200 distaccandolo comunque di un 60-70%, scelta probabilmente dovuta sia alle rese che al progetto in cantiere di turing.
OrazioOC
13-08-2023, 09:05
Sulle g7, bisogna vedere se debutteranno in tempo, nvidia ha accordi con micron, e quindi pende da lei. Non dimentichiamoci pure che le g6x, sono uscite inizialmente senza doppia densità.
Insomma sembra un bis della situazione avuta con la 280gtx, dove le g3 costrinsero ad adottare il bus a 512bit.:)
Per la lineup, bisogna vedere le intenzioni di BL105, soprattutto se la 5070ti dovesse nascere da BL103, che potrebbe avere un 384bit.
Navi10 era sparata ad 1,2v per cercare di passare la 2070 liscia, poi col tempo si è insediata in zona 2070 super.
Riguardo navi33, a 5nm sarebbero stato un chip sui 100mm2, ecco che anch'esso doveva essere un chip taglia x50. Con il navi43, faranno un chip a 4nm sicuramente.:)
Però sono schede date per il 2025, le tempistiche coinciderebbero con il lancio delle gddr7(e anche dei 3nm GAAFET by Samsung).
Comunque ripensandoci, navi 23 era un chip di 237 mm^2, un chip di quelle dimensioni ora lo avremmo sulla 7800 xt a 5nm.
Ergo un chip a 4nm con una uarch rivista potrebbe anche andare come una 7900 xt/x. Potrebbero chiamarla tranquillamente 8700 xt una roba del genere.
Per quanto concerne GB205, potrebbe essere un trade union tra l'attuale ad104 e ad106, prendere il bus a 192 bit e 12gb di vram(se non avesse le gddr7 tripla densità) da ad104, e avere un die size sui 220-240 mm^2.
Un chip del genere ce lo potrei vedere con performance superiori alla 4070 ti odierna, targhettando pure la 4080 in certe situazioni.
Chiaro che una scheda del genere non ce la voglio vedere sopra i 499 dollari nel 2025, perchè sarebbe un upgrade un pochetto misero dalle 4070/7800 xt attuali.:rolleyes:
mistero1982
13-08-2023, 09:16
Si ma forse non ti è chiaro che l'attuale 4070ti è un chippino da 294mm2 poco più grosso di GA106 montato sulla 3060 (276mm2) e spinge come un GA102 full.
Anche le 3060ti/3070 da 392mm2 vengono prese da chippini mezzi monchi da 159/188mm2.
Non c'è mai stato un salto di nodo cosi gigantesco, tant'è che la stessa nomenclatura usata per i vari chip è discutibile.
La cosa più vicina è stato il salto da Maxwell a Pascal, quindi dai 28nm a 16nm e anche li avevamo le 1060 da 200mm2 che rivaleggiavano con la 980 da 398mm2.
Solo che con Pascal il chippone si limitava a 471mm2 rispetto ai 601mm2 di GM200 distaccandolo comunque di un 60-70%, scelta probabilmente dovuta sia alle rese che al progetto in cantiere di turing.
Tu parli di processo produttivo, e sono d'accordo nulla da obbiettare.
Io parlo di incremento prestazionale e collocamento su fasce di prezzo:
- la 3070 500€ all'uscita prestazioni >= 2080ti
- la 4070 670€ all'uscita prtestazioni< 3080ti
E lo schema si ripete con le GPU di fascia inferiore.
Ottima architettura, d'accordo, ma collocamento su fasce di prezzo sbagliate.
La 4090 è e rimane fuori parametro di prestazioni... e di prezzo anche... E' una prova di forza come specchietto per far brillare la serie 4000.
OrazioOC
13-08-2023, 09:21
Che tenerezza, questo thread sembra fatto apposta per autocompiacervi di quanteffiga Nvidia.
Pagine su pagine a lodare chi vi ha spolpato il portafogli sacrificandolo sull'altare del DLSS 3, supportato a malapena dal 3/4% dei titoli.
Molti AAA, per fortuna, neanche lo adottano ne lo adotteranno.
Però consumano poco eh! E ci mancherebbe!!! È il peggior salto gen to gen a livello di potenza bruta. Basta vedere la vmem adottata, i bus ridicoli, l'incremento dei cuda core. Addirittura la 4070 ha lo stesso numero di CUDA della 3070, però supporta il dlss 3.
Che bello! spendiamo soldi a palate per una tecnologia di upscaling, frame generator, la scheda ormai è di contorno...
Solo le 4080/90 hanno qualcosa da dire, non fosse per la fascia di prezzo fuori da ogni grazia umana.
Non che AMD abbia fatto bene col collocamento di prezzo, tutt altro, ma è solo per dirvi occhio a lodare politiche di prezzo e modus di fare le gpu abominevole.
Solo Intel si salva, vuoi perché è entrata sul mercato e ha bisogno di visibilità, vuoi perché uscita con prezzi decenti. Il lavoro sull xess è lodevole ma rimane un Plus come deve essere non il core business di un intera gen.
https://www.techpowerup.com/gpu-specs/docs/nvidia-ada-architecture.pdf
Il salto generazionale c'è stato ed è stato pure enorme, dico solo che ad102 ha quasi 3 volte il numero di transistors di ga102(28,6 vs 76,3 miliardi) con dimensioni del die molto simili(628 mm^ di ga102 vs 608 mm^2).
Talmente tanto elevato, che ha costretto nvidia a montare un chip parecchio più piccolo(380 mm^2) per farci la 4080, in modo da competere con il top della concorrenza. :rolleyes:
Poi che sia merito di TSMC non ne dubito, ma su TSMC ci fanno pure le Amd. :)
Brutto da dire, ma Ada è stata una nuova Pascal, e RDNA 3 una nuova Vega...
Tu parli di processo produttivo, e sono d'accordo nulla da obbiettare.
Io parlo di incremento prestazionale e collocamento su fasce di prezzo:
- la 3070 500€ all'uscita prestazioni >= 2080ti
- la 4070 670€ all'uscita prtestazioni< 3080ti
E lo schema si ripete con le GPU di fascia inferiore.
Ottima architettura, d'accordo, ma collocamento su fasce di prezzo sbagliate.
La 4090 è e rimane fuori parametro di prestazioni... e di prezzo anche... E' una prova di forza come specchietto per far brillare la serie 4000.
Nella fascia media si stende un velo pietoso perchè la situazione è questa:
3060 -> 4060 +18% 329$ vs 299$
3060ti -> 4060ti +11% 399$ vs 399$
3070 -> 4070 +22% 499$ vs 599$
3070ti -> 4070ti +42% 599$ vs 799$
3080 -> 4080 +49% 699$ vs 1199$
3090 -> 4090 +66% 1499$ vs 1599$
E alla fine anche nella fascia alta l'incremento di prestazioni porta anche a un incremento del prezzo msrp non proprio tascurabile, gli unici chip piazzati benino come rapporto prezzo/prestazioni sono la 4070 e la 4090.
mikael84
13-08-2023, 12:02
E ci mancherebbe!!! sono passati 3 anni!!! Altrimenti sarebbe stata una 3070. :D
È il peggiore, fidati del nonno che ha visto le Voodoo nascere :D in ogni salto generazionale come si deve, anche quello passaro, la 3070 va almeno come la 2080ti superando almeno di una fascia la potenza della gen precedente. Altrimenti sei di memoria corta. Stesso la 2070 andava come la 1080ti e così via...
Amd voglio vedere quando uscirà la 7700.o.7800. E a parte il nome, che a me non frega nulla, è la fascia di prezzo che fa.una scheda. Salto Nvidia gen to gen permettendo, ovviamente schifoso, se i prezzi fossero stati del 40% in meno sarebbe stato favoloso..
E invece no che fa Nvidia?. Peggior salto generazionale e prezzi folli battendo sul marketing dlss3 supportato si e no da una minoranza di AAA e neanche tutti quelli futuri.
Tagliando fuori la serie 3000 della vecchia utenza.
Amd ha fatto schifo perché con uno scenario di questo tipo, poteva sbeffeggiare Nvidia. Fare uscire subito l.FSR3 e calare l.asso con dei prezzi migliori... invece è riuscita a fare quasi peggio con il collocamento delle fasce di prezzo (almeno all uscita).
Generazione disastrosa, solo Intel brilla per prezzo e tecnologie essendo entrata sul mercato da poco ha fatto molto.
Se continua questa storia spero che Intel dia una svegliata alla concorrenza continuando sulla strada giusta e magari facendo uscire schede di fascia enthusiast. Ora vedremo Battlemage cosa farà... Soprattutto in che fascia di prezzo sarà collocato.
Assolutamente no:p
Il passaggio dai 10nm (8lpp) di samsung ai 5nm di TSMC è uno dei migliori di sempre.
AD102 full, non è la 4090, la 4090 è un cut, come quasi la 7900xt vs la 7900xtx, ed arriva in certi contesti quasi a doppiare la 3090.
A livello di transistor, GA102 arriva a 28,4, AD102 a 76,5 con quasi il 50% di clock in più.
Quello che affermi tu, riguarda la tanto criticata e bistrattata rename delle GPU.
Esempio, la 4080, è fasci 70, venduta da 80, proprio per il salto quantico. E' un 370mm2, meno della 3070.
A livello di transistor e di salto nodo, dovresti paragonare la 4080 alla 3060ti.
La 4070ti, ha il die della 3060, quindi tecnicamente, come fai a dire che tra 4060ti e 3060 non c'è salto nodo?:p
Sono le fasce, che sono state messe a membro di segugio non il nodo che è pessimo.:p
AMD ha fatto come lui, si sono accordati, parole di jensen praticamente, ed ha tagliato i chip come lui.
La 7600 vs 4060 è la dimostrazione, la 7800xt chiamata 7900 e l'altra.:)
mikael84
13-08-2023, 12:18
Si ma forse non ti è chiaro che l'attuale 4070ti è un chippino da 294mm2 poco più grosso di GA106 montato sulla 3060 (276mm2) e spinge come un GA102 full.
Anche le 3060ti/3070 da 392mm2 vengono prese da chippini mezzi monchi da 159/188mm2.
Non c'è mai stato un salto di nodo cosi gigantesco, tant'è che la stessa nomenclatura usata per i vari chip è discutibile.
La cosa più vicina è stato il salto da Maxwell a Pascal, quindi dai 28nm a 16nm e anche li avevamo le 1060 da 200mm2 che rivaleggiavano con la 980 da 398mm2.
Solo che con Pascal il chippone si limitava a 471mm2 rispetto ai 601mm2 di GM200 distaccandolo comunque di un 60-70%, scelta probabilmente dovuta sia alle rese che al progetto in cantiere di turing.
Esattamente, e con Pascal era tutto un 1:1, con Lovelace, un botto di transistor se li prendono tensor e cache, oltre che i vari OFA.
Altrimenti una 3090ti (28,4mt), poteva stare in un 225mm2 alla densità dei 5nm. Quindi è ancora più devastante di pascal.:)
Però sono schede date per il 2025, le tempistiche coinciderebbero con il lancio delle gddr7(e anche dei 3nm GAAFET by Samsung).
I codici però sono scritti dai 2 ai 4 anni prima. Bisogna vedere che hanno stipulato con Micron. Se prevedono un 512bit, molto probabilmente si andrà di g6x. Qua cmq, è ancora tutto da vedere.:)
Comunque ripensandoci, navi 23 era un chip di 237 mm^2, un chip di quelle dimensioni ora lo avremmo sulla 7800 xt a 5nm.
Ergo un chip a 4nm con una uarch rivista potrebbe anche andare come una 7900 xt/x. Potrebbero chiamarla tranquillamente 8700 xt una roba del genere.
Si, però la 5700xt, era un 7nm vs i 16 (12 mod). Alla densità dei 16nm, era equivalente ad un 410mm2, e senza unità rt, tensor.
Qua si parte a pari nodo.
Quindi con un 251 (ad esempio), a 4nm, puoi riuscire a creare un navi32 monolitico.:)
Per quanto concerne GB205, potrebbe essere un trade union tra l'attuale ad104 e ad106, prendere il bus a 192 bit e 12gb di vram(se non avesse le gddr7 tripla densità) da ad104, e avere un die size sui 220-240 mm^2.
Un chip del genere ce lo potrei vedere con performance superiori alla 4070 ti odierna, targhettando pure la 4080 in certe situazioni.
Chiaro che una scheda del genere non ce la voglio vedere sopra i 499 dollari nel 2025, perchè sarebbe un upgrade un pochetto misero dalle 4070/7800 xt attuali.:rolleyes:
Oddio, speriamo di no, un 192bit e 12gb nel 2025, anche no.:p
Molto probabilmente avrà i 256bit e 16gb, oppure 192bit e 16gb di ram.
Con i 3nm di TSMC, ipotizzando una densità per circuito di 200mt xmm2 (su circa 220), una 4080 la tireresti fuori con 225mm2 (anche se non tutto scala lineare tra logica, anologico e sram, es la logica al 50%), però a questo devi aggiungere tutti i transistor dei tensor, RT core, ed altre affinità.:)
mistero1982
13-08-2023, 12:38
Assolutamente no:p
Il passaggio dai 10nm (8lpp) di samsung ai 5nm di TSMC è uno dei migliori di sempre.
AD102 full, non è la 4090, la 4090 è un cut, come quasi la 7900xt vs la 7900xtx, ed arriva in certi contesti quasi a doppiare la 3090.
A livello di transistor, GA102 arriva a 28,4, AD102 a 76,5 con quasi il 50% di clock in più.
Quello che affermi tu, riguarda la tanto criticata e bistrattata rename delle GPU.
Esempio, la 4080, è fasci 70, venduta da 80, proprio per il salto quantico. E' un 370mm2, meno della 3070.
A livello di transistor e di salto nodo, dovresti paragonare la 4080 alla 3060ti.
La 4070ti, ha il die della 3060, quindi tecnicamente, come fai a dire che tra 4060ti e 3060 non c'è salto nodo?:p
Sono le fasce, che sono state messe a membro di segugio non il nodo che è pessimo.:p
AMD ha fatto come lui, si sono accordati, parole di jensen praticamente, ed ha tagliato i chip come lui.
La 7600 vs 4060 è la dimostrazione, la 7800xt chiamata 7900 e l'altra.:)
Per me la fascia è il collocamento del prezzo sul mercato, quanto me la fanno digerire $$$, non la nomenclatura o architettura per avanzata che sia.
mikael84
13-08-2023, 12:43
Per me la fascia è il collocamento del prezzo sul mercato, quanto me la fanno digerire $$$, non la nomenclatura o architettura per avanzata che sia.
Si ok, fascia di mercato è un conto, salto di nanometria un altro.:)
Infatti sotto la 4090 (che è pure un cut) sono tutti rename.
Per salto di nanometria, possiamo intendere come perf, per die. Ed una 4080, ha un die più piccolo della 3060ti-3070. e rispetto a queste il salto è quantico.
Per fascia di prezzo, però è una fregatura, 1199$.
OrazioOC
13-08-2023, 13:44
I codici però sono scritti dai 2 ai 4 anni prima. Bisogna vedere che hanno stipulato con Micron. Se prevedono un 512bit, molto probabilmente si andrà di g6x. Qua cmq, è ancora tutto da vedere.:)
Lungi da me dire che da qui al 2025 potrebbero succederne parecchie, ma 512 bit di bus su GB202 ce li vedo bene solo in mancanza delle gddr7.
Però mi farebbe strano, Micron nel 2025 almeno le gddr7 a doppia densità dovrebbe averle. :O
Si, però la 5700xt, era un 7nm vs i 16 (12 mod). Alla densità dei 16nm, era equivalente ad un 410mm2, e senza unità rt, tensor.
Qua si parte a pari nodo.
Quindi con un 251 (ad esempio), a 4nm, puoi riuscire a creare un navi32 monolitico.:)
Esattamente, navi 43 dovrebbe essere monolitica con un die tra i 200 e i 250 mm^2 a 4nm, ce la vedo ad andare più forte della prossima 7800 xt vista l'uarch ridisegnata e il nodo leggermente migliorato.
Non sarebbe blasfemia darla in range di performance dell'attuale 4070 ti se non 7900 xt...
Oddio, speriamo di no, un 192bit e 12gb nel 2025, anche no.:p
Molto probabilmente avrà i 256bit e 16gb, oppure 192bit e 16gb di ram.
Con i 3nm di TSMC, ipotizzando una densità per circuito di 200mt xmm2 (su circa 220), una 4080 la tireresti fuori con 225mm2 (anche se non tutto scala lineare tra logica, anologico e sram, es la logica al 50%), però a questo devi aggiungere tutti i transistor dei tensor, RT core, ed altre affinità.:)
Ce la possono fare a tirar fuori una simil 4080 da GB205, magari con le gddr7 senza ricorrere a bus troppo importanti(256 bit di bus siamo abituati a vederli ora su AD103, che sarebbe due tier sopra questo chip...).
Sarà sicuramente un chip interessante, e non mi dispiacerebbe vederla con 16gb di vram invece di 12, ma non nutro chissà quale fiducia. :rolleyes:
Ale55andr0
13-08-2023, 14:08
AMD ha fatto come lui, si sono accordati, parole di jensen praticamente, ed ha tagliato i chip come lui.
La 7600 vs 4060 è la dimostrazione, la 7800xt chiamata 7900 e l'altra.:)
questo dalle mia parti si chiama cartello, e andrebbe indagato dall'antitrust. E mi stupisce che nessuno ne parli
Si ok, fascia di mercato è un conto, salto di nanometria un altro.:)
Infatti sotto la 4090 (che è pure un cut) sono tutti rename.
Per salto di nanometria, possiamo intendere come perf, per die. Ed una 4080, ha un die più piccolo della 3060ti-3070. e rispetto a queste il salto è quantico.
Per fascia di prezzo, però è una fregatura, 1199$.
A noi utenti non ce ne fotte una mazza del salto di nodo, ci interessa quanto otteniamo e con quanti din din per valutare "il salto", e come ben dici è una fregatura, ottenuta pure con un cartello, quindi illegale perchè frutto di accordo palesemente a scapito del consumatore. Ma dove sono finiti gli americhi che fan class action per ogni cagata?
Motenai78
13-08-2023, 14:21
Il problema è che sono azienda americane, dove sono meno sensibili al tema... in Europa avrebbero avuto delle rogne.
Va anche detto che è un mercato di nicchia...
Inviato dal mio SM-A226B utilizzando Tapatalk
Ale55andr0
13-08-2023, 14:24
Il problema è che sono azienda americane, dove sono meno sensibili al tema... in Europa avrebbero avuto delle rogne.
Va anche detto che è un mercato di nicchia...
Inviato dal mio SM-A226B utilizzando Tapatalk
meno sensibili in America lato antitrust? mah...no, il mercato del PC gaming è una nicchia manco per sbaglio, muove ancora cifre da capogiro...
Motenai78
13-08-2023, 14:50
Io lo vedo come una nazione da fare west xD
Ammetto che non so le cifre del mercato, parlo solo danno mio modesto punto di vista (che può essere fallace); però, sempre a naso, non penso abbia i numeri di smartphone o TV, per fare due esempi..
Sicuro tira una brutta aria, purtroppo.
Inviato dal mio SM-A226B utilizzando Tapatalk
questo dalle mia parti si chiama cartello, e andrebbe indagato dall'antitrust. E mi stupisce che nessuno ne parli
Si tratta di componenti di un prodotto. Come tali non può esserci un problema di cartello. Se non la vuoi c'è l'alternativa delle integrate. Al massimo può esserci nelle cpu. Senza un pc non funziona e non c'è alternativa ad Amd e Intel (ed anche lì ci sono alternative). Un cartello ad esempio può essere quello del petrolio dove sei obbligato a comprare benzina e ovviamente nessuno vuol svenderla per fare concorrenza.
mikael84
13-08-2023, 15:46
Lungi da me dire che da qui al 2025 potrebbero succederne parecchie, ma 512 bit di bus su GB202 ce li vedo bene solo in mancanza delle gddr7.
Però mi farebbe strano, Micron nel 2025 almeno le gddr7 a doppia densità dovrebbe averle. :O
Si infatti, si ipotizza un grosso 512 bit, proprio per ovviare alla carenza di g7.
Attenzione che quando parliamo di g7, non pensiamo subito ai 32 gb/s. Anche con le 5x si pensava ai 14-16 gb/s (arrivate a 10-11), o alle g6 da 24 (micron ha tirato 14 e 16, ma le 16 non le usa mai), o alle g6x 21 e 24, dopo una gen, ancora a 21.:p
Cmq, nvidia pensa soprattutto al mercato pro, quindi ci sta che cerchi un'aumento di ram, e bisogna vedere se le g7 lo garantiranno subito (con le g6x non le aveva).
Esattamente, navi 43 dovrebbe essere monolitica con un die tra i 200 e i 250 mm^2 a 4nm, ce la vedo ad andare più forte della prossima 7800 xt vista l'uarch ridisegnata e il nodo leggermente migliorato.
Non sarebbe blasfemia darla in range di performance dell'attuale 4070 ti se non 7900 xt...
Con i 4nm è fattibile, ma non so quanto sia la voglia di darti una simil 8600xt con perf da (o vicine) 4070ti.:p
5060= 407ti, mah.
Le fasce proposte mi fanno pensare a tanti di quei contentini e basta.
Ce la possono fare a tirar fuori una simil 4080 da GB205, magari con le gddr7 senza ricorrere a bus troppo importanti(256 bit di bus siamo abituati a vederli ora su AD103, che sarebbe due tier sopra questo chip...).
Sarà sicuramente un chip interessante, e non mi dispiacerebbe vederla con 16gb di vram invece di 12, ma non nutro chissà quale fiducia. :rolleyes:
Diciamo che se BL105 sarà la base delle 5070ti, la 4080 dovrebbe essere il minimo, e parlo del minimo, in quanto quella fascia, ha sempre preso la top della scorsa generazione.
Con i 3nm, la 4080 la può prendere easy anche una 4070 liscia.
Rimane da vedere, se BL105 includa la 5070ti, o si fermi alla 5070ti.
Il passo dai mega salti, ai saltini è breve, in quanto una 5070ti su BL103, potrebbe precludere pure un bus da 384 o 320 bit.
questo dalle mia parti si chiama cartello, e andrebbe indagato dall'antitrust. E mi stupisce che nessuno ne parli
A noi utenti non ce ne fotte una mazza del salto di nodo, ci interessa quanto otteniamo e con quanti din din per valutare "il salto", e come ben dici è una fregatura, ottenuta pure con un cartello, quindi illegale perchè frutto di accordo palesemente a scapito del consumatore. Ma dove sono finiti gli americhi che fan class action per ogni cagata?
E lo è, da tempo funziona così.:p
Tra di loro si fanno la guerra (metaforicamente ovviamente... di sti tempi), ma in fondo collaborano.
Sul salto di nodo, in ambiente tecnico ci riguarda, ma ovviamente il mercato lo fa il prezzo. Se mi danno un 150mm2 con +30-40% vs la mia a costi non da rapina, non è che mi metto a fare le pulci.:p
Per me AMD al prossimo giro inizierà a lavorare un pò su RT core, geometrie, etc... Più che puntare al top bilancerà meglio i chip, anche perchè solo di raster non vai da nessuna parte.
Le 7000 sono state deludenti anche per questo, alla fine non offrono nulla in più delle 6000 se non la potenza bruta della serie 7900.
La 7900xtx per quanto potente e in grado di rivaleggiare con la 4080 basta attivare il RT e va pure leggermente sotto la 4070ti...
Poi non sarebbe la prima volta che amd si concetra sulla fascia media, lo fece anche con le polaris e le 5000.
ninja750
13-08-2023, 20:13
Brutto da dire, ma Ada è stata una nuova Pascal, e RDNA 3 una nuova Vega...
beh no vega fu decisamente peggio perchè pareggiò prestazionalmente la 1080 un anno dopo, adesso almeno la XTX è uscita insieme alla 4080
qui la pecca di AMD è stata nel fallire l'incremento che ci si aspettava perf/watt gen vs gen dalla propria arch nonostante il passaggio da N7 a N5 infatti il giochino del rebrand fascia le sta riuscendo decisamente peggio di quello fatto da Giacco grazie al salto maggiore
ninja750
13-08-2023, 20:22
A noi utenti non ce ne fotte una mazza del salto di nodo, ci interessa quanto otteniamo e con quanti din din per valutare "il salto"
che sarebbe la cosa che dovremmo guardare tutti, ma a prescindere dalle perf tu sei il primo che non digerisce bus tagliati e barboneggiate sulla vram :D la questione prezzo è l'unica che rende ottima o immondizia una qualunque vga del pianeta
e in questa gen "il salto" non c'è stato per nessuno dei due, pattume da entrambe le parti fatte salvo in piccola parte XTX e la 4090
Io, da appassionato, non la vedo per niente bene la serie 5000, in primo luogo perché dato l'immobilismo della concorrenza JHH potrebbe allungare ancora di qualche mese più in là il lancio della nuova serie nel 2025, in secondo luogo tra AI, ritorno di crypo in pompa magna come si vocifera e amenità varie a Nvidia fregherà proprio poco poco se le sue schede costeranno troppo e ne verranno vendute meno unità, alla fine a loro interessa generare utili, non battere record di unità vendute.
Inoltre mi spiace vedere molti altri appassionati come me giustificare certi comportamenti: ricordo il putiferio quando venne lanciata la "Titan", eh ma 1000€ per una scheda video, una follia, eh ma è una fascia a sé, se uno ci lavora, ecc ecc.
Ora dopo circa 10 anni dalla comparsa della Titan, è bastato cambiare il nome in x90 ed è magicamente diventata da gaming e può giustificare il traino verso l'alto dei prezzi della x80 generando una reazione a catena di prezzi esagerati anche verso le fasce inferiori.
Non sta né in cielo né in terra che una vga con un chip di fascia bassa e 128 bit di collegamento bus costi più di 300€ quando solo 8 anni fa con gli stessi soldi ti prendevi una 970 che era una signora gpu, e no, in 8 anni il raddoppio del prezzo delle vga non è colpa dell'inflazione.
Per me il vero progresso è quando a parità di consumi e PREZZO raddoppi le prestazioni, se raddoppia anche il prezzo che progresso è?! :muro:
OrazioOC
14-08-2023, 10:12
beh no vega fu decisamente peggio perchè pareggiò prestazionalmente la 1080 un anno dopo, adesso almeno la XTX è uscita insieme alla 4080
qui la pecca di AMD è stata nel fallire l'incremento che ci si aspettava perf/watt gen vs gen dalla propria arch nonostante il passaggio da N7 a N5 infatti il giochino del rebrand fascia le sta riuscendo decisamente peggio di quello fatto da Giacco grazie al salto maggiore
Si forse il paragone con Vega è sicuramente esagerato, ma rdna 3 ad oggi non è assolutamente soddisfacente.
Vanno leggermente meglio delle 4080 in raster, ma fatto salvo quello non gli rimane quasi nulla.:rolleyes:
Penso che RDNA4 sarà un altro momento RDNA1/2 saranno chip piccoli con poche chiacchere e molti fatti, senza troppe amenità tecniche che non hanno portato a nulla. :)
Da vedere poi nvidia con GB205 cosa tira fuori, per me sarà una simil 4080 da spacciare come 4070 ti, ma vedremo, da qui al 2025 la strada è ancora tanta.
OrazioOC
14-08-2023, 10:29
Si infatti, si ipotizza un grosso 512 bit, proprio per ovviare alla carenza di g7.
Attenzione che quando parliamo di g7, non pensiamo subito ai 32 gb/s. Anche con le 5x si pensava ai 14-16 gb/s (arrivate a 10-11), o alle g6 da 24 (micron ha tirato 14 e 16, ma le 16 non le usa mai), o alle g6x 21 e 24, dopo una gen, ancora a 21.:p
Cmq, nvidia pensa soprattutto al mercato pro, quindi ci sta che cerchi un'aumento di ram, e bisogna vedere se le g7 lo garantiranno subito (con le g6x non le aveva).
Beh dai, se anche fossero delle gddr7 doppia densità a 28/30 gb/s sarebbe comunque un bel salto in fatto di bandwith dalle attuali gddr6/x.
Diamine le gddr6x migliori oggi girano con i capelli tirati a 21 gb/s, se queste nella prima applicazione girano anche mediamente più rilassate a 28 gb/s hanno comunque 1/3 della bandwith in più. Mica pizza e fichi. :D
Con i 4nm è fattibile, ma non so quanto sia la voglia di darti una simil 8600xt con perf da (o vicine) 4070ti.:p
5060= 407ti, mah.
Le fasce proposte mi fanno pensare a tanti di quei contentini e basta.
Infatti la dovrebbero chiamare 8700 xt, anche perchè se acchiapperà almeno la 7900 xt la manderebbe in automatico in EOL, un po' come la 5700 xt ha fatto nel 2019 nei confronti di vega 7.
Insomma una scheda contentino in attesa di un progetto di più alta fascia.
Diciamo che se BL105 sarà la base delle 5070ti, la 4080 dovrebbe essere il minimo, e parlo del minimo, in quanto quella fascia, ha sempre preso la top della scorsa generazione.
Con i 3nm, la 4080 la può prendere easy anche una 4070 liscia.
Rimane da vedere, se BL105 includa la 5070ti, o si fermi alla 5070ti.
Il passo dai mega salti, ai saltini è breve, in quanto una 5070ti su BL103, potrebbe precludere pure un bus da 384 o 320 bit.
Il fatto è che parliamo di un chip a metà strada tra AD104 e AD106, se parlassimo di GB204 sarebbe stato quasi lecito aspettarsi una simil 4090 dati i 3nm e l'uarch rivista, ma qui parliamo di un chippetto più contenuto.
Io rimarrei sulla mia stima di performance sui livelli della 4080 per la 5070 ti, e per la 5070 sulla falsariga della 4070 ti(magari 7900 xt per dar fastidio alla radeon rivale che costerà i canonici 50 euro in meno :oink: )
Dei prezzi ci si è sempre lamentati e puntualmente le critiche partono sempre da chi di schede non ne ha comprata mezza in 10 anni, o di gente che valuta usato e offerte, quindi di gente che non può o non è disposta a spendere cifre per questa passione.
Sono le stesse persone che commentano assiduanente ogni news o che stanno h24 sui forum da oltre 20 anni a innalzare shitstorm, a condire con disinformazione e a cannare ogni stima prestazionale delle gpu in uscita.
Della gtx 680 a 500 euro eravamo contenti? NO scandalo gk104 chippetto a quel prezzo
Della 780 a 650 eravamo contenti? NO
Della 1080 a 650 eravamo contenti? No (chippino da 314mm2 venduto a quel prezzo oddio che scandalo)
Della 2080ti? Vade retrooo 1279 euro Rt fasullo
3080 a 719? Ottima, ma solo su carta quel prezzo peccato che veniva 1200 nelle miglori delle ipotesi
4000 manco ne parliamo, si odia a prescindere.
Cosa fa capire? Che aldilà delle prestazioni elevate, quel che da fastidio è aprire il portafoglio quando le cifre diventano importanti.
Purtroppo il mercato è questo, criticare e spargere shitstorm non serve a nulla, al limite si laacia tutto sullo scaffale
Inviato dal mio SM-A715F utilizzando Tapatalk
D'accordissimo con te, però penso anche che bisogna imparare a dare il giusto prezzo alle cose: la 4090 ad oggi è la scheda da acquistare per chi ha il budget, però la x90 è la ex fascia Titan, la 2080Ti era cara, ma il suo prezzo era in parte giustificato dall'introduzione di tensor core e rt, 11gb di ram collegati a 384 bit e una padella di chip, la Titan RTX, che se la memoria non mi inganna costava 2500$, non andava ad influenzare il prezzo delle x80 e x80Ti.
Ora con il rebrand, il prezzo della x80 attuale è fortemente influenzato dalla x90, che di conseguenza si porta dietro tutti i prezzi nelle fasce più basse.
A me personalmente dà fastidio che schede come la 4060, 4060Ti, 4070, 4070Ti e 4080 costino uno sproposito per la tecnologia di produzione che montano, pcb dei puffi, bus tagliati, chip grossi come coriandoli: ecco vedere certi prezzi per cose che a loro costano 3 volte meno a me un po' l'acidità la fa salire.
Paradossalmente preferivo quando c'erano le varie lineup come le Quadro per il disegno professionale o le Tesla per i calcoli, ora avendo unificato tutto lo scotto lo paghiamo noi utenti per la felicità di JHH.
mikael84
14-08-2023, 12:23
Beh dai, se anche fossero delle gddr7 doppia densità a 28/30 gb/s sarebbe comunque un bel salto in fatto di bandwith dalle attuali gddr6/x.
Diamine le gddr6x migliori oggi girano con i capelli tirati a 21 gb/s, se queste nella prima applicazione girano anche mediamente più rilassate a 28 gb/s hanno comunque 1/3 della bandwith in più. Mica pizza e fichi. :D
No, anche partendo da 28, sarebbe buona, ma serve anche la tripla densità, altrimenti i bus piccoli sono incasinati. Sono necessarie anche buone latenze però, in quanto sono fondamentali per la banda effettiva, quella che leggi è teorica.
Attualmente le g6x sono quelle con latenze migliori.:)
Infatti la dovrebbero chiamare 8700 xt, anche perchè se acchiapperà almeno la 7900 xt la manderebbe in automatico in EOL, un po' come la 5700 xt ha fatto nel 2019 nei confronti di vega 7.
Insomma una scheda contentino in attesa di un progetto di più alta fascia.
Con i 3nm lontani, potrebbero anche optare per una sorta di polaris, più che rdna1. Nel senso. Chip mid, poi qualcosa di bello corposo con i 3nm.
Cmq anche qua è tutto da vedere.
Il fatto è che parliamo di un chip a metà strada tra AD104 e AD106, se parlassimo di GB204 sarebbe stato quasi lecito aspettarsi una simil 4090 dati i 3nm e l'uarch rivista, ma qui parliamo di un chippetto più contenuto.
Io rimarrei sulla mia stima di performance sui livelli della 4080 per la 5070 ti, e per la 5070 sulla falsariga della 4070 ti(magari 7900 xt per dar fastidio alla radeon rivale che costerà i canonici 50 euro in meno :oink: )
Qua bisogna molto vedere la microarchitettura, siamo arrivati ad un punto, in cui ci stiamo veghizzando.
Anche nvidia, seppur con tutti i motori GPC indipendenti, non riesce a scalare bene con troppi cuda.
Esempio:
La 4080 ha -40,62% di ALU vs la 4090.
La 4070 ha -39,47% di ALU vs la 4080.
Sono mediamente simili, ora guarda lo scaling, tra 4070 vs 4080 e 4080 vs 4090.
Ed anche in campo, pro (dove sono pensate) non scalano nulla. 4080 vs 4070 =+ 57%. 4090 vs 4080 = +19%.
https://www.guru3d.com/articles_pages/geforce_rtx_4070_review,25.html
Sinceramente, comincerei a rivedere la struttura interna, con più IPC per core/thread.
Vero, d'accordo su tutta la linea.
Imho le uniche posizionate bene (per modo di dire) sono 4090 e 4070.
La 4070 ha completamente tagliato fuori le 3080, 10 giorni prima del suo lancio (le 3080) costavano ancor fior di quattrini pure sul mercato dell'usato.
Le altre sono degli scam, 4080 è la seconda scheda più veloce (comprese l'offerta amd) ma è troppo cara per quello che offre.
Inviato dal mio SM-A715F utilizzando Tapatalk
Per me la 4070 è un ni: è vero che le prestazioni ci sono, ma va come una 3080, costano più o meno come sarebbe dovuta costare la 3080, pandemia a parte, con l'aggiunta del DLSS 3.
Personalmente continuo a preferire la 4090 che costa tanto, ma dà tanto, e se la prossima serie non son convinto, la tengo e campo altri due anni tranquillo, per dire.
Ale55andr0
14-08-2023, 14:14
beh no vega fu decisamente peggio perchè pareggiò prestazionalmente la 1080 un anno dopo, adesso almeno la XTX è uscita insieme alla 4080
qui la pecca di AMD è stata nel fallire l'incremento che ci si aspettava perf/watt gen vs gen dalla propria arch nonostante il passaggio da N7 a N5 infatti il giochino del rebrand fascia le sta riuscendo decisamente peggio di quello fatto da Giacco grazie al salto maggiore
e le prende in RT dalla NON top di gamma 4080. Sempre una "vega" è :p
ninja750
14-08-2023, 18:13
e le prende in RT dalla NON top di gamma 4080. Sempre una "vega" è :p
per quell'aspetto tecnico penso sia un sostanziale pareggio, ma che con l'ottimizzazione fatta per nvidia nei vari giochi porti a quel non trascurabile vantaggio. poi anche pareggiasse pari fascia le perf RT la gente comprerebbe cmq rtx quindi..
mikael84
14-08-2023, 19:26
La 4080 la vede col binocolo in Rt, ci sono casi dove sta proprio messa male, e qui i consumi stanno a 450-500w.
Ovvio questo è un caso limite, ma mediamente sta dietro comunque.
https://www.computerbase.de/2023-08/ratchet-und-clank-rift-apart-amd-raytracing/#abschnitt_benchmarks_in_full_hd_wqhd_und_uhd_mit_maximiertem_rt
Certo che prenderle da una 4080 (4070 travestita visto il core count) è gravissimo, a sto giro amd è arrivata in fascia x70 (4080) almeno prima dava fastidio alle 80 e le superava di misura con le sue top.
Al netto di RT in fascia top ha dato fastidio solo alle 3000 in raster e a kepler con le 290/290x da qui a 10 anni a sta parte.
Inviato dal mio SM-A715F utilizzando Tapatalk
Purtroppo più spingi con il RT, e più ne soffrono, facendo quasi tutto in shader core. Ed anche li devono dividersi i compiti.
Al momento, sul PT, arrivano addirittura ai picchi di turing.
Se io con la 3080, prendessi una 7900, non avrei benefici a 360°, e questo non aiuta la scelta. Su R e C, mi ritroverei pari alla 7900xtx, ma perderei il DLAA.
OrazioOC
14-08-2023, 20:08
https://videocardz.com/newz/cross-platform-3dmark-solar-bay-ray-tracing-benchmark-released-geforce-rtx-4090-is-24-5x-faster-than-s23-ultra
Io speravo che la 4090 fosse "solo" più veloce dell's23 ultra di 23 volte...
Banchmark carino comunque, mi ricorda molto il 3dmark ice storm...
Ale55andr0
14-08-2023, 20:54
Purtroppo più spingi con il RT, e più ne soffrono, facendo quasi tutto in shader core. Ed anche li devono dividersi i compiti.
Al momento, sul PT, arrivano addirittura ai picchi di turing.
Se io con la 3080, prendessi una 7900, non avrei benefici a 360°, e questo non aiuta la scelta. Su R e C, mi ritroverei pari alla 7900xtx, ma perderei il DLAA.
In PT servono cmq una 4090 e il frame gen, o una 4080 se giochi a risoluzioni sub 4k. Ergo io prenderei la 7900 tutta la vita a confronto di una 3080, anche perchè su tutto il resto non c'è proprio partita.
mikael84
14-08-2023, 21:10
In PT servono cmq una 4090 e il frame gen, o una 4080 se giochi a risoluzioni sub 4k. Ergo io prenderei la 7900 tutta la vita a confronto di una 3080, anche perchè su tutto il resto non c'è proprio partita.
Con il DLSS e g-sync ci giochi (certo non over 60, ma si gioca).
Il PT cmq, è un metro di paragone estremo per valutare le vere capacità delle gpu in quell'ambito.
Cmq per te che sei senza GPU è perfetta, già da Ampere GA102, bisogna valutare.
Infatti nell'esempio di sopra, in ReC avrei frame da 7900, ma perderei il DLAA, che ritengo il plus veramente valido.
https://videocardz.com/newz/cross-platform-3dmark-solar-bay-ray-tracing-benchmark-released-geforce-rtx-4090-is-24-5x-faster-than-s23-ultra
Io speravo che la 4090 fosse "solo" più veloce dell's23 ultra di 23 volte...
Banchmark carino comunque, mi ricorda molto il 3dmark ice storm...
Immagino la 4090 quanto sia stata sfruttata. :D
mikael84
15-08-2023, 16:08
Eh no ma scherzi? La 7900xtx è alla pari della 4090 poichè in remnant II pre patch se la gioca con quest'ultima, peccato che post patch la 4090 guadagni +50% e se ne va via, quindi 4080=7900xtx e 4090 su un altro pianeta come giusto che sia.
Schede di fascia diverse, inutile negarlo. Bisogna però dire che la 4090, pur essendo una belva quantica, non scala per niente bene.
Gli ingegneri nvidia è meglio che si concentrino sul IPC più che al riempimento di cuda. La 4090 vs la 4080, e simil al rapporto tra 4080 e 4070, e qua viene mantenuto un 50-55%. roba che la 4090 non mantiene neppure in ambiti pro.:)
Fa davvero tristezza che in RT non siano arrivati alle perf di una 4070 (4080 travestita) solo in raster hanno quel misero 5-8% medio a seconda della batteria e dei giochi testati, risultato abbastanza variabile utilizzando upscaling, il piu delle volte le differenze sono trascurabili alcune volte come % siamo sul margine di errore.
In compenso si succhia 450-500w oltre una 4090 che performa quel 35-40% in raster medio con punte oltre il 50% ed in Rt manco ne parliamo che è meglio.
Dire che la 7900xtx vada poco oltre la 4080 in raster è un contentino, e non vedere l'elefante nella stanza, o come dire ad una obesa che ha delle belle t3tt3 grandi.
In Pt non ha proprio senso il paragone, 4080 in 2560x1440 con FG e DLSS Q ti permette di avere 70-80 frame su cb2077 e vi giochi bene, 4090 in 3440x1440 stessi setting ha un eccellente giocabilità, quelle si arenano a 20 fps.
Non hanno supporto, ma poi una 7900xtx che va uno sputo in più di una 3080 in Ratchet dai.. Adesso capotando il discorso e prendendo la ex semi top di gamma amd (6800xt) e l'attuale semi top 4080 paragonabile alla 7900xtx, invito a trovarmi un singolo caso a risoluzione target dove una 6800xt eguagli una 4080.
Vedete come sono altalenanti a livello di performance? Non si può vedere una 3080 che in Rt talloni la loro attuale top.
Intel è avanti in RT e sono usciti DOMANI con le gpu discrete, stimo molto di più le loro schede, questi ci sono dalla notte dei tempi e l'unico modo di fare concorrenza e fare dispetti come quello di mettere i bastoni tra le ruote in modo che i nuovi giochi siano blindati, senza dlss, FG, reflex e quant'altro.
Offrono solo FSR e un Rt buttato alla peggio (vedasi fc6, callisto etcc..) e mi dispiace molto per starfield a questo punto.
Inviato dal mio SM-A715F utilizzando Tapatalk
Beh andare come una 4080, significherebbe pareggiare nvidia senza neppure la base, il BVH.:)
Una 7900xtx ha un picco TF di 70-75tf, di cui 35 sono per le pipeline RT. Una 4080 ha di picco RT, con le sole unità native oltre 120tf + shader.
Un comparto troppo differente.
Qua i picchi si notano.
https://www.tomshardware.com/features/cyberpunk-2077-rt-overdrive-path-tracing-full-path-tracing-fully-unnecessary
Le intel, sono simil lovelace addirittura, ma peccano tra driver, ed i soli 32 rt core. Di certo la base è molto valida.
Schede di fascia diverse, inutile negarlo. Bisogna però dire che la 4090, pur essendo una belva quantica, non scala per niente bene.
Gli ingegneri nvidia è meglio che si concentrino sul IPC più che al riempimento di cuda. La 4090 vs la 4080, e simil al rapporto tra 4080 e 4070, e qua viene mantenuto un 50-55%. roba che la 4090 non mantiene neppure in ambiti pro.:)
Beh andare come una 4080, significherebbe pareggiare nvidia senza neppure la base, il BVH.:)
Una 7900xtx ha un picco TF di 70-75tf, di cui 35 sono per le pipeline RT. Una 4080 ha di picco RT, con le sole unità native oltre 120tf + shader.
Un comparto troppo differente.
Qua i picchi si notano.
https://www.tomshardware.com/features/cyberpunk-2077-rt-overdrive-path-tracing-full-path-tracing-fully-unnecessary
Le AMD, sono simil lovelace addirittura, ma peccano tra driver, ed i soli 32 rt core. Di certo la base è molto valida.
Secondo te c'è speranza che amd riesca a migliorare le performance in rt via driver? Possono ottimizzare qualcosa? Una cosa che ho sempre notato è che attivando il ray tracing il consumo della scheda scende (e di conseguenza salgono le frequenze) segno che non va al max... quindi ci saranno degli stalli da qualche parte immagino.
mikael84
15-08-2023, 21:03
Secondo te c'è speranza che amd riesca a migliorare le performance in rt via driver? Possono ottimizzare qualcosa? Una cosa che ho sempre notato è che attivando il ray tracing il consumo della scheda scende (e di conseguenza salgono le frequenze) segno che non va al max... quindi ci saranno degli stalli da qualche parte immagino.
Ti sei risposto da solo.:p
Il ray tracing si brucia i file di registro, lasciando i thread in idle. Più è complesso più ci saranno fasi di idle. Infatti, con RDNA3, hanno ampliato la vector cache da 128kb a 192kb, la L0 e la L1, per accorciare gli stalli.
Questo è quello che succede con un PT o un RT ultra.
https://i.postimg.cc/L8rb5xkX/pat-test.png
Come puoi vedere l'architettura sbnada completamente man mano che aumenta la complessità, ma le fasi di idle sono sempre elevatissime.
Con il PT ad esempio, viene letteralmente bruciato il file di registro, riuscendo mediamente ad utilizzare 4 thread su 16 contemporaneamente, 32kb su 128kb. Mentre con RT meno invasivo cambia in quanto l'occupazione scende di circa abbastanza.
Se il PT ti usa 32, un RT te ne usa 14, lavorando su 9/16 thread.
RDNA3 ha la vector cache maggiorata, di conseguenza riesce a gestire meglio i thread. Essendo più complesso.
Tuttavia, le fasi di stallo si mantengono sempre molto elevate.
AMD per migliorare, dovrebbe creare unità BVH.:)
Appunto anche volendo non hanno i numeri.
Si infatti, parte di quelle alu il più delle volte non scalano, altrimenti si garantirebbe vs 4080 quel +50-60% in 4k medio, al posto del 35% raggiunto a fatica.
Quelle volte che scala per bene la 4080 viene polverizzata completamente, peccato le medie.
Più si sale con gpc e cuda e più è dura scalare, e nemmeno aumentando la risoluzione tipo in 5k si riesce nell'impresa, anzi dai test risultano avere gli stessi comportamenti.
Infatti, la 4090 va di potenza bruta, ma fondamentalmente scala molto molto male. Con uno scaling ottimale, dovrebbe sempre dare 45-55% alle 7900 e 4080.
Purtroppo va troppo in stallo, e purtroppo la cache tagliata così non l'aiuta. Tutte quelle unità, aumentano troppo gli MPKI ed i cuda rimangono troppo in idle.
Aumentare ipc per core sarebbe una soluzione per mantenere la gpu sfruttata, al posto dj avere tanti core con ipc minore, vediamo con blackwell se rivedono gli Sm, ma credo di si, non avendo il salto di pp che hanno avuto a sto giro, qualcosa cambieranno per forza a livello di istruzioni.
Hai fatto l'esempio della 4070 vs 4080 dove viene mantenuto un buon +58% di prestazioni, in 4k secondo cbase (anche se il 4k non è la res target
della 4070 e poverina arretra un pò) ma la differenza in Hw è più o meno quella, la 4080 ha il +65% di alu.
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
Inviato dal mio SM-A715F utilizzando Tapatalk
Purtroppo, la 4090 punta tutto sulla potenza, ma è troppo sbilanciata, vedere alcune volte anche 20% è imbarazzante. Anche il 35% la permette di staccare tutto ma lo scaling è basso.
Es: tra 4070ti e 4080 c'è il 26%, ed il rapporto è di 26,67% ( di cui un 4% lo fa la banda/cache)
tra 4080 e 4090, c'è il 33% circa, ma ha quasi il 70% in più di cuda.
https://tpucdn.com/review/gigabyte-geforce-rtx-4070-ti-gaming-oc/images/relative-performance-rt_3840-2160.png
Grazie per la spiegazione. Quindi via driver immagino non si possa fare meglio di così...
Comunque avranno fatto dei test internamente prima di rilasciare le schede e vedendo che i guadagni erano praticamente inesistenti potevano forse fare qualcosa di meglio. A meno che già non fosse troppo tardi ed hanno rinviato a rdna 4...chissà.
OrazioOC
16-08-2023, 10:38
Comunque stavo pensando, siamo a metà agosto, son passati 2 mesetti dal lancio della 4060, ma ancora non si parla di 4050.
Immagino sia la sku mutuata dalla 4050 mobile per desktop, quindi 2560 cc e 6gb gddr6(bus 96 bit) con tdp di 75-85w.
E' strano che non se ne parli, forse hanno ancora troppe rtx 3050/3060 di cui sbarazzarsi? :rolleyes:
OT:
Avete visto che bel polverone che è successo tra Linus Tech Tips e Gamers Nexus/Hardware Unboxed? Il tutto per un retest mancato da parte di LTT per delle customizzazioni after market di una 4090 testata molto alla "buona". :doh:
Ormai da certi canali bisogna veramente guardarsi le spalle, solo video d'intrattenimento e hardware memes da parte di certi. :(
OT:
Avete visto che bel polverone che è successo tra Linus Tech Tips e Gamers Nexus/Hardware Unboxed? Il tutto per un retest mancato da parte di LTT per delle customizzazioni after market di una 4090 testata molto alla "buona". :doh:
Ormai da certi canali bisogna veramente guardarsi le spalle, solo video d'intrattenimento e hardware memes da parte di certi. :(
:D Tutto è nato da questo dipendente del Lab di LTT che ha detto che LORO, a differenza di Gamers Nexus e di Hardware Unboxed, testano nuovi componenti con nuovi test ogni volta e quindi sottintendendo che il lavoro degli altri sia qualitativamente più scarso rispetto al loro.
https://youtu.be/FGW3TPytTjc?t=4
Giustamente al cappellone gli ha roso il chiulo (a ragione aggiungerei) e s'è messo a fare le pulci al lavoro dell'altro. Direi un siparietto divertente.
OrazioOC
16-08-2023, 12:36
:D Tutto è nato da questo dipendente del Lab di LTT che ha detto che LORO, a differenza di Gamers Nexus e di Hardware Unboxed, testano nuovi componenti con nuovi test ogni volta e quindi sottintendendo che il lavoro degli altri sia qualitativamente più scarso rispetto al loro.
https://youtu.be/FGW3TPytTjc?t=4
Giustamente al cappellone gli ha roso il chiulo (a ragione aggiungerei) e s'è messo a fare le pulci al lavoro dell'altro. Direi un siparietto divertente.
Io sapevo della review di un certo waterblock abbastanza costosetto certificato per la 3090/ti, ma che poi è stato recensito su una 4090 con prestazioni non troppo esaltanti, non essendo appunto compatibile per quest'ultima ma per le 3090/ti.
Da li la richiesta di un retest su un hardware appropriato, richiesta rigettata perchè a loro dire LTT è una fabbrica di recensioni e non hanno tempo per i retest(ed è vero, se guardiamo al loro canale non ci sono retest di harware dai tempi che furono).
Di conseguenza è partita la shitstorm. :stordita:
È ancora vivo Linus? Non lo seguo dal 2013 da big kepler.
Per è sempre stato patetico
Inviato dal mio SM-A715F utilizzando Tapatalk
Beh come recensore vero e proprio anche io lo considero morto da quei tempi li.
E' sempre stato un canale che punta sull'intrattenimento o alla generazione di hardware memes che non all'approfondimento di un certo prodotto.
E poi non lo considero manco un personaggio "pulito", i suoi video sono delle markettate incredibili. :rolleyes:
ColdWarGuy
16-08-2023, 12:43
OT:
Avete visto che bel polverone che è successo tra Linus Tech Tips e Gamers Nexus/Hardware Unboxed? Il tutto per un retest mancato da parte di LTT per delle customizzazioni after market di una 4090 testata molto alla "buona". :doh:
Ormai da certi canali bisogna veramente guardarsi le spalle, solo video d'intrattenimento e hardware memes da parte di certi. :(
LTT è un entità a dir poco imbarazzante, non ho mai capito come il tizio possa avere tanto seguito perchè dal punto di vista tecnico è sostanzialmente ridicolo.
IL fondo l'ha toccato quando ha dichiarato di aver rifiutato un offerta di 100 milioni di dollari per la sua attività ...
LINUS MOLLA TUTTO: RIFIUTATA OFFERTA DA 100 MILIONI, MA NON SARÀ PIÙ CEO (https://tech.everyeye.it/notizie/linus-sebastian-lascia-rifiuta-offerta-100-milioni-non-ceo-650651.html)
Al confronto sia Gamers Nexus che Hardware Unboxed sono a ben altro livello, al di là del fatto che non reggo a pelle questi ultimi, ma questo è un parere personale :D
mikael84
16-08-2023, 13:00
Grazie per la spiegazione. Quindi via driver immagino non si possa fare meglio di così...
Comunque avranno fatto dei test internamente prima di rilasciare le schede e vedendo che i guadagni erano praticamente inesistenti potevano forse fare qualcosa di meglio. A meno che già non fosse troppo tardi ed hanno rinviato a rdna 4...chissà.
Purtroppo viene difficile abbattere limiti strutturali, soprattutto in fase di RT massivo.
RDNA3 ha rivisto completamente le pipeline RT(come il culling, una sorta di SER, miglior gestione delle intersezioni), e soprattutto la vector/LO/L1, ma sul campo a pari spec, non sembrano esserci miglioramenti degni di nota.
L'unico che mostra veri vantaggi, è il test PT di 3dmark.
Fin quando non rivedono tutto, con unità apposite, non faranno strada.
Comunque stavo pensando, siamo a metà agosto, son passati 2 mesetti dal lancio della 4060, ma ancora non si parla di 4050.
Immagino sia la sku mutuata dalla 4050 mobile per desktop, quindi 2560 cc e 6gb gddr6(bus 96 bit) con tdp di 75-85w.
E' strano che non se ne parli, forse hanno ancora troppe rtx 3050/3060 di cui sbarazzarsi? :rolleyes:
Vero, completamente dimenticata, ma non se ne sente la mancanza.:p
Ormai da certi canali bisogna veramente guardarsi le spalle, solo video d'intrattenimento e hardware memes da parte di certi. :(
Beh fanno quello, cosa ti aspetti roba tecnica?:p
Le x50 sono sempre le ultime ad uscire, ma a sto giro la carta della 4050ti se la sono giocata chiamandola 4060.
Presumo che gli scarti li stanno utilizzando principalmente sul mobile, dove ha più senso visti i limiti sul PL.
mikael84
18-08-2023, 12:51
Le x50 sono sempre le ultime ad uscire, ma a sto giro la carta della 4050ti se la sono giocata chiamandola 4060.
Presumo che gli scarti li stanno utilizzando principalmente sul mobile, dove ha più senso visti i limiti sul PL.
Più che scarti, stanno segmentando le offerte.
Il fail è davvero irrisorio.
Nel desktop non è poi tanto conveniente. Sarà un contentino più avanti.
Cmq la "legge di moore è morta", la 4060 a livello di wafer gli costa circa 25$ in più rispetto al 1050ti.:p
https://i.postimg.cc/yd0xRmt2/4050.png
Ale55andr0
18-08-2023, 22:06
"castrato in sta maniera"
sicuramente il creation engine richiede frame gen e dlss 3 abbinati come minimo a una con una 4080 o non si move. Sarà ingiocabile senza upscale di default, la nativa purtroppo è roba da consolari. Faticherà a fare più di 200 frame in 4k così :cry:
...I bambini dell'asilo hanno imparato da quelli nell'incubatrice cmq, quelli dell'AA possibile solo su nvidia, dx 10.1 rimosse visto che facevano ben figurare i bambini dell'asilo e physx impossibile da ottimizzare sulle cpu, ma nessuno mi pare piagnucolasse "asiloaggine"...:)
Ale55andr0
18-08-2023, 22:15
La nativa è per stolti.
Ormai senza dlss e rt non si va da nessuna parte.
:rotfl:
cmq pigliatela col signor AI :O...quanti giochi nuovi ha annunciato con dlss3 che si è fatto pagare a peso d'oro? :asd:
https://postimg.cc/TLH3mb06
'notte :O
mikael84
18-08-2023, 22:25
"castrato in sta maniera"
sicuramente il creation engine richiede frame gen e dlss 3 abbinati come minimo a una con una 4080 o non si move. Sarà ingiocabile senza upscale di default, la nativa purtroppo è roba da consolari. Faticherà a fare più di 200 frame in 4k così :cry:
...I bambini dell'asilo hanno imparato da quelli nell'incubatrice cmq, quelli dell'AA possibile solo su nvidia, dx 10.1 rimosse visto che facevano ben figurare i bambini dell'asilo e physx impossibile da ottimizzare sulle cpu, ma nessuno mi pare piagnucolasse "asiloaggine"...:)
Il problema non sta solo nel DLSS, ma nel DLAA che è un capolavoro.:)
Se sei a frame alti, devi giocare con TAA, invece potevi giocare con il DLAA.
Ale55andr0
18-08-2023, 22:30
Il problema non sta solo nel DLSS, ma nel DLAA che è un capolavoro.:)
Se sei a frame alti, devi giochi con TAA, invece potevi giocare con il DLAA.
come sopra: indirizzare la raccolta firme a Mr AI che caga fantastiliardi coi soldi che gli danno i suoi fedelissimi proseliti ma la colpa è di AMD che è ancora intenta a trovare gli ultimi 50cents per usare la macchina da caffè del radeon group :asd:
Quando li manderà a fare in (_I_) a titolo definitivo riducendo ulteriormente l'impegno per le vga gaming per far fare le canzoncine spastiche all'AI coi motivetti "I like nvidia" sai poi le risate dopo che, poco prima di mollare il settore a noi caro, gli avrà cmq tolto senza difficoltà alcuna 3k per il DLSS4 (usato su un gioco ogni 10 ed esclusivo sulle 5000 :sofico: )
nessuno29
19-08-2023, 06:43
Piagnistei a parte, basterà cambiare qualche dll ed avremo il dlss, dlaa o altra diavoleria semmai se ne dovesse sentire il bisogno. Altrimenti si gioca benissimo anche senza (spoiler).
Evidentemente il cin3gr0 se lo può permettere.
Sai quando la concorrenza arriva con la top che è uno scaldabagno da 450-500w e che in rt le prende da un ad103 smunto come la 4080 (4070) ed in raster sono li li con la differenza che la prima consuma 300w stock max ed in uv scende sotto i 200w.
Con 450w se permetti ci sta una scheda he quando va male fa +35% raster e quando va bene siamo al.+50%
In rt non ne parliamo proprio.
Cosa vuoi farci? non te le mette di certo al prezzo degli scaldabagni.
Pensiamoa quanto sono dei pagliacci, FSR3 dopo mesi e mesi non è ancora pervenuto, faranno in tempo ad uscire le 8000.
Inviato dal mio SM-A715F utilizzando Tapatalk
Secondo me è più fail il dlss3 che il fsr3.
Fsr è sempre stato un di più (che oggi dlss e fsr li considererei obbligatori, ma passiamo oltre).
La politica di nvidia invece è stata ti metto il dlss3, ti raddoppio i frame (al di là di come e lo scotto da pagare a fps bassi, unico punto in cui serve) e poi te lo implemento forse in 3 titoli in croce.
Peccato che a differenza di amd, per nvidia è stato il cavallo di battaglia per giustificare prezzi no sense delle 4000
OrazioOC
19-08-2023, 10:31
Vero, completamente dimenticata, ma non se ne sente la mancanza.:p
Lungi da me postare robaccia da gente che posta "leak" di aziende multimiliardarie dalla tazza del water, però "Moore law is dead" parla di un inventorio di nvidia fatto di ga106 e ga104 di quasi 6 milioni di schede. :rolleyes:
Ergo 3050/3060/3060ti ce le terremo per un bel po', forse nvidia in questa fase con tutto questo presunto inventorio non avrebbe neanche la voglia di vendere chippetti tipo ad107 e ad106 al loro prezzo naturale(250 euro la 4060 ad107 e 350 euro la 4060 ti ad106)...
Personalmente penso che la lineup delle 4000 sia a "posto" così, non penso JHH abbia bisogno di tirar fuori altre schede low end, sta vendendo con un ricarico pazzesco i chip AI, pare sia il più grande introito da quando è nata Nvidia.
Secondo me di sto passo a noi resteranno le briciole vendute a caro prezzo, altro che DLSS3 e FG.
Vedremo appena si avrà qualche leak sulle 5000, ma con queste notizie degli ultimi giorni son decisamente pessimista.
mikael84
19-08-2023, 11:23
Lungi da me postare robaccia da gente che posta "leak" di aziende multimiliardarie dalla tazza del water, però "Moore law is dead" parla di un inventorio di nvidia fatto di ga106 e ga104 di quasi 6 milioni di schede. :rolleyes:
Ergo 3050/3060/3060ti ce le terremo per un bel po', forse nvidia in questa fase con tutto questo presunto inventorio non avrebbe neanche la voglia di vendere chippetti tipo ad107 e ad106 al loro prezzo naturale(250 euro la 4060 ad107 e 350 euro la 4060 ti ad106)...
Quel personaggio è quello che è, ma basta aprire un banale trovaprezzi per vedere una lista sterminata di GA106, soprattutto x60.
Con Ampere, aveva due linee separate, tsmc per le HPC e samsung per le gaming-pro, quindi non poteva usare samsung per A100. Ora avendo la stessa linea, al momento pensa solo a fare utili vendendo bancali di H100 e bruciandosi gran parte dei wafer per AI.
Con le HPC i wafer li polverizzi, con chip over 800mm2.
Potrebbe cambiare qualcosa con il chip HPC B100 a 3nm, dove cercherà di concentrarsi soprattutto su quelli.
OrazioOC
19-08-2023, 11:23
Personalmente penso che la lineup delle 4000 sia a "posto" così, non penso JHH abbia bisogno di tirar fuori altre schede low end, sta vendendo con un ricarico pazzesco i chip AI, pare sia il più grande introito da quando è nata Nvidia.
Secondo me di sto passo a noi resteranno le briciole vendute a caro prezzo, altro che DLSS3 e FG.
Vedremo appena si avrà qualche leak sulle 5000, ma con queste notizie degli ultimi giorni son decisamente pessimista.
La fascia bassa ad onor del vero non esiste più dalla 1650 super, ultima scheda nvidia lanciata sotto i 200 dollari.
Ma comunque se è vero il dato sull'invenduto delle ampere di fascia media, non mi aspetto nè cali di prezzo per le serie 4000, nè refresh super e fascia bassa 4000.
In pratica nvidia nel DIY chiude i rubinetti fino a blackwell, ergo nuove gpu tra quasi 2 anni.:doh: :doh:
OrazioOC
19-08-2023, 11:30
Quel personaggio è quello che è, ma basta aprire un banale trovaprezzi per vedere una lista sterminata di GA106, soprattutto x60.
Con Ampere, aveva due linee separate, tsmc per le HPC e samsung per le gaming-pro, quindi non poteva usare samsung per A100. Ora avendo la stessa linea, al momento pensa solo a fare utili vendendo bancali di H100 e bruciandosi gran parte dei wafer per AI.
Con le HPC i wafer li polverizzi, con chip over 800mm2.
Potrebbe cambiare qualcosa con il chip HPC B100 a 3nm, dove cercherà di concentrarsi soprattutto su quelli.
Ergo nel DIY godiamoci quello che abbiamo per ora, perchè prima di blackwell l'aria non cambierà, ergo ci aspettano due anni bellissimi(dopo due anni di mining). :rolleyes:
Bah onestamente nel 2023 il pc o te lo fai di fascia altissima quasi budgetless, oppure tantovale prendersi una console per giocare alle solite robe. :doh:
mikael84
19-08-2023, 11:49
Ergo nel DIY godiamoci quello che abbiamo per ora, perchè prima di blackwell l'aria non cambierà, ergo ci aspettano due anni bellissimi(dopo due anni di mining). :rolleyes:
Bah onestamente nel 2023 il pc o te lo fai di fascia altissima quasi budgetless, oppure tantovale prendersi una console per giocare alle solite robe. :doh:
Purtroppo: del doman non v'è certezza diceva il Magnifico.
Sinceramente, tra AMD che potrebbe non competere più in fascia alta o anche media, tra Blackwell posticipato, è tutto un mistero.
Ipotizzando anche una 5090 nel 2025, la lineup verrà completata nel 2026 forse...
Il primo step, è capire se almeno il chip HPC basato su B100 3nmP (in produzione di massa primi 2024), debutterà in tempo, in modo da lasciare qualche wafer sui 5nm ai pro-gamers.
Potremmo anche aspettarci un refresh di Lovelace, una 5090 sopra, e AMD con RDNA4 con i 4nmP.
OrazioOC
19-08-2023, 13:04
Purtroppo: del doman non v'è certezza diceva il Magnifico.
Sinceramente, tra AMD che potrebbe non competere più in fascia alta o anche media, tra Blackwell posticipato, è tutto un mistero.
Ipotizzando anche una 5090 nel 2025, la lineup verrà completata nel 2026 forse...
Il primo step, è capire se almeno il chip HPC basato su B100 3nmP (in produzione di massa primi 2024), debutterà in tempo, in modo da lasciare qualche wafer sui 5nm ai pro-gamers.
Potremmo anche aspettarci un refresh di Lovelace, una 5090 sopra, e AMD con RDNA4 con i 4nmP.
Non ci vuole niente, ma mi sento di dire che Ada ad oggi avrà vita lunga, un po' come turing...
Ale55andr0
19-08-2023, 14:06
Altrimenti si gioca benissimo anche senza (spoiler).
https://www.youtube.com/watch?v=_gxqv4-Tzpg
mikael84
19-08-2023, 15:30
La nativa è per stolti.
Ormai senza dlss e rt non si va da nessuna parte.
Ci vuole potenza rawwwww uber powa per giocare in nativo con taa e vedere blurrato o seghettato così da sprecare 2/5 del frame rate ottenibile con Dlss Q con una qualita superiore.
Is the way, welcome 2017.
Inviato dal mio SM-A715F utilizzando Tapatalk
Immagina ad averlo avuto ai tempi, visto che dovevi giocare così, altrimenti era tutto seghettato (al massimo ti passo un 2x):
https://gamegpu.com/images/stories/Test_GPU/Action/Assassins_Creed_Unity/test/ac_2560_msaa.jpg
A circa così, se non meglio, visto che di base quella è un 1600p (che cmq cambia poco 4mpixel)
https://gamegpu.com/images/stories/Test_GPU/Action/Assassins_Creed_Unity/test/new/ac_1920.jpg
mikael84
19-08-2023, 15:46
come sopra: indirizzare la raccolta firme a Mr AI che caga fantastiliardi coi soldi che gli danno i suoi fedelissimi proseliti ma la colpa è di AMD che è ancora intenta a trovare gli ultimi 50cents per usare la macchina da caffè del radeon group :asd:
Quando li manderà a fare in (_I_) a titolo definitivo riducendo ulteriormente l'impegno per le vga gaming per far fare le canzoncine spastiche all'AI coi motivetti "I like nvidia" sai poi le risate dopo che, poco prima di mollare il settore a noi caro, gli avrà cmq tolto senza difficoltà alcuna 3k per il DLSS4 (usato su un gioco ogni 10 ed esclusivo sulle 5000 :sofico: )
Vedendo la situazione dei rename, che piace a molti, poteva anche fare così.:p
4080 12 = 4080ti 1199 ( simile alla 3080ti ma va un pò meglio, più DLSS3)
4080 = 4090 1599
4090 = 4090ti 1999
Sulla 5090 a 3k$, ormai tutto può essere, ma 1999$ almeno potrebbero essere auspicabili.:)
Un 600 e passa mm2, a 3nm con magari 32gb, gli costano sicuramente di più della 4090, e cercherà di fare margine uguale o superiore all'attuale.:)
Non ci vuole niente, ma mi sento di dire che Ada ad oggi avrà vita lunga, un po' come turing...
Per un'azienda quotata in borsa come nvidia, stare ferma 4 anni è un problema. Probabilmente qualcosa si muoverà, in quanto le cose sono 2: o si brucia tutti i wafer nel HPC, o gli rimarranno bancali di lovelace che prima o poi dovrà smaltire.:)
Ale55andr0
19-08-2023, 15:46
Ci vuole più vram, 32gb in fascia media dovrebbe essere lo sweet spot è quella la ricetta giusta per un frame rate alto e di livello.
E poi diciamolcelo schede da 900 euro devono fare 400fps in 4k (cosi da sfruttare i monitor da 360hz 4k che non esistono) con Path tracing spinto al massimo, o rt 50 raggi 150 rimbalzi.
Die da 1000mm2 e consumi sui 1000w, cosi da sfruttare gli ali atx 3.0 da 1600w, almebo sono giustificati.
Ovviamente senza dlss, con dlss minimo 600-800 fps, la tara è quella
Tutto questo per 850-900 euro mi sembra il minimo.
a ognuno il suo gyammy :D, c'è anche quello verde verde quindi...come "l'originale" prende un concetto e per contraddire parte l'iperbole e il nonsense.
Cmq a beneficio del dubbio, 16gb sono adeguati per una gpu moderna di fascia superiore alle 5 carte, finita li' :)
Vedendo la situazione dei rename, che piace a molti, poteva anche fare così/CUT/
potevano e dovevano fare solo una cosa: non prendere per i fondelli. Obiettivo non raggiunto per entrambe ;)
mikael84
19-08-2023, 16:01
Ricordo, DLAA avrebbe risolto la situazione istant senza dimezzare i fps, unico modo per tirarlo a fram elevati era usare fxaa (ma era una mezza cagxta) utilizzavo mssa2x.
Syndicate era messo pure peggio, aveva una combo di aa da far schifo, per non parlare del fatto che le ruote dei carri e gli abiti si muovevano a 30fps (inizialmente)
Ai tempi Unity lo tiravo con lo sli di 970, si faticava tantisismo in single gpu, la 980 che era la top (prima della 980ti) arracanva in 1440p con i filtri.
Graficamente era da Wow per il 2014, anche se pieno di bug risolti nel corso del tempo.
Ti dirò che l'ho tenuto sempre installato, ancora oggi gioco con le 4000 con msaa8x XD roba impensabile per i tempi.
Una remastered di un titolo del genere con Ray tracing e Dlaa sarebbe da spavento.
Inviato dal mio SM-A715F utilizzando Tapatalk
Io lo giocai con lo SLI di 780 occate a 1280 (1006 di base/ quasi 2ghz a 2,6 in rapporto, o meglio quasi il salto nodo samsung/tsmc) e con vari sacrifici, come le texture e qualche effetto.
Stavo vicino ai 600 watt.
Il MSAA ti sfondava le rop's.
Tuttavia a schermo per i tempi era a dir poco mostruoso, il primo salto next gen.
Una rem. con rt serio, sarebbe tanta roba pure oggi.
Ale55andr0
19-08-2023, 17:48
Credo di non aver esagerato, o forse realisticamente parlando vorresti una 4090 per 850 euro?
Mai detto. Dico che è esagerato, anzi sfacciato 8/900 per la ram di una 6700xt e il bus di una x60 piuttosto. E non esiste mezza giustificazione che sia una per quello.
mikael84
19-08-2023, 18:58
Mai detto. Dico che è esagerato, anzi sfacciato 8/900 per la ram di una 6700xt e il bus di una x60 piuttosto. E non esiste mezza giustificazione che sia una per quello.
https://www.hwupgrade.it/news/cpu/legge-di-moore-viva-o-morta-nvidia-e-intel-la-vedono-in-modo-diverso_110512.html
"La Legge di Moore è morta", ha dichiarato Huang. È completamente finita, quindi l'idea che un chip diminuirà di costo nel tempo, sfortunatamente, è una storia del passato".:O
amon.akira
19-08-2023, 18:59
Vai tranquillo che la prossima 5090 ce la vedo benissimo a $1999 Msrp e di certo la colpa non è solo di giacchetta, ma anche di chi l'ha messo in quelle condizioni di fare prezzi osceni
cioè noi o amd o entrambi? :D :(
Ale55andr0
19-08-2023, 19:34
https://www.hwupgrade.it/news/cpu/legge-di-moore-viva-o-morta-nvidia-e-intel-la-vedono-in-modo-diverso_110512.html
"La Legge di Moore è morta", ha dichiarato Huang. È completamente finita, quindi l'idea che un chip diminuirà di costo nel tempo, sfortunatamente, è una storia del passato".:O
tutti moriremo, lui incluso (e coi soldi nel loculo non ci farà nulla), ma la tecnologia andrà avanti. Digli questo. :O
Entrambi, tanto con la concorrenza ci fa cartello, anche avendo quei prodotti ridicoli vedi come si sono messi d'accordo lato prezzi.
quindi il potere di innescare il cortocircuito è nelle mani di chi le allunga verso il portafoglio per dargli moneta...
Non credo che la AI sia una bolla, è l'alba di un nuovo salto tecnologico ma...se, ripeto SE per caso non dovesse essere così e da qui qualche annetto la bolla si esaurirà, che il cielo lo aiuti (cioè fosse per me dovrebbe fulminarlo seduta stante :asd: ma avete capito che intendevo...) perchè si', anche compagnie fantastiliardare in passato sono finite in bankrupt...
Non credo che la AI sia una bolla, è l'alba di un nuovo salto tecnologico ma...se, ripeto SE per caso non dovesse essere così e da qui qualche annetto la bolla si esaurirà, che il cielo lo aiuti (cioè fosse per me dovrebbe fulminarlo seduta stante :asd: ma avete capito che intendevo...) perchè si', anche compagnie fantastiliardare in passato sono finite in bankrupt...
Guarda se davvero Nvidia andasse in fallimento (tutto è possibile) la vedo davvero dura per il futuro dei videogiochi, se adesso giochiamo già quasi al limite del fotorealismo è per merito di Nvidia e non certo di AMD che dal lato VGA fa acqua da tutte le parti, hardware e software/drivers.
Purtroppo attualmente non vedo davvero nessuno in grado di prendere il posto di Nvidia, facciamocene una ragione una buona volta.:D :D :D
OrazioOC
19-08-2023, 20:23
Guarda se davvero Nvidia andasse in fallimento (tutto è possibile) la vedo davvero dura per il futuro dei videogiochi, se adesso giochiamo già quasi al limite del fotorealismo è per merito di Nvidia e non certo di AMD che dal lato VGA fa acqua da tutte le parti, hardware e software/drivers.
Purtroppo attualmente non vedo davvero nessuno in grado di prendere il posto di Nvidia, facciamocene una ragione una buona volta.:D :D :D
Non è fallita amd quando "doveva fallire" nel 2015, figuriamoci se fallisce nvidia.
Qui non parliamo di un costruttore di case qualsiasi, se fa la botta si porta dietro l'intero settore...
Piuttosto fossi in nvidia oltre che a concentrarmi nell'IA, inizierei a liberare un po' l'inventorio dall'enorme mole di rtx 3000 ancora in giro.
Non è possibile vedere a 320 euro le 3060 12gb, quasi non li valeva al lancio figuriamoci ora. :asd:
Ale55andr0
19-08-2023, 20:29
Guarda se davvero Nvidia andasse in fallimento (tutto è possibile) la vedo davvero dura per il futuro dei videogiochi, se adesso giochiamo già quasi al limite del fotorealismo è per merito di Nvidia e non certo di AMD che dal lato VGA fa acqua da tutte le parti, hardware e software/drivers.
Purtroppo attualmente non vedo davvero nessuno in grado di prendere il posto di Nvidia, facciamocene una ragione una buona volta.:D :D :D
il fotorealismo lo fa l'engine e la bravura di chi lo usa, non la gpu, posto che spesso AMD ha avuto più tecnologie avanzate in anticipo, dalle dx10.1, al trueform (un prima forma di hardware tesselator eoni prima che arrivasse), per non parlare delle dx12 vulkan "nate da AMD". By the way l'rt NON lo ha inventato nvidia :read:, e ora non è che sto rt abbia catapultato i giochi chissà dove, se vedi CP2077 anche in PT che ad oggi è l'applicazione in game più avanzata e toccabile con mano che abbiamo ti accorgi al volo che di "foto" e di "realistico" non c'è un tubo e che stai vedendo un gioco, se invece vedi le demo in lumen di UE5 qualche "secondino di riflessione" serve almeno :D...
L'unica cosa certa e comprovata è che non fosse per AMD staremmo a contare +50mhz +/-3-5% di ipc e cambio di mobo ogni santa volta :asd:
.
Non è possibile vedere a 320 euro le 3060 12gb, quasi non li valeva al lancio figuriamoci ora. :asd:
non le hanno loro in inventario ma i disgraziati che gliele hanno comprate a bancali...nvidia non vende a noi, vende ai produttori di schede video, ai grossi fornitori di hw, e agli oem, sono tutti questi a essere saturi di merce invenduta, sai che gli frega a nvidia, il suo guadagno lo ha bello che avuto
https://www.hwupgrade.it/news/cpu/legge-di-moore-viva-o-morta-nvidia-e-intel-la-vedono-in-modo-diverso_110512.html
"La Legge di Moore è morta", ha dichiarato Huang. È completamente finita, quindi l'idea che un chip diminuirà di costo nel tempo, sfortunatamente, è una storia del passato".:O
Se la legge di Moore per JHH è morta, da parte mia, da utente di lunga data Nvidia, è morta la voglia di acquistare le sue schede sovraprezzate, so che se ne farà una ragione, ma se molti altri nel mondo inizieranno a prendere una decisione come la mia forse, secondo me, cambierà idea sui prezzi sulle schede da "gaming"... :D
Comunque la notizia è dello scorso autunno ed è chiaro che la legge di Moore, con le nanometrie raggiunte, non sarà più completamente valida finché non si troverà un materiale alternativo al classico silicio che viene usato ad oggi per produrre i "wafer", però detta così è una scusa bella e buona di Nvidia per alzare i prezzi di qualsiasi chip a dismisura.
nessuno29
20-08-2023, 12:25
Guarda se davvero Nvidia andasse in fallimento (tutto è possibile) la vedo davvero dura per il futuro dei videogiochi, se adesso giochiamo già quasi al limite del fotorealismo è per merito di Nvidia e non certo di AMD che dal lato VGA fa acqua da tutte le parti, hardware e software/drivers.
Purtroppo attualmente non vedo davvero nessuno in grado di prendere il posto di Nvidia, facciamocene una ragione una buona volta.:D :D :D
Ma al limite del fotorealismo in quale gioco? poi merito di Nvidia una cosa che dipende dagli sviluppatori?
Guarda se davvero Nvidia andasse in fallimento (tutto è possibile) la vedo davvero dura per il futuro dei videogiochi, se adesso giochiamo già quasi al limite del fotorealismo è per merito di Nvidia e non certo di AMD che dal lato VGA fa acqua da tutte le parti, hardware e software/drivers.
Purtroppo attualmente non vedo davvero nessuno in grado di prendere il posto di Nvidia, facciamocene una ragione una buona volta.:D :D :D
Prima dell'avvento di Apple, nella telefonia, anche Nokia sembrava impossibile che venisse spodestata.
In questo mercato se fai un passo falso nel momento sbagliato vieni travolto.
Nvidia ha le spalle forti in quanto il suo buisness è diversificato e non è nata ieri, inoltre se non è fallita nel 2003 dopo aver speso fior di milioni di dollari per sviluppare NV30 che poi si rivelò un fiasco, e (sicuramente all'epoca non aveva le finanze che ha ora) è praticamente impossibile che ora possa andare gambe all'aria.
Però se la sua politica sui prezzi sarà questa, secondo me il mercato consumer diventerà una piccola parte della fetta dei suoi utili in quanto sempre più persone guarderanno altrove.
Ma al limite del fotorealismo in quale gioco? poi merito di Nvidia una cosa che dipende dagli sviluppatori?
GTA 5 con Natural vision evolved, in determinate condizioni, ci arriva molto vicino :)
E qua non centra nVidia e tanto meno il RT, che non c'é.
e se non è fallita nel 2003 dopo aver speso fior di milioni di dollari per sviluppare NV30 che poi si rivelò un fiasco
ricordo bene quel periodo... nvidia aveva già una fanbase enorme (e anche le recensioni "ci andarono coi guanti bianchi")... vendettero quel cesso immondo con percentuali comunque maggiori rispetto alle superiori (di gran lunga) ati 9700/9800, quindi non ha mai corso davvero nessun pericolo serio... ;)
ricordo bene quel periodo... nvidia aveva già una fanbase enorme (e anche le recensioni "ci andarono coi guanti bianchi")... vendettero quel cesso immondo con percentuali comunque maggiori rispetto alle superiori (di gran lunga) ati 9700/9800, quindi non ha mai corso davvero nessun pericolo serio... ;)
No no, ne parlò anche JHH in un'intervista alcuni anni fa, il progetto NV30 rischiò di far colare a picco l'azienda principalmente per colpa di Microsoft e di TSMC, corressero subito il tiro con NV35 ed infine con NV38 che mettevano una pezza ai problemi del predecessore, ma solo con le GeForce 6 riuscirono a tornare competitivi.
Non per nulla la FX 5800 ultra è quasi una leggenda tra i collezionisti, ne furono vendute pochissime unità, specialmente qui in Italia, ma nonostante tutto, quelle poche che arrivarono erano già tutte prenotate, segno che anche qui da noi c'era chi comprava verde in qualsiasi caso già ai tempi.
Ricordo che si passò dai megathread flame 3dfx contro tutti a NV30 contro tutti. :D
Ora 20 anno dopo posso dire che Nvida è diventata un colosso, che pecca un po' troppo di ingordigia però, perché le prestazioni ci sarebbero pure con la serie 4000, sono i prezzi delle mid che son da truffa.
Guarda se davvero Nvidia andasse in fallimento (tutto è possibile) la vedo davvero dura per il futuro dei videogiochi, se adesso giochiamo già quasi al limite del fotorealismo è per merito di Nvidia e non certo di AMD che dal lato VGA fa acqua da tutte le parti, hardware e software/drivers.
Purtroppo attualmente non vedo davvero nessuno in grado di prendere il posto di Nvidia, facciamocene una ragione una buona volta.:D :D :D
:rotfl:
Beh almeno ti faccio i complimenti perchè mi hai strappato una risata :ciapet:.
:rotfl:
Beh almeno ti faccio i complimenti perchè mi hai strappato una risata :ciapet:.
Ho letto un po' tutti i commenti al mio post ma ti devo fare i complimenti anch'io, è l'unico post davvero senza senso, senza nemmeno lo stracccio di un'argomentazione...
In ogni caso checchè ne diciate tutti, sapete benissimo che se non ci fosse Nvidia per noi giocatori sarebbe davvero triste e lo dico non perchè sia un sostenitore di Nvidia ma perchè è la pura e semplice realtà dei fatti.
Siete contenti che AMD faccia dei prodotti inguardabili ma allo stesso prezzo? Contenti voi, io spero sempre che finalmente qualcosa si muova sul fronte concorrenza perchè io al momento non ne vedo alcuna...
ultimate trip
20-08-2023, 19:11
La fascia bassa ad onor del vero non esiste più dalla 1650 super, ultima scheda nvidia lanciata sotto i 200 dollari.
Ma comunque se è vero il dato sull'invenduto delle ampere di fascia media, non mi aspetto nè cali di prezzo per le serie 4000, nè refresh super e fascia bassa 4000.
In pratica nvidia nel DIY chiude i rubinetti fino a blackwell, ergo nuove gpu tra quasi 2 anni.:doh: :doh:
Purtroppo: del doman non v'è certezza diceva il Magnifico.
Sinceramente, tra AMD che potrebbe non competere più in fascia alta o anche media, tra Blackwell posticipato, è tutto un mistero.
Ipotizzando anche una 5090 nel 2025, la lineup verrà completata nel 2026 forse...
Il primo step, è capire se almeno il chip HPC basato su B100 3nmP (in produzione di massa primi 2024), debutterà in tempo, in modo da lasciare qualche wafer sui 5nm ai pro-gamers.
Potremmo anche aspettarci un refresh di Lovelace, una 5090 sopra, e AMD con RDNA4 con i 4nmP.
da un articolo di hwupgrade su starfield:
https://www.hwupgrade.it/news/skvideo/starfield-pc-nei-file-del-preload-nessuna-traccia-di-dlss-e-xess-ma-il-problema-e-un-altro_119288.html
"La lunga attesa per FSR 3 sta dando modo a NVIDIA non solo di cementare la sua posizione con il DLSS 3, ma possibilmente allungare sulla concorrenza. Non possiamo parlarvene, ma sappiamo che qualcosa bolle in pentola tra le file del produttore delle GPU GeForce. Restate sintonizzati."
forse il refresh esce nel 4q
Ale55andr0
20-08-2023, 19:58
forse il refresh esce nel 4q
troppo poco, toppo tardi e agli stessi dobloni come minimo se non di più...non si disturbino
ultimate trip
20-08-2023, 20:08
troppo poco, toppo tardi e agli stessi dobloni come minimo se non di più...non si disturbino
ma magari si riesce a smuovere qualcosa, magari le vecchie calano un po'
OrazioOC
20-08-2023, 20:16
da un articolo di hwupgrade su starfield:
"La lunga attesa per FSR 3 sta dando modo a NVIDIA non solo di cementare la sua posizione con il DLSS 3, ma possibilmente allungare sulla concorrenza. Non possiamo parlarvene, ma sappiamo che qualcosa bolle in pentola tra le file del produttore delle GPU GeForce. Restate sintonizzati."
forse il refresh esce nel 4q
Onestamente dubito molto nel refresh della linuep rtx 4000, semplicemente non vedo i presupposti per farlo.
Non c'è una reale competizione(alla meglio la 7800 xt sarà un pelo più veloce di 6800 xt in raster, ergo poco poco meglio della 4070 che però avrà ben altra resa con il raytracing), nvidia poi spinge a vendere le schede a scopo di produttività IA, ergo noi gamer veniamo ancora una volta messi da parte.
La cosa più ridicola è quanto nvidia sia più avanti rispetto agli unici due competitor, sembra di vedere la intel pre ryzen. :rolleyes:
nessuno29
20-08-2023, 20:22
Onestamente dubito molto nel refresh della linuep rtx 4000, semplicemente non vedo i presupposti per farlo.
Non c'è una reale competizione(alla meglio la 7800 xt sarà un pelo più veloce di 6800 xt in raster, ergo poco poco meglio della 4070 che però avrà ben altra resa con il raytracing), nvidia poi spinge a vendere le schede a scopo di produttività IA, ergo noi gamer veniamo ancora una volta messi da parte.
La cosa più ridicola è quanto nvidia sia più avanti rispetto agli unici due competitor, sembra di vedere la intel pre ryzen. :rolleyes:
Almeno nvidia spinge comunque in fascia alta, Intel offriva 4c\8t a passi di +7\8% a gen da 6 anni.
OrazioOC
20-08-2023, 20:35
Almeno nvidia spinge comunque in fascia alta, Intel offriva 4c\8t a passi di +7\8% a gen da 6 anni.
Purtroppo però se li fa pagare questi upgrade, tolta la 4090 che costa "solo" 100 dollari di listino in più della 3090 al suo lancio, il resto della gamma è bello inflazionato.
La 4080 ha un prezzo esagerato rispetto alla 3080(699 dollari vs 1199 dollari), 4070 ti che di nome fa ad104 ma di fatto ha bus e vram da nuova 3060 te l'appoggiano per appena 799 dollari. :doh:
Il resto della lineup sono sidegrade, 4060 costa come una 3060 ti e va' di meno, 4060 ti è appaiata alla 3070 solo in full hd, oltre è poco più che una 3060 ti.
4070 è la più valida ad oggi, ma anche qui 650 banane per 12gb di vram e performance raster da 3080/6800 xt. :rolleyes:
Purtroppo però se li fa pagare questi upgrade, tolta la 4090 che costa "solo" 100 dollari di listino in più della 3090 al suo lancio, il resto della gamma è bello inflazionato.
La 4080 ha un prezzo esagerato rispetto alla 3080(699 dollari vs 1199 dollari), 4070 ti che di nome fa ad104 ma di fatto ha bus e vram da nuova 3060 te l'appoggiano per appena 799 dollari. :doh:
Il resto della lineup sono sidegrade, 4060 costa come una 3060 ti e va' di meno, 4060 ti è appaiata alla 3070 solo in full hd, oltre è poco più che una 3060 ti.
4070 è la più valida ad oggi, ma anche qui 650 banane per 12gb di vram e performance raster da 3080/6800 xt. :rolleyes:
La cosa brutta è che pure i rossi si son messi a fare lo stesso gioco di rebranding delle fasce con prezzi osceni, e le prestazioni son pure peggiori per certi versi.
Di sto passo non se ne esce se non cambiando hobby.
OrazioOC
20-08-2023, 21:19
La cosa brutta è che pure i rossi si son messi a fare lo stesso gioco di rebranding delle fasce con prezzi osceni, e le prestazioni son pure peggiori per certi versi.
Di sto passo non se ne esce se non cambiando hobby.
Infatti ne stanno uscendo con le osse rotte, fortuna per loro che ryzen e le console tirano, altrimenti ciaone.
E dire che fino allo scorso anno qualsiasi scoreggia su pcie express veniva presa e venduta instantamente.
Mi aspettavo da parte di nvidia e amd qualcosa di più rispetto a gpu che vendono da 3 anni a questa parte. :rolleyes:
Ho letto un po' tutti i commenti al mio post ma ti devo fare i complimenti anch'io, è l'unico post davvero senza senso, senza nemmeno lo stracccio di un'argomentazione...
In ogni caso checchè ne diciate tutti, sapete benissimo che se non ci fosse Nvidia per noi giocatori sarebbe davvero triste e lo dico non perchè sia un sostenitore di Nvidia ma perchè è la pura e semplice realtà dei fatti.
Siete contenti che AMD faccia dei prodotti inguardabili ma allo stesso prezzo? Contenti voi, io spero sempre che finalmente qualcosa si muova sul fronte concorrenza perchè io al momento non ne vedo alcuna...
"Nvidia è il top e se non ci fosse lei saremmo all'età della pietra, amd fa cagare (e non mi pare di aver detto nulla in contrario eh :asd:)".
"Nvidia è la meglio perchè è la realtà dei fatti trust me bro".
Ineccepibili argomentazioni, piene di punti condivisibili ma soprattutto fonti d'incredibili spunti di conversazione.
https://i.postimg.cc/sgmhFSCy/italian-cult-movie-carlo-verdone.gif
ultimate trip
20-08-2023, 21:39
.........
E dire che fino allo scorso anno qualsiasi scoreggia su pcie express veniva presa e venduta instantamente.
Mi aspettavo da parte di nvidia e amd qualcosa di più rispetto a gpu che vendono da 3 anni a questa parte. :rolleyes:
ma loro sapevano che questi anni sarebbero stati di compressione del mercato e quindi hanno ridotto l'offerta e alzato i prezzi. vediamo il 2024/25 se la situazione migliora
ultimate trip
20-08-2023, 21:48
"Nvidia è il top e se non ci fosse lei saremmo all'età della pietra, amd fa cagare (e non mi pare di aver detto nulla in contrario eh :asd:)".
"Nvidia è la meglio perchè è la realtà dei fatti trust me bro".
Ineccepibili argomentazioni, piene di punti condivisibili ma soprattutto fonti d'incredibili spunti di conversazione.
https://i.postimg.cc/sgmhFSCy/italian-cult-movie-carlo-verdone.gif
a me sembra che ormai i prezzi (aprendo trovaprezzi e prendendo i + bassi) si siano assestati:
4090 a 1600
4080 a 1200
7900 xtx a 1000
7900 xt/4070ti a 800
chiaro che nvidia offre di più, ma a prezzi più alti.
vediamo ora le 7800 a settembre o se nvidia butta fuori altro, ma mi sa che per vedere abbassamenti di prezzi forse la prox gen
mikael84
21-08-2023, 02:12
Se la legge di Moore per JHH è morta, da parte mia, da utente di lunga data Nvidia, è morta la voglia di acquistare le sue schede sovraprezzate, so che se ne farà una ragione, ma se molti altri nel mondo inizieranno a prendere una decisione come la mia forse, secondo me, cambierà idea sui prezzi sulle schede da "gaming"... :D
Comunque la notizia è dello scorso autunno ed è chiaro che la legge di Moore, con le nanometrie raggiunte, non sarà più completamente valida finché non si troverà un materiale alternativo al classico silicio che viene usato ad oggi per produrre i "wafer", però detta così è una scusa bella e buona di Nvidia per alzare i prezzi di qualsiasi chip a dismisura.
L'ho messo per ridere, qualche decina di dollari, non fanno passare un 394 vs 378 a +700$:p
da un articolo di hwupgrade su starfield:
https://www.hwupgrade.it/news/skvideo/starfield-pc-nei-file-del-preload-nessuna-traccia-di-dlss-e-xess-ma-il-problema-e-un-altro_119288.html
"La lunga attesa per FSR 3 sta dando modo a NVIDIA non solo di cementare la sua posizione con il DLSS 3, ma possibilmente allungare sulla concorrenza. Non possiamo parlarvene, ma sappiamo che qualcosa bolle in pentola tra le file del produttore delle GPU GeForce. Restate sintonizzati."
forse il refresh esce nel 4q
Se mai faranno un refresh, non sarà quest'anno. Nvidia potrebbe dedicarsi al gaming-pro, quando si dedicherà al HPC Blackwell.
Anche se, con questa concorrenza non avrebbe alcun senso.:)
Almeno nvidia spinge comunque in fascia alta, Intel offriva 4c\8t a passi di +7\8% a gen da 6 anni.
Questa è un pò una credenza popolare. Intel vendeva i six core a 300 euro a partite dal 2014 con il 5820k. Purtroppo per una questione di banda e calore e consumi (84w vs 140 tdp), lasciava sull'hedt, ma niente di impossibile.
Diciamo che senza concorrenza non vai da nessuna parte, AMD rimase con gli FX per un secolo, se ci fosse stata un minimo di concorrenza già con Haswell avremmo avuto un 4770K con 6c/12t.
Gli HEDT comunque erano decisamente interessanti, il 5820K manteneva la saldatura e introduceva le DDR4, e fondamentalmente solo con l'uscita dei ryzen 3000 hanno concretamente iniziato a mostrare i segni del tempo.
Poi anche gli engine si sono evoluti, oggi sfrutti meglio gli HEDT in game che i rispettivi desktop con 4c/8t, però è oramai tutta roba del paleolitco come lo sono i ryzen 1000/2000.
mikael84
21-08-2023, 03:19
Diciamo che senza concorrenza non vai da nessuna parte, AMD rimase con gli FX per un secolo, se ci fosse stata un minimo di concorrenza già con Haswell avremmo avuto un 4770K con 6c/12t.
Gli HEDT comunque erano decisamente interessanti, il 5820K manteneva la saldatura e introduceva le DDR4, e fondamentalmente solo con l'uscita dei ryzen 3000 hanno concretamente iniziato a mostrare i segni del tempo.
Poi anche gli engine si sono evoluti, oggi sfrutti meglio gli HEDT in game che i rispettivi desktop con 4c/8t, però è oramai tutta roba del paleolitco come lo sono i ryzen 1000/2000.
Non proprio, infilare 6 core in fascia mainstream non era semplice, inoltre erano troppo leggeri con la banda d3, oltre che portare consumi molto più elevati. Intel scelse di lasciarlo in fascia hedt per il quad channel. Un 5820k a stock consumava quasi il doppio sulle rilevazioni, tanto che l'octa core fu lanciato con un boost di appena 3ghz
Gli ha messi 6-8 al secondo step 14nm.
Posso capire per la banda delle ddr3, che comunque sarebbe stata sufficiente considerando che a fine ciclo si vedevano kit anche da 2666/2800mhz, considera che la stessa gen 8 e 9 ha un controller che si ferma allo standard jedec 2666mhz, oltre é tutto oc.
Ma come dimensione del die un 6 core puro sarebbe stato solo di poco più grosso di un 2600K, sicuramente ci sarebbe stato un leggero sacrificio sul clock ma non portandoti dietro tutti i collegamenti Hedt non é qualcosa di infattibile al tempo, soprattutto con il successivo passaggio a broadwell.
Skylake fu esagerato, un 6700k aveva un die di soli 122mm2 praticamente la metà di un 2600K, anche la non retrocompatibilità ufficiale dei vari chipset con la serie 8 e 9 fu decisamente discutibile.
Inviato dal mio M2012K11AG utilizzando Tapatalk
"Nvidia è il top e se non ci fosse lei saremmo all'età della pietra, amd fa cagare (e non mi pare di aver detto nulla in contrario eh :asd:)".
"Nvidia è la meglio perchè è la realtà dei fatti trust me bro".
Ineccepibili argomentazioni, piene di punti condivisibili ma soprattutto fonti d'incredibili spunti di conversazione.
Altro post senza alcun senso, bravo!!!!:D :D :D
Ancora uno e batti il record :D :D :D :D
fraussantin
21-08-2023, 06:55
Diciamo che senza concorrenza non vai da nessuna parte, AMD rimase con gli FX per un secolo, se ci fosse stata un minimo di concorrenza già con Haswell avremmo avuto un 4770K con 6c/12t.
.
Ci sono pro e contro però: intel ha dormito per anni con i 4 core "aggiornado" il 2600k , però ci sono anche tanti utenti che si sono fatti durare il 2600k per anni. Perche di fatto era sempre sufficente visto che i giochi erano fatti per i 4 core.
Nvidia adotta da sempre la politica opposta.
Cioè si evolve e si fa concorrenza da sola.
E ad ogni gen hai morivi validi per cambiare , e almeno una si e una no devi cambiare se vuoi avere prestazioni decenti.
Qui la concorrenza piu che altro ci serve per i prezzi , ma vabbè è inutile parlarne.
nessuno29
21-08-2023, 08:08
Questa è un pò una credenza popolare. Intel vendeva i six core a 300 euro a partite dal 2014 con il 5820k. Purtroppo per una questione di banda e calore e consumi (84w vs 140 tdp), lasciava sull'hedt, ma niente di impossibile.
Era comunque una roba ultracostosa per l'epoca, 450+ euro di cpu (il listino era a 389 dollari + tasse), schede madri costosissime perché sul chipset mainstream i 6 core erano taboo (sul 5820k avevano anche tagliato le 40 linee pci-e a 28 quindi nulla che giustificasse la fascia hedt) e necessita di un quad channel ddr4 appena uscite, praticamente ti costava dai 1200 euro in su, e nel 2014 non erano i 1200 di ora come costo percepito.
L'ho messo per ridere, qualche decina di dollari, non fanno passare un 394 vs 378 a +700$:p
Io è proprio per quello che mi indigno ogni volta, i prezzi della 4080 e delle sorelle a scendere sono senza senso al netto degli aumenti.
Ci sono pro e contro però: intel ha dormito per anni con i 4 core "aggiornado" il 2600k , però ci sono anche tanti utenti che si sono fatti durare il 2600k per anni.
Presente! Son riuscito a tenere il 2600K occato a 4,2 GHz fino al 2018 quando ho sostituito la GTX 980 con la RTX 2070, lì ho dovuto cambiarlo perché altrimenti attivando RT diventava la fiera dello stuttering perché caricava troppo la CPU.
Ci sono pro e contro però: intel ha dormito per anni con i 4 core "aggiornado" il 2600k , però ci sono anche tanti utenti che si sono fatti durare il 2600k per anni. Perche di fatto era sempre sufficente visto che i giochi erano fatti per i 4 core.
Salve! 3770k @4.5Ghz dal 2012! :fagiano:
Salve! 3770k @4.5Ghz dal 2012! :fagiano:
Io con il 3930K, che finirà sul muletto :sofico:
nessuno29
21-08-2023, 09:02
Le schede madri costosissime le abbiamo oggi, amd è spietata su questo ancor più di intel, sto cercando una buona mobo per 7800x3d senza svenarmi, ma sotto ai 350-400 euro non si trova nulla che mi aggradi, mi sto arenando su una b650-e strix E o aorus master, per le x670 E che piacciono a me ci vogliono +600 euro (crosshair) e non mi sembra il caso, quanto vorrei tornare ai tempi fino al 2018 dove si respirava.
Per 60watt di cpu non ti servono 600 euro di scheda, acquista qualcosa senza badare troppo alle futilità delle schede di fascia alta e vedrai che trovi tanta roba a prezzo decente.
Quando si acquista una mobo bisogna sempre chiedersi se tutte quelle amenità servano realmente, e la risposta è sempre no.
Per 60watt di cpu non ti servono 600 euro di scheda, acquista qualcosa senza badare troppo alle futilità delle schede di fascia alta e vedrai che trovi tanta roba a prezzo decente.
Quando si acquista una mobo bisogna sempre chiedersi se tutte quelle amenità servano realmente, e la risposta è sempre no.
Ma il problema infatti è la fascia mid, se vuoi una B650E devi tirare fuori almeno 250€ per la più misera che se non erro è la Asrock, il paradosso è che per 30-50€ in più ci trovi le x670-E...
Se proprio vuoi maxare il risparmio, ci sono le B650 lisce dove la più scrauza atx non va sotto i 180€ e personalmente per una piattaforma che punta alla longevità da qui al 2026 preferirei avere il pcie 5.0 sia per gpu che nvme, considerando che oramai anche le x60ti sono passate a 8 linee.
Spero che al prossimo step levino di torno queste varianti E, soprattutto la x670 liscia è il chipset più insensato del listino.
Ma il problema infatti è la fascia mid, se vuoi una B650E devi tirare fuori almeno 250€ per la più misera che se non erro è la Asrock, il paradosso è che per 30-50€ in più ci trovi le x670-E...
Se proprio vuoi maxare il risparmio, ci sono le B650 lisce dove la più scrauza atx non va sotto i 180€ e personalmente per una piattaforma che punta alla longevità da qui al 2026 preferirei avere il pcie 5.0 sia per gpu che nvme, considerando che oramai anche le x60ti sono passate a 8 linee.
Spero che al prossimo step levino di torno queste varianti E, soprattutto la x670 liscia è il chipset più insensato del listino.
Io se fossi in te non spenderei troppo per la scheda madre.
Con AMD puntare sulla longevità ad alto livello non vale la pena soprattutto all’inizio di una nuova generazione.
Basti vedere quello che è successo con i ryzen 1000.
Le allora MB top di gamma si sono poi dimostrate inadeguate per sfruttare come si deve i processori top di gamma delle generazioni successive.
Il discorso longevità di AMD va bene fino alla fascia media.
Ti faccio un esempio: un mio amico comprò una buona ab350m con un ryzen 3 1200; dopo qualche anno ha preso un 5600X e poi ha anche cambiato le ram passando da 2666Mhz a 3200Mhz.
Tieni presente che quando cambierai processore molto probabilmente cambierai anche le ram prendendo delle DDR5 ad 8000Mhz. ;)
mikael84
21-08-2023, 12:38
Posso capire per la banda delle ddr3, che comunque sarebbe stata sufficiente considerando che a fine ciclo si vedevano kit anche da 2666/2800mhz, considera che la stessa gen 8 e 9 ha un controller che si ferma allo standard jedec 2666mhz, oltre é tutto oc.
Ma come dimensione del die un 6 core puro sarebbe stato solo di poco più grosso di un 2600K, sicuramente ci sarebbe stato un leggero sacrificio sul clock ma non portandoti dietro tutti i collegamenti Hedt non é qualcosa di infattibile al tempo, soprattutto con il successivo passaggio a broadwell.
Skylake fu esagerato, un 6700k aveva un die di soli 122mm2 praticamente la metà di un 2600K, anche la non retrocompatibilità ufficiale dei vari chipset con la serie 8 e 9 fu decisamente discutibile.
Inviato dal mio M2012K11AG utilizzando Tapatalk
A livello di die ci stava, ma tra scelte delle d3 (è vero che c'erano ram superiori, ma il progetto base, era pensato per ram basic) e consumi, non sarebbe stato proprio il massimo.
Il 4770k con 4 core e la pasta del capitano, non era di facile gestione, malgrado i consumi fossero ben più bassi dell'HEDT.
https://www.guru3d.com/articles_pages/core_i7_5960x_5930k_and_5820k_processor_review,8.html
Intel infatti decise di lasciarlo nell'HEDT e con mobo più carrozzate.
Il 6700k idem, per avere tot clock, tot, banda e tot TDP si scelse di lasciare in mainstream pure loro.
I ryzen portarono l'octa core partendo dai 12nm di samsung, con clock piuttosto bassi, e la versione top costava 499, che era lo stesso prezzo del 7820k hedt (8/16)
mikael84
21-08-2023, 12:50
Ci sono pro e contro però: intel ha dormito per anni con i 4 core "aggiornado" il 2600k , però ci sono anche tanti utenti che si sono fatti durare il 2600k per anni. Perche di fatto era sempre sufficente visto che i giochi erano fatti per i 4 core.
Nvidia adotta da sempre la politica opposta.
Cioè si evolve e si fa concorrenza da sola.
E ad ogni gen hai morivi validi per cambiare , e almeno una si e una no devi cambiare se vuoi avere prestazioni decenti.
Qui la concorrenza piu che altro ci serve per i prezzi , ma vabbè è inutile parlarne.
Il 2600k lo portavi a 4,8 con un d14-d15, + 40% le perf base.
Era comunque una roba ultracostosa per l'epoca, 450+ euro di cpu (il listino era a 389 dollari + tasse), schede madri costosissime perché sul chipset mainstream i 6 core erano taboo (sul 5820k avevano anche tagliato le 40 linee pci-e a 28 quindi nulla che giustificasse la fascia hedt) e necessita di un quad channel ddr4 appena uscite, praticamente ti costava dai 1200 euro in su, e nel 2014 non erano i 1200 di ora come costo percepito.
Era più costoso, in quanto la fascia mainstream era tarata per 88watt, non 140. Che arrivavano a 180 in consumi reali. Il PP era un 22nm intel (28 di tsmc). Lo tagliò nelle pci-e, proprio per portare un 6 core a prezzi più bassi nel 2014.
E' un processore che subito dopo uscito, lo trovavi a prezzi bassi, tipo 350.
Ovviamente più costoso in tutto, tra mobo e quad, ma si trovano ancora in giro. Inoltre erano saldati.
AMD partiva da un 12nm, Intel con i 14 gli ha cominciati a nel mainstream, ma il 9900k era tostissimo da gestire.
Io è proprio per quello che mi indigno ogni volta, i prezzi della 4080 e delle sorelle a scendere sono senza senso al netto degli aumenti.
Il prezzo di quella scheda è altissimo, ma è tarata principalmente per far vendere meglio le 90, ed anche in virtù della concorrenza.
Io come sempre detto, per farsi la guerra (metaforicamente, di sti tempi...) serviva la situazione lato CPU, con il rivale avanti di un nodo.
Il problema però è che nel comparto GPU i prezzi cominciano ad essere esosi per competere con uno piazza die a 607mm2.
Diciamo pure che i vari ryzen 1000/2000 in termini di IPC e latenze non è che fossero meglio, se la giocavano con Sandy-E e Ivi-E usciti 6-7 anni prima.
https://www.youtube.com/watch?v=xYxQ82wcA_s
Il salto grosso dai vecchi HEDT di intel, amd lo ha fatto con la serie 3000.
La prima gen dei ryzen fu valida esclusivamente per chi cercava alte prestazioni in MT a basso costo dato che i 1700/1700x te li tiravano dietro, ma in game hanno sempre avuto un comportamento un pò ni.
Ale55andr0
21-08-2023, 13:11
Le schede madri costosissime le abbiamo oggi, amd è spietata su questo ancor più di intel
sono fatte da AMD le mobo? Che io sappia fa solo il chipset
mikael84
21-08-2023, 13:22
Diciamo pure che i vari ryzen 1000/2000 in termini di IPC e latenze non è che fossero meglio, se la giocavano con Sandy-E e Ivi-E usciti 6-7 anni prima.
https://www.youtube.com/watch?v=xYxQ82wcA_s
Il salto grosso dai vecchi HEDT di intel, amd lo ha fatto con la serie 3000.
La prima gen dei ryzen fu valida esclusivamente per chi cercava alte prestazioni in MT a basso costo dato che i 1700/1700x te li tiravano dietro, ma in game hanno sempre avuto un comportamento un pò ni.
Chiudo l'OT con le CPU, visto che siamo OT, dicendo che paradossalmente il primo octa prestante su mainstream l'ha tirato fuori intel.
Ryzen 1, anticipò i tempi dell'octa, ma era una CPU quasi sperimentale ed inadatta al gaming per via delle latenze estreme lato ram, senza considerare le latenze cache toppate). Nel 2018 AMD ci mise una piccola pezza con la serie 2, aggiustando un pò le latenze, ma salvo MT, era decisamente indietro al 9900k.
Le cose si misero un pò meglio con la serie 3, l'anno dopo, grazie al passaggio di AMD ai 7nm di tsmc.
StylezZz`
21-08-2023, 14:12
E vabbè dai ci siamo capiti, hanno i loro accordi con gli AIB la giustificazione di questi prezzi alti non la trovo
Restano ancora tantissime mobo della precedente gen da smaltire, questo spiega anche i prezzi elevati delle nuove.
Io in autunno dovrei aggiornare tutto il sistema, ma ad oggi non saprei dove sbattere la testa, e con questi OT non mi state migliorando la situazione. :p
Va a finire che rimando tutto e resto così un altro anno.
bonzoxxx
21-08-2023, 16:02
Se avete 30.000 euro da buttare:
https://videocardz.com/newz/big-boss-workstation-features-seven-geforce-rtx-4090-gpus-with-a-total-of-168gb-gddr6x-memory-costs-29k-euro
Beh dai, non è tantissimo per chi ci lavora, di potenza ce ne sta parecchia
Se avete 30.000 euro da buttare:
https://videocardz.com/newz/big-boss-workstation-features-seven-geforce-rtx-4090-gpus-with-a-total-of-168gb-gddr6x-memory-costs-29k-euro
Ma la vera domanda è: ci gira Cyberpunk in path tracing?:D
mikael84
21-08-2023, 16:08
Ma la vera domanda è: ci gira Cyberpunk in path tracing?:D
Peggio della 4090 singola, visto che ne usi 1 e depotenziata.:p
Peggio della 4090 singola, visto che ne usi 1 e depotenziata.:p
Ero ironico ovviamente, comunque effettivamente limitarle a 300W ha un senso montandone 7. :)
Ale55andr0
21-08-2023, 16:41
E vabbè dai ci siamo capiti, hanno i loro accordi con gli AIB la giustificazione di questi prezzi alti non la trovo, non mi sembra che siano più corazzate, anzi, è un dato di fatto che sono più care a parità di fascia, alcune sono allineate alla controparte intel e sono ok, altre schizzano con prezzi da fascia superiore (sempre riferimento z790 le z690 viaggiano ancor più basse)
Non sposo il fatto di fatto di metterci la mobo barebone da 220 euro, almeno non rientra nel mio modus operandi.
Non regalano nulla, 7800x3d con mobo e ram decenti è una piatta costosa, bisogna tapparsi il naso e non guardare quanto va in MT perchè c'è da piangere, fortunatamente me ne sbatte una mazza e mi serve solo per strapazzare le gpu.
Controbilancia con consumi ottimi, temp ottime ed in gaming va una spada, dall'altra parte se guardi i consumi e le temp degli intel in full load ti vien voglia di buttare tutto dalla finestra.
Ad ognuno la sua.
boh, a me piace moltissimo la TUF B650 Plus di Asus e non la trovo affatto da barboni, adoro particolarmente il suo look "full black", ha un'alimentazione dignitosa e coi caps ad alta durata (quelli neri non i classici "argentati" dozzinali) poi bisogna vedere se uno vuole faccia pure il caffè allora ci sono certamente schede stra (imho inutilmente) costose piene di lucine e mille cose che si utilizzeranno da raramente a mai
Cosa buona è giusta, attendi arrow lake, se ti sei fatto bastare il 2600k così a lungo puoi farlo anche con il 9700k.
Per il momento il sistema è bilanciato.
Ambito gpu è più un casotto per l'anno prossimo temo ci sarà ancora ADA e credo che non ci saranno prezzi da saldo o offerte, aggiungi il fatto che avranno già quasi due anni sul groppone, se tanto mi da tanto.
Ma allora, essendo in 2K e giocando con titoli prevalentemente single player per ora il sistema va ancora "bene".
Però è innegabile che la CPU inizia a far bottleneck anche a questa risoluzione: con la 3070Ti si notava decisamente di più in alcuni giochi, con la A770 facendo meno frame e avendo più vram il problema è arginato.
Discorso gpu le Ada le prestazioni le hanno, per me non ci siamo col prezzo, puntando schede come la 4070Ti. Lato concorrenza mi stuzzicherebbe anche la 7900XT, ma hanno ancora troppi meh lato FSR3 e dual issue per i miei gusti oltre che a costare, anche loro, ovviamente troppo. :muro:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.