Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo
Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo
Per diversi giorni il Galaxy S26 Ultra di Samsung è stato il nostro compagno di vita. Oltre alle conferme del colosso coreano come la qualità del display e una suite AI senza rivali, arriva il Privacy Display, un unicum nel mondo smartphone. Ci sono ancora alcuni gap che non sono riusciti a colmare lato batteria e fotocamera, seppur con alcuni miglioramenti.
Diablo II Resurrected: il nuovo DLC Reign of the Warlock
Diablo II Resurrected: il nuovo DLC Reign of the Warlock
Abbiamo provato per voi il nuovo DLC lanciato a sorpresa da Blizzard per Diablo II: Resurrected e quella che segue è una disamina dei nuovi contenuti che abbiamo avuto modo di sperimentare nel corso delle nostre sessioni di gioco, con particolare riguardo per la nuova classe dello Stregone
Deep Tech Revolution: così Area Science Park apre i laboratori alle startup
Deep Tech Revolution: così Area Science Park apre i laboratori alle startup
Siamo tornati nel parco tecnologico di Trieste per il kick-off del programma che mette a disposizione di cinque startup le infrastrutture di ricerca, dal sincrotrone Elettra ai laboratori di genomica e HPC. Roberto Pillon racconta il modello e la visione
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 29-11-2024, 13:26   #106541
Jack Carver
Bannato
 
Iscritto dal: Oct 2022
Messaggi: 158
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
In vero non c'è assolutamente nulla di fantascientifico nel bus a 512bit che abbiamo visto più volte in passato anche su schede da 400 euro... (R9 390 AMD..) questo per chi la mena sui costi di tale soluzione che è chiaramente una barzelletta come motivazione...
Anzi non capisco perchè siamo ancora infognati col 256 (roba da primi anni 2000) nella maggior parte dei casi: da quel punto di vista l'evoluzione tecnologica è stata patetica fidando solo sul clock delle ram o sulla cache e vedendo addirittura ridicoli bus a 192 o peggio...
E' assurdo che persino bus più "umani" del 512 (che di inumano/fantascientifico come dicevo non ha proprio nulla..) come 320/384 siano cmq una rarità...spero proprio che per le ram si arrivi presto, come per le cpu, al muro fisico oltre il quale il clock non viene praticamente migliorato più di tanto (sono eoni che siamo fermi a 5 e spicci lato cpu e si cerca di lavorare su altro fra core count/latenze etc) e tornino ad ALLARGARE i bus facendo guadagnare UN BOTTO di banda a pari clock. Questi cerebrolesi che pensano solo a come spendere il meno possibile sino ad arrivare non all'osso ma al midollo, facendoti spendere però il più possibile...
ma che te ne frega che bus usano se le prestazioni alla fine sono soddisfacenti? una 4080 è complessivamente meglio di 7900xt a 320bit e XTX a 384bit. Quindi dov'è la tragedia dei bus più piccoli?

e per la vram faranno moduli da 3GB per chip quindi anche dal quel punto di vista siamo a posto. con una 256bit con 24GB ed una 192bit da quasi 20....
Jack Carver è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 13:26   #106542
Levax
Senior Member
 
Iscritto dal: Apr 2003
Messaggi: 459
La 5070 sarebbe dovuta essere quella che adesso secondo i rumor sarà la 5070 ti o giùdi lì, e mi riferisco solo al confronto con la 5080, perché dentro di me rimane ancora il ricordo di quando la x70 andava a giocarsela col top della generazione precedente e non sono convinto che con la 5070 ti accadrà.
__________________
You will die, mortal
Levax è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 13:33   #106543
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22743
Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
Ti do ragione ma sai perchè? Non perchè il chippetto non è da x70 ma perchè non da quell'aumento di prestazioni che ci si aspetterebbe.
Un X70 è sempre andata come la top di gamma precedente che io ricordi, e se lo fa con un chippetto sega od un chippone a me sta bene ugualmente. Ma è una cosa impossibile per la 5070 che dovrebbe prendere la 4090 o quasi, se fosse come il passato ( ma ci vorrebbe ben altro chip) ed invece se le cose vanno nella migliore delle ipotesi può prendere un 4070 Ti / Ti Super.
Per carità poi dipenderà dal prezzo feature dimensioni consumi ecc e potrebbe essere cmq una valida scheda video per i nuovi utenti interessati.
Un tempo questa 5070, non sarebbe neppure passata come 5060liscia, in quanto non mantiene neppure il classico standard di 1/3 dei cuda del chippone.
La x70 liscia, è sempre stata, 1/2 o ancora meno. Con ADA e BL, mantiene quasi il rapporto verso la x80, che è diventata la nuova elite, con un monolite sopra praticamente.
La 5080 essendo meno della metà del chippone, sarebbe la vera 5070, chip che tra l'altro rischia di non prendere neppure la 4090, che è pure uno scarto di AD102.

Qua però oltre ai costi, entrano in ballo i consumi. Se la 5080 con TDP da 320-400w, non può essere ritenuto chip medio, non tutti sono attrezzati per un chip del genere.
La 5070, per quanto molto povera, dovrebbe arrivar a 250watt, ovvero quello che un tempo, era il TDP delle GPU d'elite, come 980ti/780ti, ma anche 2080ti per certi versi.

Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
cut
Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
cut
Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
cut
Riprendo anche te, come ho fatto con tutti, per evitare di trasformare il thread in una chat, usa il multiquote, tasto vicino al quote, come ho fatto io sopra e qua.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0 - FTTH tim 2,5 gbps.

Ultima modifica di mikael84 : 29-11-2024 alle 13:39.
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 13:37   #106544
Jack Carver
Bannato
 
Iscritto dal: Oct 2022
Messaggi: 158
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Un tempo questa 5070, non sarebbe neppure passata come 5060liscia, in quanto non mantiene neppure il classico standard di 1/3 dei cuda del chippone.
La x70 liscia, è sempre stata, 1/2 o ancora meno. Con ADA e BL, mantiene quasi il rapporto verso la x80, che è diventata la nuova elite, con un monolite sopra praticamente.
La 5080 essendo meno della metà del chippone, sarebbe la vera 5070, chip che tra l'altro rischia di non prendere neppure la 4090, che è pure uno scarto di AD202.
può essere ma ho buone vibrazioni (ci ho indovinato spesso pur non essendo un pozzo di scenza in architetture varie) che riesca ad essere almeno un 25% meglio della 4080 e quindi nei giochi in media prende o va giusto un unghia meno della 4090.
Quote:
Qua però oltre ai costi, entrano in ballo i consumi. Se la 5080 con TDP da 320-400w, non può essere ritenuto chip medio, non tutti sono attrezzati per un chip del genere.
concordo
Quote:
La 5070, per quanto molto povera, dovrebbe arrivar a 250watt, ovvero quello che un tempo, era il TDP delle GPU d'elite, come 980ti/780ti, ma anche 2080ti per certi versi.
oltre i costi per creare gpu è aumentata in generale la barra del consumo energetico.

Quote:
Originariamente inviato da Levax Guarda i messaggi
La 5070 sarebbe dovuta essere quella che adesso secondo i rumor sarà la 5070 ti o giùdi lì, e mi riferisco solo al confronto con la 5080, perché dentro di me rimane ancora il ricordo di quando la x70 andava a giocarsela col top della generazione precedente e non sono convinto che con la 5070 ti accadrà.
credo che la 5070 Ti nella migliore delle ipotesi potrebbe prendere la 4080 super poi vedremo

Ultima modifica di Jack Carver : 29-11-2024 alle 13:57.
Jack Carver è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 14:22   #106545
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21579
Quote:
Originariamente inviato da mikael84 Guarda i messaggi

512bit, è un limite praticamente fisico
Lo usino che non muore nessuno

Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
ma che te ne frega che bus usano se le prestazioni alla fine sono soddisfacenti? una 4080 è complessivamente meglio di 7900xt a 320bit e XTX a 384bit. Quindi dov'è la tragedia dei bus più piccoli?

e per la vram faranno moduli da 3GB per chip quindi anche dal quel punto di vista siamo a posto. con una 256bit con 24GB ed una 192bit da quasi 20....
veramente si riparla di tagli da 12 per le 5000 sino alle 70....



PS: a 4080 è un prodotto di altra fascia di prezzo rispetto la 7900XT

PPS: la tragedia è che ti vendono ciofeghe sovraprezzate, a prescindere da quanto vanno, una 500 Abart resta una 500 anche se va forte. Tu a mille testoni mi devi dare L'HARDWARE non la fuffa.
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 29-11-2024 alle 14:25.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 14:25   #106546
redbaron
Senior Member
 
L'Avatar di redbaron
 
Iscritto dal: Jun 2000
Messaggi: 15790
https://videocardz.com/newz/inno3d-b...-rtx-50-at-ces
redbaron è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 14:28   #106547
Jack Carver
Bannato
 
Iscritto dal: Oct 2022
Messaggi: 158
Quote:
Originariamente inviato da zorco Guarda i messaggi
Ricordo la radeon 2900xt aveva il bus a 512bit uscita nel lontano 2007,presa per 389 euro all'uscita!!

Quanto il top te lo portavi a casa con cifre umane. Ormai il mondo è cambiato
Imho non è solo per una questione di prezzo: loro fanno chip più contenuti con bus più piccoli ( fino ad XX3 che sono 256bit) perchè li riutilizzano anche nei computer portatili ad alte prestazioni. Non credo che vun notebook lo vedremo mai con un gpu più complesso con 384 o 512bit stile 4090

Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi

PPS: la tragedia è che ti vendono ciofeghe sovraprezzate, a prescindere da quanto vanno, una 500 Abart resta una 500 anche se va forte. Tu a mille testoni mi devi dare L'HARDWARE non la fuffa.
Francamente raramente ho visto ciofeche nelle schede che ha fatto nvidia fino ad oggi (qualche X60 e la preistorica serie FX)
più praticamente , vedo quello che conta.. i consumi , feature, dimensioni e le prestazioni finali. non decido in base a quanti transistor, die size o che bus ha il chip.

Ultima modifica di Jack Carver : 29-11-2024 alle 14:39.
Jack Carver è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 15:08   #106548
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22743
Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
può essere ma ho buone vibrazioni (ci ho indovinato spesso pur non essendo un pozzo di scenza in architetture varie) che riesca ad essere almeno un 25% meglio della 4080 e quindi nei giochi in media prende o va giusto un unghia meno della 4090.
C'è però del controsenso nel ragionamento.
Se la 5080 (che ha mediamente i cuda della 4080s), va +25% rispetto la 4080s, la 5070ti e 5070, avranno un delta ancora maggiore, visto che partono con rapporti cuda superiori.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0 - FTTH tim 2,5 gbps.
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 15:31   #106549
Jack Carver
Bannato
 
Iscritto dal: Oct 2022
Messaggi: 158
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
C'è però del controsenso nel ragionamento.
Se la 5080 (che ha mediamente i cuda della 4080s), va +25% rispetto la 4080s, la 5070ti e 5070, avranno un delta ancora maggiore, visto che partono con rapporti cuda superiori.
anche la 5080, perchè io l'ho sempre confrontata con la 4080 che ha meno shader, con la stessa differenza che c'è tra la 4070 vs 5070. solo tra X70ti vs Ti c'è un ulteriore vantaggio di shader di un 6% +.
Jack Carver è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 17:40   #106550
EffeX
Senior Member
 
L'Avatar di EffeX
 
Iscritto dal: Jan 2023
Messaggi: 1617
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Il MSRP però è di 100$ (499-599). Ora con la super o TI, la differenza è abissale.
599: 3070ti
599: 4070super/ti, ovvero circa il 40% grezzo.

La 3070 liscia di prima, costava quanto la super di ora mediamente da noi.

Diciamo che il refresh, ha migliorato non poco la situazione, ma solo sulle o over 600, è questo il problema nvidia.



512bit, è un limite praticamente fisico, che costruisci per via delle ram non soddisfacenti.
La complessità è elevatissima a livello di piste e package. Un ipotetico 768bit, vorrebbe dire, creare le piste per 24 modulini di ram.


La vera svolta sarebbe usare le HBM, soprattutto su chip così.
2 stack HBM ti portano 32gb a circa 1,5 tb/s, e sono equivalenti ad un bus a 128bit ddr.
Ovviamente nvidia non lo fa, in quanto, ha necessità di usare il doppio della ram sulle pro.



Beh, tu hai la possibilità di moddarla, ma sulle review, le GPU vengono lasciate come la casa le ha fatte, ovvero a basic TDP. Pensa le ampere che scendevano a 1700 o le turing ti.
Questo si applicherà pure alle blackwell.

Per il resto, quando comprate una 5070, penso non debba rimarcare il fatto che di 5070 non c'è nulla in quel chip.
GB205, è praticamente il nuovo GB206.

Prima nvidia, usava sempre aumentare un TPC per GPC, quindi l'eventuale BL204, sarebbe dovuto uscire con 8960cc o con 9216cc, e la 5070 essere un cut. Questo sarebbe stato un progresso, oltre che dotare di 256bit anche la 5070.
Ma l’approccio chiplet che avrebbe dovuto debuttare quindi è ancora stato rimandato a data da destinarsi per via delle latenze? Ricordo che ciclicamente sono anni che si parla di adottare una soluzione composta da chippini più economici impilati tra di loro per abbattere i costi, ma fin ora non ho ancora visto nessuno usarlo nell’ambito delle vga. Secondo te potrebbe essere adottata una soluzione simile sulle prossime nVidia o è fantascienza?
__________________
iMac M4 - MacBook Air M1
EffeX è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 18:16   #106551
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22743
Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
anche la 5080, perchè io l'ho sempre confrontata con la 4080 che ha meno shader, con la stessa differenza che c'è tra la 4070 vs 5070. solo tra X70ti vs Ti c'è un ulteriore vantaggio di shader di un 6% +.
Al momento servirebbero alcune conferme, come ad esempio il TDP. Se la 5080 avesse realmente un TDP di 400watt, e quindi +25% rispetto le 4080, significa che le prestazioni sono realmente aumentate non di poco, visto che il PP utilizzato è un tantino migliore rispetto quello di ADA.
Per dire, a 320 watt, dovresti avere un perf/watt, anche marginalmente migliore, figuriamoci a 400w.
Se poi per arrivare a 400, l'hanno sparata oltre efficienza è un altro problema.

Quote:
Originariamente inviato da EffeX Guarda i messaggi
Ma l’approccio chiplet che avrebbe dovuto debuttare quindi è ancora stato rimandato a data da destinarsi per via delle latenze? Ricordo che ciclicamente sono anni che si parla di adottare una soluzione composta da chippini più economici impilati tra di loro per abbattere i costi, ma fin ora non ho ancora visto nessuno usarlo nell’ambito delle vga. Secondo te potrebbe essere adottata una soluzione simile sulle prossime nVidia o è fantascienza?
Si, è da almeno 10 anni che seguo quel progetto, e ne avevo parlato tantissimo (non so se seguivi i post antecedenti la tua iscrizione), ma fu sempre rimandato per alcuni problemi di latenze, visto che ogni WGM (un mega GPC) poteva avere accesso solo alla sua cache.

Ad oggi, la prima struttura MCM dual die, sarà blackwell HPC, dove tra l'altro è sorto qualche problema, e paradossalmente, non si è visto alcun layout interno per verificare la struttura degli SM.
Uno dei problemi è sorto col suo CoWoS (Chip-on-Wafer-on-Substrate), tanto che nvidia potrebbe partire inizialmente col single die.
Chip presentati a marzo, che ancora non sono debuttati.
Nvidia, ha cercato di rendere questo dual chip, come una single GPU, confidando su una sofisticata banda di ben 10tb/s tra die, chiamata NV-HBI (NV-High Bandwidth Interface) .
Già ampere e hopper, malgrado monoliti single die, affrontavano questo problema.

Ora non so che strategia adotti nvidia nel futuro, ma è probabile che prima o poi dovrà puntarci, lo farà anche AMD.

Per dire, già 2 die da 372mm2, sarebbero stati molto più economici da produrre rispetto al 744. Da 607mm2 a 744mm2, può sembrare una piccola variazione, ma le rese quasi si dimezzano.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0 - FTTH tim 2,5 gbps.
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 18:25   #106552
EffeX
Senior Member
 
L'Avatar di EffeX
 
Iscritto dal: Jan 2023
Messaggi: 1617
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Si, è da almeno 10 anni che seguo quel progetto, e ne avevo parlato tantissimo (non so se seguivi i post antecedenti la tua iscrizione), ma fu sempre rimandato per alcuni problemi di latenze, visto che ogni WGM (un mega GPC) poteva avere accesso solo alla sua cache.

Ad oggi, la prima struttura MCM dual die, sarà blackwell HPC, dove tra l'altro è sorto qualche problema, e paradossalmente, non si è visto alcun layout interno per verificare la struttura degli SM.
Uno dei problemi è sorto col suo CoWoS (Chip-on-Wafer-on-Substrate), tanto che nvidia potrebbe partire inizialmente col single die.
Chip presentati a marzo, che ancora non sono debuttati.
Nvidia, ha cercato di rendere questo dual chip, come una single GPU, confidando su una sofisticata banda di ben 10tb/s tra die, chiamata NV-HBI (NV-High Bandwidth Interface) .
Già ampere e hopper, malgrado monoliti single die, affrontavano questo problema.

Ora non so che strategia adotti nvidia nel futuro, ma è probabile che prima o poi dovrà puntarci, lo farà anche AMD.

Per dire, già 2 die da 372mm2, sarebbero stati molto più economici da produrre rispetto al 744. Da 607mm2 a 744mm2, può sembrare una piccola variazione, ma le rese quasi si dimezzano.
Sì, ho sempre seguito il forum anche prima della mia iscrizione.
Se non ricordo male in origine anche Intel con le ARC sembrava sarebbe stata la prima ad adottare tale soluzione per poi venire smentiti succesivamente. Sicuramente AMD potrebbe essere avvantaggiata in questo ambito usando già tale approccio per le CPU, però nVidia qualche anno fa acquisì Mellanox che se non ricordo male era specializzata proprio in ambito interconessioni, ma a quanto pare fin ora devono davvero aver trovato grosse difficoltà nel portare tale tecnologia in ambito GPU. Diciamo che pensavo che con la cache on die sempre più massiccia si sarebbe potuto mettere una pezza al problema delle latenze.
__________________
iMac M4 - MacBook Air M1
EffeX è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 18:31   #106553
Jack Carver
Bannato
 
Iscritto dal: Oct 2022
Messaggi: 158
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Al momento servirebbero alcune conferme, come ad esempio il TDP. Se la 5080 avesse realmente un TDP di 400watt, e quindi +25% rispetto le 4080, significa che le prestazioni sono realmente aumentate non di poco, visto che il PP utilizzato è un tantino migliore rispetto quello di ADA.
Per dire, a 320 watt, dovresti avere un perf/watt, anche marginalmente migliore, figuriamoci a 400w.
Se poi per arrivare a 400, l'hanno sparata oltre efficienza è un altro problema.
non me ne intendo molto dei vari pp.
Nel senso so che ad ogni nuova generazione, il pp utilizzato è migliore a parte una volta che han tirato fuori qualcosa di ancora migliore pur utilizzando il medesimo pp, vedi Kepler vs Maxwell...ma non so di quanto possa essere migliore un pp rispetto il precedente, sinceramente non mi sono documentato. ma se te dici che è un tantino migliore buono a sapersi fa ben sperare.
Jack Carver è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 19:02   #106554
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22743
Quote:
Originariamente inviato da EffeX Guarda i messaggi
Sì, ho sempre seguito il forum anche prima della mia iscrizione.
Se non ricordo male in origine anche Intel con le ARC sembrava sarebbe stata la prima ad adottare tale soluzione per poi venire smentiti succesivamente.
Si, ricordi bene, ma i primi rumour (molto vecchi), erano relativi al HPC, in seguito fu creata una variante per i giocatori, sempre a tema XVE.

Quote:
Originariamente inviato da EffeX Guarda i messaggi
Sicuramente AMD potrebbe essere avvantaggiata in questo ambito usando già tale approccio per le CPU
Anche se su GPU, è un tantino più complesso. AMD in monolitico, ha ancora difficoltà a massimizzare l'uso dei 6 S.E., essendo sempre stata vincolata ai 4.
A sto giro, ha slegato cache e bus, ma la banda effettiva ne ha risentito. una 7900xtx con 48WGP attivi ha una banda di appena 700gb/s, nvidia riesce a massimizzare quel quantitativo di banda con appena 6144cc.
La vera forza di AMD è però lavorare su piccoli gruppi di calcolo, sia per accesso banda che di file di reg.

Quote:
Originariamente inviato da EffeX Guarda i messaggi
, però nVidia qualche anno fa acquisì Mellanox che se non ricordo male era specializzata proprio in ambito interconessioni, ma a quanto pare fin ora devono davvero aver trovato grosse difficoltà nel portare tale tecnologia in ambito GPU. Diciamo che pensavo che con la cache on die sempre più massiccia si sarebbe potuto mettere una pezza al problema delle latenze.
Diciamo che è più semplicie parallelizzare GPU per calcoli ridondanti, anzichè giochi. Cmq il problema stava nel CoWoS di TSMC non era un problema legato nvidia (che rischia di debuttare a single die).
Riguardo le latenze, si ora hai ampie cache, ma il problema è che col vecchio approccio, avevi accesso solo alla cache del die, quindi non avendo latenze mastodontiche die to die, era un problema, infatti fu la prima a studiare delle cache 1,5 veloci, per sviare in parte il problema.

Quote:
Originariamente inviato da Jack Carver Guarda i messaggi
non me ne intendo molto dei vari pp.
Nel senso so che ad ogni nuova generazione, il pp utilizzato è migliore a parte una volta che han tirato fuori qualcosa di ancora migliore pur utilizzando il medesimo pp, vedi Kepler vs Maxwell...ma non so di quanto possa essere migliore un pp rispetto il precedente, sinceramente non mi sono documentato. ma se te dici che è un tantino migliore buono a sapersi fa ben sperare.
Si, maxwell eredita un perfetto colabrodo che era kepler, un chip a dipendenze, con raster ancora ad 8 pixel, ed accesso bw osceno.
Maxwell pur restando sullo stesso PP, sradicò gli SMX per passare agli SMM. Una riorganizzazione, oltre che di cache e compressione che permise di avere dei base boost sino al 15% superiori.

Con i chip attuali significherebbe passare dai 2250/2290 intra e sopra i 2600, oltre ai benefici del PP, che al contrario, raggiunge il picco a tensioni iso 0,75v.
Alcuni rumour parlano addirittura di 2,9 di base, che sarebbe un connubio tra PP e rivisitazione progettuale intensa.
Ovviamente è tutto da vedere e verificare, in quanto significherebbe boostare 1,1v a 3,4 circa.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0 - FTTH tim 2,5 gbps.

Ultima modifica di mikael84 : 29-11-2024 alle 19:05.
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 29-11-2024, 19:02   #106555
argez
Senior Member
 
L'Avatar di argez
 
Iscritto dal: Nov 2001
Città: In quel di Pistoia
Messaggi: 3962
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Il MSRP però è di 100$ (499-599). Ora con la super o TI, la differenza è abissale.
599: 3070ti
599: 4070super/ti, ovvero circa il 40% grezzo.

La 3070 liscia di prima, costava quanto la super di ora mediamente da noi.

Diciamo che il refresh, ha migliorato non poco la situazione, ma solo sulle o over 600, è questo il problema nvidia.



512bit, è un limite praticamente fisico, che costruisci per via delle ram non soddisfacenti.
La complessità è elevatissima a livello di piste e package. Un ipotetico 768bit, vorrebbe dire, creare le piste per 24 modulini di ram.

La vera svolta sarebbe usare le HBM, soprattutto su chip così.
2 stack HBM ti portano 32gb a circa 1,5 tb/s, e sono equivalenti ad un bus a 128bit ddr.
Ovviamente nvidia non lo fa, in quanto, ha necessità di usare il doppio della ram sulle pro.



Beh, tu hai la possibilità di moddarla, ma sulle review, le GPU vengono lasciate come la casa le ha fatte, ovvero a basic TDP. Pensa le ampere che scendevano a 1700 o le turing ti.
Questo si applicherà pure alle blackwell.

Per il resto, quando comprate una 5070, penso non debba rimarcare il fatto che di 5070 non c'è nulla in quel chip.
GB205, è praticamente il nuovo GB206.


Prima nvidia, usava sempre aumentare un TPC per GPC, quindi l'eventuale BL204, sarebbe dovuto uscire con 8960cc o con 9216cc, e la 5070 essere un cut. Questo sarebbe stato un progresso, oltre che dotare di 256bit anche la 5070.
Dai almeno le sue schede servono for the lulz:
argez è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2024, 13:23   #106556
marbasso
Senior Member
 
L'Avatar di marbasso
 
Iscritto dal: Sep 2020
Messaggi: 3188
Ma a voi il sito nvidia funziona se andate ad acquistare una vga? A me si blocca la pagina con errore.
__________________
Intel i9 13900kf @ nzxt kraken x62 / Asus rog strix z790_e gaming / G.skill ddr5 7600 / MSI RTX 4090 Suprim X / RX580 / Galax 2080Ti hof oc Lab ultra 22gb / Crucial T700 / Samsung 990pro / Sabrent rocket 4 plus g / Super Flower LEADEX TITANIUM 1600W ATX3.1 PCIe 5.1 / Corsair AX1600i titanium / EVGA Supernova T2 1600w Titanium / Samsung Odyssey G7
marbasso è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2024, 13:33   #106557
OrazioOC
Senior Member
 
L'Avatar di OrazioOC
 
Iscritto dal: Feb 2019
Messaggi: 4355
Quote:
Originariamente inviato da marbasso Guarda i messaggi
Ma a voi il sito nvidia funziona se andate ad acquistare una vga? A me si blocca la pagina con errore.
C'è già la fila a novembre per acquistare la 5090. XD
__________________
Credo in Gesù Cristo:il terzo giorno risuscitò secondo le sacre scritture. And so i do.
OrazioOC è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2024, 13:37   #106558
marbasso
Senior Member
 
L'Avatar di marbasso
 
Iscritto dal: Sep 2020
Messaggi: 3188
Quote:
Originariamente inviato da OrazioOC Guarda i messaggi
C'è già la fila a novembre per acquistare la 5090. XD
LOL, crasha tutto , io mi stavo preparando
__________________
Intel i9 13900kf @ nzxt kraken x62 / Asus rog strix z790_e gaming / G.skill ddr5 7600 / MSI RTX 4090 Suprim X / RX580 / Galax 2080Ti hof oc Lab ultra 22gb / Crucial T700 / Samsung 990pro / Sabrent rocket 4 plus g / Super Flower LEADEX TITANIUM 1600W ATX3.1 PCIe 5.1 / Corsair AX1600i titanium / EVGA Supernova T2 1600w Titanium / Samsung Odyssey G7
marbasso è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2024, 13:57   #106559
Sonpazzo
Senior Member
 
Iscritto dal: Jul 2014
Messaggi: 2750
@mikael84 e altri

leggendo le vostre parole sui vari prezzi e rispondendo ad un amico complottaro, secondo voi quanto sono giustificati i prezzi delle vga e quanto ci guadagnano le varie compagnie (amd/nvidia)?

cioè quanto costa ad nvidia adesso produrre per esempio una 4080 o futura 50xx?

senza contare gli aumenti dovuti alle eventuali enormi richieste, tipiche in economia.

grazie
Sonpazzo è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2024, 14:13   #106560
marbasso
Senior Member
 
L'Avatar di marbasso
 
Iscritto dal: Sep 2020
Messaggi: 3188
Quote:
Originariamente inviato da Sonpazzo Guarda i messaggi
@mikael84 e altri

leggendo le vostre parole sui vari prezzi e rispondendo ad un amico complottaro, secondo voi quanto sono giustificati i prezzi delle vga e quanto ci guadagnano le varie compagnie (amd/nvidia)?

cioè quanto costa ad nvidia adesso produrre per esempio una 4080 o futura 50xx?

senza contare gli aumenti dovuti alle eventuali enormi richieste, tipiche in economia.

grazie
Pensa a quanto costa produrre un Patek Philippe o un Richard Mille e a quanto te lo fanno pagare.
E l' anno dopo che lo hai preso perde 80k di valore..
__________________
Intel i9 13900kf @ nzxt kraken x62 / Asus rog strix z790_e gaming / G.skill ddr5 7600 / MSI RTX 4090 Suprim X / RX580 / Galax 2080Ti hof oc Lab ultra 22gb / Crucial T700 / Samsung 990pro / Sabrent rocket 4 plus g / Super Flower LEADEX TITANIUM 1600W ATX3.1 PCIe 5.1 / Corsair AX1600i titanium / EVGA Supernova T2 1600w Titanium / Samsung Odyssey G7
marbasso è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo Recensione Samsung Galaxy S26 Ultra: finalmente ...
Diablo II Resurrected: il nuovo DLC Reign of the Warlock Diablo II Resurrected: il nuovo DLC Reign of the...
Deep Tech Revolution: così Area Science Park apre i laboratori alle startup Deep Tech Revolution: così Area Science P...
HP OMEN MAX 16 con RTX 5080: potenza da desktop replacement a prezzo competitivo HP OMEN MAX 16 con RTX 5080: potenza da desktop ...
Recensione Google Pixel 10a, si migliora poco ma è sempre un'ottima scelta Recensione Google Pixel 10a, si migliora poco ma...
MacBook Neo sorprende iFixit: 'Non vedev...
Venus Optics presenta due nuovi obiettiv...
AMD pubblica una guida per eseguire Open...
Tomb Raider I-III Remastered arriva su A...
X fa marcia indietro: si adeguerà...
Framework e la crisi delle memorie: terz...
Doom è ovunque: perché il ...
NVIDIA aggiorna G-Sync Pulsar: migliorat...
Portatile gaming con RTX 5060 a 1.099€: ...
6G for dummies: al MWC 2026 il CEO di Qu...
Le RAM tornano a salire di prezzo: quest...
5 robot aspirapolvere bestseller al mini...
A 59 anni il mio primo hackathon: dieci ...
Come sfruttare le Offerte di Primavera p...
NVIDIA promette un salto enorme: path tr...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 23:26.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v