|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...one_76735.html
L'immagine di una scheda di testing interna di NVIDIA permette di evidenziare alcune delle presunte caratteristiche delle proposte di prossima generazione dell'azienda americana Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 8021
|
nvidia serie TI al top come al solito
![]() tra l'altro si sono normalizzati i prezzi delle schede video, era ora!
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ 27GR95QE, Headset AR/VR Meta Quest Pro |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Questi articoli mi fanno davvero ridere, scusate se mi permetto.
A meno che la foto non abbia una data si può estrapolare qualsiasi cosa da questa foto ma di certo non a che punto sono con lo sviluppo delle schede. Le mie considerazioni: - se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo - non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining - dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli. 2 su 2 = saranno una bomba per i calcoli. - Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100% - Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli. - Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù. - Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB. - Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente - Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto. Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio. |
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Quote:
Il carico di lavoro per supportarlo è molto grande e buona parte del lavoro deve essere fatto o a mano a basso livello o tramite driver. Nel primo caso hai massima libertà, ma ance il problem di riuscire a far funzionare il tuo motore con tutte le configurazioni possibili. Nel secondo caso perdi la libertà ma ti garantisci la massima compatibilità, come con lo SLI/CF delle DX11. |
|
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Quote:
Ma come vedi passare da 109 FPS mono GPU a 130FPS dual GPU lascia un po' a desiderare. Se mischi schede di tipo diverso, come detto, non è che non funziona, ma funziona addirittura peggio perché devi prevedere un meccanismo che autoregoli in carico tra le due schede che non può più essere 50-50. E questo non lo fai facilmente e devi fartelo a manina. Non hai modo di fare ottimizzazioni per ciascuna configurazione possibile. Quindi, come detto, che funzioni ok, che funzioni bene ho miei dubbi, per cui invece che avere il doppio del silicio che dà il 30% in più con il doppio dei consumi, magari dal punto di vista delle performance/costi/consumi/supporto meglio mettere il 30% di silicio in più che garantiscono maggiore performance a tutti i giochi ed evitare diversi casini che non sono semplici da risolvere lato programmazione. |
|
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Quote:
Come non ti risulta? E secondo te come fa il motore a ripartire il lavoro tra due GPU? Così, a naso manda un po' di comandi di qui e un po' di là? Lo sai come funziona lo SLI/multiGPU, vero? Cioè che c'è una GPU master che deve raccattare le informazioni da una (o più) GPU slave e fino a quando non ha recuperato tutti i dati da ciascuna non può creare l'immagine da spedire sul monitor. A meno di non avere un meccanismo di bilanciamento automatico interno (altro lavoro per il programmatore) la suddivisione preventiva del lavoro in più parti che devono finire allo stesso istante (nel futuro) non è banale. Se la divisione non è bilanciata, hai un ritardo in cui qualcuno aspetta qualcun altro e hai un calo di frame. Perché credi che il multi GPU, oltre a quello ibrido tra schede diverse o persino tra architetture diverse, non è supportato in maniera così estensiva? Credi che sia un lavoro banale? |
|
![]() |
![]() |
![]() |
#7 | ||||||||||
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
Quote:
Quote:
Gx102, il chip per HPC confido che usi ancora le HBM2; farlo con le normali GDDRxx sarebbe tornare due generazioni indietro. per fare calcolo, molti calcoli, ha necessità di banda, molta banda. oltretutto il consumo di 12 chip GDDR6 non sarà certo contenuto (e quando scali sul numero delle schede si fa sentire). quindi non è una scheda prototipale per chip HPC, ed è da escludere tutta la gamma che ricoprono questi chip, forse anche quella Titan... Quote:
comunque Micron è in produzione con le GDDR6, significa che le board di testing risalgono almeno a un anno fa (poi le board di testing delle memorie sono assai diverse e non necessitano assolutamente di una GPU). Quote:
quando sali con la potenza è il costo della ram che incomincia a pesare, perchè devi imbottire di chip le schede non tanto per la capacità totale, ma per la banda massima disponibile. se avessero fatto una titan con 16x32, ossia un bus da 512bit con chip da 8000mhz GDDR5 da 512 MB avrebbero ottenuto 512GB/s di banda e 8GB di ram; credi che ci sia qualche gioco, oggi, che non rientri in 8GB di ram? credi che 512GB/s sarebbero stati un collo di bottiglia o una liberazione per quel chip? li avrebbero pagati sostanzialmente anche meno, con un 'incremento di banda del 10%... ci sarebbero voluti, però, più controller (ed un differente disegno del chip). Quote:
Quote:
Quote:
Quote:
è una scheda prototipale... non c'entra nulla con quelle fatte in serie, quindi non puoi dedurne nulla. Quote:
c'era o non c'era era lo stesso. Ultima modifica di lucusta : 27-06-2018 alle 14:11. |
||||||||||
![]() |
![]() |
![]() |
#8 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
Quote:
i 3 connettori di alimentazioni sono necessari per non avere nessun tipo di problema: quelli di nvidia non sanno a priori il rendimento e l'efficienza del chip prima che venga messo sul silicio, i bug sono dietro l'angolo. Potrebbero benissimo trovarsi un chip che a 1GHz scaldi come un forno, e di solito un nuovo step richiede circa 3 mesi. E visto che il costo di quel PCB è una tantum è meglio abbondare. per il resto se è l'ennesimo chip a 12nm, su architettura Volta non vedo come possa essere più potente o posizionarsi in un mercato di fascia superiore di quello coperto da GV100, chip da oltre 800mmq. i 12nm dopo un anno non è che sia nuovissimo, e i risultati ottenuti con GV100 mi sembrano più che soddisfacenti... e un chip più piccolo e maggiormente orientato al gioco non può che rendere meglio. |
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
@lucusta e tuttodigitale
Siete dei campioni a comprendere il sarcasmo. Complimetoni, sopratutto lucusta che è stato lì a inventarsi giustificazioni per ogni punto che ho elencato ![]() |
![]() |
![]() |
![]() |
#10 | ||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
Quote:
lato applicativo hai la massima compatibilità possibile, il rovescio della medaglia è che quel lavoro lo deve fare lo sviluppatore del gioco. Prova lato driver a fare collaborare 2 gpu di produttori diversi, anche con potenza elaborativa simile.... Poi le dx12 rende possibile l'utilizzo del frame pipeling per meglio partizionare il carico di lavoro tra le diverse GPU anche di fascia differente. lungi da me criticarti ![]() Quote:
![]() |
||
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Quote:
Compatibilità era inteso diversamente da configurazioni supportate. Significa che lasci che sia il driver a fare il lavoro e ti adegui a quello che è in grado di fare lui. In questo modo di garantisci la compatibilità con tutto ciò che è supportato dal driver, da qui a quando viene supportata la tua applicazione. Guarda che non c'è nulla di "gratuito" con le DX12: come detto garantiscono più libertà ma non la compatibilità. Infatti non vedo tutta questa rincorsa a creare giochi che supportino il multiGPU, neanche simmetrico, figuriamoci quello asimmetrico o persino quello con architetture diverse. E' un lavoraccio quello di far collaborare 2 GPU indipendenti in modo preciso che porti ad avere un reale migliormento dele prestazioni e non mi sembra che sia molto supportato. In quasi tutti i test di giochi testati in DX12 usare 2 GPU è esattamente uguale ad averne una sola. Per quanto riguarda il sarcasmo, la mia era una lista di liberi pensieri che si creavano man mano che guardavo la scheda e cercavo di capire lo stato dello sviluppo, così come fatto da Corsini. Ogni libera interpretazione è ugualmente valida a quella data da Corsini, visto che, o ha informazioni che non ci ha detto direttamente, oppure senza una data e una descrizione di cosa fosse, qualsiasi cosa è valida, pure quanto scritto da lucusta. E comunque è vero, spesso sono sarcastico ![]() |
|
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Quote:
Quasi mi viene il dubbio che sto vivendo in un universo parallelo dove le cose funzionano diversamente. Va be' continuate a sognare i miracoli delle DX12. Io ancora sto aspettando la tanto decantata possibilità di avere le partizioni di memoria separata delle due GPU che funzionano come fosse una sola... Intanto il tempo passa e quello che vedo io è che il multi GPU SLI/CF/DX12 è sempre più in abbandono. Parola di fuffone, certo. ![]() |
|
![]() |
![]() |
![]() |
#13 | |||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
Quote:
Quote:
premesso che non è detto che una cosa che funziona e bene deve essere adottata fin da subito per dimostrare la sua validità....penso al multithread....oggi moltissimi giochi scalano su 8 thread, ma per anni in epoca multi-core, si è sfruttao solo il thread singolo.. oggi anche la più potente CPU non potrebbe far girare un gioco se il software non si fosse adeguato.... E oggi assistiamo a questo...il passaggio alle DX12 non è completo perchè le CPU odierne sono ancora in grado di gestire l'overhead delle vecchie librerie, e offrire prestazioni adeguate. In questi anni gli sforzi si sono concentrati sulla max risoluzione usufruibile, vedi 4k, e non all'aumento della complessità poligonale. Ma le cose sono destinate a cambiare nei prossimi anni. Volenti o meno, il passaggio in massa, per le produzioni di un certo livello, sarà obbligato. Parli dello stuttering...la modalità SFR, in cui le 2GPU gestiscono lo stesso frame, implementabile con le DX12 dovrebbe evitarlo. Un altro motivo per abbondare le DX11. Quote:
se poi vuoi condividere le cache fra tutti i processori, è quantomeno assurdo .. poi non capisco come è possibile avere partizioni separate che funzionano come fossero una...p o fai un accesso alterno di una GPU con ram appartenente ad una altra gpu, ma praticamente dimezzando, o riducendo a praticamente un terzo, n quarto la banda effettiva della singola gpu in base al quantitativo di VGA che lavorano in parallelo, o colleghi le singole GPU con bus ad altissima velocità, con costi e consumi paurosi.. ![]() Non sempre abbondare è un pregio se si deve tener sotto controllo complessità ed efficienza... Ultima modifica di tuttodigitale : 08-07-2018 alle 13:57. |
|||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 05:45.