Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 27-06-2018, 09:01   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: https://www.hwupgrade.it/news/skvide...one_76735.html

L'immagine di una scheda di testing interna di NVIDIA permette di evidenziare alcune delle presunte caratteristiche delle proposte di prossima generazione dell'azienda americana

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 10:50   #2
al135
Senior Member
 
L'Avatar di al135
 
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 8021
nvidia serie TI al top come al solito
tra l'altro si sono normalizzati i prezzi delle schede video, era ora!
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ
27GR95QE
, Headset AR/VR Meta Quest Pro
al135 è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 10:54   #3
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Questi articoli mi fanno davvero ridere, scusate se mi permetto.

A meno che la foto non abbia una data si può estrapolare qualsiasi cosa da questa foto ma di certo non a che punto sono con lo sviluppo delle schede.

Le mie considerazioni:
- se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo
- non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining
- dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli.
2 su 2 = saranno una bomba per i calcoli.
- Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100%
- Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli.
- Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù.
- Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB.
- Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente
- Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda

Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto.

Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 11:01   #4
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Speriamo di no, dovrebbero andare vero il multi-gpu (che sembra funzionare anche bene) non verso nuove soluzioni proprietarie con cavetti.
Che il multi GPU funzioni bene ho i miei seri dubbi.
Il carico di lavoro per supportarlo è molto grande e buona parte del lavoro deve essere fatto o a mano a basso livello o tramite driver.
Nel primo caso hai massima libertà, ma ance il problem di riuscire a far funzionare il tuo motore con tutte le configurazioni possibili.
Nel secondo caso perdi la libertà ma ti garantisci la massima compatibilità, come con lo SLI/CF delle DX11.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 11:20   #5
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Qui abbiamo un esempio: https://www.youtube.com/watch?v=uz1ZO5gLCT0

Visto che ha prestazioni superiori direi che funziona meglio si più dire.
Carico maggiore sulla cpu non direi, pesa un po' di più perchè ha prestazioni superiori, andrebbe provato lockando i frame allo stesso valore.
Il lavoro deve essere fatto a basso livello i driver non centrano.
Non devi preoccuparti di nessuna configurazione, se è compatibile al sistema non frega nulla di quale configurazione hai e usa tutte le risorse disponibili in modo trasparente.

p.s: tra l'altro si possono usare due schede diverse come una 1070 e una 1080, ma anche di produttori diversi mischiando una nvidia e una amd, una nvidia e una intel e via dicendo.
Non ho detto che non funziona.
Ma come vedi passare da 109 FPS mono GPU a 130FPS dual GPU lascia un po' a desiderare.
Se mischi schede di tipo diverso, come detto, non è che non funziona, ma funziona addirittura peggio perché devi prevedere un meccanismo che autoregoli in carico tra le due schede che non può più essere 50-50. E questo non lo fai facilmente e devi fartelo a manina. Non hai modo di fare ottimizzazioni per ciascuna configurazione possibile.
Quindi, come detto, che funzioni ok, che funzioni bene ho miei dubbi, per cui invece che avere il doppio del silicio che dà il 30% in più con il doppio dei consumi, magari dal punto di vista delle performance/costi/consumi/supporto meglio mettere il 30% di silicio in più che garantiscono maggiore performance a tutti i giochi ed evitare diversi casini che non sono semplici da risolvere lato programmazione.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 12:44   #6
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Veramente nel video linkato provano 2 1080ti in SLI e sempre 2 1080ti in mGPU.

Che ci sia la necessità di prevedere il meccanismo da te descritto, che ci siano problemi con schede diverse e servano ottimizzazioni per ogni configurazione non mi risulta, dove l'hai sentita questa cosa?
Oh, l'ho guardato al volo e mi sono concentrato solo sui numerini.

Come non ti risulta? E secondo te come fa il motore a ripartire il lavoro tra due GPU? Così, a naso manda un po' di comandi di qui e un po' di là?
Lo sai come funziona lo SLI/multiGPU, vero? Cioè che c'è una GPU master che deve raccattare le informazioni da una (o più) GPU slave e fino a quando non ha recuperato tutti i dati da ciascuna non può creare l'immagine da spedire sul monitor. A meno di non avere un meccanismo di bilanciamento automatico interno (altro lavoro per il programmatore) la suddivisione preventiva del lavoro in più parti che devono finire allo stesso istante (nel futuro) non è banale. Se la divisione non è bilanciata, hai un ritardo in cui qualcuno aspetta qualcun altro e hai un calo di frame.

Perché credi che il multi GPU, oltre a quello ibrido tra schede diverse o persino tra architetture diverse, non è supportato in maniera così estensiva?
Credi che sia un lavoro banale?
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 14:07   #7
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Le mie considerazioni:
- se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo
non c'è l'indicazione della data, ne tantomeno si può riconoscere la componentistica... potrebbe essere anche una board prototipale per pascal.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining
in alto a sinistra si vede un LVDS.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli.
2 su 2 = saranno una bomba per i calcoli.
dal punto precedente capisci che è una scheda prototipale, invece da questo...
Gx102, il chip per HPC confido che usi ancora le HBM2; farlo con le normali GDDRxx sarebbe tornare due generazioni indietro.
per fare calcolo, molti calcoli, ha necessità di banda, molta banda.
oltretutto il consumo di 12 chip GDDR6 non sarà certo contenuto (e quando scali sul numero delle schede si fa sentire).
quindi non è una scheda prototipale per chip HPC, ed è da escludere tutta la gamma che ricoprono questi chip, forse anche quella Titan...

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100%
dipende dallo stadio di sviluppo... non sapendo a quando risale la foto, non si ha nessun punto di riferimento.
comunque Micron è in produzione con le GDDR6, significa che le board di testing risalgono almeno a un anno fa (poi le board di testing delle memorie sono assai diverse e non necessitano assolutamente di una GPU).

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli.
SLI nel consumer è morto, perchè costerebbe meno mettere 2 schede medie in parallelo con relativa perdita prestazionale che prendere una di pari potenza.
quando sali con la potenza è il costo della ram che incomincia a pesare, perchè devi imbottire di chip le schede non tanto per la capacità totale, ma per la banda massima disponibile.
se avessero fatto una titan con 16x32, ossia un bus da 512bit con chip da 8000mhz GDDR5 da 512 MB avrebbero ottenuto 512GB/s di banda e 8GB di ram; credi che ci sia qualche gioco, oggi, che non rientri in 8GB di ram?
credi che 512GB/s sarebbero stati un collo di bottiglia o una liberazione per quel chip?
li avrebbero pagati sostanzialmente anche meno, con un 'incremento di banda del 10%... ci sarebbero voluti, però, più controller (ed un differente disegno del chip).

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù.
come scritto prima questa è una scheda prototipale proprio per i chip "piccoli" non certo per gli HPC; essendo scheda prototipale, ha buona configurazione (se vedi hai la selezione per tutte le fasi della scheda (17), che puoi interrompere con i jumper in alto, mentre da bios puoi tranquillamente configurare quanti chip memoria usare e la piazzola del chip sembra adatta ad ospitare ben più di un solo tipo di chip... insomma.. è una scheda prototipale universale, ma su ram GDDRxx, quindi dedicata al mondo consumer, non HPC).

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB.
?
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente
potendo essere anche una scheda prototipale universale per la nuova famiglia di chip, meglio alimentarla a dovere, anche perchè le varie fasi sono configurabili, quindi un PIN potrebbe alimentare solo alcune di esse; quando la configuri per il chip più piccolo una o due linee di alimentazione non servono più..

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
- Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda
?
è una scheda prototipale... non c'entra nulla con quelle fatte in serie, quindi non puoi dedurne nulla.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto.

Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio.
appunto... è solo una foto di un pezzo di HW con cui mai nessuno avrà mai a che fare e non dà indicazioni di nulla.
c'era o non c'era era lo stesso.

Ultima modifica di lucusta : 27-06-2018 alle 14:11.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2018, 17:10   #8
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Questi articoli mi fanno davvero ridere, scusate se mi permetto.

A meno che la foto non abbia una data si può estrapolare qualsiasi cosa da questa foto ma di certo non a che punto sono con lo sviluppo delle schede.

Le mie considerazioni:
- se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo
- non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining
- dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli.
2 su 2 = saranno una bomba per i calcoli.
- Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100%
- Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli.
- Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù.
- Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB.
- Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente
- Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda

Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto.

Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio.
il tuo commento non è che non faccia ridere:
i 3 connettori di alimentazioni sono necessari per non avere nessun tipo di problema: quelli di nvidia non sanno a priori il rendimento e l'efficienza del chip prima che venga messo sul silicio, i bug sono dietro l'angolo. Potrebbero benissimo trovarsi un chip che a 1GHz scaldi come un forno, e di solito un nuovo step richiede circa 3 mesi. E visto che il costo di quel PCB è una tantum è meglio abbondare.

per il resto se è l'ennesimo chip a 12nm, su architettura Volta non vedo come possa essere più potente o posizionarsi in un mercato di fascia superiore di quello coperto da GV100, chip da oltre 800mmq.

i 12nm dopo un anno non è che sia nuovissimo, e i risultati ottenuti con GV100 mi sembrano più che soddisfacenti... e un chip più piccolo e maggiormente orientato al gioco non può che rendere meglio.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2018, 07:54   #9
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
@lucusta e tuttodigitale

Siete dei campioni a comprendere il sarcasmo. Complimetoni, sopratutto lucusta che è stato lì a inventarsi giustificazioni per ogni punto che ho elencato
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2018, 09:36   #10
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Che il multi GPU funzioni bene ho i miei seri dubbi.
Il carico di lavoro per supportarlo è molto grande e buona parte del lavoro deve essere fatto o a mano a basso livello o tramite driver.
Nel primo caso hai massima libertà, ma ance il problem di riuscire a far funzionare il tuo motore con tutte le configurazioni possibili.
Nel secondo caso perdi la libertà ma ti garantisci la massima compatibilità, come con lo SLI/CF delle DX11.
guarda che è esattamente il contrario...
lato applicativo hai la massima compatibilità possibile, il rovescio della medaglia è che quel lavoro lo deve fare lo sviluppatore del gioco. Prova lato driver a fare collaborare 2 gpu di produttori diversi, anche con potenza elaborativa simile....

Poi le dx12 rende possibile l'utilizzo del frame pipeling per meglio partizionare il carico di lavoro tra le diverse GPU anche di fascia differente.

lungi da me criticarti , ma come puoi dire che la gestione lato driver garantisce il massimo della compatibilità....di solito le soluzioni SLI/CF sono le prime che vengono abbandonate lato driver....invece teoricamente basta avere 2 gpu con HW in grado di eseguire il gioco, anche di generazione diversa, con potenza non esageratamente differente (si consiglia di non superare il rapporto 2:1) e avere comunque prestazioni discretamente superiori alla soluzione singola.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
@lucusta e tuttodigitale

Siete dei campioni a comprendere il sarcasmo.
i tuoi commenti sono sempre pieni di sarcasmo
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2018, 12:37   #11
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
guarda che è esattamente il contrario...
lato applicativo hai la massima compatibilità possibile, il rovescio della medaglia è che quel lavoro lo deve fare lo sviluppatore del gioco. Prova lato driver a fare collaborare 2 gpu di produttori diversi, anche con potenza elaborativa simile....

Poi le dx12 rende possibile l'utilizzo del frame pipeling per meglio partizionare il carico di lavoro tra le diverse GPU anche di fascia differente.

lungi da me criticarti , ma come puoi dire che la gestione lato driver garantisce il massimo della compatibilità....di solito le soluzioni SLI/CF sono le prime che vengono abbandonate lato driver....invece teoricamente basta avere 2 gpu con HW in grado di eseguire il gioco, anche di generazione diversa, con potenza non esageratamente differente (si consiglia di non superare il rapporto 2:1) e avere comunque prestazioni discretamente superiori alla soluzione singola.



i tuoi commenti sono sempre pieni di sarcasmo
Per compatibilità si intende non il supporto su qualsiasi configurazione ma il fatto che non devi farti il lavoro a mano per ogni configurazione.
Compatibilità era inteso diversamente da configurazioni supportate.
Significa che lasci che sia il driver a fare il lavoro e ti adegui a quello che è in grado di fare lui. In questo modo di garantisci la compatibilità con tutto ciò che è supportato dal driver, da qui a quando viene supportata la tua applicazione.
Guarda che non c'è nulla di "gratuito" con le DX12: come detto garantiscono più libertà ma non la compatibilità.
Infatti non vedo tutta questa rincorsa a creare giochi che supportino il multiGPU, neanche simmetrico, figuriamoci quello asimmetrico o persino quello con architetture diverse. E' un lavoraccio quello di far collaborare 2 GPU indipendenti in modo preciso che porti ad avere un reale migliormento dele prestazioni e non mi sembra che sia molto supportato.
In quasi tutti i test di giochi testati in DX12 usare 2 GPU è esattamente uguale ad averne una sola.

Per quanto riguarda il sarcasmo, la mia era una lista di liberi pensieri che si creavano man mano che guardavo la scheda e cercavo di capire lo stato dello sviluppo, così come fatto da Corsini. Ogni libera interpretazione è ugualmente valida a quella data da Corsini, visto che, o ha informazioni che non ci ha detto direttamente, oppure senza una data e una descrizione di cosa fosse, qualsiasi cosa è valida, pure quanto scritto da lucusta.

E comunque è vero, spesso sono sarcastico
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2018, 14:04   #12
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Ma quanta fuffa scrivi?
Quasi tutti i test dove? Il web è pieno di test dove il mGPU dx12 funziona benissimo anche con schede diverse.
Linka un po' di prove invece di sputar sentenze basate sul nulla.

BF1 differenza SLI mGPU: https://www.youtube.com/watch?v=uz1ZO5gLCT0
RotTR 1080+integrata intel: https://www.youtube.com/watch?v=D7eqYyW266U
Prova anandtech del 2015 addirittura con mix nvidia/amd: https://www.anandtech.com/show/9740/...n-mgpu-preview
Rx480 provate in mGPU con time spy: http://hexus.net/tech/items/graphics...spy-benchmark/
Deux Ex che scala alla grande:https://www.pcper.com/news/Graphics-...ankind-Divided
(le nvidia non vanno perchè non hanno il supporto per deus ex)

Lavoro a mano per ogni configurazione? Ma dove sta scritto?
Una volta che il gioco è compatibile con il mGPU dx12 non frega niente al gioco se ci monti due nvidia, dua amd, una amd e una intel o qualsiasi altra configurazione.
Anche i driver devono solo essere compatibili e gestire le modalità delle mGPU esplicito e basta, non servono profili diversi per ogni gioco come per SLI e CF.
Sìsì, è pieno di giochi DX12 che supportano il multiGPU, c'è la corsa a supportarlo, le review sono piene di test di prove multi GPU come quando lo SLI/CF era supportato dai driver e sopratutto c'è la corsa a farsi le configurazioni multi GPU più di prima. Dello stuttering non se ne fa cenno, ovviamente.

Quasi mi viene il dubbio che sto vivendo in un universo parallelo dove le cose funzionano diversamente.
Va be' continuate a sognare i miracoli delle DX12. Io ancora sto aspettando la tanto decantata possibilità di avere le partizioni di memoria separata delle due GPU che funzionano come fosse una sola...
Intanto il tempo passa e quello che vedo io è che il multi GPU SLI/CF/DX12 è sempre più in abbandono.
Parola di fuffone, certo.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 08-07-2018, 13:48   #13
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Per quanto riguarda il sarcasmo, la mia era una lista di liberi pensieri che si creavano man mano che guardavo la scheda e cercavo di capire lo stato dello sviluppo, così come fatto da Corsini. Ogni libera interpretazione è ugualmente valida a quella data da Corsini, visto che, o ha informazioni che non ci ha detto direttamente, oppure senza una data e una descrizione di cosa fosse, qualsiasi cosa è valida, pure quanto scritto da lucusta.
0
quello scritta da lucusta è sicuramente valido, dedurre invece il consumo energetico dalle caratteristiche tecniche di una scheda di test, che deve far funzionare un chip acerbo con percorsi da sistemare e tutte le funzionalità di risparmio energetico disattivate (pienamente operatrici anche in full load sulle moderne gpu) è un pochino azzardato.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Sìsì, è pieno di giochi DX12 che supportano il multiGPU, c'è la corsa a supportarlo, le review sono piene di test di prove multi GPU come quando lo SLI/CF era supportato dai driver e sopratutto c'è la corsa a farsi le configurazioni multi GPU più di prima. Dello stuttering non se ne fa cenno, ovviamente.

Quasi mi viene il dubbio che sto vivendo in un universo parallelo dove le cose funzionano diversamente.
Va be' continuate a sognare i miracoli delle DX12. Io ancora sto aspettando la tanto decantata possibilità di avere le partizioni di memoria separata delle due GPU che funzionano come fosse una sola...
Intanto il tempo passa e quello che vedo io è che il multi GPU SLI/CF/DX12 è sempre più in abbandono.
Parola di fuffone, certo.
iniziamo con ordine....
premesso che non è detto che una cosa che funziona e bene deve essere adottata fin da subito per dimostrare la sua validità....penso al multithread....oggi moltissimi giochi scalano su 8 thread, ma per anni in epoca multi-core, si è sfruttao solo il thread singolo..
oggi anche la più potente CPU non potrebbe far girare un gioco se il software non si fosse adeguato....
E oggi assistiamo a questo...il passaggio alle DX12 non è completo perchè le CPU odierne sono ancora in grado di gestire l'overhead delle vecchie librerie, e offrire prestazioni adeguate. In questi anni gli sforzi si sono concentrati sulla max risoluzione usufruibile, vedi 4k, e non all'aumento della complessità poligonale. Ma le cose sono destinate a cambiare nei prossimi anni. Volenti o meno, il passaggio in massa, per le produzioni di un certo livello, sarà obbligato.

Parli dello stuttering...la modalità SFR, in cui le 2GPU gestiscono lo stesso frame, implementabile con le DX12 dovrebbe evitarlo. Un altro motivo per abbondare le DX11.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
S
Va be' continuate a sognare i miracoli delle DX12. Io ancora sto aspettando la tanto decantata possibilità di avere le partizioni di memoria separata delle due GPU che funzionano come fosse una sola...
premesso che ti ho detto già una volta che la memoria di lavoro delle GPU VEGA con HBCC attivo è la memoria di sistema...quindi se hai più di una GPU AMD non solo la memoria è condivisa con tutte le GPU, ma anche con la CPU...
se poi vuoi condividere le cache fra tutti i processori, è quantomeno assurdo ..
poi non capisco come è possibile avere partizioni separate che funzionano come fossero una...p o fai un accesso alterno di una GPU con ram appartenente ad una altra gpu, ma praticamente dimezzando, o riducendo a praticamente un terzo, n quarto la banda effettiva della singola gpu in base al quantitativo di VGA che lavorano in parallelo, o colleghi le singole GPU con bus ad altissima velocità, con costi e consumi paurosi..
Non sempre abbondare è un pregio se si deve tener sotto controllo complessità ed efficienza...

Ultima modifica di tuttodigitale : 08-07-2018 alle 13:57.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
TSMC schiererà una flotta di dron...
Pezzotto, sanzioni fino a 16.000 euro: l...
Finalmente rilevata la stella compagna d...
UBTech Walker S2: il robot umanoide cine...
Musk guarda ai più piccoli: in ar...
The Witcher 3 su RISC-V? Ora è po...
Il segreto per lavorare meglio? È...
Mini PC con 16GB RAM e 512GB SSD a poco ...
Radeon RX 9000: questa app gratuita cons...
Windows 11 supporterà la condivis...
Synology DS725+: connettività 2.5...
Microsoft vuole dire addio ai problemi d...
I giocatori si divertono a spendere di p...
Il monopattino che punta a battere il re...
Apple e crittografia, Londra verso la re...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 05:45.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1